2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)

研究人員開發了一種新的框架,用于通過語法引導的網絡生成器構建深度神經網絡。在實驗測試中,新的網絡(稱為AOGNets)在視覺識別任務中的表現優于現有的最先進的框架,包括廣泛使用的ResNet和DenseNet系統。北卡羅來納州立大學的研究人員開發了一種新的框架,用于通過語法引導網絡生成器構建深度神經網絡。在實驗測試中,新的網絡(稱為AOGNets)在視覺識別任務中的表現優于現有的最先進的框架,包括廣泛使用的ResNet和DenseNet系統。
“AOGNets比我們比較的任何網絡都具有更好的預測準確性,”北卡羅來納州電氣和計算機工程助理教授兼工作論文的通訊作者Tianfu Wu說。“AOGNets也更具解釋性,這意味著用戶可以看到系統如何得出結論。”
新框架使用組合語法方法進行系統架構,該方法利用先前網絡系統的最佳實踐,以更有效地從原始數據中提取有用信息。
“我們發現,分層和組合語法為我們提供了一種簡單,優雅的方式來統一以前的系統架構所采用的方法,而據我們所知,這是第一項利用語法進行網絡生成的工作,”Wu說。
為了測試他們的新框架,研究人員開發了AOGNets,并針對三種圖像分類基準測試它們:CIFAR-10,CIFAR-100和ImageNet-1K。
“AOGNets在公平比較中獲得的性能明顯優于所有最先進的網絡,包括ResNets,DenseNets,ResNeXts和DualPathNets,”Wu說。“AOGNets還使用ImageNet中的網絡剖析度量獲得了最佳模型可解釋性評分.AOGNets進一步顯示了對抗性防御和平臺無關部署(移動與云端)的巨大潛力。”
研究人員還使用vanilla Mask R-CNN系統在Microsoft COCO基準測試中測試了AOGNets在對象檢測和實例語義分割方面的性能。
“AOGNets獲得了比ResNet和ResNeXt主干更好的結果,模型尺寸更小,推理時間相似或稍好一些,”Wu說。“結果顯示了AOGNets在對象檢測和分割任務中學習更好功能的有效性。
這些測試是相關的,因為圖像分類是視覺識別的核心基本任務之一,ImageNet是標準的大規模分類基準。同樣,對象檢測和分割是兩個核心高級視覺任務,MS-COCO是最廣泛使用的基準之一。
“為了評估視覺識別中深度學習的新網絡架構,它們是金色的測試平臺,”吳說。“AOGNets是在原則語法框架下開發的,并且在ImageNet和MS-COCO中都獲得了顯著的改進,因此在許多實際應用中表現出對表示學習的潛在廣泛和深遠的影響。
“我們對語法引導的AOGNet框架感到興奮,并且正在探索其在其他深度學習應用中的表現,例如深層自然語言理解,深度生成學習和深度強化學習,”吳說。
該論文“AOGNets:深度學習的組合語法架構”將于6月16日至20日在加利福尼亞州長灘舉行的IEEE計算機視覺與模式識別大會上發表。論文的第一作者是李希來,博士.D。NC州的學生。該論文由獨立研究員習松共同撰寫。
這項工作是在美國陸軍研究辦公室的支持下完成的,資金來源為W911NF1810295和W911NF1810209。
提交了一份專利申請。作者有興趣與潛在的學術和行業合作伙伴合作。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)