剩女的黄金时代演员 黄金时代性狂欢的描写
AOGNets:首個語法生成網絡,視覺識別優于當前最先進框架
來源: 新智元 發布時間: 2019-06-05

 【新智元導讀】神經網絡結構是提高深度神經網絡性能的基礎。研究人員開發出了首個通過語法引導的神經網絡生成器AOGNets,它能更有效地在原始數據中提取信息,在圖像分類、目標檢測和分割方面的表現優于包括ResNets、DenseNets、ResNeXts和DualPathNets在內最先進的神經網絡。

 
  北卡羅萊納州立大學的研究人員開發了一個通過語法指導的網絡生成器來打造深度神經網絡的新框架。在實驗測試中,被稱為AOGNets的新網絡在視覺識別任務方面優于現有的最先進的框架,包括廣泛使用的ResNet和DenseNet系統。
 
  作為這項研究中一篇論文的作者,北卡羅萊納州立大學電子與計算機工程副教授吳田富博士說:“與我們對比過的任何一個網絡相比,AOGNets都具有更好的預測精度。” AOGNets也更容易解釋,這意味著用戶可以看到系統是如何得出結論的。”
 
  新框架對系統架構使用了一個組合語法方法,該方法可以從以前的網絡系統上獲取最佳實踐,從而更有效地從原始數據中提取有用的信息。
 
  吳教授說:“我們發現,層次和組合語法為我們提供了一種簡單、優雅的方法來統一以前系統架構所采用的方法,據我們所知,這是第一個將語法用于網絡生成的成果。”
 
  為了測試他們的新框架,研究人員開發了AOGNets,并將其用三個圖像分類基準(CIFAR-10、CIFAR-100和ImageNet-1K)進行了測試。
 
  “在公平比較下,AOGNets的表現明顯優于其他所有最先進的網絡,包括ResNets, DenseNets, ResNeXts和DualPathNets。” 吳田富說:”利用圖像網絡中的網絡剖分度量,AOGNets獲得了最高的模型可解釋性分。AOGNets在對抗性防御和平臺不可知( platform-agnostic)部署(移動vs云)方面進一步顯示出巨大的潛力。”
 
  研究人員還使用vanilla Mask R-CNN系統在微軟Coco基準測試中測試了AOGNets在目標檢測和實例語義分割方面的表現。
 
  “在模型尺寸更小、推理時間相似或更短的情況下,AOGNets比ResNet和ResNeXt獲得了更好的結果。” 吳教授表示:“結果表明,在目標檢測和分割任務中,AOGNets具有較好的學習效果。”
 
  這些測試是相關的,因為圖像分類是視覺識別的核心基礎任務之一,而ImageNet是標準的大規模分類基準。同樣,目標檢測和分割是兩個核心的高級視覺任務,而MS-COCO是最廣泛使用的基準之一。
 
  “為了評估用于視覺識別中進行深度學習的新網絡體系結構,它們是黃金試驗臺。” 吳田富說道:“AOGNets是在一個有原則的語法框架下開發的,并在ImageNet和MS-COCO下都得到了顯著的改進,從而對許多實際應用中的表示學習顯示出潛在的廣泛和深刻的影響。”
 
  吳教授說:“我們對語法指導的AOGNets框架感到興奮,并正在探索它在其他深度學習應用中的表現,如深度自然語言理解、深度生成性學習和深度強化學習。”
 
  論文《AOGNets: 用于深度學習的復合語法體系結構》將于6月16日至20日在加州長灘舉行的IEEE計算機視覺和模式識別會議上發表。論文的第一作者是Xilai Li,一名北卡羅萊納州立大學的博士生。這篇論文是由一位獨立研究員Xi Song共同撰寫。
 
  參考來源:
 
  https://techxplore.com/news/2019-05-framework-deep-neural-networks.html

Copyright©2002-2019  中國通信標準化協會版權所有  聯系我們 | 意見反饋
網站備案:京ICP備05002969號-1 網站維護:通信標準化推進中心 (010)82054513, webmaster

剩女的黄金时代演员 25066590137037908557834674646634561395555116023967544071246154099735070950614414823513988826730181 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();