2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
本周,技術觀察人員在英特爾獲得了令人印象深刻的AI加速器工作,即Hot Chips 2019活動的啟示,其中英特爾展示了其Nervana神經網絡處理器的細節,(1)用于培訓的NNP-T和(2)NNP-I推斷。

讓我們首先重新審視推斷(Spring Hill)的工作,以及NNP-1,它是在以色列海法的工廠開發的。NNP-1代表用于推理的神經網絡處理器。
路透社的Steven Scheer說,它的構造將允許它“ 使用最少的能量來應對高工作負荷 ”。
TNW的 Ravie Lakshmananin描述了它的功能,稱其“專門針對人工智能的推理方面推斷出新的見解。通過使用專用的AI推理計算引擎,NNP-I以更低的功率提供更高的性能。”
Nervana這個名字來自哪里?Nervana Systems是它在2016年收購的公司。當時,分析師Karl Freund告訴EE Times,英特爾這樣做很有意義。收購Nervana是進入深度學習市場的一種方式。
本周,為什么這個問題變成了原因 - 不是英特爾發言人。
“為了實現'AI無處不在'的未來情況,我們必須處理大量的數據生成,并確保組織具備了有效利用數據所需的資源,并在收集數據時對其進行處理,” 在路透社的一份報告中,Nervana的創始人,現任英特爾人工智能產品集團總經理Naveen Rao 說。“這些計算機需要加速復雜的AI應用程序。”
包括SiliconANGLE在內的技術觀察人士表示,NNP-1適用于運行AI工作負載的大型數據中心。Fossbytes表示,一套全面的RAS功能可確保它可以輕松部署到現有數據中心。
喬爾Hruska的在ExtremeTech來:“英特爾聲稱NNP,我可以提供的每3600個推論ResNet50性能第二在10W TDP運行時工程以4.8 TOPS /瓦,符合英特爾的整體效率目標(該公司聲稱,NNP-。我在低瓦數時效率最高。)“
2019年Hot Chips會議的另一個感興趣的項目是NNP-T,它代表英特爾Nervana神經網絡訓練處理器。英特爾將NNP-T(代號為Spring Crest)描述為專用(1),以大規模訓練復雜的深度學習模型,(2)通過開箱即用的橫向擴展支持簡化分布式培訓。
湯姆硬件公司的 Paul Alcorn 寫道,“NNP-T的設計是如何從機箱到機箱無縫擴展,甚至機架到機架,無需交換機。” 他說,網絡是專為高帶寬和低延遲而設計的; 反過來,該架構將處理“大規模模型,可擴展到5或80億個或更多參數。”
Naveen Rao評論道:“英特爾Nervana NNP-T推動了深度學習培訓的界限。它旨在優先考慮兩個關鍵的現實考慮:如何盡快培訓網絡以及如何在給定的功率預算內完成。” 該體系結構是從頭開始構建的,沒有遺留的工作負載可供支持。
從更大的角度來看,“以色列時報”稱“英特爾,Nvidia,高通,谷歌等公司以及全球各地的創業公司都在尋找這一領域的新技術,其中包括創造硬件以實現巨大的處理能力。信息量。“
Shoshanna Solomon寫道:處理硬件有兩個目的:(1)訓練計算機完成新任務;(2)教他們推斷并從而獲得見解。
總而言之,英特爾正在努力使數據科學家能夠在處理非結構化和復雜數據時做到這兩點。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)