2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
谷歌今天推出了第二代Tensor處理器部門,這是一個云計算硬件和軟件系統,是該公司最雄心勃勃,影響深遠的技術的基礎。首席執行官Sundar Pichai在今天上午公司I / O開發者大會的主題演講中宣布了新聞。

去年作為專門用于機器學習的專用芯片展示的第一款TPU 被AlphaGo人工智能系統用作其預測和決策技能的基礎。每當有人向其搜索引擎輸入查詢時,Google也會使用TPU的計算能力。最近,該技術已應用于機器學習模型,用于改進谷歌翻譯,谷歌照片和其他可以新穎使用新的人工智能培訓技術的軟件。
通常,這項工作是使用商用GPU(通常來自Nvidia)完成的--Facebook使用Nvidia GPU作為其Big Basin AI培訓服務器的一部分。但谷歌過去幾年選擇自己構建一些硬件,并針對自己的軟件進行優化。
從這個意義上講,最初的TPU專門設計用于與谷歌的TensorFlow配合使用,后者是用于機器學習的眾多開源軟件庫之一。然而,由于Google的進步以及硬件和軟件的集成,TensorFlow已成為構建AI軟件的領先平臺之一。此優化與Google Brain及其DeepMind子公司的內部人才相結合,是Google繼續走在更廣泛的AI領域前沿的部分原因。
現在,Google表示其TPU系統的第二個版本已全面投入運營,并且正在其Google Compute Engine上部署,這是一個平臺,其他公司和研究人員可以利用類似于亞馬遜AWS和微軟Azure的計算資源。谷歌當然會使用該系統本身,但它也將新TPU作為其他公司使用的無與倫比的資源。
為此,該公司開發了一種將64個TPU組合成TPU Pods的方法,有效地將Google服務器機架轉變為具有11.5 petaflops計算能力的超級計算機。即使是在他們自己的情況下,第二代TPU也能夠“提供驚人的180 teraflops的計算能力,并且僅用于推動機器學習的數字運算,”Google的首席科學家李飛飛說。和機器學習。
谷歌大腦團隊的高級研究員杰夫迪恩說,谷歌在競爭對手產品方面的優勢在于實驗的速度和自由。“我們新推出的大型翻譯模型需要一整天的時間來訓練世界上最好的商用GPU之一,”迪恩在本周的新聞發布會上對一組記者說。“雖然TPU吊艙的八分之一可以在一個下午完成工作。”
除了速度之外,第二代TPU還將允許Google的服務器同時執行所謂的推理和培訓。之前的TPU只能進行推理 - 例如,依靠Google Cloud實時處理數字以產生結果。另一方面,培訓是如何開發AI算法,并且需要非凡的資源。
機器學習作為現代人工智能研究的基石,有效地意味著為數十萬個算法提供算法,以便學習以一種從未明確編程過的方式執行任務。這體現在許多不同的消費產品中,例如谷歌翻譯幾乎能夠將英語句子變成普通話,或者AlphaGo能夠發揮超人熟練的深度,類似國際象棋的棋盤游戲。
這一切都歸結為在大量數據上訓練神經網絡并將其轉化為可行的算法 - 并且需要計算能力。從更一般的意義上講,這些培訓系統通過大量數字運算來改進AI軟件。因此硬件越強大,獲得的結果就越快。“如果我們能夠將每個實驗的時間從幾周縮短到幾天或幾小時,這將提高每個人進行機器學習以更快地迭代并進行更多實驗的能力,”Dean說。
由于這個較新的TPU現在能夠進行推理和培訓,研究人員可以比以前更快地部署更多功能的AI實驗 - 只要該軟件是使用TensorFlow構建的。谷歌還重申其對開源模式的承諾,向同意發布他們的研究結果甚至可能開源代碼的研究人員提供TPU資源。該公司正在將該計劃稱為TensorFlow Research Cloud,它將免費提供對1,000個TPU群集的訪問權限。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)