2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
微軟今天升級了它的DeepSpeed庫,用ZeRO-2訓練大型神經網絡。微軟表示,內存優化技術能夠訓練1700億個參數的機器學習模型。就背景而言,英偉達龐大的威震天語言模型是當今世界上最大的語言模型之一,擁有110億個參數。

今天的聲明是在DeepSpeed庫2月份的開源發布之后發布的,該庫用于創建Turing-NLG。Turing-NLG擁有170億個參數,是目前世界上已知的最大的語言模型。微軟在2月份推出了零冗余優化器(Zero)和DeepSpeed。
ZeRO通過減少數據并行中的內存冗余來實現其結果,這是另一種將大型模型放入內存的技術。ZeRO-1包含一些模型狀態內存優化,而ZeRO-2提供了激活內存和片段內存的優化。
DeepSpeed是為跨多臺服務器的分布式模型訓練而設計的,但ZeRO-2也在單GPU上對訓練模型進行了改進,據報道,訓練模型如谷歌的BERT提高了30%。
更多細節將在周三由微軟首席技術官凱文·斯科特(Kevin Scott)發表的主題演講中宣布。
這一消息是在微軟全數字構建開發者大會開幕之際發布的,會上宣布了多項人工智能開發成果,包括用于機器學習中的差異隱私的WhiteNoise工具包,以及用于人工智能工業應用的盆栽項目。
上周,英偉達CEO黃延森發布了Ampere GPU架構和A100 GPU。新的GPU芯片——以及多模態模型和大規模推薦系統等趨勢——將在未來幾年引領更大的機器學習模型。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。