欧美日韩激情电影,久久亚洲精品毛片,日日夜夜天天综合入口,亚洲激情六月丁香

您的位置: 首頁 >科技 >

Nvidia滿足了對自然語言處理的需求

2022-08-23 19:34:31 編輯:陳陽瑗 來源:
導讀 隨著對聊天機器人和人工智能交互的自然語言處理需求的增長,越來越多的公司需要能夠提供它的系統。Nvidia表示其平臺可以處理它。Nvidia在對...

隨著對聊天機器人和人工智能交互的自然語言處理需求的增長,越來越多的公司需要能夠提供它的系統。Nvidia表示其平臺可以處理它。Nvidia在對話自然語言處理(NLP)培訓和推理方面擁有突破,可以在客戶和聊天機器人之間實現更復雜的交換,并立即做出響應。

Juniper Research的數據顯示,預計這種技術的需求將增長,因為預計未來四年內僅數字語音助理將從25億增加到80億,而Gartner預測,到2021年,所有客戶服務互動的比例將達到15%。 AI將完全處理,比2017年增加400%。該公司表示其DGX-2 AI平臺在不到一個小時的時間內培訓了BERT-Large AI語言模型,并在2+毫秒內完成了AI推理,使得開發人員可以使用最先進的語言理解 - 規模應用。“

變形金剛的BERT或雙向編碼器表示是一種基于Google的AI語言模型,許多開發人員認為在一些性能評估中,它比人類具有更高的準確性。這一切都在這里討論。

Nvidia設置自然語言處理記錄

總而言之,Nvidia聲稱擁有三張NLP記錄:

1.培訓:運行最大版本的BERT語言模型,Nvidia DGX SuperPOD配備92個運行1,472 V100 GPU的Nvidia DGX-2H系統,可將培訓時間從幾天縮短到53分鐘。單個DGX-2系統的大小與塔式PC相當,在2.8天內訓練了BERT-Large。

應用深度學習研究副總裁Bryan Catanzaro在一份聲明中說:“我們可以越快地訓練模型,我們可以訓練的模型越多,我們對問題的了解就越多,結果就越好。”

2.推論:在其TensorRT深度學習推理平臺上使用Nvidia T4 GPU,Nvidia在2.2毫秒內對BERT-Base SQuAD數據集進行了推斷,遠低于許多實時應用的10毫秒處理閾值,遠遠領先于40使用高度優化的CPU代碼測量的毫秒數。

3.型號:Nvidia表示其新的定制模型,稱為Megatron,擁有83億個參數,比BERT-Large大24倍,是世界上最大的基于變形金剛的語言模型,變形金剛是用于BERT和其他自然語言AI的構建模塊楷模。

為了讓FOSS的擁護者感到高興,Nvidia也通過GitHub提供了大量的源代碼。

使用PyTorch的NVIDIA GitHub BERT培訓代碼

TensorFlow的NGC模型腳本和檢查點

TensorRT在GitHub上優化了BERT樣本

更快的Transformer:C ++ API,TensorRT插件和TensorFlow OP

MXNet Gluon-NLP,支持AMP的BERT(培訓和推理)

AI Hub上的TensorRT優化BERT Jupyter筆記本

Megatron-LM:用于訓練大型變壓器模型的PyTorch代碼

并不是說這很容易消耗掉。我們正在談論非常先進的AI代碼。很少有人能夠做出正面或反面。但這種姿態是積極的。


免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。

主站蜘蛛池模板: 沙湾县| 永昌县| 东乌珠穆沁旗| 沾化县| 丰台区| 永康市| 和顺县| 闽清县| 蓬莱市| 盐城市| 泗洪县| 兰州市| 泗水县| 阜新市| 巴塘县| 临澧县| 枣强县| 鹰潭市| 连州市| 江达县| 军事| 陆丰市| 施秉县| 宁波市| 翁源县| 确山县| 阿鲁科尔沁旗| 伊春市| 锡林浩特市| 平远县| 东至县| 阿城市| 库车县| 兴文县| 池州市| 甘肃省| 时尚| 万荣县| 大庆市| 沈阳市| 岱山县|