欧美日韩激情电影,久久亚洲精品毛片,日日夜夜天天综合入口,亚洲激情六月丁香

您的位置: 首頁 >科技 >

谷歌大腦的XLNet在20個NLP任務中勝過BERT

2022-08-15 01:36:41 編輯:梁莉恒 來源:
導讀 谷歌大腦和卡內基梅隆大學(Carnegie Mellon University)的一組研究人員本周介紹了XLNet,這是一種人工智能模型,能夠在20項NLP任務中勝過...

谷歌大腦和卡內基梅隆大學(Carnegie Mellon University)的一組研究人員本周介紹了XLNet,這是一種人工智能模型,能夠在20項NLP任務中勝過谷歌的前沿BERT,并在18項基準測試任務中獲得最先進的結果。BERT(來自Transform的雙向編碼器表示)是谷歌的語言表示模型,用于NLP模型的無監督預訓練,于去年秋天首次引入。

XLNet在幾個任務中實現了最先進的性能,包括7個GLUE語言理解任務、3個閱讀理解任務(比如SQuAD)和7個文本分類任務(包括處理Yelp和IMDB數據集)。與BERT相比,使用XLNet進行文本分類的錯誤率顯著降低了16%。2018年秋,谷歌開放了BERT的源代碼。

XLNet利用了最佳的自回歸和自編碼方法,這些方法用于無監督的預訓練,在arXiv周三發表的一篇論文中詳細介紹了各種技術。

“XLNet是一種廣義的自回歸前訓練方法,它通過最大化因子分解順序所有排列的期望可能性來實現雙向上下文學習,并且[……]克服了BERT的局限性,這得益于它的自回歸公式,”論文寫道。

這個模型的名字來源于Transformer-XL,這是一個自回歸模型,今年1月由同一組研究人員發布。XLNet采用Transformer-XL的片段遞歸機制前訓練方法和相關編碼方案。該模型還借鑒了NADE,后者是由來自谷歌DeepMind、Twitter和學術界的研究人員創建的,用于其排列語言建模方法。

XLNet是最近出現的性能優于BERT的NLP模型。微軟人工智能研究人員在5月份引入了多任務深度神經網絡(MT-DNN)。該模型以BERT為基礎,但在大量理解GLUE語言的基準性能任務上取得了較好的性能。


免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。

主站蜘蛛池模板: 天气| 枣庄市| 沁源县| 张家口市| 广州市| 涿州市| 永寿县| 八宿县| 敦化市| 襄汾县| 姚安县| 昌黎县| 天台县| 深水埗区| 南和县| 新平| 星座| 内丘县| 迭部县| 旬邑县| 资源县| 保靖县| 阜南县| 五寨县| 嘉峪关市| 广东省| 汾西县| 阳东县| 松桃| 杭州市| 云龙县| 且末县| 枣阳市| 黔西| 繁峙县| 米林县| 保康县| 磐安县| 贡山| 黄梅县| 敦化市|