<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能學(xué)術(shù) 正文
      發(fā)私信給叢末
      發(fā)送

      0

      Pytorch-Transformers 1.0 發(fā)布,支持六個(gè)預(yù)訓(xùn)練框架,含 27 個(gè)預(yù)訓(xùn)練模型

      本文作者: 叢末 2019-07-17 17:23
      導(dǎo)語:本文還有安裝教程!

      雷鋒網(wǎng) AI 科技評論按:剛剛,在 Github 上發(fā)布了開源 Pytorch-Transformers 1.0,該項(xiàng)目支持 BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM 等,并包含 27 個(gè)預(yù)訓(xùn)練模型。

      我們來看。

      哪些支持

      PyTorch-Transformers(此前叫做pytorch-pretrained-bert)是面向自然語言處理,當(dāng)前性能最高的預(yù)訓(xùn)練模型開源庫。

      該開源庫現(xiàn)在包含了 PyTorch 實(shí)現(xiàn)、預(yù)訓(xùn)練模型權(quán)重、運(yùn)行腳本和以下模型的轉(zhuǎn)換工具:

      1、谷歌的 BERT,論文:“BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”,論文作者:Jacob Devlin, Ming-Wei Chang, Kenton Lee ,Kristina Toutanova

      2、OpenAI 的GPT,論文:“ Improving Language Understanding by Generative Pre-Training”,論文作者:Alec Radford, Karthik Narasimhan, Tim Salimans , Ilya Sutskever

      3、OpenAI 的 GPT-2,論文:“ Language Models are Unsupervised Multitask Learners”,論文作者:Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei,Ilya Sutskever

      4、谷歌和 CMU 的 Transformer-XL ,論文:“ Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context”,論文作者:Zihang Dai*, Zhilin Yang*, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov.

      5、谷歌和 CMU 的XLNet,論文:“XLNet: Generalized Autoregressive Pretraining for Language Understanding”,論文作者:Zhilin Yang*, Zihang Dai*, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le

      6、Facebook的 XLM,論文:“ Cross-lingual Language Model Pretraining”,論文作者:Guillaume Lample,Alexis Conneau

      這些實(shí)現(xiàn)都在幾個(gè)數(shù)據(jù)集(參見示例腳本)上進(jìn)行了測試,性能與原始實(shí)現(xiàn)相當(dāng),例如 BERT中文全詞覆蓋在 SQuAD數(shù)據(jù)集上的F1分?jǐn)?shù)為93 , OpenAI GPT 在 RocStories上的F1分?jǐn)?shù)為88, Transformer-XL在 WikiText 103 上的困惑度為18.3, XLNet在STS-B的皮爾遜相關(guān)系數(shù)為0.916。

      27個(gè)預(yù)訓(xùn)練模型

      項(xiàng)目中提供了27個(gè)預(yù)訓(xùn)練模型,下面是這些模型的完整列表,以及每個(gè)模型的簡短介紹。

      Pytorch-Transformers 1.0 發(fā)布,支持六個(gè)預(yù)訓(xùn)練框架,含 27 個(gè)預(yù)訓(xùn)練模型

      Pytorch-Transformers 1.0 發(fā)布,支持六個(gè)預(yù)訓(xùn)練框架,含 27 個(gè)預(yù)訓(xùn)練模型

      例子

      BERT-base和BERT-large分別是110M和340M參數(shù)模型,并且很難在單個(gè)GPU上使用推薦的批量大小對其進(jìn)行微調(diào),來獲得良好的性能(在大多數(shù)情況下批量大小為32)。

      為了幫助微調(diào)這些模型,我們提供了幾種可以在微調(diào)腳本中激活的技術(shù) run_bert_classifier.py 和 run_bert_squad.py:梯度累積(gradient-accumulation),多GPU訓(xùn)練(multi-gpu training),分布式訓(xùn)練(distributed training )和16- bits 訓(xùn)練( 16-bits training)。注意,這里要使用分布式訓(xùn)練和16- bits 訓(xùn)練,你需要安裝NVIDIA的apex擴(kuò)展。

      作者在doc中展示了幾個(gè)基于BERT原始實(shí)現(xiàn)(https://github.com/google-research/bert/)和擴(kuò)展的微調(diào)示例,分別為:

      • 九個(gè)不同GLUE任務(wù)的序列級分類器;

      • 問答集數(shù)據(jù)集SQUAD上的令牌級分類器;

      • SWAG分類語料庫中的序列級多選分類器;

      • 另一個(gè)目標(biāo)語料庫上的BERT語言模型。

      我們這里僅展示GLUE的結(jié)果:

      Pytorch-Transformers 1.0 發(fā)布,支持六個(gè)預(yù)訓(xùn)練框架,含 27 個(gè)預(yù)訓(xùn)練模型

      這里是使用uncased BERT基礎(chǔ)模型在GLUE基準(zhǔn)測試開發(fā)集上得到的結(jié)果。所有實(shí)驗(yàn)均在批量大小為32的P100 GPU上運(yùn)行。盡管比較原始,但結(jié)果看起來還不錯。

      安裝

      該項(xiàng)目是在Python 2.7和3.5+上測試(例子只在python 3.5+上測試)和PyTorch 0.4.1到1.1.0測試

      pip 安裝:

      pip install pytorch-transformers

      測試:

      python -m pytest -sv ./pytorch_transformers/tests/

      python -m pytest -sv ./examples/

      傳送門:

      源碼:https://github.com/huggingface/pytorch-transformers

      文檔:https://huggingface.co/pytorch-transformers/index.html

      延伸閱讀

      [深度]周明:自然語言處理的未來之路,http://m.35crmo.cc/news/201907/djMxwOkOO5u4sf6O.html

      多圖帶你讀懂 Transformers 的工作原理,http://m.35crmo.cc/news/201903/ELyRKiBJOx8agF1Q.html

      超越 BERT 和 GPT,微軟亞洲研究院開源新模型 MASS!http://m.35crmo.cc/news/201906/21E6GehD0d9SHC2Q.html

      一個(gè)續(xù)寫故事達(dá)到人類水平的AI,OpenAI大規(guī)模無監(jiān)督語言模型GPT-2, http://m.35crmo.cc/news/201902/wuK3G9qDcrf5dX0r.html    雷鋒網(wǎng)雷鋒網(wǎng)

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

      Pytorch-Transformers 1.0 發(fā)布,支持六個(gè)預(yù)訓(xùn)練框架,含 27 個(gè)預(yù)訓(xùn)練模型

      分享:
      相關(guān)文章
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個(gè)人簡介
      為了您的賬戶安全,請驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 欧美另类精品xxxx人妖| 中文字幕一二区| 久久天天躁狠狠躁夜夜av浪潮| 午夜福利92国语| 汪清县| аⅴ天堂 在线| 国产欧美日韩综合精品二区| 91一区二区| 狠狠?综合?精品?伊人| 狠狠色综合网站久久久久久久| 蜜桃久久精品成人无码av| 国产精品人| 一区二区三区国产| 日韩精品一区二区三区视频| 国语自产精品视频在线看| 免费人成黄页网站在线观看| 加勒比中文字幕无码一区| 武定县| 久久久久久毛片免费播放| 人人色人人| 无码人妻一区二区三区av| 国产精品综合| 欧美色资源站| 亚洲熟妇无码成人A片| 未满十八18勿进黄网站| 亚洲婷婷综合色高清在线| 精品人妻潮喷久久久又裸又黄| 久久精品免费观看国产| 亚洲成av人片在www鸭子| 久久久www免费人成精品| 日韩有码中文在线观看| 在线观看亚洲天堂| japanese五十路熟妇| 国产毛片A啊久久久久| 一本本月无码-| 日韩在线视频观看免费网站| 国产精品白浆一区二小说| 影视先锋av资源噜噜| 连州市| 久久久亚洲欧洲日产国码aⅴ| 亚洲国产成人精品无码区在线观看|