<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給岑大師
      發送

      1

      百度聯合英偉達發布最新論文:使深度學習效率事半功倍的混合精度訓練

      本文作者: 岑大師 2017-10-13 10:48
      導語:百度高級研究員Greg Diamos介紹了由百度硅谷AI實驗室(SVAIL)與NVIDIA合作的最新成果:一種名為“混合精度訓練”的深度學習方法。

      雷鋒網消息,在10月10日-11日在加拿大蒙特利爾召開的Rework Deep Learning Summit會議上,百度高級研究員Greg Diamos介紹了由百度硅谷AI實驗室(SVAIL)與NVIDIA合作的最新成果:一種名為“混合精度訓練”(Mixed Precision Training,簡稱MPT)的深度學習模型。

      百度聯合英偉達發布最新論文:使深度學習效率事半功倍的混合精度訓練

      Greg Diamos在Rework Deep Learning Summit上演講中。

      據了解,大多數的深度學習模型使用的是32位單精度浮點數(FP32)來進行訓練,而混合精度訓練的方法則通過16位浮點數(FP16)進行深度學習模型訓練,從而減少了訓練深度學習模型所需的內存,同時由于FP16的運算比FP32運算更快,從而也進一步提高了硬件效率。

      通過用半精度運算替代全精度運算來提高效率,這一技術原理聽起來很簡單明了,但將其付諸實施并不像聽起來那么簡單。此前也有團隊嘗試過使用更低精度進行混合計算(如二進制,甚至4-bit),但問題在于這往往不可避免地造成結果的準確性和在主要網絡變換上的損失,而百度的MPT模型不僅解決了這一問題,更重要的是MPT無需改變網絡超參數(雷鋒網注:超參數指Bayes統計理論先驗分布的參數, 它不像其他的參數可以用統計量估計),并保持與單精度相同的準確性。

      在百度研究院博客中,百度進一步解釋了這一模型的原理:

      深度學習模型由各種層(Layer)組成,包括完全連接的層,卷積層和反復層。層與層之間的轉換可以通過通用矩陣乘法(GEMM)來實現,而對深度學習訓練的過程其實很大程度是GEMM計算的過程。

      如下圖所示,GEMM操作可以分解為若干個幾個乘法運算和后續的加法運算。

      百度聯合英偉達發布最新論文:使深度學習效率事半功倍的混合精度訓練

      當使用FP16代表神經網絡中的數據時,GEMM操作的輸入矩陣由16位數組成。我們需要可以使用16位計算執行乘法的硬件,但是需要使用32位計算和存儲來執行加法。使用少于32位的加法操作訓練大型深度學習模型會非常困難。

      為此,百度不僅與NVIDIA共同解決了硬件支持的問題,雙方還對訓練流程進行了一些修改,模型中的輸入,權重,梯度和激活以FP16格式表示。但是如之前介紹,與FP32數字相比,半精度數字的范圍有限,只是通過簡單地更改存儲格式,某些模型無法達到與單精度相同的精度。為此,NVIDIA和百度采用了兩種關鍵技術:

      第一項關鍵技術被稱為“混合精密鑰匙”(mixed precision key)。如下圖所示,在MT模型中仍然保留FP32格式的主副本,將FP16用于正向和反向傳播,優化器中的梯度更新將被添加到主FP32副本當中,該FP32副本被簡化為一個FP16副本在訓練期間使用,這個過程在每次訓練迭代中重復,直至模型收斂且足以恢復損失的精度,從而達到較低內存使用、內存帶寬壓力更低和更快速執行的優點。

      百度聯合英偉達發布最新論文:使深度學習效率事半功倍的混合精度訓練

      深度學習模型的混合精度訓練示意圖


      第二種關鍵技術則是“損耗縮放”(loss-scaling)。該技術可以夠恢復一些小數值的梯度。在訓練期間,一些權重梯度具有非常小的指數,其FP16格式可能會變為零。為了克服這個問題,我們使用縮放因子在反向傳播開始時縮放損失,通過連鎖規則,梯度也逐漸擴大,并在FP16中可表示。在將其更新應用于權重之前,梯度確實需要縮小;而為了恢復某些型號的精度損失,必須進行損耗調整。關于這兩種技術的更多細節可以在我們的論文中找到。

      百度已使用這種方法使用FP16訓練其DeepSpeech 2模型。結果表明,對于英文和普通話模型和數據集和使用相同的超參數、模型架構進行混合精度訓練實驗,可以得到到FP32訓練的精度。

      同時,使用FP16訓練減少了深度學習模型的內存需求,使得百度能夠使用一半的處理器來訓練這些模型,從而有效地加倍了集群大小。此外,FP16算術的峰值性能(如上所述)通常高于單精度計算。

      雷鋒網發現,NVIDIA博客也公布了應用混合精度訓練的ImageNet數據集上訓練卷積神經網絡的結果。如果讀者希望了解有關混合精度培訓和全套結果和實驗的更多詳細信息,可點此參閱ArXiv上的論文

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      百度聯合英偉達發布最新論文:使深度學習效率事半功倍的混合精度訓練

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 777午夜福利理伦电影网| 日韩成人无码毛片| 无码AV中文字幕久久专区| 亚洲av无码男人的天堂| 日韩av第一页在线播放| 好吊妞av| 国产亚洲精品久久久久婷婷瑜伽| 日韩激烈无码| 在线成人AV| 四虎永久精品免费视频| 国产av不卡一区二区| 无码日韩精品一区二区三区免费| 夜夜高潮次次欢爽av女| 欧美人与动欧交视频| 金门县| 中文字幕av无码一区二区三区| 亚洲图片视频丝袜| 亚洲成人A∨| 内射少妇18| 国产美女精品人人做人人爽| 国产成人精品亚洲午夜| 538任你爽精品视频国产| 日韩成人电影| 精品一区二区三区在线成人| 中文日韩亚洲欧美字幕| 久久国产自拍一区二区三区| 中文字幕在线无码一区二区三区| 人妖TS丝袜脚交| 果冻传媒18禁免费视频 | 久久99精品久久久久久琪琪| 小泽玛利亚三级片| 日韩人妻中文字幕一区| 99自拍视频| 国产v| 大色欧美| 亚洲另类色综合网站| 久久91精品牛牛| 日韩人妻高清福利视频| 色色97| 超碰伊人久久大香线蕉综合| 最近免费中文字幕mv在线视频3|