<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發者 正文
      發私信給汪思穎
      發送

      0

      OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

      本文作者: 汪思穎 2018-01-17 09:41
      導語:對于普通的前饋模型,可以在計算時間只增加 20% 的情況下,在 GPU 上訓練比之前大十多倍的模型。

      雷鋒網 AI 研習社消息,近日,OpenAI 在 GitHub 上開源最新工具包 gradient-checkpointing,該工具包通過設置梯度檢查點(gradient-checkpointing)來節省內存資源。據悉,對于普通的前饋模型,可以在計算時間只增加 20% 的情況下,在 GPU 上訓練比之前大十多倍的模型。雷鋒網 AI 研習社將該開源信息編譯整理如下:

      通過梯度檢查點(gradient-checkpointing)來節省內存資源

      訓練非常深的神經網絡需要大量內存,利用 Tim Salimans 和 Yaroslav Bulatov 共同開發的 gradient-checkpointing 包中的工具,可以犧牲計算時間來解決內存過小的問題,讓你更好地針對模型進行訓練。

      對于普通的前饋模型,可以在計算時間只增加 20% 的情況下,在 GPU 上訓練比之前大十多倍的模型。

      訓練深度神經網絡時,損失的梯度是在內存密集部分通過反向傳播(backpropagation)算法來計算的。在訓練模型時定義計算圖中的檢查點,并在這些檢查點之間通過反向傳播算法重新計算這些圖,可以在降低內存的同時計算梯度值。

      當訓練一個 n 層的深度前饋神經網絡時,可以利用這種方式將內存消耗減少到 O(sqrt(n)),代價是需要執行一個額外的前向傳遞操作。這個庫可以在 Tensorflow 中實現這一功能——使用 Tensorflow graph editor 來自動重寫后向傳遞的計算圖。

      OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

      圖:使用常規的 tf.gradients 函數和使用這種優化內存梯度實現法(memory-optimized gradient implementation)訓練不同層數的 ResNet 模型時需要的內存對比

      大家現在就可以安裝

      pip install tf-nightly-gpu

      pip install toposort networkx pytest

      當執行這一程序時,需要保證能找到CUPTI。

      這時可以執行

      export LD_LIBRARY_PATH="${LD_LIBRARY_PATH}:/usr/local/cuda/extras/CUPTI/lib64

      使用方法

      這個庫提供嵌入式功能,能對 tf.gradients 函數進行替換,可以輸入如下程序來引入相關函數:

      from memory_saving_gradients import gradients

      大家可以像使用 tf.gradients 函數一樣使用 gradients 函數來計算參數損失的梯度。

      gradients 函數有一個額外的功能——檢查點(checkpoints)。

      檢查點會對 gradients 函數進行指示——在計算圖的前向傳播中,圖中的哪一部分節點是用戶想要檢查的點。隨后,會在后向傳播中重新計算檢查點之間的節點。

      大家可以為檢查點提供一系列張量(gradients(ys,xs,checkpoints=[tensor1,tensor2])),或者可以使用如下幾個關鍵詞('collection'、'memory' 、'speed')來進行設置。

      覆蓋 tf.gradients 函數

      使用 gradients 函數的另一個方法是直接覆蓋 tf.gradients 函數,方法如下:

      import tensorflow as tf

      import memory_saving_gradients

      # monkey patch tf.gradients to point to our custom version, with automatic checkpoint selection

      def gradients_memory(ys, xs, grad_ys=None, **kwargs):

        return memory_saving_gradients.gradients(ys, xs, grad_ys, checkpoints='memory', **kwargs)

      tf.__dict__["gradients"] = gradients_memory

      這樣操作之后,所有調用 tf.gradients 函數的請求都會使用新的節省內存的方法。

      測試

      在測試文件夾中,有已經寫好的用于測試代碼準確性和不同模型占用內存的腳本。

      大家可以執行 ./run_all_tests.sh 來修改代碼,并著手測試。

      OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

      圖:在CIFAR10數據集上,使用常規的梯度函數和使用最新的優化內存函數,在不同層數的 ResNet 網絡下的內存占用情況和執行時間的對比

      via:GitHub

      雷鋒網 AI 研習社編譯整理。

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

      分享:
      相關文章

      編輯

      關注AI學術,例如論文
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 亚洲国产欧美不卡在线观看| 久久99精品久久久久麻豆| 日本不卡视频| 益阳市| 一本a新久道| 国产成人精品无码播放| 国产精品18久久久| 丝袜a片| 波多野结衣一级毛片| 野花社区www高清视频| 极品无码国模国产在线观看 | 国产精品午夜爆乳美女视频| 亚欧乱色国产精品免费九库| 东安县| 亚洲a∨无码一区二区三区| 人妻窝窝WWW聚色窝| 自拍视频亚洲精品在线| 亚洲第一在线综合网站| 美女福利导航| 久久久久久综合岛国免费观看| 人妻少妇精品中文字幕av蜜桃| 国产在线观看第一页| www.色吊丝av.com| 中文字幕精品久久久久人妻红杏1| 壶关县| 日产国产精品亚洲系列| 老司机亚洲精品一区二区| 无码av免费毛片一区二区| 99久久亚洲精品无码毛片| 亚洲123区| 偷拍亚洲一区二区三区| 国产精品美女久久久久久久久| 谢通门县| 人妻无码人妻| 97无码国产精品久久久日本| 亚洲欧美一区二区成人片| 亚洲字幕av一区二区三区四区| 亚洲欧洲一区二区| 国产成人亚洲精品狼色在线| 日韩亚洲一区二区精品成人| 中文字幕无码专区一VA亚洲V专|