<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發(fā)者 正文
      發(fā)私信給汪思穎
      發(fā)送

      0

      Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

      本文作者: 汪思穎 2017-12-07 08:58
      導語:經(jīng)過將近一年的發(fā)展,日前,迎來了 PyTorch 0.3.0 版本。

      雷鋒網(wǎng) AI 科技評論按,2017 年初,F(xiàn)acebook 在機器學習和科學計算工具 Torch 的基礎(chǔ)上,針對 Python 語言發(fā)布了一個全新的機器學習工具包 PyTorch。一經(jīng)發(fā)布,這款開源工具包就受到廣泛關(guān)注和討論,經(jīng)過幾個月的發(fā)展,目前 PyTorch 已經(jīng)成為從業(yè)者最重要的研發(fā)工具之一。經(jīng)過將近一年的發(fā)展,日前,迎來了 PyTorch 0.3.0 版本。

      Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

      根據(jù)官方文檔的介紹,此次增加了多個函數(shù)和功能,多方面的性能均實現(xiàn)提升。

      重大變更

      0.3 版本中刪掉了 Variable.reinforce() 等隨機函數(shù),因為它們的功能有限,并且會影響到性能。設(shè)置隨機函數(shù)的初衷是為了避免采樣值的 book-keeping,在實際中,由于各種各樣的原因,用戶的代碼中仍然會包括 book-keeping。他們引入了 torch.distributions 包來代替隨機函數(shù)。

      之前的代碼如下:

      probs = policy_network(state)

      action = probs.multinomial()

      next_state, reward = env.step(action)

      action.reinforce(reward)

      action.backward()

      現(xiàn)在的代碼如下:

      probs = policy_network(state)

      # NOTE: categorical is equivalent to what used to be called multinomial

      m = torch.distributions.Categorical(probs)

      action = m.sample()

      next_state, reward = env.step(action)

      loss = -m.log_prob(action) * reward

      loss.backward()

      新的功能

      1、目前,有些損失函數(shù)能直接計算 mini-batch 中每個 sample 的損失值。

      2、構(gòu)建了一個 in-built Profiler,能對模型進行瓶頸分析,這個 Profiler 同時支持 CPU 和 CUDA 模型。

      更多信息可以參見 http://pytorch.org/docs/0.3.0/autograd.html#profiler

      3、增加 Higher order gradients 模塊,支持如下層:

      • ConvTranspose, AvgPool1d, AvgPool2d, LPPool2d, AvgPool3d, MaxPool1d, MaxPool2d, AdaptiveMaxPool, AdaptiveAvgPool, FractionalMaxPool2d, MaxUnpool1d, MaxUnpool2d, nn.Upsample, ReplicationPad2d, ReplicationPad3d, ReflectionPad2d

      • PReLU, HardTanh, L1Loss, SoftSign, ELU, RReLU, Hardshrink, Softplus, SoftShrink, LogSigmoid, Softmin, GLU

      • MSELoss, SmoothL1Loss, KLDivLoss, HingeEmbeddingLoss, SoftMarginLoss, MarginRankingLoss, CrossEntropyLoss

      • DataParallel

      4、優(yōu)化器

      • optim.SparseAdam:能實現(xiàn)適用于稀疏張量的簡單亞當算法

      • 優(yōu)化器中增加了 add_param_group 函數(shù),能在構(gòu)建好的優(yōu)化器中增加新的參數(shù)組。

      除此之外,還增加了新的張量函數(shù)和功能,在新版本中,能通過 ONNX 將模型遷移到其他框架上。另外,在加速方面,重寫 gpu kernel 之后,softmax 和 log_softmax 的速度能實現(xiàn) 4-256 倍的提升;在分布式 AllReduce 中,能實現(xiàn) 2.5-3 倍的性能提升;torch.norm 函數(shù)的 backward 能實現(xiàn) 1.5 倍的加速;pack_padded_sequence 的性能也有提升。

      雷鋒網(wǎng) AI 科技評論編譯整理,具體的介紹可以參加說明文檔,里面有詳細說明。地址如下:https://github.com/pytorch/pytorch/releases/tag/v0.3.0

      雷鋒網(wǎng) AI 科技評論后續(xù)也將持續(xù)關(guān)注PyTorch的更新。

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

      分享:
      相關(guān)文章

      編輯

      關(guān)注AI學術(shù),例如論文
      當月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 久久亚洲人成网站| av鲁丝一区鲁丝二区鲁丝三区| 久久久婷| 亚洲高清av| 在线A级毛片无码免费真人| 亚洲香蕉av一区二区蜜桃| 国产在线拍揄自揄拍无码视频| 麻豆国产| 亚洲色欲久久久综合网东京热| 一本大道久久香蕉成人网| 中文岛国精品亚洲一区| 乱色欧美激惰| 一本色道无码不卡在线观看| 久久精品无码av| 石嘴山市| 男人下部进女人下部视频| 内射视频在线观看| 色翁荡熄又大又硬又粗又视频| 一区二区三区av天堂| 久操视频在线免费观看| 中文人妻无码一区二区三区信息 | 自拍视频啪| 精品无码成人片一区二区98| 91在线观看视频| 亚洲av久久精品狠狠爱av| 成全影视大全在线观看| 精品乱人码一区二区二区| 日韩人妻无码精品久久| 可以免费看的天堂av| 成人动漫综合网| 亚洲啊啊啊一区二区三区| 国内精品美女a∨在线播放| 黄骅市| 无码精品人妻一区二区三区湄公河| 岛国无码精品| 亚洲精品无amm毛片| 国产黄色短视频| 狂野欧美激情性xxxx| 亚洲日韩第2页| 网红刘婷户外野战黑人在线免费观看| 在线精品自拍亚洲第一区|