<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給AI研習社
      發送

      0

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

      本文作者: AI研習社 2020-03-26 15:04
      導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

        目錄

      使用混合精度的方法在GPU集群上進行深度循環神經網絡的訓練

      PoseNet3D:無監督的3D人體形狀和姿態估計

      AET vs. AED:無監督表示學習通過自編碼變換而不是自編碼數據

      基于注意力的視點選擇網絡用于光場視差估計

      基于CNN的中文lexicon rethinking NER模型

        使用混合精度的方法在GPU集群上進行深度循環神經網絡的訓練

      論文名稱:Training distributed deep recurrent neural networks with mixed precision on GPU clusters

      作者:Alexey Svyatkovskiy / Julian Kates-Harbeck / William Tang

      發表時間:2019/11/30

      論文鏈接:https://paper.yanxishe.com/review/13855?from=leiphonecolumn_paperreview0326

      推薦原因

      核心問題:本文從硬件選取、模型搭建、分布式計算策略、學習率、損失函數等方面,非常詳細的講解了如何高效使用多達100個GPU進行深度循環神經網絡

      創新點:本文沒有相關工作的部分,貴在務實,從實際的研究工作中部署一個高效的GPU集群的角度,討論了如何將分布式計算策略、基于混合精度的訓練模型結合起來,使得模型的訓練速度加快、內存消耗降低,并且模型的表現分數并不會下降。同時,作者還研究了使用參數來對損失函數進行縮放,以此提高模型在集群環境下的收斂速度

      研究意義:無論是循環神經網絡,還是卷積神經網絡,模型的規模越來越大,本文作者所提出的各種技巧,能解決訓練過程實際的問題,一方面,能在保證了模型的準確率的情況下減少訓練的成本,另一方面,也有助于在當前的資源下,訓練更大的模型。

      這些技巧主要針對GPU集群環境,但也能給單GPU環境的同學提供參考。

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

        PoseNet3D:無監督的3D人體形狀和姿態估計

      論文名稱:PoseNet3D: Unsupervised 3D Human Shape and Pose Estimation

      作者:Tripathi Shashank /Ranade Siddhant /Tyagi Ambrish /Agrawal Amit

      發表時間:2020/3/7

      論文鏈接:https://paper.yanxishe.com/review/13853?from=leiphonecolumn_paperreview0326

      推薦原因

      從二維關節中恢復三維人體姿態是一個高度無約束的問題。本文作者提出了一種新的神經網絡框架PoseNet3D,其以2D關節點作為輸入,輸出3D骨架和SMPL人體模型的參數。作者使用了學生-老師框架,從而避免了在訓練過程中使用3D數據如配對/未配對的3D數據、動捕數據、深度圖或者多視角圖像等等。作者首先使用2D人體關鍵點訓練了一個教師網絡輸出3D人體骨架,教師網絡將其知識提取到學生網絡中,然后學生網絡預測基于SMPL人體模型表達的3D人體姿態。

      作者的方法在Human3.6M數據集上相比之前無監督的方法,3D關節點預測誤差減少了18%。在自然數據集上,文章方法恢復的人體姿態和網格也是較為自然、真實的,在連續幀上預測結果也比較連續。

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

        AET vs. AED:無監督表示學習通過自編碼變換而不是自編碼數據

      論文名稱:AET vs. AED: Unsupervised Representation Learning by Auto-Encoding Transformations rather than Data

      作者:Zhang Liheng /Qi Guo-Jun /Wang Liqiang /Luo Jiebo

      發表時間:2019/1/14

      論文鏈接:https://paper.yanxishe.com/review/13851?from=leiphonecolumn_paperreview0326

      推薦原因

      這篇論文提出了一種新的通用的無監督表示學習框架——自編碼變換(Auto-Encoding Transformation,AET)。經典的自編碼數據框架的輸入是圖像,采用編碼-解碼網絡得到重構之后的圖像。而自編碼變換的輸入是常見的變換(如旋轉,射影變換,放射變換等),即圖像和經過變換之后的圖像,經過編碼-解碼結構之后得到重構的變換,重構的變換和原始的變換使用MSE作為損失函數,這對于參數化和非參數化的變換,以及GAN都是有效的。作者通過實驗表明,通過重構變換可以提取到更加豐富并且具有判別性的特征,當自編碼變換網絡訓練完畢之后,使用編碼部分的網絡結構和權重就可以作為一種特征提取器,從而泛化到其他具體任務上。作者利用NIN網絡,分別采用基于模型的分類器和不基于模型的分類器(KNN)進行圖像分類實現,其性能比之前的無監督方法要優越。該論文收錄在CVPR 2019,其提出的新的通用的無監督表示學習框架對無監督學習具有很大的啟發作用。

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

        基于注意力的視點選擇網絡用于光場視差估計

      論文名稱:Attention-based View Selection Networks for Light-field Disparity Estimation

      作者:Yu-Ju Tsai / Yu-Lun Liu / Ming Ouhyoung / Yung-Yu Chuang

      發表時間:2020/2/1

      論文鏈接:https://paper.yanxishe.com/review/13680?from=leiphonecolumn_paperreview0326


      推薦原因

      這篇論文是用來解決光場圖像(Light-fifield)的深度估計問題。對于光場圖像,其輸入是同一個物體多個不同視角的圖像,作者認為這些視角之間具有很大的重疊,在提取特征時是存在重復和冗余現象的。由此,作者提出了一個基于注意力機制的視角選擇網絡,作為多個視角特征的重要性衡量權重,從而去除一些重疊和冗余的視角。具體來說,是借鑒雙目深度估計的PSMNet網絡結構,在匹配代價體(cost volume)之后插入一個基于注意力的視角選擇網絡。網絡的輸出是0-1的權重,按照構造形式可以分為無約束的(free),對稱型的(symmetric)和放射狀的(radial)三種形式,并且學習的參數量逐漸減少。這篇論文的想法比較直接,但是確實能取得當前光場圖像深度估計的最佳性能,收錄在AAAI 2020。

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

        基于CNN的中文lexicon rethinking NER模型

      論文名稱:CNN-Based Chinese NER with Lexicon Rethinking

      作者:Tao Gui

      發表時間:2019/11/6

      論文鏈接:https://paper.yanxishe.com/review/13548?from=leiphonecolumn_paperreview0326

      推薦原因

      本文研究意義:

      采用長時短期記憶(LSTM)對字符級中文命名實體識別(NER)目前已經實現了不錯的效果,然而當我們在具體工程化落地的過程中,會出現GPU在并行性計算的時候會和候選詞之間發生沖突的問題,針對這一問題,作者建議采用更快卷積神經網絡CNN重新構建模型,因為LSTM是一種時序網絡不能夠進行并行化計算,而CNN是可以進行并行化計算。通過實驗表明,作者所提出的方法可以執行比最先進的方法快3.21倍,同時實現更好的性能。

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

      雷鋒網雷鋒網雷鋒網

      相關文章:

      今日 Paper | PolarMask;時間序列;面部表情編輯;ELECTRA 等

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

      分享:
      相關文章

      編輯

      聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 久久久久久久| 久久婷婷大香萑太香蕉AV人| 亚洲国产精品久久久久婷蜜芽 | 精品久久久久久无码专区| 亚洲午夜视频| 拍摄av现场失控高潮数次| 宫西光在线| 色天使av| 强奸福利视频在线观看| 欧美三级中文字幕在线观看| 大地影院免费高清电视剧大全| 国产喷水1区2区3区咪咪爱av| 国产亚洲成人网站| 久久精品国产再热青青青 | 精品网站999www| 成人性生交片无码免费看| 在线 欧美 中文 亚洲 精品| 国产人无码a在线西瓜影音| 国产AV一区二区三区| 又爽又黄又无遮挡的激情视频| 亚洲综合无码一区二区| 老熟女网站| 成人九九| 久久激情综合| 国产浮力第一页| 日韩乱码人妻无码中文字幕| 国产女人高潮毛片| 成年女人黄小视频| 新沂市| 国产视频一区二区| 日日操影院| 亚洲精品国产suv一区88| 男人天堂2019| 色综合天天综合狠狠爱| 黑人成人网| 亚洲无码AⅤ| 亚洲人成人伊人成综合网无码| 欧美激情成人网| 日本一区二区三区在线 |观看| 国产高清亚洲精品91| 性大毛片视频|