<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給AI研習社
      發送

      0

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

      本文作者: AI研習社 2020-03-05 16:01
      導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。
      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

        目錄

      Social-STGCNN:一種用于行人軌跡預測的社會時空圖卷積神經網絡

      音頻驅動的帶自然頭部姿態的說話人臉視頻生成

      用自適應實例歸一化將學習從合成噪聲轉移到真實噪聲去噪

      CookGAN:食材圖像合成

      通過幾何感知網絡學習光場角度超分辨率

        Social-STGCNN:一種用于行人軌跡預測的社會時空圖卷積神經網絡

      論文名稱:Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction

      作者:Mohamed Abduallah /Qian Kun /Elhoseiny Mohamed /Claudel Christian

      發表時間:2020/2/27

      論文鏈接:https://paper.yanxishe.com/review/12827?from=leiphonecolumn_paperreview0305

      推薦原因

      這篇論文被CVPR 2020接收,考慮的是行人軌跡預測的問題。

      行人軌跡不僅受行人本身影響,還與周圍物體的相互作用有關。這篇論文提出了社會時空圖卷積神經網絡(Social Spatio-Temporal Graph Convolutional Neural Network,Social-STGCNN),將行人與周圍物體的交互行為建模為圖模型,并通過一個核函數將行人之間的社交互動嵌入鄰接矩陣中。實驗結果表明,與先前方法相比,Social-STGCNN的最終位移誤差較現有技術提高了20%,參數減少了8.5倍,而推理速度提高了48倍。

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等
      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

        音頻驅動的帶自然頭部姿態的說話人臉視頻生成

      論文名稱:Audio-driven Talking Face Video Generation with Natural Head Pose

      作者:Ran Yi /Zipeng Ye /Juyong Zhang /Hujun Bao /Yong-Jin Liu

      發表時間:2020/2/24

      論文鏈接:https://paper.yanxishe.com/review/12316?from=leiphonecolumn_paperreview0305

      推薦原因

      現實世界中說話的人臉通常伴隨著自然的頭部運動,但大多數現有的說話人臉視頻生成方法僅考慮具有固定頭部姿勢的人臉動畫。

      本文通過提出一個深度神經網絡模型來解決此問題,該模型將源人的音頻信號A和目標人的非常短的視頻V作為輸入,并輸出合成的高質量說話人臉視頻,其具有自然的頭部姿勢(利用V中的視覺信息),且表情和嘴唇同步(同時考慮A和V)。該項工作最大的挑戰是自然的頭部姿態包含平面內外的頭部旋轉,為了解決這個問題,作者重建出3D人臉動畫并將其重新渲染為視頻序列,為了平滑過渡這些視頻的背景圖使得結果更加逼真,作者提出了一個新穎的內存增強的GAN模塊。

      大量實驗和用戶調研表明,文章方法可以生成高質量(即自然的頭部運動,表情和嘴唇的同步)個性化的說話人臉視頻,表現優于 state-of-the-art 的方法。

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等
      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

        用自適應實例歸一化將學習從合成噪聲轉移到真實噪聲去噪

      論文名稱:Transfer Learning from Synthetic to Real-Noise Denoising with Adaptive Instance Normalization

      作者:Kim Yoonsik /Soh Jae Woong /Park Gu Yong /Cho Nam Ik

      發表時間:2020/2/26

      論文鏈接:https://paper.yanxishe.com/review/12691?from=leiphonecolumn_paperreview0305

      推薦原因

      這篇論文被CVPR接收,考慮的是真實噪聲的去噪問題。

      這篇論文提出了一個廣義降噪結構和遷移學習方案來應對各種復雜的實際噪聲。這個方案采用自適應實例規范化來構建一個降噪器,可以正規化特征地圖,并且防止網絡過度擬合訓練集。這篇論文還提出了一個遷移學習方法,可以將從合成噪聲數據中學習的知識遷移到真實噪聲領域。合成噪聲降噪器可以從各種合成噪聲數據學習一般特征,而真實噪聲降噪器可以從中學到真實數據的實時噪聲特性。新提出的去噪方法具有很強的泛化能力,在合成噪聲上訓練的網絡能夠在Darmstadt Noise Dataset (DND)數據集上取得目前最好的性能結果。

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等
      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

        CookGAN:食材圖像合成

      論文名稱:CookGAN: Meal Image Synthesis from Ingredients

      作者:Han Fangda /Guerrero Ricardo /Pavlovic Vladimir

      發表時間:2020/2/25

      論文鏈接:https://paper.yanxishe.com/review/12690?from=leiphonecolumn_paperreview0305

      推薦原因

      這篇論文發表于WACV 2020,通過食材列表合成逼真的食品圖像。

      以往利用生成對抗網絡進行圖像生成的工作主要集中在生成空間緊湊且定義明確的物品上,而食品圖像則更加復雜,包含了多種食材成分,其外觀和空間品質通過不同的烹飪方式會進一步變化。為了從配料中生成真實的食品圖像,這篇論文提出了CookGAN,該模型首先建立一個基于注意力的配料-圖像關聯模型,然后將其用于調節生成合成食品圖像的神經網絡。此外,CookGAN添加了周期一致約束以進一步改善圖像質量并控制外觀。實驗表明,CookGAN能生成與成分相對應的食品圖像。

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等
      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

        通過幾何感知網絡學習光場角度超分辨率

      論文名稱:Learning Light Field Angular Super-Resolution via a Geometry-Aware Network

      作者:Jin Jing /Hou Junhui /Yuan Hui /Kwong Sam

      發表時間:2020/2/26

      論文鏈接:https://paper.yanxishe.com/review/12689?from=leiphonecolumn_paperreview0305

      推薦原因

      這篇論文發表于AAAI 2020,考慮的是光場圖像超分辨率的問題。

      目前有一些方法用以改善稀疏采樣光場的角分辨率,但這些方法主要關注基準較小的光場,例如消費型光場相機。這篇論文提出一種端到端的學習方法,旨在對具有較大基準的稀疏采樣光場進行角度超分辨率處理。新方法包括兩個可學習模塊和一個基于物理的模塊:用于顯式建模場景幾何的深度估計模塊,用于新視圖合成的基于物理的屈折模塊,以及專門設計用于光場重建的光場混合模塊。此外,新方法引入一種新損失函數來促進光場視差結構的保存。在包括大基準光場圖像在內的各種光場數據集上的實驗結果表明,與當前最佳技術相比,這篇論文所提的方法具有明顯優勢,并且可以更好地保留光場視差結構。

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等
      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

        論文作者團隊招募

      為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現。致力成為國內外前沿研究成果學習討論和發表的聚集地,也讓優秀科研得到更為廣泛的傳播和認可。

      我們希望熱愛學術的你,可以加入我們的論文作者團隊。

      加入論文作者團隊你可以獲得

          1.署著你名字的文章,將你打造成最耀眼的學術明星

          2.豐厚的稿酬

          3.AI 名企內推、大會門票福利、獨家周邊紀念品等等等。

      加入論文作者團隊你需要:

          1.將你喜歡的論文推薦給廣大的研習社社友

          2.撰寫論文解讀

      如果你已經準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

      雷鋒網雷鋒網雷鋒網

      相關文章:

      今日 Paper | 點云分類框架;多模式Transformer;神經網絡;有序神經元等

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      今日 Paper | Social-STGCNN;說話人臉視頻生成;食材圖像合成;光場角度超分辨率等

      分享:

      編輯

      聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 上高县| 久久婷婷综合色丁香五月| 成人中文在线| 免费无码又爽又刺激高潮的app| 色欲人妻无码| 无码视频区| 农村欧美丰满熟妇xxxx| 国产精品99久久久久久宅男| 国产精品手机免费| 欧美性极品| 亚洲video| 中文字幕人妻综合另类| 国产精品香蕉| 99久久久无码国产精品免费| 波多野结av衣东京热无码专区| 国产精品天干天干| 亚洲真人无码永久在线| 欧美噜噜久久久xxx| 欧日韩无套内射变态| 亚洲一区二区三区影院| 中文字幕精品无码一区二区| 18成禁人视频免费| 亚洲欧洲一区二区精品| 尤物福利导航| 国模一区二区三区白浆| 欧美、日韩、中文、制服、人妻| 午夜a福利| 中文字幕一区二区三区精彩视频| 亚洲成人小说| 中文字幕亚洲综合久久综合| 衢州市| 尹人成人| 夜夜欢视频| 人妻体体内射精一区二区| 伊人色亚洲| 国产午夜福利视频在线观看| 亚州色综合| 色综合中文字幕久久88| 精品久久久无码中文字幕一丶| 大色欧美| 91视频免费看|