<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給AI研習社
      發送

      0

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

      本文作者: AI研習社 2020-03-23 14:39
      導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

        目錄

      CVPR 2020 | Social-STGCNN:一種用于行人軌跡預測的社會時空圖卷積神經網絡

      CVPR 2020 | 基于有偏訓練的無偏場景圖生成

      CVPR 2020 | 面向深度人臉識別的通用表征學習

      CVPR 2020 | 使用多個攝像機的實時多人運動捕捉的4D關聯圖

      CVPR 2020 | 一種基于U-Net的生成性對抗網絡判別器

        CVPR 2020 | Social-STGCNN:一種用于行人軌跡預測的社會時空圖卷積神經網絡

      論文名稱:Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction

      作者:Mohamed Abduallah /Qian Kun /Elhoseiny Mohamed /Claudel Christian

      發表時間:2020/2/27

      論文鏈接:https://arxiv.org/abs/2002.11927?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,考慮的是行人軌跡預測的問題。

      行人軌跡不僅受行人本身影響,還與周圍物體的相互作用有關。這篇論文提出了社會時空圖卷積神經網絡(Social Spatio-Temporal Graph Convolutional Neural Network,Social-STGCNN),將行人與周圍物體的交互行為建模為圖模型,并通過一個核函數將行人之間的社交互動嵌入鄰接矩陣中。實驗結果表明,與先前方法相比,Social-STGCNN的最終位移誤差較現有技術提高了20%,參數減少了8.5倍,而推理速度提高了48倍。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

        CVPR 2020 | 基于有偏訓練的無偏場景圖生成

      論文名稱:Unbiased Scene Graph Generation from Biased Training

      作者:Tang Kaihua /Niu Yulei /Huang Jianqiang /Shi Jiaxin /Zhang Hanwang

      發表時間:2020/2/27

      論文鏈接:https://arxiv.org/abs/2002.11949?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,要解決的是場景圖生成的問題。

      已有的場景圖生成容易受有訓練偏見的問題,例如將海灘上人類的步行、坐、躺等多樣行為類型籠統分為海灘上的人類。這篇論文提出了一種新的基于因果推理的場景圖生成的框架。首先建立因果圖,然后使用該圖進行傳統的有偏訓練,接著從訓練圖上得出反事實因果關系,以從不良偏置中推斷出影響并將其消除。場景生成基準集Visual Genome上的實驗表明這篇論文所提的方法與以前的最佳方法相比有顯著改進。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

        CVPR 2020 | 面向深度人臉識別的通用表征學習

      論文名稱:Towards Universal Representation Learning for Deep Face Recognition

      作者:Shi Yichun /Yu Xiang /Sohn Kihyuk /Chandraker Manmohan /Jain Anil K.

      發表時間:2020/2/26

      論文鏈接:https://arxiv.org/abs/2002.11841?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,提出了一種面向深度人臉識別的通用表征學習框架,可以處理給定訓練數據中未發現的較大變化,而無需利用目標域知識。新框架首先將訓練數據與一些有意義的語義變化(例如低分辨率、遮擋和頭部姿勢)一起合成。訓練過程中將特征嵌入拆分為多個子嵌入,并為每個子嵌入關聯不同的置信度值,以簡化訓練過程。通過對變化的分類損失和對抗性損失進行正則化,可進一步對子嵌入進行解相關。實驗表明,新的框架在LFW和MegaFace等常規人臉識別數據集上均取得最佳性能,而在TinyFace和IJB-S等極端基準集上則明顯優于對比算法。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

        CVPR 2020 | 使用多個攝像機的實時多人運動捕捉的4D關聯圖

      論文名稱:4D Association Graph for Realtime Multi-person Motion Capture Using Multiple Video Cameras

      作者:Zhang Yuxiang /An Liang /Yu Tao /Li Xiu /Li Kun /Liu Yebin

      發表時間:2020/2/28

      論文鏈接:https://arxiv.org/abs/2002.12625?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,提出了一種新的使用多視點視頻輸入的實時多人運動捕捉算法,首次將視圖解析、跨視圖匹配和時間跟蹤整合到一個優化框架中,即得到一個4D關聯圖,該圖可以同時平等地處理每個維度(圖像空間、視點和時間)。為有效求解4D關聯圖,這篇論文進一步提出基于啟發式搜索的4D肢束解析思想,然后通過提出束Kruskal算法對肢束進行組合。這個新算法可以在5人場景中使用5個攝像機,以30fps的速度運行實時在線運動捕捉系統。新算法不僅對噪聲檢測具有魯棒性,還獲得了高質量的在線姿態重建結果。在不使用高級外觀信息的情況下,新算法優于當前最優方法。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

        CVPR 2020 | 一種基于U-Net的生成性對抗網絡判別器

      論文名稱:A U-Net Based Discriminator for Generative Adversarial Networks

      作者:Sch?nfeld Edgar /Schiele Bernt /Khoreva Anna

      發表時間:2020/2/28

      論文鏈接:https://arxiv.org/abs/2002.12655?from=leiphonecolumn_paperreview0323

      推薦原因

      這篇論文被CVPR 2020接收,提出了一種基于U-Net的判別器架構,在保持合成圖像的全局一致性的同時,向生成器提供詳細的每像素反饋。在判別器的每像素響應支持下,這篇論文進一步提出一種基于CutMix數據增強的逐像素一致性正則化技術,鼓勵U-Net判別器更多關注真實圖像與偽圖像之間的語義和結構變化,不僅改善了U-Net判別器的訓練,還提高了生成樣本的質量。新判別器在標準分布和圖像質量指標方面改進了現有技術,使生成器能夠合成具有變化結構、外觀和詳細程度的圖像,并保持全局和局部真實感。與BigGAN基線模型相比,所提方法在FFHQ、CelebA和COCO-Animals數據集上平均提高了2.7個FID點。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等
      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

      雷鋒網雷鋒網雷鋒網

      相關文章:

      今日 Paper | 視覺目標;聯合學習;面部反欺;在元學習等

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

      今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關聯圖等

      分享:
      相關文章

      編輯

      聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 欧美亚洲一区二区三区| 天天艹天天干| 国产精品成人va在线播放| 97资源人妻| 亚洲人人色| 国产成人av乱码在线观看| 国产美女久久久亚洲综合| 亚洲国产日韩欧美一区二区三区| 多人乱p视频在线免费观看| 国产福利酱国产一区二区| 波多野结衣乳喷高潮视频| 欧美另类性爱| 国产一区二区三区在线| 精品黑人一区二区三区久久| 蜜桃av一区二区高潮久久精品| 亚洲无码黄片| 欧洲无码视频| 妺妺窝人体色www在线小说| 亚洲色欲在线播放一区二区三区| 青青AV| 国产欧美日韩一区二区三区在线| 99熟妇人妻精品一区五一看片| 少妇被爽到高潮喷水久久欧美精品| 国产精品一线二线三线区| 亚洲黄色精品| 成人做爰69片免费看网站野花| 欧美日韩一区二区综合| 国产精品成人国产乱| 亚洲色伊人| 男人亚洲天堂| 成人无码视频97免费| 浮妇高潮喷白浆视频| 成全影视大全在线观看| 精品无码一区二区三区| 日韩无码系列| 国产精品久久久久久久影视一免费| 亚洲色欲网| 91网站国产| 夫妻拳交自拍| 久久这里只有精品免费首页 | 亚洲精品不卡无码福利在线观看|