<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給奕欣
      發送

      0

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      本文作者: 奕欣 2017-10-27 22:40 專題:ICCV 2017
      導語:商湯科技與香港中大-商湯科技聯合實驗室在ICCV 2017上共發表了 20 篇論文,其中包括 3 篇 Oral 和 1 篇 Spotlight。

      雷鋒網 AI 科技評論:本文作者為香港中文大學林達華教授,雷鋒網 AI 科技評論獲授權轉載。

      今秋,在以水城而聞名的威尼斯,來自世界各地的三千多位學者薈萃一堂,共赴兩年一度的國際計算機視覺大會 (ICCV)。這次大會的一個重要亮點就是中國學者的強勢崛起。根據組委會公開的數字,會議 40% 的論文投稿來自中國的研究者。在中國的人工智能浪潮中,商湯科技以及它與港中文的聯合實驗室無疑是其中最有代表性的力量。在本屆 ICCV 大會,商湯科技與香港中大-商湯科技聯合實驗室共發表了 20 篇論文,其中包括 3 篇 Oral (錄取率僅 2.09%) 和 1 篇 Spotlight,領先 Facebook(15 篇)、Google Research(10 篇)等科技巨頭。

      ICCV 是計算機視覺領域最高水平的國際學術會議,在其中發表的論文的量與質可以衡量一個公司或者研究機構的學術水平,以及其對未來科技發展潮流的把握。從商湯科技的 20 篇論文中,可以看到其在研究上重點發力的四大主線:

      跨模態分析:讓視覺與自然語言聯合起來

      在過去幾年,隨著深度學習的廣泛應用,計算機視覺取得了突破性的發展,很多傳統任務(比如圖像分類,物體檢測,場景分割等)的性能大幅度提高。但是在更高的水平上,計算機視覺開始遇到了新的瓶頸。要獲得新的技術進步,一個重要的方向就是打破傳統視覺任務的藩籬,把視覺理解與自然語言等其它模態的數據結合起來。商湯科技很早就捕捉了這一趨勢,并投入重要力量進行開拓,取得了豐碩成果。在這一方向上,有 4 篇論文被 ICCV 2017 錄用,包括一篇 Oral。

      Towards Diverse and Natural Image Descriptions via a Conditional GAN (Oral).

      Bo Dai, Sanja Fidler, Raquel Urtasun, Dahua Lin. 

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      看圖說話,也就是根據圖像生成描述性標題,是今年來非?;钴S的研究領域?,F有的方法普遍存在一個問題,就是產生的標題很多是訓練集中的表述的簡單重復,讀起來味同嚼蠟。這一問題的根源在于學習目標過分強調與訓練集的相似性。這篇論文提出了一種新型的基于 Conditional GAN 的訓練方法,把描述生成模型與評估模型合同訓練。這樣,評估的標準從「像不像訓練集」變成「像不像人說話」,從而驅動生成模型產生更加自然、生動,并具有豐富細節的描述。這一工作為看圖說話任務提供了新的思路。在 User Study 中,這種新的方法以 6:4 的勝率戰勝了傳統的方法。

      另外兩篇 paper 則從相反的方向思考,力圖利用相關文本的信息來幫助提高視覺理解的能力。

      Scene Graph Generation from Objects, Phrases and Caption Regions.

      Yikang Li, Bolei Zhou, Wanli Ouyang, Xiaogang Wang, Kun Wang.

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017這篇論文把三個有密切關系的任務——物體檢測,場景圖生成,以及圖像區域的描述聯合在一起,并且利用它們之間的關系建立了一個多層次的場景描述模型——Multi-level Scene Description Network (MSDN)。通過這個聯合模型,傳統上分離開來的三個任務可以結合在一起進行端對端的訓練,從而使得每個任務都獲得性能的提升。尤其在代表對圖像綜合理解能力的場景圖生成任務上,性能提高超過了 3%。

      Learning to Disambiguate by Asking Discriminative Questions.

      Yining Li, Chen Huang, Xiaoou Tang, Chen Change Loy.

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      這篇論文探索了一個新的方向,即透過提出有鑒別力的問題來區分不同的視覺實體。比如當你需要區分一只白色的狗和一只黑色的狗的時候,可以提出關于顏色的問題。為了支持這個方向的探索,作者在這項工作中建立了一個新的數據集,里面含有了超過一萬組包含成對圖像與多個相關問題的樣本;并且提出了一種新型的弱監督訓練方法,可以在缺乏細致標注的條件下,同時學習到一個具有區分度的問題生成器,以及能提供準確答案的鑒別模型。

      Identity-Aware Textual-Visual Matching with Latent Co-attention.

      Shuang Li, Tong Xiao, Hongsheng Li, Wei Yang, Xiaogang Wang.

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      特征匹配是跨模態學習的核心環節。這篇論文提出了一個新的文本與視覺特征匹配的框架。這個框架由兩個階段組成。第一階段能迅速排除明顯錯誤的配對,并為第二階段的訓練提供效度更高的訓練樣本。第二階段通過一個新的關聯注意力模型(co-attention model),把文本中的單詞關聯到圖像中的特定區域。在三個公開數據集上(CUHK-PEDES, CUB, Flowers),本文提出的方法都顯著超過現行的主流方法。

      視頻分析:讓計算機看懂視頻

      雖然深度學習在圖像分析中取得了巨大的成功,它在視頻的理解與分析中的應用還有很長的路要走。相比于圖像,視頻數據具有更大的數據量以及更豐富的結構,因而也為視覺分析技術提出了更高水平的挑戰。商湯科技在數年前就開始了把深度學習用于視頻分析與理解的探索,提出了包括 Temporal Segmental Networks (TSN) 在內的多種有很大影響并被廣泛應用的視頻分析架構,并在 ActivityNet 2016 取得了冠軍。在 2017 年,商湯科技以及相關實驗室繼續把這個方向的探索推向縱深,并在 ICCV 2017 發表了兩項重量級的工作,包括一篇 Oral。

      RPAN: An End-To-End Recurrent Pose-Attention Network for Action Recognition in Videos. (Oral)

      Wenbin Du; Yali Wang; Yu Qiao.

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      通常的視頻分析模型大部分是基于 video-level 的類別進行監督學習的,這種方法的局限是難以學習到復雜的運動結構。這篇論文另辟蹊徑,著力于動態人體的建模,并提出了一個新型的可以端對端訓練的深度網絡架構 Recurrent Pose Attention Network (RPAN)。該架構不僅可以自適應地整合人體運動姿態的特征,還能很好地學習其時空演化結構。這項工作一方面為視頻動作理解提供了新的方法,另一方面作為副產品也獲得了一個不錯的粗粒度姿態估計的模型。

      Temporal Action Detection with Structured Segment Networks.


      Yue Zhao, Yuanjun Xiong, Limin Wang, Zhirong Wu, Xiaoou Tang, Dahua Lin

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      時域上的動作檢測是近兩年興起的新型視頻分析任務。相比于傳統的動作分類,這個任務更具有挑戰性,不僅需要判斷一個運動或者事件的類型,還需要獲得它的準確起止時間。這個任務在實際場景中有很大的潛在價值,比如它可以從長時間的運動視頻或者電影中自動定位到相關的精彩片段。這篇論文提出了一種新型的視頻動作檢測模型,它在 TSN 的基礎上引入了三段結構模型以更有效地捕捉運動起始段與終結段的特征。基于這一架構,動作分類器與時間定位器可以端到端聯合訓練。這個方法在多個大型視頻數據集上(包括 THOMOS 和 ActivityNet)取得了比現有方法超過 10 個百分點的提升。

      生成對抗網絡:讓計算機學習創作

      最近兩年,由于生成對抗網絡(Generative Adversarial Networks)的提出,生成模型(generative model)的學習成為一個新興的研究方向。和傳統的鑒別模型(discriminative model)主要關注信息提煉不同,生成模型需要從零開始,或者基于信息量非常有限的給定條件,產生出完整的圖像,因此特別具有挑戰性。這個研究方向在消費領域具有巨大的應用價值,同時它也可以通過產生訓練樣本的方式反哺傳統領域的研究。商湯科技在這個新興領域也積極開展研究,取得不少新的成果,并在 ICCV 2017 發表了兩項相關工作,包括一篇 Oral。

      StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks.n (Oral)

      Han Zhang, Ttao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas.

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      生成高質量的圖像是生成模型研究的核心問題。這篇文章提出了一個新型的生成框架,StackGAN,它能夠根據簡短的文字描述生成解析度為 256 x 256 的高質量圖片。生成如此高解析度的照片是一個極具挑戰性的問題,此前的生成模型通常只能產生大小為 64 x 64 的圖片。本文提出的方法把這個困難的任務分解為兩個階段。在第一階段,先根據文字描述產生粗粒度的草圖,以第一階段的結果作為輸入,第二階段產生高解析度的圖像,并補充豐富的細節。此文還進一步提出了一種新型的條件增強技術,以改進訓練過程的穩定性。和現有的生成網絡相比,StackGAN 在生成圖片的質量的解析度上獲得了非常顯著的進步。

      Be Your Own Prada: Fashion Synthesis with Structural Coherence.

      Shizhan Zhu, Sanja Fidler, Raquel Urtasun, Dahua Lin, Chen Change Loy

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      這篇文章探索了一個極具應用價值的方向,把生成模型引入時尚領域:提出一種嶄新的方法產生換裝照片。具體而言,給定一個人的照片,以及對換裝的描述,此文提出的方法可以根據對換裝的描述,比如「黑色的短袖長裙」,產生換裝后的照片。和一般的生成任務相比,換裝任務更具挑戰性,換裝照不僅需要符合文字描述,而且需要和原照片中人體的姿態相吻合。此文提出一個兩階段的框架解決這個問題:第一階段產生一個和人體姿態吻合的分區圖,第二階段以此為基礎生成具有精細細節的服裝圖像。

      除了在新興方向上積極開拓,商湯科技在一些重要的核心領域,包括人臉檢測、物體檢測、人體姿態估計、實際場景中的身份再識別等,也持續投入,精益求精,在本屆 ICCV 發表多篇相關論文。

      商湯科技 ICCV 2017 論文列表:

      1. 「StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks」. Han Zhang, Ttao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas.

      2. 「Scene Graph Generation from Objects, Phrases and Caption Regions」. Yikang Li, Bolei Zhou, Wanli Ouyang, Xiaogang Wang, Kun Wang.

      3. 「Online Multi-Object Tracking Using Single Object Tracker with Spatial and Temporal Attention」. Qi Chu, Wanli Ouyang, Hongsheng Li, Xiaogang Wang, Nenghai Yu.

      4. 「Learning Feature Pyramids for Human Pose Estimation」. Wei Yang, Wanli Ouyang, Shuang Li, Xiaogang Wang.

      5. 「Learning Chained Deep Features and Classifiers for Cascade in Object Detection」. Wanli Ouyang, Xiaogang Wang, Kun Wang, Xin Zhu.

      6. 「Identity-Aware Textual-Visual Matching with Latent Co-attention」. Shuang Li, Tong Xiao, Hongsheng Li, Wei Yang, Xiaogang Wang.

      7. 「Towards Diverse and Natural Image Descriptions via a Conditional GAN」. Bo Dai, Sanja Fidler, Raquel Urtasun, Dahua Lin.

      8. 「Temporal Action Detection with Structured Segment Networks」. Yue Zhao, Yuanjun Xiong, Limin Wang, Zhirong Wu, Xiaoou Tang, Dahua Lin.

      9. 「Learning to Disambiguate by Asking Discriminative Questions」. Yining Li, Chen Huang, Xiaoou Tang, Chen Change Loy.

      10. 「Be Your Own Prada: Fashion Synthesis with Structural Coherence」. Shizhan Zhu, Sanja Fidler, Raquel Urtasun, Dahua Lin, Chen Change Loy.

      11. 「Recurrent Scale Approximation for Object Detection in CNN」. Yu LIU, Hongyang Li, Junjie Yan, Xiaogang Wang, Xiaoou Tang.

      12. 「Orientation Invariant Feature Embedding and Spatial Temporal Re-ranking for Vehicle Re-identification」. Zhongdao Wang, Luming Tang, Xihui Liu, Zhuliang Yao, Shuai Yi, Jing Shao, Junjie Yan, Shengjin Wang, Hongsheng Li, Xiaogang Wang.

      13. 「Multi-label Image Recognition by Recurrently Discovering Attentional Regions」. Zhouxia Wang, Tianshui Chen, Guanbin Li, Ruijia Xu, Liang Lin.

      14. 「HydraPlus-Net: Attentive Deep Features for Pedestrian Analysis」. Xihui Liu, Haiyu Zhao, Maoqing Tian, Lu Sheng, Jing Shao, Shuai Yi, Junjie Yan, Xiaogang Wang.

      15. 「Learning Deep Neural Networks for Vehicle Re-ID with Visual-spatio-temporal Path Proposals」. Yantao Shen, Tong Xiao, Hongsheng Li, Shuai Yi, Xiaogang Wang.

      16. 「Deep Dual Learning for Semantic Image Segmentation」. Ping Luo, Guangrun Wang, Liang Lin, Xiaogang Wang.

      17. 「Detecting Faces Using Inside Cascaded Contextual CNN」. Kaipeng Zhan, Zhanpeng Zhang, Hao Wang, Zhifeng Li, Yu Qiao, Wei Liu.

      18. 「Single Shot Text Detector With Regional Attention」. Pan He; Weilin Huang, Tong He, Qile Zhu, Yu Qiao, Xiaolin Li.

      19. 「RPAN: An End-To-End Recurrent Pose-Attention Network for Action Recognition in Videos」. Wenbin Du, Yali Wang, Yu Qiao.

      20. 「Range Loss for Deep Face Recognition With Long-Tailed Training Data」. Xiao Zhang, Zhiyuan Fang, Yandong Wen, Zhifeng Li, Yu Qiao.

      更多資訊,敬請關注雷鋒網AI科技評論。


      4月19日 20:30-21:30 ,雷鋒網旗下學術頻道 AI 科技評論聯合AI慕課學院、騰訊課堂邀請商湯科技聯合創始人陳宇恒為大家帶來一場直播分享!點擊鏈接報名參與吧??!

      課程主題:《人工智能的系統工程與系統工程中的人工智能應用》

      報名鏈接:https://ke.qq.com/huodong/aiqzzty_pc/index.html#tuin=8f7939df

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

      從 20 篇ICCV 2017錄用論文,看商湯科技四大攻堅領域|ICCV 2017

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 亚洲日韩精品无码一区二区三区 | jlzz大jlzz大全免费| 国产亚洲日韩av在线播放不卡| 377人体粉嫩噜噜噜| 亚洲欧美日韩高清一区二区三区 | 熟女一区| 色视频在线观看免费视频| 少妇人妻14页_麻花色| 久久久www免费人成精品| 屄视频| 亚洲欧洲成人精品久久一码二码| 免费国产一级特黄aa大片在线| 高清美女视频一区二区三区| 免费无码黄网站在线观看| 久久尤物av天堂日日综合| 丁香五月亚洲综合在线| av动态| 亚洲精品欧美日韩一区| 国产一区二区日韩在线| 亚洲av无码专区国产不卡顿 | 久久波多野结衣av| 亚洲AV午夜成人无码电影| 国产av永久无码天堂影院| 久久久精品456亚洲影院| a级大胆欧美人体大胆666| 黄色综合网| 国产成人无码精品亚洲| 日韩欧美一级特黄大片| 狠狠色成人| 久久老司机| 色狠狠色婷婷丁香五月| 亚洲毛片多多影院| 亚洲中文字幕在线精品一区| 日本丰满熟妇乱子伦| 夜色爽爽影院18禁妓女影院| 中出内射颜射骚妇| 永寿县| 欧美日韩精品一区二区三区在线| 91偷拍视频| 艳妇乳肉豪妇荡乳xxx | 中文字幕视频在线看|