<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給奕欣
      發送

      0

      優必選4篇CVPR 2018錄用論文摘要解讀

      本文作者: 奕欣 2018-04-20 14:55 專題:CVPR 2018
      導語:優必選悉尼 AI 研究院有 4 篇被錄用為poster論文。
      論文
      名稱:CVPR
      時間:2018
      企業:優必選

      雷鋒網 AI 科技評論按:CVPR 2018 總投稿量超 4000 篇,最終錄取數超 900 篇,錄取率不到 23%。其中,優必選悉尼 AI 研究院有 4 篇論文被錄用為 poster。論文詳細解讀如下:

      論文1:An Efficient and Provable Approach for Mixture Proportion Estimation Using Linear Independence Assumption

      優必選4篇CVPR 2018錄用論文摘要解讀


      為了研究混合分布中各個組成分別的比例系數,假設各個組成分布滿足線性獨立的假設(即不存在一種組合系數,使得這些組成分布的線性組合所得到的分布函數處處為0),并且假設每個組成分布中都可以采樣到少量的數據。首先論證了組成分布線性獨立(組成分布不相同即可)的假設要弱于現有的估計其比例方法的各種假設。其次,提出先將各個分布嵌入到再生核Hilbert空間,再利用最大平均差異的方法求取各組成分布的比例系數。該方法能夠(1)保證比例系數的唯一性和可識別性;(2)保證估計的比例系數能夠收斂到最優解,而且收斂率不依賴于數據本身;(3) 通過求解一個簡單的二次規劃問題來快速獲取比例系數。這項研究擁有廣泛的應用背景,比如含有噪聲標簽的學習,半監督學習等等。

      論文2:Deep Ordinal Regression Network for Monocular Depth Estimation

      優必選4篇CVPR 2018錄用論文摘要解讀


      在3D視覺感知主題里,單目圖像深度估計是一個重要并且艱難的任務。雖然目前的方法已經取得了一些不錯的成績,但是這些方法普遍忽略了深度間固有的有序關系。針對這一問題,我們提出在模型中引入排序機制來幫助更準確地估計圖像的深度信息。具體來說,我們首先將真值深度(ground-truth depth)按照區間遞增的方法預分為許多深度子區間;然后設計了一個像素到像素的有序回歸(ordinal regression)損失函數來模擬這些深度子區間的有序關系。在網絡結構方面,不同于傳統的編碼解碼 (encoder-decoder)深度估計網絡, 我們采用洞卷積 (dilated convolution)型網絡來更好地提取多尺度特征和獲取高分辨率深度圖。另外,我們借鑒全局池化和全連接操作,提出了一個有效的全局信息學習器。我們的方法在KITTI,NYUV2和Make3D三個數據集上都實現了當前最佳的結果。并且在KITTI新開的測試服務器上取得了比官方baseline高出30%~70%的分數。

      論文3:Self-Supervised Adversarial Hashing Networks for Cross-Modal Retrieval

      優必選4篇CVPR 2018錄用論文摘要解讀

      由于深度學習的成功,最近跨模態檢索獲得了顯著發展。但是,仍然存在一個關鍵的瓶頸,即如何縮小多模態之間的模態差異,進一步提高檢索精度。本文提出了一種自我監督對抗哈希(SSAH)方法。這種將對抗學習以自我監督的方式引入跨模態哈希研究,目前還處于研究早期。這項工作的主要貢獻是采用了一組對抗網絡來最大化不同模態之間的語義相關性和表示一致性。另外,作者還設計了一個自我監督的語義網絡,這個網絡針對多標簽信息進一步挖掘高層語義信息,使用得到的語義信息作為監督來指導不同模態的特征學習過程,以此,模態間的相似關系可以同時在共同語義空間和海明空間兩個空間內得以保持,有效地減小了模態之間的差異,進而產生精確的哈希碼,提高檢索精度。在三個基準數據集上進行的大量實驗表明所提出的 SSAH 優于最先進的方法。

      論文4:Geometry-Aware Scene Text Detection with Instance Transformation Network

      優必選4篇CVPR 2018錄用論文摘要解讀


      自然場景文字識別由于其文字外形、布局十分多變,是計算機視覺中具有挑戰性的問題。在本文中,我們提出了幾何感知建模方法(geometry-aware modeling)和端對端學習機制(end-to-end learning scheme)來處理場景文字編碼的問題。我們提出了一種新的實例轉換網絡(instance transformation network),使用網內變換嵌入的方法學習幾何感知編碼,從而實現一次通過的文本檢測。新的實例變換網絡采用了轉換回歸,文本和非文本分類和坐標回歸的端對端多任務學習策略。基準數據集上的實驗表明了所提方法在多種幾何構型下的有效性。

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      優必選4篇CVPR 2018錄用論文摘要解讀

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 日韩精品一区二区在线视| 国产亚洲第一精品| 亚洲中文在线观看| 粉嫩av蜜臀一区二区三区| 久久精品免视看国产成人明星| 99热这里只有精品最新地址获取 | 99久热在线精品视频| 国产成人一区二区三区影院动漫| 天天干干强奸| 国产熟睡乱子伦视频在线播放| 上犹县| 中文字幕人妻少妇久久| 一本大道东京热无码aⅴ| 九九re| 免费人成黄页网站在线观看国内| 农村乱人伦一区二区| 91视频在| 欧美日韩国产草草影院| 免费黄色大全一区二区三区| 久久精品国产久精国产爱| 国产成人精品av| 成A人片亚洲日本久久| 久久se精品一区精品二区国产| 亚洲男女羞羞无遮挡久久丫| 精品综合久久久久久98| 日韩精品人妻中文字幕有码| 无码h片在线观看网站| √天堂资源地址在线官网| av动态| 岳西县| av亚洲日韩| 四虎永久精品免费视频| 亚洲综合无码一区二区三区不卡| 国产精品天天看天天狠| 久久人妻无码一区二区三区av| 免费人成年激情视频在线观看| 91视频你懂的| 白丝尤物jk自慰制服喷水| 亚洲情人网| 亚欧美闷骚院| 色猫咪av在线观看|