<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給奕欣
      發送

      0

      優必選4篇CVPR 2018錄用論文摘要解讀

      本文作者: 奕欣 2018-04-20 14:55 專題:CVPR 2018
      導語:優必選悉尼 AI 研究院有 4 篇被錄用為poster論文。
      論文
      名稱:CVPR
      時間:2018
      企業:優必選

      雷鋒網 AI 科技評論按:CVPR 2018 總投稿量超 4000 篇,最終錄取數超 900 篇,錄取率不到 23%。其中,優必選悉尼 AI 研究院有 4 篇論文被錄用為 poster。論文詳細解讀如下:

      論文1:An Efficient and Provable Approach for Mixture Proportion Estimation Using Linear Independence Assumption

      優必選4篇CVPR 2018錄用論文摘要解讀


      為了研究混合分布中各個組成分別的比例系數,假設各個組成分布滿足線性獨立的假設(即不存在一種組合系數,使得這些組成分布的線性組合所得到的分布函數處處為0),并且假設每個組成分布中都可以采樣到少量的數據。首先論證了組成分布線性獨立(組成分布不相同即可)的假設要弱于現有的估計其比例方法的各種假設。其次,提出先將各個分布嵌入到再生核Hilbert空間,再利用最大平均差異的方法求取各組成分布的比例系數。該方法能夠(1)保證比例系數的唯一性和可識別性;(2)保證估計的比例系數能夠收斂到最優解,而且收斂率不依賴于數據本身;(3) 通過求解一個簡單的二次規劃問題來快速獲取比例系數。這項研究擁有廣泛的應用背景,比如含有噪聲標簽的學習,半監督學習等等。

      論文2:Deep Ordinal Regression Network for Monocular Depth Estimation

      優必選4篇CVPR 2018錄用論文摘要解讀


      在3D視覺感知主題里,單目圖像深度估計是一個重要并且艱難的任務。雖然目前的方法已經取得了一些不錯的成績,但是這些方法普遍忽略了深度間固有的有序關系。針對這一問題,我們提出在模型中引入排序機制來幫助更準確地估計圖像的深度信息。具體來說,我們首先將真值深度(ground-truth depth)按照區間遞增的方法預分為許多深度子區間;然后設計了一個像素到像素的有序回歸(ordinal regression)損失函數來模擬這些深度子區間的有序關系。在網絡結構方面,不同于傳統的編碼解碼 (encoder-decoder)深度估計網絡, 我們采用洞卷積 (dilated convolution)型網絡來更好地提取多尺度特征和獲取高分辨率深度圖。另外,我們借鑒全局池化和全連接操作,提出了一個有效的全局信息學習器。我們的方法在KITTI,NYUV2和Make3D三個數據集上都實現了當前最佳的結果。并且在KITTI新開的測試服務器上取得了比官方baseline高出30%~70%的分數。

      論文3:Self-Supervised Adversarial Hashing Networks for Cross-Modal Retrieval

      優必選4篇CVPR 2018錄用論文摘要解讀

      由于深度學習的成功,最近跨模態檢索獲得了顯著發展。但是,仍然存在一個關鍵的瓶頸,即如何縮小多模態之間的模態差異,進一步提高檢索精度。本文提出了一種自我監督對抗哈希(SSAH)方法。這種將對抗學習以自我監督的方式引入跨模態哈希研究,目前還處于研究早期。這項工作的主要貢獻是采用了一組對抗網絡來最大化不同模態之間的語義相關性和表示一致性。另外,作者還設計了一個自我監督的語義網絡,這個網絡針對多標簽信息進一步挖掘高層語義信息,使用得到的語義信息作為監督來指導不同模態的特征學習過程,以此,模態間的相似關系可以同時在共同語義空間和海明空間兩個空間內得以保持,有效地減小了模態之間的差異,進而產生精確的哈希碼,提高檢索精度。在三個基準數據集上進行的大量實驗表明所提出的 SSAH 優于最先進的方法。

      論文4:Geometry-Aware Scene Text Detection with Instance Transformation Network

      優必選4篇CVPR 2018錄用論文摘要解讀


      自然場景文字識別由于其文字外形、布局十分多變,是計算機視覺中具有挑戰性的問題。在本文中,我們提出了幾何感知建模方法(geometry-aware modeling)和端對端學習機制(end-to-end learning scheme)來處理場景文字編碼的問題。我們提出了一種新的實例轉換網絡(instance transformation network),使用網內變換嵌入的方法學習幾何感知編碼,從而實現一次通過的文本檢測。新的實例變換網絡采用了轉換回歸,文本和非文本分類和坐標回歸的端對端多任務學習策略。基準數據集上的實驗表明了所提方法在多種幾何構型下的有效性。

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      優必選4篇CVPR 2018錄用論文摘要解讀

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 内射夜晚在线观看| 人妻少妇久久久久久97人妻| 成人特黄特色毛片免费看| 漂亮的人妻少妇| 久热在线中文字幕色999舞| 中年熟女网| 人妻无码网站| 国产一区二区三区不卡视频| 国模av在线| 日韩无码专区| 男女肉粗暴进来动态图| 好硬好湿好爽好深视频| 操逼不卡| 伊人色亚洲| 中出内射颜射骚妇| 成人3d动漫一区二区三区| 成人嫩草研究院久久久精品| 国产又大又粗| 国产人妻另类综合专区| 亚洲女同精品久久女同| 中文无码久久精品| 人妻中文字幕精品系列| 乱人伦中文字幕成人网站在线| 瑜伽裤国产一区二区三区| 漳浦县| 欧美va天堂在线电影| 无码3p| 国产乱人伦| 日韩中文字幕久久| 精品91精品91精品国产片| 狠狠躁夜夜躁无码中文字幕| 日韩精品人妻系列无码专区| 亚洲欧美成人aⅴ在线| 无码精品a∨在线观看十八禁| 国产精品无码午夜福利| 97人人模人人爽人人喊网| 2021国产精品一卡2卡三卡4卡| 潼关县| 又黄又爽又色视频免费| 国产乱子伦真实精品!| 天海翼激烈高潮到腰振不止|