<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能開發(fā)者 正文
      發(fā)私信給楊鯉萍
      發(fā)送

      0

      CVPR 2019:中國(guó)企業(yè)斬獲無數(shù)冠軍,見證華人星耀時(shí)刻!

      本文作者: 楊鯉萍 2019-06-30 13:37 專題:CVPR 2019
      導(dǎo)語:為中華之崛起

      雷鋒網(wǎng) AI 科技評(píng)論:6 月 18 日,三大世界頂級(jí)計(jì)算機(jī)視覺會(huì)議之一「計(jì)算機(jī)視覺與模式識(shí)別會(huì)議」(Conference on Computer Vision and Pattern Recognition 2019,CVPR 2019)在美國(guó)長(zhǎng)灘拉開帷幕,頂會(huì)吸引全球超過9200位頂尖專家、學(xué)者以及產(chǎn)業(yè)界人士,共同推進(jìn) CV 技術(shù)的發(fā)展與落地。

      相比 2018 年,本屆 CVPR 的論文提交數(shù)量增加了 56%,但論文接收率卻下降了 3.9%,可見論文入選難度加大;而學(xué)術(shù)比賽報(bào)名人數(shù)也保持持續(xù)增長(zhǎng)。但無論在論文方面還是學(xué)術(shù)比賽中,今年多家中國(guó)企業(yè)都取得了可喜的成績(jī),這些成績(jī)不僅體現(xiàn)了這些企業(yè)的發(fā)展水平,也代表了國(guó)人的科技進(jìn)步。雷鋒網(wǎng) AI 科技評(píng)論現(xiàn)將其成果整理報(bào)道如下。

      CVPR 2019:中國(guó)企業(yè)斬獲無數(shù)冠軍,見證華人星耀時(shí)刻!

      商湯 62 篇論文入選 CVPR 2019,聯(lián)合研究團(tuán)隊(duì)獲得 CVPR 2019 Workshop NTIRE 2019 視頻恢復(fù)比賽四個(gè)賽道冠軍

      商湯科技 CVPR 2019 錄取論文在多個(gè)領(lǐng)域?qū)崿F(xiàn)了突破,其中代表性論文有:《基于混合任務(wù)級(jí)聯(lián)的實(shí)例分割算法》、《基于特征指導(dǎo)的動(dòng)態(tài)錨點(diǎn)框生成算法》(高層視覺核心算法——物體檢測(cè)與分割);《基于網(wǎng)絡(luò)參數(shù)插值的圖像效果連續(xù)調(diào)節(jié)》、《基于光流引導(dǎo)的視頻修復(fù)》(底層視覺核心算法——圖片復(fù)原與補(bǔ));《PointRCNN: 基于原始點(diǎn)云的 3D 物體檢測(cè)方法》(面向自動(dòng)駕駛場(chǎng)景的 3D 視覺);《基于人體本征光流的姿態(tài)轉(zhuǎn)換圖像生成》(面向 AR/VR 場(chǎng)景的人體姿態(tài)遷移);《基于條件運(yùn)動(dòng)傳播的自監(jiān)督學(xué)習(xí)》(無監(jiān)督與自監(jiān)督深度學(xué)習(xí)前沿進(jìn)展)等。這些突破性的計(jì)算機(jī)視覺算法不僅有著豐富的應(yīng)用場(chǎng)景,也為 AI 行業(yè)的發(fā)展做出了巨大的貢獻(xiàn)。

      而在 CVPR 2019 Workshop NTIRE 2019 視頻恢復(fù)比賽中(包含兩個(gè)視頻去模糊和兩個(gè)視頻超分辨率),來自商湯科技、香港中文大學(xué)、南洋理工大學(xué)、中國(guó)科學(xué)院深圳先進(jìn)技術(shù)研究院組成的聯(lián)合研究團(tuán)隊(duì)使用 EDVR 一套算法,獲得了全部四個(gè)賽道的所有冠軍,并且每個(gè)結(jié)果都大幅超越賽道第二名。

      在論文《EDVR: Video Restoration with Enhanced Deformable Convolutional Networks》中,作者介紹了這種新型算法,通過一種新的網(wǎng)絡(luò)模塊 PCD 對(duì)齊模塊,使用 Deformable 卷積進(jìn)行視頻的對(duì)齊,可以實(shí)現(xiàn)整個(gè)過程端到端的訓(xùn)練;而在挖掘時(shí)域(視頻前后幀)和空域(同一幀內(nèi)部)的信息融合時(shí),作者又提出了一種時(shí)空注意力模型,來進(jìn)行更好的信息融合。

      CVPR 2019:中國(guó)企業(yè)斬獲無數(shù)冠軍,見證華人星耀時(shí)刻!

      EDVR 算法架構(gòu)

      因此,在將 EDVR 算法視頻超分辨率與目前行業(yè)最好的圖像超分辨算法 RCAN 恢復(fù)來對(duì)同一區(qū)域進(jìn)行處理時(shí),可以明顯看到 EDVR 算法視頻超分辨能給到更多的細(xì)節(jié)。(該方法的代碼已開源)

      另外,商湯科技還在 AI CITY Challenge(CVPR 2019 Workshop)異常檢測(cè)賽道中獲得冠軍。城市智慧交通一直都面臨著數(shù)據(jù)質(zhì)量差、標(biāo)簽數(shù)據(jù)少、缺乏高質(zhì)量算法模型以及從邊緣到云端的計(jì)算資源不足等挑戰(zhàn),而比賽中,商湯科技的設(shè)計(jì)更多地通過遷移學(xué)習(xí)、無監(jiān)督和半監(jiān)督的方法檢測(cè)交通異常,如道路事故、車輛故障等,從而達(dá)到更好的幫助城市交通變得安全和智能這一目的。

      EDVR 論文地址

      https://arxiv.org/abs/1905.02716v1

      EDVR GitHub 地址

      https://github.com/xinntao/EDVR

      百度 17 篇論文被大會(huì)收錄,獲 10 項(xiàng) CVPR 2019 競(jìng)賽冠軍

      在今年的 CVPR 上,百度共有 17 篇論文被接收,內(nèi)容涵蓋了語義分割、網(wǎng)絡(luò)剪枝、ReID、GAN 等諸多方向,并且其中很多技術(shù)都設(shè)計(jì)到無人駕駛相關(guān)場(chǎng)景。

      其中包括《Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation》(https://arxiv.org/abs/1809.09478)中,提到了結(jié)合了聯(lián)合訓(xùn)練和對(duì)抗訓(xùn)練來處理虛擬圖像與真實(shí)圖像之間語義分割網(wǎng)絡(luò)訓(xùn)練差異的問題,將該技術(shù)應(yīng)用在自動(dòng)駕駛中,可以大大減少數(shù)據(jù)標(biāo)注和采集的工作量。

      《Sim-Real Joint Reinforcement Transfer for 3D Indoor Navigation》(https://arxiv.org/abs/1904.03895)中提出的視覺特征適應(yīng)模型和策略模擬模型,可以有效將機(jī)器人在虛擬環(huán)境中學(xué)習(xí)到的策略和特征遷移到實(shí)際場(chǎng)景中;《ApolloCar3D: A Large 3D Car Instance Understanding Benchmark for Autonomous Driving》一文提出目前已知自動(dòng)駕駛領(lǐng)域最大規(guī)模的三維車輛姿態(tài)數(shù)據(jù)集,可以更好的對(duì)單張圖像的車輛姿態(tài)估計(jì)。

      而在 CVPR 相關(guān)競(jìng)賽任務(wù)中,百度一共獲得了 10 項(xiàng)冠軍,涵蓋眾多熱門領(lǐng)域——

      • 視覺領(lǐng)域下的視頻理解與分析:包括視頻動(dòng)作提名、視頻動(dòng)作檢測(cè)兩項(xiàng)任務(wù)的冠軍,以及新增任務(wù) EPIC-Kitchens 動(dòng)作識(shí)別挑戰(zhàn)賽中獲兩項(xiàng)測(cè)試集冠軍(Seen kitchens 和 Unseen kitchens);

      • 目標(biāo)檢測(cè):「Objects365 物體檢測(cè)」國(guó)際競(jìng)賽 Full Track 冠軍,NTIRE 競(jìng)賽中獲得圖像超分辨項(xiàng)目冠軍;

      • 人體檢測(cè):Look Into Person 國(guó)際競(jìng)賽中三項(xiàng)人體精細(xì)化解析競(jìng)賽單元(Track1:Single-Person Human Parsing,Track3:Mult-Person Human Parsing,Track4:Video Multi-Person Parsing)中,均獲得第一名;

      • 人臉活體檢測(cè):在 CVPR-19-Face Anti-spoofing Attack Detection Challenge 上,百度擊敗了 300 多個(gè)隊(duì)伍,最終獲得第一的好成績(jī)。

      • 智能城市車輛識(shí)別:AI-city 公開賽城市范圍多攝像頭車輛重識(shí)別任務(wù)第一名;

      在 CVPR 2019 上,百度 Apollo 還首次曝光 L4 級(jí)自動(dòng)駕駛純視覺解決方案。Apollo 技術(shù)委員會(huì)主席王亮就 L4 級(jí)全自動(dòng)駕駛(Fully Autonomous Driving)環(huán)境感知技術(shù)方案進(jìn)行了講解,并公開了環(huán)視視覺解決方案百度 Apollo Lite。并表示經(jīng)過前期的技術(shù)研發(fā)投入和 2019 年上半年的路測(cè)迭代,依靠這套 10 相機(jī)的感知系統(tǒng),百度無人車已經(jīng)可以在城市道路上實(shí)現(xiàn)不依賴高線數(shù)旋轉(zhuǎn)式激光雷達(dá)的端到端閉環(huán)自動(dòng)駕駛。

      曠視 14 篇論文被接收,并斬獲 CVPR2019 挑戰(zhàn)賽 6 項(xiàng)世界冠軍

      在 CVPR 2019 上,曠視研究院通過 Oral、Poster、Workshop、Demo、Booth 等形式,同世界分享在計(jì)算機(jī)視覺理論與應(yīng)用領(lǐng)域的最新進(jìn)展。

      相比去年曠視科技有 8 篇論文被收錄,今年他們又多了 6 篇被 CVPR 所接收。這 14 篇論文涉及行人重識(shí)別、場(chǎng)景文字檢測(cè)、全景分割、圖像超分辨率、語義分割、時(shí)空檢測(cè)等技術(shù)方向。

      并在頂會(huì)的 CVPR 2019 WAD(Workshop on Autonomous Driving)、CVPR 2019 FGVC(Workshop on Fine-Grained Visual Categorization)、CVPR 2019 NTIRE(New Trends in Image Restoration and Enhancement workshop)3 項(xiàng)挑戰(zhàn)賽中,擊敗 Facebook、通用動(dòng)力、戴姆勒等國(guó)內(nèi)外一線科技巨頭與知名高校,一舉拿下 6 項(xiàng)世界冠軍,內(nèi)容涵蓋自動(dòng)駕駛、新零售、智能手機(jī)、3D 等眾多領(lǐng)域。

      其中挑戰(zhàn)賽 NTIRE 2019 真實(shí)圖像降噪比賽,致力于恢復(fù)與增強(qiáng)圖像質(zhì)量。到目前為止,已連續(xù)舉辦了 3 年。今年 NTIRE 挑戰(zhàn)賽下設(shè) 11 項(xiàng)比賽,曠視研究院參賽的「真實(shí)圖像降噪(Real Image Denosing Challenge)」中,共有來自全球的 216 位選手、12 支隊(duì)伍。和往年不同,今年的圖像降噪賽是針對(duì)真實(shí)而非合成的圖像去評(píng)估圖像降噪器。該項(xiàng)比賽根據(jù)圖像儲(chǔ)存的兩種格式——原始傳感器數(shù)據(jù)(raw)和標(biāo)準(zhǔn) RBG(sRGB),分為對(duì)應(yīng)的兩項(xiàng)子賽。

      曠視研究院參戰(zhàn) raw 圖像去噪,提出了針對(duì) raw 圖像的基于 U-Net 框架的「拜爾陣列歸一化與保列增廣」方法。團(tuán)隊(duì)精心設(shè)計(jì)了一種數(shù)據(jù)預(yù)處理方法,使得不同輸入圖像間的數(shù)據(jù)能保持網(wǎng)絡(luò)輸入一致性,從而應(yīng)用到具有不同拜耳模式的輸入上,在保證性能的前提下用更大的圖像集合訓(xùn)練網(wǎng)絡(luò)。此外,團(tuán)隊(duì)還提出了適用于 raw 圖像的數(shù)據(jù)增廣方法,這些優(yōu)勢(shì)可以幫助網(wǎng)絡(luò)獲得更好的泛化能力。

      而且曠視的冠軍算法已成功落地于 OPPO Reno 10 倍變焦版。OPPO Reno 10 倍變焦版搭載了基于曠視 MEGVII 超畫質(zhì)技術(shù)研發(fā)的「超清夜景 2.0」功能,能夠?yàn)橛脩籼峁└玫囊古捏w驗(yàn)。這也是曠視超畫質(zhì)技術(shù)首次運(yùn)用在大規(guī)模量產(chǎn)機(jī)型上。

      京東 AI 在 CVPR 2019 共發(fā)表 12 篇論文,斬獲 3 項(xiàng)冠軍和 2 項(xiàng)亞軍

      本次京東 AI 研究院在 CVPR 2019 上一共發(fā)表 12 篇論文,其中 4 篇論文入選了 oral presentation(oral presentation 的入選率只有 5%),入選 oral presentation 的四篇論文包含:

      其中京東 AI 研究院提出的 ScratchDet,則從優(yōu)化的角度出發(fā),通過實(shí)驗(yàn)解釋了梯度穩(wěn)定手段之一的 BatchNorm 如何幫助隨機(jī)初始化訓(xùn)練檢測(cè)器,進(jìn)而結(jié)合了 ResNet 與 VGGNet 來加強(qiáng)對(duì)小物體的檢測(cè)。并將這一技術(shù)成功運(yùn)用在了其他任務(wù)上,如人臉檢測(cè)、文字檢測(cè)等,這對(duì)于計(jì)算機(jī)視覺的發(fā)展有著重大的意義。

      在學(xué)術(shù)比賽方面,京東 AI 研究院在 CVPR 2019 上共獲得三項(xiàng)第一,分別是:視頻動(dòng)作識(shí)別、商品圖片識(shí)別,以及精細(xì)粒度蝶類圖片識(shí)別;而在多人人體解析、菜品類圖像識(shí)別競(jìng)賽中獲得第二名。

      視頻動(dòng)作識(shí)別被視為 ActivityNet 中最核心、最基礎(chǔ)的任務(wù)。在本屆 ActivityNet 視頻動(dòng)作識(shí)別任務(wù)(Kinetics)比賽中,共有 15 支來自于美國(guó)卡耐基梅隆大學(xué)、百度、Facebook 人工智能研究院、上海交通大學(xué) MVIG 實(shí)驗(yàn)室等國(guó)際知名研究機(jī)構(gòu)的參賽隊(duì)伍。而京東 AI 憑借著他們所提出的一種新框架——通過局部和全局特征傳播(LGD)學(xué)習(xí)視頻中的空間、時(shí)間特征,最終在眾多強(qiáng)勁參賽者中脫穎而出。

      在精細(xì)圖像識(shí)別 (Fine-Grained Visual Categorization) 學(xué)術(shù)比賽中,今年比賽圖片數(shù)量和商品數(shù)據(jù)類別分別是去年的 5 倍和 40 倍,挑戰(zhàn)性相應(yīng)也有大幅度提升;全球共有 96 支隊(duì)伍、152 位選手通過 1600 次提交參加了競(jìng)賽,而最終京東 AI 靠著基于自研的全新精細(xì)圖像分類算法獲得了冠軍。該算法通過按塊「破壞」圖像中的結(jié)構(gòu)信息,然后再令已經(jīng)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)進(jìn)行重點(diǎn)視覺區(qū)域識(shí)別與抓取,進(jìn)而識(shí)別物品本身;更值得注意的是,這一技術(shù)不光可以達(dá)到高準(zhǔn)確率,同時(shí)還有很強(qiáng)的兼容性。相關(guān)研究成果更多詳情可在論文《Destruction and Construction Learning for Fine-grained ImageRecognition》(https://docs.wps.cn/view/p/35402900346?from=docs&source=docsWeb)中獲得。

      字節(jié)跳動(dòng) 11 篇論文入選,并收獲兩個(gè)冠軍、一個(gè)亞軍

      在 CVPR 2019 上,字節(jié)跳動(dòng)一共有 11 篇論文被接收,其中有兩篇入選為 oral。而在學(xué)術(shù)比賽方面,字節(jié)跳動(dòng)在人體姿態(tài)估計(jì)和人體分割比賽中,共收獲兩個(gè)冠軍、一個(gè)亞軍。

      本屆 LIP(Look Into Person)國(guó)際競(jìng)賽共吸引了超過 75 支隊(duì)伍參加,包括加州伯克利大學(xué)、NHN、悉尼科技大學(xué)、東南大學(xué)、上海交通大學(xué)、中國(guó)電子科技大學(xué)、香港中文大學(xué)等全球高校以及三星、百度、京東等科技企業(yè)的人工智能研究院機(jī)構(gòu)。

      比賽共包含五個(gè)競(jìng)賽任務(wù):?jiǎn)稳巳梭w解析分割(the single-person human parsing)、單人人體姿態(tài)估計(jì)(the single-person pose estimation)、多人人體解析(the multi-person human parsing)、基于視頻的多人人體解析(multi-person video parsing, multi-person pose estimation benchmark)、基于圖像的服裝試穿(clothes virtual try-on benchmark)。最終,字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)、以及肖斌帶領(lǐng)的字節(jié)跳動(dòng)團(tuán)隊(duì)并列單人人體姿態(tài)估計(jì)比賽的國(guó)際冠軍;同時(shí),字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)還獲得了單人人體分割賽道的國(guó)際亞軍。

      其中,在單人人體姿態(tài)估計(jì)比賽上,字節(jié)跳動(dòng)和東南大學(xué)組成的團(tuán)隊(duì)提出了基于增強(qiáng)通道和空間信息的人體姿態(tài)估計(jì)網(wǎng)絡(luò),可參考 CVPR 2019 論文《Multi-Person Pose Estimation with Enhanced Channel-wise and Spatial Information》(https://arxiv.org/abs/1905.03466);而肖斌帶領(lǐng)的字節(jié)跳動(dòng)團(tuán)隊(duì)則提出了利用高分辨率網(wǎng)絡(luò)(HRNet)來解決人體姿態(tài)估計(jì)問題,參考 CVPR 2019 論文《Deep High-Resolution Representation Learning for Human Pose Estimation》(https://arxiv.org/abs/1902.09212);后一種方法已在 GitHub 上開源,感興趣的朋友可以進(jìn)行更深入的研究。

      Github 地址

      https://github.com/leoxiaobin/deep-high-resolution-net.pytorch

      阿里 AI 獲圖像識(shí)別競(jìng)賽 WebVision 冠軍

      阿里 AI 在該競(jìng)賽由谷歌、美國(guó)卡耐基梅隆大學(xué)、蘇黎世聯(lián)邦理工大學(xué)等機(jī)構(gòu)聯(lián)合全球視覺技術(shù)領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議 CVPR 發(fā)起的第三屆圖像識(shí)別競(jìng)賽 WebVision 中獲得冠軍,要求參賽的 AI 模型將 1600 萬張圖片精準(zhǔn)分類到 5000 個(gè)類目中,最終阿里的識(shí)別準(zhǔn)確率 82.54%,將萬物識(shí)別領(lǐng)域的歷史紀(jì)錄提升了 3 個(gè)百分點(diǎn)。

      而就在今年 3 月中,阿里與深圳大數(shù)據(jù)研究院、香港中文大學(xué)(深圳)、大連理工大學(xué)以及中國(guó)科學(xué)技術(shù)大學(xué)共同完成《Deep Reinforcement Learning of Volume-guided Progressive View Inpainting for 3D Point Scene Completion from a Single Depth Image》被收錄為 Oral Presentation。

      之后與哈爾濱工業(yè)大學(xué)、香港理工大學(xué)、深圳鵬城實(shí)驗(yàn)室聯(lián)合設(shè)計(jì)的超分辨率算法——能夠很好的應(yīng)對(duì)模糊降質(zhì)的 DPSR 技術(shù)(來自論文《Deep Plug-and-Play Super-Resolution for Arbitrary Blur Kernels》),也被 CVPR 2019 所接收。并且該算法已經(jīng)開源了代碼(https://github.com/cszn/DPSR);在另一篇被接收的論文《ODE-Inspired Network Design for Single Image Super-Resolution》中,阿里與中科院、中科院大學(xué)也展示了他們一起在圖像超分辨率方面做出相應(yīng)研究。

      深蘭科技斬獲 CVPR 2019 FGVC 挑戰(zhàn)賽冠軍 

      FGVC 全稱為 Fine-Grained Visual Categorization,即區(qū)分不同的動(dòng)物和植物、汽車和摩托車模型、建筑風(fēng)格等,是機(jī)器視覺社區(qū)剛剛開始解決的最有趣和最有用的開放問題之一。細(xì)粒度圖像分類在于基本的分類識(shí)別(對(duì)象識(shí)別)和個(gè)體識(shí)別(人臉識(shí)別,生物識(shí)別)之間的連續(xù)性;不同于傳統(tǒng)的廣義上的分類任務(wù),F(xiàn)GVC 的挑戰(zhàn)致力于子類別的劃分,需要分類的對(duì)象之間更加相似,例如區(qū)分不同的魚類、同一植物不同形態(tài)、不同的生活用品等。

      在今年 CVPR 的 FGVC6 Workshop 賽區(qū),共有十個(gè)挑戰(zhàn)賽,每個(gè)都代表了細(xì)粒度視覺分類在某個(gè)細(xì)分領(lǐng)域的挑戰(zhàn)。今年此次挑戰(zhàn)賽共有來自全球 88 個(gè)團(tuán)隊(duì)參與,提交了超過 1300 份方案。而在 Kaggle 上舉辦的 CVPR 2019 Cassava Disease Classification(根據(jù)木薯的葉子區(qū)分不同種類的木薯疾病的任務(wù))挑戰(zhàn)賽中,DeepBlue AI 通過圖像增強(qiáng)方法來降低過擬合的風(fēng)險(xiǎn),并提高模型的魯棒性,同時(shí)利用多個(gè)在 ImageNet 表現(xiàn)優(yōu)異的模型,以集成方法提升精度,最終獲得了冠軍。

      除了該項(xiàng)挑戰(zhàn)賽,同期深蘭科技還在在 CVPR 的另外兩項(xiàng)比賽 2019 Workshop on Autonomous Driving (WAD) D2-City & BDD100K Tracking Domain Adaptation Challenge and the D2-City & BDD100K Detection Domain Adaptation Challenge.(目標(biāo)檢測(cè)遷移學(xué)習(xí)、目標(biāo)跟蹤遷移學(xué)習(xí)挑戰(zhàn)賽和大規(guī)模檢測(cè)插值探索賽)分獲亞軍和季軍。

       圖鴨科技,包攬圖像壓縮大賽四項(xiàng)指標(biāo)全部冠軍

      今年的 CVPR 上,機(jī)器學(xué)習(xí)圖像壓縮挑戰(zhàn)賽(CLIC)由 Google 聯(lián)合 twitter、Netflix 等贊助。如今由于手機(jī)像素的提升,占用大部分內(nèi)存空間的圖片對(duì)于移動(dòng)存儲(chǔ)設(shè)備和網(wǎng)站來說都是很大的負(fù)擔(dān);而對(duì)圖片進(jìn)行高效高質(zhì)的壓縮處理,已經(jīng)成了眾多互聯(lián)網(wǎng)企業(yè)的極大需求。因此,在本屆會(huì)議上,圖像壓縮也成了技術(shù)焦點(diǎn)之一。

      在去年,圖鴨科技曾奪得過該挑戰(zhàn)賽的 MS-SSIM 與 MOS 兩項(xiàng)第一;而今年,他們也帶來了更強(qiáng)的技術(shù),最終在 MS-SSIM、Transparent Track、PSNR、Perceptual Qualit 四項(xiàng)指標(biāo)上均奪得桂冠,向世界展示了他們的技術(shù)硬實(shí)力,成為世界圖像壓縮歷史大滿貫贏家。

      美團(tuán)無人配送斬獲 CVPR 2019 軌跡預(yù)測(cè)挑戰(zhàn)賽冠軍

      美團(tuán)無人配送與視覺團(tuán)隊(duì)在本屆 CVPR 上,也獲得了很好的成績(jī),分別在障礙物軌跡預(yù)測(cè)挑戰(zhàn)賽(Trajectory prediction challenge)中斬獲第一名和商品識(shí)別挑戰(zhàn)賽(iMaterialist Challenge on Product Recognition)獲得第二名。

      對(duì)于美團(tuán)無人配送與視覺團(tuán)隊(duì)來說,這不光只是一種榮譽(yù),也向我們展現(xiàn)出了他們?cè)谧詣?dòng)駕駛技術(shù)和視覺圖像方面進(jìn)行的大量研究和產(chǎn)品化探索,并在場(chǎng)景應(yīng)用方面所積累的豐碩成果。

      美圖影像實(shí)驗(yàn)室 MTlab 獲 NTIRE 圖像增強(qiáng)賽冠軍

      美圖影像實(shí)驗(yàn)室 MTlab 此次參加了圖像增強(qiáng)和圖像去霧兩個(gè)比賽,兩個(gè)比賽均收到了超過 200 支團(tuán)隊(duì)報(bào)名。

      最終,在圖像增強(qiáng)賽道(Image Enhancement Challenge)中,美圖影像實(shí)驗(yàn)室 MTlab 獲得了冠軍;在圖像去霧賽道(Image Dehazing Challenge),美圖影像實(shí)驗(yàn)室 MTlab 獲得了季軍。

      滴滴獲得 CVPR 2019 AI 城市大賽亞軍

      本屆 AI 城市大賽(AI City Challenge)共有來自全球超過 200 支頂尖隊(duì)伍參與,滴滴在 CVPR AI 城市比賽(AI City Challenge)中最終獲得了亞軍,并攜手加州大學(xué)伯克利分校 DeepDrive 深度學(xué)習(xí)自動(dòng)駕駛產(chǎn)業(yè)聯(lián)盟(BDD)一同舉辦了 CVPR 2019 自動(dòng)駕駛研討會(huì),詳細(xì)介紹了滴滴在自動(dòng)駕駛領(lǐng)域的探索和實(shí)踐。

      雷鋒網(wǎng) AI 科技評(píng)論

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      CVPR 2019:中國(guó)企業(yè)斬獲無數(shù)冠軍,見證華人星耀時(shí)刻!

      分享:
      相關(guān)文章
      當(dāng)月熱門文章
      最新文章
      請(qǐng)?zhí)顚懮暾?qǐng)人資料
      姓名
      電話
      郵箱
      微信號(hào)
      作品鏈接
      個(gè)人簡(jiǎn)介
      為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請(qǐng)驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號(hào)信息
      您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 蜜桃视频在线观看18| 欧美成人午夜无码A片秀色直播 | 成人无码小视频在线观看| 欧美人与物videos另类xxxxx| 草草浮力影视CCYYCOM| 成人在线亚洲| 欧美精品在线观看| 久久91精品久久91综合| 人妻少妇精品无码系列中文 | 内射在线播放| 男人j放进女人p全黄| 超碰人人草| 香蕉免费一区二区三区| 好男人在在线社区www在线影院| AV色综合| 99热都是精品久久久久久| 国产日韩av二区三区| 亚洲成人在线网址| 91视频久久| 亚洲成人色情| 亚洲中文字幕久久精品品| 精品国产免费人成在线观看| 成人精品视频一区二区三区尤物 | 天天摸天天碰天天爽天天弄| 精品国产乱子伦一区二区三区| 精品少妇人妻AV无码久久| www片香蕉内射在线88av8| 欧美日韩一区二区综合| 亚洲色偷拍区另类无码专区| 欧美顶级metart裸体全部自慰| 无码卡一卡二| 国产成人91| 2021少妇久久久久久久久久| 欲色欲色天天天www| 欧美色欧美亚洲高清在线观看| 人妻少妇av无码一区二区| 影音先锋2020色资源网| 国内自拍视频一区二区三区| 毕节市| 永久天堂网 av手机版| 3Pav图|