<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      AR/VR 正文
      發私信給小哲打豆豆
      發送

      0

      解決MR視頻的痛點,谷歌用機器學習重現被頭顯遮擋的臉

      本文作者: 小哲打豆豆 2017-03-14 17:33
      導語:Google的研究者們能幫助你透過對方的VR頭顯,看到他的臉。這項技術大大增強了VR的社交屬性。

      雷鋒網按:許多人都喜歡制作將用戶拍攝進去的VR游戲視頻,稱之為MR視頻,但戴著頭顯拍攝意味著人臉被擋住了,針對這個問題,谷歌想出了一個辦法。本文編譯自Google Blog

      虛擬現實(VR)帶給我們身臨其境的絕妙體驗,讓我們能親眼感受虛虛實實的新奇環境。但是與現實的分享相比,VR頭顯不能完整顯示其他參與者的影像,因此難以將這種體驗分享給其他人。

      這道溝壑可以通過一種叫做混合現實(Mixed Reality, MR)的技術來彌補。這項技術作為一種媒介轉化方法,把VR用戶所見的虛擬世界轉化為二維的影像,如此便可以讓其他人清楚的看到VR使用者的體驗。雖然混合現實技術讓體驗的分享變得可行,但頭顯設備卻依然遮擋著用戶的面部表情和眼神,成為了虛擬現實提供深度參與感體驗和全視野的絆腳石。

      谷歌機器感知(Google Machine Perception)團隊的研究者們已經和Daydream Labs 以及YouTube Spaces一起,共同尋找如何能在制造出一種虛擬的“透視”效果,從而移除頭顯,讓我們能看到其他人臉部的解決方案。

      解決MR視頻的痛點,谷歌用機器學習重現被頭顯遮擋的臉

      雷鋒網注:VR用戶在綠幕前與虛擬環境相融合,并制造出混合現實的效果:傳統混合現實的面部是被遮擋的,而我們的結果可以顯示面部。注意頭顯上有一處標記幫助位置識別。

      我們的技術融合了3D視覺,機器學習以及圖形技術。

      動態臉部模型捕捉

      我們技術的核心思想是使用用戶的臉部3D模型作為被遮擋的臉的代理模型。這個代理模型被用來合成混和現實中的臉。首先,我們使用稱為“注視點決定的動態表情(gaze-dependent dynamic appearance)”的技術,來捕捉本人臉部的3D模型。初始的校準需要用戶坐在一個彩色深度攝像機以及一個顯示器前,用眼睛盯住屏幕上的標記。通常只需要不到一分鐘,就可以用這種一次性的校準方法得到用戶臉部的3D模型,然后放在數據庫中學習。這個數據庫將不同注視點和眨眼動作對應到各種表情圖片。這個注視點數據庫(以注視點作為索引的面部紋理模型)讓我們能動態的根據注視點的不同而生成不同的面部表情,進而合成出自然而生動的臉。

      解決MR視頻的痛點,谷歌用機器學習重現被頭顯遮擋的臉

      雷鋒網注:左圖中,用戶的面部在她盯著屏幕上標記的時候被攝像頭記錄下來。右圖中我們展示了重建的3D面部模型的動態特性:通過移動或點擊鼠標,我們能模擬注視點移動和眨眼效果。

      校準和對齊

      制作一段混合現實視頻需要特制的設備——一臺校準過,和頭顯時間同步的外置攝像機。攝像機拍攝一段VR用戶在綠幕前的視頻,然后剪下用戶的影像合成到虛擬世界中,最終生成混合現實的視頻。其中非常重要的一步就是要準確的估計攝像機和頭顯坐標系統的校準值。這些校準技術通常需要大量的手動調節,并需要很多步驟才能完成。我們在頭顯前加了一個標記,使用3D圖像追蹤簡化了上述的過程,使我們通過VR設備就可以自動地優化校準值。

      至于頭顯的移除,我們需要把3D的面部模型和攝像機影像中可見的部分面部對齊,并完美的縫合在一起。一種可行的縫合方法是將面部模型直接放在頭顯后邊。前邊提到的使用到VR頭顯定位的校準技術,能夠提供足夠的信息來決定如何放置模型,讓我們能夠把虛擬的臉渲染在影像里。

      合成與渲染

      對齊之后,最后一步就是通過恰當的3D面部模型渲染,使它和原視頻完美融合。使用一臺經過SMI改裝,能夠實現眼球追蹤技術的HTC Vive頭顯,結合我們的動態注視點數據庫,我們能夠重現用戶的注視點。這些眼球追蹤器得到的圖片并不足以直接重建被遮擋的面部區域,但是足夠提供很精細的的注視點信息。我們可以使用追蹤器得到的注視點實時數據,精確生成出用戶的表情和眼睛的眨動。在運行時,在預處理階段得到的注視點數據庫會告訴我們最符合所查詢注視點的面部照片,同樣也會留意臉部美化的問題,比如顳骨是不是平滑。

      此外,考慮到注視點數據收集和實際運行時的光線的變化,我們還進行了色彩矯正,并添加了羽化效果,這樣一來合成加入的部分就和其余的面部更相稱了。

      正如“恐怖谷(uncanny valley)理論” 提到的,人類對臉部的人工處理是有高度敏感性的,即使是合成中微小的不足也會引起你的留意,讓你覺得不自然。為了減少這方面的影響,我們并沒有完全移除頭顯,而是選擇了一種“潛水面具效果”的方式,把色彩校正過的面部圖像和半透明的頭顯合成在一起。提醒觀看者頭顯的存在能幫我們避免“恐怖谷”效應,也能讓對齊和調色算法的小錯誤不那么顯眼。

      有了可以看到用戶面部表情和真實注視點的半透明頭顯,這段視頻就可以和虛擬世界融合起來,制作出最終的混合現實視頻了。

      結果與展望

      我們運用了我們的頭顯消除技術來優化混合現實,使得媒介不光能展示VR使用者如何和虛擬環境互動,同時還能生動形象的展示他們的面部表情。下邊是一個我們技術應用的例子,一位藝術家在虛擬環境中使用谷歌畫刷(Google Tilt Brush ):

      解決MR視頻的痛點,谷歌用機器學習重現被頭顯遮擋的臉

      雷鋒網注:在混合現實的展示下,一位藝術家正在用谷歌畫筆進行3D藝術創作。上邊的圖是傳統的混合現實,頭顯遮擋了面部。下邊是我們的結果,整個的面部和眼睛都自然生動的展現了出來。

      我們展示了這項技術的潛力,它的應用卻不僅僅只在混合現實中。頭顯移除技術還將優化虛擬現實有關的通訊和社交的各種應用,例如VR會議,多人VR游戲,以及和朋友家人的旅游探險。從被頭顯遮擋什么也看不到,到生動真實的面部圖像,能看到VR世界中同伴們的臉注定是VR領域一個重大的變革,而我們也很高興能親歷這樣的變革。

      via Google

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      分享:
      相關文章

      作者

      關注IoT和電動汽車,歡迎勾搭
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 国产爽片一区二区三区| 精品久久久久久国产| 欧洲av在线| 偷偷色噜狠狠狠狠的777米奇| 国产自国产自愉自愉免费24区| 人妻另类 专区 欧美 制服| 日本久久久www成人免费毛片丨| 黑巨人与欧美精品一区| 国产熟女在线播放第一页| 在线色综合| 中文字幕久久亚洲一区| 精品欧美一区二区精品久久| 亚洲老熟女乱女一区二区| 精品无码毛片| 日韩精品中文字幕无码一区| 无码精品一区二区三区在线| 精品国产一区二区三区不卡| 亚洲人成网站在线播放2019| 无码少妇视频| www.com黄色| 岛国精品| 亚洲嫩模一区二区三区| 特级欧美成人性a片| 强伦人妻精品三级| 成年女人免费视频播放体验区| 免费男人和女人牲交视频全黄| 四虎影视库国产精品一区| 无码?人妻?在线| 诸城市| 强d乱码中文字幕熟女1000部| 亚洲伊人成综合网2222| 欧美精品v国产精品v日韩精品| 天天做天天躁天天躁| 精品国产免费人成在线观看| 欧美亚洲h在线一区二区| 亚洲AV无码一区东京热久久| 亚洲综合区图片小说区| 久久精品国亚洲a∨麻豆| 日韩AV色| 狠狠88综合久久久久综合网| 亚洲精品久久久蜜桃|