<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      AR/VR 正文
      發私信給李詩
      發送

      0

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      本文作者: 李詩 2017-09-07 18:45
      導語:一起探索人機交互的未來。

      雷鋒網按:本文原載于微信公眾號“51CTO技術?!保髡邽閡Sens凌感科技技術研發副總裁馬賡宇,雷鋒網授權轉發。

      2016 年被大家稱為 VR 元年,當時用戶能感受到的僅僅是最初級的 VR 體驗,就是一些頭盔硬件,把手機插在頭盔里。

      目前,在 VR/AR、自動駕駛、無人機這些新興領域,傳統的交互方式已經不能滿足用戶的需求。隨著深度學習、計算機視覺等領域的突破性進展,一些新的交互方式已經成為可能。

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      基于過往經驗來看,研發 VR/AR 技術主要就是打造沉浸感,沉浸感是 VR/AR 帶給用戶不同于手機的特殊體驗。實現沉浸感,需要有交互、顯示和移動性這三方面技術支撐,以下內容,我們將以交互技術為核心展開。

      在 AR/VR 領域中,交互不再用鼠標和鍵盤,大部分交互技術均采用手柄。還有位置跟蹤技術,在一些高檔的 VR 設備中會提供,但成本較高,且需要連接電腦或主機來實現。未來,可能會采用用手直接抓取的方式,目前也有很多手勢交互方案提供商。


      uSens 主要側重 AR/VR Interaction:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      左側的 HCI((Human-ComputerInteraction)就是人機交互界面,uSens 主要提供 Gesture(手勢識別)、View Direction(頭轉向識別)和 Position Tracking(位置追蹤)。右側是顯示技術,AR 和 VR 的顯示技術雖不同,但交互技術卻相通。

      手勢交互技術

      如下圖,手勢交互分為符號型、間接型和直接型三種:

      • 符號型交互。如左一圖中顯示,這位男士做了 OK 的手勢,可通過圖形或其他方式識別,進而實現交互。

      • 手持工具間接交互。如中間圖二所示,人手持錘子砸釘子,這樣的場景用手柄可以很好的模擬。

      • 直接和物體交互。如右圖所示,用手直接和物體進行交互,這樣的場景就需要對手的三維模型進行精確識別。

        AR/VR專家告訴你:人機交互的未來場景長啥樣?

      如下圖,是常見的硬件對三個場景的實現能力分析:

      • Game Pad。普通游戲手柄,三種手勢交互場景都不可以實現。

      • 6DOF Controller。是當前 VR 常用的手柄,比較適合拿著一個物體進行交互,如手持刀劍等,比較自然。但是手勢型和直接交互這兩種不能實現。

      • HoloLens。可以識別點擊和手張開這兩種手勢,只能實現符號手勢方式。

      • 3D Hand Tracking 與 uSens Fingo??赏ㄟ^手的形狀以及三維模型,實現這三種手勢方式。

      AR/VR專家告訴你:人機交互的未來場景長啥樣?AR/VR專家告訴你:人機交互的未來場景長啥樣?

      手勢交互技術的使用場景

      手勢交互技術的使用場景很廣泛,不光在 VR 領域,如下圖所示:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      如圖中所示,像 Game、3D UI、Drive、Public Display、Medical 和 Intelligent Home 等,前三種是為了更好的體驗,后三種則是在公共場合下的應用;像手術、做飯等出于干凈、衛生等方面考慮。

      基于AI的手勢交互

      uSens 從 2014 年開始,用深度學習算法來解決手的識別問題。雖然研究手勢識別的人不多,但是和圖像識別、人臉識別一樣,都可以用深度學習來實現。

      uSens 用深度學習研發 26 自由度手勢識別,可以從圖像里邊把手的關節點和關節點角度與位置識別出來。

      如下圖,是 26 自由度手勢識別算法的大致思路:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      參考 2014 年深度學習的一個案例,主要是借鑒 CNN 方式,不同圖像通過不同尺度的 CNN 進行卷積,得到一個大的向量,再用兩層全連接的深度網絡得到關節點的 heat-maps。

      heat-maps 就是關節點在圖像上的概率分布,如上黑框中所示,藍色的點就是小指指尖分布圖,在這個點權重比較大,其他位置減弱。得到每個關節點的權重圖,再用反向動力學、濾波等方法,就可以跟蹤出手 26 自由度的運動。

      運動跟蹤(空間定位技術)

      如下圖,是運動追蹤的主要應用場景:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      如圖中所示,運動追蹤最早在軍事上使用,如導彈、飛機等需要在空中定位自己的位置,空間定位技術優化之后用于智能機器人、無人車、掃地機器人等。

      VR/AR 也需要這樣的空間定位技術,如下是當前研發和掌握空間定位技術的公司及產品:Google Tango、Microsoft Hololens、Qualcomm VR SDK、Apple ARKit、Snapchat、Facebook和 uSens。

      空間定位技術/視覺辦法

      空間定位技術需要結合視覺和傳感器兩方面的信息。

      如下圖,是視覺特征模型:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?


      如圖右側中所示,是一個相機成像,通過相機觀測三維空間中的一個點,可以得到一張圖像,3D 點和圖像滿足下放投影方程。

      左邊是三個比較常用的問題:

      • 空間定位。3D 點 (x,y,z),2D 投影 (u,v),求解相機姿態 (R,T)。

      • 三角化。已知相機姿態 (R, T),求解 3D 點 (x,y,z)。

      • SLAM。僅已知 2D 投影 (u,v),求解相機姿態 (R,T),3D點 (x,y,z)。

      視覺SLAM方法

      視覺 SLAM 方法包含 Tracking 和 Mapping 兩個模塊,Tracking 模塊的功能是已知 3D 點位置,求解每幀圖像的相機 pose。Mapping 模塊的功能是用來更新 3D 點的位置。

      視覺特征

      空間定位技術的視覺特征可分為如下兩種:

      • 基于圖像特征點的方法,如 PTAM,ORB。

      • 直接法,比較像素灰度差,如 LSD-SLAM、DSO-SLAM。

      求解方法

      根據上圖所示方程,求解方式有基于濾波的算法和基于優化的算法兩種,這些方法目前沒有好壞之分,在實際系統中都可以達到相似效果。

      空間定位技術/傳感器

      上述的視覺方法能夠達到實用的程度,要歸功于傳感器的進步及傳感器信號融合到算法中,使得系統性能得到提升。    

      如下圖,是傳感器:Mechanic Gyroscope、LaserGyroscope 和 MEMs Gyroscope:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      如上圖,左一是 Mechanic Gyroscope(機械陀螺儀),利用角動量保持不變的特性。當中間的轉子保持高速旋轉,但中間轉子方向不變,這樣可以得到設備的旋轉方向。這樣老式的機械陀螺儀用于幾百年前的輪船中。

      當前,Laser Gyroscope(激光陀螺儀)高精度陀螺儀都是用激光的方式,如上圖中間小圖所示,用于導彈在空中飛行,幾個小時誤差約在 100 米左右。

      激光陀螺儀中間有一個激光源,向兩個方向發射激光。如物體靜止不動,兩條光線的光路長度相同,在接收端的兩條光路相差是零;如果物體旋轉,兩條光路就會發生特別微小的變化,就會產生相差,通過識別相差,得到整個設備的旋轉速度。

      MEMs Gyroscope(微機械陀螺儀),用于手機或 VR 頭盔中。這種陀螺儀做的很小,會用到一些機械結構來識別運動。

      在微機械陀螺儀中,有兩個可以活動的扇片,當物體旋轉,扇片會保持不動,通過識別角度,就可以推斷旋轉速度。

      這種微機械陀螺儀會比激光械陀螺儀差很多,如單獨使用是沒辦法達到預期效果,所以必須要結合陀螺儀和視覺信息一起進行。

      IMU(慣性測量單位)

      如下圖,是 IMU 中的陀螺儀和加速度計:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      IMU 中的陀螺儀,輸出的是相鄰時刻相機旋轉的角度。IMU 中的加速度計,輸出的是相鄰時刻相機的加速度,即速度的變化率。

      空間定位技術/傳感器存在的問題

      如下圖,是傳感器存在的問題:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      傳感器數據采樣有離散和漂移的,如圖一所示,連續線是實際的加速度,但是 IMU 采樣是離散的,所以最高點并沒有采樣到,導致結果出現有誤差。

      IMU 得到的加速度是包含重力的,實際中,重力產生的加速度是遠大于一般移動時產生的加速度,所以要去掉重力就需精確估計朝向。

      IMU 和相機的相對位置和方向影響很大,兩個位置是不在一起的,它們之間有相對位移且由于工業生產原因,兩者之間的相差很小一個角度。

      經研究發現,哪怕角度差一度,對最后整個系統的精度影響也會很大,所以必須在線標定兩者之間的角度和位移。

      IMU 和圖像的采集時間不一致,相機采樣頻率大概是 60、30 幀,但 IMU 采樣頻率很高,一般都是 500、800、1000,采樣頻率、采樣時間不一。

      解決這些問題的方式是:傳感器+視覺融合

      如下圖是預積分與攝像機標定:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      當 IMU 的采樣率比圖像高很多時,采用預積分的方法,可以把圖像幀之間的 IMU 信息積分起來,當成一量。這樣就不需要優化每幀 IMU 的點。

      相機 IMU 和世界坐標系之間的關系,需要精確的標定,如果差一度,整個系統就會完全崩潰。

      空間定位技術/ATW

      ATW(Asynchronous Timewarp)是一種生成中間幀技術,可有效減小延遲, 通過預測未來的雙眼位置來提前渲染。

      相機圖像采集,SLAM 算法,渲染,這些過程都需要處理時間,統稱為“Motion to Photon Latency”。在 VR 應用中,需要小于 20ms,才能保證用戶不會眩暈。

      如下圖,是渲染過程:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?


      從圖中看出,整個過程包括了很多運算,有圖像獲取時間、算法處理時間和渲染時間,渲染結果到最終結果顯示時間,這些可以通過 IMU 數據得到,但有些必須經過預測。

      uSens Hardware

      如下圖是 uSens 的硬件產品進化過程體現在更小、compact、更易于嵌入式、功耗更低。

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      如下圖,是硬件規格(Hardware Spec):

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      產品硬件經過幾次迭代,從尺寸上和功耗上都比之前小很多。紅色標注是對效果影響比較大的因素,如全局曝光分辨率、雙系統、左右相機同時采樣等。

      未來,VR/AR 技術面臨的問題

      如下圖是智能視覺系統:

      AR/VR專家告訴你:人機交互的未來場景長啥樣?

      當前應用在 VR/AR 場景中,實際上它可以應用如上圖所示的更多場景中,比如廣告機、車載手勢識別、機器人和無人機。

      人機交互技術的發展由兩方面的因素決定:一方面是用戶希望擁有更自然的交互方式;另一方面是技術的進步使得交互更加自然和方便。未來人機交互方式將會包含自然手勢理解和環境感知這兩個核心功能。

      VR/AR技術還在路上,未來還需面臨以下三大問題:

      • 產品碎片化。一個新的硬件出世,早期總會產生很多碎片,當前的 AR 產品生產公司有很多,都想搶占市場,發布自己的產品,對其他家產品比較排斥,進而整體環境非常封閉。

      • 內容缺乏。手機端 VR 內容都相對單一,體驗也不是很好。

      • 技術進步。當前有很多廠商正在研發能帶來更好沉浸感效果的 VR 技術,只為給用戶帶來更好的體驗。

      來源:以上內容由編輯王雪燕根據馬賡宇老師在WOTI全球創新技術峰會——巔峰論壇的演講內容整理。



      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

      分享:
      相關文章

      編輯

      關注AI業界、NLP、VR、AR技術與產品。采訪報道、行業交流請加微信“Hanass”
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 亚洲成av人片无码迅雷下载| 国产成人久久777777| 熟女福利导航| 免费人成在线观看VR网站| 免费观看性欧美大片无片 | 中文字幕无码专区亚洲一区18P| 少妇被粗大的猛烈进出69影院一| 亚洲熟妇中文字幕五十中出| 2024av天堂手机在线观看| 拜城县| 无码人妻中文| 国产xxx| 国产尤物在线视精品在亚洲| 无码av不卡免费播放| 色av综合av综合无码网站| 亚洲成av人片在线观看ww| 奈曼旗| 性欧美老人牲交xxxxx视频| 簧片无码| 91国產乱高潮白浆| 性国产| 亚洲VA欧美VA国产VA综合| 亚洲男人的天堂在线观看| 一区二区三区偷拍系列| 亚洲熟妇无码av在线播放| 亚洲精品国模一区二区| 末发育娇小性色xxxxx视频| 久久国产99| 国产超碰人人爽人人做人人添| 成人AV一区二区三区| 国产激情精品一区二区三区| 国产成人精品永久免费视频| 久草91这里只有精品| 国产 另类 在线 欧美日韩| 最近免费中文字幕大全| 人人妻人人澡人人爽秒播| 图片区小说区视频区综合| 亚洲国产长腿丝袜av天堂| 性中国熟妇| 18禁止看的免费污网站| 青青草av|