<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      機器人 正文
      發私信給趙青暉
      發送

      1

      能跟人類對話還不夠,機器人還得會用表情、手勢表達情緒|SIGGRAPH ASIA 2016

      本文作者: 趙青暉 2016-12-05 22:27
      導語:目前對于社交機器人來說,更多的研究都集中在“讓機器人如何理解人類的語言”方面,而動作理解卻一直沒被重視。

      能跟人類對話還不夠,機器人還得會用表情、手勢表達情緒|SIGGRAPH ASIA 2016

      機器會思考嗎?如果可以,機器能思考之后會跟人類的交互真的會更加順暢嗎?除了思想和語言能力之外,機器還需要達到什么樣的能力才能與人交互更加自然有序?

      從上個世紀中葉“讓機器去思考”這個概念被提出之后,研究者們都一齊向這個方向努力著,從最初的個人電腦到如今的AI熱,讓機器理解人類并與人類交互的研究熱度在當下的研究環境中已經達到了空前的巔峰,多數研究者不顧“機器人威脅論”也要研究如何讓機器人能夠更好的理解人類的行為,因為這種研究帶來的除了“威脅”之外還有更多的益處。

      今日,Siggraph Asia 2016亞洲電腦圖像和互動技術展覽及會議在澳門舉行,南洋理工大學電腦工程和設計學院的教授Nadia Thalmann在會議上為大家做了一次“社交機器人及虛擬人類的行為建模”為主題的演講,在演講中她提到了社交機器人及虛擬人物在社會環境中與人互動所需要的挑戰,以及能給人類帶來什么等等問題。

      能跟人類對話還不夠,機器人還得會用表情、手勢表達情緒|SIGGRAPH ASIA 2016

      說起Nadia Thalmann教授很多雷鋒網關注機器人的老讀者應該都不陌生,今年年初的時候,她照著自己的樣子研發了一款仿真機器人,并因此而聞名。這個類人機器人名叫Nadine,在當時,Nadia表示這款機器人主要用于社交用途,是為了陪伴老人和兒童而生,未來也許可以解決由人口老齡化引起的勞動人口緊縮的問題。在這次的Siggraph Asia 2016上,Nadia Thalmann仍然大量的使用了Nadine作為演講實例。

      目前對于社交機器人來說,更多的研究都集中在“讓機器人如何理解人類的語言”方面,這也是Nadine與這些機器人不同的地方,Nadine的研究方向是,除了能讓她理解人類的語言并和人類交流之外,還會有自己的表情和動作,并且這些表情和動作能夠表達她的情緒,同時,她也能夠通過識別人類的表情和動作來理解人類的情緒。這樣就大大的增加了機器人在社會環境中與人互動的能力。

      在演講中,Nadia Thalmann教授為大家播放了一段視頻,演示了Nadine在與人交流過程中的動作識別和交流上的交互。

      能跟人類對話還不夠,機器人還得會用表情、手勢表達情緒|SIGGRAPH ASIA 2016

      從視頻中可以看出,在動作方面,比如人在她面前丟了一本書,她就會立即做出反應,并告知人類:“你掉了一個東西(something)”,不過目前她也只能識別出這個動作本身,至于動作的內容(別如識別掉落的物體)她并不能進行識別。

      而在語言方面,人類與其對話時,表現出不友好的一面,比如用粗俗的語言跟她對話,她也不會像Siri一樣機械地進行回答,而是會情緒化的對人類語言進行“反擊”,并“怒目而視”。

      能跟人類對話還不夠,機器人還得會用表情、手勢表達情緒|SIGGRAPH ASIA 2016

      Nadia Thalmann說,對于機器人來說,給它加入動作識別及功能是非常重要的,因為一個真正的社交機器人應該能理解用戶的行為,并用以手勢、面部表情、目光等動作加以回應。

      要達到以上的目標是非常難的,所以,Nadia Thalmann也在會上提出了社交機器人未來研發的三點挑戰:

      • 讓機器能夠全面的感知用戶的行為,并對用戶的行為進行解釋分析,理解用戶的意圖。

      • 做好利用局部傳感讓機器人在社交場合做出適合當時環境、語境的行為決策,而不是機械般的程式化。

      • 多線交流(不只是和一個人對話,而是多人環境)的同步以及反映的實時性的提升。

      這些研究重點將在未來會一一實現,目前Nadine機器人只能有二十多種表情,而且能夠識別的動作也有限,并且只能使用類似Kincet的體感設備來感知人的動作,未來在傳感器等硬件方面還會有很大的提升空間。為了能夠早日完成以上有挑戰的研究點,Nadia Thalmann以及她的研究團隊做出了一些具體的任務規劃,來逐步完成:

      • 第一階段:讓機器人能夠和人類對話并對人類的生活方面的某些數據進行長期監測。它能夠幫用戶做一些簡單的事情,并且根據你的行為特征來分析一些對用戶自身有意義的數據,比如健康信息,并且這些信息會嵌入到智能系統當中,當機器人跟你進行對話時就會將這些信息透露給你,舉個例子,當你連續工作好幾天,沒有得到正常的休息,機器人就會提醒你:你已經很久沒睡了,應該休息一下。

      • 第二階段:在第一階段的基礎上增添多模式交互的框架,該框架能夠使機器人能夠完全理解用戶的語言,并且在于人類聊天的時候,能夠進行面部表情、手勢等外部語言輔助的表達,并能夠識別人類的表情和手勢。

      • 第三階段:有獨立的思想和情感,能夠基于人格和人類進行情感交互,比如能夠有信任、同情等這類的抽象情感,并且能幫助人類解決更高級的問題,能提出更具有說服力的決策意見,成為你生活中完全的助手。

      這樣的目標量化對于完成真正的類人機器人的目標目前看起來貌似是可行的,在這其中就要做很多細致的工作,比如從外觀開始做,研究一些適合機器人的3D打印項目,來給機器人做基礎;還有仿生科技的研究,能夠讓機器人的行為舉止不至于傾向“恐怖谷”,要更加的自然。以上屬于外觀的建模,除此之外還需要給機器人做情緒建模,這方面就復雜的多,涉及的知識點異常龐雜。

      但拎出外觀或者內核都不是最難的,其中最難點,也就是Nadia Thalmann她們正在研究的,是如何將二者完美的結合,讓其語言和動作進行一個自然的交互狀態,這才是類人機器人未來發展的關鍵所在。機器人真的達到第三階段能夠對人類有多大的幫助還不太好說,但一定能給人類的生活帶來翻天覆地的變化。

      相關文章:

      朋克學術大牛上演“換頭術”,原來深度學習還能這樣玩!(附論文下載)|SIGGRAPH ASIA 2016

      這是一個除了有PPT,還有電影看的神奇會議|SIGGRAPH Asia 2016第一天亮點指南

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      分享:
      相關文章

      編輯

      關注互聯網內容創作的一切。微信號:rockpen(*注明公司職位,否則不通過),請多指教。另有一公眾號:artbyte,專注扯犢子。
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 国产色视频一区二区三区| 天堂网亚洲综合在线| 成人福利网站导航秘?涩涩屋 | 国产熟妇精品高潮一区二区三区| 亚洲香蕉av一区二区蜜桃| 欧美、另类亚洲日本一区二区| 精品无码a久久| 少妇粗大进出白浆嘿嘿视频| 日本一区二区三区四区看片| 离岛区| 天堂a?中文在线| 日韩麻豆国产精品欧美| 无码精品久久一区二区三区| 久久人妻中文| 精品九九视频| 老鸭窝在钱视频| 日本xxxx裸体xxxx| 武陟县| 怀安县| 熟女精品视频一区二区三区| 91视频网站| 成人无码AV片| 日韩人妻系列无码专区| 人妻另类 专区 欧美 制服| 志丹县| 门国产乱子视频观看| 日韩不卡在线观看视频不卡| 欧美又粗又大| 欧韩一区| 亚洲欧美中文高清在线专区| 国产精品久久这里只有精品| 国产成人综合在线观看不卡| 久久人人妻人人做人人爽| 成人性能视频在线| 囯产精品久久久久久久久久妞妞| 嫩草研究院久久久精品| 久久男人av资源站| 宜宾市| JIZZ亚洲| 国产激爽大片高清在线观看| 日本一区二区三区中文字幕|