<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發者 正文
      發私信給汪思穎
      發送

      0

      元學習:實現通用人工智能的關鍵!

      本文作者: 汪思穎 編輯:郭奕欣 2017-08-21 19:07
      導語:一文帶你看遍元學習

      雷鋒網按 :本文作者Flood Sung,本文原載于其知乎專欄——智能單元。雷鋒網已獲得原作者授權。

      1 前言

      Meta Learning(元學習)或者叫做 Learning to Learn(學會學習)已經成為繼Reinforcement Learning(增強學習)之后又一個重要的研究分支(以后僅稱為Meta Learning)。對于人工智能的理論研究,呈現出了

      Artificial Intelligence --> Machine Learning --> Deep Learning --> Deep Reinforcement Learning --> Deep Meta Learning

      這樣的趨勢。

      之所以會這樣發展完全取決于當前人工智能的發展。在Machine Learning時代,復雜一點的分類問題效果就不好了,Deep Learning深度學習的出現基本上解決了一對一映射的問題,比如說圖像分類,一個輸入對一個輸出,因此出現了AlexNet這樣的里程碑式的成果。但如果輸出對下一個輸入還有影響呢?也就是sequential decision making的問題,單一的深度學習就解決不了了,這個時候Reinforcement Learning增強學習就出來了,Deep Learning + Reinforcement Learning = Deep Reinforcement Learning深度增強學習。有了深度增強學習,序列決策初步取得成效,因此,出現了AlphaGo這樣的里程碑式的成果。但是,新的問題又出來了,深度增強學習太依賴于巨量的訓練,并且需要精確的Reward,對于現實世界的很多問題,比如機器人學習,沒有好的reward,也沒辦法無限量訓練,怎么辦?這就需要能夠快速學習。而人類之所以能夠快速學習的關鍵是人類具備學會學習的能力,能夠充分的利用以往的知識經驗來指導新任務的學習,因此Meta Learning成為新的攻克的方向。

      與此同時,星際2 DeepMind使用現有深度增強學習算法失效說明了目前的深度增強學習算法很難應對過于復雜的動作空間的情況,特別是需要真正意義的戰略戰術思考的問題。這引到了通用人工智能中極其核心的一個問題,就是要讓人工智能自己學會思考,學會推理。AlphaGo在我看來在棋盤特征輸入到神經網絡的過程中完成了思考,但是圍棋的動作空間畢竟非常有限,也就是幾百個選擇,這和星際2幾乎無窮的選擇對比就差太多了(按屏幕分辨率*鼠標加鍵盤的按鍵 = 1920*1080*10 約等于20,000,000種選擇)。然而在如此巨量選擇的情況下,人類依然沒問題,關鍵是人類通過確定的戰略戰術大幅度降低了選擇范圍(比如當前目標就是造人,挖礦)因此如何使人工智能能夠學會思考,構造戰術非常關鍵。這個問題甚至比快速學習還要困難,但是Meta Learning因為具備學會學習的能力,或許也可以學會思考。因此,Meta Learning依然是學會思考這種高難度問題的潛在解決方法之一。

      經過以上的分析,不過是為了得出下面的結論:

      Meta Learning是實現通用人工智能的關鍵!

      在本文之前,專欄已經發布了兩篇和Meta Learning相關的文章:

      1. 學會學習Learning to Learn:讓AI擁有核心價值觀從而實現快速學習

      2. 機器人革命與學會學習Learning to Learn

      之前采用Learning to Learn這個名稱是希望讓更多的知友明白這個概念,從本篇開始,我們會直接使用Meta Learning這個名稱(其實只是因為這個名稱看起來更專業更酷)

      關于Meta Learning的概念本文就不介紹了,在上面列出的兩篇Blog已有講解。本文將和大家分享一下Meta Learning的一些最前沿的研究進展,可以說是百家爭鳴的階段。

      2 Meta Learning百花齊放的研究思路

      為什么說Meta Learning的研究是百家爭鳴呢?因為每一家的研究思路都完全不同,真的是各種方法各種試,呈現出一種智慧大爆發的階段。

      關于Meta Learning的papers,我收集了一下:

      songrotek/Meta-Learning-Papers

      這里主要分析一下最近一兩年來的發展情況,先作個分類,然后做一下簡要的分析。

      2.1 基于記憶Memory的方法

      基本思路:既然要通過以往的經驗來學習,那么是不是可以通過在神經網絡上添加Memory來實現呢?

      代表文章:

      [1] Santoro, Adam, Bartunov, Sergey, Botvinick, Matthew, Wierstra, Daan, and Lillicrap, Timothy. Meta-learning with memory-augmented neural networks. In Proceedings of The 33rd International Conference on Machine Learning, pp. 1842–1850, 2016.

      [2] Munkhdalai T, Yu H. Meta Networks. arXiv preprint arXiv:1703.00837, 2017.

      以Meta-Learning with memory-augmented neural networks這篇文章為例,我們看一下他的網絡結構:

      元學習:實現通用人工智能的關鍵!

      我們可以看到,網絡的輸入把上一次的y label也作為輸入,并且添加了external memory存儲上一次的x輸入,這使得下一次輸入后進行反向傳播時,可以讓y label和x建立聯系,使得之后的x能夠通過外部記憶獲取相關圖像進行比對來實現更好的預測。

      2.2 基于預測梯度的方法

      基本思路:既然Meta Learning的目的是實現快速學習,而快速學習的關鍵一點是神經網絡的梯度下降要準,要快,那么是不是可以讓神經網絡利用以往的任務學習如何預測梯度,這樣面對新的任務,只要梯度預測得準,那么學習得就會更快了?

      代表文章:

      [1] Andrychowicz, Marcin, Denil, Misha, Gomez, Sergio, Hoffman, Matthew W, Pfau, David, Schaul, Tom, and de Freitas, Nando. Learning to learn by gradient descent by gradient descent. In Advances in Neural Information Processing Systems, pp. 3981–3989, 2016

      元學習:實現通用人工智能的關鍵!

      這篇文章的思路很清奇,訓練一個通用的神經網絡來預測梯度,用一次二次方程的回歸問題來訓練,然后這種方法得到的神經網絡優化器比Adam,RMSProp還要好,這樣顯然就加快了訓練。

      2.3 利用Attention注意力機制的方法

      基本思路:人的注意力是可以利用以往的經驗來實現提升的,比如我們看一個性感圖片,我們會很自然的把注意力集中在關鍵位置。那么,能不能利用以往的任務來訓練一個Attention模型,從而面對新的任務,能夠直接關注最重要的部分。

      代表文章:

      [1] Vinyals, Oriol, Blundell, Charles, Lillicrap, Tim, Wierstra, Daan, et al. Matching networks for one shot learning. In Advances in Neural Information Processing Systems, pp. 3630–3638, 2016.

      元學習:實現通用人工智能的關鍵!

      這篇文章構造一個attention機制,也就是最后的label判斷是通過attention的疊加得到的:

      元學習:實現通用人工智能的關鍵!

      attention a則通過g和f得到。基本目的就是利用已有任務訓練出一個好的attention model。

      2.4 借鑒LSTM的方法

      基本思路:LSTM內部的更新非常類似于梯度下降的更新,那么,能否利用LSTM的結構訓練出一個神經網絡的更新機制,輸入當前網絡參數,直接輸出新的更新參數?這個想法非常巧妙。

      代表文章:

      [1] Ravi, Sachin and Larochelle, Hugo. Optimization as a model for few-shot learning. In International Conference on Learning Representations (ICLR), 2017.

      元學習:實現通用人工智能的關鍵!

      這篇文章的核心思想是下面這一段:

      元學習:實現通用人工智能的關鍵!

      怎么把LSTM的更新和梯度下降聯系起來才是更值得思考的問題吧。

      2.5 面向RL的Meta Learning方法

      基本思路:既然Meta Learning可以用在監督學習,那么增強學習上又可以怎么做呢?能否通過增加一些外部信息的輸入比如reward,之前的action來實現?

      代表文章:

      [1] Wang J X, Kurth-Nelson Z, Tirumala D, et al. Learning to reinforcement learn. arXiv preprint arXiv:1611.05763, 2016.

      [2] Y. Duan, J. Schulman, X. Chen, P. Bartlett, I. Sutskever, and P. Abbeel. Rl2: Fast reinforcement learning via slow reinforcement learning. Technical report, UC Berkeley and OpenAI, 2016.

      兩篇文章思路一致,就是額外增加reward和之前action的輸入,從而強制讓神經網絡學習一些任務級別的信息:

      元學習:實現通用人工智能的關鍵!

      2.6 通過訓練一個好的base model的方法,并且同時應用到監督學習和增強學習

      基本思路:之前的方法都只能局限在或者監督學習或者增強學習上,能不能搞個更通用的呢?是不是相比finetune學習一個更好的base model就能work?

      代表文章:

      [1] Finn, C., Abbeel, P., & Levine, S. (2017). Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks. arXiv preprint arXiv:1703.03400.

      元學習:實現通用人工智能的關鍵!

      這篇文章的基本思路是同時啟動多個任務,然后獲取不同任務學習的合成梯度方向來更新,從而學習一個共同的最佳base。

      2.7 利用WaveNet的方法

      基本思路:WaveNet的網絡每次都利用了之前的數據,那么是否可以照搬WaveNet的方式來實現Meta Learning呢?就是充分利用以往的數據呀?

      代表文章:

      [1] Mishra N, Rohaninejad M, Chen X, et al. Meta-Learning with Temporal Convolutions. arXiv preprint arXiv:1707.03141, 2017.

      元學習:實現通用人工智能的關鍵!

      直接利用之前的歷史數據,思路極其簡單,效果極其之好,是目前omniglot,mini imagenet圖像識別的state-of-the-art。

      2.8 預測Loss的方法

      基本思路:要讓學習的速度更快,除了更好的梯度,如果有更好的loss,那么學習的速度也會更快,因此,是不是可以構造一個模型利用以往的任務來學習如何預測Loss呢?

      代表文章:

      [1] Flood Sung, Zhang L, Xiang T, Hospedales T, et al. Learning to Learn: Meta-Critic Networks for Sample Efficient Learning. arXiv preprint arXiv:1706.09529, 2017.

      元學習:實現通用人工智能的關鍵!

      本文構造了一個Meta-Critic Network(包含Meta Value Network和Task-Actor Encoder)來學習預測Actor Network的Loss。對于Reinforcement Learning而言,這個Loss就是Q Value。

      本文詳細分析詳見:學會學習Learning to Learn:讓AI擁有核心價值觀從而實現快速學習

      本文 紐約大學的Kyunghyun Cho 做了評價:

      元學習:實現通用人工智能的關鍵!

      也算是一種全新的思路。

      3 小結

      從上面的分析可以看出,Meta Learning方興未艾,各種神奇的idea層出不窮,但是真正的殺手級算法還未出現,非常期待未來的發展!也希望更多的朋友們可以投入到Meta Learning這個研究方向上來。

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      元學習:實現通用人工智能的關鍵!

      分享:

      編輯

      關注AI學術,例如論文
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 视频在线只有精品日韩| 国产乱色国产精品免费视频| 国自产拍偷拍精品啪啪一区二区| 国产欧美精品一区二区色综合| 额尔古纳市| 国产亚洲精品AA片在线爽| 成人无码一区二区三区网站| 日本特黄特色aaa大片免费| 99ri精品| 成年午夜无码av片在线观看| 日日夜夜噜噜视频| 伊人九九网香蕉精品| 昌平区| 樱花草在线社区www| 欧美一区二区日韩国产| 久久亚洲国产成人亚| 日本午夜精品理论片a级app发布| 成人午夜福利视频| 尤物视频成人在线视频| 亚洲综合无码精品| 色色午夜天| 91精品国产成人观看| 无码成a毛片免费| 97久久香蕉国产线看观看| canopen草棚类别9791怎么查| 一本久道久久综合狠狠躁av | 国产丝袜AV| 甘孜| 色秘?乱码一码二码三码熟女| 久久se精品一区精品二区| 女厕偷窥一区二区三区| 精品国产18久久久久久| AV白浆| 即墨市| 97久久久人妻一区精品| 人妻综合网| 日本丰满少妇高潮呻吟| 欧美性受xxxx白人性爽| 婷婷国产成人精品视频| 中文字幕av国产精品| 国产午夜不卡av免费|