<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給蔣寶尚
      發送

      0

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      本文作者: 蔣寶尚 2020-01-14 17:43
      導語:Hypernetwork

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      人腦顯然是人工智能追求的最高標準。

      畢竟人腦使得人類擁有了連續學習的能力以及情境依賴學習的能力。

      這種可以在新的環境中不斷吸收新的知識和根據不同的環境靈活調整自己的行為的能力,也正是深度學習系統與人腦相差甚遠的重要原因。

      想讓傳統深度學習系統獲得連續學習能力,最重要的是克服人工神經網絡會出現的“災難性遺忘”問題,即一旦使用新的數據集去訓練已有的模型,該模型將會失去對原數據集識別的能力。

      換句話說就是:讓神經網絡在學習新知識的同時保留舊知識。

      前段時間,來自蘇黎世聯邦理工學院以及蘇黎世大學的研究團隊發表了一篇名為《超網絡的連續學習》(Continual learning with hypernetworks)的研究。提出了任務條件化的超網絡(基于任務屬性生成目標模型權重的網絡)。該方法能夠有效克服災難性的遺忘問題。

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      具體來說,該方法能夠幫助在針對多個任務訓練網絡時,有效處理災難性的遺忘問題。除了在標準持續學習基準測試中獲得最先進的性能外,長期的附加實驗任務序列顯示,任務條件超網絡(task-conditioned hypernetworks )表現出非常大的保留先前記憶的能力。

      hypernetworks

      在蘇黎世聯邦理工學院以及蘇黎世大學的這項工作中,最重要的是對超網絡(hypernetworks)的應用,在介紹超網絡的連續學習之前,雷鋒網 AI科技評論先對超網絡做一下介紹。hyperNetwork是一個非常有名的網絡,簡單說就是用一個網絡來生成另外一個網絡的參數。

      工作原理是:用一個hypernetwork輸入訓練集數據,然后輸出對應模型的參數,最好的輸出是這些參數能夠使得在測試數據集上取得好的效果。簡單來說hypernetwork其實就是一個meta network。雷鋒網 AI科技評認為傳統的做法是用訓練集直接訓練這個模型,但是如果使用hypernetwork則不用訓練,拋棄反向傳播與梯度下降,直接輸出參數,這等價于hypernetwork學會了如何學習圖像識別。

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      論文下載見文末

      在《hypernetwork》這篇論文中,作者使用 hyperNetwork 生成 RNN 的權重,發現能為 LSTM 生成非共享權重,并在字符級語言建模、手寫字符生成和神經機器翻譯等序列建模任務上實現最先進的結果。超網絡采用一組包含有關權重結構的信息的輸入,并生成該層的權重,如下圖所示。

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      超網絡生成前饋網絡的權重:黑色連接和參數與主網絡相關聯,而橙色連接和參數與超網絡相關聯。

      超網絡的連續學習模型

      在整個工作中,雷鋒網 AI科技評發現作者首先假設輸入的數據面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”,......面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”是可以被儲存的,并能夠使用輸入的數據計算面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”。另外,可以將未使用的數據和已經使用過數據進行混合來避免遺忘。假設F(X,Θ)是模型,那么混合后的數據集為{(面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”),。。。,(面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”),(面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”,面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”)},其中其中Y?(T)是由模型f(.,面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”)生成的一組合成目標。然而存儲數據顯然違背了連續學習的原則,所以在在論文中,作者提出了一種新的元模型fh(面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”,面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”)做為解決方案,新的解決方案能夠將關注點從單個的數據輸入輸出轉向參數集{面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”},并實現非儲存的要求。這個元模型稱為任務條件超網絡,主要思想是建立任務面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”和權重面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”的映射關系,能夠降維處理數據集的存儲,大大節省內存。

      在《超網絡的連續學習》這篇論文中,模型部分主要有3個部分,第一部分是任務條件超網絡。首先,超網絡會將目標模型參數化,即不是直接學習特定模型的參數,而是學習元模型的參數,從而元模型會輸出超網絡的權重,也就是說超網絡只是權重生成器。

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      圖a:正則化后的超網絡生成目標網絡權重參數;圖b:迭代地使用較小的組塊超網絡產生目標網絡權重。

      然后利用帶有超網絡的連續學習輸出正則化。在論文中,作者使用兩步優化過程來引入記憶保持型超網絡輸出約束。首先,計算?Θh(?Θh的計算原則基于優化器的選擇,本文中作者使用Adam),即找到能夠最小化損失函數的參數。損失函數表達式如下圖所示:

       面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      注:Θ? h是模型學習之前的超網絡的參數;?Θh為外生變量;βoutput是用來控制正則化強度的參數。

      然后考慮模型的面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”,它就像面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”一樣。在算法的每一個學習步驟中,需要及時更新,并使損失函數最小化。在學習任務之后,保存最終面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”e并將其添加到集合{面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”}。

      模型的第二部分是用分塊的超網絡進行模型壓縮。超網絡產生目標神經網絡的整個權重集。然而,超網絡可以迭代調用,在每一步只需分塊填充目標模型中的一部分。這表明允許應用較小的可重復使用的超網絡。有趣的是,利用分塊超網絡可以在壓縮狀態下解決任務,其中學習參數(超網絡的那些)的數量實際上小于目標網絡參數的數量。

      為了避免在目標網絡的各個分區之間引入權重共享,作者引入塊嵌入的集合{面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”} 作為超網絡的附加輸入。因此,目標網絡參數的全集Θ_trgt=[面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”,,,面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”]是通過在面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”上迭代而產生的,在這過程中保持面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”不變。這樣,超網絡可以每個塊上產生截然不同的權重。另外,為了簡化訓練過程,作者對所有任務使用一組共享的塊嵌入。

      模型的第三部分:上下文無關推理:未知任務標識(context-free inference: unknown task identity)。從輸入數據的角度確定要解決的任務。超網絡需要任務嵌入輸入來生成目標模型權重。在某些連續學習的應用中,由于任務標識是明確的,或者可以容易地從上下文線索中推斷,因此可以立即選擇合適的嵌入。在其他情況下,選擇合適的嵌入則不是那么容易。

      作者在論文中討論了連續學習中利用任務條件超網絡的兩種不同策略。

      策略一:依賴于任務的預測不確定性。神經網絡模型在處理分布外的數據方面越來越可靠。對于分類目標分布,理想情況下為不可見數據產生平坦的高熵輸出,反之,為分布內數據產生峰值的低熵響應。這提出了第一種簡單的任務推理方法(HNET+ENT),即給定任務標識未知的輸入模式,選擇預測不確定性最小的任務嵌入,并用輸出分布熵量化。

      策略二:當生成模型可用時,可以通過將當前任務數據與過去合成的數據混合來規避災難性遺忘。除了保護生成模型本身,合成數據還可以保護另一模型。這種策略實際上往往是連續學習中最優的解決方案。受這些成功經驗的啟發,作者探索用回放網絡(replay network)來增強深度學習系統。

      合成回放(Synthetic replay)是一種強大但并不完美的連續學習機制,因為生成模式容易漂移,錯誤往往會隨著時間的推移而積累和放大。作者在一系列關鍵觀察的基礎上決定:就像目標網絡一樣,重放模型可以由超網絡指定,并允許使用輸出正則化公式。而不是使用模型自己的回放數據。因此,在這種結合的方法中,合成重放和任務條件元建模同時起作用,避免災難性遺忘。

      基準測試

      作者使用MNIST、CIFAR10和CIFAR-100公共數據集對論文中的方法進行了評估。評估主要在兩個方面:(1)研究任務條件超網絡在三種連續學習環境下的記憶保持能力,(2)研究順序學習任務之間的信息傳遞。具體的在評估實驗中,作者根據任務標識是否明確出了三種連續學習場景:CL1,任務標識明確;CL2,任務標識不明確,并不需明確推斷;CL3,任務標識可以明確推斷出來。另外作者在MNIST數據集上構建了一個全連通的網絡,其中超參的設定參考了van de Ven & Tolias (2019)論文中的方法。在CIFAR實驗中選擇了ResNet-32作為目標神經網絡。

      van de Ven & Tolias (2019):

      Gido M. van de Ven and Andreas S. Tolias. Three scenarios for continual learning. arXiv preprint arXiv:1904.07734, 2019.

      為了進一步說明論文中的方法,作者考慮了四個連續學習分類問題中的基準測試:非線性回歸,PermutedMNIST,Split-MNIST,Split CIFAR-10/100。

      非線性回歸的結果如下:

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      注:圖a:有輸出正則化的任務條件超網絡可以很容易地對遞增次數的多項式序列建模,同時能夠達到連續學習的效果。圖b:和多任務直接訓練的目標網絡找到的解決方案類似。圖c:循序漸進地學習會導致遺忘。

      在PermutedMNIST中,作者并對輸入的圖像數據的像素進行隨機排列。發現在CL1中,任務條件超網絡在長度為T=10的任務序列中表現最佳。在PermutedMNIST上任務條件超網絡的表現非常好,對比來看突觸智能(Synaptic Intelligence) ,online EWC,以及深度生成回放( deep generative replay)方法有差別,具體來說突觸智能和DGR+distill會發生退化,online EWC不會達到非常高的精度,如下圖a所示。綜合考慮壓縮比率與任務平均測試集準確性,超網絡允許的壓縮模型,即使目標網絡的參數數量超過超網絡模型的參數數量,精度依然保持恒定,如下圖b所示。

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      Split-MNIST作為另一個比較流行的連續學習的基準測試,在Split-MNIST中將各個數字有序配對,并形成五個二進制分類任務,結果發現任務條件超網絡整體性能表現最好。另外在split MNIST問題上任務重疊,能夠跨任務傳遞信息,并發現該算法收斂到可以產生同時解決舊任務和新任務的目標模型參數的超網絡配置。如下圖所示

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      圖a:即使在低維度空間下仍然有著高分類性能,同時沒有發生遺忘。圖b:即使最后一個任務占據著高性能區域,并在遠離嵌入向量的情況下退化情況仍然可接受,其性能仍然較高。

      在CIFAR實驗中,作者選擇了ResNet-32作為目標神經網絡,在實驗過程中,作者發現運用任務條件超網絡基本完全消除了遺忘,另外還會發生前向信息反饋,這也就是說與從初始條件單獨學習每個任務相比,來自以前任務的知識可以讓網絡表現更好。

      綜上,在論文中作者提出了一種新的連續學習的神經網絡應用模型--任務條件超網絡,該方法具有可靈活性和通用性,作為獨立的連續學習方法可以和生成式回放結合使用。該方法能夠實現較長的記憶壽命,并能將信息傳輸到未來的任務,能夠滿足連續學習的兩個基本特性。

      參考文獻:

      HYPERNETWORKS:

      https://arxiv.org/pdf/1609.09106.pdf

      CONTINUAL LEARNING WITH HYPERNETWORKS

      https://arxiv.org/pdf/1906.00695.pdf

      https://mp.weixin.qq.com/s/hZcVRraZUe9xA63CaV54Yg

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

      面向超網絡的連續學習:新算法讓人工智能不再“災難性遺忘”

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 亚洲日韩第三页| 国产精品兄妹在线观看麻豆| 熟妇人妻中文字幕| 3p视频在线观看| 亚洲无码?成人| 蜜臀午夜一区二区在线播放| 国产精品久久久久久熟妇吹潮软件| 伊人久久无码中文字幕| 乳山市| 国产精品亚韩精品无码a在线| 亚洲无码在线免费观看| 天天做日日做天天添天天欢公交车| 国产自偷自偷免费一区| 无翼乌口工全彩无遮挡h全彩| 好紧好湿太硬了我太爽了视频| 小泽玛利亚一区| 国产精品va在线观看无码| 男人亚洲天堂| 最近中文字幕完整国语| 欧美videosdesexo吹潮| 国产精品国产三级国产试看| 狠狠噜天天噜日日噜| 欧美成人免费全部| 国产精品七七在线播放| 亚洲色欲色欲www| 人妻无码视频一区二区三区| 一本大道久久香蕉成人网| 制度丝袜诱惑av| 亚洲综合国产伊人五月婷| 亚洲一本在线| 夜夜爽日日澡人人添| 久久久无码精品国产一区| 日日网| 平舆县| 国产亚洲精品色多多app下载 | 免费观看性欧美大片无片| 亚洲高潮喷水无码AV电影| 亚洲午夜视频| 中文岛国精品亚洲一区| 精品人妻国产| 日本体内she精高潮|