<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
      人工智能開發(fā)者 正文
      發(fā)私信給skura
      發(fā)送

      0

      多任務(wù)深度學(xué)習(xí)的三個經(jīng)驗教訓(xùn)

      本文作者: skura 2019-02-15 16:43
      導(dǎo)語:在神經(jīng)網(wǎng)絡(luò)中實現(xiàn) MTL 時的經(jīng)驗

      雷鋒網(wǎng) AI 科技評論按,AZohar Komarovsky,Taboola 算法工程師,致力于研究推薦系統(tǒng)相關(guān)的機(jī)器學(xué)習(xí)應(yīng)用程序。不久前他分享了最近一年關(guān)于多任務(wù)深度學(xué)習(xí)的研究經(jīng)驗。雷鋒網(wǎng) AI 科技評論編譯整理如下:

      在過去的一年里,我和我的團(tuán)隊一直致力于提高 Taboola Feed 的個性化用戶體驗。我們使用多任務(wù)學(xué)習(xí)(MTL)來預(yù)測同一組輸入特性上的多個關(guān)鍵性能指標(biāo)(KPIs),并在 TensorFlow 中實現(xiàn)了一個深度學(xué)習(xí)(DL)模型。但是,在我們開始著手這項研究的時候,MTL 對我們來說比現(xiàn)在復(fù)雜得多,所以我想分享一些經(jīng)驗教訓(xùn)。

      在本文中,我將分享一些在神經(jīng)網(wǎng)絡(luò)(NN)中實現(xiàn) MTL 時具體需要考慮哪些方面的問題,我還將對這些問題提出簡單的 TensorFlow 解決方案。

      我們想從硬參數(shù)共享(hard parameter sharing)的基本方法開始。硬共享意味著我們有一個共享子網(wǎng),這個子網(wǎng)是特定于任務(wù)的。

      多任務(wù)深度學(xué)習(xí)的三個經(jīng)驗教訓(xùn)

      在 TensorFlow 中使用這種模型時,由于它看起來與其他 NN 體系結(jié)構(gòu)沒有那么大的不同,您可能會覺得自己有哪里做錯了。雷鋒網(wǎng)

      經(jīng)驗 1-損失合并

      我們在 MTL 模型中遇到的第一個挑戰(zhàn)是為多個任務(wù)定義單個損失函數(shù)。雖然單個任務(wù)有定義明確的損失函數(shù),但多個任務(wù)會帶來多個損失。

      我們最開始嘗試的做法是直接將所有的損失相加。不久我們就發(fā)現(xiàn),當(dāng)一個任務(wù)趨同于好的結(jié)果時,其他任務(wù)看起來相當(dāng)糟糕。造成這個現(xiàn)象的原因很簡單,因為損失的規(guī)模是如此的不同,以至于一個任務(wù)主導(dǎo)了整個損失,而其余的任務(wù)沒有機(jī)會影響共享層的學(xué)習(xí)過程。

      一個快速的解決辦法是用一個加權(quán)和替代損失的直接相加和,使所有的損失對共享層的影響大致相同。然而,這個解決方案涉及另一個超參數(shù),可能需要每隔一段時間調(diào)整一次。

      幸運(yùn)的是,我們發(fā)現(xiàn)了一篇很棒的論文,論文建議使用不確定性來衡量 MTL 中的損失。具體方法是學(xué)習(xí)另一個噪聲參數(shù),該參數(shù)集成在每個任務(wù)的損失函數(shù)中。這允許 MTL 中有多個任務(wù),并使所有損失達(dá)到相同的規(guī)模。

      通過這種方法,不僅可以得到比加權(quán)和更好的結(jié)果,而且不需要考慮附加的權(quán)重超參數(shù)。這篇論文的作者還提供了一個 keras 實現(xiàn)方法

      經(jīng)驗 2-調(diào)整學(xué)習(xí)速率

      學(xué)習(xí)速率是調(diào)節(jié)神經(jīng)網(wǎng)絡(luò)最重要的超參數(shù)之一,這是一個常見的規(guī)律。所以我們嘗試了調(diào)優(yōu),發(fā)現(xiàn)了對不同任務(wù)來說最優(yōu)的調(diào)試速率。選擇較高的學(xué)習(xí)率會導(dǎo)致其中一個任務(wù)的 dying Relu,而使用較低的學(xué)習(xí)率會導(dǎo)致另一個任務(wù)的收斂緩慢。那我們該怎么辦?我們可以讓每個特定于任務(wù)的子網(wǎng)調(diào)整為單獨(dú)的學(xué)習(xí)速率,并將共享子網(wǎng)調(diào)整為另一個速率。

      雖然這聽起來很復(fù)雜,但實際上相當(dāng)簡單。通常,在 TensorFlow 中訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,您可以使用如下方法:

      optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss)

      AdamOptimizer 定義了應(yīng)該如何應(yīng)用漸變,并最小化計算并應(yīng)用它們。我們可以用自己的實現(xiàn)來代替最小化,該實現(xiàn)將對計算圖中的每個變量使用適當(dāng)?shù)膶W(xué)習(xí)速率:

      all_variables = shared_vars + a_vars + b_vars
      all_gradients = tf.gradients(loss, all_variables)


      shared_subnet_gradients = all_gradients[:len(shared_vars)]
      a_gradients = all_gradients[len(shared_vars):len(shared_vars + a_vars)]
      b_gradients = all_gradients[len(shared_vars + a_vars):]


      shared_subnet_optimizer = tf.train.AdamOptimizer(shared_learning_rate)
      a_optimizer = tf.train.AdamOptimizer(a_learning_rate)
      b_optimizer = tf.train.AdamOptimizer(b_learning_rate)


      train_shared_op = shared_subnet_optimizer.apply_gradients(zip(shared_subnet_gradients, shared_vars))
      train_a_op = a_optimizer.apply_gradients(zip(a_gradients, a_vars))
      train_b_op = b_optimizer.apply_gradients(zip(b_gradients, b_vars))


      train_op = tf.group(train_shared_op, train_a_op, train_b_op)

      另外,這個技巧實際上也可以應(yīng)用于單任務(wù)網(wǎng)絡(luò)。

      經(jīng)驗 3-使用評估作為特征

      一旦我們通過了創(chuàng)建預(yù)測多個任務(wù)的 NN 的第一個階段,我們可能會將某個任務(wù)的評估作為另一個任務(wù)的結(jié)果。這個估計是張量,所以我們可以像連接其他層的輸出一樣連接它。但是在反向傳播中會發(fā)生什么呢?

      假設(shè)任務(wù) A 的估計值作為一個特性傳遞給任務(wù) B。我們可能并不想將梯度從任務(wù) B 傳回任務(wù) A,因為我們已經(jīng)給了任務(wù) A 標(biāo)簽。

      別擔(dān)心,TensorFlow 的 API 有 tf.stop_gradient,它正是為了解決這個問題而存在的。當(dāng)計算梯度時,它可以讓你傳遞一個張量列表,你想把它當(dāng)作常數(shù),這正是我們所需要的。

      all_gradients = tf.gradients(loss, all_variables, stop_gradients=stop_tensors)

      同樣地,這在 MTL 網(wǎng)絡(luò)中很有用,但它不僅僅在 MTL 網(wǎng)絡(luò)中有用。只要您想用 TensorFlow 計算一個值,并且需要假設(shè)該值是一個常量,就可以使用此技術(shù)。例如,當(dāng)訓(xùn)練生成對抗網(wǎng)絡(luò)(GANs)時,您不希望在生成對抗性網(wǎng)絡(luò)的過程中進(jìn)行反向傳播。

      via:https://engineering.taboola.com/deep-multi-task-learning-3-lessons-learned/

      雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      多任務(wù)深度學(xué)習(xí)的三個經(jīng)驗教訓(xùn)

      分享:
      相關(guān)文章
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 日韩有码av中文字幕| 一本一道人人妻人人妻αv| 国产极品AV嫩模| 无码人妻精品一区二区三区蜜桃91| 无套中出极品少妇白浆| 国产天堂亚洲国产碰碰| chinese极品人妻videos| 日本极品少妇videossexhd| 国内精品vA| 国内自拍视频在线观看| 成人区人妻精品一熟女| 日韩中文字幕一区二区| 亚洲国产精品久久久久秋霞影院| 日本电影一区二区三区| 久久天天躁夜夜躁狠狠820175| 日本二区视频在线观看| 精品无码日韩国产不卡av| 国产18禁黄网站禁片免费视频| 久久18禁| 1024视频在线| 女人喷水高潮时的视频网站| 996久久国产精品线观看导航| 精品无码一区二区三区水蜜桃| 无码欧精品亚洲日韩一区| 免费A级毛片无码A∨蜜芽试看 | 欧美ts人妖xxxxxx| 太和县| 日本边添边摸边做边爱| 色综合?人妻| 国内露脸中年夫妇交换| 日韩毛片在线视频x| 无码国模在线观看| 韩国三级丰满少妇高潮| 欧美午夜一区| 久久国产精品成人免费| 国产精品久久久久久免费软件| 国产蜜臀在线一区二区三区| 亚洲播播| 亚洲日本中文字幕一区精品| 国产亚洲精品综合-黄色永久免费-成人AV | 国产精品一卡二卡三卡|