<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給camel
      發送

      0

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      本文作者: camel 編輯:楊曉凡 2017-08-08 23:11 專題:ICML 2017
      導語:ICML 2017最佳論文,利用影響函數來理解黑箱預測。

      雷鋒網 AI 科技評論按:正在進行的2017 機器學習國際大會(ICML 2017)早早地就在其官網公布了本次會議的最佳論文評選結果(重磅 | ICML 2017最佳論文公布!機器學習的可解釋性成熱點),其中最佳論文獎為《Understanding Black-box Predictions via Influence Functions》,其主題為如何利用影響函數理解黑箱預測。兩位作者分別為Pang Wei Koh 和 Percy Liang。

      Pang Wei Koh是來自新加坡的斯坦福大學在讀博士生。他此前在斯坦福獲得了計算機科學學士與碩士學位,并在斯坦福的AI實驗室與吳恩達一同工作過。在2012年,他加入了吳恩達聯合創立的在線教育平臺Coursera,成為其第三位員工。在2016年他開始在斯坦福攻讀博士學位。

      Percy Liang是斯坦福大學的助理教授,此前曾在MIT和UCB學習及做研究。他的研究大方向是機器學習與NLP,目前的研究重點是可信任的代理,這些代理能與人類進行有效溝通,并通過互動逐步改善。

      在8月7日下午,最佳論文獎得主Pang Wei Koh(來自新加坡的斯坦福大學在讀博士生)就他們的工作做了一場報告。雷鋒網 AI科技評論在大會現場記錄了這場報告,下面為雷鋒網AI科技評論對現場Pang Wei Koh的報告進行整理,與大家共同分享。

      圖文分享總結

      大家下午好,感謝大家來聆聽這個報告。

      動機

      下面我將講述如何用一種被稱為影響函數的統計工具來研究神經網絡的預測問題。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      在過去幾年,機器學習在許多領域中的模型做出的預測準確度越來越高,但是這些模型本身卻也變得越來越復雜。然而一個經常會被問到的問題——系統為什么會做出這樣的預測?——卻難以回答。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      例如我們通過圖中左側的訓練數據來訓練一個網絡,當輸入一張圖片時它會做出一個預測。為什么這個模型做出這樣的預測呢?我們知道模型學習的所有信息和“知識”都是從訓練實例中得出的,所以應該可以查詢特定預測受到各種數據點的影響有多大。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      如果一個特定的訓練點不存在或被微弱擾動,例如這里對經驗風險函數進行微調后,預測的置信水平就會由79%提升到82%。那么兩次預測的損失函數的差就可以代表某個訓練點改變后對整個訓練的影響。

      影響函數

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      在這里我們的目標就是測量如果我們增加經驗風險函數的值,損失函數的改變。這里結構風險函數是由具體的訓練數據決定的。在函數取光滑條件時,那么這個測量值就是這個函數I,也即影響函數。這個公式第二行中的H是Hessian矩陣。從這里我們可以看出,影響函數是依賴于具體的模型和訓練數據的。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      例如我們看兩個例子。右側兩列中第一列是用像素數據訓練的RBF SVM,第二列是邏輯回歸模型。用這兩個模型分別對左側的測試圖形進行預測,我們得到的影響函數,RBF SVM模型的影響函數隨著距離測試物越遠會迅速減下,而邏輯回歸模型的影響函數則與距離無關。所以我們可以利用影響函數來更好地理解模型。在我們看影響函數的應用之前,我們要先討論一下這種方法中潛在的問題。

      第一,計算效率低

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      要想實用影響函數,我們必須構建經驗風險函數的Hessian矩陣以及求矩陣的逆。這對有幾百萬個參數的神經網絡模型來說是難以接受的,尤其是求逆過程將會非常緩慢。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      最好的辦法就是我們不明確地求出Hessian矩陣的逆,而是通過Hessian-vector products近似。

      第二,非光滑損失

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      當損失函數的一階、二階導數不存在時,我們可以通過剔除這些非光滑的點,我們發現仍然能夠很好地預測。例如這里的smoothHinge模型,當t=0.001的時候能夠更好地符合實際的改變。

      第三,很難找到全局極小值

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      在前面我們假設了為全局極小值,但是有時我們可能只是得到一個次極小值。這種情況下可能會導致Hessian出現負的本征值。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      我們通過凸二次近似方法對損失函數構建一個軟極大值來取近似。這樣可以在很大程度上降低因為是非全局極小值造成的問題。

      應用

      好了,最后我們講一下影響函數的應用。

      1、調試模型錯誤

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      當模型出現錯誤的時候我們能否幫助開發者找出哪地方出了問題呢?我們用一個例子來說明,我們用邏輯回歸模型來預測一個病人是否應當重新入院。訓練模型有20k的病人,127個特征。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      為了說明情況,我們把訓練模型中3(24)個孩子需要重新入院改成3(4)個,也即去掉20個健康孩子的訓練樣本。當用一個健康孩子來做預測時,模型就會出錯預測為需要重新入院。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      我們計算每一個訓練點的影響函數。這個圖很清楚顯示了4個訓練孩子的影響值是其他樣本的30-40倍,其中一個孩子為正,其他3個為負。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      仔細考察4個孩子的127個特征,發現表示為“孩子”的特征起主要貢獻。

      2、對抗訓練

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      最近的工作已經產生了與實際測試圖像無法區分的對抗測試圖像,以致完全可以愚弄分類器。實際上,Ian Goodfellow在內的一些研究者已經表明了高準確率的神經網絡也是可以被欺騙的,用來欺騙它的樣本是精心選擇過的,人眼看起來正常。這樣的樣本就叫做“對抗性測試樣本”。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      構建它們的方法之一是沿著測試輸入對應的測試損失的梯度,不斷修改測試輸入,從而讓測試損失增大。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      那么既然有對抗性測試樣本,我們能否創造出對抗性訓練樣本呢,其中訓練點上的小變化就可以改變模型的預測結果。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      我們問了自己這個問題,然后接下來很自然地就嘗試在測試損失的梯度上做同樣的事情。不過現在不是做關于測試特征的,而是做關于訓練特征的。換句話說,我們先給定測試樣本,然后沿著測試樣本的梯度變化修改訓練數據。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      然后我們發現,它的影響函數可以幫助我們找到這個梯度,因為它們根本上是一回事,隨著訓練的進行,模型的預測上會發生的事情就是這樣。我們得到的結果是這樣的,從數學的角度講它和基于梯度的攻擊是一樣的,對不同的模型和數據集都可以起作用。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      這樣的方法在實際應用中也可以發揮作用,我們設計了簡單的二分類任務,模型要確定圖像中的是狗還是魚,兩種東西看起來挺不一樣的。我們用到了一個 Inception 那樣的邏輯回歸模型。令我們驚訝的是,如果仔細地選擇訓練數據,然后仔細地選擇要增加在其中的干擾,那么訓練數據中一點點的改變,就可以讓同一個類型的多張測試圖像的預測結果都出現問題。這說明這樣的攻擊在某些環境下具有相當的危險性。這個問題上其實還有很多值得研究討論的,待會兒我們可以再聊。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      結論

      最后做個簡單的總結。我們先討論了模型是如何做出預測的。我們知道模型是通過訓練數據得到的,我們將其寫成公式,然后就知道改變訓練數據以后模型會如何變化,而且我們還能通過它偏離訓練數據的程度更好地理解模型的預測結果。影響函數為這些事情提供了一種高效的手段。

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      在這項工作中,我們還有很多事情需要做,例如如果從醫院里移除了所有的病人怎么辦,我們有什么辦法防止這件事發生嗎?如果我們有一個很大的凸模型,運行SGD好幾次,……目前工作只是在這個方向上的一小步。在能夠很好地理解模型之前,還有很多基礎的問題等待我們去解決。

      謝謝大家!

      (完)


      雷鋒網 AI 科技評論整理。

      論文下載:https://arxiv.org/pdf/1703.04730.pdf

       


      相關文章:

      重磅 | ICML 2017最佳論文公布!機器學習的可解釋性成熱點

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      ICML 2017最佳論文:為什么你改了一個參數,模型預測率突然提高了|分享總結

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 桃子视频在线播放WWW| 91国产超碰在线观看| 九九热在线视频| 俄罗斯xxxx性全过程| 国产av无码专区亚洲aⅴ| 青草视频在线观看视频| 人人妻人人爽人人澡av| 久久精品国产精品亚洲色婷婷 | 唐人社导航福利精品| 成在线人免费视频| 国产精品毛片av999999| 天堂VA蜜桃一区二区三区| 国产精品香港三级国产av| 亚洲AV之男人的天堂网站| 啪一啪射一射插一插| 太和县| 成人h动漫精品一区二区无码| 亚洲人妻一区二区精品| 岛国高清av免费观看| 孕交videos小孕妇xx| 亚洲免费成年女性毛视频| 国产精品无码av天天爽| 把腿张开ji巴cao死你h| 国产精品天天狠天天看| 亚洲成人在线黄网| 麻豆A?V视频| 天堂无码| 国产大屁股视频免费区| 欧美性猛交xxxx乱大交丰满| 秋霞国产在线| 精品人妻系列无码人妻免费视频| 超碰狠狠干| 无码中文字| 久久av高潮av喷水av无码| 亚洲成a人片77777kkkk| 免费无码av片在线观看网站| 免费观看欧美性一级| 97成人精品区在线播放| 久久动漫精品| 一本大道色婷婷在线| 久久凹凸视频|