<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      業界 正文
      發私信給圖普科技
      發送

      0

      揭開谷歌 AutoML 的神秘面紗

      本文作者: 圖普科技 2018-07-30 19:16 專題:AutoML 祛魅
      導語:我們希望AutoML能夠擁有現在一些博士擁有的能力,并可以在三到五年內使眾多開發人員也能通過 AutoML 設計神經網絡,滿足其特定的需求。

      雷鋒網按:本文由「圖普科技」編譯自 Google's AutoML: Cutting Through the Hype

      在推出AutoML時,谷歌首席執行官Sundar Pichai在博客中寫道:“設計神經網絡是非常耗時的,其對專業知識的極高要求使得只有小部分科研人員和工程師才能參與設計。這就是我們創建AutoML方法的原因,有了它,神經網絡也可以設計神經網絡。我們希望AutoML能夠擁有現在一些博士擁有的能力,并可以在三到五年內使眾多開發人員也能通過 AutoML 設計神經網絡,滿足其特定的需求。”

      揭開谷歌 AutoML 的神秘面紗

      谷歌首席執行官Sundar Pichai表示,我們都需要設計自己的神經網絡

      谷歌的人工智能負責人Jeff Dean表示,100倍的計算力可以取代人類機器學習專家,他以需要龐大計算力的神經架構搜索為案例來解釋了這一點。(在他的TensorFlow DevSummit大會主旨演講視頻中大約23:50左右)

      這引發了許多問題的討論:眾多開發人員需要“設計神經網絡,滿足其特定的需求”(引自Pichai的愿景),或是否有一種行之有效的方法可以使得神經網絡可以廣泛適用于同一類問題的解決?巨大的計算能力真的可以取代人類機器學習專家嗎?

      在評估谷歌的聲明時,應當牢記,如果我們被說服,相信有效使用深度學習技術的關鍵是提高計算能力,谷歌將從中利益,因為在這一領域,谷歌明顯遙遙領先。如果這是真的話,我們可能都需要購買谷歌的產品。就其本身而言,這并不意味著谷歌的說法都是錯誤的,但很好地了解他們的聲明背后隱藏的經濟動機是有必要的。

      在之前的文章中,我介紹了AutoML的歷史,解釋了什么是神經架構搜索,并指出對于許多機器學習項目,設計或選擇架構遠不是最困難,最耗時或最痛苦的問題。在今天的帖子中,我想特別關注Google的AutoML本身,這是一個廣受關注的產品,并試圖解決以下問題:

      ?       什么是AutoML?

      ?       什么是遷移學習?

      ?       神經架構搜索與遷移學習:兩種截然相反的方法

      ?       需要更多證據

      ?       為什么谷歌的AutoML備受追捧?

      ?       我們如何解決機器學習專家短缺的問題?

      什么是AutoML?

      盡管AutoML領域已經發展了很多多年(包括開源AutoML庫,研討會,研究,和比賽),但在2017年5月,Google仍將其神經架構搜索稱之為AutoML。在谷歌I/O大會上發布的博客聲明中,谷歌首席執行官Sundar Pichai寫道:“這就是我們創建AutoML方法的原因,有了它,神經網絡也可以設計神經網絡。”;Google AI研究人員Barret Zoph和Quoc Le寫道:“通過我們的方法(我們稱之為“AutoML”)中,神經網絡控制器可以提出一個“子”模型架構...”

      Google于2018年1月推出機器學習產品- Cloud AutoML。到目前為止,它只有一個公開可用的服務AutoML Vision,AutoML Vision是一種識別或分類圖像中對象的API。根據產品頁面的描述,Cloud AutoML Vision依賴于兩種核心技術:遷移學習和神經架構搜索。既然我們已經介紹過了神經架構搜索,現在讓我們看一下遷移學習,了解一下它與神經架構搜索之間的關系。

      揭開谷歌 AutoML 的神秘面紗

      關于谷歌的AutoML和神經架構搜索的一小部分的頭條新聞

      注意:Google Cloud AutoML還有一個仍然處于alpha測試狀態的拖放式ML產品。我在2個月前申請訪問它,但至今還沒有收到谷歌的回復。我計劃在它發布后開貼寫一篇文章。

      什么是遷移學習?

      遷移學習是一種強大的機器學習技術,通過利用已經在類似的大型數據集上訓練過的預訓練模型,可以讓人們使用較小數據集或較低的計算能力獲得最先進的結果。因為通過遷移學習方式學習的模型不需要從頭學習,所以與不使用遷移學習的模型相比,它通常可以以更少的數據和計算時間達到更高的準確度。

      遷移學習是我們在整個免費的碼農實用深度學習課程中使用的核心技術 - 我們的學生不斷地將其應用到生產過程中,無論是在自己的創業公司還是財富500強公司。雖然比起神經架構搜索,遷移學習似乎“不那么吸引人”,但有人已經在利用遷移學習技術實現突破性的學術成果,例如Jeremy Howard 和 Sebastian Ruder將遷移學習應用于NLP,在6個數據集上完成了最佳分類。同時,遷移學習技術也是在OpenAI中該領域進一步研究的基礎。

      神經架構搜索與遷移學習:兩種截然相反的方法

      遷移學習的基本思路是將神經網絡架構泛化以解決相似類型的問題:例如,許多圖像與其他類型的圖像具有相同的基本特征(例如角,圓形,狗臉或輪子)。 相比之下,神經架構搜索解決問題的基本理念恰恰相反:每個數據集都有一個獨特的,高度專門化的架構。

      揭開谷歌 AutoML 的神秘面紗

      來自Matthew Zeiler和Rob Fergus的例子,圖像分類器習得的4個特征:角,圓圈,狗臉和輪子

      當神經架構搜索發現新架構時,你必須從頭開始學習該架構的權重,而使用遷移學習方法時,你可以直接使用預先訓練的模型的現有權重。從這個意義上說,你不能同時使用神經架構搜索和遷移學習解決同一問題:如果你正在學習一個新的架構,你需要為它訓練新的權重; 而如果你通過預訓練模型遷移學習,則無法對架構進行任何實質性更改。

      當然,你可以將遷移學習應用于通過神經架構搜索方法習得的架構(我認為這是一個好主意!)。 這僅需要少數研究人員使用神經架構搜索并將他們找到的模型開源。在可以使用遷移學習解決問題時,沒有必要讓所有機器學習從業者都使用神經架構搜索方法。 然而,Jeff Dean的主題演講,Sundar Pichai的博客文章,Google Cloud的宣傳材料和媒體報道都表明了相反的觀點:每個人都需要能夠直接使用神經架構搜索。

      神經架構搜索有哪些好處?

      神經架構搜索有助于尋找新的架構!谷歌的AmoebaNet是通過神經架構搜索學習的,并且fast.ai對此進行了改進,學習進程加快的同時改變了訓練過程中圖像的尺寸。AmoebaNet已成為在單臺機器上訓練ImageNet最便宜的方式!

      AmoebaNet設計時沒有考慮具有擴展能力的獎勵函數,因此它不能像ResNet一樣擴展到多臺機器,但是針對不同性質的可很好擴展的神經網絡在未來是很有可能被自動學習出來的。

      需要更多證據

      目前還沒有證據表明每個數據集最好使用自己的自定義模型建模,而不是微調現有模型。 由于神經結構搜索需要更大的訓練集,因此對于較小的數據集來說尤其如此。甚至谷歌自己的一些研究也使用的是可遷移技術,而不是為每個數據集尋找新的架構,例如NASNet(博客文章),它在Cifar10上學習了一個架構模塊,然后使用模塊為ImageNet創建了一個架構。我還沒有聽說過任何機器學習比賽獲勝者使用的是神經架構搜索。

      此外,我們不知道谷歌推廣的需要計算力的神經架構搜索方法是否具有顯著的優越性。 例如,最近有一些論文,如高效神經架構搜索(ENAS)和可微架構搜索(DARTS),提出了更有效的算法。 DARTS僅需4個GPU工作天數就可學會架構,而NASNet則需1800個GPU工作天數,AmoebaNet則為3150個GPU工作天數(都曾在Cifar-10中學習,精確度相同)。 Jeff Dean是ENAS論文的作者,他在論文中提出了一種計算力低1000倍的技術,這似乎與他在一個月后在TF DevSummit大會上強調使用計算力高100倍的方法不一致。

      為什么谷歌的AutoML備受追捧?

      鑒于上述限制,為什么谷歌AutoML的有用性還沒有經過驗證(至少到目前為止),就被如此追捧? 我認為有以下幾個原因:

      1.  谷歌的AutoML更加突顯了一個營利性公司設立學術性研究實驗室可能遭遇的一些風險。在這種環境下,人們很容易圍繞有趣的學術研究創造產品,而不評估它們是否滿足實際需求。許多人工智能初創企業也正是如此,例如MetaMind或Geometric Intelligence,它們被收購時甚至還沒有推出一樣產品。我對創業公司創始人的建議是不要直接將你的博士論文投入生產,也不要只招聘學術研究人員。

      2.  谷歌擅長營銷。許多門外漢認為人工智能是一個難以接近和令人生畏的領域,他們認為自己沒有辦法去評估這些聲明,特別是像谷歌這樣久負盛名的公司所發表的聲明。 許多記者也是如此,甚至不加批判地將谷歌的廣告宣傳寫成了炙手可熱的文章。 我會定期與那些不從事機器學習領域的人交談,他們從未使用過任何Google ML產品,對這些產品十分感興趣,但又說不出什么名堂。

      舉一個谷歌吹捧其成就的誤導性報道的典型例子:谷歌人工智能研究人員曾發布了一篇名為“使用深度學習技術來重建真正的人類基因組”的文章,將自己的工作與諾貝爾獎獲得者的發現相提并論(狂妄自大!),該文章被Wired選中刊登。然而,約翰斯·霍普金斯大學生物醫學工程,計算機科學和生物統計學的杰出教授Steven Salzberg駁斥了谷歌的帖子。 Salzberg指出,這項研究實際上并沒有重建人類基因組,而“僅僅是對現有軟件的一些改進,甚至可能還沒有改進多少。”許多其他基因組學研究人員都贊同Salzberg的觀點。

      谷歌正在進行一些了不起的工作,但如果我們不必篩選如此多的誤導性炒作來弄清楚什么是合理的,那么它所做的工作也會更容易得到承認。

      揭開谷歌 AutoML 的神秘面紗

      3. 如果我們被說服,相信有效使用深度學習技術的關鍵是提高計算能力,谷歌將從中獲益,因為在這一領域,谷歌明顯遙遙領先。AutoML通常需要大量的計算,例如要學習AmoebaNet,谷歌需要在450 個K40 GPU上訓練7天(相當于3150個GPU工作天數)。

      雖然工程師和媒體經常癡迷于計算能力或其他一些更龐大的東西,但歷史表明,創新往往是在約束和創造力的基礎上產生的。 Google使用龐大的計算力處理海量數據; 我們當前生活在資源有限的受約束的世界中,這種方法真的可以泛化以解決我們面臨的問題嗎?

      創新是以不同的方式來解決問題,而不是把事情做大。 fast.ai最近在斯坦福大學DAWNBench比賽中取得的成功就證明了這一點。

      揭開谷歌 AutoML 的神秘面紗

      如何解決機器學習專家短缺的問題?

      回到Jeff Dean在TensorFlow DevSummit主旨演講中提出的關于機器學習從業者全球短缺的問題,我們可以另一個角度來解決這個問題。我們可以通過以下幾種方法消除使用深度學習技術的最大障礙:

      1.  使深度學習更容易使用

      2.  為深度學習去神秘化

      3.  為資金不足無法使用云GPU的人增加訪問權限

      使深度學習更容易使用

      研究如何使深度學習更容易使用能夠產生巨大的影響,能夠更快更簡單地訓練出更好的網絡。 現已成為標準做法的一些發現包括:

      ?       Dropout允許對較小的數據集進行訓練而不會過度擬合。

      ?       Batch normalization可以加快訓練速度。

      ?       Rectified linear units有助于避免梯度爆炸。

      一些旨在提高易用性的最新研究包括:

      ?       學習速率查詢器使訓練過程更加穩定。

      ?       超級收斂可加快訓練速度,減少了計算資源。

      ?       現有架構的“Custom heads”可以更輕松地重用架構來解決一系列問題(例如,修改用于分類的ResNet,以便查找邊界框或進行樣式遷移),

      以上發現均未涉及計算能力;相反,所有這些都是使用創造性的方式來解決問題。

      為深度學習去神秘化

      另一個障礙是許多錯誤觀念讓人們相信深度學習不適合他們:錯誤地認為他們的數據規模太小,他們沒有接受正規的教育或沒有相關背景,或他們的計算能力不夠。很多人相信,只有機器學習領域博士才能夠使用深度學習技術,許多公司因無力雇用專家而放棄往這方面發展。然而,事實上,公司不僅可以將他們已有的員工培訓為機器學習專家,這甚至是一種更可取的做法,因為你現有的員工已經擁有你從事的領域的專業知識!

      我認為,對于與我交談過的絕大多數人來說,進入深度學習的門檻遠遠低于他們的預期:僅需一年的編碼經驗和訪問GPU的權限。

      增加訪問權限:谷歌 Colab Notebooks

      雖然云GPU(每小時約50美分)的成本在我們許多人的預算范圍內,根據我定期與世界各地學生的聯系來看,有些學生完全無法承擔任何GPU的使用。 在某些國家/地區,即使他們有錢,銀行和信用卡方面的規定也會使他們難以使用AWS等服務。谷歌Colab Notebooks是一個解決方案! Colab Notebooks提供了一個Jupyter筆記本環境,無需設置即可使用,完全在云端運行,并允許用戶訪問免費GPU(盡管不允許長時間使用GPU)。 它們還可用于創建包含在交互式環境中運行的代碼示例的文檔。 谷歌Colab Notebooks在實現深度學習大眾化方面的作用甚至超過了AutoML; 也許這將成為未來谷歌營銷機器的更好選擇。           

      相關文章:

      谷歌大腦撰文解析 AutoML:神經網絡如何自行設計神經架構? | Google I/O 2017

      揭秘 | 谷歌自動化機器學習真的那么神嗎?

      技術人創業者夏粉:用 AI 創造 AI

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      分享:
      相關文章

      專欄作者

      基于圖像識別技術多維度解讀圖片和視頻
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 洛扎县| 国产一区二区三区禁18| 天堂8中文在线最新版在线| 欧美丝袜另类| 亚洲AV无码久久精品色欲| 国产精品久久久影院色| 久久综合色之久久综合| 国产亚洲精品成人aa片新蒲金| 精品国产一区二区三区无码| 欧美激情视频一区二区三区不卡| 中文乱码免费一区二区三区| 国产a∨精品一区二区三区不卡| 全南县| 文中字幕一区二区三区视频播放| 亚洲欧美v| 国产精品美女久久久| 中文字幕日韩有码| 亚欧精品人妻| 色秘?乱码一码二码三码熟女| 少妇高潮喷水惨叫久久久久电影| 国产精品原创不卡在线| 亚洲AV秘 无码一区二区久| 日韩欧美tⅴ一中文字暮| 亚洲啪AV永久无码精品放毛片| 少妇熟女久久综合网色欲| 普宁市| 男人的天堂av社区在线| 99伊人网| 欧美牲交a免费| 99热视屏| 欧美牲交a欧美在线| 免费av网站| 国产大学生粉嫩无套流白浆 | 一本色道久久综合无码人妻88| 亚洲成人免费在线| 东京热无码国产精品| 最新国产精品中文字幕| 亚洲有无码中文网| 丝袜人妻一区二区三区网站| 五月丁香综合| 国产精品丝袜美女在线观看|