<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能 正文
      發(fā)私信給劉鵬
      發(fā)送

      0

      想在手機(jī)上用自己的機(jī)器學(xué)習(xí)模型?谷歌爸爸的模型壓縮包你滿意

      本文作者: 劉鵬 編輯:楊曉凡 2018-05-18 14:01
      導(dǎo)語:谷歌在Google AI上撰文進(jìn)行對(duì)剛剛發(fā)布的 ML Kit 中的核心技術(shù):Learn2Compress 自動(dòng)模型壓縮技術(shù)進(jìn)行了詳細(xì)介紹和實(shí)戰(zhàn)測(cè)試。

      雷鋒網(wǎng)按: Google I/O 2018 上,谷歌發(fā)布了可供開發(fā)者定制移動(dòng)端機(jī)器學(xué)習(xí)模型的 ML Kit 開發(fā)套件,關(guān)于該套件中的核心技術(shù):Learn2Compress 模型壓縮技術(shù),谷歌也火速在 Google AI 上撰文對(duì)其進(jìn)行了詳細(xì)介紹和實(shí)戰(zhàn)測(cè)試,雷鋒網(wǎng) AI 科技評(píng)論將其內(nèi)容編譯如下。

      大家都知道,要成功地訓(xùn)練和運(yùn)行深度學(xué)習(xí)模型,通常要求海量的計(jì)算資源,超大內(nèi)存以及足夠的能源來支撐,這也就為想要在移動(dòng)端(mobile)和 IoT 設(shè)備上同樣成功地運(yùn)行模型帶來了相應(yīng)的障礙。移動(dòng)端機(jī)器學(xué)習(xí)(On-device machine learning)允許你直接在該設(shè)備上運(yùn)行推理,且具有保證數(shù)據(jù)隱私性和隨時(shí)使用的優(yōu)勢(shì),不管網(wǎng)絡(luò)連接狀況如何。此前的移動(dòng)端機(jī)器學(xué)習(xí)系統(tǒng),如輕量神經(jīng)網(wǎng)絡(luò) MobileNets 和 ProjectionNets 均通過對(duì)模型效率的優(yōu)化來處理資源瓶頸問題。但如果你想要在手機(jī)上的移動(dòng)應(yīng)用中運(yùn)行自己設(shè)計(jì)和訓(xùn)練的模型呢?

      現(xiàn)在谷歌幫你解決了這個(gè)難題,在 Google I/O 2018 上,谷歌面向所有移動(dòng)端開發(fā)者發(fā)布了移動(dòng)端機(jī)器機(jī)器學(xué)習(xí)開發(fā)套件 ML Kit。該 ML Kit 開發(fā)套件中的一項(xiàng)即將可用的核心功能,是由谷歌 research 團(tuán)隊(duì)開發(fā)的 Learn2Compress 技術(shù)所驅(qū)動(dòng)的一項(xiàng)自動(dòng)模型壓縮服務(wù)。Learn2Compress 技術(shù)能夠在 TensorFlow Lite 內(nèi)定制移動(dòng)端深度學(xué)習(xí)模型,定制后的模型可高效的運(yùn)行在移動(dòng)端設(shè)備上,無需擔(dān)心內(nèi)存不足和運(yùn)行速度過慢。谷歌也很高興不久后在 ML Ki 中實(shí)現(xiàn) Learn2Compress 技術(shù)驅(qū)動(dòng)的圖像識(shí)別功能。Learn2Compress 技術(shù)將率先開放給一小部分開發(fā)者,并將在接下來的幾個(gè)月內(nèi)提供給更多的開發(fā)者們使用。對(duì)該技術(shù)特性感興趣并有意設(shè)計(jì)自己模型的開發(fā)者可以點(diǎn)擊此網(wǎng)址(https://g.co/firebase/signup)進(jìn)行注冊(cè)。

      Learn2Compress 技術(shù)的工作原理

      Learn2Compress 技術(shù)融合了此前研究中介紹的 ProjectionNet 等學(xué)習(xí)框架,并結(jié)合了神經(jīng)網(wǎng)絡(luò)模型壓縮的幾項(xiàng)前沿技術(shù)。Learn2Compress 技術(shù)的工作原理是這樣的:先輸入一個(gè)用戶提供的預(yù)先訓(xùn)練好的 TensorFlow 模型,隨后 Learn2Compress 技術(shù)開始訓(xùn)練和優(yōu)化該模型,并自動(dòng)生成一個(gè)隨時(shí)可用的移動(dòng)端模型,該模型尺寸較小,內(nèi)存占用和能源利用效率更高,且能在保證最小限度丟失準(zhǔn)確率的情況下達(dá)到更快的推理速度。

      想在手機(jī)上用自己的機(jī)器學(xué)習(xí)模型?谷歌爸爸的模型壓縮包你滿意

      可自動(dòng)生成移動(dòng)端機(jī)器學(xué)習(xí)模型的 Learn2Compress 技術(shù)

      為了達(dá)成模型壓縮的目的,Learn2Compress 技術(shù)使用了多重神經(jīng)網(wǎng)絡(luò)優(yōu)化和下面三項(xiàng)模型壓縮技術(shù):

      • 通過移除那些對(duì)預(yù)測(cè)沒有太大作用的的權(quán)重或者運(yùn)算(比如低分權(quán)重)來修剪,降低模型尺寸。該操作尤其能使包含稀疏輸入或輸出的移動(dòng)端模型的效率得到相當(dāng)大的提升,雖然模型在尺寸上被壓縮小 2 倍,但仍保留著原來模型 97% 的預(yù)測(cè)質(zhì)量。

      • 在訓(xùn)練模型的過程中應(yīng)用的量子化技術(shù)格外有效,該技術(shù)可以通過減少用于模型權(quán)重和激活數(shù)值的位數(shù)來提升模型推理速度。例如,使用 8-bit 固定點(diǎn)表示而非浮點(diǎn)數(shù)值可以加速模型推理,降低能源消耗以及有望進(jìn)一步將模型尺寸縮小 4 倍。

      • 遵循老師-學(xué)生學(xué)習(xí)策略的聯(lián)合訓(xùn)練(Joint training)和蒸餾(distillation)方法—保證最小限度丟失準(zhǔn)確率的前提下,谷歌在使用一個(gè)大的老師網(wǎng)絡(luò)(在該案例中,使用的是用戶提供的 TensorFlow 模型)來訓(xùn)練一個(gè)壓縮學(xué)生網(wǎng)絡(luò)(即移動(dòng)端模型 on-device model)。

      想在手機(jī)上用自己的機(jī)器學(xué)習(xí)模型?谷歌爸爸的模型壓縮包你滿意
      使用聯(lián)合訓(xùn)練和蒸餾方法來學(xué)習(xí)壓縮學(xué)生模型

      老師網(wǎng)絡(luò)可以是固定的(就像在蒸餾方法中那樣)或者是被共同優(yōu)化的,老師網(wǎng)絡(luò)甚至還可以同時(shí)訓(xùn)練不同尺寸的多種學(xué)生模型。因而,Learn2Compress 技術(shù)只需一次操作就可以生成具有不同尺寸和不同推理速度的多種移動(dòng)端模型,而非單一模型,同時(shí)還支持開發(fā)者從中選取最符合自己應(yīng)用需求的那個(gè)模型。

      以上這些再加上其他類似遷移學(xué)習(xí)這樣的技術(shù)也可以使模型壓縮進(jìn)程更加具有效率和可擴(kuò)展至大規(guī)模數(shù)據(jù)集。

      Learn2Compress 技術(shù)的實(shí)戰(zhàn)表現(xiàn)如何?

      為了證明 Learn2Compress 技術(shù)的有效性,谷歌基于幾個(gè)在圖像和自然語言任務(wù)中使用的最先進(jìn)的深度神經(jīng)網(wǎng)絡(luò)(如 MobileNets,NASNet,Inception,ProjectionNet 等),并使用該技術(shù)將它們壓縮成移動(dòng)端模型。給定一個(gè)任務(wù)和數(shù)據(jù)集,谷歌就可以使用該技術(shù)生成具有不同的推理速度和模型尺寸的多種移動(dòng)端模型。

      想在手機(jī)上用自己的機(jī)器學(xué)習(xí)模型?谷歌爸爸的模型壓縮包你滿意

      Learn2Compress 模型在多種尺寸下的準(zhǔn)確度,在 CIFAR-10(左圖)上的全尺寸基線網(wǎng)絡(luò),以及 ImageNet(右圖)圖像識(shí)別任務(wù)。生成了多種 CIFAR-10 和 ImageNet 分類器變體的學(xué)生網(wǎng)絡(luò)的架構(gòu)的靈感來自 NASNet 和 MobileNet。

      在圖像識(shí)別方面,Learn2Compress 技術(shù)可生成適合手機(jī)應(yīng)用的,且具有良好預(yù)測(cè)精度的既小又快的模型。舉個(gè)例子,在 ImageNet 任務(wù)上,Learn2Compress 技術(shù)可實(shí)現(xiàn)一個(gè)比 Inception v3 baseline 小 22 倍,比 MobileNet v1 baseline 小 4 倍的模型,而準(zhǔn)確率僅下降了 4.6-7%。在 CIFAR-10 上,使用共享參數(shù)來共同的訓(xùn)練多種 Learn2Compress 模型所花費(fèi)的時(shí)間,只比訓(xùn)練單獨(dú)的一個(gè) Learn2Compress 大模型多耗時(shí) 10%,例如 yields 3 壓縮模型在尺寸上要小 94 倍,而速度上快 27 倍,成本降低 36 倍,且能達(dá)到很好的預(yù)測(cè)質(zhì)量(90-95% 的 top-1 級(jí)別準(zhǔn)確度)。

      想在手機(jī)上用自己的機(jī)器學(xué)習(xí)模型?谷歌爸爸的模型壓縮包你滿意

      在 CIFAR-10 圖像識(shí)別任務(wù)下,使用 Pixel phone 測(cè)試 baseline 和 Learn2Compress 模型得到的計(jì)算成本和平均預(yù)測(cè)延遲。Learn2Compress-優(yōu)化模型使用 NASNet 樣式的網(wǎng)絡(luò)構(gòu)架。

      谷歌也很開心地看到開發(fā)者已經(jīng)使用這種技術(shù)做出了一些成果。例如,一個(gè)名為 Fishbrain 的垂釣愛好者社交平臺(tái)使用了谷歌的 Learn2Compress 技術(shù),將平臺(tái)目前的圖像識(shí)別云模型(尺寸大小 80MB+,達(dá)到了 91.8% 的 top-3 級(jí)別準(zhǔn)確度)壓縮成了一個(gè)十分小的移動(dòng)端模型(尺寸少于 5MB,但仍保持與原來大模型相似的準(zhǔn)確度)。在另外一些案例中,谷歌發(fā)現(xiàn)得益于正則化效應(yīng)(regularization effect),壓縮后的模型在準(zhǔn)確度上甚至有稍微勝于原來的大模型的可能。

      谷歌表示,隨著機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)的不斷發(fā)展,他們將會(huì)繼續(xù)改進(jìn) Learn2Compress 技術(shù)并將其擴(kuò)展至更多的用戶案例(不僅局限于圖像識(shí)別這類模型)。谷歌還很期待上線 ML Kit 的模型壓縮云服務(wù)。谷歌希望 Learn2Compress 技術(shù)可以幫助開發(fā)者自動(dòng)構(gòu)建和優(yōu)化他們自己的移動(dòng)端機(jī)器學(xué)習(xí)模型,這樣開發(fā)者們就可以專注于開發(fā)包含計(jì)算機(jī)視覺、自然語言以及其他機(jī)器學(xué)習(xí)應(yīng)用在內(nèi)的優(yōu)秀的應(yīng)用程序和酷炫的用戶體驗(yàn)了。

      via Google AI Blog,雷鋒網(wǎng)AI科技評(píng)論編譯。

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

      想在手機(jī)上用自己的機(jī)器學(xué)習(xí)模型?谷歌爸爸的模型壓縮包你滿意

      分享:
      相關(guān)文章
      當(dāng)月熱門文章
      最新文章
      請(qǐng)?zhí)顚懮暾?qǐng)人資料
      姓名
      電話
      郵箱
      微信號(hào)
      作品鏈接
      個(gè)人簡(jiǎn)介
      為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請(qǐng)驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號(hào)信息
      您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 国产成人免费手机在线观看视频 | 日本丰满的人妻hd高清在线| 无套內谢波多野结衣| 南郑县| 亚洲国产精品无码一区二区三区| 中文字幕有码无码av| 97国产在线| 本道久久综合无码中文字幕| 俺去啦中文网| 国产乱人伦偷精品视频下| 精品丝袜人妻久久久久久| 玖玖精品视频| 国产人妻丰满熟妇嗷嗷叫| 69精品人人人人人| 国产又粗又爽视频| 超碰色偷偷男人的天堂| 波多野结衣AV一区| 最新免费视频一区二区三区| 久热这里只有精品12| 亚洲男同帅gay片在线观看| 国产精品鲁鲁鲁| 国产精品露脸视频观看| 亚洲av无码男人的天堂| 天天摸日日摸狠狠添| 大宁县| 国产无遮挡又黄又爽在线视频| 国产精品夜夜爽7777777| 亚洲伊人天天色| 亚洲天堂男人| 亚洲成a人片在线观看导航| 亚洲 欧美 变态 另类 综合| 免费看黄色亚洲一区久久| 国产欧美一区二区精品久久久| 四川省| 国产成人无码aa精品一区| 专干老熟女A片| 国产免费无码9191精品| 国产品精品久久久久中文| 成人3D动漫一区二区三区| 偷看少妇自慰xxxx| 德州市|