<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給我在思考中
      發送

      0

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      本文作者: 我在思考中 2021-09-02 10:05
      導語:美圖影像實驗室目前已經落地了多個頭發生成項目,在美圖旗下核心產品美圖秀秀及海外產品AirBrush上線劉海生成、發際線調整與稀疏區域補發等功能。
      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮
      作者 | 吳彤
      編輯 | 青暮

      比起卡粉,悶痘,油光,手殘,新一代年輕人的美麗可以來得更容易,快速變美只需要兩步,打開美圖,擺好pose——詮釋那句話,“為了美麗,我堅持開美顏”。

      今年來,容貌焦慮和發際線危機已經不止一次搬上話事桌,甚至讓大眾誤以為這并非為資本或是人的思維創造物。實際上,這是一個由意識形態到符號結構再到技術決定的邏輯蛻變過程,美圖公司在后排默默觀察。


      1

      美圖秀秀推出“生發”功能

      去年9月,美圖秀秀推出增發功能,可填充發際線、增加劉海 。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      今年2月,美圖秀秀發布《00后圖片社交報告》,報告顯示,當00后被問及“最在意的修圖部位”,出乎意料的是00后用戶不僅關注腹肌、鎖骨和黑眼圈這些細節,也關注發際線的完美程度。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      其背后的美圖影像實驗室(MT Lab),目前已經落地了多個頭發生成項目,在美圖旗下核心產品美圖秀秀及海外產品AirBrush上線劉海生成、發際線調整與稀疏區域補發等功能。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      其中,劉海生成功能可以基于自定義的生成區域,生成不同樣式的劉海;

      發際線調整功能在保持原有發際線樣式的情況下,可以對發際線的不同高度進行調整;

      稀疏區域補發則可以在指定區域或者智能檢測區域中,自定義調整稀疏區域的頭發濃密程度。

      成立于2010年的MT Lab是致力于計算機視覺、機器學習、增強現實、云計算等人工智能相關領域的研發團隊,深耕人臉、美顏、美妝、人體、圖像分割、圖像生成等多個技術研發領域,目前已廣泛應用于美圖旗下產品。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      美圖秀秀的人像美容欄中的外貌修飾功能

      如今,美圖秀秀不僅在人臉上做“減法’,還做起了“加法”,推出面部豐盈、整牙以及發際線調整、稀疏區域補發的新功能。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      美圖秀秀的整牙和面部填充對比圖


      2

      "做加法",難在沒東西可加

      但怎么解決當下大家最關注的頭發生成問題,在落地過程中仍面臨幾個亟待突破的關鍵技術瓶頸:數據缺少、發絲細節不足和清晰度低。稍有不慎,頭發就容易糊成一片。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      當年Angel大寶貝在電視劇中的摳圖效果可太假了

      首先是生成數據的獲取問題

      以劉海生成任務為例,在生成出特定款式的劉海時,需要大量劉海數據,但是通過搜集真實數據的形式做數據喂養,其實就是個“體力活”:有劉海、無劉海的真實數據難獲取;斜劉海、直劉海、八字劉海等特定款式的劉海數據耗費高成本。

      這兩種方式基本都不具備可操作性。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮
      多款劉海生成效果圖

      其次是高清圖像細節的生成問題

      要么頭發太假,要么像是用座機拍出來的糊圖。

      由于頭發部位擁有復雜的紋理細節,通過CNN難以生成真實且達到理想狀態的發絲。

      其中,在有配對數據的情況下,雖然可以通過設計類似Pixel2PixelHD、U2-Net等網絡進行監督學習,但目前通過該方式生成的圖像清晰度仍然非常有限。

      而在非配對數據情況下,一般通過類似HiSD、StarGAN、CycleGAN的方式進行屬性轉換生成,利用該方式生成的圖片不僅清晰度不佳,還存在目標效果生成不穩定、生成效果不真實等問題。

      真實的頭發數據沒有,自己造“假”又太假,針對上述情況, MT Lab基于龐大的數據資源與突出的模型設計能力,借助StyleGAN解決了頭發生成任務所面臨的配對數據生成與高清圖像細節兩大核心問題。


      3

      基于StyleGAN的頭發編輯方案

      StyleGAN作為當前生成領域的主要方向(Gan生成式對抗網絡),是一種基于風格輸入的無監督高清圖像生成模型。能夠基于7萬張1024*1024的高清人臉圖像訓練數據FFHQ,通過精巧的網絡設計與訓練技巧生成清晰逼真的圖像效果。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      基于StyleGAN生成的圖片

      此外,StyleGAN還能基于風格輸入的方式擁有屬性編輯的能力,通過隱變量的編輯,實現圖像語意內容的修改。

      具體有三步:配對數據生成(生發)——配對數據增益(控制發量)——image-to-image生成(高清)。

      1.配對數據生成

      StyleGAN生成配對數據最為直接的方式就是在w+空間直接進行相關屬性的隱向量編輯,生成相關屬性。其中隱向量編輯方法包括GanSpace、InterFaceGAN以及StyleSpace等等。

      但這種圖像生成方式通常隱含著屬性向量不解耦的情況,即在生成目標屬性的同時往往伴隨其他屬性(背景和人臉信息等)產生變化。

      因此,MT Lab結合StyleGAN Projector、PULSE及Mask-Guided Discovery等迭代重建方式來解決生成頭發配對數據的問題。該方案的主要思路是通過簡略編輯原始圖片,獲得一張粗簡的目標屬性參考圖像,將其與原始圖像都作為參考圖像,再通過StyleGAN進行迭代重建。

      以為頭發染淺色發色為例,需要先對原始圖片中的頭發區域染上統一的淺色色塊,經由降采樣獲得粗略編輯簡圖作為目標屬性參考圖像,在StyleGAN的迭代重建過程中,生成圖片在高分辨率尺度下與原始圖片進行相似性監督,以保證頭發區域以外的原始信息不發生改變。

      另一方面,生成圖片通過降采樣與目標屬性參考圖像進行監督,以保生成的淺色發色區域與原始圖片的頭發區域一致,二者迭代在監督平衡下生成期望中的圖像,與此同時也獲得了一個人有無淺色頭發的配對數據。

      值得強調的是,在該方案執行過程中既要保證生成圖片的目標屬性與參考圖像一致,也要保證生成圖像在目標屬性區域外與原始圖片信息保持一致;還需要保證生成圖像的隱向量處于StyleGAN的隱向量分布中,才能夠確保最終的生成圖像是高清圖像。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      染淺色頭發 StyleGAN 迭代重建示意圖

      此外,基于該方案的思路,在頭發生成領域還可以獲取到發際線調整的配對數據、劉海生成的配對數據以及頭發蓬松的配對數據。

      但是想用補發功能,前提得還沒毛光光。不然基于頭發原本顏色的補色,系統一律按膚色計算了。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      不同膚色做出來的發色不一致(左圖為沖浪達人阿怡視頻中的網紅爺爺)

      2.配對數據增益

      基于迭代重建,還能夠獲得配對數據所對應的StyleGAN隱向量,通過隱向量插值的方式還能實現數據增益,進而獲得足夠數量的配對數據。

      以發際線調整的配對數據為例,在每一組配對數據間,可以通過插值獲得發際線不同程度調整的配對數據。同樣的,兩組配對數據間也可以通過隱向量插值獲得更多配對數據。

      此外,通過插值獲得的配對數據也能夠生成新的配對數據,基于此可以滿足對理想的發際線調整配對數據的需求。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      3.image-to-image生成
      基于StyleGan的迭代重建獲得配對數據后,就可以通過pixel2piexlHD模型進行有監督的學習訓練,這種image-to-image的方式相對穩定且針對各類環境都有穩定的結果輸出。但生成圖像的清晰度還無法達到理想的效果,因此選擇通過在image-to-image模型上采用StyleGAN的預訓練模型來幫助實現生成細節的提升。
      傳統的StyleGAN實現image-to-image的方式是通過encoder網絡獲得輸入圖的圖像隱向量,然后直接編輯隱向量,最后實現目標屬性圖像生成,但由這種方式生成的圖像與原圖像比對往往相似度較低,無法滿足基于原圖像進行編輯的要求。
      因此MT Lab對這種隱向量編輯的方式進行了改進,一方面直接將原圖像encode到目標屬性的隱向量,省去進行中間隱向量編輯的步驟;另一方面將encoder網絡的特征與StyleGAN網絡的特征進行融合,最終通過融合后的特征生成目標屬性圖像,以最大限度保證生成圖像與原圖像的相似度,整體網絡結構與GLEAN模型非常相似。該方式兼顧了圖像高清細節生成與原圖相似度還原兩個主要問題,由此也完成了高清且具有真實細節紋理的頭發生成全流程。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      頭發生成網絡結構

      4

      搞定了頭發,還可以舉一反三
      這種StyleGAN編輯生成方案也具有很高的擴展性。日后圖像編輯和圖像清晰度的難題,可以套用頭發生成的“三步走”技術。
      其中,結合StyleGAN生成理想頭發配對數據的方式極大地降低了圖像編輯任務的難度,如將該方案關注的屬性拓展到頭發以外,就能夠獲得更多屬性的配對數據,例如五官更換的配對數據,借此可以嘗試對任何人臉屬性編輯任務進行落地實踐。

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      五官更換的配對數據:原圖(左),參考圖(中),結果圖(右)
      借助StyleGAN預訓練模型實現image-to-image的方式能夠保證生成圖像的清晰度,還可以將其推廣到如圖像修復、圖像去噪、圖像超分辨率等等更為一般的生成任務中。

      雷鋒網雷鋒網雷鋒網

      雷峰網特約稿件,未經授權禁止轉載。詳情見轉載須知

      發際線有救了!這款app可一鍵AI生發,拯救你的自拍焦慮

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 国产亚洲成人综合| 亚洲AV无码一二区三区在线播放 | 九九伊人| 泸州市| 精品久久人人妻人人做精品| 四虎av| 亚洲综合熟女久久久40p| 亚洲伊人精品久视频国产| 精品日韩国产一区二区| 揉捏奶头高潮呻吟视频| 西吉县| 亚洲熟女乱综合一区二区| 欧美顶级metart裸体全部自慰| 国产美女精品人人做人人爽| 色欲狠狠躁天天躁无码中文字幕| 亚洲成a人片在线观看导航| 99热这里只有精品最新地址获取 | 性欧美疯狂xxxxbbbb| 亚洲中文天堂| 一色桃子中出欲求不满人妻| 亚洲综合精品一区二区三区| 国产精品乱码人妻一区二区三区 | 大色欧美| 99久久综合精品五月天| 豆花AV| 亚洲成人第一VA| jizzjizz| 一本大道人妻中字幕在线视频| 国产一区二区日韩在线| 久久国产乱子伦免费精品无码 | 精品少妇人妻av免费久久久 | 国产日韩av免费无码一区二区三区| 国产毛片A啊久久久久| 日韩AV无码电影| 国产精品先锋资源站先锋影院| 99久久精品免费看国产一区二区三区| 吉木乃县| 成 年 人 黄 色 大 片大 全| 鲁鲁AV| 性xxxx欧美老妇胖老太性多毛| 乐活家庭迅雷|