0
| 本文作者: 我在思考中 | 2021-09-02 10:05 |

比起卡粉,悶痘,油光,手殘,新一代年輕人的美麗可以來得更容易,快速變美只需要兩步,打開美圖,擺好pose——詮釋那句話,“為了美麗,我堅持開美顏”。
今年來,容貌焦慮和發際線危機已經不止一次搬上話事桌,甚至讓大眾誤以為這并非為資本或是人的思維創造物。實際上,這是一個由意識形態到符號結構再到技術決定的邏輯蛻變過程,美圖公司在后排默默觀察。
去年9月,美圖秀秀推出增發功能,可填充發際線、增加劉海 。

今年2月,美圖秀秀發布《00后圖片社交報告》,報告顯示,當00后被問及“最在意的修圖部位”,出乎意料的是00后用戶不僅關注腹肌、鎖骨和黑眼圈這些細節,也關注發際線的完美程度。

其背后的美圖影像實驗室(MT Lab),目前已經落地了多個頭發生成項目,在美圖旗下核心產品美圖秀秀及海外產品AirBrush上線劉海生成、發際線調整與稀疏區域補發等功能。

其中,劉海生成功能可以基于自定義的生成區域,生成不同樣式的劉海;
發際線調整功能在保持原有發際線樣式的情況下,可以對發際線的不同高度進行調整;
稀疏區域補發則可以在指定區域或者智能檢測區域中,自定義調整稀疏區域的頭發濃密程度。
成立于2010年的MT Lab是致力于計算機視覺、機器學習、增強現實、云計算等人工智能相關領域的研發團隊,深耕人臉、美顏、美妝、人體、圖像分割、圖像生成等多個技術研發領域,目前已廣泛應用于美圖旗下產品。

美圖秀秀的人像美容欄中的外貌修飾功能
如今,美圖秀秀不僅在人臉上做“減法’,還做起了“加法”,推出面部豐盈、整牙以及發際線調整、稀疏區域補發的新功能。

美圖秀秀的整牙和面部填充對比圖
但怎么解決當下大家最關注的頭發生成問題,在落地過程中仍面臨幾個亟待突破的關鍵技術瓶頸:數據缺少、發絲細節不足和清晰度低。稍有不慎,頭發就容易糊成一片。

當年Angel大寶貝在電視劇中的摳圖效果可太假了
首先是生成數據的獲取問題
以劉海生成任務為例,在生成出特定款式的劉海時,需要大量劉海數據,但是通過搜集真實數據的形式做數據喂養,其實就是個“體力活”:有劉海、無劉海的真實數據難獲取;斜劉海、直劉海、八字劉海等特定款式的劉海數據耗費高成本。
這兩種方式基本都不具備可操作性。

其次是高清圖像細節的生成問題
要么頭發太假,要么像是用座機拍出來的糊圖。
由于頭發部位擁有復雜的紋理細節,通過CNN難以生成真實且達到理想狀態的發絲。
其中,在有配對數據的情況下,雖然可以通過設計類似Pixel2PixelHD、U2-Net等網絡進行監督學習,但目前通過該方式生成的圖像清晰度仍然非常有限。
而在非配對數據情況下,一般通過類似HiSD、StarGAN、CycleGAN的方式進行屬性轉換生成,利用該方式生成的圖片不僅清晰度不佳,還存在目標效果生成不穩定、生成效果不真實等問題。
真實的頭發數據沒有,自己造“假”又太假,針對上述情況, MT Lab基于龐大的數據資源與突出的模型設計能力,借助StyleGAN解決了頭發生成任務所面臨的配對數據生成與高清圖像細節兩大核心問題。
StyleGAN作為當前生成領域的主要方向(Gan生成式對抗網絡),是一種基于風格輸入的無監督高清圖像生成模型。能夠基于7萬張1024*1024的高清人臉圖像訓練數據FFHQ,通過精巧的網絡設計與訓練技巧生成清晰逼真的圖像效果。

基于StyleGAN生成的圖片
此外,StyleGAN還能基于風格輸入的方式擁有屬性編輯的能力,通過隱變量的編輯,實現圖像語意內容的修改。
具體有三步:配對數據生成(生發)——配對數據增益(控制發量)——image-to-image生成(高清)。
1.配對數據生成
StyleGAN生成配對數據最為直接的方式就是在w+空間直接進行相關屬性的隱向量編輯,生成相關屬性。其中隱向量編輯方法包括GanSpace、InterFaceGAN以及StyleSpace等等。
但這種圖像生成方式通常隱含著屬性向量不解耦的情況,即在生成目標屬性的同時往往伴隨其他屬性(背景和人臉信息等)產生變化。
因此,MT Lab結合StyleGAN Projector、PULSE及Mask-Guided Discovery等迭代重建方式來解決生成頭發配對數據的問題。該方案的主要思路是通過簡略編輯原始圖片,獲得一張粗簡的目標屬性參考圖像,將其與原始圖像都作為參考圖像,再通過StyleGAN進行迭代重建。
以為頭發染淺色發色為例,需要先對原始圖片中的頭發區域染上統一的淺色色塊,經由降采樣獲得粗略編輯簡圖作為目標屬性參考圖像,在StyleGAN的迭代重建過程中,生成圖片在高分辨率尺度下與原始圖片進行相似性監督,以保證頭發區域以外的原始信息不發生改變。
另一方面,生成圖片通過降采樣與目標屬性參考圖像進行監督,以保生成的淺色發色區域與原始圖片的頭發區域一致,二者迭代在監督平衡下生成期望中的圖像,與此同時也獲得了一個人有無淺色頭發的配對數據。
值得強調的是,在該方案執行過程中既要保證生成圖片的目標屬性與參考圖像一致,也要保證生成圖像在目標屬性區域外與原始圖片信息保持一致;還需要保證生成圖像的隱向量處于StyleGAN的隱向量分布中,才能夠確保最終的生成圖像是高清圖像。

染淺色頭發 StyleGAN 迭代重建示意圖
此外,基于該方案的思路,在頭發生成領域還可以獲取到發際線調整的配對數據、劉海生成的配對數據以及頭發蓬松的配對數據。
但是想用補發功能,前提得還沒毛光光。不然基于頭發原本顏色的補色,系統一律按膚色計算了。

不同膚色做出來的發色不一致(左圖為沖浪達人阿怡視頻中的網紅爺爺)
2.配對數據增益
基于迭代重建,還能夠獲得配對數據所對應的StyleGAN隱向量,通過隱向量插值的方式還能實現數據增益,進而獲得足夠數量的配對數據。
以發際線調整的配對數據為例,在每一組配對數據間,可以通過插值獲得發際線不同程度調整的配對數據。同樣的,兩組配對數據間也可以通過隱向量插值獲得更多配對數據。
此外,通過插值獲得的配對數據也能夠生成新的配對數據,基于此可以滿足對理想的發際線調整配對數據的需求。



雷鋒網雷鋒網雷鋒網
雷峰網特約稿件,未經授權禁止轉載。詳情見轉載須知。