0
| 本文作者: 我在思考中 | 2021-09-02 10:32 |

作者 | 張晨旭
編輯 | 王曄
本文是對發表于計算機視覺領域的頂級會議 ICCV 2021的論文“FACIAL: Synthesizing Dynamic Talking Face with Implicit Attribute Learning(具有隱式屬性學習的動態談話人臉視頻生成)”的解讀。

視頻簡介:https://m.youtube.com/watch?v=hl9ek3bUV1E
作者:張晨旭(德克薩斯大學達拉斯分校);趙一凡(北京航空航天大學);黃毅飛(華東師范大學);曾鳴(廈門大學);倪賽鳳(三星美國研究院);Madhukar Budagavi(三星美國研究院);郭小虎(德克薩斯大學達拉斯分校)。
音頻驅動的動態人臉談話視頻生成已成為計算機視覺、計算機圖形學和虛擬現實中的一項重要技術。然而這一過程中,生成逼真的人臉視頻仍然非常具有挑戰性,這不僅要求生成的視頻包含與音頻同步的唇部運動,同時個性化、自然的頭部運動和眨眼等屬性也是十分重要的。動態談話人臉合成所蘊含的信息大致可以分為兩個不同的層次:
2)與語音信號具有較弱相關性的屬性,即與語音上下文相關、與個性化談話風格相關的其他屬性(頭部運動和眨眼)。
歸納總結上述兩種不同類型的屬性,我們稱第一類屬性為顯式屬性,第二類為隱式屬性。

如圖1所示,大多數現有生成方法只關注于人臉的顯式屬性生成,即通過輸入語音,合成同步的唇部運動屬性。這些方法合成的人臉結果要么不具有隱式屬性[1,2](圖1中a所示),要么復制原始視頻的隱式屬性[3,4](圖1中b所示)。只有少部分工作[5,6]探索過頭部姿勢與輸入音頻之間的相關性。
盡管這些工作針對生成屬性進行了不同側面的探究,但是對這些屬性的具體研究,仍存在以下問題:(1)顯式和隱式屬性如何潛在地相互影響?(2) 如何對隱式屬性進行建模?例如頭部姿勢和眨眼等屬性不僅取決于語音信號,還取決于語音信號的上下文特征以及與個體相關的風格特征。

圖 2 音頻驅動的隱式-顯式屬性聯合學習的談話人臉視頻合成框架。
如圖2所示,我們提出了一個人臉隱式屬性學習(FACIAL)框架來合成動態的談話人臉視頻。
(1)我們的 FACIAL 框架使用對抗學習網絡聯合學習這一過程中的隱式和顯式屬性。我們提出以協作的方式嵌入所有屬性,包括眨眼信息、頭部姿勢、表情、個體身份信息、紋理和光照信息,以便可以在同一框架下對它們用于生成說話人臉的潛在交互進行建模。
(2) 我們在這個框架中設計了一個特殊的 FACIAL-GAN網絡來共同學習語音、上下文和個性化信息。這一網絡將一系列連續幀作為分組輸入并生成上下文隱空間向量,該向量與每個幀的語音信息一起由單獨的基于幀的生成器進一步編碼。因此,我們的 FACIAL-GAN 可以很好地捕獲隱式屬性(例如頭部姿勢等)、上下文和個性化信息。
(3) 我們的 FACIAL-GAN 還可以預測眨眼信息,這些信息被進一步嵌入到最終渲染模塊的眼部相關的注意力圖中,用于在輸出視頻合成逼真的眼部運動信息。實驗結果和用戶研究表明,我們的方法可以生成逼真的談話人臉視頻,該生成視頻不僅具有同步的唇部運動,而且具有自然的頭部運動和眨眼信息。并且其視頻質量明顯優于現有先進方法。

圖 3 本方法提出的FACIAL-GAN網絡結構框架
如圖3所示,FACIAL-GAN 由三個基本部分組成:時間相關生成器用于構建上下文關系和局部語音生成器用于提取每一幀特征。此外,使用判別器網絡來判斷生成的屬性的真假。(具體的網絡細節請參考原文內容)
定性比較實驗
圖 4 與現有音頻驅動的人臉視頻生成方法的定性比較結果
如圖4,圖5,圖6所示,我們與現有音頻驅動的人臉視頻生成方法進行比較。相比之下,通過顯式和隱式屬性的協同學習,我們的方法生成具有個性化的頭部運動,考慮到不同個體的運動特性,同時可以生成更加逼真眨眼信息的人臉視頻。(詳細的比較結果請參考上述的視頻鏈接)

圖 5 與 Vougioukas,Chen等方法的定性對比

圖 6 與 Suwajanakorn,Thies等方法的定性對比
定量比較實驗
我們同時通過定量化分析實驗,如關鍵點運動偏移,視聽同步置信度進行衡量,具體信息如表1所示。本文所提出的聯合隱式和顯式屬性生成框架,超越了大多數現有方法,在各項屬性生成任務中,均具有較優的解析質量。

如表2所示,我們通過進行主觀的用戶研究(User Study),即從人類觀察的角度比較生成的結果,其中更大的數值代表更優的生成質量和用戶認可度。

在這項工作中,除傳統的唇部運動等顯式屬性之外,我們以自然頭部姿勢和眨眼信息等隱式屬性作為學習目標,優化談話人臉視頻的生成質量和真實度。但需要注意的是,人臉談話視頻仍然具有其他更細節的隱式屬性,例如,眼球運動、身體和手勢、微表情等等。這些屬性可能受其他更深層次維度信息的引導,可能需要其他網絡組件的特定設計,仍有待于未來進一步探究。我們希望本文提出的FACIAL 框架可以為未來探索隱式屬性學習提供一種新穎的研究思路和啟發。
雷鋒網雷鋒網雷鋒網
雷峰網特約稿件,未經授權禁止轉載。詳情見轉載須知。