<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
      人工智能 正文
      發(fā)私信給高婓
      發(fā)送

      1

      DeepMind發(fā)布最新原始音頻波形深度生成模型WaveNet,將為TTS帶來無數(shù)可能

      本文作者: 高婓 2016-09-09 12:54
      導(dǎo)語:Google的DeepMind研究實(shí)驗(yàn)室昨天公布了其在語音合成領(lǐng)域最新成果WaveNet,語音系統(tǒng)更為自然,將模擬生成的語音與人類聲音的差異降低了50%以上。

      編者按:Google的DeepMind研究實(shí)驗(yàn)室昨天公布了其在語音合成領(lǐng)域的最新成果——WaveNet,一種原始音頻波形深度生成模型,能夠模仿人類的聲音,生成的原始音頻質(zhì)量優(yōu)于目前Google采用的兩種最優(yōu)文本-語音模型Parameric TTS與Concatenative TTS。

      WaveNets是一種卷積神經(jīng)網(wǎng)絡(luò),能夠模擬任意一種人類聲音,生成的語音聽起來比現(xiàn)存的最優(yōu)文本-語音系統(tǒng)更為自然,將模擬生成的語音與人類聲音之間的差異降低了50%以上。

      我們也將證明,同一種網(wǎng)絡(luò)能夠合成其他音頻信號,如音樂,并能夠自動生成沁人心脾的鋼琴曲。

      會說話的機(jī)器

      使人們能夠與機(jī)器自由交談是人機(jī)交互研究領(lǐng)域長久以來的夢想。過去幾年中,深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用(如Google語音搜索)為提高計(jì)算機(jī)理解自然語音的能力帶來了革新。但是,運(yùn)用計(jì)算機(jī)生成語音——通常用于指代語音合成或文本-語音(TTS)系統(tǒng)——在極大程度上還要依托拼接TTS,TTS中包含一個(gè)超大型記錄單個(gè)說話者的簡短語音片段的數(shù)據(jù)庫,隨后將這些語音片段重新合成形成完整的話語。在不記錄一個(gè)新的完整數(shù)據(jù)庫的前提下,這種語音合成方法難以做到修飾聲音(例如,轉(zhuǎn)換到一個(gè)不同的說話者,或者改變其語音中強(qiáng)調(diào)的重點(diǎn)或傳達(dá)的情感)。

           為了解決語音合成的這一難題,迫切需要運(yùn)用一種參數(shù)TTS,在這種文本-語音系統(tǒng)中,生成數(shù)據(jù)所需要的所有信息被存儲于模型的參數(shù)中,語音所傳達(dá)的內(nèi)容及語音特征可以通過模型的輸入信息得以控制。然而,目前參數(shù)(Parametric)TTS模型生成的語音聽起來不如拼接(Concatenative)TTS模型生成的語音自然,這種現(xiàn)象至少出現(xiàn)在音節(jié)類語言中,如英語。現(xiàn)有的參數(shù)模型通常是運(yùn)用信號加工算法vocoders計(jì)算獲得的輸出信息,以此生成音頻信號。

           WaveNet通過直接為音頻信號的原始波形建模,一次為一種音頻樣本建模,來改變這種范式。同生成聽起來更為自然的語音相同,使用原始波形意味著WaveNet能夠?yàn)槿我忸愋偷囊纛l建模,包括音樂。

      WaveNet

      DeepMind發(fā)布最新原始音頻波形深度生成模型WaveNet,將為TTS帶來無數(shù)可能

      研究者通常避免為原始音頻建模,因?yàn)樵家纛l往往瞬間發(fā)生變化:通常情況下,每秒出現(xiàn)16,000種或更多音頻樣本,在很多時(shí)間標(biāo)尺內(nèi)出現(xiàn)重要的結(jié)構(gòu)。很明顯,構(gòu)建一個(gè)完全自動回歸模型是一項(xiàng)具有挑戰(zhàn)性的任務(wù),在這種模型中,對每一種音頻樣本的預(yù)測均受到之前所有音頻樣本的影響(用統(tǒng)計(jì)學(xué)方面的話來講,每一種預(yù)測性分布是建立在所有先前觀察的基礎(chǔ)之上的)。

      但是,我們今年公布的PixelRNN和PixelCNN模型顯示,做到以每次一個(gè)像素,甚至于每次一個(gè)顏色通道的方式生成復(fù)雜的自然圖像是可能的,這將要求對每個(gè)圖像做數(shù)千次預(yù)測。這也啟發(fā)我們將原有的二維PixelNets轉(zhuǎn)變?yōu)橐环N一維WaveNet。

      DeepMind發(fā)布最新原始音頻波形深度生成模型WaveNet,將為TTS帶來無數(shù)可能

      上方動畫所示為一個(gè)WaveNet模型的內(nèi)部結(jié)構(gòu),通常是一種完整的卷積神經(jīng)網(wǎng)絡(luò),卷積層中有各種各樣的擴(kuò)張因子,允許其接受域深度成倍增長,并且覆蓋數(shù)千個(gè)時(shí)間步長。

      在訓(xùn)練時(shí)間段內(nèi),輸入序列是從人類說話者記錄得來的真實(shí)波形。在訓(xùn)練之后,我們可以對網(wǎng)絡(luò)取樣,以生成合成話語。在取樣的每一個(gè)步驟中,將從由網(wǎng)絡(luò)計(jì)算得出的概率分布中抽取數(shù)值。所抽取的數(shù)值隨后被反饋到輸入信息中,這樣便完成下一步新預(yù)測。像這樣每做一次預(yù)測就取樣會增加計(jì)算成本,但是我們已經(jīng)發(fā)現(xiàn),這樣的取樣方法對于生成復(fù)雜且聽起來真實(shí)的音頻是至關(guān)重要的。

      改善最優(yōu)文本-語音轉(zhuǎn)換模型

      我們曾經(jīng)運(yùn)用Google的一些TTS數(shù)據(jù)集來訓(xùn)練WaveNet,以便用于評估WaveNet的性能。下圖所示為與Google當(dāng)前最優(yōu)TTS系統(tǒng)(參數(shù)型TTS和拼接型TTS)和使用Mean Opinion Scores(MOS:用于評估語音通訊系統(tǒng)質(zhì)量的方法)獲得的人類語音相比,在標(biāo)尺(1-5)上WaveNets的質(zhì)量。MOS是一種用于主觀語音質(zhì)量測試的標(biāo)準(zhǔn)測定方法,在人群中進(jìn)行盲試驗(yàn)。我們可以看到,WaveNets將最優(yōu)模型生成語音的質(zhì)量與人類自然語音(US英語和漢語普通話)之間的差距降低了50%以上。

      就漢語和英語來講,Google當(dāng)前的TTS系統(tǒng)在世界范圍內(nèi)被認(rèn)為是最優(yōu)文本-語音系統(tǒng),因此,用一種單一模型來改善生成漢語與英語語音質(zhì)量將會是一項(xiàng)重大成就。

      DeepMind發(fā)布最新原始音頻波形深度生成模型WaveNet,將為TTS帶來無數(shù)可能

      教會WaveNet說有意義的話

      為了實(shí)現(xiàn)運(yùn)用WaveNet將文本轉(zhuǎn)化為語音,我們得告訴WaveNet文本的內(nèi)容是什么。我們通過將文本轉(zhuǎn)換成語言和語音特征(包括音位、音節(jié)、單詞等),把轉(zhuǎn)換得來的特征提供給WaveNet,完成這一過程。這意味著網(wǎng)絡(luò)的預(yù)測步驟不僅僅基于先前獲得的音頻樣本,而且要基于文本所傳達(dá)的內(nèi)容。

      如果我們想要脫離文本序列來訓(xùn)練網(wǎng)絡(luò),網(wǎng)絡(luò)依然能夠生成語音,但是得自行編造想要傳達(dá)的內(nèi)容。這種條件下生成的音頻簡直是胡言亂語,有意義的單詞被編造的像單詞的聲音隔斷開。

       注意,有時(shí)WaveNet也會生成一些非語音類型的聲音,如呼吸或口腔運(yùn)動;這反映出一種原始音頻模型具有高度靈活性。

      一個(gè)單一的WaveNet具備學(xué)習(xí)許多不同聲音(男性和女性)的特征。為了確保WaveNet能夠知道用何種聲音匹配給定的任何一段話語,我們訓(xùn)練網(wǎng)絡(luò)使之學(xué)習(xí)獲得說話者的身份特征。有趣的是,我們發(fā)現(xiàn),與單一訓(xùn)練單個(gè)說話者的特征相比,用許多說話者的語言、語音及身份等特征來訓(xùn)練網(wǎng)絡(luò)使得WaveNet能夠更好地模擬單個(gè)說話者,這種訓(xùn)練模式暗含著一種遷移學(xué)習(xí)形式。

      通過改變說話者的身份,我們可以用WaveNet以不同的聲音表達(dá)同一段話語。

       同樣,我們可以為該模型提供額外的輸入信息,如情感或口音,使得生成的語音變得更為多樣化,更有趣。

      生成音樂

      由于WaveNet能夠用來模擬任何一種音頻信號,我們認(rèn)為,嘗試用WaveNet生成音樂也將很好玩。與TTS實(shí)驗(yàn)不同,我們的網(wǎng)絡(luò)不是基于一個(gè)輸入序列,告訴它怎么演奏音樂(如一篇樂譜);相反,我們只是簡單地允許WaveNet任意生成一種音樂。當(dāng)我們采用一個(gè)古典鋼琴曲數(shù)據(jù)集來訓(xùn)練WaveNet時(shí),它將生成一曲美妙樂章。

       WaveNets將為TTS帶來無數(shù)可能,大體上來講,有生成音樂和模擬音頻兩類。事實(shí)上,直接運(yùn)用深度神經(jīng)網(wǎng)絡(luò)一個(gè)時(shí)間步長一個(gè)時(shí)間步長地生成音樂,這種方法適用于所有16kHZ音頻,這將是非常令人驚喜的。我們非常期待WaveNets未來將會帶給大家的驚喜。

      想要獲取更多詳細(xì)信息,請參考我們的論文詳細(xì)

      原文鏈接

      本文由雷鋒網(wǎng)獨(dú)家編譯,未經(jīng)允許拒絕轉(zhuǎn)載!


      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

      DeepMind發(fā)布最新原始音頻波形深度生成模型WaveNet,將為TTS帶來無數(shù)可能

      分享:
      相關(guān)文章
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個(gè)人簡介
      為了您的賬戶安全,請驗(yàn)證郵箱
      您的郵箱還未驗(yàn)證,完成可獲20積分喲!
      請驗(yàn)證您的郵箱
      立即驗(yàn)證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 免费看成人aa片无码视频吃奶| 亚洲中文字幕久在线| 一本大道东京热无码va在线播放| 亚洲日韩欧美一区二区三区| 在线天堂最新版资源| 国产欧美精品一区二区色综合| 国产精品视频一区二区三区不卡| 和田县| 国产精品久久久久久久久久久久| 老司机夜间福利| 亚洲人人妻| 国产无遮挡无码视频在线观看| 五月婷之久久综合丝袜美腿| 放荡的少妇2欧美版| 中文字幕在线精品视频入口一区| 4hu亚洲人成人无码网www电影首页 | 五十路熟妇| 色婷婷亚洲精品天天综合| 一区二区三区av| 日韩精品一二三四五区| 国产稚嫩高中生呻吟激情在线视频| 少妇真人直播免费视频| 亚洲乱码精品中文字幕| 无码精品a∨在线观看十八禁| 国产av一区二区三区传媒| 亚洲成aⅴ人片精品久久久久久| 精品国产免费第一区二区三区| 第一福利导航视频| 色欲av蜜桃一区二区三| 国产拳交视频| 亚洲一卡二卡| 秋霞91大神| 一本色道久久99精品综合| 99在线小视频| 人妻 色综合网站| 老司机午夜福利视频| 日本成人不卡视频| 无码日韩精品一区二区三区免费 | 亚洲熟女无码在线| 国产乱人对白| 日韩久久中文字幕|