0
| 本文作者: AI研習(xí)社-譯站 | 2018-01-29 10:54 |
本文為雷鋒字幕組編譯的技術(shù)博客,原標(biāo)題How to Develop a Neural Machine Translation System in Keras from Scratch,作者為Jason Brownlee。
翻譯 | 曹永勝 林立宏 校對 | 凡江
機(jī)器翻譯是一項具有挑戰(zhàn)性的任務(wù),包含一些使用高度復(fù)雜的語言知識開發(fā)的大型統(tǒng)計模型。
神經(jīng)機(jī)器翻譯的工作原理是——利用深層神經(jīng)網(wǎng)絡(luò)來解決機(jī)器翻譯問題。
在本教程中,你將了解如何開發(fā)一個神經(jīng)機(jī)器翻譯系統(tǒng),可以用于將德語翻譯成英語。
學(xué)習(xí)完本教程后,你將知道:
如何清理和準(zhǔn)備數(shù)據(jù)來訓(xùn)練神經(jīng)機(jī)器翻譯系統(tǒng)
如何開發(fā)機(jī)器翻譯的編碼器-解碼器模型
如何使用訓(xùn)練有素的模型對新輸入短語進(jìn)行推理,并對模型技巧進(jìn)行評價
讓我們開始吧。

如何在Keras開發(fā)神經(jīng)機(jī)器翻譯系統(tǒng) 照片由 Bj?rn Gro?提供
教程概述
教程分為4個部分:
德語翻譯成英語的數(shù)據(jù)集
準(zhǔn)備文本數(shù)據(jù)
訓(xùn)練神經(jīng)翻譯模型
評估神經(jīng)翻譯模型
Python 環(huán)境
本教程預(yù)設(shè)你安裝了Python 3 SciPy環(huán)境。
你必須安裝帶有TensorFlow或Theano后端的Keras(2.0或更高版本)。
本教程還假定你已經(jīng)安裝了NumPy和Matplotlib。
關(guān)于安裝環(huán)境,如需要幫助,請看這篇文章:
德語翻譯成英語的數(shù)據(jù)集
在本教程中,我們將使用德語譯成英語的數(shù)據(jù)集作為語言學(xué)習(xí)的抽認(rèn)卡的基礎(chǔ)。
數(shù)據(jù)集可以從 ManyThings.org 網(wǎng)站獲得,,案例是從 Tatoeba Project 項目中提取出來的。該數(shù)據(jù)集由德語短語和英語單詞組成,我們使用的是 Anki flashcard software軟件。
該頁面提供了許多語言對的列表,我鼓勵你探索其他語言:
Tab-delimited Bilingual Sentence Pairs
本教程中使用的數(shù)據(jù)集可以在這里下載:
將數(shù)據(jù)集下載到當(dāng)前工作目錄并解壓;例如:

你會有一個叫deu.txt的文件。txt中包含152,820對德語階段的英語,每一行有一行,并有一個標(biāo)簽分隔語言。
例如,文件的前5行看起來如下:

我們使用德語詞句序列作為輸入,將其翻譯成英語的的詞句序列,這就是我們的預(yù)測問題。
這個開發(fā)的模型將適用于一些初學(xué)者級別的德語短語。
準(zhǔn)備文本數(shù)據(jù)
下一步是準(zhǔn)備用于建模的文本數(shù)據(jù)。
先查看原始數(shù)據(jù),請注意,你所有看到的內(nèi)容,很可能就是我們在數(shù)據(jù)清洗過程中所需要用到的。
例如,在我回顧原始數(shù)據(jù)時,請注意到以下幾點:
有標(biāo)點符號。
文本包含大寫和小寫。
在德語中有一些特殊的字符。
英語中有重復(fù)的短語,有不同的德語翻譯。
這個文件是按句子長度排序的,在文件的末尾有很長的句子。
一個好的文本清理程序可以處理一些或全部的這些問題。
數(shù)據(jù)準(zhǔn)備分為兩部分:
清理文檔
分離文檔
1. 清理文檔
首先,我們必須以保存Unicode德語字符的方式加載數(shù)據(jù)。下面的函數(shù)名為load_doc(),它將把文件加載為一個文本blob。

每行包含一對短語,先是英語,然后是德語,然后用制表符分隔。
我們必須逐行拆分已加載的文本。函數(shù)to_pairs()將分割加載的文本。

我們現(xiàn)在準(zhǔn)備好清理每個句子。我們將執(zhí)行的具體清理操作如下:
刪除所有非輸出字符。
刪除所有標(biāo)點字符。
將所有Unicode字符規(guī)范化為ASCII(如拉丁字符)。
將案例規(guī)范化為小寫。
刪除所有不按字母順序排列的令牌。
我們將在加載的數(shù)據(jù)集中對每一對語句執(zhí)行這些操作。
clean_pairs()函數(shù)執(zhí)行這些操作。

最后,既然數(shù)據(jù)已經(jīng)被清理,我們可以將短語對列表保存到準(zhǔn)備使用的文件中。
函數(shù)save_clean_data()使用pickle API將清理文本列表保存到文件中。
將所有這些組合在一起,下面列出了完整的示例。
運(yùn)行該示例將在當(dāng)前工作目錄中創(chuàng)建一個名為“english-german.pkl”的清理文本。
一些清理文本的例子被打印出來,以便我們在運(yùn)行結(jié)束時進(jìn)行評估,以確認(rèn)清理的操作是按預(yù)期執(zhí)行的。

2. 分離文本
清理的數(shù)據(jù)包含了超過15萬個短語對,而其中的一些對到文件的結(jié)尾是很長的。
這是一個很好的例子來開發(fā)一個小的翻譯模型。 模型的復(fù)雜性隨著實例數(shù)量、短語長度和詞匯量的增加而增加。
雖然我們有一個良好的數(shù)據(jù)集來進(jìn)行建模,但是我們會稍微簡化這個問題,以極大地減少模型所需的模型的大小,并將所需的訓(xùn)練時間轉(zhuǎn)換成適合模型的時間。
你可以在更完整的數(shù)據(jù)集上開發(fā)一個模型作為擴(kuò)展。我們將通過將數(shù)據(jù)集減少到文件中的前10,000個示例來簡化問題;這些將是數(shù)據(jù)集中最短的短語。
此外,我們將把前9000個例子作為培訓(xùn)的示例和剩下的1,000個例子來測試fit模型。
下面是一個完整的示例,它加載干凈的數(shù)據(jù),拆分它,并將數(shù)據(jù)的分割部分保存到新文件中。

運(yùn)行這個例子創(chuàng)建了三個新文件: english-german-both.pkl 它包含了我們可以用來定義問題參數(shù)的所有用于訓(xùn)練和測試?yán)樱鏼ax短語長度和詞匯表,以及 english-german-train.pkl 和 english-german-test.pkl 文件。用于訓(xùn)練和測試數(shù)據(jù)集的pkl文件。
現(xiàn)在我們已經(jīng)準(zhǔn)備好開發(fā)翻譯模型。
訓(xùn)練神經(jīng)翻譯模型
在這部分中,我們會來建立翻譯模型。
這部分包含了加載和準(zhǔn)備好清洗好的文本數(shù)據(jù)給模型,然后在這些數(shù)據(jù)上定義和訓(xùn)練該模型。
讓我們開始加載數(shù)據(jù)集,以便于準(zhǔn)備數(shù)據(jù)。下面的函數(shù):load_clean_sentences() 用于加載訓(xùn)練的數(shù)據(jù)集,反過來也可以加載測試的數(shù)據(jù)集。

我們會使用或者結(jié)合訓(xùn)練,測試數(shù)據(jù)集定義了對最大長度和問題的詞匯量。
這挺簡單。我們能夠從單獨的數(shù)據(jù)集中定義這些屬性,然后在測試集中截斷太長或者是超過詞匯量的例子。
我們使用 Keras Tokenize 類去講詞匯映射成數(shù)值,如建模所需要的。我們會使用分離標(biāo)記生成器給英語序列和德文序列,下面這個函數(shù)是 create_tokenizer() 會訓(xùn)練在一列短語中的標(biāo)記生成器。

同樣地,max_length() 函數(shù)會找在一列單詞中最長的序列。

我們可以調(diào)用這些函數(shù)結(jié)合數(shù)據(jù)集來準(zhǔn)備標(biāo)記生成器,詞匯大小和最大的長度,英文和德文短語。

現(xiàn)在我們準(zhǔn)備開始訓(xùn)練數(shù)據(jù)集。
每個輸入輸出序列都必須編碼成數(shù)值,并填充為最大的詞匯長度。
這是因為,我們要使用一個嵌入的單詞給輸出序列,并對輸出序列進(jìn)行熱編碼。下面這個函數(shù)為:encode_sequences()能執(zhí)行這些操作,并返回結(jié)果。

輸出序列需要一次熱編碼。這是應(yīng)為模型會預(yù)測每個詞匯的可能性作為輸出。
函數(shù) encode_output() 會熱編碼英文到輸出序列中。

我們可以使用這兩個函數(shù)準(zhǔn)備訓(xùn)練和測試數(shù)據(jù)集給訓(xùn)練模型。

現(xiàn)在可以開始定義模型了。
在這個問題上,我們使用了編碼-解碼器 LSTM 模型。在這個架構(gòu)中,輸出序列是一個前端模型編碼器編碼好的序列,后端模型稱為解碼器,會一個詞匯一個詞匯地進(jìn)行解碼。
函數(shù) define_model() 定義了模型,用了一些參數(shù)來設(shè)置模型,比如說輸入輸出的詞匯量大小,和輸入輸出的最大詞匯長度,和最大數(shù)量的內(nèi)存單元。
這個模型設(shè)置在這問題不是最優(yōu)的,這意味你有很多的潛力來調(diào)整它,提高翻譯的技巧。

最后,我們開始訓(xùn)練模型。
我們在批大小(batch size)大小為64的情況下在所有樣本數(shù)據(jù)集上完成30次訓(xùn)練迭代
我們使用檢查點來確保每次在測試集中,模型技能提高時,模型都被保存到文件中。

我們可以將所有這些結(jié)合在一起,并適用于神經(jīng)翻譯模型。
下面列出了完整的工作示例。

首先運(yùn)行示例打印數(shù)據(jù)集的參數(shù)摘要,例如詞匯大小和最大短語長度。

接下來,打印定義的模型的摘要,允許我們確認(rèn)模型配置。

該模型的圖也被創(chuàng)建,提供了關(guān)于模型配置的另一個視角。

接下來,我們開始訓(xùn)練模型。
現(xiàn)代CPU硬件每個時代大約需要30秒;不需要GPU。
在運(yùn)行過程中,模型將被保存到文件 model.h5 中,準(zhǔn)備在下一步中進(jìn)行推理。

評估神經(jīng)網(wǎng)絡(luò)翻譯模型
我們會評估訓(xùn)練和測試數(shù)據(jù)集。
該模型應(yīng)該在訓(xùn)練數(shù)據(jù)集上表現(xiàn)得非常好,理想的情況是已經(jīng)推廣到在測試數(shù)據(jù)集上表現(xiàn)良好。
理想情況下,我們將使用單獨的驗證數(shù)據(jù)集來幫助選擇訓(xùn)練期間的模型而不是測試集。你可以試試這個作為擴(kuò)展。
清洗好的的數(shù)據(jù)集必須像之前一樣加載和準(zhǔn)備。

接下來,訓(xùn)練期間保存的最佳模型必須加載。

評估包含了兩個步驟:首先生成翻譯的輸出序列,然后重復(fù)這個過程中的許多輸入的例子,總結(jié)模型的技巧在多個案例。
從推論開始,模型可以以一次性的方式預(yù)測整個輸出序列。

這是一系列整數(shù),我們可以枚舉并在標(biāo)記器中查找以映射回單詞。
下面這個函數(shù) word_for_id(),將執(zhí)行這個反向映射:

我們可以對翻譯中的每個整數(shù)執(zhí)行此映射,并將結(jié)果作為一串單詞來返回。 下面的函數(shù) predict_sequence() 對單個編碼的源短語執(zhí)行此操作。

接下來,我們可以對數(shù)據(jù)集中的每個源短語重復(fù)此操作,并將預(yù)測結(jié)果與英文中的預(yù)期目標(biāo)短語進(jìn)行比較。
我們可以在屏幕中打印一些對比結(jié)果,來篩選模型在實踐中的表現(xiàn)。
我們還將計算BLEU得分,以獲得模型表現(xiàn)如何的定量概念。
evaluate_model() 函數(shù)實現(xiàn)了這個內(nèi)容,為提供的數(shù)據(jù)集中的每個短語調(diào)用上述 predict_sequence() 函數(shù)。

我們可以將所有這些結(jié)合在一起,并在訓(xùn)練和測試數(shù)據(jù)集上評估加載的模型。
下面提供了完整的代碼展示:

首先運(yùn)行示例打印源文本,期望和預(yù)測翻譯的示例,以及訓(xùn)練數(shù)據(jù)集的分?jǐn)?shù),然后打印測試數(shù)據(jù)集。
考慮到數(shù)據(jù)集的隨機(jī)洗牌和神經(jīng)網(wǎng)絡(luò)的隨機(jī)性,你的具體結(jié)果將有所不同。
首先查看測試數(shù)據(jù)集的結(jié)果,我們可以看到這些翻譯是可讀的并且大部分是正確的。
比如: “ich liebe dich” 正確地翻譯為 “i love you“
我們還可以看到BLEU-4得分為0.51,這提供了我們對這個模型可能期望的上限。

看看測試集的結(jié)果,看看可讀的翻譯,這不是一件容易的事情。
比如說,我們看到 “ich mag dich nicht” 翻譯成 “我不喜歡你”。
我們也看到一些糟糕的翻譯和一個很好的例子,模型可能會受到進(jìn)一步的調(diào)整,比如說 “ich bin etwas beschwipst” 翻譯成 “我有一點點”而不是預(yù)想的 “我有點醉了”
BLEU-4得分為0.076238,提供了一個基本的技能來進(jìn)一步改進(jìn)模型。

拓展
本節(jié)列出了一些您可能希望拓展討論的想法。
數(shù)據(jù)清洗。可以對數(shù)據(jù)執(zhí)行不同的數(shù)據(jù)清理操作,例如不去除標(biāo)點符號或規(guī)范化大小寫,或者刪除重復(fù)的英語短語。
詞匯表。可以對詞匯表進(jìn)行細(xì)化,或者刪除在數(shù)據(jù)集中使用少于5次或10次的單詞,替換為“unk”。
更多的數(shù)據(jù)。用于擬合模型的數(shù)據(jù)集可以擴(kuò)展到50,000,100,000個短語或更多。
輸入順序。輸入短語的順序可以顛倒,這已經(jīng)有相關(guān)報告表明能為提升能力,或者可以使用雙向輸入層。
層數(shù)。編碼器和解碼器模型可以用附加層進(jìn)行擴(kuò)展,并進(jìn)行更多的訓(xùn)練迭代,從而為模型提供更多的表征能力。
存儲單元。編碼器和解碼器中的存儲器單元數(shù)量可以增加,為模型提供更多的表征能力。
正則。該模型可以使用正則化,如權(quán)重或激活正則化,或在LSTM層使用丟棄。
預(yù)訓(xùn)練的詞向量。預(yù)先訓(xùn)練的單詞向量可以在模型中使用
遞歸模型。可以使用該模型的遞歸公式,其中輸出序列中的下一個單詞可以以輸入序列和到目前為止產(chǎn)生的輸出序列為條件。
延伸閱讀
這里提供了關(guān)于這個話題的一些材料,如果你想深入了解,可以查閱這些內(nèi)容
Tab-delimited Bilingual Sentence Pairs
Encoder-Decoder Long Short-Term Memory Networks
總結(jié)
在這個教程中,你可以學(xué)到——如何去建立一個神經(jīng)翻譯系統(tǒng)去翻譯德國詞語為英文。
尤其是學(xué)習(xí)到了以下這些要點:
如何清洗數(shù)據(jù),準(zhǔn)備好訓(xùn)練神經(jīng)翻譯系統(tǒng)的數(shù)據(jù)
如何開發(fā)機(jī)器翻譯的編碼器-解碼器模型
如何使用訓(xùn)練有素的模型對新輸入詞組進(jìn)行推理并評估模型的技巧
博客原址:https://machinelearningmastery.com/develop-neural-machine-translation-system-keras/
更多文章,關(guān)注雷鋒網(wǎng),添加雷鋒字幕組微信號(leiphonefansub)為好友
備注「我要加入」,To be a AI Volunteer !


雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。