NMTのツールキットにはOpenNMT [14]を用い,モデルはLuongら[10]により提案されたGlobal Attentionを用いる.
Encoder,DecoderのLSTMは2層とし,ユニット数は500,単語の分散表現のベクトルサイズは500を設定する.
ミニバッチサイズは40とし,モデルの訓練は最大32エポック行う.OptimizerにはSGDを使用し,学習率の初期値は1とする.また,各エポックごとに得られたモデルを用いてディベロップメント文を翻訳し,BLEU値が最高となるモデルを使用する.
s142006
2018-03-06