外部句辞書を用いて入力に対応する出力フレーズを決定するphraseNetを提案している. 中国語英語間の翻訳結果では,語彙数を頻度上位16K単語のみに制限する一般的なNMTモデルと比較して,語彙数を制限したモデルに,phraseNetを用いて出力文中の未知語句を置き換える提案手法では,BLEU値が平均3.45ポイント上昇したと報告している.
文を構成する系列をsegment化する仕組み「SWAN」を提案する.SWANにより,文をフレーズ単位にsegment化することが可能となる.
目的言語側のネットワークにおいてSWANを用いた明確な句レベルに基づくNMT「Neural Phrase-based Machine Translation(NPMT)」を実装している. NPMTではSWANの入力文をreorderingするsoft layerを用い,decoderではattentionを用いることなく,SWANによる対訳句を直接出力する. 英語ドイツ語間の翻訳結果では,AttentionモデルのNMTと比較してBLEU値がgreedy手法で2.46,Beam Search手法で2.49上昇し,英語ベトナム語間の翻訳では同様の比較でBLEU値がgreedy手法で1.41,Beam Search手法で1.59上昇したと報告している.
先行研究のNPMTにおいて,目的言語側のみが明確な句ベースであったが,NP36#36MTでは原言語側においても明確な句に基づく方法を用いている.
NP36#36MTにおいて,低頻度語を1つの記号(UNK)に置換する手法を用いた学習を行うことで,出力文中に入力文中の句を未知語としてそのまま生成することが可能である.出力された入力文中の未知語に対し,句辞書を用いて未知語を翻訳する方法により精度を向上させている. NP36#36MTにおける句辞書については,Moses [11] を用いて対訳学習文のみから作成したin-domain dictionary(ドイツ語英語:97,399対,英語ベトナム語:84817対),および外部ドメインのコーパスから作成した辞書(out-of-domain dictionary,ドイツ語英語:1,243,722対)を利用している. また,同研究では,UNKとする低頻度語を下位3〜100頻度で設定する実験を行い,低頻度語として妥当な順位についても考察している.
ドイツ語英語間および英語ベトナム語間において,Transformerモデル[12]のNMTをベースラインとした翻訳実験の結果として,in-domain dictionaryを利用した条件の比較では,ベースラインと同程度の性能となった.また,ドイツ語英語間におけるout-of-domain dictionaryを利用した実験においても,ベースラインと比較した時のBLEU値の向上は小幅となっている.
Bahdanauら[1],Luongら[14]などのAttention手法と比較して,高い性能を有すると報告されるTransformerモデル[12]を1-gramおよび2-gramベースに実装する手法を提案している.本章において記述している他の手法と異なり,アライメントベースの対訳句辞書は利用していない. Transformerモデルをベースラインとした比較実験の結果では,BLEU値が最大で約0.5向上したと示している.