Next:
List of Figures
Up:
honron
Previous:
honron
Contents
List of Figures
List of Tables
はじめに
従来の研究
統計翻訳
概要
単語に基づく統計翻訳
GIZA++
IBM翻訳モデル
単語に基づく統計翻訳の問題点
句に基づく統計翻訳
翻訳モデル
フレーズテーブル作成法
言語モデル
デコーダ
ニューラル機械翻訳[9]
ニューラル機械翻訳の概要
Encoder-Decoderモデル
Attentionモデル
相対的意味論[1]
絶対的意味表現
相対的意味表現
2言語を用いた意味表現
2言語を用いた相対的意味表現
相対的意味論に基づく変換主導統計機械翻訳(TDSMT)[10]
TDSMTの手順
学習の手順
翻訳の手順
相対的意味論に基づく 統計機械翻訳(RSMT)
RSMTの概要
RSMTの手順
学習文対の日本語文と入力文の類似度を計算
学習文対の英語文と各候補文の類似度を計算
入力文と候補文に類似した学習文対を抜粋
DB内の学習文対の翻訳確率を計算
入力文から各候補文への翻訳確率を計算
出力文の決定
翻訳確率
翻訳確率とは
各翻訳確率の説明
自己相互情報量(PMI : Pointwise Mutual Information)[11]
Joint Probability(Joint)[12]
Jaccard係数(Jaccard)[13]
Dice係数(Dice)[14]
Simpson係数(Simpson)[15]
Open-NMTの第1候補を用いる実験
実験目的と方法
実験条件
実験データ
翻訳精度の調査の実験条件
実験結果
自動評価の結果
人手評価の結果
人手評価の実例
Open-NMTの第8候補を用いる実験
実験目的と方法
実験条件
実験データ
実験結果
自動評価の結果
人手評価の結果
人手評価の実例
実験のまとめ
第5章のまとめ
第6章のまとめ
総評
考察
Open-NMTの1bestとRSMT(第5章)の性能比較
比較結果
人手評価の実例
Open-NMTの1bestとRSMT(第6章)の性能比較
比較結果
人手評価の実例
単語数の多さが原因である誤りの解決法について
過剰生成を含む候補文の選択について
類似度の計算方法
出力文の決定に用いる計算式
おわりに
参考文献