次へ: モデル2
上へ: 翻訳モデル
戻る: IBMモデル
目次
式(2.2)は以下の式に分解することができる.
は日本語文の長さ,
は日本語語文における,1番目から
番目までのアライメント,
は日本語文における,1番目から
番目まで単語を表している.
|
(2.3) |
式(2.3)はとても複雑であるので計算が困難である.そこで,モデル1 では以下の仮定により,パラメータの簡略化を行う.
- 日本語文の長さの確率
は
,
に依存しない
- アライメントの確率は英語文の長さ
に依存する
- 日本語の翻訳確率
は,日本語単語
に対応する英単語
に依存する
パラメータの簡略化を行うことで,
と
は以下の式で表される.
|
(2.4) |
|
(2.5) |
モデル1では翻訳確率
)の初期値が0以外の場合, Expectation-Maximization(EM)アルゴリズムを繰り返し行うことで得られる期待値を用いて最適解を推定する.EMアルゴリズムの手順を以下に示す.
- 手順1
-
翻訳確率
の初期値を設定する.
- 手順2
-
日英対訳対
(但し,
)において,日本語単語
と英語単語
が対応する回数の期待値を以下の式により計算する.
|
(2.6) |
は日本語文
中で日本語単語
が出現する回数,
は英語文
中で英語単語
が出現する回数を表している.
- 手順3
-
英語文
の中で1回以上出現する英単語
に対して,翻訳確率
を計算する.
- 定数
を以下の式により計算する.
|
(2.7) |
- 式(2.6)より求めた
を用いて,翻訳確率
を再計算する.
|
(2.8) |
- 手順4
-
翻訳確率
が収束するまで手順2と手順3を繰り返す.
次へ: モデル2
上へ: 翻訳モデル
戻る: IBMモデル
目次
平成27年3月13日