next up previous contents
次へ: Model2 上へ: IBM翻訳モデル 戻る: IBM翻訳モデル   目次

Model1

2.4式は2.5式のように分解することができる.mは仏語文の長さ, 18#18 は仏語文の単語位置1からj - 1までのアライメントとし, 19#19 は仏語文の位置1からj - 1までを表すとする.


20#20     (2.5)

このままでは複雑すぎるため,計算が困難である.そこで,model1では以下の仮定を置き,簡略化する.

以上の仮定を用い,2.5式は2.6式のように簡略化される.また,model1において,確率の積の総和を総和の積に置き換えることが可能であり,2.8式のように置くことができる.


24#24 3#3 25#25 (2.6)
26#26 3#3 27#27 (2.7)
  3#3 28#28 (2.8)

ラグランジェの未定計数法を用いて,制約 29#29 のもとで 30#30 を最大化する問題を解くと,学習に用いた対訳文において,efが対応付けられる回数の期待値を2.9式のように求めることができる.


31#31     (2.9)

32#32 は仏文f中に仏単語fが出現する回数, 33#33 は英文e中に英単語eが出現する回数を表す.このことより,次のようなEMアルゴリズムによって確率を推定することができる.

  1. 34#34 に適用な初期値を設定する.
  2. 対訳ペアの集合 35#35 において,efが対応付けられる回数の期待値を2.9式によって求める.
  3. e中に1回以上出現したeに対し, 36#36 を2.10式で再推定する.
    37#37     (2.10)

  4. 2と3を 36#36 が収束するまで繰り返す.

EMアルゴリズムで得られる解は最適解となる保証はない.しかし,Model1において,極大値は1つしかなく,初期値に依らず最適解に収束する.


next up previous contents
次へ: Model2 上へ: IBM翻訳モデル 戻る: IBM翻訳モデル   目次
平成24年3月23日