next up previous contents
次へ: Model2 上へ: 翻訳モデル 戻る: IBM翻訳モデル   目次

Model1

(2.3)式は次のように書き換えることができる.このとき,$f=f_{1}^{m}$はフランス語文において1単語目から\(m\)単語まで,$e=e_{1}^{l}$は英語文において1単語目から\(l\)単語目まで,$a=a_{1}^{m}$はフランス語文において1単語目から\(m\)単語目までのアライメントを表す.


$\displaystyle P(f\vert e)=P(m\vert e)\prod_{j=1}^{m}P(a_{j}\vert a_{1}^{j-1},f_{1}^{j-1},m,e)P(f_{j}\vert a_{1}^{j},f_{1}^{j-1},m,e)$     (2.4)

(2.4)式の右辺は,パラメータが多く複雑なため,計算が困難である.そこで,Model1では(2.4)式のパラメータを簡略化する.

パラメータを簡略化した場合の$P(f,a\vert e)$,$P(f\vert e)$は以下になる.

$\displaystyle P(f,a\vert e)$ $\textstyle =$ $\displaystyle \frac{\epsilon}{(l+1^{m})}\prod_{j=1}^{m}t(f_{j}\vert e_{a_{j}})$ (2.5)
$\displaystyle P(f\vert e)$ $\textstyle =$ $\displaystyle \frac{\epsilon}{(l+1^{m})} \sum_{a_{1}=0}^{l}…\sum_{a_{m}=0}^{l}\prod_{j=1}^{m}t(f_{j}\vert e_{a_{j}})$ (2.6)
  $\textstyle =$ $\displaystyle \frac{\epsilon}{(l+1^{m})}\prod_{j=1}^{m}\sum_{i=0}^{l}t(f_{j}\vert e_{a_{j}})$ (2.7)

Model1は,$t(f\vert e)$の初期値が0以外の時,EMアルゴリズムを繰り返して得られる唯一の極大値より最適解を推定する.EMアルゴリズムは以下の手順で行われる.

  1. 翻訳確率$t(f\vert e)$の初期値を設定する.
  2. フランス語と英語の対訳($f^{(s)}$$e^{(s)}$),1$\leq$s$\leq$Sにおいて,英単語$e$とフランス単語$f$が対応する回数の期待値 $c(f\vert e;f^{(s)},e^{(s)})$を計算する.なお,期待値 $c(f\vert e;f^{(s)},e^{(s)})$は以下の式になる.
    $\displaystyle c(f\vert e;f^{(s)},e^{(s)})=\frac{t(f\vert e)}{t(f\vert e_{0})+…...
...ert e_{l})}\sum_{j=1}^{m}\delta(f\vert f_{j})\sum_{i=1}^{l}\delta(e\vert e_{i})$     (2.8)

    フランス語文$f$のうちフランス単語$f_{j}$が出現する回数 $\sum_{j=1}^{m}\delta(f\vert f_{j})$,英語文$e$のうち英単語$e_{i}$が出現する回数 $\sum_{i=1}^{l}\delta(e\vert e_{i})$である
  3. 英語文$e$のうち最低一回出現する英単語$e^{(s)}$に対し,
  4. 翻訳確率$t(f\vert e)$が収束するまでステップ2と3を繰り返す.


next up previous contents
次へ: Model2 上へ: 翻訳モデル 戻る: IBM翻訳モデル   目次
平成28年3月16日