next up previous contents
次へ: Model2 上へ: IBM翻訳モデル 戻る: IBM翻訳モデル   目次

Model1

(2.3)式は次のように置き換えられる.


$\displaystyle P(J,a\vert E)=P(m\vert E)\prod_{k=1}^{m}P(a_{k}\vert a_{1}^{k-1},j_{1}^{k-1},m,E)P(j_{k}\vert a_{1}^{k},j_{1}^{k-1},m,E)$     (2.4)

$m$は日本語の文長であり,$a_{1}^{k-1}$は日本語文の1単語目から$k-1$単語目までのアライメントである.また,$j_{1}^{k-1}$は日本語文の1番目から$k-1$番目までの単語を示す. (2.4)式の右辺は,パラメータが多く複雑なため,計算が困難である.そこで,Model1では(2.4)式のパラメータを簡略化する.

これらの定理を用いて,パラメータを簡略化した場合の$P(J,a\vert E)$,$P(J\vert E)$は以下になる.

$\displaystyle P(J,a\vert E)$ $\textstyle =$ $\displaystyle \frac{\epsilon}{(l+1^{m})}\prod_{k=1}^{m}t(j_{k}\vert e_{a_{k}})$ (2.5)
$\displaystyle P(J\vert E)$ $\textstyle =$ $\displaystyle \frac{\epsilon}{(l+1^{m})} \sum_{a_{1}=0}^{l}…\sum_{a_{m}=0}^{l}\prod_{k=1}^{m}t(j_{k}\vert e_{a_{k}})$ (2.6)
  $\textstyle =$ $\displaystyle \frac{\epsilon}{(l+1^{m})}\prod_{k=1}^{m}\sum_{i=0}^{l}t(j_{k}\vert e_{i})$ (2.7)

Model1は,翻訳確率$t(j\vert e)$の初期値が0以外の時,EMアルゴリズムを繰り返して得られる唯一の極大値より最適解を推定する.EMアルゴリズムは以下の手順で行われる.

手順1
翻訳確率$t(j\vert e)$の初期値を設定する
手順2
日本語と英語の対訳文($J^{(s)}$$E^{(s)}$),1$\leq$s$\leq$Sにおいて,日本語単語$j$と英単語$e$が対応する回数の期待値を計算する.ここで $\delta(j\vert j_{k})$は日本語文$J$において日本語単語$j$が出現する回数を表し, $\delta(e\vert e_{i})$は英語文$E$において英単語$e$が出現する回数を表す.


$\displaystyle c(j\vert e;J,E)=\frac{t(j\vert e)}{t(j\vert e_{0}+…+t(j\vert e_{l})}\sum_{k=1}^{m}\delta(j\vert j_{k})\sum_{i=1}^{l}\delta(e\vert e_{i})$     (2.8)

手順3
英語文$E^{(s)}$のうち1回以上出現する英単語$e$に対し,翻訳確率$t(j\vert e)$を計算する.ここで$S$は日英対訳文の文数を表す.

手順4
翻訳確率$t(j\vert e)$が収束するまで手順2と3を繰り返す


next up previous contents
次へ: Model2 上へ: IBM翻訳モデル 戻る: IBM翻訳モデル   目次
s102025 平成27年3月9日