next up previous contents
Next: Model3 Up: IBM翻訳モデル Previous: Model1   目次

Model2

Model1において,アライメントの確率は英語文の長さ$ l$ にのみ依存する. そこでModel2では,英語文の長さ$ l$ に加え,$ j$ 単語目のアライメント$ a_{j}$ , 日本語文の長さ$ m$ に依存するとし,以下の式で表す.
$\displaystyle a(a_{j}\vert j,m,l) \equiv P(a_{j}\vert a_{1}^{j-1},j_{1}^{j-1},m,l)$     (2.10)

よって,Model1の式(6)は以下のように置き換えられる.
$\displaystyle P(J\vert E)$ $\displaystyle =$ $\displaystyle \epsilon \sum_{a_{1}=0}^{l} \cdots \sum_{a_{m}=0}^{l}
\prod_{j=1}^{m}t(j_{j}\vert e_{a_{j}})a(a_{j}\vert j,m,l)$ (2.11)
  $\displaystyle =$ $\displaystyle \epsilon \prod_{j=1}^{m} \sum_{i=0}^{l}t(j_{j}\vert e_{i})a(i\vert j,m,l)$ (2.12)

Model2において,対訳文中の英単語$ e$ と日単語$ j$ が対応付けされる回数の期待値である $ c(j\vert e;J^{(s)},E^{(s)})$ と,日単語の位置$ j$ と英単語の位置$ i$ が対応付けられる回数の期待値 $ c(i\vert j,m,l;J^{(s)},E^{(s)})$ が存在する.以下に,期待値 $ c(j\vert e;J^{(s)},E^{(s)})$ $ c(i\vert j,m,l;J^{(s)},E^{(s)})$ を求める式を示す.

$\displaystyle c(j\vert e;J^{(s)},E^{(s)})$ $\displaystyle =$ $\displaystyle \sum_{j=1}^{m} \sum_{i=0}^{l}
\frac{t(j\vert e)a(i\vert j,m,l)\d...
...)}{t(j\vert e_{0})a(0\vert j,m,l)
+ \cdots + t(j\vert e_{l})a(l\vert j,m,l)}$ (2.13)
$\displaystyle c(i\vert j,m,l;J^{(s)},E^{(s)})$ $\displaystyle =$ $\displaystyle \frac{t(j_{j}\vert e_{i})a(i\vert j,m,l)}{t(j_{j}\vert e_{0})a(0\vert j,m,l) + \cdots +
t(j_{j}\vert e_{l})a(l\vert j,m,l)}$ (2.14)

Model2においても,最適解を推定するためにEMアルゴリズムを用いる.しかし,計算によって複数の極大値が算出され,最適解が 得られない場合が存在する.Model2の特殊な場合に, $ a(i\vert j,m,l)= (l+1)^{-1}$ が挙げられるが,これはModel1として考えることができる.また,最適解が保証されているModel1で求められた値を初期値として用いることで,最適解を求めることができる.



2019-03-08