次へ: Model2
上へ: 翻訳モデル
戻る: IBM翻訳モデル
目次
(2.3)式は次のように書き換えることが出来る.このとき,
はフランス語文において1単語目からm単語まで,
は英語文において1単語目からl単語目まで,
はフランス語文において1単語目からm単語目までのアライメントを表す.
![$\displaystyle P(f\vert e)=P(m\vert e)\prod_{j=1}^{m}P(a_{j}\vert a_{1}^{j-1},f_{1}^{j-1},m,e)P(f_{j}\vert a_{1}^{j},f_{1}^{j-1},m,e)$](img26.png) |
|
|
(3.4) |
(2.4)式の右辺は,パラメータが多く複雑なため,計算が困難である.そこで,Model1では(2.4)式のパラメータを簡略化する.
- 文の長さの確率
は,mおよびeに独立する
- アライメントの確率は英語文の長さlに依存する
- フランス語の翻訳確率
は,フランス単語
に対応づけられる英単語
に依存する
パラメータを簡略化した場合の
,
は以下になる.
Model1は,
の初期値が0以外の時,EMアルゴリズムを繰り返して得られる唯一の極大値より最適解を推定する.EMアルゴリズムは以下の手順で行われる.
- 翻訳確率
の初期値を設定する
- フランス語と英語の対訳(
,
),1
s
Sにおいて,英単語
とフランス単語
が対応する回数の期待値
を計算する.なお,期待値
は以下の式になる.
![$\displaystyle c(f\vert e;f^{(s)},e^{(s)})=\frac{t(f\vert e)}{t(f\vert e_{0}+…+...
...ert e_{l})}\sum_{j=1}^{m}\delta(f\vert f_{j})\sum_{i=1}^{l}\delta(e\vert e_{i})$](img47.png) |
|
|
(3.8) |
フランス語文
のうちフランス単語
が出現する回数
,英語文
のうち英単語
が出現する回数
である
- 英語文
のうち最低一回出現する英単語
に対し,
- 定数
を以下の式で計算する.
![$\displaystyle \lambda_{e}=\sum_{f}\sum_{s=1}^{S}c(f\vert e;f^{(s)},e^{(s)})$](img52.png) |
|
|
(3.9) |
- 翻訳確率
を以下の式で再計算する.
- 翻訳確率
が収束するまでステップ2と3を繰り返す
次へ: Model2
上へ: 翻訳モデル
戻る: IBM翻訳モデル
目次
平成21年3月19日