次へ: 評価方法
上へ: 実験環境
戻る: -gram モデルの学習
目次
デコーダは``moses[3]''を用いる.mosesはいくつかのパラメータを設
定することが出来る.パラメータの最適値を決めるパラメータチューニングには,
Minimum Error Rate Training(MERT)を用いることが一般的である.
MERTは目的の評価関数(通常BLEU)を最大にするような翻訳結果が選ばれるように,
パラメータを調整する.この際,developmentデータと呼ばれる,試し翻訳を行
なうデータを与え,各文について上位100個程度の翻訳候補を出力し,その候補
の中で重みを変え,より良い翻訳候補が上位にくるようにパラメータを調節する.
しかし,MERTによって生成されるパラメータは,developmentデータに依存する.
また,チューニングには多くの時間がかかる.そのため,本研究ではパラメータ
のチューニングは行わない.
ただし,翻訳モデルには,日英翻訳確率と英日翻訳確率の共起確率を用いたほう
が良い結果が得られる[7].そこで,翻訳モデルの重み``weight-t''は
クロスエントロピーを用い,``0.5 0 0.5 0 0''とする.
また,翻訳時にフレーズの位置の変化に柔軟に対応するため,``distortion-weight''
は0.2とする.
尚,本研究で使用したパラメータを第10章の付録1に示す.
平成21年3月17日