次へ: 翻訳実験
上へ: 実験環境
戻る: ルールベース翻訳
目次
機械翻訳における翻訳精度を自動的に評価する方法では,前もって用意した正解
文と翻訳出力文を比較する方法が一般的である.
本研究では,自動評価法としてBLEU(BilinguaL Evaluation
Understudy)[12]とMETEOR(Metric for Evaluation of Translation with
Explicit ORdering)[13]を使用する.BLEUでは4-gramを用いて単語列
を評価し,語順が正解文に近いときに高いスコアを出す.
METEORでは意味などの単語属性が正しいときに高いスコアを出す.
どちらのスコアも0から1の範囲で評価され,1が最も良いスコアである.また人
手評価として,対比較評価を行なう.
平成22年2月11日