next up previous contents
次へ: 翻訳実験 上へ: 実験環境 戻る: ルールベース翻訳   目次

評価方法

機械翻訳における翻訳精度を自動的に評価する方法では,前もって用意した正解 文と翻訳出力文を比較する方法が一般的である. 本研究では,自動評価法としてBLEU(BilinguaL Evaluation Understudy)[12]とMETEOR(Metric for Evaluation of Translation with Explicit ORdering)[13]を使用する.BLEUでは4-gramを用いて単語列 を評価し,語順が正解文に近いときに高いスコアを出す. METEORでは意味などの単語属性が正しいときに高いスコアを出す. どちらのスコアも0から1の範囲で評価され,1が最も良いスコアである.また人 手評価として,対比較評価を行なう.



平成22年2月11日