Next:
人手対比較評価結果
Up:
翻訳実験
Previous:
翻訳実験
目次
自動評価結果
各手法の出力文10,000文に関して自動評価を行った.評価結果を表
7.1
に示す.
表:
ベースライン,+人手対訳句,+自動対訳句の自動評価結果(10,000文)
手法
BLEU
METEOR
RIBES
WER
ベースライン
0.1534
0.4147
0.7312
0.7107
+人手対訳句
0.1701
0.4430
0.7411
0.6873
+自動対訳句
0.1585
0.4194
0.7332
0.7017
表
7.1
より,自動評価の結果では,+人手対訳句,+自動対訳句,ベースラインの順に翻訳精度が高くなっていることが確認できる.