next up previous contents
次へ: 対比較評価 上へ: 翻訳実験 戻る: 翻訳実験   目次

自動評価

ベースライン,ルールベース翻訳(ATLAS)のみ,提案手法1(ATLAS+統計翻訳),ルー ルベース翻訳(翻訳の王様)のみ,提案手法2(翻訳の王様+統計翻訳)の自動評価法 による評価結果を表1と表2に示す.


表 1: 単文における評価
  BLEU
METEOR
ベースライン 0.1397
0.3844
ATLASのみ 0.1552
0.4216
提案手法1 0.1877
0.4418
翻訳の王様のみ 0.1206
0.3888
提案手法2 0.1721
0.4227


表 2: 重文複文における評価
  BLEU
METEOR
ベースライン 0.1175
0.3531
ATLASのみ 0.0942
0.3623
提案手法1 0.1364
0.3806
翻訳の王様のみ 0.0842
0.3522
提案手法2 0.1346
0.3737

結果より,ベースラインと提案手法,ルールベース翻訳(ATLAS)のみと提案手法1, ルールベース翻訳(翻訳の王様)のみと提案手法2を比較すると,すべて翻訳精度 が向上していることが確認できる.


next up previous contents
次へ: 対比較評価 上へ: 翻訳実験 戻る: 翻訳実験   目次
平成22年2月11日