次へ:
デコーダのパラメータ
上へ:
実験環境
戻る:
翻訳モデルの学習
目次
言語モデルの学習
言語モデルは,
-gramモデルを用いる.
-gramモデルの学習には `` SRILM[
14
]''のngram-countを用いる.
-gramモデルの次数は,先行研究により5-gramが有効であることがわかっている. そのため,本研究でも,5-gramの言語モデルを用いる. なお,スムージングに `` Kneser-Ney discount'' を用いる.
平成23年3月23日