次へ:
デコーダのパラメータ
上へ:
実験環境
戻る:
翻訳モデルの学習
目次
言語モデルの学習
言語モデルは,
-gramモデルを用いる.
-gramモデルの学習には ``SRILM[
16
]''のngram-countを用いる.
-gramモデルの次数は,先行研究により5-gramが有効であることがわかっている. そのため,本研究でも,5-gramの言語モデルを用いる. なお,スムージングに ``Kneser-Ney discount'' を用いる.
平成25年2月12日