next up previous contents
次へ: デコーダのパラメータ 上へ: 実験環境 戻る: 翻訳モデルの学習   目次

言語モデルの学習

言語モデルは, $N$-gramモデルを用いる.$N$-gramモデルの学習には ``SRILM[16]''のngram-countを用いる. $N$-gramモデルの次数は,先行研究により5-gramが有効であることがわかっている. そのため,本研究でも,5-gramの言語モデルを用いる. なお,スムージングに ``Kneser-Ney discount'' を用いる.



平成25年2月12日