代表的な言語モデルにN-gramがある.N-gramは``単語の列 83#83 のi番目の単語84#84 の生起確率85#85 は直前の86#86 単語に依存する'', という仮説に基づくモデルである.計算式を2.21式に示す.
87#87 | (2.21) |
例えば,「I eat dinner.」という文字の列に対する2-gramモデルは以下のようになる.
88#88 | 6#6 | 89#89 |
90#90 | (2.22) |
言語モデルの学習に用いた英文の例を2.5に示し,各スムージングのパラメータを用いたときの,2-gramまでの範囲で作成した言語モデルの例を表2.6に示す.
パラメータukndiscountを用いた場合の例 |
-3.202558 the boy |
-2.963157 the child |
-2.298372 at all |
パラメータkndiscountを用いた場合の例 |
-3.179705 the boy |
-2.978517 the child |
-2.283957 at all |
パラメータndiscountを用いた場合の例 |
-3.068275 the boy |
-3.068275 the child |
-1.493827 at all |
デフォルトのパラメータ(Good-Tuning-discounting)を用いた場合の例 |
-3.385125 the boy |
-3.385125 the child |
-2.405329 at all |