代表的な言語モデルにN-gramがある.N-gramは``単語の列 83#83 のi番目の単語84#84 の生起確率85#85 は直前の86#86 単語に依存する'', という仮説に基づくモデルである.計算式を2.21式に示す.
| 87#87 | (2.21) |
例えば,「I eat dinner.」という文字の列に対する2-gramモデルは以下のようになる.
| 88#88 | 6#6 | 89#89 |
| 90#90 | (2.22) |
言語モデルの学習に用いた英文の例を2.5に示し,各スムージングのパラメータを用いたときの,2-gramまでの範囲で作成した言語モデルの例を表2.6に示す.
| パラメータukndiscountを用いた場合の例 |
| -3.202558 the boy |
| -2.963157 the child |
| -2.298372 at all |
| パラメータkndiscountを用いた場合の例 |
| -3.179705 the boy |
| -2.978517 the child |
| -2.283957 at all |
| パラメータndiscountを用いた場合の例 |
| -3.068275 the boy |
| -3.068275 the child |
| -1.493827 at all |
| デフォルトのパラメータ(Good-Tuning-discounting)を用いた場合の例 |
| -3.385125 the boy |
| -3.385125 the child |
| -2.405329 at all |