代表的な言語モデルにN-gramがある.N-gramは``単語の列 のi番目の単語の生起確率は直前の単語に依存する'', という仮説に基づくモデルである.計算式を以下に示す.
例えば,「I eat dinner.」という文字の列に対する2-gramモデルは以下のよう
になる.
各スムージングのパラメータを用いたときの,言語モデルの例を表
2.9に示す.なお,表2.9の言語モデルは同一の英文50文
を用いて,2-gramまでの範囲で作成したものである.
パラメータukndiscountを用いた場合の例 |
-3.202558 the boy |
-2.963157 the child |
-2.298372 at all |
パラメータkndiscountを用いた場合の例 |
-3.179705 the boy |
-2.978517 the child |
-2.283957 at all |
パラメータndiscountを用いた場合の例 |
-3.068275 the boy |
-3.068275 the child |
-1.493827 at all |
デフォルトのパラメータ(Good-Tuning-discounting)を用いた場合の例 |
-3.385125 the boy |
-3.385125 the child |
-2.405329 at all |
Faith can movemountains . |
Please move over more to the right . |
His way of thinking goes too far . |
She has learned a good deal of literature . |
A computer employs the two digits of the binary system . |
As you know , the Hong Kong Textile Show falls on April 24 . |