next up previous contents
次へ: まとめ 上へ: メモリ量および計算量を削減したBaum-Welchアルゴリズムの提案と言語モデルへの適用 戻る: 実験結果   目次

考察

  1. HMMの初期パラメータ

    Baum-Welchアルゴリズムを用いてパラメータを学習した場合、パラメータはローカルミニマムの方 向に学習されるため、初期パラメータが重要になる。本節では状態数を逐次増加するとき、シンボ ル出力確率に乱数の重みをつけたが、シソーラスなどの辞書を使用して、同一のカテゴリに属する 単語に同一の重みをつけることにより、より良い確率つきネットワーク文法が得られる可能性があ る。

  2. 2nd order HMM

    ここで提案したアルゴリズムを容易に 2nd order HMM に拡張できる。 2nd order HMMにすることにより、より高い性能が得られることが期待される。

  3. 他の分野での応用

    本節では、ここで提案したメモリ量および計算量を削減したBaum-Welchアルゴ リズムを、確率つきネットワーク文法の獲得に利用したが、Ergodic HMMは形 態素解析などの他の多くの分野において応用が考えられる。したがって提案し たアルゴリズムが、これらの分野においても利用できると考えている。



Jin'ichi Murakami 平成13年1月5日