next up previous contents
次へ: まとめ 上へ: メモリ量および計算量を削減したBaum-Welchアルゴリズムの提案と言語モデルへの適用 戻る: 考察   目次

まとめ

本節ではメモリ量および計算量を削減した Baum-Welch アルゴリズムを提案 した。そして確率つきネットワーク文法の獲得に、このアルゴリズムを利用 した。実験の結果、通常のBaum-Welchアルゴリズムを用いて学習するときより パラメータ数が大幅に減少す ること、それに伴いメモリー量や計算量が大幅に減少することが示された。またエントロ ピーの結果から、ここで提案した学習アルゴリズムを用いて学習したパラメータ と通常のBaum-Welchアルゴリズムを用いて学習したパラメータには大き な差がないことが示された。さらに、得られたErgodic HMMを言語モデルとし て連続音声認識に用いた。この実験の結果、状態数が大きい場合、単語 bigramよりも高い性能が得られ、提案したアルゴリズムの有効性が示された。 今後の課題として、特に初期パラメータが挙げられる。Baum-Welchアルゴリズムでパラメータを学習した場合、 パラメータはlocal maxnumの方向に学習される。そのため、初期パラメータによって、学習結果が大きく異な る可能性がある。



Jin'ichi Murakami 平成13年1月5日