next up previous contents
次へ: 結論 上へ: Ergodic HMMを用いた確率付きネットワーク文法の自動獲得 戻る: まとめ   目次

まとめ

この章では、Ergodic HMMと確率つきネットワーク文法が類似した構造を持ち、 同種のパラメータで表現されること、さらにデータを入力するとHMMのパラメー タは2.1.6節で紹介したBaum-Welch アルゴリズムで学習で きることに着目し、Ergodic HMMによる言語のモデル化の検討を行なった。

9.1節では、品詞を入力として、 HMMによる日本語対話文の文節内における形態素の品詞連鎖のモデル化を 行なった。この結果、経験的に得られている生成文法に似た形態の確率つきネッ トワーク文法を自動的に獲得することができた。

9.2節では、 実際の会話から作成した単語列を Ergodic HMMに学習させて、確率つきネットワーク文法を自動的に抽出するこ とを試みた。その結果、Ergodic HMMの構造は学習データの特徴をとらえた文法的な特徴を示しており、 単語を文中での機能によって分類して出力していることがわかった。また、 Ergodic HMMの状態数が増えるほど詳細な表現が可能となり、より精密な単語 の分類を行なっていることがわかった。

9.3節では、メモリ量および計算量を削減した Baum-Welch アルゴリズムを提案し た。そして確率つきネットワーク文法の獲得に、このアルゴリズムを利用した。 さらに、得られたErgodic HMMを言語モデルとして連続音声認識に用いた。これ らの実験の結果、単語bigramよりも高い性能が得られ、提案したアルゴリズムの 有効性が示された。

これらの結果から、Ergodic HMMを考え、大量のテキストデータを用意し、 Baum-Welch アルゴリズムで学習することで、言語のモデル化が可能であることが示された。



Jin'ichi Murakami 平成13年1月5日