next up previous
次へ: おわりに 上へ: main 戻る: 繰り返し


Baum-Welchアルゴリズムの他の応用

言語モデルにおいてネットワーク文法が用いられている.このネットワーク文 法に確率を付けた確率付きネットワーク文法と,確率付き有限状態オートマト ンは同じパラメータを持つ.そしてHMMは確率付き有限状態オートマトンと同じ パラメータを持つ.また,確率付きネットワーク文法は,次の状態に遷移して も前の状態に戻ることが必要であるため,Ergodic HMMに相当する [7].

つまり,言語モデルにおいて利用される確率付きネットワーク文法はErgodic HMMと同じパラメータを持つ.したがって,入力に単語系列を想定して, Ergodic HMMに対してBaum-Welchアルゴリズムを使うことで,自動的に確率付き ネットワーク文法を獲得することが可能である.図13に, この例を示す.

このとき,状態遷移は品詞と見なすことができる.つまり単語の自動的に言語 のクラスタリングが可能である.また,同じ状態遷移における単語の出現確率 から,単語の距離を計算することもできる.この場合,シンボルが単語の種類 の数になるため,大量のパラメータになる.そのため,大量の記憶量や計算量 が必要になる.しかし,小さいシンボル出力確率や状態遷移確率を0と見なして Baum-Welchアルゴリズムを実行することが可能である.このテクニックを利用 することで,記憶量や計算量を大幅に削減できる[8].ほかにも DNAにおけるタンパク質導出過程などの計算[9]にも利用されている.

Baum-Welchアルゴリズムは,応用範囲の広いアルゴリズムである.しかし,山 登り法の1種であり,繰り返し計算によって解を求めるため.得られた解が最 大値である保証はできない.そのため初期値が重要になる.特にErgodic HMMでは 初期値によって得られるパラメータが大きく異なることに注意してもらいたい.

図: ネットワーク文法の自動獲得の例
\includegraphics[scale=0.36]{figure/5-state-grammar.epsf}



Jin'ichi Murakami 平成22年9月2日