next up previous contents
次へ: Ergodic HMMの解析結果 上へ: 対話データ 戻る: 対話データ   目次

モデル化実験

2つの文節集合(SET1SET2)の文節内の形態素連鎖の品詞を状態 数の異なる(2状態, 5状態, 8状態, 10状態)Ergodic HMMでモデル化した。

SET1SET2の各文節データは、 形態素連鎖の品詞列のみをモデル化のデータとした。 (文節の開始記号及び終了記号は付加していない。) また、任意の状態で遷移が開始・終了できるようなモデルとした。 (HMMに開始状態及び終了状態を指定していない。)

HMMによるモデルの抽出には、Baum-Welchアルゴリズムを用いた。Baum-Welch アルゴリズムを用いた場合、再推定の回数の判定が問題となる。再推定回数の 基準として、尤度 $P(\mbox{
\settowidth{\kblen}{ $O$} \addtolength{\kblen}{-.2pt}$O$\hspace{-\kbl...
...hspace{-\kblen}
$\lambda$\hspace{-\kblen}
$\lambda$\hspace{-\kblen}
$\lambda$})$がある一定値に収束するまで再推定を繰り返す方法をとった。

ErgodicモデルHMMは、自由度が大きいためにモデル化によって得られたパラ メータが初期状態によって大きく左右される。この初期状態の揺らぎによる パラメータの変化を考慮して初期状態の異なるHMMで実験を複数回行なった。

  1. データの規模とモデル化の関係

    データの規模とモデル化の関係を調べるため、文節集合の大きさ(データの先 頭から100, 1000, 10000)を変えながら状態数の異なる(2状態, 5状態, 8状態, 10状態) HMMでのモデル化実験を行なった。

    実験はSET1のデータをモデル化の対象とした。テストデータは、学習デー タに対してクローズなセットになっている。

    尤度の変化が$10^{-5}$に収束するのを再推定の打ち切り条件として10回ずつ モデル化を繰りかえし、各実験ごとにエントロピーを算出、平均した。

    9.2に各データサイズにおけるモデルのエントロピーを 示す。この結果エントロピーは、状態数の増加によって単調に減少するので はなく、ある状態数(100文節、1000文節では8状態、10000文節では10状態)で 最小になることがわかる。また全般的に文節データ数の増加に従ってデータ のバリエーションが増加するためモデルのエントロピーが上昇するが、品詞 パターンの生成確率などを個別に分析するとデータ数の増加によって尤度が 改善される結果が示された。


    表 9.2: データの規模とエントロピーの関係
    SET1
    状態数 2 5 8 10
    100文節   3.06   2.33   2.05   2.08  
    1000文節   3.17   2.39   2.05   2.30  
    10000文節   3.29   2.50   2.47   2.38  

  2. タスクの変化とエントロピーの関係

    次にタスクの変化とモデル化の関係を調べるため、2つのタスク(SET1SET2)をそれぞれ状態数の異なる(2状態, 5状態, 8状態, 10状態) HMM でモデル化した。 実験はSET1SET2の全てのデータをモデル化の対象とした。 実験は、HMMの各状態数について、尤度の変化が$10^{-5}$に収束するのを再 推定の打ち切り条件として初期状態を変えて10回ずつモデル化を繰り返した。


    表 9.3: タスクの変化とモデル化の関係
    (a) SET1
    状態数 2 5 8 10
    entropy 3.27 2.43 2.23 2.38
    (b) SET2
    状態数 2 5 8 10
    entropy 3.18 2.41 2.27 2.14

    このようにして算出した結果の平均値を9.3に示す。エン トロピーは、状態数の増加によって単調に減少せず、タスクの雑さや種類に応じてある状態数で最小となっていることがわかる。


next up previous contents
次へ: Ergodic HMMの解析結果 上へ: 対話データ 戻る: 対話データ   目次
Jin'ichi Murakami 平成13年1月5日