次へ: 離散HMMのパラメータ推定
上へ: HMMを用いた音声認識
戻る: HMMの例
目次
一般に
の値は,以下のtrellisアルゴリズムで求められる.
符号ベクトル
を出力して状態
にある確率を
とする.
![\begin{displaymath}
\alpha (i,t) =
\left\{
\begin{array}{ll}
\log \pi_{i} & (t ...
...a_{ji} b_{ji}(y_t) & (t = 1, 2, \cdots ,T )
\end{array}\right.
\end{displaymath}](img79.png) |
(24) |
これを計算して,最後に
![\begin{displaymath}
P(y \vert M) = \sum_{i, s_i \in F} \alpha (i,T)
\end{displaymath}](img80.png) |
(25) |
を求めれば良い.
を厳密に求めないで,モデルMが符号ベクトル系列
を出力するときの最も可能性の高い状態系列上での出現確率を用いるViterbiアルゴリズムと呼ばれる方法もある.尤度は,各遷移での確率値を対数変換しておくことで高速に求めることができる.
このアルゴリズムを以下に示す.
において
![\begin{displaymath}
f'(i,t) =
\left\{
\begin{array}{ll}
\log \pi_{i} & (t = 0) ...
...b_{ji} ( y_{t}) \} & (t = 1, 2, \cdots ,T )
\end{array}\right.
\end{displaymath}](img83.png) |
(26) |
を計算し,対数尤度
![\begin{displaymath}
L = \max_{i, s_i \in F} f' (i,t)
\end{displaymath}](img84.png) |
(27) |
を求める.
このViterbiアルゴリズムによる利点はtrellis法に比べて以下のようなものである.
- 計算値のダイナミックレンジが小さく,アンダーフロー問題を解消できる.
- 計算量が少ない.
- 音声認識性能がほとんど変わらない.
- DPによる効率のよい連続単語音声認識アルゴリズムに用意に適用できる.
このためViterbiアルゴリズムは広く用いられている.
平成16年4月17日