次へ: 素性
上へ: Support Vector Machineへの適用
戻る: Support Vector Machineへの適用
目次
サポートベクトルマシン法は,
空間を超平面で分割することにより
2つの分類からなるデータを分類する手法である.
このとき,2つの分類が正例と負例からなるものとすると,
学習データにおける正例と負例のマージン(間隔)を大きくとるほど分類器の誤りが減少するという考えから,
このマージンを最大にする超平面を求めそれを用いて分類を行う.
一般的に上記の方法の他に,「ソフトマージン」と呼ばれる
学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする手法の拡張や,
線形分離が不可能な問題に対応するために,
超平面の線形の部分を非線型にする拡張(カーネル関数の導入)
がなされたものが用いられる.
この拡張された方法は,以下の識別関数を用いて分類することと等価であり,
その識別関数の出力値が正か負かによって
二つの分類を判別することが可能である.
ただし, は識別したい事例の文脈(素性の集合)を,
と
は
学習データの文脈と分類先を意味し,関数 は,
であり,また,各は式()と式()の制約のもと
式()のを最大にする場合のものである.
|
|
|
(2.4) |
|
|
|
(2.5) |
また,関数 はカーネル関数と呼ばれ,様々なものが
用いられるが本稿では以下の多項式のものを用いる.
|
|
|
(2.6) |
は実験的に設定される定数である.
本論文ではすべての実験を通してを 1 に を 2 に固定した.
ここで, となる は,
サポートベクトルと呼ばれ,通常,式()の和をとっている部分は
この事例のみを用いて計算される.
つまり,実際の解析には学習データのうちサポートベクトルと
呼ばれる事例のみしか用いられない.
次へ: 素性
上へ: Support Vector Machineへの適用
戻る: Support Vector Machineへの適用
目次
eki takashi
平成24年3月13日