サポートベクトルマシン法は,
空間を超平面で分割することにより
2つの分類からなるデータを分類する手法である.
このとき,2つの分類が正例と負例からなるものとすると,
学習データにおける正例と負例のマージン(間隔)を大きくとるほど分類器の誤りが減少するという考えから,
このマージンを最大にする超平面を求めそれを用いて分類を行なう.
一般的に上記の方法の他に,「ソフトマージン」と呼ばれる
学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする手法の拡張や,
線形分離が不可能な問題に対応するために,
超平面の線形の部分を非線型にする拡張(カーネル関数の導入)
がなされたものが用いられる.
この拡張された方法は,以下の識別関数を用いて分類することと等価であり,
その識別関数の出力値が正か負かによって
二つの分類を判別することが可能である.
)と式(
)の制約のもと
式(
)の
)の和をとっている部分は
この事例のみを用いて計算される.