サポートベクトルマシン法は,
空間を超平面で分割することにより
2つの分類からなるデータを分類する手法である.
このとき,2つの分類が正例と負例からなるものとすると,
学習データにおける正例と負例の間隔(マージン)が
大きいもの(図3.2参照3.2)ほど
オープンデータで誤った分類をする可能性が低いと考えられ,
このマージンを最大にする超平面を求め
それを用いて分類を行なう.
基本的には上記のとおりであるが,通常,
学習データにおいてマージンの内部領域に
少数の事例が含まれてもよいとする手法の拡張や,
超平面の線形の部分を非線型にする拡張(カーネル関数の導入)がなされたものが
用いられる.
この拡張された方法は,以下の識別関数を用いて分類することと等価であり,
その識別関数の出力値が正か負かによって
二つの分類を判別することができる[14][10].
サポートベクトルマシン法は 分類の数が2個のデータを扱うもので,通常これに ペアワイズ手法を組み合わせて用いることで, 分類の数が3個以上のデータを扱うことになる[15].
ペアワイズ手法とは,N個の分類を持つデータの場合, 異なる二つの分類先のあらゆるペア(N(N-1)/2 個)を作り, 各ペアごとにどちらがよいかを2値分類器(ここでは サポートベクトルマシン法3.3)で求め, 最終的にN(N-1)/2個の2値分類器の分類先の多数決により, 分類先を求める方法である.
本稿のサポートベクトルマシン法は, 上記のようにサポートベクトルマシン法とペアワイズ手法を 組み合わせることによって実現される. ただし, 本論文での実験では2値分類しか行っていないため, ペアワイズ手法は利用していない.