基本的には上記のとおりであるが,通常, 学習データにおいてマージンの内部領域に 少数の事例が含まれてもよいとする手法の拡張や, 超平面の線形の部分を非線型にする拡張(カーネル関数の導入)がなされたものが 用いられる. この拡張された方法は,以下の識別関数を用いて分類することと等価であり, その識別関数の出力値が正か負かによって 二つの分類を判別することができる.
ただし,
は識別したい事例の文脈(素性の集合)を,
と
は
学習データの文脈と分類先を意味し,関数
は,
であり,また,各
は式(4.4)と式(4.5)の制約のもと
式(4.3)の
を最大にする場合のものである.
また,関数
はカーネル関数と呼ばれ,様々なものが
用いられるが本論文では以下の多項式のものを用いる.
は実験的に設定される定数である. 本論文ではすべての実験を通して , はそれぞれ1と2に固定した. ここで, となる は, サポートベクトルと呼ばれ,通常,式(4.1)の和をとっている部分は この事例のみを用いて計算される. つまり,実際の解析には学習データのうちサポートベクトルと 呼ばれる事例のみしか用いられない.