次へ: ソフトマージン
上へ: 正則化とソフトマージン
戻る: 正則化とソフトマージン
ここで学習における正則化という考え方を簡単に説明しておこう.
関数 の学習というのは,本来未知のデータに対する汎化誤差を小さく
するような を選ぶのが目的である.
しかしそれはできないので,実際にはサンプル集合 に対する関数 の損失
(サンプル損失) ができるだけ小さくなるような を選ぶ.
ところが, の関数クラスが大きすぎるときには,
だけを小さくしたのではサンプルにオーバー
フィットしたものが得られてしまう(不良設定性). そこで,関数に対する
(ある条件を満たす)罰金項 を導入し,
という最適化問題を解いてオーバーフィットを避けるのが正則化という
手法である. は正則化パラメータと呼ばれ,
サンプル数の増加とともに適切に小さくしていけば,
汎化誤差を最小にするような に収束することが示される.
ちなみに,正則化は,損失関数を負の対数尤度,
罰金項を対数事前分布と見ればベイズ推定における MAP 推定とみなすこともできる.
Shotaro Akaho
平成15年7月18日