楠岡 成雄「Rademacher 複雑度と正則化」§1 初めに

公開: 2024/8/9
最終更新: 2024/8/9

楠岡 成雄「Rademacher 複雑度と正則化」
§1 初めに

は可測空間、 は距離空間とする。 をパラメータの集合と考える。 は可測関数であり、 は連続とする。-値確率変数 に対して とおき、 を最小とする を見つけるという問題を考える。このような問題は機械学習 (教師付学習、強化学習) などにしばしば現れる。しかし、多くの場合、 の確率法則が不明である、あるいはわかっていても の計算が容易でないといった理由により を見つけることは困難であることが多い。

この問題を解決する方法として の確率法則と同じ確率法則を持つ独立な -値確率変数 が与えられていて、 は計算可能として考えることがある。この時、 の「推定値」として良いであろうか?

今、 の例として以下のような線形モデルを考える。 は可測関数、 とし、 が与えられており、 とする。もし であれば となる が無限に存在する。これが、overfitting や過学習と呼ばれる問題である。このような問題は、まず最尤推定量に関する問題として現れた。この問題に対する赤池さんの答え (AIC) は「パラメータの次元は観測数 に対してあまり大きくなってはならない」ということである。しかし近年の「機械学習」においてはパラメータの次元 となることが普通である。そのために正則化という概念が生まれた。

正則化とは、正則化関数 及び を選び を最小にする を選ぶという考えである。

正則化関数の例としては以下のようなものがある。

( 正則化)  
( 正則化)   または

ここで以下のような疑問が生ずる。

  1. 正則化の役割は overfitting を回避するだけか?
  2. どのような正則化関数を用いるべきか?
  3. をどこまで小さくとれるのか?

これらに対する一つの解答を与えるのが本ノートの目的である。

なお、参考文献として 金森 敬文「統計的学習理論」(講談社サイエンティフィク 機械学習プロフェッショナルシリーズ (MLP), 2015) がある。


※ AMFiL Blog の記事を含む、本ウェブサイトで公開されている全てのコンテンツについての著作権は、一般社団法人数理ファイナンス研究所 (AMFiL) 及びブログ記事の寄稿者に帰属します。いかなる目的であれ、無断での複製、転送、改編、修正、追加等の行為を禁止します。