今まで「問題構造」という漠然とした用語を使ってきたが,ここでは 統計モデル,つまり統計的な学習の対象となるような構造のことを 指すことにする. 見かけ複雑な構造をした関数も,内在的に十分簡単な (=統計的学習が可能な)構造を持っているというという仮定に立った立場である.
ここで,何を学習するかについていくつかの自由度がある.
一つは MCMC などが対象とする確率分布 そのもののモデル化が
考えられる.
![]() |
(16) |
ただし, そのものは複雑過ぎて単純な分布では近似できないこと
も多い.
そのような場合に,最適化のためには
全体を近似する必要はなく,
が小さな値をとるような
がもれなくサンプリングされれば
よいという考え方も出来る.
全体を近似するのは難しくても,
が小さいところに限定すれば比較的少ないパラメータの分布で
記述可能かもしれない. また,
が小さいところが MCMC
のランダムウォークの障壁になっている場合には,これを忠実に
実現するよりは多少の下駄を履かせて障壁を除くようにしたほうがよいよう
にも思える.
EDA は基本的に後者のように の小さいところに
限定してサンプルを得ようという考え方であり,そのナイーブな
実現法として以下のようなものが考えられる.