次へ: 集団学習
上へ: 機械学習の情報幾何
戻る: 線形システム
索引
隠れ変数モデル
統計的推定において,確率変数のうち一部の成分だけが観測され,
残りは観測できない状況を考えよう[1,10,30].
この場合は,データは十分統計量のうち一部だけしか与えられないので,
座標の1点として表すことはできない.
簡単のため,十分統計量が
と分けられる
と仮定し,データが
だけを規定するとしよう12.
各データは
で規定され
は任意の
値を取りうる部分空間として表される.
これは,が指数分布族なら-平坦な部分空間である.
データが1点では表せないので,データの部分空間に
最も近いモデルの部分空間の点を見つけるということを考えよう.
適当な初期値から初めて,次の二つのステップを繰り返す
アルゴリズムが考えられる(図7).
- からに-射影を取りとする.
- からに-射影を取りとする.
このアルゴリズムは-射影と-射影の頭を取って-アルゴリズムと
名づけられている.
ここで都合がいいことに,からへは-射影で,反対向きのから
へは-射影を取っている.
双対接続でのダイバージェンスは
という関係にあるので,いずれの射影もとの関係で見れば同じ
評価基準を最小化しているものであることがわかる.
もしが-平坦で,が-平坦なら,各ステップでの射影は一意的となり,
幾何的に単純となる.
また,一般にアルゴリズムは,二つの部分空間の間のダイバージェンスの
極小値に収束することがわかっている.
一方,それより以前から知られているアルゴリズムに EM アルゴリズムが
ある13.
EM アルゴリズムでは E ステップで対数尤度の条件付き期待値を計算するが,
それは-アルゴリズムの第1ステップを
- からへの写像として,
を取る
14.
におきかえることに相当する.
多くの場合どちらのアルゴリズムも一致するが複雑な問題設定では異なる場合も
ある
15.
図 7:
アルゴリズム (が-平坦,が-平坦なら
各射影は一意的)
|
Shotaro Akaho
平成19年6月13日