next up previous
次へ: この文書について... 上へ: [オーガナイズド講演] 確率モデルと集団最適化入門 Introduction to 戻る: 文献目録


索引

Active learning
能動学習
bandit problem
bandit problem と強化学習
Bayesian network (BN)
平均場近似
Dynamic programming (DP)
bandit problem と強化学習
EM アルゴリズム
変数変換と潜在変数
EDA
確率構造探索と最適化
Exploitation
Exploration-Exploitation
Exploration
Exploration-Exploitation
Genetic Algorithm (GA)
遺伝的アルゴリズム
genetic drift
遺伝的アルゴリズム
Gibbs sampler
[メトロポリス・ヘイスティングス法]
importance sampling
重点サンプリング法
independence sampler
[メトロポリス・ヘイスティングス法]
Independent component analysis (ICA)
変数変換と潜在変数
jump diffusion
複雑な空間での最適化
loopy-graph
平均場近似
Markov Chain Monte Carlo (MCMC)
MCMC法
Markov decision process (MDP)
bandit problem と強化学習
Markov random field (MRF)
平均場近似
Maximum a posterior estimation (MAP)
ランダム探索
Mean field approximation (MFA)
平均場近似
Metropolis method
[メトロポリス・ヘイスティングス法]
Metropolis-Hastings
MCMC法
optimal experimental design
能動学習
parallel tempering
パラレルテンパリング法
particle filter
重点サンプリング法
population search
確率的最適化の基本的な枠組み
Principal component analysis (PCA)
変数変換と潜在変数
proposal distribution
[メトロポリス・ヘイスティングス法]
Q-learning
bandit problem と強化学習
Reinforcement learning (RL)
bandit problem と強化学習
resampling
リサンプリング
sequential Monte Carlo
重点サンプリング法
Simulated Annealing(SA)
シミュレーテッドアニーリング
singly-connected graph
平均場近似
stochastic optimization
確率的最適化の基本的な枠組み
TD-learning
bandit problem と強化学習
Viterbi アルゴリズム
平均場近似
遺伝的アルゴリズム
遺伝的アルゴリズム
遺伝的浮動
遺伝的アルゴリズム
確率的最適化
確率的最適化の基本的な枠組み
確率伝播法
平均場近似
強化学習
bandit problem と強化学習
ギブスサンプラー
[メトロポリス・ヘイスティングス法]
最大事後分布推定
ランダム探索
最適実験計画
能動学習
指数分布族 PCA
変数変換と潜在変数
シミュレーテッドアニーリング
シミュレーテッドアニーリング
集団探索
確率的最適化の基本的な枠組み
主成分分析
変数変換と潜在変数
ジャンプ拡散
複雑な空間での最適化
重点サンプリング
重点サンプリング法
単連結なグラフ
平均場近似
逐次モンテカルロ法
重点サンプリング法
提案分布
[メトロポリス・ヘイスティングス法]
動的計画法
bandit problem と強化学習
独立サンプラー
[メトロポリス・ヘイスティングス法]
独立成分分析
変数変換と潜在変数
ナイーブ平均場近似
平均場近似
能動学習
能動学習
パラレルテンパリング
パラレルテンパリング法
平均場近似
平均場近似
ベーテ (Bethe) 近似
平均場近似
ベイジアンネットワーク
平均場近似
マルコフ決定過程
bandit problem と強化学習
マルコフランダム場
平均場近似
マルコフ連鎖モンテカルロ
MCMC法
メトロポリス・ヘイスティングス法
MCMC法
メトロポリス法
[メトロポリス・ヘイスティングス法]
ランダム探索
ランダム探索
リサンプリング
リサンプリング
ループのあるグラフ
平均場近似
パーティクルフィルタ
重点サンプリング法



Shotaro Akaho 平成19年6月13日