next up previous index
次へ: 索引 上へ: 情報幾何と機械学習 戻る: おわりに   索引

文献目録

1
赤穂昭太郎, EM アルゴリズムの幾何学, 情報処理, 37(1), pp. 43-51, 1996.

2
S. Akaho, The e-PCA and m-PCA: dimension reduction by information geometry, Proc. of Int. Joint Conf. on Neural Networks (IJCNN), 2004.

3
S. Amari, Differential Geometrical Methods in Statistics, Springer Lecture Notes in Statistics, 28, 1985

4
S. Amari, Differential geometry of a parametric family of invertible linear-systems--Riemannian metric, dual affine connections and divergence, Mathematical Systems Theory, 20, pp.53-82, 1987.

5
甘利俊一 ほか,特集 情報幾何, 数理科学, No.303, 1988.

6
甘利俊一,情報幾何への招待,特集 どこへでも顔を出す 微分幾何,数理科学, No.318, pp.25-29, 1989.

7
甘利俊一,情報幾何学,応用数理, 2(1), pp. 37-56, 1992.

8
甘利俊一,長岡浩司, 情報幾何の方法, 岩波講座 応用数学6 [対象12], 岩波書店, 1993.

9
甘利俊一 ほか,特集 情報空間 その応用の広がり, 数理科学, No.366, 1993.

10
S. Amari, Information Geometry of the EM and em Algorithms for Neural Networks, Neural Networks, 8(9), pp. 1379-1408, 1995.

11
甘利俊一,統計学と情報幾何, 特集 知としての統計学, 数理科学, No.389, pp.69-75, 1995.

12
O. Barndorff-Nielsen, Parametric Statistical Models and Likelihood, Lecture Notes in Statistics, 50, 1988.

13
M. Collins, S. Dasgupta, R.E. Schapire, A Generalization of Principal Component Analysis to the Exponential Family, Advances in Neural Information Processing Systems, 14, 2002.

14
江口真透,統計的パタン識別の情報幾何 -- $U$ブースト学習アルゴリズム, 数理科学 特集「統計科学の最前線」, No.489, pp.53-59, 2004.

15
江口真透,情報幾何と統計的パタン認識, 数学, 55, 岩波書店, 2004.

16
池田思朗,田中利幸,甘利俊一, ターボ復号の情報幾何, 電子情報通信学会論文誌, J85-D-II(5), pp. 758-765, 2002.

17
S. Ikeda, T. Tanaka, S. Amari, Information geometry of turbo and low-density parity-check codes, IEEE Trans. on Information Theory, 50(6), pp.1097-1114, 2004.

18
伊理正夫,韓太舜, ベクトルとテンソル第II部 テンソル解析入門, シリーズ新しい応用の数学 1-II, 教育出版, 1973.

19
S. Ikeda, T. Tanaka, S. Amari, Stochastic reasoning, free energy, and information geometry, Neural Computation, 16(9), pp.1779-1810, 2004.

20
樺島祥介,上田修功, 平均場近似・EM法・変分 ベイズ法, 汪,田栗,手塚,樺島,上田,計算統計 I, 統計科学の フロンティア11, 岩波書店, 2003.

21
G. Lebanon, J. Lafferty, Boosting and maximum likelihood for exponential models, Technical Report CMU-CS-01-144, School of Computer Science, Carnegie Mellon University, 2001.

22
村田昇,推定量を組み合わせる, バギングとブースティング, 麻生,津田,村田, パターン認識と学習の統計学, 統計科学のフロンティア6, 岩波書店, 2003.

23
N. Murata, S. Eguchi, T. Takenouchi, T. Kanamori, Information Geometry of U-Boost and Bregman Divergence, Neural Computation, 16(7), pp.1437-1481, 2004.

24
M. K. Murray, J. W. Rice, Differential Geometry and Statistics, Monographs on Statistics and Applied Probability, 48, Chapman & Hall, 1993.

25
小原敦美,線形状態フィードバックシステムの 幾何学的構造,計測と制御,32(6), 1993.

26
M. Opper, D. Saad (eds.), Advanced Mean Field Methods, Theory and Practice, MIT Press, 2001.

27
K. Takabatake, Information Geometry of Gibbs Sampler, Proc. of WSEAS Int. Conf. on Neural Networks and Applications (NNA), 2004.

28
竹内啓,広津千尋,公文雅之,甘利俊一, 統計学の基礎 II, 統計科学のフロンティア2, 岩波書店, 2004.

29
K. Tsuda, S. Akaho, K. Asai, The em Algorithm for Kernel Matrix Completion with Auxiliary Data, J. of Machine Learning Research, 4, pp.67-81, 2003.

30
渡辺美智子,山口和範(編),EM アルゴリズムと 不完全データの諸問題, 多賀出版, 2000.



Shotaro Akaho 平成19年6月13日