次へ: 本章のまとめ
上へ: 実験
戻る: 学習結果の評価
表 6.2:
EM アルゴリズムの初期解での正解率(単位は%.
2 クラス, DataSet(1) の学習.
括弧内は属性分類の正解率)
|
Closed test |
Open test |
色 |
74.2 (78.4) |
73.3 (77.5) |
形 |
21.5 (26.2) |
19.8 (24.9) |
全属性 |
5.1 |
3.6 |
表 6.3:
EM アルゴリズムの初期解での正解率(単位は%.
3 クラス, DataSet(1) の学習. 括弧内は属性分類の正解率)
|
Closed test |
Open test |
色 |
31.1 (32.2) |
27.8 (29.2) |
形 |
8.8 (24.8) |
9.4 (25.2) |
大きさ |
55.7 (58.3) |
54.0 (57.7) |
全属性 |
0.1 |
0.0 |
表 6.4:
EM アルゴリズム 30 ステップ後の正解率(単位は%.
2 クラス, DataSet(1) の学習. 括弧内は属性分類の正解率)
|
Closed test |
Open test |
色 |
98.1 (99.3) |
98.1 (99.5) |
形 |
76.3 (90.5) |
74.2 (89.5) |
全属性 |
74.5 |
72.6 |
表 6.5:
EM アルゴリズム 30 ステップ後の正解率(単位は%.
3 クラス, DataSet(1) の学習. 括弧内は属性分類の正解率)
|
Closed test |
Open test |
色 |
78.1 (79.5) |
76.8 (78.3) |
形 |
65.1 (92.4) |
62.5 (91.8) |
大きさ |
84.3 (85.3) |
84.7 (85.6) |
全属性 |
47.9 |
45.2 |
表 6.6:
間引いたデータに対する学習の全属性の正解率(単位は%.
2 クラス. EM アルゴリズム 30 ステップ後)
|
Closed test |
Open test |
DataSet(1) |
74.5 |
72.6 |
DataSet(0.8) |
58.0 |
53.1 |
DataSet(0.6) |
56.4 |
46.3 |
DataSet(0.4) |
38.9 |
26.6 |
表 6.7:
間引いたデータに対する学習の全属性の正解率(単位は%.
3 クラス. EM アルゴリズム 30 ステップ後)
|
Closed test |
Open test |
DataSet(1) |
47.9 |
45.2 |
DataSet(0.8) |
49.5 |
47.0 |
DataSet(0.6) |
20.3 |
15.5 |
DataSet(0.4) |
2.7 |
2.7 |
まず,DataSet(1) に対して学習を行なった結果を示す.
表 6.2,6.3 はそれぞれ属性数 2,3 の場合の
EM アルゴリズムを始める前の初期値の段階での正解率の表である.
Closed test と open test のそれぞれに対し, 各属性ごとの正解率と
全ての属性を正解した率を示している.
各属性の正解率の括弧内は,属性の出力は
必ずしも正解していなくても属性分類は正しいとしたときの正解率(例えば
赤に対して青と答えたものも含めたもの)をあらわす.
初期化を工夫することによって,ある程度の分類はできているが,
色属性や大きさ属性に比べ,属性内のクラス数が最も多い形属性に関しては
正解率が低い. また,全属性すべて正解するものはこの段階ではほとんどない.
EM アルゴリズムは属性数 2 の場合も属性数 3 の場合も,30 ステップ程度で
どちらもある程度収束した. 30 ステップ後の正解率を表 6.4,
6.5 に示す.
形属性に関しては正解することが難しいことを示しているが,
属性分類だけの正解率(括弧内の数値)は高いので,分類そのものは
ある程度成功しているといえる.
一方,色や大きさに関しては高い正解率を示している.
DataSet(0.8), DataSet(0.6), DataSet(0.4)
については全属性の結果のみを表6.6,
6.7 に示す(比較のため,DataSet(1) の結果も載せた).
ある程度データを間引いても学習することは可能だが,間引きすぎると学習が
困難になることを示している.
また,結果全体を通して 3 属性の学習のほうが 2 属性よりもかなり難しい
ことがわかる.
本論文で行なった実験結果については,正準相関分析の次元数の選択,および,
正準相関分析や混合モデルの非線形への拡張,あるいは nearest neighbor 法を
-nearest neighbor 法に拡張するなどによって改善できる余地が
存在するが,それらについては, 誤った教示が含まれた場合に対する頑健さの
評価や実験結果のより詳細な分析を含め,今後の課題として残されている.
次へ: 本章のまとめ
上へ: 実験
戻る: 学習結果の評価
Shotaro Akaho
平成15年7月22日