16
Self-Organizing Map 自自自自自自自自自自自自自自自自自 Special thanks to H.Kusumoto Keio University Graduate School of Media and Governance Kensuke Naoe

「 S elf- O rganizing M ap    自己組織化マップ」      を説明するスライド

  • Upload
    elias

  • View
    46

  • Download
    0

Embed Size (px)

DESCRIPTION

「 S elf- O rganizing M ap    自己組織化マップ」      を説明するスライド. Special thanks to H.Kusumoto Keio University Graduate School of Media and Governance Kensuke Naoe. S elf- O rganizing M ap (1). 自己組織化マップ T. Kohonen 1982 年 教師なし学習 応用 遺伝子解析 音声認識 画像解析 ロボット制御. SOM (2) 入力データ(多次元). - PowerPoint PPT Presentation

Citation preview

Page 1: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

「 Self-Organizing Map   自己組織化マップ」     を説明するスライド

Special thanks to H.Kusumoto

Keio University

Graduate School of Media and Governance

Kensuke Naoe

Page 2: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

Self-Organizing Map (1) 自己組織化マップ T. Kohonen   1982 年 教師なし学習 応用

遺伝子解析 音声認識 画像解析 ロボット制御

Page 3: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (2) 入力データ(多次元)

『自己組織化マップ』 T.Kohonen

Page 4: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (3)  SOM による結果

『自己組織化マップ』 T.Kohonen

Page 5: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

Self-Organizing Map (4) 入力データ

多次元データ 表だけを見ていてもデータの特性を理解しづらい

SOM による結果 2 次元空間上にマッピングする 似た特徴のデータは近い場所にマッピング 異なる特徴のデータは遠い場所にマッピング 視覚的に理解しやすい

Page 6: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (5) アルゴリズム(1) 入力データ

X1, X2, X3, … , Xi, … , Xn   : 動物 Xi =( xi1, xi2, … , xik, … , xid ) :属性

マップ 格子状の 2 次元の空間を用意する データは格子点にマッピングされることになる マップの大きさはデータ量などから決める

( m×m )

Page 7: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (6) アルゴリズム(2) マップの格子点に重みベクトル W を置

く 各 W に入力データと同じ次元数の要素を

与える

W(1,1)

W(1,2)

W(m,m)

Page 8: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (7) アルゴリズム(3) 初期化

入力データ: 4 個  X1, X2, X3, X4

データの属性:3次元  X1=(x11, x12, x13) マップ: 5×5 W(5,5)=(w(5,5)1,w(5,5)2, w(5,5)3)

W の初期値は任意

Page 9: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (8) アルゴリズム(4) 探索 入力データを 1 つ持ってくる

X1=(x11, x12, x13)

W の中から X1 に値が最も近いものを探す

Wwin  勝者ベクトルと呼ぶ

Page 10: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (9) アルゴリズム(5) 学習

X1=(x11, x12, x13)

Wwin の値を X1 に近づける

Wnew=Wold+α(X1-Wold)

α :学習率係数

Page 11: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (10) アルゴリズム(6) 学習

X1=(x11, x12, x13)

Wwin のそばにある W の値もX1 に少し近づける

Wwin から離れるに従って

X1 に近づける割合を減らす

Page 12: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (10) アルゴリズム(6) 学習

このように「 W の値を変えること」を「学習」と呼ぶ

X2,3,4 に関しても同様に学習する

この学習を繰りかえし行う

Page 13: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM (11) アルゴリズム(7)    マッピング

X1 , X2 , X3 , X4 に対して,それぞれ最も近い W を探し,そこにマッピングする

似た特徴のデータは近くに

異なる特徴のデータ遠くに

マッピングされる

X1X2

X3X4

X1X2

X3X4

Page 14: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

実問題への適用 SOM の利点

ほとんどの多次元データを扱える シンプル(複雑な計算式がない) 結果が視覚的にわかりやすい

問題点もある 実問題ではデータ数が多い場合がある

マップ上での表現 計算時間

    ↓ 実問題への適用には様々な工夫が必要

Page 15: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM の問題点(1)            結果の表現方法

入力データ数が多い場合(数百~数万) マップ上に全てを表記するのは不可能

『自己組織化マップ』 T.Kohonen

動物の例題では16 データしかない

Page 16: 「 S elf- O rganizing  M ap    自己組織化マップ」      を説明するスライド

SOM の問題点(2) 計算コスト SOM では繰り返し学習(データ数 × 数回)が

必要 データ数が多い場合(数百~数万)なるべく

大きなマップを使いたい 入力ベクトル X に最も近い重みベクトル W を探

す時に, W の個数分の計算が必要になる

↓ 繰り返し学習の回数と,マップの大きさ

( M×M )に比例して計算量が増える