Neurónové siete založené na “echo” stavoch

Preview:

DESCRIPTION

Neurónové siete založené na “echo” stavoch. Matej Makula Fakulta informatiky a informačných technológií STU 20. januára 2006. “dynamical reservoir”. output layer. input layer. ESN – princíp. Prístup založený na architekturálnom biase Dynamika siete je predurčená náhodnou inicializáciou - PowerPoint PPT Presentation

Citation preview

Neurónové siete založené na “echo” stavoch

Matej Makula

Fakulta informatiky a informačných technológií STU

20. januára 2006

ESN – princíp

Prístup založený na architekturálnom biase Dynamika siete je predurčená náhodnou

inicializáciou Charakter dynamiky určujú vstupné a rekurentné

váhy Trénované sú len výstupné váhy

input layer

“dynamical reservoir”

output layer

ESN - obmedzenia

Presné definovanie kedy je vhodné ESN použiť Nejasný vplyv parametrov na kvalitu predikcie

Dynamický rezervoár (štruktúra, váhy) Vstupné váhy (rozsah) Výstupné váhy (aktivačná funkcia)

input layer

“dynamical reservoir”

output layer

ESN - stabilita

Generovanie periodickej sekvencie

Inicializácia Testovanie Inicializácia Testovanie

Bez pridania šumu Vstup zo šumom – state wobbling

( )n y

( )inx

( )iny

( )nε

( 1)in y

( ) ( )in ny ε

Trénovanie Testovanie

ESN - stabilita

Pridanie šumu k vstupu pri trénovaní zlepšuje stabilitu

Pri generovaní dôjde po niekoľkých periodách k skresleniu výstupu ESN siete

Initialization Testing Inicializácia TestovanieInicializácia Testovanie

ESN – stabilita

Veľkosť šumu?? Príliš malé hodnoty alebo veľké hodnoty

šumu nedokážu zabezpečiť stabilitu Veľkosť šumu ~ veľkosť chyby

Vylepšená verzia učenia – šum je nahradený skutočnou chybou (pri jednokrokovej predikcii)

ESN - zlepšená verzia učenia

Prvý krok: ESN je trenovaná klasickou metódou. Výsledkom trénovania sú výstupné váhy wout .

Druhý krok: Vytvorenie novej učiacej postupnosti d'(n), ktorá je získaná pomocou d(n) and váh wout

Tretí krok: Použitie d'(n) ako novej učiacej postupnosti a pretrénovanie ESN. Výsledkom sú výstupné váhy wout

ESN – Mackey-Glass predikcia

ESN prístup• log10(NRMSE84) = –5.09

Iné prístupy• log10(NRMSE84) = –1.7

MGS predikcia (delay 17)Vylepšená verzia učenia + priemerovanie viacerých modelov

ESN - online adaptácia

Využitie online adaptácie pre nájdenie stabilného riešenia

Inicializácia Testovanie Dotrénovanie pomocou RLS

ESN - online adaptácia

Least mean squares Výpočtovo nenáročné Suboptimálne riešenia

Recursive least squares Exponenciálny faktor zabúdania

– nevhodné pre dlhé postupnosti?

Numerická stabilita

Predikcia symbolickej sekvencie Biblia Abeceda 26 znakov + medzera Dĺžka postupnosti: 2 740 000 symbolov Nie je možné použiť výpočet pseudoinverznej matice

Oprava textu použitím ESN Viterbiho algoritmus

Ďakujem

ESN – štruktúra DR

inputunit

hiddenunits

output unit

)(tx

)(tu )(ty

input history

)( Nt u )(tu

output unit

)(ty

Dopredná ESN – existujú len dopredné prepojenia v DR

Toto obmedzenie má minimálny vplyv na kvalitu predikcie výslednej siete

ESN – štruktúra DR

inputunit

hiddenunits

output unit

)(tx

)(tu )(ty

DR zostavený z viacerých “modulov” podsietí Medzi podsieťami sú len dopredné prepojenia Postupné pridávanie neurónov, resp. podsietí do

DR podľa potreby Pri trénovaní stači dotrénovať novopridané

výstupné váhy

ESN – vstup / výstup

B

T

P

S

V

X

X

S

P

V

T

B

S

V

T

X

P

t t

Požadovaný výstup = trénovacia postupnosť

Požadovaný výstup = aktivity automatu

“BPTVVBPVPSBTSSXXTVPSB....”

input layerhidden layer output layer

B

P

V

T

X

S

B

P

V

T

X

S

The Laser time series

20 ESNs with 300 neuronsthe task was to predict the next 100 steps

ESN – vstup / výstup

Príklad State space of untrained RNN

Postupnosť:“assssbsscsabssscs”

ESN a vstupna postupnost

input layer

hidden layeroutput layer

a

b

c

s

a

b

c

s

Recommended