Neurónové siete založené na “echo” stavoch
Matej Makula
Fakulta informatiky a informačných technológií STU
20. januára 2006
ESN – princíp
Prístup založený na architekturálnom biase Dynamika siete je predurčená náhodnou
inicializáciou Charakter dynamiky určujú vstupné a rekurentné
váhy Trénované sú len výstupné váhy
input layer
“dynamical reservoir”
output layer
ESN - obmedzenia
Presné definovanie kedy je vhodné ESN použiť Nejasný vplyv parametrov na kvalitu predikcie
Dynamický rezervoár (štruktúra, váhy) Vstupné váhy (rozsah) Výstupné váhy (aktivačná funkcia)
input layer
“dynamical reservoir”
output layer
ESN - stabilita
Generovanie periodickej sekvencie
Inicializácia Testovanie Inicializácia Testovanie
Bez pridania šumu Vstup zo šumom – state wobbling
( )n y
( )inx
( )iny
( )nε
( 1)in y
( ) ( )in ny ε
Trénovanie Testovanie
ESN - stabilita
Pridanie šumu k vstupu pri trénovaní zlepšuje stabilitu
Pri generovaní dôjde po niekoľkých periodách k skresleniu výstupu ESN siete
Initialization Testing Inicializácia TestovanieInicializácia Testovanie
ESN – stabilita
Veľkosť šumu?? Príliš malé hodnoty alebo veľké hodnoty
šumu nedokážu zabezpečiť stabilitu Veľkosť šumu ~ veľkosť chyby
Vylepšená verzia učenia – šum je nahradený skutočnou chybou (pri jednokrokovej predikcii)
ESN - zlepšená verzia učenia
Prvý krok: ESN je trenovaná klasickou metódou. Výsledkom trénovania sú výstupné váhy wout .
Druhý krok: Vytvorenie novej učiacej postupnosti d'(n), ktorá je získaná pomocou d(n) and váh wout
Tretí krok: Použitie d'(n) ako novej učiacej postupnosti a pretrénovanie ESN. Výsledkom sú výstupné váhy wout
ESN – Mackey-Glass predikcia
ESN prístup• log10(NRMSE84) = –5.09
Iné prístupy• log10(NRMSE84) = –1.7
MGS predikcia (delay 17)Vylepšená verzia učenia + priemerovanie viacerých modelov
ESN - online adaptácia
Využitie online adaptácie pre nájdenie stabilného riešenia
Inicializácia Testovanie Dotrénovanie pomocou RLS
ESN - online adaptácia
Least mean squares Výpočtovo nenáročné Suboptimálne riešenia
Recursive least squares Exponenciálny faktor zabúdania
– nevhodné pre dlhé postupnosti?
Numerická stabilita
Predikcia symbolickej sekvencie Biblia Abeceda 26 znakov + medzera Dĺžka postupnosti: 2 740 000 symbolov Nie je možné použiť výpočet pseudoinverznej matice
Oprava textu použitím ESN Viterbiho algoritmus
Ďakujem
ESN – štruktúra DR
inputunit
hiddenunits
output unit
)(tx
)(tu )(ty
input history
)( Nt u )(tu
output unit
)(ty
Dopredná ESN – existujú len dopredné prepojenia v DR
Toto obmedzenie má minimálny vplyv na kvalitu predikcie výslednej siete
ESN – štruktúra DR
inputunit
hiddenunits
output unit
)(tx
)(tu )(ty
DR zostavený z viacerých “modulov” podsietí Medzi podsieťami sú len dopredné prepojenia Postupné pridávanie neurónov, resp. podsietí do
DR podľa potreby Pri trénovaní stači dotrénovať novopridané
výstupné váhy
ESN – vstup / výstup
B
T
P
S
V
X
X
S
P
V
T
B
S
V
T
X
P
t t
Požadovaný výstup = trénovacia postupnosť
Požadovaný výstup = aktivity automatu
“BPTVVBPVPSBTSSXXTVPSB....”
input layerhidden layer output layer
B
P
V
T
X
S
B
P
V
T
X
S
The Laser time series
20 ESNs with 300 neuronsthe task was to predict the next 100 steps
ESN – vstup / výstup
Príklad State space of untrained RNN
Postupnosť:“assssbsscsabssscs”
ESN a vstupna postupnost
input layer
hidden layeroutput layer
a
b
c
s
a
b
c
s