18
Maschinelles Lernen Hidden Markov Modelle

Maschinelles Lernen

  • Upload
    donald

  • View
    46

  • Download
    0

Embed Size (px)

DESCRIPTION

Maschinelles Lernen. Hidden Markov Modelle. Hidden Markov Modelle (HMMs). - PowerPoint PPT Presentation

Citation preview

Page 1: Maschinelles  Lernen

Maschinelles Lernen

 

Hidden Markov Modelle

Page 2: Maschinelles  Lernen

Seite 204/21/23|

Hidden Markov Modelle (HMMs)

InterpretationEin Zufallsprozess springt zwischen verschiedenen Zuständen hin und her und emittiert bei jedem Schritt ein Zeichen aus Ω, wobei die Emissionswahr-scheinlichkeit von vom zugrunde liegenden versteckten Zustand abhängt.

S = {1,2,3,4,5,6}

Ω = |R

DefinitionEin HMM besteht aus einer Markovkette w(t) (gegeben durch Menge der „versteckten“ Zustände S und die Übergangswahrscheinlichkeiten

A = (aij) = P(w(t+1)=i | w(t)=j), einem Ausgabealphabet Ω und einer Menge von Emissionswahrscheinlichkeiten

B = (bjk) = P(k wird emittiert | versteckter Zustand ist j).

Page 3: Maschinelles  Lernen

Seite 304/21/23|

Hidden Markov Modelle (HMMs)

Eine besonders häufig verwendete Form von HMMs sind left-to-right Modelle. Sie werden z.B. bei der Spracherkennung oder der DNA Sequenzanalyse eingesetzt.

Start T A T A Ende

Es soll z.B. eine Transkriptionsfaktorbindestelle erkannt/modelliert werden, deren Sequenz nicht zu 100% mit einem bekannten Sequenzmotiv übereinstimmen muss, diesem aber möglichst gut ähnelt.

Versteckte Zustände

Gesehene Zeichenfolge

Page 4: Maschinelles  Lernen

Seite 404/21/23|

Hidden Markov Modelle (HMMs)

Ein HMM definiert eine Wahrscheinlichkeitsverteilung auf der Menge aller Sequenzen mit Zeichen aus V:

Sei V = (v1,v2,…,vT) eine Sequenz von Zeichen aus Ω. Dieser Ausgabekette können verschiedene Ketten Q = (q1,q2,…,qT) von versteckten Zuständen aus S zugrunde liegen. Es gilt

T

ttq

T

ttt vbqvPQVP

t11

)( )|( )|(

)( )|(),()(),...,(),...,( 11

QPQVPQVPVPn

nn

n SqqQSqqQ

dabei ist

T

tqq

T

ttt tt

aqtwqtwPQP11

1 1))1(|)(()(

(der Bequemlichkeit halber definieren wir einen zusätzlichen Startzustand und einen Endzustand und geeignete Übergangswahrscheinlichkeiten), und

Page 5: Maschinelles  Lernen

Seite 504/21/23|

Hidden Markov Modelle (HMMs)

Es gibt drei wesentliche Aufgaben zu lösen:

1. Auswertung. Gegeben ein HMM, berechne zu gegebener emittierter Sequenz V die Wahrscheinlichkeit, dass V durch das HMM generiert wurde.

2. Dekodierung. Gegeben ein HMM und eine emittierte Sequenz V, bestimme für jedes emittierte Zeichen den versteckten Zustand, der dieses Zeichen am wahrscheinlichsten emittiert hat.

3. Lernen eines HMMs Gegeben eine emittierte Sequenz V und eine Menge versteckter Zustände S, bestimme (optimiere) die Parameter eines HMMs, so dass V mit möglichst hoher Wahrscheinlichkeit von diesem HMM generiert wurde.

Forward Algorithmus, Backward Algorithmus

Viterbi Algorithmus

Baum-Welch Algorithmus

Page 6: Maschinelles  Lernen

Seite 604/21/23|

Auswertung

Gegeben ein HMM, berechne zu gegebener emittierter Sequenz V die Wahrscheinlichkeit, dass V durch das HMM generiert wurde.

Eine naive Berechnung von P(V) bräuchte exponentiell viel Zeit in der Länge der Zeichenkette.

))(,,...,( 1 jtwvvP t

)(tj P( Es wird die Teilkette v1,…,vt emittiert,und zum Zeitpunkt t befindet sich die Kette im Zustand j )

))(,,...,( 1 jtwvvP Tt

)(tj P( Es wird die ‚Teilkette vt+1,…,vT emittiert,und zum Zeitpunkt t befindet sich die Kette im Zustand j )

Der Schlüssel zur effizienten Lösung aller drei HMM-Probleme liegt in der Definition folgender Wahrscheinlichkeiten:

Page 7: Maschinelles  Lernen

Seite 704/21/23|

Auswertung

Page 8: Maschinelles  Lernen

Seite 804/21/23|

Auswertung

Si

Si11

11

1)(

)|())(|)1(())(,,...,(

))(,,...,( )1(

tvjiji

tt

tj

bat

ivPitwjtwPitwvvP

jtwvvPt

αj(t+1) kann rekursiv berechnet werden durch

Dabei ist αj(0) definiert als αStartuistamd(0)=1 und αj(0)=0 sonst.

)(Endzustand T

Hieraus resultiert der Forward Algorithmus:

für alle jS

Page 9: Maschinelles  Lernen

Seite 904/21/23|

Auswertung

Si

Si1

)(

)|())1(|)(())(,,...,(

))1(,,...,( )1(

tvijii

tTt

Ttj

bat

ivPjtwitwPitwvvP

jtwvvPt

Analog kann βj(t-1) rekursiv berechnet werden durch

Dabei ist αj(0) definiert als αStartuistamd(0)=1 und αj(0)=0 sonst.

Hieraus resultiert der Backward Algorithmus:

)0(ndStartzusta

für alle jS

Page 10: Maschinelles  Lernen

Seite 1004/21/23|

Auswertung

Klassifikation.

Seien die Parameter aij und bjk eines HMMs durch Θ zusammengefasst. Der Forward- bzw. Backward Algorithmus liefert P(V| Θ) und vermöge der Bayes-Inversionsformel hat man bei emittierter Sequenz V

)(

)()|( )|(

VP

PVPVP

Liegen mehrere alternative Modelle Θm und ein Prior P(Θ) vor, so kann das wahrscheinlichste darunter ausgewählt werden (MAP-Schätzung).

Page 11: Maschinelles  Lernen

Seite 1104/21/23|

Dekodierung

Gegeben ein HMM und eine emittierte Sequenz V, bestimme für jedes emittierte Zeichen den versteckten Zustand, der dieses Zeichen am wahrscheinlichsten emittiert hat.

Achtung: Es ist nicht die (primäre) Aufgabe, die Folge versteckter Zustände zu konstruieren, welche V am wahrscheinlichsten generiert hat.

Viterbi-Algorithmus

Page 12: Maschinelles  Lernen

Seite 1204/21/23|

Dekodierung

Achtung: Für diesen Pfad Q kann P(Q)=0 gelten!

Page 13: Maschinelles  Lernen

Seite 1304/21/23|

Lernen von HMMs

Gegeben eine emittierte Sequenz V und eine Menge versteckter Zustände S, bestimme (optimiere) die Parameter eines HMMs, so dass V mit möglichst hoher Wahrscheinlichkeit von diesem HMM generiert wurde.

Sei bereits ein HMM durch die Parameter Θ = {aij, bjk} gegeben. Wir berechnen

)|P(V

)( )1(

)|P(V

)|)(,,...,( )|)1(,,...,(

)|)/P(V|Vi,w(t)j,1)P(w(t

)V,|iw(t)j,1)P(w(t )(

j

111

tbat

jtwvvPbaitwvvP

t

t

t

jviji

Ttjvijt

ij

γij ist also die Wahrscheinlichkeit, dass im t-ten Schritt ein Übergang von Zustand i nach Zustand j vollzogen wird.

Page 14: Maschinelles  Lernen

Seite 1404/21/23|

Lernen von HMMs

)|P(V

)( )1( )( j

tbatt tjviji

ij

Hieraus lassen sich wiederum die Übergangswahrscheinlichkeiten aij und die Emissionswahrscheinlichkeiten bjk neu schätzen:

t) Zeitpunktbel.(zu k bel. einemzu i von Übergänge#

t) Zeitpunktbel.(zu jnach i von Übergänge# )( taij

T

1 Sk

1

)(

)(

tik

T

tij

t

t

T

1t

T

k v1,t

)(

)(

bel.nach j von Übergänge#

wurdeemittiert k denen bei bel.,nach j von Übergänge# )(

t

Smjm

Smjm

jk

t

t

tb

Page 15: Maschinelles  Lernen

Seite 1504/21/23|

Lernen von HMMs

Page 16: Maschinelles  Lernen

Seite 1604/21/23|

Anwendung von HMMs

Page 17: Maschinelles  Lernen

Seite 1704/21/23|

Anwendung von HMMs

Page 18: Maschinelles  Lernen

Seite 1804/21/23|

Vor- und Nachteile von HMMs