55
Sesión 8: Campos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “…la verdadera lógica de este mundo es el cálculo de probabilidades, que toma en cuanta la magnitud de las probabilidades, las cuales deben estar en la mente de todo hombre razonable” James C. Maxwell, 1850

Sesión 8: Campos de Markov - Ciencias …esucar/Clases-mgp/pgm08-cam-2012.pdf · Sesión 8: Campos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE “…la verdadera

  • Upload
    vocong

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Sesión 8:Campos de Markov

Modelos Gráficos ProbabilistasL. Enrique Sucar

INAOE

“…la verdadera lógica de este mundo es el cálculo deprobabilidades, que toma en cuanta la magnitud de lasprobabilidades, las cuales deben estar en la mente de todohombre razonable”

James C. Maxwell, 1850

© L.E. Sucar: PGM - CAM 2

Campos de Markov• Introducción

– Modelo de Ising• Representación

– Tipos de Modelos– Redes de Markov– Vecindades

• Algoritmos– ICM, Metrópolis, Recocido Simulado

• Aplicaciones– Filtrado y recuperación de imágenes

© L.E. Sucar: PGM - CAM 3

Campos de Markov (CAM)

• Ciertos procesos, como un campo magnéticoo una imagen, se pueden ver como una seriede estados en el espacio o una malla deestados.

• A este tipo de modelos se les conoce comoCampos de Markov.

• Estos procesos se pueden considerar comouna extensión de las cadenas de Markov enlos cuales el índice de tiempo se substituyepor un índice espacial

© L.E. Sucar: PGM - CAM 4

Modelo de Ising

• Surgen del problema de modelar materialesferromagnéticos en lo que se conoce comoel Modelo Ising.

• Se tiene una serie de dipolos en una líneaque pueden estar orientados hacia “arriba”(+) o hacia “abajo” (-).

• El estado de cada dipolo se ve influenciadopor los dipolos cercanos - probabilidad paracada estado depende de los estado de lospuntos vecinos.

© L.E. Sucar: PGM - CAM 5

Modelo de Ising

q1 q2 q4q3

Posibles configuraciones:+ + + ++ + + -+ + - +....

© L.E. Sucar: PGM - CAM 6

Modelo de Ising

• Un campo de Markov asigna probabilidad acada configuración en el espacio de posiblesconfiguraciones.

• Se considera que la probabilidad del estado deuna variable es independiente de los demásdados sus 2 vecinos (para una cadena), esdecir que tiene la propiedad Markoviana

( ) ( )knjninkjin qSqSqSPqSqSqSP ======= +! 11....21 ,|,|

© L.E. Sucar: PGM - CAM 7

Configuración más probable• Dadas las probabilidades locales, el problema

central en es encontrar la probabilidad de cada unalas posibles configuraciones, y en particular cual esla configuración más probable.– + + + +– + + + -– + + - +– …– - - + +– …– - - - -

© L.E. Sucar: PGM - CAM 8

Probabilidades

• Podemos distinguir dos factores quedeterminan la probabilidad de unaconfiguración:

• la P a priori de cada estado,• la P conjunta con sus vecinos.

• En el modelo de Ising, estos corresponden ala influencia de un campo magnético externo,y a las interacciones entre los dipolos vecinos.

© L.E. Sucar: PGM - CAM 9

Campos en 2-D

• Esto lo podemos extender de una dimensióna dos dimensiones. En este caso tenemosuna malla de puntos, donde el estado decada punto depende del estado de susvecinos (4, 8, etc).

© L.E. Sucar: PGM - CAM 10

Ejemplo

q1 q2

q4 q3

q2 q3

q5 q6q4 q2

q7 q3

q5 q6

q8 q9

© L.E. Sucar: PGM - CAM 11

Representación• Un campo aleatorio es una colección de

variables aleatorias indexadas por sitios.

• Se considera un conjunto de variablesaleatorias F = {F1,….., FM}, asociadas a cadasitio del sistema de sitios S. Cada variabletoma un valor fi de un un conjunto deposibles valores L. Entonces F es un campoaleatorio.

• Un campo aleatorio de Markov (CAM) es uncampo aleatorio con la propiedad de“localidad”.

© L.E. Sucar: PGM - CAM 12

PropiedadesUn CAM debe satisfacer las siguientes propiedades:

( )( ) ( )( )iiisi fvecfPffP

positivofP||

0=•

!>•

!

Donde vec( fi ) son los vecinos de fi

© L.E. Sucar: PGM - CAM 13

Vecindad

{ }SVV ii !"= |

Un sistema de vecindad para S se define como:

• Cumple con las siguientes dos propiedades:1. Un sitio no es vecino de si mismo.

2. La relación de vecindad es mutua.

• Se pueden tener diferentes “vecindades” (primerorden, segundo orden, etc.).

© L.E. Sucar: PGM - CAM 14

VecindadPara una malla regular, la vecindad de orden i conradio r se define como:

( ) ( )( ){ }rividistSvV ii !"= ,|

Donde dist(x,y) es la distancia euclidiana entre x y y.

En un sistema de vecindad de primer orden,cada sitio (interior) tiene 4 vecinos; en uno desegundo orden, 8 vecinos: en uno de tercerorden, 12 vecinos, etc.

© L.E. Sucar: PGM - CAM 15

Ejemplo – 1er orden

q1 q2

q4 q3

q2 q3

q5 q6q4 q2

q7 q3

q5 q6

q8 q9

© L.E. Sucar: PGM - CAM 16

Ejemplo – 2do orden

q1 q2

q4 q3

q2 q3

q5 q6q4 q2

q7 q3

q5 q6

q8 q9

© L.E. Sucar: PGM - CAM 17

Conjuntos CompletosEl conjunto de sitios junto con las vecindades nosdefinen un grafo no-dirigido: G=(S, V).

Un conjunto completo (C) se define como unsubconjunto de sitios de forma que están todosconectado contra todos

Un conjunto completo puede ser un solo sitio, C1, unpar de sitios vecinos, C2, una tripleta de vecinos, C3, yasí sucesivamente. De forma que la colección de Cpara un grafo esta dada por:

...321 !!!= CCCC

© L.E. Sucar: PGM - CAM 18

Redes de Markov

• Podemos considerar los CAM como un casoespecial de un modelo más general – que son lasRedes de Markov

• Las redes de Markov (RM) son modelos gráficosprobabilísticos no-dirigidos, que representa lasdependencias e independencias de un conjunto devariables

• Un subconjunto A de variables es independientede otro subconjunto C dado un tercer subconjuntoB, si los nodos en B separan en el grafo A de B

© L.E. Sucar: PGM - CAM 19

Redes de Markov

• Ejemplo:

q1 q2

q4 q3

q2 q3

q5q4 q2q5

A BC

© L.E. Sucar: PGM - CAM 20

Redes de Markov

Parametrización:• Podemos en general representar la probabilidad

conjunta de una RM como el producto de lasprobabilidades locales (potenciales) de conjuntoscompletos con un factor de normalización:

P(X1, X2, …, Xn) = 1/z P(C1) P(C2) … P(Cm)• Es suficiente considerar sólo los cliques, pero

también se pueden considerar otro conjuntos (estose hace porque es conveniente en la práctica)

© L.E. Sucar: PGM - CAM 21

Redes de Markov• Parámetros:

q1 q2

q4 q3

q2 q3

q5q4 q2q5P(C1) P(C2)

P(C3)

© L.E. Sucar: PGM - CAM 22

Configuración más probableUna aplicación típica de CAMs es para obtener laconfiguración más probable dadas ciertasrestricciones representadas por las probabilidadeslocales (potenciales)

Podemos expresar la probabilidad conjunta, comoel producto de las probabilidades de lasvecindades:

( ) ccGF PkfP !=/

© L.E. Sucar: PGM - CAM 23

Configuración más probable

Dichas probabilidades de las vecindades(potenciales) se pueden ver como “restricciones”que van a favorecer o desfavorecer ciertasconfiguraciones.

De esta forma, la configuración más probable sepuede ver como aquella que tiene una mayorcompatibilidad con las probabilidades locales.

© L.E. Sucar: PGM - CAM 24

Configuración más probablePodemos expresar los potenciales en forma deexponenciales (de esta forma pueden ser cualquiernúmero real):

Pot(xc) = exp{-Uc (xc)}Así que el producto se vuelve una suma:

Up(f) = Σ Uc (xc)Por lo que la probabilidad conjunta se puede expresar como:

( ) ( ) ( )[ ]fUZfP pGF != exp1/

© L.E. Sucar: PGM - CAM 25

Campo de GibbsLo anterior también se puede obtener mediante unaanalogía entre los CAM y los Campo Aleatorio deGíbbs (CAG).

Una distribución de Gibbs tiene la siguiente forma (Zes una constante de normalización):

( ) ( ) ( )

( )!"#

$%&'(=

!"#

$%&'=

) TfUZ

Donde

TfU

zfP

Ff exp

:

exp1

© L.E. Sucar: PGM - CAM 26

Campo de GibbsU(f) se conoce como la función de energía y seobtiene como la suma de los potenciales de todoslos C:

U ( f ) = Σc Vc ( f )

La configuración más probable corresponde a la deenergía mínima.

La función de energía se puede expresar entérminos de los C de cada tamaño:

( ) ( ) ( ) ( ) .....,,, 332211 +!+!+!= kjicjicic fffVffVfVfU

© L.E. Sucar: PGM - CAM 27

Campo de GibbsSe puede demostrar que un CAM y elcorrespondiente CAG son equivalentes.

Esto permite que se pueda expresar laprobabilidad conjunta especificando lospotenciales de los C. En la práctica seseleccionan los potenciales de acuerdo alcomportamiento deseado – con los potencialesse codifica el conocimiento a priori del problema.

© L.E. Sucar: PGM - CAM 28

Configuración más probable• Entonces, para especificar un CAM se

requiere:– Definir el esquema de vecindad– Especificar las probabilidades

(potenciales) para cada uno de losconjuntos completos de nodos

Para el caso de vecindad de primer orden:

( ) ( ) ( )fVfVfU OOccp !+!= "

© L.E. Sucar: PGM - CAM 29

Configuración más probable• Vc corresponde a PF o la información del

dominio dada por los vecinos y VOcorresponde a PG/F o la información de lasobservaciones; λ es una constante que da elpeso relativo entre ambas.

• Bajo este enfoque, la solución a un problemaparticular corresponde en encontrar laconfiguración del CAM de mayorprobabilidad o de “energía” (UP) mínima. Lafunción que se logre depende de la forma delas funciones para VC y V0.

© L.E. Sucar: PGM - CAM 30

Ejemplo• Por ejemplo, podemos querer “suavizar”

una imagen; es decir, minimizar la“distancia” de cada pixel a sus vecinos,pero también mantenerlo cercano a suvalor en la imagen (observación):

( ) ( )( ) ( )20

2

gffV

uffVc!=

!=

© L.E. Sucar: PGM - CAM 31

Ejemplo

Fimagen “suavizada”

Gimagen “original”

q1 q2

q4 q3

q2 q3

q5 q6q4 q2

q7 q3

q5 q6

q8 q9

© L.E. Sucar: PGM - CAM 32

Analogía Física

© L.E. Sucar: PGM - CAM 33

Analogía Física- más peso a las observaciones -

© L.E. Sucar: PGM - CAM 34

Analogía Física- más peso a los vecinos -

© L.E. Sucar: PGM - CAM 35

Algoritmos• El obtener la configuración de mayor

probabilidad (mínima energía) en formadirecta (exhaustiva) prácticamenteimposible (excepto para problemas muypequeños), por lo que se plantea como unproblema de búsqueda. Se busca laconfiguración de mayor probabilidad, sintener que calcular directamente lasprobabilidades de cada configuración.

© L.E. Sucar: PGM - CAM 36

AlgoritmosEl problema incluye 3 aspectos:

1. Representación: CAM con un esquema devecindad y los potenciales asociados

2. Función objetivo: Función de energía aminimizar.

3. Algoritmo de optimización: simulaciónestocástica (Metropolis)

© L.E. Sucar: PGM - CAM 37

Algoritmo básico• Inicializar con un valor aleatorio cada

variable.• Repetir para cada variable en el campo:

- Calcular el valor de energía (potencial) decada variable en base a la funcióndeseada y los valores de los vecinos. - Si el valor de energía es menor al anterior

cambiar de valor. - Si no, con cierta probabilidad también cambiar de

valor.• Hasta que se cumplan N iteraciones o ya

no haya cambios (convergencia)• Obtener configuración “óptima”

© L.E. Sucar: PGM - CAM 38

Variantes

Cálculo del óptimo:

• MAP: se toma el valor para cada variable alfinal de las iteraciones.

• MPM: se toma el valor de mayor frecuenciade acuerdo a su ocurrencia durante lasimulación.

© L.E. Sucar: PGM - CAM 39

VariantesForma de optimización:

• Metrópolis: con probabilidad fija se puedepasar a estados de mayor energía.

• Recocido simulado: se va disminuyendo laprobabilidad de pasar a estados de mayorenergía (temperatura).

• ICM: tomar siempre el estado de menorenergía.

© L.E. Sucar: PGM - CAM 40

Probabilidades de transición

• Probabilidad de transición a estado demayor energía:

• Donde δV es la diferencia de energía yT es la temperatura

TVeP /!"=

© L.E. Sucar: PGM - CAM 41

Ejemplo

• Dada la siguienteimagen:

• Consideramos:– Configuración inicial

de ceros– Vecindad de primer

orden– Potenciales de

suavizamiento con λ=4

0 0 0 0

0 1 1 1

0 1 0 1

0 1 1 1

© L.E. Sucar: PGM - CAM 42

Ejemplo

1era iteración:• 1er sitio:

V1 (0) = 0V1(1) = 2 + 4 (1) = 6

• …• …

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

© L.E. Sucar: PGM - CAM 43

Ejemplo

• …• …• 11vo sitio:

V11(0) = 2V11(1) = 6

• …

0 0 0 0

0 1 1 1

0 1 0 0

0 0 0 0

© L.E. Sucar: PGM - CAM 44

Ejemplo

2da iteración• …• 11ovo sitio:

V11(0) = 4V11(1) = 4

• …

0 0 0 0

0 1 1 1

0 1 1 1

0 1 1 1

© L.E. Sucar: PGM - CAM 45

Aplicaciones

• Procesamiento de imágenes– Eliminación de ruido– Filtrado de una imagen– Segmentación de texturas– Visión estereoscópica– Recuperación de forma (3-D)– Reconocimiento de objetos– Etiquetado de imágenes

© L.E. Sucar: PGM - CAM 46

Ejemplo – eliminación de ruido

© L.E. Sucar: PGM - CAM 47

Ejemplo – eliminación de ruido

© L.E. Sucar: PGM - CAM 48

Ejemplo – eliminación de ruido

© L.E. Sucar: PGM - CAM 49

Otro ejemplo: anotación de imágenesGrass 0.6Tree 0.2rock 0.1building 0.1

People 0.4Tree 0.3Mountain 0.2Jet 0.1

Church 0.3Grass 0.3Sky 0.2Elephant 0.2

Tree 0.5Grass 0.3Sky 0.1Jet 0.1

R1 R2 R3 R4c1 grass people tree churchc2 grass tree tree churchc.. …. …. …. ……ci grass tree tree elephantc.. …. …. …. ……cj tree people tree churchc256 building Jet jet elephant

Usar CAMs paraobtener mejor

“configuración”Considerarrelacionesespacialesentre regiones

Grass, Tree, Sky,Elephant

© L.E. Sucar: PGM - CAM 50

Campos de Markov• Combinar probabilidad previa (clasificador) con la probabilidad

de la etiqueta dados sus vecinos (relaciones espaciales)

Grass 0.6Tree 0.2rock 0.1building 0.1

People 0.4Tree 0.3Mountain 0.2Jet 0.1

Church 0.3Grass 0.3Sky 0.2Elephant 0.2

Tree 0.5Grass 0.3Sky 0.1Jet 0.1

Grass Tree

Jet

Church

a1a2

a3

a4

© L.E. Sucar: PGM - CAM 51

Función de energía• Considera el potencial inicial de acuerdo a las

características de la región (VO) y lospotenciales dados por sus vecinos para 3 tiposde relaciones espaciales:– Topológicas (VT)– Horizontales (VH)– Verticales (VV)

© L.E. Sucar: PGM - CAM 52

Potenciales

• Los potenciales son inversamenteproporcionales a las probabilidades de cadarelación:

© L.E. Sucar: PGM - CAM 53

Resultados

© L.E. Sucar: PGM - CAM 54

Referencias• Li, “Markov Random Fields Models in Computer

Vision”, Springer-Verlag• Chellapa, Jain, “Markov Random Fields: Theory

and Models”, Academic Press.• C. Hernández, L.E. Sucar, “"Markov Random

Fields and Spatial Information to ImproveAutomatic Image Annotation", Advances inImage and Video Technology, Lecture Notes inComputer Science 4872, Springer-Verlag , pp.879--892, 2007.

• [Koller & Friedman]: Capítulo 4

© L.E. Sucar: PGM - CAM 55

Actividades

• Hacer ejercicio de Campos de Markov