Upload
vocong
View
214
Download
0
Embed Size (px)
Citation preview
Sesión 8:Campos de Markov
Modelos Gráficos ProbabilistasL. Enrique Sucar
INAOE
“…la verdadera lógica de este mundo es el cálculo deprobabilidades, que toma en cuanta la magnitud de lasprobabilidades, las cuales deben estar en la mente de todohombre razonable”
James C. Maxwell, 1850
© L.E. Sucar: PGM - CAM 2
Campos de Markov• Introducción
– Modelo de Ising• Representación
– Tipos de Modelos– Redes de Markov– Vecindades
• Algoritmos– ICM, Metrópolis, Recocido Simulado
• Aplicaciones– Filtrado y recuperación de imágenes
© L.E. Sucar: PGM - CAM 3
Campos de Markov (CAM)
• Ciertos procesos, como un campo magnéticoo una imagen, se pueden ver como una seriede estados en el espacio o una malla deestados.
• A este tipo de modelos se les conoce comoCampos de Markov.
• Estos procesos se pueden considerar comouna extensión de las cadenas de Markov enlos cuales el índice de tiempo se substituyepor un índice espacial
© L.E. Sucar: PGM - CAM 4
Modelo de Ising
• Surgen del problema de modelar materialesferromagnéticos en lo que se conoce comoel Modelo Ising.
• Se tiene una serie de dipolos en una líneaque pueden estar orientados hacia “arriba”(+) o hacia “abajo” (-).
• El estado de cada dipolo se ve influenciadopor los dipolos cercanos - probabilidad paracada estado depende de los estado de lospuntos vecinos.
© L.E. Sucar: PGM - CAM 5
Modelo de Ising
q1 q2 q4q3
Posibles configuraciones:+ + + ++ + + -+ + - +....
© L.E. Sucar: PGM - CAM 6
Modelo de Ising
• Un campo de Markov asigna probabilidad acada configuración en el espacio de posiblesconfiguraciones.
• Se considera que la probabilidad del estado deuna variable es independiente de los demásdados sus 2 vecinos (para una cadena), esdecir que tiene la propiedad Markoviana
( ) ( )knjninkjin qSqSqSPqSqSqSP ======= +! 11....21 ,|,|
© L.E. Sucar: PGM - CAM 7
Configuración más probable• Dadas las probabilidades locales, el problema
central en es encontrar la probabilidad de cada unalas posibles configuraciones, y en particular cual esla configuración más probable.– + + + +– + + + -– + + - +– …– - - + +– …– - - - -
© L.E. Sucar: PGM - CAM 8
Probabilidades
• Podemos distinguir dos factores quedeterminan la probabilidad de unaconfiguración:
• la P a priori de cada estado,• la P conjunta con sus vecinos.
• En el modelo de Ising, estos corresponden ala influencia de un campo magnético externo,y a las interacciones entre los dipolos vecinos.
© L.E. Sucar: PGM - CAM 9
Campos en 2-D
• Esto lo podemos extender de una dimensióna dos dimensiones. En este caso tenemosuna malla de puntos, donde el estado decada punto depende del estado de susvecinos (4, 8, etc).
© L.E. Sucar: PGM - CAM 11
Representación• Un campo aleatorio es una colección de
variables aleatorias indexadas por sitios.
• Se considera un conjunto de variablesaleatorias F = {F1,….., FM}, asociadas a cadasitio del sistema de sitios S. Cada variabletoma un valor fi de un un conjunto deposibles valores L. Entonces F es un campoaleatorio.
• Un campo aleatorio de Markov (CAM) es uncampo aleatorio con la propiedad de“localidad”.
© L.E. Sucar: PGM - CAM 12
PropiedadesUn CAM debe satisfacer las siguientes propiedades:
( )( ) ( )( )iiisi fvecfPffP
positivofP||
0=•
!>•
!
Donde vec( fi ) son los vecinos de fi
© L.E. Sucar: PGM - CAM 13
Vecindad
{ }SVV ii !"= |
Un sistema de vecindad para S se define como:
• Cumple con las siguientes dos propiedades:1. Un sitio no es vecino de si mismo.
2. La relación de vecindad es mutua.
• Se pueden tener diferentes “vecindades” (primerorden, segundo orden, etc.).
© L.E. Sucar: PGM - CAM 14
VecindadPara una malla regular, la vecindad de orden i conradio r se define como:
( ) ( )( ){ }rividistSvV ii !"= ,|
Donde dist(x,y) es la distancia euclidiana entre x y y.
En un sistema de vecindad de primer orden,cada sitio (interior) tiene 4 vecinos; en uno desegundo orden, 8 vecinos: en uno de tercerorden, 12 vecinos, etc.
© L.E. Sucar: PGM - CAM 17
Conjuntos CompletosEl conjunto de sitios junto con las vecindades nosdefinen un grafo no-dirigido: G=(S, V).
Un conjunto completo (C) se define como unsubconjunto de sitios de forma que están todosconectado contra todos
Un conjunto completo puede ser un solo sitio, C1, unpar de sitios vecinos, C2, una tripleta de vecinos, C3, yasí sucesivamente. De forma que la colección de Cpara un grafo esta dada por:
...321 !!!= CCCC
© L.E. Sucar: PGM - CAM 18
Redes de Markov
• Podemos considerar los CAM como un casoespecial de un modelo más general – que son lasRedes de Markov
• Las redes de Markov (RM) son modelos gráficosprobabilísticos no-dirigidos, que representa lasdependencias e independencias de un conjunto devariables
• Un subconjunto A de variables es independientede otro subconjunto C dado un tercer subconjuntoB, si los nodos en B separan en el grafo A de B
© L.E. Sucar: PGM - CAM 20
Redes de Markov
Parametrización:• Podemos en general representar la probabilidad
conjunta de una RM como el producto de lasprobabilidades locales (potenciales) de conjuntoscompletos con un factor de normalización:
P(X1, X2, …, Xn) = 1/z P(C1) P(C2) … P(Cm)• Es suficiente considerar sólo los cliques, pero
también se pueden considerar otro conjuntos (estose hace porque es conveniente en la práctica)
© L.E. Sucar: PGM - CAM 21
Redes de Markov• Parámetros:
q1 q2
q4 q3
q2 q3
q5q4 q2q5P(C1) P(C2)
P(C3)
© L.E. Sucar: PGM - CAM 22
Configuración más probableUna aplicación típica de CAMs es para obtener laconfiguración más probable dadas ciertasrestricciones representadas por las probabilidadeslocales (potenciales)
Podemos expresar la probabilidad conjunta, comoel producto de las probabilidades de lasvecindades:
( ) ccGF PkfP !=/
© L.E. Sucar: PGM - CAM 23
Configuración más probable
Dichas probabilidades de las vecindades(potenciales) se pueden ver como “restricciones”que van a favorecer o desfavorecer ciertasconfiguraciones.
De esta forma, la configuración más probable sepuede ver como aquella que tiene una mayorcompatibilidad con las probabilidades locales.
© L.E. Sucar: PGM - CAM 24
Configuración más probablePodemos expresar los potenciales en forma deexponenciales (de esta forma pueden ser cualquiernúmero real):
Pot(xc) = exp{-Uc (xc)}Así que el producto se vuelve una suma:
Up(f) = Σ Uc (xc)Por lo que la probabilidad conjunta se puede expresar como:
( ) ( ) ( )[ ]fUZfP pGF != exp1/
© L.E. Sucar: PGM - CAM 25
Campo de GibbsLo anterior también se puede obtener mediante unaanalogía entre los CAM y los Campo Aleatorio deGíbbs (CAG).
Una distribución de Gibbs tiene la siguiente forma (Zes una constante de normalización):
( ) ( ) ( )
( )!"#
$%&'(=
!"#
$%&'=
) TfUZ
Donde
TfU
zfP
Ff exp
:
exp1
© L.E. Sucar: PGM - CAM 26
Campo de GibbsU(f) se conoce como la función de energía y seobtiene como la suma de los potenciales de todoslos C:
U ( f ) = Σc Vc ( f )
La configuración más probable corresponde a la deenergía mínima.
La función de energía se puede expresar entérminos de los C de cada tamaño:
( ) ( ) ( ) ( ) .....,,, 332211 +!+!+!= kjicjicic fffVffVfVfU
© L.E. Sucar: PGM - CAM 27
Campo de GibbsSe puede demostrar que un CAM y elcorrespondiente CAG son equivalentes.
Esto permite que se pueda expresar laprobabilidad conjunta especificando lospotenciales de los C. En la práctica seseleccionan los potenciales de acuerdo alcomportamiento deseado – con los potencialesse codifica el conocimiento a priori del problema.
© L.E. Sucar: PGM - CAM 28
Configuración más probable• Entonces, para especificar un CAM se
requiere:– Definir el esquema de vecindad– Especificar las probabilidades
(potenciales) para cada uno de losconjuntos completos de nodos
Para el caso de vecindad de primer orden:
( ) ( ) ( )fVfVfU OOccp !+!= "
© L.E. Sucar: PGM - CAM 29
Configuración más probable• Vc corresponde a PF o la información del
dominio dada por los vecinos y VOcorresponde a PG/F o la información de lasobservaciones; λ es una constante que da elpeso relativo entre ambas.
• Bajo este enfoque, la solución a un problemaparticular corresponde en encontrar laconfiguración del CAM de mayorprobabilidad o de “energía” (UP) mínima. Lafunción que se logre depende de la forma delas funciones para VC y V0.
© L.E. Sucar: PGM - CAM 30
Ejemplo• Por ejemplo, podemos querer “suavizar”
una imagen; es decir, minimizar la“distancia” de cada pixel a sus vecinos,pero también mantenerlo cercano a suvalor en la imagen (observación):
( ) ( )( ) ( )20
2
gffV
uffVc!=
!=
© L.E. Sucar: PGM - CAM 31
Ejemplo
Fimagen “suavizada”
Gimagen “original”
q1 q2
q4 q3
q2 q3
q5 q6q4 q2
q7 q3
q5 q6
q8 q9
© L.E. Sucar: PGM - CAM 35
Algoritmos• El obtener la configuración de mayor
probabilidad (mínima energía) en formadirecta (exhaustiva) prácticamenteimposible (excepto para problemas muypequeños), por lo que se plantea como unproblema de búsqueda. Se busca laconfiguración de mayor probabilidad, sintener que calcular directamente lasprobabilidades de cada configuración.
© L.E. Sucar: PGM - CAM 36
AlgoritmosEl problema incluye 3 aspectos:
1. Representación: CAM con un esquema devecindad y los potenciales asociados
2. Función objetivo: Función de energía aminimizar.
3. Algoritmo de optimización: simulaciónestocástica (Metropolis)
© L.E. Sucar: PGM - CAM 37
Algoritmo básico• Inicializar con un valor aleatorio cada
variable.• Repetir para cada variable en el campo:
- Calcular el valor de energía (potencial) decada variable en base a la funcióndeseada y los valores de los vecinos. - Si el valor de energía es menor al anterior
cambiar de valor. - Si no, con cierta probabilidad también cambiar de
valor.• Hasta que se cumplan N iteraciones o ya
no haya cambios (convergencia)• Obtener configuración “óptima”
© L.E. Sucar: PGM - CAM 38
Variantes
Cálculo del óptimo:
• MAP: se toma el valor para cada variable alfinal de las iteraciones.
• MPM: se toma el valor de mayor frecuenciade acuerdo a su ocurrencia durante lasimulación.
© L.E. Sucar: PGM - CAM 39
VariantesForma de optimización:
• Metrópolis: con probabilidad fija se puedepasar a estados de mayor energía.
• Recocido simulado: se va disminuyendo laprobabilidad de pasar a estados de mayorenergía (temperatura).
• ICM: tomar siempre el estado de menorenergía.
© L.E. Sucar: PGM - CAM 40
Probabilidades de transición
• Probabilidad de transición a estado demayor energía:
• Donde δV es la diferencia de energía yT es la temperatura
TVeP /!"=
© L.E. Sucar: PGM - CAM 41
Ejemplo
• Dada la siguienteimagen:
• Consideramos:– Configuración inicial
de ceros– Vecindad de primer
orden– Potenciales de
suavizamiento con λ=4
0 0 0 0
0 1 1 1
0 1 0 1
0 1 1 1
© L.E. Sucar: PGM - CAM 42
Ejemplo
1era iteración:• 1er sitio:
V1 (0) = 0V1(1) = 2 + 4 (1) = 6
• …• …
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
© L.E. Sucar: PGM - CAM 43
Ejemplo
• …• …• 11vo sitio:
V11(0) = 2V11(1) = 6
• …
0 0 0 0
0 1 1 1
0 1 0 0
0 0 0 0
© L.E. Sucar: PGM - CAM 44
Ejemplo
2da iteración• …• 11ovo sitio:
V11(0) = 4V11(1) = 4
• …
0 0 0 0
0 1 1 1
0 1 1 1
0 1 1 1
© L.E. Sucar: PGM - CAM 45
Aplicaciones
• Procesamiento de imágenes– Eliminación de ruido– Filtrado de una imagen– Segmentación de texturas– Visión estereoscópica– Recuperación de forma (3-D)– Reconocimiento de objetos– Etiquetado de imágenes
© L.E. Sucar: PGM - CAM 49
Otro ejemplo: anotación de imágenesGrass 0.6Tree 0.2rock 0.1building 0.1
People 0.4Tree 0.3Mountain 0.2Jet 0.1
Church 0.3Grass 0.3Sky 0.2Elephant 0.2
Tree 0.5Grass 0.3Sky 0.1Jet 0.1
R1 R2 R3 R4c1 grass people tree churchc2 grass tree tree churchc.. …. …. …. ……ci grass tree tree elephantc.. …. …. …. ……cj tree people tree churchc256 building Jet jet elephant
Usar CAMs paraobtener mejor
“configuración”Considerarrelacionesespacialesentre regiones
Grass, Tree, Sky,Elephant
© L.E. Sucar: PGM - CAM 50
Campos de Markov• Combinar probabilidad previa (clasificador) con la probabilidad
de la etiqueta dados sus vecinos (relaciones espaciales)
Grass 0.6Tree 0.2rock 0.1building 0.1
People 0.4Tree 0.3Mountain 0.2Jet 0.1
Church 0.3Grass 0.3Sky 0.2Elephant 0.2
Tree 0.5Grass 0.3Sky 0.1Jet 0.1
Grass Tree
Jet
Church
a1a2
a3
a4
© L.E. Sucar: PGM - CAM 51
Función de energía• Considera el potencial inicial de acuerdo a las
características de la región (VO) y lospotenciales dados por sus vecinos para 3 tiposde relaciones espaciales:– Topológicas (VT)– Horizontales (VH)– Verticales (VV)
© L.E. Sucar: PGM - CAM 52
Potenciales
• Los potenciales son inversamenteproporcionales a las probabilidades de cadarelación:
© L.E. Sucar: PGM - CAM 54
Referencias• Li, “Markov Random Fields Models in Computer
Vision”, Springer-Verlag• Chellapa, Jain, “Markov Random Fields: Theory
and Models”, Academic Press.• C. Hernández, L.E. Sucar, “"Markov Random
Fields and Spatial Information to ImproveAutomatic Image Annotation", Advances inImage and Video Technology, Lecture Notes inComputer Science 4872, Springer-Verlag , pp.879--892, 2007.
• [Koller & Friedman]: Capítulo 4