View
1
Download
0
Category
Preview:
Citation preview
Borrador
Introducción a la lógica epistémica dinámica *1
Fernando R. Velázquez Quesadahttp://personal.us.es/frvelazquezquesada/
FernandoRVelazquezQ@gmail.com
2
Índice3
Día 0: repaso rápido a la lógica modal y a la lógica epistémica 24
Lógica modal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Lógica epistémica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1. Día 1: el conocimiento cambia / anuncios públicos 57
1.1. Aspecto filosófico . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
1.2. Aspecto técnico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
1.3. Anuncios públicos . . . . . . . . . . . . . . . . . . . . . . . . . . 710
1.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1011
2. Día 2: más sobre anuncios públicos 1012
2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1913
3. Día 3: anuncios mas complejos 2014
3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2915
4. Día 4: creencias 3016
4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3517
5. Día 5: revisión de creencias 3518
5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4119
6. Día 6: ¿qué sigue? 4220
*CursoDEL-h.tex, compiled 18 de marzo de 2015, 15:42.
1
Borrador
Las presentes notas son tan solo una guía sobre los aspectos básicos de la lla-21
mada lógica epistémica dinámica (dynamic epistemic logic). Aquellos interesados22
en este tema pueden consultar libros de texto tales como van Ditmarsch et al.23
(2007) y van Benthem (2011a). La lógica epistémica dinámica se basa en la lógi-24
ca epistémica, la cual es normalmente una (y, en algunos casos, una extensión25
de la) lógica modal básica. Aquellos interesados pueden consultar Hintikka26
(1962); Fagin et al. (1995); Meyer and van Der Hoek (1995) (lógica epistémica)27
y Blackburn et al. (2001, 2006); van Benthem (2010) (lógica modal).28
Día 0: repaso rápido a la lógica modal y a la lógica29
epistémica30
Lógica modal31
Sea P un conjunto contable de proposiciones atómicas, y sea A un conjunto32
de índices.33
Definición (Modelo relacional) Un modelo relacional M basado en P y A es una34
tupla 〈W, {Ri}i∈A ,V〉 donde35
• W es un conjunto no vacío de mundos posibles;36
• Ri ⊆ (W ×W) es la relación de accesibilidad para cada índice i ∈ A;37
• V : P → ℘(W) es la evaluación atómica que nos indica en que mundos38
posibles es verdadera cada proposición atómica p ∈ P.39
A un par (M,w) con w ∈W se le conoce como un estado relacional, y en este caso40
a w se le llama el punto de evaluación. Escribiremos Ri[w] para representar al41
conjunto de mundos posibles accesibles siguiendo relaciones etiquetadas con i42
desde el mundo posible w, es decir, Ri[w] := {u ∈W | Riwu}. J43
Definición (Lenguaje modal) Las fórmulas ϕ,ψ del lenguaje modal L basado44
en P y A se construyen de la siguiente forma:45
ϕ,ψ ::= p | ¬ϕ | ϕ ∨ ψ | ^i ϕ
con p ∈ P y i ∈ A. Las constantes lógicas (>,⊥) y los conectivos booleanos46
restantes (∧,→,↔) se definen en términos de la negación (¬) y la disyunción47
(∨) de la manera habitual; lo mismo ocurre con el operador modal �i (�i ϕ :=48
¬^i ¬ϕ en este último caso). J49
Definición (Interpretación semántica) Sea (M,w) un estado relacional donde50
M = 〈W, {Ri}i∈A ,V〉. La relación de satisfactibilidad |= entre dicho estado y una51
fórmula ϕ en L ((M,w) |= ϕ se lee como “ϕ es verdadera en el mundo w del52
modelo M”) se define recursivamente de la siguiente manera:53
2
Borrador
(M,w) |= p ssi w ∈ V(p)(M,w) |= ¬ϕ ssi no es cierto que (M,w) |= ϕ
(M,w) |= ϕ ∨ ψ ssi (M,w) |= ϕ ó (M,w) |= φ
(M,w) |= ^i ϕ ssi existe un u ∈ Ri[w] tal que (M,u) |= ϕ
54
Observe como el operador modal ^i es un cuantificador existencial sobre los55
mundos accesibles desde el punto de evaluación. Siguiendo su definición, la56
interpretación semántica del operador modal �i es la siguiente:57
(M,w) |= �i ϕ ssi para todo u ∈ Ri[w] se cumple que (M,u) |= ϕ58
es decir, �i es un cuantificador universal sobre los mundos accesibles desde el59
punto de evaluación. J60
Definición (Validez) Se dice que una fórmulaϕ es válida en modelos relaciona-61
les cuando, para todo modelo relacional M = 〈W, {Ri}i∈A ,V〉 y para todo mundo62
posible w ∈W tenemos que (M,w) |= ϕ. J63
Teorema Los esquemas de axiomas y las reglas que aparecen en la tabla 1 forman un64
sistema de derivación correcto y completo para las fórmulas del lenguaje L válidas en65
modelos relacionales. �66
Prop: ` ϕ para toda tautología proposicional ϕK: ` �i (ϕ→ ψ)→ (�i ϕ→ �i ψ) para todo índice i
MP: ` ϕ→ ψ y ` ϕ implican ` ψ
Nec: ` ϕ implica ` �i ϕ para todo índice i
Cuadro 1: Esquemas de axiomas y reglas para la lógica modal.
I Correspondencia modal.67
Lógica epistémica68
La lógica epistémica básica no es mas que una lógica modal en la cual (i) se-69
mánticamente, a los elementos del conjunto A se les interpreta como agentes,70
y a las relaciones de accesibilidad se les interpretan de manera epistémica:71
Riwu nos indica que si w fuera el mundo real, el agente i consideraría posible72
el mundo u; (ii) sintácticamente, los operadores modales se interpretan de73
manera epistémica: fórmulas de la forma �i ϕ se leen como “el agente i sabe ϕ”,74
y fórmulas de la forma ^i ϕ se leen como “el agente i considera ϕ posible”. De75
esta forma, la lógica epistémica nos permite representar y razonar acerca del76
conocimiento que tienen un conjunto de agentes en un momento dado.77
3
Borrador
Siguiendo la interpretación semántica de estos operadores modales pode-78
mos ver que, en lógica epistémica, el hecho de que un agente sepa que una79
fórmula ϕ es verdadera en un estado relacional (M,w), (M,w) |= �i ϕ, quiere80
decir que ϕ es verdadera en todos los mundos que el agente considera posibles desde81
el punto de evaluación; en otras palabras, el concepto de conocimiento se define82
en términos de una cuantificación universal. De la misma forma, el hecho de83
que un agente considere posible una fórmula ϕ en un estado relacional (M,w),84
(M,w) |= ^i ϕ, quiere decir que ϕ es verdadera en algún mundo que el agente85
considera posible desde el punto de evaluación.86
Además de cambiar la interpretación, cuando se trabaja en la lógica epis-87
témica típicamente también se cambian algunos nombres y los símbolos de88
los operadores modales. A un modelo (estado) relacional se le llama modelo89
(estado) de Kripke o modelo (estado) epistémico; al operador modal universal �i90
se le denota como Ki, y al operador modal ^i se le denota como Ki. En estas91
notas seguiremos esta tradición en las secciones 1, 2 y 3.92
Propiedades del conocimiento en lógica epistémica Al dar al operador mo-93
dal universal una lectura de “conocimiento”, estamos entonces aceptando que94
nuestro concepto de conocimiento tiene las propiedades que tiene dicho opera-95
dor. Las dos propiedades básicas son dadas por el axioma K y la regla Nec; estas96
nos dicen que el conocimiento de todo agente i es cerrado bajo modus ponens97
(` Ki(ϕ→ ψ)→ (Kiϕ→ Kiψ)) y que todo agente sabe toda formula válida (` ϕ98
implica ` Kiϕ). Esto nos dice que el conocimiento de todo agente es cerrado99
bajo consecuencia lógica, lo que en algunos casos es una suposición exagerada.100
Esta característica del conocimiento de los agentes representados en la lógica101
epistémica clásica ha sido llamado el problema de la omnisciencia lógica; el lec-102
tor puede encontrar discusiones mas detalladas sobre este problema y varias103
propuestas para solucionarlo en Moreno (1998); Sim (1997, 2000).104
Propiedades de la relación de accesibilidad y su implicación epistémica Co-105
mo se menciono anteriormente, el trabajar con clases de modelos en los cuales106
la relación de accesibilidad tiene ciertas propiedades hace que ciertas fórmulas107
se vuelvan válidas. Algunas de estas fórmulas describen propiedades impor-108
tantes del conocimiento del agente cuando se les da una lectura epistémica, por109
lo cual al asumir que la relación de accesibilidad tiene cierta propiedad estamos110
asumiendo implícitamente que el conocimiento del agente tiene la propiedad111
correspondiente. He aquí alguna de ellas:112
4
Borrador
Propiedad Fórmula Lectura epistémica
Reflexividad Kiϕ→ ϕ Conocimiento implica verdad.Serialidad ¬Ki⊥ El agente i no sabe contradicciones.Transitividad Kiϕ→ KiKiϕ Introspección positiva: si el agente i sa-
be ϕ, entonces él sabe que sabe ϕ.Euclideanidad ¬Kiϕ→ Ki¬Kiϕ Introspección negativa: si el agente i no
sabe ϕ, entonces él sabe que no sabe ϕ.Simetría ϕ→ KiKiϕ Si ϕ es verdadera, el agente i sabe con-
sidera ϕ posible.
113
El término “conocimiento” En la lógica epistémica se utiliza comúnmente el114
término “conocimiento” (“el agente sabe . . . ”) para describir la información que115
tiene el agente. Sin embargo, esto no implica necesariamente que esta informa-116
ción satisfaga propiedades particulares. Aunque en muchos textos se utiliza el117
término “conocimiento” tan solo para aquellos casos en los cuales se asume118
que la relación de accesibilidad es una relación de equivalencia (lo que implica119
que el conocimiento implique verdad, y que todo agente tenga introspección120
positiva y negativa), también podemos encontrar textos que usan el término121
“conocimiento” sin hacer ninguna suposición acerca de dichas relaciones (lo122
que implica no hacer mas suposiciones que las que son dadas por la lógica123
modal básica: el conocimiento de todo agente es cerrado bajo modus ponens124
[axioma K] y todo agente sabe toda fórmula válida [la regla Nec]). En las sec-125
ciones 1, 2 y 3 de las presentes notas utilizaremos este término sin asumir126
ninguna propiedad en particular, excepto cuando indiquemos explícitamente127
lo contrario.128
I Conocimiento común129
1. Día 1: el conocimiento cambia / anuncios públicos130
1.1. Aspecto filosófico131
La información cambia El conocimiento (las creencias, las opiniones; en ge-132
neral, la información) de un agente (un conjunto de agentes) cambian. Una133
pregunta natural es, entonces, ¿cómo se dan estos cambios?134
• Una posible respuesta es la siguiente: “la información cambia con el transcu-135
rrir del tiempo”. Esta respuesta simplemente considera que la información136
cambia, y pese a que en base a esto podemos describir como cambia la137
información, no podemos describir que acciones la modifican.138
5
Borrador
• Otra posible respuesta es “la información cambia por medio de acciones”. Esta139
respuesta nos permite, además de representar cambios en la información,140
estudiar las acciones que provocan este cambio.141
A nosotros nos interesa la segunda opción: queremos estudiar no solamen-142
te la forma en la que la información cambia, sino también las acciones que143
provocan estos cambios.144
Diferentes acciones Obsérvese que, en general, diferentes acciones afectan a145
diferentes actitudes que tenemos hacia la información. Un amigo diciendonos146
“a mi me gusta más la película A” puede cambiar nuestras preferencias sobre la147
película que veremos esta tarde, pero no cambiará el conocimiento que tenemos148
sobre dicha película. De la misma forma, el que otro amigo nos diga “perdió149
tu equipo favorito” cambiará nuestro conocimiento, pero no cambiara nece-150
sariamente nuestras preferencias: preferiríamos que nuestro equipo hubiera151
ganado.1152
Acciones Entonces, ¿qué acciones modifican qué actitudes? He aquí algunas153
actitudes importantes, y algunas de las acciones que las modifican:154
• Conocimiento ¿Cómo cambia lo que sabemos? Cambia por medio de155
observaciones, comunicación confiable, deducción, cambia al olvidar o156
recordar.157
• Creencias ¿Cómo cambia lo que sabemos? Razonamiento por default (i.e.,158
razonamiento por defecto), razonamiento abductivo, revisión de creen-159
cias, hacer suposiciones.160
• X© Otras actitudes: preferencias, intenciones, deseos, . . .161
1.2. Aspecto técnico162
Qué acciones para qué modelos Note como el modelo semántico que hayamos163
seleccionado para representar las actitudes del agente influye a la hora de164
decidir qué acciones vamos a (o, mejor dicho, podemos) representar. Como ya165
se menciono, en lógica epistémica tradicional (es decir, con modelos de Kripke166
como modelos semánticos) todo agente sabe todas las fórmulas válidas, y su167
conocimiento es cerrado bajo modus ponens. Por lo tanto, no es útil (¿tal vez ni168
siquiera posible?) representar actos de inferencia deductiva: si un agente sabe169
las fórmulas ϕ1, . . . , ϕn, y dichas fórmulas implican cierta fórmula ψ (es decir,170 {ϕ1, . . . , ϕn
}|= ψ), entonces el agente sabe automáticamente ψ sin necesidad de171
ninguna acción.172
Por otro lado, dado que no es obligatorio que nuestros agentes sepan cual173
es el mundo real, acciones tales como observación y/o comunicación tienen174
1Claro, también es posible encontrar acciones que modifiquen mas de una actitud: si yo creoque p es falsa y observo que p es verdadera, cambian tanto mi conocimiento como mis creencias.
6
Borrador
sentido para ellos. X© ¿Qué pasa, por ejemplo, con las acciones de olvidar y175
recordar? ¿Tienen estas sentidos para agentes cuyo conocimiento se representa176
con modelos de Kripke?177
¿Cómo representar las acciones que nos interesan? Tenemos al menos dos178
posibilidadesX© ¿Se les ocurre alguna otra forma?. La primera es representar179
las acciones como relaciones, siguiendo el estilo de la lógica temporal (o lógica180
temporal epistémica, como se le conoce). La segunda opciones es representar las181
acciones como operaciones, siguiendo el estilo de la lógica epistémica dinámica.182
Cada una de estas posibilidades tiene sus ventajas y desventajas. Por ejem-183
plo,184
• La representación con relaciones es mas general, y nos permite representar185
diferentes acciones: tan solo tenemos que especificar las propiedades de186
la relación que representa cada acción. Por otro lado, el modelo debe187
contener, desde el inicio, la descripción completa de la manera en que la188
acción (en todas sus instancias posibles) va a modificar las actitudes del189
agente en cada instante de tiempo.190
• La representación como operación es mas particular, ya que probable-191
mente necesitemos un tipo de operación diferente para cada acción, pero192
entonces tan solo es necesaria dicha definición, y en base a ella podemos193
obtener los modelos que representan la información del agente en cual-194
quier momento posterior simplemente mediante la aplicación de dicha195
operación sobre el modelo.196
En estas notas nos enfocaremos en la representación de dos acciones que mo-197
difican el conocimiento, anuncios públicos (que corresponden a lo que hemos198
llamado observaciones) y anuncios en general, y de una acción que modifica199
las creencias, revisión de creencias.200
1.3. Anuncios públicos201
¿Cómo representar un anuncio público?202
Representación relacional Hagamos un ejercicio. ¿Cómo podemos representar203
un anuncio público de manera relacional?204
• Primero, necesitamos una relación Rχ por cada fórmula χ: cada una de205
estas relaciones nos indica el efecto de el anuncio público de χ.206
• Ahora, ¿cómo se comporta dicha relación? Por ejemplo, pensemos en el207
anuncio público de una proposición atómica p. ¿Qué deben que cumplir208
dos mundos indistinguibles w y u para que después del anuncio público209
de p estos sigan siendo indistinguibles, es decir, para que el diagrama sea210
como el siguiente?211
7
Borrador
w u
w′ u′
Rp Rp212
Por otro lado,¿qué deben que cumplir dos mundos indistinguibles w y213
u para que después del anuncio público de p el agente pueda distinguir214
entre ellos, es decir, para que el diagrama sea como el siguiente?215
w u
w′ u′
Rp Rp216
Ahora ¿puede el anuncio público de p ‘agregar’ incertidumbre, es decir, es217
posible que para algunos mundos w y u el diagrama sea como el siguiente?218
w u
w′ u′
Rp Rp219
Aún mas: ¿debe ser la relación Rp una relación determinista, es decir, debe220
el conjunto Rp[w] tener máximo un elemento para todo mundo posible w?221
Y, ¿debe ser la relación Rp total, es decir, debe el conjunto Rp[w] tener al222
menos un elemento para todo mundo posible w?223
Representación operacional Intentemos ahora representar un anuncio público224
de manera operacional. ¿Cómo afecta el anuncio público de una fórmula χ a225
un modelo dado? Si tenemos el modelo M = 〈W, {Ri}i∈A ,V〉, ¿cómo definimos el226
modelo Mχ =⟨W′,
{R′i
}i∈A,V′
⟩que se obtiene después del anuncio público de227
χ? Es decir, intuitivamente, ¿qué efecto tiene en el conocimiento de un conjunto228
de agentes el hecho de que χ sea anunciado públicamente?229
La primera opción que viene a la mente es la siguiente: el anuncio público230
de una fórmula χ les informa a los agentes que χ es verdadera, y por lo tanto231
todos ellos pueden descartar aquellos mundos posibles en los cuales χ es falsa.232
En otras palabras, el anuncio público de χ tiene como efecto la eliminación de233
todos aquellos mundos posibles en los cuales χ es falsa.234
8
Borrador
Una segunda opción surge al observar que en realidad no es necesario235
eliminar los mundos posibles. Lo que nos indica la incertidumbre de los agentes236
es la relación de accesibilidad, así que tan solo es necesario hacer que ningún237
agente considere estos mundos posibles despúes del anuncio público.238
Antes de presentar formalmente estas dos opciones, definimos la siguiente239
notación.240
Notación Para cualquier modelo M = 〈W, {Ri}i∈A ,V〉 y cualquier fórmula ϕ,241
definimos:242 �ϕ�M :=
{w ∈W | (M,w) |= ϕ
}es decir,
�ϕ�M es el conjunto de mundos posibles en M donde ϕ es verdadera.J243
Ahora sí, he aquí las definiciones.244
Definición 1.1 (Eliminando mundos) Sea M = 〈W, {Ri}i∈A ,V〉 un modelo y sea245
χ una fórmula. El modelo M−Wχ =
⟨W′,
{R′i
}i∈A,V′
⟩se define de la siguiente246
manera:247
• W′ := ~χ�M (es decir, W′ := {w ∈W | (M,w) |= χ});248
• R′i := Ri ∩ (W′×W′) para cada i ∈ A;249
• V′(p) := V(p) ∩W′ para cada p ∈ P. J250
Definición 1.2 (Eliminando pares en la relación) Sea M = 〈W, {Ri}i∈A ,V〉 un251
modelo y sea χ una fórmula. El modelo M−Rχ =
⟨W,
{R′i
}i∈A,V
⟩se define de252
la siguiente manera:253
• R′i := Ri ∩ (W × ~χ�M) (es decir, R′i := {(w,u) ∈ Ri | (M,u) |= χ}. J254
Estas dos posibilidades son equivalentes: para cualquier estado (M,w), los255
estados (M−Wχ ,w) y (M−R
χ ,w) satisfacen exactamente las mismas fórmulas enL.2256
I Generalización de estas operaciones257
Preservando las propiedades del concepto Es importante notar que la ope-258
ración debe ser definida de forma que nos mantenga en la clase de modelos259
que nos interesa. La razón técnica es que si estamos trabajando sobre una clase260
de modelos, entonces la operación debe preservar dichas propiedades a fin de261
que sigamos hablando acerca de lo mismo. La razón filosófica es que, si asumi-262
mos que el conocimiento tiene ciertas propiedades, entonces uno esperaría que263
2De hecho, los estados (M−Wχ ,w) y (M−R
χ ,w) son bisimilares. El concepto de bisimulación (sepueden consultar el capítulo 2 de Blackburn et al. (2001) o el capítulo 3 de van Benthem (2010)) esfundamental en la lógica modal, ya que nos define semánticamente las propiedades que deben decumplir dos modelos a fin de satisfacer exactamente las mismas fórmulas del lenguaje modal. Enotras palabras, este concepto nos define de manera semántica el poder expresivo del lenguaje modal.
9
Borrador
dichas propiedades sean preservadas por cualquier acción sobre esta noción,264
independientemente de si el conocimiento del los agentes cambia o no.265
En estas notas no hemos hecho ninguna suposición acerca de las propieda-266
des del modelo, pero hemos mencionado que cuando se trabaja con la noción267
de conocimiento es común el pedir que la relación de accesibilidad sea reflexi-268
va, transitiva y simétrica, es decir, que sea una relación de equivalencia. En ese269
caso, ¿las operaciones que hemos definido preservan dichas propiedades?270
Proposición 1.1 Sea M = 〈W, {Ri}i∈A ,V〉 un modelo cuya relación de accesibilidad271
es una relación de equivalencia. Entonces, la relación de accesibilidad modelo M−Wχ =272 ⟨
W′,{R′i
}i∈A,V′
⟩(Definición 1.1) es también una relación de equivalencia. �273
Por otro lado, la definición de anuncio público de la definición 1.2 no preser-274
va relaciones de equivalencia. Sin embargo podemos solucionar este problema275
cambiando ligeramente la definición de la nueva relación.276
En estas notas nos enfocaremos en la representación operacional de las277
acciones que nos interesan, pero la opción relacional puede tener otras ventajas278
(e.g., representación de protocolos; cf. Hoshi (2009); Wang (2010)). La relación279
entre estas dos representaciones se puede encontrar, para el caso de anuncios,280
en van Benthem and Pacuit (2006); van Benthem et al. (2009a), y para el caso281
de revisión de creencias (la acción que exploraremos en la sección 5), en van282
Benthem and Dégremont (2008).283
1.4. Ejercicios284
Ejercicio 1.1 Demuestre la Proposición 1.1, es decir, demuestre que la definición285
operacional de un anuncio público dada en la definición 1.1 preserva relaciones286
de equivalencia. �287
Ejercicio 1.2 Considere la definición operacional de un anuncio público dada288
en la Definición 1.2.289
(i) Demuestre que dicha operación NO preserva relaciones de equivalencia.290
(ii) De una definición alternativa que siga el mismo espíritu (es decir, que291
modifique tan solo la relación de accesibilidad de los agentes, dejando292
intactos los mundos posibles) pero que sí preserve relaciones de equiva-293
lencia. �294
2. Día 2: más sobre anuncios públicos295
Hemos mencionado que las dos definiciones operacionales de un anuncio296
público, definiciones 1.1 y 1.2, son equivalentes. En el resto de estas notas297
utilizaremos la primera, aquella en la cual eliminamos mundos posibles.298
10
Borrador
Anuncios públicos, sintácticamente Ya sabemos como representar un anun-299
cio público semánticamente. Ahora, para poder estudiar su comportamiento,300
introduciremos fórmulas que nos permiten describir su efecto en nuestro len-301
guaje.302
Definición 2.1 Por cada fórmula χ introducimos una modalidad χ! que nos303
permite crear fórmulas de la forma 〈χ!〉ϕ: “es posible anunciar χ de manera pú-304
blica, y después de hacerlo la fórmula ϕ es verdadera”. Dichas modalidades son305
interpretadas semánticamente de la siguiente manera:306
(M,w) |= 〈χ!〉ϕ ssi (M,w) |= χ y (Mχ!,w) |= ϕ307
donde Mχ! es el modelo que resulta de la operación de anuncio público ya308
discutida. La modalidad dual, [χ!]ϕ, se define como [χ!]ϕ := ¬〈χ!〉 ¬ϕ, y su309
interpretación semántica está entonces dada como310
(M,w) |= [χ!]ϕ ssi (M,w) |= χ implica (Mχ!,w) |= ϕ J311
Anuncios públicos en acción312
Ejemplo 2.1313
Tres niños están jugando en el jardín, y cuando su papá los llama314
para cenar, dos de ellos tienen manchas en la frente. Cada uno de315
ellos puede ver solamente la frente de los otros, y por lo tanto no316
sabe si el mismo está manchado o no. El padre les dice “al menos uno317
de ustedes está manchado”, y entonces les pregunta una y otra vez,318
“¿alguien sabe si está manchado?”. Suponiendo que los niños respoden319
sincera y simultáneamente, ¿qué sucederá?320
Para representar esta situación dentro de la lógica epistémica dinámica,321
empecemos por definir las proposiciones atómicas y los nombres de agentes que322
utilizaremos, y construyamos entonces el modelo que representa la situación323
inicial. Nuestro conjunto de agentes será {a, b, c} (los tres niños involucrados), y324
nuestro conjunto de proposiciones atómicas será {La,Lb,Lc}, con Li indicando325
“el niño i está limpio” (por lo tanto, la fórmula¬Li indica “el niño i está manchado”).326
Para el modelo, los mundos posibles serán cada una de las ocho diferentes327
evaluaciones para tres las proposiciones atómicas, y la relación epistémica de328
cada niño indicará que él puede ver el estado de los demás pero no el suyo, es329
decir, los mundos que serán mutuamente indistinguibles para un niño i serán330
aquellos mundos en los cuales el estado de los otros niños es el mismo pero el331
estado de i varía. El mundo real será aquel en el que a y b están manchados y c332
está limpio.333
La situación inicial puede entonces ser representada por el siguiente estado334
epistémico en el cual cada mundo posible contiene su evaluación atómica (la335
linea sobre una proposición atómica indica que esta proposición es falsa) y el336
mundo real se indica con un círculo doble. Para simplificar el diagrama, las337
lineas indican flechas en ambas direcciones y las relaciones reflexivas se han338
omitido.339
11
Borrador
LaLbLc LaLbLc
LaLbLc LaLbLc
LaLbLc LaLbLc
LaLbLc LaLbLc
c
a
b
b
a
c
bc
a
c
ab
340
Veamos ahora que sucede cuando se realizan los anuncios públicos.341
(i) El padre inicia diciéndoles “al menos uno de ustedes está manchado”. Esto lo342
podemos representar como el anuncio público de la fórmula343
¬La ∨ ¬Lb ∨ ¬Lc
la cual nos dice que o a está manchado, o b está manchado, o c está344
manchado. Como consecuencia de este anuncio, aquellos mundos en los345
cuales dicha fórmula no es verdadera serán eliminados. Esto produce el346
siguiente estado:347
LaLbLc LaLbLc
LaLbLc LaLbLc
LaLbLc LaLbLc
LaLbLc
c
a
b
b
a
c
bc
a
348
12
Borrador
Este diagrama nos muestra como, después del anuncio inicial del padre,349
los niños siguen sin saber si están manchados o no: desde el mundo real,350
LaLbLc, cada uno de ellos considera al menos otro mundo posible en el351
cual él está (no está, respectivamente) manchado.352
(ii) El padre entonces les pregunta “¿alguien sabe si está manchado?”. El modelo353
que resulta del anuncio anterior nos indica que la respuesta debe ser354
negativa: ningún niño sabe si él mismo está manchado. Esta respuesta355
puede representarse con la fórmula356
(¬KaLa ∧ ¬K¬La) ∧ (¬KbLb ∧ ¬Kb¬Lb) ∧ (¬KcLc ∧ ¬Kc¬Lc)
X© (¿Por qué?), y produce el siguiente estadoX© (¿Por qué?):357
LaLbLc LaLbLc
LaLbLc
LaLbLc
c
a
b
358
En este estado, tanto a como b saben que están manchados, ya que desde359
el mundo real ellos consideran solo un mundo como posible, el mismo360
mundo real, y en el ambos están manchados.3 El diagrama también nos361
indica que c no sabe que él está limpio, ya que considera posible una362
situación, LaLbLc, en la cual él está manchado.363
(iii) Cuando el padre repite la pregunta, la respuesta será ahora que tanto364
a como b saben si están manchados pero c no lo sabe. Esta respuesta,365
representada por la fórmula366
(KaLa ∨ Ka¬La) ∧ (KbLb ∨ Kb¬Lb) ∧ (¬KcLc ∧ ¬Kc¬Lc)
X© (¿Por qué?), produce el siguiente estadoX© (¿Por qué?):367
LaLbLc
368
3De hecho, tanto el que a está manchado como el que b está manchado es conocimiento comúnentre a y b.
13
Borrador
Finalmente, después de dos preguntas con sus respectivas respuestas, los369
tres niños saben si están manchados o no.370
Observe como las respuestas de los niños, que son suficientes para que al371
final todos sepan cual es el mundo real, no revelan qué es lo que ellos saben:372
tan solo revelan si ellos saben o no. En otras palabras, cuando los niños dicen373
que sí saben, no dicen “sé que estoy limpio” o “sé que estoy manchado”: tan solo374
dicen “sé si estoy manchado”. J375
Propiedades de la operación Nos podemos hacer ahora las siguientes pregun-376
tas. ¿Es la operación que representa el anuncio público de χ (en cualquiera de377
sus dos versiones) funcional (i.e., regresa un solo modelo como resultado)? ¿Es378
parcial (definida tan solo sobre cierta clase de modelos) o total (definida para379
todos los modelos)? 4380
Dos propiedades interesantes son las siguientes:381
• 〈χ!〉ϕ→ [χ!]ϕ es válida: χ! es funcional.382
• [χ!]ϕ→ 〈χ!〉ϕ no es válida: χ! no es total, tan solo parcial.383
I Fórmulas que son verdaderas antes del anuncio pero falsas después:384
• ¿Es γ→ [χ!]γ válida? ¡Sí! (con γ propsicional).385
• ¿Es ϕ→ [χ!]ϕ válida? ¡No!: Enunciados Moore386
Propiedades de un anuncio público ¿Qué cosas nos dice el lenguaje acerca387
de un anuncio público? Es decir, ¿qué efecto tiene un anuncio público en el388
conocimiento de un conjunto de agentes? Una intuición natural es que, después389
de anunciar cualquier fórmula χ, dicha fórmula será conocimiento común entre390
todos los agentes. ¿Es esto cierto?391
Empecemos por algo mas simple: después de anunciar cualquier fórmula392
χ, ¿todos los agentes sabrán que χ es verdadera? He aquí un primer paso hacia393
ese resultado.394
Proposición 2.1 Para cualquier proposición atómica p, la siguiente fórmula es válida:395
[p!] Kip �
Pasemos ahora al caso general. ¿Es [χ!] Kiχ válida? Para esto tenemos que396
demostrar que (M,w) |= χ implica (Mχ!,w) |= Kiχ, es decir, que cuando tenemos397
(M,w) |= χ también tenemos (Mχ!,u) |= χ para todo mundo posible u ∈ R′i [w].398
La definición de W′ nos dice que tenemos (M, v) |= χ para todo v ∈W′, así que si399
4Nos podemos hacer preguntas similares para el caso en que un anuncio público se define demanera relacional: ¿es la relación que define el anuncio público de χ reflexiva? ¿Es serial, transitivao simétrica? ¿Es determinista y/o total?
14
Borrador
esto implica que (Mχ!, v) |= χ para todo v ∈ W′, entonces habremos terminado.400
¿Es esto cierto? 5401
La respuesta es no: en general, tener (M, v) |= χ no nos garantiza tener402
(Mχ!,u) |= χ, y un contraejemplo es la fórmula p ∧ ¬Kip. Entonces podemos403
demostrar que404
Hecho 2.1 La fórmula [χ!] Kiχ no es válida.405
Demostración. Sea χ la fórmula p ∧ ¬Kip, y tómese el estado siguiente:406
p pw u
407
Observe como tenemos (M,w) |= χ (w satisface a p y puede ver un mundo,408
u, donde p es falsa) y (M,u) |= ¬χ (u no satisface p). Por lo tanto, χ puede ser409
anunciada, y el modelo resultante es el siguiente:410
pw
411
En el nuevo estado el agente considera posible un mundo, el mismo w, en el cual412
χ es falsa (ya que¬Kp es falsa: después del anuncio, el agente considera posibles413
tan solo estados donde p es verdadera). Por lo tanto, tenemos (Mχ!,w) |= ¬Kχ414
lo que junto a (M,w) |= χ nos da415
(M,w) |= 〈χ!〉 ¬Kχ
es decir,416
(M,w) |= ¬[χ!] Kχ �
Observe como no solo tenemos una fórmula y un estado en el cual la fórmula417
es cierta y, después de anunciarla, el agente no sabe que es cierta: tenemos una418
fórmula y un estado en el cual la fórmula es cierta y, después de anunciarla, la419
fórmula es falsa.420
Concentrémonos por un momento en modelos que representan conocimien-421
to, es decir, a modelos en los cuales las relaciones de accesibilidad son relaciones422
de equivalencia. En esta clase de modelos existen, entonces, fórmulas que, cuan-423
do pueden ser anunciadas, (es decir, cuando son verdaderas), lo siguen siendo424
después del anuncio; en otras palabras, existen fórmulas φ tales que [φ!] Kiφ425
es válida (la proposición 2.1 nos da algunos de estos casos). Pero p ∧ ¬Kip nos426
muestra que también existen fórmulas que cuando pueden ser anunciadas, (es427
5Esto se puede intentar demostrar por inducción en las fórmulas χ. La Proposición 2.1 es elcaso base pero el primer paso inductivo, correspondiente a negaciones ¬χ, no se cumple. Uncontraejemplo es tomar ¬χ como ¬(p ∧ ¬Kip), es decir, como ¬p ∨ Kip, y tomar el modelo querepresenta la incertidumbre de i sobre p (ver Hecho 2.1).
15
Borrador
decir, cuando son verdaderas), se vuelven falsas después del anuncio; en otras428
palabras, existen fórmulas φ tales que [φ!]¬Kiφ es válida.429
Pero no todas las fórmulas caen en uno de estos conjunto o en el otro:430
existen fórmulas que, tras ser anunciadas, en algunas situaciones siguen siendo431
verdaderas y en otras situaciones se vuelven falsas. El ejemplo de los niños432
manchados consiste en la repetición sucesiva de la ignorancia de todos niños433
hasta que llega un punto en que algunos de ellos saben. Es decir, tenemos una434
fórmula verdadera (ningún niño sabe) que puede ser anunciada públicamente435
sin verse afectada hasta que llega un momento en el cual su anuncio público436
hace que se vuelva falsa (algunos de los niños ahora saben). Estudios sobre437
este tema se pueden encontrar en van Ditmarsch and Kooi (2006); Holliday and438
Icard (2010).439
Sistema de derivación ¿Existen axiomas y reglas que nos describan comple-440
tamente como se comporta esta modalidad, y por lo tanto nos describan las441
propiedades esenciales de nuestra operación de anuncio público?442
Observemos las siguientes propiedades de la operación de anuncio público.443
(i) La operación preserva modelos de Kripke (inclusive preserva relaciones444
de equivalencia); esto nos dice que la siguiente regla preserva validez.445
ϕ
[χ!]ϕ
(ii) La operación no afecta las evaluaciones atómicas, por lo cual la siguiente446
fórmula es válida447
[χ!] p ↔ (χ→ p)
(iii) La operación es una función parcial:448
[χ!]φ ↔ (χ→ 〈χ!〉φ)
Si substituimos φ por una fórmula negada, digamos ¬ϕ, entonces obtene-449
mos450
[χ!]¬ϕ ↔ (χ→ 〈χ!〉 ¬ϕ)
y, manipulando las negaciones (recuerde la definición de [χ!] ), obtenemos451
[χ!]¬ϕ ↔ (χ→ ¬[χ!]ϕ)
(iv) La conjunción se distribuye sobre un anuncio público452
[χ!] (ϕ ∧ ψ) ↔ ([χ!]ϕ ∧ [χ!]ψ)
(v) Finalmente, la siguiente fórmula también es válida:453
[χ!] Kiϕ ↔(χ→ Ki(χ→ [χ!]ϕ)
)16
Borrador
Observe como las cuatro últimas fórmulas, además de ser válidas, nos dicen454
como reescribir formulas que involucran modalidades de anuncios públicos455
como fórmulas en las cuales no aparece ninguna de estas modalidades. En456
efecto, al aplicar las tres últimas equivalencias de izquierda a derecha, la fórmula457
que esta delante de la modalidad de anuncio público es mas sencilla que antes,458
y eventualmente llegaremos a casos en los cuales tan solo hay proposiciones459
atómicas enfrente de dichas modalidades; en este caso podemos aplicar la460
primera equivalencia, la cual nos permite eliminar la modalidad por completo.461
Este proceso funciona inclusive si tenemos modalidades de anuncios públicos462
anidadas (es decir, fórmulas tales como [p!] [Kiq!] r), ya que podemos enfocarnos463
primero a eliminar la modalidad que aparece ‘mas adentro’ de la fórmula ([Kiq!]464
en la fórmula anterior) y como resultado obtendremos una fórmula en la cual465
hay una modalidad de anuncio público menos, lo que nos permite repetir la466
estrategia hasta eliminarlas todas.467
A las fórmulas anteriores, recolectadas en la Tabla 2, se les conoce como468
axiomas de reducción.
[χ!] p ↔ (χ→ p)[χ!]¬ϕ ↔ (χ→ ¬[χ!]ϕ)[χ!] (ϕ ∧ ψ) ↔ ([χ!]ϕ ∧ [χ!]ψ)[χ!] Kiϕ ↔
(χ→ Ki(χ→ [χ!]ϕ)
)Cuadro 2: Axiomas de reducción para las modalidades de anuncios públicos.
469
Puntos interesantes He aquí varios puntos interesantes a observar acerca de470
los anuncios públicos.471
(i) Observe como los axiomas de reducción nos indican que en realidad472
no estamos agregando poder expresivo al lenguaje modal básico: toda473
fórmula que tenga modalidades de anuncios públicos es semánticamente474
equivalente a una fórmula sin dichas modalidades.6475
(ii) Al agregar dichos axiomas al sistema de derivación para la lógica modal476
básica (junto a la regla que deriva [χ!]ϕ a partir de ϕ y un axioma adicio-477
nal de la forma [χ!] (ϕ→ ψ) → ([χ!]ϕ → [χ!]ψ)) obtenemos un sistema478
de derivación correcto y completo para el lenguaje modal con modalida-479
des de anuncios públicos. Este sistema ampliado es correcto porque los480
axiomas que hemos agregados, los axiomas de reducción, son válidos. El481
6Esto es el caso para el lenguaje modal básico, es decir, aquel que extiende el lenguaje proposicio-nal con las modalidades universales y existenciales. Esto no es cierto cuando el lenguaje con el quetrabajamos tiene mas operadores, como por ejemplo el operador de conocimiento común. Primero,el lenguaje con conocimiento común es mas expresivo que le lenguaje modal básico y, segundo,el agregar modalidades de anuncio público al lenguaje con conocimiento común sí incrementa supoder expresivo.
17
Borrador
sistema es completo porque toda fórmula válida que involucre modalida-482
des de anuncios públicos puede ser reescrita como una fórmula sin dichas483
modalidades, para las cuales el sistema original es ya completo. Detalles484
adicionales se pueden encontrar en van Ditmarsch et al. (2007) (sección485
4.8) y en Wang and Cao (2013) (véase, en particular, el corolario 12).486
(iii) El conjunto de fórmulas válidas en el lenguaje modal es cerrado bajo subs-487
titución uniforme, es decir, si tenemos una fórmula valida χ y substitui-488
mos en ella de manera uniforme cualquier ocurrencia de una proposición489
atómica p por cualquier fórmula dada ϕ, la fórmula resultante χ′ tam-490
bién es válida. Sin embargo, esto no sucede con el lenguaje modal mas491
la modalidad de anuncio público: como ya vimos, [p!] p es válida, pero492
[(p ∧ ¬Kp)!] (p ∧ ¬Kp) no lo es.493
(iv) El que un sistema de derivación se comporte de manera monótona no494
implica que los conceptos representados en el sistema también lo sean.495
Considere nuestro sistema de derivación. El sistema es simplemente un496
sistema modal (los axiomas de reducción nos dicen que la modalidad497
de anuncio público puede ser expresada con el lenguaje modal) y por lo498
tanto monótono. Sin embargo, el concepto que se estudia, conocimiento,499
no lo es: la formula Kξ → [χ!] Kξ, que indica que si el agente sabe ξ500
entonces lo seguirá sabiendo después del anuncio público de χ, no es501
válida. Considere, otra vez, el siguiente estado:502
p pw u
503
En el modelo anterior el agente no sabe p (¬Kp) y sabe que no lo sabe504
(K¬Kp). Como p es cierta, puede ser anunciada, lo que produce el siguiente505
estado506
pw
507
En el estado resultante el agente ya no sabe que no sabe p (¬K¬Kp) porque508
ahora sabe p (Kp), sabe que sabe p (KKp) y así sucesivamente. Tenemos509
entonces un estado (M,w) y dos fórmulas ξ := ¬Kp y χ := p tales que510
• (M,w) |= Kξ: el agente sabe ξ;511
• (M,w) |= 〈χ!〉 ¬Kξ: se puede anunciar χ y, después de hacerlo, el512
agente NO sabrá ξ.513
Es decir, el conocimiento no se comporta de manera monótona: anuncios514
extras pueden anular conocimiento que ya teníamos.515
18
Borrador
2.1. Ejercicios516
Ejercicio 2.1 Considere las siguientes variantes del Ejemplo 2.1. En cada uno517
de los casos, indiqué si los niños pueden llegar a saber si están manchados o518
no y, dado el caso, en que momento lo llegan a saber.519
1. Suponga que tan solo a está manchado.520
2. Suponga que los tres niños a, b y c están manchados.521
3. ¿Qué pasa en general cuando tenemos n niños y k de ellos (con 1 ≤ k ≤ n)522
están manchados? �523
Ejercicio 2.2 Demuestre que:524
1. 〈χ!〉ϕ → [χ!]ϕ es válida. Esto nos dice que un anuncio público χ! es525
funcional.526
2. [χ!]ϕ→ 〈χ!〉ϕ no es válida, es decir, proporcione dos fórmulas χ, ϕ y un527
estado epistémico (M,w) tales que (M,w) 1 [χ!]ϕ→ 〈χ!〉ϕ. Esto nos dice528
que un anuncio público χ! no es total, tan solo parcial (es decir, que dada529
una fórmula χ, esta tan solo puede ser anunciada públicamente en ciertos530
casos [¿Cuáles?]). �531
Ejercicio 2.3 Demuestre la proposición 2.1, es decir, demuestre que para cual-532
quier proposición atómica p, la fórmula [p!] Kip es válida: �533
Ejercicio 2.4 Considere la fórmula χ := p ∧ ¬Kip, la cuál nos permite demos-534
trar que [χ!] Kiχ no es válida (Hecho 2.1). Epistémicamente, ¿qué expresa esta535
fórmula? Es decir, ¿qué nos dice acerca de la información del agente? ¿Es razo-536
nable que, después de que esta fórmula es anunciada, el agente no sepa que es537
verdadera? �538
Ejercicio 2.5 Demuestre que si φ es una fórmula proposicional (es decir, no539
contiene ningún operador modal), entonces [φ!] Kiφ es válida. �540
Ejercicio 2.6 Demuestre que si φ es la fórmula φ := p∧¬Kip y asumimos que la541
relación de accesibilidad es reflexiva, entonces la fórmula [φ!]¬Kiφ es válida.�542
Ejercicio 2.7 Demuestre que los cuatro axiomas de reducción (Tabla 2) son543
válidos. Sugerencia: para el caso del axioma de reducción para el operador modal544
universal, [χ!] Kiϕ ↔ (χ → Ki(χ→ [χ!]ϕ)), podría ser mas fácil demostrar su545
‘dual’ (y también equivalente: recuerde la definición de [χ!] y de Ki), la fórmula546
〈χ!〉 Kiϕ ↔(χ ∧ Ki(χ ∧ 〈χ!〉ϕ)
)�
19
Borrador
Ejercicio 2.8 El axioma de reducción para operador modal universal, [χ!] Kiϕ↔547
(χ→ Ki(χ→ [χ!]ϕ)), es el más importante desde el punto de vista epistémico,548
ya que nos indica qué es lo que se necesita antes del anuncio público de cierta549
fórmula χ a fin de que después del anuncio el agente sepa cierta fórmula ϕ.550
(i) ¿Cuál es la lectura epistémica de este axioma? Es decir, ¿Que se necesita551
antes del anuncio público de χ para que el agente ϕ después del anuncio?552
(ii) ¿Cuál es la lectura epistémica de su dual, la fórmula 〈χ!〉 Kiϕ ↔
(χ ∧553
Ki(χ ∧ 〈χ!〉ϕ))?554
(iii) A primera vista uno podría esperar que la fórmula [χ!] Kiϕ ↔ (χ →555
Ki(χ→ ϕ)), que difiere del axioma de reducción tan solo en el consecuente556
de la implicación que aparece bajo el operador modal en el lado derecho557
(ϕ en lugar de [χ!]ϕ), fuera válida. ¿Por qué, a diferencia del axioma de558
reducción, no lo es? Es decir, ¿por qué debe aparecer [χ!]ϕ y no solamente559
ϕ? �560
Ejercicio 2.9 Proporcione un axioma de reducción que exprese el resultado de561
dos anuncios públicos consecutivos como el resultado de uno solo. En otras562
palabras, ‘rellene’ el espacio vació en563
[χ!] [ξ!]ϕ ↔ [ !]ϕ
de forma que la fórmula resultante sea válida, y demuéstrelo. �564
3. Día 3: anuncios mas complejos565
Anuncios más complejos Ya sabemos como representar el anuncio público de566
una fórmula dada χ. Ahora, ¿qué sucede si el anuncio no es público?567
Ejemplo 3.1 Suponga que una persona a la que llamaremos el juez echa un568
volado, ocultando inicialmente el resultado a dos agentes a y b. Para los agentes569
es entonces posible tanto que el resultado del volado sea sol (p, lo que en570
realidad ha sucedido) o águila (¬p).571
Suponga que el juez informa solamente a a del resultado del volado, y b572
observa esto. ¿Cuál debe ser el resultado de esta acción? Es claro que a debe573
saber ahora que p es cierta (Kap), y que b no lo debe saber (¬Kbp). ¿Es este574
todo el conocimiento que cambia? La respuesta es no: antes del anuncio de575
p la ignorancia acerca de p era conocimiento común entre a y b, pero ahora576
b sabe que a sabe (i.e., Kb(Kap ∨ Ka¬p)) mientras que a sabe que b no sabe577
(i.e., Ka(¬kboxbp ∧ ¬Kb¬p)). ¿Qué estado epistémico representa, entonces, el578
resultado de este tipo de anuncio? J579
20
Borrador
Ejemplo 3.2 Supongamos ahora que el juez informa solamente a a del resul-580
tado del volado y que, aunque b observa esto, el también considera posible581
que a no haya escuchado el anuncio del juez (aunque, en realidad, a sí escu-582
cho el anuncio). Al igual que en el ejemplo anterior, después del anuncio, a583
sabe que p es cierta, y b no lo sabe. Pero, aunque a sabe que b no sabe (i.e.,584
Ka(¬kboxbp ∧ ¬Kb¬p)), ahora b no sabe que a sabe (i.e., ¬Kb(Kap ∨ Ka¬p)). ¿Qué585
estado epistémico representa, entonces, el resultado de este anuncio? J586
Uno puede, por supuesto, encontrar situaciones mas complejas. Parece en-587
tones que el buscar una definición particular para cada uno de estos tipos de588
anuncios sería una tarea que no terminaría nunca. La pregunta es, entonces,589
¿podemos definir un método general que nos permita representar cualquier590
anuncio de este tipo?591
Los tipos de anuncios que queremos representar La pregunta anterior es592
ambigua; si queremos darle una respuesta, debemos ser mas precisos. Una593
forma de describir lo que queremos es lo siguiente: estamos interesados en594
representar anuncios en los cuales algunos agentes podrían no estar seguros595
acerca de qué es lo que se ha anunciado. Esta descripción cubre el caso mas596
sencillo, es decir, el caso del anuncio público de una fórmula χ, en el cual todos597
los agentes consideran una sola posibilidad sobre la fórmula anunciada: χ. La598
descripción también cubre el caso del ejemplo 3.1 en el cual a está seguro de que599
la fórmula anunciada fue p, pero b no sabe si la fórmula anunciada fue p o ¬p.600
Inclusive también cubre el caso del ejemplo 3.2, en el cual a sabe que la fórmula601
anunciada fue p, pero desde el punto de vista de b el anuncio pudo haber sido602
p, o ¬p o inclusive > con lo cual estaríamos representando la posibilidad en la603
cual no hubo ningún cambio en conocimiento y, por lo tanto ningún anuncio604
(recuerde que > es la fórmula que es siempre verdadera y, dada la regla Nec,605
todo agente sabe>; por lo tanto, un anuncio de> no modificará el conocimiento606
de ningún agente).607
Estamos, entonces, interesados en representar anuncios en los cuales algu-608
nos agentes podrían no estar seguros acerca de qué es lo que se ha anunciado.609
¿Cómo podemos representar dichas situaciones?610
Modelos de acción Recordemos que nuestros modelos de Kripke nos permiten611
representar la incertidumbre que tiene un conjunto de agentes acerca de cual es612
la situación actual. Podemos entonces utilizar una estructura similar para re-613
presentar la incertidumbre que dichos agentes tienen respecto a la fórmula que614
ha sido anunciada. Esta estructura estaría formada entonces por un conjunto615
de ’anuncios posibles’ y por una relación de accesibilidad que nos describe la616
incertidumbre epistémica que tiene cada uno de los agentes involucrados sobre617
el anuncio que ha ocurrido. Dicha estructura puede ser definida formalmente618
de la siguiente manera.619
Definición 3.1 (Modelo de acción (Baltag et al. 1999)) Sea L el lenguaje de la620
lógica epistémica. Un modelo de acción M es una tupla 〈E, {Ti}i∈A ,Pre〉 en la cual621
21
Borrador
• E es un conjunto no vació de eventos;622
• Ti ⊆ (E × E) es la relación de accesibilidad para cada agente i;623
• Pre : E → ℘(L) es la función de precondición, indicando la fórmula que624
representa cada evento e ∈ E;625
A un par (M, e) con e ∈ E se le conoce como una acción epistémica. Escribiremos626
Ti[e] para representar el conjunto de eventos accesibles para el agente i desde627
el evento e, es decir, Ti[e] :={f ∈ E | Tie f
}. J628
Algunos modelos de acción Veamos ahora que tan general es nuestro modelo629
de acción.630
Primero, ¿qué modelo de acción corresponde a un anuncio público de χ?631
Debe ser un modelo en el cual todo agente esté seguro de cual es la fórmula632
que se está anunciando, y en el cual esto sea conocimiento común. He aquí el633
modelo mas simple que cumple estas condiciones (recuerde que A es nuestro634
conjunto de agentes):635
χe
A
636
Segundo, ¿qué modelo de acción corresponde al anuncio del Ejercicio 3.1637
en el cual a escucha el anuncio pero b no sabe si este fue p o ¬p, y ambos se dan638
cuenta de esto?639
p ¬pe f
b
a, b a, b
640
En general, si al anunciar χ los agentes en B ⊆ A escuchan χ mientras que641
los agentes en A \ B no saben si el anuncio fue χ o ξ, ¿qué modelo de acción642
representa este anuncio?643
χ ξe f
B
A A
644
Y ¿cómo representaríamos el anuncio del Ejercicio 3.2?645
El efecto de un modelo de acción Ya tenemos una forma de representar el646
tipo de anuncios que nos interesa. Ahora, ¿cómo afecta un modelo de acción, la647
22
Borrador
estructura que describe la incertidumbre de los agentes acerca de el anuncio que648
ha ocurrido, a un modelo de Kripke, la estructura que describe la incertidumbre649
de los agentes acerca de la situación real? En otras palabras, dado un modelo de650
Kripke M y un modelo de acción M, como es el modelo M′ =⟨W′,
{R′i
}i∈A,V′
⟩651
que representa el resultado de ejecutar M en M?652
• Con respecto a los mundos posibles del nuevo modelo, ¿cuáles serán?653
Pensemos en una situación sencilla con tan solo un agente y su colección654
de mundos posibles, y un anunció que puede haber sido, desde el punto655
de vista del agente, tanto de e (es decir, la fórmula representada por e)656
como de f (es decir, la fórmula representada por f ). ¿Qué sucede con657
cada uno de los mundos posibles anteriores? Si un agente no puede658
distinguir entre dos eventos e y f , entonces cada mundo posible se divide659
en dos posibilidades: la que hubiera resultado si el anuncio hubiera sido660
e, y la que hubiese resultado si el anuncio hubiera sido f . Podríamos661
decir que, en cierta forma, un anuncio en el cual el agente no sabe si662
la fórmula anunciada es e o f ’duplica’ la incertidumbre del agente, es663
decir, duplica cada mundo posible w, con la primera copia we (o (w, e))664
representando la situación en la cual el anuncio fue e y la segunda copia665
w f (o (w, f )) representando la situación en al cual el anuncio fue f . Pero666
esto no tiene que ser exactamente así: no todo anuncio puede suceder667
en cualquier mundo posible. No es necesario que el nuevo conjunto de668
mundos posibles contenga todos los pares de la forma (mundo posible669
w, anuncio posible e), sino tan solo aquellos tales que el anuncio e pudo670
haber sido hecho en el mundo w.671
• Con respecto a la relación epistémica, ¿cuándo podemos decir que el672
agente no puede distinguir entre los mundos posibles (w, e) y (u, f )? Ob-673
servemos primero que el agente no debería haber podido distinguir entre674
w y u; si este fuera el caso, el anuncio estaría introduciendo incertidumbre675
entre dos situaciones que el agente ya podía distinguir. En otras palabras,676
si siendo w el mundo real el agente ya había descartado la situación u,677
un anuncio verdadero no puede hacer que el agente considere posible678
u. Pero entonces, si el agente no podía distinguir entre w y u, entonces679
no podrá distinguir entre (w, e) y (u, f ) solamente cuando la información680
que proporciona el anuncio no es suficiente para distinguirlos, es decir,681
cuando el agente no puede decir si el anuncio fue e o f . En otras palabras,682
si el agente no puede distinguir entre w y u, y tanto e como f pueden ser683
anunciadas tanto en ambos w y en u, entonces el agente no puede distin-684
guir entre (w, e) y (u, f ) exactamente cuando no pudo distinguir entre e y685
f .686
• Con respecto a la evaluación de proposiciones atómicas, observe que, al687
igual que un anuncio público, las acciones con las que estamos traba-688
jando modifican la información de los agentes, pero no el mundo real;689
por lo tanto la evaluación atómica no debe cambiar. Esto nos indica que690
23
Borrador
cada mundo posible (w, e) debe hacer verdaderas exactamente aquellas691
proposiciones atómicas que son verdaderas en el mundo original w.692
He aquí, entonces, nuestra definición formal.693
Definición 3.2 Sea M = 〈W, {Ri}i∈A ,V〉un modelo de Kripke y sea M = 〈E, {Ti}i∈A ,Pre〉694
un modelo de acción. El modelo de Kripke M ⊗M =⟨W′,
{R′i
}i∈A,V′
⟩se define695
de la siguiente manera.696
• W′ := {(w, e) ∈ (W × E) | (M,w) |= Pre(e)}697
• R′i :={(
(w, e), (u, f ))∈ (W′
×W′) | Riwu y Tie f}, para cada i ∈ A;698
• V′(p) :={(w, e) ∈W′
| w ∈ V(p)}, para cada p ∈ P; J699
Ejemplo 3.3 Suponga que una persona a la que llamaremos el juez echa un700
volado, ocultando inicialmente el resultado a dos agentes a y b. Para los agentes701
es entonces posible tanto que el resultado del volado sea sol (p, lo que en702
realidad ha sucedido) o águila (¬p), y esta información puede ser representada703
con el siguiente estado:704
p pw u
a, b
a, b a, b
M
705
En este estado, tanto a como b tienen incertidumbre acerca del resultado del706
volado (p) y esto es conocimiento común, es decir, las siguientes fórmulas (entre707
muchas otras) son verdaderas:708
• ¬Kap ∧ ¬Ka¬p a no sabe si p• ¬Kbp ∧ ¬Kb¬p b no sabe si p• Ka(¬Kbp ∧ ¬Kb¬p) a sabe que b no sabe si p• Kb(¬Kap ∧ ¬Ka¬p) b sabe que a no sabe si p
709
Revisemos ahora que sucede cuando ocurren diferentes tipos de anuncios.710
(i) Supongamos que el juez anuncia de manera pública que el resultado711
del volado es sol (p). Este anuncio se puede representar con el siguiente712
modelo de acción:713
pe
a, b
M1
714
24
Borrador
El resultado de efectuar el anuncio (M1, e) en el estado (M,w) es el estado715 (M ⊗M1, (w, e)
)cuyo diagrama aparece a continuación:716
p pw u
a, b
a, b a, b
⊗p
e
a, b
=p
(w, e)
a, b
M M1 M ⊗M1
717
En el estado resultante, y como consecuencia del anuncio público, tanto a718
como b saben que el resultado del volado es sol (p), y esto es conocimiento719
común entre ellos. Esto hace que las siguientes fórmulas sean verdaderas720
en(M ⊗M1, (w, e)
):721
• Kap a sabe que p• Kbp b sabe que p• KaKbp a sabe que b sabe que p• KbKap b sabe que a sabe que p
722
(ii) Supongamos que el anuncio no es público sino privado: el juez le dice a a el723
resultado del volado, y b observa esto. Este anuncio se puede representar724
ahora con el siguiente modelo de acción:725
p ¬pe f
b
a, b a, b
M2
726
El resultado de efectuar el anuncio (M2, e) en el estado (M,w) es el estado727 (M ⊗M2, (w, e)
)cuyo diagrama aparece a continuación:728
729
p pw u
a, b
a, b a, b
⊗p ¬p
e f
b
a, b a, b
=p p
(w, e) (u, f )
b
a, b a, b
M M2 M ⊗M2
730
En el estado resultante a saben que p pero b no lo sabe. Aún mas: a sabe que731
b no sabe, pero b sabe que a sabe. Esto se puede expresar con las siguientes732
fórmulas, todas ellas verdaderas en el estado resultante(M ⊗M2, (w, e)
):733
25
Borrador
• Kap a sabe que p• ¬Kbp ∧ ¬Kb¬p b no sabe si p• Ka(¬Kbp ∧ ¬Kb¬p) a sabe que b no sabe si p• Kb(Kap ∨ Ka¬p) b sabe que a sabe si p
734
(iii) Compliquemos un poco mas el anuncio. Supongamos que el juez le dice735
a a el resultado del volado, pero aunque b observa esto, el sabe que a736
tiene problemas de oído, y es posible que a no haya escuchado el anuncio737
del juez. Un modelo de acción que representa esta acción es entonces el738
siguiente.739
p ¬p
>
e f
g
b
b
a, b
b
a, b
a, b
M3
740
El resultado de efectuar el anuncio (M3, e) en el estado (M,w) es el estado741 (M ⊗M3, (w, e)
)cuyo diagrama aparece a continuación:742
743
p pw u
a, b
a, b a, b
⊗
p ¬p
>
e f
g
b
b
a, b
b
a, b
a, b
=
p p
p p
(w, e) (u, f )
(w, g) (u, g)
b
b
b
a, b
b
b
a, b
a, b
a, b a, b
M M3 M ⊗M3
744
Observe como el modelo resultante puede ser dividido en tres partes,745
cada una de ellas representando la incertidumbre que tiene b acerca de la746
información que a recibió. La primera parte está formada por el mundo747
(w, e), y representa la situación en la cual a escucho el anuncio de p (y,748
por lo tanto, sabe que p); la segunda parte está formada por el mundo749
(u, f ), y representa la situación en la cual a escucho el anuncio de ¬p (y,750
26
Borrador
por lo tanto, sabe que ¬p); la tercera está formada por la parte inferior del751
diagrama, es decir, los mundos (w, g) y (u, g), y representa la situación en752
la cual a no escucho el anuncio del juez (y, por lo tanto, no sabe si p).753
La consecuencia del anuncio es que, en el estado resultante, a saben que p754
pero b no lo sabe. Tal y como en el caso anterior, a sabe que b no sabe, pero755
ahora b no sabe que a sabe, ya que desde su pundo de vista, a podría no756
haber escuchado el anuncio. Sin embargo, b considera posible que a sepa.757
Esto se puede expresar con las siguientes fórmulas, todas ellas verdaderas758
en el estado resultante(M ⊗M3, (w, e)
):759
• Kap a sabe que p• ¬Kbp ∧ ¬Kb¬p b no sabe si p• Ka(¬Kbp ∧ ¬Kb¬p) a sabe que b no sabe si p• ¬Kb(Kap ∨ Ka¬p) b no sabe que a sabe si p• KbKap b considera posible que a sepa que p• KbKa¬p b considera posible que a sepa que ¬p
760
(iv) Compliquemos el anuncio aún más. Supongamos que el juez le dice a a el761
resultado del volado, pero b no observa (y ni siquiera sospecha) esto. Es762
decir, desde el punto de vista de b, a no ha recibido ninguna información.763
He aquí un modelo de acción que representa esta acción:764
p ¬p
>
e f
g
b
a
b
a
a, b
M4
765
X© Note como el evento f no es necesario.766
El resultado de efectuar el anuncio (M4, e) en el estado (M,w) es el estado767 (M ⊗M4, (w, e)
)cuyo diagrama aparece a continuaciónX© si eliminamos768
el evento f , el mundo (u, f ) desaparece:769
770
27
Borradorp p
w u
a, b
a, b a, b
⊗
p ¬p
>
e f
g
b
a
b
a
a, b
=
p p
p p
(w, e) (u, f )
(w, g) (u, g)
b
b
a
b
b
a
a, b
a, b a, b
M M4 M ⊗M4
771
El modelo resultante puede ser otra vez dividido en tres partes, pero ahora772
b considera posible tan solo una de ellas: la parte inferior, formada por los773
mundos (w, g) y (u, g), que representa la situación en la cual a no recibió774
ninguna información, y por lo tanto sigue sin saber si p.775
A consecuencia del anuncio, a sabe que p pero b no lo sabe. Tal y como776
en el caso anterior, a sabe que b no sabe, pero ahora no solo b no sabe que777
a sabe: b ni siquiera considera posible que a sepa, es decir, b ‘sabe’ que a778
no sabe. Esto se puede expresar con las siguientes fórmulas, todas ellas779
verdaderas en el estado resultante(M ⊗M4, (w, e)
):780
• Kap a sabe que p• ¬Kbp ∧ ¬Kb¬p b no sabe si p• Ka(¬Kbp ∧ ¬Kb¬p) a sabe que b no sabe si p• ¬Kb(Kap ∨ Ka¬p) b no sabe que a sabe si p• ¬KbKap b no considera posible que a sepa que p• ¬KbKa¬p b no considera posible que a sepa que ¬p• Kb(¬Kap ∧ ¬Ka¬p) b ‘sabe’ que a no sabe si p
781
¿Qué otros anuncios podemos representar, y cual es su efecto? J782
En el lenguaje He aquí como podemos expresar los efectos de un modelo de783
acción con nuestro lenguaje.784
Definición 3.3 Sea (M,w) un estado, y sea (M, e) un estado de acción con M =785
〈E, {Ti}i∈A ,Pre〉. Entonces786
(M,w) |= 〈M, e〉ϕ iff (M,w) |= Pre(e) y(M ⊗M, (w, e)
)|= ϕ787
La modalidad dual, [M, e]ϕ, se define como [M, e]ϕ := ¬〈M, e〉 ¬ϕ, y su inter-788
pretación semántica está entonces dada como789
(M,w) |= [M, e]ϕ iff (M,w) |= Pre(e) implica(M ⊗M, (w, e)
)|= ϕ J790
28
Borrador
Sistema de derivación Al igual que en el caso del anuncio público, las propie-791
dades que pueden ser expresadas con las modalidades para modelos de acción792
también pueden ser expresadas con fórmulas que no involucran dichas modali-793
dades: esto es porqué estas modalidades pueden ser eliminadas recursivamente794
de cualquier fórmula que las involucre, siguiendo los axiomas de reducción que795
aparecen en la tabla 3.
[M, e] p ↔ (Pre(e)→ p)[M, e]¬ϕ ↔ (Pre(e)→ ¬[M, e]ϕ)[M, e] (ϕ ∧ ψ) ↔ ([M, e]ϕ ∧ [M, e]ψ)[M, e] Kiϕ ↔
(Pre(e)→
∧f∈Ti[e] Ki(Pre( f )→ [M, f ]ϕ)
)Cuadro 3: Axiomas de reducción para las modalidades de modelos de acción.
796
3.1. Ejercicios797
Ejercicio 3.1 Sea M = 〈W, {Ri}i∈A ,V〉 un modelo de Kripke, sea χ una fórmula,798
y sea Mχ = 〈E, {Ti}i∈A ,Pre〉 el modelo de acción definido como799
• E := {e};800
• Ti := {(e, e)} para todo agente i;801
• Pre(e) := χ802
es decir, el modelo de acción del siguiente diagrama:803
χe
A
804
Demuestre que los modelos de Kripke M−Wχ y M⊗Mχ son idénticos, es decir,805
que el modelo de acción Mχ representa el anuncio público de χ. �806
Ejercicio 3.2 Sea M = 〈W,R,V〉 un modelo en el cual R es una relación de807
equivalencia. ¿Qué propiedades debe satisfacer la relación T de un modelo de808
acción M = 〈E,T,Pre〉 para que la relación R′ del modelo M⊗M sea también una809
relación de equivalencia? ¿Qué nos dice esto acerca del tipo de anuncios que810
podemos representar con modelos de acción cuando trabajamos con la noción811
de conocimiento? �812
Ejercicio 3.3 Demuestre que el axioma de reducción de una modalidad de813
modelos de acción (M, e) para la modalidad universal �i, la fórmula814
[M, e] Kiϕ ↔(
Pre(e)→∧
f∈Ti[e]
Ki(Pre( f )→ [M, f ]ϕ))
29
Borrador
es válida. Sugerencia: podría ser más fácil demostrar la validez de la fórmula815
dual816
〈M, e〉 Kiϕ ↔(
Pre(e) ∧∨
f∈Ti[e]
Ki(Pre( f ) ∧ 〈M, f 〉ϕ))
�
4. Día 4: creencias817
Nota En esta y la siguiente sección volveremos a denotar al operador modal818
existencial como ^i y al operador modal universal como �i. También volvere-819
mos a utilizar el nombre modelo relacional para las estructuras semánticas que820
hemos utilizado.821
En las secciones anteriores hemos presentado un sistema que nos permite822
representar la forma en que distintos tipos de anuncios cambian el conoci-823
miento de un conjunto de agentes. Ya discutimos el porqué otra acción que824
modifica nuestro conocimiento, inferencia deductiva, no es útil para agentes825
cuyo conocimiento se representa con modelos de relacionales (el problema de826
la omnisciencia lógica), y la tercera acción que mencionamos, comunicación827
entre agentes, puede ser representada con anuncios públicos (cuando la comu-828
nicación es pública) o con modelos de acción (en caso contrario) si incluimos al829
agente que hace el anuncio en la fórmula, es decir, si el hecho de que un agente830
i indique ϕ lo representamos como un anuncio público de �i ϕ.7831
Ahora, ¿qué otras actitudes podemos representar? ¿Qué acciones las mo-832
difican? ¿Cuáles de ellas podemos representar? En las dos secciones restantes833
discutiremos la noción de creencias y la acción de revisión de creencias.834
X© ¿Creencias como ^ϕ, y entonces conocimiento como B�ϕ? Si ambos con-835
ceptos aparecen en el sistema, ¿cuál es el básico? Recordar las presentación de836
Alexandru en LORI 2013.837
Nuestro primer paso es el definir una forma de representar creencias con838
modelos relacionales. Tradicionalmente se ha entendido que la única y funda-839
mental diferencia entre conocimiento y creencias es que el conocimiento debe840
ser verdadero y las creencias no. Dentro de la lógica epistémica esto ha propicia-841
do que, cuando se trabaja con conocimiento, se asume que la relación epistémica842
es una relación reflexiva, lo que hace que el conocimiento sea verdadero ya que843
la fórmula �i ϕ→ ϕ se vuelve válida. 8844
Por otro lado, para representar creencias no se asume que la relación de845
accesibilidad es reflexiva; creer en ϕ no debe implicar que ϕ sea verdadera.846
7Sin embargo, hay análisis mas detallados acerca de lo que realmente significa que un agenteanuncie algo: en general, la forma en que nuestro conocimiento y nuestras creencias cambiandependen no solo del anuncio que se haga, sino también de la confianza que tengamos en el agenteque haya hecho el anuncio (Holliday 2010).
8Se asume además, como ya hemos mencionado, que la relación es transitiva y euclideana (y,por lo tanto, una relación de equivalencia), lo que hace que el conocimiento cumpla las propiedadesde introspección positiva (�ϕ → ��ϕ se vuelve válida) y de introspección negativa (¬�ϕ → �¬�ϕse vuelve válida), respectivamente.
30
Borrador
Pero si queremos representar creencias consistentes, entonces debemos asumir847
que la relación es al menos serial.9 Esto es porque, cuando la relación es serial,848
la fórmula ¬�⊥ es válida (y también lo es su equivalente �ϕ→ ^ϕ).10849
X© ¿Subsección sobre KD45?850
Anuncios públicos sobre creencias ¿Qué tan adecuada es esta forma de repre-851
sentar creencias? Supongamos que utilizamos esta representación (asumimos852
que la relación es serial, y decimos que un agente cree ϕ en (M,w), �ϕ, si y853
solo si ϕ es verdadera en todos los mundos posibles en R[w]), y veamos que854
sucede cuando nuestro agente recibe el anuncio público mas sencillo: el de una855
proposición atómica p.856
Supongamos que nuestro agente cree, correctamente, que p es verdadera.857
Intuitivamente, ¿qué debería suceder después del anuncio público de p? En858
nuestro modelo, el hecho de que el agente crea correctamente que p es verda-859
dera significa que el mundo real y todas las situaciones que el agente considera860
posibles deben satisfacer p. El anuncio público de p no elimina ninguno de estos861
mundos y tampoco los modifica (es decir, después del anuncio, cada uno de862
ellos sigue satisfaciendo p). Por lo tanto, si un agente cree p y recibe un anuncio863
público p!, después del anuncio el agente (aún) creerá que p. Note que uno po-864
dría argumentar que, después del anuncio público de p, el agente debería saber865
que p, pero ya que estamos trabajando con un modelo en cual representamos866
tan solo creencias, el resultado de este anuncio público es razonable.11867
Supongamos ahora que nuestro agente cree, incorrectamente, que p es falsa.868
Intuitivamente, ¿qué debería suceder después del anuncio público de p? En869
nuestro modelo, el hecho de que el agente crea incorrectamente que p es falsa870
significa que el mundo real satisface p, pero todas las situaciones que el agente871
considera posibles hacen a p falsa. ¿Qué pasa entonces cuando p se anuncia872
públicamente? Después del anuncio, todos los mundos que el agente conside-873
raba posibles serán eliminados, y como resultado de esto, el agente creerá p874
después del anuncio (es decir, � p será verdadera)X© (¿Por qué?), lo que suena875
razonable. El problema es que nuestro agente también creerá ¬p (es decir, �¬p876
será verdadera) y, de hecho, creerá cualquier fórmula ϕ de nuestro lenguaje (es877
decir, �ϕ será verdadera para cualquier fórmula ϕ)X© (¿Por qué?). Dicho de878
otra forma, si nuestro agente cree incorrectamente que p es falsa, entonces un879
anuncio público que le hace ver su error lo hará ‘volverse loco’. Esto, por su-880
puesto, no es razonable. Observe, además, que esto sucede en cualquier caso en881
el que un agente crea incorrectamente que p es falsa. ¿Qué podemos hacer?882
9Una relación binaria R sobre un dominio W es serial si todo elemento w ∈ W puede ver algúnu ∈W via R, es decir, si la siguiente fórmula de primer orden se cumple en W: ∀w.∃u.Rwu.
10Tal y como se hace en el caso de conocimiento, también se asume que la relación es transitivay euclidiana, lo que nos da la llamada representación KD45.
11Podemos, por supuesto, trabajar en un modelo con dos relaciones, RK y RB, y asumir quemientras la primera es una relación de equivalencia que representa el conocimiento del agente, lasegunda es una relación serial, transitiva y euclideana que representa sus creencias. ¿Qué relacióndebería de haber entre RK y RB a fin de obtener una representación ‘razonable’ de la relación entreconocimiento y creencias?
31
Borrador
Una alternativa es definir un anuncio público especial para trabajar con883
creencias. Por ejemplo, supongamos que el agente cree que p es falsa cuando esta884
en realidad es verdadera. Podemos definir una operación ‘anuncio público de p885
para creencias’ que, además de hacer inaccesibles los mundos donde p es falsa,886
añade alguna conexión a mundos (¿Cuantos? ¿Uno? ¿Dos? ¿Veinte?) donde p887
es verdadera (sabemos que existe al menos uno: el mundo real). Pero, ¿por qué888
deben ser diferentes las operaciones de anuncio público para conocimiento y889
para creencias? Uno esperaría que la acción fuera siempre la misma, afectando890
a diferentes actitudes de manera diferente.891
Otra posibilidad proviene de la siguiente observación. Hemos definido las892
creencias de un agente siguiendo exactamente la misma idea que seguimos para893
definir conocimiento: como aquello que es verdadero en todas las situaciones894
que él considera posible. La única diferencia es que, cuando representamos895
creencias, la relación de accesibilidad cumple propiedades mas débiles (en par-896
ticular, no tiene que ser reflexiva, sino solamente serial), lo que hace que creer897
algo no haga a ese algo automáticamente verdadero. El problema ’técnico’ con898
esta definición es que, si el agente cree en ϕ, entonces no existen posibilida-899
des epistémicas en las cuales el pueda apoyarse si se entera que ϕ es falsa.900
La segunda opción es, entonces, definir las creencias de un agente de manera901
que creer en ϕ no signifique que él vea únicamente mundos posibles donde902
ϕ es verdadera. Así, si ϕ resulta ser falsa, el agente puede apoyarse en esas903
otras posibilidades. Esto, además de ser una solución técnica, enfatiza algo mas904
importante: las creencias son diferentes del conocimiento. No creemos algo905
porque este algo sea verdadero en todas las situaciones que consideramos epis-906
témicamente posibles; creemos algo porque este algo es verdadero en aquellas907
situaciones epistémicamente posibles que consideramos mas probables, i.e., mas908
plausibles. Esta idea es en la que se basan los llamados modelos de plausibilidad.909
Modelos de plausibilidad Un modelo de plausibilidad (Board 2004; van Bent-910
hem 2007; Baltag and Smets 2008) es un modelo relacional en el cual la relación911
de accesibilidad se interpreta como el orden de plausibilidad entre los mundos912
que el agente considera posible. Hay algunas variantes de esta idea, depen-913
diendo de las propiedades que se le impongan a dicho orden de plausibilidad914
(las mínimas son normalmente reflexividad y transitividad). La variante que915
presentaremos aquí asume que dicha relación es un preorden (una relación916
reflexiva y transitiva) que, localmente, tiene siempre elementos máximos. For-917
malmente,918
Definición 4.1 (Modelo de plausibilidad (Baltag and Smets 2008)) Un mode-919
lo de plausibilidad M es un modelo relacional 〈W, {≤i}i∈A ,V〉 en el cual la relación920
de accesibilidad de cada agente i, llamada relación de plausibilidad para i, se921
representa como ≤i. Cada una de estas relaciones debe cumplir lo siguiente:922
1. es un preorden (es decir, debe ser reflexiva y transitiva),923
2. si denotamos con Ci[w] al conjunto de mundos posibles que son ≤i-924
comparables con (la clase de comparabilidad de) un mundo posible925
32
Borrador
w para el agente i (Ci[w] := {u ∈W | w ≤i u ó u ≤ w}) y con Maxi(U) a926
los mundos posibles en U ⊆ W que son máximos con respecto a ≤i927
(Maxi(U) := { v ∈ U | u ≤i v para todo u ∈ U }), entonces cualquier sub-928
conjunto no vacío de una clase de comparabilidad debe tener elementos929
máximos, es decir, para cualquier Ci[w] y para cualquier U ⊆ Ci[w] con930
U , ∅ debemos tener Maxi(U) , ∅.931
X© Una relación que cumple las dos condiciones anteriores puede ser descrita,932
de manera equivalente, como un preorden que es también conectado localmente933
y cuya relación inversa es bien fundada. De esta manera puede verse que la934
segunda condición prohíbe cadenas infinitas hacía arriba (ya que la relación935
inversa es bien fundada) y ramificaciones que no convergen a algún punto en936
común (conectividad local).937
Cuando tengamos w ≤i u diremos que u es al menos tan plausible como938
w de acuerdo al agente i. Definimos también las siguientes relaciones, con el939
significado intuitivo dado:940
u es mas plausible que w para i, w <i u ssi w ≤i u y u �i ww es comparable con u para i, w ∼i u ssi w ≤i u ó u ≤i w
w y u son igualmente plausibles para i, w 'i u ssi w ≤i u y u ≤i w941
Observe como ∼i nos indica cuales son los mundos que el agente considera942
posibles, ya que ∼i [w] = Ci[w]. J943
Los requisitos de reflexividad y transitividad son normalmente los mínimos944
que se requieren para relaciones que representan (pre)ordenes entre objetos. El945
segundo requisito pide que cualquier subconjunto de los mundos que el agente946
considera posibles tenga al menos un elemento máximo, es decir, un mundo947
que sea al menos tan plausible como todos los demás. La razón es que estos948
modelos no se enfocan en representar la noción de creencia sino una noción mas949
general: creencia condicional. Nosotros no discutiremos esta noción; aquellos950
interesados pueden consultar las referencias mencionadas (Board 2004; van951
Benthem 2007; Baltag and Smets 2008).952
X© Cuidado con la diferencia entre máximo y maximal. Bajo reflexividad,953
transitividad y conectividad local, un elemento es máximo si y solo si es954
maximal, pero esto no sucede en general.955
Definiendo conocimiento y creencias Como mencionamos anteriormente, la956
idea detrás de los modelos de plausibilidad es el darle un orden a los mundos957
que el agente considera posibles, de forma que podemos decir que un agente958
cree en ϕ si y solo si ϕ es verdadera en los mundos posibles que el considera959
mas plausibles. En dichos modelos podemos definir entonces las nociones de960
conocimiento y creencia de la siguiente manera:961
el agente i sabe ϕ en (M,w) ssi ϕ es verdadera en Ci[w]el agente i cree ϕ en (M,w) ssi ϕ es verdadera en Maxi(Ci[w])
962
33
Borrador
La pregunta es, ahora, si podemos dar dichas definiciones dentro de nuestro963
lenguaje formal. La respuesta para el caso de conocimiento es sí ya que, como964
vimos, el conjunto Ci[w] se puede definir en términos de la relación ∼, es decir,965
ϕ es verdadera en Ci[w] si y solo si [∼i]ϕ es verdadera en (M,w), con [∼]i una966
modalidad universal estandar para la relación ∼i. Para el caso de creencias la967
respuesta es también positiva ya que, dadas las propiedades de la relación, ϕ968
es verdadera en Maxi(Ci[w]) si y solo si w puede ver a un mundo u que es al969
menos tan plausible como él de acuerdo al agente i, y a partir del cual hay970
tan solo mundos que satisfacen ϕ de acuerdo de nuevo al agente i, es decir, si971
〈≤i〉 [≤i]ϕ es verdadera en (M,w), con 〈≤i〉 y [≤i] siendo modalidades existencial972
y universal estandar para la relación ≤i. Por lo tanto,973
el agente i sabe ϕ en (M,w) ssi (M,w) |= [∼i]ϕel agente i cree ϕ en (M,w) ssi (M,w) |= 〈≤i〉 [≤i]ϕ
974
Abreviaremos las definiciones de conocimiento y creencia como Kiϕ y Biϕ, es975
decir,976
Kiϕ := [∼i]ϕ, Biϕ := 〈≤i〉 [≤i]ϕ
Ejemplo 4.1 El siguiente estado de plausibilidad M (la relación representada977
es la relación de plausibilidad ≤) esta basado en las proposiciones atómicas978
b y f , que se interpretan como “Chilly Willy es un ave” y “Chilly Willy vuela”,979
respectivamente.980
b f
b f
u
w
M
(i) Kb
(ii) ¬K(b→ f ) ∧ B(b→ f )
(iii) ¬K f ∧ B f
981
En el estado, (i) el agente sabe que Chilly Willy es un ave y, además, (ii) aun-982
que no sabe que si Chilly Willy es un ave entonces vuela, sí cree (erróneamente)983
dicha implicación. (iii) De manera similar no sabe, pero sí cree (erróneamente),984
que Chilly Willy vuela. Todo esto está indicado por las fórmulas que aparecen985
a la derecha del diagrama. J986
Anuncios públicos sobre creencias, parte II Veamos ahora que tan adecuada987
es esta forma de representar creencias.988
Si el agente cree p y dicha fórmula es anunciada de manera pública, entonces989
después del anuncio en el modelo quedarán tan solo mundos en los cuales p es990
verdadera. Por lo tanto, además de seguir creyendo p, el agente sabrá ahora p991
(aunque, claro, es posible que lo supiera antes).992
Por otro lado si el agente cree ¬p, un anuncio de p no lo ‘vuelve loco’: si993
pese a creer ¬p (i.e., pese a que p sea falsa en los mundos que el considera mas994
34
Borrador
plausibles), el aún consideraba a p posible (i.e., hay al menos un mundo que995
puede ser alcanzado desde el punto de evaluación vía ∼), entonces después996
del anuncio el seguirá considerando p posible y, de hecho, ahora creerá y sabrá997
que pX© (¿Por qué?). Note como de hecho, y a diferencia de lo que sucede con998
la representación de creencias anterior, es imposible que un anuncio público999
verdadero ‘vuelva loco’ a nuestro agenteX© (¿Por qué?).1000
Ejemplo 4.2 Considere el estado de plausibilidad M del ejemplo 4.1. Si el agente1001
se entera a través de una fuente infalible que Chilly Willy no vuela (¬ f ), entonces1002
el estado que resulta es el siguiente:1003
b fw
M(¬ f )!
(i) Kb
(ii) B¬ f ∧ K¬ f1004
Como resultado del anuncio, el agente (i) aún sabe que Chilly Willy es un1005
ave, pero (ii) ahora cree y sabe que Chilly Willy no vuela. J1006
Tenemos ahora una forma de representar creencias que no hace que nuestro1007
agente sufra cuando se entera de que sus creencias eran incorrectas. En cier-1008
ta forma, nuestro anuncio público funciona como una acción de revisión de1009
creencias, ya que le permite al agente cambiar sus creencias cuando el hecho1010
anunciado las contradice. Sin embargo, la idea principal detrás de esta repre-1011
sentación, el orden de plausibilidad que existe entre las situaciones que un agente1012
considera posibles, nos proporciona también una forma de revisar creencias de1013
una manera mas natural: si el orden de plausibilidad determina las creencias1014
del agente, entonces no es necesario eliminar mundos a fin de que las creencias1015
del agente cambien: tan solo es necesario que el orden de plausibilidad cambie.1016
4.1. Ejercicios1017
Ejercicio 4.1 ¿Cuál es la relación entre conocimiento y creencias que existe en1018
un modelo de plausibilidad? �1019
Ejercicio 4.2 Demuestre que, en un estado de plausibilidad (M,w) cualquiera1020
con las propiedades indicadas,1021
(M,w) |= 〈≤i〉 [≤i]ϕ ssi (M,u) |= ϕ para todo u ∈Maxi(Ci[w]) �
5. Día 5: revisión de creencias1022
X© Acciones epistémicas sobre creencias: expansión, contracción y revisión.1023
¿Tal vez como ejercicios?1024
35
Borrador
Como se comento al final de la sección anterior, el orden de plausibilidad1025
nos proporciona una manera más natural de representar la acción de revisión1026
de creencias. Si queremos cambiarlas creencias de un agente de forma que1027
este se incline hacia cierta fórmula χ, tan solo tenemos que asegurarnos que los1028
mundos que quedarán en la parte superior del orden de plausibilidad del agente1029
satisfacen χ en el modelo original. Observe como el orden de plausibilidad1030
puede ser cambiado de muchas maneras de tal forma que se cumpla esta1031
condición; he aquí algunos ejemplos.1032
(i) Reordenamiento radical (lexicográfico): en cada clase de comparabilidad1033
para cada agente i los mundos que satisfacen χ se volverán mas plausibles1034
para i que aquellos que satisfacen ¬χ; dentro de cada una de estas zonas1035
se conserva el orden original (Nayak 1994; van Benthem 2007).1036
(ii) Reordenamiento conservador: en cada clase de comparabilidad para1037
cada agente i los mundos mas plausibles de entre aquellos que satisfacen1038
χ se volverán mas plausibles que todos los demás; dentro de cada una de1039
estas zonas se conserva el orden original (Boutilier 1996).1040
(iii) Reordenamiento restrictivo: este reordenamiento se define en dos pasos.1041
Primero, en cada conjunto de mundos igualmente plausibles dentro de1042
cada clase de comparabilidad para cada agente i, los mundos que satis-1043
facen χ se volverán mas plausibles para i que aquellos que satisfacen ¬χ.1044
Entonces, en el orden que obtenemos, los mundos mas plausibles que1045
satisfacen χ se vuelven los mas plausibles en general (Booth and Meyer1046
2006).1047
El hecho de que existan diferentes formas de modificar el orden de plausi-1048
bilidad no es un problema; de hecho, esto corresponde a las muchas formas en1049
las cuales uno puede revisar sus creencias, dependiendo de que tanto se confíe1050
en la fuente de información (para un estudio mas detallado acera de la idea de1051
confianza entre agentes, véase el ya citado Holliday (2010))1052
En particular, en cada uno de los reordenamientos mencionados el orden1053
resultante tiene en la parte superior mundos que satisfacen χ en el modelo1054
original; la diferencia entre ellos es cuáles de entre todos los mundos que1055
satisfacen χ en el modelo original quedan en la cima, y que sucede con las1056
zonas restantes.12 Estos reordenamientos pueden ser entendidos como una1057
manera ‘débil’ de aceptar la información entrante, ya que aunque mundos que1058
satisfacen χ se moverán hacia arriba en el orden de plausibilidad, los mundos1059
que no satisfacenχ no son descartados, a diferencia de lo que ocurre con nuestra1060
operación de anuncio público.1061
Ejemplo 5.1 Considere el siguiente modelo de plausibilidad (las flechas refle-1062
xivas y transitivas se han omitido):1063
12Esta diferencia es importante, ya que aunque podría no revelar diferencias en las creencias o elconocimiento del agente, sí revela diferencias en lo que el agente creerá o sabrá después de otrasacciones epistémicas.
36
Borradorw5 w6
w4
w2 w3
w1
1064
Supongamos que los mundos en {w2,w4,w5} son exactamente aquellos que1065
satisfacen cierta fórmula χ y, por lo tanto, los mundos en {w1,w3,w6} son exac-1066
tamente aquellos que satisfacen ¬χ. El resultado de cada uno de los reordena-1067
mientos definidos anteriormente con respecto a χ es el siguiente (recuerde que1068
el reordenamiento restrictivo consta de dos pasos).1069
Radical Conservador Restrictivo
w6
w3
w1
w5
w4
w2
w5 w6
w4
w3
w1
w2
w6
w5
w4
w3
w2
w1
⇒
w6
w5
w4
w3
w1
w2
1070
A fin de proporcionar un ejemplo concreto, en el resto de estas notas traba-1071
jaremos con el reordenamiento radical, pero no debemos olvidar que se pueden1072
definir muchos otros reordenamientos. Inclusive no hay porque restringirnos1073
a reordenamientos que hacen que el agente se incline hacía la fórmula dada χ:1074
también podemos definir reordenamientos que hagan que el agente se vuelva1075
agnóstico respecto a χ, es decir, que no crea ni χ ni ¬χ (e.g., Ramachandran1076
et al. (2012)), lo que en otras áreas se conoce como una acción de contracción.1077
Reordenamiento radical Demos, pues, la definición formal de la operación de1078
reordenamiento radical.1079
Definición 5.1 (Reordenamiento radical) Sea M = 〈W, {≤i}i∈A ,V〉 un modelo1080
de plausibilidad y sea χ una fórmula. La relación de plausibilidad del modelo1081
Mχ⇑ =⟨W,
{≤′
i
}i∈A,V
⟩se define de la siguiente manera:1082
37
Borrador
≤′ :=
{(w,u) | w ≤ u y (M,u) |= χ
}∪{
(w,u) | w ≤ u y (M,w) |= ¬χ}∪{
(w,u) | w ∼ u , (M,w) |= ¬χ y (M,u) |= χ}1083
Esta definición establece que un mundo u será al menos tan plausible como1084
un mundo w, w ≤′ u, si y solo si (i) ya tienen dicho orden y u satisface χ, o1085
(ii) ya tienen dicho orden y w satisface ¬χ, o (iii) son comparables y, mientras1086
que w satisface ¬χ, u satisface χ. Esta definición preserva las propiedades de la1087
relación de plausibilidad y, por lo tanto, preserva modelos de plausibilidad. J1088
Ejemplo 5.2 Considere el estado de plausibilidad M del ejemplo 4.1. Si el agente1089
se entera a través de una fuente confiable pero no infalible que Chilly Willy no1090
vuela (¬ f ), entonces el estado que resulta es el siguiente:1091
b f
b f
u
w
M(¬ f )⇑
(i) Kb
(ii) ¬K(b→ f ) ∧ ¬B(b→ f )
(iii) ¬K f ∧ ¬B f
1092
Como resultado de este reordenamiento, el agente (i) aún sabe que Chilly1093
Willy es un ave, pero (ii) aunque sigue sin saber que si Chilly Willy es un1094
ave entonces vuela, ahora no cree (correctamente) dicha implicación. (iii) De1095
manera similar sigue sin saber que Chilly Willy vuela, pero ahora tampoco lo1096
cree. J1097
En el lenguaje He aquí como podemos expresar los efectos de un reordena-1098
miento con nuestro lenguaje.1099
Definición 5.2 Sea (M,w) un estado de plausibilidad, y sea χ una fórmula de1100
nuestro lenguaje. Entonces1101
(M,w) |= 〈χ⇑〉ϕ iff (Mχ⇑,w) |= ϕ1102
La modalidad dual, [χ⇑]ϕ, se define como [χ⇑]ϕ := ¬〈χ⇑〉¬ϕ, y su interpre-1103
tación semántica está entonces dada como1104
(M,w) |= [χ⇑]ϕ iff (Mχ⇑,w) |= ϕ1105
Es decir, la fórmula 〈χ⇑〉ϕ↔ [χ⇑]ϕ es válida. J1106
Observe que, a diferencia de lo que sucede con un anuncio (público o de1107
algún otro tipo), la acción de revisión de creencias que sigue un reordenamien-1108
to radical no tiene precondición, es decir, para que el agente pueda revisar sus1109
creencias con un reordenamiento radical de forma queϕ sea verdadera, 〈χ⇑〉ϕ,1110
38
Borrador
tan solo es necesario que ϕ sea verdadera en el estado que resulta del reordena-1111
miento, (χM⇑,w). En particular, si el agente no considera posible ningún mundo1112
que satisfaga χ, entonces la operación no afectará el orden de plausibilidad, y1113
entonces tendremos (M,w) |= 〈χ⇑〉ϕ si y solo si (M,w) |= ϕ. Si esto parece poco1114
intuitivo, podemos cambiar nuestra definición semántica para indicar que una1115
revisión radical con χ puede realizarse tan solo cuando el agente considera1116
posible al menos un mundo que satisface χ, es decir,1117
(M,w) |= 〈χ⇑〉ϕ iff (M,w) |= 〈∼i〉χ y (Mχ⇑,w) |= ϕ1118
Sistema de derivación Tan solo nos queda proporcionar un sistema de deriva-1119
ción para nuestra nueva modalidad. Siguiendo los casos anteriores, podemos1120
intentar encontrar axiomas de reducción. Los axiomas para proposiciones ató-1121
micas, negaciones y conjunciones son similares a los que hemos presentado1122
en esos casos para las operaciones anteriores (recuerde que ahora no tenemos1123
precondición, lo que simplificará alguno de ellos). El axioma interesante es el1124
que indica que necesita el agente a fin de que, después de la operación, pueda1125
ver un mundo al menos tan plausible como en actual en el cual ϕ es verdadera;1126
he aquí tres observaciones que nos ayudarán a encontrarlo.1127
(i) Primero, observe que en cualquier estado de plausibilidad (M,w), des-1128
pués de la operación el agente podrá alcanzar un mundo en el cual ϕ1129
es verdadera siguiendo la relación de plausibilidad del nuevo modelo,1130
(M,w) |= 〈χ ⇑〉 〈≤〉ϕ, si y solo si en el modelo original el agente podía1131
alcanzar un mundo que después de la operación cumplirá χ siguiendo la1132
relación que será aquella del nuevo modelo ≤′, (M,w) |= 〈≤′〉〈χ⇑〉ϕ. Esto nos da1133
la siguiente ‘fórmula’ (la modalidad para≤′ no existe en nuestro lenguaje)1134
válida:1135
〈χ⇑〉 〈≤〉ϕ ↔ 〈≤′〉〈χ⇑〉ϕ
(ii) Segundo, observe como la relación de plausibilidad del nuevo modelo1136
se puede escribir utilizando la notación de la lógica dinámica proposi-1137
cional (Harel et al. 2000), la cual nos proporciona modalidades para las1138
operaciones de verificación (?), composición secuencial (;), elección no de-1139
terminista (∪) e iteración (∗) (es decir, para las operaciones regulares) entre1140
relaciones.13 Siguiendo dicha notación, la relación del modelo Mχ⇑, ≤′, se1141
puede definir como:1142
≤′ := (≤ ;χ?) ∪ (¬χ?; ≤) ∪ (¬χ?; ∼ ;χ?)
13Formalmente, las operaciones dadas se definen de la siguiente manera. Si α y β son relacionesbinarias en un modelo relacional M = 〈W,R,V〉 y ψ es una fórmula de nuestro lenguaje, entoncespodemos definir las siguiente relaciones:
ψ? :={(w,w) ∈ (W ×W) | (M,w) |= ψ
}α ; β :=
{(w,u) ∈ (W ×W) | existe un v tal que (w, v) ∈ α y (v,u) ∈ β
}α ∪ β :=
{(w,u) ∈ (W ×W) | (w,u) ∈ α ó (w,u) ∈ β
}α∗ :=
{(w,u) ∈ (W ×W) | existe un camino (posiblemente vació) de w a u siguiendo pares en α
}
39
Borrador
Entonces, la ‘fórmula’ válida del punto anterior se puede reescribir de la1143
siguiente manera:1144
〈χ⇑〉 〈≤〉ϕ ↔ 〈(≤ ;χ?) ∪ (¬χ?; ≤) ∪ (¬χ?; ∼ ;χ?)〉 〈χ⇑〉ϕ
(iii) Finalmente, las operaciones que utilizamos en la definición de≤′, verifica-1145
ción (?), composición secuencial (;) y elección no determinista (∪), pueden1146
ser reducidas de la siguiente manera:1147
〈ψ?〉ϕ ↔ (ψ ∧ ϕ)〈α ; β〉ϕ ↔ 〈α〉 〈β〉ϕ〈α ∪ β〉ϕ ↔ (〈α〉ϕ ∨ 〈β〉ϕ)
para cualquier relación α y β, y para cualquier fórmula ψ. Entonces, el1148
lado derecho de la ‘fórmula’ válida del punto anterior se puede reescribir1149
de la siguiente manera:1150
〈(≤ ;χ?) ∪ (¬χ?; ≤) ∪ (¬χ?; ∼ ;χ?)〉 〈χ⇑〉ϕ〈≤ ;χ?〉 〈χ⇑〉ϕ ∨ 〈¬χ?; ≤〉 〈χ⇑〉ϕ ∨ 〈¬χ?; ∼ ;χ?〉 〈χ⇑〉ϕ〈≤〉 〈χ?〉 〈χ⇑〉ϕ ∨ 〈¬χ?〉 〈≤〉 〈χ⇑〉ϕ ∨ 〈¬χ?〉 〈∼〉 〈χ?〉 〈χ⇑〉ϕ〈≤〉 (χ ∧ 〈χ⇑〉ϕ) ∨ (¬χ ∧ 〈≤〉 〈χ⇑〉ϕ) ∨ (¬χ ∧ 〈∼〉 (χ ∧ 〈χ⇑〉ϕ))
De esta manera obtenemos la fórmula siguiente:1151
〈χ⇑〉 〈≤〉ϕ ↔ 〈≤〉 (χ ∧ 〈χ⇑〉ϕ) ∨ (¬χ∧〈≤〉 〈χ⇑〉ϕ) ∨ (¬χ∧〈∼〉 (χ ∧ 〈χ⇑〉ϕ))
Observe primero como está fórmula es realmente ‘de reducción’, ya que1152
nos dice que lo que se necesita para que 〈≤〉ϕ sea verdadera después1153
de la operación en términos de lo que debería ser verdadero antes de la1154
operación, y además las fórmulas que aparecen bajo las modalidades de1155
la operación en el lado derecho de la equivalencia son menos complejas1156
que aquella que aparece bajo la misma modalidad en el lado izquierdo.1157
Observe también como la fórmula expresa simplemente la definición de1158
≤′: después de la operación es posible ver un mundo ϕ al menos tan1159
plausible como el actual, 〈χ⇑〉 〈≤〉ϕ, si y solo si (i) antes de la operación el1160
mundo actual puede ver un mundo que es al menos tan plausible como1161
él mismo, que satisface χ y después de la operación hará verdadera a ϕ,1162
o (ii) antes de la operación el mundo actual satisface ¬χ y puede ver un1163
mundo al menos tan plausible como él mismo que después de la operación1164
hará verdadera a ϕ, o (iii) antes de la operación el mundo actual satisface1165
¬χ y puede ver un mundo comparable a él mismo que satisface χ y que1166
después de la operación hará verdadera a ϕ.1167
Los puntos anteriores describen un método que nos permite encontrar una1168
fórmula que expresa lo que deseamos. Pero, dado que no hemos justificado1169
completamente todos los pasos, aún no podemos afirmar que la fórmula que1170
hemos obtenido sea en realidad válida (para una justificación mas formal, véase1171
van Benthem and Liu (2007)). Dejamos esto como ejercicio (Ejercicio 5.5).1172
40
Borrador
5.1. Ejercicios1173
Ejercicio 5.1 Proporcione una definición formal (al estilo de la definición 5.1)1174
para el reordenamiento conservador y el reordenamiento restrictivo. �1175
Ejercicio 5.2 Demuestre que la operación de reordenamiento radical (defini-1176
ción 5.1) preserva modelos de plausibilidad. �1177
Ejercicio 5.3 Considere su respuesta al ejercicio 5.1. ¿Las definiciones dadas1178
preservan modelos de plausibilidad? Si su respuesta es afirmativa, demuéstrelo;1179
si su respuesta es negativa, proporcione un contraejemplo. �1180
Ejercicio 5.4 Demuestre que la fórmula 〈χ⇑〉Bχ no es válida, es decir, demues-1181
tre que existe una fórmula χ y un estado de plausibilidad tal que, después de un1182
reordenamiento radical con χ, el agente no cree χ. Sugerencia: recuerde la idea1183
intuitiva detrás de la fórmula que utilizamos para demostrar que 〈χ!〉�χ no es1184
válida, es decir, recuerde como se lee la fórmula para la cual existen situaciones1185
en las cuales esta puede ser anunciada de manera pública y, después de hacerlo,1186
el agente no la sabe. �1187
Ejercicio 5.5 Demuestre que la fórmula de reducción para la modalidad exis-1188
tencial de la relación de plausiblidad,1189
〈χ⇑〉 〈≤〉ϕ ↔ 〈≤〉 (χ ∧ 〈χ⇑〉ϕ) ∨ (¬χ ∧ 〈≤〉 〈χ⇑〉ϕ) ∨ (¬χ ∧ 〈∼〉 (χ ∧ 〈χ⇑〉ϕ))
es válida en modelos de plausibilidad. �1190
Ejercicio 5.6 El axioma de reducción para la modalidad 〈∼〉 con respecto al1191
reordenamiento radical es es el siguiente:1192
〈χ⇑〉 〈∼〉ϕ ↔ 〈∼〉 〈χ⇑〉ϕ
Su simplicidad proviene del hecho de que un reordenamiento radical tan solo1193
cambia el orden de plausibilidad dentro de una misma clase de comparabilidad:1194
después de la operación habrá un mundo epistémicamente posible el cual1195
satisface ϕ si y solo si antes de la operación había un mundo epistémicamente1196
posible que después de la operación hará ϕ verdadera.1197
(i) Demuestre que el axioma es válido.1198
(ii) Utilizando este axioma y la definición de conocimiento en modelos de plau-1199
sibilidad (Kϕ := [∼]ϕ), dé una fórmula válida que indique la condición1200
suficiente y necesaria para que después de un reordenamiento radical con1201
χ el agente sepa ϕ, es decir, ‘rellene’ el espacio vacío en:1202
〈χ⇑〉Kϕ ↔ ( )
Demuestre que la fórmula dada es válida. Epistémicamente, ¿qué nos dice1203
dicha fórmula ? �1204
41
Borrador
Ejercicio 5.7 Utilizando el axioma de reducción para la modalidad 〈≤〉 y la1205
definición de creencias en modelos de plausibilidad (Bϕ := 〈≤〉 [≤]ϕ), dé una1206
fórmula válida que indique la condición suficiente y necesaria para que después1207
de un reordenamiento radical con χ el agente creaϕ, es decir, ‘rellene’ el espacio1208
vacío en:1209
〈χ⇑〉Bϕ ↔ ( )
Demuestre que la fórmula dada es válida. Epistémicamente, ¿qué nos dice dicha1210
fórmula? �1211
6. Día 6: ¿qué sigue?1212
En estas notas hemos presentado los conceptos básicos de la llamada lógica1213
epistémica dinámica. Hemos recordado brevemente el sistema de la lógica1214
modal y su interpretación epistémica, bajo la cual los modelos relacionales1215
representan la información (conocimiento, creencias) que tiene un (conjunto1216
de) agente(s). Entonces hemos definido operaciones sobre estos modelos que1217
nos permiten representar tanto diversos tipos de anuncios (públicos, privados,1218
etc.) como distintas formas de revisar (¡públicamente!) creencias.1219
Una pregunta que nos podemos hacer es, ¿qué sigue? Es decir, ¿qué otras1220
cosas podemos hacer? He aquí algunas lineas de investigación, todas ellas1221
activas en este momento:1222
• Observe como hemos estudiado el efecto de un anuncio o de una revisión.1223
Sin embargo, también nos podemos preguntar que pasará (es decir, cuales1224
serán los conocimientos y las creencias de nuestros agentes) al repetir1225
alguna de estas acciones una y otra vez.1226
Por ejemplo, en el caso de anuncios públicos, dada entonces una fórmula1227
χ, ¿podemos determinar que sucederá con ella si es anunciada una y1228
otra vez? ¿Llegará un momento a partir del cual la fórmula será siempre1229
verdadera sin importar cuantas veces mas se anuncie, o en algún momento1230
se volverá falsa? ¿Llegará un momento a partir del cual todos los agentes1231
sabrán la fórmula sin importar cuantas veces mas se anuncie? ¿Llegará1232
un momento a partir del cual se vuelva conocimiento común? (Miller and1233
Moss 2005)1234
Y, en el caso de creencias, ¿que sucede al revisar las creencias con la misma1235
fórmula una y otra vez? (Baltag and Smets 2009a,b; Baltag et al. 2010)1236
• Hemos definido formas de representar anuncios y revisiones de creencias.1237
¿Es posible representar otras formas de razonamiento, tales como razo-1238
namiento abductivo (Levesque 1989; Boutilier and Becher 1995; Aliseda1239
2000; van Benthem 2009; Velázquez-Quesada et al. 2013) o razonamien-1240
to por defecto (Boutilier 1994; van Linder et al. 1997; Segerberg 1999;1241
Ben-David and Ben-Eliyahu-Zohary 2000)?1242
42
Borrador
• Nuestro modelo semántico básico es el modelo relacional; en estos mo-1243
delos el conocimiento (y las creencias) de todo agente son cerrados bajo1244
consecuencia lógica: todo agente sabe/cree todas las fórmulas que son1245
válidas, y si un agente sabe/cree tanto ϕ como ϕ → ψ entonces, automá-1246
ticamente y sin realizar ninguna acción, sabe/cree ψ. Esta propiedad, que1247
puede ser útil en algunos casos, es una idealización muy grande en otros.1248
Aún mas importante es el hecho de que el enfocarnos en agentes omnis-1249
cientes nos ‘oculta’ acciones que, pese a no tener sentido para ellos, sí1250
tienen sentido para agentes no omniscientes como nosotros los seres hu-1251
manos. ¿Es posible, entonces, encontrar variantes de modelos relacionales1252
u otros modelos sempanticos en los cuales el conocimiento y las creencias1253
del agente no sean cerradas bajo consecuencia lógica (Sim 1997; Moreno1254
1998; Sim 2000)? En dichos casos, ¿qué otras acciones podemos represen-1255
tar (Ågotnes and Alechina 2007; Jago 2009; van Ditmarsch et al. 2009; van1256
Ditmarsch and French 2009; van Benthem and Velázquez-Quesada 2010;1257
Velázquez-Quesada 2014)?1258
• Por supuesto, no tenemos porqué restringirnos a las nociones de cono-1259
cimiento y creencias. Podemos también estudiar como representar otros1260
conceptos y la forma en que estos cambian: hay trabajos sobre preferen-1261
cias (van Benthem and Liu 2007; Grüne-Yanoff and Hansson 2009; van1262
Benthem et al. 2009b; Liu 2011), intenciones (Roy 2008; Icard et al. 2010),1263
confianza (Liau 2003; Demolombe 2004; Herzig et al. 2008; Holliday 2010),1264
preguntas (Baltag and Smets 2009a; van Benthem and Stefan Minica 2012),1265
evidencias (van Benthem and Pacuit 2011), justificaciones (Artëmov and1266
Nogina 2005; Renne 2012) y muchos otros.1267
• Un campo particularmente interesante en el cual todas estas ideas con-1268
vergen es el de la teoría de juegos (Osborne and Rubinstein 1994). For-1269
malmente, un juego es una situación en la cual un conjunto de agentes1270
interactúan: cada agente tiene cierta información acerca de la situación1271
actual, puede realizar ciertas acciones y tiene ciertas preferencias sobre1272
los posibles estados finales. Es este campo, la lógica epistémica dinámica1273
puede ser de ayuda, ya que además de los temas ya mencionados en los1274
puntos anteriores, nos permite también razonar acerca de conceptos tales1275
como coaliciones y cooperación (Pauly 2002; Kurzen 2009) y estrategias1276
(Ramanujam and Simon 2008; Ghosh 2008; van Benthem 2012). De entre1277
los muchos artículos y libros sobre lógica epistémica y lógica epistémi-1278
ca dinámica en juegos, podemos destacar de Bruin (2010); van Benthem1279
(2011b). En particular, van Benthem et al. (2011) proporciona una bue-1280
na perspectiva sobre lo que las ideas de la lógica epistémica dinámica1281
pueden aportar al área.1282
Para mas trabajos en el área se pueden consultar las siguientes páginas:1283
• Congresos TARK, LOFT y LORI.1284
43
Borrador
• Los anuarios del seminario de dinámicas de la información en Amster-1285
dam: 2008, 2009, 2010 y 2011.1286
• Los sitios web Logical Dynamics of Information and Interaction, con ligas1287
aartículos recientes y a otros, y LoRI con noticias sobre artículos y eventos1288
en el área.1289
Por supuesto, los trabajos y los sitios a los cuales hacemos referencia son1290
tan solo una pequeña parte de todos los que comparten la que consideramos1291
la idea principal de la lógica epistémica dinámica: la representación de las1292
diversas actitudes que un agente o un conjunto de agentes pueden tener hacia1293
la información, y la representación de las diversas acciones que las modifican.1294
Referencias1295
T. Ågotnes and N. Alechina. The dynamics of syntactic knowledge. Journal of1296
Logic and Computation, 17(1):83–116, 2007. doi: 10.1093/logcom/exl019.1297
A. Aliseda. Abduction as epistemic change: a Peircean model in artificial in-1298
telligence. In P. A. Flach and A. C. Kakas, editors, Abduction and Induction:1299
Essays on their Relation and Integration, number 18 in Applied Logic Series, pa-1300
ges 45–58. Kluwer Academic Publishers, Dordrecht, The Netherlands, 2000.1301
ISBN 0-7923-6250-0.1302
S. N. Artëmov and E. Nogina. Introducing justification into epistemic logic.1303
Journal of Logic and Computation, 15(6):1059–1073, 2005. doi: 10.1093/log-1304
com/exi053.1305
A. Baltag and S. Smets. A qualitative theory of dynamic interactive belief1306
revision. In G. Bonanno, W. van der Hoek, and M. Wooldridge, editors, Logic1307
and the Foundations of Game and Decision Theory (LOFT7), volume 3 of Texts1308
in Logic and Games, pages 13–60. Amsterdam University Press, Amsterdam,1309
The Netherlands, 2008. ISBN 978-90 8964 026 0.1310
A. Baltag and S. Smets. Learning by questions and answers: From belief-revision1311
cycles to doxastic fixed points. In H. Ono, M. Kanazawa, and R. J. G. B.1312
de Queiroz, editors, WoLLIC, volume 5514 of Lecture Notes in Computer Science,1313
pages 124–139. Springer, 2009a. ISBN 978-3-642-02260-9. doi: 10.1007/978-3-1314
642-02261-6_11.1315
A. Baltag and S. Smets. Group belief dynamics under iterated revision: fi-1316
xed points and cycles of joint upgrades. In A. Heifetz, editor, TARK, pages1317
41–50, 2009b. doi: 10.1145/1562814.1562824. url: http://www.tark.org/1318
proceedings/tark_jul6_09/p41-baltag.pdf.1319
A. Baltag, L. S. Moss, and S. Solecki. The logic of public announcements,1320
common knowledge and private suspicions. Technical Report SEN-R9922,1321
CWI, Amsterdam, 1999.1322
44
Borrador
A. Baltag, N. Gierasimczuk, and S. Smets. Truth tracking and belief revision.1323
Manuscript. Presented at NASSLLI 2010, Bloomington, Indiana, 2010.1324
S. Ben-David and R. Ben-Eliyahu-Zohary. A modal logic for subjective default1325
reasoning. Artificial Intelligence, 116(1):217–236, 2000. doi: 10.1016/S0004-1326
3702(99)00081-8.1327
J. van Benthem. Dynamic logic for belief revision. Journal of Applied Non-Classical1328
Logics, 17(2):129–155, 2007. doi: 10.3166/jancl.17.129-155. url: http://www.1329
illc.uva.nl/Publications/ResearchReports/PP-2006-11.text.pdf.1330
J. van Benthem. Abduction at the interface of logic and philosophy of science.1331
Theoria, 22(3):271–273, Dec. 2009. ISSN 0495-4548. doi: 10.1387/theoria.447.1332
url: http://www.ehu.es/ojs/index.php/THEORIA/article/view/447.1333
J. van Benthem. Modal Logic for Open Minds. CSLI Lecture Notes. CSLI Pu-1334
blications, Stanford, CA, USA, Apr. 2010. ISBN 978-1-57586-598-0. url:1335
http://www.illc.uva.nl/lgc/MLoM/.1336
J. van Benthem. Logical Dynamics of Information and Interaction. Cambridge1337
University Press, 2011a. ISBN 978-0-521-76579-4.1338
J. van Benthem. Logic games: From tools to models of interaction. In J. van1339
Benthem, A. Gupta, and R. Parikh, editors, Proof, Computation and Agency,1340
volume 352 of Synthese library, pages 183–216. Springer, 2011b. ISBN 978-94-1341
007-0079-6. doi: 10.1007/978-94-007-0080-2_11.1342
J. van Benthem. In praise of strategies. In J. van Eijck and R. Verbrugge, editors,1343
Games, Actions, and Social Software, volume 7010 of Lecture Notes in Computer1344
Science, pages 96–116, Heilderberg, 2012. Springer. ISBN 978-3-642-29325-2.1345
doi: 10.1007/978-3-642-29326-9_6.1346
J. van Benthem and C. Dégremont. Bridges between dynamic doxastic and1347
doxastic temporal logics. In G. Bonanno, B. Löwe, and W. van der Hoek,1348
editors, LOFT, volume 6006 of Lecture Notes in Computer Science, pages 151–1349
173. Springer, 2008. ISBN 978-3-642-15163-7. doi: 10.1007/978-3-642-15164-1350
4_8. url: http://www.illc.uva.nl/Publications/ResearchReports/1351
PP-2008-34.text.pdf. To appear in Giacomo Bonanno and Benedikt Lö-1352
we and Wiebe van der Hoek, eds., Postproceedings LOFT 08, Texts in Logic1353
and Games, Springer, Heidelberg.1354
J. van Benthem and F. Liu. Dynamic logic of preference upgrade. Journal of1355
Applied Non-Classical Logics, 17(2):157–182, 2007. doi: 10.3166/jancl.17.157-1356
182. url: http://www.illc.uva.nl/Publications/ResearchReports/1357
PP-2006-45.text.pdf.1358
J. van Benthem and Stefan Minica. Toward a dynamic logic of questions. Journal1359
of Philosophical Logic, 41(4):633–669, 2012. doi: 10.1007/s10992-012-9233-7.1360
45
Borrador
J. van Benthem and E. Pacuit. The tree of knowledge in action: Towards a1361
common perspective. In G. Governatori, I. M. Hodkinson, and Y. Vene-1362
ma, editors, Advances in Modal Logic, pages 87–106. College Publications,1363
2006. ISBN 1-904987-20-6. url: http://www.illc.uva.nl/Publications/1364
ResearchReports/PP-2006-44.text.pdf.1365
J. van Benthem and E. Pacuit. Dynamic logics of evidence-based beliefs. Studia1366
Logica, 99(1):61–92, 2011. doi: 10.1007/s11225-011-9347-x.1367
J. van Benthem and F. R. Velázquez-Quesada. The dynamics of awareness.1368
Synthese (Knowledge, Rationality and Action), 177(Supplement 1):5–27, Dec.1369
2010. ISSN 0039-7857. doi: 10.1007/s11229-010-9764-9.1370
J. van Benthem, J. Gerbrandy, T. Hoshi, and E. Pacuit. Merging frameworks1371
for interaction. Journal of Philosophical Logic, 38(5):491–526, 2009a. ISSN1372
0022-3611. doi: 10.1007/s10992-008-9099-x. url: http://www.illc.uva.nl/1373
Publications/ResearchReports/PP-2008-35.text.pdf.1374
J. van Benthem, P. Girard, and O. Roy. Everything else being equal: A modal1375
logic for ceteris paribus preferences. Journal of Philosophical Logic, 38(1):83–125,1376
2009b. ISSN 0022-3611. doi: 10.1007/s10992-008-9085-3. url: http://www.1377
illc.uva.nl/Publications/ResearchReports/PP-2007-09.text.pdf.1378
J. van Benthem, E. Pacuit, and O. Roy. Toward a theory of play: A logical1379
perspective on games and interaction. Games, 2(1):52–86, 2011. ISSN 2073-1380
4336. doi: 10.3390/g2010052. url: http://www.mdpi.com/2073-4336/2/1/1381
52/.1382
P. Blackburn, M. de Rijke, and Y. Venema. Modal logic. Number 53 in Cambridge1383
Tracts in Theoretical Computer Science. Cambridge University Press, New1384
York, USA, 2001. ISBN 0-521-80200-8.1385
P. Blackburn, J. van Benthem, and F. Wolter, editors. Handbook of Modal Logic,1386
volume 3 of Studies in Logic and Practical Reasoning. Elsevier Science Inc.,1387
Amsterdam, 2006.1388
O. Board. Dynamic interactive epistemology. Games and Economic Behavior, 491389
(1):49–80, Oct. 2004. doi: 10.1016/j.geb.2003.10.006.1390
R. Booth and T. A. Meyer. Admissible and restrained revision. Journal of Artificial1391
Intelligence Research, 26:127–151, 2006. doi: 10.1613/jair.1874.1392
C. Boutilier. Unifying default reasoning and belief revision in a modal1393
framework. Artificial Intelligence, 68(1):33–85, 1994. doi: 10.1016/0004-1394
3702(94)90095-7.1395
C. Boutilier. Iterated revision and minimal change of conditional beliefs.1396
Journal of Philosophical Logic, 25(3):263–305, 1996. ISSN 0022-3611. doi:1397
10.1007/BF00248151.1398
46
Borrador
C. Boutilier and V. Becher. Abduction as belief revision. Artificial Intelligence,1399
77(1):43–94, 1995. ISSN 0004-3702. doi: 10.1016/0004-3702(94)00025-V.1400
B. de Bruin. Explaining Games: The Epistemic Programme in Game Theory, volume1401
346 of Synthese Library Series. Springer, Dordrecht, 2010. ISBN 978-1-4020-1402
9905-2.1403
R. Demolombe. Reasoning about trust: A formal logical framework. In C. D.1404
Jensen, S. Poslad, and T. Dimitrakos, editors, iTrust, volume 2995 of Lecture1405
Notes in Computer Science, pages 291–303. Springer, 2004. ISBN 3-540-21312-0.1406
doi: 10.1007/978-3-540-24747-0_22.1407
H. van Ditmarsch and B. P. Kooi. The secret of my success. Synthese, 151(2):1408
201–232, 2006. doi: 10.1007/s11229-005-3384-9.1409
H. van Ditmarsch, W. van der Hoek, and B. Kooi. Dynamic Epistemic Logic,1410
volume 337 of Synthese Library Series. Springer, Dordrecht, The Netherlands,1411
2007. ISBN 978-1-4020-5838-7.1412
H. van Ditmarsch, A. Herzig, J. Lang, and P. Marquis. Introspective forgetting.1413
Synthese (Knowledge, Rationality and Action), 169(2):405–423, July 2009. ISSN1414
0039-7857. doi: 10.1007/s11229-009-9554-4.1415
H. P. van Ditmarsch and T. French. Awareness and forgetting of facts and1416
agents. In Web Intelligence/IAT Workshops, pages 478–483. IEEE, 2009. ISBN1417
978-0-7695-3801-3. doi: 10.1109/WI-IAT.2009.330.1418
R. Fagin, J. Y. Halpern, Y. Moses, and M. Y. Vardi. Reasoning about knowledge.1419
The MIT Press, Cambridge, Mass., 1995. ISBN 0-262-06162-7.1420
S. Ghosh. Strategies made explicit in dynamic game logic. In Proceedings of1421
LOFT 2008, 2008.1422
D. Grossi, L. Kurzen, and F. R. Velázquez-Quesada, editors. Logic and Interac-1423
tive RAtionality. Seminar’s yearbook 2009. Institute for Logic, Language and1424
Computation, Universiteit van Amsterdam, Amsterdam, The Netherlands,1425
2010. url: http://www.illc.uva.nl/lgc/seminar/?page_id=727.1426
T. Grüne-Yanoff and S. O. Hansson, editors. Preference Change, volume 42 of1427
Theory and Decision Library. Springer, 2009. ISBN 978-90-481-2593-7.1428
D. Harel, D. Kozen, and J. Tiuryn. Dynamic Logic. MIT Press, Cambridge, MA,1429
2000. ISBN 0-262-08289-6.1430
A. Herzig, E. Lorini, J. F. Hübner, J. Ben-Naim, C. Castelfranchi, R. Demolombe,1431
D. Longin, and L. Vercouter. Prolegomena for a logic of trust and reputation.1432
In G. Boella, G. Pigozzi, M. P. Singh, and H. Verhagen, editors, NORMAS,1433
pages 143–157, 2008. ISBN 2-919940-48-1.1434
J. Hintikka. Knowledge and Belief: An Introduction to the Logic of the Two Notions.1435
Cornell University Press, Ithaca, N.Y., 1962. ISBN 1-904987-08-7.1436
47
Borrador
W. H. Holliday. Trust and the dynamics of testimony. In Grossi et al. (2010), pa-1437
ges 118–142. url: http://www.illc.uva.nl/lgc/seminar/?page_id=727.1438
W. H. Holliday and T. F. Icard. Moorean phenomena in epistemic logic. In1439
L. Beklemishev, V. Goranko, and V. Shehtman, editors, Advances in Modal1440
Logic, pages 178–199. College Publications, 2010. ISBN 978-1-84890-013-4.1441
url: http://www.aiml.net/volumes/volume8/Holliday-Icard.pdf.1442
T. Hoshi. Epistemic Dynamics and Protocol Information. PhD thesis, Department1443
of Philosophy, Stanford University, Stanford, CA, USA, 2009. url: http://1444
www.illc.uva.nl/Research/Dissertations/DS-2009-08.text.pdf. ILLC1445
Dissertation Series DS-2009-08.1446
T. Icard, E. Pacuit, and Y. Shoham. Joint revision of belief and intention. In Grossi1447
et al. (2010), pages 143–157. url: http://www.illc.uva.nl/lgc/seminar/1448
?page_id=727.1449
M. Jago. Epistemic logic for rule-based agents. Journal of Logic, Language and1450
Information, 18(1):131–158, 2009. ISSN 0925-8531. doi: 10.1007/s10849-008-1451
9071-8.1452
L. Kurzen. Reasoning about cooperation, actions and preferences. Synthese, 1691453
(2):223–240, 2009. doi: 10.1007/s11229-009-9551-7.1454
H. J. Levesque. A knowledge-level account of abduction. In N. S. Sridharan,1455
editor, IJCAI, pages 1061–1067. Morgan Kaufmann, 1989. ISBN 1-55860-094-9.1456
C.-J. Liau. Belief, information acquisition, and trust in multi-agent systems1457
– a modal logic formulation. Artificial Intelligence, 149(1):31–60, 2003. doi:1458
10.1016/S0004-3702(03)00063-8.1459
B. van Linder, W. van der Hoek, and J.-J. C. Meyer. The dynamics of de-1460
fault reasoning. Data & Knowledge Engineering, 21(3):317–346, 1997. doi:1461
10.1016/S0169-023X(96)00021-3.1462
F. Liu. Reasoning about Preference Dynamics, volume 354 of Synthese Library Series.1463
Springer, 2011. ISBN 978-94-007-1343-7.1464
J.-J. C. Meyer and W. van Der Hoek. Epistemic Logic for AI and Computer Science.1465
Cambridge University Press, New York, N.Y., U.S.A., 1995. ISBN 0-521-46014-1466
7.1467
J. S. Miller and L. S. Moss. The undecidability of iterated modal relativization.1468
Studia Logica, 79(3):373–407, 2005. doi: 10.1007/s11225-005-3612-9.1469
A. Moreno. Avoiding logical omniscience and perfect reasoning: a sur-1470
vey. AI Communications, 11(2):101–122, 1998. ISSN 0921-7126. url: http:1471
//iospress.metapress.com/content/g0hb9r54nbc1gydu/.1472
A. C. Nayak. Iterated belief change based on epistemic entrenchment. Erkennt-1473
nis, 41(3):353–390, 1994. ISSN 0165-0106. doi: 10.1007/BF01130759.1474
48
Borrador
M. J. Osborne and A. Rubinstein. A Course in Game Theory. The MIT Press,1475
Cambridge, Massachusetts, 1994. ISBN 0262650401.1476
M. Pauly. A modal logic for coalitional power in games. Journal of Logic1477
and Computation, 12(1):149–166, 2002. url: http://www3.oup.co.uk/logcom/1478
hdb/Volume_12/Issue_01/120149.sgm.abs.html.1479
R. Ramachandran, A. C. Nayak, and M. A. Orgun. Three approaches to iterated1480
belief contraction. Journal of Philosophical Logic, 41(1):115–142, 2012. doi:1481
10.1007/s10992-011-9201-7.1482
R. Ramanujam and S. E. Simon. Dynamic logic on games with structured1483
strategies. In G. Brewka and J. Lang, editors, KR, pages 49–58. AAAI Press,1484
2008. ISBN 978-1-57735-384-3.1485
B. Renne. Multi-agent justification logic: Communication and eviden-1486
ce elimination. Synthese, 185(Supplement 1):43–82, 2012. ISSN 0039-1487
7857. doi: 10.1007/s11229-011-9968-7. url: http://bryan.renne.org/docs/1488
renne-elimination.pdf.1489
O. Roy. Thinking Before Acting. Intentions, Logic, Rational Choice. PhD thesis, Ins-1490
titute for Logic, Language and Computation (ILLC), Universiteit van Ams-1491
terdam (UvA), Amsterdam, The Netherlands, Feb. 2008. url: http://www.1492
illc.uva.nl/Research/Dissertations/DS-2008-03.text.pdf. ILLC Dis-1493
sertation series DS-2008-03.1494
K. Segerberg. Default logic as dynamic doxastic logic. Erkenntnis, 50(2-3):1495
333–352, 1999. doi: 10.1023/A:1005546526502.1496
K. M. Sim. Epistemic logic and logical omniscience: A survey. International1497
Journal of Intelligent Systems, 12(1):57–81, Jan. 1997. doi: 10.1002/(SICI)1098-1498
111X(199701)12:1<57::AID-INT3>3.0.CO;2-X.1499
K. M. Sim. Epistemic logic and logical omniscience II: A unifying frame-1500
work. International Journal of Intelligent Systems, 15(2):129–152, Feb. 2000.1501
doi: 10.1002/(SICI)1098-111X(200002)15:2<129::AID-INT3>3.0.CO;2-T.1502
F. R. Velázquez-Quesada. Dynamic epistemic logic for implicit and explicit1503
beliefs. Journal of Logic, Language and Information, 23(2):107–140, June 2014.1504
ISSN 0925-8531. doi: 10.1007/s10849-014-9193-0.1505
F. R. Velázquez-Quesada, F. Soler-Toscano, and Á. Nepomuceno-Fernández. An1506
epistemic and dynamic approach to abductive reasoning: abductive problem1507
and abductive solution. Journal of Applied Logic, 11(4):505–522, 2013. ISSN1508
1570-8683. doi: 10.1016/j.jal.2013.07.002.1509
Y. Wang. Epistemic Modelling and Protocol Dynamics. PhD thesis, Cen-1510
trum Wiskunde & Informatica (CWI), Amsterdam, The Netherlands,1511
Sept. 2010. url: http://www.illc.uva.nl/Research/Dissertations/1512
DS-2010-06.text.pdf. ILLC Dissertation series DS-2010-06.1513
49
Borrador
Y. Wang and Q. Cao. On axiomatizations of public announcement logic. Synt-1514
hese, 190(1):103–134, 2013. doi: 10.1007/s11229-012-0233-5.1515
50
Recommended