Introducción
Sea Eun experimento aleatorio con espacio de probabilidad (Ω,F,P). Algunas veces
podemos poseer información incompleta sobre el resultado real de E sin conocer
exactamente este resultado.
Por ejemplo, si lanzamos un dado, y e estamos interesados en el evento A = {6}. ¿Cuál es
la probabilidad de A? ¿Cuál es la probabilidad de cualquier resultado?
Ahora, si una persona nos dice que se está mostrando un número par, ¿Cuál es la
probabilidad de A conociendo la información anterior?
Podemos concluir que esta información afecta todos nuestros cálculos de
probabilidades.
Introducción
Por ejemplo, si lanzamos un dado y una persona nos dice que se está mostrando un
número par, entonces esta información afecta todos nuestros cálculos de
probabilidades.
En general, si A y B son eventos de F, y queremos calcular la probabilidad de que A
ocurra, y se nos dice que B está ocurriendo, entonces, a la luz de esta información, la
probabilidad de A ya no puede ser P(A), si B está relacionado con A. Claramente, en
esta nueva circunstancia, A ocurre si y solo si ocurre A n B, sugiriendo que la nueva
probabilidad de A es proporcional a P(A B).
Definición
Si A, B F, y P(B) > 0, la probabilidad condicional de A
dado B, denotada por P(A|B) se define por
P(A|B) = 𝑃(𝐴 ∩𝐵)
𝑃(𝐵)
Teorema
Si B F y P(B) > 0, entonces (Ω,F,Q) es un espacio de probabilidad
donde Q: F es definida por Q(A) = P(A|B).
Demostración.
i) Claramente, Q(A) ≥ 0 para todo A F .
ii) Q(Ω) = P(Ω |B) = 𝑃(Ω∩𝐵)
𝑃(𝐵)= 1
iii) Supongamos que A1, A2, … son eventos disjuntos en F. Entonces 𝑄 𝑖𝐴𝑖ڂ =1
𝑃(𝐵)𝑃 𝑖𝐴𝑖ڂ ∩ 𝐵 =
1
𝑃(𝐵)𝑃 𝑖(𝐴𝑖ڂ ∩ 𝐵 =
1
𝑃(𝐵)σ𝑖 𝑃 𝐴𝑖 ∩ 𝐵 = σ𝑖𝑄 𝐴𝑖 #
Ejemplo
Tenemos dos urnas, I y II. Urna I contiene 2 bolas negras y 3 bolas
blancas. La Urna II contiene 1 bola negra y 1 bola blanca. Se saca
una urna al azar y se elige una bola al azar de ella. Podemos
representar el espacio muestral de este experimento como las
rutas a través de un diagrama de árbol. Sea B el evento “una bola
negra es extraída”, e C el evento “la urna I es elegida”. Calcular
P(B|C).
Ejercicios
Si (Ω,F,P) es un espacio de probabilidad y A, B y C son eventos,
demostrar que 𝑃 𝐴 ∩ 𝐵 ∩ 𝐶 = 𝑃 𝐴|𝐵 ∩ 𝐶 𝑃 𝐵|𝐶 𝑃 𝐶 .
Demostrar que P(B|A) = P(A|B) 𝑃(𝐵)
𝑃(𝐴), si P(A) y P(B) > 0.
Considérese el experimento de lanzar una moneda 7 veces.
Encontrar la probabilidad de obtener un número primo de soles
dado que las soles ocurren en al menos 6 de los lanzamientos.
Eventos independientes
A menudo sucede que el conocimiento de que ha ocurrido un
cierto evento E no tiene ningún efecto sobre la probabilidad de
que haya ocurrido algún otro evento F, es decir, que P (F|E) = P(F).
Uno esperaría que en este caso, la ecuación P (E|F) = P(E) también
fuera cierta. De hecho, cada ecuación implica a la otra (ver
Ejercicio al final). Si estas ecuaciones son verdaderas, podríamos
decir que F es independiente de E.
Eventos independientes
Por ejemplo, no esperaría que el conocimiento del resultado del
primer lanzamiento de una moneda cambie la probabilidad que
asignaría a los posibles resultados del segundo lanzamiento, es
decir, no esperarías que el segundo lanzamiento dependa del
primero. Esta idea se formaliza en la siguiente definición de eventos
independientes.
Definición
Sean E y F dos eventos. Decimos que son independientes si cualquiera de los dos:
1) ambos eventos tienen probabilidad positiva y P(E|F) = P(E) y P(F|E) = P(F), o ya sea
2) al menos uno de los eventos tiene probabilidad cero.
Teorema
Dos eventos E y F son independientes si y sólo si P(E ∩ F) = P(E) · P(F).
Demostración.
Caso 1: si cualquiera de los 2 tiene probabilidad 0, se cumple inmediatamente.
Caso 2: si asumimos que ambos eventos tiene probabilidad positiva, entonces
) Supongamos que E y F son independientes.
Entonces P(E|F) = P(E), pero P(E ∩ F) = P(E|F) P(F) = P(E) · P(F).
) Supongamos que P(E ∩ F) = P(E) · P(F).
Entonces P(E|F) = 𝑃(𝐸 ∩𝐹)
𝑃(𝐹)= P(E), recíprocamente P(F|E) = P(F) #
Ejemplo
Supongamos que tenemos una moneda que sale sol con
probabilidad p, y águila con probabilidad q. Ahora supongamos
que esta moneda se arroja dos veces. Usando una interpretación
de frecuencia de la probabilidad, es razonable asignar al resultado
(H, H) la probabilidad p2, al resultado (H, T) la probabilidad pq, y así
sucesivamente. Sea E el evento que representa el primer turno y F
el evento de que las águilas aparezcan en el segundo
lanzamiento. Ahora comprobaremos que con las asignaciones de
probabilidad anteriores, estos dos eventos son independientes,
como se esperaba.
Definición
Podemos generalizar la idea de independiente de la siguiente manera:
a) Si A o B tienen probabilidad cero, podemos generalizar a cualquier número de
eventos.
b) Una familia A = {Ai: i I} de eventos, es llamada independiente si , para cualesquiera
subconjuntos finitos J de I,
𝑃 𝑖ځ 𝜖 𝐽𝐴𝑖 = ς𝑖 𝜖 𝐽𝑃 𝐴𝑖 (*)
La familia A es llamada independiente por pares si (*) se cumple siempre que |J| = 2.
Nota
Tres eventos A, B y C son independientes si y sólo si se
cumple lo siguiente:
Hay familias de eventos los cuales son independientes
por pares pero no independientes.
Ejemplo
Supongamos que se lanza un dado de cuatro
caras. Entonces Ω = {1,2,3,4}, donde cada ω Ω
es igualmente probable de ocurrir. Sean A = {1,2},
B = {1,3}, C = {1,4}. ¿Son independientes?
Ejercicios de clase
Si A y B son eventos los cuales son disjuntos e independientes, ¿qué puede decirse de las probabilidades de A y B?
Demostrar que los eventos A y B son independientes si y sólo si A y Ω\B son independientes.
Sean A y B eventos que satisfacen P(A), P(B) > 0, y tal que P(A|B) = P(A). Demostrar que P(B|A) = P(B).
Demostrar que los eventos A1, A2, …, Am, son independientes si y sólo si Ω\A1, Ω\A2, …, Ω\Am son independientes.
Si A1, A2, …, Am, son independientes y P(Ai) = p para i = 1, 2, …, m, encontrar la probabilidad de que
a) Ninguno de los A´s ocurre.
b) Un número par de los A´s ocurre.
Condiciones para el Teorema de la
partición
Sea (Ω,F,P) un espacio de probabilidad. Una partición de
Ω es una colección {Bi: i I} de eventos disjuntos (así queBi F para cada i y Bi ∩ Bj = si i j) con 𝑖𝐵𝑖ڂ =Ω.
Teorema de la partición
Si {B1, B2, …} es una partición de Ω tal que P(Bi) > 0 para
cada i, entonces
𝑃 𝐴 = σ𝑖 𝑃 𝐴|𝐵𝑖 𝑃 𝐵𝑖 para todo A F
Nota. A este teorema también se le conoce como el
Teorema de la Probabilidad Total.
Teorema de Bayes
Si A es cualquier evento y B1, B2, …, Bn son eventos mutuamente excluyentes, con
probabilidades distintas de cero, cuya unión es Ω o contiene a A, entonces
para i = 1, 2, …, n.
Ejemplo
Mañana habrá lluvia o nieve pero no ambas; la probabilidad de lluvia es 2/5 y la
probabilidad de nieve es 3/5. Si llueve, la probabilidad de que llegue tarde a mi
conferencia es 1/5, mientras que la probabilidad correspondiente en caso de nieve es
3/5. ¿Cuál es la probabilidad de que llegue tarde?
R = 11/25
Ejemplo
Problema de rutina sobre bolas en urnas. Te presentan dos urnas. La Urna I contiene 3
bolas blancas y 4 negras y la Urna II contiene 2 bolas blancas y 6 negras. Escoges una
bola al azar de la Urna I y la colocas en la Urna II. A continuación, elige una bola
aleatoriamente desde la Urna II. ¿Cuál es la probabilidad de que esta bola sea negra?
R =
Ejemplo
Una prueba de sangre, cuando se administra a una persona con cierta enfermedad,
muestra la presencia de la enfermedad con probabilidad de .99 y no la muestra con
probabilidad de 0.01. También produce un resultado falso positivo para personas sanas,
con una probabilidad de .02. También sabemos que .1% de la población tiene la
enfermedad. ¿Cuál es la probabilidad de que una persona realmente tenga la
enfermedad si la prueba lo dice?
R ≈ 0.047