Transcript

Probabilidad 1

Dr. Juan Ruiz de Chavez S.

Julio 5, 2020

Indice general

1. Modelos Probabilısticos. 1

1.1. Fenomenos aleatorios . . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Axiomas de la probabilidad. . . . . . . . . . . . . . . . . . . . 3

2. Tecnicas de Conteo. 9

2.1. Principio fundamental del conteo . . . . . . . . . . . . . . . . 9

2.2. Muestreo con reemplazo . . . . . . . . . . . . . . . . . . . . . 10

2.3. Muestreo sin reemplazo . . . . . . . . . . . . . . . . . . . . . 11

2.4. Muestras donde el orden no importa . . . . . . . . . . . . . . 13

3. Condicionamiento e Independencia. 17

3.1. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . 17

3.2. Formula de la probabilidad total . . . . . . . . . . . . . . . . 19

3.3. Formula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . 19

3.4. Independencia de eventos . . . . . . . . . . . . . . . . . . . . 24

3.5. Repeticiones independientes de un fenomeno aleatorio . . . . 27

3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4. Variables Aleatorias. 33

4.1. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . 33

4.1.1. La variable aleatoria Binomial . . . . . . . . . . . . . 35

4.1.2. Funcion de probabilidad . . . . . . . . . . . . . . . . . 35

4.1.3. La variable aleatoria Geometrica . . . . . . . . . . . . 38

iv INDICE GENERAL

4.1.4. La variable aleatoria Hipergeometrica . . . . . . . . . 40

4.1.5. La variable aleatoria Binomial negativa . . . . . . . . 40

4.1.6. La variable aleatoria Poisson . . . . . . . . . . . . . . 41

4.1.7. Funcion de distribucion acumulativa y de densidad . . 49

4.2. Variables aleatorias continuas . . . . . . . . . . . . . . . . . . 50

4.2.1. Funciones de densidad y distribucion continuas . . . . 51

4.2.2. La variable aleatoria uniforme . . . . . . . . . . . . . . 53

4.2.3. La variable aleatoria exponencial . . . . . . . . . . . . 55

4.3. Densidad de funciones de variables aleatorias continuas, ocambio de variable . . . . . . . . . . . . . . . . . . . . . . . . 56

5. Variables Aleatorias distribuidas conjuntamente 61

5.1. Funciones de probabilidad y distribucion conjuntas . . . . . . 61

5.2. Independencia en vectores aleatorios . . . . . . . . . . . . . . 63

5.3. Regla de Bayes para el caso continuo . . . . . . . . . . . . . . 64

5.4. Distribucion de sumas de variables aleatorias . . . . . . . . . 68

5.4.1. Una regla muy util . . . . . . . . . . . . . . . . . . . . 69

6. Esperanza Matematica y Varianza 71

6.1. Esperanza matematica . . . . . . . . . . . . . . . . . . . . . . 71

6.1.1. Esperanza de una variable aleatoria discreta . . . . . . 71

6.1.2. Esperanza de un variable aleatoria continua . . . . . . 76

6.2. Varianza de una variable aleatoria . . . . . . . . . . . . . . . 77

6.3. Desigualdad de Chebychev y Ley debil de los grandes numeros 80

6.4. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . 82

7. Funcion Generadora de Momentos 85

7.1. Propiedad reproductiva de la Binomial . . . . . . . . . . . . . 88

7.2. Propiedad reproductiva de la Poisson . . . . . . . . . . . . . . 89

INDICE GENERAL v

8. Distribuciones Normal y Gama 91

8.1. La variable aleatoria Normal . . . . . . . . . . . . . . . . . . 91

8.2. La variable aleatoria Gama . . . . . . . . . . . . . . . . . . . 97

8.3. La distribucion Gama . . . . . . . . . . . . . . . . . . . . . . 98

8.4. Propiedad reproductiva de la Gama . . . . . . . . . . . . . . 100

8.5. La distribucion Chi-cuadrada . . . . . . . . . . . . . . . . . . 101

8.5.1. Correcion para continuidad . . . . . . . . . . . . . . . 102

Tablas 103

Capıtulo 1

Modelos Probabilısticos.

Este capıtulo sirve como introduccion a los conceptos mas generales de la teorıade la probabilidad. En la primera parte se presentan los conceptos de espaciosmuestrales y eventos, posteriormente se define la probabilidad y sus respecti-vos axiomas. Por ultimo se muestra como asociar probabilidades a los eventos.

1.1. Fenomenos aleatorios

Un fenomeno aleatorio (fortuito o al azar) es aquel que se caracteriza por lapropiedad de que al observarlo bajo determinado conjunto de condiciones,no siempre se obtiene el mismo resultado.

La teorıa de probabilidad estudia los metodos de analisis que son comunesen el tratamiento de fenomenos aleatorios cualquiera que sea el campo enque estos se presenten.

Para hacer el estudio de modelos matematicos de los fenomenos aleatoriosprimero nos valdremos del concepto de espacio muestral conocido tambiencomo espacio de resultados.

Definicion 1. El espacio muestral que denotaremos por Ω o S, sera elconjunto de todos los resultados posibles del fenomeno aleatorio y a loselementos ω ∈ Ω se les llama puntos muestrales o eventos elementales, ω esun resultado particular.

Ejemplo 1. El experimento consiste en lanzar un dado y anotar el numeroobtenido; El conjunto de resultados es:

2 Modelos Probabilısticos.

Ω = 1, 2, 3, 4, 5, 6

Ejemplo 2. Se lanza una moneda cuatro veces y se cuenta el numero deaguilas que se obtienen.

Ω = 0, 1, 2, 3, 4

Ejemplo 3. Se fabrica un componente electronico, luego se observa su tiem-po de vida.

Ω = [0,∞

Ejemplo 4. El numero de personas vacunadas en la UAMI en la 1a semanade clases.

Ω = 0, 1, 2, . . . ,M

donde M es el numero de personas de la UAMI

Ejemplo 5. Se fabrican artıculos hasta que se obtengan dos no defectuososconsecutivos y se cuentan el numero de artıculos producidos. Describa elespacio de resultados.

D = artıculo defecutosoB = artıculo no defectuoso

Ω =

(B,B), (D,B,B), (D,D,B,B),

(D,B,D,B,B), . . . , (c1, . . . , cn, B,B), . . .

no puede haber 2 B juntos y ci = D o B

Definicion 2. Los eventos son subconjuntos del espacio muestral que de-notaremos con mayusculas, lo cual es usual en la teorıa de conjuntos.

Ejemplo 6. Para el experimento de lanzar un dado (Ejemplo 1),

Ω = 1, 2, 3, 4, 5, 6.

Sea A el evento: “Se obtiene un numero par”

A = 2, 4, 6 ⊂ Ω.

1.2 Axiomas de la probabilidad. 3

Ejemplo 7. Para el experimento de fabricar un componente electronico(Ejemplo 3)

Ω = [0,∞)

Sea A el evento: “La falla ocurre despues de un mes”

A = (30,∞)

Nota 1.Ac = “no ocurre A”

A ∪B = “ocurre A o B ”A ∩B = “ocurre A y B”

Para que ocurra un evento es necesario que ocurra alguno de los posibleseventos elementales que lo forman, es decir, aquellos que constan de un solopunto muestral.

Ejemplo 8. Sea A = 2, 4, 6, entonces A ocurre solamente si ocurre 2o 4 o bien 6.

Propiedades de los eventos

1. Si A es un evento, Ac = ω ∈ Ω : ω /∈ A tambien es un evento.

2. Ω es un evento, llamado el evento seguro.

3. Si A1, A2, . . . , An son eventos,n⋃i=1

Ai es un evento que ocurre cuando

al menos uno de los eventos Ai ocurre.

1.2. Axiomas de la probabilidad.

Definicion 3. Una probabilidad que denotaremos por P, sobre la familia deeventos de Ω 6= ∅, es un numero real y esta dada por los siguientes axiomas:

1. 0 6 P (A) 6 1 ∀A evento

2. P (Ω) = 1

3.P

( ∞⋃i=1

Ai

)=∞∑i=1

P (Ai)

si Ai ∩Aj = ∅ i 6= j

4 Modelos Probabilısticos.

Pasemos a ver algunas propiedades elementales de la probabilidad.

Sean A,B ⊂ Ω eventos, entonces:

1. P (Ac) = 1− P (A)

2. P (∅) = 0

3. P (A ∪B) = P (A) + P (B)− P (A ∩B)

4. Si A ⊂ B P (A) 6 P (B)

Prueba.-

A B

Ω

1. Ω = A ∪Ac A ∩Ac = ∅

P (Ω) = 1 = P (A ∪Ac)= P (A) + P (Ac)

⇒ P (Ac) = 1− P (A) .

2. A = A ∪ ∅ A ∩ ∅ = ∅

P (A) = P (A ∪ ∅) = P (A) + P (∅)⇒ P (∅) = P (A)− P (A) = 0

3. A ∪B = A ∪ (B ∩Ac); A ∩ (B ∩Ac) = ∅

P (A ∪B) = P (A ∪ (B ∩Ac))= P (A) + P (B ∩Ac) (1.2.a)

B = (B ∩A) ∪ (B ∩Ac); (B ∩A) ∩ (B ∩Ac) = ∅

P (B) = P ((B ∩A) ∪ (B ∩Ac))= P (B ∩A) + P (B ∩Ac)

1.2 Axiomas de la probabilidad. 5

∴ P (B ∩Ac) = P (B)− P (B ∩A) (1.2.b)

sustituyendo (1.2.b) en (1.2.a) tenemos:

P (A ∪B) = P (A) + P (B)− P (A ∩B)

4. Si A ⊂ B, P (A) 6 P (B) .

B = A ∪ (B ∩Ac)∴ P (B) = P (A) + P (B ∩Ac)⇒ P (B) > P (A)

Recordemos que Ω va a denotar el conjunto de resultados posibles de unexperimento al azar.

Vamos a considerar al caso en que Ω, solo tiene un numero finito de elementosi.e.

Ω = ω1, ω2, . . . , ωn

Ahora denotaremos por pi la probabilidad del evento ωi i.e. pi = P (ωi)

si A es un evento notemos que: P (A) =∑ωi∈A

pi

Ejemplo 9. A = 2, 4, 6

P (A) =∑wi∈A

pi = p2 + p4 + p6 =1

2

Un caso muy importante es el equiprobable, este se presenta cuando

p1 = p2 = p3 = . . . = pn

Notemos que si Ω tiene n elementos:

1 = P (Ω) =∑ωi∈Ω

pi =∑ωi∈Ω

p = np⇒ p =1

n

Ahora sea A ⊂ Ω un evento, ası que en este caso:

P (A) =∑ωi∈A

p = p · (# elementos de A)

=# elementos de A

# elemento de Ω=

# casos favorables

# casos totales.

6 Modelos Probabilısticos.

Ejemplo 10. Ω = 1, 2, . . . , 6

Si A = 1, 3

P (A) =#(A)

#(Ω)=

2

6=

1

3

Ejemplo 11. Se lanza un dado bien balanceado 2 veces ¿Cual es la proba-bilidad de que la suma de los numeros que aparecen sean mayor que 10?

Solucion.-

Ω =

(1, 1), (1, 2), . . . , (1.6)(2, 1), (2, 2), . . . , (2, 6)

......

. . ....

(6, 1), (6, 2), . . . , (6, 6)

Sea A el evento: “La suma de los numeros que aparecen es mayor que 10”

A = (5, 6), (6, 5), (6, 6) P (A) =3

36.

Ejemplo 12. Consideremos un proceso de produccion en donde se han nu-merado los primeros 300,000 artıculos producidos. Se escoge un artıculo dela produccion total. ¿Cual es la probabilidad de que este artıculo tenga comoprimer dıgito al numero 1?

Solucion.-

Del Al Hay

1 1 110 19 10100 199 100

1,000 1,999 1,00010,000 19,999 10,000100,000 199,999 100,000

Total 111,111

#(A) = 111, 111#(Ω) = 300, 000

P (A) =111, 111

300, 000= 0.37037

1.2 Axiomas de la probabilidad. 7

Ejemplo 13. Se tiene una urna con 3 bolas numeradas 1,2,3. Se extraeuna a la vez y se anota su numero. ¿Cual es la probabilidad de que se hayanextraıdo en el orden usual?

Solucion.-

Ω =

(1, 2, 3), (1, 3, 2), (2, 1, 3),

(2, 3, 1), (3, 1, 2), (3, 2, 1)

A = (1, 2, 3) P (A) =1

6.

Capıtulo 2

Tecnicas de Conteo.

En este capıtulo se dan algunas de las herramientas de la combinatoria que nosseran muy utiles para el calculo de probabilidades.

2.1. Principio fundamental del conteo

Si tenemos dos conjuntos Ω1 y Ω2 tales que:

Ω1 =ω1

1, . . . , ω1k1

Ω2 =

ω2

1, . . . , ω2k2

,

entonces el numero de parejas distintas (ω1, ω2) que se pueden formar, dondeω1 ∈ Ω1 y ω2 ∈ Ω2 es k1 × k2

ω21 ω2

2 . . . ω2k2

ω11 (ω1

1, ω21) (ω1

1, ω22) . . . (ω1

1, ω2k2

)...

......

. . ....

ω1k1

(ω1k1, ω2

1) (ω1k1, ω2

2) . . . (ω1k1, ω2

k2)

Ejemplo 14. Ω1 = 1, 2, Ω2 = 2, 4, 5el numero de parejas distintas (ω1, ω2) es 2× 3 = 6.

10 Tecnicas de Conteo.

En general, si tenemos n conjuntos Ω1, . . . ,Ωn, tales que Ωi tiene ki ele-mentos, el numero de arreglos distintos (ω1, ω2, . . . , ωn) tales que ωi ∈ Ωi,es

k1 × k2 × · · · × kn.

Veamos el caso n = 3

ω31 . . . ω3

k3(ω1

1, ω21) (ω1

1, ω21, ω

31) . . . (ω1

1, ω21, ω

3k3

)...

.... . .

...(ω1k1, ω2

k2) (ω1

k1, ω2

k2, ω3

1) . . . (ω1k1, ω2

k2, ω3

k3)

2.2. Muestreo con reemplazo

En el muestreo con reemplazo en una poblacion de tamano n, el total demuestras distintas de tamano k, que se pueden obtener es nk.

Ejemplo 15. Se tiene una urna con 100 bolas numerables del 1 al 100. Seextrae una bola, se anota su numero y se regresa. Esto se repite 15 veces.¿De cuantas formas distintas se pudieron extraer las 15 bolas?

Solucion.-

En la 1a extraccion se obtiene un numerox1 ∈ 1, 2, . . . , 100 = Ω1

En la 2a extraccion se obtiene un numerox2 ∈ 1, 2, . . . , 100 = Ω2

...

En la 15va extraccion se obtiene un numerox15 ∈ 1, 2, . . . , 100 = Ω15

El resultado de experimento se puede escribir como un arreglo (x1, . . . , x15)tal que xi ∈ Ωi = 1, 2, . . . , 100. El total de arreglos es (100)15.

2.3 Muestreo sin reemplazo 11

2.3. Muestreo sin reemplazo

En la discusion anterior el numero total de arreglos de la forma (x1, . . . , xk)resulto ser n1 × n2 × . . . × nk; En donde n1 es el numero de elementos quepueden ocupar el primer lugar, n2 el numero que pueden ocupar el segundolugar, etc. Ahora si tenemos una poblacion de tamano n y se eligen sinreemplazo k elementos. ¿Cuantas muestras distintas se pueden obtener?

Solucion.-

Tenemos arreglos de la forma (x1, x2, . . . , xk)

El primer lugar se puede ocupar con n elementos de la poblacion, el segundocon (n− 1) elementos . . . etc.

∴ el total es n× (n− 1)× · · · × (n− k + 1).

Para k = 2

x1 x2 . . . xnx1 (x1, x1)︸ ︷︷ ︸

se excluye

(x1, x2) . . . (x1, xn)

x2 (x2, x1) (x2, x2)︸ ︷︷ ︸se excluye

. . . (x2, xn)

......

.... . .

...xn xn, x1) (xn, x2) . . . (xn, xn)︸ ︷︷ ︸

se excluye

El total es n2 − n = n(n− 1)

para k = 3

x1 x2 . . . xn(x1, x2) (x1, x2, x1)︸ ︷︷ ︸

se excluye

(x1, x2, x2)︸ ︷︷ ︸se excluye

. . . (x1, x2, xn)

(x1, x3) (x1, x3, x1)︸ ︷︷ ︸se excluye

(x1, x3, x2) . . . (x2, xn)

......

.... . .

...(xn, xn−2) (xn, xn−2, x1) (xn, xn−2, x2) . . . (xn, xn−2, xn)︸ ︷︷ ︸

se excluye

(xn, xn−1) (xn, xn−1, x1) (xn, xn−1, x2) . . . (xn, xn−1, xn)︸ ︷︷ ︸se excluye

12 Tecnicas de Conteo.

El total es n(n− 1)(n− 2)

Ejemplo 16. Supongamos que se tienen 10 sillas para 10 personas. Enton-ces el numero de maneras en que las podemos acomodar es:

10× 9× 8× · · · × 2× 1 = 3, 628, 800 = 10!

n!def= n(n− 1) · · · (2)(1)

Decir que la manera de acomodarlas es aleatoria quiere decir que asignamosuna probabilidad de 1

10! a cada una de las formas de acomodarlas. Supon-gamos que la asignacion sea al azar ¿Cual es la probabilidad de que a lapersona i = 4 le toque la silla j = 3?

Solucion.- Estamos en el caso equiprobable

Casos totales = 10!

Casos favorables. Si la persona 4 esta en la silla 3, quedan 9 personas paraser asignadas en las 9 sillas restantes, es decir, vamos a acomodar 9 personasen 9 lugares disponibles y eso se hace de 9! formas distintas.

∴ La probabilidad buscada es:

p =9× 8× 7× · · · × 1

10× 9× 8× · · · × 1=

1

10

En general, la probabilidad de que k-objetos especıficos esten en k-lugaresespecıficos es

(n− k)!

n!

Ejemplo 17. Un elevador parte con k = 7 pasajeros y se detiene en n = 10pisos. ¿Cual es la probabilidad de que no baje mas de un pasajero por piso?

Solucion.-

Casos totales: 107

Casos favorables: 10× 9× 8× 7× 6× 5× 4× · · · × (10− k + 1)

∴ La probabilidad buscada es:

p =10× 9× · · · × (10− 7 + 1)

107= 0.06048

Con R ejecutamos gamma(10+1)/gamma(10-7+1) y lo dividimos por 107.

2.4 Muestras donde el orden no importa 13

Ejemplo 18. Consideremos como poblacion para un experimento a los 365dıas del ano, tomemos una muestra de tamano k que consta de los cum-pleanos de r personas. Si las tasas de natalidad son iguales para cualquierdıa del ano. ¿Cual es la probabilidad de que en un grupo de 25 personastodas tengan cumpleanos en diferentes dıas?

Solucion.-

Casos totales = (365)25

Casos favorables = (365)(364) · · · (365− 25 + 1)

p =(365)(364) · · · (341)

(365)25= 0.43

sik = 10 p = 0.88k = 30 p = 0.30

2.4. Muestras donde el orden no importa

Se toma una muestra de tamano k, el orden no importa y se toma sinreemplazo de una poblacion de tamano n.

¿Cual es el total de muestras distintas?

Sea xk el numero que buscamos

xk =n!

(n− k)!k!

Si xk es el numero de muestras diferentes de tamano k, en donde el ordende los elementos no importa, cada una de estas muestras genera k! distintasen donde el orden si importa, ası el total xk × k! genera el total de mues-tras distintas, en donde el orden si importa (sin reemplazo) y este numerosabemos que es:

n× (n− 1)× · · · × (n− k + 1)

∴ xk × k! = n× (n− 1)× · · · × (n− k + 1)

∴ xk =n× (n− 1)× · · · × (n− k + 1)

k!=

n!

k!(n− k)!,

14 Tecnicas de Conteo.

a este numero lo denotamos por:

xk =

(n

k

)

que se llama las combinaciones de n elementos tomados de k en k.

(n

k

)=

numero de subconjuntos de tamano kque se pueden hacer de con conjuntode n elementos.

Ejemplo 19. En una baraja de 52 cartas, ¿Cuantas manos distintas depoker se pueden obtener?

Solucion.- (52

2

)=

52!

(52− 5)! · 5!= 2, 598, 960.

Consideremos une poblacion dicotomica (dividida en dos clases) de tal suer-te que tiene R-rojos y B-blancos. Se toma una muestra de tamano k sinreemplazo, ¿Cual es la probabilidad de que en la muestra se obtengan k1-rojos?

Solucion.-

Casos totales =(R+Bk

)Casos favorables

(Rk1

)(B

k−k1

)Ejemplo 20. Una decision que ha tomado cierta compania para aceptarlotes de 20 artıculos, es aceptar el lote si en una muestra de 5 al inspeccio-narlos todos estos son no defectuosos. ¿Cual es la probabilidad de aceptarun lote que tiene 4 defectuosos?

Solucion.-

Casos totales =(

205

)Casos favorables =

(165

)(40

)La probabilidad buscada es:

p =

(165

)(40

)(205

) = 0.2817.

2.4 Muestras donde el orden no importa 15

Ahora supongamos que tenemos una poblacion dividida en m clases; Dondela 1a clase tiene n1 elementos, la 2a clase tiene n2 elementos, . . . , la m-esima clase tiene nm elementos. Se toma una muestra al azar de tamano ksin reemplazo ¿Cual es la probabilidad de que en la muestra se tengan k1

elementos de la 1a clase, k2 elementos de la 2a clase, . . . , km elementos dela m-esima clase?

Solucion.-

Tamano de la poblacion n = n1 + n2 + . . .+ nmTamano de la muestra k = k1 + k2 + . . .+ km

Casos totales(nk

)= n!

(n−k)!k!

Casos favorables(n1

k1

)(n2

k2

)· · ·(nmkm

)Ejemplo 21. En una mano de baraja de 10 cartas, encuentre la probabilidadde que esta este compuesta por tres diamantes, dos corazones, cuatro picasy un trebol.

Solucion.-

De cada figura hay trece elementos, la muestra es de tamano 10

Casos totales =(

13+13+13+1310

)=(

5210

)Casos favorables =

(133

)(132

)(134

)(131

)La probabilidad buscada es: p =

(133 )(132 )(134 )(131 )(5210)

= 0.13

Ejemplo 22. Si se seleccionan 10 personas para cierto trabajo de un grupode 20 con igual calificacion. ¿Cual es la probabilidad de haber escogido a los10 mas aptos?

Solucion.-

Dividamos la poblacion en dos clases, los 10 mas aptos y los otros.

Casos totales =(

2010

)Casos favorables

(1010

)(100

)La probabilidad buscada es:

p =

(1010

)(100

)(2010

) =

10!(10−10)!·10! ·

10!0!·10!

20!(20−10)!·10!

=10! · 10!

20!=

1

184, 756= 5.41254 ∗ 10−6.

16 Tecnicas de Conteo.

El numero de muestras de tamano k, de una poblacion de tamano n.

con reemplazo sin reemplazo

El orden interesa nk n(n− 1) · · · (n− k + 1) =n!

k!El orden no interesa

(n+k−1

k

) (nk

)

Capıtulo 3

Condicionamiento eIndependencia.

En ocasiones es necesario calcular la probabilidad de un evento A que a su vezestara condicionado a otros eventos digamos B y C, es decir, para conocer conque probabilidad ocurre el evento A primero debemos saber si han ocurrido ono los eventos B y C. En este capıtulo se dan las formulas necesarias paracalcular la probabilidad condicional y para determinar cuando dos eventos sonindependientes.

3.1. Probabilidad condicional

Si lanzamos un dado Ω = 1, 2, . . . 6 y sabemos que salıo un numero par¿Cual es la probabilidad de que haya sido el numero 4?

Solucion.- es claro que p = 14

Sea A el evento: “Se obtiene un numero par”

Sea B el evento: “Se obtiene el numero 2, 4 o 5”

La probabilidad buscada es:

p =#(A ∩B)

#(A)=

#(A∩B)#Ω

#A#Ω

=P (A ∩B)

P (A)=

2/6

1/2=

2

3.

18 Condicionamiento e Independencia.

Definicion 4. La probabilidad de B condicionada al evento A, se definecomo:

P (B/A) =P (A ∩B)

P (A); si P (A) 6= 0.

Propiedades.

1. P (A/A) = 1 si P (A) 6= 0

2. P (B1 ∪B2/A) = P (B1/A) + P (B2/A)si B1 ∩B2 = ∅

3. P (B/A) = 1− P (Bc/A)

Prueba.-

2.

P (B1 ∪B2/A) =P ((B1 ∪B2) ∩A)

P (A)

=P ((B1 ∩A) ∪ (B2 ∩A))

P (A)

=P (B1 ∩A) + P (B2 ∩A)

P (A)

= P (B1/A) + P (B2/A)

3.

P (B/A) =P (B ∩A)

P (A)=

P (A)− P (Bc ∩A)

P (A)

ya que

P (A) = P (A ∩ Ω) = P (A ∩ (B ∪Bc))

= P (A ∩B) + P (A ∩Bc)

∴ P (B ∪A) = P (A)− P (Bc ∩A)

3.2 Formula de la probabilidad total 19

3.2. Formula de la probabilidad total

Ω

A1 A2 ... An... ...

B

Sean A1, . . . , An eventos tales quen⋃i=1

Ai = Ω; Ai ∩Aj = ∅. Entonces

P (B) =n∑i=1

P (B ∩Ai) =n∑i=1

P (B/Ai) P (Ai)

Prueba.-

B = B ∩ Ω =n⋃i=1

(B ∩Ai)

comoP (B ∩Ai) = P (B/Ai) P (Ai)

ya que

P (B/Ai) =P (B ∩Ai)

P (Ai)

de donde resulta que:

P (B) =n∑i=1

P (B ∩Ai) =n∑i=1

P (B/Ai) P (Ai)

3.3. Formula de Bayes

Si A1, A2, . . . , An son eventos que forman una particion de Ω, i.e. Ω =n⋃i=1

Ai,

Ai ∩Aj = ∅ y B es otro evento entonces:

P (Ak/B) =P (B/Ak) P (Ak)n∑i=1

P (B/Ai) P (Ai)

20 Condicionamiento e Independencia.

Prueba.-

P (Ak/B) =P (Ak ∩B)

P (B)

=P (B/Ak) P (Ak)

P (B)

=P (B/Ak) P (Ak)n∑i=1

P (B/Ai) P (Ai)

Ejemplo 23. En cierta escuela se sabe que el 5 % de las personas son pro-fesores, de estos el 30 % fuma y del resto de la problacion solo el 10 % fuma.Si encontramos un fumador ¿Cual es la probabilidad de que esta persona seaun profesor?

Solucion.-

Sea A el evento: “La persona es profesor”

Sea F el evento: “La persona es fumador”

P (A) = 0.05, P (Ac) = 0.95

P (F/A) = 0.30, P (F/Ac) = 0.1

P (A/F ) =?

P (A/F ) =P (A ∩ F )

P (F )=

P (F/A) P (A)

P (F ∩A) + P (F ∩Ac)

=P (F/A) P (A)

P (F/A) P (A) + P (F/Ac) P (Ac)

=(0.3)(0.05)

(0.3)(0.5) + (0.1)(0.95)= 0.13

Ejemplo 24. Se dice que cierta prueba para diagnosticar una enfermedadtiene una confiabilidad del 90 %, es decir, la prueba detectara la enfermedadcon una probabilidad de 0.9 si la persona esta enferma y resultara negativacon una probabilidad de 0.9 si la persona no tiene la enfermedad. Se sa-be que solamente el 1 % de la poblacion padece la enfermedad. Si se eligeuna persona al azar para aplicarle la prueba y resulta positiva, ¿Cual es laprobabilidad de que realmente tenga la enfermedad?

3.3 Formula de Bayes 21

Solucion.-

Sea T el evento: “La prueba es positiva”

Sea E el evento: “La persona tiene la enfermedad”

P (T/E) = 0.90 P (T c/Ec) = 0.90 P (E) = 0.01.

P (E/T ) =P (E ∩ T )

P (T )=

P (T/E) P (E)

P (T )

=P (T/E) P (E)

P (T ∩ E) + P (T ∩ Ec)=

P (T/E) P (E)

P (T/E) P (E) + P (T/Ec) P (Ec)

=P (T/E) P (E)

P (T/E) P (E) + (1− P (T c/Ec))P (Ec)

=(0.9)(0.01)

(0.9)(0.01) + (0.1)(0.99)= 0.083

Ejemplo 25. En una fabrica de pernos las maquinas A, B y C fabrican el25, 35 y 40 % de la produccion total respectivamente. De lo que producen,el 5, 4 y 2 % resulta defectuoso respectivamente. Se escoge un perno al azary se encuentra que es defectuoso. ¿Cual es la probabilidad de que haya sidoproducido por la maquina A?

Solucion.-

Sea A el evento: “El perno es producido por A”

Sea B el evento: “El perno es producido por B”

Sea C el evento: “El perno es producido por C”

Sea D el evento: “El perno es defectuoso”

P (A) = 0.25 P (D/A) = 0.05P (B) = 0.35 P (D/B) = 0.04P (C) = 0.40 P (D/C) = 0.02

P (D) = P (D ∩A) + P (D ∩B) + P (D ∩ C)

= P (D/A) P (A) + P (D/B) P (B) + P (D/C) P (C)

= (0.05)(0.25) + (0.04)(0.35) + (0.02)(0.4) = 0.0345.

P (A/D) =A ∩DP (D)

=P (D/A) P (A)

P (D)

=(0.05)(0.25)

0.0345= 0.3623

22 Condicionamiento e Independencia.

Ejemplo 26. De los artıculos que produce una fabrica el 40 % proviene dela lınea de produccion 1 y el 60 % de la lınea 2. El porcentaje de defectuososde la lınea 1 es el 8 % y de la lınea 2 es 10 %. Si se toma un artıculo al azarde la produccion total.

a). ¿Cual es la probabilidad de que sea defectuoso?

b). Si tenemos un artıculo defectuoso ¿Cual es la probabilidad de que hayasido producido por la lınea 1?

Solucion.-

Sea A el evento: “Artıculo producido por la lınea 1”

Sea B el evento: “Artıculo producido por la lınea 2”

Sea D el evento: “El artıculo es defectuoso”

P (A) = 0.4 P (D/A) = 0.08P (B) = 0.6 P (D/B) = 0.10

a).

P (D) = P (D ∩A) + P (D ∩B) =

P (D/A) P (A) + P (D/B) P (B) =

(0.08)(0.4) + (0.10)(0.6) = 0.092

b).

P (A/D) =P (A ∩D)

P (D)=

P (D/A) P (A)

P (D)=

(0.08)(0.4)

(0.092)= 0.3478.

Ejemplo 27. Sean A, B, C tres eventos.

Verificar que

P (A ∩B ∩ C) = P (C/B ∩A) P (B/A) P (A) .

Solucion.-

P (A ∩B ∩ C) = P (C ∩ (B ∩A)) = P (C/B ∩A) P (B ∩A)

= P (C/B ∩A) P (B/A) P (A) .

3.3 Formula de Bayes 23

En general, si tenemos A1, A2, . . . , An eventos

P

(n⋂i=1

Ai

)= P

(An

/n−1⋂i=1

Ai

)P

(An−1

/n−2⋂i=1

Ai

). . .P (A2/A1) P (A1)

Ejemplo 28. Una caja contiene 10 bolas rojas y 5 bolas blancas. Se selec-ciona una bola al azar. Si la bola es roja se regresa, pero si la bola es blanca,esta con dos bolas adicionales se regresan a la caja. Esto se repite 3 veces.

1). Encontrar la probabilidad de que en las 3 extracciones se hayan obte-nido 3 rojas.

2). Encontrar la probabilidad de que la 2a bola extraıda sea

a) Roja

b) Blanca

3). Encontrar la probabilidad de que la 3a bola sea roja

Solucion.-

Sea R1 el evento: “Roja en la 1a extraccion”

Sea R2 el evento: “Roja en la 2a extraccion”

Sea R3 el evento: “Roja en la 3a extraccion”

Sea B1 el evento: “Blanca en la 1a extraccion”

Sea B2 el evento: “Blanca en la 2a extraccion”

Sea B3 el evento: “Blanca en la 3a extraccion”

1).

P (R1 ∩R2 ∩R3) = P (R3/R1 ∩R2) P (R2/R1) P (R1)

=

(10

15

)(10

15

)(10

15

).

2). a)

P (R2) = P ((R2 ∩R1) ∪ (R2 ∩B1))

= P (R2 ∩R1) + P (R2 ∩B1)

= P (R2/R1) P (R1) + P (R2/B1) P (B1)

=

(10

15

)(10

15

)+

(10

17

)(5

15

).

24 Condicionamiento e Independencia.

b)P (B2) = 1− P (R2) ; (B2)c = R2.

3).

P (R3) = P (R3 ∩R2) + P (R3 ∩B2)

= P (R3 ∩R2 ∩R1) + P (R3 ∩R2 ∩B1) +

P (R3 ∩B2 ∩R1) + P (R3 ∩B2 ∩B1)

= P (R3/R2 ∩R1) P (R2/R1) P (R1) +

P (R3/R2 ∩B1) P (R2/B1) P (B1) +

P (R3/B2 ∩R1) P (B2/R1) P (R1) +

P (R3/B2 ∩B1) P (B2/B1) P (B1)

=

(10

15

)(10

15

)(10

15

)+

(10

17

)(10

17

)(5

15

)+(

10

17

)(5

15

)(10

15

)+

(10

19

)(7

17

)(5

15

).

3.4. Independencia de eventos

Motivacion:

El evento A es independiente del evento B si:

P (A/B) = P (A)

por otro lado, como

P (A ∩B) = P (A/B) P (B)indep= P (A) P (B)

= P (B/A) P (A)

resulta que B tambien es independiente de A.

Definicion 5. Dos eventos A y B son independientes si

P (A ∩B) = P (A) P (B)

3.4 Independencia de eventos 25

Ejemplo 29. En un tiro al blanco, la probabilidad de que el jugador Aacierte en el blanco es 1

4 y la del jugador B es 25 .

Suponga que A da en el blanco independientemente de B. Calcule la proba-bilidad de que A o B acierten en el blanco.

Solucion.-

P (A ∪B) = P (A) + P (B)− P (A ∩B)

= P (A) + P (B)− P (A) P (B)

=1

4+

2

5− 2

20.

Definicion 6. Diremos que tres eventos A, B y C son independientes sı.

P (A ∩B ∩ C) = P (A) P (B) P (C)

P (A ∩B) = P (A) P (B)

P (A ∩ C) = P (A) P (C)

P (B ∩ C) = P (B) P (C) .

Ejemplo 30. Independencia de eventos solo por parejas.Se lanza dos veces una moneda

Ω = (A,A), (A,S), (S,A), (S, S)

Sea A el evento: “aguila en el 1er lanzamiento”=(A,A), (A,S)

Sea B el evento: “aguila en el 2do lanzamiento”=(A,A), (S,A)

Sea C el evento: “aguila en una moneda exactamente”=(A,S), (S,A)

Ahora P (A) = P (B) = P (C) = 12

P (A ∩B) = P ((A,A)) =1

4= P (A) P (B)

P (B ∩ C) = P ((S,A)) =1

4= P (B) P (C)

P (A ∩B ∩ C) = P (∅) = 0.

26 Condicionamiento e Independencia.

Nota 2. No se debe confundir el termino eventos ajenos con el terminoeventos independientes, ya que :

Si A y B son ajenos significa que A ∩B = ∅,por otra parte

Si A y B son independientes P (A ∩B) = P (A) P (B)

ademas,si A y B son independientes y P (A ∩B) = 0⇒ P (A) = 0 o P (B) =0

Propiedades basicas de los eventos independientes

Si A y B son eventos independientes entonces:

i). A y Bc son independientes

ii). Ac y B son independientes

iii). Ac y Bc son independientes

Prueba.-

i).

como P (A) = P (A ∩ Ω) = P (A ∩ (B ∪Bc))

= P ((A ∩B) ∪ (A ∩Bc))

= P (A ∩B) + P (A ∩Bc)

∴ P (A ∩Bc) = P (A)− P (A ∩B)

= P (A)− P (A) P (B)

= P (A) (1− P (B))

= P (A) P (Bc) .

Ejemplo 31. Supongamos que tenemos un sistema que consta de cuatrocomponentes dispuestos en paralelo. Suponga que el 1er componente tieneun probabilidad de 0.1 de funcionar cuando se enciende el sistema, el 2do de0.2, el 3ro de 0.3 y el 4to de 0.4. ¿Cual es la probabilidad de que el sistemafuncione al encenderlo?

Solucion.-

Sea F el evento: “el sistema funciona”

3.5 Repeticiones independientes de un fenomeno aleatorio 27

Sea I el evento: “el 1er componente funciona”

Sea II el evento: “el 2do componente funciona”

Sea III el evento: “el 3er componente funciona”

Sea IV el evento: “el 4to componente funciona”

P (I) = 0.1 P (II) = 0.2 P (III) = 0.3 P (IV ) = 0.4. Ahora:

P (F ) = 1− P (F c) = 1− P (Ic) ∩ P (IIc) ∩ P (IIIc) ∩ P (IV c)

= 1− (1− 0.1)(1− .2)(1− .3)(1− .4) = 0.6976.

3.5. Repeticiones independientes de un fenomenoaleatorio

Ejemplo 32. Se lanza un dado bien balanceado, Ω = 1, 2, . . . , 6, se repiteel lanzamiento una vez mas, el conjunto de resultados es:

Ω =

(1, 1), (1, 2), . . . , (1.6)(2, 1), (2, 2), . . . , (2, 6)

......

. . ....

(6, 1), (6, 2), . . . , (6, 6)

En general, si repetimos n-veces un experimento aleatorio tendremos:

Ω = (ω1, ω2, . . . , ωn) : ωi ∈ Ωi

Definicion 7. Diremos que un evento A ⊂ Ω, depende solo de la k-esimarepeticion si para saber si ocurrio o no basta saber el resultado de la k-esimarepeticion.

Definicion 8. Diremos que un experimento aleatorio se repite de maneraindependiente dos veces, si cualquier evento que depende solo de la 1era

repeticion es independiente de cualquier evento que solo depende la la 2da

repeticion, es decir, ∀A1 que depende de la 1ra repeticion y ∀A2 que dependede la 2da repeticion, P (A1 ∩A2) = P (A1) P (A2) .

Ejemplo 33. Se lanza un dado dos veces.

28 Condicionamiento e Independencia.

Sea A1 el evento: “Se obtiene un 6 en el 1er lanzamiento”

Sea A2 el evento: “Se obtiene un numero par en el 2do lanzamiento”

A1 = (6, 1)(6, 2), . . . , (6, 6)A2 = (1, 2), (1, 4), (1, 6), (2, 2), (2, 4), (2, 6), . . . , (6, 2), (6, 4), (6, 6)P (A1) = 6

36 = 16

P (A2) = 12

P (A1 ∩A2) = (6, 2), (6, 4), (6, 6) =3

36=

1

12

= P (A1) P (A2) =

(1

6

)(1

2

)=

1

12

ası que A1 y A2 son independientes.

Definicion 9. Un experimento aleatorio se dice que es de tipo Bernoulli, sisolo tiene dos posibles resultados, exito (E) o fracaso (F ).

Ejemplo 34. Si se repite de manera independiente n veces un experimentode tipo Bernoulli.

a). ¿Cual es la probabilidad de obtener n exitos?

b). ¿Cual es la probabilidad de obtener primero tres exitos y despues solofracasos?

c). ¿Cual es la probabilidad de obtener tres exitos en los n ensayos?

Solucion.-

a). Sea Ei el evento: “exito en el i-esimo ensayo”

si p = P (Ei)

P (E1 ∩ E2 ∩ . . . ∩ En)indep= P (E1) P (E2) · · ·P (En) = pn

b). Sea Fi el evento: “Fracaso en la i-esima repeticion”

P (E1 ∩ E2 ∩ E3 ∩ F4 ∩ . . . ∩ Fn)indep= p3(1− p)n−3

ya que P (Fi) = 1− P (Ei) = 1− p.

3.5 Repeticiones independientes de un fenomeno aleatorio 29

c). Una forma de obtener 3 exitos en los n ensayos es primero 3 exitos ydespues (n−3) fracasos. La probabilidad de este evento es p3(1−p)n−3

Ahora el total de arreglos de 3E′s y (n− 3)F ′s es:(n

3

)=

(n

n− 3

)=

n!

3!(n− 3)!

Ası la probabilidad de obtener k-exitos en n ensayos independientesde tipo Bernoulli es:(

n

k

)pk(1− p)n−k; k = 0, 1, 2, . . . , n.

Ejemplo 35. Se lanza un dado 4 veces.¿Cual es la probabilidad de obtenermenos de 2 cincos?

Sea Ei el evento: “Sale un cinco en el i-esimo lanzamiento”

P (Ei) = p = 16

Sea A el evento: “Se obtienen menos de 2 cincos”

P (A) = P (haya 0 cincos o haya 1 cinco)

= P (haya 0 cincos) + P (haya un cinco)

=

(4

0

)p0(1− p)4 +

(4

1

)p1(1− p)4−1

= (1− p)4 +4!

(4− 1)! · 1!p(1− p)3

=

(5

6

)4

+ 4

(5

6

)3

Ejemplo 36. Se tiene un sistema para detectar incendios el cual consisteen 5 celdas que trabajan de forma independiente. Cada una de ellas se activacon una probabilidad de 0.8 al detectar humo. ¿Cual es la probabilidad deque el sistema funcione cuando hay humo?

Solucion.-

Sea Ai el evento: “La celda i se activa”

Sea F el evento: “El sistema funciona”

30 Condicionamiento e Independencia.

P (F ) = 1− P (F c) = 1−(

5

0

)p0(1− p)5−0

= 1− (0.2)5.

Ejemplo 37. Se tiene un sistema que utiliza un componente, el cual tieneuna probabilidad de falla de 0.10. Si se desea asegurar con una probabilidadde 0.99 que cuando se encienda el sistema funcione, ¿Cuantos componentessera necesario tener?

Solucion.-

Sea F el evento: “El sistema funciona”

Sea Ai el evento: “El i-esimo componente funciona”

P (F ) = 0.999 P (Ai) = 0.9 P (F c) = 0.001

0.001 = P (F c) = P (Ac1 ∩Ac2 ∩ . . . ∩Acn)

= P (Ac1) P (Ac2) · · ·P (Acn)

= (0.1)n

log (0.001) = n log (0.1)

n =log (0.001)

log (0.1)= 3

3.6. Ejercicios

Ejercicio 1. Se escogen al azar 3 lamparas entre 15, de las cuales 5 sondefectuosas. Hallar la probabilidad p de que:

i). Ninguna sea defectuosa

ii). Exactamente una sea defectuosa

iii). Por lo menos una sea defectuosa

Solucion.-

Hay(

153

)maneras distintas de escoger 3 lamparas de 15.

3.6 Ejercicios 31

i). Hay(

50

)(103

)maneras distintas de escoger 3 lamparas que sean no de-

fectuosas

∴ p =

(50

)(103

)(153

)ii). Hay

(51

)(102

)maneras distintas de escoger exactamente una lampara

defectuosa

∴ p =

(51

)(102

)(153

) = 0.4945

iii).

p = 1− P (ninguna sea defectuosa) = 1−(

50

)(103

)(153

) 0.7362

Ejercicio 2. Se tiene un grupo dividido en 2 clases, la clase A consta de10 elementos y la clase B de 20 elementos. La mitad de la clase A tienela caracterıstica C y la mitad de la clase B tambien la tiene. Encuentre laprobabilidad p de que un elemento seleccionado al azar sea de la clase A, obien, tenga la caracterıstica C

Solucion.-

P (A ∪ C) = P (A) + P (C)− P (A ∩ C)

=10

30+

1

2− 5

30=

2

3

Ejercicio 3. Se tienen 20 artıculos, 12 son defectuosos y 8 no. Se inspec-cionan al azar uno despues del otro. Encuentre las siguientes probabilidades:

a). La probabilidad de que los 2 primeros artıculos inspeccionados seandefectuosos.

b). La probabilidad de que los 2 primeros artıculos inspeccionados seanno defectuosos.

c). La probabilidad de que entre los 2 primeros artıiculos inspeccionados,uno sea defectuoso y el otro no.

32 Condicionamiento e Independencia.

Solucion.-

Sea D1 el evento: “el 1er artıculo es defectuoso”

Sea D2 el evento: “el 2do artıculo es defectuoso”

Sea B1 el evento: “el 1er artıculo es no defectuoso”

Sea B2 el evento: “el 2do artıculo es no defectuoso”

a).

P (D2 ∩D1) = P (D2/D1) P (D1) =

(11

19

)(12

20

).

b).

P (B2 ∩B1) = P (B2/B1) P (B1) =

(7

19

)(8

20

).

c).

P ((D1 ∩B2) ∪ (B1 ∩D2)) =

P (D1 ∩B2) + P (B1 ∩D2)− P ((D1 ∩B2) ∩ (B1 ∩D2)) =

P (B2/D1) P (D1) + P (D2/B1) P (B1) =(8

19

)(12

20

)+

(12

19

)(8

20

)= 0.5052

Capıtulo 4

Variables Aleatorias.

Definicion 10. Una variable aleatoria que denotaremos por X, es una fun-cion cuyo dominio es el conjunto de resultados posibles en un experimentoaleatorio y el codominio son los numeros reales, i.e.

X : Ω→ R

Ejemplo 38. El experimento consiste en lanzar una moneda, si sale sol segana $1.00 y si sale aguila se pierde $1.00.

Ω = A,S = ω1, ω2

X : Ω→ T

X(ω1) = 1

X(ω2) = −1.

4.1. Variables aleatorias discretas

Definicion 11. Una variable aleatoria se dice que es discreta, si a lo maspuede tomar un numero finito o infinito numerable de valores distintos conprobabilidad positiva

Ejemplo 39. El experimento consiste en lanzar una moneda dos veces, porcada aguila que sale se gana un $1.00 y por cada sol se pierde $1.00.

34 Variables Aleatorias.

Sea X la variable aleatoria que indica la ganancia.

Ω = (A,A), (A,S), (S,A), (S, S) = ω1, ω2, ω3, ω4

ω X(ω) P (ω)ω1 X(ω1) = 2 P (ω1) = 1

4

ω2 X(ω2) = 0 P (ω2) = 14

ω3 X(ω3) = 0 P (ω3) = 14

ω4 X(ω4) = −2 P (ω4) = 14

Notacion: P (X = x), se lee la probabilidad de que la variable aleatoria Xtome el valor de x, la probabilidad de este evento es:

P (ω ∈ Ω : X(ω) = x)

Ejemplo 40. Calcule las siguientes probabilidades para el ejemplo 39:

a). P (X = 2)

b). P (X = 0)

c). P (X = −2)

Solucion.-

a). P (X = 2) = P (ω ∈ Ω : X(ω) = 2) = P (ω1) = 14

b). P (X = 0) = P (ω ∈ Ω : X(ω) = 0) = P (ω2, ω3) = 12

c). P (X = −2) = P (ω ∈ Ω : X(ω) = −2) = P (ω4) = 14

Definicion 12. Una variable aleatoria que solo toma los valores 0 y 1 conprobabilidades (1− p) y p respectivamente, se llama de tipo Bernoulli. i.e.

X : Ω→ 0, 1

P (X = 0) = 1− pP (X = 1) = p.

4.1 Variables aleatorias discretas 35

4.1.1. La variable aleatoria Binomial

Se repite de manera independiente n-veces un experimento de tipo Bernoulli,si la probabilidad de exito en cada ensayo es p ∈ [0, 1], entonces, la variablealeatoria Binomial X es aquella que nos indica el numero de exitos obtenidosen los n-ensayos independientes.

Notacion X ∼ B(n, p) se utiliza para indicar que X es una variable alea-toria binomial con parametros n y p.

Ejemplo 41. Sea X ∼ B(n, p). Calcular P (X = k) ; k = 0, 1, 2, . . . ,m

Solucion.-

Sea Ei el evento: “exito en la i-esima repeticion”

Sea Fi el evento: “fracaso en le i-esima repeticion”

Una forma de obtener los k-exitos es:

E1 ∩ E2 ∩ . . . ∩ Ek ∩ Fk+1 ∩ . . . ∩ Fn

La probabilidad de este evento es:

P (E1 ∩ . . . ∩ Ek ∩ Fk+1 ∩ . . . ∩ Fn)indep=

P (E1)× · · · × P (Ek) P (Fk+1)× · · · × P (Fn) = pk(1− p)n−k.

El total de arreglos de esta forma donde hay k E’s y (n− k) F ’s es(nk

)∴ P (X = k) =

(n

k

)pk(1− p)n−k

4.1.2. Funcion de probabilidad

Definicion 13. La funcion de probabilidad, o distribucion de probabilidad(f.d.p.) (a veces llamada funcion de masa de probabilidad) de una variablealeatoria X, sera la funcion definida como:

fX : R→ [0, 1]

dada por:fX (x) = P (X = x)

36 Variables Aleatorias.

Notemos que:

∑x

fX (x) = 1

ya que:

∑x

fX (x) =∑x

P (X = x)

=∑x

P (ω ∈ Ω : X(ω) = x)

= P

(⋃x

ω ∈ Ω : X(ω) = x

)= P (Ω) = 1

Ejemplo 42. Sea X una variable aleatoria de tipo Bernoulli, entonces sufuncion de probabilidad esta dada por:

fX (x) =

p si x = 11− p si x = 00 en otro caso

p ∈ [0, 1]

Veamos que efectivamente es funcion de probabilidad o tambien llamadadistribucion de probabilidad

i). fX (x) ∈ [0, 1]

ii).∑xfX (x) = fX (0) + fX (1) = (1− p) + p = 1

¿Porque el nombre de funcion de masa de probabildad ?.

Si X es de tipo Bernoulli:

0 1

p1-p

4.1 Variables aleatorias discretas 37

Ejercicio 4. Un sistema para detectar incendios utiliza 3 celdas sensibles alcalor las cuales actuan de manera independiente de tal suerte que cualquierade ellas puede activar la alarma. Cada celda tiene una probabilidad de 0.8de activar la alarma al alcanzar los 80oC o mas. Sea X la variable aleatoriaque nos dice el numero de celdas que actuan al alcanzar los 80oC.

a). Encuentre la funcion de probabilidad.

b). ¿Cual es la probabilidad de que la alarma se active al alcanzar los80oC?.

Solucion.-

Se trata de una variable aleatoria binomial con parametros n = 3 y p = 0.8.

a).

fX (x) = P (X = x) =

(

3x

)(0.8)x(0.2)3−x si x = 0, 1, 2, 3

0 en otro caso

b).

P (X > 1) = P (X = 1) + P (X = 2) + P (X = 3)

= 1− P (X < 1)]

= 1− P (X = 0)

= 1−(

3

0

)(0.8)0(0.2)3

= 1− (0.2)3 = 0.992

c). Calcular con R: P (X ≤ 2). pbinom(2, prob = 2, size = 2), Que resulta0.488.

Ejercicio 5. Graficar la funcion de probabilidad para la variable aleatoriadel Ejemplo 40

Solucion.-

X : Ω→ −2, 0, 2

P (X = −2) =1

4; P (X = 0) =

1

2; P (X = 2) =

1

4

38 Variables Aleatorias.

-2 20

1/2

1/4

Ejemplo 43. Sea X ∼ B(n, 12) una variable aleatoria binomial, i.e

fX (k) =

(nk

)pk(1− p)n−k si k = 0, 1, . . . , n

0 en otro casocon p =

1

2

0 n/2

4.1.3. La variable aleatoria Geometrica

¿Cuantas veces hay que repetir en experimento de tipo Bernoulli para obte-ner el 1er exito?

Sea X la variable aleatoria que nos indica el numero de repeticiones inde-pendientes del experimento de Bernoulli para obtener el 1er exito.

P (X = k) =? k = 1, 2, . . .

Para que la variable aleatoria tome el valor de 1, es necesario exito en el 1er

ensayo asi P (X = 1) = p. Ahora para que en el 2do ensayo sea exito primerose debe obtener fracaso y despues exito

4.1 Variables aleatorias discretas 39

P (X = 2) = (1− p)pP (X = 3) = (1− p)2p

...

P (X = k) = (1− p)k−1p

Ası tenemos que :

fX (x) =

(1− p)x−1p si x = 1, 2, . . .

0 en otro caso

Verifiquemos que en efecto es funcion de probabilidad.

fX (x) > 0∑x

fX (x) =

∞∑x=1

(1− p)x−1p = p

∞∑j=0

(1− p)j

= p

(1

1− (1− p)

)=p

p= 1

Nota 3.∞∑j=0

aj =1

1− a0 < a < 1

Notacion.- X ∼ G(p) se utiliza para denotar que X es una v.a. Geometricade parametro p.

Ejemplo 44. ¿Cual es la probabilidad de que sea necesario aplicar mas dedos pruebas para encontrar a la 1er persona con la caracterıstica A, si el10 % de la poblacion tiene dicha caracterıstica ?

Solucion.-

Sea X la variable aleatoria que nos indica el numero de personas que se lesaplica la prueba hasta encontrar a la 1er persona con la caracterıstica A.

40 Variables Aleatorias.

P (X > 2) = 1− P (X 6 2)

= 1− (P (X = 1) + P (X = 2))

= 1− ((0.10) + (0.1)(0.9)) = 0.81

Con el lenguaje R se escribe en R: 1 − pgeom(2, prob = .8) y nos da 0.8.Si por ejemplo nos interesa P (X > 5), calculamos mediante la instruccion:1− pgeom(5, prob = .8) y nos da 6.4 ∗ 10−5.

4.1.4. La variable aleatoria Hipergeometrica

Se tiene una poblacion con n elementos, r de los cuales tienen la caracterısti-ca A y los restantes la caracterıstica B.

Sea X la variable aleatoria que nos indica el numero de elementos de la claseA, al tomar una muestra de tamano k sin reemplazo.

fX (x) =

(rx

)(N−rk−x)(

Nk

) si x = 0, 1, 2, . . . ,mın(r,k)

0 en otro caso

4.1.5. La variable aleatoria Binomial negativa

Consideremos un experimento de tipo Bernoulli donde la probabilidad deexito es p en cada ensayo, se repite de manera independiente el experimentohasta obtener el r-esimo exito.

Sea X la variable aleatoria que nos indica el numero de ensayos hasta obtenerel r-esimo exito.

P (X = r + x) =?

Para obtener los r-exitos en los r + x ensayos y tal que el ultimo sea exito,una forma de obtenerlo es:

E1 ∩ E2 ∩ Er−1 ∩ Fr ∩ Fr+1 . . . Er+x

La probabilidad de este evento es

4.1 Variables aleatorias discretas 41

pr(1− p)x

El total de arreglos donde hay r exitos y x fracasos, con la condicion de queel ultimo sea exito es (

r + x− 1

r − 1

)=

(r + x− 1

x

)

∴ P (X = x+ r) =

(r + x− 1

x

)pr(1− p)x

Ejemplo 45. Se lanza un dado hasta obtener cuatro veces el dos ¿Cual esla probabilidad de que sean necesarios 10 lanzamientos?.

Solucion.-

exitos 4 = r p = 16 ¿P (X = 10) =?

P (X = 6 + 4) =

(4 + 6− 1

4− 1

)(1

6

)4(1− 1

6

)6

=

(9

3

)(1

6

)4(5

6

)6

= 0.0217064.

4.1.6. La variable aleatoria Poisson

Definicion 14. Una variable aleatoria se dice que es de tipo Poisson si

P (X = x) = fX (x) =

e−λ

(λx

x!

)si x = 0, 1, 2, . . .

0 en otro caso

λ > 0

Verifiquemos que en efecto fX (x) es una distribucion de probabilidad.

i). 0 6 fX (x) 6 1 ∀x ∈ R

ii).∞∑x=0

fX (x) = 1

∞∑x=0

e−λλx

x!= e−λ

∞∑x=0

λx

x!= e−λeλ = 1

42 Variables Aleatorias.

Ahora veamos como bajo ciertas condiciones, el numero de exitos en n ensa-yos independientes tipo Bernoulli con probabilidad de exito en cada ensayop = λ

n tiene aproximadamente un comportamiento de una variable tipo Pois-son. i.e.

(n

k

)pk(1− p)n−k −→

n→∞e−λ

λk

k!

Verifiquemos esto:

como p = λn

(n

k

)pk(1− p)n−k =

n!

(n− k)!k!

n

)k (1− λ

n

)n−k=

(λk

k!

)n!

(n− k)!nk

(1− λ

n

)n(1− λ

n

)−kAhora

i).

n!

(n− k)!nk=

n(n− 1)(n− 2) . . . (n− (k − 1))

nk

= 1

(1− 1

n

)(1− 2

n

). . .

(1−

(k − 1

n

))−→n→∞

1

ii).(1− λ

n

)−k −→n→∞

1

iii).(1− λ

n

)n −→n→∞

e−λ

(λk

k!

)n!

(n− k)!nk

(1− λ

n

)n−k−→n→∞

e−λλk

k!k = 0, 1, 2, . . .

Ejemplo 46. Se sabe que la probabilidad de que un artculo producido porcierta maquina sea defectuoso es p = 0.1 ¿Cual es la probabilidad de que enuna muestra de 10 artıculos, esta no tenga mas de 1 artıculo defectuoso?.

4.1 Variables aleatorias discretas 43

Tambien calcule mediante R: P (X 6 5)

Solucion.-

Sea X la variable aleatoria que nos indica el numero de defectuosos en lamuestra.

P (X 6 1) = P (X = 0) + P (X = 1)

=

(10

0

)p0(1− p)10 +

(10

1

)p(1− p)9

= (0.9)10 + 10(0.1)(0.9)9 = 0.736

Ahora utilizamos la aproximacion Poisson

p = λn ∴ λ = np = (10)(0.1) = 1

P (X 6 1) = P (X = 0) + P (X = 1)

= e−1 10

0!+ e−1 11

1!= 2e−1 = 0.7358

Ahora con el lenguaje R, P (X 6 5) . ppois(5,lambda=1, resulta:

Construccion de la Poisson.

Una fabrica produce un tejido, el cual presenta a veces errores. Si el numeromedio de errores por m2 es λ y los errores se producen al azar independien-temente unos de otros. ¿Que tipo de variable aleatoria es la que cuenta elnumero de errores por m2?

Solucion.- Al suponer que los errores se reparten al azar, dividamos el tejidoen n cuadritos iguales de tal manera que no puede haber mas de un errorpor cada cuadrito, tenemos que si Ni es la variable aleatoria que nos indicael numero de errores en el i-esimo cuadrito,entonces Ni es una variable tipoBernoulli con parametro λ

n .

Ahora si X es la variable aleatoria que nos indica el total de errores en m2

esta es una variable aleatoria binomial, la cual cuenta el numero de erroresen las n repeticiones independientes de Bernoulli con probabilidad de exitop = λ

n .

Cuando el numero de cuadritos n→∞ obtenemos que:

44 Variables Aleatorias.

P (X = k) = e−λλk

k!

Ejemplo 47. En un servidor se tiene un numero medio de entradas porminuto de λ = 50. Si el servidor se satura al momento de atender a 65.clientes. ¿Cual es la probabilidad de que el servidor se sature?

Solucion.- Sea X la variable que nos indica el numero de clientes en elservidor en un minuto determinado.

P (X > 65) = 1− P (X < 65)

= 1−

64∑j=0

P (X = j)

= 1−

64∑j=0

e−λλj

j!

= 0.2758554.

Para resolver se utilizo los comandos de R: 1− ppois(64, lambda = 60).

Ejercicio 6. Sea X v.a Poisson de parametro λ = 60. Encuentre el numeromaximo de clientes que pueden llegar con una probabilidad de 0.99 o equi-valentemente, encontrar k tal que P (X > k) u .01.Utilice R. (qpois(.99, lambda = 60). Nos da 79 .

Ejemplo 48. (Muestreo de seguridad para vacunas)Consideremos un matraz con una vacuna que contiene 5 virus por cada 1000cm3. Tomemos del matraz una muestra de volumen v=600 cm3 queremosencontrar la probabilidad de que en la muestra no se tengan virus.

Solucion.-

Sea X la variable aleatoria que nos dice el numero de virus en la muestra.

λ = 5100 × 600 = 3

P (X = 0) = e−λλ0

0!= e−3 = 0.498

Ejercicios:

4.1 Variables aleatorias discretas 45

Ejemplo 49. Considere una variable aleatoria X con resultados posibles 0,1, 2, . . . . Suponga que P (X = j) = (1− a)aj, j = 0, 1, 2, . . . .

i). Para que valores de a es significativo el modelo anterior.

ii). Verificar que lo anterior representa un distribuion de probabilidadeslegitima.

iii). Demostrar que para cualesquiera dos enteros n y k, se cumple:P (X > n+ k/X > n) = P (X > n) .

Solucion.-

i). Se usa la v.a. Geometrica

(1− p)x−1p, x = 1, 2, . . .

a = (1− p)a ∈ [0, 1]

ii). a)

0 6 (1− a)aj 6 1

b)∞∑j=0

(1− a)aj = (1− a)

∞∑j=0

aj = (1− a)1

1− a= 1

iii). P (X > n+ k/X > n) =?

0

x>k x> n+k

k n+k

P (X > n+ k,X > k)

P (X > k)=

P (X > n+ k)

P (X > k)

=an+k+1

ak+1= an

ya que veamos que P (X > j) = aj

46 Variables Aleatorias.

P (X > j) = 1− P (X 6 j)

= 1−j∑i=1

(1− a)ai

= 1− (1− a)

[1− (1− a)j+1

1− a

]= (1− a)j+1

Ejemplo 50. Al examinar pozos de agua en un distrito con respecto a dostipos de impurezas encontradas frecuentemente en el agua potable, se en-contro que el 20 % de los pozos no revelan impureza alguna, el 40 % tenıala impureza A y el 50 % la impureza B. (Naturalmente algunos tenıan am-bas impurezas). Si se escoge un pozo al azar, encuentre la distribucion deprobabilidad de X, donde X indica el numero de tipos de impurezas en elagua.

Solucion.-

A B

fX (x) = P (X = x)

fX (0) = P (X = 0) = 0.20

fX (1) = P (X = 1) =?

Sea A ”la muestra que tiene impurezas del tipo A”

Sea B ”la muestra que tiene impurezas del tipo B”

P (A ∪B) = P (A) + P (B)− P (A ∩B)

P (A ∩Bc) ∪ P (B ∩Ac) = P (A) + P (B)− 2P (A ∩B)

= P (A) + P (B)− 2P (A) P (B)

4.1 Variables aleatorias discretas 47

(Suponemos que los tipos de impurezas aparecen independientemente unade la otra.)

∴ P (X = 1) = P (A) + P (B)− 2P (A) P (B)

= (0.4) + (0.5)− 2(0.4)(0.5)

fX (2) = P (X = 2) = P (A ∩B)indep= P (A) P (B) = (0.4)(0.5)

Ejemplo 51. Un fabricante de cera para pisos desarrolla 2 productos nuevosA y B que desea someter a evalucion de amas de casa para determinar cuales mejor. Las dos ceras A y B se aplican en pisos de 15 casas. Se suponeque en realidad no hay diferencia de calidad entre las dos marcas.

¿Cual es la probabilidad de que 10 o mas amas de casa profieran la marcaA?

Solucion.- (v.a. Binomial)

Sea X la variable aleatoria que nos indica el numero de personas que pre-fieran la marca A.

¿ P (X > 10) =?

P (X > 10) = P (X = 10) + · · ·+ P (X = 15)

=

(15

10

)(1

2

)10(1

2

)5

+

(15

11

)(1

2

)15

+ · · ·+(

15

15

)(1

2

)15

Con R 1− pbinom(9, prob = .5, size = 15) = 0.1508789

Ejemplo 52. Una compania de control de calidad dice que la probabilidadde encontrar una grieta en el ala de un avion es el producto de las siguientesprobabilidades:

p1 probabilidad de inspeccionar un avion con un ala averiada.

p2 probabilidad de inspeccionar la parte en la que se encuentra laaverıa.

48 Variables Aleatorias.

p3 probabilidad de detectar el dano.

i). ¿ Que suposiciones justifican la multiplicacion de estas probabilida-des?.

ii). Suponga que p1 = 0.5, p2 = .8, p3 = .9 para cierto grupo de aviones. Sise inspeccionan tres aviones de esta flotilla, calcule la probabilidad deque se detecte una grieta en el ala de por lo menos uno de los aviones.

Solucion.-

i). la independencia de los eventos, ası l aprobabilida de detectar unagrieta es p = p1 ∗ p2 ∗ p3.

ii). Sea X la variable que indica el numero de aviones a los cuales se lesdetecta una grieta en una de sus alas.

P (X > 1) = 1− P (X < 1)

= 1− P (X = 0) = 1−(

3

0

)p0(1− p)3

= 1− (1− p)3 = 1− (1− (0.9)(0.8)(0.5))3 = 0.737856

Ejemplo 53. Se supone que el 30 % de los aspirantes para cierto traba-jo tienen un entrenamiento avanzado en programacion. Los aspirantes sonentrevistados uno tras otro y son seleccionados al azar del conjunto de as-pirantes. Encuentre la probabilidad de que se encuentre al primer aspirantecon un entrenamiento en programacion en la quinta entrevista.

Solucion.-

P (X = 5) = (1− p)x−1p

= (1− 0.3)4(0.3) = 0.07203

Ejemplo 54. Se aplican analisis a los trabajadores de una empresa que fa-brica material aislante con el fin de detectar asbesto en los pulmones. Lafabrica tiene que mandar tres trabajadores con indicaciones positivas de as-besto a un centro medico para realizar mas pruebas. Si el 40 % de los tra-bajadores tienen en la primera prueba indicaciones de tener asbesto en lospulmones, encuentre la probabilidad de que se tengan que examinar a 10trabajadores para encontrar los tres con indicaciones positivas de asbesto enlos pulmones.

4.1 Variables aleatorias discretas 49

Solucion.- Sea X la variable aleatoria que nos indica el numero de pruebashasta encontrar a la 3er persona que resulte positiva en la prueba.

P (X = 10) =? (Binomial negativa)

p = 0.4 r = 3, x = 7

P (X = 3 + 7) =(

92

)(0.4)3(1− 0.4)7

Ejemplo 55. Un estudio geologico indica que una pozo exploratorio deberıadar petroleo con una probabilidad de 0.2 ¿Cual es la probabilidad de que el3er descubrimiento ocurra en la 5ta perforacion?

Solucion.-

Sea X la variable que nos indica el numero de perforaciones hasta encontrarel 3er descubrimiento.

P (X = 5) = P (X = 3 + 2) =(

5−13−1

)p3(1− p)2

Ejemplo 56. Una urna contiene 10 bolas las cuales son 5 verdes, 2 azules y3 rojas. Se sacan 3 bolas de la urna sin reemplazo. ¿Cual es la probabilidadde que las tres bolas sean verdes?

Sea X la variable aleatoria que nos indica el numero de bolas verdes.

P (X = 3) =?

r = 5 x = 3 N = 10 k = 3

P (X = 3) =

(53

)(50

)(103

)

4.1.7. Funcion de distribucion acumulativa y de densidad

Definicion 15. La funcion de distribucion acumulativa FX de una variablealeatoria se define como:

FX (x) = P (X 6 x) ∀x ∈ R

Ejemplo 57. Sea X una variable aleatoria binomial de parametros p = 12 ,

n = 2.

50 Variables Aleatorias.

Solucion.-

P (X = 0) =

(2

0

)p0(1− p)2 =

(1

2

)2

=1

4

P (X = 1) =

(2

1

)p1(1− p)1 = 2

(1

2

)2

=1

2

P (X = 2) =

(2

2

)p2(1− p)0 =

1

4

FX (x) =

0 si x < 0

14 si 0 6 x < 1

14 + 1

2 = 34 si 1 6 x < 2

1 si x > 2

1 2

1

3/4

1/4

Observacion La grafica de la funcion de distribucion de una variable alea-toria discreta, siempre tiene saltos y estos se dan en los puntos donde lavariable tiene probabilidad positiva de tomarlos.

4.2. Variables aleatorias continuas

Definicion 16. Una variable aleatoria se dice que es continua si su funcionde distribucion es continua.

Nota 4. Si X es continua:

4.2 Variables aleatorias continuas 51

P (X = x) = 0 ∀x ∈ R= P (X 6 x)− P (X < x)

= FX (x)− FX (x) = 0

ya que FX es continua.

4.2.1. Funciones de densidad y distribucion continuas

Definicion 17. La funcion de densidad de probabilidad de una variablealeatoria continua X se define como:

fX (x) =∂FX (t)

∂t

∣∣∣∣t=x

Entonces, podemos calcular su funcion de distribucion acumulativa

FX (x) =

∫ x

−∞fX (t) dt

lo cual es el caso analogo al caso discreto.

P (X 6 x) = FX (x) =∑y=x

P (X = y) P (X = x)

= P (X 6 x)− P (x < x)

= FX (x)− FX (x) = 0

Propiedades de la funcion de densidad

i). fX (x) > 0

ii).∫∞−∞ fX (x) dx = 1

Si X es variable aleatoria continua

P (X ∈ [a, b]) = P (x 6 b)− P (x 6 a)

= FX (b)− FX (a)

=

∫ b

afX (x) dx

52 Variables Aleatorias.

Ejemplo 58.

Sea FX (x) =

0 si x < 0x si x ∈ [0, 1)1 si x > 1

1

1

F (x)x

calcular la funcion de densidad

Solucion.-

fX (x) =

0 si x < 01 si x ∈ [0, 1)0 si x > 1

Ejemplo 59. Sea X una variable aleatoria continua con funcion de densi-dad

fX (x) =

3x2 si x ∈ [0, 1]

0 en otro caso

calcular la funcion de distribucion

FX (x) =

0 si x < 0∫ x

−∞ fX (x) dt =∫ x

0 3t2dt = x3 si x ∈ [0, 1]

1 si x > 1

Ejemplo 60. Sea:

fX (x) =

cx2 si x ∈ [0, 2]

0 en otro caso

encontrar el valor de c tal que fX (x) resulte ser una funcion de densidad.

4.2 Variables aleatorias continuas 53

Solucion.-

∫ ∞−∞

fX (x) dt =

∫ 2

0ct2dt

=

(1

3

)cx3

⇒ c =3

x3x ∈ [0, 2]

∴ c =3

8

4.2.2. La variable aleatoria uniforme

Definicion 18. Una variable aleatoria X se dice que tiene una distribucionuniforme en el intervalo [a, b], si la probabilidad de que la variable aleatoriaX se encuentre dentro de subintervalo [a1, b1] es proporcional al tamano delsubintervalo.

i.e. si [a1, b1] ⊆ [a, b]

P (X ∈ [a1, b1]) =b1 − a1

b− a

la funcion de distribucion resulta ser:

FX (x) = P (X ≤ x) =

0 si x < a

x−ab−a si x ∈ [a, b]

1 si x > b

fX (x) =∂FX (t)

∂t

∣∣∣∣t=x

=

1b−a si x ∈ [a, b]

0 en otro caso

Ejemplo 61. Un vendedor de gasolina tiene un tanque de 150 galones quese llena al principio del dıa. Su demanda diaria tiene una densidad de pro-babilidad dada por:

fX (x) =

x si 0 6 x 6 11 si 1 < x 6 1.50 en otro caso

54 Variables Aleatorias.

i). Obtener FX (x)

ii). Calcular P (0 6 x 6 0.5)

iii). Calcular P (0.5 6 X 6 1.2)

Solucion.-

i).

FX (x) =

∫ x−∞ fX (x) dt =

∫ x0 tdt = 1

2 t2∣∣x0

= 12x

2 si x ∈ [0, 1]12 +

∫ x1 dt = 1

2 + x− 1 = x− 12 si x ∈ [1, 1.5]1 si x > 1.5

ii).

P (0 6 x 6 0.5) = ?

P (X ∈ [0, 0.5]) = FX (0.5)− FX (0) =0.25

2− 0 =

1

8

iii).

P (0.5 6 x 6 1.2) = ?

P (X ∈ [0.5, 1.2]) = FX (1.2)− FX (0.5) = 0.575.

Ejemplo 62. Una gasolinerıa tiene 2 bombas que pueden bombear cada unahasta 10,000 galones de gasolina por mes. La cantidad de gasolina es unavariable aleatoria X (expresada en unidades de 10,000 gal) con una funcionde densidad dada por:

fX (x) =

x si 0 < x < 1

2− x si 1 6 x < 20 en otro caso

i). Graficar la funcion de densidad

ii). Obtener FX (x)

iii). Calcular P (0.8 6 X 6 1.)

iv). Calcular P (X 6 1.5/X > 1.)

4.2 Variables aleatorias continuas 55

Solucion.-

i). Grafica de fX (x)

1 2

1

2

x

ii).

F (x) =

∫ x−∞ fX (x) dt =

∫ x0 tdt = 1

2 t2∣∣x0

= 12x

2, si x ∈ [0, 1],12 +

∫ x1 (2− t)dt =

= 12 + (2t− 1

2 t2)∣∣x1

= −1 + 2x− 0.5x2 si x ∈ (1, 2]

1 si x > 1

iii).

P (0.8 6 X 6 1) = P (X ∈ [0.8, 1]) = FX (1)− FX (0.8) =1

2− (0.8)2

2

iv).

P (X > 1.5/X > 1) =P (X > 1.5, X > 1)

P (X ≥ 1)=

P (X ≥ 1.5)

P (X > 1)

=

[1− [−1 + 2(1.5)− 1

2(1.5)2]12

]=

1

4

4.2.3. La variable aleatoria exponencial

Recordemos que si X es una variable aleatoria geometrica de parametro p.X nos indica el numero de ensayos hasta obtener el 1er exito.

56 Variables Aleatorias.

P (X = x) = p(1− p)x−1 x = 1, 2, . . .

FX (x) = P (X 6 x) =x∑j=1

p(1− p)j−1

= p

(1− (1− p)x

1− (1− p)

)= 1− (1− p)x

∴ P (X > x) = (1− p)x

hagamos p = 1− e−λ, λ > 0 obtenemos P (X > x) = e−λx ∀x ∈ R

∴ FX (x) = 1− e−λx

fX (x) = F′X(x) =

λe−λx si x > 0, λ > 0

0 en otro caso∫ ∞−∞

fX (x) dx =

∫ ∞0

λe−λxdx = 1

4.3. Densidad de funciones de variables aleatoriascontinuas, o cambio de variable

Sea X una v.a. continua con densidad f . Vamos a ver algunos metodos paracalcular la funcion de densidad de la v.a. Y = g(X).

Ejemplo 63. Sea X v.a. continua con densidad f . Encontar la densidadde Y = X2.

Denotemos a F y G respectivamente las funciones de distribucion de X y Y ,respectivamente. Es claro que G(y) = 0 , para y ≤ 0. Para y > 0, tenemos:

G(y) = P (Y ≤ y) = P (X2 ≤ y)

= P (−√y ≤ X ≤ √y)

= F (√y)− F (−√y).

4.3 Densidad de funciones de variables aleatorias continuas, o cambio de variable 57

Ahora diferenciando obtenemos que

G′(y) = 1

2√y (F

′(√y) + F

′(−√y))

= 12√y (f(√y) + f(−√y)).

Ası que Y = X2 tiene densidad dada por:

g(y) =

1

2√y (f(√y) + f(−√y)) si y > 0.

0 si y ≤ 0(4.3.a)

Ejemplo 64. Sea X v.a. uniforme en (0, 1). Vamos a calcular la densidadde Y = (−λ−1 log(1−X) para λ > 0.

Nuevamente denotemos a G la funcion de distribucio de Y. Notemos que Yes v.a. positiva, por tanto G(y) = 0 para y ≤ 0. Para y > 0 tenemos:

G(y) = P (Y ≤ y) = P (−λ−1 log(1−X) ≤ y)

= P (log(1−X) ≥ −λy)

= P (1−X ≥ exp−λy)

= P (X ≤ 1− exp−λy)

= 1− exp−λy .

Ası derivando, la densidad queda dada por:

g(y) =

λ exp−λy, si y > 0.

0, si y ≤ 0(4.3.b)

Ahora veamos como bajo ciertas condiciones el siguiente teorema nos per-mite calcular la densidad de funciones de v.a..

Teorema 4.1. Sea X v.a. con funcion de densidad f y sea ϕ : R→ R unafuncion continua, estrictamente creciente o decreciente y con inversa ϕ−1,diferenciable, entonces la funcion de densidad de Y esta dada por:

g(y) =

f(ϕ−1(y))

∣∣∣ ddyϕ−1(y)∣∣∣ , si y ∈ Rango(ϕ(X))

0, si y /∈ 0(4.3.c)

58 Variables Aleatorias.

Prueba.- Supongamos ϕ estrictamente decreciente y sean F y G, las funcio-nes de distribucion de X y Y respectivamente. Tomemos y en el rango deϕ(X),

G(y) = P (Y ≤ y)

= P (ϕ(X) ≤ y)

= P (X ≥ ϕ−1(y))

= 1− F (ϕ−1(y)).

Ahora derivando a G respecto a y y teniendo en cuenta que la derivada deϕ es negativa por ser decreciente, se obtiene:

g(y) = G′(y) = −f(ϕ−1(y)

d

dyϕ−1(y)

=f(ϕ−1(y)

(− d

dyϕ−1(y)

)=f(ϕ−1(y))

∣∣∣∣ ddyϕ−1(y)

∣∣∣∣ .Ejemplo 65. Sea X v.a. exponencial de parametro λ. Encuentre la densidadde Y = X1/β, donde β 6= 0.

Recordemos que X tiene densidad de probabilidad g dada por:

f(x) =

λe−λx, si x > 0

0, si x ≤ 0(4.3.d)

Ahora sea ϕ(x) = x1/β. La ecuacion y = x1/β tiene solucion, x = yβ ydx/dy = βyβ−1. Ası del teorema 4.1:

g(y) =

|β|λyβ−1e−λy

β, si y > 0 ,

0, si x ≤ 0.(4.3.e)

Ejemplo 66. Sea X v.a. continua con densidad f y sean a y b dos cons-tantes, con b 6= 0. Consideremos la v.a. Y = a+ bX. Encuentre la densidadde Y .

La funcion ϕ(x) = a+ bx cuya inversa se obtiene al resolver la ecuacion y =a+ bx. Resolviendo obtenemos ϕ−1(y) = y−a

b , cuya derivada es ddyϕ

−1(y) =1b . Ası del Teorema 4.1

g(y) =1

|b|f(y − ab

), si −∞ < y <∞. (4.3.f)

4.3 Densidad de funciones de variables aleatorias continuas, o cambio de variable 59

Ejercicio 7. Sea X v.a con funcion de densidad

f(x) =

e−x, si x > 0

0, si x ≤ 0.

Encuentre la densidad de Y = ϕ(X) = 1X

Capıtulo 5

Variables Aleatoriasdistribuidas conjuntamente

Definicion 19. Sean X,Y dos variables aleatorias definidas en Ω, la pareja(X,Y ) es un vector aleatorio

Ejemplo:

Ω = ω : ωrepresenta a una persona de una poblacion

X(ω) = peso de la persona ω

Y (ω) = altura de la persona ω

5.1. Funciones de probabilidad y distribucion con-juntas

Definicion 20. Sean X,Y dos variables discretas. La funcion de probabili-dad de X e Y se define como:

fX,Y (x, y) = P (X = x, Y = y)

Propiedades: Una funcion f : R2 → [0, 1] tiene que cumplir lo siguientepara ser funcion de densidad conjunta:

62 Variables Aleatorias distribuidas conjuntamente

i). fX,Y (x, y)) ∈ [0, 1] ∀x, y ∈ R

ii).∑xfX,Y (x, y) = fY (y), llamada la marginal de Y con respecto a X

iii).∑yfX,Y (x, y) = fX (x), llamada la marginal de X con respecto a y.

Definicion 21. La funcion de distribucion conjunta de dos variables alea-torias X,Y , se define como:

FX,Y (x, y) = P (X 6 x, Y 6 y)

La funcion de densidad conjunta para dos variables aleatorias continuas, esla funcion fX,Y (x, y) tal que:

FX,Y (x, y) =

∫ x

−∞

∫ y

−∞fX,Y (υ, ν) dυdν

o sea que

fX,Y (x, y) =∂2F(s, t)

∂s∂t

∣∣∣∣(x,y)

La funcion marginal de x con respecto a y se define como:

fX (x) =

∫ ∞−∞

fX,Y (x, y) dy

analogamente

fY (y) =

∫ ∞−∞

fX,Y (x, y) dx

es la marginal de y con respecto a x.

Ejemplo 67. Se toma un punto al azar del cırculo

D =

(x, y) ∈ R2 : x2 + y2 ≤ R2

y = ±√R2 − x2

x = ±√R2 − y2

5.2 Independencia en vectores aleatorios 63

A

D

R

y

x

Sean X,Y las variables aleatorias que denotan las coordenadas del punto.

P ((X,Y ) ∈ A) =area deA

area de D=

area de A

πR2

=

∫A

(1

πR2

)dsdt

⇒ fX,Y (x, y) =

1

πR2 si x2 + y2 ≤ R2

0 en otro caso

fX (x) =

∫ ∞−∞

fX,Y (x, y) dy =

∫ x

−x

1

πR2dy

=y

πR2

∣∣∣√R2−x2

−√R2−x2

=2√R2 − x2

πR2si x ∈ [−R,R]

fY (y) =

∫ ∞−∞

fX,Y (x, y) dx =

∫ y

−y

1

πR2dx

=2√R2 − y2

πR2si y ∈ [−R,R]

5.2. Independencia en vectores aleatorios

Definicion 22. Dos variables aleatorias X,Y se dice que son independientessi:

P (X ∈ [a, b], Y ∈ [c, d]) = P (X ∈ [a, b])× P (Y ∈ [c, d])

64 Variables Aleatorias distribuidas conjuntamente

Proposicion: Dos variables X,Y son independientes si y solo si.

i).

FX,Y (x, y) = P (X 6 x, Y 6 y)

= P (X 6 x) P (Y 6 y)

= FX (x)FY (y) ∀x, y ∈ R

ii).

fX,Y (x, y) = fX (x) fY (y) ∀x, y ∈ R

Nota 5. Del ejemplo 67, podemos ver que X,Y no son independientes yaque:

fX,Y (x, y) 6= fX (x) fY (y)

fX,Y (x, y) =1

πR2

fY (y) =2√R2 − y2

πR2

fX (x) =2√R2 − x2

πR2

5.3. Regla de Bayes para el caso continuo

Definicion 23. La funcjon de densidad condicional de X dado Y = y sedefine como:

fX/Y=y (x/y) =fX,Y (x, y)

fY (y)

Proposicion

fX/Y=y (x/y) =fY/X (y/x) fX (x)∫∞

−∞ fY/X (y/x) fX (x) dx

Demostracion

5.3 Regla de Bayes para el caso continuo 65

fY (y) =

∫ ∞−∞

fX,Y (x, y) dx (5.3.a)

fX,Y (x, y) = fY/X (y/x) fX (x) (5.3.b)

∴ fX/Y (x/y)def=

fX,Y (x, y)

fY (y)

(5.3.a)(5.3.b)=

fY/X (y/x) fX (x)∫∞−∞ fX,Y (x, y) dx

Ejemplo 68. Sea X una variable aleatoria uniforme en el intervalo [0,1] yY una variable aleatoria uniforme en el intervalo [0,X], ası que:

fX (x) =

1 si x ∈ [0, 1]0 en otro caso

fY/X (y/x) =

1x si y ∈ [0, 1]0 en otro caso

Calcule fY (y)

Solucion.-

fY (y) =

∫ ∞−∞

fX,Y (x, y) dx =

∫ 1

yfX,Y (x, y) dx

Donde

fX,Y (x, y) =

1x si 0 < y < x < 10 en otro caso

⇒ fY (y) =

∫ 1

y

1

xdx = ln(x)|1y = − ln(y)

En general P (x ∈ A/Y = y) =∫A fX/Y=y (x, y) dx

Ejemplo 69. Una bomba de gasolina se llena al inicio de cada dıa con unacantidad aleatoria X1 y se vende una cantidad aleatoria X2 en m3. No sevuelve a llenar durante el dıa ası que X2 6 X1. Se ha observado que X1 yX2 tienen una densidad conjunta dada por:

fX1,X2(x1, x2) =

12 si 0 < x2 6 x1 6 20 en otro caso

66 Variables Aleatorias distribuidas conjuntamente

i). Encontrar la funcion de densidad fX2/X1(x2/x1)

ii). Encontrar la probabilidad de que se venda menos de 12m

3 de gasolinasi en la manana se ha llenado con 3

4m3.

Solucion.-

i).

fX2/X1(x2/x1) =

fX1,X2(x1, x2)

fX1(x1)

donde

fX1(x1) =

∫ ∞−∞

fX1,X2(x1, x2) dx2 =

∫ x1

0

1

2dx2 =

x1

2

∴ fX2/X1(x2/x1) =

(1

2

)(x1

2

) =

1

x1si 0 < x2 6 x1 6 2

0 en otro caso

ii).

P

(X2 6

1

2/X1 = 0.75

)=

∫ 12

0fX2/X1

(x2/x1 = .75) dx2

=

∫ 12

0

4

3dx =

4

6=

2

3

Ejemplo 70. Sean X,Y variables aleatorias con densidad conjunta:

fX,Y (x, y) =

1 si 0 6 x 6 1, 0 6 y 6 10 en otro caso

Obtenga:

i). FX,Y (0.2, 0.4)

ii). P (0.1 6 X 6 0.5)

Solucion.-

5.3 Regla de Bayes para el caso continuo 67

i).

FX,Y (x, y) = P (X 6 x, Y 6 y) =

∫ x

−∞

∫ y

−∞fX,Y (υ, ν) dυdν

FX,Y (0.2, 0.4) =

∫ 0.2

0

∫ 0.4

0dydx = 1(0.2)(0.4) = 0.08

ii).

P (0.1 6 X 6 0.5) =

∫0.10.5

∫ 1

0dydx = 0.4

Ejemplo 71. Sea fX,Y (x, y) =

3x si 0 6 y 6 x 6 1

0 en otro caso

Calcule: P (0 6 X 6 0.5, Y > 0.25)

Solucion.-

P (0 6 X 6 0.5, Y > 0.25) =

∫ 12

14

∫ x

14

3xdydx =

∫ 12

14

3xy|x14dx

=

∫ 12

14

3x

(x− 1

4

)dx =

5

128

Ejemplo 72. Sea fX,Y (x, y) dada por:

fX,Y (x, y) =

e−(x+y) x, y > 0

0 en otro caso

Calcule:P (X > Y > 2)

Solucion.-

P (X > Y > 2) =

∫x>y>2

fX,Y (x, y) dxdy =

∫ ∞2

e−xdx

∫ x

2e−ydy

=

∫ ∞2

e−x(e−2 − e−x)dx =3

2e−4

68 Variables Aleatorias distribuidas conjuntamente

5.4. Distribucion de sumas de variables aleatorias

Ejemplo 73. Sean X,Y v.a. con densidad conjunta fX,Y (x, y). ConsidereZ = X + Y , encuentre fZ (z).

Solucion.-

Sea Az = (x, y) : x+ y 6 z

FZ (z) = P (X + Y 6 z) =

∫ ∫Az

fX,y (x, y) dxdy

=

∫ ∞−∞

∫ z−x

−∞fX,Y (x, y) dxdy

=

∫ ∞−∞

(∫ z

−∞fX,Y (x, ν − x) dν

)dx

=

∫ z

−∞

(∫ ∞−∞

fX,Y (x, ν − x) dx

)dν

∴ fZ (z) =

∫ ∞−∞

fX,Y (x, z − x) dx

Observacion

i). En muchas aplicaciones X,Y son independientes ası que:

fZ (z) =

∫ ∞−∞

fX (x) fY (z − x) dx

ii). En varios casos X,Y son no negativos, ası que

fZ (z) =

∫ z

0fX (x) fY (z − x) dx

Ejemplo 74. Sean X,Y variables independientes identicamente distribuidasexponencialmente con parametro λ y sea Z = X + Y fZ (z) =?

Solucion.-

fX (x) =

λe−λx λ, x > 0

0 en otro caso

5.4 Distribucion de sumas de variables aleatorias 69

fZ (z) =

∫ z

0fX (x) fY (z − x) dx

=

∫ z

0λe−λxλe−λ(z−x)dx

zλ2e−λz.

Ejercicio 8. Sean X y Y dos v.a.i con distribucion uniforme en el intervalo[0, 1]. Encontrar la densidad de Z = X + Y .

Solucion.-

fX(x) =

1, si x ∈ [0, 1]

0, en otro caso.

Como:

fZ(z) =

∫ ∞0

fX(x)fY (z − x)dx

Tenemos dos casos para que fY (z − x) = 1, cuando z ∈ [0, 1] y cuandoz ∈ [1, 2], por tanto

fZ(z) =

∫ z

0 1dx = z, si z ∈ [0, 1]∫ 1z−1 1dx = 2− z, si z ∈ [1, 2]

0, otro caso.

5.4.1. Una regla muy util

Proposicion 5.1. La distribucion condicional de la v.a. h(X,Y ) dado queY = y, es la misma que la distribucion de h(X, y) dado que Y = y.

Prueba.- Supongamos que P (Y = y) > 0, entonces

P (h(X,Y ) ∈ A/Y = y) =P (h(X,Y ), Y = y)

P (Y = y), (5.4.c)

como los conjuntos h(X,Y ) ∈ A, Y = y y h(X, y) ∈ A, Y = y, soniguales en cada uno Y = y, por tanto el lado izquierdo de 5.4.c es igual aP (h(X, y) ∈ A/Y = y).

Ejercicio 9. Sean T1, T2, v.a. independientes con distibucion exponencialcon la misma λ.

70 Variables Aleatorias distribuidas conjuntamente

i). Encuentre la densidad condicional de Z = T1 + T2, dado que T1 = t,lo cual escribimos como:

fZ/T1(z/t)

ii). Encontrar fZ (z) a partir de la densidad fZ,T (z, t).

iii). A partir del inciso ii) calcule la densidad condicional de T1 dado queT1 + T2 = τ .

Solucion.- i).- Si Z = T1 + T2,

FZ/T1(z/t) = P (Z ≤ z /T1 = t) = P (T1 + T2 ≤ z /T1 = t)

(de la Proposicion 5.1) = P (t+ T2 ≤ z /T1 = t) = P (T2 ≤ z − t/T1 = t)

(por independencia) = P (T2 ≤ z − t) =

∫ z−t

0fT2(s)ds

= 1− exp(−λ(z − t)).

Ahora derivado 1− exp(−λ(z− t)), obtenemos que la densidad fZ/T1(z/t) =λ exp(−λ(z − t)), si z > t y cero si z < t.

Solucion.- ii).- Como fT1,Z(t, z) = fZ/T1(z/t)fT1(t) resulta ser que

fZ,T (z, t) =

λ2e−λz si 0 6 t 6 z

0 en otro caso

Sacando la marginal de Z obtenemos que es:

fZ(z) =

∫ z

0λ2e−λzdt = λ2 e−λzt

∣∣∣z0

= λ2e−λzz.

Ası hemos obtenido la densidad de la suma de dos exponenciales con mismadistribucion exponencial de parametro λ independientes.

Solucion.- iii).-

fT1/Z(t/τ) =λ2 exp(−λz)τλ2 exp(−λz)

=1

τsi t < τ y cero si t ≥ z

es decir T1 condicionada a que T1 + T2 = τ tiene distribucion uniforme enel intervalo (0, τ).

Capıtulo 6

Esperanza Matematica yVarianza

6.1. Esperanza matematica

6.1.1. Esperanza de una variable aleatoria discreta

Sea X : Ω→ x1, x2, . . . , xn, si P (X = xi) = 1n entonces:

x =n∑i=1

xin

=n∑i=1

xiP (X = xi) =n∑i=1

xifX (xi) .

Ası hemos calculado el valor promedio de la v.a. X, ahora si H : R→ R esuna funcion, que incluye el caso H(X) = X, entonces podemos calcular elpromedio de H(X):

n∑i=1

H(xi)

n=

n∑i=1

H(xi)P (X = xi) =

n∑i=1

H(xi)fX (xi) .

Pero podemos tener v.a. que no necesariamente tengan distribucion unifor-mes en x1, x2, . . . y entonces considerar el valor de la suma siguiente comouna mejor representacion del valor promedio. Ahora se va a multiplicar acada valor H(xi), por su peso dado por P (X = xi).

72 Esperanza Matematica y Varianza

Definicion 24. Sea X : Ω→ x1, x2, . . . , xn v.a. discreta, y H : R→ R. Laesperanza matematica de variable aleatoria discreta H(X), se define como:

E (H(X)) :=n∑i=1

H(xi)P (X = xi) =n∑i=1

H(xi)fX (xi) (6.1.a)

Definicion 25. Sean X,Y , v.a discretas y H : R2 → R, se define la espe-ranza de H((X,Y ), como:

E (H(X,Y )) =∑x,y

H(x, y)P (X = x, Y = y) =∑x,y

H(x, y)fX,Y (x, y).

(6.1.b)

Ejemplo 75. Sea X una variable aleatoria tipo Bernoulli de parametro p

fX (x) =

p si x = 1

1− p si x = 00 en otro caso

Calcule E (X)

Solucion.-

E (X) =∑x

P (X = x) = 0× P (X = 0) + 1× P (X = 1) = p

Ejemplo 76. Sea X v.a. disctreta que toma los valores −2, 2, 3 con pro-babilidades dadas por P (X = −2) = 0.2,P (X = 2) = 0.3,P (X = 3) = 0.5y sea H(X) = X2 = Y . Calcule E (H(X)). ( Notemos que Y es v.a. quesolo toma los valores 4, 9 con probabilidad 0.5 y 0.5 respectivamente aquıveremos como E (H(X)) = E (Y ) ).

E (H(X)) :=

n∑i=1

H(xi)P (X = xi)

=H(−2)P (X = −2) +H(2)P (X = 2) +H(3)P (X = 3)

=4P (X = −2) + 4P (X = 2) + 9P (X = 3)

=4(P (X = −2) + P (X = 2)) + 9P (X = 3)

=4P (Y = 4) + 9P (Y = 9)

=E (Y ) .

6.1 Esperanza matematica 73

Ejemplo 77. Sea X una variable aleatoria de tipo Poisson de parametro λ

fX (x) =

e−λ λ

x

x! si x = 0, 1, 2, . . .0 en otro caso

Calcule E (X)

Solucion.-

E (X) =

∞∑j=0

jP (X = j) =

∞∑j=1

je−λλj

j!

=∞∑j=0

e−λλj−1λj

j(j − 1)!

= λ∞∑j=1

e−λλj−1

(j − 1)!= λe−λ

∞∑k=0

λk

k!

= λe−λeλ = λ

Ejemplo 78. Sea X ∼ B(n, p); i.e. X es una variable aleatoria binomialde parametros n, p. Calcule E (X)

Solucion.-

E (X) =

n∑j=0

jP (X = j) =

n∑j=1

j

(n

j

)pj(1− p)n−j

=

n∑j=1

jn!

(n− j)!j!pj(1− p)n−j

=n∑j=1

jn(n− 1)!

(n− j)!j!pj(1− p)n−j

= np

n∑j=1

(n− 1)!

(n− j)!(j − 1)!pj−1(1− p)n−j (como (n-j) =(n-1 -(j-1))

= np

n−1∑k=0

(n− 1

k

)pk(1− p)n−(k+1)

= np(p+ (1− p))n−1

= np. (6.1.c)

74 Esperanza Matematica y Varianza

Ejemplo 79. Sea X ∼ G(p) i.e. X es una variable aleatoria geometrica deparametro p. Calcule E (X)

fX (x) =

p(1− p)x−1 si x = 1, 2, . . .

0 en otro caso

E (X) =

∞∑X=1

xp(1− p)x−1 q = (1− p)

= p

∞∑X=1

xqx−1 = p

∞∑x=1

∂qqx = p

∂q

∞∑x=1

qx

= p∂

∂q

(1

1− q− 1

)= p

(1

(1− q)2

)=

p

p2=

1

p

Ejemplo 80. ¿Cuantas veces se espera que haya que lanzar una monedabien balanceada para obtener el 1er aguila.?

Solucion.-

E (X) =1

p⇒ E (X) = 2 p =

1

2

Propiedades

i). Si X = c; E (X) = c

ii). E (αX) = αE (X)

iii). E (X + Y ) = E (X) + E (Y )

iv). Si X > Y ⇒ E (X) > E (Y )

v). Si g : R→ R es una funcion integrable E (g(x)) =∑

X g(x)P (X = x)

vi). Si X,Y son variables aleatorias independientes E (XY ) = E (X)E (Y )

Prueba.-

i). Si X = c ⇒ fX (x) =

1 si x = c0 en otro caso

E (X) =∑x

xfX (x) = cfX (c) = c

6.1 Esperanza matematica 75

ii).

E (αX) =∑x

αXP (αX = αx)

= α∑x

xP (X = x) = αE (X)

iii).

E (X + Y ) =∑x,y

(x+ y)fX,Y (x, y)

=∑x,y

xfX,Y (+)∑x,y

yfX,Y (x, y)

=∑x

xfX (x) +∑y

yfY (y) = E (X) + E (Y )

iv). Sea Z = X − Y > 0 y sea fZ (z) su funcion de densidad.

E (Z) = E (X − Y ) = E (X)− E (Y )

=∑z

z · fZ (z) > 0

vi).

E (XY ) =∑x

∑y

xyfX,Y (x, y)

indep=

∑x

∑y

xyfX (x) fY (y)

=∑x

xfX (x)∑y

yfY (y) = E (X)E (Y )

Ejemplo 81. Sea X una variable aleatoria binomial negativa con parame-tros r y p. Calcule E (X).

Solucion.- r=numero de ensayos

X =r∑i=1

Xi, Xi G(p) independientes

E (X) = E

(r∑i=1

Xi

)=

r∑i=1

E (Xi) =

r∑i=1

1

p=r

p

76 Esperanza Matematica y Varianza

6.1.2. Esperanza de un variable aleatoria continua

Definicion 26. La esperanza de una variable aleatoria continua X,se definecomo:

E (X) =

∫ ∞−∞

xfX (x) dx si

∫|x|fX (x) dx <∞

Ejemplo 82. Sea X una variable aleatoria uniforme en [a,b]. Calcule E (X).

Solucion.-

fX (x) =

1

b− asi x ∈ [a, b]

0 en otro caso

E (X) =

∫ b

ax

(1

b− a

)dx =

(1

b− a

)(1

2

)(b2 − a2)

=b+ a

2

Ejemplo 83. Sea X exp(λ)

Solucion.-

fX (x) =

λe−λx si 0 6 x <∞

0 en otro casoλ > 0

E (X) =

∫ ∞0

xλe−λxdx =1

λ

Propiedades:

i). E (αX) = αE (X),

ii). Si H : R→ R integrable E (H(X)) =∫∞−∞H(x)fX (x) dx,

iii). Si H : R2 → R integrableE (H(X,Y )) =

∫∞−∞

∫∞−∞H(x, y)fX,Y (x, y) dxdy,

iv). E (X + Y ) = E (X) + E (Y ),

v). Si X > Y , E (X) > E (Y ),

6.2 Varianza de una variable aleatoria 77

vi). Si X,Y son independientes E (XY ) = E (X)E (Y ).

Si X, Y no son independientes, un ejemplo de que no se da la igualdadanterior es el siguiente

Ejemplo 84. Sea X,v.a. que toma los valores −1, 1 con probabilidad 0.5cada uno. y sea Y = X3, entonces E (X) = 0, E (Y ) = 0, sin embargoE (XY ) = E

(X4)

= 1. ası que E (XY ) 6= E (X)E (Y ).

Ejemplo 85. El tiempo que tarda en realizarse cierta tarea en la construc-cion de un casa es una variable aleatoria exponencial con una media de10hrs. El costo para completar esta tarea esta relacionado con el tiempo quese tarda dicha tarea mediante C = 100 + 40X. ¿Cual es el costo esperado?.

Solucion.-

E (C) = E (100 + 400X) = 100 + 40(10) = 500

6.2. Varianza de una variable aleatoria

Definicion 27. La varianza de una variable aleatoria X que denotaremospor Var (X) o σ2

X se define como:

Var (X) = E (X − E (X))2 = σ2X

Nota 6. σX = +√σ2X es llamada la desviacion estandar de X.

Propiedades:

i). Var (X) = E(X2)− E2(X)

ii). Var (aX + b) = a2Var (X)

iii). Var (X + Y ) = Var (X) + Var (Y ) + Cov(X,Y )donde Cov(X,Y ) = E (XY )− E (X)E (Y )

iv). Si X,Y son independientes Var (X + Y ) = Var (X) + Var (Y )

Prueba.-

78 Esperanza Matematica y Varianza

i).

Var (X) = E (X − E (X))2

= E(X2 + 2XE (X) + E2(X)

)= E

(X2)− 2E (X)E (X) + E2(X)

= E(X2)− E2(X)

ii).

Var (aX + b) = E (aX + b− E (aX + b))2

= E (aX + b− aE (X)− b)2

= E (a(X − E (X)))2

= E(a2(X2 − 2XE (X) + E2(X)

)= a2(E (X)2 − E2(X)) = a2Var (X)

iii).

Var (X + Y ) = E (X + Y )2 − E2(X + Y )

= E(X2)

+ E(Y 2)

+ 2E (XY )

−[E2(X) + 2E (X)E (Y ) + E2(Y )]

= Var (X) + Var (Y )

+2(E (XY )− E (X)E (Y ))

iv). Como X,Y son independientes, se tiene: E (XY ) = E (X)E (Y ), portanto Cov(X;Y ) = 0, ası que Var (X + Y ) = Var (X) + Var (Y ).

Ejemplo 86. Sea X una variable aleatoria Bernoulli de parametro p, cal-culemos Var (X)

Solucion.-

Var (X) = E(X2)− E2(X); E (X) = p

E(X2)

=∑x

x2P (X = x)

= 0P (X = 0) + 12P (X = 1) = p

∴ Var (X) = p− p2 = p(1− p) = pq

6.2 Varianza de una variable aleatoria 79

Ejemplo 87. Sea X ∼ B(n, p); X =∑n

i=1Xi donde las Xi son variablesaleatoria independientes tipo Bernoulli de parametro p.

Calcule Var (X).

Var (X) = Var

(n∑i=1

Xi

)indep=

n∑i=1

Var (Xi) =

n∑i=1

pq = npq

Ejemplo 88. Sea X una variable aleatoria uniforme en [a,b], denotada porX ∼ U [a, b]. Calcule Var (X)

Solucion.-

Var (X) = E(X2)− E2(X); E (X) =

a+ b

2

E(X2)

=

∫ b

ax2

(1

b− a

)dx =

b3 − a3

3(b− a)=b2 + a2 + ab

3

∴ Var (X) =b2 + a2 + ab

3− a2 + 2ab+ b2

4

=a2 + b2 − 2ab

12=

(a− b)2

12

Ejemplo 89. Sea X ∼ exp(λ). Calcule Var (X)

Solucion.-

fX (x) =

λe−λx si λ, x > 0

0 en otro caso

E (X) =− x exp−λx∣∣∣∞0

+

∫ ∞0

exp(−λx)dx = 0 +1

λ

∫ ∞0

λ exp−λx dx =1

λ

E(X2)

=

∫ ∞0

x2λ exp−λx dx = −x2 exp−λx∣∣∣∞0

+ 2

∫ ∞0

x exp−λx dx

= 0 +2

λ

∫ ∞0

λ exp(−λx)dx

=2

λ2.

Por tanto Var (X) = 2λ2−(

)2= 1

λ2.

80 Esperanza Matematica y Varianza

Ejemplo 90. Sea D una variable aleatoria que toma los valores 1,2,3,4,5con las probabilidades dadas por:

P (D = 1) = 0.1,P (D = 2) = 0.1,P (D = 3) = 0.3,

P (D = 4) = 0.3,P (D = 5) = 0.2

Calcule Var (X).

Solucion.-

E (X) =∑

g(x)P (D = x) = g(1)P (D = 1) + g(2)P (D = 2)

+g(3)P (D = 3) + g(4)P (D = 4) + g(5)P (D = 5)

= 1(0.1) + 2(0.1) + 3(0.3) + 4(0.3) + 5(0.2) = 3.4

Var (X) = σ2x = E (X − E (X))2 = E

(X2)− E (X)2

E(X2)

= 12P (X = 1) + 22P (X = 2) + 32P (X = 3)

+42P (X = 4) + 52P (X = 5)

= 1(0.1) + 4(0.1) + 9(0.3) + 16(0.3) + 25(0.2) = 13

∴ Var (X) = σ2X = 1.44

6.3. Desigualdad de Chebychev y Ley debil de losgrandes numeros

Ley debil de los grandes numeros

Lema 6.1. Sea X v.a. no negativa con esperanza finita y sea ε > 0, entonces

P (X ≥ ε) ≤ E (X)

ε. (6.3.d)

Prueba.- Definamos Y = 0 si X < ε y Y = ε si X ≥ ε. La v.a Y es discretay solo toma los valores 0 y ε, ası que E (Y ) = εP (Y = ε) + 0 · P (Y = 0) =

6.3 Desigualdad de Chebychev y Ley debil de los grandes numeros 81

εP (Y = ε) = εP (X ≥ ε). Como X ≥ Y , se tiene que E (X) ≥ E (Y ). Portanto

E (X) ≥ E (Y ) = εP (X ≥ t), de donde

P (X ≥ ε) ≤ E (X)

ε.

Ahora del Lema anterior vamos a deducir algunas desigualdades muy utiles,una de ellas la desigualdad de Chebychev:

Teorema 6.1 (Desigualdad de Chebychev). Sea X v.a. con media µ y va-rianza σ2, entonces para cualquier ε > 0

P (|X − µ| ≥ ε) ≤ σ2

ε2. (6.3.e)

Prueba.- Apliquemos la desigualdad 6.3.d a la v.a. no negativa (X − µ)2 yal numero ε2, de ahı obtenemos que:

P((X − µ)2) ≥ ε2

)≤

E((X − µ)2

)ε2

=σ2

ε2.

Como (X − µ)2 ≥ ε2 si y solo si |X − µ| ≥ ε, se sigue la desigualdad deChebychev 6.3.e.Notemos que el parametro ε debe ser estrictamente mayor a σ, pues si0 < ε ≤ σ, entonces σ2

ε2≥ 1 y esto no es interesante, pues encontrar una cota

superior mayor o igual a 1 para una probabilidad no aporta mayor informa-cion. Cabe destacar que esta desigualdad es muy general en el sentido de quesin importar la distribucion de la v.a., solo se pide que exita σ2. Tambien sepuede demostrar que en general la cota que se obtiene mediante Chebychevno se puede mejorar o sea no hay otra mas pequena, sin hipotesis adicio-nales. Tambien mediante la desigualdad de Chebychev vamos a demostrarenseguida la Ley debil de los grandes numeros para v.a.i. con varianza finita,pero se puede demostrar la aunque se puede demostrar suponiendo solo quelas v.a.i. tengan esperanza finita e igual.

Teorema 6.2 (Ley debil de los grandes numeros.). Sea X1, X2, . . . , Xn

v.a.i.i.d. (variables aleatorias independientes e identicamente distribuidas)con media µ y varianza σ2 < ∞. Sea Sn =

∑ni=1Xi, entonces Sn

n → µ enProbabilidad, es decir:

P

(∣∣∣∣Snn − µ∣∣∣∣ > ε

)−→n→∞

0 para cualquier ε > 0. (6.3.f)

82 Esperanza Matematica y Varianza

Prueba.-

E(Snn

)= µ;

V ar(Snn

) = V ar

(∑ni=1Xi

n

)=

∑ni=1 V ar(Xi)

n2= n

σ2

n2=

=σ2

n.

Ası que:

P

(∣∣∣∣Snn − µ∣∣∣∣ > ε

)≤V ar(Snn )

ε2=

σ2

nε2−→n→∞

0.

6.4. Esperanza condicional

Definicion 28. La esperanza condicional de X dado Y = y se define como:

E (X/Y = y) =

∫ ∞−∞

xfX/Y=y (x/y) dx (en el caso continuo)

∑x

xfX/Y=y (x/y) (en el caso discreto)

Observaciones

i). Notemos que E (X/Y ) es una nueva variable aleatoria que es funcionde la v.a Y .

ii). E (E (X/Y )) = E (X)

iii). E (E (Y/X)) = E (Y )

iv). Si X,Y son independientes E (X/Y ) = E (X)

v). E (aX/Y ) = aE (X/Y )

Prueba.-

Recordemos que:

6.4 Esperanza condicional 83

E (g(Y )) =

∫g(y)fY (y) dy.

E (E (X/Y = y)) = E(∫

xfX/Y (x/y) dx

)=

∫ (∫xfX/Y (x/y) dx

)fY (y) dy

=

∫ ∫xfX/Y (x/y) fY (y) dydx

=

∫ ∫xfX,Y (x, y) dydx

=

∫xfX (x) dx = E (X)

Ejemplo 91. Una maquina expendedora de refrescos se llena al pricipiodel dıa con una cantidad aleatoria Y ∼ U(0, 2) y se despacha una cantidadX ∼ U(0, Y ). ¿Cual es la cantidad que se espera despachar si Y = 1.5?

Solucion.-

E (X/Y = 1.5) =

∫ 1.5

0xfX/Y=1.5 (x/1.5) dx =

∫ 1.5

0x

1

1.5dx =

1.5

2= 0.75

Capıtulo 7

Funcion Generadora deMomentos

Definicion 29. La funcion generadora de momentos de una variable alea-toria X, se define como:

MX (t) = E(etX)∀t tal que esta esperanza sea finita.

Propiedades:

i). Si a, b ∈ R, M(aX+b) (t) = etbMX (ta)

ii). Si X,Y son variables independientes MX+Y (t) = MX (t)MY (t)

iii). Si X1, . . . , Xn son variables independientes, M∑Xi

(t) =n∏i=1

MXi(t)

Prueba.-

i).

M(aX+b) (t) = E(et(aX+b)

)= E

(etbetaX

)= etbE

(etaX

)= etbMX (at)

86 Funcion Generadora de Momentos

ii).

MX+Y (t) = E(et(X+Y )

)= E

(etX+tY

)= E

(etXetY

) indep= E

(etX)E(etY)

= MX (t)MY (t) .

En el caso continuo MX (t) = E(etX)

=∫∞−∞ e

txfX (x) dx.

En el caso discreto MX (t) = E(etX)

=∑

X etxP (X = x) .

Nota 7. Se tiene que:

i). MX (−t) =∫∞−∞ e

−txfX (x) dx = L(f(t)) Transformada de Laplace.

ii). MX (it) =∫∞−∞ e

−itfX (x) dx = f(t) Transformada de Fourier.

iii). MX (t) es continua en t.

iv). SiE (|X|n) <∞, entonces ∂nMX(t)∂t

∣∣∣t=0

= E (Xn) , pues

∂nMX(t)∂t = ∂n

∂t E(etX)

= E(∂netX

∂t

)= E

(XnetX

).

Teorema 7.1 (Bochner). Sean X,Y son dos v.a. con funcion de densidadfX y gY , respectivamente. Si MX (t) y MY (t) existen y son iguales paratoda t ∈ [−ε, ε], ε > 0, entonces las dos v.a. tienen la misma densidad deprobabilidad i.e.

fX (x) = fY (x) .

Ejemplo 92. Sea X ∼ exp(λ) i.e. una variable aleatoria exponencial deparametro λ, y sea Y v.a. tal que su fgm esta dada por:(

λ

λ− t

), si λ > 0 y |t| < λ.

Calcule MX (t)

Solucion.-

MX (t) = E(etX)

=

∫ ∞0

etxfX (x) dx =

∫ ∞0

etxλe−λxdx

= λ

∫ ∞0

e−(λ−t)xdx =λ

λ− t

∫ ∞0

(λ− t)e−(λ−t)xdx︸ ︷︷ ︸1

=

λ− t

), si |t| < λ,

87

entonces del teorema de Bochner la densidad de las dos v.a X y Y son lasmismas, es dedcir fX(x) = fY (x).

Ejemplo 93. Sea X ∼ B(n, p) Calcule MX (t)

Solucion.- Sea q = 1− p,

E(etX)

=n∑j=0

etj(n

j

)pj(1− p)n−j =

n∑j=0

(n

j

)etjpj(1− p)n−j

=(q + et)n.

Ahora verifiquemos que la suma de n v.a.i. Bernoulli de parametro p es unav.a. B(n, p). Tenemos que:

MXi(t) = E

(etX)

=1∑

x=0

etxP (Xi = x)

= 1P (Xi = 0) + etP (Xi = 1) = q + etp

donde: q = (1− p), por tanto si Z = X1 +X2 + · · ·+Xn, entonces

MZ (t) = M∑ni=1Xi

(t)indep=

n∏i=i

MXi(t)

=n∏i=1

(q + etp) = (q + etp)n,

y esta es la funcion generadora de momentos de una B(n, p), por tantoZ ∼ B(n, p).

Ejemplo 94. Sea X ∼ P (λ) i.e. una variable aleatoria Poisson de parame-tro λ. Calcule MX (t).

Solucion.-

MX (t) = E(etX)

=∞∑x=0

etxP (X = x) =n∑x=0

etxe−λλx

x!

= e−λ∞∑x=0

(etλ)x

x!= e−λee

tλ = eλ(et−1)

88 Funcion Generadora de Momentos

Sea X una variable aleatoria, Entonces se tiene que:

E (X) =∂

∂tMX (t)

∣∣∣∣t=0

Var (X) = E(X2)− E (X)2 =

∂2

∂tMX (t)

∣∣∣∣t=0

−(∂

∂tMX (t)

)2

Ejemplo 95. Sea X ∼ B(n, p). Calcule ∂∂tMX (t)

∣∣t=0

= E (X) .

Solucion.-

Del ejemplo (93)

MX (t) = (q + etp)n,

entonces

E (X) =∂

∂tMX (t)

∣∣∣∣t=0

= n(q + etp)n−1etp∣∣t=0

= n((1− p) + e0p

)n−1e0p = np.

Ejercicios:

i). Sea X ∼ B(n, p), utilizando MX (t) calcule Var (X).

ii). Sea X ∼ P (λ), utilizando MX (t) calcule E (X).

iii). Sea X ∼ exp(λ), utilizando MX (t) calcule Var (X).

7.1. Propiedad reproductiva de la Binomial

Teorema 7.2. Sean X1, . . . , Xm, variables aleatorias independientes talesque: Xi ∼ B(ni, p), entonces

m∑i=1

Xi = Z ∼ B

(n =

m∑i=1

ni, p

).

Prueba.-

7.2 Propiedad reproductiva de la Poisson 89

MXi(t) = (q + etp)ni

M n∑i=1

(t)indep=

n∏i=1

MXi(t)

=k∏i=1

(q + etp)ni = (q + etp)

k∑i=1

ni

= (q + etp)n,

esta es la funcion generadora de momentos de una B(n, p), con n =∑m

i ni.

Ejemplo 96. Mediante funciones generadoras de momentos justifique que siX1 ∼ B(n1 = 5, p = 0.2) y X2 ∼ B(n2 = 4, p = 0.2) entonces Z = X1 +X2

es de nuevo una binomial, diga con que parametros.

Solucion.-

Z =n∑i=1

Xi = X1 +X2

M k∑i=1

Xi

(t) = (q + etp)

k∑i=1

ni

2∑i=1

ni = 5 + 4

MZ (t) = ((1− 0.2) + et(0.2))9

⇒ Z ∼ B(n = 9, p = 0.2)

7.2. Propiedad reproductiva de la Poisson

Teorema 7.3. Sean X1, . . . , Xn variables aleatorias independientes talesque Xi ∼ P (λi), entonces

n∑i=1

Xi = Z ∼ P

(λ =

n∑i=1

λi

).

90 Funcion Generadora de Momentos

Prueba.-

MXi(t) =eλi(e

t−1);

MZ (t)indep=

n∏i=1

MXi(t) =

n∏i=1

eλi(et−1)

=eλ1(et−1)eλ2(et−1) . . . eλn(et−1) = eλ1(et−1)+λ2(et−1)+···+λn(et−1)

=e(∑ki=1 λi)(et−1),

y esta es la funcion generadora de momentos de una Poisson de parametro

λ =n∑i=1

λi, por tanto del Teorema de Bochner 7.1 es una Poisson con la suma

las λ’s.

Capıtulo 8

Distribuciones Normal yGama

8.1. La variable aleatoria Normal

Definicion 30. Una variable aleatoria X se dice que tiene una distribucionnormal si su funcion de densidad esta dada por:

fX (x) =

1√

2πσ2e

(x−µ)2

2σ2 ; µ ∈ R, x ∈ R, σ2 > 0

Primero verifiquemos que en efecto fX (x) es una funcion de densidad.∫∞−∞ fX (x) dx = 1, es decir

∫ ∞−∞

1√2πσ2

e(x−µ)2

2σ2 dx = 1.

Prueba.- Sea u = x−µσ , σdu = dx

∫ ∞−∞

1√2πσ2

e(x−µ)2

2σ2 =1√2π

∫ ∞−∞

e−u2

2 du,

ası que tenemos que verificar:∫ ∞−∞

e−u2

2 du =√

2π.

92 Distribuciones Normal y Gama

Sea c =∫∞−∞ e

−u2

2 du

c2 =

∫ ∞−∞

∫ ∞−∞

e−u2

2− y

2

2 dudy,

por cambio en coordenadas polares u = r cos θ, y = r sen θ, dudy = rdrdθ

∫ ∞−∞

∫ ∞−∞

e−u2

2− y

2

2 dudy =

∫ 2π

0

∫ ∞0

re−r2

2 drdθ =

∫ 2π

0dθ = 2π

∴ c =√

Ahora calculamos la funcion generadora de momentos de X.

MX (t) = E(etX)

=

∫ ∞−∞

etxfX (x) dx

=

∫ ∞−∞

etx1√

2πσ2e−

(x−µ)2

2σ2 dx Sea y = x− µ, dy = dx

= etµ∫ ∞−∞

ety−y2

2σ2

√2πσ2

dy

[ty − y2

2σ2= −(y − tσ2)2

2σ2+t2σ2

2

]

MX (t) = etµ+ t2σ2

2

∫ ∞−∞

e−(y−tσ2)2

2σ2

√2πσ2

dy Haciendo µ∗ = tσ2

= etµ+ t2σ2

2

Ahora calculamos E (X)

E (X) =∂

∂tMX (t)

∣∣∣∣t=0

=

(etµ+ t2σ2

2

)(µ+ tσ2)

∣∣∣∣t=0

= µ

Calculemos Var (X)

E(X2)

=∂2

∂tMX (t)

∣∣∣∣t=0

=

(etµ+ t2σ2

2

)(σ2) + (µ+ tσ2)2etµ+ t2σ2

2

= σ2 + µ2

∴ Var (X) = E(X2)− E2(X) = (µ2 + σ2)− µ2 = σ2

8.1 La variable aleatoria Normal 93

Notacion:

X ∼ N(µ, σ2) si

fX (x) =

1√

2πσ2e−

(x−µ)2

2σ2

Ejercicio:

Demuestre que si:

X1 ∼ N(µ1 = 5, σ21 = 0.5) y X2 ∼ N(µ2 = 1, σ2

2 = 2)

entonces,

X1 +X2 ∼ N(µ = 6, σ2 = 1.5)

Nota 8. Sea X ∼ N(µ, σ2)

Z =X − µσ

∼ N(0, 1)

Donde Z es una funcion normal estandar dado que µ = 0 y σ2 = 1.

MZ (t) = MX−µσ

(t) = MXσ −

µσ

(t)

= e−tµσ MX

(t

σ

)= e−

tµσ

(etµσ + e

(t/σ)2σ2

2

)= e

t2

2

Esta es la funcion generadora de momentos de una variable aleatoria normalestandar, por tanto Z ∼ N(0, 1).

La funcion de distribucion acumulativa de una variable aleatoria normal es:

FX (x) =

∫ x

−∞

e−(y−µ)2

2σ2

√2πσ2

dy

sin embargo, esto no puede calcularse directamente por lo que primero de-bemos estandarizar

94 Distribuciones Normal y Gama

FX (x) = P (X 6 x) = P

(X − µσ

6x− µσ

)

= P

(Z 6

x− µσ

)=

∫ x−µσ

−∞

e−u2

2

√2π

du

Ahora

Φ(x) =

∫ x

e−u2

2

√2π

du

Los valores de esta funcion de distribucion se encuentran tabulados en lastablas 1 y 2 del apendice de estas notas.

Ejemplo 97. Sea X ∼ N(0, 1)

i). Calcule P (X 6 −1.28)

ii). Calcule P (0.52 6 X 6 2.6)

iii). Encuentre x tal que, P (X 6 x) = 0.5239

iv). Encuentre x tal que, P (X > x) = 0.6406

Solucion.-

i).P (X 6 −1.28) = Φ(−1.28) = 0.1003

ii).

P (0.52 6 X 6 2.6) = P (X 6 2.6)− P (X 6 0.52)

= Φ(2.6)− Φ(0.52) = 0.9953− 0.6985

= 0.2968

0 0.52 2.6

P[ 0.52 ≤ ≤X 2.6 ]

8.1 La variable aleatoria Normal 95

iii). P (X 6 0.06) = 0.5239 ∴ x = 0.06

iv).

P (X > x) = 1− P (X < x) = 0.6406

⇒ P (X < x) = 1− 0.6406 = 0.3594

por tanto x = −0.36

Notacion: Si Z ∼ N(0, 1) es una variable aleatoria normal estandar, en-tonces zα es el valor de z tal que Φ(zα) = P (Z 6 zα) = α y se lee: el z dealfa.

Ejemplo 98. Sea X ∼ N(µ = 85, σ2 = 25)

i). Calcular P (X 6 81).

ii). Calcular P (50 6 X 6 90).

iii). Encontrar x tal que P (X 6 x) = 0.95.

Solucion.-

i).

P

(X − µσ

681− µ

5

)= P

(Z 6

81− 85

5

)= P

(Z 6 −4

5

)= P (Z 6 −0.8) = 0.2119

ii).

P (50 6 X 6 90) = P (X 6 90)− P (X 6 50)

= P

(X − µσ

690− 85

5

)− P

(X − µσ

650− 85

5

)= P (Z 6 1)− P (Z 6 −7)

= 0.8413− 0 = 0.8413

iii).

P (X 6 x) = P

(X − µσ

6x− µσ

)= P

(Z 6 z0.95 =

(x− µσ

))= 0.95

96 Distribuciones Normal y Gama

De las tablas se tiene que 1.64 < z0.95 < 1.65, entonces z0.95 ≈1.64+1.65

2 = 1.645 i.e. P (Z 6 1.645) = 0.95

z0.95 =

(x− µσ

)= 1.645 =

x− 85

5,

entonces

x = (1.645)(5) + 85 = 93.225.

Con R, qnorm(.95,mean=85, sd=5), nos da: 93.22427.

Formula: Si X ∼ N(µ, σ2) es una variable aleatoria normal, entonces paraencontrar x tal que P (X 6 x) = α se tiene que

x = (zα)σ + µ.

Ejemplo 99. Sea X ∼ N(0, 1) Calcular x tal que P (X > x) = 0.5

Solucion.-

P (X > x) = 1− P (X 6 x) = 0.5

⇒ P (X 6 x) = 1− 0.5 = 0.95

por tantox = (z0.95)σ + µ

x = (1.645)(1) + 0 = 1.645

Ejemplo 100. Para cualquier variable aleatoria normal X ∼ N(µ, σ2)

i). Calcular la probabilidad de que la distancia de X a su media sea a lomas una desviacion estandar. i.e. P (|X − µ| 6 σ) .

ii). Calcular P (|X − µ| 6 2σ).

Solucion.-

i).

P (|X − µ| 6 σ) = P (−σ 6 X − µ 6 σ)

= P

((σσ

)6X − µσ

6(σσ

))= P (−1 6 Z 6 1) = Φ(1)− Φ(−1) = 0.6826

8.2 La variable aleatoria Gama 97

0.6826

µµ−σ µ+σ

ii).

P (|X − µ| 6 2σ) = P (−2σ 6 X − µ 6 2σ)

= P

((2σ

σ

)6X − µσ

6

(2σ

σ

))= P (−2 6 Z 6 2) = Φ(2)− Φ(−2) = 0.95

0.95

µµ−2σ µ+2σ

8.2. La variable aleatoria Gama

Recordemos que si X es v.a. con densidad f y Y = X2, entonces

fY (y) =

1

2√y

(fX(√y) + fX(−√y)

), si y > 0,

0 en otro caso.

Ahora consideremos un caso particular X ∼ N(0, σ2), Y = X2:

fY (y) =

12√yσ√

(e−y/2σ

2+ e−y/2σ

2)

= y−1/2 exp(−y/(2σ2))√2πσ

=( 12σ2

)1/2y−1/2 exp(−y/(2σ2))√π

, si y > 0,

0 en otro caso.

98 Distribuciones Normal y Gama

Como fY es funcion de densidad,∫∞

0 fY (y)dy = 1, tomando σ2 = 1/2,

obtenemos que∫∞

0 y−1/2e−y =√π, veremos mas adelante que entonces

Γ(1/2) =√π.

8.3. La distribucion Gama

Consideremos la funcion

h(x) =

xα−1e−λx x > 0 α, λ > 0

0 en otro caso.

Sea c =∫∞

0 h(x)dx, g(x) = 1ch(x) es una funcion de densidad, haciendo

y = λx, dx = 1λdy obtenemos que:

c =1

λα

∫ ∞0

yα−1e−ydy.

Definicion 31. Sea α > 0, entonces se define la funcion Gama, como:

Γ(α) =

∫ ∞0

xα−1e−xdx.

Por tanto ∫ ∞0

xα−1e−λxdx =Γ(α)

λα= c.

La densidad Gamma de parametros α y λ se define como:

Γ(x, α, λ) =

xα−1e−λxλα

Γ(α) α, λ, x > 0

0 en otro caso

Nota 9. i). Si X ∼ exp(λ)

X ∼ Γ(α = 1, λ)

ya que Γ(1) =∫∞

0 e−xdx = 1

ii). Si X ∼ N(0, σ2)

X2 ∼ Γ(α =1

2, λ =

1

2σ2)

teniendo en cuenta que Γ(12) =

√π.

8.3 La distribucion Gama 99

Proposicion: Γ(α+ 1) = αΓ(α)

Prueba.-

Γ(α+ 1) =

∫ ∞0

xαe−xdx =

= −xαe−x∣∣∞0

+ α

∫ ∞0

xα−1e−xdx

= αΓ(α).

Ası Γ(n) = (n− 1)! ya que Γ(1) = 1

Ejercicio 10. Sea X ∼ Γ(α, λ), calcular E (X)

Solucion.-

E (X) =

∫ ∞0

xfX (x) dx =

∫ ∞0

xλαxα−1e−λx

Γ(α)dx

=λα

Γ(α)

∫ ∞0

xαe−λxdx

=

(λα

Γ(α)

)Γ(α+ 1)

λα+1

∫ ∞0

λα+1xαe−λx

Γ(α+ 1)dx

=Γ(α+ 1)

λΓ(α)=αΓ(α)

λΓ(α)=α

λ.

Ejercicio 11. Calcular E(X2)

y la Var (X).

Ejercicio 12. Calcular la fgm de la Gama.

Solucion.-

MX(t) = E(etX)

=

∫ ∞0

etxfX (x) dx =

∫ ∞0

etxλαxα−1e−λx

Γ(α)dx

=λα

Γ(α)

∫ ∞0

e−(λ−t)xxα−1dx =λα

(λ− t)α

∫ ∞0

e−(λ−t)xxα−1

Γ(α)dx

=

λ− t

)α.

Ejercicio 13. Sea X ∼ Γ(α = 4, λ = .5) . Calcule P (X ≤ 2).

100 Distribuciones Normal y Gama

Solucion.- Con R , tenemos que para X ∼ Γ(α, λ),P (X ≤ x) = pgamma(x,shape=α, rate= λ) ( en algunos textos utilizanen lugar de rate , scale= 1/rate), entonces para X ∼ Γ(α = 4, λ = 2),P (X ≤ 2) = pgamma(2, shape = 4, rate = 2),> [1] 0.5665299.

Ejercicio 14. Grafique varias densidades Gamma a partir del siguientescript:

## Varias graficas de la densidad Gama

x=0:10curve(dgamma(x, shape= 2, rate= 2), xlab = “x”, ylab = “f(x;a,lambda)”,0, 10, col = 3, lwd = 3, main = “Grafico distribucion Gamma”)# Para agregar otras curvas:curve(dgamma(x, shape=11, rate=2), xlab = “x”, ylab = “f(x;a,lambda)”,0, 10, col = 5, lwd = 3,add = TRUE)# Se agrega otra curvacurve(dgamma(x, shape=5, rate= 3), xlab = “x”, ylab = “f(x;a,lambda)”,0, 10, col = 7, lwd = 3, add = TRUE)# Para poner leyenda:legend(“topright”, c(“a=2,lambda=2”, “a=11,lambda=2”,“a =5,lambda=3”), col = c(3,5,7), lwd = 3, inset = 0.05)# Para poner una maya de color cian o azul primario:grid(col=“cyan”)

8.4. Propiedad reproductiva de la Gama

Teorema 8.1. Sean X1, . . . , Xn, variables aleatorias independientes talesque: Xi ∼ Γ(αi, λ), entonces

n∑i=1

Xi = Z ∼ Γ

(α =

n∑i=1

αi, λ

).

8.5 La distribucion Chi-cuadrada 101

Prueba.-

MXi(t) =

λ− t

)αi,

MZ(t)indep=

n∏i=1

MXi =∏(

λ

λ− t

)αi=

λ− t

)∑ni=1 αi

=

λ− t

)α, conα =

n∑i=1

αi.

Teorema 8.2. Sean X1, . . . , Xn, variables aleatorias independientes talesque: Xi ∼ exp(λ), entonces

n∑i=1

Xi = Z ∼ Γ(n, λ).

Prueba.- Cada Xi ∼ Γ(n, λ), por tanto del Teorema anterior se sigue elresultado.

8.5. La distribucion Chi-cuadrada

Definicion 32.

i). Sea X ∼ N(0, 1), entonces Y = X2 ∼ Γ(α = 1/2, λ = 1/2). Se diceque Y tiene distribucion χ2 con un grado de libertad y denotaremosY ∼ χ2

(1).

ii). Si Y1, Y2 . . . , Yn son v.a.i. tal que Yi ∼ χ2(1), entonces, si

Z =n∑i=1

Yi ∼ Γ(α =n

2, λ =

1

2),

se dice que Z tiene distribucion Chi- cuadrada con n grados de libertad.y se denota por χ2

(n).

Ejercicio 15. Sean X1, X2, . . . , Xn v.a.i. tales que Xi ∼ N(µi, σ2i ). Verifi-

que cual es la distibucion de

Y =

n∑i=1

(Xi − µi

σ

)∼ χ2

(n).

102 Distribuciones Normal y Gama

Ejercicio 16. Sean X ∼ χ2(m) y Y ∼ χ2

(n), pruebe que

W = X1 +X2 ∼ χ2(m+n).

Ejercicio 17. Sea X ∼ χ2(n). Calcule E (X) y Var (X).

Ejercicio 18. Sea X ∼ χ2(8), Con R calcule P (X ≤ 2) .

Solucion.- Con R, pchisq(2, df=8) ( df son los grados de libertad)> [1] 0.01898816.

8.5.1. Correcion para continuidad

Cuando se utiliza la aproximacion normal para la binomial habra que teneren cuenta que se hace una aproximacion de una discreta apartir de una v.a.continua, recordando que la binomial toma valores enteros con probabilidadpositiva, mientras que la v.a. normal X, cumple con que P (X = x) = 0 paratoda x ∈ R. Se puede ver graficamente que las siguientes correcciones paracontinuidad aproximan mejor. Sea X ∼ B(n, p),

i). P (X = k) w P (Z ≤ k + 1/2)− P (Z ≤ k − 1/2), conZ ∼ N(µ = np, σ2 = np(1− p))

ii). P (X ≤ k) w P (Z ≤ k + 1/2)− P (Z ≤ −1/2) conZ ∼ N(µ = np, σ2 = np(1− p))

Ejercicio 19. Sea X ∼ B(n = 10, p = .8).

i). Calcule P (X = 8) y tambien obtenga la aproximacion normal con R.

ii). Calcule P (X ≤ 7) y obtenga la aproximacion normal con R.

Solucion.-

i). P (X = 8) Con R= dbinom(8,prob=.8, size=10) = 0.3019899.La aproximacion w P (Z ≤ 8 + 1/2)− P (Z ≤ 8− 1/2). Con R,pnorm(8.5, mean= 8, sd= sqrt(10*.8*.2)) -pnorm(7.5, mean= 8, sd= sqrt(10*.8*.2)) = 0.3073672.

ii). P (X ≤ 7). Con R= pbinom(7, mean=8, sd=sqrt(10*.8*.2))= 0.3222005w P (Z ≤ 7 + 1/2)− P (Z ≤ −1/2). Con R,pnorm(7.5, mean= 8, sd= sqrt(10*.8*.2)) -pnorm(-.5, mean= 8, sd= sqrt(10*.8*.2)) = 0.3463164.

Apendice

φ(z) =

∫ z

−∞

1√2πe−

u2

2 du = P (Z 6 z)

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09

-3.0 0.0013 0.0010 0.0007 0.0005 0.0003 0.0002 0.0002 0.0001 0.0001 0.0000

-2.9 0.0019 0.0018 0.0017 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019-2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026-2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064-2.3 0.0107 0.0107 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084-2.2 0.0139 0.0136 0.0132 0.0129 0.0126 0.0122 0.0119 0.0116 0.0113 0.0110-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0238 0.0233-1.8 0.0359 0.0352 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0300 0.0294-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0570 0.0559-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0722 0.0708 0.0694 0.0681-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823-1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379

Tabla 1: Valores de la funcion distribucion normal estandar

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09

-0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611-0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867-0.7 0.2420 0.2389 0.2358 0.2327 0.2397 0.2266 0.2236 0.2206 0.2177 0.2148-0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483-0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859-0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247-0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.53590.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.57530.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.61410.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.65170.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.68790.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.72240.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.75490.7 0.7580 0.7611 0.7642 0.7673 0.7703 0.7734 0.7764 0.7794 0.7823 0.78520.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.81330.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.83891.0 0.8413 0.8438 0.8461 0.8485 0.8508 8.8531 0.8554 0.8577 0.8599 0.86211.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.88301.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.90151.3 0.9032 0.9049 0.9066 0.9082 0.9099 9.9115 0.9131 0.9147 0.9162 0.91771.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9278 0.9292 0.9306 0.93191.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9130 0.94411.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9552 0.9535 0.95451.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.96331.8 0.9641 0.9648 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9700 0.97061.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9762 0.97672.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.98172.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.98572.2 0.9861 0.9864 0.9868 0.9871 0.9874 0.9878 0.9881 0.9884 0.9887 0.98902.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.99162.4 0.9918 1.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.99362.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.99522.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.99642.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.99742.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.99812.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986

3.0 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000

Tabla 2: distribucion normal estandar (continuacion)

Indice alfabetico

Aproximacion de Poisson, 42Axiomas de la probabilidad, 3

Bayes (para v.a. continuas), 64

Condicionamiento, 17Construccion de la poisson, 43

Densidad de funciones de variablesaleatorias continuas, o cam-bio de variable, 56

Densidad conjunta, 61Densidad de probabilidad, 35Desigualdad de Chebychev, 80Distribucion

chi-cuadrada, 101Distribucion acumulativa, 49Distribucion conjunta, 62Distribucion Gama, 98Distribuciones

de sumas, 68gama, 97normal, 91

Espacio muestral, 1Esperanza matematica

bernoulli, 72binomial, 73binomial negativa, 75condicional, 82poisson, 73propiedades, 74uniforme, 76

variables continuas, 75variables discretas, 71

Eventosdefinicion, 2propiedades, 3

Formulade probabilidad total, 19de bayes, 19

Fenomeno aleatorio, 1Funcion

de distribucion acumulativa, 49generadora de momentos, 85de densidad de prob., 35marginal, 62

Gama-distribucion, 97

Independencia, 24Independencia en vectores, 63

Ley debil de los grandes numeros, 81

Muestreocon reemplazo, 10sin ordenamiento, 13sin reemplazo, 11

Normal-distribucion, 91

Principio del conteo, 9Probabilidad

axiomas, 3

106 INDICE ALFABETICO

condicional, 17definicion, 3propiedades, 4total, 19

Propiedad reproductivabinomial, 88de la poisson, 89Gama, 100

Repeticiones independientes, 27

Tecnicas de conteo, 9

Variable aleatoriabernoulli, 34binomial, 35, 37binomial negativa, 40continua, 50discreta, 33exponencial, 55geometrica, 38hipergeometrica, 40poisson, 41uniforme, 53

Varianzabernoulli, 78exponencial, 79propiedades, 77uniforme, 79

Vectores aleatorios, 61


Recommended