113
Cap´ ıtulo 7 Variables Aleatorias Bidimensionales En nuestro estudio hasta ahora, solo nos interesaba el an´alisis de una va- riable en un experimento dado. En estos casos indic´ abamos el resultado del experimento con un solo “n´ umero” x. Sin embargo en algunos experimentos aleatorios es posible observar varias caracter´ ısticas al mismo tiempo. Son ejemplo de la anterior: 1) Observaci´ on de varias propiedades de un material como (dureza y con- tenido). Aqu´ ı (d,c) es un resultado del experimento. 2) Observaci´ on de las facciones raciales (peso, estatura, color de los ojos y el pelo de una persona). En este caso (p,e,o,l) es un resultado del experimento. 3) Cantidad de lluvia total (u) y promedio (p) de temperaturas en octubre. (u,p) es un resultado del experimento. 4) Producci´ on y consumo. 5) Ventas y utilidades. 6) Gastos en publicidad, valor de la renta. 7) Rendimiento y deserci´ on escolar. 8) Salario, horas de trabajo. 1

vectores aleatorios

Embed Size (px)

DESCRIPTION

probabilidad

Citation preview

Page 1: vectores aleatorios

Capıtulo 7

Variables AleatoriasBidimensionales

En nuestro estudio hasta ahora, solo nos interesaba el analisis de una va-riable en un experimento dado. En estos casos indicabamos el resultado delexperimento con un solo “numero” x. Sin embargo en algunos experimentosaleatorios es posible observar varias caracterısticas al mismo tiempo.Son ejemplo de la anterior:

1) Observacion de varias propiedades de un material como (dureza y con-tenido). Aquı (d,c) es un resultado del experimento.

2) Observacion de las facciones raciales (peso, estatura, color de los ojosy el pelo de una persona). En este caso (p,e,o,l) es un resultado delexperimento.

3) Cantidad de lluvia total (u) y promedio (p) de temperaturas en octubre.(u,p) es un resultado del experimento.

4) Produccion y consumo.

5) Ventas y utilidades.

6) Gastos en publicidad, valor de la renta.

7) Rendimiento y desercion escolar.

8) Salario, horas de trabajo.

1

Page 2: vectores aleatorios

2 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Definicion 7.0.1. Sea (Ω,=, P ) un espacio de probabilidad. Definamos comovector aleatorio, variable multidimensional o variable aleatoria multivariadaa una funcion X de Ω en Rm que sea ξ-medible o sea, la funcion:

X(w) = (X1(w), X2(w), ..., Xm(w))

es tal que para todo i = 1, 2, ...,m y todo Ii ⊂ R, se tiene X−1(Ii) ∈ =

Observacion 7.0.1. Queda implicito que X1, X2, ..., Xp son v.a. en el mismoespacio de probabilidad (Ω,=, P ). Ası,

w : X1(w) ≤ x1, X2(w) ≤ x2, ..., Xm(w) ≤ xm =m⋂i=1

w : Xi(w) ≤ xi

tambien es un evento dado que es la interseccion de elementos de la σ-algebra=.

Definicion 7.0.2. Sea ε experimento y Ω espacio muestral asociado a ε.Sean X, Y variables aleatorias que asignan un numero real a cada ω ∈ Ω.Llamamos (X, Y ) una variable aleatoria bidimensional (v.a.b.) [o vector alea-torio bidimensional].

Graficamente.

Figura 7.1: vector aleatorio bivariado

Si notamos con h = (X, Y ) podemos decir que una v.a.b h no es mas queuna funcion

Page 3: vectores aleatorios

3

h :Ω −→ R2

ω −→ (X, Y )(ω) = (X(ω), Y (ω))

Si X1, X2, X3, ..., Xn son n familias aleatorias, cada una de las cuales asignaa cada ω ∈ Ω un unico numero real [X1 = X1(ω), ..., Xn = Xn(ω)], entoncesla n− upla (X1, X2, ..., Xn) es una variable aleatoria n− dimensional.

Observacion 7.0.2. Ası como en el caso unidimensional RX representa elrecorrido de X, RX×Y es el recorrido de (X, Y ) en el caso bidimensional.RX×Y sera entonces un subconjunto del plano euclidiano, pues cada uno delos resultados X(ω), Y (ω) se podra representar como un punto (X, Y ) delplano.

Definicion 7.0.3. El vector (X, Y ) es una variable aleatoria bidimensionaldiscreta (v.a.b.d.) si los posibles valores de (X, Y ) son finitas o infinitas nu-merables. Es decir los posibles valores de (X, Y ) se pueden representar como(xi, yi), i = 1, 2, ..., n, ... j = 1, 2, ...,m, ...

El vector (X, Y ) es una variable aleatoria bidimensional continua (v.a.b.c.)si pueden tomar todos los valores en un conjunto no-numerable del planoeuclidiano.

En el caso discreto los valores de (X, Y ), (xi, yi) se ubica en el plano eucli-diano tal como se muestra a continuacion.

En el caso caso continuo (X, Y ) puede tomar, por ejemplo, todos los valoresen el rectangulo. (X, Y )/a ≤ X ≤ b, c ≤ Y ≤ do todos los valores en el circulo (X, Y )/X2 + Y 2 ≤ 1.

Observacion 7.0.3.

a) El vector (X, Y ) es una v.a.b. si representa un resultado del experimen-to en el cual han medido las caracterısticas numericas X y Y .

Page 4: vectores aleatorios

4 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Figura 7.2: variable aleatoria bidimensional discreta

Figura 7.3: variable aleatoria bidimensional continua

Figura 7.4: variable aleatoria bidimensional continua

b) Como en el capitulo anterior, puede suceder que una de las componentesde (X, Y ) sea discreta mientras que la otra sea continua. Sin embargoen la mayorıa de los casos interesa que ambas variables sean discretaso ambas sean continuas.

c) Muchos veces, las dos variablesX y Y consideradas en conjunto, puedenser el resultado de un experimento [Ejemplo: Peso o Estatura de unapersona], pero no es necesario que esta conexion exista. Por ejemplo, Xpodrıa ser la corriente que circula por un circuito y Y la temperaturaambiente.

Page 5: vectores aleatorios

7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 5

7.1. Distribucion de Probabilidad de (X,Y)

Definicion 7.1.1.

a) Sea (X, Y ) una v.a.b.d. a cada resultado (xi, yj) asociamos un numero℘(xi, yj) que representa P [X = xi, Y = yj] el cual satisface las siguien-tes condiciones:

i. ℘(xi, yj) ≥ 0 para toda (xi, yj).

ii.∞∑j=1

∞∑i=1

℘(xi, yj) = 1.

La funcion ℘ definida para toda (xi, yj) ∈ RX×Y es llamada funcionde probabilidad de (X,Y). El conjunto de ternas (xi, yi, ℘(xi, yj))i = 1, 2, ..., n, ... j = 1, 2...,m, ... se denomina distribucion de pro-babilidad conjunta de (X,Y)

b) Sea (X, Y ) una v.a.b.c. que tomas todos sus valores en una region Bdel plano euclidiano. La funcion de densidad de probabilidad conjuntaf es una funcion que cumple las siguientes condiciones:

1. f(x, y) ≥ 0 para toda (x, y) ∈ B,

2.

∫∫B

f(x, y) dxdy = 1.

Observacion 7.1.1.

1) Consideremos una masa total unitaria distribuida en una region delplano. En el caso discreto toda la masa esta ubicada en un numerofinito o a lo mas infinito enumerable de puntos, con masa ℘(xi, yi) enel punto (xi, yi) para todo i, j.En el caso continuo la masa se encuentra ubicada en una region B delplano.

2) La condicion

∫∫B

f(x, y) dxdy = 1 significa que el volumen total bajo

la superficie z = f(x, y) es igual a 1.

Page 6: vectores aleatorios

6 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

3) ¡f(x, y) no representa la probabilidad de nada! Para ∆x y ∆y pequenosy positivos se encuentra que

f(x, y)∆x∆y ∼= P [x ≤ X ≤ x+ ∆x, y ≤ Y ≤ y + ∆y]

¡f(x, y) da la densidad conjunta de masa!

4) Se considera f(x, y) = 0 para (x, y) 6∈ B. Este hecho nos permiteconsiderar a f definida para todo (x, y) del plano de modo que∫∫

B

f(x, y) dxdy =

∫ ∞−∞

∫ ∞−∞

f(x, y)dxdy = 1.

5) La distribucion de probabilidad conjunta de (X, Y ) es inducida porsucesos asociados a Ω, el espacio muestral original. Sin embargo nosinteresaran siempre los (x, y) en RX×Y para ası obtener ℘(x, y).No obstante, si es posible especificar P (A) para todo A ⊆ Ω, se puededeterminar la probabilidad con sucesos asociados a RX×Y . Es decir siB ⊆ RX×Y se tiene:

P (B) = P [(X(ω), Y (ω)) ∈ B] = P [ω ∈ Ω/(X(ω), Y (ω)) ∈ B].

Esta ultima probabilidad se refiere a sucesos en Ω. Se puede considerarentonces que los sucesos B y ω ∈ Ω/(X(ω), Y (ω)) ∈ B son equiva-lentes.

Figura 7.5: Sucesos bivariados equivalentes

Page 7: vectores aleatorios

7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 7

En caso que (X, Y ) sea discreta, tenemos

P (B) =∑∑

B℘(xi, yi).

Si (X, Y ) es continua

P (B) =

∫∫B

f(x, y) dxdy.

Ejemplo 7.1.1. Considere el experimento consistido en tomar una monedade 50 pesos y una de 20 pesos. Son las dos variables: X : Numero de carasen la moneda de 50 y Y : Numero de caras en la de 20 pesos.Hallar: RX , RY , RXY y hacer la densidad de probabilidad de (X, Y ). Graficar!

Solucion:

Claramente RX = 0, 1 = RY y RXY = (0, 0), (0, 1), (1, 0), (1, 1)

Y |X 0 1

0 14

14

1 14

14

¿Como obtenemos ℘(1, 1)?

℘(1, 1) = P [X = 1, Y = 1] = Pω ∈ Ω/(X, Y )(ω) = (1, 1) = Pcc = 14, en

forma similar se procede en los otros casos.

La grafica de la distribucion de probabilidad es como sigue:

Ejemplo 7.1.2. Se lanza un par de dados corrientes. Sean X y Y las varia-bles definidas como sigue:X(a, b) = max(a, b) y Y (a, b) = a+ b.

Obtener la distribucion de probabilidad conjunta (X, Y ).

Page 8: vectores aleatorios

8 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Figura 7.6: Grafico Ejemplo v.a.b.d.

Solucion

Claramente RX = 1, 2, 3, 4, 5, 6 y RY = 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12

X|Y 2 3 4 5 6 7 8 9 10 11 12

1 136

0 0 0 0 0 0 0 0 0 0

2 0 236

136

0 0 0 0 0 0 0 0

3 0 0 236

236

136

0 0 0 0 0 0

4 0 0 0 236

236

236

136

0 0 0 0

5 0 0 0 0 236

236

236

236

136

0 0

6 0 0 0 0 0 236

236

236

236

236

136

¿Como obtenemos ℘(1, 2)?

En este caso debemos buscar el elemento de Ω, espacio muestral asociado aε, cuyo maximo sea 1 y cuya suma sea 2. Luego ℘(1, 2) = P(X = 1, Y =1) = P(1, 1) = 1

36

Veamos ahora otro caso:℘(1, 3) = P(X = 1, Y = 3) = PΦ = 0℘(3, 4) = P(X = 3, Y = 4) = P(1, 3), (3, 1) = 2

36

℘(3, 5) = P(X = 3, Y = 5) = P(2, 3), (3, 2) = 236

Page 9: vectores aleatorios

7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 9

Ejemplo 7.1.3. Dos variables X y Y tienen la siguiente distribucion deprobabilidad conjunta.

Y |X 1 2 3

1 112

16

0

2 0 14

15

3 118

14

215

Hallar.

a) ℘(2, 1); ℘(3, 2); ℘(3, 4)

b) Sea B = X > Y . Hallar P (B).

c) Calcular P [X + Y < 7]

Solucion:

a) ℘(2, 1) = P(X = 2, Y = 1) = 16,

℘(3, 2) = P(X = 3, Y = 2) = 15,

℘(3, 4) = P(X = 3, Y = 4) = 0.

b) P (B) = PX > Y =∑∑

X>Y ℘(x, y) = ℘(2, 1) + ℘(3, 1) + ℘(3, 2) =16

+ 0 + 15

= 1130.

c) Similar.

Ejemplo 7.1.4. Suponga que un grupo de 10 personas se encuentran clasifi-cados en las clases A, B, C y D de tal forma que el numero de personas porclases es:

A −→ 3 individuosB −→ 3 individuosC −→ 2 individuosD −→ 2 individuos.

Se selecciona al azar un grupo de 3 personas. Sean, las v.a.

Page 10: vectores aleatorios

10 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

X # de personas de la clase AY # de personas de la clase B.

Encuentre la funcion de distribucion del vector (X, Y ).Solucion:Existen

(103

)= 120 formas distintas de seleccionar el grupo de 3 personas.

Sea n(i, j) =(

3i

)(3j

)(4

3−i−j

), para i, j = 0, 1, 2, 3; i + j ≤ 3, el numero de

formas de seleccionar 3 individuos, siendo i de la clase A y j de la clase B.Entonces, la funcion de distribucion conjunta discreta es:

P (X = i, Y = j) =n(i, j)

120=

(3i

)(3j

)(4

3−i−j

)120

.

Luego,

P (X = 0, Y = 0) =

(30

)(30

)(4

3−0−0

)120

=4

120,

P (X = 1, Y = 0) =

(31

)(30

)(4

3−1−0

)120

=18

120,

P (X = 2, Y = 0) =

(32

)(30

)(4

3−2−0

)120

=12

120,

P (X = 3, Y = 0) =

(33

)(30

)(4

3−3−0

)120

=1

120,

P (X = 0, Y = 1) =

(30

)(31

)(4

3−0−1

)120

=18

120,

P (X = 1, Y = 1) =

(31

)(31

)(4

3−1−1

)120

=36

120,

P (X = 2, Y = 1) =

(32

)(31

)(4

3−2−1

)120

=9

120,

P (X = 3, Y = 1) =

(33

)(31

)(4

3−3−1

)120

=0

120= 0,

P (X = 0, Y = 2) =

(30

)(32

)(4

3−0−2

)120

=12

120,

Page 11: vectores aleatorios

7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 11

P (X = 1, Y = 2) =

(31

)(32

)(4

3−1−2

)120

=9

120,

P (X = 2, Y = 2) =

(32

)(32

)(4

3−2−2

)120

=0

120= 0,

P (X = 3, Y = 2) =

(33

)(32

)(4

3−3−2

)120

=0

120= 0,

P (X = 0, Y = 3) =

(30

)(33

)(4

3−0−3

)120

=9

120,

P (X = 1, Y = 3) =

(31

)(33

)(4

3−1−3

)120

=0

120= 0,

P (X = 2, Y = 3) =

(32

)(33

)(4

3−2−3

)120

=0

120= 0,

P (X = 3, Y = 3) =

(33

)(33

)(4

3−3−3

)120

=0

120= 0.

Entonces,

Y |X 0 1 2 3 Y = y0 4/120 18/120 12/120 1/120 35/1201 18/120 36/120 4/120 0 63/1202 12/120 4/120 0 0 21/1203 1/120 0 0 0 1/120

X = x 35/120 63/120 21/120 1/120 1.0

Ası,

P (0 ≤ X ≤ 1, Y = 1) =1∑

x=0

P (X = x, Y = 1)

= P (X = 0, Y = 1) + P (X = 1, Y = 1)

=18

120+

36

120=

54

120.

Page 12: vectores aleatorios

12 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

P (Y ≤ 1) =3∑

x=0

P (X = x, Y ≤ 1)

= P (X = 0, Y ≤ 1) + P (X = 1, Y ≤ 1) + P (X = 2, Y ≤ 1)

+ P (X = 3, Y ≤ 1)

= P (X = 0, Y = 0) + P (X = 0, Y = 1) + P (X = 1, Y = 0)

+ P (X = 1, Y = 1) + P (X = 2, Y = 0) + P (X = 2, Y = 1)

+ P (X = 3, Y = 0) + P (X = 3, Y = 1)

=98

120.

Ejemplo 7.1.5. Sea (X, Y ) un v.a.b.c. con la siguiente fdp conjunta

f(x, y) =

k si 5000 ≤ x ≤ 10000, 4000 ≤ y < 90000 caso contrario.

a) Hallar el valor de k que hace que f sea una buena fdp conjunta.

b) Sea B = X ≥ Y . Hallar P (B).

Solucion:

a) En este caso usaremos el hecho

∫ ∞−∞

∫ ∞−∞

f(x, y) dxdy = 1. Luego,

∫ ∞−∞

∫ ∞−∞

f(x, y) dxdy =

∫ 9000

4000

∫ 10000

5000

f(x, y) dxdy = 1

⇒∫ 9000

4000

5000k dy = 1

⇒ (5000)2k = 1

⇒ k =1

50002.

Page 13: vectores aleatorios

7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 13

b)

P (B) = P [X ≥ Y ] = 1− P [X ≤ Y ]

= 1−∫ 9000

5000

∫ y

5000

(5000)−2 dxdy

=17

25.

Figura 7.7: Grafico ejemplo 1 v.a.b.c.

Ejemplo 7.1.6. Sea (X, Y ) la v.a.b.c. con fdp conjunta dada por:

fXY (x, y) =

x2 + xy

3si 0 ≤ x ≤ 1, 0 ≤ y < 2

0 caso contrario

a) Verificar que

∫ ∞−∞

∫ ∞−∞

f(x, y) dxdy = 1

b) Sea B = X + Y ≤ 1. Hallar P (B).

Solucion:

Page 14: vectores aleatorios

14 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

a)

∫ ∞−∞

∫ ∞−∞

f(x, y) dxdy =

∫ 2

0

∫ 1

0

(x2 +xy

3) dxdy

=

∫ 2

0

[x3

3+x2y

6

]∣∣∣∣10

dy

=

∫ 2

0

(1

3+y

6

)dy

=y

3+y2

12

∣∣∣∣20

=2

3+

4

12= 1.

b)

P (B) = P [X + Y ≤ 1] = 1− P [X + Y ≥ 1]

= 1−∫ 1

0

∫ 1−x

0

(x2 +

xy

3

)dydx

= 1− 7

72=

65

72.

Figura 7.8: Grafico Ejemplo 2 v.a.b.c.

Page 15: vectores aleatorios

7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )15

7.2. Funcion de Distribucion Acumulativa de

la v.a.b. (X, Y )

Definicion 7.2.1. Sea (X, Y ) una variable aleatoria bidimensional. La fun-cion de distribucion acumulativa (f.d.a.) de F de la variable aleatoria bidi-mensional (X, Y ) viene dada por:

F (X, Y ) = P [X ≤ x, Y ≤ y] −∞ < x <∞, −∞ < y <∞.

En el caso bidimensional la “masa” total de probabilidad esta distribuida enel plano X − Y de modo que F (x, y) nos da la cantidad de masa que hay en(x, y) y en todos los puntos que tienen abscisas inferior o igual a x, a la vez,ordenada inferior o igual a y

Figura 7.9: fda de la v.a.b. (X, Y ).

El siguiente teorema que demostraremos, veremos las propiedades mas im-portantes de la f.d.a. de una variable aleatoria bidimensional (X, Y )

Teorema 7.2.1. Sea (X, Y ) una variable aleatoria bidimensional con f.d.aF (x, y), x ∈ R, y ∈ R entonces.

1. F (−∞, y) = P [X ≤ −∞, Y ≤ y] = 0, ∀y ∈ R

2. F (x,−∞) = P [X ≤ x, Y ≤ −∞] = 0, ∀x ∈ R

3. F (∞,∞) = P [X ≤ ∞, Y ≤ ∞] = 1

4. F (x, y) es no decreciente en las dos variables, esto es

Page 16: vectores aleatorios

16 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

i) ∀y ∈ R Si x1 < x2, entonces F (x1, y) ≤ F (x2, y)

ii) ∀x ∈ R Si y1 ≤ y2, entonces F (x, y1) ≤ F (x, y2)

Teorema 7.2.2. Si x1 < x2 y y1 < y2, entonces P [x1 < X < x2, y1 < Y <y2] = F (x2, y2)− F (x1, y2)− F (x2, y1) + F (x1, y1)

Demostracion. Graficamente se tiene:

F (x2, y2)− F (x2, y1) + F (x1, y1)− F (x1, y2) = P (X ≤ x2, Y ≤ y2)−P (X ≤ x2, Y ≤ y1) + P (X ≤ x1, Y ≤ y1)− P (X ≤ x1, Y ≤ y2)

= P (X ≤ x2, y1 ≤ Y ≤ y2)−P (X ≤ x1, y1 ≤ Y ≤ y2)

= P (x1 ≤ X ≤ x2, y1 ≤ Y ≤ y2).

Observacion 7.2.1. Sea F la fda de (X, Y ). Entonces, siempre se cumpleque cualquieras x1 < x2 y y1 < y2,

F (x2, y2)− F (x2, y1) + F (x1, y1)− F (x1, y2) ≥ 0.

Observacion 7.2.2. 1) Por definicion sabemos que

F (x, y) = P [X ≤ x, Y ≤ y]

a) En el caso discreto tenemos F (x, y) =∑xi≤X

∑yj≤Y

℘(xi, yj)

Page 17: vectores aleatorios

7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )17

b) En el caso continuo tenemos F (x, y) =

∫ x

−∞

∫ y

−∞f(x∗, y∗) dy∗dx∗

por lo tanto a un rectangulo: a1 < X ≤ b1, a2 < Y ≤ b2 lecorresponde la probabilidad

P [a1 < X ≤ b1, a2 < Y ≤ b2] =

∫ b1

a1

∫ b2

a2

f(x, y) dydx

=

∫ b2

a2

∫ b1

a1

f(x, y) dxdy.

2) Una v.a.b. es continua (absolutamente) si F (x, y) es continua, ∂F∂x

, ∂F∂y

existe y son continuas, ademas ∂2F∂x∂y

existe para todo x, y ∈ R.

Ahora consideremos un punto (x, y) situado en el plano tal como seilustra en la siguiente figura,

Sea M la masa total de probabilidad que hay en el rectangulo senalado

M = F (x+ ∆x, y + ∆y)− F (x, y + ∆y)− F (x+ ∆x, y) + F (x, y)

= F (x+ ∆x, y + ∆y)− F (x+ ∆x, y) − F (x, y + ∆y)− F (x, y)

Definamos la funcion:

R(x, y) = F (x, y + ∆y)− F (x, y),

entonces

R(x+ ∆x, y) = F (x+ ∆x, y + ∆y)− F (x+ ∆x+ y)

y ası,

Page 18: vectores aleatorios

18 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

M = R(x+ ∆x, y)−R(x, y) =

[∂R(x, y)

∂x

]u

∆x

para x < u < x+ ∆x (Teorema del valor medio).Pero

∂R(x, y)

∂x=

∂x[F (x, y + ∆y)− F (x, y)],

entonces,

M =

∂x[F (x, y + ∆y)− F (x, y)]

u

∆x.

Similarmente tenemos:

M =

[∂2F (x, y)

∂x∂y

](u,v)

δxδy para y < v < y + ∆y;x < u < x+ ∆x.

El area del rectangulo senalado es ∆x∆y, entonces

D =

[∂2F (x, y)

∂x∂y

](u,v)

es la densidad media usada de probabilidad en el rectangulo, entonces

lım∆x−→0∆y−→0

D es la densidad instantanea en el punto (x, y) y

lım∆x−→0∆y−→0

D =∂2F (x, y)

∂x∂y

Esta densidad la reescribimos

f(x, y) =∂2F (x, y)

∂x∂y

y corresponde exactamente a la funcion de densidad de probabilidad conjuntade la v.a.b. (X, Y ). Note que F (x, y) es no decreciente con las dos variablesentonces f(x, y) ≥ 0 ∀x, y ∈ R.

Ejemplo 7.2.1. Refiriendonos al Ejemplo 7.2.3. Hallar F (x, y).

Solucion: Tenemos,

Page 19: vectores aleatorios

7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )19

Y |X 0 1

0 14

14

1 14

14

La f.d.a. FXY (x, y) viene dada por:

Y |X X < 0 0 ≤ X < 1 1 ≤ X

Y < 0 0 0 0

0 ≤ Y < 1 0 14

12

1 ≤ Y 0 12

1

Con la solucion al cuadro anterior calculemos: F (0, 0,1), F (0, 1,8), F (−1, 1)y F (1,8, 2,6)Entonces, se tiene que:F (0, 0,1) = P [X ≤ 0, Y ≤ 0,1] = ℘(0, 0) = 1

4,

F (0, 1,8) = P [X ≤ 0, Y ≤ 1,8] = ℘(0, 0) + ℘(0, 1) = 14

+ 14

= 12,

F (−1, 2) = P [X ≤ −1, Y ≤ 2] = 0,F (1,8, 2,6) = P [X ≤ 1,8, Y ≤ 2,6] = ℘(0, 0) + ℘(0, 1) + ℘(1, 0) + ℘(1, 1) = 1.

Ejemplo 7.2.2. Sea (X, Y ) una v.a.b.c. con fdp conjunta dada por:

f(x, y) =

4xy si 0 < x < 1, 0 < y < 10 caso contrario.

Hallar F (x, y).

Solucion:

FXY (x, y) = P [X ≤ x, Y ≤ y] =

∫ y

−∞

∫ x

−∞f(x∗, y∗) dx∗dy∗

=

∫ y

0

∫ x

0

4x∗y∗ dx∗dy∗

= 4

∫ y

0

y∗ dy∗∫ x

0

x∗dx∗

=4y∗2

2

∣∣∣∣y0

x∗2

2

∣∣∣∣x0

= y2x2 si 0 < x < 1, 0 < y < 1

Page 20: vectores aleatorios

20 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Observacion 7.2.3.

∫ b

a

∫ d

c

h(x)g(y) dxdy =

∫ b

a

g(y) dy

∫ d

c

h(x) dx siempre

que h(x) no dependa de y, g(y) no dependa de x, a, b no dependan de x yc, d no dependan de y.

Ejemplo 7.2.3. La fda de una variable v.a.b.c. (X, Y ) viene dada por

FXY (x, y) =

1− 3−x − 3−y + 3−x−y x ≥ 0, y ≥ 00 en otro caso

Hallar fXY (x, y).

Solucion:Usando el hecho que f(x, y) = ∂2F (x,y)

∂x∂y.

En efecto:

∂FXY (x, y)

∂x= ln 3(3−x − 3−x−y)⇒ ∂2FXY (x, y)

∂x∂y= ln2 3(3−x−y).

Ejemplo 7.2.4. Sabiendo la que la F (x, y) de una v.a.b.c. viene dada por:

F (x, y) =

senxseny para 0 ≤ x ≤ π

2∧ 0 ≤ y ≤ π

2

0 para x < 0 o y < 0

Hallar la probabilidad de que el punto aleatorio (x, y) caiga en el rectangulolimitado por las rectas X = 0, X = π

4, Y = π

6y Y = π

3.

Solucion:Usando la expresion

P [x1 ≤ X ≤ x2, y1 ≤ Y ≤ y2] = F (x2, y1)− F (x1, y2)− F (x2, y1) + F (x1, y1)

tomando x1 = 0, x2 = π4, y1 = π

6y y2 = π

3, se obtiene:

P [x1 ≤ X ≤ x2, y1 ≤ Y ≤ y2] = senπ

4sen

π

6− sen0sen

π

3− senπ

4sen

π

6+ sen0sen

π

6

=

√3−√

2

4.

Page 21: vectores aleatorios

7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )21

7.2.1. Funcion de Distribucion Conjunta de un vectoraleatorio

La funcion de distribucion conjunta del vector aleatorio X es definida por:

F (X) = F (X1, X2, ..., Xm) = P (X1 ≤ x1, X2 ≤ x2, ..., Xm ≤ xm)

para cualquier X = (X1, X2, ..., Xm) ∈ Rm

Ejemplo 7.2.5. En un centro de atencion X1 representa el tiempo de espe-ra(minutos) para que un cliente inicie su atencion y X2 es el tiempo que larecepcionista gasta en atenderlo.El comportamiento conjunto de las dos variables esta dado por la funcion dedistribucion:

FXY (x1, x2) =

0 x1 ≤ 0 o x2 ≤ 01− e−x1 − e−2x2 − e−(x1+2x2) x1 ≥ 0 , x2 ≥ 0

La anterior funcion de distribucion sirve para evaluar la calidad del serviciode la atencion teniendo en cuenta las probabilidades del tiempo de demora yde atendimiento.

Propiedades 7.2.1. Sea X un vector aleatorio en (Ω,=, P ), entonces paracualquier X ∈ RP , F (X) cumple las siguientes propiedades:

1. F (X) es no decreciente en cada uno de sus componentes.

2. Si para algun j, Xj −→ −∞, entonces F (X) −→ 0 y si para todo j,Xj −→∞, entonces F (X) −→ 1.

3. F (X) es tal que para cualesquiera (ai, bi) tal que ai < bi, 1 ≤ i ≤ n,

P (a1 ≤ X1 ≤ b1, a2 ≤ X2 ≤ b2, ..., an ≤ Xn ≤ bn) ≥ 0.

4. F (X) es continua a derecha en cada uno de sus componentes.

Page 22: vectores aleatorios

22 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Demostracion. 1. Considere j fijo y aj ≤ bj. Entonces,

m⋂i=1j 6=i

ω : Xj(ω) ≤ xj∩ω : Xj(ω) ≤ aj ⊆m⋂i=1j 6=i

ω : Xi(ω) ≤ xi∩ω : Xj(ω) ≤ bj

de donde se sigue que:

F (X1, ..., aj, ..., Xm) = P (X1 ≤ x1, X2 ≤ x2, ..., Xj ≤ aj, ..., Xm ≤ xm)

≤ P (X1 ≤ x1, X2 ≤ x2, ..., Xj ≤ bj, ..., Xm ≤ xm)

= F (X1, X2, ..., Xj, ..., Xm)

2. i) Sea xj → −∞⇒ ω : Xj(ω) ≤ xj −→ ∅. Entonces,m⋂j=1

ω : Xj(ω) ≤ xj −→ ∅ de donde se sigue que F (X) −→ 0.

ii) la demostracion es similar al caso univariado.

ii) Sea xj →∞ :⇒ ω : Xj(ω) ≤ xj −→ Ω. Entonces,m⋂j=1

ω : Xj(ω) ≤ xj −→ Ω y ası, F (X) −→ 1.

a) Es obvia por la definicion de probabilidad, dado que

ω : ai ≤ X(ω) ≤ bi ∈ F para cada i = 1, 2, 3, ...,m

y por tanto⋂mi=1ω : ai ≤ Xi(ω) ≤ bi ∈ F .

b) La demostracion es analoga al caso univariado.

7.3. Funcion de Distribucion Marginal

Dada una v.a.b. (X, Y ) podemos estar interesados en la variable aleatoriaunidimensional X o Y , es decir podemos estar interesados en la distribucionde probabilidad de X o en la distribucion de probabilidad de Y .Consideremos la siguiente funcion de probabilidad conjunta de (X, Y ).

Page 23: vectores aleatorios

7.3. FUNCION DE DISTRIBUCION MARGINAL 23

Y |X 1 2 3∑

1 112

16

0 312

2 0 19

15

1445

3 118

14

215

79180∑

536

1936

13

1

En la tabla anterior calculamos los “totales marginales”. Las probabilidadesque aparecen en los margenes de las filas y columnas representan la distribu-cion de probabilidad de X y Y respectivamente. Por ejemplo P [X = 2] = 19

86,

P [Y = 1] = 312, etc.

Debido a la forma de la tabla nos referimos a estas como distribucion mar-ginal de X o distribucion marginal de Y .

En el caso discreto tenemos: X = xi ⇔ [X = xi∧Y = y1]o[X = xi∧Y =y2] o · · · Entonces,

P [X = xi] = P [X = xi, Y = y1] + P [X = xi, Y = y2] + · · ·

=∞∑j=1

℘(xi, yj)

entonces ℘ =∞∑j=1

℘(xi, yj)

Si definimos la funcion ℘ para x1, x2, ..., tenemos entonces la distribucionmarginal de probabilidad de X.

Esta distribucion marginal de X se puede representar de la siguiente manera:

X x1 x2 · · · xk

℘(X) ℘(x1) ℘(x2) · · · ℘(xk)

Page 24: vectores aleatorios

24 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

En forma similar se tiene: Y = yj ⇔ [X = x1∧Y = yj]o[X = x2∧Y = yi] o ...Entonces,

P [Y = yj] = P [X = x1, Y = yj] + P [X = x2, Y = yj] + · · ·

=∞∑i=1

℘(xi, yj)

entonces q =∞∑i=1

℘(xi, yj)

Si definimos la funcion q para y1, y2, ..., tenemos entonces la distribucion mar-ginal de probabilidad de Y , la cual se representa de la siguiente forma:

Y y1 y2 · · · yk

q(y) q(y1) q(y2) · · · q(yk)

Tambien podemos definir la funcion de distribucion marginal de X, querepresentamos F1(x) y definiremos como sigue.

F1(x) = P [X ≤ x] = F (x,∞), x ∈ R.

Similarmente, la funcion de distribucion marginal de Y, que represen-tamos F2(y) la definiremos como sigue.

F2(y) = P [Y ≤ y] = F (∞, y), y ∈ R.

Graficamente, se tiene:En el caso continuo procedemos ası: Sea f(x, y) la funcion de densidad

de probabilidad conjunta de la v.a.b.c. (X, Y ).Definimos g y h las funciones de densidad de probabilidad marginales de Xy Y como sigue.

fdp marginal de X,

g(x) =

∫ ∞−∞

f(x, y) dy.

Page 25: vectores aleatorios

7.3. FUNCION DE DISTRIBUCION MARGINAL 25

Figura 7.10: Funcion de distribucion marginal de X.

Figura 7.11: Funcion de distribucion marginal de Y.

fdp marginal de Y ,

h(y) =

∫ ∞−∞

f(x, y) dx.

Tales fdp marginales corresponden a las fdp basicas de las variables aleatoriasunidimensionales X ∧ Y . En efecto:

P [c ≤ X ≤ d] = P [c ≤ X ≤ d, −∞ < Y <∞]

=

∫ d

c

∫ ∞−∞

f(x, y) dydx

=

∫ d

c

g(x) dx.

Page 26: vectores aleatorios

26 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

P [a ≤ Y ≤ b] = P [−∞ < X <∞, a ≤ Y ≤ b]

=

∫ ∞−∞

∫ b

a

f(x, y) dydx

=

∫ b

a

∫ ∞−∞

f(x, y) dxdy

=

∫ b

a

h(y) dy.

Ejemplo 7.3.1. Sea (X, Y ) una v.a.b. discreta cuya fdp conjunta esta dadapor la tabla

Y |X 1 2 3∑

j

1 112

16

0 312

2 0 19

15

1445

3 118

14

215

79180∑

i536

1936

13

1

Interpretacion:℘(x2, y3) = P [X = x2, Y = y3] = P [X = 2, Y = 3] = 1

4

Facilmente se puede comprobar (en la tabla) que∑i

∑j

℘(xi, yj) = 1.

La grafica de la distribucion de probabilidad es la siguiente:La probabilidad esta distribuida en los 9 puntos del grafico, fuera de ellos nohay probabilidad.Algunos valores de la funcion de distribucion son:

F (2,1, 2,8) = P [X ≤ 2,1, Y ≤ 2,8]

= ℘(1, 1) + ℘(1, 2) + ℘(2, 1) + ℘(2, 2)

=1

12+ 0 +

1

6+

1

9=

13

36F (0, 3) = P [X ≤ 0, Y ≤ 3] = 0.

Encontremos las distribuciones marginales:Para X:

Page 27: vectores aleatorios

7.3. FUNCION DE DISTRIBUCION MARGINAL 27

Figura 7.12: Funcion marginal v.a.b.d.

℘(x1) = P [X = 1] =∑j

℘(1, yj) = ℘(1, 1) + ℘(1, 2) + ℘(1, 3) =5

36

℘(x2) = P [X = 2] =1

6+

1

9+

1

4=

19

36

℘(x3) = P [X = 3] =1

3

Luego la distribucion marginal de X sera

x 1 2 3℘(x) 5

361936

13

Podemos interpretar la distribucion de X ası: las probabilidades que hay enlos puntos de abscisas X = 1, las proyectamos al eje x sobre el punto (1, 0),lo mismo hacemos para los puntos (2, 0), (3, 0); lo que se obtiene ası es ladistribucion de la probabilidad total sobre el eje X.

La distribucion marginal de Y sera

y 1 2 3q(y) 3

121445

79180

Algunos valores de las funciones de las distribuciones son:F1(2,6) = P [X ≤ 2,6] = ℘(1) + ℘(2) = 5

361936

= 2436,

Page 28: vectores aleatorios

28 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

F1(0) = 0,F1(6) = P [X ≤ 6] = ℘(1) + ℘(2) + ℘(3) = 1,F2(2,84) = P [Y ≤ 2,84] = q(1) + q(2) = 3

12+ 14

45,

F2(−20) = 0,F2(31) = 1.

Ejemplo 7.3.2. Suponga que (X, Y ) es una v.a.b.c. con fdp conjunta dadapor:

f(x, y) =

2(x+ y − 2xy) si 0 ≤ x ≤ 1,0 ≤ y ≤ 10 En otra parte

Hallar las fdp marginales.

Solucion: fdp marginal de X

g(x) =

∫ 1

0

2(x+ y − 2xy) dy

= 2(xy +y2

2− xy2)

∣∣∣∣10

= 1 para 0 ≤ x ≤ 1.

Claramente se puede ver que X es una v.a.c. distribuida uniformemente en[0, 1).

f.d.p marginal de Y

h(y) =

∫ 1

0

2(x+ y − 2xy) dx

= 2(x2

2+ xy − x2y)

∣∣∣∣10

= 1 para 0 ≤ y ≤ 1.

Tambien Y es una v.a.c. distribuida uniformemente en [0, 1).

Ejemplo 7.3.3. suponga que la v.a.b.c. (X, Y ) tiene fdp conjunta

f(x, y) =

kx(x− y) para 0 < x < 2, −x < y < x0 en otra parte

Page 29: vectores aleatorios

7.3. FUNCION DE DISTRIBUCION MARGINAL 29

a) Hallar k.

b) Hallar g(x).

c) Hallar h(y).

Solucion: Es importante notar en este ejemplo que los valores que toma ydependen de lo que vaya asumiendo x. Especıficamente la region objeto deestudio es:

B = (x, y)/0 < x < 2 ,∧, − x < y < x,

la cual es descrita en la figura anexa.

Figura 7.13: Funcion marginal v.a.b.c.

a) Utilizaremos el hecho

∫ ∞−∞

∫ ∞−∞

f(x, y) dydx = 1.

En este caso:

∫ ∞−∞

∫ ∞−∞

f(x, y) dydx =

∫ 2

0

∫ x

−xkx(x − y) dydx. Calcu-

laremos k a partir de k

∫ 2

0

∫ x

−x(x2 − xy) dydx = 1. Esto implica que

k = 18.

b) fdp marginal de X.

Se debe emplear g(x) =

∫ ∞−∞

f(x, y) dy.

Page 30: vectores aleatorios

30 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

En nuestro caso:

∫ ∞−∞

f(x, y) dy =

∫ x

−x

1

8(x2 − xy) dy. Luego,

g(x) =1

8

∫ x

−x(x2 − xy) dy =

1

8

[x2y − xy2

2

]x−x

=1

8

[(x2x− x3

2

)−(x2(−x)− x(−x)2

2

)]=

1

8(2x3)

=x3

4; 0 < x < 2.

c) fdp marginal de Y .

Se usa h(y) =

∫ ∞−∞

f(x, y) dx. Como 0 < x < 2 y −x < y < x, entonces

0 > −x > −2 por lo tanto se debe tomar en cuenta que −2 < −x <y < x < 2. Entonces, existen por lo tanto dos probabilidades:

i) 0 ≤ y < 2 y y < x < 2, entonces

h(y) = 18

∫ 2

y

(x2 − xy) dx =1

3− y

4+y3

48si 0 ≤ y < 2.

ii) −2 < y ≤ 0 y −2 < −x < y, entonces

h(y) = 18

∫ 2

−y(x2 − xy) dx =

1

3− y

4+

5y3

48si −2 < y ≤ 0.

Extendemos ahora la definicion de distribucion marginal a un vector aleatoriom-dimensional.

Definicion 7.3.1. Sea X = (X1, X2, · · · , Xk, · · · , Xm) un v.a. m-dimensionalcon funcion de distribucion F (x) y fdp conjunta f(x), donde x = (x1, x2, · · · , xk, · · · , xm)Entonces, se define la funcion de densidad marginal por:

fXk(xk) =

∫x1

· · ·i 6=k

∫xm

f(x)m∏i=1i 6=k

dxi. (7.1)

La funcion de distribucion viene dada por la expresion:

FXk(xk) = lımx1→∞

· · ·i 6=k lım

xm→∞F (x). (7.2)

Page 31: vectores aleatorios

7.4. DISTRIBUCION CONDICIONAL 31

Ejemplo 7.3.4. Sea

FXY (x, y) =

0 si x < 0 o y < 0x5(1− e−y) si 0 < x < 5 ; y ≥ 0

1− e−y si x ≥ 5 ; y ≥ 0

la funcion de distribucion del v.a.b. (X, Y ). Entonces,

fXY (x, y) =∂2FXY (x, y)

∂x∂y=

15e−y si 0 ≤ x < 5 ; y ≥ 0

0 caso contrario.

Las fdp marginales son:

1.

fX(x) =

∫ ∞0

1

5e−ydy =

1

5, si 0 ≤ x < 5.

2.

fY (y) =

∫ 5

0

1

5e−ydx = e−y, si y ≥ 0.

Asimismo, las fda marginales vienen dadas por:

FX(x) = lımy→∞

FXY (x, y) =

0 si x < 0x5

si 0 ≤ x < 51 si x ≥ 5.

y

FY (y) = lımx→∞

FXY (x, y) =

0 si y < 01− e−y si y ≥ 0.

7.4. Distribucion Condicional

Definicion 7.4.1. 1. Sea (X, Y ) una v.a.b. discreta con funcion de pro-babilidad ℘(x, y). Sea g(yj) la funcion de probabiidad marginal de lav.a.d. Y, si para Y = yj, g(yj) > 0; se define la funcion de probabilidadde X = xi dado Y = yj como:

℘(xi|yj) = P [X = xi|Y = yj] =P (X = xi, Y = yj)

g(yj). (7.3)

Page 32: vectores aleatorios

32 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

La funcion de distribucion condicional de X = xi dado Y = yj sera:

F (x0|yj) = P [X ≤ x0|y = yj] =

∑xi≤x0

℘(xi, yj)

g(yj).

2. Sea (X, Y ) una v.a.b. discreta con funcion de probabilidad ℘(x, y). Sea℘(xi) la funcion de probabiidad marginal de la v.a.d. X, si para X = xi,℘(xi) > 0; se define la funcion de probabilidad de Y = yj dado X = xicomo:

g(yj|xi) = P [Y = yj|X = xi] =P [X = xi, Y = yj]

℘(xi). (7.4)

La funcion de distribucion condicional de Y = yj dado X = xi sera:

F (yj|xi) = P [y ≤ yj|X = xi] =

∑Y≤y0

℘(xi, yj)

℘(xi).

Definicion 7.4.2. Sea (X, Y ) una v.a.b continua con f.d.p conjunta f(x, y),g y h las fdp marginales de X y Y respectivamente.Entonces,

1. Si h(y) > 0, la fdp condicional de X para Y = y dada, esta definidapor:

g(x|y) =f(x, y)

h(y). (7.5)

La fda de X para Y = y dada, esta definida por:

F (x|y) =

∫ x

−∞g(z|y)dz. (7.6)

2. Si g(x) > 0, la fdp condicional de Y para X = x dada, esta definidapor:

h(y|x) =f(x, y)

g(x). (7.7)

la fdp condicional de Y para X = x dada, esta definida por:

F (y|x) =

∫ y

−∞h(z|x)dz. (7.8)

Page 33: vectores aleatorios

7.4. DISTRIBUCION CONDICIONAL 33

Ejemplo 7.4.1. Con referencia a la tabla siguiente hallar las distribucionescondicionales de X dado Y = 2 y de Y dado X = 3.

Y |X 1 2 3∑

i

1 112

16

0 312

2 0 19

15

1445

3 118

14

215

79180∑

j536

1936

13

1,0

Solucion:

Distribucion de X condicionada a Y = 2.Llamando q(y) la funcion de probabilidad de la v.a. Y, entonces q(2) =1445. Luego,

℘(xi|2) = P [X = xi|Y = 2] = P (X=xi,Y=2)q(2)

; es decir,

℘(x1|2) = ℘(1|2) = ℘(1,2)q(2)

= 014/45

= 0,

℘(x2|2) = ℘(2|2) = ℘(2,2)q(2)

= 1/914/45

= 45126,

℘(x3|2) = ℘(3|2) = ℘(3,2)q(2)

= 1/514/45

= 4570.

En resumen:

x 1 2 3℘(xi|2) 0 45

1264570

Note que∑

i ℘(xi|2) = 1,0

Llamando ℘(x) la funcion de probabilidad de la v.a. X, se tiene que℘(3) = 1

3, entonces la distribucion de Y condicionada a X = 3 es:

q(yj|3) = P [Y = yj|X = 3] =℘(3,yj)

℘(3); es decir,

q(y1|3) = q(1/3) = ℘(3,1)℘(3)

= 01/3

= 0,

q(y2|3) = q(2/3) = ℘(3,2)℘(3)

= 1/51/3

= 35,

Page 34: vectores aleatorios

34 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

q(y3|3) = q(3/3) = ℘(3,3)℘(3)

= 2/151/3

= 515.

En resumen:

y 1 2 3q(yj|3) 0 3

5615

Note que∑

j q(yj|3) = 1,0

Calcular la distribucion de Y condicionada a X = 1; X = 2.

Ejemplo 7.4.2. Sea la v.a.b.c. (X, Y ) con fdp conjunta dada por:

f(x, y) =

x2 + xy

3si 0 ≤ x ≤ 1 ; 0 ≤ y ≤ 2

0 en otra parte.

Hallar g(x|y) y h(y|x).

Solucion:

a)

g(x|y) =f(x, y)

h(y).

ahora,

h(y) =

∫ ∞−∞

f(x, y) dx =

∫ 1

0

(x2 +xy

3) dx =

y

6+

1

3.

Luego,

g(x|y) =x2 + xy

3y6

+ 13

=6x2 + 2xy

y + 2, si 0 ≤ x ≤ 1; 0 ≤ y ≤ 2.

b)

h(y|x) =f(x, y)

g(x)

Ahora,

g(x) =

∫ ∞−∞

f(x, y) dy =

∫ 2

0

(x2 +xy

3) dy = 2x2 +

2

3x.

Page 35: vectores aleatorios

7.4. DISTRIBUCION CONDICIONAL 35

Luego,

h(y|x) =x2 + xy

3

2x2 + 23x

=3x+ y

6x+ 2, si 0 ≤ y ≤ 2; 0 ≤ x ≤ 1.

Verificar que tanto g(x|y) como h(y|x) son fdp. Recuerde, basta verificar que∫ ∞−∞

g(x|y) dx = 1 y

∫ ∞−∞

h(y|x) dy = 1.

Ejemplo 7.4.3. Sea fXY (x, y) = x+y para 0 ≤ x ≤ 1 ; 0 ≤ y ≤ 1 encontrar:

a) fX|Y ,

b) FX|Y ,

c) FXY .

Solucion:

a) Encontremos la marginal de Y

fY (y) =

∫ 1

0

(x+ y) dy =

(x2

2+ y

)|10 =

1

2+ y =

1 + 2y

2; 0 ≤ y ≤ 1.

fX|Y (x|y) =fXY (x, y)

fY (y)=x+ y1+2y

2

=2(x+ y)

1 + 2y; 0 ≤ x ≤ 1, 0 ≤ y ≤ 1.

b)

FX|Y (x|y) =

∫ x

−∞fX|Y (z|y) dz =

∫ x

0

2(z + y)

2y + 1dz

=1

2y + 1

[z2 + 2yz

]x0

=x2 + 2xy

2y + 1.

Ejemplo 7.4.4. La funcion de densidad conjunta de cierto proceso es:

fXY (x, y) =

Cxye−

x+yλ si x > 0 ; y > 0

0 c.c

con λ > 0 un parametro de la distribucion, encontrar:

Page 36: vectores aleatorios

36 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

a) El valor de C,

b) FY |X ,

c) FXY ,

d) P (X + Y > λ).

Solucion:

a)

∫R2

∫Cxye−

x+yλ dxdy = 1

⇒ C

∫ ∞−∞

∫ ∞−∞

xye−x+yλ dxdy = C

∫ ∞0

∫ ∞0

xye−x+yλ dxdy

= C

∫ ∞0

∫ ∞0

xye−xλ e−

yλ dxdy

= C

(∫ ∞0

xe−xλ dx

)(∫ ∞0

ye−yλ dy

)= C

(λ2) (λ2)

= C(λ4)

⇒ C =1

λ4.

b)

fY |X(x, y) =fXY (x, y)

fX(x)=

1λ4xye−

x+yλ

fX(x)si x, y > 0

0 caso contrario.

Page 37: vectores aleatorios

7.4. DISTRIBUCION CONDICIONAL 37

entonces,

fX(x) =

∫ ∞0

fXY (x, y) dy

=

∫ ∞0

xy

λ4e−

x+yλ dy

= lımr−→∞

λ−4(−λye−

yx (xe−

xλ )− λ2e−

yλ (xe−

xλ ))∣∣∣r

0

= λ−4(λ2e0(xe−

xλ ))

=x

λ2e−

xλ .

Luego,

fY |X(x, y) =

xy

λ4e−

xλ e−

xλ2e−

si x, y > 0

0 caso contrario

=

yλ2e−

yλ si x, y > 0

0 caso contrario.

c) FXY (x, y) =

∫ x

−∞

∫ y

−∞fuv(u, v) dudv

i. Si x ≤ 0 o y ≤ 0 ⇒ FXY (x, y) = 0

ii. Si x > 0 y y > 0

⇒ FXY (x, y) =

∫ x

−∞

∫ y

−∞fuv(u, v) dudv

=

∫ 0

−∞

∫ 0

−∞fuv(u, v) dudv +

∫ x

0

∫ y

0

fuv(u, v) dudv

=

∫ x

0

∫ y

0

fuv(u, v) dudv

=

∫ x

0

∫ y

0

λ−4uve−uλ e−

vλ dudv

= λ−4

(∫ x

0

ue−uλ du

)(∫ y

0

ve−vλ dv

)= λ−4

(−λue−

uλ − λ2e−

)∣∣x0

(−λve−

vλ − λ2e−

)∣∣y0

= λ−4(λxe−xλ + λ2e−

xλ − λ2)(λye−

yλ + λ2e−

yλ − λ2).

Page 38: vectores aleatorios

38 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

d) La region de interes es: D = (X, Y ) ∈ R2 | X < λ, Y ≥ λ−X,entonces

P (X + Y > λ) = P1 + P2,

donde,

P1 =

∫ x

−∞

∫ ∞λ−x

fXY (x, y) dydx

=

∫ λ

0

∫ ∞λ−x

λ−4xye−x+yλ dydx

=

∫ λ

0

λ−4xe−xλ

(∫ ∞λ−x

ye−yλ dy

)dx

= λ−4

∫ λ

0

xe−xλ

[(−λye−

yλ − λ2e−

)∣∣∣∞λ−x

]dx

= λ−4

∫ λ

0

xe−xλ

[λ(λ− x)e−

λ−xλ + λ2e−

λ−xλ

]dx

= λ−4

∫ λ

0

xe−xλ

[λ(λ− x)e

x−λλ + λ2e

x−λλ

]dx

= λ−4

∫ λ

0

[λ(λ− x)xe−1 + xλ2e−1

]dx

= λ−4e−1

∫ λ

0

[xλ2 − x2λ+ xλ2

]dx

= λ−4e−1

∫ λ

0

[2xλ2 − x2λ

]dx

= λ−4e−1

[x2λ2 − x3

]∣∣∣∣λ0

= λ−4e−1

[λ4 − λ4

3

]=

2

3e−1

Page 39: vectores aleatorios

7.4. DISTRIBUCION CONDICIONAL 39

y

P2 =

∫ ∞λ

∫ ∞0

λ−4xye−x+yλ dydx

= λ−4

(∫ ∞λ

xe−xλ dx

)(∫ ∞0

ye−yλ dy

)= λ−4

[(lımr−→∞

(−λxe−xλ − λ2e−

xλ )|rλ

)(lımr−→∞

(−λe−yλλ2e−

yλ )|r0)]

= λ−4(λ2e−1 + λ2e−1)(λ2)

= λ−4(2λ2e−1)(λ2)

= 2e−1.

Luego,

P (X + Y > λ) = P1 + P2 =2

3e−1 + 2e−1 =

8

3e−1.

Ejemplo 7.4.5. La v.a.b. (X, Y ) tiene fdp conjunta

f(x, y) =

e−(x+y) si x > 0; y > 0

0 en otro caso.

Hallar:

a) Funcion de distribucion conjun-ta.

b) Funciones de densidad margi-nales y condicionales.

c) P (X < 2|Y = 3)

d) h(y|X = 3)

e) g(x|Y = 4)

f) P (X < 1, Y < 2)

g) P (1 < X + Y < 3)

h) P (X < Y |X < 2Y )

Solucion:La probabilidad se encuentra distribuida en el primer cuadrante

a) F (x, y) = 0 para x < 0, y < 0Para x > 0, y > 0

F (x, y) =

∫ x

0

∫ y

0

e−(u+v) dvdu =

∫ x

0

e−u du

∫ y

0

e−v dv

= (1− e−x)(1− e−y).

Page 40: vectores aleatorios

40 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

b) g(x) =

∫ ∞0

f(x, y) dy =

∫ ∞0

e−(x+y) dy = e−x∫ ∞

0

e−y dy = e−x, para

x > 0.

h(y) =

∫ ∞0

f(x, y) dx =

∫ ∞0

e−(x+y) dx = e−y∫ ∞

0

e−x dx = e−y, para

y > 0.g(x|y) = f(x,y)

h(y)= e−(x+y)

e−y= e−x, para x > 0, y > 0.

h(y|x) = f(x,y)h(y)

= e−(x+y)

e−x= e−y, para x > 0, y > 0.

c) P (X < 2|Y = 5) =

∫ 2

0

g(x|5) dx =

∫ 2

0

e−x dx = 1− e−2

d) h(y|X = 3) = e−y, para y > 0.

e) g(x|Y = 4) = e−x, para x > 0.

f) P (X < 1, Y < 2) =∫ ∫

Rf(x, y) dxdy, donde

R = (x, y) ∈ D|x < 1; y < 2.

Ası,

P (X < 1, Y < 2) =

∫ 1

0

∫ 2

0

e−ye−x dydx =

∫ 2

0

e−y dy ·∫ 1

0

e−x dx

= (1− e−2)(1− e−1).

g) P (1 < X + Y < 3) =

∫ ∫R

f(x, y) dxdy, donde

R = (x, y) ∈ D|1 < x+ y < 3.

Como el comportamiento de (X, Y ) no es uniforme en R, asumimos elhecho de que R = R1 ∪R2 (Note que R1 ∩R2 = ∅), entonces:

P (1 < X + Y < 3) =

∫ ∫R1

f(x, y) dxdy +

∫ ∫R2

f(x, y) dxdy

=

∫ 1

0

∫ 3−x

1−xe−xe−y dxdy +

∫ 3

1

∫ 3−x

0

e−ye−x dxdy

= 2e−1 − 4e−3.

Page 41: vectores aleatorios

7.5. DISTRIBUCION UNIFORME 41

h) P (X < Y |X < 2Y ) =P (X < Y ∧X < 2Y )

P (X < 2Y )=

P (X < Y )

P (X < 2Y )

P (X < Y ) =

∫R1

∫f(x, y) dxdy, donde R1 = (x, y) ∈ D|x < y

P (X < 2Y ) =

∫R2

∫f(x, y) dxdy, donde R2 = (x, y) ∈ D|x < 2y.

Entonces, P (X < Y ) =

∫ ∞0

∫ y

0

e−xe−y dxdy =1

2y

P (X < 2Y ) =

∫ ∞0

∫ 2y

0

e−xe−y dxdy =2

3

⇒ P (X < Y |X < 2Y ) =1/2

2/3=

3

4.

7.5. Distribucion Uniforme

Una variable aleatoria continua bidimensional (X, Y ) esta distribuida unifor-memente en una region R del plano euclidiano si

f(x, y) =

Constante Para (x, y) ∈ R

0 en otra parte∫ ∞−∞

∫ ∞−∞

f(x, y) dydx = 1 y f(x, y) = k, entonces k ·∫ ∞−∞

∫ ∞−∞

dydx︸ ︷︷ ︸Area R

= 1,

entonces k = 1

Area R, donde Area R > 0.

Ejemplo 7.5.1. Supongase que (X, Y ) es una v.a.c.b. distribuida uniforme-mente en la region R siguiente

a) Hallar f(x, y).

b) Encontrar las funciones de densidad marginal de X y Y.

Solucion:

a) f(x, y) = 1

Area R; Area R =

∫ 1

0

(x− x2) dx =1

6. Luego,

f(x, y) =

116

= 6 si (x, y) ∈ R

0 en otra parte.

Page 42: vectores aleatorios

42 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

b) fdp marginal de X.∫ ∞−∞

f(x, y) dy =

∫ x

x26 dy = 6(x− x2) si 0 ≤ x ≤ 1

fdp marginal de Y .

h(y) =

∫ ∞−∞

f(x, y) dx =

∫ √yy

6 dx = 6(√y − y), si 0 ≤ y ≤ 1.

7.6. Variables Aleatorias Independientes

Intuitivamente, X, Y son variables aleatorias independientes si el resultadode X de ninguna manera influye en el resultado de Y . Precisemos en mejorforma lo anterior:

Definicion 7.6.1. Sea (X, Y ) una variable aleatoria bidimensional discre-ta. Decimos que X, Y son variables aleatorias independientes si ℘(xi, yj) =℘(xi) · q(yj) para todo i, j. (esto es, si la funcion de probabilidad conjunta esigual al producto de las marginales).

En consecuencia se tiene el siguiente resultado:

Teorema 7.6.1. Sea (X, Y ) una v.a.b. discreta. X y Y son independientessi y solo si ℘(xi|yj) = ℘(xi) para todo i, j (o lo que es equivalente, si y solosi q(yj|xi) = q(yj) para todo i, j).

Page 43: vectores aleatorios

7.6. VARIABLES ALEATORIAS INDEPENDIENTES 43

Demostracion. ” ⇒ ” Sean X y Y independientes, entonces ℘(xi, yj) =

℘(xi) · q(yj) para todo i, j. Luego: ℘(xi|yj) =℘(xi,yj)

q(yj)= ℘(xi)

” ⇐ ” Supongamos que ℘(xi|yj) = p(xi). Como ℘(xi|yj) =℘(xi,yj)

q(yj), entonces

℘(xi, yj) = ℘(xi) · q(yj).

Ejemplo 7.6.1. Corrobore si las variables X y Y dadas en la tabla siguienteson independientes.

Y |X 1 2 3 q(yj)

1 112

16

0 312

2 0 19

15

1445

3 118

14

215

79180

℘(xi)536

1936

13

1

Solucion: Para probar que X y Y son independientes tenemos que probarque ℘(xi, yj) = ℘(xi) · q(yj) para todo i, j.Debemos por lo tanto comprobar si esta igualdad se cumple con cada uno delos 9 puntos con probabilidad dada. Entonces,

℘(x1, y1) = ℘(1, 1) = 112. Ahora,

℘(x1) = ℘(1) = 536

q(y1) = q(1) = 312

⇒ ℘(x1) · q(y1) =

5

36· 3

12=

5

144

Luego ℘(x1, y1) 6= ℘(x1) · q(y1).Habiendo encontrado un punto que no satisfaga la condicion podemos afirmarque X y Y no son independientes.

Observacion 7.6.1. Antes de dar la definicion de independencia estocasticapara v.a.b. continuas, veamos lo siguiente:

Sea (X, Y ) una v.a.b. continua con funcion de densidad conjunta f(x, y).Sea R = (x, y) ∈ R2|f(x, y) > 0, esto es, la region del plano donde esta dis-tribuida la probabilidad.Supongamos que R es tal que x ∈ R1 ⊆ R mientras que y ∈ R2 ⊂ R demodo que R1 no esta afectado por los valores que toma la v.a. en Y = y,

Page 44: vectores aleatorios

44 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

asimismo R2 no esta afectado por los valores que toma la v.a. en X = x,en estas condiciones R es una region rectangular, R = R1 × R2, esto esR = (x, y)|a ≤ x ≤ b, c ≤ y ≤ d con a,b,c,d constantes. Si R es de estaforma decimos que es un ESPACIO PRODUCTO (o que la variable aleatoriabidimensional (X, Y ) tiene distribucion en el espacio producto).

Ejemplo 7.6.2.

R es un espacio producto, R = (x, y)| 1 ≤ x ≤ 5, 1 ≤ y ≤ 4.

D no es un espacio producto, D = (x, y)| 0 ≤ x ≤ 2, 0 ≤ y ≤ 6−3x2.

En general, R es un espacio producto si esta limitada solo por rectas paralelasa los ejes; en caso contrario dejara de ser un espacio producto; ası, la region Danterior no es un espacio producto, pues esta limitada por la recta 3x+2y = 6que no es paralela al eje x ni al eje y.

Definicion 7.6.2. Sea (X, Y ) un v.a.b.c. con fdp conjunta f(x, y). Las va-riables aleatorias X y Y son estocasticamente independiente si y solo si

f(x, y) = g(x) · h(y),

Page 45: vectores aleatorios

7.6. VARIABLES ALEATORIAS INDEPENDIENTES 45

donde g(x) y h(y) son las fdp marginales de X y Y respectivamente, y ademasla region donde se distribuye la probabilidad es un espacio producto.

Como consecuencia, tenemos ahora el siguiente resultado.

Teorema 7.6.2. Sea (X, Y ) una variable aleatoria bidimensional continua.Las variables aleatorias X y Y son independientes si y solo si g(x|y) = g(x)(o lo que es equivalente si y solo si h(y|x) = h(y) para todo (x, y)).

Demostracion. ”⇒ ” Supongamos que X y Y son independientes, entoncesf(x, y) = g(x) · h(y). Luego, g(x|y) = f(x,y)

h(y)= g(x)·h(y)

h(y)= g(x).

”⇐ ” Se hace en forma similar.

De las definiciones anteriores se sigue que para X y Y v.a.i.

FXY (x, y) = PXY (X ≤ x, Y ≤ y) = PX(X ≤ x)PY (Y ≤ y) = FX(x)FY (y).

Para X y Y v.a.d. independientes se sigue que.

P (X = x, Y = y) = P (X = x)P (Y = y).

para todo x en el rango de X y todo y en el rango de Y.En conclusion, se puede decir que si X y Y son v.a.i. con fdp conjunta fXYy marginales fX(x) y fY (y), entonces

fXY (x, y) = fX(x)fY (y),

para todo x, y ∈ R. Recıprocamente, si la condicion anterior se cumple,entonces las variables aleatorias son independientes. En general, las v.a. X yY son independientes si existen m1(x) y m2(y), funciones reales tales que

fXY (x, y) = m1(x)m2(y), x, y ∈ R.

Teorema 7.6.3. Para X y Y v.a.i se tiene que para Z = X + Y,

MX+Y (t) = MX(t)MY (t).

Page 46: vectores aleatorios

46 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Demostracion.

MZ(t) = E[etZ ] = E[et(X+Y )] = E[etX+tY ]

=

∫R

∫Retx+tyfXY (x, y)dxdy

=

∫RetxfX(x)dx

∫RetyfY (y)dy

= MX(t)MY (t).

Ejemplo 7.6.3. Supongamos que (X, Y ) tiene fdp conjunta dada como sigue:

f(x, y) =

e−(x+y) si x ≥ 0, y ≥ 0

0 en otra parte.

¿Seran X y Y estocasticamente independientes?

Solucion:

g(x) =

∫ ∞−∞

f(x, y) dy =

∫ ∞0

e−xe−y dy = e−x∫ ∞

0

e−y dy = e−x y

h(y) =

∫ ∞−∞

f(x, y) dx =

∫ ∞0

e−xe−y dx = e−y∫ ∞

0

e−x dx = e−y.

Luego, f(x, y) = e−x ·e−y = g(x)·h(y) y como la probabilidad esta definida enel primer cuadrante que es un espacio producto, entonces X y Y son variablesaleatorias independientes.

Ejemplo 7.6.4. Supongase que (X, Y ) tiene fdp conjunta f(x, y) = 8xy,para 0 ≤ x ≤ y ≤ 1. ¿ Seran X y Y independientes?

Solucion:

Page 47: vectores aleatorios

7.6. VARIABLES ALEATORIAS INDEPENDIENTES 47

La probabilidad esta definida en R, pero este no es un espacio producto, porlo tanto X y Y no son independientes.

Ademas,

g(x) =

∫ ∞−∞

f(x, y) dy =

∫ 1

x

8xy dy = 4x(1− x2) si 0 ≤ x ≤ 1.

h(y) =

∫ ∞−∞

f(x, y) dx =

∫ y

0

8xy dx = 4y3 si 0 ≤ y ≤ 1.

Pero,g(x) · h(y) = 4x(1− x2) · 4y3 6= f(x, y).

Observacion 7.6.2. Si se conoce la fdp conjunta es posible determinar enforma unica las fdp marginales g(x) y h(y), pero el conocimiento de las fdpmarginales no determinan la fdp conjunta, a menos que se sepa que la variablealeatoria X y Y son independientes, en cuyo caso g(x) · h(y) = f(x, y).

Teorema 7.6.4. Sean X, Y variables aleatorias con funcion de densidadconjunta f(x, y) y region de distribucion conjunta de probabilidad R. Enton-ces, X y Y son variables aleatorias independientes si y solo si R es un espacioproducto y f(x, y) = m(x) · ℘(y), donde m(x) es una funcion no negativa dex solamente y ℘(y) es una funcion no negativa de y solamente.

Demostracion. ”⇒ ” Sean X y Y independientes, entonces R es un espacioproducto y ademas f(x, y) = g(x) · h(y) donde g(x) ≥ 0 y h(y) ≥ 0. Esco-giendo m(x) = g(x) y ℘(y) = h(y) tenemos que f(x, y) = m(x) · ℘(y).

” ⇐ ” Supongamos que R es un espacio producto y f(x, y) = m(x) · ℘(y)(m(x) y ℘(y) con las condiciones dadas), entonces

g(x) =

∫ ∞−∞

f(x, y) dy =

∫ ∞−∞

m(x) · ℘(y) dy

= m(x)

∫ ∞−∞

℘(y) dy

= m(x) · k1,

Page 48: vectores aleatorios

48 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

donde k1 =

∫ ∞−∞

℘(y) dy es una constante. Asimismo,

h(y) =

∫ ∞−∞

f(x, y) dx =

∫ ∞−∞

m(x) · ℘(y) dx

= ℘(y)

∫ ∞−∞

m(x) dx

= ℘(y) · k2,

donde k2 =

∫ ∞−∞

m(x) dx es una constante.

Luego, g(x) · h(y) = k1k2m(x) · ℘(y) = k1k2f(x, y). Ahora basta probar quek1k2 = 1.

En efecto:

1 =

∫ ∞−∞

∫ ∞−∞

f(x, y) dxdy =

∫ ∞−∞

∫ ∞−∞

m(x) · ℘(y) dxdy

=

[∫ ∞−∞

m(x) dx

]·[∫ ∞−∞

℘(y) dy

],

pero m(x) = 1k1g(x) y ℘(y) = 1

k2h(y), entonces

1 =

[1

k1

∫ ∞−∞

g(x) dx

]·[

1

k2

∫ ∞−∞

h(y) dy

]=

[1

k1

· 1]·[

1

k2

· 1]

=1

k1k2

⇒ k1k2 = 1,

ası, g(x) ·h(y) = 1 · f(x, y) entonces, X y Y son variables aleatorias indepen-dientes.

Definicion 7.6.3. Las variables aleatorias X1, X2, . . . , Xm son variablesaleatorias independientes si

fX1X2...Xm(x1, x2, . . . , xm) = fX1(x1)× fX2(x2)× · · · × fXm(xm),

Page 49: vectores aleatorios

7.6. VARIABLES ALEATORIAS INDEPENDIENTES 49

o tambien, si

FX1X2...Xm(x1, x2, . . . , xm) = FX1(x1)× FX2(x2)× · · · × FXm(xm).

Proposicion 7.6.1. Sean X1, X2, ..., Xk v.a.i. Entonces,

i) La coleccion Xi1, ..., Xij ⊆ X1, X2, ..., Xk tambien son indepen-dientes.

ii) Cualesquiera funciones f1(x1), ..., fk(xk) tambien son independientes.

iii) Cualesquiera funciones f(x1, x2, ..., xj) y g(xj+1, xj+2, ..., xk) de sub-conjuntos disjuntos tambien son independientes.

Observacion 7.6.3. Note que para X y Y v.a.i.

fX|Y (x|y) =fXY (x, y)

fY (y)=fX(x)fY (y)

fY (y)= fX(x).

Demostracion. i) Por hipotesis de independencia, para X1, X2, ..., Xk,

FX1...Xk(x1, x2, ..., xk) =k∏j=1

FXj(xj).

Ahora, hagamos xi → ∞ para todo i = 1, 2, ..., k, i 6= i1 o i2, ..., ij.Entonces por definicion de funcion de distribucion marginal conjuntay propiedades de la funcion de distribucion univariada, se tiene.

FXi1...Xij(xi1, ..., xij) =

j∏l=1

Fxil(xil),

de donde sigue el resultado.

ii) Se deja como ejercicio.

iii) por i) X1, X2, ..., Xj y Xj+1, Xj+2, ..., Xk son independientes, en-tonces por (ii) se sigue el resultado.

Page 50: vectores aleatorios

50 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

7.7. Momentos

Sea (X1, X2, ..., Xk)t un vector aleatorio con fdp conjunta f. Sea g(X1, X2, ..., Xk)

una funcion de valor real definida sobre Rk y asumamos que g tambien esuna v.a.

Definicion 7.7.1. 1. Si (X1, X2, ..., Xk) es de tipo discreto donde∑x1

, ...,∑xk

|g(x1, ..., xk)||P (X1 = x1, X2 = x2, ..., Xk = xk)| <∞,

entonces se define la esperanza matematica de g como:

E[g(X1, X2..., XK)] =∑x1

, ...,∑xk

g(X1, X2..., Xk)P (X1 = x1, ..., Xk = xk)

2. Si (X1, X2, ..., Xk) tiene fdp conjunta f y∫ ∞−∞

...

∫ ∞−∞|g(x1, x2, ..., xk)|f(x1, x2, ..., xk) dx1, ..., dxk <∞,

entonces, se define la esperanza de g como:

E[g(x1, x2, ..., xk)] =

∫ ∞−∞

...

∫ ∞−∞

g(x1, x2, ..., xk)f(x1, x2, ..., xk) dx1, ..., dxk.

Propiedades 7.7.1. 1) Sean a y b constantes reales y g(X1, X2, ..., Xk)una funcion con esperanza finita. Entonces,

E[ag(X1, X2, ..., Xk) + b] = aE[g(X1, X2, ..., Xk)] + b.

2) Sean g1, g2, ..., gn funciones de valor real de X1, X2, ..., Xk con esperanzafinita. Entonces,E[g1(X1, X2, ..., Xk) + g2(X1, X2, ..., Xk) + ...+ gn(X1, X2, ..., Xk)] =E[g1(X1, X2, ..., Xk)]+E[g2(X1, X2, ..., Xk)]+...+E[gn(X1, X2, ..., Xk)].

3) Sean X1, X2, ..., Xk variables aleatorias independientes y g1, g2, ..., gkfunciones de valor real de X1, X2, ..., Xk respectivamente, cada una conesperanza finita. Entonces,

E

[k∏j=1

gj(Xj)

]=

k∏j=1

E[gj(Xj)]

Page 51: vectores aleatorios

7.7. MOMENTOS 51

Demostracion. Es semejante al caso univariado, se deja como ejercicio.

Es semejante al caso univariado, se deja como ejercicio.

3) Inicialmente verifiquemos que la esperanza existe.∫ ∞−∞

∫ ∞−∞· · ·∫ ∞−∞

∣∣∣∣∣k∏j=1

g(xj)

∣∣∣∣∣ f(x1, x2, ..., xk)k∏j=1

dxj

=

∫ ∞−∞

∫ ∞−∞· · ·∫ ∞−∞

[|g(xj)f(xj)]k∏j=1

dxj

=

∫ ∞−∞|g(x1)|f(x1) dx1

∫ ∞−∞|g(x2)|f(x2) dx2 · · ·

∫ ∞−∞|g(xk)|f(xk) dxk

=k∏j=1

∫ ∞−∞|g(xj)|f(xj) dxj <∞.

Luego,∫ ∞−∞

∫ ∞−∞· · ·∫ ∞−∞

[k∏j=1

g(xj)

]f(x1, x2, ..., xk)

k∏j=1

dxj

=

∫ ∞−∞

∫ ∞−∞· · ·∫ ∞−∞

k∏j=1

[g(xj)f(xj)]k∏j=1

dxj

=

∫ ∞−∞

g(x1)f(x1) dx1

∫ ∞−∞

g(x2)f(x2) dx2 · · ·∫ ∞−∞

g(xk)f(xk) dxk

=k∏j=1

∫ ∞−∞

g(xj)f(xj) dxj

=k∏j=1

E[g(Xj)].

Observacion 7.7.1. El reciproco de 3) no siempre es cierto

Ejemplo 7.7.1. Sea X el tiempo que una persona permanece en un bancoy Y el tiempo haciendo fila para ser atendido, entonces X − Y es el tiempo

Page 52: vectores aleatorios

52 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

que dura la atencion por parte del funcionario encargado. Si la fdp conjuntadel vector (X, Y ) es:

fXY (x, y) =

λe−λy si 0 ≤ y ≤ x <∞0 caso contrario,

el tiempo promedio que dura la atencion es:

E[(X − Y )] =

∫ ∞0

∫ x

0

(x− y)λ2e−λx dydx

= λ2

[∫ ∞0

∫ x

0

xe−λx dydx−∫ ∞

0

∫ x

0

ye−λx dydx

]= λ2

[∫ ∞0

x2e−λx dx−∫ ∞

0

x2

2e−λx dx

]=λ2

2

∫ ∞0

x2e−λx dx

=λ2

2

∫ ∞0

x3−1e−λx dx

=λ2

2

Γ(3)

λ3

∫ ∞0

λ3

Γ(3)x3−1e−λx dx

=λ2

2

Γ(3)

λ3

=Γ(3)

=2Γ(2)

=1

λ.

Ejemplo 7.7.2. Considere un circuito electrico para el cual la ley de Ohm escierta, V = IR donde V es el voltaje, I es la corriente y R es la resistencia.Suponga que I y R son v.a.i. con respectivas fdp.

hI(i) = 2i para 0 ≤ i ≤ 1.

y

gR(r) =r2

9para 0 ≤ r ≤ 3.

encuentre

Page 53: vectores aleatorios

7.8. COVARIANZA Y CORRELACION 53

El voltaje esperado

La probabilidad de que el voltaje este por encima de 2 voltios.

Solucion:

La fdp conjunta es:

fIR(i, r) = hI(i)gR(r) =2ir2

9para 0 ≤ i ≤ 1 , 0 ≤ r ≤ 3,

entonces,

E(V ) = E(IR) = E(I)E(R) =

[2

∫ 1

0

idi

] [1

9

∫ 3

0

r2dr

]= 1,0

P (V > 2) = 1− P (V ≤ 2)

= 1−∫ir≤2

∫fIR(i, r) didr

= 1−∫ir≤2

∫2ir2

9didr

Para resolver la doble integral, del grafico relacionado se tiene que

P (V > 2) = 1−

[∫ 2

r=0

∫ 1

i=0

2

9ir2 didr +

∫ 3

r=2

∫ 2r

i=0

2

9ir2 didr

]

= 1− 2

9

[4

3+ 2

]= 1− 20

27

=7

27.

7.8. Covarianza y Correlacion

Definicion 7.8.1. Si E[(X−µX)(Y −µY )] existen, es llamada la covarianzaentre X y Y , donde µX = E(X) y µY = E(Y ).

Page 54: vectores aleatorios

54 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Figura 7.14: Region para ir ≤ 2 voltios.

En lo que sigue escribiremos

σXY = cov(X, Y ) = E[(X − µX)(Y − µY )].

Observacion 7.8.1. i) Note que

σXY = cov(X, Y ) = E[(X−µX)(Y−µY )] = E[(Y−µY )(X−µX)] = cov(Y,X) = σY X .

ii) σXX = cov(X,X) = E[(X −µX)(X −µX)] = E[(X −µX)2] = var(X).

iii)

σXY = E[(X − µX)(Y − µY )] = E[XY − σXY − σYX + σXσY ]

= E(XY )− σXE(Y )− σYE(X) + σXσY

= E(XY )− σXσY − σY σX + σXσY

= E(XY )− σXσY= E(XY )− E(X)E(Y )

= E(XY )− µXµY .

Page 55: vectores aleatorios

7.8. COVARIANZA Y CORRELACION 55

iv) Para X y Y v.a.i.

σXY = E(XY )− E(X)E(Y ) = E(X)E(Y )− E(X)E(Y ) = 0.

v) cov(X, Y ) = 0 no implica que X y Y son v.a.i.

Ejemplo 7.8.1. Sea X una v.a. simetrica con E(X) = 0 y sea Y = X2

entonces,

Cov(X, Y ) = E(XY )− E(X)E(Y ) = E(XX2) = E(X3) = 0

y sin embargo X y Y estan fuertemente asociados.

vi) Si E(X2) <∞ y E(Y 2) <∞, entonces E(XY ) <∞ y por tanto σXYexiste, puesto que |XY | ≤ X2 + Y 2 ⇒ E(|XY |) <∞.

vii) ·Cov(aX, bY ) = abCov(X, Y ).·Cov(aX + c, bY + d) = abCov(X, Y ).

Ejemplo 7.8.2. Sean X y Y dos variables aleatorias con f.d.p conjunta dadapor:

fXY (x, y) =

1ye−

x+y2

y si x > 0, y > 0

0 caso contrario.

1. Encuentre la fdp de Y , E(Y ) y V (Y )

2. Encuentre la fdp de X|Y , E(X|Y = y)

3. Encuentre cov(X, Y )

4. Encuentre P (X < 2Y )

Solucion:

Page 56: vectores aleatorios

56 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

1.

fY (y) =

∫ ∞0

1

ye−

x+y2

y dx

=1

y

∫ ∞0

e−xy e−

y2

y dx

=1

y

∫ ∞0

e−xy e−ydx

=1

ye−y

∫ ∞0

e−xy dx

=1

ye−y[−ye−

xy ]|∞0

=e−y.

E(Y ) =

∫ ∞0

∫ ∞0

y1

ye−

x+y2

y dxdy

=

∫ ∞0

e−y[∫ ∞

0

e−xy dx

]dy

=

∫ ∞0

1

ye−y

[−ye−

xy

]|2y0 dy

=

∫ ∞0

1

ye−y

[−ye−2 + y

]dy

=

∫ ∞0

e−y(−ye−xy |∞0 dy

=

∫ ∞0

ye−ydy

=Γ(2)

∫ ∞0

12

Γ(2)y2−1e−ydy

=Γ(2) = 1.

Page 57: vectores aleatorios

7.8. COVARIANZA Y CORRELACION 57

E(Y 2) =

∫ ∞0

∫ ∞0

y2 1

ye−

x+y2

y dxdy

=

∫ ∞0

ye−y[∫ ∞

0

e−xy dx

]dy

=

∫ ∞0

ye−y(−ye−xy |∞0 dy

=

∫ ∞0

y2e−ydy

=Γ(3)

∫ ∞0

13

Γ(3)y3−1e−ydy

=Γ(3) = 2.

Ası, V (Y ) = E(Y 2)− E2(Y ) = 2− 1 = 1.

2.

fX|Y (x|y) =fXY (x, y)

fY (y)

=1/ye−

x+y2

y

e−y

=

1ye−

xy e−y

e−y

=1

ye−

xy .

E(X|Y = y) =

∫ ∞−∞

xfX|Y (x|y)dx

=

∫ ∞0

x1

ye−

xy dx

=1

y

∫ ∞0

xe− yx

=1

y

Γ(2)

(1/y)2

∫ ∞0

(1/y)2

Γ(2)x2−1e− yxdx

=1

y

Γ(2)

(1/y)2.

Page 58: vectores aleatorios

58 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

3.

E(XY ) =

∫ ∞0

∫ ∞0

xy1

ye−

x+y2

y dxdy

=

∫ ∞0

e−y[∫ ∞

0

xe−1yxdx

]dy

=

∫ ∞0

e−y[

Γ(2)

(1/y)2

∫ ∞0

(1/y)2

Γ(2)x2−1e− yxdx

]dy

=

∫ ∞0

e−yy2dy

=Γ(3)

∫ ∞0

13

Γ(3)y3−1e−ydy

=Γ(3) = 2.

E(X) =

∫ ∞0

∫ ∞0

x1

ye−

x+y2

y dxdy

=

∫ ∞0

1

ye−y

[∫ ∞0

xe−xy dx

]dy

=

∫ ∞0

1

ye−y

[Γ(2)

(1/y)2

∫ ∞0

(1/y)2

Γ(2)x2−1e− yxdx

]dy

=

∫ ∞0

1

ye−yy2dy

=

∫ ∞0

ye−ydy

=Γ(2)

∫ ∞0

12

Γ(2)y2−1e−ydy

=Γ(2) = 1.

Sabemos que E(Y ) = 1. Ası,

cov(X, Y ) =E(XY )− E(X)E(Y )

=2− (1)(1)

=1.

Page 59: vectores aleatorios

7.8. COVARIANZA Y CORRELACION 59

4.

P (X < 2Y ) =

∫ ∞0

∫ 2y

0

1

ye−

x+y2

y dxdy

=

∫ ∞0

1

ye−y

[∫ 2y

0

e−xy dx

]dy

=

∫ ∞0

1

ye−y

[−ye−

xy

]|2y0 dy

=

∫ ∞0

1

ye−y

[−ye−2 + y

]dy

=

∫ ∞0

e−y − e−2

∫ ∞0

e−ydy

=− e−y|∞0 − e−2(−e−y)|∞0=1− e−2.

Teorema 7.8.1 (Desigualdad de Cauchy). Sean X y Y v.a con E(X2) <∞y E(Y 2) < ∞, entonces |E(XY )|2 ≤ E(X2)E(Y 2). Se tiene la igualdad, siy solamente si existen constantes reales a y b no simultaneamente iguales acero, tales que P (aX + bY = 0) = 1.

Demostracion. Sea α = E(Y 2) y β = −E(XY ), α ≥ 0. El resultado paraα = 0 es inmediato, entonces se considera unicamente α > 0. Se tiene que:

0 ≤ E[(αX + βY )2] = E[α2X2 + 2αβXY + β2Y 2]

= α2E(X2) + 2αβE(XY ) + β2E(Y 2)

= α2E(X2) + 2αβE(XY ) + αβ2

= α[αE(X2) + 2βE(XY ) + β2]

= α[E(Y 2)E(X2)− 2E(XY )E(XY ) + E(XY )E(XY )]

= α[E(X2)E(Y 2)− E(XY )E(XY )]

= α[E(X2)E(Y 2)− E2(XY )].

Entonces, como α > 0, se sigue que E(X2)E(Y 2) − E2(XY ) ≥ 0, entonces|E(XY )|2 ≤ E(X2)E(Y 2).Veamos que |E(XY )|2 = E(X2)E(Y 2) si y solamente si existen constantesreales a y b no simultaneamente iguales a cero, tales que P (aX+bY = 0) = 1.” ⇒ ” Si [E(XY )]2 = E(X2)E(Y 2), entonces E(αX + βY )2 = 0. Por tanto

Page 60: vectores aleatorios

60 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

con probabilidad 1, se tiene que αX + βY = 0. Si α > 0, se puede tomara = α y b = β. Si α = 0, entonces a = 0 y b = −E(XY ) = 1.

”⇐ ” Ahora, si existen constantes reales a y b distintas de cero ambas, talesque aX + bY = 0, con probabilidad 1, entonces aX = −bY con probabilidad1.

⇒ |E(XY )|2 = |1aE(aXY )|2 =

b2

a2|E(Y 2)|2

=b2

a2E(Y 2)E(Y 2)

= E

(−bYa

)2

E(Y 2)

= E(X2)E(Y 2).

Observacion 7.8.2. Si X y Y son v.a entonces |X| y |Y | tambien lo son ypor tanto

|E(|X||Y |)|2 ≤ E(|X|2)E(|Y |2)⇒ (E(|XY |))2 ≤ E(X2)E(Y 2).

Ahora, como X − µX y Y − µY tambien son v.a. entonces,

(E(|(X − µX)(Y − µY )|))2 ≤ E(X − µX)2E(Y − µY )2

⇒ E(|(X − µX)(Y − µY )|) ≤√V ar(X)

√V ar(Y )

⇒ Cov(X, Y ) ≤√V ar(X)V ar(Y )

⇒ Cov2(X, Y ) ≤ V ar(X)V ar(Y )

⇒ Cov2(X, Y )

V ar(X)V ar(Y )≤ 1

∣∣∣∣∣ Cov(X, Y )√V ar(X)V ar(Y )

∣∣∣∣∣ ≤ 1.

Teorema 7.8.2. Sean X y Y variables aleatorias reales con varianza finita.Entonces,

V ar(X + Y ) <∞y se tiene que

V ar(X + Y ) = V ar(X) + V ar(Y )− 2cov(X, Y ).

Page 61: vectores aleatorios

7.8. COVARIANZA Y CORRELACION 61

Demostracion. Como V ar(X), V ar(Y ) < ∞, entonces E(X2), E(Y 2) < ∞.Luego,

E(X + Y )2 = E(X2) + 2E(XY ) + E(Y 2)

≤ E(X2) + 2E(|XY |) + E(Y 2)

E(X2) + 2E(X2 + Y 2) + E(Y 2) <∞.

Entonces,V ar(X + Y ) = E(X + Y )2 − E2(X + Y ) <∞.

Ahora,

V ar(X + Y ) = E(X + Y )2 − E2(X + Y )

= E(X + Y )2 − (E(X) + E(Y ))2

= E(X2 + 2XY + Y 2)− (E2(X) + 2E(X)E(Y ) + E2(Y ))

= E(X2)− E2(X) + E(Y 2)− E2(Y ) + 2(E(XY )− E(X)E(Y ))

= V ar(X) + V ar(Y ) + 2cov(X, Y ).

Observacion 7.8.3. En general:

V ar

(m∑j=1

Xj

)=

m∑j=1

V ar(Xj) +∑j

∑j′

cov(Xj, Xj′).

Definicion 7.8.2. SeanX y Y variables aleatorias reales con V ar(X), V ar(Y ) <∞. El coeficiente de correlacion lineal entre X y Y se define por:

ρ(x, y) = ρXY (X, Y ) =cov(X, Y )√

V ar(X)V ar(Y ).

De las propiedades estudiadas de la covarianza entre dos variables aleatorias,siguen de forma inmediata las siguientes observaciones.

Observacion 7.8.4.

i) Note que

∣∣∣∣ cov(X,Y )√V ar(X)V ar(Y )

∣∣∣∣ ≤ 1⇒ |ρ(X, Y )| ≤ 1⇒ −1 ≤ ρ(X, Y ) ≤ 1.

Page 62: vectores aleatorios

62 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

ii) ρ(X, Y ) = ρ(Y,X).

iii) ρ(X,X) = 1 y ρ(X,−X) = −1.

iv) |ρ(X, Y )| = 1 si y solamente si existen constantes reales a y b no si-multaneamente cero, tales que ρ(aX + bY = 0) = 1.

Ejemplo 7.8.3. Para la fdp conjunta dada en el Ejemplo 7.8.2. se tiene que

E(X2) =

∫ ∞0

∫ ∞0

x2 1

ye−

x+y2

y dxdy

=

∫ ∞0

1

ye−y

[∫ ∞0

x2e−xy dx

]dy

=

∫ ∞0

1

ye−y

[Γ(3)

(1/y)3

∫ ∞0

(1/y)3

Γ(3)x3−1e−

1yxdx

]dy

=

∫ ∞0

y2e−ydy

=Γ(3)

∫ ∞0

13

Γ(3)y3−1e−ydy

=Γ(3) = 2.

Ası,

V ar(X) =E(X2)− E2(X)

=2− 1

=1.

Entonces,

ρ(X, Y ) =Cov(X, Y )√V ar(X)V ar(Y )

=1√

(1)(1)

=1.

Page 63: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 63

7.9. Esperanza Condicional

Definicion 7.9.1. Sea el v.a.b. discreto (X, Y ). El valor esperado de X dadoY = y se define por:

E(X|Y = y) =∑x

xfX|Y (x|y)

para todos los y para los cuales P (Y = y) > 0.

En forma analoga, el valor esperado de Y dado X = x se define por:

E(Y |X = x) =∑y

yfY |X(y|x)

para todos los x para los cuales P (X = x) > 0.

Definicion 7.9.2. Sea el v.a.b. continuo (X, Y ). El valor esperado condicio-nal de X dado Y = y se define por:

E(X|Y = y) =

∫ ∞−∞

xfX|Y (x|y) dx

para todos los y con fY (y) > 0.

En forma analoga, el valor esperado de Y dado X = x se define por:

E(Y |X = x) =

∫ ∞−∞

yfY |X(y|x)

para todos los x para los cuales fX(x) > 0.

Ejemplo 7.9.1. Sean X y Y v.a.i. con distribucion de Poisson de parametrosλ1 y λ2 respectivamente. Calcular el valor esperado de X bajo la condicionde que X + Y = n con n ∈ Z+ ∪ 0 fijoSolucion

fX|X+Y=n(x|X+Y = n) =P (X = x, Y = n− x)

P (X + Y = n)=P (X = x)P (Y = n− x)

P (X + Y = n)

Page 64: vectores aleatorios

64 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Ahora,

P (X + Y = n) =n∑l=0

P (X = l, Y = n− l) =n∑l=0

P (X = l)P (Y = n− l)

=n∑l=0

e−λ1λl1l!

e−λ2λn−l2

(n− l)!

= e−(λ1+λ2) 1

n!

n∑l=0

n!

l!(n− l)!λl1λ

n−l2

= e−(λ1+λ2) 1

n!

n∑l=0

(n

l

)λl1λ

n−l2

= e−(λ1+λ2) (λ1 + λ2)n

n!.

Ası,

fX|X+Y=n(x|X + Y = n) =e−λ1

λx1x!e−λ2

λn−x2

(n−x)!

e−(λ1+λ2) (λ1+λ2)n

n!

=n!

x!(n− x)!

λx1λn−x2

(λ1 + λ2)n

=

(n

x

)(λ1

λ1 + λ2

)x(λ2

λ1 + λ2

)n−x=

(n

x

)px(1− p)n−x,

donde p = λ1λ1+λ2

y 1− p = 1− λ1λ1+λ2

= λ2λ1+λ2

. Entonces, se concluye que

X|X + Y = n ∼ Bin

(n,

λ1

λ1 + λ2

)⇒ E(X|X + Y = n) = n

λ1

λ1 + λ2

.

Ejemplo 7.9.2. Sean X y Y v.a. con fdp conjunta,

fXY (x, y) =

x+ y si 0 < x < 1 y 0 < y < 10 caso contrario.

Entonces,

fX|Y (x|y) =

x+y12

+ysi 0 < x < 1

0 caso contrario.

Page 65: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 65

Ası,

E(X|Y = y) =

∫ 1

0

xx+ y12

+ ydx =

112

+ y

∫ 1

0

(x2 + xy) dx

=2

2y + 1

(1

3x3 +

1

2x2y

)|10

=2

2y + 1

(1

3+

1

2y

)=

1

3

3y + 2

2y + 1.

Ejemplo 7.9.3. Sean X y Y v.a. con fdp conjunta

fXY (x, y) =

e−y si 0 < x < y0 caso contrario.

Encuentre E(X|Y = y).Solucion:

⇒ fX|Y (x|y) =

1y

si 0 < x < y

0 caso contrario.

⇒ E(X|Y = y) =

∫ y

0

x1

ydx =

1

y

x2

2|y0 =

y

2.

Definicion 7.9.3. Sean X y Y v.a. reales y h una funcion real tal que h(X)es una v.a. se define:

E[h(X)|Y = y] =

∑x

h(x)P (X = x|Y = y) si X, Y son v.a.d.∫Rh(x)fX|Y (x|y) dx si X, Y son v.a.c.

Ejemplo 7.9.4. Sean X y Y v.a con fdp conjunta

fXY (x, y) =

12ye−xy si x > 0 , 0 < y < 2

0 caso contrario.

Page 66: vectores aleatorios

66 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Entonces,

fY (y) =1

2, si 0 < y < 2

yfX|Y (x, y) = ye−xy, si x > 0

⇒ para h(X) = eX2 , se tiene que:

E[h(X)|Y ] = E[eX2 |Y ] =

∫ ∞0

ex2 ye−xy dx

= y

∫ ∞0

e( 12−y)x dx

= y1

12− y

e( 12−y)x|∞0 si y >

1

2

=y

12− y

(0− 1)

=y

y − 12

=2y

2y − 1.

En particular

E[h(X)|Y = 1] =2(1)

2(1)− 1= 2.

Teorema 7.9.1. Sean X y Y variables aleatorias reales definida sobre (Ω,=, P )y h una funcion real tal que h(X) es una v.a. Si E[h(X)] existe, entonces.

E[h(X)] = EY [EX [h(X)|Y ]].

Demostracion. i) para X y Y variables aleatorias discretas:

EY [EX [h(X)|Y ]] =∑y

EX [h(X)|Y ]P (Y = y)

=∑y

∑x

h(x)P (X = x|Y = y)P (Y = y)

=∑x

h(x)∑y

P (X = x;Y = y)

=∑x

h(x)P (X = x)

= E[h(X)].

Page 67: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 67

ii) para X y Y variables aleatorias continuas:

EY [EX [h(X)|Y ]] =

∫REX [h(X)|Y ]fy(y) dy

=

∫R

[∫Rh(x)fX|Y (x|y) dx

]fy(y) dy

=

∫Rh(x)

[∫RfX|Y (x|y)fy(y) dy

]dx

=

∫Rh(x)

[∫RfXY (x, y) dy

]dx

=

∫Rh(x)fX(x) dx

= E[h(X)].

Observacion 7.9.1. Si (Ω,=, P ) es un espacio de probabilidad y si A ∈ =es fijo, entonces:

P (A) = E(IA(X)) = EY [EX [IA(X)|Y ]].

Ejemplo 7.9.5. Sean X y Y v.a.i. con densidades fX(x) y fY (y) respecti-vamente. Calcular P (X < Y ).

Sea A = (X, Y )|X < Y , entonces:

P (A) = E[IA] = EY [EX [IA|Y ]]

=

∫REX [IA|Y ]fy(y) dy

=

∫RP (A|Y )fY (y) dy

=

∫RP (X < Y )fY (y) dy

=

∫RFX(y)fY (y) dy

siendo FX(.) la fda de la v.a. X.

Page 68: vectores aleatorios

68 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Ejemplo 7.9.6. Sea Y una variable aleatoria con distribucion de Poissonde parametro λ. Suponga que Z es la variable aleatoria definida por:

Z :=Y∑i=1

Xi

donde las variables aleatorias X1, X2, · · · son independientes entre si e inde-pendientes de Y . Hallar E(Z) bajo los supuestos que

1. Las variables aleatorias X1, X2, · · · son identicamente distribuidas condistribucion Bernoulli de parametro p ∈ (0, 1).

2. Las variables aleatorias X1, X2, · · · son identicamente distribuidas condistribucion Uniforme en el intervalo (0,b).

Solucion:

1.

E

[Y∑i=1

Xi

]= E

[E

[Y∑i=1

Xi|Y

]]=∑j

E

[Y∑i=1

Xi|Y = yj

]· P (Y = yj).

Note que X1, · · · , Xj son independientes con distribucion Bernoulli, porlo que

E

[Y∑i=1

Xi|Y = yj

]= E

[yj∑i=1

Xi

]=

yj∑i=1

E(Xi) =

yj∑i=1

p = pyj, final-

mente

E

[Y∑i=1

Xi

]=∑j

pyjP (Y = yj) = p∑j

yjP (Y = yj) = pE(Y ) = pλ.

Ası,

E(Z) = pλ.

Page 69: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 69

2.

E

[Y∑i=1

Xi

]= EY

[EX

[Y∑i=1

Xi|Y = yj

]]

= EY

[EX

[yj∑i=1

Xi

]]

= EY

[yj∑i=1

EX [Xi]

]

= EY

[yj∑i=1

b

2

]

=∑j

b

2yjP [Y = yj]

=b

2EY (Y )

=λb

2.

Ası,

E(Z) =λb

2.

Entonces, si la v.a. representa el numero de personas por hora quellegan a una central telefonica, suponga que Y ∼ Po(20) y Z es el dinerorecaudado cada hora, entonces Z :=

∑Yi=1 Xi donde Xi repreenta el

dinero gastado por el i-esimo individuo que entra a la central telefonica.Luego, si Xi ∼ U(0, 5000), entonces el recaudo esperado cada hora es

E(Z) =20× 5000

2= 50000.

Teorema 7.9.2. Si X, Y, Z son v.a.s reales definidas sobre (Ω,=, P ) y si h esuna funcion real tal que h(X) es una v.a. entonces, se tiene que la esperanzacondicional satisface las siguientes condiciones,

i) E(X|Y ) > 0 si x ≥ 0 c.s.

ii) E(1|Y ) = 1.

Page 70: vectores aleatorios

70 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

iii) si X y Y son v.a.i. entonces E(X|Y ) = E(X).

iv) E[Xh(y)|Y ] = h(y)E(X|Y ).

v) E(αX + βY |Z) = αE(X|Z) + βE(Y |Z) para α, β ∈ R.

Demostracion. Caso discreto

i)

E(X|Y ) =∑j:xj≥0

xjP (xj|y) +∑j:xj<0

xjP (xj|y)

=∑j:xj≥0

xjP (xj|y) ≥ 0.

ii) E(1|Y ) =∑x

1P (X = x|Y = y) = 1.

iii) E(X|Y ) =∑x

xP (X = x|Y = y) =∑x

xP (X = x) = E(X).

iv)

E[Xh(y)|Y ] =∑x

xh(y)P (X = x|Y = y)

= h(y)∑x

xP (X = x|Y = y)

= h(y)E(X|Y ).

Page 71: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 71

v)

E(αX + βY |Z) =∑x

∑y

(αx+ βy)P (X = x, Y = y|Z = z)

= α∑x

∑y

xP (X = x, Y = y|Z = z)

+ β∑x

∑y

yP (X = x, Y = y|Z = z)

= α∑x

x∑y

P (X = x, Y = y|Z = z)

+ β∑y

y∑x

P (X = x, Y = y|Z = z)

= α∑x

P (X = x|Z = z) + β∑x

P (Y = y|Z = z)

= αE(X|Z) + βE(Y |Z).

Caso continuo

i)

E(X|Y ) =

∫R+

xfX|Y (x|y) dx+

∫R−xfX|Y (x|y) dx

=

∫R+

xfX|Y (x|y) dx

≥ 0.

ii) E(1|Y ) =

∫R

1fX|Y (x|y) dx = 1.

iii) E(X|Y ) =

∫RxfX|Y (x|y) dx =

∫RxfX(x) dx = E(X).

Page 72: vectores aleatorios

72 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

iv)

E(Xh(y)|Y ) =

∫Rxh(y)fX|Y (x|y) dx

= h(y)

∫RxfX|Y (x|y) dx

= h(y)E(X|Y ).

v)

E(αX + βY |Z) =

∫R

∫R(αx+ βy)fXY |Z(x, y|z) dxdy

= α

∫Rx

[∫RfXY |Z(x, y|z) dy

]dx

+ β

∫Ry

[∫RfXY |Z(x, y|z) dx

]dy

= α

∫RxfX|Z(x|z) dx+ β

∫RyfY |Z(y|z) dy

= αE(X|Z) + βE(Y |Z).

Teorema 7.9.3. Sean X y Y variables aleatorias independientes, entoncesE(Y |X = x) = E(Y ) para toda X.

Demostracion. Se sabe que X y Y son independientes si y solo si,

fXY (xy) = fX(x)× fY (y)

o equivalentemente,

fY |X(y|x) =fXY (x, y)

fX(x)

y note que E(Y |X = x) =∑

y yfY |X(y|x) =∑

y yfY (y) = E(Y ).

Teorema 7.9.4. E(X) = EY [EX(X|Y )].

Page 73: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 73

Demostracion. Caso discreto para X y Y v.a.d.

EY [EX(X|Y )] =∑y

EX(X|Y )P (Y = y)

=∑y

∑x

xP (X = x|Y = y)P (Y = y)

=∑x

x∑y

P (X = x, Y = y)

=∑x

xP (X = x)

= E(X).

Caso continuo para X y Y v.a.c.

EY [EX(X|Y )] =

∫REX(X|Y )fY (y) dy

=

∫R

[∫RxfX|Y (x|y) dx

]fY (y) dy

=

∫Rx

[∫RfX|Y (x|y)fY (y) dy

]dx

=

∫Rx

[∫RfXY (x, y) dy

]dx

=

∫RxfX(x) dx

= E(X).

Teorema 7.9.5. La varianza condicional de Y dado X = x se deja escribircomo:

V (Y |X) = E[(Y − E(Y |X))2|X

]= E(Y 2|X)− [E(Y |X)]2.

Demostracion. Afirmacion:

E[(Y − E(Y |X))2 |X

]= E

[(Y 2 − 2Y E(Y |X) + E2(Y |X)

)|X]

= E(Y 2|X)− 2E(Y |X)E(Y |X) + E2(Y |X)

= E(Y 2|X)− [E(Y |X)]2.

Page 74: vectores aleatorios

74 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

En una forma mas explicita:Caso discreto:

V (Y |X) = E[Y − E(Y |X)]2|X

=∑y

[y − E(Y |X)]2P (y|X = x)

=∑y

[y2 − 2yE(Y |X) + E2(Y |X)]P (y|X = x)

=∑y

y2P (y|X = x)− 2E(Y |X)∑y

yP (y|X = x) + E2(Y |X)∑y

P (y|X = x)

= E(Y 2|X)− 2E(Y |X)E(Y |X) + E2(Y |X)

= E(Y 2|X)− 2E2(Y |X) + E2(Y |X)

= E(Y 2|X)− [E(Y |X)]2.

Caso continuo:

V (Y |X) = E[Y − E(Y |X)]2|X

=

∫R[y − E(Y |X)]2fY |X(y|x) dy

=

∫R[y2 − 2yE(Y |X) + E2(Y |X)]fY |X(y|x) dy

=

∫Ry2fY |X(y|x) dy − 2E(Y |X)

∫RyfY |X(y|x) dy + E2(Y |X)]

∫RfY |X(y|x) dy

= E(Y 2|X)− 2E(Y |X)E(Y |X) + E2(Y |X)

= E(Y 2|X)− [E(Y |X)]2.

Teorema 7.9.6. V (Y ) = E[V (Y |X)] + V [E(Y |X)].

Demostracion.

V (Y ) = E[(Y − E(Y ))2] = E[E[(Y − E(Y ))2|X]].

ahora,

E[E[(Y − E(Y ))2|X]] = E[E[(Y − E(Y |X) + E(Y |X)− E(Y ))2|X]]

= E[E[(Y − E(Y |X))2|X]] + E[E[(E(Y |X)− E(Y ))2|X]]+

2E[E[(Y − E(Y |X))(E(Y |X)− E(Y ))|X]]

Page 75: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 75

pero,

E[(Y − E(Y |X))2|X] = V (Y |X),

tambien,

E[E[(E(Y |X)− E(Y ))2|X]] = E[E[(E(Y |X)− E[E(Y |X)])2|X]]

= E[V (E(Y |X))]

y por ultimo,

E[(Y − E(Y |X)))(E(Y |X)− E(Y )|X)]

= (E(Y |X)− E(Y ))E[(Y − E(Y |X))|X]

= (E(Y |X)− E(Y ))(E(Y |X)− E(E(Y |X)|X))

= (E(Y |X)− E(Y ))(E(Y |X)− E(Y |X)) = 0

por tanto,

V (Y ) = E[V (Y |X)] + V [E(Y |X)] + 0 = E[V (Y |X)] + V [E(Y |X)].

Otra demostracion mas detallada para el teorema anterior sigue acontinuacion.

Demostracion. Caso discretoPor definicion E(V ar(Y |X)) + V ar(E(Y |X)) es:

Page 76: vectores aleatorios

76 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

E(V ar(Y |X)) + V ar(E(Y |X))

= E[E(Y 2|X)− E2(Y |X)

]+ V ar

[∑y

yP (Y = y|X = x)

]

= E[E(Y 2|X)

]− E

[E2(Y |X)

]+ V ar

[∑y

yP (Y = y|X = x)

]

= E

[∑y

y2P (Y = y|X = x)

]− E

∑y

yP (Y = y|X = x)

2

+ E

∑y

yP (Y = y|X = x)

2− E2

[∑y

yP (Y = y|X = x)

]

=∑x

∑y

y2P (Y = y|X = x)

· P (X = x)

∑x

∑y

y2P (Y = y|X = x)

· P (X = x)

2

=∑x

∑y

y2P (X = x|Y = y)−

∑x

∑y

y2P (X = x|Y = y)

2

=∑y

y2∑x

P (X = x|Y = y)−

∑y

y∑x

P (X = x|Y = y)

2

=∑y

y2P (Y = y)−

∑y

yP (Y = y)

2

= E(Y 2)− E2(Y )

= V ar(Y ).

Caso continuo

Page 77: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 77

E(V ar(Y |X)) + V ar(E(Y |X))

= E(E(Y 2|X)− (E(Y |X))2) + V ar

∫ ∞−∞

yfY |X(y|x) dy

= E

∫ ∞−∞

y2fY |X(y|x) dy

− E

[∫ ∞−∞

yfY |X(y|x) dy

]2

+ E

[∫ ∞−∞

yfY |X(y|x) dy

]2− E2

∫ ∞−∞

yfY |X(y|x) dy

= E

∫ ∞−∞

y2fY |X(y|x) dy

− E2

∫ ∞−∞

yfY |X(y|x) dy

=

∫ ∞−∞

∫ ∞−∞

y2fY |X(y|x) dy

fX(x) dx−

∫ ∞−∞

∫ ∞−∞

yfY |X(y|x) dy

fX(x) dx

2

=

∫ ∞−∞

∫ ∞−∞

y2fY |X(y|x)fX(x) dydx−∫ ∞−∞

∫ ∞−∞

yfY |X(y|x)fX(x) dydx

2

=

∫ ∞−∞

∫ ∞−∞

y2fXY (x, y) dxdy −∫ ∞−∞

∫ ∞−∞

yfXY (x, y) dxdy

2

=

∫ ∞−∞

y2

∫ ∞−∞

fXY (x, y) dx

dy −

∫ ∞−∞

y

∫ ∞−∞

fXY (x, y) dx

dy

2

=

∫ ∞−∞

y2fY (y) dy −∫ ∞−∞

yfY (y) dy

2

= E(Y 2)− E2(Y )

= V ar(Y ).

Teorema 7.9.7. E[V (Y |X)] = E[Y 2]− E[[E(Y |X)]2].

Page 78: vectores aleatorios

78 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Demostracion. Caso discreto

E[V (Y |X)] = E[E(Y 2|X)− E2(Y |X)]

=∑x

[E(Y 2|X)− E2(Y |X)]P (X = x)

=∑x

E(Y 2|X)P (X = x)−∑x

E2(Y |X)P (X = x)

=∑x

E(Y 2|X)P (X = x)−∑x

E2(Y |X)P (X = x)

= E[E(Y 2|X)]− E[E(Y |X)]2

= E[Y 2]− E[[E(Y |X)]2].

Caso continuo

E[V (Y |X)] = E[E(Y 2|X)− E2(Y |X)]

=

∫R[E(Y 2|X)− E2(Y |X)]fX(x) dx

=

∫RE(Y 2|X)fX(x) dx−

∫RE2(Y |X)fX(x) dx

= E[E(Y 2|X)]− E[E(Y |X)]2

= E[Y 2]− E[[E(Y |X)]2].

Teorema 7.9.8. V [E(Y |X)] = E[E(Y |X)]2 − [E(Y )]2.

Page 79: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 79

Demostracion. Caso discreto

V [E(Y |X)] = EE(Y |X)− E[E(Y |X)]2

= EE(Y |X)− E(Y )2

=∑x

E(Y |X)− E(Y )2P (X = x)

=∑x

[E(Y |X)]2 − 2E(Y |X)E(Y ) + E2(Y )P (X = x)

=∑x

[E(Y |X)]2P (X = x)− 2E(Y )∑x

E(Y |X)P (X = x)

+ E2(Y )∑x

P (X = x)

=∑x

[E(Y |X)]2P (X = x)− 2E(Y )E[E(Y |X)] + E2(Y )

=∑x

[E(Y |X)]2P (X = x)− 2E(Y )E(Y ) + E2(Y )

=∑x

[E(Y |X)]2P (X = x)− E2(Y )

= E[E(Y |X)]2 − [E(Y )]2.

Page 80: vectores aleatorios

80 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Caso continuo

V [E(Y |X)] =

∫RE(Y |X)− E[E(Y |X)]2fX(x) dx

=

∫RE(Y |X)− E(Y )]2fX(x) dx

=

∫R[E(Y |X)]2 − 2E(Y |X)E(Y ) + E2(Y )fX(x) dx

=

∫R[E(Y |X)]2fX(x) dx− 2E(Y )

∫RE(Y |X)fX(x) dx

+ E2(Y )

∫RfX(x) dx

=

∫R[E(Y |X)]2fX(x) dx− 2E(Y )E[E(Y |X)] + E2(Y )

=

∫R[E(Y |X)]2fX(x) dx− 2E(Y )E(Y ) + E2(Y )

=

∫R[E(Y |X)]2fX(x) dx− E2(Y )

= E[E(Y |X)]2 − [E(Y )]2.

Ejemplo 7.9.7. Sea X y Y variables aleatorias con funcion de densidad deprobabilidad conjunta dada por

fXY (x, y) =

8xy si 0 < y ≤ x < 10 en otro caso.

Calcular:

a) E(X|Y = y).

b) E(X2|Y = y).

c) V ar(X|Y = y).

Solucion:

Page 81: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 81

a)

E(X|Y = y) =

∫ ∞−∞

xfX|Y (x|y) dx.

Ahora, fX|Y (x|y) =f(x, y)

fY (y). Entonces,

fY (y) =

∫ ∞−∞

f(x, y) dx =

∫ 1

y

8xy dx

= 8y

∫ 1

y

x dx

= 4y(1− y2).

Ası, fX|Y (x|y) =8xy

4y(1− y2)=

2x

1− y2con 0 < y < 1, y ≤ x < 1.

Luego,

E(X|Y = y) =

∫ 1

y

x · 2x

1− y2dx = 2

∫ 1

y

x2

1− y2dx

=2

1− y2

∫ 1

y

x2 dx

=2

3· (1− y3)

(1− y2).

b)

E(X2|Y = y) =

∫ ∞−∞

x2fX|Y (x|y) dx

=

∫ 1

y

x2 · 2x

1− y2dx

= 2

∫ 1

y

x3

1− y2dx

=2

1− y2

∫ 1

y

x3 dx

=1

2· (1− y4)

(1− y2)

=1

2(1 + y2).

Page 82: vectores aleatorios

82 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

c)

V ar(X|Y = y) = E(X2|Y = y)− E2(X|Y = y)

=1

2(1 + y2)− 4

9· (1− y3)2

(1− y2)2

=9(1 + y2)(1− y2)2 − 8(1− y3)2

18(1− y2)2

=9(1− y4)(1− y2)− 8(1− y3)2

18(1− y2)2.

Ejemplo 7.9.8. Suponga que X e Y son variables aleatorias discretas cuyadistribucion conjunta de probabilidad esta dada por:

X|Y 1 2 31 1

1216

02 0 4

12112

3 112

112

16

Verificar que E(E(X|Y )) = E(X).

Solucion:

E(X) =∑x

xP (X = x) = P (X = 1) + 2P (X = 2) + 3P (X = 3)

=3

12+ 2 · 5

12+ 3 · 4

12

=3 + 1012

12

=25

12.

Page 83: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 83

E(E(X|Y )) = E

∑x

xP (X = x, Y = y)

P (Y = y)

= E

P (X = 1, Y = y)

P (Y = y)+ 2

P (X = 2, Y = y)

P (Y = y)+ 3

P (X = 3, Y = y)

P (Y = y)

= E

(P (X = 1, Y = y)

P (Y = y)

)+ 2E

(P (X = 2, Y = y)

P (Y = y)

)+

3E

(P (X = 3, Y = y)

P (Y = y)

)=∑y

P (X = 1, Y = y)

P (Y = y)· P (Y = y) + 2

∑y

P (X = 2, Y = y)

P (Y = y)· P (Y = y)

+ 3∑y

P (X = 3, Y = y)

P (Y = y)· P (Y = y).

=∑y

P (X = 1, Y = y) + 2∑y

P (X = 2, Y = y) + 3∑y

P (X = 3, Y = y)

= P (X = 1, Y = 1) + P (X = 1, Y = 2) + P (X = 1, Y = 3)

+ 2P (X = 2, Y = 1) + 2P (X = 2, Y = 2) + 2P (X = 2, Y = 3)

+ 3P (X = 3, Y = 1) + 3P (X = 3, Y = 2) + 3P (X = 3, Y = 3)

=1

12+

1

6+ 0 + 2(0) + 2 · 4

12+ 2 · 1

12+ 3 · 1

12+ 3 · 1

12+ 3 · 1

6

=25

12= E(X).

Ejemplo 7.9.9. Suponga que X es una variable aleatoria discreta con fun-cion de densidad dada por fX(x) = x

3, x = 1, 2 y que Y es una variable

aleatoria tal que fY |X(y|x) =(xy

)(12

)xpara y = 0, · · · , x y x = 1, 2.

Hallar

a) la distribucion conjunta de X y Y .

b) E(X|Y ).

Solucion:

a) Como fY |X(y|x) = fXY (x,y)fX(x)

⇒ fXY (x, y) = fX(x)fY |X(y|x)

Page 84: vectores aleatorios

84 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

⇒ P (X = x, Y = y) = P (X = x)P (Y = y|X = x), Y = 0, · · · , x yx = 1, 2. Notemos que:

• P (X = 1, Y = 0) = P (X = 1)P (Y = 0|x = 1) = 13· 1

2= 1

6

• P (X = 1, Y = 1) = P (X = 1)P (Y = 1|x = 1) = 13· 1

2= 1

6

• P (X = 1, Y = 2) = P (X = 1)P (Y = 2|x = 1) = 13· 0 = 0

• P (X = 2, Y = 0) = P (X = 2)P (Y = 0|x = 2) = 23· 1

4= 1

6

• P (X = 2, Y = 1) = P (X = 2)P (Y = 1|x = 2) = 23· 2

4= 2

6

• P (X = 2, Y = 2) = P (X = 2)P (Y = 2|x = 2) = 23· 1

4= 1

6

Entonces, la funcion de distribucion conjunta de X y Y esta dada por:

X|Y 0 1 21 1

616

02 1

626

16

b) Para E(X|Y = y) tenemos:

E(X|Y = y) =∑x

xP (X = x, Y = y)

P (Y = y)

=P (X = 1, Y = y)

P (Y = y)+ 2

P (X = 2, Y = y)

P (Y = y).

Entonces,

• E(X|Y = 0) = P (X=1,Y=0)P (Y=0)

+ 2P (X=2,Y=0)P (Y=0)

=1626

+ 2 ·1626

= 12

+ 1 = 32

• E(X|Y = 1) = P (X=1,Y=1)P (Y=1)

+ 2P (X=2,Y=1)P (Y=1)

=1636

+ 2 ·1636

= 13

43

= 53

• E(X|Y = 2) = P (X=1,Y=2)P (Y=2)

+ 2P (X=2,Y=2)P (Y=2)

= 016

+ 2 ·1616

= 2.

Ejemplo 7.9.10. Si X tiene una distribucion de Bernoulli de parametro py si E(Y |X = 0) = 1 y E(Y |X = 1) = 2. ¿A que es igual E(Y )?

Solucion: Como X ∼ Ber(p)⇒ P (X = x) = px(1− p)1−x con x = 0, 1.Ademas,

E(Y |X = x) =∑y

yP (X = x, Y = y)

P (X = x), P (X = 0) = 1− p, P (X = 1) = p.

Page 85: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 85

Note que,

1 = E(Y |X = 0) =∑y

yP (X = 0, Y = y)

P (X = 0)=∑y

yP (X = 0, Y = y)

1− p.

Entonces,∑y

yP (X = 0, Y = y) = 1− p

Ahora,

2 = E(Y |X = 1) =∑y

yP (X = 1, Y = y)

P (X = 1)=∑y

yP (X = 1, Y = y)

p

Entonces,∑y

yP (X = 1, Y = y) = 2p.

Por lo que

E(Y ) =∑y

yP (Y = y) =∑y

yP (X = 0, Y = y) +∑y

yP (X = 1, Y = y)

= 1− p+ 2p

= 1− p.

Ejemplo 7.9.11. Suponga que la funcion de densidad de probabilidad con-junta de la variable aleatoria X e Y esta dada por

f(x, y) =

e−y para x > 0,y > x0 en otro caso.

Calcular:

a) P (X > 2|Y < 4).

b) E(X|Y = y).

c) E(Y |X = x).

Solucion

Page 86: vectores aleatorios

86 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

a)

P (X > 2|Y < 4) =P (X > 2, Y < 4)

P (Y < 4)=

∫∞2

∫ 4

2e−y dxdy∫∞

0

∫ 4

0e−y dxdy

=2∫∞

2(e−y dy

4∫∞

0e−y dy

=2e−2

4e0

=1

2e−2.

b) E(X|Y ) =

∫ ∞−∞

xfX|Y (x|y) dx =

∫ y

0

xfX|Y (x|y) dx.

Ahora, fY (y) =

∫ y

0

f(x, y) dx =

∫ y

0

e−y dx = ye−y, entonces

fX|Y =e−y

ye−y=

1

y, si 0 < x < y.

Ası, E(X|Y ) =

∫ y

0

x

(1

y

)dx =

y

2.

c) E(Y |X) =

∫ ∞−∞

yfY |X(y|x) dy =

∫ ∞x

yfY |X(y|x) dy

Note que,

fX(x) =

∫ ∞x

e−y dy = e−x, entonces fY |X =e−y

e−x= ex−y.

Luego,

E(Y |X) =

∫ ∞x

yex−y dy = ex∫ ∞x

ye−y dy

= ex[xe−x+ e−x]

= (x+ 1).

Covarianza Condicional

Definicion 7.9.4. Sean X, Y y Z variables aleatorias. La covarianza con-dicional de X y Y dado Z se define por:

cov(X, Y |Z) = E[(X − E(X|Z))(Y − E(Y |Z))|Z].

Page 87: vectores aleatorios

7.9. ESPERANZA CONDICIONAL 87

Teorema 7.9.9. Sean X, Y y Z variables aleatorias. Entonces,

cov(X, Y |Z) = E(XY |Z)− E(X|Z)E(Y |Z).

Demostracion.

cov(X, Y |Z) = E[(X − E(X|Z))(Y − E(Y |Z))|Z]

= E[(XY −XE(Y |Z)− Y E(X|Z) + E(X|Z)E(Y |Z))|Z]

= E(XY |Z)− E(XE(Y |Z)|Z)− E(Y E(X|Z)|Z) + E((E(X|Z)E(Y |Z))|Z).

Como E(Y |Z) y E(X|Z) dependen de Z, usamos el teorema visto sobreesperanza condicional y se tiene que

cov(X, Y |Z) = E(XY |Z)− E(Y |Z)E(X|Z)− E(X|Z)E(Y |Z) + E(X|Z)E(Y |Z)E(1|Z)︸ ︷︷ ︸1

= E(XY |Z)− E(X|Z)E(Y |Z).

Teorema 7.9.10. cov(X, Y ) = E[cov(X, Y |Z)] + cov[E(X|Z), E(Y |Z)].

Demostracion. Como E(XY |Z)− E(X|Z)E(Y |Z) = cov(X, Y |Z),note que

E[cov(X, Y |Z)] = E(E(XY )|Z)− E(E(X|Z)E(Y |Z))

= E(XY )− E(E(X|Z)E(Y |Z)). (7.1)

Ahora,

cov(E(X|Z), E(Y |Z)) = E(E(X|Z)E(Y |Z))− E(E(X|Z))E(E(Y |Z))

= E(E(X|Z)E(Y |Z))− E(X)E(Y ). (7.2)

Al sumar las expresiones en (7,1) y (7,2) se obtiene

E[cov(X, Y )|Z] + cov(E(X|Z), E(Y |Z)) = E(XY )− E(E(X|Z)E(Y |Z))+

E(E(X|Z)E(Y |Z))− E(X)E(Y )

= cov(X, Y ).

Page 88: vectores aleatorios

88 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

7.10. Distribucion del Mınimo y del Maximo

Teorema 7.10.1. Considere el conjunto X1, X2, ..., Xm de v.a.i. con fdaF1, F2, ..., Fm respectivamente. Las expresiones de la funcion de distribucionde Y1 = min(X1, X2, ..., Xm) y Ym = max(X1, X2, ..., Xm) son dadas respec-tivamente por:

FY1 = 1−m∏i=1

[1− FXi(z)]

y

FYm =m∏i=1

FXi(z).

Demostracion. i)

P (Y1 > z) = P (minX1, X2, ..., Xm > z)

= P (X1 > z,X2 > z, ..., Xm > z)

= P (X1 > z)P (X2 > z), ..., P (Xm > z)

= [1− P (X1 ≤ z)][1− P (X2 ≤ z)], ..., [1− P (Xm ≤ z)]

=m∏i=1

[1− P (Xi ≤ z)]

=m∏i=1

[1− FXi(z)]

⇒ FY1(z) = P (Y1 ≤ z) = 1− P (Y1 > z) = 1−m∏i=1

[1− FXi(z)].

Si X1, X2, ..., Xm son identicamente distribuidas, entonces:

FY1 = 1− [1− FX(z)]m

⇒ fY1 = mfX(z)[1− FX(z)]m−1.

Page 89: vectores aleatorios

7.10. DISTRIBUCION DEL MINIMO Y DEL MAXIMO 89

ii)

FYm(z) = P (Ym ≤ z) = P (maxX1, X2, ..., Xm ≤ z)

= P (X1 ≤ z,X2 ≤ z, ..., Xm ≤ z)

= P (X1 ≤ z)P (X2 ≤ z)...P (Xm ≤ z)

=m∏i=1

FXi(z).

Si X1, X2, ..., Xm son identicamente distribuidas, entonces.

FYm(z) = [FX(z)]m ⇒ fYm = mfX(z)[FX(z)]m−1.

Ejemplo 7.10.1. Considere un sistema de n baterıas identicas operandosimultaneamente en el sistema. Considere ahora que el tiempo de vida decualquiera de ella tiene la misma funcion de densidad dada por:

fX(x) =

1λe−xλ si x > 0

0 caso contrario

con fdaFX(x) = 1− e

−xλ para x > 0.

Encuentre la distribucion del tiempo de falla cuando el sistema se encuentraen serie y cuando el sistema se encuentra en paralelos.Solucion:

i) Si el sistema se encuentra en serie (ver figura), entonces el tiempo devida del sistema esta definido por:

Y = minX1, X2, ..., Xm,

entonces:

fY (y) = n1

λe−yλ [1− (1− e

−yλ )]n−1 =

n

λe−yλ e−(n−1) y

λ =n

λe−nyλ .

⇒ y1 ∼ Exp

n

)⇒ E(Y1) =

n

λ.

Page 90: vectores aleatorios

90 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Figura 7.15: Sistema de n baterıas en serie.

Figura 7.16: Sistema de n baterıas en paralelo.

ii) Si el sistema se encuentra en paralelo (ver figura), entonces el tiempode vida del sistema esta definido por:

Y = maxX1, X2, ..., Xm,

⇒ fXn(y) = n1

λe−yλ (1− e

−yλ )n−1

=n

λe−yλ (1− e

−yλ )n−1; y > 0.

⇒ E(Yn) =

∫ ∞0

yn

λe−yλ (1− e

−yλ )n−1 dy

= −nλ∫ 1

0

ln(1− u)un−1 du.

7.11. Transformaciones Inyectivas de Vecto-

res Aleatorios

Extendemos ahora la transformacion de v.a. unidimensionales al caso de vec-tores aleatorios, donde nuevamente el objetivo es, a partir del vector aleatorio

Page 91: vectores aleatorios

7.11. TRANSFORMACIONES INYECTIVAS DE VECTORES ALEATORIOS91

X con funcion de distribucion FX, encontrar la funcion de distribucion delvector Y = (Y1, Y2, ..., Ym) donde Y = g(X).Suponiendo que g : Rm −→ Rn, con m < n es una funcion que se puederepresentar en la forma g = (g1, g2, ..., gk), entonces, si g es diferenciable encada punto x ∈ Rm, el jacobiano de g es:

Jg(X) = det

∂g1(X)∂x1

∂g1(X)∂x2

· · · ∂g1(X)∂xn

......

. . ....

∂gn(X)∂x1

∂gn(X)∂x2

· · · ∂gn(X)∂xn

6= 0,

donde det(·) denota la funcion determinante y la matriz en su argumento es

denominada matriz jacobiana, definida por ∂g(X)∂Xt .

Sı g : U −→ V es inyectiva tal que V = g(U), entonces g es biyectiva, luegoexiste g−1 : V −→ U tal que si Y ∈ V , Jg(g

−1(Y)) 6= 0. Entonces, resultaque g−1 es diferenciable en y ∈ V y se tiene que.

Jg−1(y) =1

Jg(g−1(y)).

Teorema 7.11.1. Sea X = (X1, X2, ..., Xn) un v.a.c. con fdp conjunta fX(x).Sea Y = g(X) = (g1(X), g2(X), ..., gn(X)), es decir, Yi = gi(X) para todoi = 1, 2, ..., n donde g : U −→ V es una funcion inyectiva. Suponga quepara todo i = 1, 2, ..., n, gi(X) tiene derivadas parciales continuas y ademasque g−1

i (Y) existe y tambien es continua de tal forma que para todo y =(y1, y2, ..., yn) ∈ V se tiene que Jg−1(y) 6= 0. Entonces,

fY(y) = fX(g−1(y))|Jg−1(y)|IV (y),

donde V = g(U) e IV es la funcion indicadora del conjunto V .

Ejemplo 7.11.1. Consideremos el vector aleatorio X con densidad conjuntafX1,X2(x1, x2) = I(0,1)(x1)I(0,1)(x2) y las transformaciones Y1 = X1 + X2 ,Y2 = X1 −X2. Encontrar fY1Y2(y1, y2).Solucion:

g : R2 −→ R2

(X1, X2) −→ (X1 +X2, X1 −X2).

Entonces,

y = (y1, y2) = g(x1, x2) = (g1(x1, x2), g2(x1, x2)) = (x1 + x2, x1 − x2).

Page 92: vectores aleatorios

92 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Ahora, y1 = x1 +x2 y y2 = x1−x2 ⇒ y1 +y2 = 2x1 −→ x1 = y1+y22, tambien

y1 − y2 = 2x2 −→ x2 = y1−y22, luego,

g−1 : R2 −→ R2

es tal que

(y1, y2) −→ g−1(y1, y2) = (g−11 (y1, y2), g−1

2 (y1, y2)) =

(y1 + y2

2,y1 − y2

2

).

Ası,

Jg−1(y) = det

(∂g−1

1 (y1,y2)

∂y1

∂g−11 (y1,y2)

∂y2∂g−1

2 (y1,y2)

∂y1

∂g−12 (y1,y2)

∂y2

)= det

(12

12

12−1

2

)= −1

2.

Entonces, la fdp del v.a.c. (Y1, Y2) viene dado por:

⇒ fY1Y2(y1, y2) = fX1,X2

(y1 + y2

2,y1 − y2

2

) ∣∣∣∣−1

2

∣∣∣∣ IV (y1, y2)

= 1 · 1

2IV (y1, y2)

=1

2IV (y1, y2).

Para la nueva region de integracion se tiene que:

0 < x1 < 1 ⇒ 0 <y1 + y2

2< 1 ⇒ 0 < y1 + y2 < 2

y

0 < X2 < 1 ⇒ 0 <y1 − y2

2< 1 ⇒ 0 < y1 − y2 < 2

entonces la nueva region de integracion queda definida por:

V = (y1, y2)|0 < y1 + y2 < 2, 0 < y1 − y2 < 2.

Ejemplo 7.11.2. Sea la fdp conjunta

fX1X2(x1, x2) = 4x1x2I(0,1)(x1)I(0,1)(x2).

Suponga que Y1 = X1

X2y Y2 = X1X2. Encuentre la fdp del vector (Y1, Y2).

Page 93: vectores aleatorios

7.11. TRANSFORMACIONES INYECTIVAS DE VECTORES ALEATORIOS93

Solucion:Sean y1 = g1(x1, x2) = x1

x2y y2 = g2(x1, x2) = x1x2

⇒ y1y2 = x21 y

y2

y1

= x22

⇒ x1 = g−11 (y1, y2) = (y1y2)

12 y x2 = g−1

2 (y1, y2) =(y2y1

) 12. Entonces,

Jg−1(y) = det

(∂g−1

1 (y1,y2)

∂y1

∂g−11 (y1,y2)

∂y2∂g−1

2 (y1,y2)

∂y1

∂g−12 (y1,y2)

∂y2

)

= det

y122

2y121

y121

2y122

− y122

2y121

1

2y121 y

122

=

1

4

(1

y1

+1

y1

)=

1

2y1

.

⇒ fY1,Y2(y1, y2) = 4(y1y2)12

(y2

y1

) 12∣∣∣∣ 1

2y1

∣∣∣∣ IV (y1, y2)

=2y2

y1

IV (y1, y2).

Ahora, la nueva region de integracion viene dada por:

0 < x1 < 1, 0 < x2 < 1⇒ 0 < (y1y2)12 < 1 y 0 <

(y2

y1

) 12

< 1

⇒ V =

(y1, y2) ∈ R+ ×R+| 0 < (y1y2)

12 < 1, 0 <

(y2

y1

) 12

< 1

.

Observacion 7.11.1. En los casos que la derivada de las funciones inversasresulten complicadas, se tiene la opcion de calcular el jacobiano de la funciong y luego usar la relacion del jacobiano de g−1 y el jacobiano de g. Ası, para

Page 94: vectores aleatorios

94 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

el ejemplo anterior, g−11 (y1, y2) = (y1y2)

12 y g−1

2 (y1, y2) =(y2y1

) 12. Entonces,

Jg(x1, x2) = det

( 1x2−x1x22

x2 x1

)=x1

x2

+x1

x2

=2x1

x2

.

Luego,

Jg(g−1(y1, y2)) = 2

(y1y2)12(

y2y1

) = 2y1 ⇒ Jg−1(y) =1

Jg(g−1(y))=

1

2y1

.

Ejemplo 7.11.3. Sea Xi ∼ Gamma(αi, λ) para i = 1, 2. Asuma que X1 yX2 son variables aleatorias independientes.

1. Encuentre la distribucion conjunta de Y1 = X1 +X2 y Y2 = X1/X2.

2. Encuentre la distribucion de Y2 cuando α1 = α2 = 1.

Solucion

1. Sean y1 = x1 + x2 y y2 = x1x2⇒ g−1(y1, y2) =

(y1y2y2+1

, y1y2+1

). Luego,

Jg−1(y) = det

∣∣∣∣∣ y2y2+1

y1(y2+1)2

1y2+1

− y1(y2+1)2

∣∣∣∣∣ = − y1

(y2 + 1)2.

fY1Y2(y1, y2) =

∣∣∣∣− y1

(y2 + 1)2

∣∣∣∣ fX1

(y1y2

y2 + 1

)fX2

(y1

y2 + 1

)IV (y1, y2)

=y1

(y2 + 1)2

λα1

Γ(α1)

(y1y2

y2 + 1

)α1−1

e−λ(y1y2y2+1

λα2

Γ(α2)

(y1y2

y2 + 1

)α2−1

e−λ(y1y2y2+1

)IV (y1, y2)

donde V =

(y1, y2)|0 < y1y2y2+1

<∞, 0 < y1y2+1

<∞.

Page 95: vectores aleatorios

7.11. TRANSFORMACIONES INYECTIVAS DE VECTORES ALEATORIOS95

2.

fY2(y2) =yα2−1

2

(y2 + 1)2(y2 + 1)α1−1(y2 + 1)α2−1

∫ ∞0

λα1+α2

Γ(α1)Γ(α2)yα1

1 yα2−11 e−λy1dy1

=y1−1

2

(y2 + 1)2(y2 + 1)1−1(y2 + 1)1−1

∫ ∞0

λ2

Γ(1)Γ(1)y1y

1−11 e−λy1dy1

=1

(y2 + 1)2

∫ ∞0

λ2y1e−λy1dy1

=1

(y2 + 1)2Γ(2)

∫ ∞0

λ2

Γ(2)y2−1

1 e−λy1dy1

=1

(y2 + 1)2.

Observacion 7.11.2. Si g : Rk −→ Rn, entonces

i) para n > k no es posible tener g biyectiva y por lo tanto imposible deaplicar el Teorema anterior.

ii) Para n < k donde cada gi es diferenciable, para i = 1, 2, ..., n, entoncespara i = n+ 1, n+ 2, ..., k se buscan (si existen) funciones gi tales queg = (g1, g2, ..., gn, gn+1, gn+2, ..., gk) sea inyectiva con jacobiano distintode cero para todo y.

entonces, Para g, encontramos la distribucion de Y = (Y1, Y2, ..., Yn, Yn+1, ..., Yk)aplicando el Teorema anterior.

⇒ fY(y1, y2, ..., yn, yn+1, ..., jk) = fX(g−1(y))∣∣Jg−1(y)

∣∣ IV (y)

⇒ fY(y1, y2, ..., yn) =

∫ ∞−∞

...

∫ ∞−∞

fY(y1, y2..., yk) dyn+1 ...dyk .

Ejemplo 7.11.4. Sea X = (X1, X2) un vector aleatorio y consideremos Y =g(X1, X2) = X1 +X2, entonces

g : R2 −→ R

ası,(X1, X2) −→ X1 +X2.

Ahora, para encontrar la distribucion de Y hacemos

⇒ Y = (Y1, Y2) = (g1(X1, X2), g2(X1, X2)) = g(X),

Page 96: vectores aleatorios

96 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

donde Y1 = Y = g1(X1, X2) = X1 + X2 y tomamos (por conveniencia) lafuncion Y2 = g2(X1, X2) = X2. Ası, se obtiene

x1 = g−11 (y1 − y2), x2 = g−1

2 (y1, y2) = y2.

Entonces,

Jg−1(y) = det

(1 −10 1

)= 1

⇒ fY(y) = fX((g1(X1, X2), g2(X1, X2)))|Jg−1(y)|IV (y1, y2)

= fX(Y1 − Y2, Y2)× 1× IV (y1, y2)

⇒ fY1Y2(y1, y2) = fX1X2(y1 − y2, y2)IV (y1, y2)

⇒ fY (Y ) =

∫RfX1X2(y1 − y2, y2) dy2.

Observacion 7.11.3. Si en el ejercicio anterior X1 y X2 son v.a.i. entonces,

fY =

∫RfX1(y1 − y2)fX2(y2) dy2

fY (y) =

∫RfX1(y1 − y2)fX2(y2) dy2

denominada la convolucion de X1 y X2 la cual se denota por : (fX1 ∗ fX2)(y).

Ejemplo 7.11.5. Sean X, Y v.a.i. con distribucion Exp(λ) encontrar la dis-tribucion de la v.a. Z = X + Y.Solucion: Sea Z = X + Y y definamos V = Y entonces, X = Z − V yY = V. Luego,

Jg−1(z, v) = det

(1 −10 1

)= 1.

Page 97: vectores aleatorios

7.12. TRANSFORMACIONES NO INYECTIVAS 97

Entonces,

fZ(z) = (fX ∗ fY )(v)

=

∫ ∞−∞

fX(z − v)fY (v)IV (v) dv

=

∫ Z

0

λe−λ(z−v)λeλv dv

= λ2e−λz∫ z

0

dv

= λ2e−λzv|z0

= λ2ze−λz =λ2

Γ(2)z2−1e−λz.

Entonces, Z ∼ Gamma(2, λ).

7.12. Transformaciones no Inyectivas

Teorema 7.12.1. Sea X = (X1, X2, ..., Xk) un v.a. absolutamente continuocon densidad fX(x). Sea g = ∪hi=1Ai −→ Rk tal que Ai∩Aj = ∅ para i 6= j,una funcion tal que es inyectiva y diferenciable en Ai con Jg(x) 6= 0 para todox ∈ Ai. Entonces el vector Y = g(X) tambien es absolutamente continuocon densidad.

fY(y) =h∑i=1

fX(g−1i (y))|Jg−1(y)|Ivi(y)

donde vi = g(Ai), gi = g|vi , g−1i : vi −→ Ai es la inversa de gi.

Ejemplo 7.12.1. Sea X ∼ N(0, 1) y g : R −→ R tal que g(X) = X2.Entonces, como g no es inyectiva definamos y = g(x) = x2 y tomemosA1 = x : x < 0 y A2 = x : x > 0. Luego, g−1

1 (x) = −√y y g−12 (x) =

√y.

En este caso, v1 = v2 = R+,

Jg−11

(y) = −1

2y−

12 y Jg−1

2(y) =

1

2y−

12 .

Page 98: vectores aleatorios

98 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Entonces, se sigue que

fY (y) =1√2πe−

12y

∣∣∣∣−1

2

∣∣∣∣ Iv1(y) +1√2πe−

12y

∣∣∣∣12∣∣∣∣ Iv2(y)

=1√2πe−

12yIy:y>0(y).

⇒ Y ∼ Gamma(12, 1

2) = χ2

1.

7.13. Distribucion de Sumas, Diferencias, Pro-

ductos y Cocientes de v.a.

Ejemplo 7.13.1. Para el v.a. (X, Y ) tiene fdp conjunta fXY (x, y).

a) Encontrar la fdp conjunta de Z = X + Y y W = X − Y

b) Encontrar la fdp marginal de Z

c) Encontrar la fdp marginal de W

Solucion:

a) X = Z+W2

y Y = Z−W2⇒ Jg−1(z, w) = −1

2. Entonces,

fZW (z, w) =1

2fXY

(z + w

2,z − w

2

).

b)

fZ(z) =

∫R

1

2fXY

(z + w

2,z − w

2

)dw

=

∫RfXY (u, z − u) du, tomando u = z+w

2,∫

RfXY (z − u, u) du, tomando u = z−w

2.

Si X y Y son v.a.i.

⇒ fZ(z) =

∫ ∞−∞

fX(z − u)fY (u) du =

∫ ∞−∞

fX(u)fY (z − u) du.

Page 99: vectores aleatorios

7.13. DISTRIBUCION DE SUMAS, DIFERENCIAS, PRODUCTOS Y COCIENTES DE V.A.99

c)

fW (w) =

∫R

1

2fXY

(z + w

2,z − w

2

)dz

=

∫RfXY (u, u− w) du, tomando u = z+w

2,∫

RfXY (u+ w, u) du, tomando u = z−w

2.

Ejemplo 7.13.2. Sean X y Y v.a.i. con fdp

fX(x) =

1 si 1 < x < 20 c.c

fY (y) =

12

si 3 < y < 50 c.c

⇒ z = x+ y

fZ(z) =

∫ ∞−∞

fX(u)fY (z − u) du

=

∫ ∞−∞

1I(1,2)(u)1

2I(3,5)(z − u) du

=1

2

∫ ∞−∞

I(1,2)(u)I(3,5)(z − u) du

1 < u < 23 < z − u < 5z − u = 3⇒ z = u+ 3z − u = 5⇒ z = u+ 5

fZ(z) =

12

∫ z−3

1

du si 4 < z < 5

12

∫ 2

1

du si 5 < z < 6

12

∫ 2

z−5

du si 6 < z < 7

=

12(z − 4) si 4 < z < 5

12

si 5 < z < 612(7− z) si 6 < z < 7

Ejemplo 7.13.3. Sean X y Y variables aleatorias con fdp conjuntafXY y sea Z = XY entonces, para encontrar la fdp de Z definimos

Page 100: vectores aleatorios

100 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Z = g1(X, Y ) = XY y tomamos (por conveniencia)W = g2(X, Y ) = Y.De aquı se obtiene que

g(z, w) = (xy, y) ⇒ g−1(z, w) =(zw, w). Entonces, Jg−1(z, w) = 1

w.

Ası, la fdp conjunta de (Z,W ) es:

fZW (z, w) =

∣∣∣∣ 1

w

∣∣∣∣ f ( zw,w) .Entonces,

fZ(z) =

∫ ∞−∞

1

|w|f( zw,w)dw =

∫ ∞−∞

1

|v|f(v,z

v

)dv.

Sean X y Y variables aleatorias tal que P (Y = 0) = 0 y con fdp conjun-ta fXY . Para encontrar la fdp de Z = X

Y, definimos Z = g1(X, Y ) = X

Yy

tomamos (por conveniencia) W = g2(X, Y ) = Y. De aquı se obtiene que

g(z, w) =(xy, y)⇒ g−1(z, w) = (zw,w) . Entonces, Jg−1(z, w) = w.

Ası, la fdp conjunta de (Z,W ) es:

fZW (z, w) = |w| f (zw,w) .

Entonces,

fZ(z) =

∫ ∞−∞|w|f (zw,w) dw.

Ejemplo 7.13.4. Sean X y Y v.a.i con distribucion U(0, 1) para Z = XY

fZ(z) =

∫ ∞−∞

1

|v|fxy

(v,z

v

)dv

=

∫ ∞−∞

1

|v|fx(v)fy

(zv

)dv

=

∫ ∞−∞

1

vI(0,1)(v)I(0,1)

(zv

)dv ⇒ 0 < v < 1 ∧ 0 <

z

v< 1⇒ z < u < 1

=

∫ 1

z

1

vdv

= ln|v|∣∣1z = −ln|z| = lnz−1

Page 101: vectores aleatorios

7.14. DISTRIBUCION T-STUDENT 101

7.14. Distribucion t-Student

Sean U y V v.a.i. normal estandar y chi-cuadrado con p grados de libertadrespectivamente, entonces la fdp conjunta de U y V es:

fUV (u, v) = 1

(2π)12e−

u2

21

Γ( p2

)2p2vp2−1e−

12 −∞ < u <∞ , −∞ < v <∞

Sean t = u√vp

y w = v ⇒ Jg−1(t, w) =(wp

) 12

ası

⇒ v = w y t = u√wp

⇒ u = t√

wp⇒ g−1(t, w) =

(t√

wp, w

)⇒ fTW (t, w) = fuv(g

−1(t, w))|Jg−1(t, w)|Iv(t, w)

=1

(2π)12

e−12

(t2 wp

) 1

Γ(p2)2

p2

wp2−1e−

w2

(w

p

) 12

Iv(t, w)

=1

√2πΓ(p

2)2

p2 p

12

wp+12−1e−

12w( t

2

p+1)

⇒ fT (t) =

∫ ∞0

fTW (t, w) dw

=1

(2π)12 Γ(p

2)2

p2 p

12

Γ

(p+ 1

2

)[2

1 + t2

p

] p+12

·∫ ∞0

1

Γ(p+12

)

[2

1+ t2

p

] p+12

wp+12−1e−

12w(1+ t2

p)

︸ ︷︷ ︸Gamma

(p+12, 2

1+ t2p

)

dw

=Γ(p+1

2

)2

12

(2π)12 Γ(p

2)p

12

[1

1 + t2

p

] p+12

=Γ(p+1

2

)(π)

12 Γ(p

2)p

12

[1

1 + t2

p

] p+12

Page 102: vectores aleatorios

102 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

⇒ T ∼ tp.

Teorema 7.14.1. Sea X una variable aleatoria con distribucion t-student,entonces E(T ) = 0 para P > 2 y V (T ) = p

p−2para P > 2.

Demostracion. Hallemos E(T ). Sea k =Γ(p+1

2)

Γ(p2)√πp

E(T ) =

∫ ∞−∞|t|k

(1 +

t2

p

)−( p+12

)

dt

=

∫ ∞0

tk

(1 +

t2

p

)−( p+12

)

dt−∫ 0

−∞tk

(1 +

t2

p

)−( p+12

)

dt

= 2k

∫ ∞0

t

(1 +

t2

p

)−( p+12

)

dt

Sea u = 1 + t2

pdu = 2

ptdt⇒ p

2du = tdt,

t = 0⇒ u = 0 ∧ t→∞⇒ u→∞

E(T ) = kp

∫ ∞0

u−( p+12

) dt = kpu−( p+1

2)+1

−(p+12

) + 1

∣∣∣∣∣∞

0

= kpu−

p2− 1

2+1

−p2− 1

2+ 1

∣∣∣∣∣∞

0

=

(2kp

1− p

)u

12

(1−p)∣∣∣∞0

=

(2kp

1− p

)u

12

up2

∣∣∣∣∣∞

0

= 0

ya que,

lımu→∞

u12

up2

= lımu→∞

u−12

pup2−1

=1

plımu→∞

1

up2−1u

12

=1

plımu→∞

1

u12

(p−1)= 0, si p ≥ 2.

Ası, E(T ) = 0

Para V (T ) tenemos que, V (T ) = E(T 2)−E2(T ) = E(T 2) ya que E(T ) = 0.

Page 103: vectores aleatorios

7.14. DISTRIBUCION T-STUDENT 103

Ası,

V (T ) = E(T 2) =

∫ ∞−∞

t2k

(1 +

t2

p

)−( p+12

)

dt

= 2k

∫ ∞0

t2(

1 +t2

p

)−( p+12

)

dt

Sea u = t2

p⇒ du = 2

ptdt ademas, pu = t2 ⇒ p

2tdu = dt tambien,

√pu = t⇒

p2√pudu = dt⇒

√p

2√udu = dt. Entonces,

E(T 2) = k

∫ ∞0

pu (1 + u)−( p+12

)

√p√udu

= kp√p

∫ ∞0

u12 (1 + u)−

12− p

2 du

= kp32

∫ ∞0

u( 12

+1)−1 (1 + u)−( 12

+1)−( p2−1) du

= kp32

∫ ∞0

u32−1 (1 + u)−( 3

2)−( p

2−1)︸ ︷︷ ︸

β( 32, p2−1)

= kp32

Γ(32)Γ(p

2− 1)

Γ(32

+ p2− 1)

du.

Reemplazando el valor de k tenemos que:

V (T ) = E(T 2) =Γ(p+1

2)

Γ(p2)√πp

p32 Γ(3

2)Γ(p

2− 1)

Γ(p2

+ 12)

=p

32 Γ(1

2+ 1)Γ(p

2− 1)

(p2− 1)Γ(p

2− 1)√πp

12

=p(1

2)Γ(1

2)

(p2− 1)√π

Como Γ(12) =√π, entonces, V (T ) =

p2

√π

(p2− 1)√π

=p2p−2

2

=p

p− 2.

Observacion 7.14.1. Cuando p = 1 entonces sigue la distribucion cauchy.

Page 104: vectores aleatorios

104 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

7.15. Distribucion F-Fisher

Sean U y V v.a.i chi-cuadrado con m y n grados de libertad respectivamente,entonces la fdp conjunta de U y V es:

fUV (u, v) =1

Γ(m2

)2m2

um2−1e−

u2

1

Γ(n2)2

n2

vn2−1e−

v2 0 < u <∞ 0 < v <∞

=1

Γ(m2

)Γ(n2)2

m+n2

um2−1v

n2−1e−

12

(u+v)I(o,∞)(u)I(0,∞)(v)

Sean x =umvn

y y = v ⇒ Jg−1(x, y) = mny y

fXY (x, y) =m

ny

1

Γ(m2

)Γ(n2)2

m+n2

(mnxy)m

2−1

yn2−1e−

12

(mnx+y)

⇒ fX(x) =

∫ ∞0

fXY (x, y) dy

=1

Γ(m2

)Γ(n2)2

m+n2

(mn

)m2xm2−1

∫ ∞0

ym+n

2−1e−

12

(mnx+1)y︸ ︷︷ ︸

k∗Gamma(m+n

2, 2mn x+1

) dy.

=Γ(m+n

2

)Γ(m

2)Γ(n

2)

(mn

)m2 x

m2 − 1[

1 + mnx]m+n

2

I(0,∞)(x)

⇒ X ∼ Fm,n.

Teorema 7.15.1. E(X) = nn−2

para n > 2 y V (X) = 2n2(m+n−2)m(n−2)2(n−4)

paran > 4.

Demostracion. Encontremos la esperanza de Xk, entonces

E(Xk) =(mn

)m2

β(m2, n

2)

∫ ∞0

x(m2

+k)−1

(n

mx+ n

)m+n2

dx.

Sea

y =n

mx+ n⇒ dy = n

(−m

(mx+ n)2

)dx

⇒ ndy = −m(

nmx+n

)2dx⇒ ndy = −my2dx⇒ dx = − n

my−2dy y = n

mx+n⇔

x = nm

(1−yy

). Ahora, cuando x→ 0⇒ y → 1 y cuando x→∞⇒ y → 0.

Page 105: vectores aleatorios

7.15. DISTRIBUCION F-FISHER 105

⇒ E(Xk) =(mn

)m2

β(m2, n

2)

∫ 0

1

[n

m

(1− yy

)](m2

+k)−1

(y)m+n

2

(− nmy−2)dy

=(mn

)m2

β(m2, n

2)

( nm

)m2

+k−1∫ 1

0

(1− y)(m2

+k)−1 ym+n

2+1−m

2−k−2 dy

=(mn

)k

β(m2, n

2)

∫ 1

0

(1− y)(m2

+k)−1 y(n2−k)−1︸ ︷︷ ︸

β(n2−k,m

2+k)

dy

⇒ E(Xk) =(mn

)k

β(m2, n

2)β(n

2− k, m

2+ k)

=( nm

)k Γ(n2

+ m2

)

Γ(n2)Γ(m

2)·

Γ(n2− k)Γ(m

2+ k)

Γ(n2

+ m2

)

=( nm

)k Γ(n2− k)Γ(m

2+ k)

Γ(n2)Γ(m

2)

.

Ahora, encontremos la esperanza de X. Entonces,

E(X) =( nm

) Γ(n2− 1)Γ(m

2+ 1)

Γ(n2)Γ(m

2)

=( nm

) Γ(n2− 1)(m

2)Γ(m

2)

Γ(n2− 1 + 1)Γ(m

2)

=( nm

)(m2

) Γ(n2− 1)

(n2− 1)Γ(n

2− 1)

=n

2

(2

n− 2

).

⇒ E(X) =n

n− 2, n > 2.

Ahora, encontremos la varianza de X.

Page 106: vectores aleatorios

106 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

⇒ E(X2) =( nm

)2 Γ(n2− 2)Γ(m

2+ 2)

Γ(n2)Γ(m

2)

=( nm

)2 Γ(n2− 2)(m

2+ 1)(m

2)Γ(m

2)

(n2− 1)(n

2− 2)Γ(n

2− 2)Γ(m

2)

=( nm

)2 (m+2)m4

(n−2)(n−4)4

=( nm

)2 (m+ 2)m

(n− 2)(n− 4)

=n2(m+ 2)

m(n− 2)(n− 4).

⇒ V (X) =n2(m+ 2)

m(n− 2)(n− 4)− n

n− 2

=n2((m+ 2)(n− 2)− (n− 4)m)

m(n− 2)2(n− 4)

=n2(mn− 2m+ 2n−mn+ 4m− 4)

m(n− 2)2(n− 4)

⇒ V (X) =2n2(m+ n− 2)

m(n− 2)2(n− 4).

7.16. Funcion Generadora de Momentos Mul-

tivariada (FGMM)

Definicion 7.16.1. SeanX1, X2, ..., Xn v.a.i. definidas en (Ω,=, P ) y t1, t2, ..., tnnumeros reales definimos la FGMM por:

MX1,X2,...,Xn(t1, t2, ..., tn) = E[et′X]

= E[et1X1+...+tnXn

],

donde X = (X1, X2, ..., Xn)′

y t′

= (t1, t2, ..., tn) desde que la esperanza seafinita para los tj tomados en una vecindad de cero.La funcion caracterıstica multivariada se define en forma analoga por:

∅X1,X2,...,Xn(t1, t2, ..., tn) = E(eit′X) = E(ei(t1X1+...+tnXn)).

Page 107: vectores aleatorios

7.16. FUNCION GENERADORA DE MOMENTOS MULTIVARIADA (FGMM)107

Teorema 7.16.1. Sean X1, X2, ..., Xn v.a.i. y FGM respectivamente igualesa MXj(t), para j = 1, 2...n y t en alguna vecindad de cero. Sea Y = X1 +X2 + ...+Xn, entonces la FGM de Y es dada por:

MY (t) =n∏j=1

MXj(t).

Demostracion.

MY (t) = E(etX1+tX2+...+tXn)

=

∫R...

∫Retx1+tx2+...+txnfX1...Xn(x1...xn)

n∏j=1

dxj

=

∫R...

∫Retx1+tx2+...+txnfX1(x1fX2(x2)...fXn(xn)

n∏j=1

dxj

=

∫Retx1fX1(x1) dx1

∫Retx2fX2(x2) dx2...

∫RetxnfXn(xn) dxn

= MX1(t)MX2(t)...MXn(t)

=n∏j=1

MXj(t).

Teorema 7.16.2. Sean X1, X2, ..., Xn v.a con FGMM MX1...Xn(t1...tn) conlos tj tomados en una vecindad de cero. Entonces, las variables aleatoriasX1, X2, ..., Xn son independientes, si y solamente si la FGMM puede ser es-crita como:

MX1X2...Xn(t1t2...tn) =n∏j=1

MXj(tj)

Page 108: vectores aleatorios

108 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Demostracion.

”⇒ ”MY (t) = E(etX1+tX2+...+tXn)

=

∫R...

∫Retx1+tx2+...+txnfX1...Xn(x1...xn)

n∏j=1

dxj

=

∫R...

∫Retx1+tx2+...+txnfX1(x1fX2(x2)...fXn(xn)

n∏j=1

dxj

=

∫Retx1fX1(x1) dx1

∫Retx2fX2(x2) dx2...

∫RetxnfXn(xn) dxn

= MX1(t)MX2(t)...MXn(t)

=n∏j=1

MXj(t).

”⇐ ” Se deja como ejercicio.

Ejemplo 7.16.1. Sean X1, X2, ..., Xn v.a.i con distribucion Ber(p) en-tonces para Y = X1 +X2 + ...+Xn

MY (t) = E(etY ) = E(etX1+tX2+...+tXn)

=n∏j=1

MXj(t)

=n∏j=1

(pet + q)

= (pet + q)n.

⇒ Y = Bin(n, p).

Sean X1, X2, ..., Xn v.a.i con distribucion Exp(λ), (λ > 0) entonces

Page 109: vectores aleatorios

7.16. FUNCION GENERADORA DE MOMENTOS MULTIVARIADA (FGMM)109

para Y = X1 +X2 + ...+Xn,

MY (t) = E(etY ) = E(etX1+tX2+...+tXn)

=n∏j=1

MXj(t)

=n∏j=1

λ

λ− tt < λ

=

λ− t

)n.

⇒ Y = Gamma(n, λ).

Sean X1, X2, ..., Xn v.a.i. con distribucion N(0, 1) entonces, para Y =X2

1 +X22 + ...+X2

n

MY (t) = E(etY ) = E(etX21+tX2

2+...+tX2n)

=n∏j=1

MX2j(t)

=n∏j=1

( 12

12− t

) 12

, t <1

2

=

( 12

12− t

)n2

.

⇒ Y = Gamma(n2, 1

2) = χ2

n.

Ejemplo 7.16.2. Suponga que Xj ∼ N(µj, σ2j ) j = 1, 2, ..., n y que X1, X2, ..., Xn

son v.a.i. Encuentre la distribucion de Z = α1X1 +α2X2 + ...+αnXn dondeαj ∈ R para j = 1, 2, ..., n.

Page 110: vectores aleatorios

110 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

Solucion:

MZ(t) = E(et(α1X1+...+αnXn)

)= E

(e(α1t)X1+...+(αnt)Xn

)=

n∏j=1

MXj(αjt)

=n∏j=1

eµj(αjt)+12σ2j (αjt)

2

=n∏j=1

eαjtµj+12α2j t

2σ2j

= e

n∑j=1

αjµj

t+ 12

n∑j=1

α2jσ

2j

t2

⇒ Z = N

(n∑j=1

αjµj,n∑j=1

α2jσ

2j

).

Ejemplo 7.16.3. Sean X1, X2, ..., Xn ∼ N(µ, σ2) encuentre las distribucio-nes de:

i) X = 1n

n∑i=1

Xi

ii) S2 = 1n−1

n∑i=1

(Xi −X)2

Solucion:

i) X = 1nX1 + 1

nX2 + ...+ 1

nXn, entonces, tomando α1 = α2 = ... = αn = 1

n

⇒ X ∼ N

(n∑i=1

1

nµ,

n∑i=1

(1

n

)2

σ2

).

⇒ X ∼ N(µ, σ2

n).

Page 111: vectores aleatorios

7.17. EJERCICIOS 111

ii)

(n− 1)s2 =n∑i=1

(Xi −X)2

=n∑i=1

((Xi − µ)− (X − µ))2

=n∑i=1

[(Xi − µ)2 − 2(Xi − µ)(X − µ) + (X − µ)2

]=

n∑i=1

(Xi − µ)2 − 2(X − µ)n∑i=1

(Xi − µ) + n(X − µ)2

=n∑i=1

(Xi − µ)2 − 2n(X − µ)2 + n(X − µ)2

=n∑i=1

(Xi − µ)2 − n(X − µ)2

⇒ (n− 1)s2

σ2=

n∑i=1

(X − µσ

)2

︸ ︷︷ ︸χ2n

(X − µ

σ√n

)2

︸ ︷︷ ︸χ21

⇒ s2 ∼ σ2

n− 1χ2n−1.

7.17. Ejercicios

1. Sea (X, Y ) una v.a. bivariada con fdp conjunta

f(x, y) =

x+ y 0 < x < 1; 0 < y < 1

0 caso contrario

Encuentre:

a) f.d.p marginal

b) f.d.p condicional

c) P (Y > 34)

d) P (X > 12, Y > 3

4)

e) P (X > 12|Y > 3

4)

f) P (X < 15|Y = 1

3)

Page 112: vectores aleatorios

112 CAPITULO 7. VARIABLES ALEATORIAS BIDIMENSIONALES

2. Sea (X, Y ) un v.a. bivariado con fdp conjunta dada por

f(x, y) =

24y(1− x− y) En el triangulo limitado por los ejes

ordenados y la recta x+ y = 10 caso contrario

a) fdp marginales

b) fdp condicionales

c) P (Y < 13|X = 1

3)

d) P (Y < 23|X = 1

3)

e) P (Y < 1|X = 13)

f) P (X > 12|Y > 1

2)

g) P (X < 12|Y > 1

2)

3. El v.a. bivariado (X, Y ) tiene distribucion dada por:

X r Y 2 3 4

1 112

16

0

2 16

0 13

3 112

16

0

a) ¿Son independientes X y Y ?

b) Encuentre:

i) P (X = Y )

ii) P (X = 2 o Y = 4)

iii) P (X + Y ≤ 4)

iv) P (Y > 2,5|X < 3)

4. El v.a. bivariado (X, Y ) tiene fdp conjunta

f(x, y) =

14−1 < x < 1; −1 < y < 1

0 caso contrario

a) ¿Son X y Y independientes?

b) Encuentre:

i) P (2X − Y > 0)

ii) P (X2 + Y 2 < 1)

Page 113: vectores aleatorios

7.17. EJERCICIOS 113

5. El v.a. bivariado (X, Y ) tiene fdp conjunta

f(x, y) =

1 0 < x < 1; 0 < y < 10 caso contrario

Encuentre:

a) P (X < 12)

b) P (X + Y < 1)

c) P (X > 2Y )

d) P (X > 12, Y < 1

2)

6. X y Y tienen densidad conjunta

f(x, y) =

3x 0 < y < x; 0 < x < 10 caso contrario

a) g(x|y)

b) P (0 < X < 34|Y = 1

2)

7. La densidad conjunta de X, Y es

f(x, y) =

4xye−(x2+y2) x > 0; y > 0

0 caso contrario

a) ¿ Esta bien definida?

b) Encuentre g(x) y h(y)

c) ¿ Son independientes X y Y ?