22
VECTORES ALEATORIOS 1 Introducci´on En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias caracter´ ısticas simult´ aneamente, como por ejemplo la velocidad de transmisi´on de un mensaje y la proporci´on de errores. De esta forma seremos capaces de estudiar no solo el comportamiento de cada variable por separado, sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo principal de este tema es elaborar un modelo matem´atico que permita analizar experimentos aleatorios en los que cada resultado experimental A tiene asociados p valores num´ ericos. Estos modelos ser´an la base para la construcci´on de los modelos inferenciales necesarios en este contexto para extrapolar los resultados de una muestra a la poblaci´on. 2 Vectores aleatorios El concepto de vector aleatorio nace como una generalizaci´on natural de la noci´on de variable aleatoria, al considerar simult´ aneamente el comportamiento aleatorio de varias caracter´ ısticas asociadas a un experimento. Definici´ on 2.1 (Vector aleatorio.) Dado un un espacio probabil´ ıstico (E, A,P ) y el espacio probabilizable (R p ) con βσ-´algebra de Borel en R p , se dice que una aplicaci´on x =(x 1 ...,x p ) t x : E -→ R p es un vector aleatorio si es medible, es decir x -1 (B) ∈A B β , por tanto cada una de sus componentes x i ,i =1,...p es una variable aleatoria. Veamos algunos ejemplos sencillos de vectores aleatorios. El vector (x 1 ,x 2 ) representa la temperatura m´axima que puede alcanzar una resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es m´as frecuente utilizar la notaci´on (X,Y).) 1

VECTORES ALEATORIOS - U-Cursos · VECTORES ALEATORIOS 1 Introducci´on En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias caracter´ısticas

  • Upload
    trannhu

  • View
    252

  • Download
    0

Embed Size (px)

Citation preview

VECTORES ALEATORIOS

1 Introduccion

En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesaanalizar varias caracterısticas simultaneamente, como por ejemplo la velocidadde transmision de un mensaje y la proporcion de errores. De esta forma seremoscapaces de estudiar no solo el comportamiento de cada variable por separado,sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivoprincipal de este tema es elaborar un modelo matematico que permita analizarexperimentos aleatorios en los que cada resultado experimental A tiene asociadosp valores numericos. Estos modelos seran la base para la construccion de losmodelos inferenciales necesarios en este contexto para extrapolar los resultadosde una muestra a la poblacion.

2 Vectores aleatorios

El concepto de vector aleatorio nace como una generalizacion natural de la nocionde variable aleatoria, al considerar simultaneamente el comportamiento aleatoriode varias caracterısticas asociadas a un experimento.

Definicion 2.1 (Vector aleatorio.) Dado un un espacio probabilıstico (E,A, P )y el espacio probabilizable (Rp, β) con β σ-algebra de Borel en Rp, se dice que unaaplicacion x = (x1 . . . , xp)t

x : E −→ Rp

es un vector aleatorio si es medible, es decir x−1(B) ∈ A ∀B ∈ β, por tantocada una de sus componentes xi, i = 1, . . . p es una variable aleatoria.

Veamos algunos ejemplos sencillos de vectores aleatorios.

El vector (x1, x2) representa la temperatura maxima que puede alcanzar unaresistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es masfrecuente utilizar la notacion (X,Y).)

1

2 2 VECTORES ALEATORIOS

Los componentes del vector (x1, x2, x3, x4, x5, x6)t representan, respectiva-mente, la edad, peso, estatura, sexo, colesterol y trigliceridos de una persona.

Definicion 2.2 (Probabilidad inducida.) Dado un vector aleatorio x defini-do sobre (E,A, P ), se denomina probabilidad inducida por el vector a la aplicacionPx : β −→ Rp definida por:

Px(B) = P [x−1(B)] ∀B ∈ β

(Rp, β, Px) es el espacio probabilıstico inducido por x.

La distribucion de probabilidad inducida por un vector aleatorio se puedecaracterizar mediante la funcion de distribucion.

Definicion 2.3 (Funcion de distribucion.) Dado el vector aleatorio x se de-nomina funcion de distribucion asociada, a la funcion F : Rp −→ R definidapor:

F (a) = P [x1 ≤ a1, . . . , xp ≤ ap]

Las propiedades mas importantes de las funciones de distribucion son:

1. F (−∞, a2, . . . , ap) = · · · = F (−∞, · · · −∞, ai,−∞, · · · −∞) = 0.

2. F (∞, . . . ,∞) = 1.

3. F es continua por la derecha respecto de cada variable.

4. F es no decreciente respecto a cada variable.

5. En el caso bidimensional dados hi > 0 se verifica que

P ((a1 < x1 ≤ a1 + h1)⋂

(a2 < x2 ≤ a2 + h2)) =

= F (a1 + h1, a2 + h2)− F (a1, a2 + h2)− F (a1 + h1, a2) + F (a1, a2) ≥ 0

Mientras que en el caso p-dimensional se tendrıa la expresion:

F (a1+h1, . . . , ap+hp)−p∑

i=1

F (a1+h1, . . . , ai−1+hi−1, ai, ai+1+hi+1, . . . , ap+hp)

+p∑

i,j=1,i6=j

F (a1+h1, . . . , ai−1+hi−1, ai, ai+1+hi+1, . . . , aj−1+hj−1, aj , aj+1+hj+1, . . . , ap+hp)

+ . . . ,+(−1)pF (a1, . . . , ap) ≥ 0

Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de lasvariables aleatorias que lo componen.

3

3 Vectores aleatorios discretos

La idea intuitiva asociada a un vector aleatorio discreto es que cada una de suscomponentes sean v. a. discretas.

Definicion 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio defini-do sobre (E,A, P ) y S = {a ∈ Rp/P (a) > 0}, se dice que x es discreto si secumple que:

1. S 6= ∅2. El cardinal de S es a lo sumo infinito numerable.

3.∑

a∈S

P (a) = 1.

4. P [x ∈ B] =∑

a∈B∩S P (a).

Al conjunto S se le llama conjunto soporte del vector x.

En este caso la funcion de distribucion es discontinua y viene dada por laexpresion:

F (x) =∑

a∈Sx

P (a)

con Sx = {a ∈ Rp/a ≤ x}.

4 Vectores aleatorios continuos

En los vectores aleatorios continuos cada componente es una v. a. de tipocontinuo y analogamente al caso unidimensional para caracterizar su distribuciones conveniente emplear la funcion de densidad.

Definicion 4.1 (Funcion de densidad) Una funcion f : Rp −→ R se dice quees funcion de densidad si verifica las condiciones:

1. f(x) ≥ 0 ∀x ∈ Rp

2.∫Rp f(x) dx =

∫∞−∞ . . .

∫∞−∞ f(x) dx = 1

Definicion 4.2 (Vector aleatorio continuo) Un vector aleatorio x se dice quees continuo si su funcion de distribucion se puede expresar como:

F (x) =∫ x1

−∞. . .

∫ xp

−∞f(y)dy ∀x ∈ Rp

4 5 DISTRIBUCIONES MARGINALES

donde f es una funcion de densidad en Rp.

El conjunto Sx = {a ∈ Rp/f(a) > 0} se denomina conjunto soporte de x.Las propiedades mas importantes de los vectores continuos son:

1. La funcion de distribucion es continua.

2. En los puntos de continuidad de la funcion de densidad se cumple que:

f(x) =∂pF (x)

∂x1 . . . ∂xp

3. S = {a ∈ Rp/Px(a) > 0} = ∅, es decir, P (a) = 0 ∀a ∈ Rp

4. P [x ∈ B] =∫B f(x)dx

5 Distribuciones marginales

Las componentes de los vectores aleatorios son v. a. y resulta en muchos casosde interes de estudiar el comportamiento de cada una de esas variables por se-parado o de grupos de las mismas. Para abordar este problemas se definen lasdistribuciones marginales.

Definicion 5.1 (Distribuciones marginales) Sea x un vector aleatorio confuncion de distribucion F(x), entonces cada una de sus componentes, xi sonvariables aleatorias unidimensionales con las siguientes funciones de distribucionmarginal para la componente xi

Fi(xi) = F (+∞, · · ·+∞, xi,+∞, · · ·+∞)

Tambien se puede hablar de distribuciones marginales de un subvector , asısi x = (x1,x2)se define la funcion de distribucion marginal de x1 como F1(x1) =F (x1, +∞, · · ·+∞)

Si el vector es continuo se tiene las funcion de densidad marginal de la compo-nente xi, fi(xi) =

∫Rp−1 f(a1, . . . ai−1, xi, ai+1, . . . an)da1 . . . dai−1dai+1, . . . dan

Mientras que si x es discreto las expresiones para las distribucion de proba-bilidad marginal de la componente xi son:

Pi(xi) =∑

y∈S,yi=xi

P (y)

Analogamente se tendrıan las distribuciones de los subvectores.

5

6 Distribuciones condicionadas

En muchos problemas reales puede interesa estudiar el comportamiento de unavariable teniendo cierta informacion complementaria sobre el experimento. Porejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respecti-vamente, las intensidades de las senales enviadas y recibidas a traves de un canalde informacion. Un aspecto fundamental es este tipo de problemas es conocerel comportamiento de la senal recibida Y condicionada a que se ha enviado unasenal (X=x), es decir, analizar la distribucion de (Y / X=x). Otro problema muyinteresante es el complementario del anterior, o sea, estudiar la senal que se enviocuando se conoce la senal recibida (X/ Y=y).

Cuando el suceso que condiciona tiene una probabilidad estrictamente posi-tiva el problema se reduce a utilizar la probabilidad condicionada para calcularla distribucion de (x2/x1 = a).

Fx2/x1=a(b) =P (x1 = a,x2 ≤ b)

P (x1 = a)

En el caso que esta funcion sea absolutamente continua se puede considerar lafuncion de densidad condicionada de (x2/x1 = a) que sera

fx2/x1=a(b) =∂p2(Fx2/x1=a(x2))

∂x2

∣∣∣∣b

en los puntos de continuidad de la funcion de distribucion

Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tienesiempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.En este caso se define la funcion de densidad condicionada.

Definicion 6.1 (Funcion de densidad condicionada) Dado el vector alea-torio ( x1,x2) la funcion de densidad de x2 condicionada a (x1 = a), se definecomo una funcion no negativa fx2/x1=a, que satisface:

Fx2/x1=a(b) =∫

{t∈Rp2/t≤b}fx2/x1=a(t) dt ∀x2 ∈ Rp2

El siguiente resultado nos permite calcular la funcion de densidad condicio-nada en el caso de trabajar con vectores aleatorios continuos.

Proposicion 6.1 Dado un vector aleatorio ( x1,x2) cuya funcion de densidades f( x1,x2) se verifica que en todo punto de continuidad de f en el que fx2(b) >0,

6 7 MOMENTOS

la funcion de densidad de (x1/x2 = b) existe y vale:

fx1/x2=b(a) =f(a, b)fx2(b)

Definicion 6.2 (Independencia de vectores aleatorios) Dado el vector alea-torio x=(x1,x2) se dice que x1 y x2 son independientes cuando se verifica que:

Fx(a, b) = Fx1(a) Fx2(b) ∀(a , b) ∈ Rp

Si trabajamos con la funcion de densidad esta condicion es equivalente a:

fx(a,b) = fx1(a) fx2(b) ∀(a ,b) ∈ Rp

Cuando las variables son discretas la independencia equivales a:

Px(a,b) = Px1(a) Px2(b) ∀(a ,b) ∈ Rp

Una propiedad muy interesante es que si x1 y x2 son independientes entoncesnuevas variables aleatorias g(x1 ) y h( x2), obtenidas como transformaciones delas anteriores, tambien los son.

Tambien es interesante hacer notar que si dos vectores x1 y x2 son inde-pendientes no quiere decir que las componentes de x1 lo sean. Es decir en elcaso multidimensional pueden aparecer muchos tipos de independencia como laindependencia condicional

Definicion 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x1,x2,x3)se dice que x1 y x2 son condicionalmente independientes dado x3 cuando se ve-rifica que x1/x3 y x2/x3 son independientes.

7 Momentos

En este apartado se da la definicion de momento para poder describir de maneraresumida el comportamiento de los vectores aleatorios.

Definicion 7.1 (Momentos respecto al origen) Dado una vector aleatoriop-dimensional continuo x se denomina momento respecto al origen de orden(r1, . . . , rp), si existe, al valor dado por la expresion:

ar1,...,rp(x) = E(xr11 . . . x

rpp ) =

Rp

xr11 . . . x

rpp f(x)dx

donde f(x) es la funcion de densidad.

Analogamente se definirıa para el caso discreto.

7

Los momentos respecto al origen mas importantes son los orden uno quepermiten definir el vector esperanza del vector aleatorio.

Definicion 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensionalx se denomina vector esperanza, E(x), al vector µ de componentes (µ1, . . . , µp)t

definidas por :

µi =∫ ∞

−∞x fxi(x) dx

Es inmediato comprobar que:

µi = E(xi) = a0...,0,1i,0,...,0(x)

.

Cuando se trabaja con una funcion g(x) la esperanza de la nueva variablealeatoria se puede calcular mediante la expresion:

E[g(x)] =∫

Rp

g(x) f(x) dx

Entre las propiedades mas importantes del vector esperanza, si existe, seencuentran:

1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p):

E[ y]=A E[x]+b.

2 E[g1(x1)] =∫Rp g1(x1) f(x)dx =

∫Rp1 g1(x1) f1(x1)dx1.

3 Linealidad E[a1g1(x) + a2g2(x)] = a1 E[g1(x)] + a2 E[g2(x)] , siendo ai ∈ R

Otros momentos muy importantes son los centrados respecto al vector demedias. La expresiones que aparecen a continuacion se refieren al caso continuo,ya que el caso discreto se desarrolla de manera analoga a la realizada hasta estemomento.

Definicion 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensionalcontinuo x se denomina momento centrado de orden (r1, . . . , rp), si existe, al va-lor dado por la expresion:

mr1,...,rp(x) =∫

Rp

(x1 − µ1)r1 . . . (xp − µp)rpf(x)dx

donde f(x) es la funcion de densidad.

8 7 MOMENTOS

Los momentos centrados de orden dos para una de las componentes ri = 2,cero para el resto, rj = 0 si j 6= i), dan lugar a las varianzas de cada componentexi, que se va a denotar por σii.

V ar(xi) = σii = E(xi − µi)2 = m0...,0,2i,0,...,0(x)

El momento centrado de orden (0 . . . , 0, 1i, 0, . . . , 0, 1j , 0, . . . , 0) se denominacovarianza entre la componentes xi, xj , y se va a denotar por σij , tiene una granimportancia porque nos permite estudiar si las componentes estan relacionadaslinealmente.

Definicion 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleato-rio x se define su matriz de varianzas-covarianzas, si existe, como:

Σ = E[(x− µ) (x− µ)t] =

σ11 . . . σ1p...

. . ....

σp1 . . . σpp

Entre sus propiedades destacan:

• Las matrices de varianzas-covarianzas son siempre matrices simetricas ysemidefinidas positivas

• Σ = E[xxt]− µµt

• Var (at x)=atΣa

• Var(Ax+b)= A ΣAt

Tambien se pueden definir matrices de varianzas-covarianzas entre dos vec-tores aleatorios definidos sobre el mismo espacio probabilıstico,

Definicion 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional,y, se define su matriz de varianzas-covarianzas, si existe, como:

Cov(x,y) = E[(x− µx) (y− µy)t] =

σx1,y1 . . . σx1,yq

.... . .

...σxp,y1 . . . σxp,yq

Entre sus propiedades destacan:

• Σ=Cov(x,x)

9

• Cov(x,y)= (Cov(y,x))t

• Cov(Ax,By)= A Cov(x,y) Bt

• Cov(x1+x2,y)= Cov(x1,y)+ Cov(x2,y)

• Si los vectores tienen la misma dimension

Var(x+y)=Σx+y= Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)

• Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,pero el recıproco no tiene porque ser cierto.

Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,Y) en el que existen los momentos centrados de orden dos, se verifica que:

E2[X Y ] ≤ E(X2) E(Y 2)

ademas la igualdad se alcanza si y solo si existen dos numeros reales α y β, conal menos uno de ellos distinto de cero, tales que P [α X + β Y = 0] = 1.

Definicion 7.6 (Coeficiente de correlacion de Pearson) Dadas dos compo-nentes xi, xj de un vector aleatorio x se denomina coeficiente de correlacion dePearson entre esas componentes , ρij a la expresion:

ρij =σij√σii σjj

Las propiedades mas importantes del Coeficiente de correlacion de Pearsonson:

1. −1 ≤ ρij ≤ 1.

2. ρij alcanza los extremos si y solo si xj es una funcion lineal de xi , o al reves.

3. Si ρij=0, se dice que xi e xj son linealmente independientes, pero en generalla independencia lineal no implica la independencia estadıstica.

4. Si xi e xj son independientes entonces son linealmente independientes.

Definicion 7.7 (Matriz de correlacion de Pearson) Dado un vector aleato-rio x se denomina matriz de correlacion entre sus componentes a:

10 7 MOMENTOS

R =

1 . . . ρ1p...

. . ....

ρp1 . . . 1

Ejemplo 1.(Continuacion)La correlacion de Pearson entre X e Y es:

ρ =Cov(X , Y )

σX σY=−111

por lo tanto tienen una relacion lineal muy pequena.

Ejemplo.Sea X una v. a. con distribucion U(-1, 1), y definimos la variable Y=X2. Com-probar que X e Y son linealmente independientes pero no son independientes.

E(X) =∫ 1−1 x

12

dx = 0.

E(X.Y) = E(X. X2) = E(X3) =∫ 1−1 x3 1

2dx = 0.

Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 ⇐⇒ ρ = 0por lo tanto X e Y son linealmente independientes pero no independientes puestoque Y = X2.

Definicion 7.8 (Funcion generatriz de momentos) Dado un vector aleato-rio x p-dimensional la funcion generatriz de momentos,si existe, se define como:

gx(t) = E(ett x) =∫

Rp

ett x f(x) dx

Entre las propiedades mas interesantes de la funcion generatriz de momentosestan las siguientes:

1. g(0)=1

2. g cuando existe caracteriza la distribucion.

3. Los vectores aleatorias x,y son independientes si y solo si la funcion genera-triz de momentos conjunta es igual al producto de las funciones generatricesde las marginales.

gx,y(t1 , t2) = gx(t1) gy(t2) ∀(t1 , t2) ∈ entorno de 0 ∈ Rp+q

4. Si x,y son vectores aleatorios independientes entonces la funcion generatrizde x+y verifica:

gx+y(t) = gx(t) gy(t)

11

Definicion 7.9 (Funcion caracterıstica ) Dado un vector aleatorio x p-dimensionalla funcion caracterıstica se define como:

φx(t) = E(eitt x) =∫

Rp

eitt x f(x) dx

Esta funcion existe siempre y caracteriza totalmente la distribucion del vec-tor aleatorio x. Presenta unas propiedades analogas a la funcion generatriz demomentos.

Relacionada con la funcion caracterıstica tienen gran importancia el siguien-te Teorema

Teorema 7.2 (Teorema de Cramer- Wald) La distribucion de un vector alea-torio p-dimansional x esta completamente determinada por el conocimiento delcomportamiento de todas las variables unidimensionales que se puedan formarcomo combinacion lineal de sus componentes.

8 Momentos Condicionados

Estos momentos juegan un papel importante en el manejo de las distribucio-nes multivariantes , sobre todo cuando se imponen condiciones a algunas de suscomponentes.

Definicion 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensionaldel que se consideran la particion (x1,x2) se define la esperanza del vector x1 con-dicionada por el valor x2 de la segunda componente como

E[x1/x2] =∫

Rp1

x1fx1/x2(x1)dx1

En general esta expresion sera una funcion del valor de x2. Observese que se haceun abuso de notacion cuando x1 tienen dimension mayor que 1, ya que en este casohabrıa que tener un vector esperanza , cuyas componentes son las integrales delas correspondientes componentes de x1. Por otro lado si considero x2 un vectoraleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.Por tanto podra hablarse de su esperanza, que verifica el siguiente resultado, sitodas las esperanzas existen

E[x1] = E[E[x1/x2]]

12 9 FUNCION DE UN VECTOR ALEATORIO

La curva o superficie que a cada valor de x2 le hace corresponder E[x1/x2]se llama la curva o superficie general de regresion de x1 sobre x2. En el caso deque esta superficie sea lineal se tiene la regresion lineal.

Definicion 8.2 (Varianza condicionada ) Dado un vector aleatorio x p-dimensionaldel que se consideran la particion (x1,x2) se define la varianza del vector x1 con-dicionada por el valor x2 como V [x1/x2] = V1|2 como la matriz de varianzasrespecto a la distribucion condicionada (x1/x2)

En el caso bidimensional (x1, x2) se verifica que

E(xi) = E[E(xi/xj)]

V ar(xi) = E[V ar(xi/xj)] + V ar[E(xi/xj)]

9 Funcion de un vector aleatorio

En este apartado estudiaremos algunos metodos que nos permiten calcular ladistribucion de probabilidad de funciones de un vector aleatorio.El metodo mas general consiste en obtener directamente la funcion de distribuciondel nuevo vector aleatorio. Dado y = g(x), entonces

Fy(y) = P (y ≤ y) = P [x ∈ Rp/ g(x) ≤ y]

Veamos algunos ejemplos sencillos en los que g es una funcion de R2 en R,es decir Z es una variable aleatoria.

EjemploSea (X, Y)un vector aleatorio continuo cuya funcion de densidad vale:

f(x , y) =

{1 si 0 < x < 1 ; 0 < y < 10 en el resto

Calcular la distribucion de la variable Z =Y

X.

El conjunto soporte de Z es SZ = (0 ,∞).

P (Z ≤ z) = P (Y

X≤ z) = P (Y ≤ z X)

Cuando 0 < z < 1 la funcion de distribucion vale:

F (z) =∫ 1

0

∫ zx

0f(x , y) dx dy =

∫ 1

0

∫ zx

0dx dy =

z

2

13

Cuando z > 1 la funcion de distribucion vale:

F (z) =∫ 1/z

0

∫ zx

0dx dy +

∫ 1

1/z

∫ 1

0dx dy =

12z

+ (1 − 1z) = 1 − 1

2z

Por lo tanto la funcion de distribucion es:

F (z) =

0 si z ≤ 0z

2si 0 < z ≤ 1

1 − 12z

si z > 1

,

Cuando la funcion g verifique ciertas condiciones de regularidad es posiblecalcular directamente la funcion de densidad del vector aleatorio transformado.

Proposicion 9.1 Dado un vector aleatorio continuo x con funcion de densidadf(x), sea z=g(x) una transformacion que verifica en el conjunto soporte Sx lassiguientes condiciones :

1. La funcion g:Rp −→ Rp es biyectiva,salvo un conjunto de Lebesgue de me-dida nula. es decir existen las transformaciones

zi = gi(x), i = 1, . . . p

xi = hi(z), i = 1, . . . p

2. Todas las transformaciones son continuas.

3. Existen y son continuas las derivadas parciales

∂x

∂z,

∂z

∂x

J =∣∣∣∣∂(x)∂(z)

∣∣∣∣es distinto de cero en el recorrido de la transformacion.

Entonces se cumple que

fz(z) =

{fx[h(z)] |J | si z ∈ Sz

0 en el resto

14 10 EJEMPLOS

Corolario 9.1 Si el conjunto soporte S se puede expresar como una union finitade conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la funcion ges biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi yJacobianos: Ji entonces

fz(z) =

n∑

i=1

fx[hSi(z)] |Ji| si z ∈ Sz

0 en el resto

Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,es decir, det(A)6=0, son transformaciones biyectivas, su inversa es

x = A−1(y− b)t

y el jacobiano de la transformacion inversa vale J=det(A−1).Aplicando el teorema anterior la funcion de densidad de y es:

fy(y) = fx[A−1 (y-b)t]× |det(A−1)|

10 Ejemplos

Ejemplo 1.• Calcula el valor de c para que f(x, y) sea funcion de densidad.

f(x, y) =

{c (x + y) si 0 < x < 1 ; 0 < y < 10 en el resto

1. La funcion f(x, y) ≥0.Tomando c>0 se verifica la primera condicion.

2.∫∞−∞

∫∞−∞ f(x , y) dx dy = 1.

∫ ∞

−∞

∫ ∞

−∞f(x , y) dx dy =

∫ 1

0

∫ 1

0c (x + y)dx dy

= c

∫ 1

0(12

+ y) dy = c

Por lo tanto el valor que buscamos es c=1.

• Calcula la probabilidad de que P[ X≤ 0,5 ; Y≤ 0,75].

P [ X ≤ 0, 5 ; Y ≤ 0, 75] =∫ 0,5

−∞

∫ 0,75

−∞f(x , y) dy dx

15

=∫ 0,5

0

∫ 0,75

0(x + y) dy dx =

∫ 0,5

0(3x

4+

932

) dx =1564

• Calcula las distribuciones marginales de X e Y.

1. La marginal de la variable X es:

f1(x) =∫ ∞

−∞f(x , y) dy =

∫ 10 (x + y) dy = x +

12

si 0 < x < 1

0 en el resto

2. La marginal de la variable Y es:

f2(y) =∫ ∞

−∞f(x , y) dx =

∫ 10 (x + y) dx = y +

12

si 0 < y < 1

0 en el resto

• Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x)y E(X/Y=y).

1. Como la marginal f1(x) = x +12

la funcion de densidad de (Y/X=x) sera:

fY/X(y/x) =f(x, y)f1(x)

=

2(x + y)2x + 1

si 0 < y < 1

0 en el resto

E(Y/X = x) =∫ ∞

−∞y fY/X(y/x) dy =

∫ 1

0y

2(x + y)2x + 1

dy =3x + 26x + 3

2. Como la marginal f2(y) = y +12

la funcion de densidad de (X/Y=y) sera:

fX/Y (x/y) =f(x, y)f2(y)

=

2(x + y)2y + 1

si 0 < x < 1

0 en el resto

E(X/Y = y) =∫ ∞

−∞y fX/Y (x/y) dx =

∫ 1

0x

2(x + y)2y + 1

dx =3y + 26y + 3

• Estudia la independencia de X e Y.

La densidad conjunta es:

f(x, y) =

{(x + y) si 0 < x < 1 ; 0 < y < 10 en el resto

16 10 EJEMPLOS

y las densidades marginales son:

f1(x) =

x +12

si 0 < x < 1

0 en el resto

f2(y) =

y +12

si 0 < y < 1

0 en el resto

Entonces f(x , y) 6= f1(x) f2(y) y por lo tanto X e Y no son independientes.

• Calcula el vector de medias y la matriz de varianzas covarianzas de (X,Y).

1. En primer lugar vamos a obtener el vector de medias.

E(X) =∫ ∞

−∞x f1(x) dx =

∫ 1

0x (x +

12) dx =

712

E(Y ) =∫ ∞

−∞y f2(y) dy =

∫ 1

0y (y +

12) dy =

712

2. Para calcular la matriz de varianzas-covarianzas necesitamos obtener lasvarianzas y la covarianza.

E(X2) =∫ ∞

−∞x2 f1(x) dx =

∫ 1

0x2 (x +

12) dx =

512

y la varianza de X es

V ar(X) = E(X2) − E2(X) =11144

E(Y 2) =∫ ∞

−∞y2 f2(y) dx =

∫ 1

0y2 (y +

12) dy =

512

y la varianza de Y es

V ar(Y ) = E(Y 2) − E2(Y ) =11144

Para obtener la covarianza calculamos primero el momento de orden (1, 1)

E(X Y ) =∫ ∞

−∞

∫ ∞

−∞x y f(x , y) dy dx =

∫ 1

0

∫ 1

0x y (x + y) dy dx

17

=∫ 1

0(x2

2+

x

3) dx =

13

Cov(X ,Y ) = E(X Y ) − E(X) E(Y ) =−1144

La matriz de varianzas-covarianzas es :

Σ =1

144

(11 −1−1 11

)

• La correlacion de Pearson entre X e Y es:

ρ =Cov(X , Y )

σX σY=−111

por lo tanto tienen una relacion lineal muy pequena.

Ejemplo 2.• Comprueba que f(x, y) es funcion de densidad.

f(x, y) =

23 si 0 < x ≤ 1 ; 0 < y < x43 si 1 < x < 2 ; 0 < y < 2− x

0 en el resto

1. La primera condicion f(x, y)≥0 se comprueba de forma inmediata.

2.∫∞−∞

∫∞−∞ f(x , y) dx dy = 1.

∫ ∞

−∞

∫ ∞

−∞f(x , y) dx dy =

∫ 1

0

∫ x

0

23

dy dx +∫ 2

1

∫ 2−x

0

43

dy dx

=∫ 1

0

2x

3dx +

∫ 2

1

4(2− x)3

dx =13

+23

= 1

• Calcula la probabilidad de que P[ X≤ 1,5 ; Y≤ 0,5].

P [ X ≤ 1, 5 ;Y ≤ 0, 5] =∫ 0,5

−∞

∫ 1,5

−∞f(x , y) dy dx

=∫ 0,5

0

∫ x

0

23

dy dx +∫ 1

0,5

∫ 0,5

0

23

dy dx +∫ 1,5

1

∫ 0,5

0

43

dy dx

=112

+212

+412

=712

• Calcula las distribuciones marginales de X e Y.

18 10 EJEMPLOS

1. La marginal de la variable X es:

f1(x) =∫ ∞

−∞f(x , y) dy =

∫ x0

23 dy =

2x

3si 0 < x ≤ 1

∫ 2−x0

43 dy =

4(2− x)3

si 1 < x < 2

0 en el resto

2. La marginal de la variable Y es:

f2(y) =

{ ∫ 1y

23 dx +

∫ 2−y1

43 dx = 2(1− y) si 0 < y < 1

0 en el resto

• Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x) .

1. Teniendo en cuenta la expresion de f2(y), la densidad de (X/Y=y) es:

fX/Y (x/y) =f(x, y)f2(y)

2/32(1− y)

=1

3(1− y)si 0 < x ≤ 1

4/32(1− y)

=2

3(1− y)si 1 < x < 2

0 en el resto

cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1).

2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f1(x),cambia de expresion dependiendo del valor de x.Para 0 < x ≤ 1 se tiene:

fY/X(y/x) =f(x, y)f1(x)

2/32x/3

=1x

si 0 < y < 2− x

0 en el resto

Para 1 < x < 2 se tiene:

fY/X(y/x) =f(x, y)f1(x)

4/34(2− x)/3

=1

2− xsi 0 < y < 2− x

0 en el resto

• Calcula el vector de medias y la matriz de varianzas covarianzas de (X,Y).

1. El vector de medias de (X, Y) es

E(X) =∫ ∞

−∞x f1(x) dx =

∫ 1

0x

2x

3dx +

∫ 2

1x

4(2− x)3

dx =109

E(Y ) =∫ ∞

−∞y f2(y) dy =

∫ 1

0y 2 (1− y) dy =

13

19

2.

E(X2) =∫ ∞

−∞x2 f1(x) dx =

∫ 1

0x2 2x

3dx +

∫ 2

1x2 4(2− x)

3dx =

2518

La varianza de X es

V ar(X) = E(X2) − [E(X)]2 =25162

E(Y 2) =∫ ∞

−∞y2 f2(y) dy =

∫ 1

0y2 2 (1− y) dy =

16

La varianza de Y es

V ar(Y ) = E(Y 2) − [E(Y )]2 =118

El momento de orden (1, 1)

E(X Y ) =∫ ∞

−∞

∫ ∞

−∞x y f(x , y) dy dx =

∫ 1

0

∫ x

0x y

23

dy dx+∫ 2

1

∫ 2−x

0x y

43

dy dx =1336

Cov(X , Y ) = E(X Y ) − E(X) E(Y ) =1336

− 109× 1

3=

1108

La matriz de varianzas-covarianzas es :

Σ =

(25162

−1108

−1108

118

)

Ejemplo 3.Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabi-lidad

X\Y 0 1 2 31 0 3

828

18

2 18 0 0 1

8

Calcular las distribuciones marginales de X e Y.

1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son:

P1(X = 1) =3∑

y=0

P (1 , y) = 0 +38

+28

+18

=34

P (1X = 2) =3∑

y=0

P (2 , y) =18

+ 0 + 0 +18

=14

20 10 EJEMPLOS

2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades:

P2(Y = 0) =2∑

x=1

P (x , 0) = 0 +18

=18

P2(Y = 1) =2∑

x=1

P (x , 1) =38

+ 0 =38

P2(Y = 2) =2∑

x=1

P (x , 2) =28

+ 0 =28

P2(Y = 3) =2∑

x=1

P (x , 3) =18

+18

=28

Ejemplo 4.Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:

f(x , y) =

{2 si 0 < x ≤ y < 10 en el resto

Calcular las distribuciones marginales de X e Y.

1. La v. a. marginal X tiene como conjunto soporte SX=(0, 1) y su funcionde densidad es:

f1(x) =∫ ∞

−∞f(x , y) dy =

{ ∫ 1x 2 dy = 2 − 2x si 0 < x < 1

0 en el resto

2. La v. a. marginal Y tiene el mismo conjunto soporte SY =(0, 1) y su funcionde densidad es:

f2(y) =∫ ∞

−∞f(x , y) dx =

{ ∫ y0 2 dx = 2y si 0 < y < 1

0 en el resto

• Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y).

1. La funcion de densidad de (Y/X=x) sera:

fY/X(y/x) =f(x, y)f(x)

=22y

=1y

si 0 < x ≤ y < 1

2. La funcion de densidad de (X/Y=y) sera:

fX/Y (x/y) =f(x, y)f(y)

=2

2 − 2x=

11 − x

si 0 < x ≤ y < 1

21

Ejemplo 5.

Sea (X, Y) un vector aleatorio cuya funcion de densidad es:

f(x , y) =

{1 si 0 < x < 1 ; 0 < y < 10 en el resto

Estudia si la independencia de X e Y.

Calcularemos en primer lugar las distribuciones marginales de X e Y.

f1(x) =

{1 si 0 < x < 10 en el resto

f2(y) =

{1 si 0 < y < 10 en el resto

Como f(x , y) = f1(x)f2(y) ∀(x , y) ∈ R2 entonces X e Y son independien-tes.

Ejemplo 6.Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:

f(x , y) =

{2x si 0 < x < 1 ; 0 < y < 10 en el resto

Calcular la distribucion de la variable (U, V)=(X+Y, X-Y).Las funciones g y h estan definidas de la siguiente formas:

u = g1(x, y) = x + y v = g2(x, y) = x− y

x = h1(u, v) =u + v

2y = h2(u, v) =

u− v

2El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)y la transformacion realizada.Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos

0 < x < 1 ⇐⇒ 0 <u + v

2< 1 ⇐⇒ 0 < u + v < 2 ⇐⇒ −u < v < 2− u

0 < y < 1 ⇐⇒ 0 <u− v

2< 1 ⇐⇒ −2 < −u + v < 0 ⇐⇒ u− 2 < v < 2− u

es decir,0 < u < 2 ; Max(u− 2 ,−u) < v < min(u , 2− u)

22 10 EJEMPLOS

Si u∈ (0, 1] =⇒ Max(u-2, -u)=-u ; min(u, 2-u)=u.Si u∈ (1, 2) =⇒ Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u.

Por lo tanto

SU V = {(u , v) ∈ R2 / 0 < u < 1 − u < v < u 1 < u < 2 u− 2 < v < 2− u}

El jacobiano de la transformacion inversa vale J =d(x , y)d(u , v)

= −12

y la funcion de densidad de (U, V) se calcula a partir de la expresion

f(u , v) = f [u + v

2,u− v

2]× |J |

es decir,

f(u , v) =

u + v

2si 0 < u ≤ 1 ; −u < v < u

u + v

2si 1 < u < 2 ; u− 2 < v < 2− u

0 en el resto

El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es uncaso particular de las transformaciones del tipo

U = a11X + a12Y ; V = a21X + a22Y

que se pueden representar en forma matricial como

(U , V )t = A (X ,Y )t

.