Presentación sobre funciones generadoras de momentos explicación

Preview:

DESCRIPTION

Presentación sobre estadística y funciones generadoras de momentos. Nivel universitario. Masa de probabilidad. Materia estadística II.

Citation preview

Estadística II

Miguel Angel Méndez

ITESM

1 de febrero de 2015

Miguel Angel Méndez Estadística II 1/36

Función de masa de probabilidad conjunta discreta

La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de

probabilidad esta colocada en cada valor posible de X . La función

de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par

de valores (x , y)

De�nición.

Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad

conjunta p(x , y) se de�ne para cada par (x , y) como

p(x , y) = P(X = x ,Y = y)

donde

1 p(x , y) ≥ 0

2∑

x

∑y p(x , y) = 1

Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑

(x ,y)∈A p(x , y)

Miguel Angel Méndez Estadística II 2/36

Función de masa de probabilidad conjunta discreta

La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de

probabilidad esta colocada en cada valor posible de X . La función

de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par

de valores (x , y)

De�nición.

Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad

conjunta p(x , y) se de�ne para cada par (x , y) como

p(x , y) = P(X = x ,Y = y)

donde

1 p(x , y) ≥ 0

2∑

x

∑y p(x , y) = 1

Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑

(x ,y)∈A p(x , y)

Miguel Angel Méndez Estadística II 2/36

Función de masa de probabilidad conjunta discreta

La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de

probabilidad esta colocada en cada valor posible de X . La función

de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par

de valores (x , y)

De�nición.

Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad

conjunta p(x , y) se de�ne para cada par (x , y) como

p(x , y) = P(X = x ,Y = y)

donde

1 p(x , y) ≥ 0

2∑

x

∑y p(x , y) = 1

Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑

(x ,y)∈A p(x , y)

Miguel Angel Méndez Estadística II 2/36

Ejemplo.

Si las v.a.'s X y Y tienen la siguiente función de masa de

probabilidad, entonces

Tabla: Distribución de probabilidad conjunta

HHHHHHx

y0 100 200

100 .20 .10 .20

250 .05 .15 .30

p(100, 100) = P(X = 100 yY = 100) = .10P(Y ≥ 100) =p(100, 100) + p(250, 100) + p(100, 200) + p(250, 200) = 0.75

Miguel Angel Méndez Estadística II 3/36

Función de masa de probabilidad marginal

Una vez que conocemos la función de masa de probabilidad

conjunta de las dos v.a.'s X y Y es posible obtener la distribución

de una sola de estas varaibles.

De�nición.

La función de masa de probabilidad marginal de X , denotada

por pX (x), esta dada por

pX (x) =∑y

p(x , y) ∀x

De manera similar, la función de masa de probabilidad

marginal de Y es

pY (y) =∑x

p(x , y) ∀y .

Miguel Angel Méndez Estadística II 4/36

Función de masa de probabilidad marginal

Una vez que conocemos la función de masa de probabilidad

conjunta de las dos v.a.'s X y Y es posible obtener la distribución

de una sola de estas varaibles.

De�nición.

La función de masa de probabilidad marginal de X , denotada

por pX (x), esta dada por

pX (x) =∑y

p(x , y) ∀x

De manera similar, la función de masa de probabilidad

marginal de Y es

pY (y) =∑x

p(x , y) ∀y .

Miguel Angel Méndez Estadística II 4/36

Función de masa de probabilidad marginal

Una vez que conocemos la función de masa de probabilidad

conjunta de las dos v.a.'s X y Y es posible obtener la distribución

de una sola de estas varaibles.

De�nición.

La función de masa de probabilidad marginal de X , denotada

por pX (x), esta dada por

pX (x) =∑y

p(x , y) ∀x

De manera similar, la función de masa de probabilidad

marginal de Y es

pY (y) =∑x

p(x , y) ∀y .

Miguel Angel Méndez Estadística II 4/36

Del ejemplo anterior

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 0.50

pY (y) .25 .25 .50 1

Ahora veamos la función de densidad conjunta para v.a.'s continuas

X y Y :

Miguel Angel Méndez Estadística II 5/36

Del ejemplo anterior

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 0.50

pY (y) .25 .25 .50 1

Ahora veamos la función de densidad conjunta para v.a.'s continuas

X y Y :

Miguel Angel Méndez Estadística II 5/36

Función de densidad de probabilidad conjunta

De�nición.

Sean X y Y v.a.'s continuas. Un función de densidad de

probabilidad conjunta para estas dos v.a.'s es una función

satisfaciendo:

1 f (x , y) ≥ 0

2∫∞−∞

∫∞−∞ f (x , y)dxdy = 1

Entonces para cualquier conjunto A en R2

P[(X ,Y ) ∈ A] =

∫∫Af (x , y)dxdy

En particular, si A es un rectángulo bidimensional

{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces

P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =

∫ b

a

∫ d

cf (x , y)dydx

Miguel Angel Méndez Estadística II 6/36

Función de densidad de probabilidad conjunta

De�nición.

Sean X y Y v.a.'s continuas. Un función de densidad de

probabilidad conjunta para estas dos v.a.'s es una función

satisfaciendo:

1 f (x , y) ≥ 0

2∫∞−∞

∫∞−∞ f (x , y)dxdy = 1

Entonces para cualquier conjunto A en R2

P[(X ,Y ) ∈ A] =

∫∫Af (x , y)dxdy

En particular, si A es un rectángulo bidimensional

{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces

P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =

∫ b

a

∫ d

cf (x , y)dydx

Miguel Angel Méndez Estadística II 6/36

Función de densidad de probabilidad conjunta

De�nición.

Sean X y Y v.a.'s continuas. Un función de densidad de

probabilidad conjunta para estas dos v.a.'s es una función

satisfaciendo:

1 f (x , y) ≥ 0

2∫∞−∞

∫∞−∞ f (x , y)dxdy = 1

Entonces para cualquier conjunto A en R2

P[(X ,Y ) ∈ A] =

∫∫Af (x , y)dxdy

En particular, si A es un rectángulo bidimensional

{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces

P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =

∫ b

a

∫ d

cf (x , y)dydx

Miguel Angel Méndez Estadística II 6/36

Ejemplo.

Un banco dispone tanto de una ventanilla para automovilistas como deuna vantanilla normal. En un día seleccionado al azar, sea X = laproporción de tiempo que la ventanilla para automovilistas está en uso yY = la proporción de tiempo que la ventanilla normal está en uso.Entonces el conjunto de valores posibles de (X ,Y ) es el rectánguloD = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}. Suponga que la densidad deprobabilidad conjunta de (X ,Y ) está dada por

f (x , y) =

{6

5(x + y2) 0 ≤ x ≤ 1, 0 ≤ y ≤ 1,

0 o.c .

1 Veri�car que f (x , y) es una función de densidad de probabilidadlegítima

2 Calcular la probabilidad que ninguna ventanilla esté ocupada más deun cuarto del tiempo, i.e. P(0 ≤ X ≤ 1

4, 0 ≤ Y ≤ 1

4)

Miguel Angel Méndez Estadística II 7/36

Función de densidad de probabilidad marginal

De�nición.

Las funciones de densidad de probabilidad marginal de X y Y ,

denotadas por fX (x) y fY (y), están dadas por

fX (x) =

∫ ∞−∞

f (x , y)dy ∀ −∞ < x <∞

fY (y) =

∫ ∞−∞

f (x , y)dx ∀ −∞ < y <∞

Ejemplo.

Del ejemplo anterior calcule las funciones de densidad marginal.

¾Cuál es el signi�cado de estas marginales?.

Miguel Angel Méndez Estadística II 8/36

Función de densidad de probabilidad marginal

De�nición.

Las funciones de densidad de probabilidad marginal de X y Y ,

denotadas por fX (x) y fY (y), están dadas por

fX (x) =

∫ ∞−∞

f (x , y)dy ∀ −∞ < x <∞

fY (y) =

∫ ∞−∞

f (x , y)dx ∀ −∞ < y <∞

Ejemplo.

Del ejemplo anterior calcule las funciones de densidad marginal.

¾Cuál es el signi�cado de estas marginales?.

Miguel Angel Méndez Estadística II 8/36

Ejemplo.

Sean X y Y v.a.'s con función de densidad conjunta

f (x , y) =

{24xy 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x + y ≤ 1

0 o.c .

1 Determine si f (x , y) es una función de densidad de

probabilidad.

2 Sea A = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x + y ≤ .5}.Encuentre P[(X ,Y ) ∈ A]

3 Encuentre fX (x)

Miguel Angel Méndez Estadística II 9/36

variables aleatorias independientes

En ocasiones el valor observado de una de las dos variables X y Yda información sobre el valor de la otra variable, i.e. existe

dependencia entre las dos variables. Veamos cuando no se da el

caso:

De�nición.

Se dice que dos v.a.'s X y Y son independientes si por cada par

de valores x y y

p(x , y) = pX (x) · pY (y) cuando X y Y son discretas

o

f (x , y) = fX (x) · fY (y) cuando X y Y son continuas

Si lo anterior no se satisface con todos los pares (x , y), entonces se

dice que X y Y son dependientes.

Miguel Angel Méndez Estadística II 9/36

variables aleatorias independientes

En ocasiones el valor observado de una de las dos variables X y Yda información sobre el valor de la otra variable, i.e. existe

dependencia entre las dos variables. Veamos cuando no se da el

caso:

De�nición.

Se dice que dos v.a.'s X y Y son independientes si por cada par

de valores x y y

p(x , y) = pX (x) · pY (y) cuando X y Y son discretas

o

f (x , y) = fX (x) · fY (y) cuando X y Y son continuas

Si lo anterior no se satisface con todos los pares (x , y), entonces se

dice que X y Y son dependientes.

Miguel Angel Méndez Estadística II 9/36

Ejemplo.

Sean X y Y v.a.'s con función de densidad conjunta dada por

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 .50

pY (y) .25 .25 .50 1

¾Son X y Y independientes?

Solución:

p(100, 100) = .10 6= (.5)(.25) = pX (100) · pY (100)

de modo que X y Y no son independientes

Miguel Angel Méndez Estadística II 10/36

Ejemplo.

Sean X y Y v.a.'s con función de densidad conjunta dada por

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 .50

pY (y) .25 .25 .50 1

¾Son X y Y independientes?

Solución:

p(100, 100) = .10 6= (.5)(.25) = pX (100) · pY (100)

de modo que X y Y no son independientes

Miguel Angel Méndez Estadística II 10/36

Observación.

Se puede demostrar que X y Y son independientes si

f (x , y) = g(x)h(y)

y la región de densidad positiva (el dominio de f ) debe ser un

rectángulo con sus lados paralelos a los ejes coordenados.

También si X y Y son v.a.'s independientes, se deduce que:

P(a ≤ X ≤ b, c ≤ Y ≤ d) = P(a ≤ X ≤ b) · P(c ≤ Y ≤ d)

Miguel Angel Méndez Estadística II 11/36

Observación.

Se puede demostrar que X y Y son independientes si

f (x , y) = g(x)h(y)

y la región de densidad positiva (el dominio de f ) debe ser un

rectángulo con sus lados paralelos a los ejes coordenados.

También si X y Y son v.a.'s independientes, se deduce que:

P(a ≤ X ≤ b, c ≤ Y ≤ d) = P(a ≤ X ≤ b) · P(c ≤ Y ≤ d)

Miguel Angel Méndez Estadística II 11/36

Distribución exponencial

Una v.a. X tiene distribución exponencial cuando su función de

densidad es

f (x ;λ) =

{λe−λx , x ≥ 0

0 o.c .

µ = 1/λ σ2 = 1/λ2

y

F (x , λ) =

{0 x < 0

1− e−λx x ≥ 0

Miguel Angel Méndez Estadística II 12/36

Distribución exponencial

Una v.a. X tiene distribución exponencial cuando su función de

densidad es

f (x ;λ) =

{λe−λx , x ≥ 0

0 o.c .

µ = 1/λ σ2 = 1/λ2

y

F (x , λ) =

{0 x < 0

1− e−λx x ≥ 0

Miguel Angel Méndez Estadística II 12/36

Distribución exponencial

Una v.a. X tiene distribución exponencial cuando su función de

densidad es

f (x ;λ) =

{λe−λx , x ≥ 0

0 o.c .

µ = 1/λ σ2 = 1/λ2

y

F (x , λ) =

{0 x < 0

1− e−λx x ≥ 0

Miguel Angel Méndez Estadística II 12/36

La independencia de dos variables aleatorias es más útil cuando la

descripción del experimento en estudio sugiere que X y Y no tienen

ningún efecto entre ellas. Entonces, una vez que las funciones masa

de probabilidad y de densidad de probabilidad marginales han sido

especi�cadas, la función masa de probabilidad conjunta o la función

de densidad de probabilidad conjunta es simplemente el producto

de dos funciones marginales.

Ejemplo.

Suponga que las duraciones de dos componentes son

independientes entre sí y que la distribución exponencial de la

primera duración es X1 con parámetro λ1 = 1/1000, mientras que

la distribución exponencial de la segunda es X2 con parámetro

λ2 = 1/200. Determine

1 La función de densidad conjunta

2 La probabilidad de que ambas duraciones sean de por lo menos

1500 horas. (0.0639)

Miguel Angel Méndez Estadística II 13/36

La independencia de dos variables aleatorias es más útil cuando la

descripción del experimento en estudio sugiere que X y Y no tienen

ningún efecto entre ellas. Entonces, una vez que las funciones masa

de probabilidad y de densidad de probabilidad marginales han sido

especi�cadas, la función masa de probabilidad conjunta o la función

de densidad de probabilidad conjunta es simplemente el producto

de dos funciones marginales.

Ejemplo.

Suponga que las duraciones de dos componentes son

independientes entre sí y que la distribución exponencial de la

primera duración es X1 con parámetro λ1 = 1/1000, mientras que

la distribución exponencial de la segunda es X2 con parámetro

λ2 = 1/200. Determine

1 La función de densidad conjunta

2 La probabilidad de que ambas duraciones sean de por lo menos

1500 horas.

(0.0639)

Miguel Angel Méndez Estadística II 13/36

La independencia de dos variables aleatorias es más útil cuando la

descripción del experimento en estudio sugiere que X y Y no tienen

ningún efecto entre ellas. Entonces, una vez que las funciones masa

de probabilidad y de densidad de probabilidad marginales han sido

especi�cadas, la función masa de probabilidad conjunta o la función

de densidad de probabilidad conjunta es simplemente el producto

de dos funciones marginales.

Ejemplo.

Suponga que las duraciones de dos componentes son

independientes entre sí y que la distribución exponencial de la

primera duración es X1 con parámetro λ1 = 1/1000, mientras que

la distribución exponencial de la segunda es X2 con parámetro

λ2 = 1/200. Determine

1 La función de densidad conjunta

2 La probabilidad de que ambas duraciones sean de por lo menos

1500 horas. (0.0639)

Miguel Angel Méndez Estadística II 13/36

Más de dos variables aleatorias

De�nición.

Si X1,X2, . . . ,Xn son v.a.'s discretas, la función masa de

probabilidad conjunta es la función

p(x1, x2, . . . , xn) = P(X1 = x1,X2 = x2, . . . ,Xn = xn)

Si las variables son continuas, la función de densidad de

probabilidad conjunta de X1,X2, . . . ,Xn es la función

f (x1, x2, . . . , xn) de modo que para n intervalos cualesquiera

[a1, b1], . . . , [an, bn],

P(a1 ≤ X1 ≤ b1, . . . , an ≤ Xn ≤ bn)

=

∫ b1

a1

. . .

∫ bn

an

f (x1, . . . , xn)dxn . . . dxx1

Miguel Angel Méndez Estadística II 14/36

Más de dos variables aleatorias

De�nición.

Si X1,X2, . . . ,Xn son v.a.'s discretas, la función masa de

probabilidad conjunta es la función

p(x1, x2, . . . , xn) = P(X1 = x1,X2 = x2, . . . ,Xn = xn)

Si las variables son continuas, la función de densidad de

probabilidad conjunta de X1,X2, . . . ,Xn es la función

f (x1, x2, . . . , xn) de modo que para n intervalos cualesquiera

[a1, b1], . . . , [an, bn],

P(a1 ≤ X1 ≤ b1, . . . , an ≤ Xn ≤ bn)

=

∫ b1

a1

. . .

∫ bn

an

f (x1, . . . , xn)dxn . . . dxx1

Miguel Angel Méndez Estadística II 14/36

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Ejemplo.

Cuando se utiliza cierto método para recolectar un volumen �jo de

muestras de roca en una región, existen cuatro tipos de roca. Sean

X1,X2 y X3 la proporción por volumen de los tipos de roca 1, 2 y 3

en una muestra aleatoriamente seleccionada (la proporción de la

roca 4 es 1− X1 − X2 − X3 de modo que una v.a. X4 sería

redundante). Si la función de masa de probabilidad conjunta de

X1,X2,X3 es

f (x1, x2, x3) =

{kx1x2(1− x3) 0 ≤ x1, x2, x3 ≤ 1, x1 + x2 + x3 ≤ 1

0 0.c .

1 Determine el valor de k

2 Calcule la probabilidad de que las rocas 1 y 2 integren más del

50% de la muestra

solución: k = 144 y p = 0.6066

Miguel Angel Méndez Estadística II 16/36

Independencia de mas de dos v.a.'s

De�nición.

Se dice que las v.a.'s X1,X2, . . . ,Xn son independientes si para

cada par, cada terna, y así sucesivamente, la función de masa de

probabilidad conjunta o función de densidad de probabilidad

conjunta es igual al producto de funciones de masa de probabilidad

conjuntas o funciones de densidad de probabilidad conjunta para

pares, ternas y así sucesivamente.

Miguel Angel Méndez Estadística II 17/36

Distribuciones condicionales

De�nición.

Sean X y Y v.a.'s continuas con fdpc f (x , y) y fdp marginal fX (x).Entonces para toda x de X con el cual fX (x) > 0, la función

condicional de densidad de probabilidad condicional de Y dado que

X = x es

fY |X (y |x) =f (x , y)

fX (x)−∞ < y <∞

Si X y Y son v.a.'s discretas se reemplazan las funciones de

densidad por funciones de masa de probabilidad.

Miguel Angel Méndez Estadística II 18/36

Ejemplo.

Un banco dispone tanto de una ventanilla para automovilistas como deuna vantanilla normal. En un día seleccionado al azar, sea X = laproporción de tiempo que la ventanilla para automovilistas está en uso yY = la proporción de tiempo que la ventanilla normal está en uso.Entonces el conjunto de valores posibles de (X ,Y ) es el rectánguloD = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}. Suponga que la densidad deprobabilidad conjunta de (X ,Y ) está dada por

f (x , y) =

{6

5(x + y2) 0 ≤ x ≤ 1, 0 ≤ y ≤ 1,

0 o.c .

De este ejemplo hemos calculado fX (x) =6

5x + 2

5

1 Calcule la densidad de probabilidad de Y dado que X = 0.8.

2 Determine la probabilidad que la ventanillla esté ocupada cuandomucho la mitad del tiempo dado que X = 0.8.

Miguel Angel Méndez Estadística II 19/36

De�nición:

Sean X y Y v.a.'s conjuntamente distribuidas con función masa de

probabilidad p(x , y) o función de densidad de probabilidad f (x , y)ya sea que las variables sean discretas o continuas. Entonces el

valor esperado de una función h(X ,Y ) denotada E [h(X ,Y )] oµh(X ,Y ) está dada por

E [h(X ,Y )] =

{ ∑x

∑y h(x , y) · p(x , y) si X y Y son discretas∫∞

−∞∫∞−∞ h(x , y) · f (x , y)dxdy si X y Y son continuas

Miguel Angel Méndez Estadística II 20/36

Ejemplo.

Considere que Y1 y Y2 tienen una densidad conjunta dada por

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0, o.c .

Encuentre E (Y1Y2).

Solución:

E (Y1Y2) =

∫1

0

∫1

0

y1y2(2y1)dy1dy2 =1

3

Miguel Angel Méndez Estadística II 21/36

Ejemplo.

Considere que Y1 y Y2 tienen una densidad conjunta dada por

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0, o.c .

Encuentre E (Y1Y2).

Solución:

E (Y1Y2) =

∫1

0

∫1

0

y1y2(2y1)dy1dy2 =1

3

Miguel Angel Méndez Estadística II 21/36

Observemos lo siguiente:

E (Y1) =

∫ ∞−∞

∫ ∞−∞

y1f (y1, y2)dy2dy1

=

∫ ∞−∞

y1

∫ ∞−∞

f (y1, y2)dy2dy1 =

∫ ∞−∞

y1f1(y1)dy1

Ejemplo.

Sean Y1 y Y2 v.a.'s con función de densidad

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .

Encuentre V (Y1).

Solución: Veri�que primero que E (Y k1) = 2

k+2 y luego

V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.

Miguel Angel Méndez Estadística II 22/36

Observemos lo siguiente:

E (Y1) =

∫ ∞−∞

∫ ∞−∞

y1f (y1, y2)dy2dy1

=

∫ ∞−∞

y1

∫ ∞−∞

f (y1, y2)dy2dy1 =

∫ ∞−∞

y1f1(y1)dy1

Ejemplo.

Sean Y1 y Y2 v.a.'s con función de densidad

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .

Encuentre V (Y1).

Solución: Veri�que primero que E (Y k1) = 2

k+2 y luego

V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.

Miguel Angel Méndez Estadística II 22/36

Observemos lo siguiente:

E (Y1) =

∫ ∞−∞

∫ ∞−∞

y1f (y1, y2)dy2dy1

=

∫ ∞−∞

y1

∫ ∞−∞

f (y1, y2)dy2dy1 =

∫ ∞−∞

y1f1(y1)dy1

Ejemplo.

Sean Y1 y Y2 v.a.'s con función de densidad

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .

Encuentre V (Y1).

Solución: Veri�que primero que E (Y k1) = 2

k+2 y luego

V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.

Miguel Angel Méndez Estadística II 22/36

Teorema.

Sean c una constante y g(x , y), g1(x , y), g2(x , y) funciones de

Y1,Y2 v.a's. Entonces

1 E (c) = c

2 E [cg(Y1,Y2)] = cE [g(Y1,Y2)]

3 E [g1(Y1,Y2) + g2(Y1,Y2)] = E [g1(Y1,Y2)] + E [g2(Y1,Y2)]

Miguel Angel Méndez Estadística II 23/36

Teorema.

Sean Y1 y Y2 v.a.'s independientes y sean g(Y1) y h(Y2) funciones

sólo de Y1 y Y2 respectivamente. Entonces

E [g(Y1)h(Y2)] = E [g(Y1)]E [h(Y2)]

siempre que existan los valores esperados.

Demostración.

Usar la hipótesis de independencia: f (y1, y2) = fY1(y1)fY2(y2)

Ejemplo.

Suponga que Z ∼ N(0, 1), Y1 ∼ χ2(ν1) y Y2 ∼ χ2(ν2). Además

suponga que Z ,Y1 y Y2 son independientes.

1 De�na W = Z/√Y1. Encuentre E (W ) y V (W ). ¾Que

suposiciones se necesitan acerca del valor de ν1?.

2 De�na U = Y1/Y2. Encuentre E (U) y V (U). ¾Que

suposiciones acerca de ν1 y ν2 se necesitan?.Miguel Angel Méndez Estadística II 24/36

La covarianza

La covarianza es una medida del grado de variación de dos variables

aleatorias respecto a sus respectivas medias. El dato es necesario

para determinar si existe dependencia entre ambas variables y para

estimar el coe�ciente de correlación lineal.

De�nición.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la

covarianza de Y1 y Y2 es

Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]

Una manera alterna para calcular la covarianza:

Teorema.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces

Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)

Miguel Angel Méndez Estadística II 25/36

La covarianza

La covarianza es una medida del grado de variación de dos variables

aleatorias respecto a sus respectivas medias. El dato es necesario

para determinar si existe dependencia entre ambas variables y para

estimar el coe�ciente de correlación lineal.

De�nición.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la

covarianza de Y1 y Y2 es

Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]

Una manera alterna para calcular la covarianza:

Teorema.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces

Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)

Miguel Angel Méndez Estadística II 25/36

La covarianza

La covarianza es una medida del grado de variación de dos variables

aleatorias respecto a sus respectivas medias. El dato es necesario

para determinar si existe dependencia entre ambas variables y para

estimar el coe�ciente de correlación lineal.

De�nición.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la

covarianza de Y1 y Y2 es

Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]

Una manera alterna para calcular la covarianza:

Teorema.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces

Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)

Miguel Angel Méndez Estadística II 25/36

Algunas observaciones con respecto de la covarianza:

Entre mayor sea el valor absoluto de la covarianza mayor será

la dependencia lineal entre Y1 y Y2.

Los valores positivos indican que Y1 aumenta cuando Y2

aumenta y los valores negativos indican que Y1 disminuye

cuando Y2 aumenta

Un valor de cero indica que las variables son no

correlacionadas y que no hay dependencia lineal entre Y1 y Y2.

Miguel Angel Méndez Estadística II 26/36

Ejemplo.

Una cia. de nueces comercializa latas de nueces combinadas quecontienen almendras, nueces acajú y cacahuates. Suponga que el pesoneto de cada lata es exactamente de 1lb, pero la contribución al peso decada tipo de nuez es aleatoria. Como los tres pesos suman 1, un modelode probabilidad conjunta de dos cualquiera da toda la informaciónnecesaria sobre el peso del tercer tipo. Sea X el peso de las almendras enuna lata seleccionada y Y el peso de las nueces de acajú. Entonces laregión de densidad positiva es D = {(x , y) : 0 ≤ x , y ≤ 1, x + y ≤ 1} y lafunción de densidad de probabilidad conjunta de (X ,Y )

f (x , y) =

{24xy 0 ≤ x , y ≤ 1, x + y ≤ 10 o.c .

Encontrar la covarianza de X e Y

solución: Cov(X ,Y ) = 2

15− 2

5

2

5= − 2

75

Miguel Angel Méndez Estadística II 27/36

Ejemplo.

Una cia. de nueces comercializa latas de nueces combinadas quecontienen almendras, nueces acajú y cacahuates. Suponga que el pesoneto de cada lata es exactamente de 1lb, pero la contribución al peso decada tipo de nuez es aleatoria. Como los tres pesos suman 1, un modelode probabilidad conjunta de dos cualquiera da toda la informaciónnecesaria sobre el peso del tercer tipo. Sea X el peso de las almendras enuna lata seleccionada y Y el peso de las nueces de acajú. Entonces laregión de densidad positiva es D = {(x , y) : 0 ≤ x , y ≤ 1, x + y ≤ 1} y lafunción de densidad de probabilidad conjunta de (X ,Y )

f (x , y) =

{24xy 0 ≤ x , y ≤ 1, x + y ≤ 10 o.c .

Encontrar la covarianza de X e Ysolución: Cov(X ,Y ) = 2

15− 2

5

2

5= − 2

75

Miguel Angel Méndez Estadística II 27/36

Una di�cultad de utilizar la covarianza como medida absoluta de

variación es el que su valor depende de la escala de medición, i.e. es

difícil determinar si una covarianza particular es grande o

pequeña.

El problema se resuelve si estandarizamos su valor y

usamos el coe�ciente de correlación ρ:

De�nición.

El coe�ciente de correlación de X y Y , denotado por

Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por

ρX ,Y =Cov(X ,Y )

σX · σY

Miguel Angel Méndez Estadística II 28/36

Una di�cultad de utilizar la covarianza como medida absoluta de

variación es el que su valor depende de la escala de medición, i.e. es

difícil determinar si una covarianza particular es grande o

pequeña.El problema se resuelve si estandarizamos su valor y

usamos el coe�ciente de correlación ρ:

De�nición.

El coe�ciente de correlación de X y Y , denotado por

Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por

ρX ,Y =Cov(X ,Y )

σX · σY

Miguel Angel Méndez Estadística II 28/36

Una di�cultad de utilizar la covarianza como medida absoluta de

variación es el que su valor depende de la escala de medición, i.e. es

difícil determinar si una covarianza particular es grande o

pequeña.El problema se resuelve si estandarizamos su valor y

usamos el coe�ciente de correlación ρ:

De�nición.

El coe�ciente de correlación de X y Y , denotado por

Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por

ρX ,Y =Cov(X ,Y )

σX · σY

Miguel Angel Méndez Estadística II 28/36

La siguiente proposición muestra que ρ remedia el defecto de la

covarianza y también suguiere cómo reconocer la existencia de una

fuerte relación lineal.

Proposición.

1 Si a y c son ambas positivas o negativas,

Corr(aX + b, cY + d) = Corr(X ,Y )

2 Para dos v.a.'s cualesquiera X y Y ,

−1 ≤ Corr(X ,Y ) ≤ 1

Demostración:(2) : Demuestre que [E (XY )]2 ≤ E (X 2)E (Y 2)(sugerencia: E [(tX − Y )2] ≥ 0)

Miguel Angel Méndez Estadística II 29/36

La siguiente proposición muestra que ρ remedia el defecto de la

covarianza y también suguiere cómo reconocer la existencia de una

fuerte relación lineal.

Proposición.

1 Si a y c son ambas positivas o negativas,

Corr(aX + b, cY + d) = Corr(X ,Y )

2 Para dos v.a.'s cualesquiera X y Y ,

−1 ≤ Corr(X ,Y ) ≤ 1

Demostración:(2) : Demuestre que [E (XY )]2 ≤ E (X 2)E (Y 2)(sugerencia: E [(tX − Y )2] ≥ 0)

Miguel Angel Méndez Estadística II 29/36

Proposición.

1 Si X y Y son independientes, entonces ρ = 0, pero ρ = 0 no

implica independencia.

2 ρ = 1 o ρ = −1 si y sólo si Y = aX + b con algunos números

a y b con a 6= 0.

Demostración: (2) para el regreso utilizar la v.a.

U =X − E (X )

σX− Y − E (Y )

σY

Miguel Angel Méndez Estadística II 30/36

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

De�nición.

Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.

Ejemplo.

Por ejemplo, la media muestral

Y =1

n

n∑i=1

Yi

es un posible estimador puntual de la media poblacional µ

Miguel Angel Méndez Estadística II 32/36

De�nición.

Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.

Ejemplo.

Por ejemplo, la media muestral

Y =1

n

n∑i=1

Yi

es un posible estimador puntual de la media poblacional µ

Miguel Angel Méndez Estadística II 32/36

De�nición.

Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.

Ejemplo.

Por ejemplo, la media muestral

Y =1

n

n∑i=1

Yi

es un posible estimador puntual de la media poblacional µ

Miguel Angel Méndez Estadística II 32/36

Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias

de los valores de las estimaciones obtenidas en muestreo

repetido y observar como se agrupa esta distribución

alrededor del parámetro objetivo.

Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂

Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.

Miguel Angel Méndez Estadística II 33/36

Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias

de los valores de las estimaciones obtenidas en muestreo

repetido y observar como se agrupa esta distribución

alrededor del parámetro objetivo.

Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂

Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.

Miguel Angel Méndez Estadística II 33/36

Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias

de los valores de las estimaciones obtenidas en muestreo

repetido y observar como se agrupa esta distribución

alrededor del parámetro objetivo.

Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂

Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.

Miguel Angel Méndez Estadística II 33/36

De�nición.

Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un

estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está

sesgado

De�nición.

El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.

Miguel Angel Méndez Estadística II 34/36

De�nición.

Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un

estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está

sesgado

De�nición.

El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.

Miguel Angel Méndez Estadística II 34/36

De�nición.

Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un

estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está

sesgado

De�nición.

El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.

Miguel Angel Méndez Estadística II 34/36

La �gura siguiente muestra dos posibles distribuciones

muestrales para los estimadores puntuales insesgados para un

parámetro objetivo θ.Preferiríamos un estimador con una distribución del tipo (b)porque una varianza pequeña garantiza que, en un muestreo

repetido, una fracción mas alta de valores de θ̂2 estará �cerca�

de θ.Por consiguiente, además de preferir un estimador insesgado,

necesitamos que la varianza de la distribución del estimador

sea lo mas pequeña posible.

Miguel Angel Méndez Estadística II 35/36

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36