Prob Modelos0708

Embed Size (px)

Citation preview

  • 7/24/2019 Prob Modelos0708

    1/32

    Captulo 3

    Variables aleatorias

    3.1 Definicin, tipos

    En ocasiones de un experimento aleatorio slo nos interesar conocer ciertas caractersticas del mismo.En estos casos nos bastar con conocer la distribucin o modelo de probabilidad de cada caracterstica.

    Ejemplo 21 Si queremos estudiarla suma de dos dados lanzados uno tras otro, de los36resultados(a, b), estudiaremos los 11 posibles resultados a+b. Si ninguno de los dados est trucado, nuestromodelo de probabilidad ser:

    P(Suma sea ) =

    136

    si a + b= 2236

    si a + b= 3

    ...136

    si a + b= 12

    Si quisiramos estudiar tambincunto distan, es decir |ab|, tendramos6resultados:0, 1, 2,3, 4 5, con distribucin de probabilidad dada por:

    P(Distancia sea ) =

    636

    si |a b| = 01036

    si |a b| = 1...236 si |a b| = 5

    Para ambas caractersticas estamos utilizando el mismo modelo de probabilidad sobre el espacio mues-tral de 36 sucesos elementales: ={(1, 1), (1, 2), . . . , (6, 5), (6, 6)}. Y este modelo de probabilidadnos permite calcular el modelo para ambas caractersticas (o cualquier otra asociada al experimento).

    Definicin 3.1.1. Una variable aleatoriaXes unafuncin X : R, que a cada elemento delespacio muestral le hace corresponder un nmero real.

    La idea recogida en esta definicin es que para cada suceso elemental, , el valor X()representa la caracterstica que queremos estudiar.

    41

  • 7/24/2019 Prob Modelos0708

    2/32

    42 CAPTULO 3. VARIABLES ALEATORIAS

    Ejemplo 22 En el experimento del lanzamiento sucesivo de dos dados, estamos considerando lassiguientes variables aleatorias:

    X = suma de los dados ;

    Y = diferencia (en valor absoluto) de ambos dados .

    A partir de ellas podemos definir distintos sucesos aleatorios. Por ejemplo:

    A1 = { : X() = 5} ; A2= { : X()> 7} ;A3 = { : Y() 4} ; A4= { : (X Y)() = 6} .

    Y nos interesar conocer la probabilidad de los diferentes sucesos correspondientes a una variablealeatoria, es decir, su modelo o funcin de probabilidad.

    Definicin 3.1.2. SeaX : R

    una variable aleatoria. SiAes un subconjunto deR

    , definimos:

    P(A) =P(X A) :=P({ : X() A}) .

    Ejemplo 23 De los tres primeros sucesos del ejemplo anterior, considerando que los dados no estntrucados, tenemos que:

    P(A1) = 4

    36=

    1

    9; P(A2) =

    5 + 4 + 3 + 2 + 1

    36 =

    15

    36=

    5

    12; P(A3) = 1 2

    36=

    17

    18; P(A4) =

    7

    36

    que hemos calculado con las siguientes igualdades, evidentes:

    P(A2) =P(X >7)) = P(X= 8) + P(X= 9) + P(X= 10) + P(X= 11) + P(X= 12)

    P(A3) =P((Y 4)) = 1 P((Y= 5)) .

    Obsrvese el abuso de notacin, P(X > x)en lugar de P(X()> x)por ejemplo, que utilizaremos,para simplificar, siempre que est claro lo que queremos decir. Por ltimo, los casos = (a, b)en quese verifica(X Y)() = 6son los siete siguientes: (3, 3), (3, 4), (4, 3), (3, 5),(5, 3), (3, 6)y (6, 3).

    3.2 Funcin de masa o de densidad, funcin de distribucin

    Definicin 3.2.1. La funcin de distribucin de una variable aleatoria se define como:

    F(x) =P((, x]) =P({ : X() x}) para todo x R .

    Propiedades de las funciones de distribucin

    1. lmx

    F(x) = 0;

    2. lmx

    F(x) = 1;

    3. si x1< x2, entoncesF(x1)

    F(x2);

  • 7/24/2019 Prob Modelos0708

    3/32

    3.2. FUNCIN DE MASA O DE DENSIDAD, FUNCIN DE DISTRIBUCIN 43

    4. Fes continua por la derecha, es decir:

    lmh0+

    F(x + h) =F(x) .

    Es fcil, dada una funcin de distribucin, calcular la probabilidad de diferentes tipos de inter-valosde la recta real. Basta tomar la definicin, P((, x]) =F(x)y las propiedades generales decualquier funcin de distribucin. Denotaremos por

    F(x) = lmh0+

    P((, x h]) =P((, x)) .

    Se tienen as las siguientes identidades:

    P((a, b]) = P((, b]) P((, a]) =F(b) F(a)P((a, b)) = P((, b)) P((, a]) =F(b) F(a)P([a, b]) = P((

    , b])

    P((

    , a)) =F(b)

    F(a)

    P({b}) = ((, b]) P((, b)) =F(b) F(b) =salto de Fen el punto b .La ltima de ellas nos dice que si la funcin de distribucin, F, tiene un salto en un punto, laprobabilidad de ese punto es positiva.

    Ya hemos dicho que al estudiar una variable aleatoria nos interesar conocer su funcin de proba-bilidad. La funcin de distribucin caracteriza completamente la de probabilidad. Ahora bien, paralos casos ms interesantes de variables aleatorias que trataremos, hay herramientas ms sencillas quela funcin de distribucin para conocer el reparto de probabilidad. stas son: la funcin de masa,para una variable aleatoria discreta; lafuncin de densidad, si la variable aleatoria es continua.

    3.2.1 Variables aleatorias discretasDefinicin 3.2.2. Una variable aleatoria,X, se dice discretacuando slo puede tomar un nmerofinito o numerable de valoresx1, . . . , xn, . . . .

    La funcin de probabilidad de una variable aleatoria discretaX queda totalmente caracterizadapor su funcin de masa, que nos da la probabilidad de cada uno de esos posibles valores:

    P(X=xi) =P({xi}) =P(xi) =P({ : X() =xi}) i= 1, 2, 3, . . . , n, . . . .Se sigue de la definicin que

    i

    P(xi) = 1. La funcin de distribucin de una variable aleatoria

    discreta tiene forma de escalera:

    x1 x2 x3 x

    F(x)

    Obsrvese que la funcin de distribucin, F(x), es no decreciente (por qu?).

  • 7/24/2019 Prob Modelos0708

    4/32

    44 CAPTULO 3. VARIABLES ALEATORIAS

    Ejemplo 24 Calcular la funcin de masa y la funcin de distribucin de la variable aleatoriaX=suma de los dados, en el experimento de tirar sucesivamente dos dados no trucados.

    Solucin: El espacio muestral tiene 36elementos:

    = {(1, 1), (1, 2), . . . , (6, 5), (6, 6)} .La variable aleatoria X, es una funcin del espacio muestral en Rque slo toma los 11valores en-teros:2, 3, . . . , 12. Puesto que los dados no estn trucados, los sucesos elementales son equiprobables,y as:

    P({(a, b)}) = 136

    , para cualquier(a, b) .Puesto que podemos contar cuntos elementos de hay en cada uno de los sucesosX= 2,X= 3,

    . . . ,X= 12, conocemos la funcin de masa de la variable X. La siguiente tabla de valores, determinacompletamente la funcin de masa de X:

    xi 2 3 4 5 6 7 8 9 10 11 12

    P(X=xi) 1

    36

    2

    36

    3

    36

    4

    36

    5

    36

    6

    36

    5

    36

    4

    36

    3

    36

    2

    36

    1

    36

    Obsvese que1 + 2 + 3 + 4 + 5 + 6 + 5 + 4 + 3 + 2 + 1

    36 = 1 .

    Por su parte la funcin de distribucin,F : R [0, 1], viene dada por:

    F(x) = 0 six

  • 7/24/2019 Prob Modelos0708

    5/32

    3.2. FUNCIN DE MASA O DE DENSIDAD, FUNCIN DE DISTRIBUCIN 45

    Conviene resaltar que para una variable aleatoria continua X, los sucesos unitarios, A= {t}, tienenprobabilidad 0pues:

    P({t}) ={t}

    f(x) dx= 0 .

    Este hecho viene a decir que si Xes una variable aleatoria continua, la probabilidad de que Xtomeun valor particular es nula: P(X=t) =P({t}) = 0. Como consecuencia, la funcin de distribucinno tiene saltos, es decir, es continua.

    La funcin de distribucion se obtiene a partir de la funcin de densidad:

    F(x) =P((, x]) = x

    f(t) dt .

    Adems, en los puntos en que F(x)es derivable:

    f(x) =F

    (x) .

    Ejemplo 25 Sea un segmento OA de longitud 5. Cul es la probabilidad de que un punto B,situado al azar en OA, se encuentre en un segmentoC DdeOA? Cul es la funcin de densidad dela distanciaOB?Solucin: El conjunto de sucesos es no numerable. La probabilidad de que B sea un puntocualquiera del segmento CD, es nula. La probabilidad de que B est sobre CD se define mediantela razn de las longitudes: CD/OA. Modelizaremos el experimento tomando OA sobre el intervalo[0, 5]de la recta real:

    O= 0

    A= 5

    C

    D

    B

    Podemos definir la funcin de distribucin de la variable aleatoria continua X=distanciaOB,de manera que sea igual a 1cuando B est en A: 5

    0

    f(x) dx= 1 .

    Puesto que el punto B se sita al azar en el intervalo OA, la distribucin es uniformesobre OA, es

    decir, la funcin de densidad es constante, y as:

    f(x) =

    0 six / [0, 5]1

    5 six [0, 5] = F(x) =

    0 six

  • 7/24/2019 Prob Modelos0708

    6/32

    46 CAPTULO 3. VARIABLES ALEATORIAS

    3.3 Esperanza: media y varianza

    Con frecuencia de los experimentos aleatorios que estudiemos, podremos realizar un estudio es-tadstico previo. Para ello, se toma cierta muestra, realizando varias veces el experimento, y se

    recogen datossobre distintas caractersticas del mismo. El objetivo ltimo es adaptar, para las dis-tintas caractersticas del experimento (variables aleatorias), modelos de probabilidad tericos quenos permitan predecir el comportamiento real (su probabilidad) de estas caractersticas. De los datostomados se calcularn ciertas medidasque nos darn idea de la distribucin de cada una de lascaractersticas objeto de estudio.

    Destacamos entre stas la media (medida de centralizacin), la varianza y la desviacintpica(medidas de dispersin). En esta seccin definiremos los conceptos anlogos a estas medidasde la Estadstica.

    Definicin 3.3.1. Dada una variable aleatoria discreta,X, con funcin de masaP(xi),i = 1, 2, . . . ,

    se define su media o esperanza como:

    = E[X] =i

    xiP(xi) .

    De manera anloga, si X es una variable aleatoria continua, con funcin de densidadf(x), sedefine su media o esperanza como:

    = E[X] =

    R

    xf(x) dx .

    Pasemos a las medidas de dispersin (en el captulo de Estadstica vimos la utilidad de estasmedidas).

    Definicin 3.3.2. La varianza de una variable aleatoria discreta, X, con funcin de masaP(xi)y media se define como:

    2 =V[X] =E[(X )2] =i

    (xi )2P(xi) .

    Anlogamente, la varianzade una variable aleatoria continua, X, con funcin de densidadf(x)

    media se define como:

    2 =V[X] =E[(X )2] =R

    (x )2f(x) dx .

    La desviacin tpica, , de una variable aleatoria se define como la raz cuadrada positiva desu varianza.

    Ejercicio 1 Demostrar, en los casos discreto y continuo, la siguiente identidad para la varianza deuna variable aleatoria:

    2 =E[X2]

    2

  • 7/24/2019 Prob Modelos0708

    7/32

    3.3. ESPERANZA: MEDIA Y VARIANZA 47

    Solucin: Si X es una variable aleatoria discreta con funcin de masa P(xi), desarrollando elcuadrado y simplificando, se obtiene:

    2 = i

    (xi

    )2P(xi)

    =i

    (x2i 2xi + 2)P(xi)

    =i

    x2i P(xi) 2

    i

    xiP(xi)

    + 2 i

    P(xi)

    = E[X2] 22 + 2 =E[X2] 2 .

    En el caso continuo, desarrollando el cuadrado y simplificando, se obtiene:

    2 = R

    (x

    )2f(x) dx

    =

    R

    x2f(x) dx 2

    R

    xf(x) dx

    + 2

    R

    f(x) dx

    = E[X2] 22 + 2 =E[X2] 2 .

    Ejemplos

    Ejemplo 26 Una persona participa en un concurso de televisin con las siguientes reglas:

    Si contesta correctamente a una pregunta con cinco respuestas posibles (slo una correcta) gana10000e.

    En caso contrario se le propone una segunda pregunta con tres respuestas posibles (slo unacorrecta). Si acierta gana 1000e.

    Si tampoco acierta la segunda respuesta, se le propone una tercera con dos respuestas posibles(slo una correcta). Si acierta no gana nada, pero si falla debe pagar 500e.

    El juego termina cuando la persona acierta o tras fallar la tercera pregunta. Si un concursante contestaal azar, calclese:

    a) probabilidad de que obtenga una respuesta correcta;b) la ganancia esperada;

    c) E[X]y V[X], siendo Xel nmero de preguntas propuestas al concursante.

    Solucin: Sea Aiel sucesoel concursante responde correctamente la cuestin i-sima, i = 1, 2, 3.Los sucesos A1, A2 y A3 son independientes.

    a) La probabilidad de que una respuesta sea correcta es:

    P(A1) + P(A2)P(Ac1) + P(A3)P(A

    c1)P(A

    c2) =

    1

    5

    +1

    3

    4

    5

    +1

    2

    4

    5

    2

    3

    =11

    15

    .

  • 7/24/2019 Prob Modelos0708

    8/32

    48 CAPTULO 3. VARIABLES ALEATORIAS

    b) Sea Y la variable aleatoria ganancia. Es claro que esta variable toma los valores:

    y1= 10 000 con P(y1) =1

    5;

    y2= 1 000 con P(y2) =451

    3= 4

    15;

    y3= 0 con P(y3) =4

    52

    31

    2=

    4

    15;

    y3= 500 con P(y3) =452

    31

    2=

    4

    15.

    Por tanto, la ganancia esperada es:

    E[Y] = 10 000 15

    + 1 000 415

    + 0 415

    500 415

    = 2 133.33e .

    c) La variable aleatoria Xpuede tomar los valores:

    x1= 1 con P(X= 1) =P(A1) =1

    5,

    x2= 2 con P(X= 2) =P(A2)P(Ac1) =

    1

    34

    5=

    4

    15,

    x3= 3 con P(X= 3) =P(Ac2)P(A

    c1) =

    2

    34

    5=

    8

    15.

    As:

    = E[X] =3

    i=1

    xiP(xi) = 1 15

    + 2 415

    + 3 815

    =35

    15= 2.33 ;

    V[X] = E[X2] 2 =3

    i=1

    x2i P(xi) 2

    = 1 15

    + 4 415

    + 9 815

    35

    15

    2

    = 91

    151225

    225

    = 1365 1225

    225

    =140

    225

    =28

    45

    = 0.622 .

    Ejemplo 27 La longitud de ciertos tornillos en centmetros se distribuye segn la funcin de densi-dad:

    f(x) =

    34

    (x 1)(3 x)si x [1, 3]0 six / [1, 3] .

    i) Calclese E[X]y [X].

    ii) Si los tornillos son vlidos slo si su longitud est entre 1.7y 2.4cm., calclese la probabilidadde que un tornillo sea vlido.

  • 7/24/2019 Prob Modelos0708

    9/32

    3.4. VARIAS VARIABLES 49

    Solucin:i) Aplicamos directamente las frmulas a la variable aleatoria continua X=longitud deltornillo, que tiene funcin de densidad f(x):

    E[X] = 31

    3

    4x(x

    1)(3

    x) dx=

    3

    4 31

    (

    3x + 4x2

    x3) dx

    = 3

    4

    3

    2(9 1) +4

    3(27 1) 1

    4(81 1)

    =

    3

    4

    12 +104

    3 20

    =

    3

    48

    3= 2 ;

    E[X2] = 3

    4

    31

    (3x2 + 4x3 x4) dx= 34

    (27 1) + (81 1) 1

    5(243 1)

    =

    3

    4

    26 + 80 242

    5

    =

    3

    428

    5 =

    21

    5

    2[X] = E[X2]

    2 = 21

    5 4 =

    1

    5

    [X] =

    1

    5=

    5

    5 = 0.447 .

    ii) Nos piden calcular P(1.7< x

  • 7/24/2019 Prob Modelos0708

    10/32

    50 CAPTULO 3. VARIABLES ALEATORIAS

    Ejemplo 28 En el experimento tirar dos dados perfectos sucesivamente, se considera el vectoraleatorio

    (X, Y) : R2que dado un elemento = (a, b)nos devuelve:

    (X, Y)() = (a + b, |a b|) .

    En el concurso televisivo del Ejemplo 26, se considera el vector aleatorio

    (X, Y) : R2

    que a cada elemento del espacio muestral, , le asocia:

    (X, Y)() = (preguntas propuestas al concursante , ganancia del concursante ) .

    En la produccin de tornillos del Ejemplo 27, consideramos el vector aleatorio

    (X, Y , Z) : R3

    que al tomar cada tornillo , nos dice:(X, Y , Z)() = (su longitud , dimetro de la cabeza , longitud de la rosca ) .

    En lo que sigue definiremos los conceptos anlogos al caso de una variable aleatoria para vectoresaleatorios de dimensin 2. El caso ndimensional es la generalizacin natural del de dimensin 2.Adems, al considerar vectores aleatorios de la forma:

    (X, Y) :

    R2

    podremos hacer representaciones sobre el plano, ganando en claridad a la hora de asimilar los con-ceptos.

    Definicin 3.4.2. SiA es un subconjunto deR2 descrito como conjunto de posibles valores del vectoraleatorio(X, Y) : R2, definimos:

    P(A) =P((X, Y) A) =P({ : (X(), Y()) A}) .Definicin 3.4.3. La funcin de distribucinde un vector aleatorio (X, Y) se define como:

    F(x, y) = P({

    (s, t)

    R2 : s

    x, t

    y}

    )

    = P({ : X() x, Y() y}) para todo (x, y) R2 .Las propiedades de las funciones de distribucin de un vector aleatorio son, en cierto modo,

    parecidas al caso de una variable. Sin embargo son menos manejables, de manera que utilizaremoslas funciones de masa conjunta o de densidad conjunta, para el clculo de probabilidades.

    Ejercicio 2 Calcular la funcin de distribucin del vector aleatorio

    (X, Y) : R2

    correspondiente al concurso televisivo del Ejemplo 28.

  • 7/24/2019 Prob Modelos0708

    11/32

    3.4. VARIAS VARIABLES 51

    3.4.1 Densidad conjunta

    Definicin 3.4.4. Un vector aleatorio (X, Y) es discreto cuando slo puede tomar un nmerofinito o numerable de valores. El modelo de probabilidad conjunta de un vector aleatorio

    (X, Y) discreto queda caracterizado por la funcin de masa conjunta

    :

    P(X=xi, Y =yj) =P({ : X() =xi, Y() =yj}) i= 1, . . . , m ; j = 1, . . . , n .

    Cuando est claro por el contexto, utilizaremos la siguiente notacin: pi,j =P(X=xi, Y =yj).La funcin de masa conjunta suele presentarse con una tabla de doble entrada:

    X

    Y

    y1 yj ynx1

    ......

    xi

    pi,j ... ...

    xm

    Ejemplo 29 Para el concurso televisivo descrito en el Ejemplo 26, calcular la funcin de masa delvector aleatorio determinado por:

    (X, Y)() = (preguntas propuestas al concursante , ganancia del concursante ).Solucin: Este vector aleatorio puede tomar 3 4 = 12 valores, tomando la primera componente3posibles valores, y 4la segunda. La siguiente tabla nos representa la funcin de masa conjunta:

    X

    Y

    500 0 1 000 10 000

    1 0 0 0 1

    5

    2 0 0 4

    15 0

    3 4

    15

    4

    15 0 0

    En el caso de vectores aleatorios, aparte de la distribucin conjunta, hay otras distribucionestambin muy interesantes: las distribuciones marginales y las condicionadas.

    Definicin 3.4.5. Las distribuciones marginales de un vector aleatorio (X, Y) son las que seobtienen al considerar cada caracterstica por separado. As tenemos:

    Distribucin marginal de X: es de tipo discreto y su funcin de masa marginal vienedada por:

    P(X=xi) =n

    j=1

    P(X=xi, Y =yj) , i= 1, . . . , m .

    Distribucin marginal de Y: es de tipo discreto y su funcin de masa marginal vienedada por:

    P(Y =yj) =m

    i=1P(X=xi, Y =yj) , j = 1, . . . , n .

  • 7/24/2019 Prob Modelos0708

    12/32

    52 CAPTULO 3. VARIABLES ALEATORIAS

    Obsrvese que, de la definicin, es fcil obtener cada distribucin marginal si la funcin de masaconjunta viene representada por una tabla de doble entrada: basta en cada caso sumar por filas opor columnas.

    Ejemplo 30 Las distribuciones marginales del ejemplo anterior se obtienen a partir de la tabla comose indica:

    X

    Y

    500 0 1 000 10 00 P(X=xi) FX(xi)1 0 0 0

    1

    5

    1

    5

    1

    5

    2 0 0 4

    15 0

    4

    15

    7

    15

    3 4

    15

    4

    15 0 0

    8

    15 1

    P(Y =yj) 4

    15

    4

    15

    4

    15

    1

    5

    FY(yj) 4

    15

    8

    15

    4

    5 1

    3.4.2 Covarianza

    Antes de pasar a las distribuciones condicionadas conviene definir: covarianza e independencia.

    Definicin 3.4.6. La covarianza entre dos variables aleatorias discretasX eY se define como:

    Cov(X, Y) = E

    (X E[X])(Y E[Y])=

    mi=1

    nj=1

    (xi E[X])(yj E[Y])P(X=xi, Y =yj) .

    Decimos queX eY estn incorreladas, cuando Cov(X, Y) = 0.

    Se define, tambin, el coeficiente de correlacin lineal de(X, Y) como:

    r= Cov(X, Y)[X][Y]

    .

    Este coeficiente verifica que1r 1, y sirve para estudiar la existencia de una posible relacinlineal entreX eY: digamosY =aX+ bpara ciertos coeficientesa, b R. Sir= 1 r= 1, existetal relacin lineal. Su utilidad quedar ms clara en los captulos sobre Estadstica.

    Ejercicio 3 Demostrar la siguiente frmula:

    Cov(X, Y) =E[XY]

    E[X]

    E[Y] .

  • 7/24/2019 Prob Modelos0708

    13/32

    3.4. VARIAS VARIABLES 53

    Solucin: Desarrollando el sumatorio y usando las propiedades de las funciones de distribucinconjunta y marginales, tenemos:

    Cov(X, Y) =m

    i=1

    n

    j=1

    (xi

    E[X])(yj

    E[Y])P(X=xi, Y =yj)

    =mi=1

    nj=1

    xiyjP(X=xi, Y =yj) E[Y]mi=1

    xi

    nj=1

    P(X=xi, Y =yj)

    E[X]n

    j=1

    yj

    mi=1

    P(X=xi, Y =yj)

    + E[X]E[Y]mi=1

    nj=1

    P(X=xi, Y =yj)

    = E[XY] E[Y]mi=1

    xiP(X=xi) E[X]n

    j=1

    yjP(Y =yj) + E[X]E[Y]

    = E[XY]

    E[Y]E[X]

    E[X]E[Y] + E[X]E[Y] =E[XY]

    E[X]E[Y] .

    3.4.3 Independencia

    Definimos a continuacin la independencia de variables aleatorias discretas, de manera anloga a ladefinicin de independencia de sucesos.

    Definicin 3.4.7. Dos variables aleatorias discretas, X eY, se dicen independientes cuando:

    P(X=xi, Y =yj) =P(X=xi) P(Y =yj) para i= 1, . . . , m ; j= 1, . . . , n .Surge, de manera directa, la siguiente propiedad:

    SiXeY son variables aleatorias discretas independientes entonces

    E[XY] =E[X] E[Y] .

    En particular son incorreladas, es decir: Cov(X, Y) = 0 .

    Ejercicio 4 Demostrar la propiedad anterior.Solucin: Supongamos que Xe Yson independientes, es decir:

    P(X=xi, Y =yj) =P(X=xi) P(Y =yj) ,para i= 1, . . . , m ; j = 1, . . . , n. Calculemos la esperanza de la variable producto X Y:

    E[XY] =mi=1

    nj=1

    xiyjP(X=xi, Y =yj)

    =mi=1

    nj=1

    xiyjP(X=xi) P(Y =yj)

    =mi=1

    xiP(X=xi) nj=1

    yjP(Y =yj)

    = E[Y]m

    i=1

    xiP(X=xi) =E[Y]E[X] .

  • 7/24/2019 Prob Modelos0708

    14/32

    54 CAPTULO 3. VARIABLES ALEATORIAS

    En particular Cov(X, Y) = E[XY] E[X]E[Y] = 0, en otras palabras, X e Y son incorreladassiempre que sean independientes.

    Ejercicio 5 Calcular la covarianza de las variables aleatoriasX=nmero de preguntas propuestas

    al concursante eY =ganancia de un concursante , del Ejemplo26.Solucin:De la tabla de las funciones de masa conjunta y marginales del vector (X, Y)vemos queno son independientes, pues, por ejemplo:

    P(X= 3, Y= 0) = 4

    15 mientras que P(X= 3) P(Y= 0) = 8

    15 4

    15= 4

    15.

    Con los datos de la tabla calculamos:

    E[X] = 1 15

    + 2 415

    + 3 815

    = 35

    15=

    7

    3

    E[Y] = 10 000 15

    + 1 000 415

    + 0 415

    500 415

    =32000

    15 =

    6400

    3

    E[XY] = 1 10000 1

    5+ 2 1000 4

    15+ 3 0 4

    15+ 3 (500) 4

    15 =

    32000

    15 =

    6400

    3

    de donde: Cov(X, Y) = E[XY] E[X]E[Y] =64003

    736 400

    3 =

    1 7

    3

    6 400

    3 =

    256009

    3.4.4 Densidades condicionadas

    Finalizamos esta seccin con el concepto de probabilidad condicionada.

    Definicin 3.4.8. La distribucin de la variable aleatoriaX, condicionada por un valor fijo, yj, dela variable aleatoriaY, viene dada por la funcin de masa condicionada:

    P(X=xi | Y =yj) = P(X=xi, Y =yj)P(Y =yj)

    , i= 1, . . . , m .

    Es fcil comprobar que si X e Yson independientes, las distribuciones condicionadas coincidencon las distribuciones marginales correspondientes:

    P(X=xi | Y =yj) = P(X=xi, Y =yj)P(Y =yj)

    = P(X=xi) P(Y =yj)

    P(Y =yj) =P(X=xi) , i= 1, . . . , m .

    Y, anlogamente, para Y: P(Y =yj | X=xi) =P(Y =yj),j = 1, . . . , n.

    3.4.5 Vectores aleatorios continuos

    Definicin 3.4.9. Un vector aleatorio(X, Y)es continuocuando toma valores en un subconjuntono discreto de R2; por ejemplo: un cuadrado, un rectngulo, un tringulo, un crculo, un sectorcircular, . . . .

    El modelo de probabilidad conjunta de un vector aleatorio (X, Y) continuo queda carac-terizado por la funcin de densidad conjunta, que es unafuncin f : R2 R, verificando:

    1. f(x, y)

    0 para todo (x, y)

    R

    2;

  • 7/24/2019 Prob Modelos0708

    15/32

    3.4. VARIAS VARIABLES 55

    2.

    R2

    f(x, y) dx dy = 1.

    La probablidad de cualquier sucesoA R2 relativo al vector aleatorio continuo (X, Y), se calculapor la frmula:

    P(A) =

    A

    f(x, y) dx dy .

    Definicin 3.4.10. Las distribuciones marginales de un vector aleatorio (X, Y) son las quese obtienen al considerar cada caracterstica por separado. As tenemos:

    Distribucin marginal de X: es de tipo continuo y su funcin de densidad marginalviene dada por:

    f(x) =

    R

    f(x, y) dy , para todox R .

    Distribucin marginal de Y: es de tipo continuo y su funcin de densidad marginal

    viene dada por:

    f(y) =

    R

    f(x, y) dx , para todoy R .

    Definicin 3.4.11. La covarianzaentre dos variables aleatorias continuasXeY se define como:

    Cov(X, Y) = E

    (X E[X])(Y E[Y]) = R2

    (x E[X])(y E[Y])f(x, y) dx dy .

    Decimos queX eY estn incorreladas, cuando Cov(X, Y) = 0. El coeficiente de corre-lacin linealde(X, Y) se define como:

    r=

    Cov(X, Y)

    [X][Y] .

    Ejercicio 6 Demostrar la igualdad: Cov(X, Y) =E[XY] E[X]E[Y].Definicin 3.4.12. Dos variables aleatorias continuas, X eY, se dicen independientes si:

    f(x, y) =f(x)f(y) para cualesquierax R, y R .Se tienen, tambin, la siguiente propiedad:

    SiXeYson variables aleatorias continuas independientes entonces

    E[XY] =E[X] E[Y] .En particular son incorreladas, es decir: Cov(X, Y) = 0 .

    Definicin 3.4.13. La distribucin de la variable aleatoriaX, condicionada por un valor fijo, y, dela variable aleatoriaY, viene dada por la funcin de densidad condicionada:

    f(x | y) =f(x | Y =y) = f(x, y)f(y)

    , para todo x R .

    Obsrvese que es necesario quef(y)> 0. Intuitivamente, esto quiere decir que estamos condicio-nando por un valor deY potencialmente observable.

  • 7/24/2019 Prob Modelos0708

    16/32

    56 CAPTULO 3. VARIABLES ALEATORIAS

    Es fcil comprobar que si X e Yson independientes, las distribuciones condicionadas coincidencon las distribuciones marginales correspondientes:

    f(x|

    y) =f(x)f(y)

    f(y) =f(x) , para todo x

    R ; f(y

    |x) =

    f(x)f(y)

    f(x) =f(y), para todo y

    R .

    Ejercicio 7 La funcin de densidad conjunta de dos variables aleatorias continuas es:

    f(x, y) =

    k(x + xy) six (0, 1), y (0, 1)0 en otro caso.

    1) Cul es el valor dek?

    2) Calcular la densidad marginal, la esperanza y la varianza de cada variable.

    3) Son variables independientes?

    4) Calcular la covarianza.

    Solucin: 1) Puesto que es una funcin de densidad hemos de tener integral total 1. Integrandotenemos:

    R2

    f(x, y) dx dy = k

    10

    10

    (x + xy) dx dy

    = k

    10

    x 1

    0

    (1 + y) dy

    dx= k

    10

    x

    (1 0) + ( 12 0)

    dx

    = 3k2 10

    x dx= 3k2

    12 0

    =3k4 = k= 43.

    2) Las densidades marginales sern:

    f(x) =

    R

    f(x, y) dy

    ahora bien: 10

    4

    3x(1 + y) dy=

    4x

    3

    (1 0) + (1

    2 0) = 2x

    de donde: f(x) = 2x si x (0, 1)0 en otro caso;

    f(y) =

    R

    f(x, y) dx

    ahora bien: 10

    4

    3(1 + y)x dx=

    4(1 + y)

    3

    12 0 =2

    3(1 + y)

    de donde: f(y) =

    2

    3(1 + y) si y (0, 1)

    0 en otro caso.

  • 7/24/2019 Prob Modelos0708

    17/32

    3.5. SUMA DE VARIABLES INDEPENDIENTES 57

    Con las densidades marginales calculamos los parmetros pedidos de cada variable:

    X=E[X] = 1

    0x 2x dx= 2

    1

    3 0 =

    2

    3

    E[X2] =

    1

    0x2 2x dx= 1

    2(1 0) =1

    2

    2X=E[X2] 2X =

    1

    24

    9 =

    1

    18

    Y =E[Y] =

    10

    y 23

    (1 + y) dy= 2

    3

    12

    +1

    3

    =

    5

    9

    E[Y2] = 2

    3

    10

    y2 (1 + y) dy=2

    3

    13

    +1

    4

    =

    7

    18

    2Y =E[Y2] 2Y =

    7

    1825

    81=

    13

    162

    3) La densidad conjunta es el producto de las marginales:

    f(x, y) =f(x) f(y)y, por tanto, son variables independientes.

    4) Al ser variables independientes, directamente son incorreladas, es decir: Cov(X, Y) = 0.

    3.5 Suma de variables independientes

    Es especialmente ventajoso considerar variables que se distribuyen de manera independiente puescombinndolas linealmente se obtienen otras variables cuyas distribuciones se conocen a partir de lasprimeras.

    En la Estadstica Descriptiva que hemos tratado en el Captulo 1, es interesante que las muestrasrecogidas nos sirvan para inferir la distribucin de cierta cualidad en determinada poblacin. Paraello tomamos medidas numricas de la muestra. Si cada dato muestral es representativo de la cualidad(o variable aleatoria) a inferir, nos gustara, por ejemplo, que la media muestral fuese representativade la media de dicha cualidad (se dice de la media poblacional); y as con el resto de las medidas:varianza, desviacin tpica, mediana, . . .

    Si consideramos a cada muestra, de tamao N, como un valor concreto de un vector aleatorio

    (X1, X2, . . . , X N), con cada componente la misma variable, el requisito de independencia de las Xisimplifica tanto los clculos como el anlisis.

    Definicin 3.5.1. Dadasn variables aleatoriasX1,X2, . . . ,Xndecimos que sonvariables aleatoriasindependientes igualmente distribuidas, en adelante v.a.i.i.d., si todas siguen el mismo modelo deprobabilidad, digamosXi X, y son independientes dos a dos.Ejercicio 8 Probar que siX1, X2, . . . , X n son v.a.i.i.d. con distribucin comnXi X, = E(X)y2 =V(X) entonces:

    E(X1+ X2+ + Xn) =n , V (X1+ X2+ + Xn) =n2 .Es ms siX= 1

    nX1+ X2+ + Xn entonces(X) = yV(X) =2/n.

  • 7/24/2019 Prob Modelos0708

    18/32

    58 CAPTULO 3. VARIABLES ALEATORIAS

    Podemos, por ltimo, tratar el caso ms general de combinaciones lineales de variables aleato-rias independientes. Basta enunciar los resultados para dos variables. Los presentamos en forma deejercicio:

    Ejercicio 9 SeanX eYdos variables aleatorias independientes, y consideremos la nueva variableT =aX+ bY (cona, b R). Entonces:

    E(T) =aE(X) + bE(Y) , V(T) =a2V(X) + b2V(Y) .

    Cerramos la seccin con la observacin de que si no se tiene independencia (ni tan siquieraincorrelacin) entre las variables, la covarianza juega un papel importante en la frmula de la varianzade la combinacin (ver el problema 1).

    Problemas

    1. Demuestra las siguientes propiedades de esperanzas y varianzas de variables aleatorias:

    (a) E[kX] =kE[X].

    (b) E[X+ Y] =E[X] + E[Y].

    (c) V[kX] =k2V[X].

    (d) SiXe Y son incorreladas:E[XY] =E[X]E[Y].

    (e) V[X1+ + Xn] =V[X1] + + V[Xn] + 2i

  • 7/24/2019 Prob Modelos0708

    19/32

    3.5. SUMA DE VARIABLES INDEPENDIENTES 59

    3. En un experimento aleatorio el sucesoA ocurre con probabilidad 0.2. Se realiza el experimentotres veces y se define la variable aleatoriaX=nmero de veces que ha ocurridoAen las trespruebas que se suponen independientes.

    (a) Calcular E[X]y V[X].(b) Representar grficamente la funcin de distribucin de X.

    (c) Calcular P(X >2) a partir de la funcin de distribucin.

    4. La variable aleatoriaXest distribuida de tal forma que su funcin de densidad determina conlos ejes un tringulo rectngulo con ngulo recto en el origen y base sobre el intervalo (0, 1).Calcula sus funciones de densidad y distribucin, la esperanza, , la desviacin tpica, , y laprobabilidad de que X ( , + ).

    5. Un semforo est verde para los coches durante un minuto y medio, y rojo durante 15 segundos.

    Suponiendo que un automovilista llega al semforo con igual probabilidad en cualquier instante,calclese el tiempo medio de espera.

    6. Una diana est formada por tres crculos concntricos de radios 10, 20 y 30 cm. respectivamente.Si se cae en el crculo central se obtienen 5 puntos, 3 puntos si se cae en la primera coronay 1 punto al caer en la tercera corona. La probabilidad de que un tiro caiga en cada zona esproporcional al rea de la misma (y ningn tiro cae fuera de la diana). Si se efectan cuatrodisparos, calclese:

    (a) la puntuacin esperada;

    (b) la probabilidad de la puntuacin total se mayor que 17.

    7. Un examen consta de 5 temas numerados. Para elegir un tema al azar, se propone lanzar undado; si sale de 1 a 5, el nmero del tema es el resultado del dado; si sale 6 se vuelve a tirarhasta que sale de 1 a 5. Sabemos que el dado est trucado de tal manera que la probabilidadde que salga el nmero 2 es 2/7 y la probabilidad de cualquier otro nmero es 1/7. Sea X lavariable aleatoria que representa el tema seleccionado finalmente. Halla la probabilidad de queXvalga 1 (que nos interesa especialmente ya que el tema 1 es el nico que hemos estudiado).

    8. El vector aleatorio(X, Y)tiene una distribucin de probabilidad dada por:

    P(X= 0, Y= 1) = 0.3 ; P(X= 1, Y= 1) = 0.1 ; P(X= 2, Y= 1) = 0.1 ;

    P(X= 0, Y= 2) = 0.1 ; P(X= 1, Y= 2) = 0.2 ; P(X= 2, Y= 2) = 0.2 .

    Calclese:

    (a) Las distribuciones marginales y condicionadas;

    (b) las esperanzas de cada variable, y la de XY;

    (c) las varianzas de cada variable y Cov(X, Y);

    (d) el coeficiente de correlacin lineal.

  • 7/24/2019 Prob Modelos0708

    20/32

    60 CAPTULO 3. VARIABLES ALEATORIAS

    9. La vida til de cierto producto perecedero es una variable aleatoria con funcin de densidad

    f(x) =

    ex six >00 en otro caso.

    Si X1 y X2 representan la vida til de dos unidades de dicho producto, seleccionadas al azar,calclese P(X1 2, 1 X2 3).

    10. Dado el vector aleatorio (X, Y)y la funcin

    f(x, y)

    k(x + y) si0 x 2 0 y 2x x20 en otro caso.

    (a) Determnese k para que f(x, y)sea su funcin de densidad.

    (b) Calcular P(0 X 1).

    11. Las etiquetas de cierta bebida pueden tener un premio de forma que en cada 1000 etiquetashay 500 correspondientes a intntelo otra vez, 300 con premio de 5 euros, 150 con premios de10 euros, 40 con premios de 50 euros y 10 con premios de 100 euros. Una persona compra unabotella que cuesta 10 euros.(a) Si Xes la variable aleatoria correspondiente al beneficio obtenido por el comprador, cules la distribucin de X?(b) Cul es el beneficio esperado del comprador?(c) Cul es la probabilidad de perder dinero?(d) Si se sabe que el comprador ha ganado dinero, cul es la probabilidad de que le hayatocado una etiqueta de 100 euros?

    12. En una ciudad hay una proporcin pde personas que fuman. Se define una variable aleatoriaXque toma el valor 1 si al preguntar a una persona seleccionada aleatoriamente responde quees fumador, y toma el valor 0 si responde que no lo es.(a) En funcin de pcalcula la esperanza de Xe interpreta el valor obtenido.(b) Calcula la varianza de Xen funcin de p. Para qu valor de p es mxima la varianza?(c) Si se pregunta anpersonas seleccionadas aleatoriamente con reemplazamiento, y la variablealeatoria Yrepresenta el nmero de fumadores entre los nseleccionados, calcula la esperanzay la varianza de Y.

    13. Sea Xuna variable aleatoria continua con funcin de densidad

    f(x) =

    k(1 + x), si x (0, 2)0, si x / (0, 2)(a) Calcula la constante k.(b) Calcula la probabilidad de que Xtome valores entre 0 y 1.(c) Sabiendo que Xes mayor que 1, cul es la probabilidad de que sea menor que 1.5?(d) Calcula P{|X E(X)| >0.2}

    14. El tiempo de vida activa de un plaguicida (en das) es una variable aleatoriaXcon funcin dedensidad

    f(x) = 1500

    e 1500

    x, si x 00, si x

  • 7/24/2019 Prob Modelos0708

    21/32

    3.5. SUMA DE VARIABLES INDEPENDIENTES 61

    (a) Calcula el valor m tal que la probabilidad de que X sea menor o igual que m es 0.5.Interpreta el resultado obtenido.(b) Si al cabo de 800 das el plaguicida ya no estaba activo, cul es la probabilidad de quetras 600 das todava lo estuviera?

    15. El vector aleatorio (X, Y) tiene una distribucin uniformeen el cuarto de crculo de centro(0, 0) y radio r correspondiente al primer cuadrante. Obtnganse las densidades conjunta ymarginales de Xe Y, y estudiar si son variables independientes.

    16. Una pareja decide encontrarse en un lugar prefijado entre las tres y las cuatro de la tarde, deforma que el primero que llegue slo esperar al otro durante 15 minutos. Suponiendo que losmomentos de llegada de ambos al lugar son independientes y se distribuyen uniformementeentre las tres y las cuatro, calclese la probabilidad de que no se encuentren.

    17. Una fbrica produce una pieza en dos calidades diferentes: el 60 % de la produccin es decalidad A. La duracin (en aos) de una pieza de esta calidad viene dada por la funcin dedensidad

    fA(x) =

    ex six >00 en el resto.

    El 40% restante es de calidad B. La duracin viene dada, en este caso, por la funcin dedensidad

    fB(x) =

    2e2x six >00 en el resto.

    (a) Calcula la probabilidad de que una pieza de calidad Adure ms de 1 ao.

    (b) Si tomamos una pieza al azar de toda la produccin, cul es la probabilidad de que durems de 1 ao?(c) Si tomamos una pieza al azar de toda la produccin, y observamos que dura ms de 1 ao,cul es la probabilidad de que sea de calidad A?

    18. Una empresa suministra energa elctrica a travs de dos lneas de alta tensin A y B. En lasiguiente tabla se muestran las probabilidades conjuntas pij = P{X = xi, Y = yj}, para lasvariables X nmero de fallos mensuales en la lnea A e Ynmero de fallos mensuales enla lnea B.

    YX 0 1 2 3 40 0.20 0.15 0.05 0.04 0.021 0.20 0.06 0.08 0.03 0.012 0.06 0.02 0.02 0 03 0.04 0.02 0 0 0

    (a) Calcula las distribuciones marginales de Xe Y.(b) Calcula la distribucin del nmero de fallos que se producen en la lnea B en un mes en queno se produce ningn fallo en la lnea A. Cul es el nmero esperado de fallos en este caso?(c) Son independientes los fallos en las dos lneas?

  • 7/24/2019 Prob Modelos0708

    22/32

    62 CAPTULO 3. VARIABLES ALEATORIAS

    19. Dos caractersticas, Xe Y, son variables aleatorias con funcin de densidad conjunta:

    f(x, y) =

    kye2xey six >0, y >00 en el resto.

    (a) Hallar el valor de k. Son independientes Xe Y?

    (b) Calcular la esperanza de X.

    20. Dos sustancias,A y B , se encuentran en la sangre en cantidadesXeY, respectivamente. Estascantidades varan de un individuo a otro. La densidad conjunta de ambas es:

    f(x, y) =

    281

    xy2 si0< x

  • 7/24/2019 Prob Modelos0708

    23/32

    Captulo 4

    Modelos de probabilidad

    4.1 Modelos discretos

    4.1.1 Pruebas de Bernoulli

    Definicin 4.1.1. Una prueba de Bernoulli es un experimento aleatorio cuyos posibles resul-tados se agrupan en dos conjuntos excluyentes que llamaremos xito (E) y fracaso (F), conrespectivas probabilidades: p= P(E) y1 p= P(F).

    Ejemplos 31 En el lanzamiento de una moneda podemos tomar E ={ Cara} y F ={ Cruz}.Si la moneda no est trucada, p= 1

    2.

    En una poblacin se elige al azar una persona y consideramos los sucesos E={

    altura

    1.80

    }y F = {altura

  • 7/24/2019 Prob Modelos0708

    24/32

    64 CAPTULO 4. MODELOS DE PROBABILIDAD

    4.1.2 Distribucin binomial

    Definicin 4.1.3. Supongamos que realizamosnpruebas de Bernoulli independientes, conP(E) =pen cada prueba. Sea X la variable nmero de xitos obtenidos en las n pruebas. Llamamos dis-

    tribucin binomiala la distribucin de esta variableX. Denotaremos porB (n;p) la distribucinbinomial de parmetrosn= nmero de pruebas de Bernoulli yp= P(E) en cada prueba.

    SiXsigue una distribucinB(n;p), escribiremosX B(n; p), y su funcin de masa es:

    P(X=i) =

    n

    i

    pi(1 p)ni , i= 0, 1, 2, . . . , n .

    Obsrvese que si tomamos una prueba de Bernoulli con p(E) =p, y consideramos la variable Xcon valores 1si xito, 0si fracaso, entonces X B(1;p).

    Tambin, si tomamosnvariablesXiindependientes, todas y cada una de ellas siguiendo la misma

    distribucin B(1;p), entonces la variable

    X=X1+ X2+ + Xn

    sigue una distribucinB(n;p). En particular, la esperanza y la varianza de X B(n;p)son:

    E[X] =n p , V[X] =n p (1 p) ;

    puesto que p = E[Xi] y p (1 p) = V[Xi] para cada una de las variables independientes quesumamos.

    4.1.3 Otros modelos basados en pruebas de Bernoulli

    Definicin 4.1.4. Realizamos pruebas de Bernoulli independientes con la misma distribucin dadaporP(E) =p. La distribucin geomtrica de parmetro p es la de la variable aleatoria:

    X=nmero de pruebas hasta el primer xito.

    Su funcin de masa es:

    P(X=j) = (1 p)j1 p , j = 1, 2, 3, . . . .

    Se puede probar que:

    E[X] =1

    p; V[X] =

    1 pp2

    .

    Ejercicio 1 Demostrar que siX sigue una distribucin geomtrica de parmetro p, entonces

    E[X] =1

    p

    .

  • 7/24/2019 Prob Modelos0708

    25/32

    4.1. MODELOS DISCRETOS 65

    Solucin: Por definicin se tiene:

    E[X] = 1 p + 2 (1 p) p + 3 (1 p)2 p + 4 (1 p)3 + 5(1 p)4 + = p

    1 + 2(1 p) + 3(1 p)2 + 4

    (1

    p)3 + 5(1

    p)4 +

    = p 1 + (1 p) + (1 p)2 + (1 p)3 + (1 p)4 + + (1 p) + (1 p)2 + (1 p)3 + (1 p)4 +

    + (1 p)2 + (1 p)3 + (1 p)4 + + (1 p)3 + (1 p)4 +

    + (1 p)4 + = p

    1p

    +1 p

    p +

    (1 p)2p

    +(1 p)3

    p +

    (1 p)4p

    +

    = 1 + (1 p) + (1 p)2 + (1 p)3 + (1 p)4 + =1p

    .

    Definicin 4.1.5. Consideramos pruebas de Bernoulli independientes con la misma distribucindada porp= P(E). Para cada nmero fijo r, se define la variable

    X=nmero de pruebas hasta elrsimo xito.

    Decimos que la variable X sigue una distribucin binomial negativa de parmetros r y p,X BN(r;p), y su funcin de masa viene dada por:

    P(X=r +j) = r+j 1j

    pr(1 p)j , j = 0, 1, 2, . . . .

    La distribucin BN(r;p) para r = 1 es una geomtrica. De hecho, si realizamos pruebas deBernoulli con p= P(E), hasta conseguir rxitos y se definen las variables:

    Xi= nmero de pruebas entre el (i 1)simo xito y el isimo, i= 1, 2, . . . , r

    cadaXi es una geomtrica de parmetro p. Entonces

    X=X1+ X2 + Xr

    sigue una distribucinBN(r;p). As vemos que si X BN(r;p)entonces:

    E[X] = r

    p; V[X] =

    r(1 p)p2

    .

    4.1.4 Distribucin de Poisson

    Supongamos que estamos interesados en estudiar el nmero de xitos obtenidos en un nmero grandede pruebas independientes de Bernoulli, teniendo una probabilidad pequea de xito en cada prueba.Es razonable pensar que la distribucin venga dada como lmite de una distribucin B(n;p) conn

    , p

    0. De hecho si se tiene cierto control sobre el producto np, digamos np

    0 definida por la funcin de masa:

    P(X=j ) =j

    e

    j! , j = 0, 1, 2, . . . .

    Si X Poisson(), informalmente, se obtiene:E[X] = lm n p= y V[X] = lm np(1 p) =.Usaremos la distribucin de Poisson cuando estemos estudiando un modelo binomial, B(n ; p),

    con un nmero grande de pruebas, cada una con probabilidad de xito pequea. A ttulo orientativo,sustituiremos la B(n ; p)por una Poisson(), con = np, cuando n 30y p 0.1.

    Es fcil comprobar que la funcin dada arriba es una funcin de masa puesto que:

    j=0P(X=j) =

    j=0j e

    j! =e

    j=0j

    j! =e e = 1 .

    Ejercicio 2 Demostrar que el lmite cuando n , p 0, connp , de la funcin de masa deunaB (n;p)es la funcin de masa de una distribucin de Poisson con parmetro , en otras palabrassinp cuando n yp 0:

    lm

    n

    j

    pj(1 p)nj =

    j ej!

    , cuando n , p 0 .

    Solucin: :

    lmn

    j

    pj

    (1 p)nj

    = lm

    n(n

    1)(n

    2)

    (n

    j+ 1)

    j! pj

    (1

    p)n

    (1 p)j

    = 1

    j!lm nj

    1 1

    n

    1 2

    n

    1 j 1

    n

    pj (1 p)

    n

    (1 p)j

    = 1

    j!lm

    1 1

    n

    1 2

    n

    1 j 1

    n

    (n p)j (1 p)

    n

    (1 p)j

    = 1

    j!1 j e

    1 =

    j ej!

    .

    4.2 Modelos continuos

    4.2.1 Distribucin uniforme

    Definicin 4.2.1. Decimos que una variable aleatoria X sigue una distribucin uniforme enun intervalo (a, b) de la recta real, X U(a, b), si su funcin de densidad es:

    f(x) = 1

    b a six (a, b) , f(x) = 0 en otro caso.

    SiX U(a, b) entonces= E[X] = a + b2

    y2 =V[X] = 1

    12(b a)2.

  • 7/24/2019 Prob Modelos0708

    27/32

    4.2. MODELOS CONTINUOS 67

    4.2.2 Distribucin exponencial

    Definicin 4.2.2. Una variable aleatoriaXse dice que sigue una distribucin exponencialdeparmetro >0, X Exp(), si su funcin de densidad es

    f(x) =ex six >0 , f(x) = 0 six 0 .SiX Exp() entonces:

    = E[X] = 1

    , 2 =V[X] =

    1

    2.

    4.2.3 Distribucin Normal

    Definicin 4.2.3. De una variable aleatoriaXdiremos que sigue una distribucin normaldemedia y desviacin tpica, X N(; ), si su funcin de densidad es:

    f(x) = 12 e(x)2

    22 , para todo x R .

    SiX N(; ) entonces:E[X] = , V[X] =2 .

    La funcin de densidad de una distribucin N(; )tiene propiedades muy interesantes:

    1. Su grfica es simtrica respecto a la media :

    +

    de manera que: P(X < a) =P(X > + a), para todo a >0.

    2. SiX N(; )yZ= X

    entoncesZ N(0;1). En esta situacin, nos referiremos al cambio

    de variableZ=X

    , comotipificacinde la variable X N(; ), y a la correspondienteZ N(0;1)como la distribucin normal tipificada.La tipificacin de cualquier normal,X N(; ), nos permitir calcular la probabilidad de unsuceso correspondiente a ella a partir de la tabla de la distribucin normal tipificada N(0;1).As, por ejemplo, siX N(; )entonces:

    P(a < X < b) =Pa

    < Z