31
Tema 4 Modelos de distribuciones continuas En este cap´ ıtulo seguiremos estudiando los modelos probabil´ ısticos m´as importantes que aparecen en computaci´ on. Como es de esperar, el m´ etodo se va a basar en el aprendizaje por indagaci´ on por parte del alumno —con la ayuda de un profesor inasequible al desaliento (y habido intentos de desaliento)—. 4.1 Distribuci´ on uniforme continua Problema 4.1.1 Supongamos que tenemos una variable aleatoria que solo toma valores en el intervalo (a, b). Sabemos que la variable aleatoria asigna probabilidades a los intervalos en (a, b) de manera proporcional a la longitud del intervalo. Obtened su funci´ on de densidad. ¿En qu´ e contextos generales puede surgir esta situaci´ on? Soluci´ on: Si la probabilidad de un intervalo va a ser proporcional a su longitud, en particular lo ser´a a la del total, a la del intervalo (a, b). Sea k la constante de proporcionalidad. Tenemos laexpresi´on: P ((a, b)) = k(b - a) Como sabemos que P ((a, b)) = 1, pues es el espacio total, k tiene que ser 1 b - a . Por tanto, la funci´ on de densidad es: f ( x)= 8 > > < > > : 1 b - a si x 2 (a, b) 0 en otro caso Esta distribuci´on surgir´ a en cualquier contexto en que necesitemos escoger n´ umeros al azar dentro de un intervalo fijo. Tambi´ en cuando haya sucesos que ocurran de manera uniforme en el tiempo. Fijaos que la uniformidad en el caso continuo se refiere a que intervalos de igual longitud se les asigna la misma probabilidad. Definici´ on 4.1.2 Una variable que tiene la funci´ on de densidad hallada en el problema anterior se dice que es una uniforme U (a, b), donde a, b son n´ umeros reales a<b. Ejercicio 4.1.3 Para la funci´on de densidad del problema anterior: 89

Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

  • Upload
    others

  • View
    19

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

Tema 4

Modelos de distribuciones continuas

En este capıtulo seguiremos estudiando los modelos probabilısticos mas importantes queaparecen en computacion. Como es de esperar, el metodo se va a basar en el aprendizajepor indagacion por parte del alumno —con la ayuda de un profesor inasequible al desaliento (yhabido intentos de desaliento)—.

4.1 Distribucion uniforme continua

Problema 4.1.1 Supongamos que tenemos una variable aleatoria que solo toma valores enel intervalo (a, b). Sabemos que la variable aleatoria asigna probabilidades a los intervalos en(a, b) de manera proporcional a la longitud del intervalo. Obtened su funcion de densidad. ¿Enque contextos generales puede surgir esta situacion?

Solucion: Si la probabilidad de un intervalo va a ser proporcional a su longitud, en particularlo sera a la del total, a la del intervalo (a, b). Sea k la constante de proporcionalidad. Tenemosla expresion:

P ((a, b)) = k(b� a)

Como sabemos que P ((a, b)) = 1, pues es el espacio total, k tiene que ser1

b� a. Por tanto, la

funcion de densidad es:

f(x) =

8>><

>>:

1

b� asi x 2 (a, b)

0 en otro caso

Esta distribucion surgira en cualquier contexto en que necesitemos escoger numeros al azardentro de un intervalo fijo. Tambien cuando haya sucesos que ocurran de manera uniforme enel tiempo. Fijaos que la uniformidad en el caso continuo se refiere a que intervalos de iguallongitud se les asigna la misma probabilidad.

Definicion 4.1.2 Una variable que tiene la funcion de densidad hallada en el problema anteriorse dice que es una uniforme U(a, b), donde a, b son numeros reales a < b.

Ejercicio 4.1.3 Para la funcion de densidad del problema anterior:

89

Page 2: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

90 Modelos de distribuciones continuas

(a) Hallad su funcion de distribucion.

(b) Hallad E(X), �2,CV y la mediana.

Solucion:

(a) Este ejercicio mecanico se deja al lector para la evaluacion de sus destrezas de calculo.

(b) Para la esperanza:

E(X) =

Z 1

�1xf(x)dx =

Z b

a

x · 1

b� adx =

x2

2(b� a)

�b

a

=b2

2(b� a)� a2

2(b� a)=

b2 � a2

2(b� a)=

a+ b

2

Este resultado es totalmente esperable puesto que todos los intervalos de la mismalongitud en (a, b) tienen la misma probabilidad.

Para �2, usamos la habitual formula con E(X2):

E(X2) =

Z 1

�1x2f(x)dx =

Z b

a

x2 · 1

b� adx =

x3

3(b� a)

�b

a

=b3

3(b� a)� a3

3(b� a)=

b3 � a3

3(b� a)=

b2 + ab+ a2

3

En la ultima lınea se ha dividido b3�a3 por b�a y ello ha dado como resultado b2+ab+a2.Se puede comprobar que b3 � a3 = (b� a)(b2 + ab+ a3). Entonces, �2 es:

�2 =E(X2)� µ2 =b2 + ab+ a2

3�✓a+ b

2

◆2

=4b2 + 4ab+ 4a2 � (3a2 + 6ab+ 3b2)

12=

b2 � 2ab+ a2

12

=(b� a)2

12

Por ultimo, para CV :

CV =�

µ=

q(b�a)2

12

a+b2

=2(b� a)p12(a+ b)

=1p3· b� a

a+ b

Este coeficiente de variacion es totalmente similar al obtenido para la distribucionuniforme discreta; vease el ejercicio 3.8.1.

Se puede comprobar facilmente con la funcion de distribucion hallada mas arriba que parala uniforme la mediana y la media coinciden.

Problema 4.1.4 El tiempo de acceso a un registro de una base de datos, en segundos, sigueuna distribucion U(0, b). Sabiendo que el 10% de los accesos tarda 2 segundos o menos, calculad:

Page 3: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.2. Distribucion exponencial 91

(a) El valor de b;

(b) La probabilidad de que dicho tiempo este entre 5 y 20 segundos;

Solucion: La funcion de densidad en (0, b) vale 1b .

(a) Sabemos que el 10% de los accesos tarda 2 segundos o menos. Eso significa que

0,1 = P (X 2) =

Z 2

0

1

bdx =

hxb

i20=

2

b

Despejando b, obtenemos b = 20 segundos.

(b) Se trata de hallar la probabilidad P (5 X 20) con la funcion de densidad con b = 20.Se deja al lector.

(c) Si el tiempo de acceso es una variable X U(0, 20), su esperanza y varianza, por localculado mas arriba, es:

E(X) =0 + 20

2= 10, �2 =

(20� 0)2

12=

400

12⇡ 33,3333

4.2 Distribucion exponencial

La distribucion exponencial, como era de esperar por su inclusion aquı, modeliza muchassituaciones interesantes que surgen en computacion. Una enumeracion exhaustiva serıa prolija,pero dejenos el lector ofrecer un ejemplo rapido. Dentro de la Ingenierıa del Software, enconcreto en el campo de la fiabilidad del software, esta distribucion se emplea con hartafrecuencia. Por ejemplo, la NASA la uso (y usa) para estimar las tasas de error de los sistemasinformaticos de sus transbordadores espaciales. En un experimento tomaron datos de 200horas de vuelo de misiones espaciales y los ajustaron al modelo exponencial. El ajuste fueparticularmente bueno, como se puede ver en la figura 4.11.

Otros ejemplos de fenomenos modelizados por la distribucion exponencial son los siguientes:

(a) Tiempo entre fallos consecutivos de un sistema software o hardware;

(b) Tiempo entre peticiones a un servicio informatico (un servidor, una pagina web, etc.);

(c) Tiempo de servicio en una cola;

(d) Tiempo entre dos mutaciones en una hebra de ADN;

(e) Tiempo hasta que un nucleo radioactivo deja de ser perjudicial para el ser humano;

(f) Tiempo de fallo de dispositivos (bombillas, discos duros, preservativos, etc.);

(g) Duracion de una llamada telefonica.

1Este ejemplo esta tomado del libro de informatica (que no de uno de aburridas, innecesarias y tediosasmatematicas) Metrics and Models in Software Quality Engineering de Stephen H. Kan

Page 4: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

92 Modelos de distribuciones continuas

Figura 4.1: Ajuste de datos en fiabilidad de software con la distribucion exponencial

Procedamos, pues, a la deduccion de la variable aleatoria exponencial. Como el lector habraadvertido, los ejemplos anteriores se refieren al tiempo entre dos fenomenos o a tiempo hastaque ocurre un cierto suceso. En efecto, la variable exponencial es continua —el tiempo es unacantidad continua por antonomasia—. La definicion de la variable exponencial parte de unexperimento de Poisson. Supongamos que X es la variable aleatoria numero de sucesos porunidad de tiempo de cierto fenomeno y que ademas X P (�). Definamos la variable T tiempoentre dos sucesos consecutivos en el experimento de Poisson. Esta variable solo toma valores enel intervalo (0,1). Empezamos por observar un suceso y contamos el tiempo hasta que ocurrael siguiente suceso. Consideremos la probabilidad de que en la primera unidad de tiempo no seproduzca otro suceso; dicha probabilidad es P (T � 1). Su relacion con la variable X es

P (T � 1) = P (X = 0) = e��

Segun la definicion de experimento de Poisson (definicion 3.11.1), el numero medio de sucesospor unidad de tiempo es constante y estos ocurren de manera independiente. Esto significa quela probabilidad del suceso {T � 2} es la probabilidad de que se observen cero sucesos en unavariable de Poisson X2 P (2�), numero de sucesos observados en dos unidades de tiempo.Entonces, tenemos que:

P (T � 2) = P (X2 = 0) = e�2�

Esta igualdad es cierta en virtud de la reproductividad de la distribucion de Poisson(teorema 3.11.7).

Siguiendo este razonamiento, concluimos que para t unidades de tiempo, podemos escribir

P (T � t) = P (Xt = 0) = e�t�

donde Xt es una distribucion de Poisson P (�t) que es el numero de sucesos observados ent unidades de tiempo. A partir de esta ultima expresion se puede obtener la funcion dedistribucion de la variable T :

Page 5: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.2. Distribucion exponencial 93

F (t) = P (T t) = 1� P (T � t) = 1� e��t

donde t > 0. Si ahora derivamos esta funcion, obtenemos la funcion de densidad:

f(t) =

(�e��t si t > 0

0 en otro caso

Si una variableX sigue una distribucion exponencial se escribeX exp(�). En la figura 4.2tenemos ejemplos de funcion de densidad de la exponencial para varios valores del parametro�. La funcion P (T � t) se llama funcion de supervivencia o funcion de fiabilidad,dependiendo del contexto y la aplicacion concretos.

Figura 4.2: Ejemplos de la funcion de densidad de la distribucion exponencial

Ejercicio 4.2.1 Probad que, en efecto, la funcion f(t) anterior es una funcion de densidad.Un repaso de integrales impropias puede ser oportuno aquı.

Solucion: Basta integrar sobre R y ver que la integral da 1; se trata de una integral impropia.

Z 1

�1f(t)dt =

Z 1

0

�e��tdt = lımb!1

Z b

0

�e��tdt = lımb!1

⇥�e��t

⇤b0

= lımb!1

(�e�b + e0) = e0 = 1

Por razones de claridad y notacion, no se usa el parametro �, sino � (mas adelante seentendera por que) y se suele escribirX exp(�), convencion que seguiremos nosotros tambien.

Ejercicio 4.2.2 Sea X exp(�). Hallad E(X), �2 y CV . Analizad el significado de estosmomentos.

Page 6: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

94 Modelos de distribuciones continuas

Solucion: Para la esperanza, la integral sale del tipo polinomio por exponencial, que se resuelvepor partes:

E(X) =

Z 1

�1xf(x)dx =

Z 1

0

x · �e��xdx =

�����u = x dv = �e��x

du = dx v = �e��x

�����

(1)= lım

b!1

⇥�xe��x

⇤b0+ lım

b!1

Z b

0

e��xdx = lımb!1

(�be��b) + 0 + lımb!1

�1

�· e��x

�b

0

(2)= lım

b!1

✓�1

�· e��b

◆+

1

�= 0 +

1

�=

1

donde: (1) se toma el lımite por la definicion de integral impropia; (2) el lımite da cero porquela exponencial tiende a cero mas rapidamente que b a infinito (tambien se puede hacer porL’Hopital).

Para �2, usamos la formula con E(X2). De nuevo, habra una integral impropia por partes:

E(X2) =

Z 1

�1x2f(x)dx =

Z 1

0

x2 · �e��xdx =

�����u = x2 dv = �e��x

du = 2xdx v = �e��x

�����

(1)= lım

b!1

⇥�x2e��x

⇤b0+ lım

b!1

Z b

0

2xe��xdx = lımb!1

(�b2e��b) + 0 + lımb!1

21

Z b

0

x�e��xdx

(2)=0 + 0 + 2

1

�· 1�=

2

�2

donde: (1) se toma el lımite por la definicion de integral impropia; (2) el lımite da cero porquela exponencial va mas rapido a infinito que cualquier polinomio; en el calculo de la integral seha usado la esperanza obtenida antes, y para ello hemos tenido que multiplicar y dividir por �en la integral.

Entonces, �2 es:

�2 =E(X2)� µ2 =2

�2� 1

�2=

1

�2

Por ultimo, para el coeficiente de variacion:

CV =�

µ=

1�1�

= 1

Sorprendentemente, la distribucion exponencial tiene un coeficiente de variacion constante, queno depende de los parametros del modelo. Se trata de una distribucion con una alta dispersionque ademas es constante.

La mediana de la exponencial ocurre en x =ln 2

�(es inmediato a partir de la funcion de

distribucion) y ademas, el coeficiente de asimetrıa es tambien constante e igual a CAF = 2.

Problema 4.2.3 El tiempo que tarda un cliente en ser atendido en una tienda sigue unadistribucion exponencial de media 30 segundos. Sabiendo que dicho tiempo es independientedel numero de clientes que estan esperando, calculad la probabilidad de que 5 clientes, entrelos 9 que hay en la tienda, sean atendidos en menos de 20 segundos cada uno.

Page 7: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.2. Distribucion exponencial 95

Solucion: Llamaremos X el tiempo que un cliente tarda en ser atendido. Sabemos que sigueuna distribucion exp(�). Conocemos la media, que es 30 segundos, y como µ = 1

� , se sigue que

� = 130 . Por otro lado, hay 9 clientes en la tienda, cada uno de los cuales tiene probabilidad

p = P (X < 20) de ser atendido en menos de 20 segundos. Ser atendido se puede concebircomo exito. Las esperas son independientes y la probabilidad de ser atendido no cambia en eltiempo. Por tanto, la variable Y ser atendido antes de 20 segundos de entre los 9 clientes esuna binomial B(9, p). Empezamos por calcular p = P (X < 20).

p = P (X < 20) =

Z 20

0

1

30e�

130 ·xdx = 1� e�

130 ·20 ⇡ 0,4865

Finalmente, calculamos P (Y = 5).

P (Y = 5) =

✓9

5

◆p5(1� p)4 ⇡ 0,2387

Teorema 4.2.4 La distribucion exponencial no tiene memoria:

P (X t+ h |X > h) = P (X t)

Prueba: Para esta prueba recordamos que la funcion de distribucion de una exponencial exp(�)es F (x) = 1� e��x, como se dedujo al principio de esta seccion.

P (X t+ h |X > h) =P ({X t+ h} \ {X > h})

P (X > h)

=P (h < X t+ h)

1� P (X h)=

F (t+ h)� F (h)

1� F (h)

=1� e��(t+h) � (1� e��h)

1� (1� e��h)=

�e��(t+h) + e��h)

e��h

=� e��t + 1 = F (t) = P (X t)

Problema 4.2.5 Explicad la diferencia entre independencia y falta de memoria en variablesaleatorias.

Solucion: La independencia de dos sucesos significa que el conocimiento de uno no afecta a laprobabilidad del otro. Esto se expresa formalmente diciendo que P (A|B) = P (A), donde A,Bson sucesos de probabilidad positiva. En cambio, la falta de memoria dice que lo ocurridoanteriormente no afecta para la probabilidad presente. Formalmente, esto se expresa ası:P (X t + h |X > h) = P (X t). La falta de memoria es diferente a la independencia.De hecho, si los sucesos en la probabilidad anteriores fueran independientes tendrıamos laformula P (X t + h |X > h) = P (X t + h), que es diferente a P (X t), la falta dememoria.

Problema 4.2.6 El tiempo que tardan en llegar los mensajes enviados a un ordenador sigueuna distribucion exponencial de media 20 segundos. Calculad:

Page 8: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

96 Modelos de distribuciones continuas

(a) La probabilidad de que el tiempo que tarda en llegar un mensaje sea menor que 25segundos;

(b) El tiempo, k, tal que el 80% de los mensajes enviados tardan en llegar un tiempo menorque k;

(c) La probabilidad de que un mensaje tarde en llegar mas de 25 segundos sabiendo que no hallegado en los primeros 15 segundos. Comparadla con la probabilidad de que un mensajetarde en llegar al ordenador mas de 10 segundos.

Solucion: Como la distribucion es exponencial, la esperanza es el inverso del parametro de ladistribucion. Por tanto, X exp(1/20).

(a) En este apartado se pide P (X < 25).

P (X < 25) =

Z 25

0

1

20e

�x20 dx = 1� e

�2520 = 1� e�5/4 ⇡ 0,7134

(b) Ahora piden el percentil 80, esto es, el valor k tal que F (k) = 0,80. Sabemos que lafuncion de distribucion de la exponencial es F (x) = 1 � e��x. Esto se probo cuando sededujo la exponencial a partir de la distribucion de Poisson.

F (k) = P (X < 80) = 0,8; 1� e�120 ·k = 0,8; e�

120 ·k = 0,2

�1

20k = ln(0,2); k = �20 ln(0,2) ⇡ 32,1888

(c) Se pide la probabilidad del suceso {X > 25|X > 15}. Dada la propiedad de faltade memoria de la distribucion exponencial, esta probabilidad es igual a la del suceso{X > 10}. Por tanto, tenemos:

P (X > 25|X > 15) =P (X > 10) = 1� P (X 10) = 1� (1� e�120 ·10)

=e�1/2 ⇡ 0,6065

Problema 4.2.7 Un sistema esta formado por 2 componentes independientes montados enparalelo. La duracion de cada componente sigue una distribucion exponencial, de media 24meses para el primero y 36 meses para el segundo.

(a) Hallad la probabilidad de que el sistema funcione mas de un ano.

(b) Sabiendo que el sistema ha funcionado mas de un ano, calculad la probabilidad de que elprimer componente no se haya estropeado durante ese tiempo.

(c) Un mecanismo esta formado por 100 sistemas independientes del tipo anterior. Elmecanismo se para cuando dejan de funcionar 15 o mas sistemas. Obtened la probabilidadde que el mecanismo se pare antes de 1 ano.

Solucion:

Page 9: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.3. Distribucion gamma 97

(a) Sean X1, X2 las duraciones de los dos componentes, respectivamente. Tienendistribuciones exp(1/24) y exp(1/36), ya que en la exponencial el parametro es la inversade la esperanza. La probabilidad de que el sistema funcione un ano es C1 [ C2, dondeCi, i = 1, 2 es el suceso el componente i funciona durante un ano. Primero, hallamos lasprobabilidades P (C1), P (C2) y despues la probabilidad P (C1 [ C2); en el calculo de estaultima probabilidad hemos usado la independencia de los componentes.

P (C1) =P (X1 > 12) = 1� P (X1 12) = 1�Z 12

0

1

24e�

124 ·xdx

=1� (1� e�124 ·12) = e�1/2 ⇡ 0,6065

P (C2) =P (X2 > 12) = 1� P (X2 12) = 1�Z 12

0

1

36e�

136 ·xdx

=1� (1� e�136 ·12) = e�1/3 ⇡ 0,7165

P (C1 [ C2) =P (C1) + P (C2)� P (C1 \ C2) = P (C1) + P (C2)� P (C1)P (C2)

=e�1/2 + e�1/3 � e�1/2e�1/3 ⇡ 0,8884

(b) Con los sucesos formalizados en el apartado anterior, la probabilidad pedida es P (C1|C1[C2).

P (C1|C1 [ C2) =P (C1 \ (C1 [ C2))

P (C1 [ C2)=

P (C1)

P (C1 [ C2)=

0,6065

0,8884⇡ 0,6826

(c) Dada la hipotesis de independencia sobre los sistemas, el numero de sistemas quefuncionan mas de un ano de entre los 100 es una variableX3 de distribucion B(100, P (C1[C2)). Como nos piden que el mecanismo se pare antes de un ano, y esto ocurre cuandodeja de funcionar 15 o mas sistemas, tenemos que calcular P (X3 85); esto es debidoa que los componentes estan montados en paralelo. Estos valores extremos de n y p novienen en las tablas. Para obtenerlos, se ha usado una calculadora de probabilidades enlınea (http://stattrek.com/online-calculator/binomial.aspx).

P (X3 85) =85X

k=0

✓100

k

◆P (C1 [ C2)

k(1� P (C1 [ C2))100�k ⇡ 0,1148

4.3 Distribucion gamma

En esta seccion vamos a presentar la distribucion gamma. Hay varios enfoques para hacer esto.Por ejemplo, se puede definir como una distribucion muy general que aparece en multitud decontextos y argumentar su bondad a partir de su ubicuidad, pero nosotros preferimos un enfoquemas inductivo y la presentaremos como la suma de variables independientes exponenciales. Siconsideramos un proceso de Poisson y una variable X P (�), sabemos, por la seccion anterior,que la variable T tiempo entre dos sucesos consecutivos es una variable exponencial T exp(�).

Page 10: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

98 Modelos de distribuciones continuas

Ahora generalizamos y queremos que T mida el tiempo entre ↵ sucesos consecutivos (↵ es entero,por supuesto). ¿Como se hace esto?

Calcularemos la funcion de distribucion de T . Si t > 0, entonces para que ocurra el suceso{T t} ha de haber menos de ↵ sucesos en el intervalo de tiempo (0, t]. Sea X la variablenumero de sucesos en el intervalo de tiempo (0,�t]; sabemos que X es una Poisson P (�t) yentonces:

F (t) =P (T t) = 1� P (T > t) = 1� P (X < ↵) = 1� P

↵�1[

k=0

{X = k}!

La probabilidad de P (X = k) es la funcion de masa de la Poisson P (�t):

F (t) =P (T t) = 1� P

↵�1[

k=0

{X = k}!

= 1�↵�1X

i=0

(�t)ie��t

i!

=1� e��t �↵�1X

i=1

(�t)ie��t

i!

Para hallar la funcion de masa de T , derivamos su funcion de distribucion:

f(t) =F0(t) = 0 + �e��t �

↵�1X

i=1

✓(�t)ie��t

i!

◆0(1)= �e��t �

↵�1X

i=1

� · i · (�t)i�1e��t � �e��t(�t)i

i!

(2)=�e��t � �e��t

↵�1X

i=1

i · (�t)i�1 � (�t)i

i!

(3)=�e��t � �e��t

✓1� �t+ �t� (�t)2

2+

(�t)2

2!� (�t)3

3!+ . . .+

(�t)↵�2

(↵� 2)!� (�t)↵�1

(↵� 1)!

(4)=�e��t � �e��t

✓1� (�t)↵�1

(↵� 1)!

◆=

�↵t↵�1

(↵� 1)!e��t

donde: en (1) se ha efectuado la derivada del producto respecto a t; en (2) se ha sacado �e��t

fuera del sumatorio; en (3) se ha desarrollado el sumatorio, que ha resultado ser una serietelescopica en que se cancelan todos los terminos menos el primero y el ultimo; en (4) se hanefectuado operaciones para dejar la formula en la expresion mas cerrada posible.

Esta nueva distribucion recibe el nombre de distribucion gamma. Una vez mas y comopasaba con la distribucion exponencial, es costumbre escribir X �(↵, �) para una variabledistribuida segun la gamma. El parametro ↵ recibe el nombre de parametro de forma y � elparametro de escala. En la figura 4.3 tenemos las graficas de esta funcion de densidad paravarios valores de los parametros de forma y escala.

Problema 4.3.1 Probad que la funcion de densidad obtenida antes

�↵t↵�1

(↵� 1)!e��t

lo es en efecto, es decir, que la integral de esta funcion entre 0 e infinito es 1. Para ello, os harafalta los numeros gamma (se dieron en AM: ¡Dios santo!, sı, cualquiera que sea el numero de

Page 11: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.3. Distribucion gamma 99

Figura 4.3: Ejemplos de la funcion de densidad de la distribucion gamma

anos en que la cursasteis o, incluso peor, el numero de anos que os faltan por cursarla). Losnumeros gamma se escriben �(↵) y se definen por

�(↵) =

Z 1

0

x↵�1e�x dx

Como recordatorio nauseabundo, he aquı unas cuantas propiedades que os seran de utilidad

(a) Para todo ↵ > 0, �(↵) > 0.

(b) Para todo ↵ > 0, �(↵ + 1) = ↵�(↵).

(c) Para todo n 2 N se verifica que �(n+ 1) = n!

(d) �(12) =p⇡.

Solucion: La clave es hacer un cambio de variable en la funcion de densidad de tal maneraque se pueda identificar con la funcion gamma de mas arriba. Tal cambio de variable es x = �tporque el exponente de la gamma no tiene ningun parametro.

Z 1

0

�↵t↵�1

(↵� 1)!e��tdt

(1)=

������t = x

dt = 1�dx

�����(2)= �↵ 1

�↵�1

1

(↵� 1)!

1

Z 1

0

x↵�1e�xdx

(3)=

1

(↵� 1)!

Z 1

0

x↵�1e�xdx(4)=

1

(↵� 1)!�(↵)

(5)=

1

(↵� 1)!(↵� 1)! = 1

En (1) se ha efectuado el cambio de variable; en (2) se sacan fuera los terminos que no dependende x; en (3) se ha simplificado la expresion obtenida; en (4) se ha aplicado la definicion delnumero gamma �(↵); en (5) se ha usado la propiedad (c) de la gamma.

Page 12: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

100 Modelos de distribuciones continuas

Los principales momentos de la distribucion �(↵, �) son: E(X) =↵

�, �2 =

�2,CV =

1p↵

y CAF =2p↵.

Ejercicio 4.3.2 Analizad el coeficiente de variacion y de asimetrıa de la distribucion gamma.¿Tienen alguna caracterıstica especial?

Solucion: Ambos coeficientes no dependen de �, solo de ↵. Cuando ↵ crece, se hacen maspequenos, esto es, disminuye la dispersion respecto a la media y aumenta la simetrıa de ladistribucion.

Ejercicio 4.3.3 Dada las siguientes variables, modelizadlas con la gamma adecuada.

(a) Se sabe que en una ciudad ocurre una gran inundacion en media una vez cada seis anos.¿Que distribucion seguira la variable tiempo que pasara antes de las siguientes cuatrograndes inundaciones?

(b) En una cola hay 12 personas y el tiempo medio de servicio es de 5 minutos. ¿Quedistribucion seguira la variable tiempo de servicio para esas 12 personas?

Solucion:

(a) La variable bajo estudio es el tiempo entre inundaciones. Si suponemos que la mediadada en el problema es constante en el tiempo, tenemos 1/6 de inundacion por ano. Laduracion entre dos inundaciones consecutivas es una exp(6) porque la media es el inversodel parametro. Si ademas suponemos que las inundaciones son independientes entre sı,entonces el tiempo entre 4 inundaciones consecutivas seguira una �(4, 6).

(b) Aquı se esta suponiendo que la media de servicio es constante en el tiempo, que los tiempossiguen una distribucion exponencial y que el tiempo de servicio para cada persona esindependiente el uno del otro. En esas condiciones la variable pedida sigue una �(12, 5).

Problema 4.3.4 Volviendo al problema 4.2.6, se pide la probabilidad de que el tiempo totalque tardan en llegar tres mensajes enviados desde tres terminales sea mayor que 50 segundos.

Solucion: En ese problema se tenıa el tiempo que tardan en llegar los mensajes enviados a unordenador, que era una exp(1/20). Suponiendo la independencia entre los mensajes, el tiempototal sigue una �(3, 1/20). Por tanto, si X es dicha variable, tenemos:

P (X > 50) = 1� P (X 50) ⇡ 0,5438

Esta probabilidad se ha obtenido de la pagina web https://homepage.divms.uiowa.edu/⇠mbognar/applets/gamma.html, que trae una calculadora de las probabilidades de ladistribucion gamma.

La distribucion gamma �(↵, �) se llama Erlang cuando ↵ es un numero natural positivo.¿Por que tendrıa ↵ que ser un numero no natural si se dedujo la gamma como suma de ↵exponenciales, con ↵ un numero natural? Cierto, sin embargo, dado que la funcion �↵t↵�1

(↵�1)! e��t

es funcion de densidad independientemente de los parametros ↵ y �, la gamma �(↵, �) tienesentido para ↵, � > 0, con ↵, � 2 R. La distincion terminologica es pertinente entonces.

Page 13: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.4. Distribucion de Pareto 101

4.4 Distribucion de Pareto

Esta distribucion recibe su nombre por su descubridor, Vilfredo Pareto (1848–1932), un hombremultifacetico, que fue ingeniero civil, economista, sociologo y filosofo. Investigo con profundidadlas distribuciones de probabilidad de la forma x↵, las llamadas leyes potenciales. Encontro queeste tipo de distribuciones aparecıan en la descripcion de fenomenos de las ciencias puras,ciencias sociales, geofısica, entre otros.

El primer trabajo de Pareto con su distribucion fue la del estudio del reparto de la riqueza.El modelo de Pareto predice que la mayor parte de la riqueza de una sociedad estara en manos deun pequeno porcentaje de individuos (y ası, lamentablemente, es). En general, esta distribucionmodeliza situaciones en las que hay un equilibrio entre la distribucion de cantidades pequenasfrente a cantidades grandes. La distribucion de Pareto tambien se conoce por distribucionde Bradford. Los siguientes ejemplos son variables donde la distribucion de Pareto explicarazonablemente el fenomeno:

(a) El tamano de los asentamientos humanos;

(b) El tamano de los ficheros que circulan por internet con el protocolo TCP (muchos ficherospequenos y pocos muy grandes).

(c) Las tasas de error en los discos duros;

(d) Las cantidades de petroleo en las reservas (de nuevo, pocas reservas grandes frente amuchas reservas pequenas);

(e) El tamano de tareas asignadas a superordenadores;

(f) El tamano de los meteoritos;

(g) El tamano de granos de arena en una playa;

(h) El tamano de las areas quemadas en un bosque tras un incendio.

La distribucion de Pareto tiene la siguiente funcion de densidad:

f(x) =

8>><

>>:

↵k↵

x↵+1si x > k

0 en otro caso

con ↵, k > 0. La figura 4.4 muestra la grafica de esta funcion de densidad para varios valoresde ↵. Una variable aleatoria de Pareto se escribe X Par(↵, k), donde ↵ recibe el nombre deparametro de forma y k parametro de escala.

Ejercicio 4.4.1 Probad que la funcion anterior es de densidad para todos los valores posiblesde ↵ y k. Hallad su funcion de distribucion.

Page 14: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

102 Modelos de distribuciones continuas

Figura 4.4: Ejemplos de la funcion de densidad de la distribucion de Pareto

Solucion: Tenemos que probar que la funcion anterior integra 1.

Z 1

k

↵k↵

x↵+1dx = lım

b!1

Z b

k

↵k↵

x↵+1dx = lım

b!1

↵k↵x�↵

�↵

�b

k

= lımb!1

✓�k↵

b↵+

k↵

k↵

◆= 0 + 1 = 1

En cuanto a la funcion de distribucion, si x 0, entonces F (x) = 0. Para x > k, tenemos:

F (x) =

Z x

k

↵k↵

t↵+1dt =

↵k↵t�↵

�↵

�x

k

= 1�✓k

x

◆↵

Los momentos de la distribucion de Pareto son los siguientes:

(a) Si ↵ > 1 la esperanza existe y es igual a E(X) = k↵

↵� 1

(b) Si ↵ > 2, la varianza es finita e igual a V (X) = k2 ↵

(↵� 1)2(↵� 2)

(c) Para ↵ > 3, el coeficiente de asimetrıa existe y es CAF =2(↵ + 1)

↵� 3

r↵� 2

Problema 4.4.2 Supongamos que los salarios mensuales de una empresa siguen unadistribucion de Pareto Par(20, 1000)

(a) Calculad la probabilidad de que una persona gane por encima de la media.

(b) Calculad la probabilidad de que una persona gane por debajo de 1500 euros.

(c) Calculad la probabilidad de que una persona gane entre 3000 y 6000 euros.

(d) Calculad la mediana del salario.

Page 15: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.4. Distribucion de Pareto 103

Solucion: En la Pareto dada, identificamos k = 1.000 y ↵ = 20.

(a) La esperanza de la Pareto es µ = k↵

↵� 1⇡ 1052,6315. Por tanto,

P (X > 1052,6315) =1� P (X 1052,6315) = 1� F (1052,6315)

=1� 1�

✓1.000

1052,6315

◆20!

=

✓1.000

1052,6315

◆20

⇡ 0,3584

(b) La probabilidad pedida es:

P (X < 1.500) =1�✓1.000

1.500

◆20

⇡ 0,9996

(c) Se deja al lector como sencillo ejercicio de auto-evaluacion.

(d) La mediana es el valor Me tal que F (Me) = 0,5.

1�✓

k

Me

◆↵

= 0,5;

✓k

Me

◆↵

= 0,5; Me =k

↵p0,5

=1.00020p0,5

⇡ 1.035,265

Teorema 4.4.3 Sea X una variable aleatoria con distribucion de Pareto Par(↵, k). Si m, x 2R, con m > 1 y x/m > k, entonces se cumple la siguiente propiedad:

P (X > mx |X > x) = P (X > x |X > x/m)

Prueba: La funcion de distribucion de la Pareto es F (x) = 1 � (k/x)↵, si x > k. Luego,P (X > x) = (k/x)↵.

P (X > mx |X > x) =P ({X > mx} \ {X > x})

P (X > x)(1)=

P ({X > mx})P (X > x)

(2)=

�kxm

�↵�kx

�↵ =1

m↵

donde: (1) Dado que m > 1, se sigue que mx > x y, por tanto, la interseccion de {X >mx} \ {X > x} es igual a {X > mx}; (2) Se ha usado la funcion de distribucion de la Pareto.

Por otro lado:

P (X > x |X > x/m) =P ({X > x} \ {X > x/m})

P (X > x/m)(1)=

P ({X > x})P (X > x/m)

(2)=

�kx

�↵⇣

kx/m

⌘↵ =1

m↵

Ahora la interseccion {X > x} \ {X > x/m} es {X > x}. Como ambas probabilidadesresultan ser la misma, el teorema esta probado.

Problema 4.4.4 Desentranad el significado del teorema anterior.

Page 16: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

104 Modelos de distribuciones continuas

Solucion: Este teorema esta diciendo que la distribucion de Pareto es invariante por escala.El suceso {X > mx} \ {X > x} es un escalamiento del suceso {X > x} \ {X > x/m} por elfactor m.

Problema 4.4.5 Sea X una variable aleatoria con distribucion de Pareto Par(↵, k). Ademas,sean x1, x2, a numeros reales con a > 0, x1 > x2 y x2/a > k. Probad la siguiente formula yrelacionadla con el teorema anterior.

P (X > ax1 |X > ax2) = P (X > x1/a |X > x2/a)

Solucion: Este resultado es otra version de la invariancia de la distribucion de Pareto. Usandode nuevo que P (X > x) = (k/x)↵, si x > k, tenemos:

P (X > ax1 |X > ax2) =P ({X > ax1} \ {X > ax2})

P (X > ax2)(1)=

P ({X > ax1})P (X > ax2)

(2)=

⇣k

ax1

⌘↵

⇣k

ax2

⌘↵ =

✓x2

x1

◆↵

donde: (1) Dado que x1 > x2, se sigue que ax1 > ax2 y, por tanto, la interseccion de {X >ax1}\{X > ax2} es igual a {X > ax1}; (2) Se ha usado la funcion de distribucion de la Pareto.

Por otro lado:

P (X > x1/a |X > x2/a) =P ({X > x1/a} \ {X > x2/a})

P (X > x2/a)(1)=

P ({X > x1/a})P (X > x2/a)

(2)=

⇣k

x1/a

⌘↵

⇣k

x2/a

⌘↵ =

✓x2

x1

◆↵

Ahora la interseccion {X > x1/a} \ {X > x2/a} es {X > x1/a}. Como ocurrio arriba, las dosprobabilidades coinciden y el teorema esta probado.

Ejercicio 4.4.6 Se sabe que el tamano de los mensajes, medidos en kilobytes, que pasan por uncierto nodo de internet siguen una distribucion de Pareto Par(2,5, 2). Calculad la probabilidadde que un mensaje tenga mas 1.000 kilobytes si sabemos que ya es mayor de 10 kilobytes. Ahoracalculad la probabilidad de que el mensaje tenga tamano de 20.000 kilobytes si nos informande que tiene mas de 200 kilobytes.

Solucion: Se pide la probabilidad P (X > 1.000|X > 10).

P (X > 1.000 |X > 10) =P ({X > 1.000} \ {X > 10})

P (X > 10)=

P ({X > 1.000})P (X > 10)

=

=

�2

1.000

�2,5�

210

�2,5 =

✓10

1.000

◆2,5

= 10�5

Por el teorema anterior la probabilidad de P (X > 1.000|X > 10) permanece invariante simultiplicamos los sucesos por una constante mayor que uno, donde en este caso la constante es20. Entonces, P (X > 1.000|X > 10) es igual a P (X > 20.000|X > 200).

Page 17: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.4. Distribucion de Pareto 105

La distribucion de Pareto pertenece a una familia de distribuciones de las llamadas decola pesada. Esto significa que la probabilidad de los valores anomalos —entendidos estospor aquellos que estan lejos de la media— es relativamente grande. La definicion formal dedistribucion de cola pesada es la siguiente.

Definicion 4.4.7 Distribucion de cola pesada. Una distribucion se dice que tiene colapesada si, para todo � > 0, se cumple

lımx!1

e�xP (X > x) = +1

La definicion anterior establece una comparacion entre P (X > x) y la funcion e��x cuandotienden a cero (siendo x que tiende a +1). Dice que P (X > x) va mas lento a cero que e��x.

Ejercicio 4.4.8 Probad que la distribucion de Pareto es de cola pesada.

Solucion: Sea � > 0. Sabemos que P (X > x) = (k/x)↵.

lımx!1

e�xP (X > x) = lımx!1

e�x(k/x)↵ = lımx!1

k↵ e�x

x↵

El lımite anterior es infinito para cualquier valor positivo de � ya que la serie de Taylor de e�x

es1X

i=0

(�x)i

i!.

Problema 4.4.9 Sea X Par(3, 2) e Y exp(1/9). Calculad para ambas variables laprobabilidad de que haya valores por encima de µ y de µ+16�. Comparad ambas probabilidadesy sacad conclusiones.

Solucion: Las esperanzas de las variables son

µX = k↵

↵� 1= 2

3

2= 3; µY =

1

�=

1

1/9= 9

Por tanto:

• P (X > 3) =

✓k

x

◆↵

=

✓2

3

◆3

⇡ 0,2962

• P (Y > 9) = e��x = e�9·1/9 = e�1 ⇡ 0,3678

Para calcular las probabilidades del suceso {X > µ+16�}, necesitamos la varianza de X yde Y .

�X =

rk2

(↵� 1)2(↵� 2)=

r22

3

22 · 1 =p3; �Y =

r1

�2=

s1

1/92= 9

Por tanto:

• P (X > 3 + 16p3) =

✓2

3 + 16p3

◆3

⇡ 0,00027 = 2,7 · 10�4

• P (Y > 9 + 16 · 9) = P (Y > 17 · 9) = e�1/9·17·9 = e�17 ⇡ 4,1399 · 10�8

Se puede ver la gran diferencia que hay en la probabilidad de valores anomalos, esto es, muyalejados de la media. La diferencia tiene 4 ordenes de magnitud.

Page 18: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

106 Modelos de distribuciones continuas

4.5 Distribucion de normal

La cuestion de por que es importante la distribucion normal en este punto deberıa estar fuerade toda discusion. Esta distribucion ha explicado una infinidad de fenomenos y ha alcanzadouna gran envergadura conceptual. Cualquier persona que se precie de tener un mınimo decultura cientıfica debe conocerla y a fortiori un ingeniero informatico. Aunque la distribucionse conocıa desde el siglo XVIII (Moivre la describe en 1738), es el gran Gauss en 1809 quienproporciona su estudio sistematico.

Pero ¿que tiene de especial esta distribucion? ¿De donde sale su ubicuidad persistente?¿Como es posible que aparezca en tantos campos a la vez, desde la linguistica computacionalhasta la fısica, por nombrar dos campos de entre el sinnumero en que se encuentra? La normalmodeliza fenomenos muy generales con las siguientes caracterısticas en comun:

(1) El fenomeno resultante es la suma de pequenos causas, cada una de los cuales no alcanzaa explicar el efecto global.

(2) El numero de estas pequenas causas es grande.

(3) Las causas del fenomeno son independientes entre sı.

Como se puede comprobar, la cantidad de fenomenos que responden al modelo normal esincontable. He aquı unos cuantos, ofrecidos como ejemplos pero no con el animo ni muchomenos de ser exhaustivos.

(a) La velocidad de las moleculas en un gas ideal (volveremos a este ejemplo mas tarde). Masen general, las velocidades de cualquier sistema termodinamico en equilibrio.

(b) La posicion de una partıcula en un proceso de difusion.

(c) La distribucion de las medidas de aparatos de medida y tambien la distribucion de loserrores de dichas medidas.

(d) La distribucion de atributos humanos tales como la altura, el peso en una poblacion, perotambien caracterısticas conductuales tales como el coeficiente de inteligencia.

(e) Cantidades asociadas a la producciones de todo tipo: produccion de leche, produccion deartıculos en grupos de cientıficos, valores de la bolsa en ciertas condiciones, tiempo devida de componentes, demanda de productos, venta de productos, etc.

La funcion de densidad de la distribucion normal depende de dos parametros, µ y �, lamedia y la varianza, y tiene la siguiente expresion:

f(x) =1

�p2⇡

e�1

2

x� µ

!2

Una variable aleatoria distribuida segun el modelo normal se escribe N (µ, �). La figura 4.6muestra la funcion de densidad anterior para varios valores de los parametros µ y �.

Page 19: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.5. Distribucion de normal 107

Figura 4.5: Ejemplos de la funcion de densidad de la distribucion normal o de Gauss

La normal N (0, 1) recibe con frecuencia el nombre de Z; su funcion de densidad es f(x) =1p2⇡e�

x2

2 .

En la web de MathFun (sı, tal cosa es posible; pronunciese ["mæTf2n]) podeis encontraruna curiosa simulacion de la funcion densidad de la normal mediante un juego llamadoQuincux (pronunciese ["khwInk2ks]). Consiste en dejar caer bolas al azar desde lo alto deuna configuracion de clavijas. Cuando las bolas llegan al final se suma uno en cada cajon ymas abajo se va actualizando el histograma correspondiente. Se ve con el tiempo como vaconvergiendo al histograma de una distribucion normal; vease la figura 4.6. Se puede accederal juego en el enlace https://www.mathsisfun.com/data/quincunx.html

Problema 4.5.1 Probad que la funcion de densidad de la normal integra 1 (de nuevo, tendrıaisque repasar los numeros gamma para este problema). ¿Cual es su coeficiente de asimetrıa? ¿Ysu mediana?

Solucion: Tenemos que integrar la funcion de densidad en R; usaremos para ello un cambio devariable. Para que un cambio de variable funcione, este tiene que ser una funcion inyectiva en eldominio de integracion. El cambio que hay que hacer para quitar el cuadrado del exponente dee y reducir la integral a una integral de numeros gamma �(↵) =

R10 x↵�1e�xdx es t = 1

2

�x�µ�

�2.

Este cambio no es inyectivo en el intervalo (�1,1) ya que se trata de una parabola centradaen µ. Sin embargo, si separamos la integral en dos trozos, uno en (�1, µ) y otro en (µ,1),

Page 20: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

108 Modelos de distribuciones continuas

Figura 4.6: Simulacion de la distribucion normal

entonces el cambio sı es inyectivo. Procedemos a continuacion con esta idea:

Z 1

�1f(x)dx =

Z 1

�1

1

�p2⇡

e�1

2

x� µ

!2

=

Z µ

�1

1

�p2⇡

e�1

2

x� µ

!2

+

Z 1

µ

1

�p2⇡

e�1

2

x� µ

!2

=

���������������

t = 12

�x�µ�

�2, si x � µ

t = 12

�x�µ�

�2, si x < µ

x = µ+ �p2t

dx = �p2tdt

(�1, µ) �! (0,1)

(µ,1) �! (0,1)

���������������(1)=

Z 1

0

1

�p2⇡

e�t · �p2tdt+

Z 1

0

1

�p2⇡

e�t · �p2tdt

= 2

Z 1

0

1

�p2⇡

e�t · �p2tdt

(2)=

Z 1

0

1p⇡e�t · t�1/2dt

=1p⇡

Z 1

0

t1/2�1e�tdt(3)=

�(1/2)p⇡

= 1

Page 21: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.5. Distribucion de normal 109

donde: (1) se ha efectuado el cambio de variable en las dos integrales; (2) se ha simplificadola expresion; (3) se ha hecho uso de las propiedades de los numeros gamma, en particular, lapropiedad de que �(1/2) =

p⇡; vease el problema 4.3.1.

Dado que es una distribucion simetrica con respecto a la media, el coeficiente de asimetrıasera cero. Como la mitad exacta de la probabilidad se acumula justo debajo de la media, lamediana es la media.

Problema 4.5.2 Sea X N (µ, �). Se definen las variables Y1 = X/k1 y Y2 = X � k2, dondek1, k2 2 R y k1 > 0. Hallad las distribuciones de Y1, Y2.

Solucion: Consideremos la funcion de distribucion de Y .

FY1(y) =P (Y1 y) = P (X/k1 y) = P (X k1y)(1)=

Z k1y

�1

1

�p2⇡

e�1

2

0

@t� µ

1

A2

dt

=

�����t = k1s

dt = k1ds

�����(2)=

Z y

�1

1

�p2⇡

e�1

2

0

@k1s� µ

1

A2

· k1dx

(3)=

Z y

�1

1

�/k1p2⇡

e�1

2

0

@s� µ/k1�/k1

1

A2

ds

donde: (1) esta expresion es la funcion de distribucion en k1y; (2) se ha efectuado el cambio devariable t = k1s; (3) se ha recolocado el factor k1 para que se pueda identificar con la funcion dedensidad de la normal. La ultima expresion significa que Y sigue una normal N (µ/k1, �/k1).

Un calculo similar a este prueba que Y2 sigue una distribucion N (µ� k2, �).

FY2(y) =P (Y2 y) = P (X + k1 y) = P (X y � k1) =

Z y�k1

�1

1

�p2⇡

e�1

2

0

@t� µ

1

A2

dt

=

�����t = s� k1dt = ds

����� =Z y

�1

1

�p2⇡

e�1

2

0

@s� k1 � µ

1

A2

dx

La ultima integral obtenida implica que Y2 sigue una distribucion N (µ� k1, �).

Ejercicio 4.5.3 Sea X N (µ, �). Hallad la distribucion de Y =X � µ

�.

Solucion: Tras resolver el problema anterior, aplicandolo con k1 = � y k2 = µ se deduceenseguida que Y tendra una distribucion N (0, 1).

Problema 4.5.4 En una fabrica de tornillos, la longitud de los tornillos que fabrica la maquinaA sigue una distribucion normal de media 2 cm. y desviacion tıpica 0,02 cm., mientras que lalongitud de los tornillos fabricados por la maquina B sigue una distribucion N (2, 00025). Seconsidera que un tornillo es valido si su longitud esta entre 1,97 y 2,03 cm. Ademas la maquinaA produce el 70% de los tornillos y la B el resto. Cada hora se recogen todos los tornillos y seenvasan. Se pide:

Page 22: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

110 Modelos de distribuciones continuas

(a) Calcular la probabilidad de que un tornillo, elegido al azar antes de envasar, seadefectuoso.

(b) Se ha elegido un tornillo antes de envasar y ha resultado ser valido. Calcular laprobabilidad de que haya salido de la maquina A.

Solucion: En este problema hay claramente una particion del espacio muestral en los tornillosdel tipo A y los del tipo B. Esto implica el uso del teorema de la probabilidad total y Bayes.

(a) Definamos los siguientes sucesos: A al suceso el tornillo es de tipo A, B el tornillo es deltipo B, D es un tornillo defectuoso y V es un tornillo valido. Aplicamos el teorema de laprobabilidad total.

P (D) = P (A)P (D|A) + P (B)P (D|B)

Por los datos del problema las probabilidades de los sucesos {D|A} y {D|B} dependende las longitudes, que a su vez son variables normales. Llamemos X e Y a esas variables,respectivamente. En lo que sigue, hemos tomado complementarios, se han normalizadolas normales a la Z N (0, 1) y se ha usado la simetrıa de la normal.

P (D|A) =1� P (V |A) = 1� P (1,97 X 2,03) = 1� P

✓1,97� 2

0,02 Z 2,03� 2

0,02

= 1� P (�1,5 Z 1,5) = 1� (F (1,5)� F (�1,5))

=1� (F (1,5)� (1� F (1,5))) = 2� 2 · F (1,5) = 2� 2 · 0,9332 ⇡ 0,1336

P (D|B) =1� P (V |B) = 1� P (1,97 Y 2,03) = 1� P

✓1,97� 2

0,025 Z 2,03� 2

0,025

= 1� P (�1,2 Z 1,2) = 1� (F (1,2)� F (�1,2))

=1� (F (1,2)� (1� F (1,2))) = 2� 2 · F (1,2) = 2� 2 · 0,8849 ⇡ 0,2302

Como P (A) = 0,7 y P (B) = 0,3, entonces metiendo todos los datos en la formula dearriba, tenemos que P (D) ⇡ 0,16258.

(b) En este apartado se pide una probabilidad a posteriori, P (A|V ). La probabilidad devalido es 1� P (D). Usando el teorema de Bayes, tenemos:

P (A|V ) =P (V |A)P (A)

P (V )=

(1� P (D|A))P (A)

1� P (D)=

(1� 0,1336) · 0,71� 0,1625

⇡ 0,7241

Teorema 4.5.5 (Sin prueba). Sea un conjunto de variables aleatorias independientes conXi N (µi, �i), para i = 1, . . . , n. Sea S = X1 + . . .+Xn. La distribucion de S es:

S = X1 + . . .+Xn N✓µ1 + . . .+ µn,

q�21 + . . .+ �2

n

Ejercicio 4.5.6 Supongamos que se dan las condiciones del teorema anterior. Ademas,supongamos que todas las variables siguen la misma distribucion comun Xi N (µ, �), para

i = 1, . . . , n. Hallad la distribucion de S = X1 + . . .+Xn y de X =S

n.

Solucion: La aplicacion del teorema anterior junto con las propiedades de la normal probadasmas arriba lleva a que las distribuciones pedidas son

S N�nµ, �

pn�, X N

✓µ,

�pn

Page 23: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.6. Teorema del lımite central 111

4.6 Teorema del lımite central

Uno de los resultados mas profundos que podemos encontrar es el teorema del lımite central.Vivimos en un mundo que tiene un gran rango de escalas. Siguiendo la metafora del biologoevolutivo Richard Dawkins expuesta en su libro El espejismo de Dios, nosotros los humanosvivimos en el Mundo Medio. Aquı las objetos y nuestra percepcion de ellos no van demasiadodeprisa y tienen un tamano medio, ajustados a los sistemas perceptuales que hemos desarrolladoa traves de la evolucion. Percibimos bien las causas y los efectos de los fenomenos. Luego estael Mundo Grande, como por ejemplo las escalas cosmologicas, que se mide por anos luz o pormillones de anos. Y por fin, el Mundo Pequeno, como el mundo de la escala de las celulas—que no podemos ver—, la escala de las moleculas y los atomos y, por ultimo, la escalacuantica. En el Mundo Pequeno las cosas pasan deprisa en general y hay muchos objetos yestos interactuan entre sı de modos complejos e inesperados. Pero las consecuencias de losfenomenos del Mundo Pequeno tienen una consecuencia unica y definida en el Mundo Medianoque habitamos. Pensemos en la temperatura de un gas. Cuando la medimos nos da un valorunico y definido. Sin embargo, ese valor final que lee nuestro termometro es el producto de losintercambios de calor entre la infinidad de atomos que forman el gas. ¿Como es ello posible?El teorema del lımite central contesta a esta pregunta. Estamos ante la situacion en que unteorema matematico responde a una pregunta filosofica.

Para poder enunciar el teorema del lımite central (no daremos su prueba por estar fueradel alcance de este curso), necesitamos introducir un par de conceptos. El primero es sobreconvergencia de funciones y el segundo sobre convergencia de funciones de distribucion.

Definicion 4.6.1 Sea {gn(x)}, con n 2 N, una sucesion de funciones. Supondremos que todaslas funciones gn(x) tienen un dominio comun. Se dice que {gn(x)} converge puntualmente

a g(x) si en todo punto del dominio se cumple:

lımn!1

gn(x) = g(x)

Como ejemplo de esta definicion tomemos la sucesion de funciones gn(x) =nx

1 + nxen todo R.

Si tomamos el lımite cuando n tiende a infinito para cada x fijo en R tenemos:

lımn!1

nx

1 + nx= lım

n!1

x

1/n+ x=

x

x= 1

Ası, podemos afirmar que la sucesion gn(x) =nx

1 + nxtiende a la funcion g(x) = 1. La figura 4.7

muestra el proceso de convergencia puntual de esta sucesion de funciones.

En la siguiente definicion aplicamos el concepto anterior a la funcion de distribucion.

Definicion 4.6.2 Sea {Xn}, con n 2 N, una sucesion de variables aleatorias con funcionesde distribucion {Fn(x)}. Se dice que Xn converge en distribucion a X si Fn(x) convergepuntualmente a F (x), donde F (x) es la funcion de distribucion de X. La manera de escribirlo

es Fn(x)d�! F (x).

Page 24: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

112 Modelos de distribuciones continuas

Figura 4.7: Convergencia puntual de funciones

Y, por fin, arribamos al teorema del lımite central2. De sus muchas formas, enunciaremosla mas clasica de todas.

Teorema 4.6.3 Teorema del lımite central. Sea {Xn}, con n 2 N, una sucesion devariables aleatorias con la misma distribucion e independientes entre sı. Ademas, supongamosque la media µ = E(Xi) y la varianza �2 = V (Xn) comunes existen y son finitas. Se consideranlas sucesiones {Yn}, {Zn} definidas por

Yn =X1 + . . .+Xn

n, Zn =

Yn � µ

�/pn

Se sigue entonces que

Ynd�! N

✓µ,

�pn

◆, Zn

d�! N (0, 1)

¿Que tiene de importante este teorema? ¿Cual es la conexion con la metafora de losMundos de Richard Dawkins? En nuestro Mundo Medio observamos efectos definidos en losfenomenos naturales debido a nuestro sistema perceptual. Esos efectos estan producidos porla interaccion de infinidad de causas en el Mundo Pequeno. El teorema del lımite centralnos dice que esas pequenas causas del Mundo Pequeno —en el teorema formalizadas por lasucesion {Yn}— produciran una efecto claro y nıtido —la convergencia a N(µ, �)— en el MundoMediano.

El teorema del lımite central se puede extender de varias maneras. Hay versiones en que seeliminan las hipotesis de tener la misma distribucion o la independencia (a cambio se anadenotras hipotesis, normalmente sobre el comportamiento de los momentos).

2En ingles este teorema se llama central limit theorem, cuya traduccion es el teorema del lımite central. Elteorema no es central; es el lımite del que habla el teorema que lo es. En algun momento oscuro de nuestrahistoria, alguien lo tradujo mal y la ignorancia generalizada del ingles hizo que se aceptase esta traduccionincorrecta.

Page 25: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.6. Teorema del lımite central 113

Permıtanos el lector hacer una conexion con las artes a traves de la figura del compositor yarquitecto Iannis Xenakis. Una obra suya, Pithoprakta (1955-56), emplea el teorema del lımitecentral como principio de composicion musical. En realidad, esa obra es una sonorizacionde la mecanica estadıstica de Boltzman, la cual describe las propiedades macroscopica delos gases ideales en base a las interacciones cineticas de sus partıculas. Xenakis asignauna distribuciones de probabilidad a distintos parametros musicales: la duracion de lasnotas (una exponencial), la densidad de la nube de notas (una Poisson), la velocidad delglissando3(una normal), las dinamicas y la instrumentacion. Aunque pueda parecer que hayun exceso de formalizacion, Xenakis siempre pone todo este aparato matematico al serviciodel concepto artıstico y construye una obra artıstica y conceptualmente profunda. Para masinformacion, vease el artıculo Las matematicas en la musica de Xenakis I de la revista digitalDivulgamat (http://vps280516.ovh.net/divulgamat15/index.php?option=com content&view=article&id=11360:18-octubre-2010-las-matematicas-en-la-musica-de-xenakis-i&catid=67:ma-y-matemcas&directory=67).

Una cuestion que queda por discutir es la velocidad de convergencia de las variables. Elsiguiente teorema, el teorema de Berry–Esseen, responde a dicha cuestion.

Teorema 4.6.4 Teorema de Berry–Esseen Sea {Xn}, con n 2 N, una sucesion devariables aleatorias independientes e identicamente distribuidas que cumplen las siguientes trescondiciones: (1) µ < +1; (2) � < +1; y (3) E(|X1 � µ|3) = ⇢ < +1. Sean Fn(x)las funciones de distribucion de {Zn} y FZ(x) la de la normal N (0, 1). Entonces existe unaconstante C tal que, para todo x 2 R y todo n 2 N, se tiene

|Fn(x)� FZ(x)| C⇢

�3pn

La primera version del teorema solo establecıa la existencia de la constante C, pero no dabasu valor exacto. Una serie de trabajos posteriores dieron distintos valores. Uno de los ultimosvalores fue dado por Tyurin en 2010 y es de C = 0,4785. El teorema nos dice que el error estaacotado por 1/

pn.

La solucion de los problemas que vienen a continuacion esta escrita de manera que laescritura sirva de ejemplo al alumno.

Problema 4.6.5 Usando el teorema del lımite central, aproximad la distribucion de Sn =X1 + . . .+Xn donde las Xi son las siguientes distribuciones.

(1) X1, . . . , Xn son variables Xi B(1, p) de Bernouilli e independientes.

(2) X1, . . . , Xn son variables Xi P (�) de Poisson e independientes.

Solucion: Se considera la suma de n variables aleatorias Sn = X1 + . . . + Xn. En el primercaso, la distribucion es de Bernouilli y en el segundo de Poisson. Las hipotesis del teorema dellımite central son que las variables aleatorias tengan la misma distribucion, sean independientesy que µ y �2 sean finitas. Dichas hipotesis se cumplen para nuestro caso.

En general, tenemos que si un conjunto de variables aleatorias {X1, . . . , Xn} cumple lashipotesis del teorema del lımite central, entonces Yn = Sn/n tiende a N (µ, �/

pn). Entonces,

multiplicando por n, tenemos que

3Un glissando es la transicion continua entre dos notas consecutivas.

Page 26: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

114 Modelos de distribuciones continuas

Sn = Yn · nd�! N (nµ, �

pn)

donde hemos usado el teorema 4.5.5.

Entonces, para el caso en que Xi B(1, p), la aproximacion de Sn es

N(np,pnp(1� p))

y para el caso en que Xi P (�)

N(n�,p

n�))

Problema 4.6.6 En el contexto del problema 4.1.4, calculad el tiempo total esperado de accesoa 100 registros, situados al azar, y la varianza de dicho tiempo. A continuacion, calculad laprobabilidad de que el tiempo total de acceso a 100 registros sea mayor que 1100 segundos.

Solucion: En ese problema estudiabamos el tiempo de acceso a un registro de una base dedatos, en segundos y se concluıa que seguıa una distribucion U(0, 20). Suponiendo que el accesoa los registros de la base de datos es independiente, estamos considerando la suma S100 de 100uniformes U(0, 20). En la primera pregunta nos piden el tiempo total esperado; esto correspondea hallar la distribucion aproximada de Y100 = S100/100. Usando el teorema central del lımite,cuyas hipotesis se cumplen aquı, tenemos que Y100 ⇡ N (µ, �/

pn). Entonces, multiplicando

Y100 por 100 y teniendo en cuenta que µ = 10 y � =q

(20�0)2

12 = 5,7735, concluimos que

S100 ⇡ N (10 · 100,p100 · 5,7735) = N (1.000, 57,735).

P (S � 1100) =1� P (S < 1100) ⇡ 1� P

✓S � 1.000

57,735<

1.100� 1.000

57,735

= 1� P (Z < 1,732) = 1� FZ(1,732) ⇡ 0,0416

Problema 4.6.7 Si un numero se redondea, obtener:

(a) La funcion de densidad del error de redondeo al entero mas proximo.

(b) La distribucion del error de la suma de 300 numeros redondeados a enteros. Hallar laprobabilidad de que el error de la suma este entre 5 y 7 unidades.

Solucion: El problema no da ninguna informacion de como se generan los numeros. En estascondiciones se supone que todas las posibilidades son igualmente probables y modelizamos elproblema a traves de una uniforme. Tampoco dice si el error se considera en valor absolutoo con signo. Nosotros tomaremos esta ultima posibilidad. Igualmente, tampoco aclara si losnumeros se generan de manera independiente, pero supondremos eso para aplicar el teoremadel lımite central. Si no supusiese esto, el problema no tendrıa solucion con los datos dados.

(a) La estrategia de redondeo es al entero mas proximo. Si x es el numero dado y su partedecimal es menor o igual que 0,5, entonces se redondea a su parte entera o suelo bxc. Si,por el contrario, la parte entera es superior a 0,5, entonces x se redondea a bxc+1. Cuandola parte decimal es menor que 0,5 el error cae en el intervalo [�1/2, 0], por ser error pordefecto, mientras que en caso contrario cae el intervalo (0, 1/2) (error por exceso). Sea

Page 27: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.6. Teorema del lımite central 115

Ei el error cometido con este redondeo. La distribucion del error sigue una uniformeU(�1/2, 1/2). Su funcion de densidad es

f(x) =

8><

>:

1 si �1/2 x < 1/2

0 en otro caso

(b) La media de U(�1/2, 1/2) es 0. En cuanto a la varianza, esta vale

�2 =

Z 1/2

�1/2

(x� 0)2 · 1 · dx =

x3

3

�1/2

�1/2

=(1/2)3

3� (�1/2)3

3=

1

24� �1

24=

1

12

Las hipotesis del teorema del lımite central se cumplen a causa de las hipotesis que hemoshecho para resolver el problema. Son variables aleatorias independientes e identicamentedistribuidas con media y varianza finitas. Por tanto,

S300 ⇡ N�nµ, �

pn�= N

300 · 0,

p300 ·

r1

12

!= N

⇣0,p25⌘= N (0, 5)

Continuamos con el calculo pedido en el problema, P (5 S300 7) (recordamos que Zes la distribucion normal N (0, 1)).

P (5 S300 7) =P

✓5� 0

5 S300

7� 0

5

◆⇡ P

✓5� 0

5 S300 � 0

5 7� 0

5

= P (1 Z 7/5) = FZ(7/5)� FZ(1)

= 0,919243� 0,841344 = 0,077899

Los valores de la funcion de distribucion se pueden mirar en las tablas o en el Statgraphics.

Fijaos que en un problema de enunciado tan abierto como el anterior, se hace necesarioexplicar con detalle que hipotesis se han hecho ası como la estrategia de resolucion.

Problema 4.6.8 El numero de percances diarios que sufre una persona sigue una distribucionde Poisson de media 1,6. Se considera que una persona tiene un dıa desgraciado si padece 3o mas percances y que tiene un dıa muy desgraciado si sufre 5 o mas percances. Calculad laprobabilidad de que una persona determinada sea:

(a) Gafe, lo cual significa que en un ano tiene al menos 100 dıas desgraciados.

(b) Afortunada, es decir, que en un ano tiene 4 o menos dıas muy desgraciados.

Solucion: En primer lugar, reconocemos que estamos ante un proceso de Poisson, pues ası loestablece el problema. Sea X la variable numero de percances diarios que sufre una persona;sabemos que X P (�). En el problema se definen dos sucesos, dıa desgraciado y dıa muydesgraciado, a los que llamaremos D1 y D2, respectivamente. Ademas, se consideran los sucesosG ser gafe, que es sufrir al menos 100 dıas desgraciados, y el suceso A ser afortunado, que estener 4 o menos dıas desgraciados.

Page 28: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

116 Modelos de distribuciones continuas

Empezaremos calculando la probabilidad de ser desgraciado (se usaran redondeos).

P (D1) = P (X � 3) = 1� P (X 2) = 1�2X

i=0

e�1,6 (1, 6)i

i!⇡ 0,21664

Continuamos con la probabilidad de ser muy desgraciado.

P (D2) = P (X � 5) = 1� P (X 4) = 1�4X

i=0

e�1,6 (1, 6)i

i!⇡ 0,0236

(a) Para el apartado (a) consideramos la variable Y numero de dıas desgraciados en unano, que sigue una distribucion binomial B(365, P (D1)) (suponemos que los anos tienenexactamente 365 dıas). La probabilidad de G es entonces P (Y � 100). Esta probabilidadse puede calcular de varias maneras. La primera es de manera exacta:

P (G) = P (Y � 100) = 1� P (Y 99) ⇡ 0,005627 = 5,627 · 10�3

Una segunda forma es usando el teorema 4.4.3 que establece que una binomial se puedeaproximar por una Poisson bajo ciertas condiciones. Esas condiciones son que n seagrande y p pequena, condiciones que se cumplen en nuestro caso. La Poisson por la quese aproxima es P (365·0,21664) = P (79,07); el calculo de abajo se ha hecho con ordenador.

P (G) =P (Y � 100) = 1� P (Y 99) ⇡ 1� P (P (28,76) 99) =

=1�99X

i=0

e�79,07 (79,07)i

i!= 0,01301

La aproximacion de Poisson no es lo suficientemente buena porque la probabilidad deexito no es muy baja, como exige el teorema.

Por ultimo, se puede usar el teorema del lımite central, ya que se cumplen sus hipotesis.Estamos aproximando la suma de 365 variables B(1, P (D1)) independientes. En este caso,la aproximacion es Y ⇡ N (365 · 0,07881,

p365p

0,21664(1� 0,21664)) = N (79,07, 7,87).Entonces:

P (G) =P (Y � 100) = 1� P (Y 99) ⇡ 1� P (N (79,07, 7,87) 99) =

=1� P (N (0, 1) 2,5324) = 0,9943 = 9,943 · 10�1

Puede sorprender que la aproximacion no sea nada buena. El resultado exacto tieneorden de magnitud de 10�3 y la del teorema del lımite central, orden 10�1. ¿Hay algunaexplicacion a este hecho? Sı, y viene dada de la mano del teorema de Berry–Esseen. Eseteorema dice que una cota del error absoluto en la aproximacion es

C⇢

�3pn

donde C = 0,4785 y ⇢ = E(|X1 � µ|3). Vamos a calcular este ultimo numero para poderdar la cota del error. Si p = P (D1), tenemos que:

E(|X1 � µ|3) =|(1� µ)|3 · p+ |(0� µ)|3 · (1� p) = p

=(1� p)3 · p+ p3 · (1� p) ⇡ 0,1121

Page 29: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.6. Teorema del lımite central 117

Como � =p

p(1� p), la expresion final de la cota del error es

C⇢

�3pn=

0,4785 · ⇢⇣p

p(1� p)⌘3 p

365⇡ 0,04010

Luego la aproximacion puede caer en el intervalo

(0,005627� 0,04010, 0,005627 + 0,04010) ⇡ (�0,0345, 0,0457)

que es un intervalo bastante grande. Como se aprecia, la velocidad de convergencia esmuy lenta en este caso y de ahı lo pobre que es la aproximacion por la normal del teoremadel lımite central.

(b) Para este apartado consideramos la variable Y1 numero de dıas muy desgraciados en unano. Por las hipotesis del problema, esta variable sigue una distribucion B(365, P (D2)).Se quiere hallar la probabilidad de afortunada P (A) que corresponde al suceso {Y1 4}.Usando la funcion de masa y el StatGraphics, la probabilidad exacta es

P (A) =P (Y1 4) ⇡ 0,0671

Si aproximamos por una Poisson, entonces Y1 ⇡ P (365 · 0,0236) = P (8,61).

P (A) =P (Y1 4) ⇡ P (P (8,61) 4) = 0,0696

La aproximacion es relativamente satisfactoria (dos decimales). Por ultimo y porcompletitud, veremos que pasa con el teorema del lımite central. Este teorema estableceque Y1 ⇡ N (365 · 0,0236,

p0,0236 · (1� 0,0236) · 365) = N (8,61, 2,9).

P (A) =P (Y1 4) ⇡ P (N (8,61, 2,9) 4)

=P (N (0, 1) �1,5896) ⇡ 0,056

Y, una vez mas, vemos que la aproximacion es mala porque la convergencia es bastantelenta.

Problema 4.6.9 Sabiendo que el numero de enfermos recibidos cada hora en una clınica deurgencias sigue una distribucion de Poisson de media 4, se pide:

(a) Hallar la probabilidad de los siguientes sucesos:

(i) En un dıa (24 horas) se reciben mas de 100 enfermos.

(ii) En una semana hay 5 dıas en los que se reciben como maximo 100 enfermos diarios.

(b) A partir de los datos recogidos durante una semana, se calcula el numero medio deenfermos recibidos cada hora. Hallar la probabilidad de que la media muestral obtenidasea mayor que 4,3.

Solucion: Sea X la variable aleatoria numero de enfermos recibidos por hora; sabemos queX P (4).

Page 30: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

118 Modelos de distribuciones continuas

(a) Como los enfermos llegan de forma independiente, por ser un proceso de Poisson, elnumero de enfermos que llegan en 24 horas es la suma de 24 distribuciones de Poissonindependientes. Sea Y la variable suma de esas distribuciones; se sigue que Y P (24 ·4) = P (96). En este apartado nos piden calcular la probabilidad de {Y > 100}. Calculadade modo exacto da (por vıa de tablas o el StatGraphics):

P (Y > 100) =1� P (Y 100) = 1�100X

i=0

e�96 (96)i

i!= 0,318288

Cuando se calcula con el teorema del lımite central, Y se aproxima por una normalN (24 · 4,

p24 · 4) = N (96, 9,79).

P (Y > 100) =1� P (Y 100) ⇡ 1� P (N (96, 9,79) 99)

=1� P (N (0, 1) 0,306435) = 0,341422

De nuevo, la convergencia de la normal es lenta y solo coincide en la primera cifra decimal.

Ahora se observa la variable Y1 numero de dıas de la semana en que se reciben 100enfermos como maximo. Dado que hay un proceso de Poisson debajo, esta variable sigueuna distribucion binomial B(7, p1), donde p1 es la probabilidad de que haya 100 enfermoscomo maximo. Por un calculo anterior, sabemos que p1 = 1 � 0,318288 = 0,681712. Laprobabilidad pedida es P (Y2 = 5). Una vez consultada las tablas, esa probabilidad resultaser P (Y2 = 5) = 0,313231.

(b) Se pide hallar una probabilidad asociada a la distribucion de X = 1n(X1+. . .+Xn), donde

Xi P (4). Por el teorema del lımite central, esta distribucion se puede aproximar porN (µ, �/

pn), donde µ y � son la media y esperanza comunes de las variables aleatorias. La

aproximacion funciona bajo las hipotesis del teorema, que en el caso de nuestro problemase cumplen. Se recogen datos de una semana, que suponen 24 · 7 = 168 horas. De modoque X ⇡ N (1,6,

p4/168) = N (4, 0,1543).

P (X > 4,3) ⇡1� P (N (4, 0,1543) 4,3) = 1� P

✓N (0, 1) 4,3� 4

0,1543

=1� P (N (0, 1) 1,9442) = 0,02593

Problema 4.6.10 Construye el mapa conceptual de este tema.

Solucion: El mapa se encuentra en la siguiente hoja.

Page 31: Modelos de distribuciones continuas - dma.etsisi.upm.es · Tema 4 Modelos de distribuciones continuas En este cap´ıtulo seguiremos estudiando los modelos probabil´ısticos m´as

4.6. Teorema del lımite central 119

Mod

elos

con

tinuo

s

Fenó

men

os e

n qu

e la

med

ida

tom

a va

lore

s en

in

terv

alos

Uni

form

e co

ntin

ua Prob

abilid

ades

igua

les

a in

terv

alos

de

igua

l lo

ngitu

d

Mom

ento

s:

Func

ión

de d

ensi

dad:

Expo

nenc

ial Pr

ovie

ne d

e m

edir

el ti

empo

ent

re s

uces

os

cons

ecut

ivos

en

un e

xper

imen

to d

e Po

isso

n

Func

ión

de d

ensi

dad:

Mom

ento

s:

La d

istri

buci

ón e

xpon

enci

al n

o tie

ne m

emor

ia:

Gam

ma

Sale

de

med

ir el

tiem

po e

ntre

más

de

un

suce

so c

onse

cutiv

o en

un

expe

rimen

to d

e Po

isso

n

Func

ión

de d

ensi

dad:

Mom

ento

s:

Nor

mal

Apar

ece

en fe

nóm

enos

cau

sado

s po

r muc

hos

pequ

eños

efe

ctos

que

act

úan

de m

aner

a in

depe

ndie

nte

Func

ión

de d

ensi

dad:

Mom

ento

s: lo

s pa

rám

etro

s de

la n

orm

al s

on

su m

edia

y s

u de

svia

ción

típi

ca

Las

varia

bles

nor

mal

es s

e pu

eden

redu

cir a

la

N(0

,1) p

or v

ía d

el c

ambi

o

La s

uma

de n

orm

ales

inde

pend

ient

es e

s no

rmal

:

Si la

s no

rmal

es s

on la

mis

ma

e in

depe

ndie

ntes

:

Teor

ema

del l

ímite

cen

tral

Con

verg

enci

a pu

ntua

l

Con

verg

enci

a en

dis

tribu

ción

Teor

ema

del l

ímite

cen

tral:

Velo

cida

d de

con

verg

enci

a: E

l teo

rem

a de

Ber

ry-E

ssee

n.

Pare

to

Mod

eliz

a si

tuac

ione

s en

que

un

equi

librio

en

tre c

antid

ades

peq

ueña

s y

gran

des

Func

ión

de d

ensi

dad:

Mom

ento

s:

Inva

rianc

ia p

or e

scal

a:

La d

istri

buci

ón d

e Pa

reto

es

de c

ola

pesa

da: