56
VARIABLE ALEATORIA Una variable es un símbolo que actúa en las funciones, las fórmulas, los algoritmos y las proposiciones de las matemáticas y la estadística. Según sus características, las variables se clasifican de distinto modo. Se denomina variable aleatoria a la función que adjudica eventos posibles a números reales (cifras), cuyos valores se miden en experimentos de tipo aleatorio. Estos valores posibles representan los resultados de experimentos que todavía no se llevaron a cabo o cantidades inciertas. Cabe destacar que los experimentos aleatorios son aquellos que, desarrollados bajo las mismas condiciones, pueden ofrecer resultados diferentes. Arrojar una moneda al aire para ver si sale cara o ceca es un experimento de este tipo. La variable aleatoria, en definitiva, permite ofrecer una descripción de la probabilidad de que se adoptan ciertos valores. No se sabe de manera precisa qué valor adoptará la variable cuando sea determinada o medida, pero sí se puede conocer cómo se distribuyen las probabilidades vinculadas a los valores posibles. En dicha distribución incide el azar. Las variables aleatorias discretas son aquellas cuyo rango está formado por una cantidad finita de elementos o que sus elementos pueden enumerarse de manera secuencial. Supongamos que una persona arroja un dado tres veces: los resultados son variables aleatorias discretas, ya que pueden obtenerse valores del 1 al 6.

Estadistica II

Embed Size (px)

DESCRIPTION

Buen aporte a la estadistica

Citation preview

Page 1: Estadistica II

VARIABLE ALEATORIA

Una variable es un símbolo que actúa en las funciones, las fórmulas, los algoritmos y las proposiciones de las matemáticas y la estadística. Según sus características, las variables se clasifican de distinto modo.

Se denomina variable aleatoria a la función que adjudica eventos posibles a números reales (cifras), cuyos valores se miden en experimentos de tipo aleatorio. Estos valores posibles representan los resultados de experimentos que todavía no se llevaron a cabo o cantidades inciertas.

Cabe destacar que los experimentos aleatorios son aquellos que, desarrollados bajo las mismas condiciones, pueden ofrecer resultados diferentes. Arrojar una moneda al aire para ver si sale cara o ceca es un experimento de este tipo.

La variable aleatoria, en definitiva, permite ofrecer una descripción de la probabilidad de que se adoptan ciertos valores. No se sabe de manera precisa qué valor adoptará la variable cuando sea determinada o medida, pero sí se puede conocer cómo se distribuyen las probabilidades vinculadas a los valores posibles. En dicha distribución incide el azar.

Las variables aleatorias discretas son aquellas cuyo rango está formado por una cantidad finita de elementos o que sus elementos pueden enumerarse de manera secuencial. Supongamos que una persona arroja un dado tres veces: los resultados son variables aleatorias discretas, ya que pueden obtenerse valores del 1 al 6.

En cambio, la variable aleatoria continua se vincula a un recorrido o rango que abarca, en teoría, la totalidad de los números reales, aunque solo sea accesible una cierta cantidad de valores (como la altura de un grupo de personas).

Page 2: Estadistica II

VARIABLE ALEATORIA DISCRETA.

Una variable aleatoria discreta es aquella que sólo puede tomar valores enteros.

Ejemplos: Él número de hijos de una familia, la puntuación obtenida al lanzar un dado.

ENSAYO DE BERNOULLI

En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para la probabilidad de fracaso ( ).

Si es una variable aleatoria que mide el "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria se distribuye como una Bernoulli de parámetro .

Su función de probabilidad viene definida por:

La fórmula será:

Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo, y la serie de esos.

Page 3: Estadistica II

PROPIEDADES CARACTERÍSTICAS

Esperanza matemática:

Varianza:

Función generatriz de momentos:

Función característica:

Moda:0 si q > p (hay más fracasos que éxitos)1 si q < p (hay más éxitos que fracasos)0 y 1 si q = p (los dos valores, pues hay igual número de fracasos que de éxitos)

Asimetría (Sesgo):

Curtosis:

La Curtosis tiende a infinito para valores de cercanos a 0 ó a 1, pero

para la distribución de Bernoulli tiene un valor de Curtosis menor que el de cualquier otra distribución, igual a -2.

Ejemplo: Se sabe que una maquina produce un 3% de piezas defectuosas. Elegimos una pieza al azar para comprobar si no presenta defectos. ¿Cómo se distribuye la variable X que vale 1 si la pieza no es defectuosa y 0 síes defectuosa?.

Page 4: Estadistica II

¿Cuáles son su media y su varianza?

X sigue una distribución Bernoulli con parámetro 0,97. La media y varianza sonE[X] =0 ,97V [X] =0 ,97 × ,03 = ,0291

DISTRIBUCIÓN BINOMIAL

En estadística, la distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:

Una distribución binomial o de Bernoulli tiene las siguientes características:

1.En cada prueba del experimento sólo son posibles dos resultados: éxito y fracaso.

2. La probabilidad de éxito es constante, es decir, que no varía de una prueba a otra. Se representa por p.

3. La probabilidad de fracaso también es constante, Se representa por q, q = 1 – p

Page 5: Estadistica II

4. El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.

5. La variable aleatoria binomial, X, expresa el número de éxitos obtenidos en las n pruebas. Por tanto, los valores que puede tomar X son: 0, 1, 2, 3, 4, ..., n.

La distribución binomial se expresa por B(n, p)

Cálculo de probabilidadesEn una distribución binomial

n es el número de pruebas.k es el número de éxitos.p es la probabilidad de éxito.q es la probabilidad de fracaso.

El número combinatorio

1- Ejemplo: La última novela de un autor ha tenido un gran éxito, hasta el punto de que el 80% de los lectores ya la han leído. Un grupo de 4 amigos son aficionados a la lectura:

¿Cuál es la probabilidad de que el grupo hayan leído la novela 2 personas?

n = 4p = 0.8q = 0.2B(4, 0.8)

Page 6: Estadistica II

¿Y cómo máximo 2 personas?

PARÁMETROS DE LA DISTRIBUCIÓN BINOMIAL

Media

Varianza

Desviación típica

Ejemplo

La probabilidad de que un artículo producido por una fabrica sea defectuoso es 0.02. Se envió un cargamento de 10.000 artículos a unos almacenes. Hallar el número esperado de artículos defectuosos, la varianza y la desviación típica.

Page 7: Estadistica II

DISTRIBUCIÓN HIPERGEOMETRICA.

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x ( ) elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.

PROPIEDADES

La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientos combinatorios y es igual a

Donde es el tamaño de población, es el tamaño de la muestra extraída, es el número de elementos en la población original que pertenecen a la categoría deseada y es el número de elementos en

la muestra que pertenecen a dicha categoría. La notación hace referencia al coeficiente binomial, es decir, el número de combinaciones posibles al seleccionar elementos de un total .

El valor esperado de una variable aleatoria X que sigue la distribución hipergeométrica es

y su varianza,

Page 8: Estadistica II

En la fórmula anterior, definiendo

y

se obtiene

La distribución hipergeométrica es aplicable a muestreos sin reemplazo y la binomial a muestreos con reemplazo. En situaciones en las que el número esperado de repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por la segunda. Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N, es pequeño.

La distribución hipergeométrica es el modelo que se aplica en experimentos del siguiente tipo:

En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la probabilidad de que al sacar 2 bolas las dos sean blancas?

Son experimentos donde, al igual que en la distribución binomial, en cada ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se diferencia de la distribución binomial en que los distintos ensayos son dependientes entre sí:

Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el segundo ensayo hay una bola blanca menos por lo que las probabilidades son diferentes (hay dependencia entre los distintos ensayos).

La distribución hipergeométrica sigue el siguiente modelo:

Page 9: Estadistica II

 

Dónde:

Vamos a tratar de explicarlo:

N: es el número total de bolas en la urnaN1: es el número total de bolas blancasN2: es el número total de bolas negrask: es el número de bolas blancas cuya probabilidad se está calculandon: es el número de ensayos que se realiza

Veamos un ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas?

Entonces:

N = 12; N1 = 7; N2 = 5; k = 3; n = 4

Si aplicamos el modelo:

Page 10: Estadistica II

 

Por lo tanto, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.

Pero este modelo no sólo se utiliza con experimentos con bolas, sino que también se aplica con experimentos similares:

Ejemplo: en una fiesta hay 20 personas: 14 casadas y 6 solteras. Se eligen 3 personas al azar ¿Cuál es la probabilidad de que las 3 sean solteras?

Por lo tanto, P (x = 3) = 0,0175. Es decir, la probabilidad de que las 3 personas sean solteras es tan sólo del 1,75%.

LA DISTRIBUCIÓN DE POISSON

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado número de eventos durante cierto período de tiempo. Concretamente, se especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos "raros".

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).

Propiedades

La función de masa o probabilidad de la distribución de Poisson es

Page 11: Estadistica II

Donde

k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces).

λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.

e es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamaño n.

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1.

La función generadora de momentos de la distribución de Poisson con valor esperado λ es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.

La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es

Page 12: Estadistica II

La distribución de Poisson parte de la distribución binomial:

Cuando en una distribución binomial se realiza el experimento un número "n" muy elevado de veces y la probabilidad de éxito "p" en cada ensayo es reducida, entonces se aplica el modelo de distribución de Poisson:

Se tiene que cumplir que:

" p " < 0,10" p * n " < 10

 

La distribución de Poisson sigue el siguiente modelo:

Vamos a explicarla:

El número "e" es 2,71828

" l " = n * p (es decir, el número de veces " n " que se realiza el experimento multiplicado por la probabilidad " p " de éxito en cada ensayo)

" k " es el número de éxito cuya probabilidad se está calculando

Veamos un ejemplo:

La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3 accidentes?

Page 13: Estadistica II

Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor que 10, entonces aplicamos el modelo de distribución de Poisson.

Luego,

P (x = 3) = 0,0892

Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es del 8,9%

Otro ejemplo:

La probabilidad de que un niño nazca pelirrojo es de 0,012. ¿Cuál es la probabilidad de que entre 800 recien nacidos haya 5 pelirrojos?

Luego,

P (x = 5) = 4,602

Por lo tanto, la probabilidad de que haya 5 pelirrojos entre 800 recién nacidos es del 4,6%

APROXIMACIÓN HIPERGEOMÉTRICAPOR LA BINOMIAL

Es un método que se utiliza cuando el espacio muestral, que manejamos en el problema, es mucho mayor que la muestra.

Cuando N es grande y n es relativamente pequeña entonces la distribución correcta a utilizar es la binomial. Se puede probar que la

Page 14: Estadistica II

función de probabilidad hipergeométrica converge a la función de probabilidad binomial cuando N es grande.

Desventaja de la distribución hipergeométrica Generalmente el muestreo se hace a partir de una población grande, por lo que la distribución hipergeométrica es mucho menos usada en la vida real que la binomial. Sin embargo, si la población es pequeña, entonces la distribución correcta a utilizar será la hipergeométrica.Recuerde que se recomienda usar la distribución hipergeométrica cuando:N / n < 10

APROXIMACIÓN DE LA BINOMIAL POR LA DE POISSON.

En este caso se determinarán probabilidades de experimentos Binomiales, pero que dadas sus características, es posible aproximarlas con la distribución de Poisson, estas características son, n ∞ ( n es muy grande) y p0 (p es muy pequeña), por lo que:

La expresión anterior solo se cumple cuando n ∞ y p0, solo en este caso, si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la fórmula a utilizar en este caso sería:

Page 15: Estadistica II

Dónde:

λ =µ=np = número esperado de éxitos = tasa promedio de éxitos.

n = número de repeticiones del experimento.

p = probabilidad de éxito = p(éxito).

Una regla general aceptable es emplear esta aproximación si n≥20 y p≤0.05: sí n≥100, la aproximación es generalmente excelente siempre y cuando np≥10.

Ejemplos: Se sabe que el 5% de los libros encuadernados en cierto taller tienen encuadernaciones defectuosas. Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller, tengan encuadernaciones defectuosas, usando,a) la fórmula de la distribución Binomial, b) la aproximación de Poisson a la distribución Binomial.

Solución: a) n = 100 p = 0.05 = p(encuadernación defectuosa) = p(éxito) q = 0.95 = p(encuadernación no defectuosa) = p(fracaso) x = variable que nos define el número de encuadernaciones defectuosas en la muestra = = 0, 1, 2, 3,....,100 encuadernaciones defectuosas

b)n = 100 encuadernaciones p = 0.05 λ = np = (100)(0.05)= 5 x = variable que nos define el número de encuadernaciones defectuosas en la muestra = = 0, 1, 2, 3,....,100 encuadernaciones defectuosas.

Page 16: Estadistica II

Al comparar los resultados de las probabilidades con una y otra distribución, nos damos cuenta de que la diferencia entre un cálculo y otro es de tan solo 0.0031, Por lo que la aproximación de Poisson es una buena opción para calcular probabilidades Binomiales.

VARIABLE ALEATORIA CONTINUA

Una variable aleatoria continua es aquella que puede tomar todos los valores posibles dentro de un cierto intervalo de la recta real.

Ejemplos:

La altura de los alumnos de una clase, las horas de duración de una pila.

LA DISTRIBUCIÓN UNIFORME

La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma longitud (dentro de (a, b)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro de un intervalo (a, b).

De la anterior definición se desprende que la función de densidad debe tomar el mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir,

Page 17: Estadistica II

.

Gráficamente:

La función de distribución se obtiene integrando la función de densidad y viene dada por:

Page 18: Estadistica II

Gráficamente:

Propiedades del modelo Uniforme

1. Su esperanza vale (b + a)/22. Su varianza es (b − a)2/12

La distribución uniforme es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos con la misma probabilidad.

 

Page 19: Estadistica II

Es una distribución continua porque puede tomar cualquier valor y no únicamente un número determinado (como ocurre en las distribuciones discretas). Ejemplo: el precio medio del litro de gasolina durante el próximo año se estima que puede oscilar entre 140 y 160 ptas. Podría ser, por tanto, de 143 ptas., o de 143,4 ptas., o de 143,45 ptas., o de 143,455 ptas, etc. Hay infinitas posibilidades, todas ellas con la misma probabilidad. Su función de densidad, aquella que nos permite conocer la probabilidad que tiene cada punto del intervalo, viene definida por: 

 Donde:b: es el extremo superior (en el ejemplo, 160 ptas.)a: es el extremo inferior (en el ejemplo, 140 ptas.)Por lo tanto, la función de distribución del ejemplo sería: 

 Es decir, que el valor final esté entre 140 ptas. y 141 ptas. tiene un 5% de probabilidad, que esté entre 141 y 142, otro 5%, etc. El valor medio de esta distribución se calcula: 

 En el ejemplo:

 Por lo tanto, el precio medio esperado de la gasolina para el próximo año es de 150 ptas. Veamos otro ejemplo:

Page 20: Estadistica II

 El volumen de precipitaciones estimado para el próximo año en la ciudad de Sevilla va a oscilar entre 400 y 500 litros por metro cuadrado. Calcular la función de distribución y la precipitación media esperada: 

 Es decir, que el volumen de precipitaciones esté entre 400 y 401 litros tiene un 1% de probabilidades; que esté entre 401 y 402 litros, otro 1%, etc.El valor medio esperado es: 

 Es decir, la precipitación media estimada en Sevilla para el próximo año es de 450 litros.

DISTRIBUCIÓN NORMAL

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.[cita requerida]

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

Page 21: Estadistica II

De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

caracteres morfológicos de individuos como la estatura; caracteres fisiológicos como el efecto de un fármaco; caracteres sociológicos como el consumo de cierto producto por un

mismo grupo de individuos; caracteres psicológicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

ALGUNAS PROPIEDADES DE LA DISTRIBUCIÓN NORMAL SON:

Page 22: Estadistica II

1.Es simétrica respecto de su media, μ; 2.La moda y la mediana son ambas iguales a la media, μ; 3. Los puntos de inflexión de la curva se dan para x = μ − σ y x =

μ + σ. 4.Distribución de probabilidad en un entorno de la media:

1.en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;

2.en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;

3.por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.

Entre otras propiedades mas amplias..

Es el modelo de distribución más utilizado en la práctica, ya que multitud de fenómenos se comportan según una distribución normal.Esta distribución de caracteriza porque los valores se distribuyen formando una campana de Gauss, en torno a un valor central que coincide con el valor medio de la distribución: 

Page 23: Estadistica II

 Un 50% de los valores están a la derecha de este valor central y otro 50% a la izquierdaEsta distribución viene definida por dos parámetros:X: N (m, s 2)m : es el valor medio de la distribución y es precisamente donde se sitúa el centro de la curva (de la campana de Gauss).s 2 : es la varianza. Indica si los valores están más o menos alejados del valor central: si la varianza es baja los valores están próximos a la media; si es alta, entonces los valores están muy dispersos. Cuando la media de la distribución es 0 y la varianza es 1se denomina "normal tipificada", y su ventaja reside en que hay tablas donde se recoge la probabilidad acumulada para cada punto de la curva de esta distribución.Además, toda distribución normal se puede transformar en una normal tipificada:Ejemplo: una variable aleatoria sigue el modelo de una distribución normal con media 10 y varianza 4. Transformarla en una normal tipificada. X: N (10, 4)Para transformarla en una normal tipificada se crea una nueva variable (Y) que será igual a la anterior (X) menos su media y dividida por su desviación típica (que es la raíz cuadrada de la varianza)

 En el ejemplo, la nueva variable sería:

 

Page 24: Estadistica II

Esta nueva variable se distribuye como una normal tipificada, permitiéndonos, por tanto, conocer la probabilidad acumulada en cada valor.Y: N (0, 1)

La distribución normal tipificada tiene la ventaja, como ya hemos indicado, de que las probabilidades para cada valor de la curva se encuentran recogidas en una tabla. ¿Cómo se lee esta tabla?La columna de la izquierda indica el valor cuya probabilidad acumulada queremos conocer. La primera fila nos indica el segundo decimal del valor que estamos consultando.

X 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,090,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,53590,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,57230,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,61410,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,65170,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,68790,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7090 0,72240,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,75490,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7813 0,78520,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,81330,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,83891,0 0,8416 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,86211,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,88301,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,90151,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,91771,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,93191,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,94411,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,95451,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,96331,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,97061,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767

Page 25: Estadistica II

2,0 0,97725

0,97778

0,97831

0,97882

0,97932

0,97982

0,98030

0,98077

0,98124 0,98169

2,1 0,98214

0,98257

0,98300

0,98341

0,98382

0,98422

0,98461

0,98500

0,98537 0,98574

2,2 0,98610

0,98645

0,98679

0,98713

0,98745

0,98778

0,98809

0,98840

0,98870 0,98899

2,3 0,98928

0,98956

0,98983

0,99010

0,99036

0,99061

0,99086

0,99111

0,99134 0,99158

2,4 0,99180

0,99202

0,99224

0,99245

0,99266

0,99286

0,99305

0,99324

0,99343 0,99361

2,5 0,99379

0,99396

0,99413

0,99430

0,99446

0,99461

0,99477

0,99492

0,99506 0,99520

2,6 0,99534

0,99547

0,99560

0,99573

0,99585

0,99598

0,99609

0,99621

0,99632 0,99643

2,7 0,99653

0,99664

0,99674

0,99683

0,99693

0,99702

0,99711

0,99720

0,99728 0,99736

2,8 0,99744

0,99752

0,99760

0,99767

0,99774

0,99781

0,99788

0,99795

0,99801 0,99807

2,9 0,99813

0,99819

0,99825

0,99831

0,99836

0,99841

0,99846

0,99851

0,99856 0,99861

  Ejemplo: queremos conocer la probabilidad acumulada en el valor 2,75.Entonces buscamos en la columna de la izquierda el valor 2,7 y en la primera fila el valor 0,05. La casilla en la que se interseccionan es su probabilidad acumulada (0,99702, es decir 99.7%). Atención: la tabla nos da la probabilidad acumulada, es decir, la que va desde el inicio de la curva por la izquierda hasta dicho valor. No nos da la probabilidad concreta en ese punto. En una distribución continua en el que la variable puede tomar infinitos valores, la probabilidad en un punto concreto es prácticamente despreciable. Ejemplo: Imaginemos que una variable continua puede tomar valores entre 0 y 5. La probabilidad de que tome exactamente el valor 2 es despreciable, ya que podría tomar infinitos valores: por ejemplo: 1,99, 1,994, 1,9967, 1,9998, 1,999791, etc. Veamos otros ejemplos: Probabilidad acumulada en el valor 0,67: la respuesta es 0,7486Probabilidad acumulada en el valor 1,35: la respuesta es 0,9115Probabilidad acumulada en el valor 2,19: la respuesta es 0,98574Veamos ahora, como podemos utilizar esta tabla con una distribución normal:

Page 26: Estadistica II

 Ejemplo: el salario medio de los empleados de una empresa se distribuye según una distribución normal, con media 5 millones de ptas. y desviación típica 1 millón de ptas. Calcular el porcentaje de empleados con un sueldo inferior a 7 millones de ptas.Lo primero que haremos es transformar esa distribución en una normal tipificada, para ello se crea una nueva variable (Y) que será igual a la anterior (X) menos su media y dividida por la desviación típica 

 En el ejemplo, la nueva variable sería: 

 Esta nueva variable se distribuye como una normal tipificada. La variable Y que corresponde a una variable X de valor 7 es: 

 Ya podemos consultar en la tabla la probabilidad acumulada para el valor 2 (equivalente a la probabilidad de sueldos inferiores a 7 millones de ptas.). Esta probabilidad es 0,97725 Por lo tanto, el porcentaje de empleados con salarios inferiores a 7 millones de ptas. es del 97,725%.

Una variable aleatoria continua, X, sigue una distribución normal de media μ y desviación típica σ, y se designa por N(μ, σ), si se cumplen las siguientes condiciones:

1. La variable puede tomar cualquier valor: (-∞, +∞)

2. La función de densidad, es la expresión en términos de ecuación matemática de la curva de Gauss:

Page 27: Estadistica II

Curva de la distribución normal

El campo de existencia es cualquier valor real, es decir, (-∞, +∞).Es simétrica respecto a la media µ.Tiene un máximo en la media µ.Crece hasta la media µ y decrece a partir de ella.En los puntos µ − σ y µ + σ presenta puntos de inflexión.El eje de abscisas es una asíntota de la curva.El área del recinto determinado por la función y el eje de abscisas es igual a la unidad.Al ser simétrica respecto al eje que pasa por x = µ, deja un área igual a 0.5 a la izquierda y otra igual a 0.5 a la derecha.La probabilidad equivale al área encerrada bajo la curva.p(μ - σ < X ≤ μ + σ) = 0.6826 = 68.26 %p(μ - 2σ < X ≤ μ + 2σ) = 0.954 = 95.4 %p(μ - 3σ < X ≤ μ + 3σ) = 0.997 = 99.7 %

Aproximación binomial por la normal

Anteriormente se ha indicado que:

Es importante entender que, para un n finito, las distribuciones Binomial y Normal no coinciden.

Page 28: Estadistica II

Ahora bien, el estudio numérico del error cometido al aproximar la primera por la segunda, permite establecer algunas reglas generales para una Binomial con n finito:

n ≥ 30

0,1 ≤ p ≤ 0,9

aproximar a la Normal de media np, varianza np(1 − p)

n ≥ 30 0 < p < 0,1 aproximar a la Poisson con λ = np

n ≥ 30

0.9 < p < 1

aproximar la variable recíproca(*) a la Poisson con λ = n(1 − p)

n < 30 cualquier pno aproximar, calcular con la variable original

 

(*) Si la Binomial está asociada al número de veces que aparece el suceso A de un total de n repeticiones del experimento, la variable recíproca corresponde a contar el número de veces que aparece el suceso contrario a A, y es por tanto una Binomial (n, 1 − p).

Por ejemplo:

una Binomial (36, 0,5) es aproximadamente una Normal (18, 3). 

una Binomial (100, 0,9) es aproximadamente una Normal (90, 3). 

una Binomial (100, 0,01) es aproximadamente una Poisson (1). 

una Binomial (100, 0,95) se aproxima mediante su recíproca, una Binomial (100, 0,05), que es asintóticamente una Poisson(5).

n · p ≥ 5 y n · q ≥ 5. La distribución binomial B(n, p) se puede aproximar mediante una

distribución normal:

Page 29: Estadistica II

Ejemplo: En una ciudad una de cada tres familias posee teléfono. Si se eligen

al azar 90 familias, calcular la probabilidad de que entre ellas haya por lo menos 30 tengan teléfono.

Page 30: Estadistica II
Page 31: Estadistica II

Problemas aproximar distribución binomial a normal

Es posible aproximar una Binomial B(n,p) a través de la normal cuando n es grande.

Por lo tanto quedará de la siguiente manera

Hemos de tener en cuenta que la distribución binomial es discreta y la normal es continua, porque lo tendremos que coger el intervalo entero.

Page 32: Estadistica II
Page 33: Estadistica II

Aproximación de una Poisson a través de la normal

Se puede aproximar también la poisson a través de la normal cuando

λ es grande

Cuanto mayor sea λ mejor será la aproximación , Anteriormente se

ha indicado que:

Aunque para n finito las distribuciones de Poisson y Normal no coinciden, es posible aproximar la primera por la segunda, de acuerdo a la regla siguiente:

λ ≥ 10aproximar a la Normal de media λ, varianza λ

λ < 10no aproximar, calcular con la variable original

LA DISTRIBUCIÓN T (DE STUDENT)

En probabilidad y estadística, la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño.

Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra.

Característica

La distribución t de Student es la distribución de probabilidad del cociente

Page 34: Estadistica II

Donde

Z es una variable aleatoria distribuida según una normal típica (de media nula y varianza 1).

V es una variable aleatoria que sigue una distribución χ² con grados de libertad.

Z y V son independientes

Si μ es una constante no nula, el cociente es una variable aleatoria que sigue la distribución t de Student no central con parámetro de no-centralidad .

JI CUADRADO

Los modelos de las distribuciones t, Ji Cuadrado y F son más complejos que los modelos Binomial y Normal, por lo que es más práctico definir estas distribuciones de la siguiente manera.

Si una variable es obtenida según la expresión

donde

a) Las puntuaciones z han sido obtenidas de datos que se distribuyen según el modelo Normal, y

b) Cada puntuación z es independiente de las otras.

la variable T se distribuirá según el modelo Ji Cuadrado con "k" grados de libertad.

Principales características

Page 35: Estadistica II

a) La forma de la distribución es asimétrica positiva, y se acerca a la distribución Normal como mayor sea el número de grados de libertad (g.l.). Ejemplo con 5 g.l.:

b) Las puntuaciones Ji Cuadrado no pueden tomar valores negativos.

c) La función de distribución de la distribución Ji Cuadrado está tabulada para algunos valores que son de interés en Estadística Inferencial.

En estadística, la distribución de Pearson, llamada también ji cuadrada o chi cuadrado (χ²) es una distribución de probabilidad continua con un parámetro que representa los grados de libertad de la variable aleatoria

Donde son variables aleatorias normales independientes de media cero y varianza uno. El que la variable aleatoria tenga ésta

distribución se representa habitualmente así: .

DISTRIBUCION JI-CUADRADA (X2)

En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las muestras posibles de una

Page 36: Estadistica II

población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas.

Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X2. Si se elige una muestra de tamaño

n de una población normal con varianza , el estadístico:

tiene una distribución muestral que es una distribución ji-cuadrada con gl=n-1 grados de libertad y se denota X2 (X es la minúscula de la letra griega ji). El estadístico ji-cuadrada esta dado por:

donde n es el tamaño de la muestra, s2 la varianza muestral y la varianza de la población de donde se extrajo la muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión:

Propiedades de las distribuciones ji-cuadrada

1. Los valores de X2 son mayores o iguales que 0.2. La forma de una distribución X2 depende del gl=n-1. En

consecuencia, hay un número infinito de distribuciones X2.3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se

extienden a la derecha; esto es, están sesgadas a la derecha.5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es

2(n-1).6. El valor modal de una distribución X2 se da en el valor (n-3).

Page 37: Estadistica II

La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece en el valor (n-3) = (gl-2).

La función de densidad de la distribución X2 esta dada por:

para x>0

La tabla que se utilizará para estos apuntes es la del libro de probabilidad y estadística de Walpole, la cual da valores críticos (gl) para veinte valores especiales de . Para denotar el valor crítico de una distribución X2 con gl grados de libertad se usa el símbolo (gl); este valor crítico determina a su derecha un área de bajo la curva X2 y sobre el eje horizontal. Por ejemplo para encontrar X2

0.05(6) en la tabla se localiza 6 gl en el lado izquierdo y a o largo del lado superior de la misma tabla.

Cálculo de Probabilidad

Page 38: Estadistica II

El cálculo de probabilidad en una distribución muestral de varianzas nos sirve para saber como se va a comportar la varianza o desviación estándar en una muestra que proviene de una distribución normal.

Ejemplos:

1. Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande forman una distribución normal con una desviación estándar =1 minuto. Si se elige al azar una muestra de 17 tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2.

Solución:

Primero se encontrará el valor de ji-cuadrada correspondiente a s2=2 como sigue:

El valor de 32 se busca adentro de la tabla en el renglón de 16 grados de libertad y se encuentra que a este valor le corresponde un área a la derecha de 0.01. En consecuencia, el valor de la probabilidad es P(s2>2)

2. Encuentre la probabilidad de que una muestra aleatoria de 25

observaciones, de una población normal con varianza

, tenga una varianza muestral:

a. Mayor que 9.1b. Entre 3.462 y 10.745

Solución.

Page 39: Estadistica II

a. Primero se procederá a calcular el valor de la ji-cuadrada:

Al buscar este número en el renglón de 24 grados de libertad nos da un área a la derecha de 0.05. Por lo que la P(s2 >9.1) = 0.05

1. Se calcularán dos valores de ji-cuadrada:

y

Aquí se tienen que buscar los dos valores en el renglón de 24 grados de libertad. Al buscar el valor de 13.846 se encuentra un área a la derecha de 0.95. El valor de 42.98 da un área a la derecha de 0.01. Como se está pidiendo la probabilidad entre dos valores se resta el área de 0.95 menos 0.01 quedando 0.94.

Por lo tanto la P(3.462 s2 10.745) = 0.94

Estimación de la Varianza

Para poder estimar la varianza de una población normal se utilizará la distribución ji-cuadrada.

Page 40: Estadistica II

Al despejar esta fórmula la varianza poblacional nos queda:

Los valores de X2 dependerán de nivel de confianza que se quiera al cual le llamamos . Si nos ubicamos en la gráfica se tiene:

Ejemplos:

1. Los siguientes son los pesos, en decagramos, de 10 paquetes de semillas de pasto distribuidas por cierta compañía: 46.4, 46.1, 45.8, 47.0, 46.1, 45.9, 45.8, 46.9, 45.2 y 46. Encuentre un intervalo de confianza de 95% para la varianza de todos los paquetes de semillas de pasto que distribuye esta compañía, suponga una población normal.

Solución:

Primero se calcula la desviación estándar de la muestra:

al elevar este resultado al cuadrado se obtiene la varianza de la muestra s2= 0.286.

Para obtener un intervalo de confianza de 95% se elige un = 0.05. Después con el uso de la tabla con 9 grados de libertad se obtienen los valores de X2.

Page 41: Estadistica II

Se puede observar en la gráfica anterior que el valor de X2 corre en forma normal, esto es de izquierda a derecha.

Por lo tanto, el intervalo de confianza de 95% para la varianza es:

Graficamente:

Se observa que la varianza corre en sentido contrario, pero esto es sólo en la gráfica. La interpretación quedaría similar a nuestros temas anteriores referentes a estimación. Con un nivel de confianza del 95% se sabe que la varianza de la población de los pesos de los paquetes de semillas de pasto esta entre 0.135 y 0.935 decagramos al cuadrado.

 

Page 42: Estadistica II

2. En trabajo de laboratorio se desea llevar a cabo comprobaciones cuidadosas de la variabilidad de los resultados que producen muestras estándar. En un estudio de la cantidad de calcio en el agua potable, el cual se efectúa como parte del control de calidad, se analizó seis veces la misma muestra en el laboratorio en intervalos aleatorios. Los seis resultados en partes por millón fueron 9.54, 9.61, 9.32, 9.48, 9.70 y 9.26. Estimar la varianza de los resultados de la población para este estándar, usando un nivel de confianza del 90%.

Solución:

Al calcular la varianza de la muestra se obtiene un valor de s2= 0.0285.

Se busca en la tabla los valores correspondientes con 5 grados de libertad, obteniéndose dos resultados. Para X2

(0.95,5)= 1.145 y para X2

(0.0,5)= 11.07.

Entonces el intervalo de confianza esta dado por:

y

Ensayo de Hipótesis para la Varianza de una Población Normal

En la mayoría de los casos se tiene el problema de desconocer la varianza o desviación estándar de la población, en donde las distribuciones son normales. Si se desea probar una hipótesis acerca de la varianza se puede hacer utilizando las medidas estadísticas con

Page 43: Estadistica II

las que se construyó el intervalo de confianza , esto es con la distribución Ji- cuadrada.

Ejemplos:

1. Una compañía que produce una parte maquinada para un motor, afirma que tiene una varianza de diámetro no mayor a 0.0002 pulgadas. Una muestra aleatoria de 10 de dichas partes dio una varianza de muestra s2 = 0.0003. Si se supone que las medidas del diámetro se distribuyen en forma normal, ¿hay evidencia para refutar lo que afirma el proveedor? Use = 0.05.

Solución:

Como en todos los ensayos de hipótesis que se han realizado anteriormente el procedimiento es el mismo. Después de que se identifican los datos, se plantea la hipótesis para determinar el tipo de ensayo.

Datos:

= 0.0002

n = 10

s2 = 0.0003

= 0.05

Ensayo de hipótesis:

Ho; = 0.0002

H1; > 0.0002

Page 44: Estadistica II

Regla de decisión:

Si X2R 16.919 no se rechaza Ho.

Si X2R>16.919 se rechaza Ho.

Cálculos:

Justificación y decisión:

Como 13.5 no es mayor que 16.919 por lo tanto no se rechaza Ho y se concluye con un nivel de significancia de 0.05 que no se puede refutar la afirmación del proveedor.

Este ejercicio se puede aprovechar para calcular el valor de P. En la tabla se busca el valor de 13.5 en el renglón de 9 grados de libertad. Interpolando entre 0.10 y 0.20 se obtiene un valor de P de 0.1484.

2. El contenido de azúcar del almíbar de los duraznos enlatados tiene

una distribución normal, donde se cree que la varianza es = 18 mg2. Se toma una muestra de 10 latas dieron una desviación estándar de 4.8 mg. ¿Muestran estos datos suficiente evidencia para

Page 45: Estadistica II

decir que la varianza ha cambiado?. Use un = 0.05 y calcule el valor de P.

Solución:

Datos:

= 18

n = 10

s = 4.8

= 0.05

Ensayo de hipótesis:

Ho; = 18

H1; 18

Regla de decisión:

Si 2.7 X2R 19.023 no se rechaza Ho.

Si X2R<2.7 ó si X2

R>19.023 se rechaza Ho.

Cálculos:

Page 46: Estadistica II

Justificación y decisión:

Como 11.52 está entre 2.7 y 19.023, no se rechaza Ho, y se concluye con un nivel de significancia de 0.05 que la varianza del contenido de azúcar del almíbar no ha cambiado, esto es es de 18 mg2.

Si recordamos al principio de este tema se dijo que la media de la distribución ji-cuadrada es (n-1), por lo tanto la media de este ejercicio es de 9. Como el valor real de X2

R = 11.52 este número se encuentra a la derecha de la media, lo cual quiere decir que el valor de P/2 será el área a la derecha del valor de X2

R. Al buscar el valor de 11.52 en la tabla se obtiene un área de 0.2423, por lo tanto P/2 = 0.2423 y P= (2)(0.2423) = 0.4846

3. Experiencia anterior indica que el tiempo que se requiere para que los estudiantes de último año de preparatoria completen una prueba estandarizada es una variable aletoria normal con una desviación estándar de seis minutos. Se toma una muestra aleatoria de 20 estudiantes de último año de preparatoria y se obtiene una desviación estándar de 4.51. ¿Muestran estos datos suficiente evidencia para decir que la desviación estándar disminuyó?. Utilice el valor de P para su decisión.

Solución:

Datos:

= 6

n = 20

s = 4.51

Page 47: Estadistica II

Ensayo de hipótesis:

Ho; = 6

H1; < 6

Cálculos:

Para obtener el valor de P, se busca en la tabla el 10.735 con 19 grados de libertad, y el área que se encuentra es la que está a la derecha de este valor. Como la media de esta distribución ji-cuadrada es de 19, por lo tanto el valor de 10.735 queda a la izquierda de la media. El valor de P es de 0.07, y con esto se puede concluir que si hubiéramos utilizado un nivel de significancia de 0.10, se rechaza Ho

y se concluye que la desviación estándar disminuyo, pero si se utiliza un valor de = 0.05, entonces no se rechaza Ho y se concluiría que la desviación estándar no disminuyó. La decisión depende del error tipo I que esté dispuesto a tolerar el investigador.

DISTRIBUCIÓN Z.

Distribución normal con media igual a 0 y desviación estándar igual a También se llama distribución normal estándar.

Page 48: Estadistica II

BIBLIOGRAFÍA

http://definicion.de/variable-aleatoria/

http://www.vitutor.com/pro/3/a_1.html

http://ljk.imag.fr/membres/Bernard.Ycart/emel/cours/mp/node13.html

https://es.wikipedia.org/wiki/Variable_aleatoria#Funci.C3.B3n_de_densidad_de_una_v.a._continua

https://es.wikipedia.org/wiki/Variable_aleatoria

http://www.hrc.es/bioest/estadis_21.html

https://es.wikipedia.org/wiki/Ensayo_de_Bernoulli

http://www.colegiosansaturio.com/deptomatesweb/SANSAMATES/Colaboraciones/universidad/politicas_baz/bernoulli.html

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_binomial

http://www.vadenumeros.es/sociales/aproximacion-binomial-normal.htm

http://es.slideshare.net/sonyelockheart/distribucin-bernoulli-y-distribucin-binomial

Page 49: Estadistica II

http://www.aulafacil.com/cursos/l11242/ciencia/estadisticas/estadisticas/distribuciones-discretas-hipergeometrica

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson

http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t1.htm

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_uniforme_continua

http://www.vitutor.com/pro/5/a_2.html

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_normal

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_t_de_Student

http://es.slideshare.net/torimatcordova/distribucion-t-de-student-28545004

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_%CF%87%C2%B2

http://www.medwave.cl/link.cgi/Medwave/Series/MBE04/5266