18
DISTRIBUCIÓN NORMAL En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes. De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la

DISTRIBUCION DE GAUSS

Embed Size (px)

DESCRIPTION

Distribución de Gauss, estadisticaESTIMACIÓN DE PARÁMETROSPRUEBAS DE HIPOTESIS ESTADISTICA

Citation preview

DISTRIBUCIN NORMAL

Enestadsticayprobabilidadse llamadistribucin normal,distribucin de Gaussodistribucin gaussiana, a una de lasdistribuciones de probabilidaddevariable continuaque con ms frecuencia aparece aproximada en fenmenos reales.Lagrficade sufuncin de densidadtiene una forma acampanada y es simtrica respecto de un determinadoparmetro estadstico. Esta curva se conoce comocampana de Gaussy es el grfico de unafuncin gaussiana.La importancia de esta distribucin radica en que permitemodelar numerosos fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenmenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observacin se obtiene como la suma de unas pocas causas independientes.De hecho, la estadstica es un modelo matemtico que slo permite describir un fenmeno, sin explicacin alguna. Para la explicacin causal es preciso eldiseo experimental, de ah que al uso de la estadstica en psicologa y sociologa sea conocido comomtodo correlacional.La distribucin normal tambin es importante por su relacin con la estimacin pormnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos.Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son: Caracteresmorfolgicosde individuos como laestatura Caracteresfisiolgicoscomo el efecto de unfrmaco Caracteressociolgicoscomo elconsumode cierto producto por un mismo grupo de individuos Caracterespsicolgicoscomo elcociente intelectual Nivel deruidoentelecomunicaciones Errorescometidos al medir ciertas magnitudes

La distribucin normal tambin aparece en muchas reas de la propia estadstica. Por ejemplo, ladistribucin muestralde lasmedias muestrales es aproximadamente normal, cuando la distribucin de la poblacin de la cual se extrae la muestra no es normal.Adems, la distribucin normal maximiza laentropaentre todas las distribuciones con media yvarianzaconocidas, lo cual la convierte en la eleccin natural de la distribucin subyacente a una lista de datos resumidos en trminos de media muestral y varianza. La distribucin normal es la ms extendida en estadstica y muchos test estadsticos estn basados en una supuesta "normalidad".En probabilidad, la distribucin normal aparece como el lmite de varias distribuciones de probabilidad continua y discreta.Algunas propiedades de la distribucin normal son:1. Es simtrica respecto de su media,;

2. Lamoday lamedianason ambas iguales a la media,;

3. Lospuntos de inflexinde la curva se dan para x =y x =+.

4. Distribucin de probabilidad en un entorno de la media:

a) En el intervalo [-,+] se encuentra comprendida, aproximadamente, el 68,26% de la distribucinb) En el intervalo [- 2,+ 2] se encuentra, aproximadamente, el 95,44% de la distribucinc) Por su parte, en el intervalo [-3,+ 3] se encuentra comprendida, aproximadamente, el 99,74% de la distribucin. Estas propiedades son de gran utilidad para el establecimiento deintervalos de confianza. Por otra parte, el hecho de que prcticamente la totalidad de la distribucin se encuentre a tres desviaciones tpicas de la media justifica los lmites de las tablas empleadas habitualmente en la normal estndar.

5. SiX~ N(,2) yaybsonnmeros reales, entonces (aX+b) ~ N(a+b,a22).

6. SiX~ N(x,x2) eY~ N(y,y2) son variables aleatorias normalesindependientes, entonces:. Su suma est normalmente distribuida conU=X+Y~ N(x+y,x2+y2) (demostracin). Recprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crmer).. Su diferencia est normalmente distribuida con.. Si las varianzas deXeYson iguales, entoncesUyVson independientes entre s.. Ladivergencia de Kullback Leibler

Sieson variables aleatorias independientes normalmente distribuidas, entonces:

. Su productosigue una distribucin con densidaddada porDondees unafuncin de Bessel modificada de segundo tipo.. Su cociente sigue unadistribucin de Cauchycon. De este modo la distribucin de Cauchy es un tipo especial dedistribucin cociente.

Sison variables normales estndar independientes, entoncessigue unadistribucin conngrados de libertad.

Sison variables normales estndar independientes, entonces lamedia muestral y lavarianza muestral son independientes. Esta propiedadcaracterizaa las distribuciones normales y contribuye a explicar por qu eltest-Fno es robusto respecto a la no-normalidad).

ESTIMACIN DE PARMETROS

El estudio de poblaciones estadsticas supone en general el conocimiento de la funcin de probabilidad que gobierna el comportamiento aleatorio de la variable de inters. En muchos casos sabemos o presumimos conocer la familia distribucional de una poblacin. Sabemos por ejemplo que la poblacin es aproximadamente normal; pero desconocemos la media y la varianza poblacionales. Sabemos que la variable de inters es binomial pero desconocemos la probabilidad de xito poblacional o el nmero de pruebas de Bernoulli. Sabemos que se trata de un proceso de Poisson pero desconocemos el nmero de eventos raros por intervalos. Presumimos que la variable es exponencial pero desconocemos el parmetro que precisa la distribucin exponencial poblacional.Lgicamente en todas estas situaciones la funcin de probabilidad de la variable en estudio se concreta determinando los parmetros poblacionales correspondientes y para lograrlo se utilizan los denominados mtodos de estimacin de parmetros. La estimacin de uno o varios parmetros poblacionales desconocidos es posible construyendo funciones de probabilidad de variables aleatorias muestrales, ms conocidos como estimadores muestrales.Dichos estimadores garantizaran un clculo o una aproximacin satisfactoria del parmetro poblacional desconocido siempre que cumplan propiedades de: insesgamiento o mxima simetra, varianza mnima o mxima concentracin de los datos alrededor del parmetro estimado y mxima probabilidad.

ESTIMACIN PUNTUAL

Cuando en una poblacin con familia distribucional conocida queremos estimar el verdadero valor del parmetro poblacional utilizando como lente para determinarlo al estimador muestral ; procedemos a seleccionar una muestra de tamao n de dicha poblacin, calculamos a partir de ella un valor y afirmamos entonces que es una estimacin puntual de con un error, por exceso o defecto, de valor k.

K depende en general de la variable aleatoria muestral y de su desviacin . En los casos de muestras grandes, cuando los valores de la muestra corresponden a variables aleatorias estadsticamente independientes (iid) y por lo tanto se dan las condiciones del TLC, se tiene que:

.

MTODO DE MXIMA VEROSIMILITUD:El mtodo de estimacin de mxima verosimilitud permite, en el caso de un parmetro o n vector de parmetros poblacionales desconocidos, determinar el estimador o vector de estimadores que maximizan la funcin de probabilidad conjunta de una muestra de n v.a. seleccionadas de la poblacin en estudio.

Sea la fdp de una poblacin en la cual queremos determinar.

Sea x1,x2,.,xn una muestra de v.a. iid seleccionadas de dicha poblacin, a la funcin de probabilidad conjunta L() de las n v.a. de la muestra la llamaremos funcin de verosimilitud muestral, es decir:

L ()=L(x1,x2,.,xn; )

Pero como las v.a. son independientes tenemos: L() = f(x1,) f(x2,).f (xn,). Es decir:

L ()=

PRUEBAS DE HIPOTESIS ESTADISTICA

PRUEBAS DE HIPTESIS:

Al realizar pruebas de hiptesis, se parte de unvalorsupuesto (hipottico) en parmetro poblacional. Despus de recolectar unamuestraaleatoria, se compara laestadsticamuestral, as como la media, con el parmetro hipottico, se compara con una supuesta media poblacional. Despus se acepta o se rechaza el valor hipottico, segn proceda. Se rechaza el valor hipottico slo si el resultado muestral resulta muy poco probable cuando la hiptesis es cierta.

Etapa 1.- Planear la hiptesis nula y la hiptesis alternativa. La hiptesis nula (H0) es el valor hipottico del parmetro que se compra con el resultado muestral resulta muy poco probable cuando la hiptesis es cierta.

Etapa 2.-Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%, entonces se rechaza la hiptesis nula solamente si el resultado muestral es tan diferente del valor hipottico que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con unaprobabilidadde 1.05 o menos.

Etapa 3.-Elegir la estadstica de prueba. La estadstica de prueba puede ser la estadstica muestral (el estimador no segado del parmetro que se prueba) o una versin transformada de esa estadstica muestral. Por ejemplo, para probar el valor hipottico de una media poblacional, se toma la media de una muestra aleatoria de esadistribucinnormal, entonces es comn que se transforme la media en un valor z el cual, a su vez, sirve como estadstica de prueba.

Consecuencias de las Decisiones en Pruebas de Hiptesis.

Decisiones PosiblesSituaciones Posibles

La hiptesis nula es verdaderaLa hiptesis nula es falsa

Aceptar la Hiptesis NulaSe acepta correctamenteError tipo II

Rechazar la Hiptesis NulaError tipo ISe rechaza correctamente

Etapa 4.-Establecer el valor ovalorescrticos de la estadstica de prueba. Habiendo especificado la hiptesis nula, el nivel de significancia y la estadstica de prueba que se van a utilizar, se produce a establecer el olos valorescrticos de estadstica de prueba. Puede haber uno o ms de esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos.

Etapa 5.-Determinar el valor real de la estadstica de prueba. Por ejemplo, al probar un valor hipottico de la media poblacional, se toma una muestra aleatoria y se determina el valor de la media muestral. Si el valor crtico que se establece es un valor de z, entonces se transforma la media muestral en un valor de z.

Etapa 6.-Tomar la decisin. Se compara el valor observado de la estadstica muestral con el valor (o valores) crticos de la estadstica de prueba. Despus se acepta o se rechaza la hiptesis nula. Si se rechaza sta, se acepta la alternativa; a su vez, esta decisin tendr efecto sobre otras decisiones de los administradores operativos, como por ejemplo, mantener o no un estndar dedesempeoo cul de dosestrategiasdemercadotecniautilizar.

La distribucin apropiada de la prueba estadstica se divide en dos regiones: una regin derechazoy una deno rechazo. Si la prueba estadstica cae en esta ltima regin no se puede rechazar la hiptesis nula y se llega a la conclusin de que elprocesofunciona correctamente.

Al tomar la decisin con respecto a la hiptesis nula, se debe determinar el valor crtico en la distribucin estadstica que divide la regin del rechazo (en la cual la hiptesis nula no se puede rechazar) de la regin de rechazo. A hora bien el valor crtico depende del tamao de la regin de rechazo.

PASOS DE LA PRUEBA DE HIPTESIS

1. Expresar la hiptesis nula2. Expresar la hiptesis alternativa3. Especificar el nivel de significancia4. Determinar el tamao de la muestra5. Establecer los valores crticos que establecen las regiones de rechazo de las de no rechazo.6. Determinar la prueba estadstica.7. Coleccionar losdatosy calcular el valor de la muestra de la prueba estadstica apropiada.8. Determinar si la prueba estadstica ha sido en la zona de rechazo a una de no rechazo.9. Determinar la decisin estadstica.10. Expresar la decisin estadstica en trminos del problema.CONCEPTOS BSICOS PARA ELPROCEDIMIENTODE PRUEBAS DE HIPTESIS.

Hiptesis Estadstica:Al intentar alcanzar una decisin, es til hacer hiptesis (o conjeturas) sobre la poblacin aplicada.Tales hiptesis, que pueden ser o no ciertas, se llaman hiptesisestadsticas.Son, en general, enunciados acerca de las distribuciones de probabilidad de las poblaciones.

Hiptesis Nula:En muchos casos formulamos una hiptesis estadstica con el nico propsito de rechazarla o invalidarla. As, si queremos decidir si una moneda est trucada, formulamos la hiptesis de que la moneda es buena (o sea p = 0,5, donde p es la probabilidad de cara).

Analgicamente, si deseamos decidir si un procedimiento es mejor que otro, formulamos la hiptesis de que no hay diferencia entre ellos (o sea. Que cualquier diferencia observada se debe simplemente a fluctuaciones en elmuestreode la misma poblacin). Tales hiptesis se suelen llamar hiptesis nula y se denotan por Ho.Para todo tipo deinvestigacinen la que tenemos dos o msgrupos, se establecer una hiptesis nula. La hiptesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.

Una hiptesis nula es importante por varias razones:

Es una hiptesis que se acepta o se rechaza segn el resultado dela investigacin.

El hecho de contar con una hiptesis nula ayuda a determinar si existe una diferencia entre los grupos, si esta diferencia es significativa, y si no se debi al azar.

No toda investigacin precisa de formular hiptesis nula. Recordemos que la hiptesis nula es aquella por la cual indicamos que lainformacina obtener es contraria a la hiptesis detrabajo

Al formular esta hiptesis, se pretende negar la variable independiente. Es decir, se enuncia que la causa determinada como origen del problema flucta, por tanto, debe rechazarse como tal.

Hiptesis Alternativa:

Toda hiptesis que difiere de una dada se llamar una hiptesis alternativa. Por ejemplo: Si una hiptesis es p = 0,5, hiptesis alternativa podran ser p = 0,7, p " 0,5 p > 0,5.Una hiptesis alternativa a la hiptesis nula se denotar por H1.Al responder a un problema, es muy conveniente proponer otras hiptesis en que aparezcanvariablesindependientes distintas de las primeras que formulamos. Por tanto, para no perdertiempoen bsquedas intiles, es necesario hallar diferentes hiptesis alternativas como respuesta a un mismo problema y elegir entre ellas cules y en qu orden vamos a tratar su comprobacin.Las hiptesis, naturalmente, sern diferentes segn el tipo de investigacin que se est realizando. En los estudios exploratorios, a veces, elobjetivode la investigacin podr ser simplemente el de obtener los mnimos conocimientos que permitan formular una hiptesis. Tambin es aceptable que, en este caso, resulten poco precisas, como cuando afirmamos que "existe algn tipo de problema social en tal grupo", o que losplanetasposeen algn tipo deatmsfera, sin especificar de qu elementos est compuesto.Los trabajos de ndole descriptiva generalmente presentan hiptesis del tipo "todos los X poseen, en alguna medida, las caracterstica Y". Por ejemplo, podemos decir que todas las naciones poseen algncomerciointernacional, y dedicarnos a describir, cuantificando, las relaciones comerciales entre ellas. Tambin podemos hacer afirmaciones del tipo "X pertenece al tipo Y", como cuando decimos que unatecnologaescapital- intensiva. En estos casos, describimos, clasificndolo, el objeto de nuestrointers, incluyndolo en un tipo ideal complejo de orden superior.Por ltimo, podemos construir hiptesis del tipo "X produce (o afecta) a Y", donde estaremos en presencia de una relacin entre variables.

Errores de tipo I y de tipo II:

Si rechazamos una hiptesis cuando debiera ser aceptada, diremos que se ha cometido un error de tipo I.Por otra parte, si aceptamos una hiptesis que debiera ser rechazada, diremos que se cometi un error de tipo II.En ambos casos, se ha producido un juicio errneo.Para que las reglas de decisin (o no contraste de hiptesis) sean buenos, deben disearse de modo que minimicen los errores de la decisin; y no es una cuestin sencilla, porque para cualquier tamao de la muestra, un intento de disminuir un tipo de error suele ir acompaado de un crecimiento del otro tipo. En la prctica, un tipo de error puede ser ms grave que el otro, y debe alcanzarse un compromiso que disminuya el error ms grave.La nica forma de disminuir ambos a la vez es aumentar el tamao de la muestra que no siempre es posible.

HIPOTESIS ESTADISTICA:

Una hiptesis estadstica es una suposicin hecha con respecto a lafuncinde distribucin de una variable aleatoria.Para establecer la verdad o falsedad de una hiptesis estadstica con certeza total, ser necesario examinar toda la poblacin. En la mayora de las situaciones reales no es posible o practico efectuar este examen, y el camino mas aconsejable es tomar una muestra aleatoria de la poblacin y en base a ella, decidir si la hiptesis es verdadera o falsa.En la prueba de una hiptesis estadstica, es costumbre declarar la hiptesis como verdadera si la probabilidad calculada excede el valor tabular llamado el nivel de significacin y se declara falsa si la probabilidad calculada es menor que el valor tabular.La prueba a realizar depender del tamao de las muestras, de la homogeneidad de las varianzas y de la dependencia o no de las variables.

Si las muestras a probar involucran a ms de 30 observaciones, se aplicar la prueba de Z, si las muestras a evaluar involucran un nmero de observaciones menor o igual que 30 se emplea la prueba de t de student. La frmula declculodepende de si las varianzas son homogneas o heterogneas, si el nmero de observaciones es igual o diferente, o si son variables dependientes.

Para determinar la homogeneidad de las varianzas se toma la varianza mayor y se divide por la menor, este resultado es un estimado de la F de Fisher. Luego se busca en la tabla de F usando como numerador los grados de libertad (n-1) de la varianza mayor y como denominador (n-1) de la varianza menor para encontrar la F de Fisher tabular. Si la F estimada es menor que la F tabular se declara que las varianzas son homogneas. Si por el contrario, se declaran las varianzas heterogneas. Cuando son variables dependientes (el valor de una depende del valor de la otra), se emplea la tcnica de pruebas pareadas.Como en general estas pruebas se aplican a dos muestras, se denominarn a y b para referirse a ellas, as entenderemos por:

na al nmero de elementos de la muestra a nb al nmero de elementos de la muestra b xb al promedio de la muestra b s2a la varianza de la muestra a