30
ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE EMPRESAS . UNAMBA UNIVERSIDAD NACIONAL MICAELA BASTIDAS DE APURÍMAC FACULTAD DE ADMINISTRACIÓN ESCUELA ACADÉMICO PROFESIONAL DE ADMINISTRACIÓN DE EMPRESAS ESTADISTICA PARA LA TOMA DE DESICIONES PRUEBAS NO PARAMETRICAS DOCENTE: EDWAR ILLASACA CAHUATA RESPONSABLE: - JOEL MENACHO ALVAREZ - JORGE WILLIAM QUISPE ARCIBIA - Abancay - Apurímac 2013 Página 1

Trabajo de Estadistica

Embed Size (px)

DESCRIPTION

Trabajo de Estadistica

Citation preview

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE EMPRESAS . UNAMBA

UNIVERSIDAD NACIONAL MICAELA BASTIDAS DE APURMACFACULTAD DE ADMINISTRACINESCUELA ACADMICO PROFESIONAL DE ADMINISTRACIN DE EMPRESAS

ESTADISTICA PARA LA TOMA DE DESICIONES

PRUEBAS NO PARAMETRICASDOCENTE:EDWAR ILLASACA CAHUATARESPONSABLE: JOEL MENACHO ALVAREZ JORGE WILLIAM QUISPE ARCIBIA Abancay - Apurmac2013

INTRODUCCIN

El uso de laEstadsticaes de gran importancia en lainvestigacin cientfica.Casitodas las investigacionesaplicadas requieren algn tipo deanlisisestadsticoparaque sea posible evaluar sus resultados. En algunos casos, para resolver un problema decarcteremprico, es preciso llevar a cabo un anlisis bastante complejo; otras veces, basta con efectuar un anlisis muy simple y directo. La eleccin deunou otro tipo de anlisis estadstico depende del problema que se plantee en el estudio as como de lanaturalezade losdatos. Desde este punto de vista, la Estadstica constituye uninstrumento deinvestigaciny no unproductofinalde esta ltima.Eltrabajocoherente, lasaccionesintegradas, la no extrapolacin de elementos de un lugar a otro, elverdaderodiagnsticode la realidad han de ser prcticas permanentes en el accionar del investigador y el estadstico aplicado.Dentro de la estadstica se aplican en la investigacin los test o dcimas paramtricos y no paramtricos, el presente trabajo esta dedicado al estudio de dospruebasno paramtricas que por su importancia merecen ser tratadas de formaindependiente, ellas son las pruebas de Kolmogorov-Smirnov para una y dos muestras.Entre los tests no paramtricos que comnmente se utilizan para verificar si unadistribucinse ajusta o no a una distribucin esperada, en particular a la distribucin normal se encuentran eltestde Kolmogorov-Smirnov. El test de Kolmogorov-Smirnov es bastante potente con muestras grandes. El nivel demedicinde la variable y su distribucin son elementos que intervienen en laseleccindel test que se utilizar en el procesamiento posterior. De hecho, si la variable es continua con distribucin normal, se podrn aplicartcnicasparamtricas. Si es una variable discreta o continua no normal, solo son aplicablestcnicasno paramtricas pues aplicar las primeras arrojara resultados de dudosa validez.

ESTADSTICA NO PARAMTRICA Y SUS PRUEBAS

Laestadstica no paramtricaes una rama de laestadsticaque estudia las pruebas y modelos estadsticos cuya distribucin subyacente no se ajusta a los llamados criteriosparamtricos. Su distribucin no puede ser definidaa priori, pues son los datos observados los que la determinan. La utilizacin de estos mtodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribucin conocida, cuando el nivel demedidaempleado no sea, como mnimo, de intervalo.Las principalespruebasno paramtricas son las siguientes: Prueba de Pearson Prueba binomial Prueba de Anderson-Darling Prueba de Cochran Prueba de Cohen kappa Prueba de Fisher Prueba de Friedman Prueba de Kendall Prueba de Kolmogrov-Smirnov Prueba de Kruskal-Wallis Prueba de Kuiper Prueba de Mann-Whitneyoprueba de Wilcoxon Prueba de McNemar Prueba de la mediana Prueba de Siegel-Tukey Prueba de los signos Coeficiente de correlacin de Spearman Tablas de contingencia Prueba de Wald-Wolfowitz Prueba de los rangos con signo de Wilcoxon

1.- Prueba de PearsonLa prueba de Pearson es considerada como una prueba no paramtrica que mide la discrepancia entre una distribucin observada y otra terica (bondad de ajuste), indicando en qu medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hiptesis. Tambin se utiliza para probar la independencia de dos variables entre s, mediante la presentacin de los datos en tablas de contingencia.La frmula que da el estadstico es la siguiente:

Cuanto mayor sea el valor de , menos verosmil es que la hiptesis sea correcta. De la misma forma, cuanto ms se aproxima a cero el valor de chi-cuadrado, ms ajustadas estn ambas distribuciones.Los grados de libertad gl vienen dados por:gl= (r-1)(k-1). Donde r es el nmero de filas y k el de columnas. Criterio de decisin:No se rechaza cuando . En caso contrario s se rechaza.Donde t representa el valor proporcionado por las tablas, segn el nivel de significacin estadstica elegido.

Ejemplo: Un psiclogo de animales afirma que el 25% de los chimpancs muestran conductas de indefensin aprendida ante un determinado estmulo aversivo, el 40% muestran una conducta de huida y el 35% muestran indiferencia. En su muestra de 30 especimenes encuentra que 12 muestran indefensin, 15 huida y 3 indiferencia. Apoyan estos datos su teora con =0,05?

1. Hiptesis

H0: f (x) = f0 (x)(es decir, 1 = 0,25, 2 = 0,40 y 3 = 0,35)H1: f (x) f0 (x)2. Supuestos

Muestra aleatoriaProbabilidades constantes en cada extraccin

3. Estadstico de contraste

IndefensinHuidaIndiferencia

ni1215330

mim1 = n1=30 (0,25)= 7,5m2 = n2=30 (0,4)= 12m3 = n3=30 (0,35)= 10,5

30

4. Estadistisco de prueba

X2 ~ 2 con 2 grados de libertad5. . zona critica X2 0,95 2 =5,996. Decisin: Rechazar H02.- PRUEBA BINOMIALLa prueba binomial analiza variables dicotmicas y compara las frecuencias observadas en cada categora con las que cabra esperar segn una distribucin binomial de parmetro El experimento aleatorio consiste en repetir un cierto nmero de veces, "n", una determinada prueba. En cada prueba del experimento, slo son posibles dos resultados: el suceso A, que llamaremos xito y su complementario, llamado fracaso. El resultado de cada prueba es independiente de los resultados obtenidos anteriormente, es decir, el resultado obtenido en la primera prueba, no influye para nada en el posible resultado de la segunda o la tercera. La probabilidad de que ocurra el xito es siempre la misma y la expresaremos como "p", y por tanto, la probabilidad de fracaso ser q = 1 - p .

Todo experimento aleatorio con estas caractersticas se dice que sigue el modelo de la distribucin binomial, y a la variable X que expresa el nmero de xitos obtenidos en las n repeticiones de la prueba, se le llama variable aleatoria binomial y se representa por B( n , p ); donde "n" es el nmero de repeticiones de la prueba y "p" la probabilidad de xito.

Ejemplos de variables que siguen una distribucin binomial: Nmero de caras al lanzar 7 monedas. Nmero de piezas defectuosas que fabrica una mquina. Nmero de chinchetas que al caer quedan de punta.

5.- Prueba de Anderson-DarlingEn estadstica, la prueba de Anderson-Darling es una prueba no paramtrica sobre si los datos de una muestra provienen de una distribucin especfica. La frmula para el estadstico A determina si los datos (observar que los datos se deben ordenar) vienen de una distribucin con funcin acumulativa

donde

El estadstico de la prueba se puede entonces comparar contra las distribuciones del estadstico de prueba (dependiendo que se utiliza) para determinar el P-valor.

6.- Prueba de CochranEsta prueba utiliza la estadstica:

Los parmetros de la distribucin muestral de ste estadstico son nmero de tratamientos y , los grados de libertad para cada varianza. Los percentiles del y de la distribucin del estadstico son dados en la tabla D8 pg 980 (Winer). Se rechaza si En muchas situaciones encontradas en la prctica la prueba de Cochran y Hartley conducen a las mismas decisiones; pero, ya que la prueba de Cochran utiliza ms informacin, es generalmente algo ms sensible que la prueba de Hartley. Cuando el nmero de observaciones en cada tratamiento no sea igual pero relativamente cercano, el mayor de los puede usarse en lugar de para determinar los grados de libertad requeridos en las tablas. NOTA: para propsitos de detectar grandes desviaciones del supuesto de homogeneidad de varianza en muchos casos prcticos es recomendable las pruebas de Hartley y Cochran.

7.- Cohen kappaCoeficiente kappa de Cohen es una estadstica medida de acuerdo entre los evaluadores o inter-anotador acuerdo para cualitativas (categricas) artculos. En general se piensa que es una medida ms robusta que la simple clculo acuerdo ciento desde tiene en cuenta el acuerdo ocurra por casualidad. Algunos investigadores han expresado su preocupacin por la tendencia para tomar las frecuencias de las categoras observadas "como un dato previo, que pueden tener el efecto de subestimar acuerdo para una categora que es tambin de uso, por esta razn, es considerado un excesivamente medida conservadora de acuerdo.Clculo Kappa de Cohen mide el acuerdo entre dos evaluadores que cada clasificar N elementos en las categoras C mutuamente excluyentes. La primera mencin de una estadstica kappa-como se le atribuye a Galton (1892La ecuacin para es:

donde Pr (a) es el acuerdo entre evaluadores relativa observada, y Pr (e) es la probabilidad hipottica de la posibilidad de acuerdo, utilizando los datos observados para el clculo de las probabilidades de cada observador aleatoriamente diciendo cada categora. Si los evaluadores estn completamente de acuerdo entonces = 1. Si no hay acuerdo entre los calificadores distintos de lo que cabra esperar por azar (segn lo definido por Pr (e)), = 0. El papel seminal kappa introducir como una nueva tcnica fue publicado por Jacob Cohen en la revista Medicin Educativa y Psicolgica en 1960. Una estadstica similar, llamado pi , fue propuesto por Scott (1955). Kappa de Cohen y pi de Scott difieren en cuanto a la forma Pr (e) se calcula. Tenga en cuenta que de acuerdo kappa de Cohen medidas entre dos evaluadores solamente. Para que una medida similar de acuerdo ( kappa Fleiss ' ) que se utiliza cuando existen ms de dos evaluadores, ver Fleiss (1971). El kappa Fleiss, sin embargo, es una generalizacin multi-evaluador de Scott pi estadstica no, kappa de Cohen. Supongamos que se estaban analizando los datos relativos a las personas que solicitan una subvencin. Cada propuesta de subvencin fue ledo por dos personas y cada lector sea dicho "S" o "No" a la propuesta. Supongamos que los datos fueron los siguientes, donde las filas son el lector A y lector B columnas son: B B

S No

La S 20 5

La No 10 15

Tenga en cuenta que hubo 20 propuestas que fueron otorgados tanto por el lector A y B lector, y 15 propuestas que fueron rechazadas tanto por los lectores. As, el porcentaje de acuerdo observado es Pr (a) = (20 + 15) / 50 = 0,70 Para calcular Pr (e) (la probabilidad de acuerdo aleatorio), observamos que: Un lector dijo "S" a 25 solicitantes y "No" a 25 solicitantes. As, el lector A dicho "s" el 50% de las veces. Lector B dijo "S" a 30 solicitantes y "No" a 20 solicitantes. As lector B dijo "S" 60% de las veces. Por lo tanto, la probabilidad de que dos de ellos dira "S" al azar es de 0,50 0,60 = 0,30 y la probabilidad de que dos de ellos deca: "No" es de 0,50 0,40 = 0,20. As, la probabilidad general de acuerdo al azar es Pr (e) = 0,3 + 0,2 = 0,5. As que ahora la aplicacin de nuestra frmula de Kappa de Cohen se obtiene:

mismo pero diferente nmero Un caso a veces considerado un problema con Kappa de Cohen se produce cuando la comparacin de la Kappa calcula para dos pares de evaluadores con los dos evaluadores de cada par que tienen el porcentaje de acuerdo misma, pero un par dar un nmero similar de notas, mientras que el otro par dar una muy nmero diferente de calificaciones. Por ejemplo, en los siguientes dos casos existe un acuerdo equitativo entre A y B (60 de 100 en ambos casos) por lo que se esperara que los valores relativos de Kappa de Cohen para reflejar esto. Sin embargo, el clculo de Kappa de Cohen para cada uno: S No

S 45 15

No 25 15

S No

S 25 35

No 5 35

encontramos que muestra una mayor similitud entre A y B en el segundo caso, en comparacin con el primero.

8.- Prueba F de FisherEn estadstica se denomina prueba F de Snedecor a cualquier prueba en la que el estadstico utilizado sigue una distribucin F si la hiptesis nula no puede ser rechazada. El nombre fue acuado en honor a Ronald Fisher.En estadstica aplicada se prueban muchas hiptesis mediante el test F, entre ellas: La hiptesis de que las medidas de mltiples poblaciones normalmente distribuidas y con la misma desviacin estndar son iguales. Esta es, quizs, la ms conocida de las hiptesis verificada mediante el test F y el problema ms simple del anlisis de varianza. La hiptesis de que las desviaciones estndar de dos poblaciones normalmente distribuidas son iguales, lo cual se cumple.En muchos casos, el test F puede resolverse mediante un proceso directo. Se requieren dos modelos de regresin, uno de los cuales restringe uno o ms de los coeficientes de regresin conforme a la hiptesis nula. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue:Dadas n observaciones, donde el modelo 1 tiene k coeficientes no restringidos, y el modelo 0 restringe m coeficientes, el test F puede calcularse como

El valor resultante debe entonces compararse con la entrada correspondiente de la tabla de valores crticos.Uso de la tabla de F del anlisis de variancia (ANOVA)En la tabla 5 se ilustra la estructura de una tabla de F para un nivel de significacin de 0,01 o 1% y 0,05 o 5%.

Clculo de la razn F a partir de datos muestrales

Para calcular F se debe seguir el siguiente procedimiento1) Calcular la estimacin interna (Denominador)

2) Calcular la estimacin intermediante (Numerador)

Ejemplo Los pesos en kg por 1,7 m de estatura se ilustran en la siguiente tabla. La finalidad es determinar si existen diferencias reales entre las cuatro muestras. Emplear un nivel de significacin de 0,05

Solucin:Las hiptesis Nula y Alternativa son:

Calculando las medias aritmticas se obtiene:

Se llena la siguiente tabla para calcular las varianzas muestrales:

Remplazando los datos en la frmula de la varianza se obtienen las varianzas de las 4 muestras.

Calculando la estimacin interna de varianza se obtiene:

Para calcular la estimacin intermediante de varianza primero se calcular la varianza de las medias aritmticas

Se llena la siguiente tabla:

Se remplaza los datos de la tabla para calcular varianza de las medias aritmticas

Calculando la estimacin intermediante de varianza se obtiene:

Decisin:

9.- Prueba de FriedmanEn estadstica la prueba de Friedman es una prueba no paramtrica desarrollado por el economista Milton Friedman. Equivalente a la prueba ANOVA para medidas repetidas en la versin no paramtrica, el mtodo consiste en ordenar los datos por filas o bloques, reemplazndolos por su respectivo orden. Al ordenarlos, debemos considerar la existencia de datos idnticos.Mtodo1. Sea una tabla de datos, donde son las filas (bloques) y las columnas (tratamientos). Una vez calculado el orden de cada dato en su bloque, reemplazamos al tabla original con otra donde el valor es el orden de en cada bloque .2. Clculo de las varianzas intra e inter grupo: , 3. El estadstico viene dado por .4. El criterio de decisin es .

ConclusinLa mayora de estos test estadsticos estn programados en lospaquetes estadsticosms frecuentes, quedando para el investigador, simplemente, la tarea de decidir por cul de todos ellos guiarse o qu hacer en caso de que dos test nos den resultados opuestos. Hay que decir que, para poder aplicar cada uno existen diversas hiptesis nulas y condiciones que deben cumplir nuestros datos para que los resultados de aplicar el test sean fiables. Esto es, no se puede aplicar todos los test y quedarse con el que mejor convenga para la investigacin sin verificar si se cumplen las hiptesis y condiciones necesarias pues, si se violan, invalidan cualquier resultado posterior y son una de las causas ms frecuentes de que un estudio sea estadsticamente incorrecto. Esto ocurre sobre todo cuando el investigador desconoce la naturaleza interna de los test y se limita a aplicarlos sistemticamente.Es importante mencionar que si la distribucin de los datos se ajusta a un tipo de distribucin conocida, existen otras que, en la prctica, son ms aconsejables pero que as mismo requieren otros supuestos. En este caso, la estadstica a emplear es laestadstica paramtrica, dentro de la cual muchas veces podemos encontrar equivalencias entre pruebas pero con diferencias en la potencia entre ambas siendo siempre la potencia de las pruebas no paramtricas menor que la potencia de las pruebas paramtricas equivalentes. Aun as, el uso adecuado de los tamaos mustrales disminuye la posibilidad de cometer un [error tipo II], puesto que aumenta al mismo tiempo la eficacia de la prueba . Es decir, a medida que se aumenta el tamao de la muestra, disminuye la posibilidad de cometer un error tipo II (un falso negativo: No rechazar la hiptesis nula cuando sta en realidad es falsa).

BIBLIOGRAFA Alvarez de Zayas, Carlos: (1995).Metodologadela investigacincientfica. Santiago deCuba. Centro de Estudio Superior "Manuel F. Grau". Cerda Gutierrez, Hugo: (1993). Los elementos de la investigacin. Cmo reconocerlos, cmo disearlos y construirlos?.Quito. Edit. El Buho. Cols Bravo, Mara del Pilar: (1992).Investigacin educativa. Sevilla. Librera Canaima. Cu Muiz, Juan: (1987). Estadstica. Ciudad de la Habana:EmpresaNacional deProduccindel Ministerio deEducacinSuperior. Friedrich, Walter: (1968).Mtodosde lainvestigacin social. La Habana: EditorialCienciasSociales. Garca, M.: (1993:16-18). Test para laevaluacinde habilidades visuales en deportistas. Boletn de Informacin yDocumentacinUNISPORT (Andaluca) 21(1). Grau Avalos, Ricardo: (1994). Estadstica aplicada utilizando paquetes desoftware. Centro de Documentacin e Investigacin, Facultad deMatemtica,FsicayComputacin.UniversidadCentral de Las Villas. Villa Clara, Cuba. Guerra Bustillo, Caridad W.: (1987). Estadstica. Ciudad de La Habana. Editorial Pueblo y Educacin. Karpman, U. L.:(1988). Las pruebas enmedicinadeportiva. Mosc: Editorial Fis. Mesa Anoceto, Magda: (1998). Determinacin de la validez predictiva de los tests en eldeporte. EnMemoriasdel IISimposioInternacional de Educacin Fsica y Deporte Escolar. Cienfuegos, Cuba. Norat Soto, Teresa:(1991:81-86). Estadstica aplicada al deporte: las pruebas de comparacin mltiple. Enrevistacubana de Medicina del Deporte y laCulturaFsica. 2(2): abril-,junio.. Siegel, Sidney: (1986). Estadstica no paramtrica aplicada a las Ciencias de laConducta.Mxico, D.F., Editorial Trillas.

Pgina 10