ANÁLISIS_DE_LA_VARIANZA_CON_DOS_FACTORES_REALIZADO_POR_ARACELI.pdf

  • Upload
    wilmher

  • View
    12

  • Download
    0

Embed Size (px)

Citation preview

  • ANLISIS DE LA VARIANZA

    CON DOS FACTORES:

    REALIZADO POR:

    ARACELI RUIZ GUILLAMN 4 AGRNOMO

  • 1. INTRODUCCIN

    El anlisis de la varianza (o Anova: Analysis of variance) es un mtodo

    para comparar dos o ms medias, que es necesario porque cuando se quiere

    comparar ms de dos medias. Este tipo de anlisis utiliza una sola variable

    numrica mediada en los elementos de la muestra para probar la hiptesis nula

    de medias poblacionales. Esta variable puede ser de intervalo o de escala de

    razn y algunas veces recibe el nombre de variable dependiente.

    Es incorrecto utilizar repetidamente el contraste basado en la t de

    Student. por dos motivos:

    En primer lugar, y como se realizaran simultnea e independientemente

    varios contrastes de hiptesis, la probabilidad de encontrar alguno significativo

    por azar aumentara. En cada contraste se rechaza la H0 si la t supera el

    nivel crtico, para lo que, en la hiptesis nula, hay una probabilidad . Si se realizan contrastes independientes, la probabilidad de que en la hiptesis nula

    ningn estadstico supere el valor crtico es (1 - ) m, por lo tanto, la probabilidad de que alguno lo supere es 1 - (1 - ) m, para valores de prximos a 0 es aproximadamente igual a m. Una primera solucin, denominada mtodo de Bonferroni, consiste en bajar el valor de , usando en su lugar /m, aunque resulta un mtodo muy conservador.

    Por otro lado, en cada comparacin la hiptesis nula es que las dos

    muestras provienen de la misma poblacin, por lo tanto, cuando se hayan

    realizado todas las comparaciones, la hiptesis nula es que todas las muestras

    provienen de la misma poblacin y, sin embargo, para cada comparacin, la

    estimacin de la varianza necesaria para el contraste es distinta, pues se ha

    hecho en base a muestras distintas.

    El mtodo que resuelve ambos problemas es el Anova, aunque es algo

    ms que esto: es un mtodo que permite comparar varias medias en diversas

    situaciones; muy ligado, por tanto, al diseo de experimentos y, de alguna

    manera, es la base del anlisis multivariante.

    La hiptesis nula y alternativa en Anova son:

    CHo ==== ...321: 1H : No todas las poblaciones tienen la misma media.

  • En la prueba ANOVA, se rene evidencia muestral de cada poblacin

    bajo estudio y se usan estos datos para calcular un estadstico muestral.

    Despus se consulta la distribucin muestral apropiada para determinar si el

    estadstico muestral contradice la suposicin de que la hiptesis nula es cierta.

    Si es as, se rechaza; de lo contrario no se rechaza.

    Hemos de recordar que en la prueba de varianza con dos poblaciones

    se calcula el coeficiente de las varianzas muestrales y se verifica con arreglo a

    la distribucin F. Este procedimiento tambin se usa en ANOVA para probar

    la hiptesis nula.

    Se supone que todas las poblaciones bajo estudio tienen la misma

    varianza, sin importar si sus medias son iguales. Es decir, ya sea que las

    poblaciones tengan medias iguales o distintas, la variabilidad de los elementos

    alrededor de su respectiva media es la misma. Si esta suposicin es vlida,

    entonces se puede probar la hiptesis nula de las medias poblacionales iguales

    usando la distribucin F.

    2. BASES DEL ANLISIS DE LA VARIANZA (Suposiciones del modelo). Supnganse k muestras aleatorias independientes, de tamao n,

    extradas de una nica poblacin normal. A partir de ellas existen dos maneras

    independientes de estimar la varianza de la poblacin 2.

    1) Mtodo dentro: para estimar la varianza de las poblaciones produce

    una estimacin vlida, sea o no cierta la hiptesis nula.

    2) Mtodo entre: produce una estimacin vlida slo si la hiptesis nula

    es cierta.

    El paso final en ANOVA requiere el clculo de un cociente con la

    estimacin del mtodo entre en el numerador y la estimacin del mtodo dentro

    en el denominador. Si la hiptesis nula de que las poblaciones tienen la misma

    media es cierta, esta razn consiste en dos estimaciones separadas de la

    misma varianza poblacional y, se puede obtener la distribucin F si las

    medias poblacionales no son iguales. La estimacin en el numerador estar

    inflada, y el resultado ser un cociente muy grande. Al consultar la distribucin

    F no es probable que un cociente tan grande haya sido obtenido de esta

  • distribucin, y la hiptesis nula ser rechazada. La prueba de hiptesis en

    ANOVA es de una cola: un estadstico F grande llevar al rechazo de la

    hiptesis nula y un valor pequeo har que no se rechace.

    1) Varianza dentro de los grupos o varianza de error, o cuadrados

    medios del error (slo contribuye a ella la varianza dentro de las muestras) y

    habitualmente representada por MSE (Mean Square Error) o MSW (Mean

    Square Within) que se calcula como la media de las k varianzas muestrales

    (cada varianza muestral es un estimador centrado de 2 y la media de k estimadores centrados es tambin un estimador centrado y ms eficiente que

    todos ellos). MSE es un cociente: al numerador se le llama suma de cuadrados

    del error y se representa por SSE y al denominador grados de libertad por ser

    los trminos independientes de la suma de cuadrados.

    El mtodo dentro que produce una estimacin vlida sin importar la

    hiptesis nula de las medias poblacionales iguales es cierta se debe a que la

    variabilidad de los factores de la muestra se determina comparando cada

    elemento en los datos con la media muestral. Cada valor de la muestra

    obtenido de la poblacin A se compara con la media muestral A; cada elemento

    obtenido de la poblacin B se compara con la media muestral B, y as

    sucesivamente. La ecuacin para calcular la estimacin de la varianza con el

    mtodo dentro es:

    - ( )22 jij xxSSE = - ( )1nK - ( )1= nKSSEMS Donde:

    o MS: Estimacin de la varianza muestral con el mtodo dentro.

    o Xij: i-simo elemento de los datos de grupo j. o Xj: media del grupo j. o K: nmero de grupos. o N= nmero de elementos de la muestra en cada grupo.

  • El doble signo de suma en la ecuacin, significa que primero deben

    sumarse los valores indicados por el signo de la derecha, y despus sumar los

    valores indicados por el de la izquierda. Primero, se encuentran las diferencias

    entre cada valor x y la media del grupo, se elevan al cuadrado y se suman.

    Despus, se agregan estas sumas para cada grupo. El resultado es la suma

    del cuadrado de las desviaciones entre cada medida de la muestra y la media

    de su grupo. Este valor con frecuencia se llama la suma de cuadrados dentro

    (SSE). Esta suma se divide despus entre el nmero adecuado de grados de

    libertad para poder producir una estimacin de la varianza desconocida de la

    poblacin.

    El nmero adecuado de grados de libertad para el mtodo dentro se

    calcula como K(n-1) si el nmero de observaciones en cada grupo es igual.

    Como a cada elemento del grupo se le resta la media de ese grupo, slo (n-1)

    elementos de cada grupo pueden variar. Adems como se tienen K grupos,

    K se multiplica por (n-1) para as obtener los grados de libertad para el

    mtodo dentro.

    Ejemplo:

    Se obtienen muestras del peso del llenado de cuatro paquetes de

    espinacas congeladas, a partir de tres contenedores. La pregunta es si los

    pesos promedio de los paquetes son iguales o diferentes entre los tres

    contenedores. Seguidamente se ofrecen los pesos de la muestra, medias de

    grupos, media global y estimacin de la varianza con el mtodo dentro usando

    la ecuacin correspondiente.

    Pesos de las muestras:

    GRUPO 1: 12,4; 13,7; 11,5; 10,3 Media= 00,124

    3,105,117,132,12 =+++ GRUPO 2: 11,9; 9,3; 12,1; 10,6 Media= 11,00

    GRUPO 3: 10,3; 12,4; 11,9; 10,2 Media= 11,2

    Media Global 11,4

  • Para calcular el SSE:

    ( )212 xxSSE i = = (12,4 - 12)2 + (13,7 - 12)2 + (11,5 - 12)2 + (10,3 -

    12)2 = 6,19

    ( )222 xxSSE i = = (11,9 - 11)2 + (9,3 - 11)2 + (12,1 - 11)2 + (10,6 - 11)2 = 5,07

    ( )232 xxSSE i = = (10,3 - 11,2)2 + (12,4 - 11,2)2 + (11,9 - 11,2)2 + (10,2 - 11,2)2 = 3,74

    ( )22 JIJ xxSSE = = 2 6,19 + 5,07 + 3,74 = 15 )1( = nk

    SSEMS = 15/9 =1,67

    k(n-1) = 3 (4 - 1) = 9

    Cada valor x en la muestra se compara con la media de su propio

    Grupo. Estas diferencias se elevan al cuadrado y se suman. Los resultados se

    suman y se dividen entre los grados de libertad. El resultado, 167, es una

    estimacin de la varianza comn de las tres poblaciones. Con frecuencia el

    trmino MS se denomina error cuadrtico medio (MSE).

    2) Varianza entre grupos o varianza de los tratamientos, o cuadrados

    medios de los tratamientos (slo contribuye a ella la varianza entre las distintas

    muestras) y representada por MSA o MSB (Mean Square Between). Se calcula

    a partir de la varianza de las medias muestrales y es tambin un cociente; al

    numerador se le llama suma de cuadrados de los tratamientos (se le

    representa por SSA) y al denominador (k-1) grados de libertad. Produce una

    estimacin vlida slo si la hiptesis nula es cierta. Para entender el mtodo

    entre se compara con el teorema del lmite central. Este teorema establece

    que la distribucin de las medias muestrales tiende a una distribucin normal

    conforme crece el tamao de la muestra.

  • MSA y MSE, estiman la varianza poblacional en la hiptesis de que las

    k muestras provengan de la misma poblacin. La distribucin muestral del

    cociente de dos estimaciones independientes de la varianza de una poblacin

    normal es una F con los grados de libertad correspondientes al numerador y

    denominador respectivamente, por lo tanto se puede contrastar dicha hiptesis

    usando esa distribucin.

    Si en base a este contraste se rechaza la hiptesis de que MSE y MSA

    estimen la misma varianza, se puede rechazar la hiptesis de que las k

    medias provengan de una misma poblacin.

    Aceptando que las muestras provengan de poblaciones con la misma

    varianza, este rechazo implica que las medias poblacionales son distintas, de

    modo que con un nico contraste se contrasta la igualdad de k medias.

    Existe una tercera manera de estimar la varianza de la poblacin, aunque no es

    independiente de las anteriores. Si se consideran las kn observaciones como

    una nica muestra, su varianza muestral tambin es un estimador centrado de

    2:

    Se suele representar por MST, se le denomina varianza total o cuadrados

    medios totales, es tambin un cociente y al numerador se le llama suma de

    cuadrados total y se representa por SST, y el denominador (kn -1) grados de

    libertad. La ecuacin para calcular la estimacin de la varianza con el mtodo

    dentro es:

    ( )2 = xxSST j ( )

    1

    2

    =

    knxx

    MST j

    kn- 1 (grados de libertad)

    j

    Donde:

    MST = Estimacin de la varianza de la distribucin muestral de medias.

    Xj = Media del grupo j. X = Media Global (media de todos los valores) usada como

    estimacin de .

    K = nmero de grupos.

  • n = tamao de la muestra o nmero de elementos en cada grupo. J = n de la columna.

    Ejemplo:

    Se obtienen muestras del peso del llenado de cuatro paquetes de

    espinacas congeladas, a partir de tres contenedores. La pregunta es si los

    pesos promedio de los paquetes son iguales o diferentes entre los tres

    contenedores. Seguidamente se ofrecen los pesos de la muestra, medias de

    grupos, media global y estimacin de la varianza con el mtodo dentro usando

    la ecuacin correspondiente.

    Pesos de las muestras:

    GRUPO 1: 12,4; 13,7; 11,5; 10,3 Media= 00,124

    3,105,117,132,12 =+++ GRUPO 2: 11,9; 9,3; 12,1; 10,6 Media= 11,00

    GRUPO 3: 10,3; 12,4; 11,9; 10,2 Media= 11,2

    Media Global 11,4

    ( )2 = xxSST j = 12,0 - 11,4)2 + (11,0 - 11,4)2 + (11,2 -11,4) = 0,56 J = 0,56 x 4 (nmero de elementos) = 2, 24

    k- 1= 3 (grupos) 1 = 2

    ( )1

    2

    =

    knxx

    MST j = 12,12242 =

    La estimacin de la varianza poblacional, calculada con el mtodo entre

    es 1,12.

    Los resultados de un Anova se suelen representar en una tabla como la

    siguiente:

  • Fuente de variacin G.L. SC MS

    (Estimacin

    de 2)

    Coeficiente F

    Entre grupos

    Tratamientos

    k-1 SSA

    n(xij-x)2

    SSA/(k-1) MSA/MSE

    Dentro Error (n-1)k SSE

    (xij-xj)2SSE/k(n-1)

    Total kn-1 SST

    (xij-x)2

    Donde:

    j = Nmero de la columna i = Nmero de la fila K = Nmero de columnas (grupos) n = Nmero de elementos en cada grupo (tamao de la

    muestra)

    Y el cociente F se usa para realizar el contraste de la hiptesis de

    medias iguales..

    La regin crtica para dicho contraste es F > F (k-1,(n-1)k)

    Es fcil ver en la tabla anterior que:

    ( ) totaltrataerror GLnkkknkkknGLGL ==+=+=+ 1111 No es tan inmediato, pero las sumas de cuadrados cumplen la misma

    propiedad, llamada identidad o propiedad aditiva de la suma de cuadrados:

    SST = SSA + SSE

    El anlisis de la varianza se puede realizar con tamaos muestrales

    iguales o distintos, sin embargo es recomendable iguales tamaos por dos

    motivos:

    La F es insensible a pequeas variaciones en la asuncin de igual

    varianza y si el tamao es igual.

    Para estimar la varianza desconocida de las poblaciones, se forma un

    cociente con estas dos estimaciones MST/2 de los dos mtodos.

  • Si la hiptesis nula es cierta, tanto el numerador como el denominador

    de la ecuacin son estimaciones vlidas de la varianza comn de las

    poblaciones que se estudian. Este cociente se ajusta a la distribucin F, Si la

    hiptesis nula es falsa y el numerador de la ecuacin en realidad es una

    estimacin inflada de 2; y el denominador sigue siendo una estimacin vlida.

    Bajo estas condiciones, el valor F ser muy grande, y se puede concluir que

    la hiptesis nula es falsa. La figura que mostramos a continuacin presenta la

    distribucin muestral para la prueba ANOVA junto con las regiones de

    aceptacin y rechazo.

    3. MODELOS DE ANLISIS DE LA VARIANZA.

    El Anova permite distinguir dos modelos para la hiptesis alternativa:

    Modelo I o de efectos fijos en el que la H1 supone que las k muestras

    son muestras de k poblaciones distintas y fijas.

    Modelo II o de efectos aleatorios en el que se supone que las k

    muestras, se han seleccionado aleatoriamente de un conjunto de m>k

    poblaciones.

    Un ejemplo de modelo I de Anova es que se asume que existen cinco

    terrenos o poblaciones (sin fertilizante, con abonado, bsicas, cidas, etc.) fijas,

    de donde se han extrado las muestras.

  • Un ejemplo de modelo II sera: un agricultor est interesado en

    determinar el contenido, y sus variaciones, de calcio en los suelos de cultivo;

    toma 5 muestras al azar y realiza, a cada una, 3 anlisis.

    La manera ms sencilla de distinguir entre ambos modelos es pensar

    que, si se repitiera el estudio un tiempo despus, en un modelo I las muestras

    seran iguales (no los individuos que las forman) es decir corresponderan a la

    misma situacin, mientras que en un modelo II las muestras seran distintas.

    Aunque las asunciones iniciales y los propsitos de ambos modelos son

    diferentes, los clculos y las pruebas de significacin son los mismos y slo

    difieren en la interpretacin y en algunas pruebas de hiptesis suplementarias.

    Anlisis de la varianza de dos factores es un diseo de Anova que

    permite estudiar simultneamente los efectos de dos fuentes de variacin.

    En cualquier caso, el agricultor puede estar interesado en estudiar si hay, o no,

    contenido en exceso de sodio. En un Anova de dos vas se clasifica a los

    individuos de acuerdo a dos factores (o vas) para estudiar simultneamente

    sus efectos. En este ejemplo se haran cinco grupos de tratamiento para el

    contenido en calcio y otros cinco para el contenido en sodio, en total diez

    grupos; en general, si el primer factor tiene a niveles y el segundo tiene b, se

    tendrn ab muestras o unidades experimentales, cada una con n individuos

    o repeticiones.

    Una observacin individual se representa como:

    El primer subndice indica el nivel del primer factor, el segundo el nivel

    del segundo factor y el tercero la observacin dentro de la muestra. Los

    factores pueden ser ambos de efectos fijos (se habla entonces de modelo I), de

    efectos aleatorios (modelo II) o uno de efectos fijos y el otro de efectos

    aleatorios (modelo mixto). El modelo matemtico de este anlisis es:

    Y ijk = + i + j + ( )ij + ijk modelo I Y ijk = + Ai + Bj + (AB)ij + ijk modelo II Y ijk = + i + Bj + ( B)ij + ijk modelo mixto

    Donde es la media global, i o Ai el efecto del nivel i del 11

    factor, j o Bj el efecto del nivel j del 2 factor y ijk las desviaciones aleatorias

  • alrededor de las medias, que tambin se asume que estn normalmente

    distribuidas, son independientes y tienen media 0 y varianza 2.

    A las condiciones de muestreo aleatorio, normalidad e independencia, este

    modelo aade la de aditividad de los efectos de los factores.

    A los trminos ()ij, (AB)ij, (B)ij, se les denomina interaccin entre

    ambos factores y representan el hecho de que el efecto de un determinado

    nivel de un factor sea diferente para cada nivel del otro factor.

    Si en un determinado estudio se encuentra interaccin entre dos

    factores, no tiene sentido estimar los efectos de los factores por separado. A la

    interaccin positiva, es decir, cuando el efecto de los factores actuando juntos

    es mayor que la suma de efectos actuando por separado, en Biologa se le

    denomina sinergia o potenciacin y a la interaccin negativa inhibicin.

    4. CONTRASTES DE HIPTESIS EN UN ANLISIS DE LA VARIANZA DE DOS FACTORES.

    Del mismo modo que se hizo en el Anova de una va, para plantear los

    contrastes de hiptesis habr que calcular los valores esperados de los

    distintos cuadrados medios. Los resultados son:

    Modelo I

    MS Valor esperado

    MSA =+a

    IIa

    nb1

    22

    1

    MSB =+a

    IIb

    na1

    22

    1

    MSAB ( )21 1

    2

    )1)(1(=

    =+

    a

    I

    b

    I IIban

    MSE 2

  • Por lo tanto, los estadsticos MSAB/MSE, MSA/MSE y MSB/MSE se

    distribuyen como una F con los grados de libertad correspondientes y

    permiten contrastar, respectivamente, las hiptesis:

    No existe interaccin (MSAB/MSE) ( ) bajioHo ij ,...,1,...,1;: ===

    No existe efecto del primer factor, es decir, diferencias entre niveles del primer factor (MSA/MSE)

    aHo == ...:

    1

    No existe efecto del segundo factor (MSB/MSE)

    bHo == ...:

    1

    Si se rechaza la primera hiptesis de no interaccin, no tiene sentido

    contrastar las siguientes. En este caso lo que est indicado es realizar un

    anlisis de una va entre las ab combinaciones de tratamientos para encontrar

    la mejor combinacin de los mismos.

    5. CONDICIONES POST HOC O A POSTERIORI: BONFERRONI, SCHEFFE, TUKEY, DUNCAN, DUNNET, DIFERENCIA MNIMA SIGNIFICATIVA (LSD).

    Si alguno de los estadsticos F correspondientes a los efectos

    principales resulta significativo, puede interesar efectuar comparaciones post

    hoc. Anova, nos permite nicamente contrastar la hiptesis general de que los

    promedios comparados son iguales. Al rechazar esa hiptesis, sabemos que

    existen diferencias, pero no sabemos dnde se encuentran.

    Para saber qu media en concreto difiere de otra, debemos utilizar un

    tipo particular de contrastes denominados comparaciones post hoc o

    comparaciones a posteriori. Estas comparaciones permiten controlar la tasa de

    error al efectuar varias comparaciones utilizando las mismas medias, es decir,

    permiten controlar la probabilidad de cometer errores tipo I al tomar decisiones

    (los errores tipo I se cometen cuando se decide rechazar una hiptesis nula

    que en realidad no debera rechazarse).

  • MTODO BONFERRONI Mtodo basado en la distribucin t de Student y en la desigualdad de

    Bonferroni (tambin conocido como mtodo de Dunn su promotor en 1961

    o de DunnBonferroni). Controla la tasa de error dividiendo el nivel de

    significacin () entre el nmero de comparaciones (k) llevadas a cabo. Cada

    comparacin se evala utilizando un nivel de significacin c= /k

    Calcula simplemente una nueva pareja alfa para guardar el valor de la

    alfa en 0.05 (u otro valor especfico). La frmula para hacer esto es:

    FWEB c =

    Donde la nueva B basada en la prueba de Bonferroni se debe utilizar

    para evaluar cada prueba de la comparacin o de la significacin, el FWE es

    el tipo de error segn lo computado en la frmula, y c es el nmero de las

    comparaciones (pruebas estadsticas).

    El Mtodo Bonferroni, es probablemente la prueba de post hoc de mayor

    uso general, porque es altamente flexible, muy simple de utilizar, y puede ser

    utilizado con cualquier tipo de prueba estadstica (e.g., correlaciones) - no slo

    pruebas de post hoc con ANOVA. El Bonferroni tradicional, sin embargo,

    tiende a carecer de energa. La prdida de energa ocurre por varias razones:

    (1) El clculo del error que depende de asumir todas las pruebas, la

    hiptesis nula es verdad. Este caso es poco probable que se de,

    especialmente despus de una prueba significativa.

    (2) Todas las pruebas se asumen para ser ortogonales (es decir,

    independientes o sin solape); cuando calculamos la prueba del error, y no es

    un caso general, es cuando las comparaciones se hacen todas en parejas.

    (3) La prueba no considera si los resultados son constantes en teora y

    ms all de la investigacin. Si es constante en los resultados y con la teora,

    un resultado individual debe ser menos probable para el tipo error I.

    (4) El error de tipo II es demasiado alto para las pruebas individuales.

    MTODO SCHEFFE

    Este mtodo, basado en la distribucin F, permite controlar la tasa de

    error para el conjunto total de comparaciones que es posible disear con J

  • medias (una con otra, una con todas las dems, dos con dos, etc.). Utilizando

    para efectuar slo comparaciones por pares, es un procedimiento muy

    conservador: tiende a considerar significativas menos diferencias de las que

    debera.

    Comparar grupos del ANOVA ms grandes (es decir, una correccin

    para una t-prueba estndar). La frmula modifica simplemente el valor F-

    crtico porque considera el nmero de los grupos que son comparados: (a -

    1) F-critico. El nuevo valor crtico representa el valor crtico para el tipo de

    error mximo posible. Se puede suponer que tambin da lugar a un tipo ms

    alto que el deseado al error de Tipo II, imponiendo una correccin severa. Tiene menos potencia al igual que Tukey

    MTODO TUKEY Es un mtodo simple y dispone de lmites de confianza

    Tambin conocido como HSD de Tukey para la diferencia honestamente

    significativa de Tukey. Equivale a utilizar el mtodo de Student-Newman-Keuls

    con r=J= n de medias. Por tanto, todas las comparaciones son referidas a una

    misma diferencia mnima

    La prueba de Tukey calcula un nuevo valor crtico que se puede utilizar

    para evaluar si las diferencias entre cualesquiera dos pares de medios son

    significativas. El valor crtico es un poco diferente porque implica la mala

    diferencia que tiene que ser excedida para alcanzar la significacin. As que

    calcula simplemente un valor crtico y por tanto la diferencia entre todos los

    pares posibles. Cada diferencia entonces se compara al valor crtico de Tukey.

    Si la diferencia es ms grande que el valor de Tukey, la comparacin es

    significativa. La frmula para el valor crtico es la siguiente:

    nMSqd AsTT /=

    Donde qT se estudia en estadstica (similar a los valores t-critico, pero

    diferente), y que se encuentra en tablas, MSs/A es el error de la media

    cuadrada de la F-prueba total, y n es el tamao de muestra para cada

    grupo. El error df mencionado en la tabla es el dfs/A usado en la prueba de

    ANOVA. FWE es el tipo de error deseado. sta es la prueba que generalmente

    se suele recomendar, porque los estudios demuestran que tiene mayor energa

  • que las otras pruebas bajo la mayora de las circunstancias y de ella son

    fcilmente disponibles en paquetes de la computadora. La prueba de Tukey-

    Kramer es utilizada por SPSS cuando los tamaos del grupo son desiguales.

    Es importante observar que la ventaja de la energa de la prueba de Tukey

    depende de la asuncin que todas las comparaciones posibles en parejas se

    estn haciendo. Aunque esto es generalmente lo que se desea cuando se

    hacen las pruebas post hoc. En circunstancias donde no son necesarias todas

    las comparaciones posibles u otras pruebas, tales como el Dunnett o un

    mtodo modificado de Bonferroni deben ser consideradas porque pueden tener

    ms ventajas de la energa.

    Comprende una considerable variedad de distribuciones con

    caractersticas especiales en cuanto a asimetra y elongacin sobre todo para

    datos que provengan de distribuciones con formas diferentes a la distribucin

    normal. . Es uno de los medios de mayor aceptacin.

    MTODO DUNCAN Prueba del rango mltiple de Duncan. Mtodo de comparacin por

    pasos basado en la distribucin del rango estudentizado. Controla la tasa de

    error utilizando, para el conjunto de medias separadas r pasas, un nivel de

    significacin 1)1(1 = rc . Cuantos ms pasos existen entre dos medias, mayor es la diferencia mnima con la que vamos a considerar que esas medias

    difieren significativamente.

    Tiene un trmino medio de dificultad

    METODO DUNNET Es similar a la prueba de Tukey (descrita ms arriba) pero se utiliza

    solamente si un sistema de comparaciones se est haciendo a un grupo

    particular. Por ejemplo, puede ser que tengamos varios grupos del tratamiento

    que se comparen a un grupo de control.

    Compara cada grupo con un grupo control. Por tanto controla la tasa de

    error para k-1 comparaciones. Por defecto, se considera que la ltima

    categora del factor es la que define el grupo control, pero puede seleccionarse

  • la primera categora. Permite efectuar tanto contrastes bilaterales como

    unilaterales.

    Puesto que ste es raramente de inters, y el Tukey sirve mucho ms

    para fines generales, se recomienda la prueba de Tukey.

    MTODO DIFERENCIA MNIMA SIGNIFICATIVA (LSD) Mtodo de Fisher (LSD) para la diferencia mnima significativa. Basada

    en la distribucin t de Student. Este mtodo, inicialmente propuesto por Fisher

    (1935), no ejerce ningn control sobre la tasa de error. Es decir, cada

    comparacin se lleva a cabo utilizando el nivel de significacin establecido,

    (generalmente 0,05), por lo que la tas de error para el conjunto de

    comparaciones puede llegar a 1-(1- )k, siendo el nivel de significacin y k el

    nmero de comparaciones llevadas a cabo. (Suele encontrarse en la literatura

    de estadstica con su acrnimo ingls: LSD =Least Significant Difference).

    La prueba de LSD es simplemente el anlisis razonado de una prueba

    realizada y significativa, la hiptesis nula es incorrecta. (Si la prueba mnibus

    no es significativa, no se hace ninguna prueba de post hoc.) El razonamiento

    se basa en la asuncin que si la hiptesis nula es incorrecta, segn lo indicado

    por una F-prueba mnibus significativa, el error de tipo I no sera realmente

    posible (o poco probable), porque ocurre solamente cuando la falta de

    informacin es verdadera. As pues, con una prueba mnibus, primero se

    defiende hacia fuera las diferencias del grupo que existen debido al error de

    muestreo, y reducir as la probabilidad de un de tipo I estar presente entre los

    medios. El Test de Fisher (LSD) se ha constatado que no es suficiente para

    controlar el error de Tipo I. No obstante, encuentran al Mtodo Fisher (LSD) a

    veces en la literatura.

    6. Y EN EXCEL? Hemos experimentado con levadura para una receta de panes dulces.

    Parece ser que la cantidad de azcar y la temperatura del agua afectan el

    tamao de los panes. Basndose en los siguientes datos, realizamos un

    anlisis de varianza para averiguar lo que es significativo de estas recetas.

    Escribimos esto en el Excel.

  • Levadura: Tamao de los panes dulces Agua Fra Agua Tibia Agua Caliente

    Poco Azcar 75 87 60 Azcar Normal 74 82 55 Mucho Azcar 70 79 53

    Lo seleccionamos, pinchamos Herramientas Anlisis de Datos

  • Una vez pinchado anlisis de datos, te aparece este cuadro; tendrs que

    pinchar en Anlisis de varianza de dos factores con una sola muestra por grupo. Y le das a Aceptar.

    Te aparecer este cuadro, donde tendrs que seleccionar el rango de

    datos al que va dirigido, en este caso ser el cuadro de datos que metimos

    anteriormente seleccionando incluso los textos.

    Para que los textos aparezcan, hay que pincha en rtulos y dnde

    pone rango de datos seleccionas desde qu punto de la hoja de clculo Excel

    quieres que te aparezcan, siempre por debajo de donde estn los datos de la

    tabla, que te aparezcan en otra diferente.

  • Cuando ya has seleccionado los correspondientes rangos de datos, le das a

    Aceptar y te saldrn los siguientes resultados:

  • El resultado en Excel (Anlisis de varianza) indica el valor estadstico de

    la "F." En este caso el valor de la "F" por las filas (cantidad de azcar) es 23.15.

    Para saber si estos resultados son significativos (o sea, si la probabilidad P

    tiene un valor menor a 0.05), el valor de la "F" observado necesita ser al menos

    6.94 (o sea, el valor crtico de la F). Entonces, como el valor de "F" observado

    es de 23.15 y es mucho mayor que el valor crtico de la F (6.94), estamos

    seguros que los resultados de nuestras pruebas son significativas. El valor de

    la "F" para las columnas (temperatura del agua) es igual a 378.53. Esto es

    tambin significativo, porque el valor de "F" crtico es solamente 6.94. En otras

    palabras, existe una relacin significativa en la cantidad de azcar, la

    temperatura del agua y el tamao de los panes dulces. La probabilidad muestra

    a qu nivel los resultados son estadsticamente significativos.

    7. BIBLIOGRAFA

    - Thomas M. Little, F. Jackson Hills: Mtodos estadsticos para la

    investigacin en la agricultura. 1991. Ed: Trillas.

    - Csar Prez. Econometra y anlisis estadstico multivariable con

    STATGRAPHICS tcnicas avanzadas. 1998. Ed: ra-ma.

    - http://www.puc.cl/agronomia/d_investigacion/Proyectos/ProyectosTitulos/pd

    f/CatalinaSaavedra.pdf

    - http://www.unne.edu.ar/Web/cyt/com2005/4-Veterinaria/V-029.pdf

    - http://www.colpos.mx/agrocien/Bimestral/2001/ene-feb/art-7.pdf

    - http://mipagina.cantv.net/ssinha/cmtukey.htm

    - http://www.emis.de/journals/RCE/V24/V24_1_33Torres.pdf

    - http://www.serbi.luz.edu.ve/scielo.php?script=sci_arttext&pid=S0798-22592005010000012&lng=es&nrm=is.

    - http://books.google.com/books?id=aT21YbVLghwC&pg=PA331&lpg=PA331&dq=analisis+de+varianza+para+dos+factores&source=web&ots=TlHP6idx4

    1&sig=YX1t8GnrtmwBKTSe70STJ5vNk-s#PPA331,M1

    - http://www.uv.es/aliaga/COMPMU93.htmln

    - http://www.ine.es/revistas/estaespa/164_4.pdf

    - http://www.seh-lelha.org/subgrupos.htm

    - http://moodle.uho.edu.cu/course/view.php?id=36

  • - http://www.fedem.org/revista/n17/estadistica.htm

    - http://www.personal.us.es/jlmoreno/Modelos%20Lineales%2003-04%20Relacion%204.pdf

    - http://bibcyt.ucla.edu.ve/cgi-win/be_alex.exe?Acceso=T070300010764/0&Nombrebd=BIBCYT

    - http://www.uam.es/personal_pdi/ciencias/cifus/biologia/metodos/Resumen.pdf

    - http://www2.uca.es/serv/ai/formacion/spss/Pantalla/15anova2.pdf

    - http://www.hrc.es/bioest/Anova_10.html

    - http://www.monografias.com/trabajos7/anva/anva.shtml

    - http://www.seh-lelha.org/anova.htm

    - http://www.laits.utexas.edu/orkelm/excel/EXCEL/ANOVA2ONE.HTM

    - http://e-stadistica.bio.ucm.es/mod_anova/anova7.html

    - http://html.rincondelvago.com/analisis-de-la-varianza_1.html

    - http://www.upa.pdx.edu/IOA/newsom/da1/ho_posthoc.doc

    - http://www2.uca.es/serv/ai/formacion/spss/Imprimir/14anova1.pdf