Medicina basada en evidencia

Embed Size (px)

DESCRIPTION

Evidencia

Citation preview

  • 1

    UNIDAD 6. ENTENDIENDO ESTADSTICAS EN LITERATURA CIENTFICA

    OBJETIVOS DE APRENDIZAJE

    Comprender e interpretar indicadores estadsticos en literatura cientfica para aplicar en la toma de decisiones.

    ACTIVIDAD DE APRENDIZAJE 1

    1. Lea el texto que se presenta a continuacin utilizando las tcnicas de lectura comprensiva, sistemtica y elabore un resumen o cuadro sinptico. 2. Identifique los indicadores estadsticos que se adjuntan en los resmenes y artculos cientficos proporcionados por el tutor. 3. Analice los indicadores de efectividad o eficacia de los artculos proporcionados utilizando el grfico de anlisis de direccin y fuerza del efecto y la significacin estadstica de los mismos.

    1. INTRODUCCION AL ANLISIS DE DATOS La interpretacin de los resultados de un artculo cientfico constituye uno de los mayores retos para las habilidades de anlisis crtico. Cada tabla o figura debera ser evaluada preguntndose Que pienso que significa realmente? La discrecin es la palabra clave: resultados grandes, excitantes o inesperados son extremadamente raros. En contraste, estudios defectuosos y hallazgos equivocados son mucho ms comunes. Los resultados deben ser abordados con cuidado para evaluar su significancia o confiabilidad y para observar posibles peligros en el anlisis. Esta unidad presenta las ideas fundamentales para interpretar resultados y evaluar si los resultados fueron adecuadamente procesados y analizados.

    2. CONCEPTOS BSICOS VARIABLE: Un proceso de la realidad que cambia o varia de sujeto a sujeto. Es una variacin a ser medida. VALOR: Son los elementos concretos de la variable. OPCION: Valor preciso de una variable. PARAMETRO: Valores de la poblacin. ESTIMADOR: Valores de la muestra. MUESTRA: Parte o subconjunto de la poblacin. POBLACION: Conjunto de unidades relevantes de la poblacin.

  • 2

    3. REVISIN DEL DISEO DEL ANLISIS Antes de revisar las tablas o grficos se debe primero leer el como el autor analiz los datos en la seccin metodologa. El diseo del anlisis debe considerar el diseo de la investigacin, por lo que es necesario revisar las hiptesis u objetivos del estudio y analizar si el anlisis corresponde a las mismas.

    Si la hiptesis u objetivo es descriptivo, se debe realizar anlisis univarial, pero si es explicativo o de asociacin se deber haber realizado anlisis bivarial o multivarial. En este segundo caso es importante reconocer como se clasificaron las variables de acuerdo a su ubicacin causal. Cul (es) es (son) dependientes y cules independientes y dentro de estas cul es la variable antecedente simple o causal directa, las intervinientes (cofactores y moderadoras o interaccin) y las perturbadoras, etc.

    Analice si el diseo planteado coincide con las tablas y grficos, considerando la exposicin, los efectos y los potenciales variables de confusin o perturbadoras y variables moderadoras.

    Observe como se definieron los subgrupos y categoras de cada una de las variables. Las forma de estructurar subgrupos se debe basar en los conocimientos que se tiene sobre el objeto de estudio, las hiptesis biolgicas de importancia y de la manera en que el estudio va a ser (o fue) conducido. Los estudios tienen mayor posibilidad de ser tiles si el anlisis toma en cuenta asociaciones y pruebas de hiptesis, basadas en la biologa ms que en la mecnica (o electrnica), comparando toda posible exposicin (variable independiente) con cada dao o efecto posible (variable dependiente).

    3.1. EVALUACIN DEL ANLISIS DE DATOS

    3.1.1. REGLAS PARA LEER EL ANLISIS DE DATOS

    Tres son las reglas ms importantes a seguir en la lectura del anlisis de datos: 1. El anlisis de datos debe ir desde lo simple a lo complejo, las tcnicas de anlisis sofisticadas no pueden reparar una informacin de mala calidad (mala representatividad, sesgo sistemtico, sesgos por falta de respuestas de los encuestados). Por ello es importante primero analizar la informacin ms simple.

    2. Evaluar la consistencia de la informacin. Evalu la presencia de valores imposibles, duplicados, datos extraos y el porcentaje de no respuesta (datos en blanco).

  • 3

    Tanto las tablas simples como la representacin grfica permiten observar los valores que difieren ostensiblemente del resto (valores extraos o fuera de rango) y los llamados valores imposibles.

    Los valores extraos y los fuera de rango son aquellos que es posible encontrar pero que no se esperaran encontrar, por ejemplo valores de hemoglobina menores de 5 o edad mayor de 80 aos.

    Los valores imposibles son aquellos cuya existencia no es factible. Por ejemplo, cuando se estudia la variable sexo se esperan solo dos cdigos: M para masculino y F para femenino y no otra letra como G o N. La importancia de estos valores extraos radica en que pueden alterar los resultados estadsticos (asociacin, significacin, estimacin) pudiendo modificar la interpretacin de los resultados.

    El evaluar si la informacin es correcta y limpia de errores es ms importante que proceder a analizar las pruebas estadsticas sofisticadas. Una elevada proporcin de datos en blanco (missing value) es una importante fuente de sesgo que con frecuencia es considerada al evaluar la validez de las investigaciones. Es necesario primero determinar el porcentaje de no respuestas, dentro de cada variable, y apreciar si esto afecta a los resultados; obviamente con las variables fundamentales de estudio no se debera aceptar un alto porcentaje de no respuestas.

    3. Evaluar el uso adecuado de las tcnicas estadsticas. Para cumplir este objetivo a continuacin se presentan los elementos necesarios para poder evaluar si el anlisis de datos se hizo o no adecuadamente.

    3.1.2. TIPOS DE ANLISIS DE DATOS

    El anlisis de informacin se puede clasificar de varias formas, las mismas que no son excluyentes:

    DDEESSCCRRIIPPTTIIVVOO EE IINNFFEERREENNCCIIAALL

    Descriptivo Es el anlisis de las caractersticas de las variables en la muestra y la explicacin de las relaciones entre variables en las muestras o en la poblacin (cuando se trabaja con censos). Con mucha frecuencia se diferencia descripcin de explicacin, pero en este caso el anlisis descriptivo abarca las dos actividades, la descripcin de las caractersticas de las variables y la explicacin de sus relaciones.

  • 4

    Inferencial

    Este anlisis se refiere a como pasar de los hallazgos de la muestra a sacar conclusiones en el universo. Incluye la estimacin y la significacin estadstica.

    UUNNIIVVAARRIIAALL YY MMUULLTTIIVVAARRIIAALL

    Univarial se refiere al anlisis de una sola variable, puede ser descriptiva o inferencial. Los objetivos del anlisis univarial son resumir y presentar la informacin de cada variable individual. Multivarial se refiere al estudio (descriptivo e inferencial) de dos o ms variables. En este texto se diferencia anlisis bivarial (dos variables) de multivarial (ms de dos variables), por las caractersticas y tcnicas particulares que estas dos modalidades presentan.

    AANNLLIISSIISS CCAAUUSSAALL,, FFAACCTTOORRIIAALL YY CCLLAASSIIFFIICCAATTOORRIIOO

    En los estudios epidemiolgicos y clnicos, corte transversal, casos testigos, cohortes y experimentales se estudia con ms frecuencia la relacin causa efecto de dos o ms variables. Este tipo de estudios necesitan un anlisis causal bivarial o multivarial.

    4. EVALUACIN DE USO DE LAS TCNICAS DE ANLISIS BIVARIAL Despus de haber revisado la distribucin de las variables claves de inters, revise los cruces de variables. El conocimiento de las distribuciones simples y de los cruces de variables garantiza la comprobacin de hiptesis.

    Al igual que en el anlisis univarial, la eleccin del tipo y tcnicas de anlisis bivarial depende de los objetivos de la investigacin, del tipo de datos que se estudian y de la audiencia a la que va dirigida la investigacin. Adems de lo anterior, el uso de tcnicas especificas de anlisis bivarial depende de: el tipo de variables que se manejan (cuantitativas o cualitativas), su lugar en el estudio como variable independiente o dependiente y el tipo de distribucin que tienen (normal, sesgada, leptocrvica). Las tcnicas de anlisis pueden ser grficas o matemticas.

  • 5

    4.1. ANLISIS MATEMTICO

    Para el anlisis bivarial se debe realizar dos tipos de pruebas estadsticas:

    Medidas de asociacin o relacin, que son medidas descriptivas

    Medidas de anlisis inferencial.

    Existen cuatro alternativas de anlisis bivarial:

    1. Cuando las dos variables la independiente y dependiente son cualitativas

    2. Cuando de cruzan una variable independiente cuantitativa y la dependiente cualitativa

    3. Cuando de cruzan una variable independiente cualitativa y la dependiente cualitativa

    4. Cuando las dos variables con cuantitativas

    En los estudios epidemiolgicos y clnicos, cuando se relacionan dos variables con frecuencia se buscan relaciones causales. Para poder apreciar el grado de relacin que tienen dos variables entre si, las ms importantes y usuales medidas son las que se muestran en la siguiente tabla:

    Variable dependiente

    CUALITATIVA CUANTITATIVA

    Variable Independiente

    CUALITATIVA

    Coeficientes de asociacin

    Diferencias de medias o medianas.

    CUANTITATIVA Regresin logstica

    Regresin, Correlacin.

    4.1.1. COEFICIENTES DE ASOCIACIN

    El anlisis de la relacin de dos variables cualitativas se puede hacer mediante el clculo de porcentajes en un tabla o mediante los coeficientes de asociacin. Para el clculo de porcentajes en una tabla es necesario recordar algunas reglas bsicas para evaluar el anlisis bivarial (cruces) entre dos variables cualitativas:

    Identificar cual es la variable dependiente y cual la independiente. La variable independiente en el ejemplo siguiente es FUMA (filas) y la dependiente es CANCER DE PULMON (columnas).

    El clculo de porcentajes debe ser en el sentido de la variable independiente, en el ejemplo a continuacin en el sentido de las filas (tabaco) y el anlisis se hace comparando los resultados en el sentido contrario al calculado.

  • 6

    Ejemplo:

    FUMA

    CA. PULMON TOTAL

    SI NO

    No % No %

    Si 40 80 % 10 20 % 50 100%

    No 10 20 % 40 80 % 50 100%

    TOTAL 50 100 % 50 100 % 100 100%

    Se calcul los porcentajes en el sentido vertical (variable FUMAR) , pero para el anlisis se compara el porcentaje de hombres que fuman con el de mujeres que fuman. En este ejemplo, se puede decir que los que fuman tienen porcentaje ms alto (80%) que los que no fuman (20%). Los coeficientes de asociacin se clasifican en dos grupos

    1. Coeficientes de producto cruzado: Riesgo Relativo, Razn de Productos Cruzados, Diferencia de Riesgo.

    2. Coeficientes basados en Chi cuadrado: Pearson, Tschuprow, Cramer V En este curso se revisarn solamente los Coeficientes de Producto Cruzado.

    CCOOEEFFIICCIIEENNTTEESS DDEE PPRROODDUUCCTTOO CCRRUUZZAADDOO Estas medidas de asociacin evalan la magnitud de la fuerza o poder de la asociacin estadstica entre la exposicin y enfermedad estudiada. Para poder calcular estos coeficientes se debe articular adecuadamente una tabla de 2 x 2, el diseo debe ser el que se presenta en el ejemplo siguiente: H1 y V1 representa los totales horizontal y vertical en los cuales la enfermedad o la exposicin estn presentes. H2 y V2 son los totales en los cuales la exposicin o la enfermedad estn ausentes. N es el gran total producto de la suma de todas las celdas. Por ejemplo, se estudi un brote de gastroenteritis despus de una fiesta (que es el efecto). Se sospech del pollo frito, se quiere comprobar si fue este alimento el causante y por lo tanto esta es la exposicin. Enfermedad/ efecto

    + -

    Exposicin Si A 4 B 17 H1 21 R1=4/ 21 = 0.19

    No

    C 1 D 19 H2 20 R0= 1 / 20 = 0.05

    V1 5 V2 36 N 41 Rt= 5 / 41 = 0.12

    El primer paso es calcular: Tasas de ataque de la enfermedad para los que comieron pollo (expuestos) a la que se denominar Riesgo 1 (R1) y para los no expuestos Riesgo 0 (R0).

  • 7

    Con estos dos datos se pueden calcular las siguientes coeficientes:

    a. Diferencia de riesgo o Riesgo Atribuible (exceso de riesgo, riesgo

    atribuible) La diferencia de riesgos es simple, el riesgo de expuestos menos el riesgo del grupo de no expuestos.

    Diferencia de riesgos (DR) = R1-RO = a/H1 - c/HO

    DR = 0.19 - 0.05 = 0.14 = 14 %

    La diferencia de riesgos refleja el exceso de asociacin de riesgo de exposicin. Si no existira diferencia de enfermar entre expuestos y no expuestos el resultado ser 0. Mientras ms alejada este de 0, mayor ser la asociacin entre el factor de exposicin y el efecto.

    b. Riesgo Relativo o Razn de Tasas La razn de tasas es simple, el riesgo en el grupo de expuestos dividido para el grupo de no expuestos:

    Riesgo Relativo (RR) = R1 / R0 = (A/H1) / (C/H2) RR = 0.19 / 0.05 = 3.8

    Al igual que la diferencia de riesgo, la razn de tasas refleja tambin el exceso de riesgo en el grupo de expuestos comparado con el grupo (base o esperado) no expuesto; pero expresado como una razn. Cuando no existe diferencias de riesgo el resultado es 1 o cercano a uno. Mientras ms alejado este de 1 el resultado de RR, significa que hay mayor asociacin entre exposicin y enfermedad, Si el valor del RR es mayor a 1 se considera un factor de riesgo, si es menor de 1 es factor de proteccin.

    Un RR de 3.8 significa que los expuestos tienen 3.8 veces ms riesgo que los no expuestos que tienen 1 de riesgo. No es 3.8 veces ms. El RR se utiliza en estudios de Cohorte o en experimentales, porque permite calcular las tasas de incidencia de la enfermedad segn la exposicin.

    c. Razn de Productos Cruzados o Razn de Momios (ODDS RATIO)

  • 8

    Se puede calcular los riesgos de expuestos y no expuestos (R1, R0), no solamente con tasas, sino tambin con Razones y con estos resultados calcular la diferencia de riesgos y la razn de riesgos.

    Ejemplo:

    Enfermedad/ efecto + -

    Exposicin Si 4 17 21 R1=4/ 17 = 0.19

    No

    1 19 20 R0= 1 / 19 = 0.05

    5 36 OR = (a / b) / (c / d) = R1 / R0 = 0.23 / 0.05

    Esta ecuacin puede transformarse matemticamente en:

    OR = (a x d) / (c x b) = (4 x 19) / (1 / 17) = 4.5

    Esta ecuacin constituye una Razn de Productos Cruzados. La interpretacin es igual a la que se hace con el Riesgo Relativo. Como se puede apreciar la Razn de Momios o de Productos cruzados a ms de ser fcil de calcular, es una medida til de asociacin porque mide tambin la diferencia de riesgo de exposicin entre enfermos y no enfermos, lo que le hace til para estudios de Casos y Testigos, Corte Transversal y en cohortes de enfermedades raras, en las cuales las muestras son pequeas.

    d. Nmero Necesario a Tratar (NNT)

    4.1.2. DIFERENCIA DE MEDIAS

    El anlisis descriptivo bivarial de diferencia de medias o medianas es muy simple, se trata de cuantificar la diferencia entre las medias muestrales. En este caso la variable independiente es cualitativa y la dependiente cuantitativa. Ejemplo: Promedio de edad de personas por sexo Masculino 39.26 Femenino 32.93 DIFERENCIA +6.3

  • 9

    4.1.3. CORRELACION Y REGRESION

    CCoorrrreellaacciinn Es una prueba de asociacin que se utiliza cuando se quiere establecer la presencia o ausencia de una co-relacin o asociacin entre dos variables cuantitativas: una dependiente Y y la otra independiente X. Esta prueba permite ver el grado en que varan conjuntamente las dos variables, aunque el descubrir la existencia de una relacin no dice mucho del grado de asociacin o correlacin. Por ejemplo se dice que los gastos estn relacionados con el ingreso: gasto ms cuando gano ms, aunque no siempre sucede as, porque hay personas que teniendo un ingreso alto gastan poco. El peso y la talla estn asociados: mientras ms alto, ms peso, sin embargo algunas personas altas pesan poco y algunas pequeas pesan mucho. La CORRELACION vara respecto a su fuerza, estas variaciones se pueden apreciar por medio de un diagrama de dispersin. El diagrama de dispersin o dispersograma Es un grfico que permite ver la forma en que se distribuyen los puntajes de dos variables X y Y en toda la escala de los posibles valores de los puntajes. Este diagrama tiene como base un sistema de coordenadas, en el que la variable Y que es la variable dependiente se ubica en la lnea vertical y la variable X que es la independiente en la lnea horizontal. En el diagrama de dispersin se puede observar la fuerza de correlacin entre X y Y, la misma que aumenta a medida que los puntos se van juntando y van formando un lnea recta imaginaria por el centro del grfico. Ejemplo

    Direccin de la correlacin La direccin de la correlacin puede ser:

    Directa o positiva

    Negativa

    La correlacin es positiva cuando los puntajes en el diagrama de dispersin muestran una tendencia hacia arriba y hacia la derecha. Los puntajes altos de Y se asocian con los puntajes altos de X y los bajos de Y con las bajos de X. La correlacin es negativa cuando la tendencia de los puntajes en el diagrama es hacia abajo y hacia la derecha. A puntajes bajos de la variable X corresponden valores altos de la variable Y y a valores altos de X, los de Y son bajos. Es decir a un incremento de la una variable la otra decrece. Por ejemplo, cuando menos aos de estudio tienen los padres, mayor es el nmero de hijos que tienen.

  • 10

    Ejemplos:

    No correlacin cuando no hay ninguna relacin entre las variables X y Y, en este caso los valores de X y de Y se distribuyen indistintamente como una nube. Tanto la correlacin positiva como la negativa representan una relacin lineal en la que los valores en el diagrama van formando una lnea recta. Existen otros tipos de correlacin, as, la curvilnea, la cuadrtica, etc. En este curso se explica la correlacin lineal nicamente.

    El coeficiente de correlacin Se expresa con la letra r y es el valor que expresa numricamente tanto la direccin como la fuerza de la correlacin lineal. Indica la estrechez de la asociacin. Este valor va de -1 cuando la correlacin es negativa perfecta a +1 cuando es positiva perfecta y las variaciones son las siguientes: Correlacin negativa Correlacin positiva

    -1 -0.99 a -0.75 -0.74 a -0.50 -0.49 a - 0.10 0.00

    Correlacin negativa perfecta Correlacin negativa fuerte Correlacin negativa moderada Correlacin negativa dbil Ninguna correlacin

    +0.10 a 0.49 +0.50 a 0.74 +0.75 a 0.99 +1.00

    Correlacin positiva dbil Correlacin positiva moderada Correlacin positiva fuerte Correlacin positiva perfecta

    El signo que antecede al nmero indica la direccin de la correlacin. + si es positiva, - si es negativa. En cuanto al grado de asociacin, mientras ms se acerca a -1 o a +1, la fuerza de la correlacin es mayor.

  • 11

    El coeficiente de correlacin nunca debe ser mayor a 1

    RReeggrreessiinn lliinneeaall Es una prueba estadstica que permite estudiar cambios concomitantes entre las variables X (variable independiente) y Y (variable dependiente), por lo que permite predecir los valores de la variable Y a partir de los valores de la variable X. La regresin no indica causalidad, indica la variacin promedial de la variable Y en relacin a un cambio de la variable X.

  • 12

    Este coeficiente se expresa como B y mide el incremento promedial de Y por cada unidad de aumento de X. Por ejemplo, un B=1 significa que si X cambia en una unidad (1), Y cambia tambin en una unidad. Si el B=2, significa que si X cambia en una unidad (1), Y cambia tambin en dos (2) unidades.

    Lnea de regresin En la correlacin, en el diagrama de dispersin los valores se distribuyen de acuerdo a la fuerza de asociacin y a su direccin en una lnea imaginaria que se va formando en el centro. En la regresin, se identifica esta lnea como una lnea recta que se traza a travs del diagrama de dispersin. Ejemplo:

    CONSIDERACIONES IMPORTANTES

    Para evaluar si se utiliz adecuadamente la regresin lineal es importante tomar en cuenta los siguientes aspectos: 1. La correlacin es til solamente cuando se quiere ver una asociacin entre X y

    Y. 2. Las muestras deben ser extradas aleatoriamente de la poblacin y deben ser

    representativa de la misma. 3. Tanto la variable X como la Y deben tener la caracterstica de distribuirse

    normalmente en la poblacin. Por lo tanto la muestra no de tener menor de 30 casos.

    4. En caso que una o las dos distribuciones sean no normales o tengan menos de 30 observaciones se debe hacer una transformacin logartmica de datos para poder utilizar correlacin y regresin lineal.

    5. ANALISIS INFERENCIAL Hacer inferencia estadstica es pasar de los datos obtenidos en la muestra (estimador), a calcular valores en la poblacin de la que se obtuvo la muestra (parmetro) con un cierto grado de certeza. Existen dos tipos de pruebas de anlisis inferencial:

    1. Pruebas de significacin estadstica o estimacin de punto 2. Intervalos de confianza o estimacin de intervalo.

    En el pasado en los artculos cientficos se presentaban simplemente tablas y grficos con una descripcin y explicacin de los principales hallazgos. Actualmente se exige que se evalu la significacin estadstica de los hallazgos a

  • 13

    travs del uso de pruebas de significacin o intervalos de confianza. La necesidad de las pruebas de significacin y los intervalos de confianza cobraron importancia por la presencia del error de muestreo en los estudios.

    5.1. ERROR DE MUESTREO

    Como ya se explic en la unidad anterior, cualquiera que sea el procedimiento de seleccin de los individuos de un estudio, el tamao de la muestra y de las medidas estadsticas calculadas, siempre hay la probabilidad de que exista un error de muestreo que afecta los resultados. Los efectos del error de muestreo son ms evidentes cuando las muestras son ms pequeas. Supongamos que en el universo de una poblacin en estudio tienen el 50% de varones y el 50% de mujeres. Si se toma una muestra de diez nios, aunque nosotros esperaramos que cerca de la mitad podran ser mujeres, no deberamos sorprendernos si se encuentra siete mujeres y solamente tres nios varones. Si se toma una segunda muestra, el obtener cuatro mujeres y de seis varones, tampoco debera sorprendernos. El ejemplo anterior nos hace ver que debido al error de muestreo rara vez tendramos 50% mujeres y 50% varones en muestras pequeas. Los efectos del error del muestreo se presentan en cualquier circunstancia en la investigacin mdica. Supongamos que dos tratamientos se estn comparando en un estudio clnico controlado. Los pacientes han sido asignados aleatoriamente (por sorteo) en dos grupos. Aunque la asignacin aleatoria o randomizacin evita diferencias sistemticas (o debidas al azar) entre los dos grupos, no evita que existan diferencias por error de muestreo. Por ejemplo, podra suceder que en uno de los dos grupos de estudio existan mas pacientes enfermos graves, creando una diferencia aparente entre los tratamientos aunque en realidad no existan. En la prctica es poco usual que dos grupos de un estudio clnico controlado sean exactamente iguales, hay con frecuencia pequeos errores de muestreo entre ellos y es raro encontrar errores de muestreo grandes o diferencias entre los dos grupos. La importancia del error de muestreo radica en la magnitud con la cual este afecta los resultados observados. Algunas veces puede encontrarse un resultado interesante, pero este puede tratarse de un hallazgo casual estadstico. Afortunadamente los mtodos estadsticos inferenciales nos permiten probar si los resultados observados se deben o no se deben a un error de muestreo. Un concepto central en estos mtodos es el concepto de probabilidad.

    5.2. PROBABILIDAD

    La probabilidad de obtener un seis, al lanzar un dado es uno en seis; la probabilidad de ganarse un sorteo de navidad, con un solo guachito en el que se imprimieron 1000 boletos en uno en mil. La probabilidad es simplemente una forma de describir cmo un evento puede ocurrir probablemente.

  • 14

    Las probabilidades son a menudo expresadas en fracciones decimales donde 1 en 6 vendra a ser 0.167, resultado de dividir 1 para 6 y uno en mil sera igual a 0.001. Las probabilidades varan de entre 0.0 y 1.0, donde 0 significa que un evento nunca suceder y 1 significa que hay la total certeza que suceder. Se puede expresar tambin en porcentajes, en este caso sera 1.0 sera igual a 100%. La interpretacin de probabilidades es un poco difcil, cuando un evento tiene una pequea probabilidad por ejemplo 0.001, es poco probable que suceda, cuando una probabilidad es grande por ejemplo, 0.9 el evento es muy probablemente que suceda. Por ejemplo la probabilidad de que un adulto sano muera algn da es de 1.0 (100%), porque todos morirn algn da, en contraste la probabilidad de que un adulto muera maana podra se menor que 1 en 100.000, o 0.00001. Las probabilidades son un aspecto medular de la estadstica inferencial. Estos son expresados con frecuencia en trminos de valor de p o valor de probabilidad, en la cual la letra p significa probabilidad. Se pueden escribir como p = 0.0003, indicando que un evento tiene 3 en 1000 oportunidades de ocurrir, es algo que casi no ocurrir. Se puede escribir tambin como p < 001 o p < 005, donde el smbolo < significa menor que. El smbolo

  • 15

    planteando lo contrario a lo esperado a lo que se denomina Hiptesis Nula (H0) y el resultado que se espera que suceda se denomina Hiptesis Alternativa o de trabajo (Ha). Las pruebas estadsticas inferenciales indican la probabilidad (valor de p) de que los resultados obtenidos en la muestra se deban al error muestral. Cuando este valor es pequeo, ejemplo p

  • 16

    Si se acepta la Ht y esta decisin es correcta no existe error. El error tipo I o error alfa se comete cuando se rechaza una hiptesis nula siendo verdadera. La probabilidad de cometer este tipo de error slo puede presentarse cuando rechaza la hiptesis nula y vara de acuerdo al nivel de confianza que se imponga.

    Por el contrario, si se acepta la hiptesis nula (Ho) y sta es falsa se comete un error tipo II. A la probabilidad de cometer este error se le denomina Beta (B).

    ACEPTA Ho Ho Correcta No error Ho Falsa Error Tipo II (beta) ACEPTA Ht Ht Correcta No error Ht Falsa Error Tipo I (alfa)

    La probabilidad de cometer error alfa ser menor mientras haya ms rigor en el nivel de confianza; es decir mientras ms pequeo sea el valor de p. As, con un valor de p de 0.001 la probabilidad de cometer Error Tipo I, es 1 vez en 1000, en cambio con un valor de p de 0.049, tan cercano a 0.05 la probabilidad de cometer error Tipo I es mayor. El riesgo de cometer error beta o tipo II ser menor si el valor de p esta lo ms alejado posible del valor de referencia 0.05 o 0.01. Por ejemplo, con un valor de p de 0.1 la probabilidad de cometer un error Tipo II ser pequeo, en cambio con un valor de p de 0.51, tan cercano al valor de referencia (0.05) la probabilidad de cometer un error Tipo II ser grande. Cuando se observan en los artculos cientficos valores de p muy cercanos al valor de referencia (0.05 o 0.01) una de las explicaciones es que el tamao de la muestra es muy pequeo para demostrar la hiptesis. Por lo tanto, una forma de evaluar si el tamao de la muestra es suficiente para cumplir los objetivos o demostrar las hiptesis es analizar los valores exactos de p.

    5.5. EVALUACIN DEL TEST DE SIGNIFICACIN UTILIZADO

    Para evaluar si se ha escogido adecuadamente el test de significacin estadstica es importante conocer que esto depende de:

    1. El tipo de variables en estudio, si son cualitativas o cuantitativas. 2. El tipo de hiptesis u objetivos del estudio. Se dividen en dos tipos:

    Los que buscan asociaciones o relacin de dependencia/ independencia.

    Los que contrastan resultados entre dos o ms grupos o muestras. 3. El tipo de diseo: independiente o pareado.

  • 17

    4. Comportamiento de la variables, si es normal o no normal (sesgada, platicrvica o leptocrbica). Si las varianzas son diferentes entre los grupos o muestras que se comparan.

    ANALISIS POR TIPO DE VARIABLES EN ESTUDIO De forma muy esquemtica existen cuatro posibilidades:

    1. La dos variables (independiente y dependiente) son cuantitativas, 2. Las dos variables son cuantitativas 3. La variable dependiente es cualitativa y la independiente cuantitativa. 4. La variable dependiente es cuantitativa y la independiente es cualitativa

    A continuacin se expone un cuadro resumen de las pruebas de significacin mas usadas segn el tipo de variables. VARIABLE DEPENDIENTE

    CUALITATIVA CUANTITATIVA

    VARIABLE INDEPENDIENTE

    CUALITATIVA 2 grupos: Z o t para diferencia de proporciones.

    Ms de 2 grupos (tablas n x n) y tablas 2 x2 : Chi cuadrado

    2 grupos: Z o t para diferencia de promedios *

    Ms de 2 grupos : ANOVA.

    CUANTITA-TIVA

    Regresin logstica 2 Grupos: Correlacin y Regresin.

    Por el nmero de elementos que intervienen en la muestra se deben utilizar la prueba t cuando son menos 30 y la Z cuando son ms de 30.

    5.5.1. ANALISIS DE VARIABLES CUALITATIVA CON CUALITATIVA

    Las variables cualitativas nicamente pueden describirse como proporciones. Por ello, entre variables cualitativas nicamente podremos realizar estudios de asociacin o relacin entre dos variables variable independiente y una dependiente, nunca se realizar comparacin de medias. Si los datos son independientes, de entrada debe considerarse como test de eleccin la prueba Chi cuadrado. No obstante, como este test presenta una serie de limitaciones en ocasiones es preciso utilizar el test de exactitud de Fisher. En el caso de datos cualitativos apareados se utilizar el test de Mac Nemar.

  • 18

    CChhii CCuuaaddrraaddoo Se usa como prueba de significacin estadstica de las medidas de asociacin entre variables cualitativas o para probar diferencias entre dos proporciones. Las dos categoras deben ser mutuamente excluyentes e independientes. Existen tres variantes de Chi cuadrado:

    1. Chi cuadrado sin correccin, que se utilizan cuando los valores esperados en cada celda es mayor o igual a cinco.

    2. Mantel Haenszel, que se utiliza cuando existen variables perturbadoras 3. Correccin de yates, se utiliza cuando los valores esperados en cada celda

    son menores de cinco. Los valores esperados constituyen los valores tericos que tendra la distribucin si no existira diferencias entre las categoras de las variables estudiadas. Para esto se calculan los valores tericos o esperados de cada celda, multiplicando el total de la fila por el total de la columna en la que est la celda y luego se divide para el total de las observaciones. Con esto se consigue tener una cantidad que distribuye el total de la columna, tomando en cuenta el peso que tiene la fila correspondiente. Ejemplo:

    GRUPO SOCIAL

    OBSERVADOS Enfermos Sanos Total

    ESPERADOS Enfermos Sanos Total

    Expuestos 21 a 79 b 100 13 a 87 b 100

    No expuestos 5 c 95 d 100 13 c 87 d 100

    TOTAL 26 174 200 26 174 200

    Valores esperados:

    a = 26 x 100 / 200 = 13 b = 174 x 100/ 200 = 87 c = 26 x 100 / 200 = 13 d = 174 x 100 / 200 = 87

    Como puede verse en esperados, no hay diferencia de las tasas de incidencia entre expuestos y no expuestos. Paquetes estadsticos como Statcalc de EpiInfo 6.04 proveen los tres tipos de Chi Cuadrado, el investigador debe seleccionar cual es el ms conveniente para su anlisis. A continuacin se presentan estas tres alternativas. Valor Chi Valor p

    Chi sin correccin 11.32 0.00076 Mantel Haenszel 11.26 0.0079 Correccin yates 9.95 0.001611 Como en este ejemplo no hay valores esperados menores de cinco en cada celda, se debera usar Chi sin correccin.

  • 19

    Cuando se tiene tablas de contingencia de dos filas y mas de dos columnas (2 x n) o de ms de dos filas y columnas (r x c), se utiliza e Chi de Pearson.

    PPrruueebbaa ddee eexxaaccttiittuudd ddee FFiisshheerr Es considerada el estndar de oro de las pruebas estadsticas, pues provee un valor exacto de p mientras el Chi-Cuadrado provee un valor aproximado. Es la prueba a escoger cuando los nmeros en la tabla son pequeos (valores esperados menores de cinco en cada celda). Con esta frmula se calcula directamente el valor de p y no se necesita la tabla de Chi Cuadrado. Este test provee dos resultados: para una cola, como para dos colas. Para una cola se refiere cuando calcula la probabilidad en una sola direccin, es decir comparando la distribucin terica con una distribucin en la que se conoce por estudios o referencias la direccin de la asociacin. De dos colas se debe usar cuando se desconoce la direccin de la asociacin. Ejemplo si la Ht dice que el OR es mayor de 1 es de una cola, si la Ht dice que OR puede ser mayor o menor a 1 es de dos colas.

    CCoommppaarraacciioonn ddee pprrooppoorrcciioonneess

    CCoommppaarraacciinn ddee uunnaa pprrooppoorrcciinn ccoonn uunn eessttnnddaarr ccoonnoocciiddoo.. Para comparar la proporcin de personas (P) con ciertas caractersticas (enfermedad) con un valor estndar conocido, se utiliza un prueba de significacin de diferencias de proporciones, utilizando la tabla Z distribucin normal para muestras de mas de 30 observaciones para identificar el valor de p y la distribucin T para muestras de menos de 30 observaciones.

    CCoommppaarraacciinn ddee ddooss ppoorrcceennttaajjeess ddee ddooss mmuueessttrraass Para comparar diferencias de dos muestras con proporciones P1 y P2, se usa la prueba de significacin de diferencia de proporciones. Al igual que en la prueba anterior para identificar el valor de p se utiliza la tabla Z de distribucin normal para muestras de ms de 30 observaciones y la distribucin T para muestras de menos de 30 observaciones.

  • 20

    5.5.2. ANALISIS DE VARIABLES CUALITATIVAS CON CUANTITATIVAS O COMPARACION DE MEDIAS O MEDIANAS

    CCoommppaarraacciinn ddee uunnaa mmeeddiiaa ddee uunnaa mmuueessttrraa ccoonn uunn eessttnnddaarr ccoonnoocciiddoo En este caso se quiere probar si la media muestral tiene una diferencia significativa con un estndar conocido. Para muestras de ms de 30 observaciones se utilizar la distribucin Z. Para muestras pequeas de menos de 30 observaciones la frmula es la misma, pero por tener una distribucin de t, el resultado se busca en una tabla de distribucin T student con grados de libertad igual a n-1. El valor de p se obtiene mirando el valor calculado de z en la tabla de distribucin normal o en la tabla t.

    CCoommppaarraacciinn ddee mmeeddiiaass ddee ddooss mmuueessttrraass En este caso se quiere probar si una media muestral tiene una diferencia significativa con otra media muestral. Si las dos muestras tienen ms de 30 observaciones se utilizar la distribucin Z. Si una de las muestras o grupos o las dos tienen menos de 30 observaciones el valor de p se busca en una tabla de distribucin t student. El valor de p se obtiene de la tabla Z de la curva normal para muestras de mas de 30 observaciones y la distribucin t para muestras de menos de 30 observaciones.

    AAnnlliissiiss ddee vvaarriiaannzzaa Es un test de significacin Estadstica que se usa cuando se cruza una variable cualitativa con una cuantitativa y se quiere comprobar si las diferencias en los promedios de una variable que presenta ms de dos categoras o muestras se debe al azar o existe en el universo. Cuando se realiza comparaciones entre promedios de dos muestras se utiliza la prueba t o Z, pero cuando el nmero de comparaciones aumentan, es decir son 3, 4 o ms el procedimiento que puede utilizarse es hacer pruebas -t- por separado. Esto implica no slo gran cantidad de trabajo sino tambin una limitacin estadstica porque aumenta la probabilidad de cometer el error alpha, es decir, rechazar la Ho cuando es verdadera y debe ser aceptada, lo que implica obtener resultados estadsticamente significativos por error de muestreo ms que por una verdadera diferencia poblacional. Para superar este problema se utiliza la prueba ANALISIS DE VARIANZA (ANOVA). Esta prueba permite comparar 3, 4 o ms promedios de diferentes muestras. La prueba calcula la Razn F que indica la magnitud de la diferencia entre los grupos en relacin a la magnitud de la variacin dentro de cada grupo.

  • 21

    Mientras mayor sea la razn F, es decir mientras mayor sea la variacin entre los grupos en relacin con la variacin dentro de stos, menor ser el valor de p y por lo tanto mayor ser la probabilidad de rechazar la Ho y aceptar la Ha o de trabajo.

    5.5.3. REGRESION Y CORRELACION

    Para analizar si los resultados de los coeficientes de correlacin y regresin se deben al azar o son representativos del universo del que se obtuvo la muestra, se pueden usar los Intervalos de Confianza o las Prueba F de significacin para el coeficiente de correlacin r o para el coeficiente de regresin (Beta). La lgica de anlisis es la misma que antes. Para lo cual es necesario definir la Hiptesis Nula (Ho) y el Valor crtico de p.

    DDaattooss iinnddeeppeennddiieenntteess oo aappaarreeaaddooss Los datos apareados son aquellos que proceden de los mismos individuos en dos condiciones diferentes. En general, se denominan a las pruebas que incluyen datos apareados pruebas antes-despus. Por ejemplo en los estudios clnico controlados se hacen mediciones antes despus en los mismos individuos. Cuando los datos obtenidos proceden de diferentes individuos se denominan independientes, por ejemplo cuando se hacen encuestas transversales en la misma poblacin en dos ocasiones pero en dos muestras diferentes.

    DDiissttrriibbuucciinn nnoorrmmaall oo nnoo nnoorrmmaall Si las muestras se distribuyen normalmente es preciso realizar un test de homoscedasticidad, que de confirmar la similitud de varianzas, indicar el empleo de test paramtricos. Si, por el contrario las muestras no se distribuyen normalmente, se plantean dos opciones: emplear directamente test no paramtricos o realizar las transformaciones.

    Pruebas paramtricas Si nos interesa evaluar la relacin de independencia-dependencia entre dos variables emplearemos los estudios de correlacin. Si nos interesa comparar las medias de diferentes grupos, en el caso de dos muestras emplearemos la prueba de la T DE STUDENT, para datos pareados o independientes, y el ANALISIS DE VARIANZA en el caso de que existan tres o ms muestras. El anlisis de varianza puede poner de manifiesto que existen diferencias significativas entre los diferentes grupos; en este caso es til conocer entre qu grupos existen diferencias. Para esto se har la DSH de Turkey (Diferencia Significativa Honesta).

    Pruebas no paramtricas

  • 22

    Los estudios de correlacin no paramtricos ms utilizados son el COEFICIENTE DE CORRELACION DE SPEARMAN Y EL COEFICIENTE DE CORRELACION DE KENDALL. Ambos coeficientes tienen un significado equivalente al coeficiente de Pearson. La comparacin entre diferentes muestras con datos pareados se realiza empleando el TEST DE WILCOXON. Si las muestras son independientes existen varios test: algunos son sensibles nicamente a medidas de tendencia central (U de MANN-WHITNEY) mientras que otros (prueba de Kolmogorov-Smirnov para dos muestras o test de las rachas de Wald-Worfowitz) son sensibles a diferencias en distribucin, tendencial central, etc. Si existen ms de dos grupos, el equivalente al anlisis de varianza con un factor de variacin es el test de Kruskal-Wallis, mientras si existen dos factores de variacin el equivalente al anlisis de la varianza es el test de Friedman.

    Diferencias entre las pruebas paramtricas y no paramtricas

    PRUEBAS PARAMETRICAS PRUEBAS NO PARAMETRICAS

    Mayor potencia Precisa mayor nmero de individuos en la muestra Mayor rigor matemtico Solo datos cuantitativos Aplicacin ms compleja

    Ms conservadora Precisa muestras de menor nmero. Menor Rigor matemtico Datos Cuantitativos o cualitativos. Aplicacin ms sencilla

    VVaarriiaannzzaass ssiimmiillaarreess oo ddiiffeerreenntteess Para conocer si las muestras o grupos tienen varianzas similares y diferentes se debe realizar un test de homoscedasticidad (test de Hartley, test de Cochran y test de Bartllert) adecuado a las condiciones del estudio. As, en presencia de varias muestras de tamao similar debe considerarse cual es el nmero de grupos de estudio; si es inferior a doce suele emplearse el test de Hartley, mientras que si es superior est indicado el test de Cochran. Si el nmero de individuos de cada muestra es muy diferente debe utilizarse el test de Bartllet, prueba que requiere como condicin de aplicacin que la muestra se distribuya normalmente. Si las variables tienen varianza similares se utilizan test paramtricos, pero si son diferentes o heterogneas se deben utilizar test no paramtricos.

    NNmmeerroo ddee ggrruuppooss ddee eessttuuddiioo El test estadstico que debe utilizarse es diferente segn el nmero de grupos de estudio (dos grupos o ms de dos grupos). En esta ltima circunstancia, debido a la posibilidad de obtener diferentes significativas, al azar (postulado de Bonferroni), lo adecuado es realizar inicialmente un test que evale si existen diferencias significativas globales entre todos los grupos. En este caso, deber

  • 23

    realizarse a continuacin otras pruebas que intentan descubrir entre qu grupos existen diferencias?

    HHiipptteessiiss qquuee ssee eessttnn ccoonnttrraassttaannddoo Ya se seal previamente que las dos hiptesis principales a contrastar pueden ser las diferencias entre promedios de muestras y la relacin o asociacin entre dos variables cualitativas). Como se muestra en el cuadro

    PPooddeerr eessttaaddssttiiccoo oo ccaarrcctteerr ccoonnsseerrvvaaddoorr En algunos casos, se disponen de varias pruebas estadsticas diferentes para un mismo problema. La eleccin de una u otra prueba va a depender de varios factores, entre ellos el carcter conservador o el poder estadstico de la prueba. Un test ms conservador proporciona intervalos de confianza ms amplios y por lo tanto es menos probable que detecte diferencias significativas si estas no existen. Por el contrario, un test ms potente tiene ms capacidad para descubrir pequeas diferencias, pero tambin es posible que localice diferencias que no poseen un significado real.

    5.6. EVALUACIN DE LOS INTERVALOS DE CONFIANZA

    A los Intervalos de Confianza se les denomina tambin Pruebas de Estimacin y consiste en calcular un parmetro a partir de un estimador, o calcular el valor aproximado de una variable en el universo de estudio (Intervalos de Confianza) a partir de los resultados de la muestra. El propsito es que, a partir de los resultados de las muestras (estimador), realizar generalizaciones en el universo del que proceden (parmetro).

    Los Intervalos de Confianza (IC) proveen una va alternativa de evaluar los efectos del error muestral y tienen ms informacin que las pruebas de significacin. Efectivamente, los IC proveen un rango o intervalo en el cual puede estar el valor de la variable estudiada en la poblacin (universo). Este rango puede tener distintos niveles de certeza o probabilidad, en general en los estudios causales se usa un nivel de certeza o confianza de 95%. Supongamos que en un estudio clnico controlado de dos drogas anti-hipertensivas, muestran que el promedio de la presin diastlica en sangre en un grupo tiene una medicin de 95 mm. de mercurio, al mismo tiempo en el otro grupo tiene un promedio de solo 90 mm. de mercurio. La diferencia de promedios de 10 mm. parece bastante grande pero hay que recordar que este valor es el encontrado en las muestras y que puede estar influenciado por el error muestral. En este estudio clnico controlado se obtiene un IC95% de 3 a 17, que significa que la diferencia de presin arterial en el universo podra ir de 3 como el valor mas

  • 24

    bajo a 17 como el valor ms alto, aunque podra ser cualquier valor dentro del rango (3, 4, 5, 6, 7, 8, .....16 o 17). Los IC se expresan como: IC 95% 3 < 10 < 17 Se puede decir entonces que un intervalo de 95% de nivel de confianza, nos da un rango en el cual nosotros tenemos 95% de certeza de que en este intervalo cae el valor real de la variable en estudio en el universo del que proviene la muestra. Tomando el ejemplo anterior se puede decir que en la muestra la diferencia de promedios de presin arterial diastlica es de 10 y que en el universo o poblacin de la que se tom la muestra puede ser de 3 a 17 con una certeza o probabilidad de acierto del 95%. Se pueden calcular Intervalos de Confianza para anlisis univarial o para anlisis bivarial:

    5.6.1. INTERVALOS DE CONFIANZA PARA ANLISIS UNIVARIAL

    Se pueden calcular IC para medias, proporciones o porcentajes y tasas.

    IINNTTEERRVVAALLOOSS DDEE CCOONNFFIIAANNZZAA PPAARRAA MMEEDDIIAASS Este IC provee lmites superior o inferior en los que puede fluctuar la media verdadera (media poblacional) a partir de valor de la media en la muestra, con un nivel de certeza de 95 %. Existen dos posibilidades de IC para medias:

    1. Intervalos de confianza de medias para muestras de mas de 100

    observaciones. El nivel de certeza de 95% corresponde a 1.96 desviaciones estndar. El valor de certeza correspondiente al puntaje Z, con el que se quiere trabajar se debe observar en la tabla Z. Para una certeza de 95 % que es la que se utiliza con ms frecuencia, corresponde a un valor de Z de 1.96.

    2. Intervalos de confianza de medias para muestras de menos de 100

    observaciones.

    Una distribucin de medias muestrales de tamao pequeo, no tiene una distribucin normal (Curva Z), sigue una curva de t de Student. Existe una curva diferente para cada tamao muestral, con grado de libertad igual a n-1. Por lo que, para obtener el valor del nivel de certeza del Intervalo de Confianza se debe usar la distribucin t. Este valor reemplaza al valor de Z de muestras grandes.

  • 25

    IINNTTEERRVVAALLOOSS DDEE CCOONNFFIIAANNZZAA PPAARRAA PPRROOPPOORRCCIIOONNEESS Existen tambin dos posibilidades de IC para proporciones, para muestras de ms de 100 observaciones que utiliza la Distribucin Z y para muestras de menos de 100 observaciones que utiliza la Distribucin t de student.

    IINNTTEERRVVAALLOOSS DDEE CCOONNFFIIAANNZZAA PPAARRAA TTAASSAASS DDEE PPRREEVVAALLEENNCCIIAA EE IINNCCIIDDEENNCCIIAA Las frmulas para calcular intervalos de confianza de tasas son diferentes para Prevalencia que para Incidencia y dentro de estas para Tasas de Incidencia Acumulada y Residual.

    5.6.2. INTERVALOS DE CONFIANZA PARA ANLISIS BIVARIAL

    Se pueden calcular Intervalos de Confianza para los siguientes casos:

    1. Las medidas de asociacin: Riesgo Relativo (RR), Razn de Productos Cruzados (OR) y Riesgo Atribuible (RA).

    2. De la diferencia de promedios o proporciones de dos muestras 3. Del Coeficiente de Correlacin y del Coeficiente de Regresin (B)

    LLOOSS IINNTTEERRVVAALLOOSS DDEE CCOONNFFIIAANNZZAA CCOOMMOO PPRRUUEEBBAASS DDEE SSIIGGNNIIFFIICCAACCIINN Los Intervalos de Confianza pueden tambin ser usados como pruebas de significacin estadstica. El primer paso para hacer esto es plantearse la Ho y la Ht. En el ejemplo anterior la Ho planteara que el valor real de la diferencia entre los tratamientos podra tener un valor cercano o igual a cero (0) en la poblacin de la que se obtuvo la muestra, es decir que no hay diferencias. La Ha o Ht planteara que la diferencia de promedios es diferente de 0. Si existe un valor igual a 0 dentro del intervalo aceptamos la Ho y rechazamos la alternativa. En el ejemplo anterior donde el IC 95% es igual a 3 < 10 < 17. El 0 (cero) cae fuera de este intervalo por lo tanto concluimos que es muy probable que este sea un valor real. Esto es equivalente a tener un valor de p menor de 0.05 y por lo tanto es estadsticamente significativo. Otro aspecto interesante a analizar es la amplitud del intervalo, ya que a amplitudes mayores significa que el tamao de la muestra fue pequeo y por lo tanto hay una probabilidad mayor de cometer errores. Si el rango o amplitud es pequeo, ejemplo IC95% 3 < 10 < 17, no es lo mismo que un rango o amplitud de 2 < 10 < 24. En este ltimo caso la interpretacin es diferente, porque el lmite inferior est ms cercano a cero y la amplitud es mayor, lo que nos da una mayor

  • 26

    probabilidad de cometer un Error Tipo II y por lo tanto que la evidencia no es suficiente para decir que hay diferencia entre los tratamientos. En otro ejemplo, en un IC95% de 0 < 10 < 17, el cero (0) est dentro del intervalo, por lo que aceptamos la Ho y rechazamos la Ha. De igual manera si se tiene el un IC95% de 0.7 < 10 < 17, y rechazamos la Ho la posibilidad de cometer un Error Tipo I es alta. En resumen en este ejemplo, si el valor 0 de la diferencia de promedios cae entre el intervalo de confianza se concluye que no hay efecto, si cae fuera del rango nosotros concluimos que la no presencia de efecto es improbable, esto es equivalente a decir que los resultados fueron estadsticamente significativos Los intervalos de confianza son siempre interpretados de la misma manera, tanto si se trata de un estudio clnico controlado, un estudio de corte o cualquier otro tipo de estudio. En todos se prueba la hiptesis de que no hay diferencia entre los dos grupos. La formulacin de las hiptesis cambiar segn el tipo de estimador que se utilice. Por ejemplo si se utiliza el Riesgo Relativo o la Razn de Momios para un estudio de un factor las hiptesis diran:

    Ho 1 HT > 1

    Con un RR de 3, se tiene un IC95% de 2 < 3 < 5. En este caso el valor uno (1), no est en el intervalo, por lo que rechazamos la hiptesis nula y aceptamos la alternativa. La ventaja de los intervalos de confianza es que estos hacen mucho ms que solo indicar si el resultado puede ser por un error muestral, muestran y permiten evaluar la magnitud del error muestral, cuan pequeo o cuan grande el tamao real del efecto puede ser. El valor de p y los intervalos de confianza proveen un gua til para la interpretacin de resultados cuando el anlisis estadstico ha sido realizado correctamente, pero el reto es identificar cuando el anlisis es errneo. Con los detalles que se presentan en los artculos cientficos es difcil decir si hay errores en el anlisis. Todos los test de anlisis hacen algunas presunciones acerca de los datos, pero en la medida que no hay acceso a los datos crudos no es posible probar si existen o no en la realidad. De cualquier manera hay algunos aspectos que pueden servir para identificar posibles errores. Cuando los datos son presentados en tablas y figuras hay la posibilidad de identificar valores fuera de rango. Un valor fuera de rango es usualmente un valor muy alto o un valor muy bajo. Por ejemplo muchos de los valores para la presin diastlica sangunea de adultos en la poblacin general puede esperarse que caiga entre 46,5 a 90mm. Hg, valores menores de 40 o

  • 27

    mayores 250 pueden ser denominados fuera de rango. Estos pueden ser datos correctos o pueden ser producto de errores de recoleccin. La presencia de aunque sea un poco de observaciones que caen fuera del conjunto de datos puede distorsionar los resultados porque tienen una gran influencia sobre el promedio. En trminos estadsticos valores un poco distantes pueden hacer un pull en contra del conjunto de datos creando un efecto equivocado. No hay una regla general para tratar con los datos fuera de rango, pero si estn presentes se deberan tomar algunas medidas para investigar sus efectos, ignorarlos pone en duda el conjunto del anlisis, por esta razn en los artculos cientficos se deben describir como los valores fuera de rango fueron manejados.

    LLAA NNOO IINNDDEEPPEENNDDEENNCCIIAA Una presuncin comn en los test estadsticos es que todas las observaciones son independientes. Por ejemplo, si en una encuesta se midi el peso en una muestra de nios escolares, se asume que el valor del peso de un nio no tiene efecto en el peso del siguiente nio. Sin embargo si un nio es pesado mas de una vez, como en los estudios clnicos controlados en los cuales hay pre-evaluaciones y post-evaluaciones de los mismos sujetos de estudio, no existe independencia entre mediciones. Hay test estadsticos y mtodos estadsticos especiales, como los mtodos de medidas repetidas, los cuales pueden resolver este problema, pero muchos de los test estadsticos no lo hacen. Si en algunos estudios algunos individuos son medidos varias veces para tratar de mejorar el tamao de la muestra, esto es vlido solo cuando los mtodos estadsticos pueden corregir la no independencia de los datos.

    HHAALLLLAAZZGGOOSS CCAASSUUAALLEESS EENNMMAASSCCAARRAADDOOSS CCOOMMOO HHIIPPTTEESSIISS Muchos, sino la mayora de los estudios recolectan una larga cantidad de datos de los sujetos a ser estudiados o recogen datos de muchas variables, a pesar de que pueden haber sido diseados para probar unas pocas hiptesis especficas. Sin embargo, con mucha frecuencia se exploran de varias formas la relacin entre variables o los efectos, aunque estas no hayan sido formuladas en las hiptesis. Un ejemplo de esto ocurre cuando se analizan los datos sub dividiendoles por variables como edad, sexo o gravedad de la enfermedad. Estos procedimientos en investigacin son vlidos y puede ser una perdida, no explorar los datos enteramente, donde las cosas empiezan a equivocarse es cuando los resultados obtenidos por azar o por accidente son presentados como si fueran resultado de una hiptesis previamente formulada. Por ejemplo, en un estudio clnico de dos anti-hipertensivos los investigadores podran chequear si la misma magnitud del efecto se observ en los jvenes comparados con los viejos o los hombres comparados con las mujeres, sera legtimo reportar alguna diferencia encontrada entre estos grupos pero a menos que haya sido claramente especificado como un avance del anlisis, pero sera incorrecto presentarlo como el resultado de una hiptesis que el estudio quera probar. Hay muchas formas mediante las cuales los datos pueden subdividirse, por lo tanto por efecto del azar algunos resultados estadsticos pueden revelar interesantes efectos o asociaciones, los cuales

  • 28

    pueden ser probados en otros sub estudios. Hay que recordar que un simple test estadstico no puede ser usado para generar y probar hiptesis.

    CCAAJJAA NNEEGGRRAA AANNLLIISSIISS Aplicar Test estadsticos en forma apropiada mejora la credibilidad de los artculos cientficos, pero no se debe asumir que los ms sofisticados test dan ms autoridad a los hallazgos. En la actualidad los paquetes computacionales hacen muy fcil llevar a cabo anlisis complejos an cuando los usuarios no tengan un completo entendimiento de mtodos que han sido usados. Con anlisis ms complejos se tienden a ser mayores presunciones a cerca de los datos que estn siendo analizados y es tambin muy fcil cometer errores durante el anlisis. Los artculos que presentan solamente los resultados de algunos anlisis complejos pueden ser vistos con sospecha, ya que esto hace ms difcil la identificacin de problemas con los datos como por ejemplo los sesgos, o asimetra de las curvas y los valores fuera de rango. Es mejor si los resultados de anlisis ms simples son presentados primero, entonces estos pueden ser chequeados para ver si estn de acuerdo con los ms complejos, si existen discrepancias. Las discrepancias deberan ser explicadas en el texto del artculo, discrepancias no explicadas pueden poner dudas en la propiedad de los anlisis. Los sesgos de la investigacin significan que los resultados que nosotros alcanzamos son sistemticamente diferentes de lo que realmente son. Los sesgos pueden ocurrir en una variedad de asuntos pero sus efectos son siempre los mismos, los resultados observados son equivocaciones y las conclusiones son errneas. Los sesgos pueden presentarse cuando en el estudio los sujetos fueron seleccionados; aun cuando los estudios han sido llevados cuidadosamente es posible que estos incluyan diferencias con los datos de la poblacin general de la cual se obtuvo la muestra, algunos podran haber sido incluidos porque eran enfermos ms severos o viceversa.

  • 29

    7. ANALISIS DE EFICACIA DE INTERVENCIONES SANITARIAS

    7.1. ANALISIS DE RIESGO RELATIVO O RAZON DE MOMIOS

    Para analizar la eficacia o efectividad de una intervencin comparada con otra, con un placebo o con ninguna intervencin se deben utilizar tres parmetros cuando las dos variables (independiente y dependiente) son cualitativas :

    1. Direccin del efecto 2. Fuerza o poder del efecto 3. Significacin Estadstica o Confiabilidad

    DDiirreecccciinn Para el anlisis de la direccin y fuerza o potencia del riesgo o efectividad de una intervencin la medida ms utilizada es el Riesgo Relativo (RR) u OR. Esta medida se analiza de la siguiente manera: Valor del RR o OR Interpretacin

    1 Igual nivel de efecto entre Grupo de Intervencin y Grupo de Comparacin.

    Mayor de 1 Mayor efecto para el Grupo de Comparacin. Mientras ms alejado de 1 el efecto es mas fuerte o con mayor poder. Por ejemplo de 1 a 1,4 el efecto es dbil, de 1,5 a 1,9 es moderado, de 2,0 a 3,4 es fuerte y ms de 3,5 es muy alto.

    Menor de 1 Menor efecto para el Grupo de Intervencin. Para entender la potencia de los valores menores de 1 hay que hacer una comparacin en espejo. As 1,5 = 0,66; 2 = 0,5; 3 = 0,33; 4 = 0,25; 5 = 0,20, etc.

    FFuueerrzzaa oo ppooddeerr Mientras ms alejado de 1 este el valor la potencia o fuerza de asociacin o riesgo es mayor. En la siguiente tabla se presentan valores de referencia para realizar este anlisis:

    MAYOR EFECTO MENOR EFECTO

    RR u OR FUERZA RR u OR FUERZA

    1,1 a 1,4 Dbil 0,65 a 0,9 Dbil

    1,5 a 1,9 Moderado 0,66 a 0,4 Moderado

    2,0 a 3.4 Fuerte 0,5 a 0,29 Fuerte

    3,5 y ms Muy Fuerte 0,28 y menos Muy Fuerte

  • 30

    Por ejemplo un RR de 1,1 a 1,5 es un riesgo dbil, 1,5 a 2 moderado, de 2,1 a 3,5 es fuerte y 3,6 y mas es muy fuerte. Para facilitar el anlisis de la direccin y potencia del riesgo se utiliza un grfico que se presenta a continuacin y que es la que forma como se presentan los resultados de efectividad de una intervencin en las revisiones sistemticas.

    SSiiggnniiffiiccaacciinn EEssttaaddssttiiccaa oo CCoonnffiiaabbiilliiddaadd Para analizar la capacidad de extrapolacin de la muestra al universo del estudio se dibujan los intervalos de confianza (IC95%) en el grfico que se presenta al final de la gua de esta unidad. Si el intervalo es cruzado por la lnea del valor 1 se interpreta que este resultado no es confiable o no es estadsticamente significativo y no puede ser extrapolado al universo o poblacin del estudio y tampoco al caso o duda que quiero resolver. Menor Efecto Igual Efecto Mayor efecto