23
UNIVERSIDAD YACAMBÚ VICERRECTORADO DE INVESTIGACION Y POSTGRADO INSTITUTO DE INVESTIGACIÓN Y POSTGRADO MAESTRÍA EN GERENCIA DE LAS FINANZAS Y DE LOS NEGOCIOS CÁTEDRA: DISEÑOS CUANTITATIVOS DE LA INVESTIGACIÓN Validez y Confiabilidad Autoras: Lcda. Anibeth Linares V. C.I: V-11.324.725 Lcda. Rosa Segovia C.I: V-12.906.512 Marzo, 2014

Validez y confiabilidad

Embed Size (px)

Citation preview

UNIVERSIDAD YACAMBÚVICERRECTORADO DE INVESTIGACION Y POSTGRADO

INSTITUTO DE INVESTIGACIÓN Y POSTGRADOMAESTRÍA EN GERENCIA DE LAS FINANZAS

Y DE LOS NEGOCIOSCÁTEDRA: DISEÑOS CUANTITATIVOS DE LA INVESTIGACIÓN

Validez y Confiabilidad

Autoras: Lcda. Anibeth Linares V.

C.I: V-11.324.725Lcda. Rosa Segovia

C.I: V-12.906.512

Marzo, 2014

CONTENIDO:2. Presentación. Validez y confiabilidad de los instrumentos de recolección de datos2.1. Medición: ¿en qué consiste? 2.2. Validez. Definición.  2.2.1. Validez de Contenido.2.2.2. Validez de Criterio.2.2.3. Validez de Constructo2.3 Confiabilidad. Definición.2.3.1 Test-retest.2.3.2 Formas paralelas2.3.3. Split-halves.2.3.4. Coeficiente Alfa de Cronbach.2.3.5. Coeficiente KR-20.

Validez y Confiabilidad de los Instrumentos De recolección de Datos

El proceso de construcción de un instrumento de recolección de datos es una tarea que debe ser en extremo cuidadosa. Un proyecto de investigación puede estar muy bien estructurado desde el punto de vista de la precisión de sus objetivos y alcance, así como desde el punto de vista teórico. También puede estar bien confeccionado metodológicamente en términos de la delimitación del ámbito de la investigación, la precisión de las variables cuyo comportamiento se quiere conocer, la identificación de las fuentes más adecuadas, así como el o los instrumentos de recolección de datos a utilizar y las técnicas de análisis más adecuadas para procesar los datos y las informaciones a obtener. Sin embargo, un descuido en la construcción de estos últimos dispositivos puede llevar al traste de cualquier esfuerzo de investigación y echar por la borda una inversión cuantiosa de talento, tiempo, recursos económicos que por lo general no abundan.

El investigador debe garantizar que el o los instrumentos de recolección de datos cumplan con los requisitos de validez y confiabilidad.

Medición: ¿en qué consiste?

Medir ha sido una necesidad humana, sobre todo el mundo contemporáneo. La investigación científica no está ajena a parámetros de medición, tanto en las ciencias sociales, como las ciencias naturales. Medir es entonces la asignación de algún valor significativo, sea numérico o alfabético o de otro orden, a una serie de objetos, con la finalidad de operacionalizar variables.  Esta forma de medir, obliga al investigador a relacionar también conceptos y postulados teóricos con datos y hechos empíricos que ha ido observado y recolectando a lo largo del proceso de investigación. 

Son datos que efectivamente deben de tener correspondencia con los objetivos planteados.

Una medición es “confiable” si podemos esperar en forma razonable que los resultados de dicha medición sean sistemáticamente precisos. Esto requiere que el instrumento usado para realizar la medición (como por ejemplo una evaluación a estudiantes) sea confiable.   Una medición es “válida” si mide lo que en realidad trata de medir. Por ejemplo, una evaluación de matemática no es válida para medir el rendimiento de alfabetización de los estudiantes. Tampoco sería válida una evaluación sesgada.

El problema de la validez, podemos decir que, consiste en asegurarnos de que estamos midiendo lo que deseamos medir o, de acuerdo con nuestro ejemplo, que estamos evaluando a los estudiantes correctamente. El problema de la confiabilidad, en cambio, se resuelve utilizando un instrumento preciso.   Observemos que la confiabilidad es una condición necesaria, pero no suficiente para la validez. Podemos medir con precisión, pero si medimos el objeto incorrecto, la información obtenida no será válida para describir o explicar la población.  Para que un instrumento de medición pueda ser óptimo al momento de su aplicación, es necesario que cumpla los siguientes criterios: confiabilidad y validez.

Validez. Definición.

Un instrumento de recolección de datos es válido cuando mide lo que se pretenda mida.

La validez hace referencia a la posibilidad de eficacia del instrumento de edición al momento de utilizarlo y su pertinencia al aplicarlo al fenómeno, hecho o sujeto de estudio. 

Hernández, Fernández y Baptista, definen la validez en términos generales, “se refiere al grado en que un instrumento realmente mide la variable que pretende medir”, otros autores consideran que validar es determinar cualitativa y/o cuantitativamente un dato.  

Según Hernández S y otros (2000), señala que la validez se refiere al grado que un instrumento realmente mide la variable que pretende medir.

Validez de Contenido.

La validez de contenido, es el grado en que la medición representa al concepto medido, y es determinada antes de la aplicación del instrumento, mediante el juicio de expertos.

Supone determinar hasta dónde los ítems o reactivos de un instrumento de recolección de datos son representativos del contenido o universo del dominio o universo de contenido de la propiedad que se desea medir (Ruíz, 2002), es decir, que efectivamente midan lo que se pretenda medir.

El mecanismo comúnmente utilizado para garantizar este tipo de validez es el conocido como juicio de expertos o prueba de jueces. Es un procedimiento básicamente cualitativo aunque, es posible hacerlo con rasgos numérico. En un principio de base cualitativa porque a los expertos o jueces se les solicitará un juicio sobre la calidad de los ítems o reactivos del instrumento que se va a evaluar.

¿Quiénes son los jueces o expertos?

Sobre esto hay mucha polémica. La práctica en las universidades es considerar como juez a los profesores de metodología de la investigación por sus conocimientos en la materia de construcción de instrumentos. Esta apreciación si no incorrecta, por lo menos resulta inadecuada. Quizás sería conveniente que uno de los jueces sea un profesor de metodología, pero cuando se hace referencia a expertos, se hace alusión a conocedores de la temática que se pretende investigar. Son los que tienen argumentos teóricos suficientes para estimar las bondades de ítems o reactivos que pretender recoger información sobre un área que ha sido definida teóricamente.

Ruíz (2002), sugiere contactar a dos jueces o expertos para que juzguen de manera independiente el instrumento sometido a prueba. Los rasgos a evaluar deben ser: a) la congruencia ítems-rango o variable a medir; b) claridad en redacción y c) sesgo o tendenciosidad en la formulación de los ítems.

Congruencia ítems-rango

Cada ítems está colocado en el instrumento por una razón específica. Su presencia obedece al hecho que a través de él, el investigador recoge un determinado dato o información de interés para el logro de los objetivos planteados. El tipo de dato o información a recoger arroja, a su vez, información sobre las variables que se están investigando. Si el investigador ha operacionalizado las variables de su estudio, le será más fácil determinar el tipo información requerida, ya que estará reflejada en los indicadores. Entonces de lo que se trata es que los jueces puedan evaluar hasta qué punto el conjunto de ítems o reactivos que tiene el instrumento que se va a utilizar permite recoger información sobre los indicadores de las variables que se van a estudiar.

Claridad en la Redacción

Una redacción confusa puede alterar el sentido que se le quiere dar a los ítems. Se debe cuidar la redacción, a fin de evitar estas confusiones que pueden alterar los resultados y conducir al investigador a extraer conclusiones falsas. Se recomienda utilizar un lenguaje sencillo, claro y directo; además, cada ítem debe atender sólo a un asunto y no a varios, ya que al momento de analizar la respuesta el analista no sabrá a qué aspecto, de los varios que se preguntaron, se refiere.

Sesgo o tendenciosidad en la formulación de los ítems

Una redacción de ítem (en el caso de cuestionarios, por ejemplo) o una formulación de pregunta (en el caso de entrevistas), puede contener el vicio de la intencionalidad, es decir, puede en su contenido sugerir un tipo determinado de respuesta en el entrevistado. Para evitar este error, se sugiere el procedimiento que a continuación se expone.

Los jueces deben contar con una información mínima que les permita realizar la evaluación mínima de los ítems: el propósito del instrumento (que información pretende recoger), una versión del instrumento, la definición nominal o conceptual de las variables o rasgos en estudio y la operacionalización de las variables. Cada ítem, no debe surgir de la espontánea y libre inspiración del investigador, sino de un proceso previo de operacionalización de las variables en sus dimensiones e indicadores. Sobre éstos últimos el instrumento recolectará la información.

Validez de Criterio o Predictiva

La clave de este procedimiento de validación es escoger con acierto el mejor criterio para hacer comparaciones. Ello depende del grado de dominio teórico que se tenga de la variable o rasgo que se pretende estudiar.

Es importante, considerar, que si no hay claridad conceptual es muy fácil tomar criterios de comparación totalmente impertinentes. Por ejemplo, tomar como variable criterio el número de aprobados y aplazados para medir la validez predictiva de una prueba de rendimiento profesoral, sería altamente cuestionable, ya que son múltiples los factores que intervienen o influyen en el rendimiento de los estudiantes.

Validez de Constructo

La validez de constructo, es una variable medida que tiene lugar dentro de una teoría o esquema teórico. La validez de un constructo incluye tres etapas:Relación teórica entre los conceptos.Correlación de conceptos y análisis.Interpretación de la evidencia empírica de acuerdo con el nivel en que clarifica la validez de un constructo de una medición en particular.

Este tipo de validación busca establecer hasta qué punto un instrumento mide una variable que es producto de un constructo teórico complejo que intenta describir una realidad compleja. Es el caso, por ejemplo de variables como “actitudes hacia discriminación racial”, “satisfacción en el trabajo”, “clima organizacional”, que suponen cualidades hipotéticas que explican la conducta de los sujetos. Caso contrario sucedería con la medición de variables no complejas como “sexo”, “edad”, “nivel de instrucción”, cuya medición no amerita la construcción de un concepto complejo, ya que son datos directamente observables en la realidad.

Validez de Constructo

Este tipo supone como paso previo la conceptualización del rasgo o variable que se pretende medir. Estos conceptos deben ser construidos a partir de una teoría determinada que explique el fenómeno a estudiar. Sólo así se tendrá claridad de la manera como se manifiesta en la realidad el atributo que se pretende medir (Ruíz, 2002).

El cuadro de operacionalización de variables permitirá visualizar de manera organizada la complejidad de las variables que se van a estudiar si alguna de ellas supone la combinación de determinados indicadores en virtud de la conceptualización realizada, es necesario corroborar a través de una prueba empírica que tal conceptualización es válida, ya que expresa de manera precisa el comportamiento de la variable en la realidad. De allí, la expresión “Validez de constructo”. En última instancia, lo que se pretende a partir de este tipo de validez es confirmar en la práctica la capacidad explicativa del concepto que se ha construido. Es decir, si es reflejo del fenómeno que pretende describir.

Validez de Constructo

Para este tipo de validez se utilizan métodos de carácter estadístico.

Prueba de correlación.Otra de las pruebas para validar el constructo teórico de

un instrumento es la prueba correlacional. Consiste en correlacionar los valores obtenidos en la prueba piloto del instrumento que se diseñado, con medidas obtenidas en estudios similares con otros instrumentos que fueron construidos para medir las mismas variables. 

Otro procedimiento es correlacionar los valores obtenidos por el instrumento que se está validando con los obtenidos por otras variables cuyo comportamiento está directamente asociado a la variable en estudio y, por lo tanto, hipotéticamente predecible.

Confiabilidad. Definición.

La confiabilidad se refiere al grado en que su aplicación repetida al mismo sujeto u objeto produce iguales resultados.La confiabilidad es la capacidad de un ítem de desempeñar una función requerida, en condiciones establecidas durante un periodo de tiempo determinado. Es decir, que habremos logrado la confiabilidad requerida cuando el ítem hace lo que queremos que haga y en el momento que queremos que lo haga.

La confiabilidad se reseña al grado de precisión o exactitud en la medida, en el sentido de que si se aplica en forma repetida el instrumento de medición al mismo sujeto u objeto de estudio, debe de producir iguales resultados.  La confiabilidad de un instrumento de recolección de datos alude al hecho de que en las mismas condiciones el mismo instrumento debe arrojar similares resultados. De allí. El término de confiabilidad de la medida. Otros términos utilizados para referirse a lo mismo es el de estabilidad o predictibilidad del instrumento.

Importancia de la Confiabilidad. 

La importancia de garantizar la confiabilidad del instrumento viene dada por el hecho de que las interpretaciones sobre el comportamiento de los fenómenos estudiados se hacen sobre la base de la confianza que se tenga en los datos recolectados. Si no se ha demostrado la confiabilidad del instrumento, siempre habrá un margen de duda sobre la calidad de la interpretación que se haga a partir de los datos obtenidos. Si se toma en cuenta la inversión de todo tipo de recursos que supone el realizar una investigación, los investigadores serían más cuidadosos en la construcción de los dispositivos a utilizar en la recolección de los datos.

Test-retest.

El test-retest como medida de estabilidad de un instrumento consiste en que la misma prueba se aplica dos veces para verificar la confiabilidad de la misma. Los valores del test retest será de cero (0) a uno (1); los resultados no pueden ser negativos, refiriéndose a que si el test retest se aplica nuevamente hoy o dentro de un tiempo determinado, siga siendo válido y fiable, es decir, que se encuentre una relación entre lo que se obtiene hoy y lo que se obtiene mas adelante.

Es uno de los métodos más sencillo para determinar la confiabilidad de un instrumento. Consiste en la aplicación de un mismo instrumento a los sujetos en dos ocasiones y, posteriormente, se calcula la correlación entre las medidas obtenidas en las dos aplicaciones.

Formas Paralelas

Esta técnica, requieren que se utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma diferente, por ejemplo, dos tests que con diferentes preguntas midan un determinado rasgo. Después se comparan los dos tests, calculando el coeficiente de correlación de Pearson. Si la confiabilidad es alta, se considera que hay una buena fiabilidad. Al valor obtenido también se le conoce como coeficiente de equivalencia, en la medida en que supone un indicador del grado de equivalencia entre las dos formas paralelas de un test.

La dificultad de este procedimiento radica en conseguir que dos instrumentos sean realmente "paralelos", dada la dificultad que supone realizar dos pruebas que midan exactamente lo mismo, pero con diferentes ítems. No obstante, en condiciones ideales en las que se pueda garantizar el paralelismo de ambas formas, este es el método más recomendable.

Split-halves.

El método de Split-halves (Mitades Partidas) requiere solo una aplicación de la medición, específicamente el conjunto total de ítems, es dividido en dos mitades y las puntuaciones o resultados de ambas son comparados. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar fuertemente correlacionadas. Un individuo con baja puntuación en una mitad, tendera a tener también una baja puntuación en la otra mitad. El procedimiento se diagrama.

Los resultados obtenidos de la aplicación del instrumento se dividen en dos mitades comparativas; así, a cada sujeto le corresponde dos calificaciones después de una sola aplicación del instrumento. La confiabilidad se obtiene después de correlacionar esas dos calificaciones.

Una manera de resolver el problema de cómo dividir el instrumento es haciendo dos grupos con las calificaciones obtenidas de los ítems pares y nones. Se debe estar seguros que todas las categorías estén representadas en las dos partes para que se divida el instrumento

Se obtienen las puntuaciones de los ítems pares y de los ítems nones, luego ambas se correlacionan. Si ambas puntuaciones son altas se obtendrá un coeficiente de confiabilidad alto.

Coeficiente Alfa de Cronbach.

El método del coeficiente Alfa de Cronbach requiere una sola administración del instrumento de medición y produce valores que oscilan entre cero (0) y uno (1). Su ventaja reside en que no es necesario dividir en dos mitades a los ítems del instrumento de medición, simplemente se aplica la medición y se calcula el coeficiente.

Este método permite medir la consistencia interna del instrumento. Se utiliza en la construcción de escalas en las que no hay respuestas correctas o incorrectas, sino que cada entrevistado responde la alternativa que mejor representa su forma de pensar sobre el objeto que se le pregunta.

Coeficiente KR-20.

El método del coeficiente de Kurder y Richardson es utilizado para determinar o estimar la confiabilidad de una medición con una sola aplicación del instrumento. No requiere el diseño de pruebas paralelas. Es aplicable sólo en instrumentos con ítems dicotómicos que puedan ser codificados con cero (0) y uno (1), (correcto-incorrecto, presente-ausente, a favor- en contra, entre otras).

Bibliografía  Balestrine, Ana. (2002). “Cómo se Elabora el Proyecto de Investigación”. Caracas. BL Consutores Asociados. Servicio Editorial. Sexta Edición. Hernández, Sanpieri. (2006). “Metodología de la Investigación”. México. D.F. Mc Graw-Hill/Interamericana. Cuarta Edición. Ramírez, Tulio. (2010). “Cómo hacer un proyecto de Investigación”. Caracas. Editoria Panapo. Universidad Yacambú. (2014). “Recursos Digitales de la Asignatura Diseños Cuantitativos de Investigación” Aula Virtual. Sabino, Carlos. (1996). “El Proyecto de Investigación”. Buenos Aires. Ed. Lumen-Humanitas. Segunda Edición. Tamayo, Mario. (1998). “La Investigación Científica”. México. Ed. Limusa S.A. http://bibliocuba.es/wp-content/uploads/2013/08/SESION_6-Met-Inv.pdf