Aportaciones‎ > ‎

Teoría clásica de los tests

publicado a la‎(s)‎ 21 may. 2012 21:33 por Julio Vega

El enfoque clásico es el predominante en la construcción y análisis de los test según Muñiz (2010). Éste enfoque lo que busca es calcular la puntuación verdadera de un individuo a partir de considerar su puntuación verdadera y el error que inherentemente tiene cada test. Para esto se proponen una serie de análisis tanto de los ítems como de la prueba en general. A continuación nos adentraremos en la descripción del análisis de los ítems.

Análisis de los ítems a partir del modelo clásico

García-Canto (2005) menciona que de la misma forma en que los instrumentos musicales de una orquesta deben tocar en forma armoniosa para el conjunto interpreta la composición de un autor, los ítems de un instrumentos deben estar en armonía para conseguir que se mida lo pretendido con las intenciones del constructor del test. Esto se hace a partir del análisis de cada uno de los reactivos del test. Según la teoría clásica de los test, éste análisis conlleva examinar una serie de indicadores por cada ítem a fin de determinar su calidad, y así potenciar las propiedades de la prueba. Estos indicadores son los siguientes:

  1. Dificultad
  2. Discriminación
  3. Análisis de distractores
  4. Fiabilidad
  5. Validez
  6. Dimensionalidad

Dificultad de los ítems

Según García-Cueto (2005), un ítem es difícil o fácil “en función al número de personas que lo acierten o fallen (…) [en relación] al número de personas que intentan responderlo” (p. 54). Para este análisis basta con obtener un indicador que proporcione el índice de dificultad del ítem, el cual se obtiene de la siguiente fórmula:


Donde A es el número de personas que aciertan el ítem y N el número de personas que intentaron responderlo.

Otras formulas más complejas contemplan la probabilidad de acertar el ítem al azar. Por ejemplo, si se le pide a un estudiante que mencione el valor de e, la probabilidades de que acierte este ítem son bajas, pero si se le brindan, por ejemplo, dos opciones de respuesta la probabilidad de que acierte aumente hasta el 50%. De esta forma, es evidente de que existen infinidad de fórmulas para analizar la dificultad de un ítem, y que su uso dependerá de los objetivos del evaluador.

Discriminación de los ítems

Conocer cuales alumnos tiene un mejor aprendizaje que otros es una de los principales objetivos de las evaluaciones en el ámbito educativo, por consiguiente, el poder de discriminación de un ítem es importante para la calidad de un examen. El análisis de esta propiedad se analiza de la siguiente forma. Se dividen a los estudiantes con mejores puntuaciones y con las peores puntuaciones, y se espera que un ítem “bueno” sea respondido correctamente en su mayoría por aquellos estudiantes con un buen desempeño, y que aquellos que tuvieron un bajo desempeño fallen en mayor proporción el ítem. Esta formula se conoce como “Índice de discriminación basado en grupo extremos”, donde se toma el cuartil inferior y el cuartil superior como grupos extremos (García-Cueto, 2005). La fórmula para calcular este índice es el siguiente:

D= P+ - P-

Donde P+ es la proporción de acertantes al ítem del grupo superior, y P- es la proporción de acertantes del grupo inferior. Ambas proporciones se obtienen del número de personas que aciertan el ítem entre el número de personas que forman cada cuartil.

Para ayudar a interpretar las puntuaciones del índice de discriminación, Ebel (1965) propone las siguientes clasificaciones:

Valores

Interpretación

Igual o mayor que 0,40

El ítem discrimina muy bien

Entre 0,30 y 0,39

El ítem discrimina bien

Entre 0,20 y 0,29

El ítem discrimina poco

Entre 0,10 y 0,19

Ítem límite. Se debe mejorar

Menor de 0,10

El ítem carece de utilidad para discriminar.

 

Análisis de los distractores

García-Cueto (2005) define los distractores como “las distintas alternativas falsas o posibilidades de respuesta incorrectas que tiene un ítem” (p. 70). Idealmente, todos ellas deberían resultar igualmente atractivas de elegir por parte de los sustentantes para que de este forma sean distractores. Este análisis simplemente se basa en observar la cantidad de sujetos que elije cada alternativa. Una alternativa con pocas elecciones resulta en un distractor que paradójicamente no distrae. Algunas de las formas de analizar este indicador según García-Cueto (2005) es realizar una prueba de X2.

Dimensionalidad

Este indicador simplemente analiza la correlación que tienen los ítem entre si (con un análisis factorial) para conocer como se crean grupos entre ellos, bajo el supuesto de que los ítems que correlacionan unos con otros forman un grupo, y que correlacionan gracias a que miden un dimensión compartida (García-Cueto, 2005). Evidentemente, para este indicador también existen infinidad de formas para analizarlo, pero se mencionó únicamente la más utilizada, la cual es el análisis factorial.

Validez y confiabilidad

Estás formas de análisis de mencionan en los artículos correspondientes a la validez y la confiabilidad.

Referencias

Ebel, R. L. (1965). Measuring educational achievement. Englewood: Prentice-Hall.

García-Cueto, E. (2005). Análisis de los ítems: Enfoque clásico (pp. 53-79). En J. Muñiz, A. M. Fidalgo, E. García-Cueto, R. Martínez y R. Moreno. (2005). Análisis de los ítems. España: La Muralla.

Muñiz, J. (2010). Teoría de los tests: teoría clásica y teoría de respuesta a los ítems. Papeles de psicólogo, 31(1), 57-66.

Comments