Error
Medir el error es otra de las formas de calcular la fiabilidad de un test. El primer supuesto de la TCT establece que la puntuación observada es igual a la puntuación verdadera más un error de medida.
De hecho, el error juega un papel fundamental en muchos métodos para calcular la fiabilidad. Por ejemplo:
- La fórmula para determinar el Indicador de Cambio Fiable (ICF) divide la diferencia entre las puntuaciones pre y post-test por el Error Estándar de la Diferencia (EED).
- La estimación por intervalos de la puntuación verdadera utiliza el Error Estándar de Medición (EEM).
El Error de Medida (E) es un paraguas que cubre todas las formas de error en un test. Dentro de este paraguas, se puede reflejar de distintas maneras, entre ellas:
- : Error de medición o Error de medida.
- o : Error Estándar de Medición o Error Estándar de Medida.
- : Error Estándar de la Diferencia.
A continuación, muestro las diferencias entre estos conceptos:
Término | Definición | Sinónimos | Uso principal |
---|---|---|---|
Error de medición () | La variabilidad no deseada que afecta una puntuación observada, haciendo que difiera de la puntuación verdadera. | Error de medida | Describe la variabilidad atribuible a factores no relacionados con la variable que se mide, aplicable en diversas mediciones. |
Error Estándar de Medición () | La cantidad esperada de variación en las puntuaciones observadas debido al error aleatorio en una sola medición. | Error estándar de medida, Error típico, | Estima la precisión de una única puntuación y sirve para construir intervalos de confianza. |
Error Estándar de la Diferencia () | La desviación estándar de las diferencias entre puntuaciones, especialmente en contextos de cambio (pre y post-test). | No tiene sinónimos | Evalúa la variabilidad esperada en las diferencias entre dos puntuaciones observadas. |
Error de medida (E)
El error de medida o error de medición se refiere a cualquier variación en las puntuaciones observadas que no representa el constructo real que se quiere medir. Es el concepto general que engloba todas las formas de error que se pueden introducir en el proceso de medición.
En la Teoría Clásica de los Test (TCT), se expresa en la fórmula fundamental de la TCT:
donde:
- : la puntuación observada,
- : la puntuación verdadera,
- : el error de medida.
El error de medida incluye cualquier fuente de variabilidad en las puntuaciones que no se debe a diferencias reales en el constructo medido (por ejemplo, errores debidos al cansancio, falta de concentración, variabilidad en la administración del test, etc.).
El Error de Medida (E) es un paraguas que cubre todas las formas de error en un test. Dentro de este paraguas, el EEM mide el error para una sola puntuación observada, mientras que el EED mide el error asociado a la comparación de dos puntuaciones observadas. Por tanto, EEM y EED son tipos de E, pero cada uno tiene aplicaciones específicas dentro del marco de la TCT.
Error Estándar de la Diferencia (EED)
Standard Error of the Difference (ESD)
El error estándar de la diferencia es una medida de la precisión de la diferencia entre dos mediciones.
Estima la variación aleatoria o el error de medida esperado entre dos puntuaciones obtenidas de la misma persona en la misma prueba, en dos momentos distintos. Esta medida toma en cuenta la fiabilidad del test y la desviación estándar de las puntuaciones para captar cuánto pueden variar las puntuaciones debido al error, más que a un cambio real en el constructo que se está midiendo.
El EED se calcula con la fórmula:
donde:
- es el coeficiente de fiabilidad del test (por ejemplo, el alfa de Cronbach).
- es la desviación estándar de las puntuaciones en la muestra de referencia.
Si bien la desviación estándar se representa comúnmente con la letra griega sigma (), y el coeficiente de fiabilidad con la letra griega rho (), en las pruebas de ICF se utilizan las letras romanas y porque se refieren a la muestra, no a la población.
El EED se usa en el cálculo del Indicador de Cambio Fiable (ICF) para determinar si el cambio en la puntuación entre dos mediciones es mayor que el error esperado.
Error Estándar de Medición (EEM)
Standard Error of Measurement (SEM)
El error estándar de medición, también llamado error estándar o error típico, es una estimación de la cantidad de error en una sola medición de un test, es decir, cuánto puede variar una puntuación observada respecto a la puntuación verdadera debido a la imprecisión inherente del test.
La fórmula del es:
donde:
- es la desviación estándar de las puntuaciones observadas en la población.
- es el coeficiente de fiabilidad del test.
El EEM se utiliza para interpretar la precisión de una sola puntuación en un test, proporcionando un margen de error esperado para esa puntuación. Un EEM bajo indica que el test tiene una alta precisión para medir la variable.
La fórmula general para el intervalo de confianza de la puntuación verdadera utiliza el Error Estándar de Medición en su cálculo.
Por el contrario, el Error Estándar de la Diferencia (EED) se aplica cuando se quieren comparar dos puntuaciones obtenidas en diferentes momentos para determinar si el cambio entre las dos es estadísticamente significativo. El EED toma en cuenta el error de medición en ambas puntuaciones y estima el error conjunto en la diferencia.