Dos grupos
Lo que explico en esta sección es la comparación de medidas entre 2 grupos. Es la parte más fundamental y sencilla de entender sobre comparación de medias. Por eso lo explico primero.
Introducción
La comparación de medias es una técnica estadística fundamental que se utiliza no solo para evaluar si las medias de dos o más grupos son estadísticamente diferentes entre sí, sino también para analizar la varianza () asociada con estas diferencias. Es decir, comprobar si hay diferencias significativas entre medias como una forma de entender las variaciones dentro y entre los grupos.
Para ello, utilizo pruebas como la prueba de Student o la prueba de Wilcoxon, que me permiten no solo comparar las medias directamente, sino también considerar la dispersión de los datos que subyace a esas medias, lo que es esencial para determinar la significancia estadística de las diferencias observadas.
La elección de un tipo de prueba u otro depende de varios factores, como la presencia de varios grupos o si se cumplen algunos supuestos, como explica el siguiente diagrama:
Otra forma de verlo es:
Prueba paramétrica | Prueba no-paramétrica | |
---|---|---|
Muestras dependientes | Prueba de Student | Prueba de Wilcoxon |
Muestras independientes | Prueba de Student | Prueba de Mann-Whitney |
Pruebas paramétricas
La prueba paramétrica universalmente más utilizada es la prueba de Student, también conocida como prueba t o t-test. La prueba t de Student es un método estadístico utilizado para determinar si existe una diferencia significativa entre las medias de dos grupos.
Las pruebas paramétricas, como la prueba de Student, pueden ser utilizadas tanto para muestras dependientes como para muestras independientes, pero es necesario que se cumplan algunos supuestos; de lo contrario, debería usar pruebas no-paramétricas.
El resultado de una prueba de Student proporciona un valor que indica la probabilidad de que las diferencias observadas en las medias de las muestras se deban al azar, asumiendo que la hipótesis nula (que indica que no hay diferencia) es verdadera.
Si el valor es menor que el nivel de significancia establecido (por ejemplo, 0.05), entonces se considera que hay suficiente evidencia para rechazar la hipótesis nula y afirmar que existe una diferencia significativa entre los grupos.
La prueba de Student se puede utilizar en dos contextos:
- Prueba de Student para comparaciones intra-sujeto: cuando se comparan distintas medias de una misma muestra. Por ejemplo, si comparamos las medias del mismo grupo de personas antes y después de administrar un tratamiento.
- Prueba de Student para comparaciones inter-sujeto o inter-grupo: cuando se comparan medias dos muestras distintas, lo que implica que las medias de ambos grupos son independientes. Por ejemplo, si comparamos las medias de un grupo experimental y un grupo de control.
Fórmula de t de Student
En función de si las muestras son relacionadas o independientes, la fórmula del estadístico es distinta.
Para muestras dependientes
Cuando las muestras están relacionadas, la fórmula es:
Donde:
- es la media de las diferencias
- es el error estándar de la media de las diferencias
Otra forma de verlo sería:
Donde:
- es la media de las diferencias
- es la varianza de las diferencias
- es el tamaño de la muestra
En este caso, no necesito la variación no sistemática; se usa la media de las diferencias y la varianza de las diferencias.
Para muestras independientes
Cuando las muestras son independientes, la fórmula es:
Donde:
- : media del primer grupo
- : media del segundo grupo
- : varianza del primer grupo
- : varianza del segundo grupo
- : tamaño de la muestra del primer grupo
- : tamaño de la muestra del segundo grupo
En este caso, sí necesito calcular la variación no sistemática (varianzas individuales) para determinar el valor .
Comparación intra-grupo (muestras relacionadas)
Al comparar medias dependientes o relacionadas, en un mismo grupo, utilizo la prueba de Student. Concretamente, la fórmula para muestras relacionadas:
Para ello, hay que seguir los siguientes pasos:
1. Ordenar los datos
La casuística más típica de una prueba de Student para medias dependientes es cuando un mismo grupo de personas genera datos antes y después de una intervención. Por ejemplo:
🙋 | Pre-tratamiento | Post-tratamiento |
---|---|---|
1 | 57 | 55 |
2 | 55 | 54 |
3 | 57 | 56 |
4 | 65 | 64 |
5 | 78 | 76 |
6 | 55 | 54 |
2. Calcular la media de las diferencias
La media de las diferencias () se utiliza para evaluar el efecto de la intervención. Para calcularla, primero determino las diferencias entre las puntuaciones pre y post-tratamiento para cada sujeto. He creado una columna que contiene estas diferencias.
🙋 | Pre-tratamiento | Post-tratamiento | Diferencia () |
---|---|---|---|
1 | 57 | 55 | 2 |
2 | 55 | 54 | 1 |
3 | 57 | 56 | 1 |
4 | 65 | 64 | 1 |
5 | 78 | 76 | 2 |
6 | 55 | 54 | 1 |
Ahora que tengo la diferencia para todos los casos, calculo la media de las diferencias (), utilizando la fórmula de la media: .
En estadística, la media de una muestra se representa por . Sin embargo, la convención es utilizar la letra D para representar la media de las diferencias: .
3. Calcular la varianza de las diferencias
La varianza de las diferencias () se utiliza para medir la dispersión de las diferencias. Se calcula con la siguiente fórmula:
Para calcular esta variación, primero resto la media de las diferencias () de cada diferencia (), obteniendo:
🙋 | ||
---|---|---|
1 | 2 | 0.67 |
2 | 1 | -0.33 |
3 | 1 | -0.33 |
4 | 1 | -0.33 |
5 | 2 | 0.67 |
6 | 1 | -0.33 |
Luego calculo el cuadrado de estas diferencias para eliminar las valencias negativas:
🙋 | |||
---|---|---|---|
1 | 2 | 0.67 | 0.4489 |
2 | 1 | -0.33 | 0.1089 |
3 | 1 | -0.33 | 0.1089 |
4 | 1 | -0.33 | 0.1089 |
5 | 2 | 0.67 | 0.4489 |
6 | 1 | -0.33 | 0.1089 |
Ahora puedo aplicar la fórmula de la varianza de las diferencias:
4. Calcular el error estándar de la media de las diferencias (SEM)
SEM es el acrónimo de Standard Error of the Mean, que traducido al español significa Error Estándar de la Media.
El error estándar de la media de las diferencias (SEM) se calcula como:
5. Calcular el estadístico t
El valor de t se calcula utilizando la fórmula:
Conceptualmente, una buena forma de verlo es:
6. Determinar la significancia
Para determinar la significancia, contrasto si el valor de que he calculado es mayor que el valor crítico para estos datos. Para saber cuál es el valor crítico, consulto la Tabla de valores críticos de la distribución t de Student.
Se que, en nuestra investigación:
- Grados de libertad ()
- Nivel de significancia () =
Por eso, busco en la tabla el valor t crítico para y :
Conf. Level | 50% | 80% | 90% | 95% | 98% | 99% |
---|---|---|---|---|---|---|
One Tail | 0.250 | 0.100 | 0.050 | 0.025 | 0.010 | 0.005 |
Two Tail | 0.500 | 0.200 | 0.100 | 0.050 | 0.020 | 0.010 |
gl (grados de libertad) | ||||||
4 | 0.741 | 1.533 | 2.132 | 2.776 | 3.747 | 4.604 |
5 | 0.727 | 1.476 | 2.015 | 2.571 | 3.365 | 4.032 |
6 | 0.718 | 1.440 | 1.943 | 2.447 | 3.143 | 3.707 |
El valor crítico para estos datos es 2.015.
7. Interpretar el resultado
La forma de interpretar este valor es:
- Si , entonces la diferencia entre las medias de ambos grupos es estadísticamente significativa, y rechazo la hipótesis nula.
- Si , no tengo suficiente evidencia para rechazar la hipótesis nula.
Puedo ver que, en efecto, el valor es mayor que el :
Puesto que es mayor que , rechazamos la hipótesis nula y concluimos que hay una diferencia significativa entre las medias pre y post-tratamiento.
En resumen, un valor con un y 5 grados de libertad en una prueba de Student de dos colas a un nivel de significancia de 0.05 permite concluir que las diferencias observadas en las medias son estadísticamente significativas.
Cálculo con SPSS
Es muy habitual utilizar SPSS para realizar una prueba paramétrica como de Student para comparar medias dependientes (es decir: en un mismo grupo). Para ello, hay que seguir los siguientes pasos:
- Cargar los datos
- Abrir la barra de herramientas
Analizar
y desplegarComparar medias
. - Hacer click en la opción
Prueba T para muestras relacionadas
. - En la ventana que se ha abierto, añadir las variables al cuadro Variables emparejadas. En este proceso, por cada fila hay que añadir dos variables: precisamente las dos variables que estoy comparando. Lo más común es que sea una variable pre-intervención, y otra post-intevernción.
- Hacer click sobre
Aceptar
.
Esto crea una hoja con tres grupos de datos:
- Estadísticas de muestras emparejadas: contiene los estadísticos descriptivos de las dos variables, como la media, el tamaño de la muestra, la desviación, etc. Por lo tanto, contiene dos filas: una por cada variable.
- Correlaciones de muestras emparejadas: contiene los índices de correlación y significancia. Contiene una sola fila, porque se refiere a la relación entre ambas.
- Prueba de muestras emparejadas: contiene los resultados dla prueba de Student, entre otras cosas, como los grados de libertad, la significación, etc. Es decir: contiene los valores que hemos calculado manualmente en el ejemplo anterior, incluyendo la significancia. Contiene una sola fila, porque se refiere a la relación entre ambas. La significancia es la más importante, ya que comparamos si ese valor es menor que el nivel de confianza (). Si el nivel de confianza es menor que (que generalmente ) consideramos que hay significancia y puedo rechazar la hipótesis nula.
Pregunta
Es necesario que se cumpla el supuesto de homogenidad de varianzas (homocedasticidad) al comparar medias de muestras dependientes para que una prueba $t$ de Student sea válido.
Comparación inter-grupo (muestras independientes)
Al comparar medias independientes, entre dos grupos, también utilizo la prueba de Student, pero utilizo la fórmula de las muestras independientes:
Además, también la prueba de Levene para asegurar que se cumple el principio de homocedasticidad.
Recuerda que, en comparaciones inter-grupo, además de los supuestos de normalidad e independencia, también se debe cumplir el supuesto de homogeneidad de la varianza. Por eso, la prueba de Student de medias independientes incluye la prueba de Levene, que sirve precisamente para verificar el supuesto de homocedasticidad.
Cálculo con SPSS
Es muy habitual utilizar SPSS para realizar una prueba paramétrica como de Student para comparar medias independientes. Para ello, hay que seguir los siguientes pasos:
- Cargar los datos
- Abrir la barra de herramientas
Analizar
y desplegarComparar medias
. - Hacer click en la opción
Prueba T para muestras independientes
. - En la ventana que se ha abierto, añadir las variables al cuadro, que son
- Variables de prueba: las variables dependientes
- Variables de agrupación: la variable independiente.
- Hacer click sobre
Definir grupos
. En este cuadro, hay que asignar un valor numérico a cada grupo, generalmente 0 y 1. Es decir, el llamado "Grupo 1" tendría el valor 0, y el "Grupo 2" el valor 1. - Hacer click sobre
Aceptar
.
Esto crea una hoja con tres tablas:
- Estadísticas de grupo: contiene los descriptivos agrupados, como la media o la desviación.
- Prueba de Levene: contiene los resultados de la prueba de Levene, que permite comprobar si se sumple el supuesto de homogeneidad de la varianza. En concreto, muestra la significación de la prueba de Levene. Si , entonces sí se cumple el principio. De lo contrario, significa que no deberíamos estar aplicando una prueba de Student.
- Significancia: contiene los índices de que permiten interpretar la significación, como el valor t y la significación. La significancia es la más importante, ya que comparamos si ese valor es menor que el nivel de confianza (). Si el nivel de confianza es menor que (que generalmente ) consideramos que hay significancia y puedo rechazar la hipótesis nula.
En este cuadro vemos dos veces una columna llamada Sig
. Se debe a que una de ellas es la significancia que resulta de comparar las medias, y la otra es la significancia de la prueba de Levene, que hacemos para verificar que estoy haciendo bien en utilizar pruebas paramétricas.
Sin embargo, hay una cosa curiosa:
- Para determinar si hay una significancia al comparar las medias, y por tanto si puedo rechazar la hipótesis nula, lo que busco es que .
- Por el contrario, para verificar que se cumple el principio de homogeneidad de la varianza, lo que busco es que .
Esto tiene todo el sentido, porque en uno de los casos necesito que no haya una anomalía, y en el otro que sí la haya. Sin embargo, puede resultar confuso.
Pregunta
La interpretación del estadístico t y su valor p es distinta para la comparación de medias de muestras dependientes e independientes
Pruebas no-paramétricas
Si los supuestos para la prueba de Student no se cumplen, significa que no puedo hacer pruebas paramétricas. En ausencia dla prueba de Student, para comparar dos medias puedo usar otras pruebas no-paramétricas como el de Wilcoxon.
Comparación intragrupo (muestras relacionadas)
W de Wilcoxon
Cálculo con SPSS
Cuando comparo medias dependientes (es decir: en un mismo grupo) utilizando pruebas-no paramétricas como de Wilcoxon, puedo utilizar SPSS. Para ello, hay que seguir los siguientes pasos:
- Cargar los datos
- Abrir la barra de herramientas
Analizar
, desplegarPruebas no paramétricas
y desplegarCuadros de diálogo antiguos
. - Hacer click en la opción
2 muestras relacionadas
. - En la ventana que se ha abierto, añadir las variables al cuadro Variables emparejadas. En este proceso, por cada fila hay que añadir dos variables: precisamente las dos variables que estoy comparando. Lo más común es que sea una variable pre-intervención, y otra post-intevernción.
- En Tipo de prueba, asegura que está chequeado
Wilcoxon
. - Hacer click sobre
Aceptar
.
Esto crea una hoja con dos grupos de datos:
- Prueba de rangos con signo de Wilcoxon: muestra la cantidad de veces en los que el segundo ensayo fue mayor, menor o igual al primero.
- Estadísticos de prueba: contiene los índices de que permiten interpretar la significación, como el valor Z y la significación. La significancia es la más importante, ya que comparamos si ese valor es menor que el nivel de confianza (). Si el nivel de confianza es menor que (que generalmente ) consideramos que hay significancia y puedo rechazar la hipótesis nula.
Comparación intergrupo (muestras independientes)
U de Mann-Whitney
La prueba de Mann-Whitney es la prueba no-paramétrica para muestras independientes más utilizada.
Cálculo con SPSS
Cuando comparo medias independientes (es decir: entre dos grupos) utilizando pruebas-no paramétricas como de Mann-Whitney, puedo utilizar SPSS. Para ello, hay que seguir los siguientes pasos:
- Cargar los datos
- Abrir la barra de herramientas
Analizar
y desplegarPruebas no paramétricas
. - Hacer click en la opción
Muestras independientes
. - En la ventana que se ha abierto, asegura que está chequeado
Personalizar análisis
. - Abre la siguiente pestaña, llamada
Campos
- Añade tantas variables dependientes como quieras al cuadro Campos de prueba
- Añade la variable independiente en el cuadro Grupos.
- Abre la siguiente pestaña, llamada
Configuración
, y asegura que está chequeadoU de Mann-Whitney
. - Hacer click sobre
Ejecutar
.
Esto crea una tabla que, además de mostrar el valor de significación, explica también la decisión que debe tomar el investigador respecto a rechazar o aceptar la hipóesis nula.
Tamaño del efecto
El tamaño del efecto es una medida cuantitativa que indica la magnitud de la diferencia entre dos grupos o la fuerza de la relación entre dos variables. En el caso de la media, cuantifica la diferencia entre las medias de dos grupos, ya sean dependientes o independientes, y generalmente se mide mediante la prueba de Cohen.
El tamaño del efecto se usa para determinar si una diferencia estadísticamente significativa es también significativa en términos prácticos o clínicos. En otras palabras, mientras que la significancia estadística (como un valor p en una prueba de Student) puede decirnos si es probable que una diferencia o relación exista, el tamaño del efecto nos dice cuán grande es esa diferencia o relación.
El tamaño del efecto es un valor absoluto. Es decir, la magnitud del efecto es similar tenga signo negativo o positivo. solo que dicho signo indica qué grupo supera al otro.
Prueba d de Cohen
La prueba de Cohen es una medida específica del tamaño del efecto, utilizada comúnmente para comparar las diferencias entre las medias de dos grupos. Se calcula como la diferencia entre dos medias dividida por una estimación de la desviación estándar de las poblaciones (la desviación típica agrupada de los grupos). La prueba de Cohen ayuda a contextualizar la relevancia práctica de los resultados de un estudio, independientemente del tamaño de la muestra, que es una crítica común a la significancia estadística.
El estadístico resultante se clasifica en:
- Efecto muy bajo o trivial:
- Efecto bajo:
- Efecto medio:
- Efecto alto:
- Efecto muy alto:
Pregunta
Un tamaño del efecto de d = -1 se considera.
La fórmula para calcular la d de Cohen es:
Donde:
- es la media del primer grupo
- es la media del segundo grupo
- es la varianza del primer grupo
- es la varianza del segundo grupo
- es la desviación estándar agrupada ()
Calcular la d de Cohen
Para calcular la de Cohen, hay que seguir los siguientes pasos. Estos pasos consisten, sencillamente, en aplicar la fórmula de la de Cohen.
1. Obtener los datos
Primero disponemos los datos de manera que sea fácil hacer los cálculos.
🙋 | Grupo 1 | Grupo 2 |
---|---|---|
1 | 57 | 55 |
2 | 55 | 54 |
3 | 57 | 56 |
4 | 65 | 64 |
5 | 78 | 76 |
6 | 55 | 54 |
2. Calcular las medias
Después utilizo la fórmula de la media, que es , para calcular las medias de ambos grupos:
3. Calcular las varianzas
Después utilizo la fórmula de la varianza (), que es , para calcular las varianzas de ambos grupos:
Si quisiéramos saber desviación estándar, la fórmula para calcular la desviación estándar a partir de la varianza es muy sencilla. Si , sabríamos que la
4. Aplicar la fórmula
Finalmente, reemplazamos los valores para aplicar la fórmula de la de Cohen.
5. Interpretar el resultado
Ahora que se que la de Cohen es , comparamos eso con los valores de referencia y vemos que al ser menor que , se considera un efecto muy bajo o trivial.