Saltar al contenido principal

Dos grupos

Lo que explico en esta sección es la comparación de medidas entre 2 grupos. Es la parte más fundamental y sencilla de entender sobre comparación de medias. Por eso lo explico primero.

Contexto

Introducción

La comparación de medias es una técnica estadística fundamental que se utiliza no solo para evaluar si las medias de dos o más grupos son estadísticamente diferentes entre sí, sino también para analizar la varianza (si2s_i^2) asociada con estas diferencias. Es decir, comprobar si hay diferencias significativas entre medias como una forma de entender las variaciones dentro y entre los grupos.

Para ello, utilizo pruebas como la prueba tt de Student o la prueba WW de Wilcoxon, que me permiten no solo comparar las medias directamente, sino también considerar la dispersión de los datos que subyace a esas medias, lo que es esencial para determinar la significancia estadística de las diferencias observadas.

La elección de un tipo de prueba u otro depende de varios factores, como la presencia de varios grupos o si se cumplen algunos supuestos, como explica el siguiente diagrama:

Otra forma de verlo es:

Prueba paramétricaPrueba no-paramétrica
Muestras dependientesPrueba tt de StudentPrueba ww de Wilcoxon
Muestras independientesPrueba tt de StudentPrueba UU de Mann-Whitney

Pruebas paramétricas

La prueba paramétrica universalmente más utilizada es la prueba tt de Student, también conocida como prueba t o t-test. La prueba t de Student es un método estadístico utilizado para determinar si existe una diferencia significativa entre las medias de dos grupos.

Las pruebas paramétricas, como la prueba tt de Student, pueden ser utilizadas tanto para muestras dependientes como para muestras independientes, pero es necesario que se cumplan algunos supuestos; de lo contrario, debería usar pruebas no-paramétricas.

El resultado de una prueba tt de Student proporciona un valor pp que indica la probabilidad de que las diferencias observadas en las medias de las muestras se deban al azar, asumiendo que la hipótesis nula (que indica que no hay diferencia) es verdadera.

Si el valor pp es menor que el nivel de significancia establecido (por ejemplo, 0.05), entonces se considera que hay suficiente evidencia para rechazar la hipótesis nula y afirmar que existe una diferencia significativa entre los grupos.

La prueba tt de Student se puede utilizar en dos contextos:

  1. Prueba tt de Student para comparaciones intra-sujeto: cuando se comparan distintas medias de una misma muestra. Por ejemplo, si comparamos las medias del mismo grupo de personas antes y después de administrar un tratamiento.
  2. Prueba tt de Student para comparaciones inter-sujeto o inter-grupo: cuando se comparan medias dos muestras distintas, lo que implica que las medias de ambos grupos son independientes. Por ejemplo, si comparamos las medias de un grupo experimental y un grupo de control.

Fórmula de t de Student

En función de si las muestras son relacionadas o independientes, la fórmula del estadístico tt es distinta.

Para muestras dependientes

Cuando las muestras están relacionadas, la fórmula es:

t=DˉsDˉt = \frac{\bar{D}}{s_{\bar{D}}}

Donde:

  • Dˉ\bar{D} es la media de las diferencias
  • sDˉs_{\bar{D}} es el error estándar de la media de las diferencias

Otra forma de verlo sería:

t=DˉsD2nt = \frac{\bar{D}}{\sqrt{\frac{s_D^2}{n}}}

Donde:

  • Dˉ\bar{D} es la media de las diferencias
  • sD2s_D^2 es la varianza de las diferencias
  • nn es el tamaño de la muestra

En este caso, no necesito la variación no sistemática; se usa la media de las diferencias y la varianza de las diferencias.

Para muestras independientes

Cuando las muestras son independientes, la fórmula es:

t=Xˉ1Xˉ2s12n1+s22n2t = \frac{\bar{X}_1 - \bar{X}_2}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}}

Donde:

  • Xˉ1\bar{X}_1: media del primer grupo
  • Xˉ2\bar{X}_2: media del segundo grupo
  • s12s_1^2: varianza del primer grupo
  • s22s_2^2: varianza del segundo grupo
  • n1n_1: tamaño de la muestra del primer grupo
  • n2n_2: tamaño de la muestra del segundo grupo

En este caso, sí necesito calcular la variación no sistemática (varianzas individuales) para determinar el valor tt.

Comparación intra-grupo (muestras relacionadas)

Al comparar medias dependientes o relacionadas, en un mismo grupo, utilizo la prueba tt de Student. Concretamente, la fórmula para muestras relacionadas:

t=DˉsDˉt = \frac{\bar{D}}{s_{\bar{D}}}

Para ello, hay que seguir los siguientes pasos:

1. Ordenar los datos

La casuística más típica de una prueba tt de Student para medias dependientes es cuando un mismo grupo de personas genera datos antes y después de una intervención. Por ejemplo:

🙋Pre-tratamientoPost-tratamiento
15755
25554
35756
46564
57876
65554

2. Calcular la media de las diferencias

La media de las diferencias (Dˉ\bar{D}) se utiliza para evaluar el efecto de la intervención. Para calcularla, primero determino las diferencias entre las puntuaciones pre y post-tratamiento para cada sujeto. He creado una columna DD que contiene estas diferencias.

🙋Pre-tratamientoPost-tratamientoDiferencia (DD)
157552
255541
357561
465641
578762
655541

Ahora que tengo la diferencia para todos los casos, calculo la media de las diferencias (Dˉ\bar{D}), utilizando la fórmula de la media: Dˉ=Dn\bar{D} = \frac{\sum D}{n}.

Dˉ=2+1+1+1+2+16=1.33\large \bar{D} = \small \frac{2 + 1 + 1 + 1 + 2 + 1}{6} = \large 1.33
Símbolo para la media de las diferencias

En estadística, la media de una muestra se representa por xˉ\bar{x}. Sin embargo, la convención es utilizar la letra D para representar la media de las diferencias: Dˉ\bar{D}.

xˉde las diferenciasDˉ\bar{x} \xrightarrow{de \space las \space diferencias} \bar{D}

3. Calcular la varianza de las diferencias

La varianza de las diferencias (sD2s_D^2) se utiliza para medir la dispersión de las diferencias. Se calcula con la siguiente fórmula:

sD2=(DDˉ)2n1s_D^2 = \frac{\sum (D - \bar{D})^2}{n - 1}

Para calcular esta variación, primero resto la media de las diferencias (Dˉ\bar{D}) de cada diferencia (DD), obteniendo:

🙋DDD1.33D - 1.33
120.67
21-0.33
31-0.33
41-0.33
520.67
61-0.33

Luego calculo el cuadrado de estas diferencias para eliminar las valencias negativas:

🙋DDD1.33D - 1.33(D1.33)2(D - 1.33)^2
120.670.4489
21-0.330.1089
31-0.330.1089
41-0.330.1089
520.670.4489
61-0.330.1089

Ahora puedo aplicar la fórmula de la varianza de las diferencias:

sD2=0.4489+0.1089+0.1089+0.1089+0.4489+0.108961=0.2667s^2_D = \frac{0.4489 + 0.1089 + 0.1089 + 0.1089 + 0.4489 + 0.1089}{6-1} = 0.2667

4. Calcular el error estándar de la media de las diferencias (SEM)

SEM es el acrónimo de Standard Error of the Mean, que traducido al español significa Error Estándar de la Media.

El error estándar de la media de las diferencias (SEM) se calcula como:

SEM=sDn=0.51656=0.2109SEM = \frac{s_D}{\sqrt{n}} = \frac{0.5165}{\sqrt{6}} = 0.2109

5. Calcular el estadístico t

El valor de t se calcula utilizando la fórmula:

t=DˉSEM=1.330.2109=6.305t = \frac{\bar{D}}{SEM} = \frac{1.33}{0.2109} = 6.305

Conceptualmente, una buena forma de verlo es:

t=Cantidad de variacioˊn sistemaˊticaCantidad de variacioˊn no-sistemaˊticat = \frac{\text{Cantidad de variación sistemática}}{\text{Cantidad de variación no-sistemática}}

6. Determinar la significancia

Para determinar la significancia, contrasto si el valor de tt que he calculado es mayor que el valor crítico para estos datos. Para saber cuál es el valor crítico, consulto la Tabla de valores críticos de la distribución t de Student.

Se que, en nuestra investigación:

  • Grados de libertad (dfdf) =n1=61=5= n - 1 = 6 - 1 = 5
  • Nivel de significancia (α\alpha) = 0.050.05

Por eso, busco en la tabla el valor t crítico para df=5df=5 y α=5\alpha=5:

Conf. Level50%80%90%95%98%99%
One Tail0.2500.1000.0500.0250.0100.005
Two Tail0.5000.2000.1000.0500.0200.010
gl (grados de libertad)
40.7411.5332.1322.7763.7474.604
50.7271.4762.0152.5713.3654.032
60.7181.4401.9432.4473.1433.707

El valor crítico para estos datos es 2.015.

7. Interpretar el resultado

La forma de interpretar este valor es:

  • Si t>tc | t | > t_c, entonces la diferencia entre las medias de ambos grupos es estadísticamente significativa, y rechazo la hipótesis nula.
  • Si ttc | t | \leq t_c, no tengo suficiente evidencia para rechazar la hipótesis nula.

Puedo ver que, en efecto, el valor tt es mayor que el tcriticot_{critico}:

6.2914>2.5716.2914 > 2.571

Puesto que t=6.2914t = 6.2914 es mayor que tcritico=2.571t_{critico} = 2.571, rechazamos la hipótesis nula y concluimos que hay una diferencia significativa entre las medias pre y post-tratamiento.

En resumen, un valor t=6.2914t = 6.2914 con un SEM=0.2114SEM = 0.2114 y 5 grados de libertad en una prueba tt de Student de dos colas a un nivel de significancia de 0.05 permite concluir que las diferencias observadas en las medias son estadísticamente significativas.

Cálculo con SPSS

Es muy habitual utilizar SPSS para realizar una prueba paramétrica como tt de Student para comparar medias dependientes (es decir: en un mismo grupo). Para ello, hay que seguir los siguientes pasos:

  1. Cargar los datos
  2. Abrir la barra de herramientas Analizar y desplegar Comparar medias.
  3. Hacer click en la opción Prueba T para muestras relacionadas.
  4. En la ventana que se ha abierto, añadir las variables al cuadro Variables emparejadas. En este proceso, por cada fila hay que añadir dos variables: precisamente las dos variables que estoy comparando. Lo más común es que sea una variable pre-intervención, y otra post-intevernción.
  5. Hacer click sobre Aceptar.

Esto crea una hoja con tres grupos de datos:

  • Estadísticas de muestras emparejadas: contiene los estadísticos descriptivos de las dos variables, como la media, el tamaño de la muestra, la desviación, etc. Por lo tanto, contiene dos filas: una por cada variable.
  • Correlaciones de muestras emparejadas: contiene los índices de correlación y significancia. Contiene una sola fila, porque se refiere a la relación entre ambas.
  • Prueba de muestras emparejadas: contiene los resultados dla prueba tt de Student, entre otras cosas, como los grados de libertad, la significación, etc. Es decir: contiene los valores que hemos calculado manualmente en el ejemplo anterior, incluyendo la significancia. Contiene una sola fila, porque se refiere a la relación entre ambas. La significancia es la más importante, ya que comparamos si ese valor es menor que el nivel de confianza (p<αp < \alpha ). Si el nivel de confianza es menor que α\alpha (que generalmente α=0.05\alpha = 0.05) consideramos que hay significancia y puedo rechazar la hipótesis nula.

Pregunta

Es necesario que se cumpla el supuesto de homogenidad de varianzas (homocedasticidad) al comparar medias de muestras dependientes para que una prueba $t$ de Student sea válido.

Comparación inter-grupo (muestras independientes)

Al comparar medias independientes, entre dos grupos, también utilizo la prueba tt de Student, pero utilizo la fórmula de las muestras independientes:

t=Xˉ1Xˉ2s12n1+s22n2t = \frac{\bar{X}_1 - \bar{X}_2}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}}

Además, también la prueba de Levene para asegurar que se cumple el principio de homocedasticidad.

Recuerda que, en comparaciones inter-grupo, además de los supuestos de normalidad e independencia, también se debe cumplir el supuesto de homogeneidad de la varianza. Por eso, la prueba tt de Student de medias independientes incluye la prueba de Levene, que sirve precisamente para verificar el supuesto de homocedasticidad.

Cálculo con SPSS

Es muy habitual utilizar SPSS para realizar una prueba paramétrica como tt de Student para comparar medias independientes. Para ello, hay que seguir los siguientes pasos:

  1. Cargar los datos
  2. Abrir la barra de herramientas Analizar y desplegar Comparar medias.
  3. Hacer click en la opción Prueba T para muestras independientes.
  4. En la ventana que se ha abierto, añadir las variables al cuadro, que son
  • Variables de prueba: las variables dependientes
  • Variables de agrupación: la variable independiente.
  1. Hacer click sobre Definir grupos. En este cuadro, hay que asignar un valor numérico a cada grupo, generalmente 0 y 1. Es decir, el llamado "Grupo 1" tendría el valor 0, y el "Grupo 2" el valor 1.
  2. Hacer click sobre Aceptar.

Esto crea una hoja con tres tablas:

  • Estadísticas de grupo: contiene los descriptivos agrupados, como la media o la desviación.
  • Prueba de Levene: contiene los resultados de la prueba de Levene, que permite comprobar si se sumple el supuesto de homogeneidad de la varianza. En concreto, muestra la significación de la prueba de Levene. Si p>αp > \alpha , entonces sí se cumple el principio. De lo contrario, significa que no deberíamos estar aplicando una prueba tt de Student.
  • Significancia: contiene los índices de que permiten interpretar la significación, como el valor t y la significación. La significancia es la más importante, ya que comparamos si ese valor es menor que el nivel de confianza (p<αp < \alpha ). Si el nivel de confianza es menor que α\alpha (que generalmente α=0.05\alpha = 0.05) consideramos que hay significancia y puedo rechazar la hipótesis nula.
Significancia en la prueba de Levene

En este cuadro vemos dos veces una columna llamada Sig. Se debe a que una de ellas es la significancia que resulta de comparar las medias, y la otra es la significancia de la prueba de Levene, que hacemos para verificar que estoy haciendo bien en utilizar pruebas paramétricas.

Sin embargo, hay una cosa curiosa:

  • Para determinar si hay una significancia al comparar las medias, y por tanto si puedo rechazar la hipótesis nula, lo que busco es que p<αp < \alpha .
  • Por el contrario, para verificar que se cumple el principio de homogeneidad de la varianza, lo que busco es que pαp \leq \alpha .

Esto tiene todo el sentido, porque en uno de los casos necesito que no haya una anomalía, y en el otro que sí la haya. Sin embargo, puede resultar confuso.

Pregunta

La interpretación del estadístico t y su valor p es distinta para la comparación de medias de muestras dependientes e independientes

Pruebas no-paramétricas

Si los supuestos para la prueba tt de Student no se cumplen, significa que no puedo hacer pruebas paramétricas. En ausencia dla prueba tt de Student, para comparar dos medias puedo usar otras pruebas no-paramétricas como el ww de Wilcoxon.

Comparación intragrupo (muestras relacionadas)

W de Wilcoxon

Cálculo con SPSS

Cuando comparo medias dependientes (es decir: en un mismo grupo) utilizando pruebas-no paramétricas como ww de Wilcoxon, puedo utilizar SPSS. Para ello, hay que seguir los siguientes pasos:

  1. Cargar los datos
  2. Abrir la barra de herramientas Analizar, desplegar Pruebas no paramétricas y desplegar Cuadros de diálogo antiguos.
  3. Hacer click en la opción 2 muestras relacionadas.
  4. En la ventana que se ha abierto, añadir las variables al cuadro Variables emparejadas. En este proceso, por cada fila hay que añadir dos variables: precisamente las dos variables que estoy comparando. Lo más común es que sea una variable pre-intervención, y otra post-intevernción.
  5. En Tipo de prueba, asegura que está chequeado Wilcoxon.
  6. Hacer click sobre Aceptar.

Esto crea una hoja con dos grupos de datos:

  • Prueba de rangos con signo de Wilcoxon: muestra la cantidad de veces en los que el segundo ensayo fue mayor, menor o igual al primero.
  • Estadísticos de prueba: contiene los índices de que permiten interpretar la significación, como el valor Z y la significación. La significancia es la más importante, ya que comparamos si ese valor es menor que el nivel de confianza (p<αp < \alpha ). Si el nivel de confianza es menor que α\alpha (que generalmente α=0.05\alpha = 0.05) consideramos que hay significancia y puedo rechazar la hipótesis nula.

Comparación intergrupo (muestras independientes)

U de Mann-Whitney

La prueba UU de Mann-Whitney es la prueba no-paramétrica para muestras independientes más utilizada.

Cálculo con SPSS

Cuando comparo medias independientes (es decir: entre dos grupos) utilizando pruebas-no paramétricas como UU de Mann-Whitney, puedo utilizar SPSS. Para ello, hay que seguir los siguientes pasos:

  1. Cargar los datos
  2. Abrir la barra de herramientas Analizar y desplegar Pruebas no paramétricas.
  3. Hacer click en la opción Muestras independientes.
  4. En la ventana que se ha abierto, asegura que está chequeado Personalizar análisis.
  5. Abre la siguiente pestaña, llamada Campos
  • Añade tantas variables dependientes como quieras al cuadro Campos de prueba
  • Añade la variable independiente en el cuadro Grupos.
  1. Abre la siguiente pestaña, llamada Configuración, y asegura que está chequeado U de Mann-Whitney.
  2. Hacer click sobre Ejecutar.

Esto crea una tabla que, además de mostrar el valor de significación, explica también la decisión que debe tomar el investigador respecto a rechazar o aceptar la hipóesis nula.

Tamaño del efecto

El tamaño del efecto es una medida cuantitativa que indica la magnitud de la diferencia entre dos grupos o la fuerza de la relación entre dos variables. En el caso de la media, cuantifica la diferencia entre las medias de dos grupos, ya sean dependientes o independientes, y generalmente se mide mediante la prueba dd de Cohen.

El tamaño del efecto se usa para determinar si una diferencia estadísticamente significativa es también significativa en términos prácticos o clínicos. En otras palabras, mientras que la significancia estadística (como un valor p en una prueba tt de Student) puede decirnos si es probable que una diferencia o relación exista, el tamaño del efecto nos dice cuán grande es esa diferencia o relación.

El tamaño del efecto es un valor absoluto. Es decir, la magnitud del efecto es similar tenga signo negativo o positivo. solo que dicho signo indica qué grupo supera al otro.

Prueba d de Cohen

La prueba dd de Cohen es una medida específica del tamaño del efecto, utilizada comúnmente para comparar las diferencias entre las medias de dos grupos. Se calcula como la diferencia entre dos medias dividida por una estimación de la desviación estándar de las poblaciones (la desviación típica agrupada de los grupos). La prueba dd de Cohen ayuda a contextualizar la relevancia práctica de los resultados de un estudio, independientemente del tamaño de la muestra, que es una crítica común a la significancia estadística.

El estadístico dd resultante se clasifica en:

  • Efecto muy bajo o trivial: d<0.20d < 0.20
  • Efecto bajo: 0.20d<0.500.20 \leq d < 0.50
  • Efecto medio: 0.50d<0.800.50 \leq d < 0.80
  • Efecto alto: 0.80d<1.200.80 \leq d < 1.20
  • Efecto muy alto: d1.20d \geq 1.20

Pregunta

Un tamaño del efecto de d = -1 se considera.

La fórmula para calcular la d de Cohen es:

d=xˉ1xˉ2s12+s222d = \frac{\bar{x}_1 - \bar{x}_2}{\sqrt{\frac{s^2_1 + s^2_2}{2}}}

Donde:

  • xˉ1\bar{x}_1 es la media del primer grupo
  • xˉ2\bar{x}_2 es la media del segundo grupo
  • s12s^2_1 es la varianza del primer grupo
  • s22s^2_2 es la varianza del segundo grupo
  • s12+s222\sqrt{\frac{s^2_1 + s^2_2}{2}} es la desviación estándar agrupada (spooleds_{pooled})

Calcular la d de Cohen

Para calcular la dd de Cohen, hay que seguir los siguientes pasos. Estos pasos consisten, sencillamente, en aplicar la fórmula de la dd de Cohen.

1. Obtener los datos

Primero disponemos los datos de manera que sea fácil hacer los cálculos.

🙋Grupo 1Grupo 2
15755
25554
35756
46564
57876
65554
2. Calcular las medias

Después utilizo la fórmula de la media, que es i=1nxin\frac{\sum_{i=1}^n x_i}{n}, para calcular las medias de ambos grupos:

xˉ1=57+55+57+65+78+556=61.1667\bar{x}_1 = \frac{57+55+57+65+78+55}{6} = 61.1667 xˉ2=55+54+56+64+76+546=59.8333\bar{x}_2 = \frac{55+54+56+64+76+54}{6} = 59.8333
3. Calcular las varianzas

Después utilizo la fórmula de la varianza (s2s^2), que es (xixˉ)2n1\frac{\sum (x_i - \bar{x})^2}{n-1}, para calcular las varianzas de ambos grupos:

s12=(5761.1667)2+(5561.1667)2+(5761.1667)2+(6561.1667)2+(7861.1667)2+(5561.1667)261=81.7667s^2_1 = \frac{(57 - 61.1667)^2 + (55 - 61.1667)^2 + (57 - 61.1667)^2 + (65 - 61.1667)^2 + (78 - 61.1667)^2 + (55 - 61.1667)^2}{6-1} = 81.7667

s22=(5559.8333)2+(5459.8333)2+(5659.8333)2+(6459.8333)2+(7659.8333)2+(5459.8333)261=76.9667s^2_2 = \frac{(55 - 59.8333)^2 + (54 - 59.8333)^2 + (56 - 59.8333)^2 + (64 - 59.8333)^2 + (76 - 59.8333)^2 + (54 - 59.8333)^2}{6-1} = 76.9667

Desviación estándar

Si quisiéramos saber desviación estándar, la fórmula para calcular la desviación estándar ss a partir de la varianza s2s^2 es muy sencilla. Si s12=81.7667s^2_1 = 81.7667, sabríamos que la s1=81.7667=9.0425s_1 = \sqrt{81.7667} = 9.0425

4. Aplicar la fórmula

Finalmente, reemplazamos los valores para aplicar la fórmula de la dd de Cohen.

d=xˉ1xˉ2s12+s222=61.166759.833381.7667+76.96672=0.1497d = \frac{\bar{x}_1 - \bar{x}_2}{\sqrt{\frac{s^2_1 + s^2_2}{2}}} = \frac{61.1667-59.8333}{\sqrt{\frac{81.7667 + 76.9667}{2}}} = 0.1497
5. Interpretar el resultado

Ahora que se que la dd de Cohen es 0.14970.1497, comparamos eso con los valores de referencia y vemos que al ser menor que 0.200.20, se considera un efecto muy bajo o trivial.