Ejercicios
Premisa
Quiero averiguar si ver capítulos de One Piece mejora el nivel de felicidad de un grupo de pacientes con depresión. Para ello, he dividido a mis pacientes en dos grupos: el grupo experimental, que visualiza una serie de capítulos a lo largo de un mes, y el grupo control, que no verá ningún capítulo de One Piece.
Después, administro a ambos grupos un cuestionario de medición de la felicidad y comparo las puntuaciones para ver si existen diferencias significativas entre ambos.
Datos
Haz click para ver toda la base de datos
Paciente Grupo Puntuación 1 2 7.5 ... ... ...
Base de datos completa:
Paciente | Grupo | Puntuación |
---|---|---|
1 | 2 | 7.5 |
2 | 2 | 7.0 |
3 | 1 | 6.0 |
4 | 1 | 6.0 |
5 | 1 | 7.5 |
6 | 1 | 6.0 |
7 | 2 | 8.0 |
8 | 2 | 9.0 |
9 | 1 | 5.0 |
10 | 2 | 7.5 |
11 | 1 | 6.5 |
12 | 1 | 6.5 |
13 | 1 | 7.0 |
14 | 1 | 6.5 |
15 | 2 | 9.0 |
16 | 2 | 8.5 |
17 | 2 | 7.0 |
18 | 1 | 6.5 |
19 | 2 | 7.5 |
20 | 2 | 6.5 |
21 | 2 | 7.5 |
22 | 1 | 4.5 |
23 | 2 | 6.5 |
24 | 2 | 8.5 |
25 | 1 | 5.0 |
26 | 2 | 7.0 |
27 | 1 | 5.5 |
28 | 1 | 5.5 |
29 | 1 | 5.5 |
30 | 2 | 7.0 |
31 | 1 | 6.0 |
32 | 2 | 7.5 |
33 | 2 | 6.5 |
34 | 2 | 8.5 |
35 | 1 | 7.0 |
36 | 1 | 6.5 |
37 | 1 | 7.0 |
38 | 1 | 7.0 |
39 | 2 | 8.0 |
40 | 2 | 8.0 |
41 | 2 | 8.0 |
42 | 2 | 8.0 |
43 | 1 | 8.5 |
44 | 1 | 8.0 |
45 | 1 | 7.5 |
46 | 1 | 8.0 |
47 | 1 | 7.5 |
48 | 2 | 8.0 |
49 | 2 | 8.0 |
50 | 2 | 8.5 |
51 | 1 | 4.5 |
52 | 1 | 5.0 |
53 | 1 | 5.5 |
54 | 1 | 6.0 |
55 | 1 | 6.5 |
56 | 1 | 7.0 |
57 | 1 | 7.5 |
58 | 1 | 8.0 |
59 | 1 | 4.5 |
60 | 1 | 5.0 |
61 | 1 | 5.5 |
62 | 1 | 6.0 |
63 | 1 | 6.5 |
64 | 1 | 7.0 |
65 | 1 | 7.5 |
66 | 1 | 8.0 |
67 | 1 | 8.5 |
68 | 1 | 9.0 |
69 | 1 | 4.0 |
70 | 2 | 8.5 |
71 | 2 | 8.5 |
72 | 2 | 8.5 |
73 | 2 | 8.5 |
74 | 2 | 8.5 |
75 | 2 | 8.5 |
76 | 2 | 8.5 |
77 | 2 | 9.0 |
78 | 2 | 9.0 |
79 | 2 | 9.0 |
80 | 2 | 9.0 |
81 | 2 | 9.0 |
82 | 2 | 9.0 |
83 | 2 | 9.0 |
84 | 2 | 9.0 |
85 | 2 | 9.0 |
86 | 2 | 9.0 |
87 | 2 | 9.0 |
88 | 2 | 9.0 |
El programa SPSS genera también una pestaña llamada Variable view
que muestra un resumen de las variables.
Name | Type | Width | Decimals | Values | Columns | Align | Measure |
---|---|---|---|---|---|---|---|
Paciente | Numeric | 8 | 0 | None | 8 | Right | Scale |
Grupo | Numeric | 8 | 0 | {1, Control (…)} | 21 | Right | Nominal |
Puntuación | Numeric | 8 | 2 | None | 8 | Right | Scale |
Son tres variables:
- Alumno: número de identificación del alumno.
- Grupo:
1
significa Grupo de control sin visualización de capítulos2
significa Grupo experimental con visualización de capítulos
- Puntuación: puntuación en el cuestionario de medición de la felicidad
Preguntas
Fundamentos del estudio
¿Cuál es la variable dependiente y la independiente?
- Variable independiente (VI): aplicación de la visualización de capítulos, por lo tanto:
Grupo
- Variable dependiente (VD): puntuación en el cuestionario, por lo tanto,
Puntuación
¿Cuál es la hipótesis nula y la alternativa?
- Hipótesis nula (): las medias en ambos grupos son iguales; es decir:
- Hipótesis alternativa (): lo contrario; es decir:
Tipos de error
Señala qué tipo de error se produce en los siguientes casos:
Rechazo la hipótesis nula cuando es verdadera
Es un Error Tipo I, también llamado falso positivo.
Al rechazar la hipótesis nula cuando esta es verdadera, lo que he hecho es aceptar la alternativa. Es decir: he concluído que se produce un efecto cuando en realidad no se produce. Por eso es un error de falso positivo.
Acepto la hipótesis nula cuando es falsa
Es un Error Tipo II, también llamado falso negativo.
Al aceptar la hipótesis nula cuando esta es falsa, lo que he hecho es rechazar la alternativa. Es decir: he concluido que no se produce un efecto cuando en realidad sí se produce. Por eso es un error de falso negativo.
Rechazo la hipótesis nula cuando es falsa
No es un error. Este es el resultado ideal en una prueba de hipótesis. Significa que la decisión tomada por la prueba estadística es correcta.
Supuestos
¿Qué es un supuesto y para qué sirve?
Un supuesto es una propiedad de un conjunto de datos que un investigador asume, o no asume, para seleccionar la prueba estadística adecuada en función de esta decisión. Es decir, son condiciones teóricas que se deben cumplir para que las conclusiones de las pruebas estadísticas sean válidas.
Los supuestos se asumen al iniciar el análisis para escoger una prueba estadística u otra, pero se verifican al ejecutar el análisis mediante pruebas estadísticas específicas, como la prueba de Levene o la prueba de esfericidad.
¿Cuáles son los supuestos más importantes?
- Homocedasticidad: también llamado de homogeneidad de varianzas. Consiste en asumir que las varianzas en los distintos grupos o niveles son muy similares.
- Normalidad: consiste en asumir que los datos se distribuyen de acuerdo a una distribución normal, también llamada "de Gauss". De acuerdo al Teorema del Limite Central, los datos tienden a mostrar una distribución normal a medida que aumenta el tamaño de la muestra.
- Independencia: consiste en asumir que los datos no dependen unos de otros, o que no están relacionados. En términos de probabilidad, significa que las posibilidades de que un caso tenga un valor no está influenciado por el valor proporcionado por otro caso.
- Esfericidad: consiste en asumir que las diferencias entre las varianzas de las distintas comparaciones son iguales. Este supuesto es específico del ANOVA.
- Linealidad: consiste en asumir que hay una relación lineal entre las variables independientes y la variable dependiente. Es decir, asumir que un cambio en una variable independiente conduzca a un cambio proporcional y constante en la variable dependiente. Este supuesto es la base de la regresión lineal y otros modelos lineales.
- Continuidad de la variable dependiente: la variable dependiente debe ser continua. Es decir, la variable dependiente debe representar un continum constante, de manera que puede tomar cualquier valor numérico, incluyendo decimales. No importa si es de intervalo (como la temperatura) o de razón (como el tiempo o la altura), siempre que sea continua.
Normalidad
Para comprobar que el supuesto de normalidad se cumple, puedo seguir tres estrategias:
- Estimación visual
- Puntuación Z de asimetría y curtosis
- Pruebas estadísticas
Estimación visual
Añade los histogramas de la puntuación para ambos grupos
¿La distribución es normal en los dos grupos?
- Grupo control: presenta una distribución que parece más cercana a la normalidad, con un centro bien definido y frecuencias que disminuyen simétricamente a medida que se alejan de este centro. Sin embargo, aún puede observarse un ligero sesgo y una ligera leptocurtosis.
- Grupo experimental: muestra una distribución que no es simétrica, ya que tiene un sesgo hacia las puntuaciones más altas. La mayoría de las frecuencias se acumulan hacia el extremo derecho del gráfico, indicando una tendencia hacia puntuaciones más altas.
La distribución no es simétrica en el grupo experimental probablemente porque ver One Piece puede haber mejorado la felicidad de muchos pacientes, resultando en una concentración de puntuaciones altas y dejando menos frecuencia en puntuaciones bajas. Los efectos de la intervención (ver One Piece) podrían haber resultado en un rendimiento más uniformemente mejorado, agrupando más puntuaciones alrededor de un valor medio más alto.
Puntuación Z de asimetría y curtosis
Para comprobar si los datos de una variable siguen una distribución normal, mido la asimetría y la curtosis de la distribución. Concretamente, la simetría debe ser simétrica y la curtosis mesocurtica.
Para ello, estandarizo los valores utilizando la puntuación Z, que permite determinar cuántas desviaciones estándar se encuentran del valor teórico en una distribución normal. La fórmula es:
Utilizando SPSS, abro Analizar > Estadísticos descriptivos > Descriptivos
. En opciones, selecciono Curtosis
y Asimetría
. Esto genera una tabla con los siguientes datos:
Descriptive Statistics | ||||||
---|---|---|---|---|---|---|
N | Statistic | Skewness | Std. Error | Kurtosis | Std. Error | |
Grupo | 88 | .000 | .257 | -2.047 | .508 | .508 |
Puntuación | 88 | - .531 | .257 | - .636 | .508 | .508 |
Valid N (listwise) | 88 |
Sin embargo, esto no me sirve para una comparación porque veo los valores de ambos grupos. Primero tengo que separar los datos por grupos, desde el apartado Datos > Dividir archivo...
. En la ventana que aparece, selecciono Organizar los análisis por grupos
y añado la variable Grupo al cuadro Grupos basados en
.
Después, vuelvo a Analizar > Estadísticos Descriptivos > Frecuencias...
y esta vez al añadir la variable Puntuación, SPSS me da dos tablas, una por cada grupo.
Puntuación Grupo de Control | ||
---|---|---|
N | Valid | 44 |
Missing | 0 | |
Skewness | .009 | |
Std. Error of Skewness | .357 | |
Kurtosis | -.655 | |
Std. Error of Kurtosis | .702 |
Grupo Experimental | ||
---|---|---|
N | Valid | 44 |
Missing | 0 | |
Skewness | -.750 | |
Std. Error of Skewness | .357 | |
Kurtosis | -.533 | |
Std. Error of Kurtosis | .702 |
Ahora puedo aplicar la fórmula de la puntuación Z para ambas, asimetría y curtosis, para ambos grupos, el de control y el experimental.
Y ya conozco el error estándar de asimetría y curtosis, por lo que:
Ahora procedo al cálculo de cada uno de ellos:
Ahora consulto esas puntuaciones Z en la tabla de valores de referencia. Cuando la muestra es pequeña (), la lógica es la siguiente para asimetría y curtosis:
- Asimetría:
- : asimetría negativa
- : simetría
- : simetría positiva
- Curtosis:
- : forma platicúrtica
- : forma mesocúrtica
- : forma leptocúrtica
Por lo tanto, finalmente puedo responder a la pregunta:
- Grupo de control
- Asimetría: la distribución es muy simétrica, porque el valor está muy cerca de , y claramentre dentro del rango
- Curtosis: la curtosis tiene forma ligeramente platicúrtica, porque el valor no llega al rango , pero está más cerca de este que de .
- Grupo experimental
- Asimetría: la distribución presenta una clara asimetría negativa, porque el valor está por debajo de .
- Curtosis: la curtosis es mesocúrtica, o ligeramente platicúrtica, porque el valor está entre y .
Esto apoya la conclusión que ya había extraído a través de la estimación visual: que el grupo de control presenta una distribución que se aproxima a la normal, mientras que el grupo experimental no tiene una distribución normal porque presenta una clara asimetría negativa.
Comprobación mediante pruebas estadísticas
¿Qué tamaño tienen los grupos?
Ambos, tanto el grupo experimental como el grupo control, tienen un tamaño de 44 participantes.
¿Qué prueba estadística es más adecuada para evaluar la normalidad en cada grupo?
Hay dos pruebas disponibles, y entre ellas, la más apropiada es:
- Prueba de Shapiro-Wilk
- Prueba de Kolmogorov-Smirnov (K-S)
La prueba de Shapiro-Wilk es especialmente adecuada para medir la normalidad en muestras de menos de 50 participantes, como es el caso aquí. La prueba de Kolmogorov-Smirnov también mide la normalidad, pero es más apropiada para muestras grandes. Por lo tanto, la prueba de Shapiro-Wilk es más recomendada debido a su mayor potencia y precisión en este rango de tamaño de muestra.
Ejecución de la prueba de normalidad
Desde SPSS, voy a Analizar > Estadísticos Descriptivos > Explorar...
y en el cuadro que se abre, añado la Puntuación a la Lista de Dependientes
, y el Grupo a la Lista de factor
. Aquí es importante que seleccione ambos resultados: gráfico y estadísticos. Si abro la sección Gráficos
, selecciono el checkbox Gráficos de normalidad con pruebas
.
El resultado es esta tabla:
Kolmogorov-Smirnova | Shapiro-Wilk | |||||
---|---|---|---|---|---|---|
Grupo | Statistic | df | Sig. | Statistic | df | Sig. |
Puntuación Control (no relación) | .083 | 44 | .200* | .978 | 44 | .542 |
Puntuación Experimental (sí relación) | .219 | 44 | <.001 | .862 | 44 | <.001 |
* This is a lower bound of the true significance. |
La prueba apropiada es Shapiro-Wilk, por lo que me fijo en los siguientes valores:
- Puntuación Control (no relación):
- Puntuación Experimental (sí relación):
¿Cómo refleja esta prueba la normalidad?
En una prueba de normalidad, la hipótesis nula () es que sí hay normalidad.
Ambas pruebas de normalidad generan un valor de significancia que se puede comparar con el nivel de confianza (generalmente: ) para realizar un contraste de hipótesis.
- Si , aceptamos la hipótesis nula. Es decir: hay normalidad.
- Si , rechazamos la nula y aceptamos la hipótesis alternativa: no hay normalidad.
En este caso:
- Puntuación Control (no relación): , por lo que aceptamos la hipótesis nula.
- Puntuación Experimental (sí relación): , por lo que rechazamos la hipótesis nula.
Es decir: el grupo de control presenta una distribución normal, mientras que el grupo experimental no. De hecho, su valor de significancia para la prueba de normalidad es extremadamente bajo.
Homocedasticidad
¿Qué dice el supuesto de homocedasticidad?
El supuesto de homocedasticidad, también conocido como homogeneidad de varianzas, varianzas de los errores o de las variables dependientes son constantes a través de diferentes niveles de las variables independientes o entre grupos.
En ANOVA, la homocedasticidad implica que las varianzas dentro de cada grupo comparado son iguales.
En la Regresión Lineal, la homocedasticidad asegura que la varianza de los residuos (errores) es la misma para todos los valores predichos.
¿Qué prueba estadística es más adecuada para evaluar la homocedasticidad?
La prueba de Levene es una prueba estadística utilizada para evaluar la homogeneidad de las varianzas, también conocida como homocedasticidad, entre dos o más grupos.
¿Cuál es la hipótesis nula y la hipótesis alternativa que siempre tiene este test?
En la prueba de Levene, la homocedasticidad de las variables es la hipótesis nula (), que se puede generalizar para múltiples grupos de la siguiente manera:
La prueba de Levene genera un valor , que está asociado a un estadístico . La interpretación del resultado es:
- Si el valor , acepto la hipótesis nula porque no hay suficiente evidencia en su contra. Es decir: concluyo que hay homocedasticidad.
- Si el valor , rechazo la hipótesis nula y concluyo que no hay homocedasticidad.
Ejecuta la prueba de varianzas homogéneas
Desde SPSS, voy a Analizar > Estadísticos Descriptivos > Explorar...
y en el cuadro que se abre, añado la Puntuación a la Lista de Dependientes
, y el Grupo a la Lista de factor
. Aquí es importante que seleccione ambos resultados: gráfico y estadísticos. Si abro la sección Gráficos
, selecciono el checkbox Sin transformación
dentro de la sección Dispersión vs Nivel con Prueba de Levene
. El resultado es:
Levene Statistic | df1 | df2 | Sig. | |
---|---|---|---|---|
Based on Mean | 6.680 | 1 | 86 | .011 |
Based on Median | 6.606 | 1 | 86 | .012 |
Based on Median and with adjusted df | 6.606 | 1 | 82.413 | .012 |
Based on trimmed mean | 6.890 | 1 | 86 | .010 |
Hay otra manera de obetener este valor: voy a Analizar > Comparar medias y proporciones > T-test para muestras independientes
y en el cuadro que se abre, añado la Puntuación a Variables de prueba
, y el Grupo a la Variable de agrupación
. El resultado es:
F | Sig. | t | df | ||
---|---|---|---|---|---|
Puntuación | Equal variances assumed | 6.680 | .011 | -7.949 | 86 |
Equal variances not assumed | -7.949 | 74.085 |
Ahora realizo la comprobación, siguiendo esta lógica:
- Si el valor , acepto la hipótesis nula, por lo que puedo concluir que hay homocedasticidad.
- Si el valor , rechazo la hipótesis nula y concluimos que no hay homocedasticidad.
En este caso, , por lo que hay evidencia para rechazar la hipótesis nula. Es decir, no hay homocedasticidad en esta muestra. Dicho de otra manera: las varianzas entre los grupos son significativamente diferentes.
Estrategia de análisis
Para llevar a cabo el análisis estadístico y contrastar la hipótesis del estudio, debería utilizar
- Pruebas paramétricas
- Pruebas no-paramétricas
El motivo es que estoy comparando medidas independientes, también llamadas no-relacionadas, porque son dos grupos con distintos sujetos. Siendo así, para poder realizar una prueba paramétrica, se tendría que cumplir también el principio de homocedasticidad, no sólo el de normalidad. Al no ser así, sería necesario utilizar pruebas no-paramétricas. En este caso, la más apropiada sería la prueba de Mann-Whitney.
Cuestionario
Pregunta 1
Pregunta
En cuanto a los valores de asimetría del grupo control y experimental, ¿cuál de las siguientes afirmaciones es correcta?
Pregunta 2
Pregunta
¿Qué tipo de test debe realizar la investigadora según las características de los datos?
Pregunta 3
Pregunta
Siempre que me encuentro con un valor p inferior a 0,05, ¿qué acción es correcta?
Pregunta 4
Pregunta
¿Cuál sería la hipótesis nula del estudio presentado?
Pregunta 5
Pregunta
Para comprobar el supuesto de homogeneidad de varianzas, ¿qué prueba debería usarse?
Pregunta 6
Pregunta
En cuanto a los valores de curtosis del grupo control y experimental:
Pregunta 7
Pregunta
Nos referimos al nivel de confianza cuando:
Pregunta 8
Pregunta
Para comprobar el supuesto de normalidad se debe elegir:
Pregunta 9
Pregunta
Para llevar a cabo análisis paramétricos los supuestos más importantes son:
Pregunta 10
Pregunta
Mirando los histogramas, ¿en qué grupo/s la distribución de la variable no parece normal?