Saltar al contenido principal

Conceptos avanzados

Hay una seríe de conceptos fundamentales adicionales que voy a introducir en esta sección. Cuando leas las explicaciones, construye sobre lo que ya deberías saber. Y si no recuerdas nada de los puntos anteriores, dale un repaso antes.

Estadística inferencial

En el apartado dedicado a la estadística inferencial hay un gráfico que explica el lugar que tiene el proceso de estadística inferencial dentro del proceso general de la investigación:

Como se puede ver, es una vista simplificada y general del proceso estadístico cuyo último paso es la estadística inferencial. Queda claro que la estadística inferencial permite generalizar los resultados a la población. Es decir, implica el uso de muestras para hacer inferencias sobre una población más grande.

Sin embargo, ese esquema no detalla el proceso de modelización estadística y evaluación de la variación en la variable dependiente. Por eso, el proceso de estadística inferencial se explica mejor con el siguiente esquema:

A continuación explico en qué consiste cada paso:

  1. Formular el modelo estadístico: a este paso también se le llama deducir el modelo estadístico, y consiste en diseñar un modelo matemático que se supone que explica o describe una relación entre variables basándose en la teoría existente o en la comprensión previa de los datos. Es un proceso de deducción, y no de inducción, porque va de lo general a lo específico, es decir: de lo abstracto a lo concreto.
  2. Ajustar el modelo a los datos observados: consiste en estimar los parámetros del modelo y determinar qué tan bien el modelo se alinea con los datos reales que has recopilado. Esto generalmente se hace a través de métodos como la regresión.
  3. Análizar de la variación: examinar la variación en la variable dependiente para determinar si la variación puede ser explicada por el modelo.
  4. Calcular la probabilidad de variación bajo H0H_0: calcular la probabilidad de observar la variación sistemática detectada si en realidad no hay un efecto (la hipótesis nula es verdadera).

Modelo

En el contexto de la estadística, un modelo es una representación simplificada de la realidad que se construye para estudiar las relaciones entre variables y hacer predicciones o inferencias.

Un modelo estadístico involucra ecuaciones que establecen una relación funcional entre variables, generalmente incluyendo términos para error o incertidumbre.

En una sección anterior explico conceptos como la muestra, la estadística inferencial y la teoría de la probabilidad. Un modelo estadístico utiliza éstos conceptos para formular una estructura matemática que representa cómo una o más variables responden a otras, o cómo son interdependientes, con determinada probabilidad.

Variación, variable, variabilidad y varianza

En el ámbito de la estadística, hay cuatro conceptos esenciales que es muy facil confundir: variable, variación, varianza y variabilidad. Aunque están relacionados, cada uno tiene un significado y uso específico dentro del campo estadístico. Todos ellos abordan aspectos diferentes de la medición, análisis y representación de datos.

ConceptoDefiniciónPosibles sinónimosTraducción
VariableUna característica o atributo que puede tomar diferentes valores entre distintas observaciones.Atributo, indicadorVariable
VariaciónLas diferencias o cambios en los valores de una variable, ya sea en el tiempo, entre grupos, etc.Diferencia, cambioVariation
VarianzaUna medida estadística que cuantifica la dispersión de los valores de una variable en torno a su media.Medida de dispersiónVariance
VariabilidadEl grado general de dispersión o rango de valores que una variable puede tener.Dispersión, amplitud de variaciónVariability

Sin embargo, tal vez tenga más sentido entender sus definiciones analizando el sufijo adherido a la raíz léxica:

RaízSufijoFunción del sufijoEjemplos
variarVerbo (en forma de infinitivo)
variaableTransforma verbo en adjetivo. Indica el potencial de que la acción se haga.Adorable, potable, amable
variaciónTransforma verbo en sustantivo que indica el proceso de hacer la acción.Creación, inmigración, educación
varianzaTransforma verbo en sustantivo que indica el resultado tras hacer la acción.Esperanza, alabanza, ganancia
variabilidadTransforma verbo en sustantivo que indica la tendencia general de que la acción se haga.Felicidad, simplicidad, humildad
Variable Como se puede ver, el sufijo -able transforma un verbo en un

adjetivo, indicando la capacidad o aptitud de algo. Sin embargo, en estadística, el término "variable" se emplea como sustantivo. La explicación es que, en realidad, cuando decimos

voy a medir la variable

en un contexto estadístico, nos referimos a

voy a medir la entidad que posee variabilidad

Es decir: una variable en realidad es una entidad que posee variabilidad y que es objeto de observación o medición.

En resumen:

  • Variación es el proceso de variar
  • Varianza es el resultado de variar
  • Variabilidad es la tendencia a variar
  • Variable es el atributo de aquello que varía
    • En estadística, usamos la palabra variable para referirnos a la entidad que tiene ese atributo.

Fuentes de variación

Al conducir una investigación, lo que quiero medir es la variación. Es decir, cuando quiero comprobar la hipótesis de que algo tiene efecto sobre algo, diseñamos un experimento en el que medimos la variación que ese algo causa.

Sin embargo, en estadística sabemos que no toda la variación se puede atribuir a ese algo. Es decir: debemos considerar que haya otros factores que pueden estar creando variación en los datos. Es decir, la investigación contiene ruido que puede oscurecer las relaciones entre las variables de interés

La forma correcta de conceptualizar esta realidad es la diferenciación entre variación sistemática y variación no-sistemática. Es decir, hay dos fuentes de variación en los resultados:

Variación sistemática

La variación sistemática se refiere a la variabilidad en los datos de la muestra que es atribuible a factores identificables y consistentes. Es la parte de la variación que tiene una causa o patrón predecible. En términos generales, es el cambio en la variable dependiente provocado por la variable independiente.

Variación no-sistemática

La variación no-sistemática, también conocida como variación aleatoria o error, es la parte de la variación que no se puede atribuir a las variables estudiadas y no sigue un patrón predecible. Incluye todas las otras fuentes de variabilidad que no están controladas en el estudio.

La variación no sistemática es ruido que puede oscurecer las relaciones entre las variables de interés. La variación no-sistemática afecta a la precisión de las estimaciones estadísticas y puede hacer que sea más difícil detectar efectos reales.

Contraste de hipótesis y significación (p < α)

En un contraste de hipótesis, el objetivo es determinar si existe una relación significativa entre una variable independiente (la que manipulas) y una variable dependiente (la que mides o observas).

VIefecto sobreVD{VI \xrightarrow{efecto \space sobre} VD}

Para ello, utilizo dos valores:

  • Valor pp: proporciona una medida cuantitativa de la evidencia en contra de la hipótesis nula. Es decir, el valor p es la probabilidad de observar un resultado igual o más extremo que el resultado observado en los datos, asumiendo que la hipótesis nula es cierta.
  • α\alpha: es el umbral que establecemos para la significancia estadística.

Cuando pp es menor que α\alpha (p<αp < \alpha) quiere decir que es muy poco probable que el dato sea fruto del azar. Es decir: cuando p<αp < \alpha, el investigador decide que hay evidencia para rechazar la hipótesis nula. Esta decisión implica, a su vez, que la variable independiente tiene efecto sobre la independiente.

  • p>α    p > \alpha \implies aceptamos la hipótesis nula
  • p<α    p < \alpha \implies rechazamos la hipótesis nula, y aceptamos la alternativa

Generalmente, el nivel de significación más utilizado en psicología es α=0.05\alpha = 0.05.

Pregunta

Si he obtenido una p = .045, he de:

Significancia Estadística

La significancia estadística mide si el efecto observado en un estudio es probable que sea real y no el resultado del azar.

Riesgo de error

A pesar de que el valor p sea menor que α\alpha, puede suceder que en realidad el efecto estudiado no se produzca. Es decir, que nos equivoquemos al rechazar la hipótesis nula, porque en realidad no la variable independiente no tiene efecto sobre la dependiente.

Este posible error está muy estudiado. Es más, hay tipologías de potenciales errores que pueden producirse al contrastar hipótesis:

  • Error de Tipo I, conocido como falso positivo: cuando la hipótesis nula es verdadera pero nuestra prueba sugiere rechazarla.
  • Error de Tipo II, o falso negativo: si la hipótesis nula es falsa pero la prueba falla en rechazarla.

La siguiente tabla es una representación visual de los posibles resultados de una prueba de hipótesis en estadística y su relación con la realidad.

Realidad

H0 es cierta

H0 es falsa

Conclusión del estudio

p < 0.05

Aceptar H0

Verdadero positivo

(1β1-\beta)

Falso positivo

Error Tipo I

(α\alpha)

p > 0.05

Rechazar H0

Falso negativo

Error Tipo II

(β)

Verdadero negativo

(1α1-\alpha)

En el ámbito del estudio, es posible obtener dos tipos de resultados: positivos, donde la hipótesis alternativa (H1H_1) se acepta, y negativos, donde la hipótesis nula (H0H_0) se mantiene. Estos se contrastan con dos escenarios de la realidad: uno donde H0H_0 es verdadera y no hay efecto (por ejemplo, ningún cambio en la variable de interés), y otro donde H0H_0 es falsa y sí hay un efecto.

Pregunta

Si rechazamos la hipótesis nula cuando en realidad era verdadera, estoy cometiendo un error de tipo...

Potencia

La potencia estadística, también conocida simplemente como potencia, es una medida de la capacidad de una prueba de hipótesis para detectar un efecto cuando realmente existe. En otras palabras, es la probabilidad de que la prueba rechace correctamente la hipótesis nula (H0H_0) cuando en realidad es falsa (es decir, cuando la hipótesis alternativa, H1H_1, es verdadera).

La potencia está directamente relacionada con el error Tipo II (β\beta), que es la probabilidad de no rechazar la hipótesis nula cuando deberíamos (un falso negativo). Por eso, la potencia se calcula como 1β1 - \beta.

Una potencia estadística alta es crucial en la investigación, ya que asegura que si hay un efecto verdadero, es probable que la prueba lo detecte. Una potencia baja significa que la prueba puede no ser capaz de detectar efectos sutiles, lo que podría conducir a la conclusión errónea de que no hay efecto cuando en realidad sí lo hay.

Diferencia entre potencia y significancia

Mientras que la significancia estadística ayuda a asegurar que los resultados no se deben al azar, la potencia estadística ayuda a garantizar que el estudio tenga suficiente capacidad para detectar efectos significativos.

La significancia estadística está relacionada con el error de Tipo I (rechazar falsamente la hipótesis nula), mientras que la potencia estadística está relacionada con el error de Tipo II.

La significancia estadística se evalúa después de que los datos han sido recolectados y analizados. La potencia estadística, en cambio, generalmente se considera durante la fase de diseño del estudio antes de que comience la recolección de datos.

Tamaño del efecto

El tamaño del efecto en estadística se refiere a una medida cuantitativa de la magnitud de un fenómeno o de la diferencia entre grupos. Es importante porque proporciona un medio para entender la relevancia práctica de los resultados de un estudio, más allá de la mera significancia estadística.

El tamaño del efecto se expresa a menudo en términos de una medida estandarizada que permite comparar los resultados a través de diferentes estudios o medidas.

Por ejemplo, en un estudio donde se comparan dos grupos para ver la efectividad de un nuevo tratamiento, el tamaño del efecto podría indicar cuánto mejor es el tratamiento comparado con un control o con un tratamiento estándar.

Sin embargo, hay que utilizar estadísticos distintos para medir el tamaño del efecto, dependiendo de la naturaleza de los datos:

PruebaComparaciones deMedida del tamaño del efectoEfecto bajoEfecto medioEfecto alto
t de Student2 gruposdd de Cohen0.200.500.80
ANOVA3 o más gruposη2\eta^2 y ηp2\eta^2_p0.010.060.14
Correlación-rr0.100.300.50
Regresión-R2R^2DependeDependeDepende

Cada tipo de prueba tiene su propia medida de tamaño del efecto. Por ejemplo, para una comparación de 2 grupos donde utilizo la prueba tt de Student, para medir el tamaño de ese efecto utilizaría la prueba d de Cohen. Los valores de 0.200.20, 0.500.50 y 0.800.80 corresponden a tamaños de efecto bajo, medio y alto, respectivamente. Sin embargo, para una comparación de tres grupos, utilizaría η2\eta^2 (eta al cuadrado), o includo ηp2\eta_p^2 (eta parcial al cuadrado) dependiendo de la naturaleza de los datos.

Supuestos

En inglés, assumptions.

La palabra supuestos se refiere a condiciones previas necesarias para la aplicación correcta de diversos métodos estadísticos. Por lo tanto, son supuestos de la metodología estadística o supuestos para el análisis estadístico.

Es decir, supuestos se refiere a las condiciones previas que deben cumplirse para que ciertas técnicas estadísticas sean aplicables y válidas. Los supuestos deben seleccionarse y establecerse durante la fase de diseño del estudio, antes de la recolección y análisis de los datos. Sin embargo, una vez recogidos los datos, es esencial verificar estos supuestos antes de proceder con el análisis final para asegurar la validez de las conclusiones.

Uno de los supuestos más conocidos es el principio de normalidad. Este supuesto asume que los datos están distribuidos de acuerdo con una distribución normal, también conocida como distribución gaussiana. Esto lo explico en otra sección, al hablar del Teorema del Límite Central (TLC). La distribución normal tiene esta apariencia:

Distribución normal de un
estadístico

Dependiendo de los supuesto con estos supuestos es crucial para garantizar la validez y fiabilidad de los resultados estadísticos.

Técnicas estadísticas

Al diseñar una investigación, el investigador puede elegir entre distintas técnicas para el análisis de datos. Estas técnicas se utilizan para evaluar la validez de las hipótesis estadísticas, medir la significancia de los resultados, comparar diferentes grupos o muestras, y explorar relaciones entre variables.

La elección de un tipo u otro de técnicas depende de la naturaleza de los datos. Concretamente, la técnicas de análisis apropiada para cada investigación depende de si los datos siguen o no una distribución conocida y predecible.

Técnicas paramétricas

Cuando la distribución de datos es conocida y predecible, la investigación puede utilizar técnicas paramétricas.

Técnicas no-paramétricas

Por el contrario, cuando la distribución de datos es más variable o anómala, es necesario utilizar técnicas no-paramétricas.

Si los datos cumplen con los supuestos de los métodos paramétricos, estos suelen ser preferidos debido a su mayor eficiencia y poder. Sin embargo, cuando los supuestos no se cumplen, los métodos no paramétricos proporcionan una alternativa robusta y flexible.

Relación entre los sujetos y la muestra

Hay una clasificación que se vuelve extremadamente importante y que es crucial. Se trata de la diferencia entre una investigación con varios ensayos en los que las muestras son dependientes o independientes.

Es decir, la diferencia entre una investigación en la que hay relación entre los sujetos o las observaciones dentro de la muestra o entre muestras, y en la que no hay tal relación.

La correcta identificación del tipo de muestra asegura la validez de los resultados del estudio y ayuda a evitar errores de interpretación que podrían surgir al aplicar técnicas estadísticas inadecuadas para el tipo de datos recogidos. A continuación, explico cada una de ellas:

Muestras dependientes

Muestras dependientes, también conocidas como muestras relacionadas o emparejadas, involucran grupos de datos que están conectados o relacionados de alguna manera. Este vínculo puede deberse a que los datos provienen del mismo individuo, objeto o sujeto experimental en diferentes puntos en el tiempo, o porque los sujetos están emparejados en pares que son comparables en variables relevantes.

Por ejemplo:

  • Estudios longitudinales: donde se sigue a los mismos individuos a lo largo del tiempo para observar cómo cambian sus respuestas o condiciones bajo un tratamiento específico.
  • Diseños cruzados: en estos estudios, cada participante recibe más de un tratamiento en diferentes períodos. Esto permite que cada participante actúe como su propio control.
  • Estudios de casos y controles emparejados: donde cada caso con una condición específica se empareja con un control que es similar en términos de variables confusoras como edad, género, etc.

Las muestras dependientes suelen tener comparaciones intra-sujeto o intra-grupo.

Muestras independientes

Muestras independientes se refieren a cuando los grupos de datos o muestras recogidos en un estudio no están relacionados entre sí.

Esto significa que la selección de un participante o una observación en una muestra no afecta de ninguna manera la selección de participantes en otra muestra.

Este tipo de diseño se utiliza comúnmente en estudios observacionales y experimentales donde se quiere comparar dos grupos o condiciones distintas bajo la suposición de que no existe una relación o conexión previa entre los participantes de cada grupo.

Muestras independientes suelen tener comparaciones inter-grupo.

Pruebas estadísticas

El concepto de "prueba" en el contexto de las pruebas estadísticas se refiere a un procedimiento que genera un valor que ayuda a evaluar la significación de un efecto observado en los datos. El objetivo es determinar si el efecto puede atribuirse a algo más que la mera casualidad o azar.

La estadística utiliza muchísimas pruebas, y cada una tiene una finalidad sorprendentemente específica. Por ejemplo:

  • Prueba tt de Student: Prueba la diferencia entre las medias de dos grupos.
  • Prueba W de Wilcoxon y Prueba U de Mann-Whitney: Son pruebas no paramétricas que comparan medianas o rangos entre grupos.
  • Prueba de Levene: prueba la homogeneidad de las varianzas entre grupos.
  • Prueba FF de Fisher: usada en ANOVA para comparar varianzas y determinar si las medias entre varios grupos son diferentes.
  • ANOVA: analiza las diferencias entre las medias de tres o más grupos.
  • Prueba de Tukey: utilizada para realizar comparaciones múltiples entre medias de grupos después de ANOVA.
  • Prueba de Games-Howell: similar a Tukey, pero no asume homogeneidad de varianzas.

Cada prueba estadística calcula un estadístico, como el estadístico tt, el estadístico FF, o el estadístico UU. Este valor se obtiene a partir de los datos de la muestra y sirve para cuantificar la relación o diferencia observada en el contexto de la prueba.

Además, algunas pruebas estadísticas incorporan otras pruebas como parte de su procedimiento global. Por ejemplo, la prueba ANOVA puede utilizar la prueba FF de Fisher y la prueba de Levene dentro de su cálculo.