Regresión lineal
La regresión lineal es una técnica estadística que se utiliza para predecir la variable de resultado (variable dependiente) a partir de una o más variables predictoras (variables independientes).
En una regresión lineal, una variable explica otra variable. Por eso, al hacer una regresión lineal utilizo el término variable predictora para referirme a lo que típicamente llamaría la variable independiente, o factor. De forma similar, utilizamos el término variable resultado para referirnos a la variable dependiente.
Fundamento
La regresión lineal es una técnica estadística que se utiliza para predecir la variable de resultado (variable dependiente) a partir de una o más variables predictoras (variables independientes). La lógica básica que sigue la regresión lineal es la siguiente:
- Puntuación observada: Es el valor real observado de la variable dependiente para la observación .
- Modelo: Es la parte que predice el modelo de regresión. En el caso de la regresión lineal simple, el modelo se expresa como:
donde:
- es la ordenada en el origen (intercepto).
- es el coeficiente de la pendiente que indica el cambio en la variable dependiente por cada unidad de cambio en la variable independiente .
- Error: Es la diferencia entre el valor observado y el valor predicho por el modelo para la observación . Se denota como:
Una regresión lineal es lineal porque genera una línea recta. Si hago un poco de memoria, puedo recordar que en la escuela me explicaron que una recta se puede expresar en estos términos:
Donde:
- es la pendiente.
- es el valor desde el que empieza la línea. Mejor dicho, el valor de cuando
- e son las coordenadas del punto, de manera que puedo calcular el valor para cada valor .
El objetivo de la regresión lineal es encontrar la línea que minimiza el error total. Esta línea recta será la que mejor prediga valores desconocidos.
Como he dicho antes, generalmente una línea recta se expresa así:
Esto también es cierto en la regresión lineal. No obstante, en una regresión lineal hay que considerar que se produce un error, ya que la predicción no será perfecta. Por lo tanto:
Sin embargo, al expresar una regresión lineal, utilizo una notación ligeramente distina para seguir las convenciones estadísticas:
De hecho, al expresar la ecuación de una regresión lineal, intercambio la posición de la pendiente y la constante, así:
El motivo de este cambio de orden es que cuando escribo una regresión lineal multivariable (con más de un predictor), tengo que añadir múltiples variables a la ecuación. Mantener el intercepto primero y luego los coeficientes de los predictores, ayuda a identificar rápidamente qué es qué.
- : Representa el valor observado de la variable dependiente para la observación . Es el valor real que hemos medido o registrado.
- : Representa el valor predicho por el modelo de regresión para la observación . Es el valor estimado por la ecuación de regresión.
Es resumen: la ecuación de una regresión lineal simple se expresa así:
Donde:
- es la variable dependiente (lo que estoy tratando de predecir).
- es la variable independiente (el predictor).
- es la constante, llamada también intersección e intercepto.
- es el coeficiente de la pendiente, llamada también gradiente o slope, que indica el cambio en por cada unidad de cambio en .
- representa el de error (la diferencia entre el valor observado y el valor predicho).
Pregunta
La constante (b₀) hace referencia al valor de la variable de resultado cuando la puntuación en la variable predictora es de cero.
Intercepto
El intercepto (), también llamado constante o intersección, tiene un significado importante en el contexto del modelo. En el contexto de la línea expresada como , el intercepto es . Sin embargo, la convención en regresiones lineales es llamarlo .
El intercepto representa el valor esperado de la variable dependiente cuando la variable independiente es igual a cero. En otras palabras, es el punto en el que la línea de regresión cruza el eje Y.
El valor del intercepto debe interpretarse en el contexto del problema específico. En algunos casos, un valor de igual a cero puede no tener sentido práctico, y en esos casos, el intercepto puede no ser relevante. Sin embargo, sirve como una base de comparación para evaluar el impacto de la variable independiente sobre la variable dependiente .
Gradiente
El gradiente (), también llamado pendiente o slope, tiene un significado importante en el contexto del modelo.
En el contexto de la línea expresada como , el gradiente es . Sin embargo, la convención en regresiones lineales es llamarlo .
El gradiente representa el cambio esperado en la variable dependiente () por cada unidad de cambio en la variable independiente (). Específicamente:
- Pendiente positiva (): Indica que a medida que aumenta, también tiende a aumentar. La relación entre y es directa.
- Pendiente negativa (): Indica que a medida que aumenta, tiende a disminuir. La relación entre y es inversa.
- Pendiente cero (): Indica que no hay relación lineal entre y . Los cambios en no afectan a .
La interpretación del gradiente debe hacerse en el contexto de los datos y del dominio específico del problema. Es importante considerar no solo el valor numérico de , sino también su significancia estadística y el intervalo de confianza asociado, para asegurar que la relación observada no es producto del azar.
Pregunta
Si la pendiente (b₁) es negativa, la variable de resultado aumenta cuando la variable predictora disminuye y viceversa.
Error
En una regresión lineal, el error (), también llamado valores residuales o sencillamente residuos, es la diferencia entre el valor observado y el valor predicho para una observación . Es decir, es el efecto del error del modelo en cada valor.
Es decir: en una regresión lineal, el residuo es la diferencia entre el valor observado y el valor predicho para una observación . Así, representa el error del modelo para cada valor observado.
En una gráfica, el residuo se puede visualizar como la distancia vertical entre la línea de regresión y el valor real observado. En términos matemáticos, se puede expresar de la siguiente manera:
Donde:
- es el residuo para la observación .
- es el valor observado de la variable dependiente para la observación .
- es el valor predicho por el modelo de regresión para la observación .
La magnitud del residuo indica el tamaño del error de predicción. Un residuo grande significa que hay una gran discrepancia entre el valor observado y el valor predicho, lo que puede indicar que el modelo no está ajustando bien esa observación en particular.
El signo del residuo (positivo o negativo) indica la dirección del error. Un residuo positivo significa que el valor observado es mayor que el valor predicho, mientras que un residuo negativo significa que el valor observado es menor que el valor predicho.
Los residuos se utilizan para diagnosticar problemas con el modelo, como la falta de linealidad, la presencia de outliers y la heterocedasticidad (varianza no constante de los residuos).
Los gráficos de residuos, como el gráfico de valores residuales versus valores predichos, ayudan a visualizar patrones en los errores y a detectar problemas potenciales con el modelo.
Pregunta
En la regresión lineal, la variable predictora (VI) va siempre en el eje Y, mientras que la variable de resultado (VD) va en el eje X.
Supuestos
Para que una regresión lineal sea válida, los datos deben cumplir ciertos supuestos. Es decir, deben darse ciertas condiciones teóricas para que la regresión lineal sea una estrategia de análisis adecuada. Estos supuestos son:
- La variable de resultado es continua: la variable dependiente debe ser continua, lo que significa que puede tomar un rango amplio de valores numéricos.
- La variable predictora es continua o categórica binaria (solo 2 niveles): la variable independiente puede ser continua (con valores numéricos) o binaria (con solo dos niveles, como 0 y 1).
- La variable predictora no es constante: las variables independientes no deben ser constantes; es decir, no todos los participantes deben tener el mismo valor en esa variable, ya que esto no proporcionaría información útil para la predicción.
- Hay baja correlación de los predictores con terceras variables (extrañas): los predictores no deben estar altamente correlacionados con otras variables externas que no están incluidas en el modelo, para evitar confusiones sobre las fuentes de variabilidad.
- Homoscedasticidad (igualdad de varianzas): la varianza de los errores debe ser constante a lo largo de todos los niveles de la variable independiente. En otras palabras, los residuos deben mostrar una dispersión uniforme a lo largo de los valores predichos.
- Independencia de residuales: los residuos o errores deben ser independientes entre sí, lo que significa que no debe haber patrones sistemáticos en los errores de predicción.
- Normalidad en las puntuaciones residuales: los residuos o errores deben seguir una distribución normal. Esto es importante para hacer inferencias estadísticas válidas.
- Independencia de resultados (cada valor es de un sujeto distinto): cada observación debe ser independiente, lo que significa que los valores de la variable dependiente deben provenir de sujetos distintos y no relacionados.
- Linealidad entre variable predictora y resultado: debe existir una relación lineal entre la variable independiente y la variable dependiente. Esto significa que los cambios en la variable independiente deben asociarse con cambios proporcionales en la variable dependiente.
En el caso de una regresión lineal múltiple, hay su puesto adicional muy imporante:
- No hay multicolinealidad, es decir los predictores está muy relacionados: los predictores deben ser relativamente independientes entre sí. Si los predictores están muy correlacionados, puede ser difícil distinguir sus efectos individuales en la variable dependiente.
Pregunta
En la regresión múltiple debe existir multicolinealidad: que dos o más variables predictoras estén altamente relacionadas entre sí.
Comprobación de no-multicolinealidad (VIF)
Hay una prueba que permite verificar que no se produzca multicolinealidad. Esta prueba se llama Factor de Inflación de Varianza, aunque generalmente se denomina .
del inglés: Variance Inflation Factor.
Esta prueba se calcula de forma automática al ejecutar una regresión lineal en SPSS. Cuando ejecuto una prueba VIF, el supuesto de no-multicolinealidad se contrasta en base a un valor estándar de 5, de manera que:
- Si , hay una correlación moderada. Por lo tanto, no hay multicolinealidad.
- Si , considero que sí hay riesgo de multicolinealidad.
En caso de que hubiera riesgo de multicolinealidad en los datos, podría bien eliminar uno de los predictores que se correlacionan tan alto, o combinar algunas variables. Esto dependería del estudio y sería una decisión muy deliberada.
Método de Mínimos Cuadrados
La regresión lineal se fundamenta en el Método de Mínimos Cuadrados. A través del método de mínimos cuadrados, podemos encontrar el modelo que mejor ajusta nuestros datos y, por lo tanto, realizar predicciones más precisas.
El método de mínimos cuadrados es una técnica matemática que busca minimizar la suma de los cuadrados de las diferencias (errores) entre los valores observados y los valores predichos por el modelo. Matemáticamente, se define como la minimización de la siguiente suma:
Donde es el número de observaciones.
Pregunta
El método de los mínimos cuadrados consiste en encontrar una línea recta que maximice el valor de los residuos (es decir, la distancia entre cada una de las puntuaciones y dicha línea).
Cálculo
Dado el siguiente conjunto de datos:
7 | 2 |
1 | 9 |
10 | 5 |
5 | 5 |
4 | 7 |
11 | 3 |
13 | 2 |
10 | 5 |
2 | 14 |
Primero, calculo, para cada coordenada , el valor y el valor :
7 | 2 | 14 | 49 |
1 | 9 | 9 | 1 |
10 | 5 | 50 | 100 |
5 | 5 | 25 | 25 |
4 | 7 | 28 | 16 |
11 | 3 | 33 | 121 |
13 | 2 | 26 | 169 |
10 | 5 | 50 | 100 |
2 | 14 | 28 | 4 |
Después, sumo todas las columnas y obtengo los siguientes resultados:
La ecuación de la recta es:
Primero, voy a calcular la pendiente (). En el contexto de una regresión lineal, esta será el gradiente (). La fórmula para calcular la pendiente es:
Sustituyendo los valores:
Es decir, la pendiente .
Ahora calculo la intersección (). En el contexto de una regresión lineal, este será el intercepto (). La fórmula para calcular la intersección es:
Donde y son las medias de y respectivamente.
Ahora sustituyo los valores:
Finalmente, la ecuación de la recta de regresión es:
Esta es la recta que mejor minimiza el error. Por lo tanto, es la recta que mejor predice valores desconocidos.
Bondad de ajuste del modelo
La bondad de ajuste es una medida que indica, en esencia, cómo de bueno es el modelo. Es decir, cómo de bien predice valores. Dicho de otra manera: cómo de bien las predicciones del modelo se alinean con los valores reales observados.
Mediante comparación de modelos
Una de las formas de evaluar la bondad de ajuste de un modelo de regresión lineal es comparar dos modelos:
- Modelo de Relación: asume una relación entre la variable independiente y la variable dependiente.
- Modelo de No-Relación: asume que no existe relación entre las variables, es decir, la variable dependiente se predice simplemente por su media.
Para evaluar cuál de los dos modelos explica mejor la variabilidad de los datos, utilizo las sumas de cuadrados de ambos modelos.
Pregunta
En el modelo de no relación, cualquier cambio en la variable predictora va a dar lugar a un valor aleatorio en la otra variable.
Suma de Cuadrados Total ()
Representa la variabilidad total de los datos observados con respecto a su media. Es decir, la variabilidad en ambos modelos.
Se calcula como:
Esta medida no depende de ningún modelo y simplemente mide la dispersión de los datos.
Suma de Cuadrados del Modelo de No-Relación
Es igual a la suma de cuadrados total, ya que el modelo de no-relación asume que todas las predicciones son iguales a la media de los valores observados.
Por lo tanto:
Suma de Cuadrados del Modelo de Relación
Representa la variabilidad explicada por el modelo de relación, es decir, cuánto se reduce la variabilidad total al ajustar el modelo de regresión.
Se calcula como:
Pregunta
La suma de cuadrados del modelo (SCₘ) es la diferencia entre la cantidad de información que el modelo de no relación no puede explicar y la cantidad de información que el modelo de relación no puede explicar.
Suma de Cuadrados Residual
Representa la variabilidad que no es explicada por el modelo de relación.
Se calcula como:
Evaluación de la bondad de ajuste
La comparación entre el modelo de relación y el modelo de no-relación se realiza utilizando la Suma de Cuadrados del Modelo (), que mide la mejora del modelo de relación sobre el modelo de no-relación.
Donde:
- : Suma de Cuadrados del Modelo.
- : Suma de Cuadrados Total.
- : Suma de Cuadrados Residual.
Esta medida me dice cuánta de la variabilidad total de los datos es explicada por el modelo de relación.
- Un valor alto de indica que el modelo de relación explica una gran parte de la variabilidad de los datos en comparación con el modelo de no-relación.
- Un valor bajo de indica que los errores de predicción del modelo de relación son pequeños, lo que sugiere un buen ajuste del modelo.
Así, el método de comparación entre el modelo de relación y el modelo de no-relación utilizando las sumas de cuadrados proporciona una forma efectiva de evaluar la bondad de ajuste de un modelo de regresión. Este enfoque nos permite cuantificar la mejora en la explicación de la variabilidad de los datos que ofrece el modelo de relación en comparación con un modelo que no asume ninguna relación entre las variables.
ANOVA
Otra forma de evaluar la bondad del ajuste es el análisis de la varianza (ANOVA). El ANOVA se utiliza precisamente para realizar comparaciones. Por eso, se puede utilizar también en el contexto de la regresión lineal para evaluar la bondad de ajuste.
Este método descompone la variabilidad total en componentes explicados por el modelo y componentes residuales, y utiliza el estadístico para determinar la significancia del modelo.
Si el valor de calculado es mayor que el valor crítico de (obtenido de la tabla de distribución ), rechazo la hipótesis nula y concluyo que el modelo de regresión proporciona un mejor ajuste que el modelo de no-relación.
Los cálculos necesarios se pueden visualizar bien en la tabla de ANOVA, que descompone la variabilidad total en la variabilidad explicada por el modelo y la variabilidad de los residuos. Los componentes principales de la tabla de ANOVA son:
Fuente | Suma de Cuadrados | Medias de Cuadrados | |
---|---|---|---|
Regresión | 1 | ||
Residuos | |||
Total |
Con esta información, puedo calcular el estadístico :
Y finalmente, comparo el valor contra el valor , que he buscado en la tabla con las coordernadas .
En un ANOVA para calcular la bondad de ajuste de un modelo de regresión lineal, la hipótesis nula () es que el modelo no tiene capacidad predictiva significativa. Es decir, el modelo no explica una cantidad significativa de la variabilidad en la variable dependiente. La hipótesis alternativa () es que el modelo sí tiene capacidad predictiva significativa.
- si , acepto
- si , rechazo , es decir: que el modelo sí predice con suficiente significancia. Dicho de otra manera: la variable predictora predice la variable resultado.
Por ejemplo, si tuviera una muestra con participantes y quiero comprobar si un modelo de regresión con una variable independiente predice la variable dependiente, tras aplicar las fórmulas de sumas de cuadrados y medias de cuadrados, los datos de ANOVA son los siguientes:
Fuente | Suma de Cuadrados () | Grados de Libertad () | Medias de Cuadrados () |
---|---|---|---|
Regresión | 144988.556 | 1 | 144988.556 |
Residuos | 1989851.328 | 8625 | 230.70 |
Total | 2134839.884 | 8626 |
Con esta información, puedo calcular el estadístico :
Luego, comparo el valor contra el valor , que busco en la tabla de distribución F con las coordenadas :
- Si , acepto .
- Si , rechazo .
En este ejemplo, el valor es 628.45, y el valor para es aproximadamente 3.85 (según la tabla de distribución F).
Dado que , rechazo .
Coeficiente de determinación (R²)
Otra forma de evaluar la bondad del ajuste es el coeficiente de determinación.
En una regresión lineal, el coeficiente de determinación () se utiliza tanto para evaluar la bondad de ajuste como para medir el tamaño del efecto.
es una medida que indica la proporción de la variabilidad total de la variable dependiente que es explicada por el modelo de regresión. Por eso, lo utilizo en el contexto de la regresión lineal para evaluar la bondad de ajuste.
La fórmula de es:
Donde:
- es el valor observado.
- es el valor predicho por el modelo.
- es la media de los valores observados.
Sin embargo, otra forma de representarlo sería utilizando las sumas de cuadrados:
Donde:
- es la Suma de Cuadrados del Modelo.
- es la Suma de Cuadrados Totales.
De esto se desprende que:
toma valores entre 0 y 1. Un valor de 1 indica que el modelo explica toda la variabilidad de los datos, mientras que un valor de 0 indica que el modelo no explica ninguna variabilidad.
Sin embargo, un bajo no siempre significa que el modelo es malo; puede ser que la relación entre las variables no sea lineal o que existan otros factores no considerados en el modelo.
Pregunta
Que un R²=0.26 sea interpretado como bajo, medio o alto depende de muchos factores, pero equivaldría a una relación alta entre dos variables si fuera transformado en correlación (r).
Imagina que tengo los siguientes valores observados y predichos:
(observado) | (predicho) |
---|---|
2 | 2.5 |
3 | 2.8 |
4 | 4.1 |
5 | 5.2 |
Para evaluar la bondad de ajuste del modelo, puedo calcular el coeficiente de determinación ().
Para ello, primero calculo , que es la media de los valores observados:
Después, calculo la suma de los cuadrados de los residuales ():
Finalmente, calculo la suma de los cuadrados totales ():
Ahora puedo aplicar la fórmula para calcular :
Por lo tanto, el coeficiente de determinación es . El alto valor de indica que el modelo explica una gran proporción de la variabilidad de los datos.
Coeficiente de determinación ajustado (R²ajustado)
El Coeficiente de determinación ajustado () se utiliza para evitar el problema de sobreajuste (overfitting) que puede ocurrir cuando se añaden demasiadas variables predictoras al modelo
ajusta el por el número de predictores en el modelo. Penaliza la inclusión de variables que no aportan mejora significativa al modelo.
mide la cantidad de variabilidad explicada por el modelo sin tener en cuenta la complejidad del mismo, mientras que ofrece una medida que considera tanto la variabilidad explicada como la cantidad de predictores utilizados, penalizando modelos que añaden predictores sin mejorar sustancialmente el ajuste.
Pregunta
El coeficiente de determinación (R²) en una regresión múltiple podría inflarse si existen numerosas variables predictoras, por lo que conviene calcular y considerar el R² ajustado.
Error Cuadrático Medio (MSE)
Otra medida que permite evaluar la bondad del ajuste es el Error Cuadrático Medio (MSE).
Del inglés: Mean Squared Error
MSE mide la media de los cuadrados de los errores (residuales). Es una medida de la magnitud promedio de los errores de predicción.
La fórmula del MSE es:
Donde:
- es el número de observaciones.
- es el valor observado.
- es el valor predicho por el modelo.
Un MSE menor indica un mejor ajuste del modelo a los datos.
Raíz del Error Cuadrático Medio (RMSE)
De forma similar, la Raíz del Error Cuadrático Medio (RMSE) también sirve para evaluar la bondad del ajuste.
Del inglés: Root Mean Squared Error
RMSE es la raíz cuadrada del MSE. Proporciona una medida de la magnitud promedio de los errores de predicción en las mismas unidades que la variable dependiente.
La fórmula del RMSE es:
Valores bajos de MSE y RMSE indican que los valores predichos por el modelo están cerca de los valores observados, lo que implica un buen ajuste del modelo.
Tamaño del efecto (R²)
En el contexto de la regresión lineal, el coeficiente de determinación () se utiliza como una medida del tamaño del efecto. El tamaño del efecto se refiere a la magnitud de la relación entre las variables independientes y la variable dependiente.
En una regresión lineal, el coeficiente de determinación () se utiliza tanto para evaluar la bondad de ajuste como para medir el tamaño del efecto.
El coeficiente de determinación () se define como la proporción de la variabilidad total en la variable dependiente que es explicada por las variables independientes en el modelo. Matemáticamente, se expresa como:
Donde:
- es el valor observado de la variable dependiente.
- es el valor predicho por el modelo.
- es la media de los valores observados.
El valor de indica la proporción de la variabilidad en la variable dependiente que es explicada por las variables independientes. Un valor más alto de sugiere un mayor tamaño del efecto, es decir, una relación más fuerte entre las variables independientes y la variable dependiente.
- Pequeño tamaño del efecto: alrededor de 0.01
- Mediano tamaño del efecto: alrededor de 0.09
- Grande tamaño del efecto: alrededor de 0.25 o mayor
Puesto que es siempre un valor entre 0 y 1, frecuentemente se expresa en forma de porcentaje.
Regresión lineal simple
Cuando sólo hay una variable predictora, hago una regresión lineal simple.
En una regresión lineal simple, el modelo matemático se expresa como:
Donde:
- es la variable dependiente (lo que estoy tratando de predecir).
- es la variable independiente (el predictor).
- es la constante, llamada también intersección e intercepto.
- es el coeficiente de la pendiente, llamada también gradiente o slope, que indica el cambio en por cada unidad de cambio en .
- representa el de error (la diferencia entre el valor observado y el valor predicho).
Supongamos que estoy estudiando la relación entre las horas de ejercicio (variable independiente ) y la pérdida de peso (variable dependiente ). Si el modelo de regresión lineal es:
Aquí, el coeficiente de regresión es 0.5. Esto significa que por cada hora adicional de ejercicio, la pérdida de peso esperada aumenta en 0.5 kg. La constante es 2, lo que indica la pérdida de peso esperada cuando no se realiza ejercicio (aunque esto debe interpretarse con cuidado en contexto).
Cálculo con SPSS
Los pasos a seguir en SPSS son:
- Cargar los datos
- Abrir la barra de herramientas
Analizar
y desplegarRegresión
. - Hacer click en la opción
Lineales
. - Ahora defino las variables de la regresión lineal. En la ventana que se ha abierto:
- Añadir la variable resultado a
Dependientes
. - Añadir la variable predictora a
Independientes
- Hacer click sobre
Estadísticos
.
- Añadir la variable resultado a
- Ahora selecciono los estadísticos. En la nueva ventana:
- Marco el checkbox
Estimaciones
. - Marco el checkbox
Ajuste del modelo
. - Marco el checkbox
Diagnóstico de colinealidad
. - Hago click sobre
Continuar
.
- Marco el checkbox
- Hacer click sobre
Aceptar
.
Esto crea una hoja con varios grupos de datos, entre ellos:
- Variables entradas/eliminadas: al ser una regresión lineal simple, sólo hay una variable; precisamente la variable predictora o independiente. En este apartado también se ve el método elegido, que por defecto es
Introducir
. - Resumen del modelo: esta tabla contiene el coeficiente de determinación ( o
R cuadrado
). No es necesario fijarse enR cuadrado ajustado
porque es una regresión lineal simple. El valor de oscila entre 0 y 1, por lo que también se puede leer como porcentaje; multiplicando el valor por 100. Este coeficiente refleja la proporción de la variable resultado que es explicada por la variable predictora. Esta tabla también contiene el estadístico , que es la raíz cuadrada de . - ANOVA: esta tabla muestra los resultados de la prueba de analisis de la varianza, que contiene el valor de significación () para contrastar si el modelo predice significativamente. La hipótesis nula es que el modelo no predice, por lo que si , rechazo la hipótesis nula y concluyo que el modelo sí predice significativamente.
- Coeficientes: contiene los valores que describen la ecuación de la recta. En la primera columna, llamada
B
, se encuentran la constante () y la pendiente (). Con estos valores, ya se puede describir la ecuación de la recta: . En la segunda columna, llamadaDesv. Error
, veo los residuos para ambos valores, que constituyen el error del modelo. Esta tabla también tiene unaSig.
, que contiene la significación () que utilizo para contrastar que la variable predictora predice significativamente la variable resultado. Al final, en la última columna, llamadaVIF
, se encuentra el valor que utilizo para comprobar si se cumple el supuesto de no-multicolinealidad: si , significa que el riesgo de multicolinealidad es demasiado alto y hay que re-plantear el modelo.
Regresión lineal múltiple
Cuando hay más de una variable predictora, hago una regresión lineal múltiple.
En una regresión lineal simple, el modelo matemático se expresa como:
- : Es el valor observado de la variable dependiente para la -ésima observación. Representa el resultado que estoy tratando de predecir o explicar con el modelo de regresión.
- : Es el intercepto o la ordenada al origen del modelo. Representa el valor esperado de cuando todas las variables independientes () son iguales a cero. En otras palabras, es el punto en el que la línea de regresión cruza el eje .
- :
- : Es la pendiente o coeficiente de regresión asociado con la primera variable independiente . Indica el cambio esperado en por cada unidad de cambio en , manteniendo constantes todas las demás variables independientes.
- : Es el valor de la primera variable independiente para la -ésima observación. Representa uno de los factores que puede influir en .
- :
- : Es la pendiente o coeficiente de regresión asociado con la segunda variable independiente . Indica el cambio esperado en por cada unidad de cambio en , manteniendo constantes todas las demás variables independientes.
- : Es el valor de la segunda variable independiente para la -ésima observación. Representa otro factor que puede influir en .
- : Representa que el modelo puede incluir más términos similares para cada una de las variables independientes adicionales (, , etc.), con sus respectivos coeficientes (, , etc.).
- : También conocido como el residuo o error. Representa la diferencia entre el valor observado y el valor predicho por el modelo de regresión. Captura la variabilidad en que no es explicada por las variables independientes en el modelo. Se asume que estos errores son independientes y están normalmente distribuidos con media cero y varianza constante.
En una ecuación de regresión lineal múltiple, cada (donde ) representa el efecto parcial de la variable independiente en la variable dependiente , controlando por las demás variables independientes.
El término proporciona el valor de cuando todas las variables independientes son cero, y el término de error captura la variabilidad no explicada por el modelo.
Cálculo con SPSS
Los pasos a seguir en SPSS son:
- Cargar los datos
- Abrir la barra de herramientas
Analizar
y desplegarRegresión
. - Hacer click en la opción
Lineales
. - Ahora defino las variables de la regresión lineal. En la ventana que se ha abierto:
- Añadir la variable resultado a
Dependientes
. - Añadir todas las variables predictoras a
Independientes
- Hacer click sobre
Estadísticos
.
- Añadir la variable resultado a
- Ahora selecciono los estadísticos. En la nueva ventana:
- Marco el checkbox
Estimaciones
. - Marco el checkbox
Ajuste del modelo
. - Marco el checkbox
Diagnóstico de colinealidad
. - Hago click sobre
Continuar
.
- Marco el checkbox
- Hacer click sobre
Aceptar
.
Esto crea una hoja con varios grupos de datos, entre ellos:
- Variables entradas/eliminadas: al ser una regresión lineal múltiple, hay múltiples variables; precisamente las variables predictoras o independientes. En este apartado también se ve el método elegido, que por defecto es
Introducir
. - Resumen del modelo: esta tabla contiene el coeficiente de determinación ( o
R cuadrado
). Esta vez, tengo que fijarme enR cuadrado ajustado
() porque es una regresión lineal múltiple. El valor de y oscila entre 0 y 1, por lo que también se puede leer como porcentaje; multiplicando el valor por 100. Este coeficiente refleja la proporción de la variable resultado que es explicada por la variable predictora. Esta tabla también contiene el estadístico , que es la raíz cuadrada de . - ANOVA: esta tabla muestra los resultados de la prueba de analisis de la varianza, que contiene el valor de significación () para contrastar si el modelo predice significativamente. La hipótesis nula es que el modelo no predice, por lo que si , rechazo la hipótesis nula y concluyo que el modelo sí predice significativamente.
- Coeficientes: contiene los valores que describen la ecuación de la recta. En la primera columna, llamada
B
, se encuentra la constante (). Además, hay múltiples valores de pendiente (); uno por cada variable predictora. Con estos valores, se puede describir la ecuación de la recta: . En la segunda columna, llamadaDesv. Error
, veo los residuos para todos valores, que constituyen el error del modelo. La siguiente columna, llamadaCoeficientes estandarizados Beta
contiene el valor estandarizado de la pendiente, cuyo utilidad es comparar las distintas pendientes. Esta tabla también tiene unaSig.
, que contiene la significación () que utilizo para contrastar que las variables predictoras predicen significativamente la variable resultado. Cada una de las variables predictoras tiene su propio valor de significación. Al final, en la última columna, llamadaVIF
, se encuentra el valor que utilizo para comprobar si se cumple el supuesto de no-multicolinealidad: si en alguna de las variable , significa que el riesgo de multicolinealidad es demasiado alto y hay que re-plantear el modelo.