21 Oct

ANÁLISIS DE REGRESIÓN


1 DEFINICIÓN:
Determina en que medida los cambios en los valores de una variable están asociados a cambios en los valores de otra. Pretende descubrir que variable o variables pueden  predecir mejor los valores que adquirirá otra variable.
Si el análisis implica una variable pronosticadora:
Regresión Simple.
Si el análisis implica 2 o más variables pronosticadoras: Regresión Múltiple.
2 CRITERIO DE MÍNIMOS CUADRADOS:
Es una técnica de optimización estadística que en el análisis de regresión utilizamos
para localizar la recta de regresión
3 ERRORES DE PREDICCIÓN:
Solo aquellos valores que estén encima de la recta, el valor real coincidirá con el pronosticado, el resto de los casos presentan un error en la predicción que en conjunto está contrapesado por los casos que están por encima y por debajo de la recta. Los casos suelen estar en un espacio cercano a la recta de regresión (residuo relativamente pequeños) habrá casos que el unos casos tengan residuos más elevados.
El error típico es la desviación típica de los coeficientes de regresión al realizar un pronóstico. 
5 REGRESIÓN MÚLTIPLE:
Se pueden utilizar varias variables pronosticadoras y, así, utilizar la técnica del análisis de regresión múltiple.
    5.1 MÉTODOS DE SELECCIÓN DE VARIABLES:
     • 5.1.1 INTRODUCIR:
Se genera un solo modelo de regresión que incluye a todas las variables pronosticadoras. Las variables no tienen que cumplir condiciones
para incluirlas. No es posible determinar cual es el conjunto de variables que ofrece una explicación adecuada con el menor número de variables.
    • 5.1.2 HACIA DELANTE:
Se pueden generar diversos modelos de regresión. En el primer modelo solo se introduce la variable que presente la mayor correlación
con la variable criterio. En el segundo modelo se introduce, junto a la primera otra variable que produzca el mayor aumento significativo de R2 .Así sucesivamente hasta que se hayan introducido todas las que produzcan un cambio significativo de R2
.   • 5.1.3 HACIA ATRÁS:
Lo contrario al anterior, se comienza con todas las variables pronosticadoras y se elimina la que produzca menor cambio de R2 . Se
dejan de eliminar variables cuando, al quitar cualquiera de ellas se produzca un cambio significativo en R2
.   • 5.1.4 PASO A PASO:
Es el método más habitual, es parecido al 5.1.2, solo que una vez introducida una variable en el modelo, se eliminan cualesquiera de las
variables que ya estén en el modelo que no sean pronosticadores significativos, esto es, se eliminan las variables cuya importancia decrece al incorporar nuevas
variables pronosticadoras. En cada paso se introduce una nueva variable en el modelo y se examinan las variables para ver si cumplen los criterios de eliminación. El proceso se detiene cuando no haya más variables que cumplan el criterio de entrada o de exclusión. 

  5.2 MULTICOLINEALIDAD: Cuando 2 variables presentan una alta correlación mutua, se dice que son colineales, multicolineales se refiere pues a 3 o más variables. A
medida que aumenta la colinealidad, una parte del poder predictivo es compartido, con lo que decrece el poder predictivo del conjunto de variables.
    • 5.2.1 COEFICIENTES DE CORRELACIÓN PARCIAL:
Hace referencia a la correlación entre cada variable pronosticadora y la variable criterio descartando el efecto lineal de las demás variables pronosticadores sobre ambas variables.
• 5.2.2 COEFICIENTE DE TOLERANCIA:
Representa la proporción de la variabilidad de la variable criterio que no es explicada por las demás variables pronosticadoras.
• 5.2.3 FACTOR DE INFLACIÓN DE LA VARIANZA (FIV): Reverso del coeficiente de tolerancia.
Valores cercanos a 1 en el FIV indican baja colinealidad, mayores a 1 alto grado de colinealidad.

EL PROCESO DE INVESTIGACIÓN (A.R. MÚLTIPLE)



1 OBJETIVOS: Establecer qué conjunto de variables pueden ofrecer una explicación suficiente y determinar con que precisión se puede predecir el índice de difusión.
2 DISEÑO:En esta fase debemos asegurar la eficacia del Análisis de Regresión mediante el adecuado tamaño de la muestra, la selección de variables y la transformación de las variables.
 • 2.1 TAMAÑO DE LA MUESTRA: Una muestra mayor a 20 casos y como mínimo 5 casos por cada variable pronosticadora (lo ideal: entre 15 y 20)
 • 2.2 SELECCIÓN DE LAS VARIABLES: La variable criterio y las variables pronosticadoras han de ser métricas.
 • 2.3 TRANSFORMACIÓN DE LAS VARIABLES: Se transforman si no son métricas o la relación no es lineal.
3 SUPUESTOS
   • 3.1 LINEALIDAD: La relación entre las variables se ajusta a una línea recta. Se examina con el estudio de la distribución de los residuos.
   • 3.2 NORMALIDAD: Los residuos han de distribuirse de una forma que se ajuste a la campana de Gauss. Se examina en el histograma.
   • 3.3 HOMOCEDASTICIDAD: La varianza ha de ser constante a lo largo de la recta de regresión.
   • 3.4 INDEPENDENCIA DE LOS RESIDOS: Los residuos no han de encontrarse relacionados entre sí.

4 EXTRACCIÓN
  • 4.1 SELECCIONAR EL MÉTODO DE EXTRACCIÓN MÁS ADECUADO: Principio de parsimonia: Reducir al máximo el número de variables pronosticadoras sin una pérdida elevada de su capacidad explicativa conjunta.
  • 4.2 VALORAR LA SIGNIFICACIÓN ESTADÍSTICA: Valorar si el análisis de regresión ofrece unos modelos mejores al que se pudieran obtener haciéndolo al azar.

  • 4.3 ESTIMAR LA CAPACIDAD DE LAS V.P PARA PREDECIR LA V.C: Para ver la capacidad predictiva usamos R2
. • 4.4 DETERMINAR SI CUALQUIER OBSERVACIÓN EJERCE UNA INFLUENCIA INDEBIDA EN LOS REULTADOS: Algunos residuos pueden tener un peso específico mayor a los demás a la hora de determinar la recta de regresión. Habría que valorar si se excluyen o no.
5 INTERPRETACIÓN
 • 5.1 INTERPRETACIÓN DE LA ECUACIÓN DE REGRESIÓN: Valorar en que medida varían los valores de la variable criterio por cada variación unitaria de las variables pronosticadoras.
 • 5.2 MULTICOLINEALIDAD: Determinar la importancia relativa de cada una de las variables predictoras en la explicación de la variable criterio mediante la presencia de efectos de multicolinealidad entre las variables pronosticadoras.
6 VALIDACIÓN :Se suele utilizar el método del submuestreo: Utilizar una muestra dividiendo la ya existente y comparar los resultados. Si se alcanzan las mismas conclusiones, los resultados quedan validados.

Deja un comentario