Formulario de Regresion Lineal


RLM_3D

Navegue por el glosario usando este índice.

Especial | A | B | C | D | E | F | G | H | I | J | K | L | M | N | Ñ | O | P | Q | R | S | T | U | V | W | X | Y | Z | TODAS

F

Factor de inflación de la varianza (VIF)

n estadística, el factor de inflación de la varianza (FIV, a veces también conocido por su nombre en inglés, variance inflation factor, y de ahí VIF) cuantifica la intensidad de la multicolinealidad en un análisis de regresión normal de mínimos cuadrados. Proporciona un índice que mide hasta qué punto la varianza (el cuadrado de la desviación estándar estimada) de un coeficiente de regresión estimado se incrementa a causa de la colinealidad.

Considerando el siguiente modelo lineal con k variables independientes

Y = β0 + β1X1 + β2X 2 + ... + βkXk + ε.

El error estándar de la estimación de βj es la raíz cuadrada de los j+1, j+1 como elemento de s2(XX)−1, donde s es la raíz del error cuadrático medio (RECM), teniendo en cuenta que RECM2 es un estimador insesgado de la varianza del error σ2{\displaystyle \sigma ^{2}}{\displaystyle \sigma ^{2}}); X es la regresión de la matriz de diseño -una matriz en la que Xi, j+1 es el valor de la j enésima variable independiente para el i enésimo caso u observación, por lo que Xi, 1 es 1 para todo i-. Resulta que el cuadrado de este error estándar, la varianza estimada de βj, puede expresarse de manera equivalente como:

{\displaystyle {\rm {\widehat {var}}}({\hat {\beta }}_{j})={\frac {s^{2}}{(n-1){\widehat {\rm {var}}}(X_{j})}}\cdot {\frac {1}{1-R_{j}^{2}}},}

donde Rj2 es el múltiplo R2 para la regresión de Xj sobre otras covariables (una regresión que no involucra la respuesta de la variable Y). Esta identidad separa las influencias de varios factores diferentes en la varianza de la estimación del coeficiente:

  • s2: una gran dispersión en los datos de la representación de la regresión llevan proporcionalmente a una mayor varianza en las estimaciones de los coeficientes.
  • n: un gran tamaño de la muestra se traduce proporcionalmente en una menor varianza en los estimadores del coeficiente.
  • var^(Xj){\displaystyle {\widehat {\rm {var}}}(X_{j})}{\displaystyle {\widehat {\rm {var}}}(X_{j})}: una gran variabilidad en una covariable particular lleva proporcionalmente a una menor varianza en la correspondiente estimación del coeficiente.

Se pueden calcular los k factores de inflación de la varianza diferentes (uno para cada Xi) en tres pasos:

Primer paso

En primer lugar se realiza una regresión de mínimos cuadrados que tenga a Xi como una función de las demás variables explicativas de la primera ecuación.

Si i = 1, por ejemplo, la ecuación sería:

X1=α2X2+α3X3+⋯+αkXk+c0+e{\displaystyle X_{1}=\alpha _{2}X_{2}+\alpha _{3}X_{3}+\cdots +\alpha _{k}X_{k}+c_{0}+e}{\displaystyle X_{1}=\alpha _{2}X_{2}+\alpha _{3}X_{3}+\cdots +\alpha _{k}X_{k}+c_{0}+e}

donde c0 es una constante y e es el error.

Segundo paso

En segundo lugar, se calcula el factor de inflación de la varianza para β^i{\displaystyle {\hat {\beta }}_{i}}{\displaystyle {\hat {\beta }}_{i}} con la siguiente fórmula:

FIVi=11−Ri2{\displaystyle \mathrm {FIV_{i}} ={\frac {1}{1-R_{i}^{2}}}}{\displaystyle \mathrm {FIV_{i}} ={\frac {1}{1-R_{i}^{2}}}}

donde R2i es el coeficiente de determinación de la ecuación de regresión del primer paso, con Xi{\displaystyle X_{i}}{\displaystyle X_{i}} en el lado izquierdo y el resto de variables predictivas en el derecho.

Tercer paso

Se analiza la magnitud de la multicolinealidad considerando el tamaño de FIV⁡(β^i){\displaystyle \operatorname {FIV} ({\hat {\beta }}_{i})}{\displaystyle \operatorname {FIV} ({\hat {\beta }}_{i})}. Si FIV⁡(β^i)>10{\displaystyle \operatorname {FIV} ({\hat {\beta }}_{i})>10}{\displaystyle \operatorname {FIV} ({\hat {\beta }}_{i})>10}, la multicolinealidad es alta.1