Podemos hablar de multicolinealidad perfecta, cuando los estimadores de la regresión son indeterminados, es decir, no pueden ser hallados; a diferencia de la multicolinealidad menos que perfecta, en la que si es posible hallar el estimador "B".
Por la existencia de multicolinealidad no significa que los estimadores MCO dejen de ser MELI, pero si conllevan a tener varianzas y covarianzas muy altas.
Por la existencia de multicolinealidad no significa que los estimadores MCO dejen de ser MELI, pero si conllevan a tener varianzas y covarianzas muy altas.
La multicolinealidad aparece cuando el modelo no fue correctamente especificado o hay redundancia entre las variables, así como también el problema puede provenir desde el recojo de información.
Como mencionamos anteriormente, cuando se tiene un caso de multicolinealidad perfecta no es posible hacer la regresión por el simple hecho de no poder hallar el estimador "B", pero cuando estamos frente a una multicolinealidad menos que perfecta si sería posible, pero ¿ Cómo podemos detectar que estamos en un caso como éste?; la multicolinealidad menos que perfecta, se caracteriza por mostrar resultados en una regresión como R^2 muy altos y al mismo tiempo sus variables al pasar por la prueba de hipótesis de forma individual son no significativas, y si tratamos de correlacionar ambas variables exógenas o regresoras entre pares, tendremos también un coeficiente de correlación muy alto, cercano a uno.
Sea el caso mostrado en el cuadro se aprecia claramente un R^2 muy alto, es decir, que la variable "Cons" es explicada en 80.3625% por las variables "Y" e "IMP1", mientras que éstas mismas son variables no significativas, siendo evaluadas de forma individual, ya que su p>0.05.
La mejor forma de terminar con la multicolinealidad es eliminando una de las variables exógenas que se viene correlacionando con la otra.
La mejor forma de terminar con la multicolinealidad es eliminando una de las variables exógenas que se viene correlacionando con la otra.
EXCELENTE TEMA
ResponderEliminar