viernes, 21 de junio de 2013

Supuestos del modelo clásico de regresión lineal

Es importante tener muy en cuenta los siguientes supuestos:

1) Linealidad en los parámetros:

 Este supuesto indica la necesidad de que los coeficientes sean lineales, es decir, que sus exponentes o potencias sean 1.

Y = B0 + B1X1 + B2X2 + B3X3 + … + u


Algo resaltante en este supuesto es la linealidad en los parámetros, que es muy distinto a expresar una relación lineal entre las variables "X" y "Y".


2) Condición de rango: 

Es un supuesto de confirmación e identificación, que nos indica si es posible hallar el estimador "B".
Rango(X) = K

Dentro de este supuesto se debe cumplir:

- Las columnas de la variable X deben ser linealmente independientes.
- No debe existir multicolinealidad, es decir relaciones lineales entre las variables         independientes o exógenas.
- El número de observaciones debe ser mayor que el de variables exógenas, n < k


3) La media condicional de "u" dado "x" es cero: 

Se tiene como primer momento que las perturbaciones presentan media incondicional nula. 

E [u | x] = 0   =>   E [ui] = 0  ,   i = 1, 2, … , n

La media condicional de U dado X es cero, es decir la covarianza entre U y X debe ser nula. Se interpreta como la NO influencia de "u" en la variable independiente o exógena, o por decirlo así "u" explica en cero a la parte determinística.

     E [u | x] = 0    =>    E [x´u] = 0    =>   Cov (x,u) = 0


4) Homocedasticidad y No autocorrelación:

Dentro de este punto podemos resaltar dos supuestos muy importantes:

La homocedasticidad o no heterocedasticidad, es el segundo momento condicional donde la varianza de cada perturbación ues constante o se mantiene igual para todas las observaciones.   
Var [u | x] = ơ2 I

La No Autocorrelacion, muestra que las perturbaciones ui uno están correlacionadas entre sí. Forman el primer momento cruzado condicional de las perturbaciones que es cero.

E [ui, u| x] = 0    =>   COV [ui, u| x] = 0    

* Donde i,j son diferentes



1 comentario: