domingo, 23 de junio de 2013

Multicolinealidad

La multicolinealidad es una violación de los supuestos del modelo clásico de regresión, que se da por la existencia de una correlación entre las variables exógenas, también denominadas independientes o regresoras. 
Podemos hablar de multicolinealidad perfecta, cuando los estimadores de la regresión son indeterminados, es decir, no pueden ser hallados; a diferencia de la multicolinealidad menos que perfecta, en la que si es posible hallar el estimador "B".

Por la existencia de multicolinealidad no significa que los estimadores MCO dejen de ser MELI, pero si conllevan a tener varianzas y covarianzas muy altas.

La multicolinealidad aparece cuando el modelo no fue correctamente especificado o hay redundancia entre las variables, así como también el problema puede provenir desde el recojo de información.

Como mencionamos anteriormente, cuando se tiene un caso de multicolinealidad perfecta no es posible hacer la regresión por el simple hecho de no poder hallar el estimador "B", pero cuando estamos frente a una multicolinealidad menos que perfecta si sería posible, pero ¿ Cómo podemos detectar que estamos en un caso como éste?; la multicolinealidad menos que perfecta, se caracteriza por mostrar resultados en una regresión como R^2 muy altos y al mismo tiempo sus variables al pasar por la prueba de hipótesis de forma individual son no significativas, y si tratamos de correlacionar ambas variables exógenas o regresoras entre pares, tendremos también un coeficiente de correlación muy alto, cercano a uno.




Sea el caso mostrado en el cuadro se aprecia claramente un R^2 muy alto, es decir, que la variable "Cons" es explicada en 80.3625% por las variables "Y" e "IMP1", mientras que éstas mismas son variables no significativas, siendo evaluadas de forma individual, ya que su p>0.05.


La mejor forma de terminar con la multicolinealidad es eliminando una de las variables exógenas que se viene correlacionando con la otra.








sábado, 22 de junio de 2013

Teorema de Gauss Markov

El teorema de Gauss Markov señala que los estimadores de MCO (Mínimos Cuadrados Ordinarios), es decir, los "B"; presentan una varianza mínima, lo que hace de ellos los más eficientes. También son aquellos pertenecientes a la familia de estimadores insesgados.

Los estimadores MCO son conocidos como MELI, que significa Mejores Estimadores Lineales e Insesgados.

Se expresan de la siguiente forma:

LINEALIDAD: 

INSESGADEZ:


EFICIENCIA:




Al referirnos que los estimadores "B" tienen varianza mínima, podemos decir de la forma más simple, que presentan el menor error cuadrático comparado a otros estimadores, y hace por ello que sean los más eficientes, todo esto con el fin de que la función de regresión muestral sea lo más cercana posible a la función de regresión poblacional, por lo que podemos hablar de insesgadez.

viernes, 21 de junio de 2013

Supuestos del modelo clásico de regresión lineal

Es importante tener muy en cuenta los siguientes supuestos:

1) Linealidad en los parámetros:

 Este supuesto indica la necesidad de que los coeficientes sean lineales, es decir, que sus exponentes o potencias sean 1.

Y = B0 + B1X1 + B2X2 + B3X3 + … + u


Algo resaltante en este supuesto es la linealidad en los parámetros, que es muy distinto a expresar una relación lineal entre las variables "X" y "Y".


2) Condición de rango: 

Es un supuesto de confirmación e identificación, que nos indica si es posible hallar el estimador "B".
Rango(X) = K

Dentro de este supuesto se debe cumplir:

- Las columnas de la variable X deben ser linealmente independientes.
- No debe existir multicolinealidad, es decir relaciones lineales entre las variables         independientes o exógenas.
- El número de observaciones debe ser mayor que el de variables exógenas, n < k


3) La media condicional de "u" dado "x" es cero: 

Se tiene como primer momento que las perturbaciones presentan media incondicional nula. 

E [u | x] = 0   =>   E [ui] = 0  ,   i = 1, 2, … , n

La media condicional de U dado X es cero, es decir la covarianza entre U y X debe ser nula. Se interpreta como la NO influencia de "u" en la variable independiente o exógena, o por decirlo así "u" explica en cero a la parte determinística.

     E [u | x] = 0    =>    E [x´u] = 0    =>   Cov (x,u) = 0


4) Homocedasticidad y No autocorrelación:

Dentro de este punto podemos resaltar dos supuestos muy importantes:

La homocedasticidad o no heterocedasticidad, es el segundo momento condicional donde la varianza de cada perturbación ues constante o se mantiene igual para todas las observaciones.   
Var [u | x] = ơ2 I

La No Autocorrelacion, muestra que las perturbaciones ui uno están correlacionadas entre sí. Forman el primer momento cruzado condicional de las perturbaciones que es cero.

E [ui, u| x] = 0    =>   COV [ui, u| x] = 0    

* Donde i,j son diferentes



domingo, 16 de junio de 2013

Correlación

La correlación o coeficiente de correlación se encarga de medir el grado de relación o dependencia lineal entre dos variables, determinando si el cambio de una afecta a la otra. En el hecho que ocurra, podremos decir que existe correlación entre ambas.


El coeficiente de correlación también se muestra como "r"


Traduciendo la siguiente fórmula decimos que:

El Coeficiente de correlación "r" es igual a la covarianza de "xy" entre el producto de la varianza de "x" y la varianza de "y".


Los valores que puede tomar el coeficiente de correlación "r" son entre -1 y 1 (-1 < r < 1)


Si "r" > 0, existe una correlación lineal positiva, es decir, si aumenta el valor de una variable, lo mismo pasará con la otra. La correlación lineal positiva es mayor mientras más se aproxima a 1.

Si "r" < 0, existe una correlación lineal negativa, es decir, si incrementa el valor de una variable, disminuirá el valor de la otra. La correlación lineal negativa es más fuerte cuando se aproxima a -1.

Si "r" = 0, no existe correlación lineal entre ambas variables.

Si r = 1 ó -1, los puntos de la nube se ajustan o están sobre la recta creciente o decreciente. Entre ambas variables hay dependencia funcional.


Introducción a la Econometría


Podemos deducir rápidamente un concepto general de Econometría, como la medición económica; por el simple hecho en el que está conformada esta palabra, es decir, "econo" "metría"; que sin lugar a duda nos muestra un mejor panorama de lo que encontraremos dentro de esta disciplina. ¿Pero que puede ser medición? y ¿que vamos a medir en la economía?. La medición consiste en la aplicación de la estadística matemática a la información económica. Pero sin un fin nada tendría sentido, es por eso que la econometría utiliza la estadística matemática para dar un sustento aplicado en la realidad a cualquier modelo creado por la economía.
El uso de la econometría nos permitirá formular hipótesis de forma cuantitativa, es decir se obtendrán resultados numéricos, con el que podemos comprobar empíricamente (aplicado a la realidad) a la teoría económica, la cuál presenta naturaleza cualitativa. Para esto se utilizarán las ecuaciones matemáticas, en la que se relacionará una variable "dependiente"(endógena) con una o más variables "independientes"(exógenas), conocidas generalmente por "Y" y "X" respectivamente.

Las variables "X" y "Y" son conocidas de muchas formas, es por esto que a continuación veremos una serie de nombres más utilizados para ellas.


Variable Y: Es la variable dependiente, endógena, explicada o regresada.
Variable X: Es la variable independiente, exógena, explicativa o regresora.


La metodología tradicional de la Econometría se desenvuelve mediante los siguientes lineamientos:

a) Planteamiento de la teoría económica

b) Especificación del modelo matemático de la teoría
c) Especificación del modelo econométrico de la teoría
d) Recopilación de datos
e) Estimación de los parámetros del modelo econométrico
f) Prueba de hipótesis
g) Predicción
h) Implicancia de la predicción para la aplicación de política económica.

Existen muchas herramientas para la Econometría, paquetes informáticos especializados para el trabajo dentro de estos lineamientos. El eviews 7 es uno de ellos, el cuál utilizaremos para la elaboración de modelos econométricos los cuáles serán contrastados con la realidad e interpretados para comprobar su validez de acuerdo a la teoría económica.