2 Autocorrelación.ppt

May 16, 2018 | Author: Alex Rafael Urbano Garcia | Category: Autoregressive Model, Autocorrelation, Statistical Inference, Applied Mathematics, Multivariate Statistics


Comments



Description

UNIVERSIDAD NACIONAL "SANTIAGO ANTÚNEZ DE MAYOLO“FACULTAD DE ECONOMIA Y CONTABILIDAD ESCUELA DE ECONOMIA CURSO: ECONOMETRIA II AUTOCORRELACIÓN Violación del supuesto de No Autocorrelación Serial o relación entre las perturbaciones Dr. Jorge Manrique Cáceres Huaraz, Setiembre del 2015 AUTOCORRELACIÓN 1.- Definición 2.- Causas de la Autocorrelación 3.- Por qué Ocurre la Autocorrelación 4.- Tipos de Autocorrelación 5.- Detección de la Autocorrelación 6.- Cómo corregir la Autocorrelación AUTOCORRELACIÓN • Aparece cuando los términos de error del modelo no son independientes entre sí. E (ui u j )  0 i  j • La autocorrelación generalmente aparece en datos en serie de tiempo aunque también se presenta en el caso de en corte transversal. • Aquí se estudiará el primer caso. Causas de la Autocorrelación Causas de Autocorrelación  Error de especificación por excluir variables  Error de especificación debido a forma funcional incorrecta  El fenómeno de la telaraña  El comportamiento lento, cíclico y sesgado de las variables económicas  El Uso de modelos Autoregresivos Consecuencias de la Autocorrelación Por qué ocurre la Autocorrelación • Inercia. Cuando existen tendencias marcadas que influyen en los valores futuros de la serie. • Sesgos de especificación. Cuando se elige mal la forma funcional o cuando se omiten variables, lo cual genera un comportamiento sistemático en el término estocástico. • Tiempo de ajuste. Implica el tiempo que los agentes económicos deben tomar para procesar información de un período dado. Así un fenómeno sucedido en un período determinado puede impactar en uno o varios posteriores. Tipos de Autocorrelación PATRONES DE AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓN Detección de la Autocorrelación Detección de la Autocorrelación • Prueba Gráfica • Prueba de las rachas • Prueba de Durbin y Watson • Modelo Autoregresivo de Markov • Prueba de Breusch – Godfrey • El Correlograma de Residuos Prueba Gráfica Durbin y Watson • Para detectar la presencia de autocorrelación en una serie de datos la prueba más utilizada, es la de Durbin Watson. • Para este fin se define el estadístico de la siguiente manera: Durbin y Watson d  2(1   ) Durbin y Watson Durbin y Watson • Tablas: – Durbin y Watson formularon una tabla donde se muestran los límites inferiores y superiores de un valor crítico (dL y dU) que, de acuerdo al valor obtenido en la estimación del estadístico d, permite tomar decisiones sobre la posible presencia de correlación serial positiva o negativa. Durbin y Watson d  2(1  ˆ ) • Los valores de significancia de las tablas de Durbin- Watson se tabulan para probar la hipótesis de ρ=o, contra ρ>0. La tabla arroja dos valores dL y dU. • Si d>2 y se desea probar la hipótesis de ρ=o, contra ρ<0 , se considera 4-d y se hace referencia a las tablas como si se probara una autocorrelación positiva Durbin y Watson ƒ(d) ¿? ¿? ρ=1 ρ=0 ρ= -1 0 4 dl du (4-du) (4-dl) Estadístico de Durbin Watson Durbin y Watson • Cuando la estimación del modelo excluye el intercepto u ordenada en el origen la prueba se invalida. • Cuando existen dos o mas variables rezagadas, el DW estará cerca de 2 aun cuando los errores estén correlacionados • Para ello se utiliza el estadístico h de Durbin dL= 1.338 dU=1.659 d=0.756968 Modelo Autorregresivo de Markov Modelo Autorregresivo de Markov • Como primera aproximación se asume que las perturbaciones se generan de la siguiente manera: ut  ut 1   t 1   1 •  se le conoce como coeficiente de autocovarianza o de autocorrelación y  es una perturbación estocástica que satisface los supuestos MCO tradicionales. Modelo Autorregresivo de Markov • Sabemos que -1 <  < 1 – Si  = 0 no existe autocorrelación – Si  = 1 o  >0 existe autocorrelación positiva – Si  = -1 o  <0 existe autocorrelación negativa perfecta • Este es un comportamiento autorregresivo de primer orden y se denota como AR(1). Modelo Autorregresivo de Markov Prueba de Breusch – Godfrey i  0  1 X 1i   2 X 2i  ......   k X ki  1t 1  2 t 2  vt Permite detectar la presencia de autocorrelación de mayor orden, es decir, con más de un retardo. Se determina un estadístico igual a n * R² con X2(p) p grados de libertad p=los retardos  Se establece como decisión “si el estadístico es mayor al X² (p) no hay autocorrelacion  Ho= No autocorrelacón  Hi= Hay autocorrelacion El valor del X2 con dos grados de libertad es igual a 5.99147 y el de n* R² es igual a 13.47355. Dado a que 5.99147<13.47355 Se rechaza la hipótesis nula, aceptando los problemas de autocorrelación correspondientes Correlograma de Residuos Es otra forma de identificar la autocorrelación de orden p. En la ventana de resultados View/ Residual Diagnostics/ Correlogram- q stadistis. En el cuadro de dialogo que aparece seleccionamos sin transformar (Level) y el número de rezagos 22 (Lag Specification) • Las banda esta del correlograma estan representada por : 2 2   T 73 • = ± 0.2341los valores que sean iguales o mayor ha este valor nos indicara el orden de AR(r). Cómo corregir la Autocorrelación Autocorrelación: Medidas Remediales  Cuando se conoce la estructura de la autocorrelación se lleva a cabo una transformación de la ecuación a estimar para que cumpla con los supuestos de MCO.  Supongamos un esquema autorregresivo de primer orden: ut  ut 1   t También supongamos el siguiente modelo:  (1) Yt   1   2 X t + u t  Tendremos por tanto que: (2) Yt 1   1   2 X t 1 + u t 1  Multiplicando la ecuacion (2) por  tenemos que: Yt 1   1   2 X t 1 + u t 1 (3)  Al restar (1) y (3) tenemos que: (Yt  Yt 1 )   1 (1  )   2 X t   2 X t 1 + (ut - ut 1 ) (4) =  1 (1  )   2 ( X t   2 X t 1 ) +  t  La ecuación (4) puede entonces expresarse como: Yt     X +  t * * 1 * 2 * t (5)  La cual cumple con todos los supuestos de MCO pudiendo obtener de las variables transformadas unos estimadores MELI.  Esta regresión se le conoce como ecuación de diferencia generalizada, la cual involucra la regresión de Y en X en forma de diferencias.  Cuando no se conoce la estructura de la correlación deben llevarse a cabo algunas aproximaciones por medio de diversos métodos entre los que destacan los siguientes:  Método de la primera diferencia  Estimación de  en base al estadístico d  Procedimiento de Cochrane Orcutt para estimar   La primera etapa consiste en estimar ρ a partir de los residuales estimados, efectuando para ello el modelo de Markov  La segunda etapa, se utiliza la estimación de ρ para hacer la regresión de la ecuación. Y *  Yt  Yt 1 X *  X t  X t 1 Corrección de la Autocorrelación Introduciremos el componente autoregresivo al modelo estimado. Comando : equation Cagan.LS logm logpbi inter AR(1) AR(2) Luego, se incorporo una variable autoregresiva de 1er orden y otra variable autorregresiva de 2do orden, estas variables ayudaron a perfeccionar el modelo dando solución al problema de autocorrelación de los errores en el modelo, considerando de que el error esta en función del mismo error pero rezagado hasta el segundo periodo.
Copyright © 2024 DOKUMEN.SITE Inc.