Normalidad de los residuos H0: Normalidad H1: No normalidad Regla de decisión: Si p-valor≥α, no se rechaza la hipótesis nula Si P-valor< α, se rechaza la hipótesis nula Gretl nos da 4 test para detectar la normalidad de los residuos: El test de Doornik-Hansen El test de W de Shapiro-Wilk El test de Lilliefors El test de Jarque-Bera La hipótesis de normalidad no es preocupante si trabajamos con muestras grandes porque por el teorema central del límite el estimador de m.c.o. tiende a una distribución normal cuando el tamaño de la muestra es lo suficientemente grande. Linealidad (suponer que la forma funcional del modelo es lineal) H0: Linealidad H1: No Linealidad Regla de decisión: Si p-valor≥α, no se rechaza la hipótesis nula Si P-valor< α, se rechaza la hipótesis nula Gretl nos da el test de Reset de Ramsey Cómo actuar ante un problema de no linealidad Buscar formas funcionales alternativas Heterocedasticidad La existencia de heterocedasticidad es más frecuente cuando trabajamos con datos atemporales que temporales. Definición, causas y consecuencias de la existencia de heterocedasticidad Existe heterocedasticidad cuando la varianza de la perturbacion no permanece constante a lo largo de toda la muestra. Las causas de heterocedasticidad son, entre otras: 1. Incremento de la varianza de la perturbación a medida que crecen los valores de alguna variable explicativa. 2. Utilización de datos agregados para estimar el modelo cuando deberíamos utilizar datos individuales. 3. Omisión de una variable relevante siempre que sea estocástica Las consecuencias de la existencia de heterocedasticidad son, entre otras: 1 .Los estimadores mínimo cuadrático ordinarios serán lineales, insesgados y consistentes pero dejarán de ser óptimos. 2. Las desviaciones estándar de los estimadores estarán mal calculadas lo que invalida los contrastes de hipótesis vistos en el tema MRLNC. Diagnosis de la Heterocedasticidad ( gráficos y contrastes) Gráficos: Gráficos de las variables(y/x) Gráficos de los residuos Contraste de White Planteamos la hipótesis nula y la alternativa H0: Homocedasticidad H1: Heterocedasticidad PASOS: 1. Estimamos el modelo original por mínimos cuadrados ordinarios (primera regresión). 2. Obtenemos la serie de los residuos (et) de la primera regresión. 3. Estimamos una regresión del cuadrado de los residuos anteriores sobre una constante, las variables explicativas, sus cuadrados y sus productos cruzados de segundo orden (segunda regresión). 4. Al aumentar el tamaño de la muestra el producto T*R2, donde T es el tamaño de la muestra y R2 es el coeficiente de determinación de la segunda regresión, sigue una distribución 2 ( k ) , siendo k el número de variables explicativas de la segunda regresión. 5. Criterio de aceptación y rechazo Utilizando el valor crítico: Si White< 2 ( k ) no rechazo la hipótesis nula Si White> 2 ( k ) rechazo la hipótesis nula También podemos utilizar el P-valor Si p-valor≥α, no se rechaza la hipótesis nula Si P-valor< α, se rechaza la hipótesis nula Cómo actuar ante un problema de heterocedasticidad Aplicar mínimos cuadrados generalizados (para el caso de heterocedasticidad e incorrelación aplicaríamos el método de mínimos cuadrados ponderados). En este caso los estimadores recuperarían todas sus propiedades. Inferencia Robusta a la heterocedasticidad . Estimación consistente de White, (HCO en gretl) utilizando el estimador de mínimos cuadrados ordinarios. En este caso los estimadores seguirían siendo ineficientes, pero podríamos hacer contrastes. Autocorrelación La existencia de autocorrelación es más frecuente cuando trabajamos con datos temporales que atemporales Definición, causas y consecuencias Existe autocorrelación cuando la covarianza entre dos elementos del vector de perturbaciones referidos a momentos distintos del tiempo no es nula Entre las causas de la existencia de autocorrelación podemos citar dos: La omisión de una variable explicativa relevante o la elección de una forma funcional errónea o incorrecta Las consecuencias son que los estimadores mínimo cuadrático ordinarios pierden la propiedad de eficiencia y que las desviaciones estándar de los estimadores no serán válidas, lo cual invalida los contrastes de hipótesis vistos en el tema MRLNC Diagnosis para detectar autocorrelación ( gráficos y contrastes) Gráficos: Gráfico del residuo frente al tiempo y gráfico del residuo contra el residuo retardado. a. Autocorrelación positiva b. Autocorrelación negativa Fuente: Gujarati, p. 433. Durbin –Watson Se utiliza en modelos con constante, no autorregresivos y para contrastar la presencia de autocorrelación de primer orden ( ut ut 1 t ) • En la práctica es muy difícil que el estadístico tome valores próximos a cero, a dos o a cuatro. Por eso, lo habitual es recurrir a los valores críticos que elaboran Durbin y Watson. • Para decidir si existe o no autocorrelación tenemos que comparar el valor del estadístico con dos valores críticos que obtenemos de las tablas en base al tamaño de la muestra y al número de variables explicativas (dL es el límite inferior y du es el límite superior) Breusch- Godfrey • Sirve para detectar autocorrelación en todo tipo de modelos (autorregresivos y no autorregresivos) • Sirve para contrastar autocorrelación de órdenes superiores a uno • Sirve para detectar tanto procesos autorregresivos (AR(p)) como procesos de medias móviles (MA(q)) • Supongamos que queremos detectar autocorrelacion de orden p: Planteamos la hipótesis nula y la alternativa H0: Incorrelación H1: Autocorrelación Pasos: • 1. Estimar el modelo por mínimos cuadrados ordinarios y obtener los residuos (e) • 2. Estimar una regresión auxiliar de los residuos sobre los p retardos de los residuos y sobre las variables explicativas del modelo, pudiendo incluir retardos de la variable endógena. • 3. Obtener el coeficiente de determinación de la regresión auxiliar • 4. Realizar el contraste • 4.1. BG=T.R2 que se distribuye como una Chi-cuadrado de p grados de libertad. Donde p es el número de retardos de los residuos que se introducen en la regresión auxiliar. • 4.2. Criterio de aceptación o rechazo. Utilizando el p-valor o el valor crítico de la tabla Cómo actuar ante un problema de autocorrelación Aplicar mínimos cuadrados generalizados (para el caso de autocorrelación y homocedasticidad aplicaríamos el método de primeras diferencias). En este caso los estimadores recuperarían todas sus propiedades. Inferencia Robusta a la autocorrelación. Estimación consistente de Newey-West (HAC en gretl) utilizando el estimador de mínimos cuadrados ordinarios. En este caso los estimadores seguirían siendo ineficientes, pero podríamos hacer constrastes.