Uploaded by poaorjqflqjkbdmhsx

Incumplimientos del MRLC (1)

advertisement
Normalidad de los residuos
H0: Normalidad
H1: No normalidad
Regla de decisión:
Si p-valor≥α, no se rechaza la hipótesis nula
Si P-valor< α, se rechaza la hipótesis nula
Gretl nos da 4 test para detectar la normalidad de los residuos:
El test de Doornik-Hansen
El test de W de Shapiro-Wilk
El test de Lilliefors
El test de Jarque-Bera
La hipótesis de normalidad no es preocupante si trabajamos con muestras
grandes porque por el teorema central del límite el estimador de m.c.o.
tiende a una distribución normal cuando el tamaño de la muestra es lo
suficientemente grande.
Linealidad (suponer que la forma funcional del modelo es lineal)
H0: Linealidad
H1: No Linealidad
Regla de decisión:
Si p-valor≥α, no se rechaza la hipótesis nula
Si P-valor< α, se rechaza la hipótesis nula
Gretl nos da el test de Reset de Ramsey
Cómo actuar ante un problema de no linealidad
Buscar formas funcionales alternativas
Heterocedasticidad
La existencia de heterocedasticidad es más frecuente cuando trabajamos con datos
atemporales que temporales.
Definición, causas y consecuencias de la existencia de heterocedasticidad
Existe heterocedasticidad cuando la varianza de la perturbacion no permanece constante
a lo largo de toda la muestra.
Las causas de heterocedasticidad son, entre otras:
1. Incremento de la varianza de la perturbación a medida que crecen los valores de alguna
variable explicativa.
2. Utilización de datos agregados para estimar el modelo cuando deberíamos utilizar datos
individuales.
3. Omisión de una variable relevante siempre que sea estocástica
Las consecuencias de la existencia de heterocedasticidad son, entre otras:
1 .Los estimadores mínimo cuadrático ordinarios serán lineales, insesgados y consistentes
pero dejarán de ser óptimos.
2. Las desviaciones estándar de los estimadores estarán mal calculadas lo que invalida los
contrastes de hipótesis vistos en el tema MRLNC.
Diagnosis de la Heterocedasticidad ( gráficos y contrastes)
Gráficos:
Gráficos de las variables(y/x)
Gráficos de los residuos
Contraste de White
Planteamos la hipótesis nula y la alternativa
H0: Homocedasticidad
H1: Heterocedasticidad
PASOS:
1. Estimamos el modelo original por mínimos cuadrados ordinarios (primera
regresión).
2. Obtenemos la serie de los residuos (et) de la primera regresión.
3. Estimamos una regresión del cuadrado de los residuos anteriores sobre una
constante, las variables explicativas, sus cuadrados y sus productos cruzados de
segundo orden (segunda regresión).
4. Al aumentar el tamaño de la muestra el producto T*R2, donde T es el tamaño de
la muestra y R2 es el coeficiente de determinación de la segunda regresión, sigue
una distribución  2 ( k ) , siendo k el número de variables explicativas de la
segunda regresión.
5. Criterio de aceptación y rechazo
Utilizando el valor crítico:
Si White<  2 ( k ) no rechazo la hipótesis nula
Si White>  2 ( k ) rechazo la hipótesis nula
También podemos utilizar el P-valor
Si p-valor≥α, no se rechaza la hipótesis nula
Si P-valor< α, se rechaza la hipótesis nula
Cómo actuar ante un problema de heterocedasticidad

Aplicar mínimos cuadrados generalizados (para el caso de heterocedasticidad e
incorrelación aplicaríamos el método de mínimos cuadrados ponderados). En este
caso los estimadores recuperarían todas sus propiedades.

Inferencia Robusta a la heterocedasticidad . Estimación consistente de White,
(HCO en gretl) utilizando el estimador de mínimos cuadrados ordinarios. En este
caso los estimadores seguirían siendo ineficientes, pero podríamos hacer
contrastes.
Autocorrelación
La existencia de autocorrelación es más frecuente cuando trabajamos con datos
temporales que atemporales
Definición, causas y consecuencias
Existe autocorrelación cuando la covarianza entre dos elementos del vector de
perturbaciones referidos a momentos distintos del tiempo no es nula
Entre las causas de la existencia de autocorrelación podemos citar dos: La omisión de una
variable explicativa relevante o la elección de una forma funcional errónea o incorrecta
Las consecuencias son que los estimadores mínimo cuadrático ordinarios pierden la
propiedad de eficiencia y que las desviaciones estándar de los estimadores no serán
válidas, lo cual invalida los contrastes de hipótesis vistos en el tema MRLNC
Diagnosis para detectar autocorrelación ( gráficos y contrastes)
Gráficos:
Gráfico del residuo frente al tiempo y gráfico del residuo contra el residuo retardado.
a. Autocorrelación positiva
b. Autocorrelación negativa
Fuente: Gujarati, p. 433.
Durbin –Watson
Se utiliza en modelos con constante, no autorregresivos y para contrastar la presencia de
autocorrelación de primer orden ( ut  ut 1   t )
•
En la práctica es muy difícil que el estadístico tome valores próximos a cero, a
dos o a cuatro. Por eso, lo habitual es recurrir a los valores críticos que elaboran
Durbin y Watson.
•
Para decidir si existe o no autocorrelación tenemos que comparar el valor del
estadístico con dos valores críticos que obtenemos de las tablas en base al
tamaño de la muestra y al número de variables explicativas (dL es el límite
inferior y du es el límite superior)
Breusch- Godfrey
•
Sirve para detectar autocorrelación en todo tipo de modelos (autorregresivos y
no autorregresivos)
•
Sirve para contrastar autocorrelación de órdenes superiores a uno
•
Sirve para detectar tanto procesos autorregresivos (AR(p)) como procesos de
medias móviles (MA(q))
•
Supongamos que queremos detectar autocorrelacion de orden p:
Planteamos la hipótesis nula y la alternativa
H0: Incorrelación
H1: Autocorrelación
Pasos:
•
1. Estimar el modelo por mínimos cuadrados ordinarios y obtener los residuos
(e)
•
2. Estimar una regresión auxiliar de los residuos sobre los p retardos de los
residuos y sobre las variables explicativas del modelo, pudiendo incluir retardos
de la variable endógena.
•
3. Obtener el coeficiente de determinación de la regresión auxiliar
•
4. Realizar el contraste
•
4.1. BG=T.R2 que se distribuye como una Chi-cuadrado de p grados de libertad.
Donde p es el número de retardos de los residuos que se introducen en la
regresión auxiliar.
•
4.2. Criterio de aceptación o rechazo. Utilizando el p-valor o el valor crítico de
la tabla
Cómo actuar ante un problema de autocorrelación

Aplicar mínimos cuadrados generalizados (para el caso de autocorrelación y
homocedasticidad aplicaríamos el método de primeras diferencias). En este caso
los estimadores recuperarían todas sus propiedades.

Inferencia Robusta a la autocorrelación. Estimación consistente de Newey-West
(HAC en gretl) utilizando el estimador de mínimos cuadrados ordinarios. En
este caso los estimadores seguirían siendo ineficientes, pero podríamos hacer
constrastes.
Download