Uploaded by Marta Durán Montañez

Tema 3 Econometria 26 3 2023-2

advertisement
30/03/2023
GRADO EN FINANZAS Y CONTABILIDAD
INTRODUCCIÓN A LA ECONOMETRÍA
Tema 3
Modelo de Regresión Lineal General: Verificación de hipótesis
Departamento de Estadística y Econometría (U 68)
Facultad de Ciencias Económicas y Empresariales
Universidad de Málaga
Versión preliminar sujeta a revisión
Introducción
I
De forma resumida, las técnicas de Estadística Inferencial se pueden agrupar en dos grupos:
 Estimación: supone encontrar un estimador que goce de propiedades estadísticas deseables y la construcción de
intervalos de confianza.
 Verificación de hipótesis: implica plantear un contraste de hipótesis en donde confrontamos una hipótesis a verificar
(hipótesis nula) frente a otra hipótesis (hipótesis alternativa).
En el tema anterior nos dedicamos a la obtención de estimadores y realizar estimaciones puntuales del vector de
coeficientes de regresión y de la varianza de las perturbaciones aplicando el método de mínimos cuadrados ordinarios y
máxima verosimilitud. Además, se analizaron las propiedades descriptivas y estocásticas o probabilísticas de dichos
estimadores.
Ahora vamos a obtener y calcular intervalos de confianza para un coeficiente de regresión y para la varianza de las
perturbaciones que servirán de base para tratar distintos test de hipótesis sobre los parámetros del MRLG. Finalmente, se
analizará las técnicas de predicción que se pueden realizar con el modelo estimado.
Versión preliminar sujeta a revisión
1
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Para determinar un intervalo de confianza o construir un test de hipótesis sobre un coeficiente de regresión
del modelo, 𝛽j, tenemos que deducir la distribución de probabilidad del estimador:
𝛽መ𝑗 ~𝑁 𝛽𝑗 , 𝜎𝑢 𝑎𝑗𝑗
al tipificar la v.a. 𝛽መ𝑗 nos queda el siguiente cociente:
𝛽መ𝑗 − 𝛽𝑗
=
𝑉𝑎𝑟 𝛽መ𝑗
𝛽መ𝑗 − 𝛽𝑗
~𝑁 0, 1
𝜎𝑢 𝑎𝑗𝑗
Este estadístico podría servir para realizar el test de hipótesis sobre un coeficiente de regresión, el problema
que tiene es que siendo cierta la hipótesis nula queda un componente por conocer, 𝜎𝑢 .
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Dado el inconveniente anterior, tenemos que buscar una expresión donde todos sus valores sean conocidos
bajo la hipótesis nula. Sabemos que una distribución t-Student surge del cociente de una distribución N(0,1), Z,
y la raíz cuadrada de una ji-dos, corregida ésta, por sus respectivos grados de libertad. Además, se demuestra
que ambas v.a. son independientes, por tanto,
𝑍
~𝑡𝑟
χ𝑟 2
𝑟
Es posible demostrar que las v.a. 𝛽መ𝑗 y
2
𝑛−𝑘 𝑆𝑒ҧ
son independientes, además:
2
𝜎𝑢
2
𝑛 − 𝑘 𝑆𝑒ҧ
~χ2𝑛−𝑘
𝜎𝑢 2
Luego, el cociente de las dos v.a. se distribuye como un modelo t-Student:
𝛽መ𝑗 − 𝛽𝑗
൘
𝜎𝑢 𝑎𝑗𝑗
2
𝑛 − 𝑘 𝑆𝑒ҧ
2
𝛽መ𝑗 − 𝛽𝑗
𝜎𝑢
=
~𝑡
𝑛−𝑘
𝑆𝑒ҧ 𝑎𝑗𝑗 𝑛−𝑘
2
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Bajo la hipótesis nula el estadístico de contraste y su distribución son:
𝑡𝑜𝑏𝑠 =
𝛽መ𝑗 − 𝛽𝑗o
~𝑡𝑛−𝑘
𝑆𝑒ҧ
𝑎𝑗𝑗
De forma resumida, los pasos para la realización de un contraste de hipótesis son:
1º. Establecer la hipótesis nula y alternativa relativa a los parámetros poblacionales. En nuestro caso estamos planteando
un test de hipótesis sobre un coeficiente de regresión del MRLG.
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
2º. Construir un estadístico de contraste que permita aceptar o rechazar la hipótesis nula bajo la evidencia
muestral
𝛽መ𝑗 − 𝛽𝑗o
𝑡𝑜𝑏𝑠 =
~𝑡𝑛−𝑘
𝑆𝑒ҧ
𝑎𝑗𝑗
3º. Definir una regla de decisión para determinar si la hipótesis nula se acepta o rechaza, en función del valor
que tome el estadístico de contraste, existiendo dos reglas: uso del/los valor/es crítico/s y el p-valor (valor
probabilístico).
En un contraste de hipótesis, basándonos en la información proporcionada por la muestra, tenemos que decidir
si aceptamos la hipótesis nula (supone el rechazo de la hipótesis alternativa) o si la rechazamos (implica la
aceptación de la hipótesis alternativa). La decisión siempre la hacemos sobre la hipótesis nula, existiendo un
riesgo de equivocarnos que nos lleva a los errores de Tipo I y Tipo II.
Versión preliminar sujeta a revisión
3
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
El tamaño de estos dos tipos de errores son las probabilidades siguientes:
𝑃 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑡𝑖𝑝𝑜 𝐼 = 𝑃 𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻𝑜 /𝐻𝑜 𝑒𝑠 𝑐𝑖𝑒𝑟𝑡𝑎 = 𝛼
𝑃 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑡𝑖𝑝𝑜 𝐼𝐼 = 𝑃 𝐴𝑐𝑒𝑝𝑡𝑎𝑟 𝐻𝑜 /𝐻𝑜 𝑒𝑠 𝑓𝑎𝑙𝑠𝑎 = 𝛽
Lo ideal es que 𝛼 y 𝛽 fueran lo más pequeño posible, sin embargo, no es posible minimizar ambos tipos de errores
simultáneamente (exceptuando si aumentamos el tamaño muestral) por lo que siempre la hipótesis nula se le da “una
mayor importancia” de forma que se parte de considerar valores pequeños de 𝛼. Así, en los contrastes que vamos a realizar
vamos a prefijar el valor de 𝛼 asumiendo que este sea pequeño siendo los valores usuales 0.10, 0.05 y 0.01. La decisión de
adoptar uno de esos valores concretos dependerá del investigador y la naturaleza del estudio que esté llevando a cabo.
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Después de adoptar la decisión de aceptar o rechazar, tenemos que ser conscientes de que dicha decisión puede haber sido
correcta o errónea. Sin embargo, nunca sabremos con certeza si se cometió un error ya que no conoceremos el valor o
valores de los parámetros poblacionales. Por lo tanto, la decisión adoptada se basa en la evidencia de una muestra concreta
y la conclusión del test ha de ser de aceptar o rechazar la hipótesis aunque cabe que nos hayamos equivocado.

Nivel de significación: α
Para tomar la decisión de aceptar o rechazar la hipótesis nula debemos de tener en cuenta:
1º. Elección del nivel de significación (α). Al indicar el valor de α básicamente estamos cuantificando la tolerancia para un
error de tipo I. Así, si admitimos un nivel de significación del 5%, el investigador está dispuesto a rechazar la hipótesis nula
falsamente en el 5% de los casos.
2º. Obtención del valor (en un contraste unilateral) o valores críticos (en un contraste bilateral) en la distribución de
probabilidad que sigue el estadístico de contraste bajo la hipótesis nula, en nuestro caso la distribución t-Student. El valor o
valores críticos es un umbral que permite delimitar las regiones de aceptación y rechazo de forma que atendiendo al valor
del estadístico éste se ubicará en una de las dos regiones.
Versión preliminar sujeta a revisión
4
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
3º. Comparar el resultado del estadístico de contraste con el/los valor/es crítico/s de forma que se acepta o rechaza la
hipótesis nula bajo la evidencia muestral para un valor dado de α.
Región de aceptación
Regla de decisión en un contraste unilateral a la izquierda
𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐
𝑯𝟏 : 𝜷𝒋 < 𝜷𝒋𝒐
1-α
Región crítica
𝛼
Si 𝑡𝑜𝑏𝑠 > 𝑡𝑛−𝑘
→ Se acepta 𝐻𝑜
𝛼
Si 𝑡𝑜𝑏𝑠 ≤ 𝑡𝑛−𝑘 → Se rechaza 𝐻𝑜
α
𝛼
𝑡𝑛−𝑘
0
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Región de aceptación
Regla de decisión en un contraste unilateral a la derecha
0,4
𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐
𝑯𝟏 : 𝜷𝒋 > 𝜷𝒋𝒐
0,3
0,2
1-α
Región crítica
0,1
α
0
-4
-3
-2
-1
0
0
1
2
1−𝛼
𝑡𝑛−𝑘
3
1−𝛼
Si 𝑡𝑜𝑏𝑠 < 𝑡𝑛−𝑘
→ Se acepta 𝐻𝑜
1−𝛼
Si 𝑡𝑜𝑏𝑠 ≥ 𝑡𝑛−𝑘 → Se rechaza 𝐻𝑜
4
Versión preliminar sujeta a revisión
5
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Región de aceptación
Regla de decisión en un contraste bilateral
Región crítica
𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐
𝑯𝟏 : 𝜷𝒋 ≠ 𝜷𝒋𝒐
Región crítica
1-α
α/2
𝟏−𝜶/𝟐
- 𝒕𝒏−𝒌
𝜶/𝟐
= 𝒕𝒏−𝒌
α/2
0
1−𝛼/2
Si 𝑡𝑜𝑏𝑠 < 𝑡𝑛−𝑘 → Se acepta 𝐻𝑜
1−𝛼/2
Si 𝑡𝑜𝑏𝑠 ≥ 𝑡𝑛−𝑘 → Se rechaza 𝐻𝑜
𝟏−𝜶/𝟐
𝒕𝒏−𝒌
Es importante hacer notar que cuando el nivel de significación
decrece, el valor (o valores críticos) aumenta en valor absoluto
con lo que aumenta la región de aceptación y es más difícil
rechazar la hipótesis nula.
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
 Enfoque alternativo: p-valor (𝜶′)
El p-valor o valor probabilístico se define como el nivel de significación más bajo para rechazar la hipótesis nula. Por tanto,
estaríamos calculando las siguientes probabilidades:

En un contraste unilateral a la izquierda: 𝑷 𝒕𝒏−𝒌 ≤ 𝒕𝒐𝒃𝒔 = 𝜶′

En un contraste unilateral a la derecha: 𝑷 𝒕𝒏−𝒌 ≥ 𝒕𝒐𝒃𝒔 = 𝜶′

En un contraste bilateral:
𝑷 𝒕𝒏−𝒌 ≥ 𝒕𝒐𝒃𝒔
= 𝑷 𝒕𝒏−𝒌 ≤ −𝒕𝒐𝒃𝒔 + 𝑷 𝒕𝒏−𝒌 ≥ 𝒕𝒐𝒃𝒔 = 𝜶′
Nota: como la distribución t-Student es simétrica respecto al valor 0 la probabilidad anterior serviría de base para un
contraste unilateral de forma que el p-valor del contraste unilateral sería el equivalente a la mitad del p-valor del contraste
bilateral (𝛼 ′ /2).
La decisión de aceptar o rechazar la hipótesis nula con el p-valor es:
 Aceptamos la hipótesis nula si 𝛼 ′ > 𝛼.
 Rechazamos la hipótesis nula si 𝛼 ′ ≤ 𝛼.
Versión preliminar sujeta a revisión
6
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
A) Inferencia sobre un coeficiente de regresión
Región de aceptación
Región de aceptación
1-α
Región crítica
Región crítica
α'
α
𝛼
𝑡𝑛−𝑘
𝒕𝒐𝒃𝒔 𝟎
En este caso, se observa que α‘ > α, por tanto,
𝒕𝒐𝒃𝒔 > 𝒕𝜶𝒏−𝒌 y se acepta la hipótesis nula
α'
1-α
α
𝛼
𝒕𝒐𝒃𝒔 𝑡𝑛−𝑘
𝟎
En este caso, se observa que α‘ < α, por tanto,
𝒕𝒐𝒃𝒔 < 𝒕𝜶𝒏−𝒌 y se rechaza la hipótesis nula
Regla de decisión en un contraste unilateral a la izquierda
𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐
𝑯𝟏 : 𝜷𝒋 < 𝜷𝒋𝒐
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
Una hipótesis muy habitual es la de “no significatividad del parámetro”, donde Ho implica que el parámetro no es
significativamente distinto de cero. En el caso de aceptar Ho la variable exógena x𝑗 no es relevante estadísticamente en el
modelo y se puede eliminar del mismo, suponiendo que no haya problemas que invaliden el contraste (además, que se
cumplan todos los supuestos del MRLG).
Al realizar este contraste para cada uno de los coeficientes de regresión del modelo, se está contrastando la significación o
verificación individual de los coeficientes del modelo.
𝑯𝒐 : 𝜷𝒋 = 𝟎
𝑯𝟏 : 𝜷𝒋 < 𝟎
𝑯𝒐 : 𝜷𝒋 = 𝟎
𝑯𝟏 : 𝜷𝒋 > 𝟎
𝑯𝒐 : 𝜷𝒋 = 𝟎
𝑯𝟏 : 𝜷𝒋 ≠ 𝟎
𝑡𝑜𝑏𝑠 =
𝛽መ𝑗
~𝑡
𝑆𝛽෡𝑗 𝑛−𝑘
𝑗 = 1,2, … , 𝑘

Si se acepta la hipótesis nula, 𝜷𝒋 no es significativo y el regresor 𝒙𝒋 no es relevante a la hora de explicar la variable y
(en principio, habría que plantearse la eliminación de este regresor en la especificación siempre que el modelo no
presente errores de especificación).

Si se rechaza la hipótesis nula, 𝜷𝒋 es significativo y el regresor 𝒙𝒋 es relevante a la hora de explicar la variable y.
Versión preliminar sujeta a revisión
7
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
Nota: en el caso de realizar un contraste de significatividad individual bilateral si la muestra es suficientemente grande (nk>60), la hipótesis nula se rechaza al nivel de significación del 5% si
𝑡𝑜𝑏𝑠 =
෡𝒋
𝜷
>2
ഥ
𝑺𝜷෡
𝒋
En donde 2 es el valor crítico para el cual 𝑃 𝑡𝑛−𝑘 > 2 ≅ 0.025 𝑦 𝑛 − 𝑘 > 60.
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
El contraste de la t-Student también permite realizar una verificación basada en una restricción que sea una combinación
lineal de un subconjunto de coeficientes del modelo.
Sea el MRLG
𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + ⋯ + 𝜷𝒌 𝒙𝒌𝒊 + 𝒖𝒊 ,
𝒊 = 𝟏, 𝟐, … , 𝒏
ahora planteamos el siguiente contraste de hipótesis:
𝑯𝒐 : 𝒓𝒋 𝜷𝒋 + 𝒓𝒋+𝟏 𝜷𝒋+𝟏 + ⋯ + 𝒓𝒌 𝜷𝒌 = 𝒒
𝑯𝟏 : 𝒓𝒋 𝜷𝒋 + 𝒓𝒋+𝟏 𝜷𝒋+𝟏 + ⋯ + 𝒓𝒌 𝜷𝒌 ≠ 𝒒
en donde: 𝑟𝑗 son constantes que acompañan a los coeficientes de regresión y 𝑞 es otra constante.
El estadístico de contraste sería el siguiente:
𝒕𝒐𝒃𝒔 =
෡ 𝒋 + 𝒓𝒋+𝟏 𝜷
෡ 𝒋+𝟏 + ⋯ + 𝒓𝒌 𝜷
෡𝒌 − 𝒒
𝒓𝒋 𝜷
෡ 𝒋 + 𝟐 σ 𝒓𝒋 𝒓𝒋+𝟏 𝑪𝒐𝒗(𝜷
෡ 𝒋, 𝜷
෡ 𝒋+𝟏 )
σ𝒌𝒋 𝒓𝟐𝒋 𝑽𝒂𝒓 𝜷
𝒋<𝒌
~𝒕𝒏−𝒌
Versión preliminar sujeta a revisión
8
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
Intervalo de confianza para el coeficiente de regresión
෡ 𝒋 , consiste en establecer
Una forma adicional de valorar la precisión de la estimación de los coeficientes de regresión, 𝜷
un intervalo de confianza: intervalo de valores dentro del cual se encuentran los parámetros poblacionales con un
determinado nivel de confianza.
Sabemos que
𝒕𝒐𝒃𝒔 =
෡ 𝒋 − 𝜷𝒋 𝜷
෡ 𝒋 − 𝜷𝒋
𝜷
=
~𝒕𝒏−𝒌
ഥ
ഥ
𝑺𝒆 𝒂𝒋𝒋
𝑺𝜷෡
𝒋
dado que la t-Student es una distribución simétrica con media nula, para α se cumple que:
𝛼/2
1−𝛼/2
𝑃 𝑡𝑛−𝑘 < 𝑡𝑛−𝑘 = 𝑃 𝑡𝑛−𝑘 > 𝑡𝑛−𝑘
Luego el intervalo de confianza para un coeficiente de regresión es:
𝟏−
𝜶
𝟏−𝜶/𝟐 ഥ
𝟐ഥ
෡ 𝒋 − 𝒕𝟏−𝜶Τ𝟐 ഥ
෡
෡
෡ 𝒋 + 𝒕𝟏−𝜶/𝟐 ഥ
𝑰𝑪𝜷𝒋 = 𝜷
෡ 𝒋 < 𝜷𝒋 < 𝜷
෡𝒋
𝒏−𝒌 𝑺𝒆 𝒂𝒋𝒋 < 𝜷𝒋 < 𝜷𝒋 + 𝒕𝒏−𝒌 𝑺𝒆 𝒂𝒋𝒋 = 𝜷𝒋 − 𝒕𝒏−𝒌 𝑺𝜷
𝒏−𝒌 𝑺𝜷
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
Intervalo de confianza para el coeficiente de regresión
La interpretación de este intervalo de confianza sería que con la muestra de tamaño n podemos depositar una confianza
del 1 − 𝛼 100% de que el valor desconocido del parámetro poblacional 𝛽𝑗 esté dentro del intervalo estimado. Dado que
el parámetro 𝛽𝑗 es un valor fijo desconocido (no una variable aleatoria) el intervalo proporciona una probabilidad fiducial
o derivada, es decir, si pudiésemos construir 100 intervalos a partir de muestras del mismo tamaño n, el 1 − α 100 de
ellos contendrían el verdadero valor del parámetro poblacional 𝛽𝑗 . En la práctica, solamente se construye un único
intervalo, con la única muestra disponible, y se confía en que contenga el verdadero valor de 𝛽𝑗 con un grado de confianza
del 1 − 𝛼 100% .
Un intervalo de confianza va a tener una longitud determinada de forma que aquel intervalo con una longitud menor
proporciona un menor grado de incertidumbre de la estimación del valor del parámetro poblacional.
Versión preliminar sujeta a revisión
9
30/03/2023
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
Intervalos de confianza de los coeficientes
Ejemplo en Eviews:
La verificación de hipótesis también se puede llevar a cabo a través de los intervalos de confianza:
𝐻𝑜 : 𝛽4 = 0
𝐻1 : 𝛽4 ≠ 0 ; Con el intervalo (0.001600 < 𝛽4 < 0.014971) → Se rechaza Ho
Versión preliminar sujeta a revisión
3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA
B) Inferencia sobre la varianza de las perturbaciones
El contraste de hipótesis para la varianza de las perturbaciones se puede establecer como:
𝑯𝒐 : 𝝈𝟐𝒖 = 𝝈𝟐𝒖𝟎
𝑯𝟏 : 𝝈𝟐𝒖 < 𝝈𝟐𝒖𝟎
𝝈𝟐𝒖𝟎 > 𝟎
𝑯𝒐 : 𝝈𝟐𝒖 = 𝝈𝟐𝒖𝟎
𝑯𝟏 : 𝝈𝟐𝒖 > 𝝈𝟐𝒖𝟎
𝝈𝟐𝒖𝟎 > 𝟎
Bajo la hipótesis nula el estadístico y su
distribución son:
χ𝟐𝒐𝒃𝒔 =
𝒏−𝒌 ഥ
𝑺𝟐𝒆 𝟐
~χ𝒏−𝒌
𝝈𝟐𝒖𝟎
𝑯𝒐 : 𝝈𝟐𝒖 = 𝝈𝟐𝒖𝟎 𝝈𝟐𝒖𝟎 > 𝟎
𝑯𝟏 : 𝝈𝟐𝒖 ≠ 𝝈𝟐𝒖𝟎
El intervalo de confianza viene dado por la expresión:
𝑰𝑪𝝈𝟐𝒖 =
𝒏−𝒌 ഥ
𝑺𝟐𝒆
Τ𝟐
χ𝜶𝒏−𝒌
< 𝝈𝟐𝒖 <
𝒏−𝒌 ഥ
𝑺𝟐𝒆
Τ
𝟐
χ𝟏−𝜶
𝒏−𝒌
Versión preliminar sujeta a revisión
10
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
En determinadas circunstancias es preciso contrastar hipótesis que afectan conjuntamente a más de un parámetro
poblacional, si la hipótesis en cuestión se puede expresar como restricciones lineales que afectan a un subconjunto de
parámetros poblacionales se podrá utilizar el TGRL.
Si disponemos del modelo: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 + 𝒖𝒊
Se podría verificar hipótesis del tipo:
a) 𝐻𝑜 : 𝛽2 + 𝛽3 + 𝛽4 = 1
b) 𝐻𝑜 : 𝛽2 = 𝛽3 = 0
c) 𝐻𝑜 : 𝛽2 = 𝛽4
d) 𝐻𝑜 : 𝛽3 = 𝛽42
Restricciones lineales
Restricción no lineal (no podrá verificarse mediante el TGRL)
Las restricciones lineales se pueden expresar matricialmente mediante la expresión: 𝑹𝜷 = 𝒓
• R: matriz de coeficientes conocidos (q x k), siendo q el número de restricciones, de manera que 𝑞 ≤ 𝑘. Sus elementos
son las constantes que multiplican a los parámetros en las q restricciones.
• 𝜷: vector de parámetros poblacionales (k x 1).
• r: vector (q x 1) de coeficientes conocidos que constituyen los términos independientes de las q restricciones.
Versión preliminar sujeta a revisión
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
En el modelo: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 + 𝒖𝒊
Las restricciones anteriores matricialmente se escribirían así:
a) 𝑯𝒐 : 𝜷𝟐 + 𝜷𝟑 + 𝜷𝟒 = 𝟏
b) 𝑯𝒐 : 𝜷𝟐 = 𝜷𝟑 = 𝟎
c) 𝑯𝒐 : 𝜷𝟐 = 𝜷𝟒
𝑅𝛽 = 𝑟 ; 0 1 1 1
𝑅𝛽 = 𝑟 ;
𝑅𝛽 = 𝑟 ;
𝛽1
𝛽2
𝛽3
𝛽4
= (1)
0 0
1 0
𝛽1
𝛽2
𝛽3
𝛽4
=
0 1 0 −1
𝛽1
𝛽2
𝛽3
𝛽4
= (0)
0
0
1
0
0
0
Versión preliminar sujeta a revisión
11
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
Si las restricciones son ciertas (no se rechaza la hipótesis nula) y los estimadores eficientes serían los estimadores
mínimo-cuadráticos con restricciones (MCr). Estos estimadores incorporan la restricciones y el modelo de regresión
lineal general sería:
𝑦 = 𝑋𝛽 + 𝑢;
𝑠. 𝑎. : 𝑅𝛽 = 𝑟
siendo el estimador mínimo cuadrático con restricciones, 𝛽መ ∗
𝛽መ ∗ = 𝛽መ + 𝑋 𝑡 𝑋 −1 𝑅𝑡 𝑅 𝑋 𝑡 𝑋 −1 𝑅𝑡 −1 𝑟 − 𝑅𝛽መ
Otra forma de estimar el modelo restringido por MCO (de inicio ya se incorporan las restricciones) y se obtendría el
mismo resultado que aplicando MCr. Así, consideremos el siguiente caso:
𝑴𝑶𝑫𝑬𝑳𝑶 𝑺𝑰𝑵 𝑹𝑬𝑺𝑻𝑹𝑰𝑪𝑪𝑰𝑶𝑵𝑬𝑺: 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + 𝛽4 𝑥4𝑖 + 𝑢𝑖
𝑠. 𝑎. : 𝛽2 + 𝛽3 + 𝛽4 = 1
𝛽3 = 1 − 𝛽2 − 𝛽4 ; sustituyendo en el modelo de partida (sin restricciones):
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + (𝟏 − 𝜷𝟐 − 𝜷𝟒 )𝑥3𝑖 + 𝛽4 𝑥4𝑖 + 𝑢𝑖 → 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝑥3𝑖 − 𝛽2 𝑥3𝑖 − 𝛽4 𝑥3𝑖 + 𝛽4 𝑥4𝑖 + 𝑢𝑖
𝑴𝑶𝑫𝑬𝑳𝑶 𝑪𝑶𝑵 𝑹𝑬𝑺𝑻𝑹𝑰𝑪𝑪𝑰𝑶𝑵𝑬𝑺: 𝒚𝒊 − 𝒙𝟑𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 − 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 − 𝒙𝟑𝒊 + 𝒖𝒊
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
Como conclusión, las opciones de estimación del modelo ante restricciones lineales son:
a) Estimar el MRLG sujeto a las restricciones, empleando el estimador por mínimos cuadrados con
restricciones:
𝑦 = 𝑋𝛽 + 𝑢;
𝑠. 𝑎. : 𝛽2 + 𝛽3 + 𝛽4 = 1
𝛽መ ∗ = 𝛽መ + 𝑋 𝑡 𝑋 −1 𝑅𝑡 𝑅 𝑋 𝑡 𝑋 −1 𝑅𝑡 −1 𝑟 − 𝑅𝛽መ
al estimar por MCr se verifica la restricción 𝛽መ2∗ + 𝛽መ3∗ + 𝛽መ4∗ = 1
b) Estimar el MRLG incluyendo las restricciones empleando el estimador por MCO:
∗
∗
𝒚𝒊 −𝒙𝟑𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 − 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 − 𝒙𝟑𝒊 + 𝒖𝒊 → 𝒚∗𝒊 = 𝛽መ1∗ + 𝛽መ2∗ 𝑥2𝑖
+ 𝛽መ3∗ 𝑥3𝑖
+ 𝑢𝑖
𝛽መ ∗ = 𝑋 ∗𝑡 𝑋 ∗ −1 𝑋 ∗𝑡 𝑦 ∗𝑡
Versión preliminar sujeta a revisión
12
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
El estadístico de contraste y la distribución del mismo siendo cierta la hipótesis nula sería:
𝑯𝒐 : 𝑹𝜷 = 𝒓
𝑯𝟏 : 𝑹𝜷 ≠ 𝒓
෡ 𝒕 𝑹 𝑿𝒕 𝑿 −𝟏 𝑹𝒕 −𝟏 𝒓 − 𝑹𝜷
෡
𝒓 − 𝑹𝜷
൘
𝒒 𝟏
෡ 𝒕 𝑹𝑽𝒂𝒓
෡ 𝑹𝒕 −𝟏 𝒓 − 𝑹𝜷
෡ ~𝑭𝒒,𝒏−𝒌
෢ 𝜷
𝑭𝒐𝒃𝒔 =
= 𝒓 − 𝑹𝜷
𝟐
𝒒
ഥ𝒆
𝑺
𝑭𝒐𝒃𝒔 =
∆𝑺𝑪𝑹ൗ
𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹𝒔𝒓ൗ
𝒒
𝒒 𝒏 − 𝒌 𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹𝒔𝒓
=
=
∙
~𝑭𝒒,𝒏−𝒌
𝑺𝑪𝑹ൗ
𝑺𝑪𝑹𝒔𝒓ൗ
𝒒
𝑺𝑪𝑹𝒔𝒓
𝒏−𝒌
𝒏−𝒌
en donde,
∆𝑺𝑪𝑹: incremento de la SCR debido a que el modelo que incluye las restricciones tendrá unos residuos iguales
o superiores al modelo sin restricciones, ∆𝑺𝑪𝑹 = 𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹𝒔𝒓 > 𝟎 → 𝑺𝑪𝑹𝒄𝒓 > 𝑺𝑪𝑹𝒔𝒓
•
•
SCRcr: Suma de cuadrados de residuos del modelo restringido
SCRsr: Suma de cuadrados de residuos del modelo sin restringir (generalmente designaremos
de manera simplificada SCR)
𝒌: número de parámetros del modelo sin restricciones (modelo original).
𝒒: número de restricciones impuestas al modelo original.
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
Siendo ∆𝑆𝐶𝑅 = 𝑅𝛽መ − 𝑟 ´ 𝑅(𝑋´𝑋)−1 𝑅´ −1 (𝑅𝛽መ − 𝑟)
• Si 𝑭𝒐𝒃𝒔 < 𝑭𝟏−𝜶
𝒒 ,𝒏−𝒌
𝜶′ > 𝜶
𝑵𝒐 𝒔𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝒐
• Si 𝑭𝒐𝒃𝒔 ≥ 𝑭𝟏−𝜶
𝒒 ,𝒏−𝒌
𝜶′ ≤ 𝜶
𝑺𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝒐
Aceptación
1-𝜶
0
Rechazo
𝑭𝟏−𝜶
𝒒 ,𝒏−𝒌
Por tanto, mientras mayor sea la diferencia entre la SCRcr y SCRsr, más probabilidad existe de que la hipótesis
nula sea falsa y que las restricciones no se cumplan.
Versión preliminar sujeta a revisión
13
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES.
A) Contraste de significación conjunta del modelo.
Sea el modelo de regresión lineal: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + ⋯ + 𝜷𝒌 𝒙𝒌𝒊 + 𝒖𝒊
Ho : 𝛽2 = 𝛽3 = ⋯ = 𝛽𝑘 = 0
q= k-1
El modelo restringido será: 𝒚𝒊 = 𝜷𝟏 + 𝒖𝒊 → 𝑆𝐶𝑇 = 𝑆𝐶𝑅𝑐𝑟
𝑆𝐶𝑅𝑐𝑟 − 𝑆𝐶𝑅𝑠𝑟 Τ𝑞 𝑆𝐶𝑇 − (𝑆𝐶𝑇 − 𝑆𝐶𝐸𝑠𝑟)ൗ𝑘 − 1 𝑆𝐶𝐸𝑠𝑟ൗ𝑘 − 1 𝑛 − 𝑘 𝑆𝐶𝐸𝑠𝑟
=
=
=
∙
~𝐹
𝑆𝐶𝑅𝑠𝑟ൗ
𝑆𝐶𝑅𝑠𝑟ൗ
𝑆𝐶𝑅𝑠𝑟Τ 𝑛 − 𝑘
𝑘 − 1 𝑆𝐶𝑅𝑠𝑟 𝑘−1,𝑛−𝑘
𝐹𝑜𝑏𝑠 =
𝑛−𝑘
𝑛−𝑘
Por tanto:
𝑭𝒐𝒃𝒔 =
𝑺𝑪𝑬ൗ
𝒌 − 𝟏 ~𝑭
𝒌−𝟏,𝒏−𝒌
𝑺𝑪𝑹ൗ
𝒏−𝒌
Versión preliminar sujeta a revisión
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES.
a.1. Contraste de significación conjunta del modelo.
Se puede demostrar a partir de la expresión anterior que existe una relación entre la F-Snedecor
correspondiente al TGRL y la bondad del ajuste:
𝑭𝒐𝒃𝒔 =
𝑺𝑪𝑬ൗ
𝒌 − 𝟏 ~𝑭
𝒌−𝟏,𝒏−𝒌
𝑺𝑪𝑹ൗ
𝒏−𝒌
Por tanto:
𝑭𝒐𝒃𝒔 =
𝑹𝟐 𝒏 − 𝒌
~𝑭𝒌−𝟏,𝒏−𝒌
𝟏 − 𝑹𝟐 𝒌 − 𝟏
𝑭𝒐𝒃𝒔 =
2 𝑛−𝑘
𝑆𝐶𝐸ൗ
𝑆𝐶𝑇 𝑛 − 𝑘 = 𝑅
~𝑭𝒌−𝟏,𝒏−𝒌
1 − 𝑅2 𝑘 − 1
𝑆𝐶𝑅ൗ
𝑘−1
𝑆𝐶𝑇
• Si 𝑭𝒐𝒃𝒔 < Fk-1, n-k
Se acepta Ho y el modelo no es significativo en su conjunto.
• Si 𝑭𝒐𝒃𝒔 > Fk-1, n-k
Se rechaza Ho y el modelo no es significativo en su conjunto.
1-𝜶
Aceptación
Rechazo
𝑭𝟏−𝜶
𝒒 ,𝒏−𝒌
Versión preliminar sujeta a revisión
14
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES.
Ejemplo 1 : Contraste de significación conjunta
Consideraremos el mismo ejemplo relativo a una muestra aleatoria simple correspondientes a 392 vehículos
donde se pretende explicar el consumo de gasolina a los 100 Kilómetros (CONS_GASOL), a partir del peso del
vehículo (PESO), número de cilindros (N_CILIND) y la cilindrada del motor (CILINDRADA).
𝐶𝑂𝑁𝑆_𝐺𝐴𝑆𝑂𝐿𝑖 = 𝛽1 + 𝛽2𝑃𝐸𝑆𝑂𝑖 + 𝛽3 𝑁_𝐶𝐼𝐿𝐼𝑁𝐷𝑖 + 𝛽4 𝐶𝐼𝐿𝐼𝑁𝐷𝑅𝐴𝐷𝐴𝑖 + 𝑢𝑖
Ho : 𝜷𝟐 = 𝜷𝟑 = 𝜷𝟒 = 𝟎
H1 : Ho no cierto
𝐹∗ =
i= 1,2, … , 392
𝑅2 𝑛 − 𝑘
~𝐹
1 − 𝑅2 𝑘 − 1 𝑘−1,𝑛−𝑘
0,796857 392−4
= 507.329
4−1
Fobs = 1−0,796857
Aceptación
0
𝟎
p-valor = α´=0.00 < α = 0.05
Rechazo
𝑭𝟎.𝟗𝟓
𝟑 ,𝟑𝟖𝟖 = 𝟐. 𝟔𝟐𝟕
El valor observado del estadístico es mayor
que el valor crítico, por tanto, se rechaza Ho
y el modelo es significativo en su conjunto,
al menos una variable explicativa es
relevante.
𝑭𝒐𝒃𝒔 = 𝟓𝟎𝟕. 𝟑𝟐𝟗
Se rechaza Ho (misma conclusión)
Versión preliminar sujeta a revisión
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
a.2.) Contraste de un subconjunto de coeficientes nulos
Sea el MRLG, con las hipótesis habituales, 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖 en el que se quiere
contrastar
𝐻0 : 𝛽𝑗 = 𝛽𝑗+1 =. . . = 𝛽𝑘 = 0
El modelo restringido será, en este caso
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑗−1 𝑥𝑗−1𝑖 + 𝑢𝑖
Aplicando MCO al modelo sin restringir se obtendría su correspondiente suma de cuadrados de residuos
(SCRsr) y al modelo con restricciones su correspondiente suma de cuadrados de residuos (SCRcr). El contraste
se realiza aplicando el Test General de Restricciones Lineales (TGRL), que particularizado para este caso:
𝐹𝑜𝑏𝑠 =
𝑡 𝑒 − 𝑒𝑡 𝑒
𝑒𝑐𝑟
𝑆𝐶𝑅𝑐𝑟 − 𝑆𝐶𝑅𝑠𝑟 Τ 𝑘 − 𝑗 + 1
∆ 𝑆𝐶𝑅Τ 𝑘 − 𝑗 + 1
𝑐𝑟
𝑠𝑟 𝑠𝑟 Τ 𝑘 − 𝑗 + 1
=
=
~𝐹 𝑘−𝑗+1 , 𝑛−𝑘
𝑡
𝑆𝐶𝑅𝑠𝑟Τ 𝑛 − 𝑘
𝑆𝐶𝑅𝑠𝑟Τ 𝑛 − 𝑘
𝑒𝑠𝑟
𝑒𝑠𝑟 Τ 𝑛 − 𝑘
Versión preliminar sujeta a revisión
15
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
b) Contraste de un subconjunto de coeficientes nulos
Ejemplo 2 : Verifiquemos que el número de cilindros y la cilindrada del vehículo, consideradas conjuntamente, no
influyen en el consumo de gasolina (subconjunto de coeficientes nulos)
𝑴𝑶𝑫𝑬𝑳𝑶 𝑺𝑰𝑵 𝑹𝑬𝑺𝑻𝑹𝑰𝑪𝑪𝑰𝑶𝑵𝑬𝑺:
𝐶𝑂𝑁𝑆_𝐺𝐴𝑆𝑂𝐿𝑖 = 𝛽1 + 𝛽2𝑃𝐸𝑆𝑂𝑖 + 𝛽3 𝑁_𝐶𝐼𝐿𝐼𝑁𝐷𝑖 + 𝛽4 𝐶𝐼𝐿𝐼𝑁𝐷𝑅𝐴𝐷𝐴𝑖 + 𝑢𝑖
Ho : 𝜷𝟑 = 𝜷𝟒 = 𝟎
H1 : Ho no cierto
Modelo sin restringir
Modelo restringido
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
La hipótesis a verificar:
Ho : 𝜷𝟑 = 𝜷𝟒 = 𝟎
H1 : Ho no cierto
Fobs =
Aplicando la expresión:
Fobs =
𝑆𝐶𝑅𝑐𝑟 −𝑆𝐶𝑅𝑠𝑟/𝑞
~ F q, n-k
𝑆𝐶𝑅𝑠𝑟/(𝑛−𝑘)
1219.819 −1216.76/2
= 12,9240 >𝐹2,0.95
388 = 3.018
1216.76/(392−4)
Se rechaza Ho y ambas variables consideradas conjuntamente si influyen en el consumo de gasolina.
Nota: un contraste asintótico alternativo al TGRL cuyo estadístico se
distribuye, siendo cierta la hipótesis nula, exactamente como una F
de Snedecor es el test de Wald. Dicho test puede ser una opción
válida si la muestra es suficientemente grande y se violan algunos de
los supuestos básicos del MRLG que pueden conducir a la inaplicación
del test de la F: 𝑊𝑜𝑏𝑠 = 𝑞𝐹𝑜𝑏𝑠 ~ χ2𝑞
𝑊𝑜𝑏𝑠 = 2 ∙ 12.92409 = 25.84818 > Valor crítico χ22 = 5.991
Se rechaza Ho
Una última consideración es que el test de Wald permite verificar restricciones tanto lineales como no lineales sobre los
coeficientes de un modelo de regresión.
16
30/03/2023
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
a.3) Contraste de significación de un solo coeficiente
Ya vimos en el primer apartado, que un estadístico que nos permitía realizar contrastes de hipótesis sobre un
coeficiente del modelo, es el de la t-Student. Se demuestra que a partir de la expresión del test general de
restricciones lineales, se cumple que:
Fobs =
෡ 𝒋 −𝜷𝒋
𝜷
ത෡
𝑺
𝜷𝒋
𝟐
= 𝒕𝒐𝒃𝒔 𝟐 ~𝑭𝟏,𝒏−𝒌
± tobs = ± 𝑭𝒐𝒃𝒔
; Expresión que sólo se cumple cuando q = 1
Ejemplo 3: Verifiquemos en nuestro ejemplo que individualmente el número de cilindros no influye en el consumo de
gasolina del vehículo:
𝐶𝑂𝑁𝑆_𝐺𝐴𝑆𝑂𝐿𝑖 = 𝛽1 + 𝛽2𝑃𝐸𝑆𝑂𝑖 + 𝛽3 𝑁_𝐶𝐼𝐿𝐼𝑁𝐷𝑖 + 𝛽4 𝐶𝐼𝐿𝐼𝑁𝐷𝑅𝐴𝐷𝐴𝑖 + 𝑢𝑖
෡
𝛽
3
𝑯𝒐 ∶ 𝜷𝟑 = 𝟎 tobs = 𝑆 ෡ = 1.378909 ~ t388 Valor crítico = ± 1.966
𝛽3
𝑯𝟏 ∶ 𝜷𝟑 ≠ 𝟎 𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 0,1687 > 0.05
Se acepta Ho
Se acepta Ho
N_CILIND es no relevante
Versión preliminar sujeta a revisión
3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES
Fobs =
𝑆𝐶𝑅𝑐𝑟 −𝑆𝐶𝑅𝑠𝑟/𝑞 1222.723 −1216.760/1
= 1216.760/(392−4) = 1.9014 = (1.378909)2
𝑆𝐶𝑅𝑠𝑟/(𝑛−𝑘)
Fobs = (tobs )2
Si aplicamos la alternativa del test de la F para contrastar hipótesis referidas a
restricciones sobre los coeficientes se obtiene el mismo resultado:
𝑊𝑜𝑏𝑠 = 𝑞𝐹𝑜𝑏𝑠 = 1 ∙ 1.901389 = 1.901389~χ12 < 𝑉𝑎𝑙𝑜𝑟 𝑐𝑟í𝑡𝑖𝑐𝑜 = 3.8414 Se acepta
hipótesis
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 0.1687 > 0.05
nula
Versión preliminar sujeta a revisión
17
30/03/2023
3.3. ANÁLISIS DE LA VARIANZA (ANOVA)
En el contexto del MRLG se denomina ANOVA a la descomposición de la SCT, en SCR y SCE, y al papel que
desempeñan dichas sumas de cuadrados en el contraste de significación conjunta del modelo.
Recordemos que en el MRLG, la suma de cuadrados totales se descompone aditivamente en dos sumas de
cuadrados: explicada y no explicada. Es decir, en suma de cuadrados explicada (recoge la parte de la
variabilidad del regresando que es explicada por la acción conjunta de los regresores) y suma de cuadrados de
los residuos (recoge la parte de la variabilidad del regresando que no es explicada por el conjunto de
regresores del modelo). Por tanto,
𝒏
𝒏
𝒏
𝟐
෍(𝒚𝒊 −ഥ
𝒚) = ෍(ෝ
𝒚𝒊 − 𝒚) + ෍ 𝒆𝒊 𝟐 → 𝑺𝑪𝑻 = 𝑺𝑪𝑬 + 𝑺𝑪𝑹
𝒊=𝟏
ഥ 𝟐
𝒊=𝟏
𝒊=𝟏
en donde,
 𝑺𝑪𝑻 = σ𝑛𝑖=1 𝑦𝑖 2 − 𝑦ത σ𝑛𝑖=1 𝑦𝑖 = 𝑦 𝑡 𝑦 − 𝑦ത σ𝑛𝑡=1 𝑦𝑖
 𝑺𝑪𝑬 = 𝛽መ 𝑡 𝑋 𝑡 𝑦 − 𝑛𝑦ത 2 = 𝛽መ 𝑡 𝑋 𝑡 𝑦 − 𝑦ത σ𝑛𝑖=1 𝑦𝑖
 𝑺𝑪𝑹 = 𝑦 𝑡 𝑦 − 𝛽መ 𝑡 𝑋 𝑡 𝑦
Versión preliminar sujeta a revisión
3.3. ANÁLISIS DE LA VARIANZA (ANOVA)
En el caso de dividir cada una de las sumas de cuadrados por sus grados de libertad obtendríamos unas
medidas de dispersión insesgadas de la varianza poblacional del regresando y de la varianza de las
perturbaciones aleatorias.
n
Versión preliminar sujeta a revisión
18
30/03/2023
3.3. ANÁLISIS DE LA VARIANZA (ANOVA)
En el contraste de significación conjunta tenemos el MRLG al que le imponemos q restricciones lineales:
𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + ⋯ + 𝜷𝒌 𝒙𝒌𝒊 + 𝒖𝒊 ;
𝒊 = 𝟏, 𝟐, … , 𝒏
𝐻0 : 𝛽2 = 𝛽3 =. . . = 𝛽𝑘 = 0 → 𝑞 = 𝑘 − 1
𝐻1 : ∃ 𝛽𝑗 ≠ 0; 𝑗 = 2,3, … , 𝑘
El modelo con restricciones sería, en este caso,
𝑦𝑖 = 𝛽1 + 𝑢𝑖 ;
𝑖 = 1,2, … , 𝑛
de forma que 𝐸 𝑦𝑖 = 𝛽1 y 𝑉𝑎𝑟 𝑦𝑖 = 𝜎𝑢2 .
Aplicando MCO al modelo restringido se tiene
𝛽መ1∗ = 𝑦ത → 𝑦𝑖 = 𝛽መ1∗ + 𝑒𝑐𝑟𝑖 → 𝑒𝑐𝑟𝑖 = 𝑦𝑖 − 𝑦ത = 𝑦𝑖 − 𝛽መ1∗
Versión preliminar sujeta a revisión
3.3. ANÁLISIS DE LA VARIANZA (ANOVA)
Teniendo en cuenta la expresión del TGRL en el contraste del modelo en su conjunto se tiene que el
estadístico de la prueba, siendo cierta la hipótesis nula, se puede calcular como:
𝑭𝒐𝒃𝒔 =
𝑭𝒐𝒃𝒔 =
𝒏 − 𝒌 𝑺𝑪𝑬
𝒏 − 𝒌 𝑹𝟐
=
~𝑭 𝒌−𝟏 , 𝒏−𝒌
𝒌 − 𝟏 𝑺𝑪𝑹
𝒌 − 𝟏 𝟏 − 𝑹𝟐
𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹 Τ𝒒
𝒏 − 𝒌 𝑺𝑪𝑻 − 𝑺𝑪𝑹
=
~𝑭 𝒌−𝟏 , 𝒏−𝒌
𝑺𝑪𝑹Τ 𝒏 − 𝒌
𝒌−𝟏
𝑺𝑪𝑹
Versión preliminar sujeta a revisión
19
30/03/2023
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
Sea el MRLG que cumple las hipótesis habituales:
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖
𝑖 = 1,2, … , 𝑛
que se ha estimado por MCO ,resultando:
𝑦𝑖 = 𝛽መ1 + 𝛽መ2 𝑥2𝑖 + 𝛽መ3 𝑥3𝑖 + ⋯ + 𝛽መ𝑘 𝑥𝑘𝑖 + 𝑒𝑖
𝑖 = 1,2, … , 𝑛
Supongamos que se dispone de un conjunto de observaciones extramuestrales de las variables exógenas:
𝑥 = 1 𝑥2,𝑛+1 𝑥3,𝑛+1 … 𝑥𝑘,𝑛+1
La predicción consiste en determinar con el modelo estimado, el valor extramuestral de la variable endógena, 𝒚𝒏+𝟏 , o su
valor esperado, 𝑬 𝒚𝒏+𝟏 , que correspondería a los valores extramuestrales de las exógenas:
𝑦ො𝑛+1 = 𝛽መ1 + 𝛽መ2 𝑥2,𝑛+1 + 𝛽መ3 𝑥3,𝑛+1 + ⋯ + 𝛽መ𝑘 𝑥𝑘,𝑛+1
Versión preliminar sujeta a revisión
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
3.4.1. Predicción del valor medio esperado, 𝑬 𝒚𝒏+𝟏
Dado el MRLG
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖
de forma que, las observaciones extramuestrales vienen dadas como,
𝑐 𝑡 = 1 𝑥2,𝑛+1 𝑥3,𝑛+1 … 𝑥𝑘,𝑛+1
La predicción del valor 𝑦𝑛+1viene dada por:
𝑦𝑛+1 = 𝛽1 + 𝛽2 𝑥2,𝑛+1 + 𝛽3 𝑥3,𝑛+1 + ⋯ + 𝛽𝑘 𝑥𝑘,𝑛+1 + 𝑢𝑛+1
o en forma matricial
𝑦𝑛+1 = 𝑐 𝑡 𝛽 + 𝑢𝑛+1 → 𝐸 𝑦𝑛+1 = 𝐸 𝑐 𝑡 𝛽 + 𝑢𝑛+1 = 𝐸 𝑐 𝑡 𝛽 + 𝐸 𝑢𝑛+1 = 𝑐 𝑡 𝛽
A partir del Teorema de Gauss-Markov se demuestra que el predictor por MCO ℎ෠ = 𝑐 𝑡 𝛽መ es un estimador lineal, insesgado
y óptimo de ℎ = 𝑐 𝑡 𝛽
Versión preliminar sujeta a revisión
20
30/03/2023
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
3.4.1. Predicción del valor medio esperado, 𝑬 𝒚𝒏+𝟏
En conclusión, 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽መ es un predictor lineal, insesgado y óptimo de 𝐸(𝑦𝑛+1 ). Así,
𝐸 𝑦ො𝑛+1 ) = 𝐸(𝑐 𝑡 𝛽መ = 𝑐 𝑡 𝐸 𝛽መ = 𝑐 𝑡 𝛽 → 𝐼𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜
siendo su varianza,
𝑉𝑎𝑟 𝑦ො𝑛+1 =
𝑦ො𝑛+1 − 𝐸 𝑦ො𝑛+1
𝑦ො𝑛+1 − 𝐸 𝑦ො𝑛+1
𝑡
= 𝜎𝑢2 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
Dado que 𝑦ො𝑛+1 es una combinación lineal de v.a. normales se tiene: 𝑦ො𝑛+1 ~𝑁 𝑐 𝑡 𝛽, 𝜎𝑢2 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
Además,
𝑦ො𝑛+1 − 𝑐 𝑡 𝛽
𝜎𝑢 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐
~𝑁 0, 1 𝑦
𝑒𝑡𝑒
𝑛 − 𝑘 𝑆𝑒ҧ 2 2
=
~χ𝑛−𝑘 son v.a. independientes, de forma que, el siguiente cociente:
𝜎𝑢2
𝜎𝑢2
𝑦ො𝑛+1 − 𝑐 𝑡 𝛽
𝜎𝑢 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
൚
𝑦ො𝑛+1 − 𝑐 𝑡 𝛽
𝑦ො𝑛+1 − 𝑐 𝑡 𝛽
𝜎 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐
൚
= 𝑢
=
~𝑡𝑛−𝑘
𝑆𝑒ҧ
𝑆𝑒ҧ 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
𝜎𝑢
𝑛 − 𝑘 𝑆𝑒ҧ 2
𝜎𝑢2 ൙
(𝑛 − 𝑘)
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
3.4.1. Predicción del valor medio esperado, 𝑬 𝒚𝒏+𝟏
Finalmente un intervalo de confianza para el valor medio esperado es:
𝜶Τ𝟐 ഥ
ෝ𝒏+𝟏 ± 𝒕𝟏−
𝑰𝑪𝑬 𝒚𝒏+𝟏 = 𝒚
∙ 𝑺𝒆 𝒄𝒕 𝑿𝒕 𝑿 −𝟏 𝒄
𝒏−𝒌
3.4.2. Predicción del valor de la variable endógena, 𝒚𝒏+𝟏
መ de forma que el error de predicción viene dado por:
El predictor puntual sigue siendo, 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽,
𝑦𝑛+1 − 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽 +𝑢𝑛+1 −𝑐 𝑡 𝛽መ = 𝑢𝑛+1 − 𝑐 𝑡 𝛽መ − 𝛽 = 𝑒𝑛+1
Se puede demostrar que 𝐸 𝑒𝑛+1 = 0 y su varianza es
𝑉𝑎𝑟 𝑒𝑛+1 =
𝑒𝑛+1 − 𝐸 𝑒𝑛+1
𝑒𝑛+1 − 𝐸 𝑒𝑛+1
𝑡
= 𝜎𝑢2 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
Al ser 𝑒𝑛+1 una combinación lineal de v.a. normales se tiene que
𝑒𝑛+1 ~𝑁 0, 𝜎𝑢2 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
21
30/03/2023
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
3.4.2. Predicción del valor de la variable endógena, 𝒚𝒏+𝟏
Se demuestra que el cociente de la v.a. N (0,1) y la raíz cuadrada de una ji-dos de n-k grados de libertad da
lugar a la siguiente v.a. que sirve de base para obtener el IC para el valor individual del regresando
𝑒𝑛+1
𝑦𝑛+1 − 𝑦ො𝑛+1
=
~𝑡𝑛−𝑘
𝑡
𝑡
−1
ҧ
ҧ
𝑆𝑒 1 + 𝑐 𝑋 𝑋 𝑐 𝑆𝑒 1 + 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐
Finalmente el IC para 𝑦𝑛+1 tiene como expresión:
1−𝛼Τ2
𝐼𝐶𝑦𝑛+1 = 𝑦ො𝑛+1 ± 𝑡𝑛−𝑘
∙ 𝑆𝑒ҧ 1 + 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐
Versión preliminar sujeta a revisión
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
Predicción
Predicción para el valor concreto de la
variable endógena, 𝒚𝒏+𝟏
Predicción puntual
𝑦ො𝑛+1 = 𝑐 𝑡 𝛽መ
Predicción para el valor esperado
de la variable endógena, 𝑬(𝒚𝒏+𝟏 )
Predicción por intervalo
Τ
1−𝛼 2 ҧ
𝑦ො𝑛+1 ± 𝑡𝑛−𝑘
𝑆𝑒 1 + 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐
Predicción puntual
𝐸(𝑦ො𝑛+1 ) = 𝑐 𝑡 𝛽መ
Predicción por intervalo
Τ
1−𝛼 2 ҧ
𝑦ො𝑛+1 ± 𝑡𝑛−𝑘
𝑆𝑒 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐
Nota: 𝑐 𝑡 = 1 𝑋2,𝑛+1 , 𝑋3,𝑛+1 , … , 𝑋𝑘,𝑛+1 .
Existe mayor incertidumbre cuando se predice para el valor concreto que el valor medio esperado.
Al realizar una estimación puntual no se da ninguna información sobre la incertidumbre de la predicción. La predicción
por intervalos corrige esta limitación y nos permite conocer el grado de confianza de la predicción.
Versión preliminar sujeta a revisión
22
30/03/2023
3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS
En Eviews el intervalo de predicción se obtiene mediante la expresión:
𝟏−𝜶/𝟐 ഥ
𝑺𝒑
ෝ𝒑 ± 𝒕𝒏−𝒌
𝒚
siendo 𝑆𝑝ҧ el error estandar de la predicción:
𝑆𝑝ҧ = 𝑆𝑒ҧ 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
Consideraciones sobre los IC de 𝑦𝑛+1 y 𝐸(𝑦𝑛+1 ):
- La diferencia entre los dos intervalos se encuentra en que el
IC de 𝑦𝑛+1, la incertidumbre es mayor al incluir a 𝑢𝑛+1 en la
predicción por eso la varianza de la predicción es mayor:
𝑆𝑒ҧ 2 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 > 𝑆𝑒ҧ 2 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐
- La amplitud de ambos intervalos (precisión) depende del
1−𝛼/2
nivel de confianza elegido, 𝑡𝑛−𝑘 , capacidad de ajuste del
modelo, 𝑆𝑒ҧ , y de la discrepancia entre los valores
extramuestrales de las exógenas, 1 𝑥2,𝑛+1 … 𝑥𝑘,𝑛+1 y los
valores muestrales utilizados en la estimación del modelo.
3.5. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS
Aunque un modelo posea un buen ajuste y pase bien los tests relacionados con su especificación, es posible
que no prediga correctamente fuera del intervalo muestral.
Cuando un modelo se elabora con fines predictivos hay que someterlo a pruebas que sirvan para evaluar su
capacidad predictiva fuera del periodo muestral. Con este fin, el analista suele guardar parte de la información
muestral disponible y usarla posteriormente para las pruebas específicas de predicción.
Si las observaciones de las variables son temporales se pueden considerar distintos tipos de predicciones o
simulaciones:
23
30/03/2023
3.4. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS
Veamos un ejemplo para explicar el cuadro anterior:
Supongamos que disponemos de datos anuales desde 2000 a 2019 de las variables de un modelo. La estimación del
mismo se lleva a cabo desde 2000 a 2015.
 Si se obtienen los valores ajustados de la variable endógena en el periodo 2000 – 2015, se está llevando a cabo una
“simulación histórica”.
 Si se obtiene una predicción con el modelo desde 2016 a 2019, se está realizando una “predicción ex post”. Los
valores de las exógenas son conocidos (valores de la muestra que no se han empleado en la estimación del modelo)
y se pueden obtener en Eviews diferentes indicadores para medir la evaluación de la capacidad predictiva, puesto
que se pueden comparar los valores observados con las predicciones.
 Si se obtiene una predicción para 2020 en adelante, no se dispone de los valores observados de las exógenas ni
endógena, los valores de las exógenas son predichos o simulados, esta es la “predicción ex ante”. En Eviews no se
podrían obtener los indicadores de la evaluación de la capacidad predictiva, ya que los datos de la endógena son
desconocidos. Se llama ex-ante porque se realiza antes de que se hayan observados los datos, es la predicción
propiamente dicha.
 Si se predicen los valores de la endógena antes de 2000, se está realizando una “simulación hacia atrás”, con el que
se puede analizar la estabilidad dinámica del modelo o reproducir los valores anteriores de la endógena.
Versión preliminar sujeta a revisión
3.4. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS
Toda predicción/simulación está afectada por las denominadas fuentes de error:
 Fuentes de error que pueden estar presente en la simulación histórica:
• Factores aleatorios incontrolados: 𝐸 𝑢𝑖 = 0 pero, en general, 𝑢𝑖 ≠ 0.
• Errores de muestreo que dan lugar a que la estimación de los coeficientes de regresión no suela
coincidir con los coeficiente de regresión poblacionales: 𝛽መ ≠ 𝛽.
• Errores de especificación del modelo.
• En modelos dinámicos los errores son acumulativos al incluir a la endógena retardada y en los modelos
multiecuacionales una ecuación puede provocar errores de predicción aunque las restantes estén bien
especificadas y el ajuste sea adecuado.
 Fuentes de error en la predicción ex-post: además de los anteriores cabe la posibilidad de que se produzca
un cambio estructural que afecte a la relación entre la endógena y exógena durante el periodo de
predicción.
 Fuentes de error en la predicción ex-ante, comprende todos los anteriores y los siguientes:
• Emplear valores predichos de las variables exógenas, que implican errores.
• En modelos dinámicos usar valores predichos de la variable endógena retardada.
Versión preliminar sujeta a revisión
24
30/03/2023
3.4. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS
A) Indicadores de la capacidad predictiva:
En la predicción ex post se obtienen unos indicadores que se utilizan para evaluar la capacidad predictiva de
los modelos y se calculan comparando los valores predichos con los observados. Estos indicadores también
pueden ser utilizados para evaluar la capacidad de ajuste del modelo, son los siguientes:
Indicadores dimensionales:
 Raíz del error cuadrático medio (RECM)
 Error Absoluto medio (EAM)
h: horizonte de predicción,
es decir, período de
tiempo para el que se
realizan las predicciones.
Estos dos indicadores, al expresarse en la misma unidad de medida que la variable dependiente, no pueden
utilizarse para comparar predicciones de modelos cuyas variables dependientes sean diferentes. Cuanto
más pequeño sea el error mejor será su capacidad predictiva. Su valor mínimo es 0 y no están acotados
superiormente.
Versión preliminar sujeta a revisión
3.5. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS
Indicadores adimensionales:
 Porcentaje de error absoluto medio (PEAM)
 Error porcentual absoluto medio simétrico
𝑇+ℎ
𝑌෠𝑡 − 𝑌𝑡
∙ 100; 0% ≤ 𝑠𝑀𝐴𝑃𝐸 ≤ 200%
𝑌෠𝑡 + 𝑌𝑡
𝑡=𝑇+1
2
Si el valor se aproxima a 0 el modelo predice muy bien.
1
෍
ℎ
Ambas medidas no dependen de la unidad de medida de la variable dependiente, por tanto, sí pueden ser
utilizados para comparar la fiabilidad de la predicción de modelos, incluso cuando las variables dependientes
estén expresadas en unidades diferentes. Se pueden usar para un único modelo sin necesidad de hacer
comparaciones, de esta forma se puede establecer una conclusión acerca de la fiabilidad predictiva del
modelo.
En donde, 𝐹𝑁𝑡 son los pronósticos proporcionados por un modelo
 Coeficiente U2 de Theil
naive o ingenuo:
𝑦ො𝑡 = 𝑦ො𝑡−1 , ∀𝑡
2
𝑈2 =
෠
σ𝑇+ℎ
𝑡=𝑇+1 𝑌𝑡 − 𝑌𝑡 ൗℎ
Si 𝑈2 = 1 el modelo estimado predice igual que el modelo naive.
; 0 ≤ 𝑈2 < ∞ Valores próximo a 0 pueden llevar a concluir que el modelo predice
muy bien, en cambio, valores mayores de 1 suponen que predice
2
෠
σ𝑇+ℎ
𝑡=𝑇+1 𝑌𝑡 − 𝐹𝑁𝑡 ൗℎ
peor que el modelo ingenuo.
25
30/03/2023
3.5. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS
 Coeficiente de desigualdad de Theil (U1)
Una de las ventajas del coeficiente de desigualdad de Theil (U) es que al estar acotado entre 0 y 1, podrá
establecerse una primera conclusión acerca del grado de fiabilidad de la predicción, de forma que:
𝑈 = 0 → 𝐋𝐚𝐬 𝐩𝐫𝐞𝐝𝐢𝐜𝐜𝐢𝐨𝐧𝐞𝐬 𝐬𝐨𝐧 𝐩𝐞𝐫𝐟𝐞𝐜𝐭𝐚𝐬, coinciden con los valores observados.
𝑈 = 1 → 𝐄𝐥 𝐦𝐨𝐝𝐞𝐥𝐨 𝐩𝐫𝐞𝐝𝐢𝐜𝐞 𝐦𝐮𝐲 𝐦𝐚𝐥, igual que un modelo "naif" en el que establece que 𝑦ො𝑡 = 𝑦ො𝑡−1 , ∀𝑡.
Otra ventaja del coeficiente de desigualdad de Theil es que puede descomponerse en tres componentes
aditivas que cuantifican el sesgo, la varianza y la covarianza de las predicciones:
𝑼𝟐𝒔 + 𝑼𝟐𝒗 + 𝑼𝟐𝒄 = 𝟏 (Si se considera proporciones)
𝑼𝟐𝒔 : componente sesgo.
𝑼𝟐𝒗 : componente varianza.
𝑼𝟐𝒄 : componente covarianza.
En el caso de que los componentes sesgo y varianza sean pequeños y el mayor porcentaje de Theil se
concentre en torno a la covarianza, la predicción será acertada, con ello los errores de predicción no son
sistemáticos.
3.6. SELECCIÓN DE MODELOS
Evaluación de modelos
Una vez se haya estimado un modelo, debemos someterlo a un diagnóstico para comprobar si la estimación
ha sido correcta. Para ello, debemos comprobar:
1. Signos de los coeficientes. Comprobar su coherencia con la Teoría Económica.
2. Significación individual de los coeficientes del modelo.
3. Significación conjunta del modelo.
4. Ausencia de heteroscedasticidad y/o autocorrelación (se verá en Tema 5).
5. Ausencia de errores de especificación (se verá en Tema 4).
6. Normalidad del término de perturbación (se verá en tema 5).
7. Los parámetros del modelo son constantes, no hay cambio estructural (se verá en Tema 4 y 5).
8. Capacidad de ajuste. Indicadores.
9. Capacidad de predicción ex post. Indicadores.
En el caso de que existan varios modelos que hayan superado esta evaluación previa, resultaría útil
seleccionar el más apropiado desde el punto de vista econométrico.
Versión preliminar sujeta a revisión
26
30/03/2023
3.6. SELECCIÓN DE MODELOS
En el proceso de selección de modelos se pueden distinguir tres situaciones:
A) Existen dos formulaciones alternativas y una es un caso particular de la otra (modelos anidados).
Modelo 1 : 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝛽4 𝑋4𝑖 + 𝑢𝑖
Modelo 2 : 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝑢𝑖
 Los modelos deben cumplir todos los supuestos básicos (habría que someterlos a diferentes contrastes
que permiten concluir si cumplen o violan dichos supuestos).
 La práctica común es contrastar que el subconjunto de coeficientes son nulos. Si el tamaño muestral
fuese muy elevado, el TGRL basado en un estadístico que bajo la hipótesis nula se distribuye como un
modelo F, favorecerá que se rechace dicha hipótesis y se seleccione el modelo con más parámetros. Por
ello, se pueden aplicar alternativamente, otros contrastes basados en muestras grandes, como:
• Contraste de variables redundantes: se trata de un test basado en la razón de verosimilitudes de los
dos modelos.
• Contraste de Wald.
 Alternativamente, existen otros criterios para elegir entre un modelo u otro, como: R cuadrado
ഥ 𝟐 ) y los criterios de información de Akaike (AIC), Schwarz (SBIC) y de Hannan-Quinn (HQ)
corregido ( 𝑹
Versión preliminar sujeta a revisión
3.6. SELECCIÓN DE MODELOS
Criterio de Información Akaike (AIC)
La idea principal de AIC es maximizar el logaritmo de la función de verosimilitud del modelo evaluada en los
estimadores máximo-verosímiles. Este criterio no busca encontrar el mejor modelo, sino encontrar el
modelo, de entre los que compiten, que mejor se ajuste a los datos con los que se trabaja.
𝐴𝐼𝐶 =
መ 𝜎ො𝑢 2 /𝑦, X) 2𝑘
−2𝑙𝑛𝐿(𝛽,
+
𝑛
𝑛
መ 𝜎ො𝑢 2 /𝑦, X) es el logaritmo neperiano de la función de verosimilitud evaluada con las
en donde, 𝑙𝑛𝐿(𝛽,
estimaciones de los parámetros del modelo.
መ 𝜎ො𝑢 2 /𝑦, X)= −
𝑙𝑛𝐿(𝛽,
𝑛
𝑆𝐶𝑅
𝑙𝑛
+ ln 2𝜋 + 1
2
𝑛
Al comparar dos o más modelos se seleccionará el modelo con menor AIC. Este indicador impone una mayor
penalización por incorporar una variable regresora adicional que el coeficiente de determinación ajustado.
Versión preliminar sujeta a revisión
27
30/03/2023
3.6. SELECCIÓN DE MODELOS
Criterio de Información de Schwarz
La expresión de este indicador está basada en la función de verosimilitud
𝑆𝐵𝐼𝐶 =
መ 𝜎ො𝑢 2 /𝑦, X
−2𝑙𝑛𝐿 𝛽,
ln(𝑛)
+𝑘
𝑛
𝑛
El término de la derecha supone una penalización derivada del incremento de variables regresoras, siendo
este término mayor que el de AIC. Este indicador es asintóticamente consistente como criterio de selección.
Ello significa que dada una familia de modelos, dentro de la cual está incluido el modelo verdadero, la
probabilidad de que SIC seleccione el modelo verdadero tiende a uno cuando el tamaño muestral tiende
hacia infinito (a diferencia del AIC que no es consistente).
Criterio de Hannan-Quinn
መ 𝜎ො𝑢 2 /𝑦, X
−2𝑙𝑛𝐿(𝛽,
ln(ln 𝑛 )
𝐻𝑄𝐼𝐶 =
+ 2𝑘
𝑛
𝑛
Estos coeficientes (AIC, SBIC y HQ):
- Sólo sirven para comparar modelos en los que la variable endógena sea la misma.
- Cuanto menor valor toman mejor.
- Casi siempre los tres criterios coinciden en la elección, siendo SBIC el criterio más restrictivo respecto a
la inclusión de variables adicionales en el modelo.
3.6. SELECCIÓN DE MODELOS
B) No hay modelos alternativos
𝑀𝑜𝑑𝑒𝑙𝑜: 𝑦𝑖 = 𝛼1 + 𝛼2 𝑥2𝑖 + 𝛼3 𝑥3𝑖 + ν𝑖
𝑀𝑜𝑑𝑒𝑙𝑜 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑜: 𝑦𝑖 =¿ … ?
En este caso se debe aplicar una batería de contrastes de mala especificación, que forman en conjunto, los
contrastes de diagnósticos del modelo.
C) Se plantean dos especificaciones alternativas no anidadas, de acuerdo con teorías económicas distintas,
cada una con un conjunto de variables diferentes. Existen modelos competitivos.
𝑀𝑜𝑑𝑒𝑙𝑜 1 ∶ 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑘𝑒𝑦𝑛𝑒𝑠𝑖𝑎𝑛𝑎 𝑑𝑒 𝑙𝑎 𝑖𝑛𝑓𝑙𝑎𝑐𝑖ó𝑛: 𝐼𝑃𝐶𝑡 = 𝛼1 + 𝛼2 𝑃𝐼𝐵𝑡 +ν𝑡
𝑀𝑜𝑑𝑒𝑙𝑜 2 ∶ 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑚𝑜𝑛𝑒𝑡𝑎𝑟𝑖𝑠𝑡𝑎 𝑑𝑒 𝑙𝑎 𝑖𝑛𝑓𝑙𝑎𝑐𝑖ó𝑛: 𝐼𝑃𝐶𝑡 = 𝛽1 + 𝛽2 𝑀𝑡 +𝑢𝑡
El primer modelo trata de explicar la evolución temporal del IPC mediante el PIB, mientras que el segundo
busca explicar el IPC en función de la oferta monetaria en el momento t.
Versión preliminar sujeta a revisión
28
30/03/2023
3.6. SELECCIÓN DE MODELOS
En este caso se puede aplicar el denominado contraste J de Davidson y Mackinnon que se basa en formular
una especificación más amplia:
Modelo artificial: 𝑰𝑷𝑪𝒕 = 𝜸𝟏 + 𝜸𝟐 𝑷𝑰𝑩𝒕 + 𝜸𝟑 𝑴𝒕 + 𝒖𝒊
Se realizan los contrastes:
𝐻𝑜 : 𝛾2 = 0
𝐻1 : 𝛾2 ≠ 0
𝐻𝑜 : 𝛾3 = 0
𝐻1 : 𝛾3 ≠ 0
 En el caso de 𝛾2 sea significativo y 𝛾3 no, se elige el modelo 1.
 En el caso de 𝛾2 no sea significativo y 𝛾3 si, se elige el modelo 2.
 En el caso de que ambos sean significativos o no (conjuntamente), los contrastes no son concluyentes y
el modelo artificial no tiene un significado económico definido.
Versión preliminar sujeta a revisión
29
Download