30/03/2023 GRADO EN FINANZAS Y CONTABILIDAD INTRODUCCIÓN A LA ECONOMETRÍA Tema 3 Modelo de Regresión Lineal General: Verificación de hipótesis Departamento de Estadística y Econometría (U 68) Facultad de Ciencias Económicas y Empresariales Universidad de Málaga Versión preliminar sujeta a revisión Introducción I De forma resumida, las técnicas de Estadística Inferencial se pueden agrupar en dos grupos: Estimación: supone encontrar un estimador que goce de propiedades estadísticas deseables y la construcción de intervalos de confianza. Verificación de hipótesis: implica plantear un contraste de hipótesis en donde confrontamos una hipótesis a verificar (hipótesis nula) frente a otra hipótesis (hipótesis alternativa). En el tema anterior nos dedicamos a la obtención de estimadores y realizar estimaciones puntuales del vector de coeficientes de regresión y de la varianza de las perturbaciones aplicando el método de mínimos cuadrados ordinarios y máxima verosimilitud. Además, se analizaron las propiedades descriptivas y estocásticas o probabilísticas de dichos estimadores. Ahora vamos a obtener y calcular intervalos de confianza para un coeficiente de regresión y para la varianza de las perturbaciones que servirán de base para tratar distintos test de hipótesis sobre los parámetros del MRLG. Finalmente, se analizará las técnicas de predicción que se pueden realizar con el modelo estimado. Versión preliminar sujeta a revisión 1 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Para determinar un intervalo de confianza o construir un test de hipótesis sobre un coeficiente de regresión del modelo, 𝛽j, tenemos que deducir la distribución de probabilidad del estimador: 𝛽መ𝑗 ~𝑁 𝛽𝑗 , 𝜎𝑢 𝑎𝑗𝑗 al tipificar la v.a. 𝛽መ𝑗 nos queda el siguiente cociente: 𝛽መ𝑗 − 𝛽𝑗 = 𝑉𝑎𝑟 𝛽መ𝑗 𝛽መ𝑗 − 𝛽𝑗 ~𝑁 0, 1 𝜎𝑢 𝑎𝑗𝑗 Este estadístico podría servir para realizar el test de hipótesis sobre un coeficiente de regresión, el problema que tiene es que siendo cierta la hipótesis nula queda un componente por conocer, 𝜎𝑢 . Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Dado el inconveniente anterior, tenemos que buscar una expresión donde todos sus valores sean conocidos bajo la hipótesis nula. Sabemos que una distribución t-Student surge del cociente de una distribución N(0,1), Z, y la raíz cuadrada de una ji-dos, corregida ésta, por sus respectivos grados de libertad. Además, se demuestra que ambas v.a. son independientes, por tanto, 𝑍 ~𝑡𝑟 χ𝑟 2 𝑟 Es posible demostrar que las v.a. 𝛽መ𝑗 y 2 𝑛−𝑘 𝑆𝑒ҧ son independientes, además: 2 𝜎𝑢 2 𝑛 − 𝑘 𝑆𝑒ҧ ~χ2𝑛−𝑘 𝜎𝑢 2 Luego, el cociente de las dos v.a. se distribuye como un modelo t-Student: 𝛽መ𝑗 − 𝛽𝑗 ൘ 𝜎𝑢 𝑎𝑗𝑗 2 𝑛 − 𝑘 𝑆𝑒ҧ 2 𝛽መ𝑗 − 𝛽𝑗 𝜎𝑢 = ~𝑡 𝑛−𝑘 𝑆𝑒ҧ 𝑎𝑗𝑗 𝑛−𝑘 2 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Bajo la hipótesis nula el estadístico de contraste y su distribución son: 𝑡𝑜𝑏𝑠 = 𝛽መ𝑗 − 𝛽𝑗o ~𝑡𝑛−𝑘 𝑆𝑒ҧ 𝑎𝑗𝑗 De forma resumida, los pasos para la realización de un contraste de hipótesis son: 1º. Establecer la hipótesis nula y alternativa relativa a los parámetros poblacionales. En nuestro caso estamos planteando un test de hipótesis sobre un coeficiente de regresión del MRLG. Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión 2º. Construir un estadístico de contraste que permita aceptar o rechazar la hipótesis nula bajo la evidencia muestral 𝛽መ𝑗 − 𝛽𝑗o 𝑡𝑜𝑏𝑠 = ~𝑡𝑛−𝑘 𝑆𝑒ҧ 𝑎𝑗𝑗 3º. Definir una regla de decisión para determinar si la hipótesis nula se acepta o rechaza, en función del valor que tome el estadístico de contraste, existiendo dos reglas: uso del/los valor/es crítico/s y el p-valor (valor probabilístico). En un contraste de hipótesis, basándonos en la información proporcionada por la muestra, tenemos que decidir si aceptamos la hipótesis nula (supone el rechazo de la hipótesis alternativa) o si la rechazamos (implica la aceptación de la hipótesis alternativa). La decisión siempre la hacemos sobre la hipótesis nula, existiendo un riesgo de equivocarnos que nos lleva a los errores de Tipo I y Tipo II. Versión preliminar sujeta a revisión 3 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión El tamaño de estos dos tipos de errores son las probabilidades siguientes: 𝑃 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑡𝑖𝑝𝑜 𝐼 = 𝑃 𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻𝑜 /𝐻𝑜 𝑒𝑠 𝑐𝑖𝑒𝑟𝑡𝑎 = 𝛼 𝑃 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑡𝑖𝑝𝑜 𝐼𝐼 = 𝑃 𝐴𝑐𝑒𝑝𝑡𝑎𝑟 𝐻𝑜 /𝐻𝑜 𝑒𝑠 𝑓𝑎𝑙𝑠𝑎 = 𝛽 Lo ideal es que 𝛼 y 𝛽 fueran lo más pequeño posible, sin embargo, no es posible minimizar ambos tipos de errores simultáneamente (exceptuando si aumentamos el tamaño muestral) por lo que siempre la hipótesis nula se le da “una mayor importancia” de forma que se parte de considerar valores pequeños de 𝛼. Así, en los contrastes que vamos a realizar vamos a prefijar el valor de 𝛼 asumiendo que este sea pequeño siendo los valores usuales 0.10, 0.05 y 0.01. La decisión de adoptar uno de esos valores concretos dependerá del investigador y la naturaleza del estudio que esté llevando a cabo. Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Después de adoptar la decisión de aceptar o rechazar, tenemos que ser conscientes de que dicha decisión puede haber sido correcta o errónea. Sin embargo, nunca sabremos con certeza si se cometió un error ya que no conoceremos el valor o valores de los parámetros poblacionales. Por lo tanto, la decisión adoptada se basa en la evidencia de una muestra concreta y la conclusión del test ha de ser de aceptar o rechazar la hipótesis aunque cabe que nos hayamos equivocado. Nivel de significación: α Para tomar la decisión de aceptar o rechazar la hipótesis nula debemos de tener en cuenta: 1º. Elección del nivel de significación (α). Al indicar el valor de α básicamente estamos cuantificando la tolerancia para un error de tipo I. Así, si admitimos un nivel de significación del 5%, el investigador está dispuesto a rechazar la hipótesis nula falsamente en el 5% de los casos. 2º. Obtención del valor (en un contraste unilateral) o valores críticos (en un contraste bilateral) en la distribución de probabilidad que sigue el estadístico de contraste bajo la hipótesis nula, en nuestro caso la distribución t-Student. El valor o valores críticos es un umbral que permite delimitar las regiones de aceptación y rechazo de forma que atendiendo al valor del estadístico éste se ubicará en una de las dos regiones. Versión preliminar sujeta a revisión 4 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión 3º. Comparar el resultado del estadístico de contraste con el/los valor/es crítico/s de forma que se acepta o rechaza la hipótesis nula bajo la evidencia muestral para un valor dado de α. Región de aceptación Regla de decisión en un contraste unilateral a la izquierda 𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐 𝑯𝟏 : 𝜷𝒋 < 𝜷𝒋𝒐 1-α Región crítica 𝛼 Si 𝑡𝑜𝑏𝑠 > 𝑡𝑛−𝑘 → Se acepta 𝐻𝑜 𝛼 Si 𝑡𝑜𝑏𝑠 ≤ 𝑡𝑛−𝑘 → Se rechaza 𝐻𝑜 α 𝛼 𝑡𝑛−𝑘 0 Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Región de aceptación Regla de decisión en un contraste unilateral a la derecha 0,4 𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐 𝑯𝟏 : 𝜷𝒋 > 𝜷𝒋𝒐 0,3 0,2 1-α Región crítica 0,1 α 0 -4 -3 -2 -1 0 0 1 2 1−𝛼 𝑡𝑛−𝑘 3 1−𝛼 Si 𝑡𝑜𝑏𝑠 < 𝑡𝑛−𝑘 → Se acepta 𝐻𝑜 1−𝛼 Si 𝑡𝑜𝑏𝑠 ≥ 𝑡𝑛−𝑘 → Se rechaza 𝐻𝑜 4 Versión preliminar sujeta a revisión 5 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Región de aceptación Regla de decisión en un contraste bilateral Región crítica 𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐 𝑯𝟏 : 𝜷𝒋 ≠ 𝜷𝒋𝒐 Región crítica 1-α α/2 𝟏−𝜶/𝟐 - 𝒕𝒏−𝒌 𝜶/𝟐 = 𝒕𝒏−𝒌 α/2 0 1−𝛼/2 Si 𝑡𝑜𝑏𝑠 < 𝑡𝑛−𝑘 → Se acepta 𝐻𝑜 1−𝛼/2 Si 𝑡𝑜𝑏𝑠 ≥ 𝑡𝑛−𝑘 → Se rechaza 𝐻𝑜 𝟏−𝜶/𝟐 𝒕𝒏−𝒌 Es importante hacer notar que cuando el nivel de significación decrece, el valor (o valores críticos) aumenta en valor absoluto con lo que aumenta la región de aceptación y es más difícil rechazar la hipótesis nula. Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Enfoque alternativo: p-valor (𝜶′) El p-valor o valor probabilístico se define como el nivel de significación más bajo para rechazar la hipótesis nula. Por tanto, estaríamos calculando las siguientes probabilidades: En un contraste unilateral a la izquierda: 𝑷 𝒕𝒏−𝒌 ≤ 𝒕𝒐𝒃𝒔 = 𝜶′ En un contraste unilateral a la derecha: 𝑷 𝒕𝒏−𝒌 ≥ 𝒕𝒐𝒃𝒔 = 𝜶′ En un contraste bilateral: 𝑷 𝒕𝒏−𝒌 ≥ 𝒕𝒐𝒃𝒔 = 𝑷 𝒕𝒏−𝒌 ≤ −𝒕𝒐𝒃𝒔 + 𝑷 𝒕𝒏−𝒌 ≥ 𝒕𝒐𝒃𝒔 = 𝜶′ Nota: como la distribución t-Student es simétrica respecto al valor 0 la probabilidad anterior serviría de base para un contraste unilateral de forma que el p-valor del contraste unilateral sería el equivalente a la mitad del p-valor del contraste bilateral (𝛼 ′ /2). La decisión de aceptar o rechazar la hipótesis nula con el p-valor es: Aceptamos la hipótesis nula si 𝛼 ′ > 𝛼. Rechazamos la hipótesis nula si 𝛼 ′ ≤ 𝛼. Versión preliminar sujeta a revisión 6 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA A) Inferencia sobre un coeficiente de regresión Región de aceptación Región de aceptación 1-α Región crítica Región crítica α' α 𝛼 𝑡𝑛−𝑘 𝒕𝒐𝒃𝒔 𝟎 En este caso, se observa que α‘ > α, por tanto, 𝒕𝒐𝒃𝒔 > 𝒕𝜶𝒏−𝒌 y se acepta la hipótesis nula α' 1-α α 𝛼 𝒕𝒐𝒃𝒔 𝑡𝑛−𝑘 𝟎 En este caso, se observa que α‘ < α, por tanto, 𝒕𝒐𝒃𝒔 < 𝒕𝜶𝒏−𝒌 y se rechaza la hipótesis nula Regla de decisión en un contraste unilateral a la izquierda 𝑯𝒐 : 𝜷𝒋 = 𝜷𝒋𝒐 𝑯𝟏 : 𝜷𝒋 < 𝜷𝒋𝒐 Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA Una hipótesis muy habitual es la de “no significatividad del parámetro”, donde Ho implica que el parámetro no es significativamente distinto de cero. En el caso de aceptar Ho la variable exógena x𝑗 no es relevante estadísticamente en el modelo y se puede eliminar del mismo, suponiendo que no haya problemas que invaliden el contraste (además, que se cumplan todos los supuestos del MRLG). Al realizar este contraste para cada uno de los coeficientes de regresión del modelo, se está contrastando la significación o verificación individual de los coeficientes del modelo. 𝑯𝒐 : 𝜷𝒋 = 𝟎 𝑯𝟏 : 𝜷𝒋 < 𝟎 𝑯𝒐 : 𝜷𝒋 = 𝟎 𝑯𝟏 : 𝜷𝒋 > 𝟎 𝑯𝒐 : 𝜷𝒋 = 𝟎 𝑯𝟏 : 𝜷𝒋 ≠ 𝟎 𝑡𝑜𝑏𝑠 = 𝛽መ𝑗 ~𝑡 𝑆𝛽𝑗 𝑛−𝑘 𝑗 = 1,2, … , 𝑘 Si se acepta la hipótesis nula, 𝜷𝒋 no es significativo y el regresor 𝒙𝒋 no es relevante a la hora de explicar la variable y (en principio, habría que plantearse la eliminación de este regresor en la especificación siempre que el modelo no presente errores de especificación). Si se rechaza la hipótesis nula, 𝜷𝒋 es significativo y el regresor 𝒙𝒋 es relevante a la hora de explicar la variable y. Versión preliminar sujeta a revisión 7 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA Nota: en el caso de realizar un contraste de significatividad individual bilateral si la muestra es suficientemente grande (nk>60), la hipótesis nula se rechaza al nivel de significación del 5% si 𝑡𝑜𝑏𝑠 = 𝒋 𝜷 >2 ഥ 𝑺𝜷 𝒋 En donde 2 es el valor crítico para el cual 𝑃 𝑡𝑛−𝑘 > 2 ≅ 0.025 𝑦 𝑛 − 𝑘 > 60. Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA El contraste de la t-Student también permite realizar una verificación basada en una restricción que sea una combinación lineal de un subconjunto de coeficientes del modelo. Sea el MRLG 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + ⋯ + 𝜷𝒌 𝒙𝒌𝒊 + 𝒖𝒊 , 𝒊 = 𝟏, 𝟐, … , 𝒏 ahora planteamos el siguiente contraste de hipótesis: 𝑯𝒐 : 𝒓𝒋 𝜷𝒋 + 𝒓𝒋+𝟏 𝜷𝒋+𝟏 + ⋯ + 𝒓𝒌 𝜷𝒌 = 𝒒 𝑯𝟏 : 𝒓𝒋 𝜷𝒋 + 𝒓𝒋+𝟏 𝜷𝒋+𝟏 + ⋯ + 𝒓𝒌 𝜷𝒌 ≠ 𝒒 en donde: 𝑟𝑗 son constantes que acompañan a los coeficientes de regresión y 𝑞 es otra constante. El estadístico de contraste sería el siguiente: 𝒕𝒐𝒃𝒔 = 𝒋 + 𝒓𝒋+𝟏 𝜷 𝒋+𝟏 + ⋯ + 𝒓𝒌 𝜷 𝒌 − 𝒒 𝒓𝒋 𝜷 𝒋 + 𝟐 σ 𝒓𝒋 𝒓𝒋+𝟏 𝑪𝒐𝒗(𝜷 𝒋, 𝜷 𝒋+𝟏 ) σ𝒌𝒋 𝒓𝟐𝒋 𝑽𝒂𝒓 𝜷 𝒋<𝒌 ~𝒕𝒏−𝒌 Versión preliminar sujeta a revisión 8 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA Intervalo de confianza para el coeficiente de regresión 𝒋 , consiste en establecer Una forma adicional de valorar la precisión de la estimación de los coeficientes de regresión, 𝜷 un intervalo de confianza: intervalo de valores dentro del cual se encuentran los parámetros poblacionales con un determinado nivel de confianza. Sabemos que 𝒕𝒐𝒃𝒔 = 𝒋 − 𝜷𝒋 𝜷 𝒋 − 𝜷𝒋 𝜷 = ~𝒕𝒏−𝒌 ഥ ഥ 𝑺𝒆 𝒂𝒋𝒋 𝑺𝜷 𝒋 dado que la t-Student es una distribución simétrica con media nula, para α se cumple que: 𝛼/2 1−𝛼/2 𝑃 𝑡𝑛−𝑘 < 𝑡𝑛−𝑘 = 𝑃 𝑡𝑛−𝑘 > 𝑡𝑛−𝑘 Luego el intervalo de confianza para un coeficiente de regresión es: 𝟏− 𝜶 𝟏−𝜶/𝟐 ഥ 𝟐ഥ 𝒋 − 𝒕𝟏−𝜶Τ𝟐 ഥ 𝒋 + 𝒕𝟏−𝜶/𝟐 ഥ 𝑰𝑪𝜷𝒋 = 𝜷 𝒋 < 𝜷𝒋 < 𝜷 𝒋 𝒏−𝒌 𝑺𝒆 𝒂𝒋𝒋 < 𝜷𝒋 < 𝜷𝒋 + 𝒕𝒏−𝒌 𝑺𝒆 𝒂𝒋𝒋 = 𝜷𝒋 − 𝒕𝒏−𝒌 𝑺𝜷 𝒏−𝒌 𝑺𝜷 Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA Intervalo de confianza para el coeficiente de regresión La interpretación de este intervalo de confianza sería que con la muestra de tamaño n podemos depositar una confianza del 1 − 𝛼 100% de que el valor desconocido del parámetro poblacional 𝛽𝑗 esté dentro del intervalo estimado. Dado que el parámetro 𝛽𝑗 es un valor fijo desconocido (no una variable aleatoria) el intervalo proporciona una probabilidad fiducial o derivada, es decir, si pudiésemos construir 100 intervalos a partir de muestras del mismo tamaño n, el 1 − α 100 de ellos contendrían el verdadero valor del parámetro poblacional 𝛽𝑗 . En la práctica, solamente se construye un único intervalo, con la única muestra disponible, y se confía en que contenga el verdadero valor de 𝛽𝑗 con un grado de confianza del 1 − 𝛼 100% . Un intervalo de confianza va a tener una longitud determinada de forma que aquel intervalo con una longitud menor proporciona un menor grado de incertidumbre de la estimación del valor del parámetro poblacional. Versión preliminar sujeta a revisión 9 30/03/2023 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA Intervalos de confianza de los coeficientes Ejemplo en Eviews: La verificación de hipótesis también se puede llevar a cabo a través de los intervalos de confianza: 𝐻𝑜 : 𝛽4 = 0 𝐻1 : 𝛽4 ≠ 0 ; Con el intervalo (0.001600 < 𝛽4 < 0.014971) → Se rechaza Ho Versión preliminar sujeta a revisión 3.1. VERIFICACIÓN DE HIPÓTESIS SOBRE UN COEFICIENTE DEL MODELO. INTERVALOS DE CONFIANZA B) Inferencia sobre la varianza de las perturbaciones El contraste de hipótesis para la varianza de las perturbaciones se puede establecer como: 𝑯𝒐 : 𝝈𝟐𝒖 = 𝝈𝟐𝒖𝟎 𝑯𝟏 : 𝝈𝟐𝒖 < 𝝈𝟐𝒖𝟎 𝝈𝟐𝒖𝟎 > 𝟎 𝑯𝒐 : 𝝈𝟐𝒖 = 𝝈𝟐𝒖𝟎 𝑯𝟏 : 𝝈𝟐𝒖 > 𝝈𝟐𝒖𝟎 𝝈𝟐𝒖𝟎 > 𝟎 Bajo la hipótesis nula el estadístico y su distribución son: χ𝟐𝒐𝒃𝒔 = 𝒏−𝒌 ഥ 𝑺𝟐𝒆 𝟐 ~χ𝒏−𝒌 𝝈𝟐𝒖𝟎 𝑯𝒐 : 𝝈𝟐𝒖 = 𝝈𝟐𝒖𝟎 𝝈𝟐𝒖𝟎 > 𝟎 𝑯𝟏 : 𝝈𝟐𝒖 ≠ 𝝈𝟐𝒖𝟎 El intervalo de confianza viene dado por la expresión: 𝑰𝑪𝝈𝟐𝒖 = 𝒏−𝒌 ഥ 𝑺𝟐𝒆 Τ𝟐 χ𝜶𝒏−𝒌 < 𝝈𝟐𝒖 < 𝒏−𝒌 ഥ 𝑺𝟐𝒆 Τ 𝟐 χ𝟏−𝜶 𝒏−𝒌 Versión preliminar sujeta a revisión 10 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES En determinadas circunstancias es preciso contrastar hipótesis que afectan conjuntamente a más de un parámetro poblacional, si la hipótesis en cuestión se puede expresar como restricciones lineales que afectan a un subconjunto de parámetros poblacionales se podrá utilizar el TGRL. Si disponemos del modelo: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 + 𝒖𝒊 Se podría verificar hipótesis del tipo: a) 𝐻𝑜 : 𝛽2 + 𝛽3 + 𝛽4 = 1 b) 𝐻𝑜 : 𝛽2 = 𝛽3 = 0 c) 𝐻𝑜 : 𝛽2 = 𝛽4 d) 𝐻𝑜 : 𝛽3 = 𝛽42 Restricciones lineales Restricción no lineal (no podrá verificarse mediante el TGRL) Las restricciones lineales se pueden expresar matricialmente mediante la expresión: 𝑹𝜷 = 𝒓 • R: matriz de coeficientes conocidos (q x k), siendo q el número de restricciones, de manera que 𝑞 ≤ 𝑘. Sus elementos son las constantes que multiplican a los parámetros en las q restricciones. • 𝜷: vector de parámetros poblacionales (k x 1). • r: vector (q x 1) de coeficientes conocidos que constituyen los términos independientes de las q restricciones. Versión preliminar sujeta a revisión 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES En el modelo: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 + 𝒖𝒊 Las restricciones anteriores matricialmente se escribirían así: a) 𝑯𝒐 : 𝜷𝟐 + 𝜷𝟑 + 𝜷𝟒 = 𝟏 b) 𝑯𝒐 : 𝜷𝟐 = 𝜷𝟑 = 𝟎 c) 𝑯𝒐 : 𝜷𝟐 = 𝜷𝟒 𝑅𝛽 = 𝑟 ; 0 1 1 1 𝑅𝛽 = 𝑟 ; 𝑅𝛽 = 𝑟 ; 𝛽1 𝛽2 𝛽3 𝛽4 = (1) 0 0 1 0 𝛽1 𝛽2 𝛽3 𝛽4 = 0 1 0 −1 𝛽1 𝛽2 𝛽3 𝛽4 = (0) 0 0 1 0 0 0 Versión preliminar sujeta a revisión 11 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES Si las restricciones son ciertas (no se rechaza la hipótesis nula) y los estimadores eficientes serían los estimadores mínimo-cuadráticos con restricciones (MCr). Estos estimadores incorporan la restricciones y el modelo de regresión lineal general sería: 𝑦 = 𝑋𝛽 + 𝑢; 𝑠. 𝑎. : 𝑅𝛽 = 𝑟 siendo el estimador mínimo cuadrático con restricciones, 𝛽መ ∗ 𝛽መ ∗ = 𝛽መ + 𝑋 𝑡 𝑋 −1 𝑅𝑡 𝑅 𝑋 𝑡 𝑋 −1 𝑅𝑡 −1 𝑟 − 𝑅𝛽መ Otra forma de estimar el modelo restringido por MCO (de inicio ya se incorporan las restricciones) y se obtendría el mismo resultado que aplicando MCr. Así, consideremos el siguiente caso: 𝑴𝑶𝑫𝑬𝑳𝑶 𝑺𝑰𝑵 𝑹𝑬𝑺𝑻𝑹𝑰𝑪𝑪𝑰𝑶𝑵𝑬𝑺: 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + 𝛽4 𝑥4𝑖 + 𝑢𝑖 𝑠. 𝑎. : 𝛽2 + 𝛽3 + 𝛽4 = 1 𝛽3 = 1 − 𝛽2 − 𝛽4 ; sustituyendo en el modelo de partida (sin restricciones): 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + (𝟏 − 𝜷𝟐 − 𝜷𝟒 )𝑥3𝑖 + 𝛽4 𝑥4𝑖 + 𝑢𝑖 → 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝑥3𝑖 − 𝛽2 𝑥3𝑖 − 𝛽4 𝑥3𝑖 + 𝛽4 𝑥4𝑖 + 𝑢𝑖 𝑴𝑶𝑫𝑬𝑳𝑶 𝑪𝑶𝑵 𝑹𝑬𝑺𝑻𝑹𝑰𝑪𝑪𝑰𝑶𝑵𝑬𝑺: 𝒚𝒊 − 𝒙𝟑𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 − 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 − 𝒙𝟑𝒊 + 𝒖𝒊 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES Como conclusión, las opciones de estimación del modelo ante restricciones lineales son: a) Estimar el MRLG sujeto a las restricciones, empleando el estimador por mínimos cuadrados con restricciones: 𝑦 = 𝑋𝛽 + 𝑢; 𝑠. 𝑎. : 𝛽2 + 𝛽3 + 𝛽4 = 1 𝛽መ ∗ = 𝛽መ + 𝑋 𝑡 𝑋 −1 𝑅𝑡 𝑅 𝑋 𝑡 𝑋 −1 𝑅𝑡 −1 𝑟 − 𝑅𝛽መ al estimar por MCr se verifica la restricción 𝛽መ2∗ + 𝛽መ3∗ + 𝛽መ4∗ = 1 b) Estimar el MRLG incluyendo las restricciones empleando el estimador por MCO: ∗ ∗ 𝒚𝒊 −𝒙𝟑𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 − 𝒙𝟑𝒊 + 𝜷𝟒 𝒙𝟒𝒊 − 𝒙𝟑𝒊 + 𝒖𝒊 → 𝒚∗𝒊 = 𝛽መ1∗ + 𝛽መ2∗ 𝑥2𝑖 + 𝛽መ3∗ 𝑥3𝑖 + 𝑢𝑖 𝛽መ ∗ = 𝑋 ∗𝑡 𝑋 ∗ −1 𝑋 ∗𝑡 𝑦 ∗𝑡 Versión preliminar sujeta a revisión 12 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES El estadístico de contraste y la distribución del mismo siendo cierta la hipótesis nula sería: 𝑯𝒐 : 𝑹𝜷 = 𝒓 𝑯𝟏 : 𝑹𝜷 ≠ 𝒓 𝒕 𝑹 𝑿𝒕 𝑿 −𝟏 𝑹𝒕 −𝟏 𝒓 − 𝑹𝜷 𝒓 − 𝑹𝜷 ൘ 𝒒 𝟏 𝒕 𝑹𝑽𝒂𝒓 𝑹𝒕 −𝟏 𝒓 − 𝑹𝜷 ~𝑭𝒒,𝒏−𝒌 𝜷 𝑭𝒐𝒃𝒔 = = 𝒓 − 𝑹𝜷 𝟐 𝒒 ഥ𝒆 𝑺 𝑭𝒐𝒃𝒔 = ∆𝑺𝑪𝑹ൗ 𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹𝒔𝒓ൗ 𝒒 𝒒 𝒏 − 𝒌 𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹𝒔𝒓 = = ∙ ~𝑭𝒒,𝒏−𝒌 𝑺𝑪𝑹ൗ 𝑺𝑪𝑹𝒔𝒓ൗ 𝒒 𝑺𝑪𝑹𝒔𝒓 𝒏−𝒌 𝒏−𝒌 en donde, ∆𝑺𝑪𝑹: incremento de la SCR debido a que el modelo que incluye las restricciones tendrá unos residuos iguales o superiores al modelo sin restricciones, ∆𝑺𝑪𝑹 = 𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹𝒔𝒓 > 𝟎 → 𝑺𝑪𝑹𝒄𝒓 > 𝑺𝑪𝑹𝒔𝒓 • • SCRcr: Suma de cuadrados de residuos del modelo restringido SCRsr: Suma de cuadrados de residuos del modelo sin restringir (generalmente designaremos de manera simplificada SCR) 𝒌: número de parámetros del modelo sin restricciones (modelo original). 𝒒: número de restricciones impuestas al modelo original. 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES Siendo ∆𝑆𝐶𝑅 = 𝑅𝛽መ − 𝑟 ´ 𝑅(𝑋´𝑋)−1 𝑅´ −1 (𝑅𝛽መ − 𝑟) • Si 𝑭𝒐𝒃𝒔 < 𝑭𝟏−𝜶 𝒒 ,𝒏−𝒌 𝜶′ > 𝜶 𝑵𝒐 𝒔𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝒐 • Si 𝑭𝒐𝒃𝒔 ≥ 𝑭𝟏−𝜶 𝒒 ,𝒏−𝒌 𝜶′ ≤ 𝜶 𝑺𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝒐 Aceptación 1-𝜶 0 Rechazo 𝑭𝟏−𝜶 𝒒 ,𝒏−𝒌 Por tanto, mientras mayor sea la diferencia entre la SCRcr y SCRsr, más probabilidad existe de que la hipótesis nula sea falsa y que las restricciones no se cumplan. Versión preliminar sujeta a revisión 13 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES. A) Contraste de significación conjunta del modelo. Sea el modelo de regresión lineal: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + ⋯ + 𝜷𝒌 𝒙𝒌𝒊 + 𝒖𝒊 Ho : 𝛽2 = 𝛽3 = ⋯ = 𝛽𝑘 = 0 q= k-1 El modelo restringido será: 𝒚𝒊 = 𝜷𝟏 + 𝒖𝒊 → 𝑆𝐶𝑇 = 𝑆𝐶𝑅𝑐𝑟 𝑆𝐶𝑅𝑐𝑟 − 𝑆𝐶𝑅𝑠𝑟 Τ𝑞 𝑆𝐶𝑇 − (𝑆𝐶𝑇 − 𝑆𝐶𝐸𝑠𝑟)ൗ𝑘 − 1 𝑆𝐶𝐸𝑠𝑟ൗ𝑘 − 1 𝑛 − 𝑘 𝑆𝐶𝐸𝑠𝑟 = = = ∙ ~𝐹 𝑆𝐶𝑅𝑠𝑟ൗ 𝑆𝐶𝑅𝑠𝑟ൗ 𝑆𝐶𝑅𝑠𝑟Τ 𝑛 − 𝑘 𝑘 − 1 𝑆𝐶𝑅𝑠𝑟 𝑘−1,𝑛−𝑘 𝐹𝑜𝑏𝑠 = 𝑛−𝑘 𝑛−𝑘 Por tanto: 𝑭𝒐𝒃𝒔 = 𝑺𝑪𝑬ൗ 𝒌 − 𝟏 ~𝑭 𝒌−𝟏,𝒏−𝒌 𝑺𝑪𝑹ൗ 𝒏−𝒌 Versión preliminar sujeta a revisión 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES. a.1. Contraste de significación conjunta del modelo. Se puede demostrar a partir de la expresión anterior que existe una relación entre la F-Snedecor correspondiente al TGRL y la bondad del ajuste: 𝑭𝒐𝒃𝒔 = 𝑺𝑪𝑬ൗ 𝒌 − 𝟏 ~𝑭 𝒌−𝟏,𝒏−𝒌 𝑺𝑪𝑹ൗ 𝒏−𝒌 Por tanto: 𝑭𝒐𝒃𝒔 = 𝑹𝟐 𝒏 − 𝒌 ~𝑭𝒌−𝟏,𝒏−𝒌 𝟏 − 𝑹𝟐 𝒌 − 𝟏 𝑭𝒐𝒃𝒔 = 2 𝑛−𝑘 𝑆𝐶𝐸ൗ 𝑆𝐶𝑇 𝑛 − 𝑘 = 𝑅 ~𝑭𝒌−𝟏,𝒏−𝒌 1 − 𝑅2 𝑘 − 1 𝑆𝐶𝑅ൗ 𝑘−1 𝑆𝐶𝑇 • Si 𝑭𝒐𝒃𝒔 < Fk-1, n-k Se acepta Ho y el modelo no es significativo en su conjunto. • Si 𝑭𝒐𝒃𝒔 > Fk-1, n-k Se rechaza Ho y el modelo no es significativo en su conjunto. 1-𝜶 Aceptación Rechazo 𝑭𝟏−𝜶 𝒒 ,𝒏−𝒌 Versión preliminar sujeta a revisión 14 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES. Ejemplo 1 : Contraste de significación conjunta Consideraremos el mismo ejemplo relativo a una muestra aleatoria simple correspondientes a 392 vehículos donde se pretende explicar el consumo de gasolina a los 100 Kilómetros (CONS_GASOL), a partir del peso del vehículo (PESO), número de cilindros (N_CILIND) y la cilindrada del motor (CILINDRADA). 𝐶𝑂𝑁𝑆_𝐺𝐴𝑆𝑂𝐿𝑖 = 𝛽1 + 𝛽2𝑃𝐸𝑆𝑂𝑖 + 𝛽3 𝑁_𝐶𝐼𝐿𝐼𝑁𝐷𝑖 + 𝛽4 𝐶𝐼𝐿𝐼𝑁𝐷𝑅𝐴𝐷𝐴𝑖 + 𝑢𝑖 Ho : 𝜷𝟐 = 𝜷𝟑 = 𝜷𝟒 = 𝟎 H1 : Ho no cierto 𝐹∗ = i= 1,2, … , 392 𝑅2 𝑛 − 𝑘 ~𝐹 1 − 𝑅2 𝑘 − 1 𝑘−1,𝑛−𝑘 0,796857 392−4 = 507.329 4−1 Fobs = 1−0,796857 Aceptación 0 𝟎 p-valor = α´=0.00 < α = 0.05 Rechazo 𝑭𝟎.𝟗𝟓 𝟑 ,𝟑𝟖𝟖 = 𝟐. 𝟔𝟐𝟕 El valor observado del estadístico es mayor que el valor crítico, por tanto, se rechaza Ho y el modelo es significativo en su conjunto, al menos una variable explicativa es relevante. 𝑭𝒐𝒃𝒔 = 𝟓𝟎𝟕. 𝟑𝟐𝟗 Se rechaza Ho (misma conclusión) Versión preliminar sujeta a revisión 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES a.2.) Contraste de un subconjunto de coeficientes nulos Sea el MRLG, con las hipótesis habituales, 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖 en el que se quiere contrastar 𝐻0 : 𝛽𝑗 = 𝛽𝑗+1 =. . . = 𝛽𝑘 = 0 El modelo restringido será, en este caso 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑗−1 𝑥𝑗−1𝑖 + 𝑢𝑖 Aplicando MCO al modelo sin restringir se obtendría su correspondiente suma de cuadrados de residuos (SCRsr) y al modelo con restricciones su correspondiente suma de cuadrados de residuos (SCRcr). El contraste se realiza aplicando el Test General de Restricciones Lineales (TGRL), que particularizado para este caso: 𝐹𝑜𝑏𝑠 = 𝑡 𝑒 − 𝑒𝑡 𝑒 𝑒𝑐𝑟 𝑆𝐶𝑅𝑐𝑟 − 𝑆𝐶𝑅𝑠𝑟 Τ 𝑘 − 𝑗 + 1 ∆ 𝑆𝐶𝑅Τ 𝑘 − 𝑗 + 1 𝑐𝑟 𝑠𝑟 𝑠𝑟 Τ 𝑘 − 𝑗 + 1 = = ~𝐹 𝑘−𝑗+1 , 𝑛−𝑘 𝑡 𝑆𝐶𝑅𝑠𝑟Τ 𝑛 − 𝑘 𝑆𝐶𝑅𝑠𝑟Τ 𝑛 − 𝑘 𝑒𝑠𝑟 𝑒𝑠𝑟 Τ 𝑛 − 𝑘 Versión preliminar sujeta a revisión 15 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES b) Contraste de un subconjunto de coeficientes nulos Ejemplo 2 : Verifiquemos que el número de cilindros y la cilindrada del vehículo, consideradas conjuntamente, no influyen en el consumo de gasolina (subconjunto de coeficientes nulos) 𝑴𝑶𝑫𝑬𝑳𝑶 𝑺𝑰𝑵 𝑹𝑬𝑺𝑻𝑹𝑰𝑪𝑪𝑰𝑶𝑵𝑬𝑺: 𝐶𝑂𝑁𝑆_𝐺𝐴𝑆𝑂𝐿𝑖 = 𝛽1 + 𝛽2𝑃𝐸𝑆𝑂𝑖 + 𝛽3 𝑁_𝐶𝐼𝐿𝐼𝑁𝐷𝑖 + 𝛽4 𝐶𝐼𝐿𝐼𝑁𝐷𝑅𝐴𝐷𝐴𝑖 + 𝑢𝑖 Ho : 𝜷𝟑 = 𝜷𝟒 = 𝟎 H1 : Ho no cierto Modelo sin restringir Modelo restringido 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES La hipótesis a verificar: Ho : 𝜷𝟑 = 𝜷𝟒 = 𝟎 H1 : Ho no cierto Fobs = Aplicando la expresión: Fobs = 𝑆𝐶𝑅𝑐𝑟 −𝑆𝐶𝑅𝑠𝑟/𝑞 ~ F q, n-k 𝑆𝐶𝑅𝑠𝑟/(𝑛−𝑘) 1219.819 −1216.76/2 = 12,9240 >𝐹2,0.95 388 = 3.018 1216.76/(392−4) Se rechaza Ho y ambas variables consideradas conjuntamente si influyen en el consumo de gasolina. Nota: un contraste asintótico alternativo al TGRL cuyo estadístico se distribuye, siendo cierta la hipótesis nula, exactamente como una F de Snedecor es el test de Wald. Dicho test puede ser una opción válida si la muestra es suficientemente grande y se violan algunos de los supuestos básicos del MRLG que pueden conducir a la inaplicación del test de la F: 𝑊𝑜𝑏𝑠 = 𝑞𝐹𝑜𝑏𝑠 ~ χ2𝑞 𝑊𝑜𝑏𝑠 = 2 ∙ 12.92409 = 25.84818 > Valor crítico χ22 = 5.991 Se rechaza Ho Una última consideración es que el test de Wald permite verificar restricciones tanto lineales como no lineales sobre los coeficientes de un modelo de regresión. 16 30/03/2023 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES a.3) Contraste de significación de un solo coeficiente Ya vimos en el primer apartado, que un estadístico que nos permitía realizar contrastes de hipótesis sobre un coeficiente del modelo, es el de la t-Student. Se demuestra que a partir de la expresión del test general de restricciones lineales, se cumple que: Fobs = 𝒋 −𝜷𝒋 𝜷 ത 𝑺 𝜷𝒋 𝟐 = 𝒕𝒐𝒃𝒔 𝟐 ~𝑭𝟏,𝒏−𝒌 ± tobs = ± 𝑭𝒐𝒃𝒔 ; Expresión que sólo se cumple cuando q = 1 Ejemplo 3: Verifiquemos en nuestro ejemplo que individualmente el número de cilindros no influye en el consumo de gasolina del vehículo: 𝐶𝑂𝑁𝑆_𝐺𝐴𝑆𝑂𝐿𝑖 = 𝛽1 + 𝛽2𝑃𝐸𝑆𝑂𝑖 + 𝛽3 𝑁_𝐶𝐼𝐿𝐼𝑁𝐷𝑖 + 𝛽4 𝐶𝐼𝐿𝐼𝑁𝐷𝑅𝐴𝐷𝐴𝑖 + 𝑢𝑖 𝛽 3 𝑯𝒐 ∶ 𝜷𝟑 = 𝟎 tobs = 𝑆 = 1.378909 ~ t388 Valor crítico = ± 1.966 𝛽3 𝑯𝟏 ∶ 𝜷𝟑 ≠ 𝟎 𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 0,1687 > 0.05 Se acepta Ho Se acepta Ho N_CILIND es no relevante Versión preliminar sujeta a revisión 3.2. TEST GENERAL DE RESTRICCIONES LINEALES. ALGUNOS CASOS PARTICULARES Fobs = 𝑆𝐶𝑅𝑐𝑟 −𝑆𝐶𝑅𝑠𝑟/𝑞 1222.723 −1216.760/1 = 1216.760/(392−4) = 1.9014 = (1.378909)2 𝑆𝐶𝑅𝑠𝑟/(𝑛−𝑘) Fobs = (tobs )2 Si aplicamos la alternativa del test de la F para contrastar hipótesis referidas a restricciones sobre los coeficientes se obtiene el mismo resultado: 𝑊𝑜𝑏𝑠 = 𝑞𝐹𝑜𝑏𝑠 = 1 ∙ 1.901389 = 1.901389~χ12 < 𝑉𝑎𝑙𝑜𝑟 𝑐𝑟í𝑡𝑖𝑐𝑜 = 3.8414 Se acepta hipótesis 𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 0.1687 > 0.05 nula Versión preliminar sujeta a revisión 17 30/03/2023 3.3. ANÁLISIS DE LA VARIANZA (ANOVA) En el contexto del MRLG se denomina ANOVA a la descomposición de la SCT, en SCR y SCE, y al papel que desempeñan dichas sumas de cuadrados en el contraste de significación conjunta del modelo. Recordemos que en el MRLG, la suma de cuadrados totales se descompone aditivamente en dos sumas de cuadrados: explicada y no explicada. Es decir, en suma de cuadrados explicada (recoge la parte de la variabilidad del regresando que es explicada por la acción conjunta de los regresores) y suma de cuadrados de los residuos (recoge la parte de la variabilidad del regresando que no es explicada por el conjunto de regresores del modelo). Por tanto, 𝒏 𝒏 𝒏 𝟐 (𝒚𝒊 −ഥ 𝒚) = (ෝ 𝒚𝒊 − 𝒚) + 𝒆𝒊 𝟐 → 𝑺𝑪𝑻 = 𝑺𝑪𝑬 + 𝑺𝑪𝑹 𝒊=𝟏 ഥ 𝟐 𝒊=𝟏 𝒊=𝟏 en donde, 𝑺𝑪𝑻 = σ𝑛𝑖=1 𝑦𝑖 2 − 𝑦ത σ𝑛𝑖=1 𝑦𝑖 = 𝑦 𝑡 𝑦 − 𝑦ത σ𝑛𝑡=1 𝑦𝑖 𝑺𝑪𝑬 = 𝛽መ 𝑡 𝑋 𝑡 𝑦 − 𝑛𝑦ത 2 = 𝛽መ 𝑡 𝑋 𝑡 𝑦 − 𝑦ത σ𝑛𝑖=1 𝑦𝑖 𝑺𝑪𝑹 = 𝑦 𝑡 𝑦 − 𝛽መ 𝑡 𝑋 𝑡 𝑦 Versión preliminar sujeta a revisión 3.3. ANÁLISIS DE LA VARIANZA (ANOVA) En el caso de dividir cada una de las sumas de cuadrados por sus grados de libertad obtendríamos unas medidas de dispersión insesgadas de la varianza poblacional del regresando y de la varianza de las perturbaciones aleatorias. n Versión preliminar sujeta a revisión 18 30/03/2023 3.3. ANÁLISIS DE LA VARIANZA (ANOVA) En el contraste de significación conjunta tenemos el MRLG al que le imponemos q restricciones lineales: 𝒚𝒊 = 𝜷𝟏 + 𝜷𝟐 𝒙𝟐𝒊 + 𝜷𝟑 𝒙𝟑𝒊 + ⋯ + 𝜷𝒌 𝒙𝒌𝒊 + 𝒖𝒊 ; 𝒊 = 𝟏, 𝟐, … , 𝒏 𝐻0 : 𝛽2 = 𝛽3 =. . . = 𝛽𝑘 = 0 → 𝑞 = 𝑘 − 1 𝐻1 : ∃ 𝛽𝑗 ≠ 0; 𝑗 = 2,3, … , 𝑘 El modelo con restricciones sería, en este caso, 𝑦𝑖 = 𝛽1 + 𝑢𝑖 ; 𝑖 = 1,2, … , 𝑛 de forma que 𝐸 𝑦𝑖 = 𝛽1 y 𝑉𝑎𝑟 𝑦𝑖 = 𝜎𝑢2 . Aplicando MCO al modelo restringido se tiene 𝛽መ1∗ = 𝑦ത → 𝑦𝑖 = 𝛽መ1∗ + 𝑒𝑐𝑟𝑖 → 𝑒𝑐𝑟𝑖 = 𝑦𝑖 − 𝑦ത = 𝑦𝑖 − 𝛽መ1∗ Versión preliminar sujeta a revisión 3.3. ANÁLISIS DE LA VARIANZA (ANOVA) Teniendo en cuenta la expresión del TGRL en el contraste del modelo en su conjunto se tiene que el estadístico de la prueba, siendo cierta la hipótesis nula, se puede calcular como: 𝑭𝒐𝒃𝒔 = 𝑭𝒐𝒃𝒔 = 𝒏 − 𝒌 𝑺𝑪𝑬 𝒏 − 𝒌 𝑹𝟐 = ~𝑭 𝒌−𝟏 , 𝒏−𝒌 𝒌 − 𝟏 𝑺𝑪𝑹 𝒌 − 𝟏 𝟏 − 𝑹𝟐 𝑺𝑪𝑹𝒄𝒓 − 𝑺𝑪𝑹 Τ𝒒 𝒏 − 𝒌 𝑺𝑪𝑻 − 𝑺𝑪𝑹 = ~𝑭 𝒌−𝟏 , 𝒏−𝒌 𝑺𝑪𝑹Τ 𝒏 − 𝒌 𝒌−𝟏 𝑺𝑪𝑹 Versión preliminar sujeta a revisión 19 30/03/2023 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS Sea el MRLG que cumple las hipótesis habituales: 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖 𝑖 = 1,2, … , 𝑛 que se ha estimado por MCO ,resultando: 𝑦𝑖 = 𝛽መ1 + 𝛽መ2 𝑥2𝑖 + 𝛽መ3 𝑥3𝑖 + ⋯ + 𝛽መ𝑘 𝑥𝑘𝑖 + 𝑒𝑖 𝑖 = 1,2, … , 𝑛 Supongamos que se dispone de un conjunto de observaciones extramuestrales de las variables exógenas: 𝑥 = 1 𝑥2,𝑛+1 𝑥3,𝑛+1 … 𝑥𝑘,𝑛+1 La predicción consiste en determinar con el modelo estimado, el valor extramuestral de la variable endógena, 𝒚𝒏+𝟏 , o su valor esperado, 𝑬 𝒚𝒏+𝟏 , que correspondería a los valores extramuestrales de las exógenas: 𝑦ො𝑛+1 = 𝛽መ1 + 𝛽መ2 𝑥2,𝑛+1 + 𝛽መ3 𝑥3,𝑛+1 + ⋯ + 𝛽መ𝑘 𝑥𝑘,𝑛+1 Versión preliminar sujeta a revisión 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS 3.4.1. Predicción del valor medio esperado, 𝑬 𝒚𝒏+𝟏 Dado el MRLG 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖 de forma que, las observaciones extramuestrales vienen dadas como, 𝑐 𝑡 = 1 𝑥2,𝑛+1 𝑥3,𝑛+1 … 𝑥𝑘,𝑛+1 La predicción del valor 𝑦𝑛+1viene dada por: 𝑦𝑛+1 = 𝛽1 + 𝛽2 𝑥2,𝑛+1 + 𝛽3 𝑥3,𝑛+1 + ⋯ + 𝛽𝑘 𝑥𝑘,𝑛+1 + 𝑢𝑛+1 o en forma matricial 𝑦𝑛+1 = 𝑐 𝑡 𝛽 + 𝑢𝑛+1 → 𝐸 𝑦𝑛+1 = 𝐸 𝑐 𝑡 𝛽 + 𝑢𝑛+1 = 𝐸 𝑐 𝑡 𝛽 + 𝐸 𝑢𝑛+1 = 𝑐 𝑡 𝛽 A partir del Teorema de Gauss-Markov se demuestra que el predictor por MCO ℎ = 𝑐 𝑡 𝛽መ es un estimador lineal, insesgado y óptimo de ℎ = 𝑐 𝑡 𝛽 Versión preliminar sujeta a revisión 20 30/03/2023 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS 3.4.1. Predicción del valor medio esperado, 𝑬 𝒚𝒏+𝟏 En conclusión, 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽መ es un predictor lineal, insesgado y óptimo de 𝐸(𝑦𝑛+1 ). Así, 𝐸 𝑦ො𝑛+1 ) = 𝐸(𝑐 𝑡 𝛽መ = 𝑐 𝑡 𝐸 𝛽መ = 𝑐 𝑡 𝛽 → 𝐼𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 siendo su varianza, 𝑉𝑎𝑟 𝑦ො𝑛+1 = 𝑦ො𝑛+1 − 𝐸 𝑦ො𝑛+1 𝑦ො𝑛+1 − 𝐸 𝑦ො𝑛+1 𝑡 = 𝜎𝑢2 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 Dado que 𝑦ො𝑛+1 es una combinación lineal de v.a. normales se tiene: 𝑦ො𝑛+1 ~𝑁 𝑐 𝑡 𝛽, 𝜎𝑢2 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 Además, 𝑦ො𝑛+1 − 𝑐 𝑡 𝛽 𝜎𝑢 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐 ~𝑁 0, 1 𝑦 𝑒𝑡𝑒 𝑛 − 𝑘 𝑆𝑒ҧ 2 2 = ~χ𝑛−𝑘 son v.a. independientes, de forma que, el siguiente cociente: 𝜎𝑢2 𝜎𝑢2 𝑦ො𝑛+1 − 𝑐 𝑡 𝛽 𝜎𝑢 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 ൚ 𝑦ො𝑛+1 − 𝑐 𝑡 𝛽 𝑦ො𝑛+1 − 𝑐 𝑡 𝛽 𝜎 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐 ൚ = 𝑢 = ~𝑡𝑛−𝑘 𝑆𝑒ҧ 𝑆𝑒ҧ 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 𝜎𝑢 𝑛 − 𝑘 𝑆𝑒ҧ 2 𝜎𝑢2 ൙ (𝑛 − 𝑘) 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS 3.4.1. Predicción del valor medio esperado, 𝑬 𝒚𝒏+𝟏 Finalmente un intervalo de confianza para el valor medio esperado es: 𝜶Τ𝟐 ഥ ෝ𝒏+𝟏 ± 𝒕𝟏− 𝑰𝑪𝑬 𝒚𝒏+𝟏 = 𝒚 ∙ 𝑺𝒆 𝒄𝒕 𝑿𝒕 𝑿 −𝟏 𝒄 𝒏−𝒌 3.4.2. Predicción del valor de la variable endógena, 𝒚𝒏+𝟏 መ de forma que el error de predicción viene dado por: El predictor puntual sigue siendo, 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽, 𝑦𝑛+1 − 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽 +𝑢𝑛+1 −𝑐 𝑡 𝛽መ = 𝑢𝑛+1 − 𝑐 𝑡 𝛽መ − 𝛽 = 𝑒𝑛+1 Se puede demostrar que 𝐸 𝑒𝑛+1 = 0 y su varianza es 𝑉𝑎𝑟 𝑒𝑛+1 = 𝑒𝑛+1 − 𝐸 𝑒𝑛+1 𝑒𝑛+1 − 𝐸 𝑒𝑛+1 𝑡 = 𝜎𝑢2 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 Al ser 𝑒𝑛+1 una combinación lineal de v.a. normales se tiene que 𝑒𝑛+1 ~𝑁 0, 𝜎𝑢2 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 21 30/03/2023 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS 3.4.2. Predicción del valor de la variable endógena, 𝒚𝒏+𝟏 Se demuestra que el cociente de la v.a. N (0,1) y la raíz cuadrada de una ji-dos de n-k grados de libertad da lugar a la siguiente v.a. que sirve de base para obtener el IC para el valor individual del regresando 𝑒𝑛+1 𝑦𝑛+1 − 𝑦ො𝑛+1 = ~𝑡𝑛−𝑘 𝑡 𝑡 −1 ҧ ҧ 𝑆𝑒 1 + 𝑐 𝑋 𝑋 𝑐 𝑆𝑒 1 + 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐 Finalmente el IC para 𝑦𝑛+1 tiene como expresión: 1−𝛼Τ2 𝐼𝐶𝑦𝑛+1 = 𝑦ො𝑛+1 ± 𝑡𝑛−𝑘 ∙ 𝑆𝑒ҧ 1 + 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐 Versión preliminar sujeta a revisión 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS Predicción Predicción para el valor concreto de la variable endógena, 𝒚𝒏+𝟏 Predicción puntual 𝑦ො𝑛+1 = 𝑐 𝑡 𝛽መ Predicción para el valor esperado de la variable endógena, 𝑬(𝒚𝒏+𝟏 ) Predicción por intervalo Τ 1−𝛼 2 ҧ 𝑦ො𝑛+1 ± 𝑡𝑛−𝑘 𝑆𝑒 1 + 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐 Predicción puntual 𝐸(𝑦ො𝑛+1 ) = 𝑐 𝑡 𝛽መ Predicción por intervalo Τ 1−𝛼 2 ҧ 𝑦ො𝑛+1 ± 𝑡𝑛−𝑘 𝑆𝑒 𝑐 𝑡 𝑋𝑡 𝑋 −1 𝑐 Nota: 𝑐 𝑡 = 1 𝑋2,𝑛+1 , 𝑋3,𝑛+1 , … , 𝑋𝑘,𝑛+1 . Existe mayor incertidumbre cuando se predice para el valor concreto que el valor medio esperado. Al realizar una estimación puntual no se da ninguna información sobre la incertidumbre de la predicción. La predicción por intervalos corrige esta limitación y nos permite conocer el grado de confianza de la predicción. Versión preliminar sujeta a revisión 22 30/03/2023 3.4. PREDICCIÓN POR PUNTOS Y POR INTERVALOS En Eviews el intervalo de predicción se obtiene mediante la expresión: 𝟏−𝜶/𝟐 ഥ 𝑺𝒑 ෝ𝒑 ± 𝒕𝒏−𝒌 𝒚 siendo 𝑆𝑝ҧ el error estandar de la predicción: 𝑆𝑝ҧ = 𝑆𝑒ҧ 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 Consideraciones sobre los IC de 𝑦𝑛+1 y 𝐸(𝑦𝑛+1 ): - La diferencia entre los dos intervalos se encuentra en que el IC de 𝑦𝑛+1, la incertidumbre es mayor al incluir a 𝑢𝑛+1 en la predicción por eso la varianza de la predicción es mayor: 𝑆𝑒ҧ 2 1 + 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 > 𝑆𝑒ҧ 2 𝑐 𝑡 𝑋 𝑡 𝑋 −1 𝑐 - La amplitud de ambos intervalos (precisión) depende del 1−𝛼/2 nivel de confianza elegido, 𝑡𝑛−𝑘 , capacidad de ajuste del modelo, 𝑆𝑒ҧ , y de la discrepancia entre los valores extramuestrales de las exógenas, 1 𝑥2,𝑛+1 … 𝑥𝑘,𝑛+1 y los valores muestrales utilizados en la estimación del modelo. 3.5. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS Aunque un modelo posea un buen ajuste y pase bien los tests relacionados con su especificación, es posible que no prediga correctamente fuera del intervalo muestral. Cuando un modelo se elabora con fines predictivos hay que someterlo a pruebas que sirvan para evaluar su capacidad predictiva fuera del periodo muestral. Con este fin, el analista suele guardar parte de la información muestral disponible y usarla posteriormente para las pruebas específicas de predicción. Si las observaciones de las variables son temporales se pueden considerar distintos tipos de predicciones o simulaciones: 23 30/03/2023 3.4. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS Veamos un ejemplo para explicar el cuadro anterior: Supongamos que disponemos de datos anuales desde 2000 a 2019 de las variables de un modelo. La estimación del mismo se lleva a cabo desde 2000 a 2015. Si se obtienen los valores ajustados de la variable endógena en el periodo 2000 – 2015, se está llevando a cabo una “simulación histórica”. Si se obtiene una predicción con el modelo desde 2016 a 2019, se está realizando una “predicción ex post”. Los valores de las exógenas son conocidos (valores de la muestra que no se han empleado en la estimación del modelo) y se pueden obtener en Eviews diferentes indicadores para medir la evaluación de la capacidad predictiva, puesto que se pueden comparar los valores observados con las predicciones. Si se obtiene una predicción para 2020 en adelante, no se dispone de los valores observados de las exógenas ni endógena, los valores de las exógenas son predichos o simulados, esta es la “predicción ex ante”. En Eviews no se podrían obtener los indicadores de la evaluación de la capacidad predictiva, ya que los datos de la endógena son desconocidos. Se llama ex-ante porque se realiza antes de que se hayan observados los datos, es la predicción propiamente dicha. Si se predicen los valores de la endógena antes de 2000, se está realizando una “simulación hacia atrás”, con el que se puede analizar la estabilidad dinámica del modelo o reproducir los valores anteriores de la endógena. Versión preliminar sujeta a revisión 3.4. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS Toda predicción/simulación está afectada por las denominadas fuentes de error: Fuentes de error que pueden estar presente en la simulación histórica: • Factores aleatorios incontrolados: 𝐸 𝑢𝑖 = 0 pero, en general, 𝑢𝑖 ≠ 0. • Errores de muestreo que dan lugar a que la estimación de los coeficientes de regresión no suela coincidir con los coeficiente de regresión poblacionales: 𝛽መ ≠ 𝛽. • Errores de especificación del modelo. • En modelos dinámicos los errores son acumulativos al incluir a la endógena retardada y en los modelos multiecuacionales una ecuación puede provocar errores de predicción aunque las restantes estén bien especificadas y el ajuste sea adecuado. Fuentes de error en la predicción ex-post: además de los anteriores cabe la posibilidad de que se produzca un cambio estructural que afecte a la relación entre la endógena y exógena durante el periodo de predicción. Fuentes de error en la predicción ex-ante, comprende todos los anteriores y los siguientes: • Emplear valores predichos de las variables exógenas, que implican errores. • En modelos dinámicos usar valores predichos de la variable endógena retardada. Versión preliminar sujeta a revisión 24 30/03/2023 3.4. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS A) Indicadores de la capacidad predictiva: En la predicción ex post se obtienen unos indicadores que se utilizan para evaluar la capacidad predictiva de los modelos y se calculan comparando los valores predichos con los observados. Estos indicadores también pueden ser utilizados para evaluar la capacidad de ajuste del modelo, son los siguientes: Indicadores dimensionales: Raíz del error cuadrático medio (RECM) Error Absoluto medio (EAM) h: horizonte de predicción, es decir, período de tiempo para el que se realizan las predicciones. Estos dos indicadores, al expresarse en la misma unidad de medida que la variable dependiente, no pueden utilizarse para comparar predicciones de modelos cuyas variables dependientes sean diferentes. Cuanto más pequeño sea el error mejor será su capacidad predictiva. Su valor mínimo es 0 y no están acotados superiormente. Versión preliminar sujeta a revisión 3.5. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS Indicadores adimensionales: Porcentaje de error absoluto medio (PEAM) Error porcentual absoluto medio simétrico 𝑇+ℎ 𝑌𝑡 − 𝑌𝑡 ∙ 100; 0% ≤ 𝑠𝑀𝐴𝑃𝐸 ≤ 200% 𝑌𝑡 + 𝑌𝑡 𝑡=𝑇+1 2 Si el valor se aproxima a 0 el modelo predice muy bien. 1 ℎ Ambas medidas no dependen de la unidad de medida de la variable dependiente, por tanto, sí pueden ser utilizados para comparar la fiabilidad de la predicción de modelos, incluso cuando las variables dependientes estén expresadas en unidades diferentes. Se pueden usar para un único modelo sin necesidad de hacer comparaciones, de esta forma se puede establecer una conclusión acerca de la fiabilidad predictiva del modelo. En donde, 𝐹𝑁𝑡 son los pronósticos proporcionados por un modelo Coeficiente U2 de Theil naive o ingenuo: 𝑦ො𝑡 = 𝑦ො𝑡−1 , ∀𝑡 2 𝑈2 = σ𝑇+ℎ 𝑡=𝑇+1 𝑌𝑡 − 𝑌𝑡 ൗℎ Si 𝑈2 = 1 el modelo estimado predice igual que el modelo naive. ; 0 ≤ 𝑈2 < ∞ Valores próximo a 0 pueden llevar a concluir que el modelo predice muy bien, en cambio, valores mayores de 1 suponen que predice 2 σ𝑇+ℎ 𝑡=𝑇+1 𝑌𝑡 − 𝐹𝑁𝑡 ൗℎ peor que el modelo ingenuo. 25 30/03/2023 3.5. EVALUACIÓN DE LA CAPACIDAD PREDICTIVA DE LOS MODELOS Coeficiente de desigualdad de Theil (U1) Una de las ventajas del coeficiente de desigualdad de Theil (U) es que al estar acotado entre 0 y 1, podrá establecerse una primera conclusión acerca del grado de fiabilidad de la predicción, de forma que: 𝑈 = 0 → 𝐋𝐚𝐬 𝐩𝐫𝐞𝐝𝐢𝐜𝐜𝐢𝐨𝐧𝐞𝐬 𝐬𝐨𝐧 𝐩𝐞𝐫𝐟𝐞𝐜𝐭𝐚𝐬, coinciden con los valores observados. 𝑈 = 1 → 𝐄𝐥 𝐦𝐨𝐝𝐞𝐥𝐨 𝐩𝐫𝐞𝐝𝐢𝐜𝐞 𝐦𝐮𝐲 𝐦𝐚𝐥, igual que un modelo "naif" en el que establece que 𝑦ො𝑡 = 𝑦ො𝑡−1 , ∀𝑡. Otra ventaja del coeficiente de desigualdad de Theil es que puede descomponerse en tres componentes aditivas que cuantifican el sesgo, la varianza y la covarianza de las predicciones: 𝑼𝟐𝒔 + 𝑼𝟐𝒗 + 𝑼𝟐𝒄 = 𝟏 (Si se considera proporciones) 𝑼𝟐𝒔 : componente sesgo. 𝑼𝟐𝒗 : componente varianza. 𝑼𝟐𝒄 : componente covarianza. En el caso de que los componentes sesgo y varianza sean pequeños y el mayor porcentaje de Theil se concentre en torno a la covarianza, la predicción será acertada, con ello los errores de predicción no son sistemáticos. 3.6. SELECCIÓN DE MODELOS Evaluación de modelos Una vez se haya estimado un modelo, debemos someterlo a un diagnóstico para comprobar si la estimación ha sido correcta. Para ello, debemos comprobar: 1. Signos de los coeficientes. Comprobar su coherencia con la Teoría Económica. 2. Significación individual de los coeficientes del modelo. 3. Significación conjunta del modelo. 4. Ausencia de heteroscedasticidad y/o autocorrelación (se verá en Tema 5). 5. Ausencia de errores de especificación (se verá en Tema 4). 6. Normalidad del término de perturbación (se verá en tema 5). 7. Los parámetros del modelo son constantes, no hay cambio estructural (se verá en Tema 4 y 5). 8. Capacidad de ajuste. Indicadores. 9. Capacidad de predicción ex post. Indicadores. En el caso de que existan varios modelos que hayan superado esta evaluación previa, resultaría útil seleccionar el más apropiado desde el punto de vista econométrico. Versión preliminar sujeta a revisión 26 30/03/2023 3.6. SELECCIÓN DE MODELOS En el proceso de selección de modelos se pueden distinguir tres situaciones: A) Existen dos formulaciones alternativas y una es un caso particular de la otra (modelos anidados). Modelo 1 : 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝛽4 𝑋4𝑖 + 𝑢𝑖 Modelo 2 : 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝑢𝑖 Los modelos deben cumplir todos los supuestos básicos (habría que someterlos a diferentes contrastes que permiten concluir si cumplen o violan dichos supuestos). La práctica común es contrastar que el subconjunto de coeficientes son nulos. Si el tamaño muestral fuese muy elevado, el TGRL basado en un estadístico que bajo la hipótesis nula se distribuye como un modelo F, favorecerá que se rechace dicha hipótesis y se seleccione el modelo con más parámetros. Por ello, se pueden aplicar alternativamente, otros contrastes basados en muestras grandes, como: • Contraste de variables redundantes: se trata de un test basado en la razón de verosimilitudes de los dos modelos. • Contraste de Wald. Alternativamente, existen otros criterios para elegir entre un modelo u otro, como: R cuadrado ഥ 𝟐 ) y los criterios de información de Akaike (AIC), Schwarz (SBIC) y de Hannan-Quinn (HQ) corregido ( 𝑹 Versión preliminar sujeta a revisión 3.6. SELECCIÓN DE MODELOS Criterio de Información Akaike (AIC) La idea principal de AIC es maximizar el logaritmo de la función de verosimilitud del modelo evaluada en los estimadores máximo-verosímiles. Este criterio no busca encontrar el mejor modelo, sino encontrar el modelo, de entre los que compiten, que mejor se ajuste a los datos con los que se trabaja. 𝐴𝐼𝐶 = መ 𝜎ො𝑢 2 /𝑦, X) 2𝑘 −2𝑙𝑛𝐿(𝛽, + 𝑛 𝑛 መ 𝜎ො𝑢 2 /𝑦, X) es el logaritmo neperiano de la función de verosimilitud evaluada con las en donde, 𝑙𝑛𝐿(𝛽, estimaciones de los parámetros del modelo. መ 𝜎ො𝑢 2 /𝑦, X)= − 𝑙𝑛𝐿(𝛽, 𝑛 𝑆𝐶𝑅 𝑙𝑛 + ln 2𝜋 + 1 2 𝑛 Al comparar dos o más modelos se seleccionará el modelo con menor AIC. Este indicador impone una mayor penalización por incorporar una variable regresora adicional que el coeficiente de determinación ajustado. Versión preliminar sujeta a revisión 27 30/03/2023 3.6. SELECCIÓN DE MODELOS Criterio de Información de Schwarz La expresión de este indicador está basada en la función de verosimilitud 𝑆𝐵𝐼𝐶 = መ 𝜎ො𝑢 2 /𝑦, X −2𝑙𝑛𝐿 𝛽, ln(𝑛) +𝑘 𝑛 𝑛 El término de la derecha supone una penalización derivada del incremento de variables regresoras, siendo este término mayor que el de AIC. Este indicador es asintóticamente consistente como criterio de selección. Ello significa que dada una familia de modelos, dentro de la cual está incluido el modelo verdadero, la probabilidad de que SIC seleccione el modelo verdadero tiende a uno cuando el tamaño muestral tiende hacia infinito (a diferencia del AIC que no es consistente). Criterio de Hannan-Quinn መ 𝜎ො𝑢 2 /𝑦, X −2𝑙𝑛𝐿(𝛽, ln(ln 𝑛 ) 𝐻𝑄𝐼𝐶 = + 2𝑘 𝑛 𝑛 Estos coeficientes (AIC, SBIC y HQ): - Sólo sirven para comparar modelos en los que la variable endógena sea la misma. - Cuanto menor valor toman mejor. - Casi siempre los tres criterios coinciden en la elección, siendo SBIC el criterio más restrictivo respecto a la inclusión de variables adicionales en el modelo. 3.6. SELECCIÓN DE MODELOS B) No hay modelos alternativos 𝑀𝑜𝑑𝑒𝑙𝑜: 𝑦𝑖 = 𝛼1 + 𝛼2 𝑥2𝑖 + 𝛼3 𝑥3𝑖 + ν𝑖 𝑀𝑜𝑑𝑒𝑙𝑜 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑜: 𝑦𝑖 =¿ … ? En este caso se debe aplicar una batería de contrastes de mala especificación, que forman en conjunto, los contrastes de diagnósticos del modelo. C) Se plantean dos especificaciones alternativas no anidadas, de acuerdo con teorías económicas distintas, cada una con un conjunto de variables diferentes. Existen modelos competitivos. 𝑀𝑜𝑑𝑒𝑙𝑜 1 ∶ 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑘𝑒𝑦𝑛𝑒𝑠𝑖𝑎𝑛𝑎 𝑑𝑒 𝑙𝑎 𝑖𝑛𝑓𝑙𝑎𝑐𝑖ó𝑛: 𝐼𝑃𝐶𝑡 = 𝛼1 + 𝛼2 𝑃𝐼𝐵𝑡 +ν𝑡 𝑀𝑜𝑑𝑒𝑙𝑜 2 ∶ 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑐𝑖ó𝑛 𝑚𝑜𝑛𝑒𝑡𝑎𝑟𝑖𝑠𝑡𝑎 𝑑𝑒 𝑙𝑎 𝑖𝑛𝑓𝑙𝑎𝑐𝑖ó𝑛: 𝐼𝑃𝐶𝑡 = 𝛽1 + 𝛽2 𝑀𝑡 +𝑢𝑡 El primer modelo trata de explicar la evolución temporal del IPC mediante el PIB, mientras que el segundo busca explicar el IPC en función de la oferta monetaria en el momento t. Versión preliminar sujeta a revisión 28 30/03/2023 3.6. SELECCIÓN DE MODELOS En este caso se puede aplicar el denominado contraste J de Davidson y Mackinnon que se basa en formular una especificación más amplia: Modelo artificial: 𝑰𝑷𝑪𝒕 = 𝜸𝟏 + 𝜸𝟐 𝑷𝑰𝑩𝒕 + 𝜸𝟑 𝑴𝒕 + 𝒖𝒊 Se realizan los contrastes: 𝐻𝑜 : 𝛾2 = 0 𝐻1 : 𝛾2 ≠ 0 𝐻𝑜 : 𝛾3 = 0 𝐻1 : 𝛾3 ≠ 0 En el caso de 𝛾2 sea significativo y 𝛾3 no, se elige el modelo 1. En el caso de 𝛾2 no sea significativo y 𝛾3 si, se elige el modelo 2. En el caso de que ambos sean significativos o no (conjuntamente), los contrastes no son concluyentes y el modelo artificial no tiene un significado económico definido. Versión preliminar sujeta a revisión 29