MULTICOLINEALIDAD 1. Introducción ¿QUÉ ES LA MULTICOLINEALIDAD? Un modelo presenta problemas de MULTICOLINEALIDAD si alguna variable explicativa se puede representar como una combinación exacta o aproximada de las otras variables explicativas. 1-. PERFECTA TIPOS DE MULTICOLINEALIDAD 2-. APROXIMADA 1 MULTICOLINEALIDAD MULTICOLINEALIDAD PERFECTA Rango( X ) K 1 Una Columna de la matriz X se puede expresar como una combinación lineal de alguna o algunas de las demás. x ji 0 1·x1i ... ( j 1) ·x( j 1)i ( j 1) ·x( j 1)i ... k ·xki INCUMPLIMIENTO HIPÓTESIS MRLC 2 MULTICOLINEALIDAD MULTICOLINEALIDAD APROXIMADA Rango( X ) K 1 Una Columna de la matriz X se puede expresar aproximadamente como una combinación lineal de alguna o algunas de las demás. x ji 0 1·x1i ... ( j 1) ·x( j 1)i ( j 1) ·x( j 1)i ... k ·xki · CUMPLE HIPÓTESIS MRLC · EMCO cumplen todas sus propiedades 3 MULTICOLINEALIDAD MULTICOLINEALIDAD PERFECTA MODELO Matriz de Regresores PROBLEMA Yi 0 1 X 1i 2 X 2i ... k X ki i 1 X 11 1 X 12 . . X . . . . 1 X 1n ... X k 1 ... X k 2 ... . ... . ... . ... X kn i 1,2,..., n i N (0, 2 ) MULTICOLINEALIDAD PERFECTA: Una de las variables explicativas de la matriz X se puede expresar como una Combinación Lineal del resto de variables. Rang( X ) K 1 Rang( X ) Rang( X '·X ) K 1 det( X '·X ) 0 1 No Existe ( X '·X ) 1 ˆMCO ( X '·X ) ·X '·Y INDETERMIN ADOS 4 MULTICOLINEALIDAD MULTICOLINEALIDAD APROXIMADA Una o más de las variables explicativas pueden expresarse aproximadamente como una combinación lineal de las restantes x ji 0 1·x1i ... ( j 1) ·x( j 1)i ( j 1) ·x( j 1)i ... k ·xki No existe una relación lineal exacta entre uno o más regresores pero sí están fuertemente correlacionados. Rang( X ) K 1 Rang( X ) Rang( X '·X ) K 1 det( X '·X ) 0 1 1 ˆ ( X '· X ) ·X '·Y Existe ( X '· X ) MCO 5 MULTICOLINEALIDAD MULTICOLINEALIDAD APROXIMADA PREGUNTA: ¿Cuál es el Multicolinealidad Aproximada? Problema de la Existencia de la 1 muy elevado det( X '·X ) 0 pero… det( X '·X ) 0 ( X '·X ) Vˆ ( ˆ ) ˆ 2· X '·X 1 elevada LA MATRIZ DE VARIANZAS-COVARIANZAS DE LOS EMCO SERÁ MUY ELEVADA 6 MULTICOLINEALIDAD 2. Causas y consecuencias de la Existencia de Multicolinealidad 1 Existe una RELACIÓN CAUSAL entre 2 o más variables explicativas 2 Existe una TENDENCIA CRECIENTE entre las variables explicativas 3 Se crean nuevas variables por medio de una TRANSFORMACIÓN INCORRECTA de variables 4 Incorrecta utilización de variables ficticias 5 Existe una variable explicativa con ESCASA VARIABILIDAD 6 Existe una RELACIÓN CASUAL entre las variables explicativas 7 MULTICOLINEALIDAD PREGUNTA: ¿Qué CONSECUENCIAS se derivan de la existencia de una matriz de Varianzas-Covarianzas elevada? - Los Intervalos de Confianza serán excesivamente amplios IC(1 ) ˆ j S ˆ j tn k 1, 2 - Los Estimadores MCO serán Imprecisos tj ˆ j S ˆ j S ̂ j Elevado IC amplio tj 2 ; S ̂ j Elevado t j Bajos Tendencia aceptar H0 8 MULTICOLINEALIDAD - En consecuencia, será difícil analizar la relevancia de la variable explicativa - Es muy probable que los ˆMCO tengan SIGNOS INCORRECTOS. A PESAR DE ESTOS INCONVENIENTES, LOS EMCO SIGUEN SIENDO LINEALES, INSESGADOS CONSISTENTES Y ÓPTIMOS. AHORA BIEN, NO ES LA MEJOR ESTIMACIÓN QUE PODEMOS REALIZAR. 9 MULTICOLINEALIDAD 3. Detección de la Multicolinealidad Criterios descriptivos (pueden hacer sospechar de la existencia de problemas de multicolinealidad): 1- Elevada Bondad de Ajuste (R2 elevado) y estimadores imprecisos. 2- Incoherencia en los Contrastes de Hipótesis ACEPTAR RECHAZAR H0 : j 0 j 1.... K H 0 : 1 2 ... K 0 3- Signos de los estimadores incorrectos. 10 MULTICOLINEALIDAD Criterios estadísticos: 1. Coeficiente de correlación lineal y determinante de la matriz de correlación - El Coeficiente de Correlación Lineal Simple puede ser un buen indicador para sospechar la presencia de multicolinealidad. n rk , j X i 1 n ki X k ·X ji X j X ki X k i 2 X n · i 1 rk , j 1 ji X j 2 rk , j 0 rk , j 1 No Correlación Correlación Perfecta 11 MULTICOLINEALIDAD Si el determinante de la matriz de correlaciones está próximo a cero MULTICOLINEALIDAD r11 r21 . R . . r k1 r12 r11 . . . rk 2 . . . r1k . . . r2 k . . . . . . . . . . . . . . . rkk RX 0,1 MATRIZ DE CORRELACIONES ENTRE LAS K VARIABLES DEL MODELO RX 1 ORTOGONALIDAD RX 0 MULTICOLINEALIDAD PERFECTA 12 MULTICOLINEALIDAD 2. Un factor de incremento de la varianza (VIF) de una variable explicativa mayor que 10 puede indicar problemas de multicolinealidad. En general, se define VIF como VIF donde 1 1 RX2 j RX2 j es el COEFICIENTE DE CORRELACIÓN MÚLTIPLE entre la variable Xj y las demás variables explicativas 13 MULTICOLINEALIDAD 4. Soluciones a la Multicolinealidad 1 Aumentar el Tamaño Muestral 2 Utilizar Información a priori 3 Eliminar aquella o aquellas variables que presentan una elevada correlación. Se optará por esta alternativa cuando: - Nuestro conocimiento sobre la relevancia de esta variable no sea favorable j 0 X j fuera - Los coeficientes estimados tengan signos incorrectos cuando incluimos la variable y correctos cuando la excluimos. - Bajo valor de la varianza estimada del error de predicción cuando excluimos la variable. ¿QUÉ PROBLEMA NOS PODEMOS ENCONTRAR? Omisión de Variables Relevantes 14 MULTICOLINEALIDAD 4 Transformar Variables (ejemplo: Tomar Primeras Diferencias) 5 Aplicar Métodos Alternativos de Estimación: Método de mínimos cuadrados con restricciones (lineales exactas, lineales estocásticas o de desigualdad). Método de componentes principales. Método de regresión en cresta…….. 15