Uploaded by fmhfevnbszufnaornm

multicolinealidad

advertisement
MULTICOLINEALIDAD
1. Introducción
¿QUÉ ES LA
MULTICOLINEALIDAD?
Un
modelo
presenta
problemas
de
MULTICOLINEALIDAD si alguna variable
explicativa se puede representar como una
combinación exacta o aproximada de las otras
variables explicativas.
1-. PERFECTA
TIPOS DE
MULTICOLINEALIDAD
2-. APROXIMADA
1
MULTICOLINEALIDAD
MULTICOLINEALIDAD PERFECTA
Rango( X )  K  1
Una Columna de la matriz X se puede expresar como una combinación
lineal de alguna o algunas de las demás.
x ji  0  1·x1i  ...  ( j 1) ·x( j 1)i  ( j 1) ·x( j 1)i  ...   k ·xki
INCUMPLIMIENTO
HIPÓTESIS MRLC
2
MULTICOLINEALIDAD
MULTICOLINEALIDAD APROXIMADA
Rango( X )  K  1
Una Columna de la matriz X se puede expresar aproximadamente como
una combinación lineal de alguna o algunas de las demás.
x ji  0  1·x1i  ...  ( j 1) ·x( j 1)i  ( j 1) ·x( j 1)i  ...   k ·xki
· CUMPLE HIPÓTESIS
MRLC
· EMCO cumplen todas
sus propiedades
3
MULTICOLINEALIDAD
MULTICOLINEALIDAD PERFECTA
MODELO
Matriz de
Regresores
PROBLEMA
Yi  0  1  X 1i   2  X 2i  ...   k  X ki   i
1 X 11

1 X 12
.
.
X 
.
.
.
.

1 X
1n

... X k 1 

... X k 2 
... . 

... . 
... . 
... X kn 
i  1,2,..., n
 i  N (0,  2 )
MULTICOLINEALIDAD PERFECTA:
Una de las variables explicativas de la
matriz X se puede expresar como una
Combinación Lineal del resto de
variables.
Rang( X )  K  1  Rang( X )  Rang( X '·X )  K  1 det( X '·X )  0 
1
 No Existe ( X '·X ) 1  ˆMCO  ( X '·X ) ·X '·Y INDETERMIN ADOS
4
MULTICOLINEALIDAD
MULTICOLINEALIDAD APROXIMADA
Una o más de las variables explicativas pueden expresarse
aproximadamente como una combinación lineal de las restantes
x ji  0  1·x1i  ...  ( j 1) ·x( j 1)i  ( j 1) ·x( j 1)i  ...   k ·xki
No existe una relación lineal exacta entre uno o más regresores pero sí
están fuertemente correlacionados.
Rang( X )  K  1  Rang( X )  Rang( X '·X )  K  1  det( X '·X )  0
1
1
ˆ


(
X
'·
X
)
·X '·Y

Existe
(
X
'·
X
)
MCO

5
MULTICOLINEALIDAD
MULTICOLINEALIDAD APROXIMADA
PREGUNTA: ¿Cuál es el
Multicolinealidad Aproximada?
Problema
de
la
Existencia
de
la
1
muy elevado 
det( X '·X )  0 pero… det( X '·X )  0  ( X '·X )

 Vˆ ( ˆ )  ˆ 2· X '·X

1
elevada 
LA MATRIZ DE VARIANZAS-COVARIANZAS
DE LOS EMCO SERÁ MUY ELEVADA
6
MULTICOLINEALIDAD
2. Causas y consecuencias de la Existencia de Multicolinealidad
1
Existe una RELACIÓN CAUSAL entre 2 o más variables explicativas
2
Existe una TENDENCIA CRECIENTE entre las variables explicativas
3
Se crean nuevas variables por medio de una TRANSFORMACIÓN
INCORRECTA de variables
4
Incorrecta utilización de variables ficticias
5
Existe una variable explicativa con ESCASA VARIABILIDAD
6
Existe una RELACIÓN CASUAL entre las variables explicativas
7
MULTICOLINEALIDAD
PREGUNTA: ¿Qué CONSECUENCIAS se derivan de la existencia de una
matriz de Varianzas-Covarianzas elevada?
- Los Intervalos de Confianza serán excesivamente amplios
IC(1 )   ˆ j  S ˆ j  tn k 1, 
2

- Los Estimadores MCO serán Imprecisos
tj 
ˆ j
S ˆ j
S ̂ j
Elevado

IC amplio
tj  2
; S ̂ j Elevado  t j Bajos  Tendencia
aceptar
H0
8
MULTICOLINEALIDAD
- En consecuencia, será difícil analizar la relevancia de la variable explicativa
- Es muy probable que los
ˆMCO
tengan SIGNOS INCORRECTOS.
A PESAR DE ESTOS INCONVENIENTES, LOS EMCO SIGUEN SIENDO
LINEALES, INSESGADOS CONSISTENTES Y ÓPTIMOS. AHORA BIEN,
NO ES LA MEJOR ESTIMACIÓN QUE PODEMOS REALIZAR.
9
MULTICOLINEALIDAD
3. Detección de la Multicolinealidad
Criterios descriptivos (pueden hacer sospechar de la existencia
de problemas de multicolinealidad):
1- Elevada Bondad de Ajuste (R2 elevado) y estimadores
imprecisos.
2- Incoherencia en los Contrastes de Hipótesis
ACEPTAR
RECHAZAR
H0 :  j  0
j  1.... K
H 0 : 1   2  ...   K  0
3- Signos de los estimadores incorrectos.
10
MULTICOLINEALIDAD
Criterios estadísticos:
1. Coeficiente de correlación lineal y determinante de la matriz de
correlación
- El Coeficiente de Correlación Lineal Simple puede ser un buen
indicador para sospechar la presencia de multicolinealidad.
n
rk , j 
 X
i 1
n
ki
 X k ·X ji  X j 
  X ki  X k 
i
2
 X
n
·
i
1  rk , j  1
ji  X j 
2
rk , j  0
rk , j  1
No Correlación
Correlación Perfecta
11
MULTICOLINEALIDAD
Si el determinante de la matriz de correlaciones está próximo a
cero
MULTICOLINEALIDAD
 r11

 r21
 .
R
 .
 .

r
 k1
r12
r11
.
.
.
rk 2
. . . r1k 

. . . r2 k 
. . . . 

. . . . 
. . . . 
. . . rkk 
RX  0,1
MATRIZ DE CORRELACIONES
ENTRE LAS K VARIABLES DEL
MODELO
RX  1
ORTOGONALIDAD
RX  0
MULTICOLINEALIDAD PERFECTA
12
MULTICOLINEALIDAD
2. Un factor de incremento de la varianza (VIF) de una variable
explicativa mayor que 10 puede indicar problemas de multicolinealidad.
En general, se define VIF como
VIF 
donde
1
1  RX2 j


RX2 j es el COEFICIENTE DE CORRELACIÓN MÚLTIPLE
entre la variable Xj y las demás variables explicativas
13
MULTICOLINEALIDAD
4. Soluciones a la Multicolinealidad
1
Aumentar el Tamaño Muestral
2
Utilizar Información a priori
3
Eliminar aquella o aquellas variables que presentan una elevada
correlación. Se optará por esta alternativa cuando:
- Nuestro conocimiento sobre la relevancia de esta variable no
sea favorable  j  0  X j fuera


- Los coeficientes estimados tengan signos incorrectos cuando
incluimos la variable y correctos cuando la excluimos.
- Bajo valor de la varianza estimada del error de predicción
cuando excluimos la variable.
¿QUÉ PROBLEMA NOS PODEMOS ENCONTRAR?
Omisión de
Variables
Relevantes
14
MULTICOLINEALIDAD
4
Transformar Variables (ejemplo: Tomar Primeras Diferencias)
5
Aplicar Métodos Alternativos de Estimación:
Método de mínimos cuadrados con restricciones (lineales
exactas, lineales estocásticas o de desigualdad).
Método de componentes principales.
Método de regresión en cresta……..
15
Download