Uploaded by Felipe Trujillo Garzon

Algunos desarrollos

advertisement
Universidad Nacional de Colombia
Facultad de Ciencias Económicas
Econometrı́a 1
Algunos desarrollos
1. (Propiedades del modelo OLS). El modelo de regresión lineal poblacional, con
N -observaciones, es:
Y = X β + u .
(1)
(N ×1)
(N ×K)(K×1)
(N ×1)
Para una muestra de n-observaciones, el modelo de regresión muestral, estimado
por medio de MCO, se puede escribir como:
b + u
b .
Y = X b
(2)
(n×1)
(n×K)(K×1)
(n×1)
b es el vector de estimadores de MCO definido como:
Donde b
b = (X0 X)−1 X0 Y.
b
(3)
Por otro lado, el vector de errores muestrales de MCO se define como:
b
b = Y − Xb.
u
(4)
La matriz de proyección, P, y la matriz anuladora, M, asociadas a X se definen
como:
P = X (X0 X)
−1
X0 ,
M = In − P.
(6)
Demuestre que:
b = MY = Mu.
a) u
Reemplazando la ecuación (3) en la ecuación (4) y simplificando, tenemos:
b
b = Y − Xb,
u
−1
= Y − X (X0 X) X0 Y,
−1
= In − X (X0 X)
Y,
= (In − P) Y.
1
(5)
2
Reemplazando la ecuación (6) en la última igualdad se tiene que:
b = MY.
u
(7)
Reemplazando la ecuación (1) en la ecuación (7), tenemos:
b = M (Xβ + u) ,
u
= MXβ + Mu.
Como MX = 0, de la última igualdad se deduce que:
b = Mu.
u
(8)
Las ecuaciones (7) y (8) son el resultado que se querı́an obtener.
b0u
b = u0 Mu.
b) Suma de Residuales al Cuadrado (SRC) = u
Sustituyendo la ecuación (8), y simplificando:
b0u
b,
SRC = u
= (Mu)0 (Mu) ,
= u0 M0 Mu,
= u0 MMu = u0 M2 u.
La última igualdad se obtiene por medio de la propiedad de que la matriz M es
simétrica. Es decir que M0 = M. Recurriendo a la propiedad de que la matriz
M es idempotente, M2 = M, de la última igualdad se obtiene:
SRC = u0 Mu.
Que es lo que se querı́a demostrar.
c) ub0 X = 0.
Sustituyendo la ecuación (8) y ordenando:
ub0 X = (Mu)0 X,
= u0 M0 X,
= u0 MX.
(9)
3
La última igualdad se obtinene de la propiedad de simetrı́a de la matriz M,
M0 = M. Debido a que MX = 0, en la última igualdad se obtiene que:
ub0 X = 0.
(10)
Que es lo que se querı́a demostrar.
2. (Matriz anuladora). Sea i(n×1) un vector columna de unos.
 
1
 
1
 
i = .
.
 .. 
 
1 (n×1)
La matriz anuladora asociada al vector i se define como:
−1 0
M0 = In − i (i0 i)
−1
(11)
1 0
ii es igual a la matriz M0 .
n
Demuestre que la matriz A = In −
Desarrollemos la expresión (i0 i)
i.
de la ecuación (11).
 −1
1

 

1


 
=  1 1 . . . 1  .  ,

 .. 

 
1

−1
(i0 i)
= ((1 × 1) + (1 × 1) + ... + (1 × 1))−1 ,
!−1
n
X
=
1
.
i=1
Por propiedades de las sumatorias, la última igualdad se puede expresar como:
−1
(i0 i)
= (n)−1 =
1
.
n
(12)
4
Sustituyendo la ecuación (12) en la ecuación (11) se obtiene la matriz A.
−1
M0 = In − i (i0 i) i0 ,
1 0
= In − i
i,
n
= In −
1 0
ii ,
n
= A.
3. (R2 matricial). Teniendo en cuenta que Yb = Y , muestre que :
b 0Y
b −n Y 2
b 0 AY
b
Y
Y
2
=
R = 0
2 .
Y AY
Y0 Y − n Y
(13)
Desarrollemos la expresión del numerador.
1 0 b
0
0
b
b
b
Y AY = Y In − ii Y,
n
1
0
0
b In Y
b .
b − ii Y
=Y
n
0
b =
Como i Y
n
X
Ybi , al reemplazar y ordenar, tenemos:
i=1
n
b 0 AY
b =Y
b0
Y
X
b − 1i
Y
Ybi
n i=1
n
X
b0 Y
b − i1
Ybi
=Y
n i=1
0 b
b
b
= Y Y − iY ,
b0 Y
b − iY .
=Y
!
,
!
,
La última igualdad se obtiene del hecho de que Yb = Y . Terminando de hacer el
producto, se obtiene:
b 0 AY
b =Y
b 0Y
b −Y
b 0 iY .
Y
5
b 0i =
Como Y
n
X
Ybi , al reemplazar y simplificar, se obtiene:
i=1
b −Y
b 0 iY ,
b 0 AY
b =Y
b 0Y
Y
b 0Y
b−
=Y
n
X
!
Y.
Ybi
i=1
Por propiedades de las sumatorias sabemos que
n
X
Ybi = nYb . Reemplazando esto,
i=1
0
0b
b
b
b
b
Y AY = Y Y − nY Y .
Como Yb = Y , al reemplazar se obtiene el resultado deseado.
b 0 AY
b =Y
b 0Y
b −n Y 2.
Y
(14)
De forma análoga, se desarrolla la expresión del denominador de la expresión (13),
1 0
0
0
Y AY = Y In − ii Y,
n
!
n
X
1
= Y0 Y − i
Yi ,
n i=1
= Y0 Y − iY ,
!
n
X
= Y0 Y −
Yi Y .
i=1
Como
n
X
Yi = nY , al reemplazar y simplificar se obtiene la expresión deseada.
i=1
Y0 AY = Y0 Y − n Y
2
.
(15)
Luego, del desarrollo de las expresiones matriciales del numerador y del denominador
de la expresión (13), se llega a la expresión del R2 centrado en su forma matricial.
R2 =
b 0Y
b −n Y
Y
Y0 Y − n Y
2
2 .
6
4. (Coeficiente de correlación). Sea una muestra de n-observaciones para dos variables aleatorias discretas, X y Y . El coeficiente de correlación de Pearson, o de
correlación simple entre X y Y , se define como:
Pn
Yi − Y
i=1 Xi − X
rX,Y = r
.
(16)
2 Pn
2 Pn
i=1 Xi − X
i=1 Yi − Y
Para facilidad de notación y de cálculo, en algunos casos se suele representar con
letras minúsculas a las desviaciones de cada variable con respecto a su media:
b
(17)
xi = Xi − X , yi = Yi − Y , ybi = Yi − Y .
Por lo que el coeficiente de correlación se puede escribir como:
Pn
xi y i
rX,Y = p Pn i=1
P
( i=1 x2i ) ( ni=1 yi2 )
(18)
Considere el modelo de regresión lineal simple, estimado por medio de MCO.
Yi = bb0 + bb1 Xi + u
bi .
(19)
Ybi = bb0 + bb1 Xi .
(20)
Con
Muestre que:
a) Yb = Y .
Sabemos que bb0 = Y − bb1 X. Reemplazando la definición de bb0 en la expresión
(20):
Ybi = bb0 + bb1 Xi ,
= Y − bb1 X + bb1 Xi ,
= Y + bb1 Xi − X .
7
Tomando sumatoria en la última igualdad y aplicando la propiedad de las
n
X
sumatorias de
Xi = nX,
i=1
n
X
i=1
Ybi =
n
X
Y +
i=1
n
X
bb1 Xi − X ,
i=1
nYb = nY + bb1
n
X
Xi − X ,
i=1
nYb = nY .
La última igualdad se obtiene del hecho de que
n
X
Xi − X = 0. Dividiendo
i=1
por n esta última igualdad, se obtiene el resultado deseado.
√
b)
Yb = Y
(21)
2
Pn b
Y
−
Y
i
i=1
R2 = Pn
2 .
Y
−
Y
i
i=1
(22)
R2 = rX,Y .
Partimos de la definición de R2 :
Del literal anterior se sabe que:
Ybi − Y = bb1 Xi − X .
(23)
Aplicando la notación en letras minúsculas de las expresiones en (17), las ecuaciones (22) y (23) quedan como:
Pn
(b
yi )2
2
R = Pi=1
(24)
n
2,
i=1 (yi )
ybi = bb1 xi .
(25)
8
Reemplazando la expresión (25) en (24).
Pn
(b
yi )2
2
R = Pi=1
n
2,
(y
)
i
i=1
Pn b 2
i=1 b1 xi
= Pn
2 ,
i=1 (yi )
2 Pn (x )2
i
= bb1 Pi=1
n
2.
(y
)
i
i=1
Sabemos que la definición del bb1 es:
Pn
X
−
X
Y
−
Y
i
i
i=1
bb1 =
.
2
Pn
X
−
X
i
i=1
Aplicando la notación en minúsculas de las expresiones en (17), la expresión
del bb1 queda como:
Pn
bb1 = P i=1 xi yi .
2
n
i=1 (xi )
Reemplazando la definición de bb1 en la expresión del R2 .
2 Pn (x )2
i
2
R = bb1 Pi=1
2,
n
i=1 (yi )
!2 P
Pn
2
n
i=1 xi yi
i=1 (xi )
= Pn
Pn
2
2,
i=1 (xi )
i=1 (yi )
P
2
( ni=1 xi yi )
= Pn
2 Pn
2 .
i=1 (xi )
i=1 (yi )
Tomando raı́z cuadrada a la última igualdad tenemos la expresión (18).
s
P
Pn
2
√
( ni=1 xi yi )
i=1 xi yi
2
q P
R =
Pn
2 Pn
2 =
Pn
= rX,Y .
n
i=1 (xi )
i=1 (yi )
(x )2
(y )2
i=1
i
i=1
i
5. (Varianzas de los estimadores). Para el modelo de regresión lineal simple, derive
las fórmulas de la varianza de los estimadores de MCO, bb0 y bb1 . Para esta demostración, debe tener en cuenta la definición de la matriz de varianzas y covarianzas
de los estimadores:
9
−1
Vd
ar (b|X) = s2 (X0 X)
(26)
Para el modelo de regresión muestral simple de la fórmula (19), sea X(n×2) , la cual
se define como:


1 X1


1 X2 


X = . . 
 .. .. 


1 Xn (n×2)
Efectuando el producto matricial X0 X tenemos:

X0 X =
=
=
1 X1


!
1 X 2 


. .  ,

.
.
X1 X2 . . . Xn  . . 

1 Xn
!
Pn
Pn
i=1 Xi
i=1 1
,
Pn
Pn
2
(X
)
X
i
i
i=1
i=1
!
n
nX
.
Pn
2
nX
i=1 (Xi )
1
1
...
1
Al sacar la matriz inversa de la matriz X0 X se tiene:
!
Pn
2
(X
)
−nX
i
1
i=1
−1
(X0 X) = P
.
2 n
2
−nX
n
n
(X
)
−
n
X
i
i=1
Como
n
X
Xi − X
2
=
i=1
n
X
2
(Xi )2 − n X , reemplazando tenemos:
i=1
(X0 X)
−1
Pn
2
−nX
i=1 (Xi )
1
=
n
P
n
i=1
Xi − X
2 −nX
n
!
.
10
Al multiplicar por la varianza estimada de los residuales, s2 , se obtiene la matriz de
varianzas y covarianzas de los estimadores.
−1
Vd
ar (b|X) = s2 (X0 X) ,
Pn
2
−nX
i=1 (Xi )
s2
=
n
P
n
i=1
Xi − X
2 −nX
!
n
Donde los elementos (1,1) y (2,2) de esta matriz corresponden a las varianzas de los
estimadores de MCO, bb0 y bb1 respectivamente.
P
s2 ni=1 (Xi )2
b
d
V ar b0 |X = P
(27)
2 ,
n
X
−
n
X
i
i=1
s2
Vd
ar bb1 |X = Pn
i=1
Xi − X
2 .
(28)
6. (Propiedades del estimador bb1 ). En el modelo Yi = bb0 + bb1 Xi + u
bi , donde bb0 y bb1
son los estimadores de mı́nimos cuadrados ordinarios (OLS).
X a) Calcular las ponderaciones de OLS
ki .
Sabemos que la definición del bb1 es:
Pn
X
Y
−
Y
X
−
i
i
i=1
bb1 =
.
2
Pn
i=1 Xi − X
El numerador de la expresión de bb1 se puede expresar de diversas formas:
n
X
Xi − X
Yi − Y =
i=1
n
X
(Xi Yi ) − nXY ,
i=1
=
n
X
Yi − Y Xi ,
i=1
=
n
X
Xi − X Yi .
i=1
Por lo que el estimador bb1 se puede expresar como:
Pn
X
−
X
Yi
i
i=1
bb1 =
.
STCX
(29)
11
Donde STCX =
n
X
2
Xi − X . Expresando la ecuación (29) en notación de
i=1
letras minúsculas tenemos:
Pn
bb1 = i=1 (xi ) Yi ,
STCX
x1
x2
xn
=
Y1 +
Y2 + . . . +
Yn
STCX
STCX
STCX
El ponderador ki se define como:
ki =
xi
.
STCX
(30)
Reemplazando el ponderador en la expresión (29), tenemos el estimador bb1
como una función lineal de Yi .
bb1 =
n
X
ki Yi
(31)
i=1
Reemplazando la expresión (31) en la definición del estimador bb0 , también se
obtiene una expresión lineal de bb0 en función de Yi .
bb0 = Y − bb1 X,
=Y −X
n
X
ki Yi .
i=1
b) Probar que
X
ki Xi = 1.
Desarrollando la expresión
n
X
i=1
X
ki Xi = 1 tenemos:
ki Xi =
n X
Xi − X
i=1
STCX
Xi ,
n
1 X
=
Xi − X Xi .
STCX i=1
12
Como la sumatoria
n
X
Xi − X Xi se puede expresar de diversas formas:
i=1
n
X
X i − X Xi =
i=1
n
X
(Xi )2 − n X
2
,
i=1
=
n
X
Xi − X
2
,
i=1
= STCX .
Al reemplazar la última igualdad, se obtiene el resultado pedido:
n
X
n
1 X
1
STCX = 1.
Xi − X Xi =
STCX i=1
STCX
ki Xi =
i=1
c) Probar que
Como
n
X
X
ki = 0.
Xi − X = 0, al realizar la sumatoria
i=1
i=1
X
ki se tiene:
i=1
n
X
d ) Calcular
n
X
n
1 X
ki =
Xi − X = 0.
STCX i=1
(ki ki ) para construir el estimador de la varianza de bb1 .
Desarrollando la expresión (ki )2 se tiene:
!2
2
Xi − X
Xi − X
2
=
.
(ki ) =
STCX
(STCX )2
Tomando sumatorias se obtiene:
n
X
i=1
n
X
2
1
(ki ) =
Xi − X ,
2
(STCX ) i=1
2
=
1
(STCX ) ,
(STCX )2
=
1
.
STCX
(32)
13
Reemplazando el modelo de regresión poblacional en la ecuación (31):
bb1 =
n
X
ki Yi ,
i=1
=
n
X
ki (β0 + β1 Xi + ui ) ,
i=1
= β0
n
X
ki + β1
n
X
i=1
ki Xi +
i=1
De los literales anteriores sabemos que
n
X
n
X
ki ui ,
i=1
ki = 0 y
i=1
n
X
ki Xi = 1, por lo que la
i=1
expresión de bb1 queda como:
bb1 = β1 +
n
X
ki ui .
(33)
i=1
Tomando esperanza condicional sobre la expresión (33) tenemos:
!
n
X
ki ui |X ,
E bb1 |X = E β1 +
i=1
= β1 +
n
X
ki E (ui |X) .
i=1
Por el supuesto de exogeneidad estricta, E (ui |X) = 0, por lo que nos queda:
E bb1 |X = β1 .
(34)
Al sacar la varianza condicional de bb1 , nos queda:
2
h
i2
b
b
b
b
V ar b1 |X = E b1 − E b1 |X |X = E b1 − β1 |X .
14
De la expresión (33) deducimos que bb1 − β1 =
n
X
ki ui . Reemplazando tenemos:
i=1
V ar bb1 |X = E
n
X
!2
ki ui |X
,
i=1
= E (k1 u1 )2 + . . . + (kn un )2 + 2 (k1 k2 u1 u2 ) + . . . + 2 (kn−1 kn un−1 un ) |X ,
!
n
n X
n
X
X
2
2
=E
(ki ) (ui ) + 2
(ki kj ui uj ) |X , con i 6= j,
i=1
=
n
X
i=1 j=1
2
2
(ki ) E (ui ) |X + 2
i=1
n X
n
X
(ki kj E (ui uj |X)) .
i=1 j=1
Por los supuestos
de homoscedasticidad y de no correlación, sabemos que
2
2
E (ui ) |X = σ y E (ui uj |X) = 0 para todo i, j tal que i 6= j. Luego, la
varianza de bb1 queda como:
n
X
b
V ar b1 |X =
(ki )2 σ 2 =
i=1
σ2
.
STCX
(35)
Como no se conoce σ 2 y sólo se cuenta con la varianza estimada de los errores,
s2 , la varianza condicional estimada de bb1 serı́a:
n
X
b
d
V ar b1 |X =
(ki )2 s2 =
i=1
s2
.
STCX
La cual es el mismo resultado obtenido en la expresión (28).
(36)
Download