Uploaded by jorge pontual

Econometria. Notas (1)

advertisement
2
Regressão Linear Simples (RLS)
Seja o seguinte modelo:
yi =
+ xi + ui
onde yi é salário, xi é educação. Este é um modelo de regressão linear simples.
Mas podemos ter outra variáveis que afetam yi ? Então vamos adicionar mais variáveis
ao modelo:
yi = + 1 x1i + 2 x2i + 3 x3i + ui
onde, x1i é educação, x2i é genêro e x3i é idade do indivíduo.
Nesta seção trataremos do primeiro modelo e na seção seguinte do segundo.
Então:
yi = + xi + ui
onde,
= intercepto;
=coe…ciente angular;
y =variável dependente (ou explicada, regredida, de resposta, controlada)
x =variável independente (ou explicativa, regressor, de controle)
u =erro, medida da ignorância
Suponha o seguinte modelo:
y=
onde
e
+ x+u
são os parâmetros (coe…cientes) verdadeiros:
Função de regressão Populacional (FRP): yi = + xi + ui
; são desconhecidos, mas supomos que existem. Assim a FRP é algo …xo, mas
desconhecido, na população de interesse.
A partir de dados de uma amostra estimaremos e , sendo ^ é um estimador de e
^ é um estimador de .
São estimadores não-viesados: E (^ ) = , E ^ = .
Entre os estimadores não-viesados, sobressaem-se os estimadores com menor variância.
Graf ico
Função de Regressão Amostral (FRA): yi = ^ + ^ xi + u
^i
Necessitamos de uma amostra da população para estimar e .
Então ^ e ^ são os parâmetros estimados a partir de uma amostra.
Eu
^i é o resíduo.
Assim FRA é a versão estimada da FRP.
Veremos o método mais tradicional para estimar tais parâmetros na subseção seguinte.
6
2.1
Método de Mínimos Quadrados (MQO ou Ordinary Least Squares OLS)
Seja o modelo:
yi = ^ + ^ xi + u
^i
| {z }
y^i
onde y^i é o yi predito, previsto ou porção explicada e u
^i é o resíduo.
Graf ico
Qual critério devo utilizar para obter os estimadores?
Podemos minimizar:
1. Soma dos Erros: Não é um bom critério pois pode anular positivos e negativos.
2. Soma Absoluta dos Resíduos: Gera um estimador pouco utilizado denominado LAD
(Least Absolute Deviations)
3. Soma do Quadrado dos Erros: Tem propriedades estatísticas (que veremos adiante)
que o tornam bastante atrativo.
Então, devemos resolver o seguinte problema de minimização:
f ;
n
X
n
X
u2i = min
(yi
g
f ^ ; ^ g i=1
i=1
min
xi )2
As CPOs serão:
^:
2
X
yi
^ xi = 0 =)
^
i
X
u
^i = 0
i
Esta CPO nos mostra que a escolha do intercepto ótimo implica que a soma dos resíduos
será zero.
Continuando com esta CPO:
X
yi ^ ^ xi
= 0
X
i
i
yi
X
X
^
i
ny
^ M QO
^ xi = 0
i
^ nx = 0
= y ^x
n^
Este é o estimador de Mínimos Quadrados Ordinários do intercepto ( ).
7
(1)
Exercício 1 Prove que, em um modelo com intercepto, a reta da regressão (^
y ) sempre
passa pelo ponto médio (x; y).
Obtendo a CPO para ^ :
X
^: 2
yi
X
^ xi xi = 0 =)
^
i
u
^i xi = 0
(2)
i
Esta CPO nos mostra que a correlação entre o resíduo u
^i e xi é nula.
Observação 2 Podemos notar isso mais claramente se minimizarmos o modelo em termos
de desvios da média, ou seja:
yi = + xi + ui
Tomando a média, teremos:
y=
+ x
(A média dos erros é zero: é uma das hipóteses que veremos na próxima seção).
Tomando a diferença entre as duas equações acima:
yi
y =
yi
(xi
=
x) + ui
xi + ui
onde, o sobrescrito * indica que a variável está especi…cada em termos de desvios da
média. Assim: minimizando:
min
n
X
u2i
= min
i=1
obtemos na derivação do :
X
yi
2
n
X
xi )2
(yi
i=1
^x
i
xi = 0 =)
X
u
^i xi = 0
i
i
Dividindo a última expressão por n 1 (considerando n > 1), teremos:
P
^i (xi x)
iu
= Cov (^
u i ; xi ) = 0
n 1
Ou de forma mais simples ainda, retome a CPO da equação (2) e note que:
X
u
^i xi = 0
X
i
i
u
^i xi
X
i
8
u
^i = 0
que não altera em nada a expressão, pois como vimos
constante x:
X
X
u
^i xi x
u
^i = 0
i
X
P
^i
iu
= 0. Multiplicando pela
i
u
^i (xi
x) = 0
i
Dividindo por n
1:
P
^i (xi
iu
n
x)
1
= Cov (^
u i ; xi ) = 0
Retomando a CPO (2) do ^ , temos que:
X
yi
i
X
yi xi
i
X
^
^ xi xi = 0
X
^ xi
i
yi xi = ^
i
X
X
X
i
xi + ^
i
yi xi = y
^x
i
X
X
X
x2i
i
xi + ^
i
yi xi = y
i
^
^ x2 = 0
i
M QO
X
xi + ^
X
x2i
i
X
P i
P i
xi
y
x
y
i
i
Pi
= Pi 2
x i xi
i xi
x2i
x
X
i
xi
!
h
( ^=y
i
^x )
Podemos escrever este estimador também de uma forma diferente. O denominador
9
pode ser escrito como:
X
(xi
X
x)2 =
i
x2i
i
X
=
x2i
i
X
=
2xi x + x2
X
i
x2i
2x
i
X
=
X
2xi x +
X
x2
i
xi + nx2
i
x2i
2xnx + nx2
x2i
nx2
x2i
xnx
x2i
x
i
X
=
i
X
=
i
X
=
i
E o numerador pode ser escrito como:
X
X
(xi x) (yi y) =
(xi
i
X
x) yi
i
=
X
(xi
X
xi yi
i
=
=
yi xi
i
=
X
X
(xi
i
x) yi
y
X
x) y
(xi
x)
i
i
X
xi
i
yi xi
i
{z
}
|
P
P
= i xi
ix
= nx nx = 0
X
X
X
xyi =
yi xi x
yi
i
P
P i
x
i i
i yi
n
X
X
xi y =
yi xi
i
pode ser escrito como:
P
x) (yi y)
i (xi
^
=
P
M QO
x)2
i (xi
i
i
y
X
xi
i
Assim, o estimador MQO do
Exercício 3 Obtenha o estimador MQO do a partir do modelo exposto na 2, ou seja,
continue a partir da CPO do problema já derivada.
10
O estimador MQO acima pode ser escrito também de outra forma usual; basta dividir
o numerador e denominador por n 1 e assim:
P
x) (yi y) =n 1
Cov (x; y)
i (xi
^
=
P
M QO =
2
V ar (x)
x) =n 1
i (xi
Exercício 4 Faça a Condição de Segunda Ordem (CSO) e mostre que o problema de
minimização da soma do quadrado dos resíduos resulta realmente em um mínimo. Dica=
monte a matriz hessiana e mostre que o determinante é positivo).
2.2
O Coe…ciente de Determinação: RLS
Existe alguma medida que me mostre se o meu modelo tem um bom poder preditivo?
Ou seja, se o regressor(es) (x) que eu inclui no meu modelo explica(m) bem a variável
dependente (y).
Seja a FRA:
yi = ^ + ^ xi + u
^i
| {z }
y^i
Tomando a média:
y = y^i
Assim, ambas as médias são iguais. Subtraindo y dos dois lados da FRA:
(yi
y) = (^
yi
yi
y) + u
^i
= y^i + u
^i
onde o sobrescrito * indica que a variável está especi…cada em termos de desvios em
relação à média. Assim temos:
yi = y^i + u
^i
Elevando ao quadrado:
(yi )2 = (^
yi )2 + 2^
yi u
^i + u
^2i
Somando a expressão para todas as observações da amostra:
X
X
X
X
(yi )2 =
(^
yi )2 + 2
y^i u
^i +
u
^2i
i
P
i
i
P
P
i
^P
^i = i ^ + ^ xi u
^i = ^ i u
^i +
^i = 0. Os dois termos são
Note que:
^i u
iy
i xi u
iguais a zero e vem das CPOs do e do (2). Assim:
X
X
X
(yi )2 =
(^
yi )2 +
u
^2i
i
i
11
i
onde:
X
(yi )2 = Soma dos Quadrados Totais (SQT)
i
X
i
(^
yi )2 = Soma dos Quadrados Explicados (SQE)
X
u
^2i = Soma dos Quadrados dos Resíduos (SQR)
i
Assim:
SQT = SQE + SQR
Dividindo a expressão por SQT , teremos:
1=
SQE SQR
+
SQT
SQT
| {z }
R2
O R2 mede o quanto da variação da variável dependente pode ser explicado pela variação
do regressor. Assim:
R2 =
R
2
onde R2 2 [0; 1].
=
SQE
=1
SQT
P
(^
y )2
Pi i 2 =
i (yi )
SQR
SQT
Pn
(b
yi
Pni=1
i=1 (yi
y)2
y)2
=1
Pn
P
^2i
iu
i=1 (yi
y)2
Observação 5 Esta expressão é válida apenas se o intercepto é íncluído no modelo. Caso
contrário, o R2 não pode ser mais utilizado pois não necessariamente ele estará no intervalo
[0; 1], podendo inclusive ser negativo. Sem intercepto, estamos forçando o modelo partir
da origem. Se o valor verdadeiro do intercepto, , for diferente de zero, então ~ será um
estimador viesado de .
Exercício 6 Prove que no modelo sem intercepto o R2 não estará necessariamente no
intervalo [0; 1].
Exercício 7 Mostre que no modelo com intercepto: yi = ^ + ^ xi + u
^i , o R2 = [corr (x; y)]2 .
12
3
Hipóteses do Modelo Clássico de Regressão Linear (MCRL)
Hipótese 1 (Linearidade dos Parâmetros) A relação entre a variável dependente y e
as explicativas x1 ; ::::; xk é linear:
y1 =
0
+
1 x1i
+ ::: +
k xki
+ ui
De…nição 8 Um modelo de regressão é linear nos parâmetros se as CPOs associadas ao
problema de obtenção dos EMQ (Estimadores de MQO) gerarem um sistema linear nos
parâmetros.
Exemplo 9 Seja o seguinte modelo:
yi =
+ xi + ui
Assim, o problema de minimização será:
X
min
(yi
;
xi )2
i
As CPOs serão:
^ :
2
X
yi
^ xi = 0 =)
^
^ xi xi = 0 =)
i
^ :
2
X
X
^
i
yi
i
yi = n^ + ^
X
P
P i x2i
i xi
i xi
b
b
=
yi xi = ^
X
i
P
P i yi
i yi xi
Logo é um sistema linear e o modelo é linear nos parâmetros.
Exemplo 10 Seja o seguinte modelo:
yi =
+ xi + ui
O problema de minimização é:
min
f ; ; g
A CPO:
:
2
X
(yi
2
xi )
i
X
(yi
xi ) = 0
i
Logo não é linear por causa do .
13
xi
i
i
Pn
X
xi + ^
X
i
x2i
Exemplo 11 Seja o seguinte modelo:
yi = x1i1 x2i2 eui
Tomando o ln, teremos:
ln yi = ln
+
1 ln x1i
+
2 ln x2i
+ ui
Portanto, o modelo é linear.
Hipótese 2 (Amostragem Aleatória) : Podemos extrair uma amostra aleatória:
f(x1i ; :::; xki ; yi ) ; i = 1; ::::; ng
da população.
Observação 12 Nos livros-texto esta hipótese é geralmente substituída por uma hipótese
de que X é não-estocástico (aleatório).
Hipótese 3 (Média Condicional Zero) : E (ujx) = 0
Exercício 13 Mostre que:
(i) E (ujx) = 0 =) E (u) = 0
(ii) E (ujx) = 0 =) Cov (u; x) = 0.
Dicas: Usem a Lei das Expectativas Iteradas (L.E.I): EX (EY (Y jX)) = E (Y ) e a
seguinte propriedade: E (Y XjX) = XE (Y jX).
Se Cov (u; x) = 0, dizemos que os regressores são exógenos e, assim, podemos seaparar
y em parte explicada e erro sem haver relação entre elas.
Se Cov (u; x) 6= 0, dizemos que os regressores são endógenos e teremos um problema
de endogeneidade no modelo que viesa os estimadores MQO (isto será visto em seção
posterior).
Exemplo 14
ln w =
+ educ + u
onde w = salario e educ = anos de estudo. Em u podemos ter diversas variáveis não
observáveis, como por exemplo: habilidades (cognitivas/não-cognitivas) de um indivíduo.
A habilidade de um indivíduo pode estar correlacionada com educação. Assim, o efeito de
um maior nível educacional no salário pode estar viesado pois indivíduos com maior nível
de habilidade é de se esperar que avancem mais nos ciclos escolares e, conseqüentemente,
obtenham um maior nível salarial.
14
Hipótese 4 (Não há Multicolinearidade Perfeita) : As variáveis explicativas 1; x1 ; :::; xk
são linearmente independentes. Logo, xj ; j = 1; :::; k; não podem ser constante.
2
6
6
6
X=6
6
6
4
1 x11 x21 : : : xk1
1 x12 x22 : : : xk2
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
1 x1n x2n
xkn
3
7
7
7
7
7
7
5
n (k+1)
Esta hipótese implica que posto (X) = k + 1, pois n k + 1.
Relembre das propriedades de algebra matricial que:
posto (X) = posto X 0 X = k + 1
Assim, (X 0 X) é uma matriz invertível pois possui posto pleno (ou posto cheio ou
máximo). Assim, 9 (X 0 X) 1 e portanto, podemos obter os parâmetros estimados:
X 0X
1
X 0X ^ = X 0Y
X 0X ^ = X 0X
^ = X 0X
Hipótese 5 (Homocedasticidade) : V ar (ui jx) =
constante.
1
X 0Y
1
X 0Y
2 ; 8i,
ou seja, a variância do erro é
Hipótese 6 (Ausência de (Auto)Correlação (Serial)) : Cov (ui ; uj jx) = 0; 8i; j; i 6=
j.
Hipótese 7 (n > k) : Número de observações maior do que o número de regressores.
Essa hipótese é importante para obtermos os EMQ.
Hipótese 8 (Normalidade) : ui
para inferência.
N 0;
2
15
para todo i. Tal hipótese será necessária
Hipótese 9 (O modelo está corretamente especi…cado) : Não podemos incluir no
erro variáveis que estejam correlacionadas com as demais variáveis explicativas, pois assim
violaríamos a H.3.
Assim, dadas estas hipóteses, podemos enunciar um teorema (que será mais adiante
provado), que mostra a importância do EMQ.
Teorema 15 (de Gauss-Markov) : Dentro da classe dos estimadores lineares e nãoviesados, e dadas as hipóteses do MCRL, os EMQ são os estimadores que possuem a
menor variância (BLUE - Best Linear Unbiased Estimator)
F igura
Agora, veremos, no caso da RLS, que:
(i) EMQ são lineares
(ii) EMQ são não viesados
(iii) Qual a variância dos EMQ?
(iv) Qual a Cov ^ ; ^ ?
(v) Quem é o "EMQ"de
2?
Proposição 16 (i) Os estimadores MQO ^ e ^ são estimadores lineares se puderem ser
escritos como uma combinação linear de y.
Prova. O estimador ^ é escrito como:
^=y
^x
Assim, sua linearidade depende de ^ .
P
P
P
x) (yi y)
x) y
x) yi
i (xi
i (xi
i (xi
^ =
=
P
P
2
2
x)
x)
i (xi
i (xi
P
P
P
P
x) yi y i (xi x) i (xi x)=0 i (xi x) yi
i (xi
^ =
=
P
P
x)2
x)2
i (xi
i (xi
"
#
X
(xi x)
^ =
yi =
P
x)2
i (xi
i
X
^ =
d i yi
i
onde, di =
(x x)
P i
2.
i (xi x)
Logo, ^ é um estimador linear.
16
Em relação ao intercepto:
^x =
^ = y
"
X 1
n
i
X
=
ci yi
=
P
i yi
x
P
(xi
Pi
n
i (xi
#
P
x i (xi x)
yi
P
x)2
i (xi
x) yi
x)2
i
onde, ci =
h
i
P
x i (xi x)
P
2
i (xi x)
1
n
=
1
n
xdi . Logo ^ é um estimador linear.
Proposição 17 (ii) EMQ são não-viesados.
Prova.
X
^ =
d i yi =
i
X
=
di ( + xi + ui )
i
di +
i
X
=
X
i
X
i
di +
di xi +
X
X
di ui
i
di xi +
i
X
di ui
i
Analisando o segundo e terceiro termo do lado direito da expressão:
X
di =
i
X
X
i
di xi =
i
1
(xi x)
P
2 = P
x)
i (xi
i (xi
x)2
X (xi x) xi
=
P
x)2
i (xi
i
X
|
i
(xi
x) = 0
{z
=0
}
P
P
P
(x
x)
(x
x)
=
(x
x)
(x
x)
=
(x
x)
x
Note
que
i
i
i
i
i
i
i
i (xi
i
i
P
P
P
x) xi x i (xiP x) = i (xi x) xi :P
i (xi
Assim, substituindo i (xi x) (xi x) = i (xi x) xi , acima:
P
X
i
Substituindo
P
i di
P
X (xi x) (xi x)
(xi
di xi =
= Pi
P
2
x)
i (xi
i (xi
i
=0e
P
i di xi
x)2
x)2
=1
= 1, de volta na expressão de ^ :
X
^= +
di ui
i
17
x) x =
Analisamos 2 casos aqui:
(1) X não-estocástico (não-aleatório ou …xo).
!
X
E ^
= E
+
di ui =
=
+
X
X
+E
i
di ui
i
E (di ui )
!
i
Como X é não-estocástico e di depende apenas dos regressores logo di é …xo também.
Logo:
X
E ^
=
+
di E (ui )
| {z }
i
E ^
=0
=
(2) X estocástico (aleatório). Neste caso devemos tomar a esperança condicional:
!
X
X
E ^ jx
=
+E
di ui jx = +
E (di ui jx)
=
+
X
i
E ^ jx
=
i
i
di E (ui jx)
| {z }
=0
Exercício 18 Prove que
P ^ é não-viesado. Dica: mostre primeiramente que ^ pode ser
escrito como: ^ = + i ci ui .
A partir de (i) e (ii) note a partir do seguinte modelo (FRA):
y = ^ + ^x + u
Tomando a esperança condicional:
E (yjx) =
+ x
Ou seja, o que estamos tentando modelar é o comportamento médio dos agentes (indivíduos, …rmas, governo, países etc).
(iii) Qual a variância dos EMQ?
18
^
0
=
0
X
+
ci ui
i
^
1
=
1
X
+
di ui
i
Assim:
V ar ^ 1 = E
^
2
E ^1
1
2
= E
^
= E
X
1
1
di ui
2
= E d21 u21 + d22 u22 + ::: + d2n u2n + 2d1 d2 u1 u2 + ::: + 2dn
=
d21 E
u21
| {z }
+
d22 E
u22
| {z }
2
+ ::: +
2
V ar ^ 1 =
2
X
u2n
| {z }
1 dn un 1 un
+
2
+2d1 d2 E (u1 u2 ) + ::: + 2dn
| {z }
0
d2n E
1 dn E
|
d2i
(un 1 un )
{z
}
0
i
Mas:
X
i
d2i
=
X
i
xi x
P
x)2
i (xi
!2
1
= hP
2
i (xi
x)
Substituindo na expressão acima, teremos:
V ar ^ 1 = P
i (xi
19
i2
X
i
2
x)2
(xi
1
i (xi
x)2 = P
x)2
2
V ar ^ 0 = E ^ 0
2
X
ci ui
= E4 0+
0
0
i
!2 3
5
= E c21 u21 + ::: + c2n u2n + 2c1 c2 u1 u2 + ::: + 2cn cn
= E
2
=
c21 u21
(un un
0
X
(xi x)2
(xi x)
B
2 61
2
+
x
P
4
@
P
n
n
(xi x)2
(xi x)2
3
2
P
P
2
2x
(xi x)
(xi x) 7
2 61
2
P
4
25
2 +x
P
n
n
(xi x)
(xi x)2
#
"P
1
(xi x)2 + nx2
2 1
2
2
+x P
=
P
n
n (xi x)2
(xi x)2
P 2
P
P
xi 2x xi + x2 + nx2
2
P
n (xi x)2
P 2
xi 2xnx + nx2 + nx2
2
P
n (xi x)2
P 2
2
xi
^
V ar 0 = P
:
n (xi x)2
13
i
c2i =
0
XB 1
@ 2
n
=
2
=
2
X 1
26
4
n2
i
=
=
=
=
=
1 un un 1
1E
X
+ ::: + E
c2n u2n
2
2
X
i
1
n
2x (xi
P
n (xi
+ 2c1 c2 E (u1 u2 ) + ::: + 2cn cn
!2
x (xi x)
P
x)2
i (xi
1
x2 (xi
x)
+
P
x)2
(xi
X 2x (xi
P
n (xi
i
x)2 C
2A
x)2
X x2 (xi
x)
+
P
x)2
i
(xi
2x X
(iv) Quem é Cov ^ 0 ; ^ 1 ?
20
2
x)
x)2
3
7
25
C7
2 A5
1)
Cov ^ 0 ; ^ 1
^ x; ^
1
1
= Cov y
^ x; ^
1
1
= Cov y; ^ 1 + Cov
{z
}
|
0
xCov ^ 1 ; ^ 1 =
=
Cov ^ 0 ; ^ 1
=
P
xV ar ^ 1
2
x
(xi
x)2
Observação 19 A variância para um vetor de variáveis é calculado como:
V ar (x) = E (x
E (x))0
E (x)) (x
onde x é um vetor coluna de tamanho n. Esta expressão é chamada também de matriz
de variância-covariância.
^
0
^
Assim, seja ^ =
o vetor de parâmetros. Então, no nosso caso teríamos:
1
V ar ^ = E
20
^
= E 4@ ^ 0
^
0
@
= E 4@
2
^
^
1
E ^1
^
E ^0
E
= 4
Cov ^ 0 ; ^ 1
2
2
= 4
AA
0
E
h
11
E ^0
6
= 6
4
^
0
P 2
2
xi
P
n (xi x)2
2
P x
(xi x)2
A
0
^
P x
(xi x)2
P
^
2
i (xi
x)
2
1
0
E ^
^
0
E ^0
0
^
^
2
E ^1
3
Cov ^ 0 ; ^ 1
5
V ar ^ 1
3
2
E ^0
V ar ^ 0
^
E ^0
E ^1
1
1
20
E ^
5
21
h
^
5
E ^0
0
E
E ^1
3
E ^1
1
E
i
E ^0
1
^
1
^
5
E ^1
1
E ^1
3
2
i 3
7
7
5
(v) Estimador "MQO"de
2
(variância do erro):
yi = y^i + u
^i
yi
y = y^i
y+u
^i
Retomando a FRP (Função de Regressão Populacional) temos:
y i = + xi + u i
y = + x+u
yi
y=
(xi
x) + ui
u
Retomando a FRA (Função de Regressão Amostral) temos:
y^i = ^ + ^ xi
y = ^ + ^x
y^i
y = ^ (xi
x)
Logo:
u
^i = (yi
X
y)
u
^i =
(xi
u
^i =
^
u
^2i =
^
|
(^
yi
x) + ui
y)
u
^ (xi
x)
(xi x) + ui u
X
2X
(xi x)2 +
(ui u)2
{z
}
{z
} |
B
A
Tomando a esperança, para obtermos E
P
22
u
^2i .
2 ^
|
X
(xi
{z
C
x) (ui
u)
}
Assim, analisando termo a termo:
3
2
!2 P
P
2
(x
x)
u
(x
x)
i
i
i
5
E (A) = E 4 Pi
(^
2
(x
x)
i
i
2
3
P
P
(xi x) ui )2 (xi x)2 7
6(
= E 4 Pi
5
2
2
(x
x)
i
i
hP
i
2
E
(
(x
x)
u
)
i
i
i
1
= P
2
x)
i (xi
h
i
2
E
((x
x)
u
+
:::
+
(x
x)
u
)
1
1
n
n
1
= P
x)2
i (xi
3
2
(x1 x)2 u21 + ::: + (xn x)2 u2n +
1
5
4
= P
2 (x1 x) u1 (x2 x) u2 + :::
2E
(x
x)
i
i
+2 (xn 1 x) un 1 (xn x) un
i
h
1
2 2
2 2
= P
(x
x)
+
:::
+
(x
x)
1
n
x)2
i (xi
"
#
X
1
2 2
= P
(xi x)
=) E (A) = 2
2
x)
i (xi
i
23
=
P
i di ui )
Em relação a B:
E (B) = E
=
=
=
=
=
=
=
(ui
1)
2
u)2
X
u2i + u2 2ui u
X
X
X
E
u2i +
u2 2u
ui
X
E
u2i + nu2 2unu
X
E
u2i nu2
!
P
2
X
u
i
E
u2i
E n
n
X
2
1 X
ui
E u2i
E
n
h
i
1
n 2
E (u1 + ::: + un )2
n
1
n 2
E u21 + ::: + E u2n
n
2
n 2
= E
=
X
E (B) = (n
Em relação a C:
h
i
X
E (C) = E ^
(xi x) (ui u)
" P
!
#
x) ui X
i (xi
= E
(xi x) (ui u)
P
x)2
i (xi
2
(x1 x)2 u21 + ::: + (xn x)2 u2n + 2 (x1 x) (x2
6
+2 (xn 1 x) (xn x) un 1 un
6
= E6
P
4
x)2
i (xi
=
=
1
i (xi
P
1
P
i (xi
E (C) =
x)2
2
x)2
2
x)2
(x1
X
i
(xi
2
+ ::: + (xn
x)2
!
24
x)2
2
x) u1 u2 + :::
3
7
7
7
5
P
Substituindo as expressões em E
E
E
X
X
u
^2i
u
^2i , teremos:
= E (A) + E (B)
2
+ (n
= (n
2)
=
u
^2i
1)
2E (C)
2
2
2
2
Então um estimador não viesado para a variância do erro (
P 2
u
^i
SQR
2
^ =
=
n 2
n 2
2)
será:
pois vimos que:
E ^2 = E
P
u
^2i
n 2
=
1
n
2
E
X
u
^2i =
1
n
2
(n
2)
2
=
2
Veremos em regressão múltipla que, de forma geral:
P 2
u
^i
SQR
2
^ =
=
n k 1
n k 1
onde k é o número de regressores. Como estamos tratando de regressão linear simples,
então k = 1.
Teorema 20 (Gauss-Markov) Dadas as hipóteses do MCRL, dentro da classe dos estimadores lineares e não-viesados, os EMQ são os que apresentam a menor variância.
P
P
Prova. Seja ^ 1 = i di yi . Tomemos um outro estimador ~ 1 = i wi yi , o qual é linear e
não viesado. Para este ser não viesado, devemos observar que:
X
~ =
wi yi
1
i
=
X
i
=
0
wi (
X
0
+
wi +
1 xi
1
i
+ ui )
X
wi xi +
i
X
wi ui
i
Para que este outro estimador seja não viesado devemos ter que:
E ~1 =
25
1
E para ocorrer isso, devem valer as seguintes condições:
X
wi = 0
X
i
wi xi = 1
i
Para que o estimador possa ser escrito como:
X
~ =
+
wi ui
1
1
i
Como estamos supondo que X é não-estocástico, então:
!
X
X
X
E
E (wi ui ) =
wi E (ui ) = 0
wi ui =
i
i
i
visto que wi é função de xi , o qual é não-estocástico.
Analisando a variância de ~ 1 :
V ar ~ 1
= E
~
E ~1
= E
~
= E
X
1
2
2
1
1
2
wi ui
h
i
= E (w1 u1 + ::: + wn un )2
V ar ~ 1
= E w12 u21 + ::: + E wn2 u2n
X
2
wi2
=
Agora, vejamos qual o wi que gera a menor variância. Para isso:
X
min
wi2
wi
i
s:t:
X
wi = 0
([
1 ])
wi xi = 1
([
2 ])
i
X
i
L=
X
i
wi2
1
X
wi
i
2
X
i
26
wi xi
1
!
As CPOs serão:
@L
= 2wi
@wi
X
wi = 0
X
2 xi
1
= 0 =) 2wi =
1
+
2 xi
(3)
(4)
i
wi xi = 1
(5)
i
Passando o somatório na equação (3), temos:
X
X
2
wi =
1+
i
X
2
i
wi = n
+
1
2
i
X
X
xi
i
xi
i
Substituindo (4) acima, teremos:
0 = n
=
1
+
1
2
X
P
i xi
2
xi
i
n
=
2x
(6)
Substituindo wi de (3) em (5), teremos:
X
X(
wi xi =
| i {z }
i
1
1
2
1 =
2 =
1
|
+ 2 xi )
xi
2
{z
}
wi
1
X
xi +
i
1
X
xi +
2
i
Substituindo (6) em (7), teremos:
X
xi +
2x
2
i
2
x
X
xi +
i
2
2
X
X
xnx +
X
x2i
27
X
x2i
x2i
!
!
(7)
(8)
x2i = 2
x2i
X
2
X
!
= 2
x2i
= 2
nx2
= 2
(9)
Agora, relembre que:
X
X
(xi x)2 =
x2i
i
i
=
X
2xi x + x2 =
X
X
x2i
i
x2i
2
2xnx + nx
x2i
nx2
2x
X
i
xi +
X
x2
i
i
(xi
x)2 =
i
X
i
Então podemos substituir esta expressão em (9):
X
(xi x)2 = 2
2
i
2
Substituindo (10) em (6), temos:
1
2
i (xi
=P
=P
(10)
x)2
2x
i (xi
(11)
x)2
Substituindo (10) e (11) em (3), temos:
1
( 1 + 2 xi )
2
!
1
2x
2xi
+P
P
2
x)2
x)2
i (xi
i (xi
!
x
xi
+P
P
x)2
x)2
i (xi
i (xi
x x
= di
P
x)2
i (xi
wi =
wi =
wi =
wi =
P
Então, o próprio di gera a menor variância. Logo, ^ 1 = i di yi (EMQ) é o estimador
que possui menor variância, dentro da classe de estimadores lineares não-vieados.
4
Regressão Linear Múltipla (RLM)
Seja o seguinte modelo de regressão múltipla:
yi =
0
+
1 x1i
+
2 x2i
28
+ ::: +
k xki
+ ui ;
Download