Uploaded by Luis Felipe Oliveira

Paul L. Meyer (1)

advertisement
XIV ' I PREFÁCIO DA PRIMEiRA EDIÇÃO
jeto; pani com a .Sr!! Carol Sloan, por ser uma datilógrafa eficiente e
atenta; para com D. Van Nostrand, Inc., The Free Press, Inc: e Mac~
millan Publishing .Cqmpany, por sua permissã'o para reproduzir as.
Tábuas 3, 6 e 1, respectivamente; para com McGraw~Hill Book Co.,
Inc., Oxford University Press Inc., Pergamon Press, Ltda. e P&ntice"
Hall, Inc., por suas permissões para citar · determinados exemplos ·no
texto, e, finalmente para com minha esposa, não somente por me amparar no esforço, como também por "deixar-me" e levar nossos :doi.s
filhos com ela a visitarem os avós, por dois .cruciais meses de verão, durante os quais fui capaz de transformar.nossa casa em uma desordenada,
porém tranqhila oficina, da qual surgiu, miraculosamente, a última
versão final deste livro.
P.L.M.
Pullman, Washirigton
Abril, 1965
, .·.
SUMÁRIO
Introdução à 1Probabilic1~de
Caprtuio 11 .
Modelos Matemáticos
Introdução aos Conjuntos
Exemplos de Experimentos Não-Determinísticos·
O ~spaço Amostral
Eventos
Freqüência Relativa
Noções Fundamentais de Probabilidade
Duas Observações
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
Cápftulo~
\
3.1
3.2
3.3
Capftuio~
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
Caprtuil>~
5.1
5.2
5.3
5.4
4
8
11
13
15
17
21
.; Espaços Amostrais Finitos
...
2.1 . Espaço Amostral Finito
2.2 Resultados Igualmente Verqssímeis
2.3 Métodos de Enumeração
-Ca~rtulo\\~
1
26
27
29
Probabilidade Condfcionada e Independência
Probabilidade .Condicionada
Teorema de Bayes
Eventos Independentes
42
49
52
Variãveis Aleatórias Unidimensionais
Noção Geral de Variável Aleatória
Variáveis Aleatórias Discretas
A Distribuição Binomial
Variáveis Aleatórias Contínuas
Função de Distribuição Acumulada
Distribuições Mistas
Variáveis Aleatórias Uniformemente Distribuídas
Uma Observação
66
72
75
80
85
89
89
91
funções de Variáveis Ale~tórias
Um Exemplo
Everitos Equivalentes
·Variáveis .Aleatórias Discretas
Variáveis Aieatórias Contínuas
97
97 .,
100 i
101 !
. I
;
·1
-t~;;~~-~;:·:-':'·
r
-:"·.. '
_
XVI I SUMÁRIO
~
Caprtulo 6.
~
6.1
~:~
r
lj
604
6.5
i'
r~
i'
6 .6
I
If
l'
r
Capítulo 1.
tI
701
702
703
. 704
705
7.6
707
708
709
7010
7011
Capftulo 8.
801
802
8.3
8.4
805
8o6
807
808
Capftulo 9.
'.
901
902
903
9.4
905
906
907
9.8
Variáveis Aleatórias de Duas 0111 Mais
Dimensões
Variáv~is Aleatórias Bidimensionais
Distribuições de Probabilidade Marginal e Condicionáda
Variáveis Aleatórias Independentes
· · ' ·.
Funções de Variável Aleatória
Distribuição do Produto e do Quociente de Variáveis
·
Aleatórias Independentes
Variáveis Aleatórias n-Dimensionais
l.
o
110
116
121
124
128
131 '
Caracterização Adlicio1111al das . ·
Variáveis Aleatórias
O Valor Esperado de Uma Variável AleatóriiJ.
Expectância de uma Função de uma Variável Aleatória
Variáveis Aleatórias Bidimensionais
Prupriedades do Valor Esperado
A Variância de uma Variável Aleat6ria
Propriedades da Variância de uma Variável Aleatória
Expressões Aproximadas da Expectância e da Variância
A Desigualdade 'de Tchebycheff
O Coeficiente de Correlação
Valor Esperado Condicionado
Regressão da Média
137
144
149
150
ú6
159
162
165
167
172
175
Variáveis Aleatórias Discretas: A de Poisson
e Outras
A Distribuição de .Poisson
A Distribuição de Poisson como Aproximação da
Distribuição Binomial
O Processo de Poisson·.
A Distribuição Geométrica
A Distribuição de Pascal
Relação entre as Distribuições Binomial e de Pascal
A Distribuição Hipergeométrica
A Distribuição Multinomial
187
194
. 200 .
203
205
206
208
Algumas Variáveis Aleatórias Continuas
!mpoll'ital!'ites
Introdução
A Distribuição Normal ~
Propriedades da Distribuição Normal
Tabulação da Distribuição Nonrtal
A Distribuição Exponencial
Propriedades da Distribuição Exponencial
A Distribuição Gama
Propriedades da Distribuição Gama
o
214
214
215
219
223
223
227
228
I
I
SUfViÃRIO I XVII
9.9
A Distribuição de" Qu~-quadrado
9.10 Comparações entre Diversas Distribuições
1
9.11 A Distribuição Normp Bidimensional
9.12 Distribuições Truncadas
I
230
233
234
236
I
Caprtulo 10.
A f11..mção Geratrõzi de Momentos
!
10 .1
10.2
10.3
10.4
~0.5
10.6
10.7
'
Introdução
1
A Função Geratriz de Momentos
Exemplos de Funções Geratrizes de Momentos
Propriedades da FunÇão Geratriz de Momentos
Propriedades Reprod~tivas
Seqüências de Variáveis Aleatórias
Observação ·Final
'
e
~
i
''
,-
247
250
255
259
260
! ~
·.
Cap ótu !o 11.
Aplicações à Teori~ da Confiabi!idade
Conceitos Fundamenfis
.
11.2 A Lei de Falhas Normal
11.3 A Lei de Falhas Expdnencial
11.4 A Lei de Falhas Exponencial e a Distribuição
de Poisson
J
11.5 A Lei de Falhas de Weibull
11.6 Confiabilidade de Sistemas
11.1
Capftulo 12.
~
lv(l/12 .1
f:Y J? ' 12_2
., - () 12.3
"ÇJ 'y• 12.4
ÔJ~·
12.5
\f d
C
c\
l\ fv '\
,'JJ
Capftulo
12.6
~
f.
~
263
267
268
'
I·, _
L
,.,.
271
273
274
I.
I
,Somas de Variáveis Aleatórias
I
~u,-J~~ - G<--0.. . ,,
InJ.odução
.
I
A Lei dos Grandes N~meros ·
Aproximação Normal da Distribuição Binomial
O Teorema do Limit~ Central
Outras Distribuições Aproximadas pela Distribuição
Normal: a de Poisson ~ a de Pascal e a Gama
A Distribuição da So~a de um Número
Finito de Variáveis Aleatórias
A'mostras e
Dist~rib~ições Amostrais
13.1 Introdução
13 .2 Amostras Aleatórias
13.3 Estatísticas
13.4 Algumas Estatísticas 'mportantes
13.5 A Transformação Integral
Cap_í~-~~~
··.
I
I
284
286
288
292
I
·I
~
H
297
1:
299
~
li
~
li
li
308
310
312
313
321
!I
j!
i'
,.j!
lI•i
~·
!:
li
· !Estimação de Parâmetros
I
1"l1
14.1 Introdução
14.2 Critérios para Estima~ivas
14.3 Alguns Exemplos
14.4 Estimativas de Máxima Verossimilhança
14.5 O Método dos Mínimbs Quadrados
I
329
330
334
339
349
i
i
I
.1!
l.
. .J
XVIII I SUMÁRIO
14.6 O Coeficiente de Correlação
14 .7 Intervalos de Confiança
1,4.8 A Distribuição de t de Student
14.9 Mais Sobre Intervalos de Confiança
Capftulo 1!5.
354
355
357
360
Testes de IHiõpóteses
15 .1. Introdução
15.2 Formulação Geral: Distribuição Non~al com V~riância
Conhecida
15.3 Exemplos Adicionais
15.4 Testes de Aderência
370
376
381
385
APÊNDICE
397
RESPOSTAS A PROBLEMAS SELECIONA!)OS
412
INDICAÇÕES BIBLIOGRÁFICAS
420
fNDICE ALFABÉTICO
422
.i
1
·i
Introdução
Probabilidade
Capítulo 1
1 J"
Modeios Matemáticos
Neste capítulo examinaremos o tipo de fenômeno que estudaremos por todo este livro. Além disso, formularemos um modelo
matemático que nos ajudará a investigar, de maneira bastante precisa, esse fenômeno.
De início, é muito importante distinguir o próprio fenômeno
e o modelo matemático para esse fenômeno. Naturalmente, não
exercemos influência sobre aquilo que observamos. No entanto,
ao escolher um modelo, podemos lançar mão de nosso julgamento
crítico. Isto foi espec\almente bem expresso pelo Prof. J. Neyman,
que escreveu:*
"Todas as vezes que empregarmos Matemática a fim de estudar alguns
fenômenos de observação, deveremos essencialmente começar por construir
um modelo matemático (determinístico ou probabilístico) para esses fenômenos. Inevitavelmente, o modelo deve simplificar as coisas e certos pormenores devem ser desprezados. O bom resultado do modelo depende de
que os pormenores desprezados sejam ou não realmente sem import&ncia na
elucidação do fenômeno estudado. A resolução do problema matemático pode
estar correta e, não obstante, estar em grande discotdância com os dados observados, simplesmente porque as hipóteses básicas feitas não sejam confirmadas. Geralmente é bastante difícil afirmar com certeza se um modelo matemático especüicado é ou não adequado, antes que alguns dados de observação
sejam obtidos. A fim de verüicar a validade de um modelo, deveremos deduzir um certo número de conseqüências de nosso .modelo e, a seguir, comparar
esses resultados previ:Jtos com observações."
Deveremos nos lembrar das idéias aCima enquanto estivermos
estudando alguns fenômenos de observação e modelos apropriados
" University oj Calijornia Publications in Statistics, Vol. I, Uriiversity of
California Press, 1954.
::!
I PROBABILIDADE
pax:a sua explicação. Vamos examinar, inicialmente, o que se pode
adequadamente denominar modelo detenninistico. Por essa expressão pretendemos nos referir a um modelo que estipule que as condições sob as quais um experimento seja executado determinem o
resultado do experimento. Por exemplo, se introduzirmos uma
bateria em um circuito simples, o modelo matemático que, presumivelmente, descreveria o fluxo de corrente elétrica observável seria
I = E/R, isto é, a J~i de Ohm. O modelo prognostica o valor de I
tão logo os valore:; de E e R sejam fornecidos. Dizendo de outra
mail-eira, se o experimento mencionado for repetido um certo número
de vezes, toda vez utilizando-se o mesmo circuito (isto ~" conservando-se fixados E e R), poderemos presumivelmente esperar observar
o mesmo valor para I. Quaisquer desvios que pudessem ocorrer
seriam tão pequenos que, para a maioria _das finalidades, a descrição
acima (isto é, o modelo) seria suficiente. O importante é que a bateria, fio, e amperômetro particulares utilizados para gerai: e observar a corrente elétrica, e a nossa capacidade de empregar o instrumento de medição, determinam o resultado em cada repetição. (Existem detenninados fatores que bem poderão ser diferentes de repetição para repetição, que, no entanto, não influenciarão de modo digno de nota o resultado. Por exemplo, a temperatura e a umidade
no laboratório, ou a estatura da pessoa que lê o. amperômetro, pode-se razoàvelmente admitir, não terão influência no resultado.)
Na natureza, existem muitos exemplos de "experimentos", para
os quais modelos determinísticos são apropriados. Por exemplo,
as leis da gravitação explicam bastante precisamente o que ~contece
a um corpo que cai sob determinadas condições. As leis de Kepler
nos dão o comportamento dos planetas. Em cada situação, o. modelo específica que as condições, sob as quais determinado fenômeno
acontece, determinam o valor de algumas variáveiS observáveis:
a grandeza da velocidade, a área varrida durante determinado periodo de tempo etc. Esses números aparecem em muitas' das fõr:mulas com as quais estamos familiarizados. Por exemplo, sabemos que, sob determinadas condições, a distância percorrida
(verticalmente, acima do solo) por um objeto é dada por s = -16t 2
v0 t, onde vo é a velocidade inicial e t o tempo gasto na queda. O
ponto, no qual desejamos fixar nossa atenção, não é a forma particular da equação acima (que é quadrática), mas antes o fato de que
existe uma .relação definida entre t e s, a qual determina univocamente a quantidade no primeiro membro da equação, se aquelas
no segundo membro forem fornecidas.
+
+
i
IN f RODUÇÃO À PROBABILIDADE I 3
~
- Para um grande número de Isituações,
modelo matemático
determinístico apresentado acima ! é suficiente. Contudo, existem
também muitos fenômenos que ~equerem um modelo matemático
diferente para sua investigação. São os que denominaremos modelos
não-deterministicos ou probabüístico~. (Outra expressão muito coroumente empregada é modelo estocástico.) Mais adiante neste capitulo,
estudaremos muito minuciosamente~ como tais modelos probabilísticos
podem se~ apresentados. Por oraJ examinaremos alguns exemplos.
SuponhaJilOS que se tenha uml fragmento de material radioativo
que emita partículas alfa. Com o Iauxílio de um dispositivo de contagem, poderemos . registrar o número dessas partfculas emitidas
durante um intervalo de tempo especificado. É evidente que não
poderemos. a,ntecipar precisamente nÚiílero de partículas emitidas,
runda ' que se conheçam de modo
exato
a forma,! a dimensão, a compo.
I
sição química e a massa do objeto em estudo. Por isso, parece não
existir modelo determinístico razoáf el que forneça o número de partículas emitidas, por . exemplo n, como uma função de várias características pertinentes ao material ~onte. Deveremos considerar, · em
seu lugar, um modelo probabilístico.
lo
i
i
i
I
!
!
1
Como outro exemplo, considere-se a seguinte situação meteorológica. Deseja-se deterniinar qual · a precipitação de chuva que
cairá ·coino resultado de uma tempestade particular, que ocorra · em
determinada localidade. Dispõe-s~ de instrumentos para registrar
a precipitação. Observações metrorológicas podem nos fornecer
considerável informação relativa à t~mpestade que se avizinhe: pressão
barométrica em vários pontos, variações de pressão, velocidade do
vento, origem e dir,eção da tormerlta, e várias leituras referentes a
altitudes elevadas.. Contudo, quão !valiosas essas informações possam
ser para o prognóstico da naturez~ geral da precipitação (digamos,
fraca, média ou forte), simplesme:b.te não tomam possível dizer-se
quanta chuva irá cair. Novament~ estaremos nos ocupando de um ,.
I
·fenômeno que não se presta a um .tratamento determinístico. Um
modelo prob~billstico explica a sitdação mais rigorosamente.
·
Em princípio, poderemos ser ! capazes de dizer quanta chuva
caiu se uma teoria tiver sido desen~olvida (o que não foi). Por isso,
empregaremos um modelo probabilÍstico. No exemplo que trata de
I
desintegração radioativa, deveremos empregar um modelo probabilístico invariavelmente em princípiol
'
Arriscando-n.os a adiantarmos! demais na ap~esentação de um
conceito que será definido. poster~ormelite, vamos apenas afirmar
.que, em um modelo determinístico, admite-se que o resultado efeti:Vo ·
1
i
.
4 I PROBABIUDADE
(numérico ou de outra espécie) seja determinado , pl:)l~ çq~dições
sob as quais o experimento ou o procedimento seja executlj,~O, ..Em
um modelo não-determinístico, no entanto, as . co~diçqes c!a "e:xpl:lrirnentação determinam somente o comportamento prob~hÚí~tico
(mais especificamente, a lei probabilística) do resuÍtad() : ()b~l:lFYáyeJ.
Em outras palavras, em um modelo determinístico 'émpiegâmos
"considerações físicas" para prever o resultado, enquantb em ·u m
modelo probabilístico ernpregfllllOS a mesma espécie de considerações
para especificar uma distribuição de probabilidade.
1.2.
~
ntrodução aos Conjuntos
A fim de expor os conceitos básicos do modelo probabilístico
que desejamos desenvolver, será conveniente conhecer algurn~s idéiM
e conceitos da teoria matemática dos conjuntos. Este é um assunto
dos mais extensos e muito se tem escrito sobre ele. Contudo, necessitaremos apenas de algumas noções fundamentais.
Um conjunto é urna coleção de objetos. Usualmente, conjuntos
são representados por letras maiúsculas A, B etc. Existem três
maneiras de descrever que objetos est~o contidos no ~·anjunto A:
(a) Poderemos fazer uma lista dos elementos de A. Por exemplo, A = {1, 2, 3,
descreve o conjunto formado pelos inteiros
positivos 1, 2, 3, 4.
11
(b) Poderemos descrever o conjunto A por meio de palavras.
Por exemplo, poderemos dizer que A é formado de todos os números
reais entre O e 1, inclusive.
(c) Para descrever o conjunto acima poderemos simplesmente
escrever A = {x J O :<:::; x :<:::; 1 }; isto é, A é ó conjunto de todos os x,
onde x é um número real entre O e 1, inclusive.
Os objetos que individualmente formam a cole~ão ou conjunto
A são denominados membros ou elementos de A. Quando "à" for
um elemento de A, escreveremos a E A, e quando "a" não for um
elemento de A, escreveremos a Et A.
Existem dois conjuntos especiais que, freqüentemente, nos interessarão. Em muitos problemas nos dedicaremos a estudar um
conjunto definido de objetos, e não outros. Por exemplo, poderemos
interessar por todos os números. reais;· por todas as peças que
uma linha de produção durante um período de 24 horas etc.
o conjunto fundamental como o conjunto de todos os
·. '
INTRODUÇÃO À PROBABILIDAD!= I 5
objetos que estejam sendo estudados. Este conjunto é, geralmente
representado pela letra U.
O QUtro conjunto que deve ser destacado pode surgir da seguinte
nrui.neira: Suponha-se que o conjtm~ A seja descrito como o conjunto de todos os números reais x, que satisfaçam ~ equação
x2 + 1 ==O. Naturalmente, sabemos que não existem tais números;
isto é, o conjunt~ A não contém qualquer elemento. Esta situação
ocorre tão freqüentemente que se justifica a introdução de um nome
especial para esse conjunto. Por isso, definiremos o conjunto vazio
ou. nulo como o conjunto que não contenha qualquer ele~ento. · Geralmente se representa. esse conjunto por 0.
~
Pode acontecer que, quando dois conjuntos A e B sejam consi·derados, ser elemento de A implique ser elemento de B. Nesse caso,
diremos que A é um subconjunto .de B,.e escreveremos A C B. Interpretação semelhante será dada para B C A. Diremos que · dois
conjuntos constituem o mesmo conjunto, A = B, se, ·e somente se,A C B e B C A. Desse modo, dois conjuntos serão iguais se, e somente se, eles contiverem os mesmos elementos.
As duas seguintes propriedades do conjunto vazio e do conjunto
funda.mental são imediatas:
(a) Para todo conjunto A, temos que 0 C A.
(b) Desde que se tenha definido o conjunto fundamental, então,
para todo conjunto A, considerado na composição de U, teremos
AC U.
Exemplo 1.1. Suponha-se que U = todos os números reais,
= I x Ix 2 + 2x ~ 3 = O}, B = I x I (x ~ 2) (x 2 + 2x ~ 3) = O}
e c = rX IX = ~ 3, 1, 2}. Então, A c B e B = c.
A
A seguir, estudaremos a importante idéia de combinar conjun-·
tos dados, a fim de formarmos. um novo conjunto. Há duas opera-_
ç.ões fundai):lentais, e essas operações se assemelham, em · certos aspectos, à.s operações de adição e multiplicação de números. Sejam
dois conjuntos A e B ..
Definiremos C como a união de A e B (algumas vezes denominada a soma de A e B), da seguinte maneira:
C = lx Jx E ,A ou x E B (ou ambos) ).
Escreveremos· a união de A e B, assim: C= A U B. Desse modo,
C será formado de todos os elementos que estejam em A, ou em B,
ou em ambos.
I;
I''
i'
p;,
6 I PÀOBABILIDADE
Definiremos D .como a interseção ·d~ A e B (al~iiigs y~~es •.P,~no·
minada o produto de A e B), da seguinte maneira: .:
. , - ·. . . , ·.
.
..
D = {xjx E A ex E B}. ·.
·. .
.. ..
··
~· ·: ·. J:;:.~~-: . L,j·,.~:~~·, ..:..'....
Escreveremos a jnterseção de A e 13, assi:q1: J) =c 4 0 i-:8.: :Rqi:t~ri~ó,
D será formado de todos .os elementos queestão ,~~Ae e,m B. ;; .. ·
· Fiilaimente, ín troduziremos ·a noção •·de complem;entc?:·d~ q~ :con...:
junto 4., na forma seguinte: . O conhmto· denotado,J>or; i}:) ;cpnstf...
.tuido por todos os elementos que nào esteJam e!llA (mas que ~átej~m
no conjunto fundamental U) é denominado ,éoinpletÍlen~o de A;·..Is't o ·
é, A= {xjx EE A}.
.
. ·..
Um recurso gráfico, conhecido como Diaura~a d(i fenn, - pód~rá
ser vantajosamente empregado quando estivermos combW:and,<;> qonjun,tos, na maneira indicada acima. Em cada diagrama na}?ig..J),
a região sombreadarenresenta o conjunto sob exame . .·
CD
AnB
IFig. 1.1
:/~~~~'
Exemplo 1.2.. Suponha-se que U = {1, 2, 3, 4, 5; 6, 7, 8/9, io},
A = { 1, .2, 3, 4}, B = { 3, 4, 5, 6} . Então, encontraremos · que
A= {5,.6,7,8,9,10}, AUB= {1,2,3,4,5,6} e A ()B= {3;4}~
Observe-se que, ao descrever um .conjunto (tal como A U B), cada
. elemento é relacionado apenas uma vez.
As operações de união e interseção, definidas acima para doiS
conjuntos, podem ser estendidas, intuitivamente, para qualquer
número finito de conjuntos. Assim, defhüremos .A U "B U C como
A U (B U C) 0'\1 (A U B) U C, o que é equivalente, como se poderá
verificar facilmente .. De modo ànálogo, definiremos A () B n C
como .sendo A (l (B () C) ou (A () B) () C, o que também se pode
ver'fficar serem · equi~alent~s. É evidente que poderemo~ continuar
essas composiçõe!; · de ·conjuntos para qualquer número finito de conjuntos dados.
.J:.!''
i
i
- .
INTRODUÇAO A PROBABILIDADE I
I
~
.
7
.
.
Afirmamos que alguns conjqntos são equivalente!'!, por exemplo,
A
(B ()C) e (A () B) ()
Conclui-se que existe Ul)l certo
número de tai& conjuntos equivalentes, alguns ·dos quais estão relacionados abaixo. Se nos lembrÚmos de que dois conjuntos são o
mesmo conjunto sempre que ele:s contenham os mesmos elementos,
será fácil mostrar que as afirmaÇões feitas são verdadeiras. O leitor
poderá se convencer disso, com a :a juda dos Diagramas ide Vemi'.
c.i
n
1
I (b} A() B = B () IA,
(1.1)
(c) A U (B U C)=(A U B) U C) (d) A() (B ()C)= (A() B) ()C.
(a) A U B
= B U A,
•
I
!
.
~~~~üp{;)-s.,~li)t·e:c(li}wii~~f~fiU$Uff®1;;:~~-r~Y!v:~~r@.:i:f.í~~~~Ç;t~tf&~?·:,;; ,
e
a
s
Há- outras identidades de coAjuntos encerrando união, interseção
complementação. As mais irhportantes
delas estão enumeradas
I
ooguir. A validade de cada uma delas poderá ser verificada com
. da de um .D'1agrama de V enn.
.I
aJU
1
'
()~C)=
lJ) h-(A U C), V
(ªJnB) k«~. C),
(e) A U (B
(A U
U) A() (B.U C)=
(g) .A () 0 = 0,
(1.2)
4.U 0 ~A;
('J ) (A() B) =A ÜB,
(h)
I
(i) (A
(k)
Ã~ 0 :: (A u-131
u B) = A () B,
A=
A.
Observe-se que (g) e (h) mo·stram
I
,
Uma o~tra"màneira de form~ conjuntos, quando forem dados dois
(ou mais) conjuntos, será necessá~a a seguir.
i
I
.
.
Definição. Sejam dois conjuntos A e B. Denominaremos produto
cartesiano de A e B, denotando-o por A X B, o conjunto {(a, b ), a E A,
b E B l, isto é, o conjunto de .tod:os os pares ordenados n..os quais o primeifo elemento é tirado de A e o ~gundo, de B.
\
Exemplo 1.3. Suponha-se queA = {1, 2, 3};B = {1, 2, 3, 4}.
Então, A X B = {(1, 1), (1, 2), .. l , (1, 4), (2, 1) . .'., (2, 4), (3, 1), ... ,
I
(3, 4)}.
Observação. Em geral, A
i
X si=F B
X A.
8 I PROBABILIDADE
A noção acima pode ser estendida da seguinte :maneira: Se.A 1 , ••• ,
A n forem conjuntos, então, A 1 X A 2 X ... X An = {(a! ; a2 , ·;· •• an ),
ai E A i], ou seja, o conjunto de todas as ênuplas ordenadas ~ ·: ·
Um caso especial importante surge quando cons.ideram<;)S!O produto
cartesiano--~~ um conjunto por ele próprio, isto é,AiXA,:o114 •X).l )Ç-A.
···~?f.~my1~§:cit1~~E;~~~~~JJL.,q;g.~,g~~twõs!é}~t~~!~ll~~~~~J}~.$";".,~,
onde R é d~coríjunto de todos os números reais, e do espaço eudideano
tridimensional, representado por R X R X R.
·
O número de elementos de um conjunto terá .grandeiiD,portância
para nós. Se existir um número finito de elementos no conjunto A,
digamos ar, a2,_ ... , an, diremos que A éJinito: Q~~tie.liÍJifli.Pmer0
- ~~~J~;~j~~i~:;~-
.:§~~~~~;=~~·é!f!;Sk!:f!~?!:;'
ou·"injinito numerável. (Pode-se :m:ostrar, por exemplo, ·que\ () c-onjunto de todos os números racionais é numeráveL) :.Finalmente,
deveremos considerar o caso de um conjuntoinfinito:não~númerável;
este tipo de conjunto possui um número infinito de elementos qUe não
podem. ser enumerados. Pode-se mostrar, por exemplo, __que para
quaisquer dois números reais b > ~~ o conjunto ·A = Jx I a :::; .x :::; b}
contém um número não-numerável de elementos, J ~ que pÇ>dererjws
associar um ponto da reta dos números reais a cada m)mero .real, o
que dissemos acima afirma que qualquer interv'~lo (não deg~nerado)
contém mais do que um número contável de pontos.
Os conceitos apresentados acima, muito embora representem
apenas um rápido exame da teoria dos corijuritds, são sufic'iehtes
·para nossos objetivos: expor, com razoável rigor e pr~ci.são, ·~ idéias
fundamentais da teoria da probabilidade.
1.3.
Exemplos de Experimentos Não-DeterminísÜcos
Estamos agora em condições de examinar o q1,1e enténdemos por
um experimento '-'aleatório" ou "não-determinístico". '· {~ais ,'precisamente, daremos exemplos de fenômenos, para os · qmtis .: rriôdelos
não-determinísticos são apropriados. Esta é uma distinção .·que o
leitor deverá guardar. Portanto, nos referiremos freS!üêntemen'te
a experimentos não-determinísticos ou aleatórios, quando de fato
estaremos falando de um modelo não-detefminístico para um experimento.) Kão nos esforçaremos em dar uma definição preCisa _desté
~onceito. E.m vez disso, citaremos um grande ~úmer~ de exemplos.
que ilustrarão o que temos em mente.
6NTRODUÇÃO À PROBABIUDADE I 9
E 1 : Jogue um dado e observe o número mostrado na face de
cima.
E,: Jogue· uma moeda quatro vezes e observe o número de caras
obtido.
E 3 : Jogue uma moeda quatro vezes e observe a seqüência obtida
de caras-e coroas.
E 4: Em uma linha de produção, fabrique peças em série e conte
o número de peças defeituosas produzidas em um período
de 24 horas.
Eó:
Uma asa de avião é fixada por um grande número de rebites. Conte o número de rebites defeituosos.
Es:
Uma lâmpada é fabricada. Em seguida é ensaiada quanto
à duração da vida, pela colocação em um soquete e anotação do tempo decorrido (em horas) até queimar.
E1:
Um lote de 10 peças contém 3 defeituosas. As peças são
retiradas uma a uma (sem reposição da peça retirada) até
que a última ·peça defeituosa seja encontrada. O número total de peças retiradas do lote é contado.
Peças são fabricadas até que 10 peças perfeitas sejam produzidas. O número total de peças fabricadas é contado.
Um míssil é lançado. Em um momento especificado t,
suas três velocidades coq~.ponentes, v.., v11 e v. são observadas.
Um míssil récem-lançado é observado nos instantes tb
t 2, ••• , t,. Em cada um desses instantes, a altura do míssil
acima do solo é re~strada.
A resistência à tração de uma barra metálica é medida.
De uma urna, que só contém bolas pretas, tira-se uma bola
e verüica-se sua cor.
Um termógrafo registra a temperatura continuamente,
num período de 24 horas. Em determinada locálidade e em
uma data especificada, esse termógrafo é lido.
Na situação descrita em E18, x e y, 118 temperâturas núnima
e máxima, no período de 24 horas considerado, são registra,das.
E'il:
Es:
E 1o:
E 11 :
Eu:
E 13 :
Eu:
O que os experimentos acima têm em comum?
(a) Cada experimento poderá ser
sob condições essencialmente inalteradas.
10 I PROBABILIDADE
(c) Quando o experimento for executado re~t~(l.amente, os
resultados :individuais parecerão ocorrer de u:ffia , J~rma .aCidental.
·g:~~~I[~3~~m:~-to . de
Contudo,· quando o experimento for repetÚlo
vezes, uma configuração definida ou regulátidade ' surgirá. : É esta
regularidade que toma possível construir
íri6cie'13' inatêltáÍico
preciso, com o qual se analisará o expetimentCi. l\lhili brde, teremos
muito que dizer sobre a natureza e a irnpqrtândade~ia}ágwaridade.
Por- ora, o leitor necessita apenas pensar nas repetidas ~ogadas de
uma moeda equilibrada. Muito embora caras e cordas- apareçam
sucessivamente, em uma maneira quase arbttrária, é f~to . empírico
bem conhecido que , depois de uni grande número d~. jogadas, a pro.
porção de caras e a de coroas serão aproximadamente Ígu'aiS.
º:tri
um
Deve-se salientar que todos os experimentos ..descritos acima
satisfazem a essas características gerais. (Evidentemente, a última
característica mencionada somente pode ser · verificada . pela experimentação; deixaremos para a intuição do leitor '. acreditar que · se o
experimento fosse repetido um grande número de .vezes, regularidade referida seria evidente. Por exemplo, se um · g~~nde nÚmero
de lâmpadas, de um mesmo fabricante, fosse ensaiado, . presumivelmente o número de lâmpadas que se queimaria após iOO horas poderia
ser previsto com precisão considerável.) Note-sé que o experimento
E 12 apresenta o traço peculiar de que somente umres11ltado. é possível.
Em geral, tais experimentos não nos :interessarão, porque, realinente,
o fato de não sabermos qual particular resultado virá Íl ocorrer, quando
um experimento for realizado , é que torna um experimento intere'S8ante
para nós.
a
Comentário: Ao descrever os diversos experimentos, nós especificamos não
somente o procedimento que tem que ser realizado, mas também aquilo que
estaremos interessados em observar (veja, por exemplo, a diferença imtre E z e E 3 ,
citados anteriormente). Este .é um ponto rrmito importante, ao qual novamente
nos referiremos mais tarde, quando explicarmos variáveis aleatórias. Por ora,
vamos apenas comentar que, em conseqüência de um procedimento experimental
isolado ou a ocorrência de um fenômeno único, muitos valores numéricos diferentes poderiam ser calculados. Por exemplo, se uma pessoa for escolliida de um
grupo grande de pessoas (e a escoTha real seria o procedimento e:X:perimental
previamente mencionado), poderíamos estar interessados na altura daquela pessoa,
. no seu peso, na sua renda anual, no número de fillios dela etc. Naturalmente, na
·maioria dos ca~s. nós saberemos, antes de iniciar nossa experimentação, quais
serão as características numéricas em que iremos estar interessados. ·
,
11\!TRODUCÃO À PROBABiLIDADE I 11
1A.~·
Definição. -Para cada êxf>eDmêhto ·e do tipo que estamos considerando, definiremos o úpâ:Ço amCist;az como <i cÓnjurito de tó:Jõs'os
resultados possíveis de e. Geraltnente representaremos esse conjunto
por S. (Neste contexto, S repre,senta o conjwlto fundamental, explicado anteriormente.)
Vamos considerar cada um dos experimentos acima e descrever
um espaço amostral para cada um deles. O espaço amostral S; se
referirá ao experimento E;.
I
r·
.
'
I
11, 2, 3, 4, 5, 6}.
lo, 1, 2, 3, 4}.
{todas as seqüências p6ssíveis da forma a11 a2, aa, a4 }, onde
I
cada a; = H ou T, conforme apareça ca~a ou coroa na
i-ésima jogada.
~
:
,
{0, 1, 2, ... , N}, onde N é o número máximo q:ue pode ser
produzido em '24 hora.S
.
. I
{0, 1, 2,-... , .M}, ond~ M é o número de ·rebites empregado.
1
S6:
ltlt ~ 0}.
S1:
13,
Ss:
110, 11, 12, ... },.
.
I
4, 5, 6, 7, 8, 9, 10 }.
I v.,, Vy, Vz Iv.,, Vy,
I
i
'
v, números reais}.·.
S10: {hh· .. , hn jh;;:::: O, i
2, .. . , n}.
Su: ITIT~O}.
i'
s12: I bola preta}.
Su: Este espaço amostral éj o mais complexo de todos os co!lsiderados
aqui. Podemos
admitir, com
realismo,
que .a. tem-.
.
,
I
.
.
peratura em determin!1-da localidade nunca possa ocorrer
acima ou abaixo de ce*os valores 11! e m. Afora esta .reitrição, poderemos aceitar
a possibilidade de que qualquer
I
..
gráfico apareça com /determinadas restrições. Presumivelmente, o gráfico não terá saltos (isto é, el~Ç representará
uma função contínua).! Além ~isso, o gráfi~o terá certas
características de ,regu\arização, que podem ser resumidllS
matematicamente
di~eddo-se
,
I
. que. o gráfico representa uma
função derivável. Deste modo, poderemos finalmente
afirmar que o espaço a~ostral será:
S9:
=11,
IJIJ uma função perivável, que satisfaça a m ..::::; .
.::::; j(t) .::::; M, para ltodo t} ..
I~
12 I PROBABH.HDADIE
{(x, y)lm:::;; x:::;; y:::;; M}. Isto é, §aéfo11J1acio p 0 rtodos
os pontos dentro e sobre um. triâJ1gulo: no:;~Ia,po . x; ybiclimensional.
·
· · .. . · · · . .·.. ,, .-.c-;•. ; ·,-,.>
(Neste livro não cuidaremos de espaços amostrais di :•cdfnpl~xi'dade .
encontrada em 81a- Ko entanto, tais espaços ariÍ6slrais'''p8dem ' súi:~
gir, mas exigem para seu estudo mais ~Íatemática âvànÇ~dâ> do qúe
estamos admitindo aqui.)
.e~~;.!~ii:f7~~]~~9r~~x;:~;;:mE:::;s;g;~@.8?::;;~.
· estamos '' ·. · .·.··: .:
d@ii::•"'"" Por isso,
de ;,~;.·;'~~~~~;~ amostral associado a um experimerito, e P:ão de
"o" espaço' amostraL A esse respeito, note-se a dif~re~ça· entre
82 e 8a.
Saliente~se, 'tambein~ 'qu~ o r~sul t-~do de 'urri'. ê},~·~~Q}~rho não é
necessariamente, um número. Por exemplo, em E i, cada resultado
é uma seqüência de caras (H) e coroas (T). Em É9 e E.1 o cada resultado e formado por um vetor, enquanto em E; 3 , e~d~ resultado
constitui uma função .
lativamente aos exemplos acima, observamos que 8], 82;. 8a, 84, 8s, .•
81 e 812 são finitos, 8s é infinito numerável, e 8s, 89, 810r 8u, 813 e
814 são infinitos não-numeráveis.
:~~=::~~~;:;!~·:::,~~~~~t·
:rimento ·Ê 6 e seu e~paço amostral associado 81. É eVidente que,
quando estivermos realmente registrando o tempo . tot~l t, •durante o
qual uma lâmpada funcione, seremos "Vitimas" da precis[b de nosso
instrumento de medir. Suponha-se que temos um instruínerrto que
seja capaz de registrar o tempo com duas casas decir11ais, por exem.:
. pio, 16,43 horas. Com esta restrição imposta, nosso esjlàço amost ral se tomará infinito numerdvel: {0,00, 0,01, 0,02; •: : : }. Além
disso, é bastante próximo da realidade admitir quenenhíun8,Jâinpada
possa durar 'mais do que H horas, onde H pode ser uín fiúinero muito
grande. ConseqÜentemente, parece que se f()i:inos ·completamente
realistas na descrição deste espaço amostral, estaremos realmente
tratando com um espaço amostral finito: {0,00, 0,01, 0,02, .. . , H}.
O número total . de resultados seria (H/0,01) + 1, que poderá ser
um número muito grande; mesmo que H seja moderadamente grande,
iNTRODUÇÃO À PROBABiii..IDADE I 13
por exemplo se H = 100. Torna-se bem mail:l simples e, matematicamente, conveniente, admitir que todos os valores de t ~ O sejam .resultados possíveis e, portanto, tratar o espaço amostral Ss tal como
foi originalmente definido .
. Diante desses comentários, alguns dos espaços amostrais descritos são idealizados. Em todas as situações subseqüentes, oespaço
amostral ·considerado será aquele que for matematicamente mais
conveniente. Na maioria dos problemas, pouca dúvida ~.urge quanto
à escolha adeQuada ·d9 :êsPáçO·· amosti-al.
:; ·.-. ·. :. :..,..,
··..
.·
.
:... ·,.:: ·..
·.- ...
-:
· .:;.: :~:-
Eventos
1._5.
Outra noção fundamental é o conceito de evento. <R-~~~­
(relativo a um particular espaço amostral S, associado a" Upl experimento )< e<:smrp:):es~~At!P.~ti'tfi:C0nlj;un;,t~cl:~§lresu1t~dbsi-'#~~~t;~~-~ ·· . Na
tenninologia. dos conjuntos, um evento é·;;~ ;~bconju~to d~· Ü;·<es­
paço amostral S. Considerando nossa exposição anterior, isto sig~
nifica que o próprio S constitui um-evento, bem como o é o conjunto
vazio 0. Qualquer resultado individual pode também ser to~ado
como um evento .
e
.Al~s exe~plos d~ ey~nt()S s~- ~ados ~ - ~~~ir. N.?,yªqí~~te, .
nos referimos aos .experimentos 'relacionados aCima: A; sé teféÍ{rií.
ao evento asso~iad~ ao .éxpedrh~~tÓ EZ ·-· '
· -_ ;· . \'"· ·
Al:
ul!l número par OCQrre, .isto é, Al = {2, 4, 6}.
A2: {2} ;isto é, duas caras ocorrem.
A3 : {HHHH, HHHT; HHTH, HTHH.; THHH); isto é, mais
caras do que coroas ocorréfam.' - .
.
.
A4: {O}; isto é, todas as peças são perfeitas.
{'
A6: {3, 4, ..• , M}; isto é, mais do que dois rebites eram defeituosos.
·As: {t I t
< 3}; isto é, a lâmpada queima em menos de. 3 horas.
Au: {(x, y) I y = x + 20}; isto é, a temper~tura máxima é 20°
maior do que a mínima.
"
.r
j
\
Quando o espaçó amostral S for finito ou infinito numerável,
todo subconjunto poderá ser considerado um evento. [Constitui um
I
•
exercício fácil de provar, e o faremos resumidamente, que se S cdntiver n elementos, existirão exatamente 2n subconjuntos (eventos).]
Contudo, se S for infinito não'-numerável, surgirá uma dificuldade
teórica. Verifica-se que nem todo subconjunto imaginável poderá
14 I PROBABDLIDAIDE
._ ,.:;.;e~~:;:~:~;!~~~;~;;~!;d~~:!;::::;=:=~:~=:~~·~~
.. d.I:J.§t:a;~~J.Cp:lil.~'Wál:ç'ão. Felizmente, . tais subconjuntos >'iiã~:::adffiis~tveis
-~·ã;;'~-~~rgem nas aplicações e, por isso, nãO ·'cU:idii.reÍxios:r dê)es . aqui.
Na exposição subseqüente, será admitido : tacit~fn~ri't~ ~'que $empre
que nos referirmos a um evento, ele .será da espécié :.4u'ê' j~ ~éljriitimos
considerar.
·
·
· ,~
· ··
Agora, poderemos empregar as várias téGnicas .·de combirtar conjuntos (isto é, eventos) ~ obter novos ·. conhintô~·~·{istó ê, ·eventos),
os quais já apresentamos anteriormente.
··
. (a) Se A e B forem eventos, A U B será o evento que ocorrerá
se, e somente se, A ou B (ou ambos) ocorrêreri\:
(b) Se A e B forem eventos, A
se, e somente se, A e B ocorrerem.
nB será .o .evel).to
que ocorrerá
(c) Se A for um evento, A será o evento que ocorrehí se, e somente se, não ocorrer A.
(d) Se A~> . : . , An for qUalquer coléção Íinita deeve~tos, então,
U~-1 A; será o evento que ocorrerá se, e somente·se, ao menos um·
dos eventos A; ocorrer.
···,
de
(e) · Se A 1, . . . , An for qualquer coleção finita
eventos, então
n~-1 A; será o evento que ocorrerá se, e somente s~, todos os eventos
A; ocorrerem.
.
.
.
U) Se A~> ... , An, . .. · for qualquer coleção infini~a (numerável)
de eventos, então, Ui-- 1 A; será o evento que ocorre~~ se, e somente
se, ao menos um dos eventos A; ocorrer.
(g) Se A 11 •• • , An, ... for qualquer coleção infinita (numerável)
de eventos, então, ();=1 A; será o evento que ocon.'e rá se1 e soinente
se, todos os eventos A; ocorrerem.
'
•
(Q
.. .
.:.. .
•
-
.•.:. . .
-·
: .
(h) Suponha.se que S represente o espaço amo~f:.L~L~sociado a
~;~~~~~;:;::~~:i~:i::~~~f!~~:;:::::::~;:~;:·
· ~~~::;!=~~::·
(i) o exemplo contido em (h) pode, obviamente, ser generalizado.
Considerem~se n repetições de um experimento & cujo espaço amostràl
sejaS:
S X S X . .'.X S
= {(s 1 , s 2 , ••• , sn), si ES, i= 1, •.. , n}
:'lr.,
INf RODUÇÃO À PROBABILfDADE I 15
I
representa o conjunto de todos o~ possíveis resultados, quando & for
executado n vezes. De certo modd, S X S X ..• X S é ele próprio um
. espaço amostral, a saber,
o espaçbI amostral associado a n repetições
.
. .
de 8,.
I
Definição. Dois eventos, A le B, são den~~~Ê_g~,~"t:.@?.tr!mie
-ez~ludentes, se eles não puderem 'ocorrer juntos. E~ri;mremos isso
escrevendo.,~~t~"'B~rt~~J!lf'''isto é, a 1interseção de A e B é o conjunto
vaziO.
I
Exemplo 1.4.
Um dispositivbI .eletrônico é ensaiado e o tempo
total de servjço t é registrado. Admitiremos, que o espaço amostral
seja {t it 2:: O). Sejam A, B e c ltrês eventos definidos da seguinte
maneira:
1
!
A = · {tjt < 100}; B = {t J.50 ' ~ t ~ 200i;
Conseqüentemente,
C.= (tit
> 150}.
1
A U B = (tlt ~ 200}; A jn B = {t J50 ~ t < 100};
BUC=(tJt2::50}; BnC={tJ150<t~200}; AnC=O;
A u c = {tI t < 100 ou t > 150 J; ~ = {tI t ;::: 100 J;
= (tI t ~ 150 J.
I
c
Uma das características fundamentais do conceito de "experimento", como foi apresentado n~ seção anterior, é que nÓs 11~0 sabemos qual resultado particular
Ócorrerá
quando o experimento· for
. .
I
realizado. Por ~;mtras palavras, Sf A for um 'evento associado a um
experimento, então, não poderembs afirmar com certeza que A irá
ocorrer ou não. Por isso, torna-s,e muito importante tentar associar
um número ao· evento A, o qual medirá de alguma maneira quão
verossírnil é que o evento A venll.a a ocorrer; Essa tarefa nos leva
à teoria da prob.abilidade.
I
i
1.~~efliii&lê~~~a;tiva-),
I
A fim de ·motivar a
o seguinte procedimento:
I
Definição. ]A =· nA/n é denominada freqüência relativa do evento
A nas n repetições de 8. A f;eqü~ncia relativa f A ap.rese~ta as seguintes propriedades, de fácil verificaÇão:
. (1)
o ~ fA ~
1.
.
.
(2) j A = 1 se, e somente se,
I
h. OCOrrer em todas aS n repetições. .
.,, :
16
I IP'ROISAIS8UDAiiJIE
(3)
!A. :=O se, esomente se, A
nunca ocorrer nas;nrepetiçpes.
(4) Se A e B forem eventos mutuamerité' ex2ludé#tes;e~sef~ u B
· for a freqüênci!l relativa associada ao ~vento~ ~y ,s, :~B.tio-;]~ •li. fi ·= .
= fA + fB.
. ... .
···:. , _ ,; _,_ .. ·. ..
(5) fA, .com base em n repétiçõe"s dó ex.periment() 'e' :66nsideiada
como uma função de
"converge" em ceitó "senfído ''prohábilísti_ço
paraP (A), quando n -7 oo .
·
.· · ·
· '
' ' • · ·
n;
Conientárw: A Propriedade (5) está evidentemente expressada um tanto
vagamente, nesta seção. Somente mais tarde (Seç.l2.2), estaremos aptos a tornar
esta idéia mais precisa. Por enquanto, podemos a~enas afirmar q_{iê ;a-Propriedade
(5) envolve a nÕção nitidamente intuitiva de que a freq üêricia ·relativa, ba5eada em
um número crescente de observações, tende a se "estabilizar" próximo . de algum
valor definido . Este não é o mesmo conceito usual de convergência encontrado
em alguma parte da Matemática. De fato, tal co.inó af'rrmamos aqui, esta riãó é,
de modo algum, uma conclusão matemática, mas apenas um fato e~pírico.
A maioria de nós está intuitivamente a par deste fenômeno de
estabilização, muito embora nunca o tenhamos verificado. Fazê-lo exige
considerável porção de tempo e de paciência, porque inclui um grande
número de repetições de um experimento. Contudo, algumas vezes,
poderemos ser ingênuos observadores deste fenômenô, como ilustra o
seguinte exemplo:
Exemplo 1.5. Admitamos que estejamos postados na calçada e
fixemos nossa atenção em dois blocos de meio-fio adjacentes. Suponha-se ·
que comece a chover de tal maneira que sejamos realmente capazes de
distinguir pingos isolados de chuvà e registrar se esses pingos caem num .
meio-fio ou noutro. Ficamos a observar os pingos
anotar seu ponto
de impacto. Denotando o i-ésimo pingo por Xi, onde Xi = 1 se o pingo
cair no primeiro meio-fio, e igual a O se . cair no outro, poderemos
observar uma seqüência como, por exemp1o, 1, 1, O, 1, O; 0,0, 1, O, O, 1.
É evidente que não seremos capazes de prever onde um particular pingo
irá cair. (Nosso experimento consta de alguma espécie de situação meteorológica que causa a queda dos pingos de chuva.) Se calcularmos a
freqüência relativa do evento A ·= { ci pingo cai no meio-fio 1}, então,
a seqüência de resultados acima dará origem às Seguintes freqüências
relativas (baseadas na observação de 1, 2, 3, ... pingos): 1, 1; 2/3, 3/4,
3/5, 3/6, 3/7, 4/8, 4/9, 4/ 10, 5/11, ... Esses números e..videnciam um
elevado grau de variação, especialmente no início. É intuitivamente
evidente que, se o experimento acima continuasse indefmidamente, essas
freqüências relativas iriam se estabilizar próximas do valor 1/2. Canse. _qüentemente, teríamos toda razão em acreditar que, depois de algum
tempo decorrido, os dois meios-fios estariam igualmente molhados.
ea
•;
~'
.·,
·i
Oi\!TRODUÇÃO À IP'IROBABIUDADE I H
Esta propriedade de estabilidade da. freqüência relaJ;j.va é, por
enquanto, uma noção inteiramente intuitiva, porém mais tarde estaremos aptos a torná-la matematicamente precisa. -~êl:lêí:ã
~§ÍI!i"1fproprieda<!?.:ê';_g,ile'{-Se"~experimentó:ri'er--execntad&"uitr::gr.ande o·
, n~~l!o~1le-ve~~S'Fa-frequên:'êÍa-tei!tti~"ª:idaii".éeórtên,Ç!ií.~c.:-álgum.;evento
..q..i4iii~~'hde~a""'i''~:ar.'º-~-.::ovez,"'mêíiõ,ili:;:rn.edi~que,.O""-nYmero~d,~:,re~·- . :...
·t~~~r?allli!.~-P~~d"ã:- Esta caracterfstica é também conhecida como
regularidade estatística.
N 6s fomos um tanto vagos em nossa definição de experimento.
Quando um procedimento ou mecanismo constituirá, em nossa acepção, um experimento capaz de ser estudado matematicani:ente por
meio de um modelo não-determinístico ? Já afirmamos, anteriormente,
que um experimento deve ser capaz de ser realizado repetid;unente,
sob condiçQes essencialmente inalteradas. Agora, podemos acrescentar outra. condição. Quando o experimento for repetidamente
realizado, ele deverá apresentar a regularidade estatistica mencionada acima. Mais adiante, estudaremos um teorema (denominado
Lei dos Grandes Nú:meros) que mostrará que a regularidade .estatística é, de fato, uma conseqüência da primeira .condição: reprodutibilidade.
.. ..
·~
.. ..
1.7. · ~~~~lr:nif~nià~i~~~cfl!~Ni~í1ffi;dade
Voltemos agora ao problema proposto acima: atri~uir um número
a cada evento A, o qual avaliará quão verossírnil será a ocorrência
de A quando' ·o experimento for realizado. Uma possivel maneira
de tratar a questão seria a seguinte:--repetir o experimento um grande
número de vezes, calcular a freqüência relativa fA e utilizar esse número. Quando record;nnos as propriedades de j A, torna-se evidente
que este número fornece uma informação muito precisa de quão verossímil é a ocorrência de A. Além disso, sabemos que à medida que o
experimento se repetir mais e mais vezes, a freqüência relativa f A se
estabilizará próxima de algum número, suponhamos · p. ,···Há, contudo, duas sérias objeções a esta maneira de tratar a questão: (a) Não
está esclarecido ·quão grande deva ser n, antes que se cenheça o n~­
mero: 1.000 .? 2.000? 10.000? (b) Uma vez que o experimento tenha
sitio c~mpletaÍnente · descrito e o evento A especificado, o número
· que estamos. procurando não deverá depender .do experimentador
ou da particular veia de sortE) que ele possua. (Por exemplo, é possível que uma moeda perfeitamente equilibrada, , .quando jogada
10 vezes, venha a apresentar 9 caras e 1 coroa. A freqüência relativa do evento A = {ocorrer cara} seria, nesse caso, igual a 9/10• .
18 I PROBABI LIOADE
!\o entanto, é evidente que nas próximas 10 jogadas o padrão de
caras e coroas possa se inverter.) O que desejamos é um meio de
obter tal número, sem recorrer à experimentação. Naturalmente,
para. que o número que convencionarmos tenha significado, qualquer
experimentação subseqüente deverá produzir uma freqüência relativa que seja "próxima" do valor convencionado, particularmente
se o número de repetições, no qual a freqüência relativa calculada
se tenha. baseado, for muito grande. Nós procederemos, formalmente,
da seguinte maneira:
Definição. Seja e um experimento. Seja S um espaço amostral
associado a e. A cada evento A associaremos um número real representado por P(A) e denominado probabilidade de A, que satisfaça
à.s seguintes propriedades:
(1) O ~ P(A) ~ 1.
(2) P(S) = 1.
(1.3)
(3) Se A e B Corem eventos mutuamente excludentes, P(AUB)=
= P(A)
+ P(B).
(4) Se A 11 At,. .. , An,. . . forem, dois a dois, eventos mutuamente excludentes, então,
Observe-se que da Propriedade 3, decorre imectiatamente que,
para qualquer n finito,
A Propriedade 4 não se seguirá; no entanto, quando considerarmos o
espaço amostral idealizado, esta propriedade será imposta e, por isso,
foi incluida aqui.
A escolha das propriedades da probabilidade acima relacionadas
é, obviamente, sugerida pelas correspondentes cara.ctcnsticas da
frcqüência relativa. A propriedade, antes mencionada como regularidade estatística, será mais adiante vinculada a esta definição de
probabilidade. Por enquanto, nós apenas afirmamos que se pode
mostrar que os números P(A) e f A são "próximos" um do outro (em
determinado sentido), se }A for baseado em um grande número de
repetições. ~ este fato que nos dá a justificativa da utilização de
P(A) para avaliarmos quão verossímil é a ocorrência de A.
Por enquanto não sabemos como calcular P(A). Nós apenas
arrolamos algumas propriedades gerais que P(A) possui. O leitor
INTRODUÇÃO À PROBABILIOAOE I 19
terá que ser um pouco mais paciente (atê o próximo capitulo), antes
quE' aprenda como avaliar P(A). Antes de voltarmos a esta questão,
vamos enunciar e demonstrar várias conseqüências relacionadas a
P(A), que decorrem das condições acima e que não dependem da maneira pela qual nós realmente calculamos P(A).
Teorema 1.1. Se 0 for o conjunto vazio, então P(0) =O.
Demonstração: Para qualquer evento A, podemos escrever
A = A U 0. Uma vez que A e 0 são mutuamente excludentes,
decorre da Propriedade 3, que P(A) = P(A U 0) = P(A) + P(0).
Daqui, a conclusão do teorema é imediata.
Comentário: Mais tarde, teremos oeasiAo de ver q11e a reciproca do teorelllA
acima nAo é verdadeira. lst.o é, se P(A) • O, nlo poderemos, em geral, concluir
que A - 1!, porque existem situações nas quais atribuú:nos probabilidade zero a
um evento que pode ocorrer.
Teorema 1.2. Se à for o evento complementar de A, então
P(A) = 1 - P(Ã).
(1.4)
Demonstração : Podemos escrever S = A U Ã e, empregando
~ Propriedades 2 e 3, obteremos 1 = P(A) + P(Ã).
Ccmwmtório: Este é um resultado puticulannente útil, porque ele significa
que sempre que desejarmos avaliar P(A), poderemos cs.lculu P(Ã) e, depois,
obtermos o resultado desejado por subtração. Veremos mais tarde que, em muiWs problemas, é muito mais fácil calculu P(ii) do que P(A).
Teorema 1.3. Se A e B forem dois eventos quaisquer, então
P(A U B)
= P(A)
+ P(B)- P(A () B).
(1.5)
Demonstração: A idéia desta. demonstração é decompor A U B
e B em dois eventos mutuamente excludentes e, em seguida, aplicar
a Propriedade 3. (Veja o Diagrama de Venn na Fig. 1.2.)
Desse modo escreveremos
A U B = A U (B () A),
B = (A () B) U (B () A).
Conseqüentemente,
PfA U B) = P(A) + P(B () Ã),
P(B) = P(A (J B) + P(B () A).
.~·,. ' r
i.;•'
i
.r~
{
,,
..
20 I PROBABOUDADE
....
Subtraindo a segunda igualdade da primeira, .obtém~se .
I'
P(A U B) - P(B) = P(A) ----: P(A íi B)
e daí chega-se ao resultado.
rI
Fig. 1.2
Comentário: Este teorema representa uma extensão imediata da Proprie-_
.dade. 3, porque se A n B = 0, obteremos do enunciado acima .a. Propriedade 3.
Teorema 1.4. Se A, B e C forem três eventos· quaisquer, então
P(A U B U C)=P(A)
+ P(B)+P(C)-P(A íi B)-P(A (')C)- P(B íi C) + P(A íi B n t:). .
(1.6)
Demonstração: A demonstração consiste em.escrever A U B U C
na forma (A U B) U C e aplicar o resultado do teorema anterior.
Deixa-se ao leitor completar a demonstração.
Comentário: Uma extensão óbvia do teorema é sugerida. Sejam A ii ... ,· Ak,
quaisquer k eventos. Então,
k
P(Ar
u A2 u ... u Ak) =
L
k
P(A;) -
1=1'
L
P(A; nA;)
+
i<j=2
k
+ ·E
i<j<r=a
P{AinA;nAr)
+ ... +(-I)1HP(ArnA2n .. . nAk).
(1.7)
Este resultado pode ser facilmente estabelecido porr indução matemática~
I
i
.!I.
'l
: ~.
Teorema 1.5. Se A CB, então P(A):::;; P(B).
Demonstração: Podemos decompor B em dois eventos mutuamente excludentes, na seguinte forma: B = A U (B nA). Conse-
INTRODUÇÃO À PROBABiliDADE I 21
qüentemente, P(B) = P(A.)
;;:: O, pela Propriedade 1.
i:.
:;
1:
+ P(B nA) ;:::: P(A), porque P(B (I Ã) ;::::
.
Comentário: Este resultado é, certamente, de conhecimento intuitivo, poill
ele afirma que se B deve ocorrer sempre que A ocorra, conseqüentemente, ·B é mu.Íll
pl'ovável do que A.
1.8.
.Aig11.1mas Observações
(a) Cabe aqui uma palavra de advertência. Da exposição anterior poderia ser (incorretamente) inferido que quando escolhermos
mp modelo probabilístico para a descrição de algum fenômeno de
observação, estaremos abandonando todas as relações determinísticas. Nada poderia estar ~ais distante da verdade. Nós ainda
utilizãm~; o fato de que, por exemplo, a Lei de Ohm I = E/R vale
em determinadas circunstâncias. A diferença seria uma diferença
de interpretação. Em vez de afirmar que a relação .acima determina
I para E e R dados, admitiremos que E ou R (ou ambos) possam
variar de alguma maneira aleatória imprevisível e que,· em conseqüência, I variará ta'Inbém de alguma forma aleatória. Para E
e 'R dados, I será ainda determinado pela relação acima. O importante é que, quando se adotar um modelo probabilístico para a descrição de um circuito, considera-se a possibilidade de que E e R possam variar de alguma maneira imprevisível, a qual somente pode
ser descrita probabilisticamente. . Portanto, desde que tenha sen. tido considerar somente a probabilidade de que E e R tomem certos
valores, torna-se significativo . falar somente · da probabilidade de
que I venha a tomar certos valores.
- ~- ·7~~::~=~~iflj[~l~!:~;;~~!f;~~~!~~·
depenaercnrcomplicação de nossa técnica de mensuração e da exatidão
associada a. ela. Por exemplo, se medidas exatas foremJlfo difíceis de
obter que leituras repetidas da mesma quantidade condÚzam a resultados variados, um modelo probabilístico será sem dúvida mais adequado
para descrever a situação.
(c) Indicaremo~ resumidamente que, sob certas circunstâncias,
teremos condições de fazer hipóteses adicionais sobre o comportamento
probabilístico de nossos resultados experimentais, as quais nos conduzirão a um método de avaliação das probabilidades básicas. A escollia
dessas hipóteses adicionais pode ser baseada em 'considerações físicas do
experimento (por exemplo, propriedades de simetria), evidência empí.,. ;
-
-
·.
~' ~:"
..
22 I PROBABILIDADE
rica ou, em alguns casos, apenas julgamento :<pesspãl,>bàseado em
experiência anterior de uma situação similar! A IreqJ.iêl1ciâ relativa fA
pode desempenhar um importante papel em nossa 'deliberação sobre a
atribuição numérica de P(A). Contudo,~ imponànte' '·'coriÍ~ieender que
qualquer suposição que façamos sobre P(A) deve '''s~r'fajY:qú'~ " ~êjam
satisfeitos os axiomas básicos desde (1) até (4)daDefuiiç'ãô·{1.3): · · ·
(d) No curso do desenvolvimento da5 idéias bâsicãs datêoria 'da
probabilidade, faremos algumas referências a det~rriúnadas. analogias
mecânicas. A primeira delas pode ser apropriada a.qili. Etii M~tânica,
atribuímos a cada corpo B sua massa, digamos m(.B)~ ''Effi .§~guút"a'~ faremos diversos cálculos e obteremos várias condüsÕÚ sobre comportamento de B e suas relações com outros coipos, iÍxirita(P,as -qliais
envolvem sua massa m (B). O fato de que · nós podere·fu.os' ter que
recorrer a alguma aproximação para obter reâlméntt m(B)
uin .
corpo especificado não diminui a utilidade do coritéitó ' de hiassa~
Semelhantemente, estipularemos para cada evento A assocüid.() aoespaÇo
amostral de um experimento um número P(A ), denominado 'probabilidade de A, e satisfazendo nossos axiomas básicos. Ao calci.ílar reallliente
P (A) para um evento específico, nós teremos que fazer hipÓteses
adicionais ou que obter uma aproximação base ada em evidência. empírica.
o
pâra
(e") . 1!; muíto importante compreender que nós tenhamos postulado a existência do número P(A), e que tenhamos postulado de-
terminadas propriedades que esse número possui. A validade das
várias conseqüências {teoremàs), decorrentes desses postulados, 'de
modo algum depende da maneira pela qual iremos obter um valor
numérico para P(A). 1!; essencial que este ponto fique claro. Por
exemplo, admitimos que P(A U B) = P(A) + P(B). A fim de empregar esta relação para a avaliação concreta de P(A U B), deveiemo~
conhecer os valores de ·P(A) e de· P(B). Explicaremos, i-esuffiidamente, que sob certas circunstâncias, nós poderemos fazer suposiçõês
adicionais que conduzam a um método de avaliação dessas probabilidades. Se essas (ou outras) suposições não forem fundamentadas,
poderemos ter de recorrer à experi~entação a fim de alcançar o valor
de P(A) a partir de dados reais. A freqüência relativa fA desempe~
nhará nisso um importante papel e será, de fato, utilizada para aproximar P(A).
Contudo, é importante saber que j A ,o P(A) ní'ío slto o. rncHllll\
coisn.; que nó11 ~~ponaH ni.iliznrom01-1 j A Jl l~l'l~ t\proJ<iouu• /'(A) ., qt11,
li!llllpl'l q111 11011 rt •ft'IÍI'Illll ll 1L /'(ti), 1'1\I,HIIIIIIIHI 111111 111r11 11tlo IIII Vn loll'
\lllll l,llltlclo
t 1 1101 11 1fl1nllll11111111111" J~ 1'11111 /'( ,1) , clt 111'1111 1'11111
-------
-~----
--
---
INT;RODUÇÃO À PROBABILIDADE I 23
[
preender que estaremos tão-somenie substituindo um valor postulado
por urna aproximação obtida exp~rirnentalrnente. Quão boa ou má
essa aproximação possa ser, de. ~odo algum influencia a estrutura
lógica de nosso modelo. Muito ~mbora o fenômeno que o modelo
tente representar tenha sido levadÓ em conta na construção do modelo, nós nos teremos distanciado do bróprio fenôrnen~ (ao menos tempo:rariarnente), quando entrarmos no i-eino do modelo.
I
I
Problemas
I
I
I
1.1. Suponha que o conjuntO funqamental seja ÍQI'Ill8do pelos- inteiros. pomtivos de 1 a. 10. Sejam A= (2, 3, 4) 1, B = (3, 4, 51, e C= (5, 6, 7). Enumere os elementos
dos seguintes conjuntós:
·. - ..
I
I
(a)
A n B.
A U B.
(b)
(c)
A n ~·
(d) A
n (B n C).
~undamental
1.2. _ Suponha. que o conjunto
n (B U
(e) A
C)·
U seja dado por U =
(x!O s; x ~ 2). Sejam os conjunto8 A e B definidos da forma. seguinte:
A= (xll/2 < x~ 1) e B = {xll/4~ x < 3/2). Descreva os seguintes con-
I
juntos:
r
(a) A U B.
(b) A U
B.
(c) A
I
n IJ,
Cd> :A
n B.
1.3. Quais das seguintes relações si\.o verdadeiras?
I
n
n
(c)
(A U B) (A U C) = A U (~ C).
A C\ B = A U B.
(d) (A Li B)
(e)
(A
(a)
= (A
n c-= A n B n C.
I
n B) n (B n C) = e.
(b) (A U B)
n B)
U B.
i
1.4. Suponha que o conjunto fund~ental seja. formado por todos os pontos
(x, y) de coordenadas ambas inteiras, e que estejam dentro ou sobre a fronteira
do quadrado limitado pelas retas x = O, jy = O, x = 6 'e y = 6. Eriuroere .os elemento,s dos seguintes conjuntoo:
!
A= ((x,y)jx2
(a)
(c) C
=
+y
2
I
~ 6).
{(x, y)jx ~ y2 }.
(~) B = ((x,y)Jy~ x~l. _
(d) B
q1 C.
(e) (B U A)
n Ç·
!
1.5. Empregue diagramas de Vem\. para estabelecer as seguintes relly;õoa:
(a) A C B e B C C implica quk A C C. "
(b) A C B implica q\10
A - A n B.
(c) A c B I implica que- ·:B c A.
(d) A c B ilnpliCII
quo A
1 ,0,
'"' 11 o
l1rl•t
I'OI)I
IJ
u c.
l11 III 11 1
(lll A n B I.; 0 e c c A
'IIli\ HIU\111 rlr t 1\IHII lill (ll\
r(tl(ll 1,11111111 (N),
l(llllilo 111
Ih
u cc
lj\11
~~~ I)IIIJifl\
ll
dr
IIM~II
I
,
111(1111'
I
I
1(111•
'""' ""'" '''
(/J)
1111" <llllldl~Jtll l'IIV, Hl.l'l\r),.,
tlllr I prl~ll' l tlr1l11 1.111111111 1'111111!111111 '/ll~ ~~~],.lu (u(ll l•tt<llf
Ulljllll(l
c - 0.
(HIIf)IIÇ O tlflO 11\1\r()!l,l\iUI 1(1 foi(tullm
1Uijll111l01UIIlrl/1 I!
V''~ lt ulttuu llhlu 111~(1111' 1111111hlk llltlllo
riU VI' IIII I
implicam quo B ()
'"'"III
""'
I"
11111 111
ti I •(1111
l1111111 r
-
2<l I PROBABILIDADE
.
· ·-::-.
(a) Uma caixa coi:n N lâmpad!IS contém: r lâmpa<;llj.S~- (r < ;:?'!) , com fila-:
mento partido. Essas lâmpadas são verificadas \l!Íia a urnii, at.é .9ue .l,l!P-11 1~1!!­
pada défeituosa seja encontrada. Descreva um espaÇ 0 , ~kÇ;if~i :par~ : este e~
rimento..
.,....
·
'
·· · · · '· ·..., ..,_·_ .. ·"·· ·/· ·-'' · '·
.
frj).
/'
'
.
•
.
. .
_. ,
--~
_. <·: ...,__ :,~~ ... ,~ -._.'
.
Suponha que as lâmpadas ·acima sejam verlficaâili uiriâ' à. •·uma; até que
todas as defeituosas tenham sido encontradà.s. Déscreva: fe~p~Çi;: ~m6St~al para
-~~ '.~ · :.
este experimento .
(b)
'.
. 1.8. Considere ' quatro objetos, á'f-õl:t;ticiiiif;td'!J' . Suponha que a . or~m em que
tais objetos sejam :listados represente o resultado de um experilp.ento. Sejam
os eventos A e B definidos assim: A. = -fâ"êSf~lll!.~ priméha:.-'-Posi~o); . B ~
lb"·el!t:t''ria":se-gnndB."-posição l .
·
(a) Enumere todos os elementos do ·'es~~m0st1>~J;h(b)
Enumere todos os elemtmtos dos ey~entos<4
nB
e A U iJ:
1.9. Um lote contém pe~as pesando 5, 10, 15, .. . , 5Q gr11mas. : Admitamós
que ao menos1 duas pe~as de cada peso sejam_ ensontradas no, !<;>te~ Duas ~as
sãoretí;adas dà~ I0;te .. Sejam X o peso da pri~eita peça escolhid,a;}l .Y o pe'so q~
segunda. Portanto, o par de números (X, Y) rep_resentá : um .. resultl),do _simples
do experii:ne\lto. Empregando o plano XY, marque o espaç.o amostral~ os segtüntes eventos: ·
[X= Y).
(b) !Y> XI.
(c) A ·segunda pe~a é duas vezes mais pesada que a primeira.
(a)
(d) A primeira peÇa pesa menos 10 ~ama$ que a segtmda -p~a.
(e) O peso médio de duâs p~ças
é meno~
do ~ue 30 gramas.··
;~~rodo 2~-- horas,
Q;;)
burante-:m
de
ein algum moment:O X, uma chave
é posta na posição "ligada". Depois, em algum momento futuro Y (ainda durante o mesmo período .de 24 horas), a chave é virada para a posi~ão "desligada".
Suponha que X e Y sejam medidas em horas, no eixo dos tempos, com o início do
período na origem da escala. O resultado do experimento é constituído pelo par
de números (X, Y).
(a) Descreva o espaço amostral.
Descreva e marque no plano XY os seguintes eventos;
(b)
(i) O circuito está ligado por uma. _hora ou ~enos.
I
(Ü) O circuito está ligado no tempo z, onde zé algum instante no período
dado de 24 horas.
.
(iii) O circuito é ligado antes do tempo lt e desligado depois do tempd 12
(onde também 11 < t2 são dois instantes durante o período de 24
-hora.S· especificado).
(iv) O circuito permanece ligado duas vezes mais tempo do· que desligado.
/f:11'1
em
Sejam A, É
eC
três eventos associados a um experimento.
~~ões de conjuntos, as _segtüntes afirmações verbais:
Ao menos um dos eventos ocorre.
Exatamente um dos eventos ocorre.
Exprima
INTRODUÇÃO À PROBABILIDADE
(r)
I 25
Exatamente dois dos eventos ocorrem.
(d) Não pais de dois dos eventos ocorrem simultaneamente.
1.12.
Demonstre o Teor 1.4.
l '
(a) Verifique que para dois eventos quaisquer, Ar e A 2, temos que
P(Ar U A2) S P(Ar)
P(A2) ..
1.13.
+
(b) Verifique que para quaisquer n eventos Ar, . . . , An, temos que
P(Ar U . .. U An) S P(Ar)
+ ... + P(An).
Empregue a indução matemática.
é denominado desigualdade de Boole.]
(Swestdo:
.
O resultado enunciado em (b)
~.14.
O Teor. 1.3 trata da probabilidade de que ao menos um de dois eventos
O seguinte enunciado se refere à probabilidade de que exalmMnte
um deis eventos A ou B ocorra. Verifique que
P[(A () B) U (B () A)] ·= P(A) + P(B) - 2P(A () B) .
A ou"B ·o~rra.
.@ J
~;n certo tipo de motor _elé~ri~ falha se ocorrer uma das seguindteass
srtuàçoes: emperramento dos :r,nancars, querma dos enrolamentos, desgaste
escovas. Süponha que o emperr~tnén);o seja· dua.s vezes ma i~ pr.ováyel do que 1\
queima, esta ·sendo quàtro -..:e~es mais pro~ável 'do 'que ' o 'fles~alite, dàs es~ovas: . '
Q;at,será. ·a;' ProBabilidàde de 'que-a--fàlba · seja~flevida' a _c.ada um~· dessas\ circun1stânçill.ll? .
,
,.
~-,..
/
")~':1"6.) Suponha
•
·'.<!
que_A .e B sejam eventos tais que P(.Á) = x, P(B) = y, e
= i. · Exprima cada uma das seguintes probabilidades em termos
P(~~)
de x, y e z.
(~) P(Ã U
B).
(b) P(Ã () B).
(c) P(A U B).
(d) P(A
n Ii).
1.17. Suponha que A, B e C sejam eventos tais que P(A) = P(B) = P(C) =
P(A n· B) = P(C () B) = o e P(A () C) = 1/8. Calcule a probabilidade
de. que ao menos um.dos eventos A, B ou C ocorra.
= 1/4,
.
.r;?:~··
'-r.1-8. Uma instalação é constituída de duas caldeiras e umamáquina.Admita
que o evento A seja qqe a _!TI~quina esteja em boas condições de funcionamento,
enquanto. ~veritos Bk (k := 1, são os eventos-de que a k-ésima caldeira esteja
em boas condições. O evento C é que a instalação possa funcionar. Se--a instalação
puder funcionar sempre que a máquina e pelo menos urria.das caldt;jras funcionar,
'
expresse os eventos C e C, em termos de A e dos Bk.
,os
:n
.~"'"',;~_...;., )~
('.....t.ts~· Um mecanismo tem dois tipos de unidades: I e · II_. Suponha que .se
disponha de duas unidades do tipo I e três unidades do tipo I( Defina os eventos
Ak, k= 1, 2eBj,j= 1, 2, 3 daseguintemaneiía:Ak:ak-ésimaunidade do tipo I
está funcionando adequadamente; Bj= aj-ésima unidade do tipo II está funcionando adequadamente. Finalmente,· admita que C represente o evento: o mecanismo
funciona. Admita que o mecan1smo .funcione se ao menos uma unidade do tipo I
e ao menos duas unidades do tipo II funcionarem; expressé o evento C em termos
dosAk e dosBj.
·.;'
...,
. .'
'~
Espaços Amostrais Finitos
Capí.tulo 2
2.1.
Espaço Amostral Finito
Neste capítulo nos ocuparemos unicamente de experimentos
para os quais o espaço amostral S seja formado de um número finito
de elementos. Isto
S
I
,·1
A fim de caracterizar P(A) para este modelo, deveremos ini..:
'cialmente considerar o evento formado por um resultado simples,
algumas vezes denominado evento simples ou elementar, A ~ {a;}.
Procederemos da seguinte maneira:
A cada evento simples {a;} associaremos um número p;, denominado probabilidade de {a;} 1 que satisfaça às seguintes condições':
(a)
p;;,:::o,
(b) P1
i= 1,2, ... ,k,
+ P2 + ... + Pk =
1.
[Porque {a;) é um evento, essas condições devem ser coerentes com
aquelas postuladas para as probabilidades dos eventos em geral,
como foi feito nas Eq. (1.3). É fácil verificar que isso se dá.]
Em segu_ida, suponha-se ,que um evento A seja constituído por
·
·
r resultados, 1 :::; r:::; k, a saber
onde j;, j~,;· ., ;};representam mn qualquer'<'.Q§~;fq,~tfêsj de 1 até k.
Conseqüentemente, conclui-se da Eq. (1.3), Propriedade 4, que
i
I
1
I ESPAÇOS AMOSTRAiS fiNiTOS 1 27
•
"?>~~.'õ'.':..~~~~~----~- - atnbmçao dr! probabilidades
•
Pi a cada evento
•
~~~!~t~~~'f"!'·a
•
-
I
elementar {ad, sujtjto às condições (a) e (b) citadas anteriormente,
determina ~,.:~~~~nte P(A) para lcada evento A C S, onde P(A) é
dado pelãE~f~'t}
.
, .
1
Para avaliarmos os p; individuais, algllina hipqtese referente
aos resultados individuais de_ve seJ feita.
.
·
Exemplo 2.11.. Suponha-se que somente • tres resultados sejam
possiveis em um experimento, a saber, ah .<li e a 3 • Aléni .disso, suponha-se _que. a1 seja duas vezes Fis provável de o.correr que a2, o
qual por sua vez é duas vezes mai~ provável de ocorrer que a 3 •
Portanto, P1 = 2p2 e P2 = 2p3. Já que P1
remos 4pa
2pa
pg = 1, o qul finalmente dá
+
+
1
Pa =
7•
P2lI 72
+ P:l+ P3 = I,
te-
4
e
P1 =
T·
Comentdrio: Ns exposição que se..$egue,
empregaremos
a expressão "iguali
.
mente verossúneis" para signüicar "igu~lmeote prová'\éis".
co~um~nte
A hipótese mais
Ifeita para ;espaços amostrais finitos é a de que todos os
.
sejam igualmente verossímeis.
Esta ·hipótese nãO pode ser,
·
tomada como segura; ela deve
ser cuidadosamente justificada. ;Existem muitos experimentos para
os quais tal hipótese é assegurad11, mas existem também muitas si. tuações experimentais nas quais i seria · absolutamente errôneo aceitar-se essa suposição. Por exeJ?~lo, seria b~~;Sta.nte irreal supor que
seja igualmente verossímil não ocorrerem chamadas telefônicas em
um centro entre 1 e 2 horas da ~adrugada e entre 17 e 18 horas da
tarde.
I
•
\
I
•
"'~+~==~~·
... +
l-~·rução
P1
p~c =:=
1 torna-se kp• = 1· para todo, i. t Disto de, formado de r resultados, teremos
1t muito importante ··C·om.onleii.der que a expressão de
é apenas uma
cons~qüên~i~
qa
P(A) acima
de,,que todos, os resultados
28 I PROBABILIDADE
sejam igualmente verossimeis, e ela é aplicável somente . quandO essa
suposição for atendida. Ela certamente não serve como .· uma · defi·nição geral de probabilidade.
o"::\
Exemplo 2.2. Um dado é lançado e . todos os r~sriliados se supõem igualmente verossimeis. O evento A ·-~c~r~er'á. se, e. somente
se, um número maior do que 4 aparecer, isto é,
=:: {5, ' 6}: Conseqüentemente, P(A) = 1/6
1/6 .== 2/6.
+
A
r-:>\ ~
v
Exemplo 2.3. Uma moeda equilibrada é · at_irada . çluas vezes.
Seja A. o evento: {aparece uma cara). Na avaliação _de P(A), a
~ ~ análise do. .problema poderia ser a seguinte: O espaço amostral é
-~
S ={O, 1, 2} onde cada resultado representa o número _de ~aras
~
que ocorre. Portanto, seria encontrada P(A) ;, 1/3! Esta análise
~ é obviamente incorreta, porque no espaço amostral.cónsiderado aci~a; '
todos os resultados não são igualmente verossímeis. A fim de aplicar
· !f
os . métodos expostos, deveremos considerar. em s .e ú lugar o espaÇo
amostral '= IHH, HT, TH, TT}, onde H ·i:épresenta cara, e ·T
- . oroa. Neste espaço amostral todos os resultados são _igualJ!lente
verossimeis e, . por isso, obteremos como soluçãó cbrreta de · nosso
problema: P(A) = 2/4 = 1/2. Poderíamos empregar corretamente o·
· espaço S da seguinte maneira: Os resultados O e 2 ·são igualmente
verossímeis, enquanto o resultado 1 é du~s vezes mais provável que
qualquer um · dos outros. Portanto, P(A) =: 1/2, o que concorda
com a resposta anterior.
f_ W
3
=r
t
Este exemplo ilustra dois aspectos. Primeiro, deveremos estar
bastante I SegUrOS de que tod~S OS resultados pOSSam SUpOr-Se igual.:_
mente verossíme\s, .antes de empregar o procedimento 'acima. Segundo, poderemos freqüentemente, por uma escolha apropriada do
espaço· amostral, reduzir o problema a outro, em que todos os resultados seja,;_ igualmente verossímeis. Se~pre 'qne possível, isto deve
.ser feito porque g~ralmente· , torna o cálculo . máis si.rhples. Este
aspectQ. será-de novo mencionado em exemplos subseqüentes.
r
Muito freqüentemente, a maneira pela qual o experimento -é
executado determina se os result!tdos possíveis são igualmente verossímeis ou iíão. Por exémplo, suponha-se que retiremos um parafuso de uma caixa /que ·coiitenh~ tr~s parafusos de tamanhos dife~n­
tes. Se simplesmente escolhermos o parafuso este:rrdendo a mão
dentro da caixa e apanhando aquele que tocarmos primeiro, é óbvio
que o parafuso maior terá maior probabilidade de ser escolhido que
os outros dois. No entanto, etiquetando cuidadosamente cada para.:.
fuso com um número, escrevendo o número em um ·cartão, é esco-
~
.
IESI?AÇOS AMOSTIRA~S .fiNDTOS
I 29
lhendo um cartão, tentaremos garantir que cada parafuso tenha de
fato a mesma probabilidade de ser escolhido. Assim, poderemos
nos meter em enorme trabalho a fim de assegurarmos que a suposição
matemática de resultados igualmente verossímeis seja de fato apropriada.
'
Nos exemplos já vistos e em muitos que se seguirão, trataremos
d:a escolha ao aeliso de um ou mais objetos de uma dada coleção de
~:.~;~::::::;~~,::=:!::!~~:~~~~::foe';:/:ion'hamQ~.
(a) Escolher ao acaso.um obJeto, dentre N objetos, significa qiUle
cada objeto tem ã mesrn.a: Pl)Obabilidade
ser esc,o!hido, isto é,
·
·
-b
~
).
Pro (escolher a;= lN,
r
de
· =. 1, ~2, ... ,N."·o
t
~..11"1 í((j
de·:;,
~
,.~~·),
l'!.'J.,<;~':?Gi':J/"i,::fc,..-1,
'
""r/Z
(b) Escolher ao acaso dois obJetos, dentre N objetos, significa
que cada par de objetos (deixada a'ordem à partertem a mesma probabilidade de ser escolhido que qualquer outro par. Por exemplo,
se devemos escolher ao acaso dois objetos dentre (ai; a 2, as, a4), obter
a 1 e a2 é então tão .provávêl quanto obter a2 e as etc. '·Esta for~ula­
·r;ão'"levanta-imediatamente a questão de quantos pares diferentes
existem. Admita-se que existam K desses pares. Então, a proba-
bilid~-;!,~~~R~/K. Logo,, Vft~~:m;,ç§~i~2:S~l~~iS~?).
/,..........(~) Escolher ao acaso n objetos (n ::; N) dentre N objetos signi/
/
,.
/
i
.,
)
\\
fica que cada ~nupla, a saber a;,, a;,, . .. , a;n é tão provável de ser
escolhida quarito qualquer outra ~nupla.
Comentário: Já sugerimos acima que se deve tomarextremo cuidado durante
o procedimento experimental, para assegurarmos ,que a suposição matemática q~ ~ / ,......
.
•
•
I
=-+
~
.•4 .tl .P~-<J ~"'Y)
"escolher. ao acaso"
seJa
atendtda..
.t ,,
r1•".11~; ...r~e.., .:-~'i l·~i t•r.·, t.,.,.,.
,<'= ...,.."'\ C ÇJ
L-.· jlt,1 '-·· '""
..
.
1
.
-~''{_
t:·
- or:';;....-r- .., .
\~.--·'if'> €;--~/t.NiVJ;Dt. ?ki de
2.3.
.v
,.
Métodos de Enumeração
Deveremos fazer uma digressão, a esta. altura, para aprendero
mos como enumerar. Considere-se novamente a forma já vista de
P(A) a saber P(A) = r/k, :'Onflfu~Ji~O'inlffil:ero"'io:t·a:l;;€hle:matt:eir.a:s..--
. -~;~:::~!!1:~=:~~;:~;~~~t~~;~!!!~~~;:~:;:~~:~~:"
. aqui;-pequena difi~uld~de-foi ençontrada para calcular r e k. · Mas
nós precisamos estudar sit~ações apenas um poupo mais complicadas, para percebermos a necessidade de alguns procedimentos sistemáticos de contagem ou enumerâção.
30 I PROBABIUDADIE
/ lp
_,.
/ ,:;ljl~~~{~~~r,·.~ Uma partida de cem peças ,é ,comppsta ,de ~O .
peçM-defeituosas e 80 peças perfeitas. n ·ez dessas . peçás 'são escolhidas ao acaso, sem reposição de qualqu~r peça· escolhida antes que
a seguinte seja escolhida. Qual é a probabilidade de que exatarnente
metade das peças escolhidas seja defeituosa?
··
Para analisarmos este problema, consideremos ·o seguinte ·espaço amostral S. Cada elemento de S é. constituÚ:lo deqez possíveis
peças da partida, (i,, i2, . . . , i,o). Quantos resultádos des~es existem?
E dentre esses resultados, quantos têm a característica de que exatamente a metade das peças seja defeituosa? Nós, evidentemente,
precisamos ter condições de responder a tais questões a fim de resolvermos o problema em estudo. Muitos problemas semelhantes dão
origem a questões análogas. N'nST"puucmí:::i)eç~egumte~...,a.p.re~­
tãiêffio'S'::~àlgumas=téeni:cas~si1fteiji4Hj~.as,,;dg~êriDttmY.a~aeo
Suponha-se que ·um procedimento
possa ser
de n 1 ma~eiras. Admita'-se
que um- segundo procedimento, designado por 2, possa ser executado
de n2 maneiras. Suponha-se, também, que cada maneira de e~ecutâ.r
1 possa ser· seguida por qualquer daquelas para executar 2. Então,
o procedimento formado por 1 seguido de 2 poderá ser executado de
n 1 • n 2 maneiras. Para indicar a validade deste priiJ.cipio, é ~ais
fácil considerar o seguinte tratamento sistemático;
I
li
,,I
p
i"íg. 2.1
COnsiderem-se um ponto P e duas retas L 1 e L2. Admita-se que
o procedimento 1 consista em ir de P até L1, enquanto o procedimento
2 consista em ir de L 1 até L 2 • A Fig. 2.1 indica como o resultado
final é obtido.
Comentário: Obviamente, esta regra pode ·ser estendida a qualquer número
de procedimentos. Se existirem k procedimentos e o i-ésimo procedimento puder
· set executado de n,; maneiras, i = 1, 2, .. ; , k, então o proc.edimento formado
por 1, seguido por 2, .. . , se'guido pelo procedimento k, poderá ·s er executàdo de
l'l1ll:! • • • nk rrumeiras.
ESPAÇOS AMOSTRA IS FINITOS I 31
Exemplo 2.5. UDll). peça manufaturada deve passar por três
estações de controle. Em cada estação, a peça é inspecionada para
determinada característica e marcada adequadamente. ~a primeira
estação, três classificaçõe..> ~il.o possiveis, enquanto nas duas últimas,
quatro classificaçõe!l são po!~!l{veis. Conseqüentemente, exilitem
3 - 4 - 4 = 48 maneiras pela:; quais uma peça pode ser marcada.
B. Regra da Adição. Suponha-se que um procedimento, designado por 1, possa ser realizado de n1 maneiras. Admita-se que
um segundo procedimento, designado por 2, possa ser realizado de n2
maneiras. Além disso, suponha-se que não seja possível que ambos
os procedimentos l e 2 sejam realizados em conjunto. Então, o
número de maneiras pelas quais poderemos realizar ou I ou 2 será
n1
+ n2.
Novamente, empregaremos um tratamento esquemático para nos
convencermos da validade da regra da adição, como a Fig. 2.2 indtca.
p
L,~l,
Fig. 2.2
Comenúirio: Esta regra também pode ser generalizada da seguinte maneira:
Se existirem k procedimentos e o i-ésimo procedimento puder ser realizado de n;
manein.s, i ~ 1, 2, ... , k, entAo, o número de m&neiras pelas quais poderemos
realizar ou o procedimento 1, ou o procedimento 2, ou ... , ou o procedimento k,
é dado por n 1 + n2 + _ . + nA:. supond<H!e que dois quaisquer deles nlo se possam realizar co llJltament.e.
Exemplo 2.6. Suponha-se que estejamos planejando uma viagem e devamos escolher entre o transporte por ônibus ou por trem.
Se existirem três rodovias e duas ferrovi~, então existirão 3 + 2 = 5
caminhos disponíveis para a viagem.
C. Permutações e Arranjos. (a) Suponha-se q ue nós temos n
objetos diferentes. De quantas maneiras "p" poderemos dispor (permutar) esses objetos 'l Por exemplo, se tivermos os objetos a, b e c,
P<>deremos considerar as seguintes permutações: abc, ccb, bac, bca,
cab e cba. Portanto, a resposta é 6. Considere-se, em geral, o se-
... ____________________________
._
. 32 I I"ROBAB!UOADIE
O primeiro comparti,mento pode ser ocupado por qualquer
uma das n maneiras, o segundo compartimento por qualquer u~a.
das (n - 1) maneiras, .. . , e o último comparÜmentO apenas por
uma maneira. Portanto, aplicando-se a regra da multiplicação,
vista acima, verifica-se que a caixa poderá ser carregada de n(n-1)
(n- 2) . .. 1 maneiras. Este número aparece tão freqüentemente em
Matemática que se adotam um nome e um símbolo especiais para ele.
Definição.
Sendo n um inteiro positivo, definimos n! = ·(n)(n- I)
Também definimos
(n- 2) ... 1 e o denominamos fatorial de n.
O!= 1.
Dessa maneira, o número de permutações de n objetos diferentes é dado por
(b) Considerem-se novamente n objetos diferentes. cA<gQp§t9:~- .•
~~~::;~fi!!~~~~~~:;~!e~v:!~:!~~~-~:;;r-~~~~~~]1!~3~~~~:,
por::11Jf;. ··Recorremos novamente ao esquema acima, de encher uma
caixa de n compartimentos; desta vez simplesmente paramos depois
que o compartimento de ordem r tenha sido ocupado. Assim, o primeiro compartimento pode ser preenchido de n maneiras, o segundo
de (n- 1) maneiras, ... e o de ordem -r de n- (r- I) maneiras.
Portanto,- o procedimento completo poderá ser executado, novamente
aplicando-se a regra da multiplicação, de
n(n -'- 1) (n - 2) ... (n- r
+ 1)
maneiras. Empregando a notação · de fatorial, introduzida acima,
poderemos escrever
·'I
D. Combinações. C.on8iderem-se, novamente, n objetos difeAgora, trataremos da cont&g<em do número de mweiras de
rentes.
ESPA'ÇOS AMOSTRAIS FINITOS I 33
escolher r dentre esses n objetos sem. considerarmos a ordem. Por
exemplo, temós os obj~tos a, -b, ~
~ =:2; desejainQ~· contar ab,
ac, ad, bc 1 bd e cd; por outras palavras, não contaremos ab e ba, porque os mesmos objetos estão incluídos e somente a ordem é diversa.
Para obtermos o resultado geral, recordaremos .a· fórmula deduzida acima: o número de maneiras de escolher r objetos dentre n, e
permutar os r escolhidos é n!/(n- r)! Seja C o número de maneiras
. de escolher r denl;re os n, não considerada a ordem. (Isto· é, C é o
número procurado.) Observe-se que, uma vez que r objetos tenham
sido escÓlhidos, existirão r! maneiras de permutá-l~s. Conseqüen-:temente, aplicando~se novamente a regra da multiplicação, juntamente com esse resultado, obteremos
';':Z/ :;
__
n!
1
Cr.(n- r)!
Portanto, o número de maneiras de escolher r dentre n objetos diferentes, não se considerando. a ordem, é dado por.
C=
.
n!
r!{fl.- r)!
.
Este número surge em muitas passagens da Matemática e, por
isso, um símbolo especial é empregado pará éle. Escreveremos
rl(n~ r)!
Para nossos objetivos atuais, (
~)
=(
~)
somente fica definido para n in-
teiro positivo e r um inteiro tal que O :5_ r :5_ n.
remos definir
(~) · de
Contudo, pode-
modo mais geral, para qualquer número real
n e para qual<Iuer inteiro não negativo r, na forma seguinte:
n) =
(r
Os números (
n(n-l)(n-2) ··· (nr!
.
r+ 1).
~) são freqüentemente denominados coeficientes bino-
miclis, porque eles. aparecem como co!)ficientes no desenvolyimento da
binomial (a+ b)n. I Se for
inteiro positivo, (a+
=
= (a+ b) (ar+ b) ..• (a + b). Q~ando a multiplicação tiver sido
eKecutada, cada termo será formado de k elementos a, e de (n - k)
<e;lq)ressio
elementos b,
n um
k =O, 1, 2, .. . ,n.
w
Quàntos te~osda forma akbn-k
34 I PROBABiLIDADE
existir~? Simplesmente contaremos o númeci ,iJ.e>lniuiei.ráB posSf..
veis de escolher k déntre os n elemen~s a, ·débiandó deiãdó a'otdém.
Mas isw é justamente dado por (
~) ~· Dai ob~rtridso "~Jeé collhe-
cido como o reorema birwmial:
±
. ·.
.(a+ b)" ~ •-o (n)a~bn-k_
k .
.
(2.2)
Os números (;)apresentam muitas propriedades
in~~ess;mtes, ape-
nas duas das quais mencionaremos aqui: (A . merios que . ~e diga
expressamente de modo diverso, admitiremos que n sej~ inteiro posi·
tivo e r um inteiro, O ~ r ~ nJ
~ fácil verificar algebricamente as duas identidades acima. Basta
desenvolverem-se, em cada uma, · o primeiro e o segundo membros, e
verificar que são iguais.
Existe, contudo, outra maneira de verificar essas "'id~ntidades,
que emprega a interpretação que demos para (
~), . a · saber,
o nú-
mero de maneiras de escolher r dentre n coisas.
(a) Quando escolhemos ·r dentre n coisas, estamos ao mesmo
tempo deixando (n:.... r) coisas não ·escolhidas, e, por isso, escolher r
dentre n é equivalente a escolher (n ·- r) dentre n. Ora, isso é exatamente a primeira identidade a verificar.
(b) Vamos fixar um qualqm~r dos n objetos, por exemplo o primeiro, a1. Ao. escolher r objetos, a 1 estará incluído ou estará excluído,
mas não ambas as coisas. Portanto, ao contar o número de maneir!LS
de escolher r objetos, poderemos aplicar a Regra da Adição, explicada anteriormente.
Se a 1 for excluído, então deveremos escolher os r objetos desejados dentre os restantes (n - I) objetos, e existem ( n
~
1
) maneiras
de se fazer isso.
Se a 1 for incluído, entã:o somente (r - I) mais objetos deve~
ser escolhidos dentre os restantes (n - I) objetos e isto pode ser
feito de (
=
~ ~)
maneiras.
Conseqüentemente;· o .número procu-
rado é a soma desses dois, o que verifica a segunda identidade.
:~
I
.
.
ESPAÇOS AMOSTRAIS FINITOS I 35 .
I
Comentário: Neste contexto, os
[ f"1c1entes
·
c~e
b'momm.lS
· · ( kn ) t"em sent'd
1 o
somente se n e k forem inteiros
não-negativos,
com O ,;;; k ,;;; n. Todavia, se escre.
I
vermos
i I
n!
_ n(~-l) ... (n -k+ l)
( )=---I
k
k!(n-k)!
k!
n
.
·'
I
observaremos que a última expressão temisentido se n for qualquer número real e
k for qualquer inteiro não-negativo. Portanto,
I
3
I
(-3)( + 4) ... (-7) !
= -----,-,...-----
c )
.
I 5!
5
I
e assim por diar1te.
Empreg;uido · esta versão estendida dos· coeficientes binomiais, poderemos
estabelecer a forma generalizada do teorenk binomial:
f.
.
I
.
n
ooi
(l+x) =E '
··
(
n
kJo k
I
)x
k
'
I
Esta série tem significado para qualquer ;n real e para todo x tal que I·X I < 1.
Observe-;<;e que, se n for um inteiro posithp, a série infinita se reduz a um número
finito de
t~rmos,porque, neste caso, ( ~)
f
i
O, se k> n.
.
(a) Dentre oi:o l pessoas, quantas conússõ~s de
tres membros podem ser escolhidas ? Desde que duas corrussões
sejam a mesma comissão se forem cbnstituidas pelas mesmas pessoas
(não se levando em conta a ordem e~ que sejam escolhidas), · teremos
• Exemplo 2.1.
· ( ~ ) = 56 conússões possíveis.
1
(b) Com oito bandeiras difere~tes, quantos sinais , feitos com
tl'ês bandei;ra.s se podem obter? Este problema parece-se muito com
o anterior. No entanto, aqui a ordem acarreta diferença e, ,por isso,
obteremos 8!f5! = 336 siwüs.
:
·
·
·
(c) Um grupo de oito pessoa.S é formado de cinco homens e
três mulheres. Quantas coiDÍllSões ~e três pessoas podení. ser constituídas, .· incluilldo exatamente dois 1homens? · Aqui deveremos fazer
duas coisas: escolher dois homens (dentre cinco) e escolher uma
.
I
mulher (dentre três). Daí 1 obtermos como 1 número procurado
(
~) · ( ~ )
= 30 comissões.
!
(á) Agora poderemos verifica~ uma afirmà.ção feita anteriormente, a · saber, a de que o númerq de subconjuntos (ou partes) de
36
I lf'ROBABIUDAOIE
um
conjunto constituído de n elementos é igüàJa 2" :(coritados o
conjunto vazio e o próprio ()onjunto) . .· Siwplesine11te a.ssoçiemos a
cada elemento o valor um ou zero, conforme esse elemento deva
ser incluído . ou excluído do subconjunto. Existe~ du~s .· maneiras
de rotular cada elemento e existem a,o ~oqo p, desses elementos.
Daí a regra da multiplicação nos dizer que existem 2 · 2 · 2 · · · 2 = 2"
rotulações possíveis. Mas cada rotulação particular representa uma
escolha de um subconjunto. Por exemplo, . (1; 1, O, ,0,
O)
constituiria. Ó subconjunto formado exatamente por d.1 e · ~~- Ainda,
(1, 1, •... , 1) representaria o próprioS, e (0, O, ... , O) .representaria
. o conjuntá vazio.
o;· ... ,
(e) Poderíamos. obter o resultado acima, pelo emprego da Regra
da Adição, na forma seguinte: Para obter subconjuntOs, .deveremos
escolher o conjunto vazio,. aqueles subconjuntos co:D,stituídos .exatamente por ~m elemento, aqueies constituídos exat~nÍenÚ~ por dois
elementos, ... , e o próprio conjunto constituído por todos os n elementos. Isto seria feito de
maneiras. Ora, a soma desses coeficientes. binomiais é exatamente
o desenvolvimento de' (1
1)" 2":
Voltemos agora ao . Ex. 2.4. De · uma partida formada . por 20
peças defeituosas e 80 peças perfeitas, escolhemos ao acaso 10 (sem·
+
=
reposição). O número de maneiras de fazer isso
é· e~).
Daí,
a probabilidade de achar exatamente 5 peças defeitu 0sas e ·5 perfeitas
entre as 10 escnlhidas ser dada por
(2~) (~o)_
e~)
Por meio de logaritmos de fatoriais (os quais se acham tabuls.dos),
a expressão acima pode ser avaliada como igual a 0,021.
Exemplo ·2.8. Vamos generalizar o problema acima. Admitamos que temos N peças. Se. escolhermos ao acaso n delas, sem reposição, teremos (
~) diferentes
amostras possíveis, todas elas com
111
· rilesma. probabilidade de serem escolhida.S. Se as N peças forem
!~~madás por r 1 da classe A e r2 da, classe B · (COJ1l r1 r2 = N),
+
ESPAÇOS AMOSTRAIS !FINITOS I 37
então, a probabilidade de qu~ as n peças escolhidas sejam exatamente
da classe A e (n- s 1) da classe B será dada por
111
(A express·ao acima se denomina probabilidade ltipergeomélrica, e
será aillda reencontrada.)
Comentdrw: 11: muit;o importante <éspecificar, quando falarmos de peças
G!lxtra!das oo acaso, SG!l a eS1:nlh& é · com ou sem reposiçl!.o. Na maiori& dos casos
concretcs, pretenderemos a última. Por exemplo, qus.ndo inspecionamos certo
ndmero de- peças manufs.turadas a fim de descobrirmos quantas defeituosas poderiw existir, geralmente não tencionaremos examinar a mG!lSma. peça. duas vezes.
Já disSG!l!D.()8 que o número <l.e maneiras de e.gcolher r coiSilll dentre n, não considerada
B
(~). · O. número de maneiras de escolher y coisas dentre n,
dado por n•. Neste caso, eataremoa interessados na ordem em
ordem, é dado por
com repoaição, é
que as peç:ns sejam escolhidas. ·-
·.
Exemplo 2.9. Admitamos que se escolham ao acaso dois objeios,
dentre os quatro denominados a, b, c e d.
(a) Se escolhermos sem reposição, o espaço amostral S poderá.
ser representado da forma abaixo:
S
Existem (
~)
= ((a, b);
=
(a, c); (b, c); (b, d); .(c, d); (a, d)}.
6 resultados passiveis.
Cada um desses resultados
indica somente quais os dois objetos que foram escolhidos e não a ordem em que eles foram escolhidos.
(b) Se escolhermos com reposição, o espaço amost ral §' poderá
-ser representado por:
S' = { (a, a); (a, b);_ (a, c); (a, d); (b, a); (b, b); (b, c);
(b., d);}.
(c, a); (c, b); (c, c,); (c, d); (d, a); (d, b); (d, c); (d, d)
Existem 4 2 _= 16 resultados possíveis. Aqui, cada um desses resultados indica quais objetos foram escolhidos e a ordem -em que eles
o foram. Escolher ao acasq implica que, se escolhermos sem reposição, todos os resultados em S serão igualmente verossimeis, enquanto
se escolhermos com reposição, então todos os resultados em S' serão
igualmente verossímeis. Portanto, se A for o evento {o objeto c é
38 I PROBABILIDADE
escolhido} I então teremos: de . s, P(A) = 3/f, ;=( 1/2 se ' eS(!Olh~rffios
se~ reposição; e de S', P(A) = 7/16 se escdlhermôa com;-re~~siÇão.
E. __,.Ji!e7f/ttiil&$r§<ÇÕW,4lu'úits:c;Jtléirient&~:,B~e'ffie~ftvs~' · Em.todas .as
técnicas'"â~:.:-êiiumeraçã~ já apresent~das, . admitimos que ~deis os
objetos considerados fossem diferentes (isto é, distinguív(lis). No
entanto, não é sempre essa a situação que ocorre, ·
Suponha-se, a seguir, que temos n objetos, tai!l que n~ sejam
de uma primeira espécie, nz de uma segunda espécie, -. , .;•m< .de .;\una
k-ésima espécie, com n1 + nz + ...
n~c = _n. - Nesse CaS!), o 'nú~
mero de permutações possíveis desses n objetos .é dado por
+
I'Í
n!
n1!nz!. . . n~c!
Deixa-se ao leitor a dedução dessa fórmula. Note-se ~tie, se todos
objetos fossem diferentes, teríamos TU = 1, i ·:.: 1j 2, ; ·~ . 1 k, é,
conseqüentemente, a fórmula acima se reduzirià a n!, que é o res'll1- .
tado obtido anteriormente.
OS
Comentán"o: Devemos .salientar mais uma vez que a atribuição realística de
probabilidades a resultados individuais de um espaço amostral,( ou a mp.a.éoleção
de resultados, isto é' um evento) constitui alguma coisa que nã:o pode sei déduzi~a
matematicamente, mas que deve ser originada de outras considerações. Por 'exemplo, poderemos recorrer a determinados traços simétricos do experimento para '
averiguar se todos os resultados são .igualmente prováveis. Além disso;poderemos
construir um procedimento de amostragem (por exemplo, escolhendo :• um:ou
vários indivíduos de uma população especificada) de tal maneira que' seja rai:oávd
admitir que todas as escolhas sejam igualmente prováveis. Em muitos outi:os casos,
quando nenhuma suposição básica natural seja apropriada, deveremos recorrer à
aproximação da freqüência relativa. Nós repetiremos o experimento n'vezes e·, em
seguida, calcularemos a proporção de vezes em que o resultado (ou eveiltÓ)
estudo tenha ocorrido . Ao empregar isto como uma aproximação, sabemos que é
bastante improvável que esta freqüência relativa difira da ''Verdadéira" pfõbàbili~
dade (cuja existência tenha sido especificada por nosso modelo te6rico), de tim
valor apreciável, se n for suficientemente grande. Quando for impossível estabelecer suposições razoáveis sobre a probabilidade de um resultado e também
impossível repetir o experimento um grande número de vezes (em Virtude de
considerações de custo ou de tempo, por exemplo), será realmente bastante sem
sentido prosseguir com um estudo probabilístico do experimento, exceto em uma
base puramente teórica. (Para um comentário adicional sobre este mesmo ponto,
veja a Seção 13.5).
'
efu
2.1. O aeguÍnte grupo de pessoas está numa ·sala: 5 homens maiores de 21
anos; 4 homens com menos de 21 anos deidade; .6 mulheres maiorés de 21- anos, ·e
..ti
~''!' I"'\
,J...J"'{'<-,
j,
" r ''..]'\ . -~-...\
.,..:\ DOt;,
r .r-.,5"'<---J
ESPAÇOS AMOSTRAIS FINITOS I 39
\ "J'
V'"
\}(
3 mulheres menores. Uma pessoa. é esdolhida ao ace.So. Definem-se os seguint..es
eventos: A= {a pessoa é ~aior de'2i1 an~sl; 'E= (a. ,pessoil. é menor de 21
anos).;, C,;;,· (.a. pessoa. é homem); D
(a. ~oa. . é mülhe'rl, ~ CS.!~e: ·
;=
(a) P(B
·.·
li
·.
U D),
(b)
P(Ã
n C).
~ E~· um~ s~J,la., 10 pessoas estãd usando emble~as numerados de 1 até 10.
I
Tr~OII8
são escolhidas
ao acaso e t convidadas a saírem da
sala simultanea...
···'
mente. r.O número
de
seu_!~mblem_~. é _~nota.do.
.
.
.. ·....::.
.
.
l
.. ,.... ·:.:·.·. ~ . .:·:-: ..- ·.:..:.:~-~-: ....~:.:-~,..:.-~;::-:;.::.r::::::::;~.-:;":-~_--:,-·::~::::::.,...
(a) Qual é a. probabilidade ·d~ .qtle .o menor número .de . ern~~IDJ!oAlCja .-5? ... ,.,, '
(b) Qual é. ~ p~~b~hÜidad~ d~ que lo' ~~iJ;·~;j;~;~d~·~~bl~ma ~ej~ 5? /
.
.·· ... \
i
. . ,_
.. ' ·-·
~ .
.
Suponha que os três dígitoS.l, 2 e 3 s~jam escritos em ~rdem*atória. Qual a probabilidade· de que ao menos um dígito. ocupe seu lugar próprio?
(b) O ~esmo que em (a), com os \dígitos 1, 2, 3 e 4. . i ·
·
-
2.3.
(c)
(a)
·o
mesmo que em (a), com os idígitos 1, 2, 3, ... , n.
!
SugeStão·: Empregue (1.7) .
(d) Examine a resposta a (c), quarldo .n for grande.
.
.
I
.
2.4. Uma remessa de 1.500 a,rrueias contém 4ÔO peças defeituosas e 1.100
perfeitas. Duzentas arruelas são escolhidas ao acaso (sem reposição) e classi~
ficadas.
.
.
(a) Qual a probabilidade de que sejam encontradas exatamente 90 peças
defeitUOSas? ;
',
,
r,
.
I·
..
•
,;
I
·
·
Qual a probabilidade de que seiencontrem ao. menos 2 p eças .defeituosas?
(b)
1
2.5. Dez ficha~ numeradas <:le 1 até 10 são misturadas em uma urna. Duas.
fichas, nu:merad~ ._<X, Y), são extr~!das d
j a urna, sucessivame,nte :e, sem reposição.
Qual é a probab1hdade de que seJa X +t- Y ·= 10? .f.J.__.
l J
(1
.
. ,r//
"~
·
1 .
r
•
)
o'-"~
.
2.6. Um. lote é' formado
de
10 ar~i~os
e 2 com
'
:
. bons, / 4 \ ~rr: d~feitos menor~~
.
defeitos graves; U:m arti"go é dcolnido lf acãso. ··Ache a probab,ilidade de que:
(a) . Ele não tenha defeitos.
j
\'
"\..
t;nh~ d~reitos gra':-es. •
·
.
(c) E!~ ~u ·seja p~rfei~· ou 'tenh~· d~feitos graves.
(b) ,EJel nii.o
•
,~· -
-
I
,
,'·~ ·
.
2.7. s'e do lote 1~~rtigos descrito [no Probi. :2.{!, dois artigos f~re~ escolhi- .
~
L
. .-:::)
dos (sem rep,osiÇ.ão), áché a probabilidàd~ de que:
t.a) Ambos- sejam' perfeitos. · (b} Amb~s"'-tenham defeitos gr~~eà, (c) ~o
meno.s um. seja -perfeito. (d) No máxill]ó úin seja perfeito. (e) Exatamente Úm •
sejã ·.Perfêltó'. . -(j1""Neuhum deles teuba l defeitos graves. ,....Cg) Nenhum deles seja
!
....._
"
./'
perfeito.
-~ ~
·
·
1
.
/
1_
2.8. Um produto é montado em 1 três estágios. No primeiro estágio, existem 5 linhas de montagem; no segundo lestágio, existem 4 linhas de montagem e
no terceiro estágio, existem 6 linhas d,e montagem . De qúantás maneiras diferentes poderá o prod.utó se deslocar durante o processo de montagem?
I
. . .
2.9. Um inspetor visita 6 máquinas diferentes durante um dia . A fim cie
evitar que os operários saibam quando 1ele os irá. inspecionar, o inspetorvaria a
ordenação de suas visitas. De quantas maneiras isto poderá
ser feito? I
•·'
.
4
40 I lf'ROBABBUDADE
man!~· ;~:ám=~ueC:7:~:~~/:!e 3f~h~~;:~;<;~;~" :~1:;'i;,pç quantas
2.1~. Eirist0m 12. categor~ de d~feitos ~~~6~' :.ât0't~~f~ç~-~J;anrifatu­
rradm, e 10 tipoo de defeitos graves. De quantM'~a,fi~ir~ :pode~q.'. Je<iirer, 1 de-
:~J;,~S~~SS;j~l}~~~#;;;;,
(b) Adm1W. que esses mecanismos sejam ins't~l'ados- 'eni âetemiiriâda 'ordem
o si&t~rria .po~~f.4';~er: disposto, se
dois mecanismos adjacantes não estiverem em igul!.l -pqsiçã~ -~-.:':·, :.. ..
(lin~) preestabelecida. De quantas ~aneir!lll
(c) Qu~mtas maneiras de disppr· serão possíveis, se ,8omentç. as -posições .a e b
1orem usadas, e o forem com igual freqüência?
.__ 1 : ...,. __· ·:.- , _,,." .' '·'"
.
(d) Quantas maneiras serão possíveis, se somente duas. posições fo~em usa,.
das, e d~as posições .uma ocorrer três vezes mais freqüe~te~ez;_f.~' q~~ -~ ~utra?
.
.
.
·.,· ,. t' ~ .. f•
. ·:
I
.
-2.13. Suponha que de N objetos, n sejam escolhidos ao acaso, com reposição.
Qual sem SI probabilidade de que nenhum objeto·seja escolhido
vez? (Admita n < N.)
maiS
do qiui'uroa
,
2.'14. Com as seis letras a, b, c, d, e, j quantas palavras-có~igo de 4 letras
poderão ser foriDSidas se:
·(a) Nenhuma let~_a puder ser repetida?
(b) Qualquer letra. puder ser repetida qualquer · núi:nero de_vezes-?
i) .=a e (O:)
2.15. Supondo que ( 9
111
e b. (Sugeswô: . N ao ca.lcule
as
= b, expreSstJ ( 19W)emtermos de
expr~ões acima, para . resolver ~ .p;oblema:)
2.16. Uma caiu contém etiquetas numeradas 1,· 2, ... , n. Duas etique-
tas_são escolhidas ao acaso. Determine a probl),bilidade de que os ·números das
<etiquetms ooj&m inteiros consecutivos se:
(a) As etiquetas forem escolhidas sem reposição .._
{b) As etiquetas forem escolhidas com reposição.
2.17.
Quantos subconjlintos se podem formar, contend~ . a~- ·p-tenos um ele-
mento, de um conjunto de 100 elementos?
2. ~gj. Um inteiro é escolhido ao a.ca.so, dentre os números 1, 2, ~ . . , 50. Qual
00~ a probabilids.de de que o número esoolhld9 seja divisível por 6 ou por 8?
2.19. Dentre 6 números positivos e 8 negativos, escolhem-se ao acaso .4
números (sem reposição) e multiplicam-se esses números. Qual, será aprobabilidade de que o produto séja. um número positivo?
2.20. Determinado composto qufmico é obtido pela. mistura de 5 Ú~uidos
diferentes. P ropõe-se despejar um lfquido em uin tanque e, em seguida, juntar
os outro~ lfquidos sucessivSJ,mente. Todas as seqüências possíveis devem ser
ensaiadas, para verificar-se qual delas dará o ~elhor resultado.· Quantos ensaios
deverão ser efetuados?
ESPAÇOS AMOSTRAIS FINOTOS
I 41
2.21. Um lote contém n peças, das quais se sabe serem r defeituosas. &l
a orden{ da inspeção das peças se fizer ao acaso, qual a probabilidade de que a peç&·
inspecionada em k-ésimo lugar (k ~ r) seja s última peça defeituosa contida no
lote?
2.22. Dentre os números O, 1, 2, ... , 9 são escolliidos ao acaso (sem reposição) r números (O <r < 10). Qual é a probabilidade de que não ocorram dois
números iguais?
\
.I.,
I
I
I
\
I
I
'. 1,,:.. ""."
"·!
Probabilidade Condicionada
e Independência
Capítulo 3
. l
3.1.
P·robab.ilid.ade Cond,icionada .
·Vamos . reexaminar a diferença entre extrair uma peça de um
lote, ao acaso, com ou sem reposição. No Ex. 2.4, : o lote estudado
tinha a seguinte composição: 80 não-defeituosàs e 20 defeituosas.
Suponha-se que escolhemos duas peças desse lote: ·(a) com reposição; (b) sem reposição.
,. ·
Definamos os dois eventos seguintes:
A = {a primeira peça é defeituos~); B = {a segunda peça é .
defeituosa) .
Se estivermos extraindo com reposição, P(A) = P(B) = 20/100 =
1/5, porque cada vez que extrairmos do lote, existirão 20 peças
defeituosas no total de 100. No entanto; se estivermos extraindo
sem reposição, os resultados ~ão serão tão imediatos. É: ainda ver. dade, naturalmente, que P(A) = 1/5. Mas e sopre P(B) ? É evidente que, a fim de calcularmos P(B), dB:veremos conhecer a composiçãq do lote no momento de se extrair a segunda peça. Isto é, deveremos saber se A ocorreu ou não. Este exemplo mostra a necessidade
de se introduzir o seguinte importante conceito.
Sejam A e B dois eventos associados ao experimento e. De~
.notaremos por P(BIA) a probabiiidade condicionada d~ evento B,
quando . A tiver ocorrido.
=
No exemplo acima, P(B IA) = 19/99, porque se A t iver ocorrido,
então para a segunda extração restarão somente 99 peças, das quais
19 delas serão defeituosas.
Sempre que calcularmos P(B IA), estaremos essencialmente cal.:.
culando P(B) em relação ao espaço.amostral reduzido A, êm lugar de
I
. \_
PROBABILIDADE CONDICIONADA Ê.INUEP.ENDENCIA I
.4l~
I
fazê-lo em relação ao espaço ambstral original S. Consideremos o
Diagra$ de Venn da Fig. .3.1.
r---~--------·s
A
B
Qu:kdo . calcularmos · P(B) estâl:emos
nos
(])
per~taiido quão provávEl! será estar-
D;J.OS em! B, sabendo que · devemos_ -estar
em S. ~ quando calcularmos P(B IA) .e staremos p~rguntando ·quão provável será, estarmos eii). iJ,. sabendo que ~evemos estar
em A, i(Isto é, o ·espaço amostral ficou
redmido Ide S para A.) Logd, daremos uma
!Fig. 3.1
definiçãJ rigorosa <teP(BIA). Por enquan~
to, contudo, empregaremos nossd noção intuitiva de probabilidade
..
da e d.aremos um exemplo.
I
condICIOna
1
1-·
Exemplo 3.1. Dois dados ~quilibrados são lançados, registrand~se o resultado ~orno (x 1, x 2~, onde Xi é o resultado do i-ésimo
dado, ~ = 1, 2. Por Isso, o esp3:ço amostral S pode ser representado pela seguinte lista de 36 re~ultados igualmente prováveis.
I
( (1, I)'"
S = )
(2, I) .
{ (6, :I)
.
(1, ~)
(2, 2)
(1, 6) ) ,
. (2, 6) ~
I
(6, 6)
(6, 2)
c) '
Consideremos os dois
eventos seguintes:
.
I
A = {(x1, x2) Ix1
+ X2 =
10t
B = {(x1, x2) Ix1 ,> x2}.
I
Assim, A
.
I
.
.
= {(5; 5), (4, 6), (6, 4)} e fl.= ·{(2, 1), (3, 1), (3, 2), ... , (6, 5)}.
··E
3
P(B 14) = ~, : uma ve.z; qüe
e P(B) = l~
36
. o espaço amostral é, _agora, forma!do por A (isto é, ·três resultados),
e somente um
desses três resultadJs
é coerente com o evento B. De
.
.
I.
modo semelhante, poderemos calc~lar P(A !B) ,= I/15.
· Portanto, P(A) =
··'..
Finalmente, vamos calcular PCA () B) . . O evento A () B ·ocorre
se, e soii).ente se, a soma dos dois \dados for 10 e se o primeiro dado
tiver, apresentado um valor maior que o segundo dado~ Existe ape1
nas um desses
resultados
e, por isso,
P(A () B) = . 1/36. Se fizermos
,
.
I
um exame cuidadoso dos vá'rios números já calculados, concluiremos
I
'
que
i
I
P(AIB) = P(A () B)
el P(BIA) = P(A () B) ·
·
· ·. P(A')
P(B)
ii
44 I lí'IROBABBUDADIE
,,
Essas relações não surgiram apenas do particular exemplo que
<Consideramos. Ao contrário, elas são bastante gerais, e_nos .<ião
caminho p3;ra definir rigorosamente a probabilidad~ ·condicionada.
Para sugerir essa definição, voltemos ao conc~it<J de frequência
relativa. Admitamos que um experimento s tenha ~ido. repetido n
vezes. Sejam nA, nB e nAnB o número de vezes que, respectivamente, os eventos A, B e. A () B tenham ocorrido em n repetições;
Qual o significado de nAnB/nA? Representa
frequência relativa
de B naqueles resultados em que A tenha ocorrido. . Isto é, nAnB/nA
é a frequênc.ia relativa de B, condicionada a que A tenha. ocorrido.
Poderemos escrever nAn~/riA, da· seguint~ forma:-
um
a
fUnB
nAnB/n .
nA
nA/n
}AnB
=--·
}A ·
onde }AnB e }A são as frequências rel~tivas dos eventos A ()B e A,
respectivamente. Como já dissemos (e explicaremos ~ais tarde)
se n, o número de repetiçõesfot grande, }Anil f)erá próximâ de P(A () B)
e Ú ·será próxima de P(A), Conseqüentemente, a relação acima
sugere que nAnB/riA . será próxima de P(B IA). Por isso, estabelece.
remos a seguinte definição:
Definição:
P(BiA)
=
P(A
n B)
P(A)
I
desde que P(A)
>o.
(3.1)
Comentârios: (a) :f: importante co~preender que isso não ·é um teoremil.
(nós não demonstramos coisa ·alguma), nem é tim axioma. Apena.s introduzimos
a noção intuitiva de probabilidade condicionada e, . depoi.~, estabelecemos uma.
definição ·formal daquilo ·que essa noção significa. o fato de que no!lSÍ!. defiriiÇão
formal corresponde à noSsa noção intuitiva· é fundamentado. pelo .parágrafo que
precede à definição.
(b) l!: assunto simples verificar que P(B IA) para A fixado, satisfaz aos várioo
posttdados de probabilidade das Eq. (1.3). (Ver ·Probl., 3.22.) IstO é; temos
(1')
O~P(B!A)~l,
(2')
P(SIA)
=
1,
(3') P(BiU~~IA),;P(B 1 !A)+P(B2lA) se Bt()B2='0,
(4')
(c)
P(Bt u B2 u
para i ~j.
···IA)= P(BtlA)
(3.2) _
+ P(B2IA) + ·: ·· se · B; nn; =e
Se A= S, P(B I S) =P(B n S) I P(S) =P(B).
(d) A cada evento B c S poderemos associar dois números, P(B), a probabilidade (não-condicionada) de B, e P(B 1 A), a probabilidade condicionada de
._·. B, desde que _algüm evento A (para o qualP(A) > 0) tenha ocorrido. Em gerai,
· essas·.; duas medidas de probabilidade atnouirão probabilidades diferentes ao
I
:~
.·
PROBABILIDADE COi\lDBCiOI\lADA rE ii\lDrEI"rENDIÊi\lCiA I 45
evento B, como indicaram os exemplos precedentes. Dentro em breve, estudaremos um caso especial importante, para o qualP(B) e P(B I A) serão iguais.
(e) Observe-se que a probabilidade condicionada está definida em termos .
da medida de probabilidade não-condicionada P, isto é, se conhecermos P(B)
para todo B c S, poderemos calcular P(B 1 A) para todo B c S.
Deste modo, temos duas maneiras de calcular a probabilidade
condicionada P(B IA):
(a) Diretamente, pela consideração da probabilidade de B einm
~relação ao espaço amostra! ~~:Cduzido .Al.
(b) Empregando a definição acima, onde P(A n B) e P(A) são
calculados em relaÇão ao espaço amostr~l original S.
Ccmientário: Se A = S, obteremos P(B IS) = P(B () S)/P(S) = P(B), porque
= 1 e B () S = B. Isto é como seria de se esperar, porque dizer que S
ocorreu é à.penas dizer que o experimento joi realizado.
P(S)
Tab. 3.1
E
·~ .
.;_:.·.; 1
M
·.
N
40
30
70
u
20
10
30
60
40
100
Exemplo 3.2. Suponha-'se que um escritório possua 100 máquinas de calcular. Algumas dessas máquinas são elétricas (E),
enquanto outras são manuais (M); e algumas são novas (N), enquanto
outras são muito usadas (U). A Tàb. 3.1 dá o número de máquinas
de cada categoria. Uma pestsoa entra no escritório, pega uma máquina ao acaso, e descobre que é nova. Qual será a probabilidade
de que seja elétrica? Em termos da notação introduzida, desejamos
calcular P(E IN) .
Considerando-se somente o espaço amostral reduzido N (isto
· é, as 70 máquinas novas), temos P(E IN) = 40/70 = 4/7. Empregando a definição de probabilidade condicionada, temos que
P(E N) =
: 1
n
P (E
N) = 40/IOO =
P(N)
70/100
.!.
7 '
A mais importante conseqüência da definição de probabilidane
condicionada acima, é obtida ao se escrever:
P(A
n B)
= P(B IA)P(A)
ou,
equivalentemente,
.. .-.~·':.
· ..
46 I PROBABILIDADE
P(A n B) =P(A ' i B)P(E) . ....
(3;3.a)
. Isto é, algumas vezes, mencionado como o teore_ma. da ·miiltiplicação
de probabilidades.
·
·
· '" . ·
Podemos aplic~r esse teorema para calcular
ocorrência conjunta dos eventos A e B.
a ptobabÜidade da
Exemplo 3.3. Consideremos novamente o 'lote forma<;lo . de ·. 20
peças defeituosas e 80 não-:defeituosas, estudado no início' da Seç~ 3.1.
Se escolhermos ao acaso duas peças, sem reposição, qu.ai se~á a pro-:
babil~ade de que ambas as peças sejam defeituosas?
Como anteriormente, definamos os eventos .A e .B,
forma.
A = {a primeira peça é defeituosa l; B
defeituosa l·
na seguinte
= {a segunda peça é
Conseqüentemente, pediremos P(A (I B), qtre poderemos calcular, de acordo com a fó~da acima, como P(B\A) P(A). ::'i1as, ·
P(B IA) = 19/99, enquanto P(A) = 1/5. Portanto, P(A. (I B) =
=: 19/495.
')
Cornentdrjo: O teorema da multiplicação de probabilidades (3.3.a) pode ser
· generalizado para mais de dois eventos, da seguinte maneira :
p [A 1 n A 2 n ... n An J =
=P(Á 1 )P(A 2 I A 1 )P(A 3 I A,,A 2 )
A nB=íl
(a)
...
P(An I A, ... Ari -1).
(c) B c A
(b) A :: B
(d)
(3.3.b)
Nenhum desses casos
Fig. 3.2
Examinemos agora, rapidamente,. se poderemos fazer uma afir- ·
geral sobre a grandeza relativa de P(A jB) e P, (A). Consiquatro casos, que estão ilustrados pelos Diagramas de
Fig. 3.2. Teremos:
porque A não poderá ocorrer se · B
11
.. .
--~~
· --~
---=
- ~ ~- ·-··
IPROBABIUDADE CONDiCIONADA E INDEPENDÊNCIA I 47
I
I=[P(A)/P(p)l ~ P(A), já que
(b) P(A I.8) = P(A í1 B)/P(B)
O~ P(B) ~ 1.
i
=
= ~
\=
(c) P(A IB)
P(A í1 B)/P(B)
P(B)/P(B)
1 P(A).
. (d) Neste caso nada poderem4s afirmar spbre a grandeza relativa de P(A IB) e P(A).
1
.
·
·
·
I
Observe-se que em dois dos casos acima, P(A) ~ P(A IB); em~
um caso, P(A) ;:::: P(A !B); e no qu~rto caso: não podemos fazer qualquer comparação~
I
.
· ·
Até aqui, empregamos o conceito de probabilidade condicionada
. a fim de avaliar a p~obabilidade de [ocorrência conjunt~ de dois even;tos. Poderemos aphcar esse conce1to em outra manem• rle calcular
• a: ·.probabilidade de um evento suhples A. Necessitaremos ·da se·•. g\J'in:te 'definição:
f
1
• '..
I
'!
.
Definição. Dizemos que os e~entos B 11 B 2, ••• , Bk representam
:uma partição do espaço amostral S, f uando
B ; íl Bi. .= 0, para todo iI
(a)
~ .j.
· I
/c
· '
:::.
U
(b)
(c9 P(B;)
:;:.· .
I
B; =S.
I
> O para todo i.
Explicando: Quando o experimento E é realizado um, e somente
I
um, dos {'V~ntos Bi ocorre.
I·,
·
··
(P?r exemplo: na jogada de um dado,
B 1 ~ 11
1,_21; B2 = •{3, 4, 5) e B 3 = {6}
representariam uma partição do espaço
amo~trhl, enquanto C 1 = I i, 2, 3, 4) ~
c2 = 5, 6) não o representariam.)
Consideremos A um evento qualquer referente aS, e B 1, B2, .. .', B~c uma
partição de S. O Diagrama de Venn
na Fi~. 3.3 ilusira isso para k = 8.
Fig.·3.3
·Portan~o, . poderem~s escrever
I
.·
'tj4,
1,/.'
Íl:
'
\
.
ll ·
L
=
A íl B1 U A
.
I
I
.
I":
.
n .B2
I U ... U . A íl Bk.
Natura.lmcntc, alguns dos conjunto~ A n Bi poderãó ser vazios, mas
isso não invalidá essa decomposição de A. O ponto importante é
que todos os ~ven.tos A n B
,)A í1 B~r, são dois a ,dois mutuaA
.
,
.
I
.
.
11 •• •
mente excludentes. Por isso, poderemos
aplicar a propriedade da
.'
I
;•.:
I
I
.
48
I IPROBABIUDADIE
. , __ ,:
adição de eventos mutuamente éxcludentes "[Eq." '(t3)k !e - es~rever
P(A)
=
P(A
n B1) + P(A
(1 B 2)
·.
·· :l · ·
+ ~ -.;t...-.+
;rDí. :n
~k).
_::_
r,.:f ':. ·' •
·
_..._!::-· /-.~!- ~-
.. _
Contudo, c'ada termo P(A () B;) pode ser expresso na forma P(iq B;):
·P(B;) c, daí, obteremos o que se denomi;1a o teoremà -'d3: J;;·obaliilidade total:
· '
P(A) = P(AIB1)P(B1,)
+ P(AjB2)P(B2)+ ... +P(AIBk)~(nS
(3.4) -
Este resultado representa ~ma relação extré;n~~e,ite .útil, - porque
freqüentemeqte, quando P(A) é pedida, p~dc_ ser difícii ,calculá-la
diretamcnte. No entanto, com a informação adicional de qÚe B;
tenha ocorrido, seremos capa~es de calcula~ P(A.IB;) ~. e~ - seguida,
empregar a fórmula acima.
·
-·
-
Exemplo 3.4. Consideremos (pela última vez) o lote de 20 peças
defeituosas c 80 não-defeituosas, do qual extrairemos duas peças,
sem 1·eposição. Novamente definindo-se A e B como iguais lJ.
_A =
B
=
I a primeira peça extraída
I a _segunda peça extraída
é defeituosa J,
é defeituosa},
poderemos, agora, calcular P(B), assim:
P(B)
= P(BIA)P(A)
+ P(BjA)P(A}
Empregando alguns dos "cálculos realizados no Ex:. 3.3, ~ncontramo~
q ue
20 4
l
19 1
P(B) = - · =- 99 ' 5
+·99
5
5
Este resultado pode ser um tanto surpreendente, especialmente
se o leitor se recordar de que no início da Seç. 3.1 encontramo!:! que
_!(I!) = 1/5, quando extraímos- as peças com reposição.
Exemplo 3.5. Uma determinada peça é manufaturada por três _
fábricas, digamos _1, 2 e 3. Sabe-se que 1 produz· o dobro de peças
que 2, e 2 e 3 produziram o mesmo número de peças (durante um
período de produção especificado). Sabe-se também que 2 por cento
- das peças produzidas
por l. e por 2 são4 defeituosas, enquanto' 4 por ·
.
cento daquelas produzidas por 3 são defeituosas. Todas as peças .
produzidas são colocadas em um dep6sito, e dep,ois . uma peça é- extraída ao acaso. Qual é a probabilidade de que ess; peça seja de"ÍE)ituosa?
. , - ·;;<Vamos introduZir os seguintes , eventos: A = I a peça é defeituº~~ }-, ~~ = , I a peça provém de 1}, B2 = I a peça provém de 2},
-B.:~ :;::""')~ ~pe~a provém de 3 J.
::.:;
PROBABiUDADIE CONDICIONADA IE iNDEPENDÊNCIA I 49
Pede-se P(A), e empregando-se o resultado acima, poderemos
escrever:
P(A)
= P(A JB1)P(B 1 ~ + P(A JB2)P(B,) + P(A IB3)P(B3).
Ora,-P(B 1)=1/2, enquantó P(B 2 )=P(B3)= 1/4. Também, P(AIB1) =
= P(A IB 2) = 0,02, enquanto P(A IB 3) = 0,04. Levando-se esses vm~
lores à expressão acima, encontraremol;l P(A) = 1!},025.
Comentário: A seguinte analogia com o teorema da probabilidade total é
· observada em Quí~ica:· Sup~nha-se que ternos k frascos contendo diferentes
soluções de um mesmo sal totalizando, digamos, um litro. Seja P(Bi) o volume
do i-ésirno frasco e seja P(A IBi) a concentração da solução no i-ésirno frasco.
Se reunirmos todas as soluções em um só frasco e seP(A) denotar a concentração·
da sq~tição resultante, teremos:
P(A) = P(A JB1)P(BI)+ ·=·+PIA IBJ,)P(B~~:).
Poderemos empregar o Ex. 3.5 para sugerir outro importante
resultado. Suponha-se que uma peça seja retirada do depósito e se
verifique ser ela d~feituosà~ Qual é a probabilidade de que tenha sido
produzida na fábriCa 1?
Empregando a notação já introduzida, pede-se P(BdA). Poderemos calc~lar esta probabilidade como uma conseqüência da seguinte
exposição: ·Seja B 1 , B2, .. . , Bk uma partição .do espaço amostral S
e seja A um evento associado a S. Aplicando-se a definição de probabilidade .condicionada, poderemos escrever
P(BdA)
=
:L
~(A JB,)P(B;)
j
= 1 P(A IB;)P(B;)
1: =: 1, 2,. o., k.
~3.5)
Este resultado é conhecido como Teorema de Bayes. É também
denominado fórmula da probabilidade das ;,causas" (ou dos "antecedentes"). Desde que os B.; constituam uma partição do êspaço amos. trai um, e somente um, dos eventos B; ocorrerá. (Isto ' é, um dos
eventos B; deverá ocorrer e somente um poderá ocorrer.) Portanto,
a expressão acima nos dá a probabilidade de um particular B; (isto··
é, uma "causa"), dado que o evento A tenha ocorrido~ A .fim de
aplicar esse teorema, deveremos conhecer os valores das P(B;). Muito
freqüentemente, esses valores são desconhecidos, e isso limita a aplicabilidade do teorema. ,T em havido considerável controvérsia
sobre o Teorema de Bayes; ele é perfeitamente. correto matemati- .
camcnte; somente a escolha imprópria dos P(B;) pode tornar o .resultado discutível.
~':'·.
-,
..
50 I PRQBABIUDAD!:
Voltando ao problema proposto a~ima, , ~ agqra , apltca114o a Eq.
(3.5), obtemos:
P(B IA)
1
.
=
. (0,02)(1 /2)
(0,02)(1/ 2) . .. . _;
'o.4···0·
+ (0,02)(1/4)+JQ;p4)(JL~) ·.:~ ,.' ~.~ '
Comentário: De novo, podemos encontrar
:ó·Tê:or~inâ ~e .Baye~, uma
analogia da Química. Em k frascos, temos soluções do cmesino saCporém de
concentrações diferentes. Admita-se que o ·volume totaL das ·soluções seja um
litro. Denotando por P(Bi) o volume da s~lU:çio do i~êsiino frasco, e a concentração do sal nesse· i-ésimo frasco por P(A lEi), verificaremos que a Eq. (3.5) forneee
a proporção da quantidade total do sal que é encontrada; no·i-ésimo frasco.
para
O seguinte exemplo do Teorema de Bayes nos ·dará uma oportunidade para introduzir a idéia do diagrama de árvore, um esquema bastante útil para analisar determinados problemas.
Suponha-se que um grande número de caixas de bombons sejam
compostas de dois tipos, A e B. O tipo A · contém 70 por cento de ·
bombons doces e 30 por cento de bombons .amargos, enquanto no tipo B ·essas percentagens de sabor são inversas. Além disso, suponha-se
que 60 por cento de todas as caixas de bombons sejam do tipo A, enquanto as restantes sejam do tipo B.
Você agora se defronta com ó. seguinte problema de decisão: uma
caixa do tipo desconhecido lhe é oferecida. Você terá. per:inissão para
tirar uma amostra de bombom (uma situação reconhecidamente irrealística, mas que nos permitirá introduzir idéias importantes, sem ficar
muito complicado), e com esta informação você deve .decidir se adivinha que a caixa que lhe foi oferecida é do tipq A ou se do tipo B. O
seguinte "diagrama de árvore" (assim denominado por causa dos vários
passos ou ramos que aparecem) nos ajudará a analisar o problema. (Sa
sa correspondem, respectivamente, a escouier um bombom de ·saJ:>or
doce ou um bombom de sabor amargo.)
e
I"IROBAB!UDADIE CONDiCIONADA E INDEPENDÊNCiA I 51
i
Façamos alguns cálculos:
I
I
I
P(A) = 0,6;P(B) = 0,4;P(Sa IJi) = 0,7;
.
P(Sa I:A) = 0,3;P(Sa IB) = 0,3;1P(Sa IB) = 0,7 . .
Desejamos realmente saber: I
.
I
P(A ISa), P(AIS0 ), IP(BISa) e, P(BlSa). ·
I
.
I
. Suponha-se que realmente ret~remos um bombom de sabor doce.
Qual decisão seríamos mais tentados a tomar?· Vamos comparar
I
P(A lSa) ~ P(BiSa).
i'
Empregando a fórmula de Bayes, teremos ,
.
I.
'
J
· · _
P(Sa IA)P(A)
P(A ISa)- P($a iA)P€A) + P(Sa IB)P(B)
I
t:I,
;
(0,7)(0,6)
7
=9.
(0,7)(0,6) +(0,3)(0,4)
i .
.
.
I
Cálculo semelhante dará.
. j.
P(BISai)
'i
= 2/9 . .
Dessa maneira, baseados na evidência que tivemos (isto é, a tirada
de urh bombom de sabor doce) é ~i vezes mais provável que nós estejamos _diante de uma caixa do tipojA, em vez de uma do tipo B. Conseqüentemente, podéríamos presurhlvelmente decidir que uma caixa do
tipo A foi apresentada. (Naturalmbnte, nós poderíamos estar errados.
A sugestão desta análise é que esta~errios escolhendo aquela alternativa
que pareça ·a mais provável, com base na evidência liffiitada que tivermos.)
.
Em termos do diagrama da ánrore, o que era realme~te necessário
(e foi ·feito) era uma análise parai o pas~~do. Assim, dado. o que f?i
observado Sa, neste caso iqual a probabilidade de que o tlpo A seJa
o
envolvido?
I.
,
,
.
I
. ...
.
Uma situação mais interessante surge, se nos for permitido tirar
dois bombons antes de decidir sci se trata do tipo A ou do tipo_ B.
Neste casó, o diagrama de árvore aparece
ássim: '
·
' . · ·. . -..
I
I
I
I
li
I
52 I PROBABHUDADE
A
B
[.'
· No problema 3.26, você será chamado a decidir de qual dos dois tipos, A ou B, você tirou ·a amostra, na dependência de ·qual seja Óbservado dentre três resultados experimentais possíveis .
.3.3.
Eventos Independentes
Ja·consideramos eventos A e B que não podem ocorrer conjuntamente, ü1to é, A (I B = 0. Tais eventos são denominados mutuamente excludentes, ou eventos incomi>atíveis. Observamos anterior-·
mente que se A e B forem mutuamente excludentes, então P(A IB) =: O,
porque a ocorrência dada de B impede a ocorrência de A. No outro
extremo, temos a situação já estudada, na qual B :,) A e, conseqÜentemente, P(B IA) = L
. Em cada uma· das sitúações mencionadas, saber que B já ocorreu
nos da · algumà "nforinação bastante definida referente à probabilidade . de ocorrência de A. Existem, porém, muitas situações nas
quàis saber que algum evento B ocorreu não tem qualquer interesse
quanto à ocorrênciaou não ocorrência de A.
Exemplo. 3.6. Suponhamos que um dado equilibrado seja jogado
duas vezes. Definamos os eventos A e B, da seguinte forma:
A = {o primeiro dado mostra um número par},
Io segundo dàdo mostra um 5 ou
6}.
.~ B =<=
nm
· ~ inttrltivamente compreensível que os evento~ A e B são inteiramente não .relacionados. Saber que B ocorreu não .fornece qualqUer illformação sobre a ocorrência de A. De fato, o seguinte cálculo mostra isso. Tomando como nosso espaço amostral os 36 resul-
. .
. . IPIROBAIBU.DDlADIE
COI\!DiC~OI\!AIDIA ~
H\IDEIPIENIJIÊNCiA
I
53-
tados igualmente prováveis, considerados no Ex. 3.1, encontraremos
que P(A) = 18/36 = 1/2, P(B) = 12/36 = 1/3, enquanto P(A () B) =
= 6/36= 1/6~ Conseqüentemente, P(A IB) = P(A () B) f P(B) =
= (1/6)/Ü/3) = 1/2.
Deste modo encontramos, como seria de se esperar, que a proba- ~ .
bilidade absoluta (ou não condicionada) é igual à probabilidade colidicionada P(A IB). Semelhantemente,
.
P(BjA)
=
(t)
P(lUI A)
P(A) -
= (f) =
1
3 =
.
P(B).
Daí, pod~rlamos ser tentados a dizer que A e B serão independentes se, e somente se, P (A IB) = P(A) e P(BIA) = P(B). l\fuito
embora isso~pudesse ser essencialmente apropriado, existe outra forma
de colocar a questão que contorna a dificuldade encontrada aqui, a
saber, que tanto P(A) como P(B) devem ser não-nulos para que as
igualdades .acima tenham significado.
Consideremos P(A () B), supondo que· as probabilidades condicionadas sejam iguais às correspondentes probabilidades absolutas.
Teremos:
P(A () B)= P(AjB)P(B) = :P(A)P(B),
P(A () B).
= ['(B IA)P(A) = P(B)P(A).
.
Desse modo, desde quienem P(A) nem P(B) sejam iguais a zero, verificamos que as probabilidades absolutas serão iguais às probabili.da.des condicionadas
se, e somente se,:r--.,e(A () 1J) = .P(A) P(B). Em
.
:
c~mseqüência, formulamos a segú.inte definição, a qual sell.'á tàmbém
seja nulo:
·
.
.
válida querI .P(A) óu P(B)
.
. . .
Definição: A e B ser.ão eventos independentes se, ·e somente. se,
P(A () B) ~ P(A)P(B).
(3.6)
Comenlário:· EsW. definiçil.o é, essencialmente, equivalente àqQ.ei& I!Ugerida
!!.Cima, Sa.ber, que A e B são independentes quando P(B!A) = P(B) e. P(A IB) =
= P(A). .Esta. última for!IU!I ·é ligeiramente mais intuitiva, porque diz precisamente o que se t).nha. tentado dizer antes: que A e B ileril.o indePendentes se o conhecimento da. ocorrência de A de nenhum modo infltienciar. a probabilidS.de da .
ocorrência. de B.
Peio exame do seguinte exemplo, vê-se que a definição formal acima adotadm.
apresenta também uma oerta 1atra.çio intuitiva.
a
Exemplo 3t7.. Consideremos novamente ' o Ex. 3.2. Inicial~
mente examillaremos apenas a tabela abaixo, em que sii.Q forneddÇ>s
. 54 I PROBABiLIDADE
somente os valores marginais. Isto · é; existem 60 ináqúiiias ·elétricas e 40 manuais, e delas 70 são novas enquanto ao.;sãd usadas.
E
Nu
M
I
I· 30
7o
~--------~--~
60
íoo
Existem muitas maneiras de preencher as· .casas da tabela; concordantes com os totais marginais dados. · A seguir apresentaremob
algumas dessas possibilidades.
E
llf
N
u 16:
10
30
40
60
(a)
E
I
70
N
30
100
u
E
M
I
.o
130
30
60
40
40
(b)
70
N
30 .
u
100
llf
I::
281
12
40
60
70
30
100
(c)
Consideremos a Tab. (.a). Aqui todas as máquirias elétrica8
são novas e todas as ·máquinas usadas são manuais. Desse modo,
existe uma conexão óbvia (não necessariâmente causal) entre a característica de .ser elétrica e a de ser nova. Semelhántemente, na
Tab. (b), todas as máquinas manuais são novas e todas as· máquina9
usadas são elétricas. Também, uma conexão definida existe entre
essas características. No entanto, quando chegamos à Tab. (c), a
situaçãO fica bem diferente: aqui, nenhuma relação evidente existe.
Por exemplo, 60 . por cento de todas as máquinas são el~tricas, e
exatame~te 60 por cento das máquinas usadas são . eÍétricas. Senielhantemen; e, 70 por cento de todas as máquinas são novas, ·
enquanto exatamente 70 por cento das ·máquinas man1,1ais são novas
etc; Portanto; nenh)lma indicação está evidente .de que a característica de "ser nova" e de "ser elétrica" tenham qualquer conexão uma com a outra. Naturalmente, esta tabela foi construída
justamente de modo a apresentar essa propriedade. Como foram
obtidos os valores. das casas da· tabela? ·Apenas com o .emprego da .
Eq~ (3.6); isto é, porque P(E) = 60/100 e P(N) = 70/100, deveremos
ter, para independêp.cia, P(E () N) = P(E) P(N) :/42/100. Daí, a
.riasa' na tàbela que indique o número de m:áquina~ elétricas novas
deverá conter o número 42. As outras casas seriam obtidas de maJlei~a análoga.
mai?ria das aplicações, teremos que adotar a hzpôtese de ín,- .
de' dois eventos A e B, e depois empregar essa suposição
. .. .P(A () B) como igual a P(A) P(B). Geralmente,
.,,...,ii;;>~ a-.
PROBABILIDADE CQNDICIONADA E INDEPENDÊNCIA I 55
i
condições físicas sob as quais q experiment~ seja realizado tornarão
possível decidir se tal suposição será justificada ou ao menos aproximadamente justificada.
I
I
Exemplo 3.8. Consideremés um lote grande de .peças, digamos
10.000. Admitamos que 10 pof cento dessas p~ças sejam defeituosas
e 90 por cento perfeitas. Duas peças são extraídas. Qual é a probabilidade de que ambas. sejarJ
perfeitas?
.
I
Definamos os eventos A e B,, assim:
I
.
A = I a primeira peça -é perfeita},
I
.
B = Ia segunçla peça é perfeita}.
''<:t.
Se adill.itirmos que a primeira Jeça seja reposta, antes que a segunda
seja escolhida, então o~ eventoJ A e B podem ser consideràdos independentes e, portanto, P(A. h B) = (0,9) (0,9) = 0,81. Na prática, contudo, ·a ~egunda peça éjescolhida sem a reposição da prim~ira
peça; neste caso,
.1
P(A
n B). =
P(E IA)P(A) =
!
.
1
999
~9999
I
I
I
(O 9)
'
I
que é aproximadamente igual a 0,81. Assim, muito embora A e B
não sejam independentes no sebdo caso, a hipótese de independência (que siinplifi~a considerav~lmente os ·~ cálculos) . acarreta apenas
um erro desprezível. (Recorde~se o objetivo de um .mod.elo matemático, tal como foi apresentado i na Seç. 1.1.) Se existissem somente
poucas peças no lote; cligÍlmos j30, a hipótese de independência teria
acarretado um erro grande. . Por isso, torna-se importante · verificar
cui~adosamente as condiçõ~s s?b as quais o e~:rimen~q é realizad?,
a f1m de estabelecer a validade de uma -supos1çao de mdependênCia
. entre os vários eventos.
i
· .
·
..·
E,xemplo 3.9. Admitamos) que ,um mecanismo, seja constituído
por dois componentes montadosI em série, como
indicado na Fig." 3.4.
.
Cada componente tem uma probabilidade p de não 'funcionar. Qual
será a probabilidade de ·que o: mecanismo funcione ? .
i
-~
. ., Fig, 3.4
I
1!; evidente que o mecanis~o funcionará s'e, e somente se, ambos
às componentes estiverem funcionando. Por isso,
1
· Prob (o mecanismo funcione) [= Prob (C1 funcione e C2 funcio11e).
I
.I
I·
I
. 'j
. • 'I
._., ..-.'; ..
·. ".. L
56./ PROBABIUDADE
:·.,!
A informação fornecida não nos permite continuiJ.r·sem, que , se saiba
(ou se suponha) que os dois mecanismos trabalhem mdeperidénteJnimte
um do outro. Isto pode, ou não, ser uma sup~siÇão:' r~àlista, dependendo. de como as duas partes sejam engatadas. . Se admitirmos que .
ru3 duas partes trabalhem independe~terh~~te, 9 l:ite~e~~~ .· pár,a a
· .· · ·
· ·
· · probabilidade pedida o valor (1- p)2,
· Será importante para nós, estendermos a noção dejndependência para mais de dois eventos. Consideremos, iriicialm~nte, três
eventos associados a um experimento, digam~s A, B e C. · Se A
e B, A e C, B e C forem independentes doiS a dois (no sentido acima),
então não se concluirá, em geral, que não exista dependência entre
os três eventos. O exemplo seguinte (um tanto artificial) ilustra
esse ponto.
Exemplo 3.10. Suponha-se que joguemos dois dados.
se os eventos A, B e C da seguinte forma:
Definam-
A = {o primeiro dado mostra um número par},
B = Io segundo dado mostra um número ímpar ),
c = Iambos os dados mostram números ímpares ou ambos
mostram números pares} .
Temos P(A) = P(B) = P(C) = 1/2. Além disso, P(A () B) =
= P(A rt C) = P(B rt C) = 1/4. Portanto, os três eventos são
todos independentes dois a dois. Contudo, P(A n B n C) =
= O ;é P(A) P(B) P(C).
Este exemplo sugere a seguinte definição.
Definição . . Diremos que os três eventos A, B e C são mu.tUOr
ru3 condições seguintes forem válidas:
mente independentes ~e, e somente se, todas
P(A
n
B)
= P(A)P(B),
P(B rt C) = P(B)P(C) ,
P (A rt C)= P(A)P(C),
P(A rt B rt C)
(3.7)
= P (A)P(B)P(C).
Finalmente, generalizaremos esta noção para n eventos, na
definição:
se~te
Definição. Os n eventos Ah A 2 , •• • , An serão mutu9:,mente independentes se, e somente se, tivermos para k = 2, 3, . .. , n:
P(A;1 rt A;2 rt · · · rt A;k)
= P(A; )P(A;
1
2)
• • •
P(A;t)·
(3.8)
(Existem . ao todo 2n - :n· - 1 condições aí arroladas; veja o
Probl. 3.18.)
PROBABILIDADE COI\IDiC~ONADA E iNDEPENDÊNCUA / 57
Comentário: Na maioria das aplicações, não precisaremos verificar todas
essas condições, porque nós geralmente admitimos a independência (baseada naquilo que conhecermos do experimento). Depois, empregaremos essa suposição
para calcular, digamos P(A,, (I A;, (I · · · (I A;k) como P(À;,)P(A;,) · · · P(A;k).
Exemplo 3.11. A probabilidade de fechamento de cada relé do
circuito apresentado na Fig. a:s é dada por p. Se todos os relés funcionarem independentemente, qual será a probabilidade de que haja
corrente entre os terminais L e R?.
1
3
f--l~·
2
_
R
4
f--j
Fig. 3.5
Represente-se por A; o evento {o relé i está fechado J, i = 1, 2, 3, 4.
Represente-se por E o evento {a corrente passa de L para R). Em
consequenCia, E = (A 1 (J A2) U (A3 (J A4). (Observe-se . que
AI
A2 e A3
A4 não são mutuamente excludentes.) Portanto,
n
n
P(E)
=
=
+
P(A1 (J A2)
P(A3 (J A,) - P(A1 () A2. n A3 ri A,)
p2
p2- p4 = 2p2- p'.
+
('
o
.
. Ex~:mplo 3.12. Suponhamos novamente que, para o circuito da
Fig. 3.6, a probabilidade de que cada relé esteja fechado é p, e que
todos os relés fúncionem independentemente. Qual será a probabilidade de que exista corrente entre os terminais L e R?
Empregando a mesma notação do Ex. 3.11, teremos que
P(E) ~ P(A1 (J A2)
+ P(A6) + P(A3 n A4)-
P(A1 (J A2 (J As)
- P(Al (J A2 ri AJ ri A4) - P (A6 (J A3 () A4).
+ P(At (J A2 Íl As n A4 () A6)
== p2 + p + p2 - p3- p'- p3 + p5 = p + 2p2- 2p3- p'
+ p~.
Vamos encerrar este capitulo com a indicação de uma bastante
comum, mas errônea, resolução de um problema.
58 I PROBABiLIDADE
Exemplo 3,13 .. Admita-se que dentre seis:pârafusosf 'dois ·sejam
menores do que um comprimento ei!pecificado)< ·Se':'d9is'::doi(parafU:7
sós forem escolhidos ~ '.• acaso, qual 's~rá 'Pióoàb\úa:i<Ié:~e . que
dois parafusos mais curtos sejam extraídos? . Seja Ai oêveiíto {o i-ési~
mo parafuSo escolhido é curto J, i = 1, 2.
a
II~.'.
~
!,
1
11
d:
os
Portanto, desejamos calcular P(Al nA%), . A sohição 'correta é
obtida, naturalmente, escrevendo
A solução comum, mas incorreta, é obtida escrevendo-se
Naturalmente, o importante é que, muito embora a respost.a esteja
numericamente correta, a identificação de 1/5 com P(A 2 ) é incorreta~
1/5 representa P(A2IA 1). Para calcular P(A 2) corretamente, escreveremos
3.4. Considerações Esquemáticas; Probabilidade
Condicionada e Independência
A abordagem esquemática seguinte poderá se.r útil para compreender a probabilidade condicionada. Stiponhamos que A e B Sejam dois
eventos associados a um espaço amostral ·para q]Jal as várias probabilidades estão indicadf s no Diagrama de Venn, dado :ila Fig. 3 .7.
o
0,2
!Fig. 3.7
i ..
Tem-se P(A
= 0,5.
n
B)
= 0,1; P(A) = 0,1 + 0,3 = 0,4 eP(B) .=;= 0,1 + 0,4 = .
'
PROBABILIDADE CONDICIONADA E INDEPENDÊNCIA I 59
I
I
. Em seguida, representaremos asl várias probabilidades pelas áre(ls
dos retângulos, como na Fig. 3.8. Exti cada caso, as regiões somhreadas
esquerda, estamos representando
indicam o evento B: no retângulo
A í1 B e, no da direita, A' í1 B.
I
'
·
cti
· B'
0,2
0,4
B
Agora, admitamos que se deseje
sitamos somente considerar A, isto
Observamos que a prop.orção de B
rificar isso pela aplicaçãb da Eq. (3.
= 0,1ÍÔ,4 = .1/4.) Portanto, P(B' I
sentando essa probabilidade
balcular P (B I A). Por isso, neces-
élA' pode ser ignorado no cálculo.
A é 1/4. (Poderemo~ também ve-.'
: P(B IA) = P(A í1,B) !P(A) =
) . = 3/4, e ,Inosso. diagrama
repre-.
.
, , .
. seria dado pela Ffg. 3.9.
.
1,0
B'
0,75
o
B
A'
.
fig.
i
~.9
j
/
Observe-se, também, que se A fqr dado como tendo ocorrido, toda
a probabilidade (isto é, I) deverá se~ associada ao evento A, enquanto
nenhuma probabilidade (isto é, O) e:stará associada a A'. Além disso,
observe-se que, no retângulo d~ esqu~rda, representando AI somente os
v;uores individullis mudaram na Fig. 3.8 para a Fig. 3.9 (cuja soma é 1, ,
em lugar de 0,4). Contudo, as propor~ões dentro do retângulo permane· '
ceram as mesmas (isto é, 3 :1).
,i
60 I PROBABIUDADIE
Vamos também ilustrar a noção de independência; empregap.do a
abordagem esquemática introduzida· anterionilente. Supàiiljaljlcis~;qüe
A .. e B sejam como indicado na Fig. 3.1 O. Nesse caso; as 'prÇi (e:·,:~qe,s
nos dois retângulos, represéntando A e A', são as mesmas: 3:1 fiõ,dois
casos. Por isso, teremos P(B) = 0,1 + 0,15 ~ 0,25 e P(B 'A}~
= 0,1/0,4 = 0,25.
.
.
n
~ ~
r ~?'~ j
o
0,45
B1
o
B'
0,3
B
B
A'
A
!Fig. 3.10
I
\
Finalmente, observe-se que, simplesmente olhando a FÍg . .3.8,
poderemos também calcular as outras probabilidades condicionadas;
: P (A I B) = l/5 (desde que 1/5 da área total retangular representando
\festeja ocupada por A'); P (~' I B) = 4/5 .
.
\.problemas
~
3.1 ;'\ A urna contém x· bolas brancas e y bolas ve~:melhas. A ur.n.a. ·2. con.tém z bol~{>ranca.s e v bolas vermelhas. Uma bola é escolhida ao acaso da 'ur.na ~
e posta na ur"na 2. A seguir, uma. bola é escolhida ao aca,so da urna 2. Qual será
a probabilidade de que esta bola seja branca?
r'
.
3.2. Duas válvulas defeituosas se misturam com duas válvulas pedeita.s. As.
válvulas são epsaiarlBs, UillA a uma, até.que amb&S as defeitu~as sejam encontradas. ·
(a). Ql.lal ~á a -prbbabilidade de que a últirrui. vs.!~l:i. defeiru0S& seia encontrada.no segundo ensaiO?.
'
(b) Qual será a prpbabilidade de que a última válvula defeituosa seja encontrada no terceiro. e"D.Sai@ ?
··
(c) .. Qual 9erá a probabilid8.de de !lUe a úl.ltãma vá.!vuia
tr.ad.a n.o
qu.o.rto ensaio?
'
.
.. . ·. ·'.(d) Some os 11úmeros obtidos em (a), (b) e (c) aciina.
eO:dente?
.· -·- - - -·_
__:_
____________
~
.
defeitu~sa sejae~coa.
.
O tesultado é surJ?re-
.. \
_)
PROBABULIOADE CONDICIONADA E INDEPIENDÊNCDA I 61
3.3. Um_a caixa contém 4 válvulas defeituosas e 6 perleitl).S. Duas vil.lvul,as
são extr11ída8 juntas: Uffil!. delas é em;aiada e -se verüic~~< ser perfeita. · .QW1l a
· idarde de que a outra válvula também seja perfeita?
No' problema anterior, as válvulas são verificadas e;xtrai.ndo-se uma
v v a ao acaso,, énsaiandoca e repetindo-se o procedimento até q_ue todaS as 4
vá.lvulas defeituosas s_ejam encontradas. Qual .será a probabilidade de que a
quarta vá.lvula defeituosa.,seja encontrada:
(a)
(b)
No quinto ensaio,?
No décimo ensaio?
3.5. Suponha que A e B sejarn-eventos independentes l).Ssociados a um ex> ;..perimento. Se a probabilidade de A ou ·s ocorrerem fm: igual a 0,6, eJ;Jquanto a.
• probabilidade da ocorrência de A fOJ; igual a. 0,4, determine a probabilidade da
ocorrência de B.
3.6. Vinte peças, 12 das quais são defeituosas e 8 perfeitas, são inspecionadas uma a pó~ .a outra. Se essas peças forem extraídas ao. acaso, qual será a.
probabilidade de que:
(a)
(b)
As duas primeiras peças sejam defeituosas?
As duas primeiras peças sejam perfeitas?
•
(c) Das .duas primeiras peças inspecionadas, uma seja. perfeita e a outra
defeituosa?
!~
.I
.J
,j
:I
r
.
3.7. Suponha que temos duas urnas. 1 e 2, _cada uma· corri duas gavetas.
A urna 1 contérn uma moeda de ouro. em uma gaxeta e uma moeda de prata na
outra gaveta; enquanto a urna 2 contém uma moed.a de ouro em cada gaveta ..
Uma urna é escolhida ao acaso; · a seguir uma _de .=s ·gavetas é aberta ao ~caso..
Verifica-se que a moeda encontrada nessa gaveta ,é de ouro. Qu11l a probabilidade de que a moeda provenha da urna . 2?
.
3.8. Um saco contém três' moedas, uma das quais foi cunhada cm;n 'duas
caras, enquanto as duas outras moedas são normais e não viciadas. Uma mpeda
é tirada ao acaso do saco e jogada quatro vezes, em seqüência. Se sàir cara toda
vez, qual se~.á a probabilidade de que essa seja a moeda de duas caras? . ·
3.9. Em uma fábrica .de parafusos, as máquinas A, B e C produzem 25, 35
40 por cento do total produzido, respectivamente. Da produção de cada. máqUina, 5, .4 e 2 por cento, respectivamente, silo parafusos defeituosos. Es.colhe-se ao
.acaso um parafuso e se verifica. Sf1t defeituoso. Qual será a probabilidade de que
o parafuso venha da máquina-A?
B? Da C?
lll
Da
-
.1.
.
(
'
Sejam A e B dois eve,ntos associados a- úrll experimento. Su:p.onha
que P(A) = 0,4, enquanto P(~ u,.~,~ =;~0,7, . Seja ,P(B)·_:= t :· .. ..____
·3.10.
(a) Para que valor de
[
(b)
'?•
A e . B -serão
~utuai,Dente · excludentes?
Para que valor de p, A e B serão mdependentes?
3.11. Três componentes C1, C2 e C3, de um mecanismo são postos em série
(em li9!;Ja_reta). Suponha que esses C?JHPOÍ1~ntes sejam dispostos em ordem aleatória. Seja R o evento ( C2 est4 à direhil>d;~ . C1l. e seja S o evento ( C3 está à di~- reita de Cd .. Os eventos R e-S são indep~ndentes? Por ,.qilê?
~
3.12. Um dado é l ançado e, independentemente, uma carta é extrafda de
um bara.lho completo (52 cartas). Qual será a probabilidade de que:
III'
li
!j
62 I PROBABiLIDADE
···. _
' .
! •·
i!
(a) O dado mostre um número par . e a , c~t~ta ~~ja A~ ,Uffi-,·Jil~ip~;\Y,em:Ellbo?
!!
!I
~1
,,
;,:
q:
3~ ~~on:::: :::::e:::s::t:í:~â~::11sà:t:.~jgii~fj~t~f\l;:~oo:
exemplo, 1011, 1100 etc.) Esses núrn~rós têrri i!1J:p,~r~~~WP.ll~~i! ~~ .~~t4[i~~o
de computadores eletrônicos. Suponha que um iilíxn~ró'';})iriário.'<sei~~:!?izrtil(lO' de
n dígitos. Suponha que a probabilidade de úrli -dígito ilrtotrêtdi'ii:li'â:r~cet'seja P
e que os erros em diferentes dígitos sejam independentes i.im\ .'âo~ · Ói.itros. ''Qual
·. :' ..
será a probabilidade de formar-,se um nú171:ero incorr.e to? .· . .: .
'I
~i l
!!
"
i'
,,
li
3.14. Um dado é atirado n vezes.
. reça ao ID.eno~ uma. vez em n jogadas!
:•
!1
:I
3.15. Cada uma de duas pessoas j~ga três rnoe~as eq~liÚbr;das. · Qual é
a probabilidade de que elas obtenham o mesmo número de carS:.S ?. . " . ..
'I
1:
li
11.
3.16. Jogam-se dois dados. Desde que as faces mostrem números diferentes, qual é a probabilidade de que urna face seja 4?
ii:j
li
,J
I!
Qual é a probabilidad~ de que "6" apa··,.· ··
_.)
3.17. Sabe-se que na fabricação de um certo 11rtigo, defeitos. de um ' tipo
.ocorrem com JJiobabilidade 0,1 e defeitos de outro Úp(; com probabilida'de · Õ,Ó5.
Qual'l'será a probabilidade de que: i
.
a.rtig~ ~o tenha .a~b<)s os tii>os de defeitos?
Um ãrtigo 'aéja defeituos'o? - · · -- .' . -
(a) Um
!
(b)
(c)
u~
artigo'
~e"nha ~~nas·,irn.c~q--~a'rJefcl~o:
_,_ ______ __ sabido
que"é defeituoso?
I
3:18. Ve.rifique que o núm.ero de condições impostas· pela Eq, (3.8) é dado
por 2n- n- 1.
lI
A e
!
i
3.19. Demonstre que, se A e B forem eventos independentes, também o serão,
Ii, A e B, A e Ii. .
.
.
.
I
i,.
!.;.
r
3,20. Na Fig. 3.ll(a) e (b), suponha que a probabilidade ~e que cada relé
esteja fechado seja p, e que cada relé seja aberto ou fechado independentemente
um do outro. Em cad~ CMo, determine a probabilidade de· que a corrente pas.se
de L para R.
·
·
·
I
I
I
(b)
(a)
fig. 3.11
3.21. DuM ·máquinas A e B,· sendo operadas independentemente, podem ter
alguns desarranjos cada dia. A Tab. 3.2 dá a distribuição de probabilidades dos
desarranjos· para cada máquina. Calcule M segUinte!) probabilidades:
(a) A e B tenham o mesmo número de desarranjos. ,
(b). O nli.rooro total de dsstln':IDjos seja menor que 4; me~~.or que 5 ..
..·
!
•
·f:'ROBABIUDA DE CONDICIONADA IE iNDEPENDENCIA
.
I
I 63
I
(c) A tenhà mais desarranjos que B . f·
(d) B tenha duas vezes mais desarranjos que ·A . .
(e) B tenha 4\!iesarranjos, quando se li saiba. que B ,iá tenha tido 2 desarranjos.
U) o número mínimo de desarranjos ~as - duas máquinas . seja 3; seja menor
do que 3.
(g) O JILúmero má.ximo de desarranjos das máquinaS seja 3; seja maior que 3.
I
Tab. 3.2
I
Número de
desa.rranjós
o
1
2
A
0,1
0,2
0,3
B
0,3
0,1
0,1
I
se~do
3.22.
1-,
.
i
·f
5
6
0,09
0,07·
0,04·
0,1
0,15
0,15t
P(~
Verifique pelas Eqs. (3.2) que,
A flxo,
IA) satisfaz aos váriO!!
da probabilidade.
3.23.. Se cada eleinento de um determinante d~ segunda. ordem for zero
ou um, qusJ será a probabilidade de que o jvaior do detenrunante seja positivo?
. (Admita que· os elementos do dete_rminante jsejam escolhidos independentemente,
a cad_a valor se atri,buindo a probabilidade ~/2.)
.
post~os
,,
4
I
.
.
3.24. Verifique que o teorema da multiplicação P(A n B) = P(A I B)P(B),
estabelecido para dois eventos, pode ser estkndido para três eventos, da seguinte
maneira:.
.I
,
.
.
"- _,
P(A (JB
C)= P(AIB
C)P(BIC)P(C).
n
\ ....
.· .
n
)
3.2~ Uma montagem eletr.ônica é fonilada de dois subsistemas A e B.
De
\iiro~meQ.tos de ensaio anteri9re8, as· seg uintes probabilidades . seradmitem co1
nhecidaS~
j·
P(B falhe 8o::inho)
P(A falhe) = 0,20, P(A e B falhem) i= 0,15,
•
.
Cllllcule as seguintes probâbilidades:
, . I B .teiilia
. ·, ,falhado).
.
(a) P(4. falhe
. ..
/"
I.
·'
I
II .
.
·'
:=0,15.
.
(b) P(A falhe sozinho).
..
3.26. Conclua à análise do exemplo djldo na Seção 3 .2, pela decisão de qual
dos dois tipos de caixa de bombons, A ou B, foi apresentada, ba~eando-5e na
evidêncià·dos dois bombons que foram tiradÓs na amostra.·
"
I
,
é!
·
3.27. Sempre que um experimento realizado, a ocorrência de um particu1ar evento A é igual a 0,2. O experimento é repetido independentemente, até
que A ocorra. Calcule a proba~ilidade de qu~ seja necessário levar a cabo o experimento até a quarta vez.
:
··
3.28. Suponha que .um equipamento 1possua N v.ílvulas, todas necessárias
para seu funcionamento. A fim de localizar uma válvula com mau funcionamento,
faz-se a substituição de cada válvula: sucessi~amente, por U)Ila '?Ílvula nova. Calcule
a probabilidade de que seja necessário trocar N válvulas, se a probabilidade (constante) de uma válvula estar desarranjada por lp.
·
I.
!
3.29. Demonstre:SeP (A I B) >P (A), então,P (B I A) >P (B) .
.I
I
I
64 I IPROBABHUDADE
3.30. Uma válvula a vácuo pode provir de três fabricantes, com probabilidades p, = 0,25, P 2 =. 0,50 e p 3 = 0,25. As probabilidades de que, ·durante
determinado período de tempo, a válvula funcione bem são, respectivamente,
0,1; 0,2 e 0,4 para cada um dos fabricantes. Calcule a probabilidade de que uma
válvula escolhida ao acaso funcione bem durante o período de·tempo especifiiido.
.
.
.
:
3.31. Um sistema elétrico é composto de dois comutadores do tipo A, um
do tipo B, e quatro do tipo C, ligados como indica a Fig. 3.12. Calcule a probabilidade de que uma pane no circuito não possa ser eliminada co~ a chave K, se
os comutadores A, B e C estiverem abertos (isto é, desligados) com probabilidades
0,3; 0,4 e 0,2, respectivamente, e se eles operarem independentemente.
\
' i
1
Fig. 3.12
3.32. A probabilidade de que um sistema fique sobrecarregado é 0,4 durante cada etapa de um experimento. Calcule a probabilidade de que o sistema
deixe de funcionar em -três tentativas independentes do experimento, se as probabilidades de falhas em 1, 2 ou 3 tentativas forem iguais, respectivamente, a 0,2;
0,5 e 0,8.
··.~
3.33. Quatro sinais de rádio são emitidos sucessivàmente._Se a recepção de
cada uni for 'independente'·d~ recepção de outí:o, e se .essas probabilidades forem
0,1; 'b,2;0.,3 e o,4;respectivamente, .calcule a probabilidadé de que k sinais
venham a ser recebidos pàia: k;,; 0', 1; 2, 3, 4.
'
3.34. A seguinte (de algum modo simplória) previsão de tempo é empregada
por um amador. :0 tempo, diariamente, é classificado como "seco" ou "úmido", e
supõe-se que a probabilidade de que qualquer dia dado seja igual ao dia anterior
seja uma constante p (0 < p < 1). Com base em registras passados, admite-se que
1? de janeiro tenha probabilidade {3 de ser dia "seco". Fazendo f3n = probabilidade (de que o1 n-ésimo dia do ano seja "seco"), pede-se obter uma expressão para
13n em termos de {3 e de.p. Calcule também limn..., "" f3n. e interprete o seu resulta·
do [Sugestão: Exprima f3n em termos de 13n _ 1-J
3.35.. Três jornais A, B e C são publicados em uma cidade e uma recente
pesquisa entre-_9'S leitores indica o segufute: 2Q por cento ~êem ;i; 2Q., PO! CeJ:lt<2_
-lêem B; 14 por cento lê~m ,C; 8 por ce!ltO lêem A e\8._;_5,. pot.cento lêem A ·-e Ç;
.2 porceflt? lêem A, f1 e. Ç; ~ 4p_:por .cento lêe~B,~ ~f]ara um adulto .esco!hiêlo'
ao acaso; calcule a probabilidade de que: (a) ele não leia qualquer dos jornais;
II
·I
II
.J,
I'ROBAIBDUDADE CONDICIONADA E iNDEPENDÊNCIA I 65
(b) ele leia exatamente um dos jornais; (c) ele leia ao menos A e B, se se souber·
que ele lê ao. menos um dos jornais publicados.
3.36. Uma moeda equilibrada é jogada 2n vezes. (a) Obtenha a probabilidade de que ocorrerá um igual número de caras e coroas; ( b) Mostre que a
probabilidade calculada em (q_)__,,uma função decrescente de n.
3.37. Cada uma das n umas: Urna 1, Urna 2, ... , Urna n, contém a bolas
brancas e fi bolas pretas. Uma bola é retirada da Urna 1 e posta na Urna 2; em seguida, uma bola é retirada da Urna 2 e posta na Urna 3, e assim por diante. Finalmente, uma bola é retirada da Urna n. Se a primeira bola transferida for branca,
qual será a probabilidade de que a última bola escolhida seja branca? Que acontece, se n _, co? [Sugestão: Façapn = Prob (a n-ésima bola transferida seja branca)
e exprima Pn em termos de Pn _ 1·l
3.38. A Urna 1 contém a boias brancas e fi bolas pretas, enquanto a Urna.2
contém fi bolas brancas e a pretas. Uma bola é extraída (de ·uma das umas) e é
em seguida reposta naquela uma. Se a bola extraída for branca, escolha a próxima
bola da Urna 1; se a bola extraída for preta, escolha a próxima bola da Uma 2.
Continue a operar dessa maneira. Dado que a primeira bola escolhida venha da
Urna 1, calcule Prob (n-ésima bola escolhida seja· branca) e também o limite
dessa probabilidade, quando n _,. oo.
3.39. Uma máquina impressora pode imprimir n letras, digamos a 1, ci 2 ·, ••• ,
"'n- Ela é acionada por impulsos elétricos, cada letra sendo produzida por um
impulso diferente. Suponha que exista uma probabilidade constante p de imprimir
a letra correta e também suponha independência. Um dos n impulsos, escolhido .
ao acaso, foi alimentado na máquiria duas vezes e, em ambas, a letra a 1 foi impressa. Calcule a probabilidade de que o impulso escolhido tenha. sido para imprimira1 .
1l
II
i
!
I
1
I·i
!;
'
Variáveis Aleãtórias Unidimensionais ·
Capítulo 4
4.1.
Noção Geral de Variável Aleatória
Ao descrever o espaço amostral de üm experimento, ·não especificamos que um resultado individual necessariamente seja um nú:..
mero. De fato, apresentamos alguns exemplos nos quais os resultados do experimento· não eram uma quantidade numérica. Por
exemplo, ao ·descrever uma peça manufaturada, podemos empregar
apenas as categorias "defeituosa" e "não defeituosa". Também,
ao observar a temperatura durante o periodo de 24 horas, podemos
simplesmente registrar a cwva traçada pelo termógrafo. .Contudo,
em muitas situações experimentais, estaremos interessados na mensuração de alguma-coisa e no seu registro como l.iin número. Mesmo
nos casos menci.onados acima, poderemos atribuir um número a cada
resultado (não numérico) do experimento. Por exemplo, podererp.os
atribuir o valor um às peças perfeitas e o valor zero ·às defeituosas.
Poderemos registrar a temperatura máxima do ·dia, ou a temperatuTa
mínima, ou a média das temperaturas máxima e mínima.
Os exemplos acima são bastante típicos, de uma classe muito
geral de problemas: em muitas situações experimentais, desejamos
atribuir um nú-mero real x a todo elemento 8 do espaço amostral B.
Isto é, x = X(8) é o valor di) uma função X do espaço amostral no
espaço dos números reais. Com isto em mente, formulamos a seguinte
definição.
Definição. Sejam S um experimento e S um espaço amostral
associado ao experimento. Uma junção X, que associe a cada elemento 8 E 8
número real, X(8), é denominada vari.ável aleat6ria.
um
Comentários: (a) A terminologia acima é um tanto infeliz, mas é tão universalmente aceita·, que não nos afastaremos dela. Tornamos tão claro quanto
. possível que X é uma funçao, e contudo, a denominamos uma variável (aleatória)!
VARIÁVEIS AlEATÓRIAS UNI DIMENSIONAIS I 67
pod~
(b) E evidente que nem toda funçãt imaginável
ser considerada uma
variável aleatória. Um requisito (embora_hão seja o mais geral) é que, para todo ·
número real x, o evento [X(s) x] e,p-~a t.odo intervalo/, o evento [X(s)E/]
têm probabilidades bem definidas, con~stentes com os axiomas básicos. Na
maioria das aplicações, essa dificuldade não surge e nós não voltaremos a ·nos
referir a ela.
=
I
I
.
(c) Em a.lgunias situações, o resultado \1: do espaço amostral já eonstitui ,a
.caracterlatics num~ca . que desejamos li reíiistrar. \ Simplesmente tomaremoa
X(s) = s, a função 1dentJ.dade.
_
(d) Na maior parte de nOSBI!. sub5eqii:ente exposição sobre vo.riáveis aleatórias, não necessitaremos indicar a natur~za funcional de X. · Geralmente, estaremos interessados 'tios valores po~veis d~ X, mais do que de onde el~ se originam. Por exemplo, suponha-se que atiremos duas moedas e considéremos o es~
paço associado a este experimento. · Isto! é,
S
.
=
{HH, HTi TH, TTI.
-
I
·
Definamos a variável aleatória da seguintfi maneira: X é o número de caras (H)
obtidas nas duas moedas. Daí, X(HH) = 12, _X(IIT) = X(TH) = 1 e X(TT) =O.
S
= espaço
! =
amostral de ·& llx
valores
possívei~
de X
.
i
I
- Fig. 4 .1
1
I
(e) 11: muito importante . compreende~ uma. exigência fundamental de uma
função (unívoca) : A cada sES coi:respohderá
exatamente
um valor I X(s). Isto
I.
.
está apresentado esquematicamente na Fig. 4.1. Diferentes valore 1s de s podem
levar ao mesmo valor de X. Por exempJolr na ilustração acima, verificamos que
X(HT) = X(TH) = 1.
.
,
-
I
-
.
·o espaço Rx, conjunto de tod~ os valores possíveis de X, é
algumas vezes denominado contradc'minio. De certo modo, poderemos considerar Rx como um outro ~aço amostral. O espaço amostral (original) S corresponde ao reshltado (possiv~l:m:!mte não-l'lumérico) do experimento, enquanto Rx léo espaço amostral·,IJSSOCiado à
variável aleatória X, .representand4 a característica numérica que
nos poderá interessar. Se for X(s), = s, tererrl.os S ::= Rx.
. Muito embora estejamos prevezUdos do perigo didático inerente
a dar muitas explicações para umÁ mesma coisa, 'vamos salientar
que püderemos pensar em u:ma.. variá.t el aleatótia :X, de du~ maneiras:
(a) Realizamos o ·experimento 1E que dá um regultado sES;
a seg;,.ir cal~ulamos o número X(s). !
68 / PROBABIUDADE
(b) Realizamos 8, obtemos o resultado ~.e (imediatamente)
calculamos X(s). Neste caso, o número X(s) é~;>ensado éo~o ovr6prio resultado do experimento e Rx se toma o .espli,ÇO amost~al do
·. .
·· -'
experimento.
A diferença entre as interpretações (a) e (b) é percebida com ·
dific1,1ldade; é relativamente secundária, mas me1;ecedora de, atl~nção.
Em (a), o experimento essencialmente. termina com a obs~rvação de s. · ·
A avaliação de X(s) é considerada alguma coisa qile é feita poste- .·
'riormente, e que não é influenciada pela aleatoriedade de 8. Em ·
(b), o experimento não é considerado concluídO ·até que o ni1mero
X (s) tenha sido realmente calculado, desse modo se originando o e.Spaço amostral Rx. l\iuito embora a primeir~ interpretação, (a), seja
aquela ·geralmente pretendida, a segunda interpreta'ção, (b), poderá ser muito útil e o leitor deverá lembrar-se dela.
Aquilo que estamos dizendo, e isso ficará cada vez inais claro nas
seções posteriores, é que no estudo das variáveis. _aleatórias estaremos
mais interessados nos valores que X toma do qlle em sua forma funcional. Conseqüentemente, em muitos casos, ignoramos completamente
o espaço amostral subjacente no qual X pode ser definido.
Exemplo 4.1. Suponha-se que uma lâmpada tenha sido posta
em um soquete. O experiment,o será. considerado terminado quando a
lâmpada se queimar. Qual será um possível resultado, s? Uma das
maneiras de descrever s seria apenas registrar o di'a e a ho_ra em que '
a lâmpada se queimou, por exemplo: 19 de maio, 16 h e 32 min. Em
conseqüência, o - espaço am~stral poderia ser rep~e~entado por
S = {(d, t) Id = dia, t = momento do dia). Presu~iyelmente, a
variável alpat6ria que interessa é X, a duração até queimar. Ob~er­
ve-se que, uma vez que s = (d, t) tenha sido observado, o cálculo ·
de X(s) não inçlui qualquer aleatoriedade. Quando s é especificado,
X (s) fica completamente determinado.
As du~. interpretações explicadas acima -podem ser aplicadas
a este exemplo, como se segue. Em -(a), consideramos o experimento
terminado Cdm a observação S = (d, t), O dia e a hora. 0 cálculo
de X(s) é realizado -depois, abrangendo um& operação aritmética
simples. Em (b),_ consideramos que o experimento somente estará
terminado depois que X(s) tenha sido calculado · e um,... número; por
exemplo, X(s) = 107 horas seja então considerado o resultado do
exi>erimento.
Pode-se salientar . que análise semelhante se aplicaria a qualquer outra variável que interessMSe, por exemplo, Y(s), a temperatura da sala no momento em que a lâmpada se tenh& queimado.
VARiÁVIEUS ALEATó,~ IAS UNiDRMENSiONAiS I 69
( '
Exemplo 4.2.
Três moedas são atiradas sobre a mesa. Tão
·iogo as moedas repousem, !!), !fase / 1aleat6ria" do experimento tenni_lllOU. Um resultado simplea 8 poderia consistir ~a descrição deta:
lhada de como e onde as moedas pousaram. · Presumivelmente,
estaremos oomente intereesados em certas características numéricas.
· •ciadas a este experimente. Por exemplo, poden2.mos avaliu:
X(s)
Y(s)
Z(s)
número de caras que apareceram,
distância máxima entre duas moedas quaisquer,
distância mínima das moedas a um bordo qualquer da
mesa.
Se for a variável X que interesse, poderemos, como se explicou no
exemplo anterior, Íncluir a avaliação de X(s) na descrição de nosso
experimento ·e, depois, simplesmente afirmar que o espaço amostral
associado· ao experimento é {0, 1, 2, 3), correspondendo aos valores
de X. Conquanto muito freqüentemente venhamos. a adotar esta
interpretação, é importante compreender que a contagem do número
de caras é feita depois que os aspectos aleat6rios do experimento tenham terminado.
·
Comentário: Referindo-nos a variáveis aleatórias, empregamos quase sem
exceção ~etras maiúsculas, como X, Y, Z etc. Contudo, quando falamos do valor
que essas variáveis. aleatórias tomam, usaremos, em geral, letras minúsculas, como
x, y, z etc. Esta é uma distinção muito importante a ser feita e o estudante pode
bem parar para considerá-la. Por ·exemplo, quando nós falamos em escolher uma
pessoa ao acaso, de alguma população designada, e medimos sua altura (em centímetros, por exemplo), poderemos nos referir aos resultados possíveis como uma
variável aleatória X. Poderemos então formular várias questões sobre X, como
indagar se P (X;;, 60). No entanto, uma vez que tenhamos escolhido uma pessoa
e medido sua altura, obteremos um valor específico de X, digamos x. Por isso, não
teria sentido indagar se P (x;;, 60), uma vez que x é ou não é ;;, 60 . Esta distinção
entre uma variável aleatória e seu valor é importante e nós voltaremos a fazer
referência a ela.
Quando estivermos interessados nos eventos associados a um
espaço amostral S, verificaremos a necessidade de examin~r os eventos
relativamente à variável aleatória X, isto é, subespaços do contradomínio Rx. Bastante freqüentemente, certos . eventos associados
a S são "relacionados" (em um sentido a ser explicado) a eventos
associados com Rx, na seguinte forma:
I
Sejam um experimento 8 e seu espaço amostral S.
Seja X uma variável aleat6ria definida em Se seja Rx seu contradomínio. Seja Bum evento definido em relação a Rx, isto é, B C Rx.
Definição.
70 I PROBABILIDADE
Então, A será definido assim:
(4.1)
A= {8 E SjX(s) E B) .
Explicando: A será constituído por todos os resultados em S,
para os quais X(s) E B (veia Fig. 4.2). NesÍe c~o, direnios que
A e B são event08 ~qu.ivalenle8.
Fig. 4.2
Coment6,rios: (a) Dizendo a mesma coisll, com :inenos rigor: A Ei B serão equivalentes sempre que ocorram juntos. Isto é, quando A ocorre, B ocorre; é inversamente. Porque se A tiver ocorrido, então um resultado 8 :terá ocorrido, para o
qual X(li) E B ~~ portanto, B ocorreu. Reciprocamente, se B ocorreu, um valor
X(s) terA sido observa<;lo, para .o qual 8 EA e, portanto, A, ocorreu. . . .
{b) É impÓrtante ·compreender que, -'em ·l1~ssa defuriçA~
·evcmtoS equivalentes, A ·e B sãCI associados .a espaços amostrais diferentes.
. .
·de
Exemplo 4.3. Considere-se a jogada ·de duas moedas. Dai,
S = •I HH, HT, TH, TT}. Seja X ·o número de carp.s ob'tidC>-. Por·t anto, Rx = {O, 1, 2}. Seja B = {1}. Já que X'(IIT) = X('I'Il) =··.11
se, e somente se, X(s) = 1; temos que A= IIIT, THj é·equiva:lenteaB.
Agora, daremos a seguinte importante definição.
Definição. Seja B 1im evento no ·contra:dO'l'IlÍnio Rx.
caso, definimos P(B) da seguinte maneira
P(B)
A C
= P(A), onde A= Is
E SJX(s) EB}.
Nesse
(4;2)
Explicando: Definimos P(B) igtl.al à pro·babilida:de do evento
S, ;o q\~al é equivalente a B, no sentido ·da Eq. (4.1).
Ccnnentár (qs : (a) Estamos ·admitindo que probabilidaacs possam ser associadas a. eventos ·em S. Portanto, a. definição acima. torna possível atribuir .probabilidades a ev-entos associados a Rx em termos·de probabilidades·definidas sobreS.
(b) É realmente possível demonstrar ·que P(B) deve ser definida tal como . e
fizemos. Contudo, isto envolveria algumas dificuldades teóricas que desejamos
evitar e, por isso, procedemos ·como acima.
(c) Desde que na formulação ·da Eq. (4.2) .os eventos A e B se referem a.
espaços amostrais diferentes, deveríamos realmente empregar notaÇão diferente
·qJ:ando. nos ·referíssemos a probabilidades definidas sobre S ·e àquelas ·aefinidaa
.s 9bie Rx, digamos alguma. coisa tal como P(A) e Px(B). No entanto, .não .fare-
VARIÁVEiS ALEATÓRIAS UNDIOIMENSIONABS I 71
I
mos isso, mas continuaremos simplesmeJep•escrever .P(A.) e P(B). ·o contexto
em que tais expressões apar"'çam tornará lcÍara a interpretação.
·
(d) As probabilidades associadas a eventos ~o .espaço amostrai (original) S
são, de 'certo modo, determinadas por "{orças .fora de nosso controle", ou como
às vezes se diz :•pela. Natureza". A comppsição de uma fonte radio~iiva •que erniW.
partfculas, a dmpos1ção de um grande numero de pessoas ·que façam éhamaàa!l
·origem a 'Um fluxo
telefónicas durante certa hora, e a agit~ção térmica que
·ou as condições atmosféricas que dêein ofigem a urna tempe5tade, ilustram esse aspecto. Quando introduzimos. uma variável aleatólia X e seu··contradomfnio Rx
estl!,rnos induzindo probabilidades nos ev~ntos associados a ·'Rx, as quais serão estritamente determinadas se as probabiliclades associadas a ·e~entos em S forem
especificadas.
aê
I
'
I
Exemplo 4.4. Se as moedas consideradas 'llQ Ex. . 4:3 -forem
"equilibradas", teremos P(HT) = P(TH) = 1/4. Poft;a'Il'OO, P(HI',
TH) = 1/4 + 1/4 = 1/2. (Os cálculos acima são m:ria. lt!onsequência
direta de nossa suposição fundaxrlental referente à :propriedade ·de
equilíbrio ou simetria das moedas. Visto que ·o evento ·I X = 1}' é
equivalente ao evento {HT, TH}, empregando Eq. (4.1); teremos.
que P(X = 1) == P(HT, .TH) = l/2JI [Na. realida:de não 'e:lciste escolha
para o valor de P(X = 1) .. coeren~e com a Eq.. (4.2), uma ·vez que
P(HT~ ·Til) tenha sido determinada. 1l': neste sentido que probabi.!idades associadas a eventos de Rxj são induzida.'l.l
ii
a
1
Comentário: Agora qúe jil. -esta:belecebos a existência de ·uma funl,li!.o ·de probabilidade indozida.
sobre
o contradomiJio
de X- Eqs. (4.1 ·e, 4.2)achamos
.
.
I
.
..
conveniente .l!Jlprimir a natureza. 'funcional de X. Por isso, escreverein!ls ·(como
fizemos no ·e~plo ·acima) P(X = 1) = 142. O que se quer dizer é que, um certo
evento no ·espsço amostral S, a saber ·(HT, THI = (s}!X(s) = 11 •ocbrre com probabilidade 1/2. Da.! atribuirmos ·essa m~sma probabilidade, ao ·evento (X = 11
no contradom!U:ió. · Continuaremos
a escr~ver
expressões sernelha.n~s a P(X
= 1),
.
I
.
P(X ~ 5) etc. t muitc imporlánle para o I,eitor compreender o que essas expressões
reslm:ente representam.
I
.
I
I
Uma v.ez que as probabilidad~s associadas aos vááos resultadoe
(ou eventos) :no contradomin:io R~ tenham sido determinadas (mais
precisamente, induzida.S), ignor.arbmos freqüentemente o espaço
amostral original S, que deu orige~ a 'essas probabilidades. Assim,
bo exemplo anterior, ·• simplesmepte estaremos inter~ssados em
Rx = ' {O, 1, 2} e as probabilidaqes assCJciad'as (1/4, 1/'i, 1/4). O
fato, de que ·essas probabilidades s~jam determinadas por uma função
. de probabilidade definida ~obre o! espaço amostral original s, não
nos interessa, quando estamos ap:enas interessados em estudar os
valores da v~riável aleatória X.
I
Ao apresentar, em minúcias, lrmito~ dos importantes con:tieitos
·referentes a variáveis aleatórias, J julgamos conveniente distinguir
1
72 I I'ROBAB!UDADE
dois casos importantes: as variáveis aleatórias discretas e as variáveis aleatórias contínuas.
'De}z"-nição. Seja X uma variável aleatória. Se o número de val ores possíveis de X (isto é, Rx, o. contrado:riúnio) for finito ou infinito n umerável, denolninaremos X de variável aleat6rja discreta. Isto
é, os valores possíveis· de X, podem ser postos em lista como x 11
·x2, . ... , Xn. No caso finito, a lista acaba, e no caso infinito ntiínerável, a lista continua indefinidamente.
Exemplo 4.5.
Uma fonte radioativa está eMitindo partículas a.
A. emissão dessa.s partículas é observada em um dispositivo contador,
durante um período de tempo especificado. A variável aleatória
seguinte é a que intere3sa:
X = número de partículas
observada{~.
Quais são os valores possíveis de X? Admitiremos que esses valores
são todos os inteiros não negativos, isto é, R.Tt: = (O, 1, 2 . .. , ·n, . .. }.
Uma obje~ão com que j ~ nos defrontamos uma vez pode, novamente,
ser levantada neste ponto. Pode-se argumentar que durante um es- ,
pecificado intervalo (finito) de tempo, é impossível observai· mais. :.
do que, digamos N partículas, onde N pode ser um inteiro positivo
muito grand~. Conseqüentemente, os valores possíveis para X realmente seriam: O, 1, 2, . .. , N. Contudo, torna-:se matematicamente
·mais simples considerar a descriÇãO idealizada feita .acima. De fato, sempre que adniitirmos que os valores possíveis de unta variável aleatória X sejam infinito numerável, estaremos realmente considerando uma: representação idealizada de X.
À yista de nossas explicações anteriores da descrição prob~bi­
lística de eventos com um ,número finito ou infinito numerável de
elementos, a descrição prol?abilística d~; uma variável aleatória discreta não apresentà.rá quakruer dificuldade. Procederemos da seguinte maneira:
Definição. Seja X uma, variável aleatória discreta. "Portando, Rz,
o contradomínio de X, será formado no máximo por Um número infinito numerável de valores x1, x 2 ,. • • A calla poss[vel resultado x'
associaremos um número p(xi) = P (X = x;), denominado probabilidade de . x;. ·Os .números p(x;), .i = 1, 2, . . . devem satisfazer às
.
VAR!ÃVIEOS ALIEAlJ"Ó~QAS UI\IIDiilfiiEI\ISOONA!S I 73
seguintes condições:
(a) p(x;) ~ O para todo i,
(b)
L"'
p(x;) = 1.
(4.3)
oi=l
A função p, definida acima, é denominadajun;ão de probabilidade
(ou função de probabilidade no ponto) dá.' V!i.riável aleatória X. A
coleção de pares [.r;, p(.ri)], i= 1, 2, ... , é. algumas vezes denominada
distribuição de probabilidade de X.
Comentários: (a) A escolha. particular dos números p(x;) é presum!Velmentedeterminn.da a partir. do. função de probabilidade associada. aos eventos no espaço
Fig. 4.3
amostral S, no qual X. seja definida. Isto é, p(x;) = P[s IX(s) = :r;]. [Veja as
Eqs. (4.1 e 4.2).] Contudo, já que es tamos interessados apenas nos valores de X,
isto é, Rx, e as probabilidades IISSociadas a. . estes valores, estaremoS novamente
suprimir,c:lo _a. natnre~a fun.cional de X. ·. .(Veja a Fig. 4.3.) Muito embora, tia. maioria dos casos, os números sejam de fato determinados a partir da distribuição
de probabilidiules em algum espaço amostral subjacente s, qualquer conjunto de
números p(:í:i), que satisfaçam às Eqs. (4.3), pode servir comi:> descrição proba.billstica apropriada de uma variável aleatória discreta.
(b) Se X tomà.r apenas um número finito de : valores, digamos XlJ ••. ,xN,
então p(x;) = O para i > N, e1 portanto, a série infinita na Eq. (4.3) se transforma
em uma soma finita.
(c) Podemos salientar, novamente, uma análogia com a Mecânica, ao considerarmos a massa total de uma. unidade distribuída sobre a reta real, com a massa
total concentrada nos pontos x 11 X2, . . . Os ·números p(x;) representam a quantidade de massa localizada. no ponto x;.
(d) A interpretação geométrica (Fig. 4.4) de uma. distribuição de probabilidade é freqüeritemente útil.
p(x)
111
I ii
Fig. 4.oll
J
~x
74 I PROBABIUDADIE
Seja Bum evento associado i variável aleatória X; isto é, B C Rx
(Fig. 4.5). Suponha-se, especificamente, que B = I x,;1, x;w .. }. Daf,
P(B)
= ..f'[s!X(s) E B] (porque esses eventos são equivalentes)
:::, P[s!X(s) = x;i'j = 1, 2, ... ]
.
=
.
f:p(r; ).
i=l ....1
(4. 4)
Explicando: A probabilidade de um evento B é igual à iíoma das
probabilidades dos resultados individuais aSsociados com . B.
Comentários: (a) Suponhamos qué a variável aleatpria disereta X possa
tomar somente um número finito de vàlores, X 1 , ... : ; Xfif. Se os resultados forem
igualmente prováveis, então teremos obviamente p(x,) == ... = p(xN) = 1/N.
(b) Se X tomar um número infinito numerável de vàlores, então é impossível
ter todos os valores igualmente prováveis; porque · não poderemos satisfazer à
condição . :E oo p (xi) = 1, se tivermos p (xi) = c para todo i.
z= 1
,
(c) Em todo intervalo finito, existirá no máxi:Íno um número finito de
valores possíveis de X. Se algum desses intervalos não contiver qualquer desses
valores possíveis, nós atribuiremos a ele probabilidade zero. Assim, se Rx =
= [x,, x2 , ••• , Xnl e se nenhum xiE [a, b],entãoP [a"" X"" b] =O.
ExemjJlo 4.6. Suponhamos que urna vái~Ià' eletrônica . seja
posta em um saquete e ensaiada. Admitiunos que a ·p:robabilidàde
de que o teste seja positivo seja 3/4; daí, á p~ob~bilid~e _dé que s~2
ja negativo é igual a 1/4. Admitamos também que estej~os ensai:.
ando uma partida grande dessas válvulas.
ensaios : ~ontinuam
até que a primeira vál~la positiva apareça. Definàmqs a variável aleatória, assim: X é o n,úmero de testes · neÚss.ârios para con- .
cluil' o experimento. O espaço amostral associado ·a este experimento é:
Os
s ==: I+, - +, - - +, -
+, ... }.
Para determinarmos a dist~il:>uição. de probabilidáde de X, racioClp.aremos da seguinte forma: os valores possíveisde X são 1, 2, . .. n, •..•
(estamos, obviamente, tratando com um espaço amostral idealizado).
E será X = n se, e somente se, as pri:!neiras (n - l), válvulas forem
negatjvas e a. '(.1.-ésima válvula for positiva. Se aceitarmos que a
condição ·de 1Uill1 váLvula não influencie a condição de 'outra, poderemos escrever
p(n)
==
P(X
=
n)
( 1)n-l.(43) ,
= 4
n = 1, 2, .. •;
VARIÁVEIS ALEATÓRIAS UNIDIMENSIONABS 1 75.
II
--
Para verificarmos que esses valores de p(n) satisfazem à Eq. (4.3)
observaremos que
\
'
·
L..
n=l
p(n) = -3 ( \1
+ -41 + -161: + · · ·)
4
1
3
i1
=-~ --
=
.
1. ,
4 1\-_!_
.
4
I.
-I
'
Comenl.árw:
I
Estamos empregand6 aqui o resultado de que a. série gpomélrica
1 +r+ r+ ... çonv~rge para _1.'(1
~) sempre q~e· \r I < 1. ~ste é lUD resultado que será menciOnado mu1las vezes. Suponha-se que ,deseJemos calcular ·
P(A), onde A 6 defini.d.o como: 10 exphimento termina. depois 'd e um nú!l;leco paJ:
de repetições.! Empregando n. Eq. (414); teremos~
t-
P(A) =
..
I
L
p(2ni =
71=1
i
I1
3
=
.2_ + 2_
16
256
1
+ · ··
' 3
I
1
-:16 (1 +: ~ + .. ·) = 16 --~- = 5 .
1 - 16
i
I
4.3. A Distribuição Bi.nomial\
Nos prmamos capítulos, estJdaremos pormenorizadamente algumas variáveis discretas importantk Agora estudaremos apenas uma
delas e, em seguida, a empregar~mos para ilustrar alguns conceitos
importantes.
\
.
!
~eças
,~e
l~nha
Exemplo 4.7. Suponha que
saiam
uma
de produção e sejam classificadas como defe~tuosas (D) ou como não-defeituosa~
(N), isto é, perfeitas. Admita que três dessas peças, da produção de um
dia, sejam escolliidas ao acaso e Classificadas de acordo com esse esquema. O espaço amostral para es~se experimento, S, pode ser assim,
apresentado:
iI
.
I
.
•I
S = {DDD, DDN,DND,NDD,NND,NDN,DNN,NNNJ.
.
I
I
.
.
(Outra maneira de descrever s ,é como s = s 1 X Sz X s3' o produto cartesiano de St, S 2 e S3, onde c~daSi = {D,N}.)
Suponhamos que seja 0,2 a probabilidade de uma peça sér, defeituosa
e 0,8 a de ser não-defeituosa. A4rnitamos q~e essas probabilidades
'
76
i
PROBABUUDADIE
sejam as mesmas para cada peça, ao menos enquanto durar o nosso
estudo. Firialmente, admita-se que a classificação . de qualquer peça
em particular, seja independente da classificação de qualquer outra
peça . . Empregando essas suposições, segue-se q~e as probabilidades
associadas aos vários resultados do espaço ariwstral S, como se explicou
acima, são:
(0,2) 3 ' (0,8)(0,2) 2 ' (0,8)(0,2) 2 ' (0,8)(0,2) 2 ' (0,2)(0,8) 2 ; (0,2)(0,8) 2 ;
(0,2)(0,8) 2 , (0,8) 3 .
Geralmente, nosso interesse não está. dirigido para os resultados .individuais de S. Ao contrário, desejamos tão-somente cànhécer qiuzntas
peças defeituosas seriam encontradas . (não interessà:ndo . a ordem em
que tenh'am ocorrido). Isto é~ desejamos estudar a variáv~l aleirtóriaX,
a qual atribui a cada resultado s e S o número de peças defeituosas
encontradas em s. Conseqüentemente, o conjunto dos valores possíveis de X é {0, 1, 2, 3}.
Poderemos obter a distribuição de probabilidade de X, p(xi) =
= P(X = xi), .da seguinte maneira:
X = O se, e somente se, ocorrer NNN;
X = 1 se, e somente se, ocorrer DNN, NDN, ou·NND;
X= 2 se, e somente se, ocorrer DDN, DND, ouf!DD;
X = 3 se, e somente se, ocorrer DDD.
(Note-se que {NNN} é equivalente a {X= O} etc.) Ent'ão,
p(O) = P(X =O)= (0,8) 3
p(l) = P(X = 1) = -~ (0,2)(0,8) 2 ,
p(2) = P(X = 2) = 3(0,2)2 (0,8), p(3) =P(X = 3) = (0,2) 3 •
Observe que a soma dessas probabilidades é igual a 1, porque .a soma
pode ser escrita como igual a (0,8 + 0,2) 3 •
Comentdrio: A explicação dada ilustra como as probabilidades em um contradomínio Rx (neste caso {0, 1, 2, 3}) são induzidas pelas probabilidades defmidas sobre o espaço amostral S. Porque a hipGtese de que os oito Í esultados de
S = {DDD, DDN, DND,NDD,NND,NDN, DNN, iiNN}
tenham as probabilidades daçlas no Ex. 4.7, determinou o valor de p(x) para
todo x e Rx.
VARIÁVEiS AlEATÓROAS UI\!DD!MIENSOONAHS I 77
Vamos agora generalizar as noções introduzidas no ex. anterior.
Definição: Consideremos um experimento E e seja A algum
'"evento associado a E. Admita-se que P(A) = p e conseqüentemente
P(A) = 1 - p. Considerem-se n repetições de E. Daí, o espaço
amostral será formado por todis as seqüências passiveis I a1, á2, . . . , an I,
onde cada a; é ou A ou A, dependendo de que tenha ocorrido A ou A
na i-ésima repetição de E. (Existem 2n dessas seqüências.) Além
disso, suponha-se que P(A) = p permaneça a mesma para todas as
repetições. A variável aleatOria X será assim definida: X = número
de vezes que o· e-vento A tenha ocorrido. Denominaremos X de va- ·
riável aleatória binomial, com parâmetros n e p. Seus valores possíveis são evidentemente O, 1, 2, ... , n. (De maneira equivalente, diremos que X tem uma. distribuição bmoinial.)
As repetições individuais de E serão denominadas Provas de
Bernouilli.
Teorema 4.1. Seja X uma variável binomial, baseada em n
repetições. Então,
P(X = k) = (
~) p '(1- Pt-lc,
1
k =O, 1, ... , n.
(4.5)
Demonstração: Considere-se um particular elemento do espaço
amostral de S satisfazendo à condição X = k. Um resultado como
esse poderia surgir, por exemplo, se nas primeiras k repetições de E
ocorresse A , enquanto nas últimas n- k r~petições ocorresse A, ·
isto é,
AAA· · · AÃAA· ··A.
k
n-· k
Como todas as repetições são independentes, a probabilidade desta
seqüência particular seria plc(l - p)n-k, mas exatamente essa mesma
probabilidade seria associada a qualquer outro resultado para o
qual X = k. O número total de tais resultados é igual a {~), porque deveremos escolher exatamente k posições (dentre n) para o
evento A. Ora, isso dá o resultado acima, porque esses (~) resultados são todos mutuamente excludentes.
·........ ·
78 I PROBABILIDADE
Comentários: (a) Para verificaJ' nO!lflO resultado, . ~bªervemos que empre. >·
gando o teorem,a binomial temos
. .. ·
I:~~o P(X = k) =
Lk=O
m
pk(l ~ p)n~~
=;
[p
+ (1 '- p)]n = "1" =
1,
como era de se esperar. · Como as probabilidÍld~ '(k) pk(f:...:. p)ii-k
obtid&S .
pelo desenvolvimento da expressão binomial[p
(i C:: p)];.;/eí'a+ecelle a deri'omi~
nação de distribuição binomial.
.
' ·
.
São
+
(b) Sempre que realizarmos repetiÇões indep.eridentes_' de uni:experiinento
e estivermos interessados somente em uma dicotOmia- defeituoso ou nãc:i-def.eic
tuoso (perfeito).; dureza acima ou abaixo de certO padrão;, nível.,de ruído em um
sistema de comwúcações acima ou abaixo de ~~ limiar ,pr~estab~lecido ~ estaremos virtualmente tratando com um espaço amostrai nÕ qual podemos definir
uma. variável aleatória binomial. ·Enquanto as con:diçÕes da experimentação
permaneçam suficientemente · estáveis, · .de· modo que a probabilidade de . algum
atributo, digamos A, permaneça constante, poderemos empregar modelo aciina.
o
(c)
Se n for pequeno, os termos individuais da distribuição binomial serão
r~:lativamente fáceis de calcular. Contudo, se n for relativamente grande, os
cálculos se tornam bastante incómodos. Felizmente, foram preparadas tábuas. de
probabilidades bin01piais; existem várias dessas tábuas. (Veja o . Apêndice.)
Exemplo 4.8. Sup@ha-se que uma válvula eletrônica, instalada
em determinado circuito, tenha probabilidade 0,2 de funcionar mais
do que 500 horas. Se ensaiarmos 20 válvulas, qual será a probabilidade de que· delas, exatamente k, funcionem mais que 500 horas,
k = o, 1, 2, ... ' 20?
P(x)
I
'I
L-~0-+1~2~3~4~5~~6-!7~8~9~1~0~1~1~1~2~13~14~15~16~1=7~1~8-x
I
Fig. 4.6
Se X for o número de válvulas que funcionem mais de 500 horas, admitiremos que X tenha uma distribuição binomial. Então,
P(X = k) = CZ2) (0,2)!<(0,8)= 0-k. Os valores podem ser lidos na Tab. 4.L
.
.
Se marcarmos os valores dessa distribuição, obteremos o gráfico
apresentado na Fig. 4.6. A configuração que observamos aqui é
bastante· geral. As probabilidades binomiais crescem monótonica. mente, até que atingem um valor máximo e, depois, decrescem monotonicamente. (Veja o Probl. 4.8.)
~
~
-
I
-
.
VARBAVIEISA!l.EATORIAS UI\IDDIMIENSiOI\IAIS I 79
I
Tab. /4.1
I
P(X = O) = 0,012
I
P(X = 1) = 0,058
P(X
= 4) = 0,218
.
I .
P(X = 5) = 0,175
P(X = 2) = 0,137
P(X = 6) =
P(X = 3)
P(X
=
0,205
I
0,~09
= 7) = o,pss
P(X ;, 8) = 0,022
P(X '= 9) = 0,007
P(X == 10) = 0,002
P(X
= k) = o+ para k
~
11
(As probabilidades restantes são meilores do que 0,001.)
I
I
Exemplo 4.9. Ao operar det~rrninada máquina, existe alguma
probab-ilidade de que o operador qa máquina cometa um erro. Po~
de-se admitir, razoavelmente, que ;o operador aprenda, no sen~,ido dç
que . decresça a probabilidade de cpmeter um erro, se ele usar repetidamente a máquina. Suponha que q operador faça n tentativas e que as
n repetições sejam estatisticamente ipdependentes. Suponhamos, especificamente, que P (um erro ser cometido na i-ésima repetiçã<;>) = 1/(i + 1),
i = 1, 2, . .. , n. Admitamos que /se pretendam 4 tentativas (isto é,
n = 4) e defmamos a variável aleatória X como o número de operações
da máquina, executadas sem erro. NJ ote-se que X não tem distribuição
binomial, porque a probabilidade de "sucesso" não é constante.
Para calcular a probabilidade jde que X = 3, por exemplo, procede-se do seguinte modo: X = 3 se, e somente' se, houver exatamente
uma tentativa mal sucedida. -Isto ~ode ocorrer na prin~eira, segunda,terceira ou· quarta tentativas. Portanto,
1
I
.
.
.
1 2 3 4
~ 1 3 4
1 2 1 4
~x=m=----+~---+----+
.
2 3 4 5
~ 3 4 5
2 3 4 5
1 2 3 1
5
+z-345= iz·
I
I
Exemplo 4.10.
.
Considere-se ruma situação semelhante à.quel11,
· apresentada no .Ex. 4.9. Agora, !admitiremos que exista uma probabilidade constante p 1 de não cmpeter um erro na máquina, dura~te
cada 'uma das n 1 tentativas, e urra probabilidade constante p~ ~ P1
de não cometer um erro em cada uma das n2 .repetições:subseqüentes .
. Seja X o número de operações be~ sucedidas da máquina durante as
n = n 1 n 2 tentativas independe? tes: Vamos procurar a expressão
geral de P(X = k). Pelo mesmo rp.otivo dado no exemplo precedente,
X não tem distribuição binomial. i Para obter P(X = ik), procede-se
qa seguinte maneira: '
I
·
Sejam Y1 o número de operações corretas 'durante as primeiras
n 1 tentativas, · e Y2 o número dei· operações corretas· durante as n2
tentativas s~bseqüentes. Portantp, Y 1 e Y2 são variáveis aleatórias
independentes e X = _Y 1
Y 2• 1 Assim, X = k se, e somente se,
+
+
I
80
i
PROBABILIDADE
.
Y1 =r e Yz = .k- r, para qualquer inteiro r ql).e satisfaça às condições O ::::; r S n1 e O ::::; k - r ::::; n 2•
As restrições aciina, sobre r, são eqUivalentes 'a
·o: : ; r .:5 n1 e
k - n2 ::::; r ::::; k. Combinando-as, põdérêmb~ es~re'v~rmáx. (O, 'k ~
- nz) ::::; r S mín. (k; ni).,
Portanto, teniinci~
Com nossa convenção usual de que (b) = O sempre qu~ b
b < O, poderemos escrever a probabilidade acima como
. P(X= k) =
>
a ou
T~ (~1) p~(l- PI)nl-'r(k ~r) p;-r(l-' P2)"2-k+r
(4.6)
P or exemplo, se P1 = 0,2, P2 = 0,1, n1 = n2 = 10 e k
bilidade acima fica, depois de um cálculo direto:
Comentário:
Sup.onha-ose que p 1
= P2·
= 2, a proba-
Neste . caso, ii; Eq. (4.6) se reduz a
p~ (1 - pi)n-k, porque agora a .variável aleatória X tem . uma dist~ibuição
binomiaL Para verificar que é a.Ssim, note-se que poderemos escrever, (desde
· (k)
que n1
+ 112 =
n):
P(X
= k) =· p~(l-
p 1)n-k
~ (~1 ) (k~ ,.)
Para verificar que a SQ~~ acima é igual a (~), bast& comparar os coeficien~
d as potências de xl,; .ehi ambos os membros da idéntidade (l +. x)n 1 (1 + x)" 2 ~
= (1. + x)nl+n2.
··4.4.
Variáveis Aleatórias Conttífl'lluas
Suponha-se que o · contradonúnio de X seja formado por um
número finito muito grande de val~res, digamos todos OS . valores X
no intervàio O ::::; x
i, da forma: O; 0,01;. 0,02; ... ; 0,98; 0,99;
1,00: A cada um · desses valores .está associado um número não-negativo p(x.) ;, P(X =:= Xi), i.= 1,· 2,·: .. , cuja soma é igual a 1. Esta
operação está represen~ada geometricamente na !"ig. 4. 7. .
-
s
VA.RO Á VEUS A. LEA.TÕR8A.S UN8Dii\liEN SDONA.iS
I 81
J á. salientamos anteriormente que poderia ser matematicamente
ma.iB fácil idealizar a apresentação probabilística de X, pela
suposição de que X pudesse tomar
P!ll)
t<Jdos os valores possíveis, O ~ x ~ 1.
Se fizermos isso, que acontecerá às
probabilidades no ponto p(x;)? Como os· valores possíveis de X não
O
I
são numeráveis, não podemos realmente falar do i-ésimo valor de X,
e, por isso, p(x;) se torna sem sentido. O que faremos é substituir a
função p definida somente para x 1 , x 2, • •• por uma função f definida
(neste conte:do) para todos os valores de x, O ~ x ~ 1. As proprie1
dades da Eq. (4.3) serão substituídas por j(x) ~O e fo f(x)dx = 1.
Vamos proceder formalmente como se segue.
kJmw Iiliiillli.,
Definição: Diz-se que X é uma variável aleatória contínua, se existir
uma função t, denominada função densidade de probabilidade (fdp) de
X que satisfaça às seguintes condições:
(a) f(x) ?>O para todo x, ·
(b) I+ ~ f(x ){lx = 1,
-
00
.
(4.7)
.
(c) p~a quaisquer a, b, com -
oo
<a<
b
< + oo,
teremos
(4.8)
P (a<X<b)=Jg f(x)dx.
Comentários: (a) Estaremos essencialmente dizendo que X é uma variável
aleatória contínua, se X puder tomar todos os valores em algum intervalo (c, d),
onde c e d podem ser-~ e+~, respectivamente. A existência estipulada de uma
fdp constitui um artifício matemático, que possui considerável apelo intuitivo e
torna nossos cálculos mais simples. Em relação a isso, também devemos salientar
que, quando supomos que X seja uma variável aleatória contúma, estamos tratando com uma descrição idealizada de X.
(b) P(c <X< d) representa a área sob a curva no gráfico da Fig. 4 .8, da
fdp f. entre x = c ex = d.
J(x)
='+-----..,:.:
X=C
ir=d
82 I PROBABILIDADE
(c) Constitui uma conseqüência da descrição probabilfstica de.. X, acima,
que, par& qualquer valor especificado de X, di~~s ~; · téciíiri~·P(X = Zo) ' = O,
porque P(X = xa) =
j(x) dx = O. Este rooult~o
~~ecer ~clto contrário à. nossa intuição. Contudo, . devemos compreender que se permitirmos
que X tome rodos os valores em algum Intervalo, então a pr.obe.bili<lade zero.não é
equivalente à impossibilidade. Por issO, no caso contínuo, P(A) = O não implica
· ser A = 0, o conjunto vazio. (Veja. o Teor. 1.1.) Explicandc) ias:> •ménos rigorosamente, .considel"EHle a escolha de um ponto .ao
.se~ento de reta
{xj O .:S x.:S 2l. Muito embora. possamos ~ta.r desejosos em concordar (para
objetivos matemáticos) que cada.. ponto imagiml.vel no segmento posSa. ser resultado
de nosso experimento, ficaríamos completamente surpreendidos qu~nto ii. isso,
sa de. fato escolhéssemos precisamente o ponto médio do segmento ou · qualquer
outro ponto especificado. Quando expressamos isto '.em ling'uagetn . matemática
rigorosa., dizemos que o evento tem "probabilidade líerÕ". Tend~ em vista. essas
obaerve,ções, 88 seguintes probabilidades serl!.o todas iguaiiJ, se X for uma va.riá~el
aleatória contínua:
· ·
.
pode,
Jz;o
aéaso,:nó
P(c5. X 5. d),
P(c 5. X< d),
P(c <X 5. d),
e
P(c <X< d).
(d) Apesar de não verificarmos aqui os detBlhes, pode-se mostrar que easa
atribuição de probabilidades a eventos em Rx · sa.tisfa.Z aos ·axiomas básicOs. da
probabilidade [Eq. (1.3)1, onde poderemos toiiU!.l" {zl - "' < x <
·"'I como ·
nosso espaço amo&ti:al.
+
(e)
Se uma função
r
satisfizer às condiÇões j'; (z) ~ O para todo x, e
r (:z;) dx = K, onde K é um número real positivo (não necessiuiamente igilal
a 1), então r não satisfaz a todas as condiÇões para ser uma fdp. No entanto,
poderemos fácilmente definir uma nove. função, digamos J, em termos de r. ll&,lim:
f_+.,""
j(z) = JO(z)
K
para todo x.
Em conseqüência, f se.tisfad, a todas as condiÇões de uma fdp.
(f) Se X tomar valorea somente em algum intervalo rmito [a, b], poderemos
aimplesmente pôrj(x) = O para todo z EE [a, bl. Em conseqüência, · a. fdp ficam
definida para todoo os valores ree.is dez, e poderemos. exigir quef_f;.,"" j(x) dx=r.
Sempre que a fdp for especificada somente para determinados valores de z, deveramos supor que seja zero em todos os demais.
(g) J(x) não representa. 111 probabilidade de coisa alguma! Anteriorm!)nte
j& salientamos que, por exemplo, P(X = 2) = O e, conseqüentemente, f(2} certa.mente nl!.O representa easa. probabilidade. Somente quando a função for integrada entre dois limites, ela produzirá uma. probabilidade. Poderemos, contudo, dar uma interpretação dej(x)t:.x, da: seguinte maneira: Bo teorema do valor
médio, em Cálculo, tem-se, que
P(x 2 X 2 x
+ tu)
=
i
z+L'>z
j(s) ds = l:.xj(~),
· VARIÁVEIS k lEATÕRBAS UNIDIMENSIONAIS l 83
.i
+
Se D.x for pequeno, f(x) D.x será aprd,ximadamente igual a P(x ~ X~ x
D.x)·.
(Sef for contínua à direita, esta aproxitnação se tornará mais exata quando D.x->0.)
(h) Devemos novamente salientat que a distribuição de probabilidade (neste
caso a fdp) é induzida em Rx pela probabilidade s~bjacente associada com eventos
I
.
em S. Por isso, quando escrevemos P(c < X < d), queremos significar como sempre P[c < X(s) < d], que por sua vez! é igual a P[s 1 c < X(s) < d], já que esses
eventos são equivalentes. A definição anterior, Eq. (4.8), estipula essencialmente
a existência de uma fdp f definida sobre Rx tal que
. P[,j« X[•)
~~
-
1'
J[•) d>.
I
Novamente suprimiremos a natureza funcional de X e, por isso, trataremos so.
I
.
.
mente com Rx e a fdp f.
(i) No caso contínuo, também !poderemos considerar a seguinte analogia
com a Mect1nica: Suponha-se que tembs uma massa ·total de uma unidade conttnuamente distribuída sobre o intervalo a~ x ~ b•. ' Nesse caso, f(x) represe~ ta
J:d f(x) dx representa a massa total contida
a densidade de massa no ponto x e
no intervalo c ~ x ~ d.
I
.:f
. ,.; ,
~ -~
l
·.!
·
I
Exemplo 4.11. A e~istêncial de uma fdp foi admitida na exposição
de uma variável aleatória cont~ua. Vamos considerar um . exemplo
simples, no qual poderemos facilmente determinar a f~p, fazendo uma
suposição apropriada sobre o corp.portamento probabilístico da variável
aleatória. Suponhamos que -~m ~onto_ s~ja e~~ollúdo n~ interv~o (O,l).
Representemos por X a vanavel hleatona cuJpvalor seJa a absc1ssax do
ponto escolhido.
I
Supor: Se I for qualquer intervalo em (0,1), então Prob [X E I] ·
I
será diretamente proporcional ao cumprimento de I, digamos L (I).
Isto é, Prob [X E I]= kL(I), oJde k é a constante de 'proporcionalidade. (É fácil. verificar, tomando-se
I = (0,1) e observando-se .que
I
L :[(0,1)] = 1 e Prob [X E (0,1)] = 1, que k = 1.) . ,
Obviamente, X toma todos , os valores em (O,l).' Qual é sua fdp?
Assim, podemos encontrar uma fynção f tal que
I
P(a<X < b) = f b f(x')dx?
j
a
Note que, se a<b<Ooui1<a<b,P(a<X<b)=Oe,porisso,f(x) = O. Se O< a<; b < 1,,P(a<X < b) = b- a e, conseqüentemente,[(x) = 1. Portanto, encontramos
.
I
1,0<x< 1
,
1
f(x)= { .
, .
·
O, para qfrusquer outros valores.
84 I PROBABBUOAD_E
Exem,plo 4.12. Sup~nhamos que a variável a.Ieatótia X ·seja
(Veja a Fig. 4.9.) Seja ·a fdp j dada pO~·
contínua.
2x,
. j(x)
o,
0< x < 1;'
para quaisquer outros valores . .
Evidentemente, .j(x) ~O e. f_+,"" j(x)dx = fo~'!-xdx ::_
i. · Para calcular P(X.;;;; 1/2), deve-se apenas calcular a integral fo 112 (2x)_dx = 1/4.
f(x)
J(x)
"'---
L---~----------+--Qx
X=
Fig. 4.9
1500
Fig. 4.10
O conceito de probabilidade condicionada, explicado no Cap. 3,
pode ser significativamente aplicado a variáveis aleatórias: Assim,
no exemplo acima, podemos calcular P( X :::;
X :::; } )··
Aplicando-{le diretamente a definição de probabilidade condicionada,
teremos
i I-} : :;
p ( X
< _!_I _!_
-
2
~ X < _3_) = p ( t : :; X :::; +)
p (l. < X < _3_)
3 - 3
3 -
-
3
.
f~)~ 2x dx
5(36
1/3
fi)~ 2x d:c
5
=
n'
Exemplo 4.13. Seja X a duração da vida (em horas) de um
certo tipo de lâmpada. Admitindo que X seja uma variável aleatória contínua, suponha-se que a fdp j de X seja dada por
j(x)
= a/x 3, 1.500 :::; x :::; 2.500,
= O, para _q uaisquer outros valores.
(Isto é, está se ~tribuindo probabilidade zero aos eventos {X < 1.500}
e {X > 2.500} .) Para calcular a constante
recorre-'§e à condição
. f_"', j(x) dx = 1, que neste caso se torna fr_~ggo (a/x 3 )dx = 1. Dai
se obtém a = 7.031.250. O gráfico de j est~ apresentado na Fig. 4.10.
Em capítulo posterior estudaremos, pormenorizadamente, muitas variáveis aleatórias importantes, tanto discretas como contínuas.
a,.
VARIÁVIEIS ALEATÓRIAS UNDDDMIENSIONAHS I 85
Sabemos, de nosso emprego de modelos determinísticos, que certas
funções gozam de papel _mais importante que outras. . Por exemplo,
as funções linear, quadrática, exponencial e trigonométrica têm
papel vital na .explicação de modelos determinísticos. Ao desenvolver modelos não-determinísticos (isto é, probabilísticos) verificaremos que certas'Ovariáveis aleatórias são de notável importância.
4.5,
Função de Distribuição Acumulaw'la
Vamos introduzir outro importante conceito. geral, neste capítulo.
Seja X uma variável aleatória, discreta ou continua.
a função F como .a junção lk distribuição. acumulada da·
variável - aTeatóJ;iá X (abreviadamente indicada fd) como F(x) ,;,
= P(X ~ x).
Definição.
Def~ne-se
Teorema 4.2.
(a) .Se X for uma variável aleatória discreta
L p(xi),
F(x) =
(4.9)
j
onde o somatório é estendido a todos os índices j que satisfaçam à
condiÇão Xi ~ x.
(b) Se X for uma variável aleatória contínua com fdp j,
F(x) =
'\
Demonstração.
J:
(4.10)
f(s)ds.
Ambos os resultádos decorrem imediatamente da
definição.
!
.j
•_.·!'
;-:;·
Exemplo 4.14. ~<G.P'bnhamos que a variáyel aleat~~a X tome
os três valores O, 1 e'2; com probabilidades 1/3, 1/6 e 1/2;)respectivamente. Então,
·
·.. .
1
F(x) =
o
1
=3"
.1
2
= 1
se x <O,
se O$ x
se 1
~
< 1,
x < 2,
se x ;::: 2.
(Obse~e-se que é muito intportante indicar a inclusão ou a exclusão
dos limites, na descrição dos diversos intervalos:) O gráfico de F
está apresentado na Fig. 4.11 .
!
. !
í
;
. .,'
l
86 I PROBABILIDADE
'
Ftx)
ik--_,
I
I
3.
2
•
x· ·.. .
IFiPJ. 4.11
Exemplo 4.15.
com ·ídp
Suponhamos que X seja uma variável
I
d
!'
j(x)
2x,
O<
c~mthma
x < l,
O, para quaisquer outros valores.
Portanto, a fdp de Fé dada por
j
F(x) = O se, x::::; O,
I
[o"
I
1!
2s ds
se O<
= x2
•
x::::; 1,
. i
lsex>l.
r
O gráfico está apresentado na Fig. 4;12.
~
li
F_(x)
j
I
I
1
Ijt
I!
1j
·i!
'1
li-. ',':·_
.
:I
I
!j.·-. 11-
:.1
'I!
li
lj
fig. 4.12
Os gráficos· apresentados nas Figs. 4.11 e 4.12 para as fd são,
em cada caso, bastante típicos, no seguinte sentido~
(a) Se X for uma variável aleatória discreta, com um número finito
de valores possíveis, o gráfico da fd será constituído por segmentos de
reta horizontais (nesse caso, a fd se denomina função ém degraus). A
função Fé contínua, exceto nos valores possíveis de X: x 1 , ••• ,xn, ...
No valor xi o gráfico apresenta um "salto" de magnitude p(xi) =
=P(X=xi).
.
.
(b) Se X for uma variável aleatória continua, F será uma funÇão
continua para todo x.
·
(;!('l'Jiil
i
VARIÁVEIS ALEATÓRIAS Ui\IIDIMENSIONA8S
i
I
.
.
I 87
(c) A fd Fé definida. para. todok os valores de x, o que é um motivo
importante para considerá-Ia.
Existem duas ou_tras importantes propriedades da fd, que re"·· sumirem~s ~oc'"teore~aseguiiite: , ...
I _
?
,
I
..
Teorema 4.3. (a) A função P é não-decrescente Isto é, se
x1 ~ x2, teremos F(xi) ~ F(x2). !
-~- -(b) lilllz-+- mF(x) = O e lim.:~ .. F(x) = 1. [Freqüentemente, escrevemos isto como F(- oo) = O e F("") = 1.1
•
1
!
Demonstração: (a) De(inamol:! os eventos A e B, assim: .A =
I X ~ xil, B = 'I X ~ i2l - · P~rtanto, como xi ~ i2, teremos
A C B e, ,pelo Teor. r.5, P (A) ~ ~ P(B), que é o resultado d~sej~o.
(b) .N.o caso continuo, teremo~ :
F(- "".) =
' z-+CD
·>
I
,.
•\:
_
Jlt-.-~~~']{8)'âir-[,~:
F("") . =;: 1J
No .caso discreto, o raciochuo é
·
1-"'
f(s) _ds = 1, '
- GD
an~ogo.
,.
.
A função de _distribuição ( ac~mulada) é importante por ·muitas
razões. Isto é particularmente verdadeiro quando tratarmos com uma
variável aleatória contúma, porque nesse caso não poderemos estudar'
o comportamento probabilístico d~ X através do cálculo de P(X = x).
Aquela probabilidade é sempre igultl a zero no caso contínuo. Contudo,
poderemos indagar de P(X ~ x) ·e\ como demonstra ó teorema seguinte, obter a fdp de X .
J
I
Teore:ma 4.4. (a) Seja F a i fd de urna variável aleatória con-
Id
tínua, com fdp j . Então,
f(x)
= iax
F(x),
!
para todo x no qual F seja derivável. .
I
.
(b) Seja X uma variável aleatória dis<:reta, com .. valores possíveis xi, x2, . .. , e suponha-se qu.e jesses valores tenham, sido indexados
de mooo que XI < X2 < .,.. SeJa! F a fd de X. EntãO,
p(xi)
=
.
P(X
I
= xJ)!
I
F(xi)- F(xh).
Demonstração: (a) F(x)=P(X ! ~ x)
= f_-"'= j(s) ds.
'
cando-se o teorema fundamental !do Cálculo, :obteremos
. I "•
(4.12)
.
Por isso, apliF'(x). =
.
j(x) .
88 I 'f"ROBABDU D A DIE
(b) Como admitimos
< x 2 < ... ; teremós' .; ·
Xr
F(x;-) = P(X =
= p(j)
Xj
U X= x;-- 1 \j ;'; ·Ü'X = x;) .·
+ p(j - i). .+. -:·:·+
·' pcir
··
.
·: ,,
..
E
F(Xi-cl) = P(X =
·•
.
'
' '; ·.• :'
;·~)
. ;'
·~
u X =. ~f-;2 u ... u
+ p(j....,. 2) + :. :+.p(l); -
Xj-1
= p(j- 1)
X
= XI)
Portanto,
Comentário: Vamos rtisumidamente recon~i~~rar apart~ Ú)dÓTeor~ma 4.4.
. ·· ·
Recordemos a definição de derivada de uma funÇão F: ·· ·
F(x)=
=
lim F(x+h)-F(x)
h-+ o
h
P(X < x +h)- P(X.;; x)
lim
h-" o+
h
= lim
- 1- [P(x<X<x+h)].
h-'> o+ h
Portanto, se h for pequeno _ll-positivo,
/
F'
(x/~ f(x)'- P(x <X< x +h)
h
Assim,f(x) é aproximadamente igual à "quantidade de.probabilidade no intervalo
(x, x + h) pelo comprimento h". Daí o nome função densidade de probabilidade,
~r---~.
Exemplo 4.16. Suponha-se que uma variável aleatória contínua tenha a fd F dada por
F(x)
Kesse caso, F'(x)
O,
x ~ 0,
1- e-, x >O.
= e- para x > O, e, por isso, a fdp será dada por
j(i) = e-z,
= O,
X;:::
0,
para quaisquer outros valores.
Camenlário: É oportuno dizer uma palavra. fi11al sobre a terminologia. Esta
terminologia, muito embora ainda não uniforme, tornou-se bastante· p-adronizada. Quando falamos da distribm'çllo de probabilidade de uma variável aleatória X, nos referimos à s_u a fdp se ·x fõr contínua, ou à sua fun~ão de probabilidade no ponto, p, definida para x 11 x~, ... se X fõr discreta. Quando falamos
da função de distribuição acumulada, ou algum~ vezes apenas junçao de distribuição (ou função de repartição),queremos sempre nos referir aF, ondeF(x) =
=P(X<x).
. li
VAR~ÃVIEOS Al!EATÓRIAS Ui\! iD iMIENSIONA~S
4.6.
~
I 89
IDJistribuições Mistas
Restringimos nossa explanação tão-somente a vanaveis aleatórias que sejam discretas ou contínuas. Tais variáveis são certamente as mais importantes nas aplicações. Contudo, há situações
em que poderemos encontrar um tipo misto: a variável aleatória X
pode tomar alguns valores diferentes, digamos xh . .. x., com probabilidade n.ã.o-p.ula, e também tomar todoo os valores em algum intervalo, digamos a :::; x :::; b. A distribuição de probabilidade de
tal variável aleatória seria obtida pela combinação das idéias já examinadas na descrição de variáveis aleatórias discretas e de contínu.as, ·como se verá a seguir. A cada valor x, associa-se um número
p(x;) tal que p(x;) ~ O p.a ra todo i, e tal que L~=l p(x;) = p < l.
Em seguida, defme-se uma função j, satisfazendo a j(x) ~ O,
fab .j(x) dx = 1 - p. Para todo a, b, com - oo <a < b < + 00 , P(a <;
·<;X<; b) = fab f(x) dx +
L
p(xi). Desta maneira, aten{i:a<xi<b}
deremos à condição P(S) = P(- oo < X < oo) = 1.
.
i
\
Uma variável aleatória de tipo misto p~d~ria surgir da maneira
explicada a seguir. Supónha-se que estejamos ensaiando algum
equipamento e façamos igual .a X o tempo de funcionamento. Em
muitos problemas, ·descreveremos X como uma variável aleatória
contínua, com valores possíveis x ;:::=: O. No entanto, podem surgir
situações nas quais exista uma probabilidade não-nula de que a peça
não funcione de modo algum, isto é, falhe no momento X= O. Nesse
caso, desejaríamos modificar nosso modelo e atribuir uma probabilidade p > O ao resultado X = O. Conseqüentemente, teríamos
P(X = O) = p e P(X > O) = I - p. Deste modo, p descreveria
a distribuição de X no ponto O, enquanto & fdp j descreveria a distribuição para valores de X > O. (Veja a Fig. 4.13.)
j{JI)
l'(X=O)=p
.I
1
Fi!l). 4.14
4.7.
Variáveis Aleat6riaJs \\Jniformem®nte Distribuídas
( "
Nos Caps. 8 e 9, estudaremos minuciosamente muitas variáveis
aleatórias discretas e contínuas importantes, Já introduzimos a
i'-i
:: ... I
_,. , ·'
90 I PROBABILiDADE
importante variável aleatória binoiniaL V~os ; âg6rii exaíninar,
resumidamente; uma importante variável a.Ie'atória cohtinua.
. . ·' '·. :.:,:, ....~
..
: ~- . ' ·.
'
: ; -~ .
Definição. Suponha-se que X seja uma varl~v~iáleat6ria contínua, que tome todos os valores no intel'Valô [ii;' b], 'lio 'qual a e b
sejam ambos finito/~.fdJLde .X-f~por)
·
/(x) = b ~-
.
.
[
.
·\
a '
a
~- x~}~
(4.13)
• / "/
= O, para ,g,uru:squer Qutros yalores, .diremo.s
'~-----·------------·
que X é uniformemente distribuída sobre o intervalo [ci, :91. (Veja a
Fig. 4.14.)
Cvmentários: (a) .Uma· variável aleatória · uniformemente distribuída. tem
uma fdp que é constante sobre o intervalo de definição. A fim de satisfazer à
condição
f_+,
m
j(x) dx = 1,
essa constante deve ser igual ao inverso do compri-
mento do intervalo.
(b) Uma variável aleatória uniformemente distribuída representa o análogo
contínuo dos resultados igualmente pro~áveis, no seguinte sentido. · Para qualquer subintervalo [c, d], onde a:::_ c < d :::_ b, P(c :::_ X:::_ d) é a ~msma para todos
os subintervalos que tenham o mesmo comprimento. Isto é,
P(c :::_ X:::_ d) =
f..
d
c
d- c
j(x) dx = - . - .-·
.b ... ·a
·,
e, por isso, depende unicamente do comprimento do intervalo . e nã'o da posição
desse intervalo.
··
(c) Agora podemos tornar mais precisa a noção intuitiva de e3colher ao aca..o·
i~tervalo [a, ·b]. Por isto simplesmente quetémos dizer que a
coordenada x do ponto escolhido, digamos X, é uniformemente distribuída sobre
~a, b].
um p<mto P, em um
I
f
H·
~
'i.'
Iii
!
Exemplo 4.17.
tJrh
ponto é escolhido ao aca.so no segmento de
reta [O, 2]. Qual será a probabilidade de que o ponto escolhido
esteja entre 1 e 3/2?
Fazendo-se X representar a coordenada do ponto escolhido, nós
temos que a fdp de X é dada por j(x) = 1/2,. O < x < 2 e, portanto,
P(1 ~ X ~ 3/2) = 1/4.
F(x)
l
:r
x=a
x=b
Fig. 4.15
1
VARIÃVEIS i i..EATÓRIAS UNiDIMENSIONAIS
I.
I 91
.
Exemplo 4.18. A dureza ~ de uma peça de aço (avaliada na
escala Rockwell) pode-se supor ~er. uma variável aleatória contínua
uniformemente distribuída sobre o intervalo [50, 70}, da escala B.
Conseqüentémente,
I
f(h)
.1
50
1
< h < 70
F(x)
=
P(X
.~ r) =
j(s)~ .
x-a I
=---sea<x<b1
('
b- a
= 1
O gráfico está apresentado na
4.8
·I
/_"...
se x <a,
=0
.;
v~ores.
Exemplo 4.19. Vamos obte~I a expressão da fd de umà variável
aleatória uniformemente distribuída.
I
·,
1
= O, para/ quaisquer putros
!
'
1
= 2o 1
~m• Oboomção
I
~e
-
x;::: b.
Fík. 4.15.
I
i
Repetidamente temos salien~ado que em algum estágio de nosso
desenvolvimento de. um modelo probabilístico, algumas .prpbabilidades
devem ser atribuídas a resultados, com base ou em evidência experimental (como as freqüências relat~vas, por exemplo) 'ou,em alguma outra
consideração, como a experiênci~ passada com o fenômep.o que esteja
em estudo. A seguinte questão pode ocorrer :ao estudante: Por que nós
não podemos obter todas as proij abilidades em que estejamos iriteressados por tais meios não-dedutivÇ>s? A resposta e que muitos eventos
cujas probabilidades desejamos Iconhecer são tão complicados que
nosso conhecimento intuitivo é ipsuficiente. Por exemplo, suponhamos
que 1000 peças estejam sairido diariamente de uma linha de produção,
algumas das quais defeituosas. ~esejiunos saber a probabilidade de ter
50 ou menos peças defeituosas! em certb dia. Mesmo que estejamos
familiarizados com o comportamento geral do processo de produção,
poderá ser difícil para nós assodiarmos
uma. medida quantitativa com
I
o evento: 50 ou menos peças são defeituosas. No entanto, poderemos
ser capazes de fazer a afirmação /de que qualquer peça individual tenha
probabilidade de 0,10 de ser def;eituosa. (Assim; a experiência passada
nOs dá a informação de que cerd,a de 1 O por cento das peças são defei1
92 I PROBABILIDADE
tuosas.) Além disso, poderemos estar inclinados a adirütir _qu:e, individualmente, as peças sejam defeituosas ou perfeitas iridepen<;leriteme:rite
uma da outra. Agora, poderemos proceder deduÜvame~-i:e , ·e obter a
probabilidade do evento em estudo. Assim, se X= . número de peças
defeituosas,
.
50 (1000)
.
P(X.;;;, 50)~ ~
(O,lO)k (0,90)1000- k
k= o . k
..
O que se quer destacar aqui é que os vários métodos que nós deduzimos para calcular probabilidades (e outros que serão estudados
subseqüentemente) são de enorme importância, porque com eles poderemos avaliar probabilidades associadas a eventos bastante complicados,
as quais seriam difíceis de obter por meios intuitivos ou empíricos.
-i1J &~ q~ 1liilA determinada. moeda apresenta. cara. três vezes mais ·
X o. número
freqüeiitemente que OOI'oa. .E= moeda é jo~da três vêzés.
de' caras _qíle~p~. -Es~beleç~~> . a dis~buiçl!.ci de probabilidade de X e ta.m··"'
~..... -· ~
·--.)
.
-bém ~Jtfâ.. t-Fa.ça. um esboço do. grá.fioo de-IUilbllS.rl
Seia
.9
~-F7
~
.
(
r
~/
~
•
'
De um lote ~ue contém ~-)je-l)ãâ, ~ quais 5 são deíejtuosas, são escolhi IIS 4 ao &easo. &lJa. X o número de defe1tuosas encontra.daa. Estabeleça _a
distribuição de probabilidade de X, quando:
(a) AD peças forem escolhidas com r.eposiçl!.o.
(b) As-peças forem escolhidas sem reposição.
/;
l9
e P(X
.
Suponh~ que ~ variável a.lea.t6ris. X
tenha. os valores pol!!líveis 1, 2, 3, -~ .. ,
= J1 = 1/2', i= 1, 2, ...
(a) Ca.lcule P(X ser par).
(b) Calcule P(X ;:::: 5).
(c) Calcule P(X ser divisível por 3) •
. x 4.13, Considere
Suponha que P(X
UIM
variável aleatória. X com resultados possíveis: -0,
- a)ai, i = O, 1, 2, ..•
1, 2, ...
= J1 = (1
(a) _Para que valores de a o modelo acima tem sentido?
(b) Verifique
probabilidade.
qu~
esse. eJCpressão represente uma legíti.xru!. dietribuição de
·
(c) Mostre que, para · quaisquer dom inteiros positivos· a e 8,
P(X .> s
J
+ t IX > s) =
P(X ;:::: t).
.
VARIÁVEiS ALEATÓRIAS UNIDIMENSIONAIS ./ 93
/4~ Suporihà
que ·a máqUina 1 ·produza (por dia) o dobro das peças que
2. . No entanto, 4% das peças fabricad:i.s pela máqUina: 1 tendem a ser defeituosas, enquanto somente cerca de 2% de defeituosasproduz a máquina 2: Admita que a produção diária das duas máquinas seja misturada. Uma amostra aleatória de 10 peças é extraída da produção total. Qual
será a probabilidade · de que essa amostra· contenha 2 peças defeituosas?
sã~uzidas ·pela máquina
4. . Foguetes são lançados até que o primeiro lançamento bem sucedido
a ocorrido. Se isso não ocorrer até 5 tent~tivas, o expernr;ento é ~lispenso
e o eqUipamento inspecionado. Admita que exista uma probabilidade constante·
de 0,8- de haver um lànçamento bem sucedido e que . os sucessivos lançamentos.
sejam independentes. Suponha que· custo do primeiro lançamento seja K dólares, enquanto os lan~;amentos subseqüentes custam K/3 dólares. Sempre que
ocorre um. lançamento !\em sucedido, uma certa quantidade de informação é obtida; a qual pode ser expressa como um ganho financeiro de C dólares. Sendo T
o . custo líqUido· desse experimento, estabeleça a disti:i.buição de probabilidade de T • .
o
@
Calcule P(X = 5), onde X é a variável
suponha que n1
10, n2 = 15, PI = 0,3 e P2 = 0,2.
=
ale~tória definida no Ex. 4.10.
·
)("4.8 . . (Propriedades das Probabilidades Binomiais.) Na explanação do Ex. 4.8,
um padrão geral para as _probabilidades binomiais
(';,)p7c(1- p)n-:-lc foi sugerido.
Vamos denotar essas 'probabilidades por Pn(k).
(a) Mostre que, para O~ k <n~ temos
Pn(k
+ 1)/pn(k)
= [(n - k)/(lc
+ 1)] [p/(1 -
p)].
(b) Empregando (a), mostre que
(i) Pn(k
(ü) Pn(k
(iü) Pn(k
+ 1) > Pn(k) se k < np -
+ 1) = Pn(k)
(1 - p),
se k = np - (1 - p),
+ 1) < p~(k) se k > np - (l- p).
(c) Mostre que se np - (1 - p) fói: um inteiro, Pn(k) toma seu valor máxinto
para dois valores de k, a saber, ko = np - (1 - p) e ko' = np - (1 - p) + 1.
(d) Mostre que se np - Ú - p) não fórum inteiro, então Pn(k) toma seu
valor máximo quando k for iguàl ao men<:>r inteiro maior que ko.
(e) · Mostfé que se np - (1 - p)
se np - (1 - p) = O, Pn(O) = Pn(1)
< O, Pn(O) > Pn(1) > ... > Pn(n),
> Pn(2) > ... > Pn(n) .
enquanto
. 4. . A variável aleatória contínua X tem para fdp: · j(x) = x/2, O~ x ~ 2.
São feitas du~ det~rminações independentes de X. Qual será a prÓbabilidade
de que ambas essas determinações sejam maiores do que 1 ? Se três determinaçÕes
independentes "forem feitas, qual a probabilidade de que exatanierite duas dela~
sejam maiores do que 1?
4 • .0. Seja X a duração da vida de uma válvula eletrônica. e admita--se que X
possa ser representada por uma variável aleatória contínua, com fdp j(x) = be-00:,
x ~ O. Seja Pi = P(j ~X < j
1). Verifique que Pi é da forma (1 - a)ai
e determin~ a.
·
'
+
--,_....,
4;11. A variável aleatória con~ínua X tem fdp j(x) = 3x2; .-1 ~ x ~O
se b for um número que satisfaça a -1 < b < O, cs:lcule P(X-> b IX < b/2).
.
!
l
1
II
I
l'
94 I PROBABILIDADE
6 ·.
Suponha que j e g sejam fdp no mesmo intervalo a .:'S. x .:'S. b. .
Verifique que j + g não é uma fdp nesse interyalo. ·
.·· . •
.
(b) Verifique que, para todo núm~ro {3, O< {3 < 1, {3j(x)+(1 ~ {3)g(x}
é uma fdp nesse intervalo.
' ·
~a)
I
r.r::J
.
,ij·~J~
.
.·, .
.'
Su~onha que o gráfico na Fig. 4.16represente afdp
x;
aleatória
(a) Qual será
.
a relação entre
..
de_hni.a
.
variável
a e b?
· (b) Se a > O e b > O, que se pode dizer do maior valor que b pode tomar?'
(Veja a Fig. 4.16.)
.
Fig. 4.16
4~
(
A percentagem de álcool (100 X) em certo composto pode ser considerada ú'ma variável aleatóri~,_Jmde X, 1f < X < 1, tem a seguinte'fdp:
j(x)
= 20x3(1 -
x),_
O < x < 1.
(a) E>tabeleça a expressão da fd F e esboce seu
~áfico.
(b) Calcul~ P(X ~ 2/S).
(c) .Supollha qu_!l o preço de venda desse composto dependa do conteúdo
·de álcool. Especificamente, se 1/3 < X < 2/3, o composto se vende por C1 dólares/galão; caso contrário, ·ele se vende por C2 dólaresjgalão. Se . o custo for c;
dólares/galão, calcule a distribuição de probabilidade do lucro líquido por galão.
r:Q
4.15. Seja X uma variável aleatória contín]ia, com fdp dada por
J
f(x)
ax,
a,
O.:'S.x.:'S.l,
1.:'S.x .:'S. 2,.
+
-ax 3a,
2.:'S. x .:'S.3,
O, para quaisquer outros valores.
I·.
(a) Determi.ne a cot;l,l:Jtll.nte a. (b) Determine a fd F e esboce. o seu gráfico.
(c) Se X 1, X2 e X a forem til\8 observações independentes de X, qual será a proba~
bilidade de, exatameilte, um desses três ·números ser maior do que 1,5?
~
elétric~
·~ariável aleatória
O diâmetro X de um cabo
supõe-se ser uma
contmuJ X, com fdp f(x) = 6x(l - x), O ~ x ::::_ 1.
" ·
(a) Verifíque que essa expressão é uma fdp e ·esboce o seu gráfico.
(b)
Obtenha uma expressão para a fd de X -e esboce o seu gráfico.
(c) Determine um número b tal _que P(X
(d) Calcule P(X .:'S.l/211/3 < k< 2/,3).
< b)
= 2P(X
> b).
VARDÃVEDS
A~EATÕRIAS UNIDIMENSIONAIS I 95
I
4.17. Cada uma das seguintes funç~es representa a. fd de mna. va.riá.vel alea.tória continua. Em cada caso, F(x) = O pa.ra x < a. e F(r) = 1 pa.ra x > b, onde
[a, b] é o interva.lo indicado. Em ca.da. c+o, <'"b~l·e o gráfico da. função F, deter~
mine a fdp f e faça o seu gráfico. També,m verifique que f é ·uma fdp.
(a} F(x) = x/5, O.S x .S 5..
(c)
(b)i F(x)
(2/Jr) sen- 1 ( y';), o_s x _s .1.
=
I
(d) F(x)=x3/2+
F(x)=eJ.z,- "'<x.SO.
I
1
2
,-l.Sx.S1.
4.18. Seja .\ 1!. duração da vida j(medid& em horas) de um, <lispositivo
eletrõnico. Suponha. que X seja. X va~iá.vel aleatória contínua com fdp j(x) =
= kjx" 1 2.000 _s X _s 10.000.
(a) Para n = 2, determine k. (b) !Pa.ra. n = 3, determine k. (c} Pa.ra. n
I
•
em geral, determine k. (d) Qua.l a. probapilida.de de que o dispositivo falhe antes''
que 5.000 horas se tenham pa.ssad() 7 (e) Esboce a fd F(t) para 11 letra (c) e determine sua forma 8lgébrict\.
l
I
Seja X uma. va.riá.vel alea.tótia com distribuição hinomia.l, basea.da
em 10 repetições de um experimento. Sei p = 0,3, calcule as seguintes probabilida.des, empregando a tábua da distribuiçro binomial do Ap~ndicte:
4.19.
(a} P(X
.S 8);
(b) P(X
=
7);
(c) P(X
>
6).
I
+
4.20. Suponha que X seja uniforlnemente distribulda sol;lre l-a,
a],
onde a > O. Quando posslvel, determin~ a de modo que as seguintes relações
sejam satisfeitas:
(a) P(X
>
1) =
..!_ •
(d) P(X
<
1
-zl
= 0,3.
3
(b) P(X
JI
I) =
1
(c) P(X' <
"2 .
.
i
P<IXI < 1) = P(iXI >
(e)
I
I
I
..!.
)=
2
0,7.
1).
4.21. Suponha que X tenha distribuição uniforme sobre (O, a], a
I
,
ponda. às perguntas d o Probl. 4.20.
J
>
O.
Res-
4.22. Um ponto é ·escolhido ao acaso, sobre uma. reta. de comprimento L.
Qual é a. probabilidade de que o quocien~e do segroen~ mais curto p&ra o mais
1
longo seja menor do que 1/4?
4.23. Uma fábrica. produz 10 recipi~ntes de vidro por dia.. Deve-se supor
que exista uma probabilida.de constante~ = 0,1 de produzir um recipiente defei- ··
tuoso. Antes que esses recipientes seja~ estocados, eles são inspecionados .e os
defeituosos são separados. Admita que exista uma probabilidade con>tante r = 0,1
I
de que um recipiente defeituoso seja mal classificado. Faça. X igual a.o número
de recipientes classificados como defeitU:~sos
ao fim de um dia ··de produção.
I
(Admita. que todos os recipientes fabricados em um dia sejam inspeciona.dos naj
.
quele dia..)
> 3).
(a) Calcule P(X = 3) e P(X
I
!' (b) Obtenha a expressão de P(X = k).
'
4.24. Suponha que 5 por cento de todas as peça.s que 'saiam de uma linha
de fabricação sejam defeituosas. $e 10 dessas peças fo,rem escolhida.s e ill:lpecionada.s, qual será a proba.bilida.de de que j no máximo 2 defeituosas sejam encon.trada.s?
1
.I
96 I PROBABILIDADE
4.25. Suponha que a duração da vida (em horas) de uma certa válvula seja
uma variável aleatória contínua X com fdp f(x) = 100fx2, para x > 100, ·e zero
para quaisquer outros valores de x.
(a) .Qual ~erá a probabilidade de que uma válvuia dure menos de 200 horas,
se soubermos que ela ainda está funcionando após 150 horas de serviço?
(b) Se tr~ dessas válvulas forem instaladas em um conjunto, qual será a
probabilidade de que exatamente uma delas tenha de ser substituída após 150
horas de serviço?
(c) Qual será -o número máximo de válvulas que poderá ser colocado em um
conjunto, de modo que exista uma probabilidade de 0,5 de que após 150 horas
de serviço to~as elas ainda estejam funcionando?
4.26. Um experimento consiste em n tentativas independentes. Deve-se
admitir que por catÍsa da "aprendizagem~', a probabilidade de :...o bter um resultado favorável cresça com o número de tentativas realizadas. Especlficamente,
sliponha que P (sucesso na i-ésima repetição) = (i + 1)/(i + 2), i = 1, 2, . . . , n.
(a} · Qual será. a probabilidade de ter ao menos 3 resultados favoráveis, em
8 repetições?
'(b) Qual será a probabilidade de que o primeiro resultado favorável ocorra
na oitava repetição?
4.27.
Com referência ao Ex. 4.10:
(a} Calcule P(X = 2), se n = 4.
(b) Para n arbitrário, verifique que P(X = n- 1) = P (exatamente uma
tentativa mal sucedida) é igual a [1/(n
+ 1)] L?= 1 (1/i).
4;28. Se a variá.vel aleatória K fór uniformemente distribuída sobre (O, 5), ·
qual será. a probabilidade de que as raízes da equação 4x2 + ·4xK + K + 2 = O'
sejam reais?
·
4.29. Suponha que a variável aleatória X tenha valores possíveis, 1, 2, 3, ...
e que
P(X =r)= k(1- (3}r- 1, O < (3 < 1.
(a) Determine a constante k.
(b) Ache a moda desta distribuição (isto é, o valor de r que tome P(X =r)
a maior de todas).
4.30. Uma variável aleatória X pode tomar quatro valores, com probabilidades (1
3x)/4, (1 - x)/4, (1
2x)/4 e ·(1 - 4x)/4. Para que valores de x é
esta uma distribuição de probabilidade?
+
+
ij
.!
·I
;(.,
•t
-!
-;
>i
,,
-; !
·. ~
Fun_ções de Variáveis _Aleatórias
-Í
Capítulo 5
Suponhamos que o raio do orifício de um tubo calibrado com
precisão X seja conside~ado uma variável aleatória contínua com
fdp j. Seja A = 1r X 2 a área da secção transversal do orifício. É
intuitivamente evidente que, uma vez que o valor de X é o resultado de um experimento aleatório, o valor de A também o é.
Quer dizer, A é uma variável aleatória (contínua) e desejamos obter
sua fdp, que denotaremos g. Esperamos, Úma vez que A é função
de X, que a fdp g seja de algum modo deduzivel do cànhecimento
da fdp j. N;t:Ste capítulo, tr11taremos de' problemas desse tipo geral.
Antes porém de nos familiarizarmos com algumas das técnicas específicas necessárias, vamos exprimir os conceitos acima mais rigoro!lalllente.
Seja E um experimento · e ~ja S um espaço amostral associado
a S. Seja X uma variável aleatória definida em S. Suponha-se
que y
= H (x)
seja uma função real de x.
Então, Y
=
H(X) é uma
Fig. 5.1
variável aleatória, porque para todo s E S, um valor de
terminado, a saber y= H [X(s)l. Esquematicam~nte, .
Fig. 5.1.
-
98 I PROBABILIDADE
Como anteriormente, denominaremo~ Rx o contradomínio de X,
o conjunto de todos os valorc;; possíveis da função X . Semelhantemente, definiremos R y como o contradomínio (la variável aleatória
Y, o conjunto de todos os valores possíveis de Y. Anteriormente, já
definimos [Eq. (4.1)] a noção de eventos equivalentes em S e em Rx.
Agora, estenderemos esse conceito na seguinte forma natural.
Definição. Seja C um evento (subconjunto) associado ao contradomínio RY, de Y, como se explicou acima. Seja B C Rx definido assim:
B
= {-;?:E
Rx: H(x)
E C}.
(5.1)
Em palavras: B é o conjunto de todos os valores de X, tais que
H(x) E C. Se B e C forem relacionados desse modo, os denominaremos eventos equivalentes.
Comentários: (a) Como anteriormente, a interpretação não formal disso é
que B e C serão eventos equivalentes se, e somente se, B e C ocorrerem conjuntameu te. Isto é, quando B ocorrer, C ocorrerá, e inversamente.
(b) Suponha-se que A seja um evento ·ai;sociado a S, o qual é equivalente a.
um evento B associado a Rx. Então, se C for um evento ru,sociado a Ry o qual
é equivalente a B, teremos que A será equivalente a C.
(c) B também importante compreender que quando falamos de eve~tos
equivalentes (no sentido acima), esses eventos são associados a diferentes espaços ,
amostrais.
Exemplo 5.1. Suponha-se que H(x) = 1rx 2 , tal como na Seç. 5.1.
Então, . os eventos B: {X > 2} e C: { Y > 47r l são equivalentes.
Porque, se. Y = 7r X 2 , então {X > 2} ocorrerá se, e somente se,
{ Y > 47r l ocorrer, desde que X não pode tom.ar valores negativos no
caso presente: (Veja a Fig. 5.2.)
y
Fig. 5.2
i:
i
L
J
c
Cvmenlário: B também importante salientar que uma notação abreviada
está sendo empregada quando escrevemos expressões tais como !X > 2} e
I Y > 471"}. Aquilo a que nos estaremos referindo, naturalmente,· são os valores
d, X • oo
volo•~ do Y,
llilo '•
[•[XI•: >
2[ • [•[Y(•)
> 4,L '
FUl\IÇÕ"ESj DE VARI'Á VEIS ALEAJÓRIAS / -99_:.
Tal cqmo fizemos no Cap.
definição.
I
4,1[Eq.
(4,2!], dar~~~s- ~ j~~~7
i
.
. ......
:·..;:,..:; .. .
...
Definição: Seja uma variável! al~atória X defiil:id~ n~ , e~~~~­
amostral S. Seja Rx o contradomínio de X. ' Seja 1/ rumaruriÇã:~'
real e considere-se a variável aleat6Ha
y = H(X) com contrii.dólníill~
.
I
. . .
.
R,y. Para qualquer evento C C RIY, definiremos P(C) ~ssim: : . ··,,_~::
P(C)
=
P[ {x E Rx: H(x) E C)].
(5,2)
.
Em linguagem corrente: A p~obabilidade de um ~vento associado ao contradomínio de . Y é d~finida como a probabilidade do
evento equivalente (em termos de X), como indicado pela Eq. (5.2).
.
!
-
Comerúár.ios: ' (a) A definição acima jtorna possível calc~_ar probahilidades
que envolvam eventos associados a Y, se ·conhecermos ·a distribuição .de probabilidade de X e se pudermos determinar o erento equivalente em apre_ço~
(b) .Uma vez que explicamos anterioxhente [Eq. (4.1 e 4.2)] como relacionar
probabilidades associadas a Rx com prob:abilidades associadas a S, podemos rei
escrever a Eq. (5.2) assim:
I
.
P(C) = P[(x E Rx: H(x) E ClJ = P l (s E S: H[X(s)] E C}]. .
I
Exemplo 5.2.
contínua
v ·
(Uma .
J;~. e-
I
~oro
fdp
·I j(x)
= e-,
in~egração
I
dx =
I
;'
x
simples
> O.
confirma que
1.)
Suponha-se que. H(x) = 2x + 1. Em
conseqüênbia, I;lx = { x Ix > O), enquanto
RY = {y Iy > 1). Suponha-se, que. o evento C seja definido
deste modo: C= { Y;::: 5).
I
--,4 ---J<J..=.:...l_ _,__.,.Então, y 2: 5 se, e somente se, .2x
1 ;::: 5,
o
.
que
porJsua
vez
acarreta
x;?:
2.
Daí,
C
Fig, 5.3
é equivalente. a B = {X ;?: 2 J. (Veja Fig.
5.3.) Então, P(X ;::: 2) = h~ e= 1/e2• .Aplicando-se então a.
Eq. (5. 2) encontraremos que
i
+
)C
'\ -
.
Seja X uma variável
!ax
P(Y ;?: 5) ·= 1/e2•
nov.a~ente
CQ77le111.drios: (a) li:
provbitoso salientar que poderemos considerar a incorporação de ambas as avaliaçõ~ de x = X(s) e .de y = H(x) em_ ll,q~Q:.
experimento e, conseqüentemente, conside~ar apenas Ry, o contra?o~fu!.o ~tf,~; ·
como o espaço amostral de nOBBo experimento.
'·'·:f·" ·
Rigorosamente falando, o eapaço amo~tral de nosso e)!:perimenti> .é ._
sultado do expe!imento é 8. Tudo o que ~ faz subseqüentemente , n.ão
Wlll I f'ROBAIBUUDADE
cia<l<i pela ,natureza aleat6ria do experimento. A determinaçii.o de x = X(s)" e
a avnliaçíi.o de y =. H(x) .sll,o processos ngorosamente. determinísticos depois qúe. s ·
tenha sido observado. COntudo, .. como já explicam·os, podemos incorporar esses
cálculos na descri~o de nosso. experimento. e, deste modo, tratar diretamente
com o contradomínio Ry.
(b) Exatamente ·do modo como a distribuição de probabilidade foi induzida
em Rx pela distribuiÇii.o. de probabilidade sobre o espaço amostral original· S, a .
distrib!=liçii.o de probabilidade de y será determinada quando a distribuição de
probàbilidade de ··X for conhecida. Assim, no Ex. 5.2 acima, a distribuição espe·
cificada de. x:determillOI:l'COmpletarnente o valor de P(Y ~ 5).
Y
. (c) ·Ao· considerar uma função de uma variável aleatória X, digamos
= H(X), devemos observar _que nem· «ida funçii.o H concebível poderá ser aceita.
Contudo, as funções ·que surgem nas-aplicações estão infalivelmente entre aquelas
que podemos considerar e, por isso, não nos referiremos maÍfj a esta· pequena dificuldade.
5.3.
Va~riáveis
Aleatórias Discretas
Caso L X é uma · variável aleatória diseretá~ Se X for um~
variável aleatória discreta e Y = H(X), nesse ca~o segue~se ímedia. tamente que y será também uma variável aleatória discreta. '
Porq~e sup()r _que os valor~s possíveis de X possam ser ~nume­
radps COniO X1, . X2, ...., Xn, . . . acarr~ta qu~ Certamente OS Valores
pos~(veis de Y sejam enumerados · como Y1 = .f:l(xi), y 2 = H(x2), . ... .
(Alguns desses valo_res de Y poderão ser iguais, mas isso certamente
não perturba o fatq de qUe esses valores possam ser enumerados.)
ExemplO 5.3 . . · S~ponhamos que a variável aleatória X tome os ·
três valores -1, O e 1, com probabilidades 1/3, 1/2 e 1/6, respectivamente. Seja y = 3X + 1. Nesse CIJ.SO os yalores possíveis de y
são -2, 1 e 4, tomados coniprob~bilidades 1/3, 1/2 e 1/6.
.
Este exemplo sugere o seguinte procedimento geral: Se - ~ 1 ; .•• ,
Xn, . .• forem os valores possíveis de X, p(x;) ~- P(X = x;), e· ii for
uma função tal que, a cada valor y correspÔhda exatamente um
valor x, _então a distribuição de probabilidade . de Y será obtida do
seguinte modo:
Valores possíveis de Y:
Probabilidades de Y:
y; = H(x;), i= 1,_.21 .- •• , n, .. . ;
q(y;)
= P (Y '=
y;)
=
p(x;).
Muito freqÜentemente a função H não possui a característica
acima, e poderá acontecer que vários valores :.de X levem ao mesmo
~~dor de Y, como ilustra o exemplo seguinte:
.
·
Exemplo 5.4. Suponha-se que consideramos a mesma variável
aleatória X, como no Ex. 5.3 acima. Contud;, frttrodu,ziilws Y # X 2 •
FUNÇÕES DE VARIÃVI;1S A .L EATÓRIAS I 1"01.
Portanto, os valores possíveis de Y são zero e um, tomados com piohabilidades 1/2 e 1/2, porque Y ==: 1 se, e somente se; X = ---,· 1 ou
X = 1 e a probabilidade deste último evento é i/3 + 1/6 = 1/2.
Em termos de nossa terminologia preliminar, os eventos B: [X = ± 1}
e C: [ Y =.1} são eventos equivalentes e, em conseqüência, pela
Eq. (5.2) têm iguais probabilidades.
O procedimento geral para situações como a apresentada no exemplo acima é o seguinte: Sejam x;P ·x;2 , • •• , x;k, . .. os valores de X
que tenham a propriedade H(x;;) = y; para todo j. E~ tão,
q(y;)
=
P(Y
=
y;)
= p(x;)
+ p(i; + ...
2
)
isto é, para palcular a probabilidade d<;> evento I Y = y;}, acha-se o
evento equivalente em termos de X (no· contradomínio Rx) e em
seguida adicionam-se todas as probabilidades correspondentes. (Veja
a Fig. ·5.4.)
i'
Fig. 5.4
Exemplo 5.5. Admita-se que X. tenha os valores possíveis
1, 2, .. . , n, . . . e suponha-se que P(X = n) = (1/2)n. Seja
= 1
= -
Y
Y
se X for par,
1 se X for ímpar.
Portanto, Y toma os dois valores -1 e + 1. Desde que Y = 1 se,
e · somente se, X = 2, ou X = 4, ou X = 6, ou ... , a aplicação da
Eq. (5.2) fornece
.
P(Y
=
1) =
1
1
1
1
4 + W + M + ... = 3 .
Conseqüentemente:
P(Y
=
-1)
=
.
1 - P(Y
=
1)
=-
2
3
Caso 2. X é uma variável aleatória contínua. Pode acontecer que X seja uma variável aleatória contínua enquanto Y seja
discreta. Por exemplo, suponha-se que X possa ·tomar todos os
valores reais, enquanto Y seja definido igual a + 1 se X ;::: o; e
!
.I
~r
102 I PROBABBUDADE
Y = - 1 se X < O. A fim de obter a distribuição de probabilidade
de Y, determina-se apenas o evento equivalente (no contradomínio .
Rx) correspondente aos diferentes valores de Y. Neste caso, Y = 1
se, e somente se, X ~ O, ·enquanto Y =- 1 se, e somente ?C, X < O.
Por isso, P(Y = 1) = P(X ~ 0) 1 enquanto P(Y = -1) = P(X < O).
Se a fdp de X for conhecida, essas probabilidades poderão ser calculadas. No caso geral, se I Y = yi) for equivalente a um evento, por
exemplo A, no contradominio de X, então
= P(Y =
q(y;)
·'!:.
),·:
y;)
= .h. j(x) dx.
5.4. Variáveis Aleatórias Contínuas
O caso mais importante (e mais freqüentemente encontrado)
aparece quando X for uma variável aleatória continua com fdp j e H
for uma função continua. Conseqüentemente Y = H(X) será uma
variável aleatória continua, e nossa tarefa será obter sua fdp, que
denotaremos por g.
O procedimento geral será:
(a) Obter G, a fd de Y, na qual G(y)
.,
i
= P(Y ~
o evento A (no contradomínio de X) o qual é equivalente ao everito
{Y ~ y}.
(b) Derivar G(y) em relação a y, a fim de obter g(y).
I
I '
I' .
.
y), achando-se
(c) Deteiminar aqúeles valores de y no contr;adominio de Y,
para os quais g(y) > O.
y
Exemplo 5.6. Supoilhamos que
X tenha fdp
j(x) = 2x,
= O,
Ü
<
X
<
1,
para outros quaisquer
valores.
Seja .H(x) = 3x + 1. Da[, para
obter a fdp de Y = H(X)/teremos
(veja a F\g. 5.5).
'
Fig. 5.5
l
-'ES DE 'í'ARIÁVEIS ALEATÓRIAS / 103.
. FUNÇ0
1
i
G(y)
'
.
I
(11-1)/3
=
1
.
.
.
l
.
'
1)/3]~; .
I
.
i . .
. I
2
9
I.
> O para O < xl < 1,
Desde que j(x)
1 < y < 4.
.
. ,,t
I
. · g(y) = . G'(~) =
.
.
: 2x dx ,;,. [(y-:-
0
D~
.
+
P(Y :::; ~) = P(àx' 1 :::; y)= P[X' ::5 i(y - · 1)j3] ' ··. ./' ~ ~.
I ·
.
·.
(y -:- 1).
l
i
.
.
.
. .
encontramos q'ue g(y)
·
I
.
.
. .
• .
> O para
.
.
.
Comentário: O evento A, :rereri~o acima, equivalente ao evento {Y ~ y I
é apenas {X ~(y- 1)/3}.
i
·
. Existe uma outra maneid, ligeiramente diferente, de obter o
mesmo resultado, a qual será ,de utilidade mais tarde. Consideremos novamente
·j
·
. . . .
G(y)
= P(Y ::5
onde F é a fd de X;
y)
=P
i~to
(X:::; y ;l) = F(y; 1),
é,
F(x)
~ P(X_~:::; x):
A fim de calcular a derivada de G, G'(y), ·empregaremos a regra
•
I
. .
.
de denvação de função, coino segUe:
. .
.
1
dG(y) == dG(y) . du , . onde
dy
du
dy
.
I.
·
. .
Portanto,
.
u
= Y- 1..
3
1
·
G'(y) = F'(u) · _!_ = f(u) · _!_ = 2 ( Y 3 .
3
. . 3
1
·I
~
) .
,
. . 3
como .anteriormente. A fdp de Y
teip. 9 gráfico apresentado. na Fig.
5.6. (Para verificar o cálculo, ob4
serve
que j; g(y)dy = L)
I
')'
y= I
y=4
Exemplo 5.7. Suponhamos que
Fig; 5.6
uma variável aleatória
contínua tem
I ••
a fdp . como foi dada no
Ex. 5.6. ·.·· SeI
·.
'·
ja H(x) = e-. Para achar a fdp de Y = H(X), · procederemos como se mdica a segwr (veja a /Fig. 5.7):
T~l)
.
I
y) = P(e-x ::5 y)'
P(X ~ ~Iny) = ~
· i · 2xdx
G(y) . = P(Y
1--:
::5
1
(-~
I
·
y)2.
-ln11
.
l'
104
I PROBABIUOADE
<i: < 1,
2.ln, yfy. · Visto quej(~).> O pára O
y < L ..[Observe q~e
algébricó para g(y) está C:orreto, pois que ln y< Opii,ra l/e <
O gráfico de g(y) está esboçado na Fig. 5.K. . .
Daí, g(y)
= G'(y) = -
~ricontramos que g(y)
::> Q pari!, l/e
<
o . s-i,rtal
y <).]
.
y
I.
!: .
· : ·. . =
'I'
i',;
:I:
i
·'
I.i
I''l i
li
'I
I•I
li
Fig, 5.7
Fig •.5.8
Poderemos também obter ó resultado acima por um tratamento
um pouco diferente, que esboçll.remos resumidamente. Tal como
anterio.rmente
G(y)
= P(Y
-
~
y) =
P(X
?: -ln y)
1- P(X~ -lny)
= 1-F(-ln'y),
onde F é a fd de X, comei antes. A fim de obter a derivada de G,
aplicaremos também a regra de .derivação· de função de função, como sé segue:
dG(y) . = ·ac au
dy
du ·dy '
Deste modo
onde u = -ln y.
. · (- -i) .+ 2ln. (· 1)
.
y
•G'(y) ·= - F'(u)
. .
Y·
= .
y· . ----:.
,
·tal como anteriotniente.
Vam~s agora generalizar o tratamento sugerido pelos exemplos
acima. O passo mais importante em· cada um dos exemplos foi dado
quando substituímos o evento I Y ~ y} pelo evento equivalente em
termos da variável aleatória X~ Nos problemas acima, isso foi relativamente fácil porque em .cada caso a função de X era estritamente crescente ou estritamenté decrescente.
.FUNÇÕES D.E VARIÁ\ÍEIS.ALEATÓRIAS "/ ~105
. Na JFig. 5.9, y é uma funçoo estritam.ente crescente de z . . Por
ll8so, ~deremos resolver y = H(x) em termos de y, i~to é, x = Ji-l(JJ),
:J?
·
·
onde H-1 é denominada função invell'Sa de H. Porumto,
se H foli' estritamente crescente
I H(X) ::; y} será equivalente
. e (X::; H-1(y)}, enquanto se
H for estritamente decreséente,
I H(X) ::; y} será equivalente
a {X;::: H-1(y)}.
O processo empregado nos exem~--------~~~-----Y
x=H-I(y)
plos acima pode agora ser generalizado, na seguinte forma:
IFi!lJ. 5.9
( "
Teorema 5.l. Seja X uma variável aleatória continua com fdp j,
onde j(x) > O, para a < x < b. Suponha-se que y = H(x) seja uma
função de x estritamente monótona (ou· crescente ou decrescente).
Admita-se que essa função seja derivável (e, portanto, contínua)
para todo x~ Então, a variável aleatória Y, definida como Y = H (X)
possui a fdp g dada por ·g(y) = j(x)
I:I•
(5.3)
onde x é expresso em termos de y. Se H for crescente, então g será
não-nula para aqueles valores de y que satisfaçam H(a) < y < H(b).
Se H for decrescente, então g será não-nula para aqueles valores de y
que satisfaçam H(b) < y < H(a).
Demomtração: (a) Suponha-se que H seja uma função
mente crescente.
estrit~t­
Daf
G(y)
'·
P(Y ::; 'J!.) = P[H(X) ::; y]
P[X ::; H-1(y)]
= F[H-'(y)].
Derivando G(y) em relação a y, obteremos com o emprego da regrá
da derivada de função de função:
dG(y) dX
dy I
dG(y)
dY = ---a;Portanto,
onde x
= H-1 (y).
I
,
dF(x) dx
dx
G(y) = - - - =J(x) - ··
dx
dy
dy
=-======------__:________
__jr
106 I PROBABILIDADE
(b) Suponha-se que H seja uma função decrescente.
P(Y:::; y)
G(y)
Daí
= P[H(X) :::; y] = P[X ~ H-i-(y)]
1 - P[X :::; H- 1(y)]
=
1 - F[H- 1(y)].
Procedendo tal como acima, poderemos escrever
dG(y)
dy
= dG(y) dx
dx
=
dy ·
j_ [1 _ F(x)] dx = _ f(x)
dx
dy
dx.
dy
Comentário : O sinal algébrico obtido em (b) está correto porque, se y for
uma função decrescente de x, i será uma função decrescente de y e, conseqüentemente, dxfdy < O. Deste modo, pelo emprego do sinal, com o valor absoluto
em tomo de dxfdy, poderemos combinar o resultado de (a) e dé (b) e obter a forma
final do teorema.
Exemplo 5.8. Vamos reexaminar os Exs. 5.6 e 5.7 pela aplicação
do Teor. 5.1.
+
. (a) No Ex. 5.6 tivemos f(x) = 2x, O < x < 1, e y ~ 3x
1.
Conseqüentemente, x = (y - 1)/3 e dxfdy = 1/3. Por isso, g(y) =
2 [(y - 1)/3Í(l/3) = 12/9)(y - 1), 1 < y < 4, o que confirma o
resultado obtido anteriormente.
=
(b) No Ex. 5.7, tivemos j(x) = 2x, O < x < 1 e y = e""". Em
conseqüência, x ;= - ln y e dxfdy = - 1/y. Deste modo, g(y) ::,
,;, ;_ 2(ln y)fy, 1/e < y < 1, o que também confirma o resultado já
obtido.
Se y = H(x) não for uma função monótona de x, não poderemos
aplicar diretamente o processo acima. Em vez disso, voltaremos
ao processo geral esquemàtizado acima. O exemplo seguinte ilustra
esse procedimento.
l.:r
Exemplo 5.9. Suponhamos que
li
·.L
..
.'
=~=---:~.
·.~
.-- , · · ·< : :._
'
.'
.·..
· ' '-.'•,
j(x)
\
=
1/2,
O,
-1 < x < I,
fora desse mtervalo.
.
,· S~J~~ÍJ(x) ~~~: Jjbviamente, esta. · ~
( 'Z~B~t~~..:&~!~/{-;-1,
~:
I] .(Fig. 5.10).
dcrségumte modo: .
G(y)
'
é unia função monótona
Por isso, obteremos a fdp de
.
:5 y) = P(X 2 :5 y)
P(- Vy :5X ~ Vy)
P(Y
F(Vy)-
F(-v0,
I
. .. . .. . - .
F.UNÇÕE;S OE VARIÁVEIS .A LEATÓ.RIAS I
onde F é a fd da variável aleat6~a
.
I X.'.
.
1v'2vy
J;)
g(y/ = G'(y) =
']•
.
1
=c _r
2v y
Deste modo, g(y) =
a Fig. 5.11.)
Logo,
.
J< ~vi;) ,
-2-v'Y
.
I u<Y
Y) +J(-vy)l.
i
\.
(1/2Vy) (1/2
i
+ 1/2)
l/2.;;y, o'< y< 1; (Veja
<:. __,
· -<
g(y)
y
I
y=x2 ·
(t,4)
X
x=i
x=-l
Fig. 5.10
· empregado no
O processo
sultado geral.
y
.!I
!!
Fig. 5.11
I
1o acrma
·
f omece· o segwnte
·
re-
. •
e~emp
I
I
Teorema 5.2. Seja X uma v'ariável aleatória contínua c~m fdp j.
Façamos Y = X 2 • Então, a varikvel aleat6ria Y tem fdp . dada por
a
g(y) =
1
_r
2v y
U<yj. y) + J(-v' y)].
Demonstração: Veja o Ex.
Problemas
1
-
i
I
5r·
i
i
·Suponha que X seja uniformemente distribuída sobre (-1, 1). Seja
Achar a fdp de Y, g(y), e fazer seu : gráfico. Verifiq)Í'e t.à.mbém
que g(y) é a fdp adequada.
5.1.
Y
= 4 .- X 2 •
I
1
5.2. Suponha que X ·seja. uniformemente distribuída sobre (1, 3).
a fdp dll.'l seguintes variáveis aleatórill.'l!
(a) Y
= 3X
~ 4,
(b) i Z =eX.
Verifique em cada ca.so que a função obtida
II
I
é a fdp.
Esboce os gráficos.
Ache
108 I PROBAIBHUIDAOE
z
5.3. Suponha que "' variável aleatória contínua X tenha fdp j(x) "" e...,,
Ache a fdp das seguintes variá.veis aleatórias:
> O.
(a) Y "" X 3,
(b) Z "" 3/(X
+ 1)2•
5.4. Suponha que a variável aleatória discreta X tome os valores 1, 2 e 3
com igual probabilidade. Ache a distribuição de probabilidade de Y "" 2X + 3.
5.5. Suponha que X seja uniformemente distribuída sobre o intervalo (O, 1).
Ache a fdp das seguintes variáveis aleatórias:
(a)
Y "" X2
+ 1,
(b)
Z "" 1/(X
+ 1).
5.6. Suponha que X seja uniformemente distribuída sobre ( -1, 1). Ache
mfdp das seguintes variáveis. aleatórias:
'
(a) Y = sen (7r/2)X,
(b) Z = cos (7r/2)X,
(c) W =
IX!.
5.7. Suponha que o raio de uma esfera seja uma variá.vel aleatória contínua.
(Em virtude de imprecisões do processo de fabricação, os raios das diferentes esferas podem ser diferentes.) Suponha que o raio R tenha fdp j(r) = 6r(1 - r),
O < r < 1. Ache a fd;p do volume V e da IM-ea suJllflrlicial S da esfera.
5.3~ Uma corrente elétrica oscilante I pode ser considerada como uma variável aleatória uniformemente distribuída sobre o intervalo (9, 11). Se essa
corrente passar em um resistor de 2 ohms, qual será a fdp da potência P = 2P?
5.9. A velocidade de uma molécula em um gás uniforme. em equilíbrio é
uma variá.vel aleatória V cuja fdp é dada por
j(v) = wP e-b••,
v> o;
onde b = mf2kT e. k, T e m denotam respectivamente a constante de Boltzman;
a temperat~a absoluta e a massa da molécula.
.
(a) Calcular a constante a (em termos de b). [Sugesldo: Considere o fato
de que J;"" e-z• dx -"" v;;2 e integre por partes.)
(b) Estabeleça a distribuição da variá.vel aleatória W ""mV2/2, a qual representa a energia cinética d_a molécula.
5.10. A tensão elétrica aleatória X é uniformemente distribuída sobre o
intervalo (!- k, k) . . Se Y for a entrada de um dispositivo não~linear, com as características indicadas na Fig. 5.12, ache a distribuiçãode probabilidade de Y, nos
três casos seguintes: (a) k < a, (b) a < k < xo, (c) k > xo.
y
Fng. s.12
Comentário: A distribuição de probabilidade de Y constitui um exemplo
de uma distribuição mista. Y toma o valor zero com probabilidade não-nula 0
também toma todos os valores em certos, intervalos. (Veja a Seç. 4.6.)
[
f Ui\l ÇÕIES DIE VA!RiÃVIEiS A L IEATÓ!RiAS I 109
( "
I
5. 11 . A energia radiante (em Btu/hora/pé 2 ) é dada p.ela seguinte função da
f
t emperatura T (em escala Fahrenheit): E = 0,173 (T/100) 4 • Suponha que a
temperatura T seja considerada uma variável aleatória contínua como fdp
r
·1
I
J.(l)
O,
pl!.i'e.
outros quawquer vll!lorea.
Estabeleça a fdp da energia radiante·E.
t\~ Para medir velocidades do ar, utiliza-se um tubo (conhecido como
tubo estático de Pitot), o qual permite que se meça a pressão diferencial. Esta
pressão diferencial é dada por P = (1/2) dV 2 , onde d é a densidade do ar e V é a
velocidade do vento (mph) . Achar a fdp deP, quando V for uma variável aleatória
uniform~mente distribuída sobre (10, 20) . ·
~W~\Suponha que P(X .;; 0,29) = 0,75, onde X é uma variável aleatória
contín\1-'lJ?lcom alguma distribuição definida sobre (0, 1) . Quando Y = 1 - X,
determinar k de modo queP(Y .;; k) = 0,25 .
.,
I
I
____)
..·
I
Variáveis Aleatórias de Duas ou
Mais Dimensões
· Capítulo 6
6.1.
Variáveis Aleatórias Bidimensionais
Até aqui, em nosso estudo de variáveis aleatórias, consideramos
apenas o caso unidimensional. .Jsto é, o resultado do experimento
seria registrado como um único número x.
· -·,:.;1;~~~~=~;~z~;;:r~:B~·* ·
-;(~fiít1rceã;:;:.~a~:!~::"!-~:~
a dureza H e a tensão de -;~ptu;~· T de uma peça manufaturada de
aço poderão interessar, e nós consideraríamos (h, t) como um único
resultado experimental. Poderíamos estudar a estatura H e o peso w ·'.
de alguma pessoa escolhida, o que forneceria o resultado (h, w). Finalmente poderíamos observar a altura total da chuva R e a temperatura T em uma certa localidade, durante um mês especificado, dando
origem ao resultado (r, t).
Faremos a seguinte definição formal.
Definição. Sejam & um experimento e S um espaço amostral
s
X
y
Fig. 6.1
associado a &. Sejam X = X(s) e Y = Y(s) duas funções, cada uma
associando um l!Úmero real a cada resultado s E S (Fig. 6.1). ~~
-
VAR IA VEIS ACE"ATOR I AS
I
-
DU~S OUIVIA1S IJIMENSOES
I 111
como no caso
não estaremos interessados
na natureza funcional de X(s) e Y(s),
nos valores que X e Y tomam. Também falaremos do contradomínio de
Y), a .saber Rxx y, como o conjúnto de
todos os valores possíveis de (X, Y).
caso bidimensional, por exemplo, o con(X, Y) será um subconjunto do plano euclidiano. C.ada resultado
tradomínio
de
.
I
.
X(s) , Y(s) pod,erá ~er represent~do conto u~ po!lto (~, y) no plano. Tam~ém
supriremos a natureza funcional de X Y, ao escrevermos, por exemplo, P [X 2 a,
y b] em lugar de P[X(s) a, Y(s) b]. ·
.
.
T al como . no caso unidimensional, distinguiremos dois tipos básicos de variáveis aleatórias: as variáveis aleatórirul discretas e as contínuas.
2
2
e
21
. I
I
.
Definição. ·ex, Y) será uma !variável aleatória discreta bidimensional se os valores possíveis de (X, Y) forem finitos ou infinitos numeráveis. Isto é, os valqres pos~íveis de (X, Y) poséam ser repre~entados por (x;, Yi), i~\1,2, -[- .,n, .. .; J= 1,2, , .. ,m .. . ,
(X, Y) será .uma variável aleatória contínua bidimensional se
(X, Y) puder tomar .todos os vai6res em algum conjuhto não-numerável do plano euclidiano. [Por rxemplo, se (X, Y) t~m-ar todos os
valores no retângulo {(x; y) I a ~ x ~ b, c ~ y :s; d} ou todos os
valores no círculo {(x, y) Ix 2 + y 2 1 ~ 1), poderemos diier que (X, Y)
é un:;a variável aleatórià bidimen~ional contí~uaJ
Comentários: (a) Falando não ri~orosainente, (X, Y) . será uma variável
aleatória bidimensional se ela representat o resultado de um experimento aleatório
no qual tenhamos medido os dois caracteh sticos numéricos X e Y ..
(b) Pode acontecer que um dos 9omponentes_ de (X, Y), por exemplo X,
seja discreto, enquanto o outro seja conrínuq. No entanto, em muitas aplicações
trataremos somente com os casos apresFntadcis acima, · nos quais ·ambos os componentes serão discretos ou ambos serão contínuos.
·
(c) Em muitas situações as duas v~riáveis X e Y, quando considera.das conjuntamente, constituirão de maneira m~ito natural o· resultado de um único experimento, como se · ilustrou nos exem~los acima. Por. exemplo, X e Y podem
representar a estatura e o peso do mesbo indivíduo etc. Contudo, esta espécÍe
de conexão não existe necessariamente.! Por exemplo, X poderá ser a corrente
que passe em um circuito em dado moxfento, enquanto Y poderá spr a temperatura da sala naquele momento, 1e podetemos considerar, então, a variável ale.a'tó-..
ria bidimensional (X, Y). Em quase to'das as aplicações existe Ullia razão bastante. definida para .considerar X e Y cdnjuntamente. ·
Procederemos de modo análo,go ao 1caso
ção de probabilidade de (X, Y). '
1
unidimei,~Sional ao expor
a distribui-
112 I PROBABILIDADE
.
.
(a) Seja (X, Y) uma variável alea:tória discreta bi'dimensional. A cada resultado possível (x.;, y;) aSsociaremos um
número p(x;1 y;) representando P(X = x;, Y = y;) , e satiSfazendo às
seguintes condições:
_ · . . _ ,...;-)~
Definição.
(1)
(2)
p(x;, y;)
~O
para todo (x, y), .
L., L.,
p(x;, Yi)
.o. \
= 1. . . ~C-D
)
i=l i=l
·
~
.í~ ~
..
u
\...-- \
- ~""jj(90~ir
(6.1)/l
\
!'i, ' o c:L.(
{JtAO..:;-
· A função p definida para todo (x;, yj) ·no coutradominio de
(X, Y) é denominada a junçãÓ de probabilidade de (X, Y), · O ' conjunto dos ternos [x;, y;, p(x;, Yi)], i, j = 1, 2, ... é, algumas vezes;
denominado distribuição de probabilidade de (X, Y).
(b) Seja (X, Y) uma variável aleatória contíJ:lua tomando todos
os valores em alguma região R do plan~ . e\:iclidiano. A junção densidade de probabilidade con}unta j é ui:na função que satisfaz às seguintes
condições:
·
.
~
(3) j(x, y)
(4)
~
O para todo (x, y) E R
jjJ(x, y) dx dy =
l.
cfÚ
p
.___--
(6.2)
R
Comentários: (a) A analogia .com a distribuição de massa é também . aqui
evidente. l'emos uma massa unitária distribuída sobre uma região no plano. No
caso discreto, toda a massa estil. concentrada em um. número finito ou infinitQ ·
munerável de lugares 6om mruisa p(x;, Yi) situada em (~, y;). No caso. ccintíiluo,
a massa é encontrada em todos ·os pontos de algum conjunto não-Jiuinerável; no
·
·
.
plano.
(b) A condição (4) afirma que o volume total sob a superfície dada pela equação z = j(x, y) é igual a 1.
(c) Como no caso unidimensional, j(x, y) não representa a probábilidade de.
coisa alguma. Contudo, para Ax positivo e Ay _suficienteinente pequeno, j(x, y)
Ax Ay é aproriroadamente igual a P(x :S. X_::: x
Ax; y :S. Y :S. y
Ay).
+
+
(d) Como no caso unidimensional, adotaremos a convenção de que j (x, y) = O
se (x, y) EE R. Por isso, poderemos considerar j definida para todo (x, y) no plano
e a condição (4) acima se torna f_+.,"' J_+.,"' j(x, y) dx dy = 1.
(e) Também suprimiremos a naturtf;a funcional da variável aleatória bidimensional (X, Y). Nós deveríamos sempre escrever ·expressões da forma P (X(s) =
=· x;, Y(s) = Yil etc. No entanto, se nossa notação abJ:eviada for compreendida,
nenhuma dificuldade deve~á ~urgir.
W Também, como no caso unidimensional, a. distribuição de probabilidade
de (X, Y) é realmente induzida pela. probabilidade dos eventos associados ao ~
.paço amostral original S. Contudo, estaremos interesSados principalmente nos
valores de (X, Y) e, por isso, trataremos diretamenre com o coritradomínio de
(X, Y). Não obstante, o leitor não deverá p.erder de vista o fato de que se P(A)
.
I
VARIÁVEiS ALEATÓRiAS DE DUAS OU MAOS DIMENSÕES I 113
~
for especificado para todos os eventos A C S, então a probabilidade associada aos
eventos no contradomínio de (X, Y) ficará determinada. Isto é, se B estiver no
contradomínio de (X, Y), teremos
P(B)
r
= P{[X(s),
Y(s)] E B}
= P{si[X(s),
Y(s)] E B}.
Esta última probabilidade se refere a um evento em S e, conseqüentemente, determina a probab.ilidade de B. De acordo com nossa terminologia anterior, B e
(si(X(s), Y(s)] E Bl são eventos equivalentes (Fig. 6.2).
.
I
!
I
,. !
. I
Fig. 6.2
1
i
Se B estiver no contradomínio de (X, Y), teremos
1
P(B) =
i
I
LL p(x;, Yj),
(8.3)
B
"!
~ (X, Y) for discreta, na qual a soma é feita para todos os índices (1:, })' para os
quais (x;, y;) E B. E
P(B) =
v
I
Jf
j(x, y) dr dy,
(6.4)
B
i
s.e (X, Y) for contínua.
J
EXim!plo 6.1. Duas linhas de produÇão fabricam um certo tipo
de peça. Suponha que .a capacidade (em qualquer dia) seja 5 peças
nà. linha I e 3 peças .n a linha II. Admita que o número de peças
realmente produzidas em qualquer lill;ha seja uma variável aleatória, e que (X, Y) represente a variável aleatória bidimensional quê
fornece o número de peças produzidas Pela. linha I e a linha II, respectivamente. A Tab. 6.1 dá a distribuição de probabilidade êonjunta de (X, Y). Cada casa representa
'l
.I
'I
I
i
:1
.I
I
I
j
= P(X = x;, Y = y;).
= 2, Y = 3) = 0,04 etc.
p(x;1 y;)
Assim, p(2, 3)
definido' como
= P(X
Port:J.nto, se B for
B = { l\fais peças são produzidas pela linha I que pela linha II l.
encontraremos q)le
P(B)
= 0,01
+ 0,03 + 0,05 + 0,07 + 0,09 + 0,04 + 0,05 + 0,06
+ 0,08 + 0,05 + 0,05 + 0,06 + 0,06 +0,05 = 0,75.
114 I .P.ROBABI,LID.ADE
o
o
o
1
0,01
0,01
0,01
~
1
3
0,01
0,02.
0,03
0,02
0,03
0,04
(o05
I
0,05
0,05
0,05
0,00
~
4
5
0,07
0,06
0,05
0,()6
0,09
0,08
0,06
0,05
.
,.
Exemplo 6.2. Suponha que um fabricante de lâmpadM esteja
interessado no número de lâmpadas encome~dadas a ele durante os
meses de janeiro e fevereiro . . Sejam X e Y, respectiv!i.mente, o número de lâmpadM encomendadas durante esses dois meses. Admitiremos que (X, Y) seja uma variável . aleatória contínua bidimensional, com a seguinte fdp conjunta (veja Fig. 6.3):
'
.-.'::.
'
'
.-'--
.
.
)
.
j(x, y) ~-~-\se 5.000 ::; x ::; 10.000 e .4.000 ::;
= O · )para quaisquer outros valores.
.
y::; 9.000,
y
-r------+-------~-----x
x=5000
X=
10.000
!Fig. 6.3
Para determinar c, levaremos em conta o fato de que
J
+~ f+~
_..
_..
j(x, y) dx dy = 1.
....
Por conseguinte,
f_
+ a> ; · +.,
..
- .,
j(x, y) dx dy =
19,000 110.000 f(x, y) dx, dy
·
4.1100
5.00ll
·.
I
= é[5.000]!.
I
·r
·l
I
V~I'!I~VEIS ALEATÓRIAS,, DE DUAS' OU MAIS Dli\I!ENSÕ~7,_1
'l~:::~nal?/, .. ,.? ,, __,,
-<~'c ;Jl,, .~
,,-,
,...,, '1
,....-r .-;r-t;;/ ??·~/. )"l.,_,..,· s· i!'" 't !(. -"'~::s~ ..,'J.b_,~
f·'~f\
\< 1:...."'-:\Q,
I
l_
I
r
P(B)
Ii
=
'
1-
!'
'I..
- ~
,,I
5.000
5.000
·- (~~~~) 2 J.:J
ax~ ay
[y-
1
-~~ · . ~-
5.ÓOOJ dy = .
-
Exemplo 6.3. Suponhamos que a var~ável aleatória contínua
bidimensional (X, Y) tenha fdp Çonjunta dada por
J
xy
= x2 + 3
/
lo~ x ~ 1,
,
O~ y ~ 2,
= O para quais quer outros valores.
'I'
1
I'
+m Ir +"'
Para verificar que .f_- m i-., j(x, y) dx dy
=
I:
1:·[" f(x,y)~dy ~ A' J:' ( +i )a~
x'
.
=
=
/i2 ~ +
}~
!J
3
2
(
I
21
. . = 3 1+
i_
I
I
l
x2y
6,
-1 + .Jf._)
3
6
4
12
= 1.
dy
1"'=1 dy ;
x=O
2
dy
= -1
3
y
21
+ JL
12 Q
'
· Seja B ·=- {X -.; :Y'~ .i }. (Vei k a Fig. 6.4.) . Deveremos calcular
'
__,
- '
'
.
P(B) pela avaliação de' 1- P(Bf, on~e B ={X+ 'Y < 1'}. Portanto,
-
y
P(B)
~ 11,- .[l~~(x'+
';)~y~
,o
. I.
o.
=III -..)àç[
x2(J - x)
I
T
'
7
.
+ x(l; x)2
J
dx
I
·65
= ;1 - 72 = 72.
-JI
i
\:-----"--x
Fig. 6.4
'
Ao dstudar variáveis aleatórias unidimenI
.
sionais, '{imos que F,' a função de distribuição
acumulada, representava imp6rtante papel. No
!
f
,
•.:/r:J c~·...t)
.
Comentário: No Ex. 6-2, X e Y Jdevem, evidentemente, ser inteiras, porque
não podemos encomendar um número fracionário de. lâmpadas! No entanto, estamos novamente tratando com uma situação idealizada, na qual permitimos que
X tome todos os valores entre 5.000 e/10.000 (inclusive).
f(x, y)
I
I J.ll
1.9.00p
1
··c{5. ooo)2/ _:.
00
1-
,.
ll
'·).
Assirrr;-:~_:_,.(5~)?·-- Daí, se ~ ~ {X~ Yj, teremos
I
I
1fs)
'
116 I PROBABILIDADE
.. {aso bidirnensionai, também ·defínirnos urna função acumulada, dll>
seguinte maneira:
Definição. Seja (X, Y) uma variável aleatória bidimensional.
A função de distribuição acumulada (fd) F da variável aleatória bidimensional (X, Y) é definida por
F(x, y) = P(X ~x, Y ~ y).
Comentário: F é uma função de duas. variáveis e tem múitas propriedades
I!!.Ilálogas àquelas expostas. para a fd unidimensional. (Veja Seç. 4.5.) Menciona,..
remos somente a seguinte propriedade importante:
Se F for a fd de uma variável aleatória bidimensional com fdp j, então
I
a 2 F(x, y)fax ay = j(x, y)
sempre que F for derivável. Este resultado é análogo ao Teor. 4.4, no qual provamos que (d/dx)F(x) = j(x), onde j é a fdp da variável aleatória unidímerisional X.
6.2. ·Distribuições de Probabilidade Marginal .e Condi. .
cionada
'
A cada variável
aleatória bidimensional
(X, Y) associamos duas
.
.
variáveis aleatórias unidirncnsionais, a saber X e Y, individualmente.
Isto é, poderemos· estar interessados na distribuição de probabilidade
de X ou na distribuição de probabilidade de ·Y:'
Exemplo 6.4. Vamos . novamente considerar o Ex. 6.1. Em
complementação às casas -da Tab. 6.1, vamos ta~bérn calcular os
totais "marginais", isto é, a sorna das 6 colunas e 4 linhas da -tabola ..
(Veja Tab. 6.2.)
As probabilidades que aparecem nas margens, linha e coluna,
representam a distribuição de probabilidade de Y e de X, respectivamente. Por exemplo, P(Y = 1) = 0,26, P(X = 3) = 0,21 · etc.
Em virtude da forma de apresentação da Tab. 6.2, aludiremos, de
modo muito usual, à distribuição marginal de X ou à distribuição
marginal de Y, sempre que tivermos uma variável aleatória bidimeri~
sional (X, Y), quer discreta, quer contínua.
'
Tab. 6.2
o
,'oJ
o
1
2
3
Soma '
0,01
0,01
0,01
I'
o;õl)
I
5
4
Soma
1
2
3
0,01
0,02
0,03
0,02
0,03
0,04
o 05
o:o4
o,os
O,On
o:o6
o,os
o,2o
0,05
0,.06
0,0:>
0,06
0,06
0,05
0,2.i
0,24
0,08 '
0,16
0,21
0,24
0,2-i
,-1 ,00-
o 07 ,.
1
0,09
0,2.5
VARIÁVEIS A L EATÓRIAS DE DUAS OU MAIS DIMENSÕES I 117
í
No caso discreto, procederemos assim: Desde que X = x; deve
ocorrer junto com Y = Yi para algum i e pode ocorrer com Y = Yi
somente para um j , teremos
;j
~!
p(x;)
I'
J
!
I
I
.)
P(X
= x;) = P(X =
=
t
,.
x;, Y
= Y1
ou ~
=
x;, Y
= Y2 ou
·'· )
p(x;, Yi) ·,
Je=l
II
JI
=
,.-
A função p definida para x1, x2, . . . , representa à distribuição de probabilidade marginal de X. Analogamente definimos q(yi) = P(Y =
-~ Yi) = Li:l p(x;, Yi) como a distribuição de probabilidade marginal
de Y.
No caso contínuo, procederemos do segrnnte modo: Seja f a fdp
conjunta da variável aleatória bidimensional continua (X, Y). Definiremos :g e ·h, respectivamente as junções densidade de probabilidade
marginal de X e de Y, assim:
g(x) =
!
+"'
"'
'
f(x, y) dy;
Essas fdp correspondem às fdp básicas das variáveis aleatórias unidimensionais X e Y, respectivamente. Por exemplo
.,
P(c:::::; X::::; r1)
.= P[c:::::; X:::::; d,- ."" < Y < oo]
.=
=
f J:
_jd
"'I f(x,
y) dy dx
g(x) dx.
Exemplo 6.5. Dois característicos do desempenho do motor de
um foguete são o empuxo X e a taxa de mistura Y. Suponha-se que
(X,' Y) seja uma variável aleatória contínua bidimensional com fdp
conj~ta:
.
j(x, y)
=
2(x
+y-
2xy),
O ::=::; x
::=::;
1,
O _:::; y
::=::;
1,
para quaisquer outros valores.
= 0,.·
(As unidades foram escolhidas de modo a empregú valores entre O
e 1.) A fdp marginal de X é dada por
1
g(x) =
{
}o
2(x
+
, y-
2xy)dy
2(xy
1,
+ y 2/2' 0:::::;
X
xy 2)jÕ
:::::;,1.
Quer dizer, X é uniformemente distribmda sobre [0, 1].
118 I PROBABILIDADE
A fdp marginal de Y é dada por
1
1
h(y) =
2(x
+y-
z~y)jà
2xy) dx = 'l.(z2/2 + xy -
O::;; y::;; L
= 1,
<.
Portanto, Y é também uniformemente distribuída sobre [0, ll.
Definição. Dizemos .que a .variável aleatória oontíi:ma bidinien~
sional é uniformemente distribuída sobre a região R do piano euclidiano
·
quando
·1
para (x, y) E R, ·
para qualquer outra região.
f(x, y) = cte
o
Em virtude da condição f_+,"" f_+,"" f(x, y) dx dy = 1, a definição acima acarreta que a constante será igual a l/área (R). Estamos
supondo que R seja uma região com área finita, nã.o nula ..
Comentário: ÉÍlsa definição represe.nt& o .análogO bidimensional da variável
aleatória UIÚdimensional dístr\buida uniformemente ..
Exemplo 6.6. Suponhamos que a variável aleatória (X, Y) seja
uniformemente distribuúla sobre a região sombreada R indiçada na
Fig. 6.5. Portanto,
f(x, y)
=
y
1
área (R) '
(x, y) E R.
Encontraremos que
1
área (R)
=
1
.
(x- x 1) dx
.
1
= 6·
Logo, a fdp será dada por
f(x, y)
= 6,
=o,
E R,
(x, y) EE R.
(x, y)
Fig. 6.5
Encontraremos as fdp marginais de X e Y, pelas seguintes expressões:
1:""
g(x)
=
h(y)
= /:'"
f(x, y) dy
=
f(x, y) dx =
1"
l..Jíi
6 dy
= 6(x -
x 2),
"
O ::;; x ::;; 1;
6 dx = 6(yy- y),
Os gráficos dessas fdp estão esboçados na Fig. 6.6.
O~ y ~1.
h(_r)
g(x)
X=~
(a)
(I, O)
(I , O)
(b)
I.
1!
."I
-i·
I
I
•t
'·
I
I
(6.5)
T2() I P.ROBA!31L'IDADE:.
A ftip de X condicionada a
g(x Iy)
=
uin dado Y
J(x, y)
h(y) '
>o.
h(y)
A fdp ·de Y condicionada a um dado X
h(y Ix) = -j(x, y)
g(x)
= y é definida por
= x é definida por
g(x)
'
(6.7)
>O.
(6.8)
C~rics: (a) AB fdp condicionadas, acima, satisfazem a todas as condi!jOOS impostas para uma fdp unidimensional. Deste modo, para y fixado, nós
teremos g(xiy) ~ O e
!
+~
~
g(xiy)dx =
1· +~
~('yy))
jx
-<D
.
1
dx = --,;--(
)
y
Um cálculo análogo pode ser feito para h(y lx).
fdp em Rx e Ry; respectivamente.
!+=
_,
j(x, y) dx =
.
h(y)
h[)
y
=, 1.··
Dar; as Eqs. (6.7) e (6.8) definirem
(b) Uma interpretação intuitiva de g(xiy) é obtida se considerarmos a superfície representada pela fdp conjunta j cortada ·pelo plano y = c, por exemplo.
A interseção do plano com a superfície z = j(x, y) determinará uma fdp unidimensional, a saber a fdp de X para Y = c. Isto será justamente g(x Ic).
(c) Suponhamos que (X, Y) represente a estatura :e o peso de uma pessoa,
respectivamente. Sejam j a fdp conjunta de (X, Y) e g a fdp marginal de X (sem
Portanto, fs.~· g(x) dx representaria a probabilidade do evento
15,8 .::':X.::': 6) sem considerar o peso Y. E fs.~· g(x 1150) dx seria interprets,da
como P(5;8 .::': X.::': 61Y = 150). Estiitainente falando, esta probabilidade c~n­
dicionada não é definida, tendo em vista nossa convenção já feita para a probabilidade condicionada, porque F(Y = 150) = O. Contudo, apenas empregamos
a integral acima para definir essa probabilidade. .Certamente, em base intuitiva,
este deve ser o significado desse número.
lev!M' em conta Y).
Exemplo 6.8.
Com
2
g(x)
·
= (
refer~ncia
(x +
2
~o
1
h(y)
' I
I
i
=
1
(
x2
ao Ex. 6.3, teremos
xy) dy
3
= 2x 2 + _!_ x,
3.
+ -xy)
dx =
3
+ -31 ·
-·y6
Portanto,
{?(xjy) =
h(ylx)=
x 2+ :x;y/3 _
1/3.+ y/6 2
x +xyf3
2x 2 + 2/3(x)
6x 2 + 2xy
2+y
0 :::;
X :::;
3x 2 + xy
3x+ y
6x 2
6x
+ 2x =
1,
+2
0 :::; y :::; 2;
'
0 S y :::; 2, · 0 :::;
X :::;
1.
VAIFUÁVE!S AlEATÓAHAS DE DUAS OU MAIS DBMENSÕES I 12~
Para verificar que g(x Iy) é uma fqp, teremos
J(10
Gx2
2
+
+ 2xy
Y
dx -- 2
.
2
+ Yy
+
-- 1
para todo y.
Um cálculo semelhante pode ser feito para h(y Ix).
6~3.
Vatriáiveh~ A!earl:ória~ ! ndependent®s
Exatamente da maneira pela qual definimos o conceito de independência de dois eventos, A e B, agora definiremos variáveis aleatórias independentes. Intuitivamente, pretenderemos dizer que X e Y
são variáveis aleatórias independentes quando o resultado de X, por
exemplo, de modo algum influenciar o resultado de Y. Esta é uma
noção extremamente importante e existem numerosas situações em
que tal suposição é válida.
.i
(
:
.:
Exemplo· 6.9. Consideremos duas fontes de material radioativo,
a algUma distância uma da outra, as quais estão einitindo partículas a.
Suponhamos que essas duas fontes sejam observadas durante um
período de duas horas e o número de partículas emitidas seja registrado. Admitamos que se esteja interessado nas seguintes variáveis
aleatórias: XI e x2, respectivamente o número de partículas emitidas
pela primeira fonte durante a primeira e a segunda horas; e Yi e Y~,
o número de partículas emitidas pela segunda fonte durante. a primeira e a segunda horas, respectivamente. Parece intuitivamente
óbvio que {X1e Y1), ou (XI e Y2'), ou (X2e Y1) ou (X2e Y2) sejamtodoa
os pares de variáveis aleatórias independentes; porque os Xi de~n­
dem somente das caracteristicas da fonte 1, enquanto os Yj dependem
apenas das características da fonte 2, e não existe preaumivelmente
motivo para supor que as duas fontes influenciem, de qualquer modo,
o comportamento uma d~~, outra. Quando consideramos a possível
independência de X 1 e X ll; no entanto, a questão não é assim tão
nítida, Sem o mí.mero de partículas emitidas durante a segunda
hora influenciado pelo número das que tenham sido emitidas durante
& prim.eirn hora T Para responder a essa pergunta, deveremos obter
informação adicional sobre o processo de emissão. Não poderíamos
certamente supor, a priori, que X 1 e X2 sejam independentes.
Vamos agorn tomar esa& noção intuitiva de independência mais
precisa.
Definição. (a) Seja (X, Y) uma variável a}e~~,t6ria discreta bidimensional. Diremos que X e Y são variáveis ale'a t6rias independentoo
se, e somente se, p(x., Yi) = p(Xi.)q(yi) para quaisquer i e}. !ato é,
P(X = x;, Y = y;) =P (X = x;) P(Y = y;) pandodo i e j.
i!!
l:l
li!.
122 I PROBABIUDADE
(b) Seja. (X, Y) uma variável aleatória. contínua bidimensional.
Diremos que X e Y são variá.veis aleatórias. independentes se, e somente se, j(x, y) = g(x)h(y) para todo (x, y), o~de f é a fdp conjunta,
e g e h são as fdp marginais de X e Y, respectiv~mente.
Ji
il
1:
li;
Co171e1!Urio: Se compararmos a defini~ 8 o acima .com aquela. dada para wenws
independentes, a seiuelliança fica eviden:estamos .essencie.Imente exigi!'ido que
a probabilidade conj'unta (ou édp conjunta) possa ser fato;ada. O teorema seguinte indica que a definiÇão acima é equivalente a outra maneira. de tratar o assunto, que poderíamos ter adotado.
r'
.1
11
III
!jl
~
!~I
i\;
jl
~
~·
~.
.
Teorema 6.1. (a) Seja (X, Y) uma variável aleatória. discreta
bidimensional. Nesse cas
. o, X e Y serão independentes se, e. so.me.n. te
se, p(x; I y;) = p(x.) para todo i e j [ou, o que é. equivalente se, e somente
se, q(y; Ix.) = q(y;) para todo i e j].
·
(b) Seja (X, Y) uma variável aleatória contínua bidimensional.
Nesse caso, X e Y serão independentes se, e somente se, g(xjy) =
= g(x), ou equivalentemente, se e somente se,.h(y!x) =· h(y)1 para
todo (x, y).
Demonstração: Veja Probl. 6.10.
Exemplo 6.10. Suponhamos que uma máquina.. ) seja utilizada
para determinada . tarefa durante a manhã e para ·uma tarefa diferente durante ·a tarde. Representemos por X e Y, respectivamente,
o número de vezes que a máquina. pára por desarranjo de manhã e à
tarde. A Tab. 6;3 dá a distribuição de probabilidadé conjunta ' de
(X, Y).
.
Um cálculo fácil mostra que, para todas as casas 'da. Tab. 6.3,
teremos
p(x;, y;) = !P(X;)q(y;).
Portanto, X e Y são variáveis aleatórias independentes. (Veja também o
Ex. 3.7, para comparação.)
Tab. 6.3
~
o
2
1
q(y1)
o
0,1
0,2
0,2
1
0,04
0,08
0,08
0,2
2
O,OG
0,12
. 0,12
0,3
0,4
. 0,4
1,0
p(x;)
0;2
.... 0,5
VARIÁVEIS ALEATÓRIAS! D-i:. DUAS Ol!.JMAIS
Exemplo 6.11. Sejam X e
DIMEi\I~ÕES
I 123"
rI
a duração da vida ·de dois disposiSuponha-se que sua fdp conjunta seja dada por
tivos eletrônicos.
I
= e-<"'+1>,
j(x, y)
.
.
x :2: O, y :2: O.
I
Desde que podemos fatorarj(x, '!)) = e-e-:-'11, a independência de X e
Y fica estabelecida.
II
.
Exemplo 6.12. Suponha-se que j(x, y)
= 8xy,j O ~ x ~ y ~ 1. (Q domínio é indicado Ipela região1sombreada na Fig. 6.7).
Muito !embora j seja (já) escrita na forma
fatorada, X e Y não são independentes, já
que o campo de definição t (x, y) 1o ~ ~ ~
~ y ~ ~ 1) é tal que para dado x, y pode to"-------!'-----Jt mar soinente valores maiores do que aquele
dado J! e menores 'que 1. Por isso, X e Y
Fl· g · 6·7
~ saç>
- I m
· dependen· t es.
nao
!I
.
Comentário: Da definição de distribuição de probabilidade margiri.al (quer
no. caso discreto, quer no caso contínJo)
torna-se evidente que a distribuição de
I
probabilidade conjunta determina, uniyocamente, a distribuição de probabilidade
Úlarginat Isto é, do conhecimento df fdp conjuntá j, poderemos obter as fdp
marginais g e h. No entanto, 1J. rec!ptoca nAo é verdadeira! De fato, em geral,
o conhecimento das fdp marginais g e não determina fdp conjunta j. Somente ·qUji.Ildo X e Y forem independentes issô será verdadeiro, porque nesse caso teremos
.
I
f(x, y) = g(x)h(y).
'hl
a
i ·
··
.
O teorema séguinte mostra que nossa definição de variáveis aleat6ri8.'3 independentes é coerente cbm
nossa d~fi~ção
anterior de even1
.
tos independentes.
!
·,
Teorema 6.2. Seja (X, Y) Jma variável aleatória bidimensional.
Sej.am A e B eventos cuja ocorrência (ou não ocorrência) dependa
de X e Y, respectivamente.
(Isto é, A é um
-subconjunto---de
apenas
.
!
..
.
Rx, :o contradomínio d~__X; enq~anto B--é um subconjunto de RY, o
contradomínio de Y.) ;ElJ.tão, sf X e Y forem variáveis aleatórias
independentes, teremos · P(A "() B) ._= P(A)P(B). ..
...
·.
'
'-...
Demonstração (apen8.'3 para
.
::·.
)
P(A
n B) =
ff
4nB
~
o c8.'3o
t· ··- - ..
I
contínuo):
- .
j(x,_y)! dx dy =
:
}!
g(x)h(y) dx dy
A..nB~
I
=
f
}A
g(x) dx_r h(y) dy = P(A)P(B) . .
'JB
I
IIi
i'',!1
'•I
124 I PROBAB8LIDADE
il'
6,4,. Funções de Variável Aleatória
i
I
I
I
r:
1:
j;
I
·I
Ao definir uma variável aleatória X, salientamos bastante que
X é uma junção definida a partir do espaço amostral S para os números reais. Ao definir uma variável aleatória bidimensional (X, Y)
estaremos interessados em um par de funções; X = X(s)) Y = Y(s),
cada uma das quais é definida no espaço amosÚal de algum experimento e associa um número real a todo s ·E S, desse modo fornecendo·.
o vetar bidimensional [X(s), Y(s).J. '
..
Vamos agora considerar Z = H 1 (X, Y), uma função de duas
variáveis aleatórias X e Y . Fica evidente que Z = Z(s) é também
uma variável aleatória. Consideremos. a: seguinte seqüência de etapaS:·
(a) Executar o experimento 8 e obter o resultado s.
(b) Calcular os números X(s) e Y(s).
(c) Calcular o número Z
=
H 1 [X(s), Y(s)] .
O valor de Z depende evidentemente de s, o resultado original
do experimento. Ou seja, Z = Z(s) é . uma função que associa um
número real Z(s) a todo resultado s E S . Conseqüentemente, Z é
· uma variável aleatória. Algumas das importantes variáveis .àle·a t6rias, nas quais estaremos interessados, são: X+ Y, XY, X/Y,
mín (X, Y), máx (X, Y) etc.
O problema que resolvemos no capitulo ant~rior, para a variáve,l
aleatória unidimênsional, surge novamente: dada .a distribuição de
probabilidade conjunta de (X, Y), qual é a distribuição de probabilidade de Z = H 1(X, Y)? (Deve ter ficado evidente, das muitas explanações ante~iores sobre este assunto, que .uma distribuição de probabilidade é induzida em Rz, o espaço amostral de Z.)
Se (X, Y) for uma variável aleatória discreta, este problema
estará resolvido bastante facilmente. . Suponha-se que (X, Y) tenha
a distribuição dada nos Exs. 6.1 e 6.4. As seguintes variáveis aleatórias (unidimensionais) poderão interessar à questão :
U
= mín (X,
Y)
= menor número de peças produzidas ·pel~
duas linhas;
V = máx (X, Y) = maior número de peças produzidas pelas
. duas linhas;
W = X
Y = número total de peças produzidas pelas· duas
linhas.
+
I r
I'I
Para obter a distribuição de ·probabilidade de U, procederelflOS
como se segue. Os válores possíveis de U são: O, 1, 2 .e 3. Para ·
I
I
I~ ---~-- · - -~-
----------~------~--------------~----------~-----
VARIÁVEIS ALIEATÓRDAS DE DUAS OU MAIS iJIUMIENSÕES I 125
calcular P(U = O), raciocinaremos que U = O se, e somente se, um, dos
seguirites ocorrer: X= O, Y =O ou X= O.Y = 1 ou X= O, Y = 2
ou X = O, Y = 3 ou X = 1, Y = O ou X = 2, Y = O ou X = 3,
Y = O ou X = ( Y = O ou X= 5, Y = O. Portanto, P(U = O) =
= 0,28. As outras probabilidades associadas a U podem ser obtidas de modo semelhante. · Daí, a distribuição de probabilidade de
U poder ser assim resumida: u: O, 1, 2, 3; P(U = u)-: 0,28, 0,30,
0,25, 0,17. A distribuição de probabilidade das variáveis aleatórias
V e W, .como definidas acima, pode ser ·obtida de maneira semelhante. (Veja Probl. 6.9.)
Se (X; Y) .for uma variável aleatória bidimensional contínua
e se Z = H 1 (X, Y) for uma função contínua de (X, Y), então Z ser~
uma variável aleatória contínua (unidimensionai) e o problema de
achar sua-fdp é um pouco m3i;··c~mpllcado. A fim de resolver este
problema, precisaremos de um teorema que enunciaremos e explicaremos a seguir. Antés de fazê-lo, vamos esboçar resumidamente
· a idéia fundamental.
Para procurar a fdp de Z = H 1(X, Y) é freqüentemÉmte mais
simples introduzir uma segunda variável .. aleatória, por exemplo
W = H 2 (X, Y), e primeiro obter a fdp conjunta de Z e W, digamos
k(z, w). Com o conhecimento de k(z, w), poderemos então obter a
fdp de Z desejada, isto é, g(z), pela simples integração de k(z, w) com
relação a w, ou seja,
g(z)
=
J
+<c>
-m
.
k(z, w) dw.
Os problemas restantes .são: (1} como encontrar a fdp conjunta de
Z e W, e (2) como escolher a variável aleatória apropriada W =
= H2(X, Y). Para resolver o último problema, devemos dizer que
geralmente se faz a mais simples escolha possível para W. Nesta
passagem, W possu! apenas papel intermediário, e não estamos realmente interessá:dos nela em si mesma. A fim de encontrar a fdp
conjunta de Z e W, temos necessidade do Teor. 6.3.
Teorema 6.3. Suponhamos.que (X, Y) seja umay.ariável :iJeatória
contínua bidimensional com fdp conjunta j. Seffm Z = H 1(X, Y)
e W = H2(X, Y), e admitamos que as funções H 1 e H 2 satisfaça~ às
seguintes condições:
( '
(a) As equações z = HI(x, y) e w = H2(x, y) podem ser univocamente resolvidas para x e y, em termos de z e w, isto é, x == Gi(z, w) ·
e y = G2(z, w).
126 l PROBABILIDADE
(b) As derivadas pareiais éJxfàz, éJxféJU?, ÕyféJz e Õy/Õt~ existem e
são continua.s.
Nessa.s circunstâncias, a fdp conjunta de (Z, W), isto é, k(i; tiJ) ·
é dada pela seguinte expressão: k(z, w) = j[G 1(z, w), G2(z; te)] I J(z, w) I;
onde J(z, w) é o seguinte determinante 2 X 2: .
ax
J(z,
ax
·aw
i)z
w)
éJy
éJy
é)z
aw
Este detenninan te é denominado o Jacobiano da transformação
(x, y)--> (z, w) e, ~gumas vezes, é denotado por éJ(x, y)/éJ(z, w) . . Salientamos que k(z, w) será. não-nula para aqueles valores de (z, w) correspondentes a valores de (x, y) para os quais j(x, y) não seja nula.
y
z
(a}
(b)
Fig. 6.8
·,
(a) Muito embora não demonstremos este teorema, indic&remos ao menos o que se deseja e onde residem as dificuldades. Consideremos
a fd conjunta da variável aleatória bidimensional (Z, W), isto é, . )
ComentárÍO$:
.
K(z, w) = P(Z ~ z,
..!
']
j'" j'
_ ~ . _ ~ k(s, I) ds dt,
na. qual k é a fdp procurada. Como se supõe que a transformação (x, y) _, (z, w)
seja .biunívoca [veja a hipótese (a), acima], poderemos achar o evento, equivalente
a {Z 5. z, W ~ wl , em ·termos de X e Y. Suponhamos que este evento seja
de.n otado por C. (Veja. a Fig. 6.8.) Sendo assim, {(X, Y) E C} se, e somente
se, .IZ ~· z, W ~ w} • Conseqüentemente,
f ,. f'
co
l;Ii
W ~ w) =
-co
k(s, t) ds dt =
{
}c·
1•
j(x,
y} dx dy ...
Como se admite j conhecida, a integral do segundo membro pode ser calculada.
O cálculo de suas derivadas em relação a z e w fornecerá a. fdp pedida. Na maior
pe.rte dos manuais de Cálculo avançado, mostra-se que essas· ~nicas conduzem
resultado, tal como foi enunciado no .teorema. acima..
oo
I
I
. VAR1ÃVEIS ALEATORIASIDE DUAS
ou MAIS DIME~SÕIES I
121
(b) Observe-se a acentuada semelhança entre o resultado acima e o res)lltado obtido no caso unidimensiop.al, l explicado no· capítulo anterior.. (Veja o
Teor: 5.1.) A .exigência de monotonicidade para a função y = H(x) é substituída
pela suposição de que a co~respondênciJ entre (x, y) e (z, w) seja biuruvoca. A condiçã~ .de de~va.bilidade é s~b~tit~ída po~ algumas hipótese~ sobre as der~vadas
parmrus consideradas. A soluçao f10al jobt1da é, também, mm to semelhante aqqela .
o:btids. no csso unidimensional: as var,iáveis x e y são simplesmente substituíd:JS
por ·suas expressões equivalentes em termos de z e ·W, e o valor absoluto de dxfdy
é substituído pelo .valor· absoluto do J ~cobiano.
'
J
·
y
Elemplo 6.13. Suponha-se que estejamos f~zendo mira em um alvo circular, de
raio ~tário, que 'tenha sitio colocado de
modo ~ue sim ce~tro se situe na origem
. de um Isistema de coordenadas retangulares
(Fig. 6l9). Admita-se que as coordenadas
(X, Y) Ido ponto de impacto estejam unifor~
ni.eme,te distribuídas sobre o círculo. Isto é,
J(l' y) = 1/';r, se (x, y) estiver dentro
(ou . nai circunferência) do ~írculo,
· . j(l , y) =O, se ,em qualquer outra parte.
Fig. 6.9
Suponha-se que estejamos inte~ados na variável aleatória R, que
representa a distância da origem. (Veja : a Fig. · 6.10.) Então,
R':' V X 2 + Y 2• Encontraremys a. fdp de R, digamos .g, assim:
SeJa <I> = tg:-1 (Y/X). Portanto, X= H 1(R; <I>) e Y = H 2(R, <I>),
I
'
onde x = H 1(r, cp) = r cos cp e y = H2(r, cp) = r sen cp. (Estdios
I
apenas introduzindo coordenadas polares.)
i
r
1--·- - - , - - - - - - - - - .·(27r, 1}
1"····
Fig. 6.10
I.
• <I>
Fig. 6.11
O jacobiano é
ax
J=
cos 1> - r sen
acp
;!
.
cp
T
I
I
sencp
= r cos 2 cp +r seri2 cp = r.
r cos 4>
J
I
.
I
Pelá transformação acima, o círc~o unitário no plano xy fica transformado no retângulo no plano cfJ,r, na Fig. 6.11. Em conseqüência,
I'·
I
128 I PROBAB!IUDADE
a fdp conjunta de (<I>, R) será dada por
g(cp, r)
=
r
11"'
O::::; r::::; 1,
Portanto, a fdp de R, pedida, e que vamos denÓtar por h; é dada por
h(r) =
{2"'
}o g(cp, r) dcp
O::::; r::::;
= 2r,
1.
Comentário: Este exemplo salienta a importância de obter-se uma representação precisa da região dos valores possíveis para as novas variáveis · aleatórias
introduzidas.
·
6.5. rDistribu içãío do !Produto e do Quociente de Variávais Aleatórias: _Independentes_ ___
Dentre as mais importantes funções de X e Y que desejamos
examinar; estão a soma S = X + Y, o produto W = XY e o quociente Z = X/Y. Poderemos empregar o método apresentado nesta
seção para obter a fdp de cada uma dessas variáv~is aleatópas, sob
condições bastante gerais.
No Cap. 11, estudaremos a soma de variáveis aleatórias m'l'it'o
minuciosamente.- Por isso, adiaremos para aquela ocasião o estudo
da distribuição de probabilidade de X + Y. Consideraremos, entretanto, o produto e o quocl.ente nos dois teoremas seguintes.
Teorema 6.4. Seja (X, Y) · uma variável aleatória contínua
bidimensional e admita-se que X e Y sejam independentes; Conseqüentemente, afdp jpodeser escritacomoj(x, y) = g(x)h(y) . Façamos
W ~ XY.
Nesse caso, a fdp de W, digamos p, é dada por
p(w)
y
=
1:= g(u)h{:) I ~ I
Demonstração: Sejam w
O jacobiano é
du.
=
xy e u
= x.
= wfu.
o
1
u
1
u
(6.9)
Portanto, x = u e
VAFIDÃVIEiS ALEATÓRiAS DE DUAS OU MADS DDMIIEI\!SÕIES I 12!!J
Dai, a fdp conjunta de W = XY e U = X é
s(w, u)
=
g(u)h ( : )
l~ I
A fdp marginal de W será obtida pela integração de s(w, u) em
relação a u, fornec~ndo o resultado procurado. Os valores de w,
para os quais p(w} > O, dependerão dos valores de (x, y) para os quais
j(x, y) >O.
·
Comentário: Para calcular a integral acima, poderemos nos basear no fato
de ·que
~
Exemplo 6.14. Suponhamos que temos um circuito no qual
tanto â corrente I como a resistência R variem de algum modo aleatório. Particularmente, suponhamos que I e R sejam variáveis
aleatórias continuas independentes com as seguintes fdp:
I:
R:
= 2i, O .:::; i .:::; 1 e O fora desse intervalo,
h(r) = r 2/9, O .:::; r .:::; 3 e O fora desse intervalo;
g(i) .
A variável aleatória que -interessa é E = IR' (a tensão no circuito) .
Seja p a fdp de E.
Pelo Teor. 6.4, teremos
('
Algum cuidado se deve tomar -ao calcular-se esta integral. Primeiro,
observe-se ·que a variável de int~gr~ção não pode tomar valores negativos. Segundo, observe-se que a fim de que o integrando seja posi~ ·
tivo, ambas as fdp que aparecem no integrando devem ser positivas ..
Atentando,para os valores para os quais g e h não sejam iguais a zero,
verificaremos que as seguintes condições devem ser satisfeitas:
e
O .:::; e/i .:::; 3~
Essas duas desigualdades são, por sua vez, equivalentes a e/3 .:::; i .:::; 1.
Por isso, a integral acima se torna igual a
. ... u
t
rnUI:SAMILIDADE.
=
2
g-e(3- e),
Um cálculo fácil mostra que ./o
p(e) .de = 1. (Veja a Fig. 6.12.)
e=~
3
(3, O)
Fig. 6.12
Teorema 6.5. Seja (X, Y) UII).a variável .aleatória bidimensional
· contínua e suponhamos que X e Y sejam independentes. [Portanto,
a fdp de (X, Y) pode ser escrita como j(x, y) ~ · g(x)h(y).] ·Seja
Z = X/Y. Deste modo, a fdp de Z, digamos q, será dada por
1"'"'
.
q(z)
y
=
=
+
. Demonstração: Seja!Il z = ·xfy e v = y.
v. O jacobiano é
J
=I~
(6.l0)
g(vz)h(v)lvldv.
.z
Portanto, x = vz e
I
1 = .v.
Daí a fdp conjuntâ de Z = X/Y e V = Y ser igual a
t(z, v) = g(vz)h(v) Ivi.
Integrando esta fdp conjunta em relação a v obtém-se a fdp marginal de Z procurada.
·
j..J
Exemplo 6.15. Admita-se que X e Y representem a duração da
vida de duas lâmpadas fabricadas por processos diferentés. Suponha-se que X e Y sejam variáveis aleatórias independentes, com fdp
respectivamente f e g, onde
f(x)
g(y)
= e..:r:, :
= 2e-2v,
x
y
2:: O, e O para outros .quaisquer valores;
2:: O, e O para outros valores.
Poderia · nos interessar a variável aleatória X/Y, que· 1representa o
quociente das duas durações de vida. Seja q a fdp deZ.
.
r+
Pelo Teor. 6.5 temos que q(z) = J-.,"' g(vz)h(v) fv Idv. Porque
X e Y podem tomar somente valores não-negativos, a integração
a.cima precisa ser feita apenas sobre os valores positivos da variável
VARIÁVEIS ALIEATÓFUAS IDE DUAS OU MAiS DIMENSÕES I 1J1
int~grando
de integração. Além disso, o
será positivo somente quando ambas as fdp que aparecem sejam positivas. Isto significa que deveremos ter v ;;;. O e vz ;;;. O. Visto :que z >O, e~sas desigualdades determinam que v ;;;. O. Portanto a exprpssão acima se torna
Iq(z) =
q(z)
1m
I
1
I
i
= 2
e-··
2e-2 ~ v dv =
m
ve -•<2 +•> dv.
Uma integração por partes, fácil,
fornece
2
Fig. 6.13
I
(Veja a Fig. 6.13.) Constitui
que fo m q(z) dz = 1.
q(z) = (z
no~amente· um
+ 2)2
'
z 2':
o.
exercício fácil verificar
1
I
6.6. Variáveis Aleatórias! n-Dimensionais
I.
Até
aqui, nossa
exposição seI restringiu . completamente
a variá.
.
.
veis aleatórias bidimensionais .. !No entanto, como apontamos no
iníCio deste capitulo, poderemos ter de tratar com três .ou mais características numéricas simultâneas. I
'
Faremos apenas uma brevfu,sima expos1çao de variáveis aleatórias n-dimensionais. A maio~ parte dos conceitos introduzidos
acima para o caso bidimensional ~ode ser estendida para o caso n-dimensional. Nos restringiremos ad, caso conthluo. (Veja o Comentário
no fim deste capitulo.)
Suponhamos, a seguir, que ~X1, ... , Xn) possa tomar todos os
valores em alguma região de
espaço n-dimensional. Isto é, esse
valor é um vetor n-dimensional.l
uni
I
[XI(s),. !.. , Xn(s)].
Caracterizaremos a distribuição:
de probabilidade de (X 11 • •• ,X!')
.
I
da seguinte maneira: .
1
·Existe uma função densidaqe de probabilidade conjunta f qu,e
satisfaz às seguintes condiÇõ~: :
(a) j(x 1, . .. , Xn) 2': O, para tddo (x1, ... , Xn).
+m
J_+m
I )
_
(b) f_- m • • • -a; j(x1, ... , Xn dx1 .. . dXn- 1.
I
132 I II"ROiflAIBBUDADIE
Com o auxílio desta fdp definimos
P[(Xh- . . , Xn)
E C]= ( . · ·_ff(xl,·· . . , Xn) dx1 .. . dxn;
c
.
onde C é um subconjunto do contradomínio d~ (X 1,. ; . ,X;.).
A cada uma das variáveis · aleatórias n-dimensionais, poderemos
associar algumas variáveis aleatórias de dimensão mais baixa. Por
exemplo, se n = 3, . então.
onde g é a fdp marginal da variável aleatória l]nidimensional X3,
enquanto
onde h representa a fdp conjunta da variável aleatória bidimensional
(X1, X~) etc. O conceito de variáveis aleatórias independentes será
tàmbém estendido de maneira natural. Diremos que (X 1, . . . ,Xn)
serão variáveis aleatórias independentes se, e somente se, sua fdp
conjunta j(x 1, . •• , Xn) puder ser fatorada na. forma
Existem muitas situações nas quais desejaremos considerar variáyeis aleatórias n-dimensionais. :barerrí~s al!Slills ex.:e~plos.
(a) Suponha-se que estejamos a estudar o padrão de precipitação decorrente· de um particulàr sistema de tempestades. · Se
tivermos uma rede de, digamos, 5 estações de observação e se admitirmos que x, é a precipitação na· estação' i, devida a um particular
sistema de·fre~tes de chuva, desejaremos considerar. a variável aieatória a 5-dimensões (X1, X2, x3, x4, X6)(b) Uma das mais importantes aplicações de variáveis aleatórias n-dimensionais ocorre quando tivermos de tratar com mensurações repetidas de algwria variável aleatória· X. Sup<:>nha-se que se
deseje informação sobre a duração· da vida, X, de uma :válvula eletrônica. Um grande número dessas válvulas é produzido por determinado fabricante, e ensaiamos n dessas válvulas. Seja x, a duração
da vida da i-ésima válvula, i= l, ... , n·. Portanto, (Xr, .. . , Xn)
é uma variável aleàtória n-diinensional. Se admitirmos que cada.
X; tenha a mesma distribuição de prohabilidade (porque todas as
VARIÁVEIS ALEATÓRIAS DE DUAS OU MA8S DIMENSÕES I 133
válvulas são produzidas da mesma maneira), e se admitirmos que as
X; sejam todas variáveis aleatór~as independentes (porque, presume-se, a fabricação de uma válvula não influencia a fabricação das
outras válvulas), poderemos supor que a variável aleatória n-dimensional (X 1, ••• , Xn) seja .composta pelos componentes independentes,
de idêntica distribuição de probabilidade X h . . . , Xn. (É óbvio
que, muito embora xl e x2 tenham a mesma distribuição, eles não
precisam tomar o mesmo .valor.)
(c) Outra maneira, pela qual surgem variáveis aleatórias n-dimensionais, é a seguinte: admita-se que X(t) represente a potência
exigida por uma certa empresa industrial, na época t. Para t fixado,
X(t) será uma variável aleatória unidimensional, Contudo, podtJremos estar illteressados em descrever a potência exigida em n determinadas -épocas especificadas, digamos t 1 < t2 < ... < tn.: Portanto,
desejamos estudar a variável aleatória n-dimensional
Problemas deste tipo são estudados em nível mais adiantado. (Uma .
referência excelente para este assunto é "Stochastic Processes", por
Emanuel
Par2;en,
Holden-:bay, São Fr~ncisco, 1962.)
.
I
Comentário: Em vários pontos de nossa exposição, mencionamos o conceito
de "espaço n-dimensional". Vamos resumir alguma· coisa das idéias fundamentais a respeito. ·
.A cada número realx, podemos associar um ponto na reta dos números reais,
e reCiprocamente.· Semelhantemente, a· cada pa•r de números. reais (x1 , x2), podemos associar um ponto no plano de coordenadas retangulares, e reei procamente.
Finalmente, a cada conjunto de três números reais (xt, x2, x 3), podemos associar
um ponto no espaço de coordenw:las retangulares tridimensional, e reciprocamente.
Em muitos dos problemas que nos interessam, tratamos corri um conjunto
de n números reais, (xt, x2, ... , Xn), também denominado. uma ênupla. Muito
· embo~a não possamos desenhar ql)alquer esboço se n > 3, podemos continuar
a l;l.dotar a .terminologia geométrica, como sugerido pelos casos de menor número
de dimensões mencionados acima. Deste modo, falaremos de um "ponto" no
espaço n-dimensional determinado pela ênupla. (Xt, ... , x,) . Definimos como
espaço n (algumas vezes denominado espaço n euclidiano). o conjunto de todo
{x1, . . . , Xn), onde x; pode ser qualquer número real.
.
Conquanto não necessitemos realmente de calcular integrais n-dimensionais,
verificamos que . esse é um conceito muito útil e, ocasionalmente, precisaremos
exprimir uma quantidade por uina integral múltipla. Se nos lembrarmos da definição de
J J j(x, y) dx dy,
A
~;
....
134 I PROBABIUDADE
na qual A é uma região no plano (x, y), então a extensão deste conceito a
f · · ·f J(xl, ... , x,.)dx1 . .• dxn,
R
na qual R é uma região .no espaço n, ficará evidente. Se j representar a fdp conjunta da variável aleatória bidimensional (X, Y), teremos que
f f f(x, y) dx dy
.A
representará a probabilidade P[(X, Y) E A].
a fdp conjunta de (X 1, ... , Xn), então
f · · ·f
Semelhnntcmente, se j representar
j(x1, . .• , Xn)dXl' · ·dr.,.
R
representará .
P[(XJ, ... , Xn) E R].
Problemas
6.1. Suponha que a tabela seguinte represente a distribuição de probabilidadE; conjunta da variável aleatória discreta (X, Y). Calcule todas as distribuições marginais e as condicionadas.
~
-
1
2
3
1
-121
1
o
2
o
1
9
1
-1
-
-
""
IS
6
-
1
5
2
15
~
6.2. Suponha que a variável aleatória 'bidimensional (X, Y) tenha a fdp
conjunta
.f(r, y)
k:r(x - y),
O < x < 2,
- x < ~ < :r:A
O, para outros quaisquer valores.
(a) Calcule a constante k :
(b) _!\çh~ ; _fdp marginal de X.
E~~-- -~~~~-~- idP ~~gmãf~
6.3: -··supmlmí que a ídp conjunta da variável aleatória bidimensional (X, Y)
seja dada por
f(:r, y)
x2
+
x: ,
O< x
< 1,
O< y
O, para quaisquer outros valores.
< 2,
VARIÁVEiS ALEATÓRIAS DIE DUAS
ou MAUS DIMENSÕES I
135
Calcule o seguinte:
P(X):>
(a)
:.····
!).
.
(b) P(Y
< 'f.l·
l.(<) P(Y >HX <·lJ.
6.4. Suponha que duas cartas sejam tiradas ao acaso de um baralho de
cartas. Seja X o número de azes obtido! e seja Y o número de damas obtido.
(a) Estabeleça a distribuição de propabilidade conjunta de (X, Y).
Estabeleça a distribuição margiilal de X e a de Y.
(b)
(c) Estabeleça a distribuição condiéionada de X (dadoY) e a: de Y (dado X).
6.5.
Para que valor de k, a expressãb j(x, y) = ke
< 1, O < y 1?
!<
(X, Y), m:>bre a região O < x
-(Xi;Y)
é' a fdp conjunta de
·
!
6.6. Suponha que a variável aleatória bidimensional . contínua (X, Y) seja
uniformemente distribuida sobre o quadra4o cujos vértic~s são ( 1, 0), (0, 1),.(- 1, 0)
e (0, - 1). Ache as fdp marginais de X e de Y.
.
J
6.7. Suponha que as dimensões, X Y, de uma chapa retangular de metal, ·
possam ser consideradas variáveis alcatória!f contínuas independentes; com as s·egtÚntes fdp:
I
X: g(x),., x- 1, 'j
1 <x.S2,
-X
:=
. Y: h(y) =
+ ?•
2
< X < 3;
O, para'l quaisquer outros valores ..
!,
2
< y < 4,
.
= O, parai quaisquer outros valores.
Ache e. fdp da área da chapa, A = XY.
l
·j
6.8. Admi~ que X represeri.t e a du~ação da vida de um dispositi\l'o eletrônico e suponha que X seja uma variável al~atória contínua com fdp
l
J;
~-
j(x) =
l.~?O , 1. x > ÚOO,
= O, para Iquaisquer outros valores.
Sejam X 1 e X 2 dua.S<tletenninações independentes da variável ale~tória X acima.
· (Isto é, suponha que estejamos ensaiando ~ dura~ da yida de dois desses dispo•
sitivos.) Ache a fdp da variável aleatória 1z = XI!X2. 1
.
1
I
I
6.9. Obtenha a distribuição de probaJ?ilidade das variáve s aleatórias. V e W,
1
introduzidas na Pág. 124.
' .
6.10.
Demonstre o Teor. 6.1.
6.11. A f~rça magnetizante II no .. ponto P, dis' de um condutor que. conduza uma.
tante X unidades
corrente I, é d4a por H = 2!/X. (Vej~ a Fig. 6.14.)
Suponh!l- que R seja um ponto móvel, isto é, X seja
uma variável aleatória contínua uniformemente distri- ·• ; •.
buída sobre (3 ) 5). Suponha que. a corrente I seja
também uma :Variável aleatória contínua, uniformemente distribuí!ia
sobre (10, 20).,.. Suponha, ·\l-(lemais,·
I
'
que as variáveis aleatórias X e· I sejam independeiites.
Fig. 6.14
Estabeleça a fdp da variável aleatória I!.
136 I ll"ROBABUUIDAIOIE
5,12•. A intensidade luminose. em um dado ponto é dada pele. expressão
I = C/Ifl, na qual C é o poder luminoso da fonte e D é &·distância dess& fonte
&té o ponto d!!.do. Suponha que C seja. uniformemente distribuída 8obre (1, 2),
enquanto D sej& um& .variável &leatóri& contínua com fdp f(d) = cd, d > O.
Ache e. fdp de I, ·admitindo que C e D sejam independentes. (Sugest/lo: Primeiro
ache a ·fdp de D 2 e depois aplique. os res\]ltiM!os de:ite capítUlo.)
6.13. Qwtndo umil. corrente I (&mperes) pllSS& &través de um resistor R
(ohms), a potênci& gerada é de.de. por W = PR (watts). Suponha. que i e R sejam
v&riáveis aleatórii!S independentes, com I!S seguintes fdp:
I: j(i) = 6i(l - t),
O~i~
1,
= O, para quaisquer outros valores.
R: g(r) = 2r, .
O < r < 1,
= O, para quaisquer ·qutros valores.
Determine e. fdp de. variável aleatória W e esboce seu gráfico.
6.14.
Suponha que a fdp conjunt&-de (X, Y) seja dada por
j(x, y)
=
para. z > O, y > x,
para. quaisquer outros valores.
e-:111
=- O,
(a) Ache a fdp marginal de X.
(b) Ache a fdp marginal de Y.
(c) Calcttle a. P(X > 21Y
4).
<
Caracterização Adicional das
Variáveis Aleatórias
Capí"tulo 7
7.1.
O Valor Esperado de uma Variável Aleatória
Considere-se a relação determinística ax + by = O.
Nós a
As constanreconhecemos como uma relação linear entre x 1e y.
tes a e b são os parâmetros dessa relação, no sentido de que para qualquer escolha particular de a e b obtemos uma função linear específica.
Em outros casos, um ou mais parâmetros podem catacterizar a relação· em estudo. Por exemplo, se y = · ax 2
bx
c, três parâmetros são necessários. Se y = e-kz, uin parâmetro é suficiente.
Não somente uma particular relação é caracterizada pelos parâmetros, mas, inversamente, a partir de um_a certa relação podemos defibx = O,
nir diferentes paràmetros pertinentes. Por exemplo, se ay
então m = - b/a representa a declividade da reta. Também, se
y = · ax 2
bx
c, então - bf2a representa o valor para o qual
ocorre um. máximo relativo ou um mínimo relativo.
Nos modelos matemáticos não-determinísticos ou aleatórios,
que temos considerado, os parâmetros podem, também, ser empregados para caracterizar a distribuição de probabilidade. A cada distribuição de probabilidade, podemos associar certos parâmetros, os
quais fornecem informação valiosa sobre a distribuição (tal como a
declividade de uma reta fornece informação valiosa sobre a relação
linear que representa).
+
+
+
+
+
Exemplo 7.1. Sup~:mha que X seja uma variável aleatória contínua, com fdp j(x) = ke--Í"", x Z O. Para verificar que esta expressão constitui uma fdp, observe-se que fo m ke--1= dx = 1 para tod~
k > O, e que ke-lcx > O para k > O Esta distribuição é denominada uma distribuição exponencial, a qual estudaremos !nimiciosamente mais tarde. Ela é uma distribuição especialmente útil para
,__ ,
138 I PROBABILIDADE
·· representar a duração da vida X, de certos tipos de equipamentos ou
componentes. A interpretação de k, nesse contexto, também será
explicada depois.
Exemplo 7.2. Admita-se que peças sejam produzidas indefinidamente em uma linha de montagem. A probabilidade de uma peça
ser defeituosa é p, e este valor é o mesmo para todas as peças. Suponha-se, também, que as sucessivas · peças sejam defeituosas .(D). '
ou não-defeituosas (N), independentemente umas das <mtras. Seja
a variável ale.ató:tia X o número de peças inspecionadas até que a
primeira peÇa defeituosa seja encontrada. Assim, um resultado
típico do experimento seria da forma NNNND. Aqui X(NNNND) ==
= 5. Os valores possíveis de X são: 1, 2, ... , n, . . . · Já que X= k
se, e somente se, 'as primeiras (k - 1) peças forem não-defeituosas e·
a k-ésima peça for defeituosa, atribuiremos a seguinte probabilidade
ao evento {X = ic') : P(X = k) = p(1 - p)"- 1, k = 1; 2, ... n, ...
Para verificar que esta é uma. legitima distribuição de probabilida·
~
de, observemos que
~
E
lc-
1
p(1 - p)k-1 = pf1
.
=
p
+ (1 -
p)
+ Cl-
p)2
+ ... J
1
1 _ (1 _ P) = 1 se O < Ip I
<
1.
Por isso, o. pa~âmetro p pode ser qualquer número satisfazen,do
O<p<l.
Suponha que uma variável aleat6ria e sua distribuição de probabilidade sejam especificadas. Existirá alguma maneira de carac- ·
terizar-se essa distribuição em termos de alguns parâmetros numéricos
adequados ?_
Antes de nos dedicarmos à questão acima, vamos
explanação com o estudo do exemplo seguinte.
mot~var
nossa
Exemplo 7.3. Uma máquina de cortar arame corta o arame conforme um comprimento especificado. Em virtude de certas i~preci­
sões do mecanismo de corte, o comprimento do .arame cortado · (em
polegadas), X, pode ser considerado como uma variável aleatória ·
uniformemente distribuída sobre [11,5i 12,5]. . O comprimento especificado é 12 polegadas. Se 11,7.:5 X < 12,2, o ararrie pode ser vendido com um lucro de US$ 0,25. Se X ~ 12,2, o arame pode ~er
recortado, e um lucro eventual deUS$ 0,10 é obtid(). E se X< 11,7,
o arame é refugado com uma perda de· US$ 0,02. Um cálculo fácil
mostra que P(X;:::: 12,2) = 0,3, Pcll,7 .:5 X <- 12,2) = 0;5, e P(X <
< 11,7) = 0,2.
~~-~
·· ~--~----------------------------------------
I
CARACTERIZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS / ' 139
!l
Supónha-se que um grande númfro" de peda,ços de. a~ame tenha sido
cortado, digamos N. Sejam Ns lo número de pedaços para os quais
X < -11,7, NR o número de ped~ços para os quais 11,7.:::; X< 12,2,
e N L o número de pedaços paA ·os quais X ;::: 12,2. Daí, o lucro
l
'
'
total obtido da produção de N ~edaços é igual a T = N s(- 0,02) +
+ N R(0,25) + N L(O,lO). O lucro total par pedaço de arame cortado,
digamos W, é igual a W ,;,[ (N s/N) (- 0,02) + (NR/N) (0,25) +
+ (NL{N) (0,1). (Observe-se qu~ W é uma variável aleatória, porque
N s, N R e N L são variáveis aleatótias.)
.
I
· Já mencionamos que a freqüência relàtiva de um evento é próxima da probabilidade desse:...evebto, se o núm~ro de repetições sobre
I
o qual a freqüência relativa foi Ibaseada for grande. , (Explicaremos
isto mais precisamente no Cap. 12.) Portanto, se ' N for grande,
poderemos esperar que Ns/N seja próxima de 0,2, NR/N seja próxima de 0,5 e N L/N seja próxin\.a
de 0,3. •Logo, para N grande,
I
W pode ser calculada aproximadamente como segue:
~
W
i '
,.
·','}
' ..
i
.
.
+ (0,5) (0,25)
+
(0,3) .(0,1) = US$ 0,151.
!
.
'
(0,2) (- 0,02)
.
I
~
Deste modo, se um grande número de pedaços de arame for produzido, esperaremos conseguir um Ilucro de US$ 0,151 ·por pedaço de
valor esperado da. variável
arame. O número 0,151 é denhminado
I
,
aleatória ·w.
i
I
Definição. Seja X wna variável aleatória discreta, com valores
~
possíveis x 1, ••• , x,. . . . Seja p(~) = P(X = x;), i = 1,
Então, o valor esperado de X (ou esperança matemática de X), denotado por E(X) é definido como
2, ... , ... .
I
E(X) =
.
E x.p(x.),
(7.1)
ti'=l
!
se a série 2:
xi p(xD convergir absolutamente, isto é, se
I
i= 1
00
2:
i= 1
i
lxlip(x·)< oo.
IÍ
I
Este número é tam:bém denofninado o-valor médio de X, ou expecidncia de X.
1
I
Comentários: (a) Se X toÍnar apedas um número finito de valores, a expiesi
'
'
são aGima se torna E(X) = L~=l p(Xi)fi. Isto pode ser considerado-como I1.Dlll.
"médi!r.. ponderada" .dos valores poss!v~is a:~o ... , z,. Se todos esses valores possíveis forem igualmente prováveis, E(JÍt) = (1/n) L~=l x., e. ·qual r~p!esenta ~
média aritmética simples ou usual dos ~ valores possíveis.
I
I
'"i
140 I I'ROBABDUDA DIE
(b) Se um dado equilibrado for jogado e a variável aleatóna X designar o
número de. pontos obtidos, então E(X) = (1/6) (1 + 2 + 3 + 4 + 5 + 6) = 7/2.
Este exemplo simples ilustra, nitidamente, que E(X) não é o resultado que podemos
esperar quantia X for observado uma única vez. De fato, na situação anterior
Fica evidente, porém, que se
<Jbtivermos um grande número de observações independentes de)(, digamos
X!J ... , Xn, e calcula.rmos a média aritmética desses resultados, então, sob condições bastante gerais, a média aritmética será próxima de E(X), em um sentido probabilístico. Por exemplo, na situação acima, se jogássemos o dado um grande
número de vezes e depois calculássemos a média aritmética dos vários resultados,
.esperaríamos que essa média ficasse t~nto, mais próxima de 7/2 quà.rito maior número de vezes o dado fosse jogado: .
'
E(X) = 7/2 nem mesmo é um valor possível de X!
(c) Devemos notar a semelhança entre a noção de v alor esperado, como foi
-definida acima (especialmente se X puder tomar somente um número finito de
.zy-alores), e a noção de média de um conjnnto de números z1, . . . , Zn . Comumente
definimos
z=
(1/n) L~= l z.;. como a média aritmética dos números z1, . .. ,
Suponhamos, ademais, que tephamos números z1', ... ,
vezes,
L7=l n;
=
n.
Fazendo' fi= n;/n,
derada dos números z1', .
. •,
.
z~'
I
cpmo .
k
1; """'
--,
.L.J
·. : n;:i=l'
L7=
~\
i·
I
1
,
Zn.
onde z.;.' ocorra 14
1, definimos a média pon-
\
I
'
74Zi
1 f; =
Zk
kl
.
\
~ f iZi,;,••
= \ . 2.)
\:\i=Il (
Muito embora exista Uma forte ·semelhança entre a média ponderada acima e a definição de E(X), é importante cumpreender q~e
a última é um número (parâmetro) associado a uma distribuiç~o de
probabilidade teórica, enquanto a primeira é simplesmente o resultado da combinação de um conjunto de numeras em uma forina particular. Contudo, existe mais do que apenas uma semelhança superficial. Considere-se uma variável aleatória X e sejam x1, . .. , Xn
os valores obtidos quando o experimento que origina X for realizado n
vezes independentemente. (Isto é, x 1, • • • , Xn apenas representam
os resultados de n mensurações repetidas da característica numérica X.)
Seja x a média aritmética desses n números. Então, como eXplica'
remos muito
mais precisamente no Cap. 12, se n for suficientemente
grande, x será "próxima" de E(X), em certo sentido. Este·. resultado é bastante r.elacionado à idéia (também a ser explicada no Cap.
12) de que ~ freqüência relativa j A associada a n repetições de um experimento será próxima da probabilidade P(A) se f A Jor baseada em
um grande número de repetições de 8.
Exemplo 7.4. Um fabricante produz peças tais que 10 por
cento delas são defeituosas e 90 por cento são não-defeituosas. Se
uma peça defeituosa for produzida, o fabricante perde US$ 1, enquanto uma peça não-defeituosa lhe dá um lucro de US$ 5. Se X
CARACTERIZAÇÃO ADDCIONAL DAS VARIÁVEiS AlEATÓRiAS I 141
for o lucro liquido por peça, então X será uma variável aleatória
cujo valor esperado é calculado como E(X) = - 1(0, 1)
5(0,.9) ~
= US$ 4,40. Suponha-se que um grande número de tais peças
seja produzido. Nesse caso, quando o fabricante perder US$1 cerca
de 10 por cento das vezes e ganhar US$ 5 cerca de 90 por cento das
vezes, ele esperará ganhar cerca de US$ 4,40 por peça, a longo prazo.
+
Teorema 7.1. Seja X uma variável aleatória distribuida binomialrriente, com parâmetro p, baseada em n repetições de um_experi.
mento. Então,
E(X} = np.
>\
__. . .<)
Demonstração:
k)-== -(~)pk(1
Como P(X- ;
- p t-k, teremos
l'}..
-.
Jt_!(~
n
(k -
n!'
.
_-
. _ p)n-k =
pk(l
k))
. .
d--a , Q
r\ ..
;--r
yOt\\
l;r--.~ \
Vfv 1
n!
pk(l - p)"-k
l)!(n- k)!
8
l'bU
(uma vez que o termo coni k = O é igual a zero). Façamos s = k - 1
na soma acimà. Como k toma valores desde úm- até n, s tomará
valores desde zero até (n- 1). Substituindo k, em todos os termos, por . (s + 1), obteremos
{Q,4-
ht'.:
B(X)
I:l ~ (n- 1) p<+t(1 -p).n-8-t:=o . ~
s=O------~
~,..-..,!
= np_ il (n -l)-;-;- p)n-t-•.
..
------S
A soma, na última expressão, é apenas a soma das probabilidades
binomiais com n substituído por (n - 1), . isto é, [p + (f- p)]n-l
e, portanto, igual a um. Isto estabelece o resultado.
·Comentário: O r'\Sultado acima corresponde certamente a nossa noção inc
tuitiva, porque supomos que a probabilidade de algum evento A seja, digamos
0,3, quando um experimento é realizado. Se repetirmos esse experimento, por
exemplo 100 vezes, deveremos esperar que A ocorra cerca de 100(0,3) = 30 vezes.
O conceito de valor esperado, introduzido acima para a variáv~l aleatória discreta, _será muito em breve estendido. ao caso contínüo.
Exemplo 7.5. Uma máquina impressora tem uma probabilidade_
constante de 0,05 de entrar em pane, cm um dia qualquer. Se a
máquina não apresentar panes durante a semana, um lucw de :~JS
será obtido. Se 1 ou 2 panes ocorrerem, um lucró de. $R s~rá alcançado (R < S). Se 3 ou mais panes ocorrerem, um lucro de $( - L)
I .
()
-YJ - :€_
E (.i--())o:.e_ b
=
s=O
~
142 I PROBABILIDADE
será obtido. (Admitimos que R, S e L sej;1m maiores do que zero;
também supomos que, se a máquina ent~ar em pane em qualquer
dia, ela permanecerá parada durante o resto do dia.) Seja X o h,1cro .
obtido por semana de cinco dias úteis. Os valores possíveis de X
são R, S e (-L). Seja B o número de panes pcir semana. Teremos
P(B
=
=
k)
(~) (0,05)k(0,95) -k,
5
k=0,1, . .. ,5.
Já que X= S se, e somente se, B =O, X= R se, e somente se, B = 1
ou 2, e X = (-L) se, e somente se B = 3, 4 ou 5, verificamos que ·
E(X)
=-SP(B
=O)+ RP(B = 1 ou 2) + (-L)P(B = 3; 4 ou 5)
= 8(0,95)5 + R[5(0;05)(0,95) 4 + 10(0,05) 2(0,95) 3] + .
+ (- L)[10(0,05) 3(0,95)2 + 5(0,05)4(0,95) + (0,05) 5] dólares.
Definição. Seja X uma variável aleatória continua com fdp f.
O valor esperado de X é definido como
E(X)
I
'I
=
J-: . .
xj(x) dx.
Pode acontecer que esta integral (imprópria) não convirja.
seqüentemente, d~remos que..E(X) existirá se, e somente se,
1:
(7.2)
Con-
lx lf(x) dx
for finita.
,
l;l
:;
Comentário: Devemos observar .a analogia· entre o valor esperado de uma
variável aleatória e o conceito de "centro de gravidade" em ·Mecânica. Se uma
unidade de massa for distribuída sobre a reta, em pontos discretos X!J • •• , Xn. • • e
se p(x;) for a massa no ponto x;, então vemos que L;': 1 x;p(x;) nipresenta o centro de gravidade (em relação à origem). Semelhantemente, se urna unidade de massa
for distribuída continuamente sobre uma reta, e se j(x) ·representar a densidade ·
J 2:: xj(x) dx poderá também ser interpretado como o centro
de massa em x, então
de gravidade. No sentido acima, E(X) pode representar "um centro" da distribuição de probabilidade. Também, E(X) é algumas vezes denominado med1'da
de posiçao central e é expresso nas mesmas unidades que X.
Exemplo 7.6. Seja a variável aleatória X definida como segue.
Suponha-se que X seja o tempo (em minutos) durante o qual um equipamento elétrico seja utilizado em máxima carga, em um certo período
de tempo especificado. Suponha-se que X seja uma variável aleatória continua com a seguinte fdp:
I
j(x) ~ (1.500)2 x,
Ü ~X~ 1.500,
CARACTERIZAÇÃO ADICIONAL DAS VARIÁVEIS ALEt\TÓRIAS I 143
I
i
-1
(1. 00)2 (x - 3.00~), .·
5
1.500 ,::; x ::; 3.000,
= O, para quaisquei !outros valoreE:,
I
Portanto
E(X)
=
r:=
I
xj(x) dx
[
1
.
(1.500)(1.500)
I
r
}b
1.500
I
= 1.500 minutos.
. r3.000
x2 dx .
J1.500
x(x - 3.000) dx
J
,
1
(Veja a Fig. 7.L)
f(x)
~·
x l l500
x = 3000
F~g. 7.1
.
.
I
Exeitnp.Zo 7.7. O conteúdo de cinzas (em' percentagem) no carvão,
~ri.
. , 'l alea
. t,ona
. con- ·
V'Ue ser coDSl'deradio como uma vanave
di gamos X , }J'
2
(1/4.S75Yx , 10 ::; x ::; 25. Portínua c<im. a se~te fdp: f(x)
5
tanto, E(X) = (1/4.875) .~;: x 31 dx = 19,5 . por cento. Assim; o
.coiiteúdo de cinz~ esperado no particula.r espé~ime de carvão que
está sendo estudado é de 19,5 por cento. ' ·
.
i=
Teoienui 7,2. · Seja ·X .
valo [a, b]. Nesse caso,
unifo~emente distribuída sobre ci inter-
E(X)
r
1a~
b.
I .
I
Demonstração: Afdp de X é 1ada por j(x), = 1/(b-:- a), a:::::;. x ::; b.. .
Portanto,
i
·
·
E(X).=
· ·
fb _x_ dx i= _
a
b...,. . a
(Observe-se que est e valor
1
1_·.b"-a
~210a+2-.
b.
2 .. - - -
r~pr~enta o ponto.médio do inte~~lo
[a,·b], como era de se espe~ar.int~tivamente.)
.
..
.. . .
'I
i
. . . . ..
.
\ '.
.
Come1if.<irio:: .Pode ser .valioso leri:tpràr nesta oca8ião que uma váriável aleatória X é uma função .de .um espaço a)nostral S sobre contradomínio Rx. Como
.
.
I
,.i
144 I PROBABILIDADE
já salientamos repetidamente, para. muitos fins, estaremos tão-somente interessados no espaço amostral e nas probabilidades definidas nele. Esta noção .de valor
esperado foi definida. completamente em termos do contradomínio. [Veja. as
Eqs. (7.1) e (7.2).] Contudo, ocasionalmente, devemos observar a natureza.
funcional de X. Por exemplo, como expressaremos a Eq. (7.1) em termos do resultado s E S, admitindo que S seja finito? Desde que x; = X(s) para algum
s E S, ·e já que
p(x:;)
= P[s: X(s) = x;],
poderemos escrever
n
E(X)
=
r:·
x; p(x;)
=
i- 1
.
L
X(s)P(s),
(7.3)
• ES
~
onde P(s) é a probabilidade do evento {s} C S. Por exemplo, se o experimento
consistir na classificação de três peças como defeituosas (D) ou não-defeituosas
(N), um espaço amostral para este experimento seria
S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD).
Se X for definido como o número de defeituosas, e se admitirmos que todos os resultados acima sejam igualmente possíveis, teremos, de acordo com a Eq. (7.3),
E(X) =
L
•ES
X(~)P(s)
+ + +
+
=o ·( t )+ 1 ( )+ 1 ( )+ 1 ( )+ 2 ( t )+ 2 ( t )+2 ( )+ 3 ( t)
N a.tura.lmente; este resultado poderia ter sido obtido mais facilmente pela aplicação da. Éq. (7.1) diretamente. Contudo, é conveniente lembrar que ·a fim de empregar a Eq. (7.1), necessitaremos conhecer os números p(x;), o que por sua vez
significa que um cálculo, tal como aquele que empregam,os acima, teria de ser
executado. O que se deve salientar é que uma vez que a distrib\l.ição de probabilidade sobre. Rx seja conhecida [neste caso, os valores dos números p(x;)], poderemos suprimir a. relação funcional entre Rx e S.
7.2.
Expectância de uma Função de uma Variável Alea-
tória
Como já explicamos anteriormente, se X for uma variável. aleatória e se Y = H (X) for uma função .d e X, então Y será também
uma variável aleatória, com alguma distribuição de probabilidade;
conseqüentemente, haverá interesse e terá sentidó calcular E(Y).
Existem duas maneiras de calcular E(Y), .qOO se mostram equivalentes. Mostrar que elas são, em geral, equivalentes, não é trivial e
dei:nons~raremos apen~ um caso especíal. . No entanto, é importante
que o leitor compréenda os dois tratamentos do assunto apresentados
a seguir.
CARACTER I ZAÇÃO ADBC.IONAL DAS VARIÃV..EJS-ALE"ATÓRUAS I 145
Definição: Seja X uma variável aleatória e seja ~-- ~ _!!__(~)­
(a) Se Y for uma variável aleatória . discreta C()m valores possí- ·
veis y1, Y2, . .. e se q(y;) = P(:r := y;), definiremos m
E(Y)
b)
L y;q(v.).
i=l
=
(7.4)
Se Y for uma variável aleatória contínua com fdp g, defini-
remos
E(:> =
f
+m
m
yg(y)dy.
(7.5)
Comentário: Naturalmente, essas definições são completamente coerentes
com as definições anteriores, dadas para o valor esperado de ~a variável alea. tória. · De ·rato, o que está acima sii:nplesmente representa uma reformula~ão em.
termos de Y. Uma "desvantagem" de aplicar a definição acima -a fim de obter
E(Y) é que a distribuição de probabilidade d~ Y (isto é, a distribuição de probabilidade sobre o contradomjnio Ry) é exigida. Explicamos, no capítulo anterior,
métodos pelos quais. podemos obter ou as probabilidades no ponto q(y;), ou g,
a fdp de Y. No entanto, surge a questão de podermos obter E(Y), sem prelilninàrmente encontrarmos a distribuição de probabilidade de. Y, partindo-se apenas
do conhecimento da distribUição de probabilidade de X. A resposta é afirmativa, ·
· como o indicam os teoremas seguintes.
Teorema 7.3.
Seja X uma variável aleatórià e seja Y = H(X).
(a) Se X for uma variável aleatória discreta e p(x;)
= P(X = x;),
teremos
E(Y)
= E [H(X)] =
f: H(xJ)p(xJ).
(7.6)
i=I
(b) Se X for uma variável aleatória contínua com fdp j, teremos
+m
E'(Y)
= E [H(X) ] =
j_
m
H(x)j(x)dx.
(7.7)
Comentário: Este teorema torna a avaliação de E(Y) muito . mais simples,
porque ele quer dizer que não necessitamos achar a distribuição de probabilidade
de Y, a. fim de avaliarmos E(Y); o conhecimento da distribuição .de probabilidade
de X é suficiente.
Demonstração: [Somente demonstraremos a Eq. (7.6) . . A demonstração da Eq. (7.7) é 'u m tanto mais complicada.) Considere-~e
a soma L1:1 H(xJ)p(x;-) = Li:l [_L, H(x;)p(x;)], onde a soma interior é tomada para todos os índices i para os quais 1I(x;) ~YJ, para
algum Yi fixo. Conseqüentemente, todos os termos. H(r.;) são cons-.
'...,;.
146 I PROBABILIDADE
tantes na soma interior.
Por isso
EH(x;)p(x;) = .f: Yi L
i=l
i=l
p(x;).
i
No entanto,
L; p(x;)
= L P[x !H(x.;) =
.
i
I:,:I
Logo,
H(x;)p(xi)
=
}:;:I
y;] = q(y;).
y;q(y;), o que estabelece a Eq. (7.6)"
Comentário: O método de demonstração é essencialmente equivalente ao
método de contagem, no qual reunimos todos os itens que tenham o mesmo valor.
Assim, se desejarmos achar a soma total dos valores 1, 1, 2, 3, 5, 3, 2, 1, 2, 2, 3, poderemos ou somar diretamente, ou indicar que existem 3 um, 4 dois, ,) três e 1 cinco,
o que determina que a soma total seja iguàl a
3(1)
+ 4(2) + 3(3) + 1(5) = 25.
Exemplo 7.8. Seja V a velocidade do vento (em milhas por hora)
e suponha-se que V seja uniformemente distribmda sobre o intervalo
[0, 10]. A pressão, digamos W (em libras/pé quadrado), na superfície da asa de um avião é dada pela relação: W = 0,003V 2 • Para
achar o valor esperado de W, E(W), poderemos proceder de duas
maneiras:
(a)
Empregando o Teor. 7.3, teremos
1
10
E(W) =
0,003v 2j(v)dv
{10
= }o
1
0,003v 2
lO dv =
0,1 libras/pé quadrado.
(b) Empregando a definiç&.o de E(W), precisaremos primeiramente achar a fdp de W que chamaremos g, e depois calcular
f_+;, w wg(w)dw. Para acharmos g(w), observamos que w = 0,003v 2
é uma função monótona de v para v ~ O. Poderemos aplicar o.
Teor. 5.1 e obter
g(w)
=
=
1~ I~:1
.l.. Jww-112
213
'
= O, para quaisquer outros valores.
Em conseqüência
. {0,3
E(W)
1! !1!
=
}o
wg(w)dw
= 0,1
CARACTERIZAÇÃO ADICION.O:liDAS VARIÁVEIS ALEATÓRiAS I 147
I
..
!
I
depois de um cálculo simples. Deste modo, como afirrn.a o teorema,
os dois cálculos de E(W) forne~em o mesmo resultado.
I
Exempla 7.9. Em muitos problemas estamos interessados apenas
na magnitude de uma variável! aleatória, sem con:siderarmqs o seu
sinal algébrico. Isto
é, estaremos
interessados em IX 1. Suponha.
I
mos que X seja uma variável a1eatória contínua com a seguinte fdp:
1
ec I
.
j(x) = _ ,
se
e~~
x
~O,
se x > O.
=~
Seja Y = IX 1. Para obtermo~ E(Y), poderemos proceder por uma
de duas maneiras.
I
(a) Empregando o Teor.
E(Y)
=
J+
~~
2
[1
teremos
IX IJ(x) ~X
-[/
(
=
m
(1.3,
(-x)~ + j,"
+ 1] =
.
dx
(x),-
I
1!
dx]
.
I
(b) Para calcular E(Y) einpregando a definição, necessitamos
obter a fdp de Y = lXI, que ! denotaremos g. Seja G a fd de Y.
i
~rl~o,
·
~,i
G(y) = P(Y ~ y) = P[ IXI ~ y] i= P[-y ~X~ y] = 2P(O ~X~ y),
!
porque a fdp de X é simétrica! em relação a zero.
G(y) = 2
l
i/
I
j(x) dx:! 2
1
I
1
Logo,
!1..,
o
!!._ dx
2
=-e-u+ 1.
Deste modo teremos ~ara g, ai fdp ~e Y, g(y) = ~'(y) =·e-u, y _"2:. O.
Portanto, E(Y) = fo yg(y) dy r= fo ye-u dy = 1, tal como acrma.
.
I
Exemplo 7.10. EIQ mui~s problemas, pode~os empreg:=J:r o
valor esperado de uma variável alea,tória a fim de tomar uma certa
decisão de uma maneira ótima:
Suponha-se que um fabncante produza um cert<J trpo de óleo
lubrificante, o qual perde algum de seus atributos especiais se não
I
I
'
..
.
I
II
I
I
I
~43
I PROBABIUDADIE
_x ·
for · utilizado dentro ·. de certo pei(odo «!e tempo. Seja
o :n,límero
de unidades de Óleo encomElndadas ao' f~bricllJlk (lu~~t~ ;~$~ $Kl~·
(Uma unidádie ~ igual' a 1.000 ,gal~.) · Suponba-sie que X: aeja uma
V"ariáveL aleat6rla coritúma; uiüform~ment~ . diStlclblddk 8ijb~ [2, 4].
Piirtarito, a fdp J tém .a forma
·
·.'
1
f(x) ,..
>
z
'
=
i'
Iii
'I
I·
o,
'
Suponha-se :.que para cada .unidade vendida; se ~n~a um lucro de
US$ 300, enquanto para cada unidade não vendid~t (durante qualquer ·
ano especific11do) se .verifique unia perda de US$ ioo, porque uma
.unidade :não . utiliza-da terá.:·de ser jogi_da fora. · Admít~t-se que o
. fabrica.nte deva. decidir, alguns meses antes -do início de cada ano,
quanto ele irá produzir, e que ele decida fàbricar Y unidades. (Y não ·
é rima variável aleat6ri~; é · especificada pelo fabricante.) S~ja Z
o lucrd por ano (em dólares). Aqui, Z é .eVidentemente uma variável
· àleatórla, porque é uma fW:lção da variável aleatória X. Especificamente, Z = H(X). onde
H(X) :;: 300Y se
300X
..
'!
'
para quaisquer outros valores.
.
x ·_;: :
Y,
+ (-lOO)(Y -
X) se X< Y.'
.
(A 1fltima expressão pode ser escrita como 4ooX ~ lOOY)
A fim de ~bterxnos E(Z), aplicaremos io ~oor. · 7.3 e escreveremos
E(Z) =
I
f+ .
H(x)J(x) dx = .
I
! 1·. ~ H(i) dx.
6:1
-<m·
2
E(Z)
I
I
z
I
. ·~
2
y 4
Y=2
Y=3~S
Y=<l
IFifii; 7•3
esta integrai, dev:ere~os c~nsiderar três
. Para calcul~r
2 ::; Y ::; . 4 e Y
> .4.
Com .a. ·ajude da F-ig. 1.2 e
c~os: Y < 2,
depois <J,e atgunias
CARACTERIZAÇÃO ADICIONAL DAS VAR IÁVEoiS ALEATÓRIAS I 149
simplificações, obteremos
E(Z) = 300 Y se Y ~ 2
- 100Y2
+ 700Y-
400
se2<Y< 4
= 1.200-
lOOY se
Y?: 4,
A questão seguinte apresenta interesse. Como deve o fabricante escoll!er o valor de· Y, a fim de maximizar seu lucro esperado ?
Poderemos responder
apenas que dE(Z)/dY = O.
a
esta questão facilmente, estabelecendo
Isto fornece Y = 3. 5. (Veja a Fig. 7. 3.)
7.3: · Variáveis Aleatórias IBidimensionats
Os conceitos discutidos acima, para o caso unidimensional,
também valem pa!a variáveis aleatórias de dimensão mais elevada.
Em particular, para o caso bidimensional, estabeleceremos a seguinte definição.
Definição. Seja (X, Y) uma variável aleatória bidimensional
e seja Z' = H(X, Y) uma função réal de (X, Y). Em conseqüência,
Z
uma variável aleatória (unidimensi~nal) e definiremos E(Z)
como se segue:
será
,.
'
(a) Se Z for uma variável aleatória discreta, com valores posP(Z = z;),
síveis z1, z_2 , •.. e com p(z;)
m
então
E(Z)
= Í: z,p(z;).
(7.8)
i= 1
(b) Se Z for
UIIl1l.
i
variável aleatória contínua com fdp j, teremos
E[(Z)
=
J_
+m
~
zj(z) <h.
(7.9)
Como no caso unidimensional, o seguinte teorema (análogo ao
Teor. 7.3) pode ser demonstrado.
Teorema 7.4. Seja (X, Y) uma variável aleatória bidimensio' Y).
nal e façamos Z = H(X,
(a) Se (X, Y) for uma variável aleatória discreta e :;;e
\
'
p(xi, y;)
= P(X -=
x;, Y = Y;),
i,j
=
l, 2,.
!
:!
150 I PROBABiliDADE
teremos
m
~
m
L L H(x;, Yi)p(x;, Yi), )
j - I i=l
E(Z) =
(7.10)
!
~
i'
11
!
(b) Se (X, Y) for urna variável aleatória contínua com fdp conjunta j, teremos
E(Z)
i
r
=
J: "'1:"'
(7.11)
H(x, y)j(x, y)dx dy .
Comentário: Não demonstraremos o Teor. 7.4. Também, tal como no caso
unidimensional, este é um resultado extremamente útil porque ele afirma que nllo
necessitamos achar a. distribuição . de probabilidade da. va.riá.vel aleatória. Z, a fim
de calcular sua. expectância. Poderemos achar E(Z) diretamente, a partir do conhecimento da. distribuição conjunta de (X, Y) .
Exemplo 7.11. Vamos reconsiderar o Ex. 6.14 e achar E(E)
onde E= IR . Já vimos que I e R er~m variáveis aleatórias com
as seguintes fdp g e h, respectivamente:
g(i)
= 2i,
o~
i~
h(r) = r 2/9,
1;
O~ r
~
3.
Também encontramos que a fdp de E era p(e) = (2/9)e(3 - e),
O ~ e ~ - 3. Visto que I e R são variáveis aleatórias independentes,
a fdp conjunta de (I, R) é simplesmente o produto das fdp de I e de R:
j(i, r) = (2/9)ir 2 , O ~ i ~ 1, O ~ r ~ 3. Para calcular E(E) em·'
pregando o Teor. 7.4, teremos
21 1
3
1
= 9
::,
:~i:
i 2 di
o
~
r 8 dr = -3 ·
2
Empregando diretamente a definição (7.9), teremos
{3
I
'!
~I
2
= 9
I
~
•:!
7.4.
i:'
'~l
ii,,i .1
'i
i
;I
i
11 ~Iii
111:
~\\
:r
{3
2
E(E) = }o ep(e) de =}o_ e 9 e (3 - e)de
{
Jo
3
(3ell- efl) de=
3
2-.
Propriedades de Valor Esperado
Mencionaremos algumas importantes propriedades do valor
esperado de uma variável aleatória, as quais serão muito úteis para
I
I
I
.
.
CARACTERIZAÇÃO AD I CION,AL DAS VARIA VEIS ALEATQR I AS
I 151
I
o estudo subseqüente. Em ~ada _caso, admitirelfos· que todos os
valores esperados
que
mencionarmos,
existam. As
demonstrações
.
.
I
,
serão dadas
apen&a
para
o
ca.So
contínuo.
O
leitor
deve
estar apto
..
I
I
.
111 desenvolver l!ll demonstração para o c;aso discreto, pela simpl~s
substituiçãO dM integrais pot somat6rios. ·
.
I
Pr~ 7.1. Se X=+ C, onde C é .u ma constante, então,
I
F(x)
E(X) = C.
Demonstração:
1
, . . - - - - - - - -F(x)=i
I
i
xl
x=C
E(X)
=
dx
. ·d·.·,, r+~
I
!Fig. 7.4
J:"' C~(;r;)
-.
_)J-"' j(x) dx =C.
Comentário: O significado de ser X igual a' C é o seguinte: · Desde- que X
é uma função do espaço amostral nd Rx, a propriedade acima diz que o Rx é constituído unicamente plllo v:alor C. Gonseqüentemente, X será iguai a C, se, e . somente se, P[X(s) = C.l = 1. Estai idéia é melhor explh::ada em termos d;,. 'fd
de X, A saber, F(x) = O, se x < é; F(x) ~ 1, se x 2: C (veia a Fig. 7.4). Tal
variável aleilt6ria é, algumas vez~, chamada degenerada.
·
·.
.
.... I
•
.
Propriedade 7.2. Supo~a,.:se que C seja uma constante e X
seja uma variável aleatória. !ED,tão, E(CX) ="' CE(X).
i
Demonstração:
E(CX) =
~
! +..
_"' Cxj(x)
I
f+"'
F
= C :__ ~ xj(x) dx = CE(X}
I.
Propriedade 7.3. Seja (~, Y) uma variável aleatória bídimen- .
sional · com uma distribuição
de probabilidade conjunta. Seja
I
Z = H 1(X, Y) e W "= H 2 (X, Yj). Então, E(Z + W) = E(Z) + E(W).
Demonstração:
I
i
i
E(Z
+ W) =
J: "'1: . [+(x,
y)
+H
2 (x,
y)]j(x, y)dx dy
=
.j
1 [onde j é a fdp conjunta de (X, Y)J
:
.
.
;.- .,
152 I PROBABIUDADIE
Propriedade 7.4.
Então, E(X
quer.
Sejtilm
X .~
Y duas variáveis aleatóriM qu&is-
+ Y) = E(X) + E(Y).
Demonstração: Isto decorre ãmOOi&tmnente da Propriedade 7.3,
ao se fazer H 1(X, Y) = X e H 2(X, Y) = Y.
I
I
: ..
Comentário: (a) Combinando-se as Propriedades 7.1, 7.2 e 7 .4, observaremos
o seguinte fato importante: Se Y = aX + b, onde a e b sl!.o constantes, .entl!.o
E(Y) = aE(X) + b. Em linguagem corrente: o valor esperado de uma função
line&r é 111 mesma função line&r do v&lor esper&do. X!!to fUlo será. verdadeiro, a
men9s que se trate de função linear, e constitui um erro comum pensar que a propriedade ·seja vá.lid& para outras funções. Por eJtemplo, E(X 2 ) ;;é (E(X)J2,
E(ln X) ;;é ln E(X) etc. Assim, se X tomar valores _: 1 e 1, cada um com probBbilidade 1/2, entlto E(X) = O. No entanto,
+
(b) Em geral, é difícil obter expressões para E(l/X) ou E(X 112 ), digamos
em termos de 1 IE (X) ou [E (X) ] 112 • Contudo, algumas desigualdades estão
disponíveis, as quais são muito simples de deduzir. (Veja os artigos de Fleiss,
Murthy e Pillai e o de Gurland, nos números de fevereiro e dezembro de 1966 e
abril de 1977, respectivamente, da revista The American StatisticiLui.)
Por exemplo, teremos:
(1) se X tomar soinente valores positivos e tiver expectância finita, então,
E (I/X);;. 1/E(X).
(2) sob as mesmas hipóteses de (1), E(X 112 )
Propriedade 7.5.
Então,
E(Xt
.;;
[E(X)] 112 •
Sejam n variáveis aleatórias X 1 , .•• , X,..
+ ... + Xn) = E(Xt) + ... + E(Xn).
Demonstração: Isto decorre imediatamente da Propriedade 7.4,
pela aplicação da indut;ão matemática.
Comentário:
Combina.nd<HJe esta propriedade com a anterior, obteremos
E (
±~x.) E~E(X;),
=
io:::r 1
i -1
onde os a; são constantes.
Propriedade 7.6. Seja (X, Y) uma variável aleatória bidimensional e suponha-se que X e Y sejam independentes. Então, E(XY) =
= E(X)E(Y).
CARACTERIZAÇÃO ADiCIONAl DAS VARIÁVEIS AlEATÓFUAS I 153
Demonstração:
E(JÇY)
=
=
=
_"'
f _"'+mf+=
xyj(x,y) dxdy
r+"'j+"'
J-"'
- xyg(x)h(y) dx dy
m
f
+m xg(x) dx}r+"'
_"' yh(y) dy = E(X)E(Y).
=
Comentário: A hipótese adiCional de independência é exigida para estabelecer-se a Propriedade 7 .6, enquanto tal suposição não foi necessária para obter-se
a Propriedade 7 .4.
Exemplo 7.12. (Este exemplo se baseia em um problema do livro
An Introduction to Probability Theory and Its Applications, de W.
Feller, p. 225.)
Suponhamos que seja necessário testar alguma característica em um
grande número .de pessoas, com resultados positivos ou negativos. Além
disso, suponhamos que alguém possa tomar amostras (ou provas) de
várias pessoas e testar a amostra combinada como uma unidade, como
pode ser o caso de certos tipos de exames de sangue.
Suposição: A amostra combinada dará um resultado negativo se e
somente se todas as amostras que contribuem forem negativas.
Por isso, no caso de um resultado positivo (da amostra combinada),
todas as amostras devem ser retestadas individualmente, para determinar
quais são as positivas. Se as N pessoas forem divididas em n grupos de
'k pessoas (admita-se que N = kn), então, surgem as seguintes escclhas:
(a) testar todas as N pessoas individualmente, sendo necessários
Ntestes;
(b) testar grupos de k amostras, o que poderá exigir tão pouc6
quanto n = Njk testes ou tantos testes quanto (k + l)n = N + n.
· Será nosso propósito estudar o número médio de testes exigidos
no caso (b) e, em seguida, comparar esse número comN
Suposição: A prob~bilidade de que os resultados do teste sejàm
positivos é igual a p, e é a mesma para todas as,pessoas. Os resultados
dos testes para pessoas de um mesmo grupo sujeitas ao teste também
são independentes. Seja X= número de testes requerídos para deterrni-
154 I PROBABILIDADE
nar a característica que esteja sendo estudada para todas as N pessoas,
e seja Xi = número de testes requeridos para testar pessoas no i-ésimo
grupo, i= 1, .. . , n.
Daí, X= X 1 + ... +Xn e, por isso, E(X) =E(Xt)+ .. . +E(Xn),
o que é igual a nE(Xt), porque todos os Xi têm a mesma expectância.
Agora, X 1 toma somente dois valores: 1 e k + 1. Ademais,P(X1 = 1) =
= p (todas as k pessoas no grupo 1 são negativas)= (1 - p )k.
Portanto,
P(X 1 =k+ 1)= 1-(1-p)k
.)
e então
E(Xt)= 1· (1-p)k +(k+ 1)[1-(1-p)k]=
= k[ 1- (I- p )k + k- 1 ].
Logo,
(A fórmula acima é válida somente para k > 1, desde que k = 1
conduz aE(X) =N + p • n, o que obviamente é falso!)
Uma questão de interesse é a escolha de k para o qual aE(X) s~ja
a menor possível. Isto poderá ser trátado facilmente por algum procedimento numérico. (Veja o Problema 7.11.a.)
Finalmente, note-se que, para o "teste em grupo" ser preferível ao
teste individual, deveremos ter E(X) < N, isto é, 1 - (1- p )k + k- 1 < 1,
o que é equivalente a k- 1 <
p )k. Isto não pode ocorrer, se
(1 ~ p) < 1/2, porque, nesse caso, (1'- p)k < 1/2k < 1/k, a última
·desigualdade decorrendo do fato de que 2k > k. Daqui, obteremos a
seguinte conclusão interessante: Se p, a probabilidade de um teste positivo em qualquer dado individual; for maior do que 1/2, então nunca
será preferfvel grupai amostras antes de testar. (Veja o Problema 7.11.b.)
(1: -
Exemplo 7.13. Vamos aplicar algumas das propriedades acima
pára deduzir (de novo) a expectância de uma variáy;,l aleatória distribuída binomialmente. O método empregado poderá ser aplicado
vantajosamente em muitas situações similares,
Consideremos n repetições d~ um experimento e seja X o nú.
mero de vezes que algum evento, digamos A, ocorra. Seja p = P(A) e
11~11 1~\
:
CARACTERIZAÇÃO AD8C.IONAL pAS VAR~ÁVEIS ALEATÓRIAS I 155 .
i
admitamos que _este número seja\ constante em tod~Mj as repetições
OOWJJidemd&a. ·
Defmmmoa aa v~iáveia ~uxiliarea Y1 , ••• , Y,., asaim:
Yfã
i
= .li.
ae o ewnto A ooorjrer nm i-ésima repetição,
=
illiiiSO
@
oontxiírio.
+
i
. .
+... + Y,.; e aplicando a Proprie--
Em oonseqüência, X = Y 1
Y2
d!M!e 7.5, obteremos·
. .
!
E~X) = E(Yl) l+ ... + E(Y,.).
t!ontudo, ·
I
.. . ..AssJm, E(X)
.
E(Yo) = l(p)
= np,
..
o que
+ 0(11I -
·;· ···· --)
verific~
I
p)
= p, para todo i.
.
.
o resultado antenor.
Comentd.rio: V~m~.os relliterpretar ~w importante resultado. Consideremo5l
~ v~iáwl aleatória X/n~ Isto repreeenJ a freqUência relativa do evooto A, dêritre
'J!B n repetições de&. Empregando a·Pro~riedade 7.2, teremos E(X/n) = (np)fn = p.
Isto é, intUitivamente, CQmo seria d<a ~p<arar-se, porque afirma ·que a freqüência.
relativa .~a do evento A .ê p, quarldo p = P(A). Ele representa a primeira
verifiC8\)li.0 tOOrie& do fato de que existe ~One:xão entre I a freqüênciiL remtiVI!. de um
evento· e .a probabilidade ds,quele eventb. Em um eapítulo posterior, obteremos
outros nsultados que est:Welecem uma ·telaÇio ~uito .:maiS pr~ entre freqüên1
cia, rolativa e probabilidade.
•
'
!
I
Exemplo 7.14. Suponhamos que a procura D, por semana, de um
certo produto seja uma variável [a leatória com uma certa distribui- ..
çio de probabilidade, digamos J:r(D = n) = p(n), n = O, 1, 2, ...
Admitamos que o custo pe.ra o t endedo:r seja C1 dólares por peça,
enq1Jlanto ele vende cada peça P?r C2 dólares. Qualquer peça· que
não tenha
sido vendida até o fimI da semana. deve ser estocada ao
.
custo de Cu dólares por peça.. Se o vendedor deddir · pro-duzir ·N
peÇ$.8 no início da semana, qual s~á seu lucro esperado por seman.11.?
Pam. que valor 'de N, o lucro esp~ra.do se toma máximo? Se T for
.o lucro por semana, teremos
\.
.T
NC,. -
N(;l se
I
D
l
> N,
DC2- C1N- CJra(N- D) se D
.
Reescrevendo o que
.'1'
ea~
I
N.
;.
acima., Qbteremos
I
I
N(Cs- C1) se
(Cs
~
+ CD)D -
I
E! > N,
N((C1
I
I
+ Ca)
\
se D ::_:; N.
.
156 I PROBABIUDAOE
Por isst>, o lucro esperado é obtido assim.
E(T)
N(C2- Ct)P(D
- N(Ct
> N)
N
+ (C2 + Ca) n·=o
L np(n)
+ Ca)P(D ~ N)
N
m
N(C2- Ct)
L p(n)· + (C2 + C3) n-0
Lnp(n)
n=N+l
N
- N(Ct
+ Ca) n=O
L p(n)
N
N(C2- Ct)
+ (C2 + Ca) n=O
L p(n)(n -
N).
Suponhamos que se. saiba que a seguinte distribuição de probabilidade seja apropriada para D: P(D = n) = 1/5, n = 1, 2, 3, 4, 5. Daí,
E(T) = N(C2- C1)
+
(C 2 ~ C3) [N(N
1.
N(C2 - C1)
+ (C2 + Ca) 5
+ 1)/2 .~ N se
N
2]
>
(15 ~ 5N) se N
Suponhamos que C 2 = $9, C 1 = $3 e C3 = $1.
~
5,
-
N2]
5.
Logo,
E(T)
E(T) =6N + 2 [ N(N
+ 1)
2
se N
6N
L-----~------~--~N
+ 2(15 -
5N) se N
~
5,
> 5,
7N- N 2
se N
30-4N
se N > 5.
~
5,.
Portanto, o máximo ocorre para N = 3,5. (Veja Fig. ·7.5.) Para
N = 3 ou 4, teremos E(T) = 12, que é o máximo atingível, porque
N é um inteiro.
7.5.
A Variãncõat de uma Variável Aleatória
Suponhamos que, para uma variável aleat6ria X, verificamos
que E(X) = 2. Qual é o significado disto ? É importante que ·não
atribUamos a essa informação mais significado do que é autori~ado ..
CARACTERIZAÇÃO ADDCIOI\IAL D"AS.VARIÁVE.ISAlEATÔRIAS I 15.7
Ela simplesmente signific& que se considerarmos um grande número
de determinações de X, digamos x ••... . , Xn e calcularmos SI média
desses valores de X, esta média estaria' próxima de 2, se n fosse grande.
No entanto, é verdadeiramente crucial não atribu~r demasiado significado a um valor esperado. Por exemplo, suponhamos que X
represente a durnção da vida de lâmpadas que estejam sendo recebidas de um fabricante; e que E(X) = 1.000 horas. Isto poderia significar uma dentre muitas coisas. Poderia significar que a maioria
das lâmpadas deveria durar um periodo compreendido entre 900 horas
e.l.lOO horas. Poderia, também, significar que as lâmpadas fornecidas são formadas de dois tipos de lâmpadas, l.nteiramente diferentes:eerca de metade são de muito boa qualidade e du~arão aproximadamente 1.300 horas, enquanto a outra metade são de muito má qualidade -e durarão aproximadamente 700 horas.
Existe uma necessidade óbvia de introduzir uma medida quantitativa que venha a distinguir entre essas duas situações. Vária.S
medidas são por si mesmas muito sugestivas, mas a seguinte é a quan~
tidade mais comumente empregada.
Definição. Seja X uma variável aleatória. Definimos a variância de X, denotada por V(X) ou ~Yx 2 , da maneira seguinte:
V(X)
= E [X - E(X)] 2 •
(7.12)
A raiz quadrada positiva de V(X) é denofuinada o desvio-padrão
de X, e é denotado por ~Yx.
Comentários: (a) O número V(X) é expresso por unidades qua<Jr{ulas ·de X.
Isto é, se X for medido em horas, então V(X) é exprelS:\1 em (horas)2 • Este é um
motivo para considerarmos o desvio-padrão; ele é expresso nas m~ unidades
que X.·
(b) Outra medida possível poderia ter sido E IX - E(X) J. Por alguns
. motivos, um dos quais é que X2 é uma função melhor "comportada" que IX J,
a variância é preferida.
(c) . Se interpretarmos E(X) como o centro de gravidade da unidade de
massa distribuída· sobre = reta, poderemos interpretar V(X) como o momento ·
de inércia dessa massa, em relação a um eixo perpendicular que passe pelo centro
.de gravidade da massa.
(d) V(X), tal como definida na Eq. (7.12) é: um caso especial da seguinte
noção mais geral. O k-ésimo rrwmento da variável aleatória X, em relação a sua
expectância, é definida comd sendo }J. J, = E [X - E(X) ]k. Evidentemente,· para
k = 2, obteremos a variância.
O cálculo dé V(X) pode ser simplificado com o auxílio :do seguinte
resultado.
158 I PROBABILIDADE
Teorema 7.5.
Demonstração: Desenvolvendo E[X- E(X)]2 e empregando as
propriedades já estâbelecidas para o valor esperado, obteremos
V(X)
=
E[X - E(X)] 2
=
E{X 2
= E(X
2
+ [E(X)] j
2E(X)E(X) + [E(X)]
2
2XE(X)
-
)-
2
= E(X2) _ [E(X)l2.
[Lembrar que E(X) é
uma constante.]
'Exemplo 7.15. O serviç~ de meteorologia classifica o tipo de
céu que é visivel, em termos de "graus de nebulosidade". Uma escala de 11 categorias é empregada: O, I, 2, .. . , 10, onde O representa
um céu perfeitamente claro, 10 representa um céu completamente
encoberto, enquanto os outros valores representam ~ diferentesó.c,ondições intermediárias. Suponha-se que tal classificação seia;}E;!ita
em uma determinada estação meteorológica, em uriJ. daterminaq~,,dia
e hora. Seja X a variável aleatória que pode tomar um dos Ii · ~a­
lores acima. Admita-se que a distribuição de probabilidade de X seja
=
Pa
=
p~
P6
P1
=
P2
=
Ps
=
=
pa
=
p1
=
0,06.
pa
=
0,15;
Portanto 1
E(X)
=
+ 2(0;15) + 3(0,06) + 4(0,06) + 5(0,06) +
+ 6(0;06) + 7(0,06) + 8{0,15) + 9(0,15) +
+ 10(0,05) = 5,0.
1(0,15)
A fim de calcular V(X), necessitamos calcular E(X 2).
+ 4(0,15) + 9(0,06) + 16(0,06) + 25(0,06) +
+ 36(0,06) + 49(0,06) + 64(0,15) + 81(0,15) +
+ 100(0,05) = 35,6.
E(X 2) = 1(0,15)
Portanto,
V(X) = E(X 2 )
e o de.svio,-padrão
Exemplo 7.16.
continua com f'dp ·
-
[E(X))2
=
35,6 - 25
= 10,6,
u = 3,25.
Suponhamos que X seja uma variável
\
aleatóri~
I
~
.
- I
I
I
-
.
.
CARACTERIZAÇAO AD.ICIONAL DAS VARIA VEIS ALIEATORIAS I t59
j(x)
= 1 + X; I - 1 ~
x
~ O,
= 1 ~-
X
~ 1.
X,
~
0 ~
(Veja a Fig. 7.6.) Em virtude da [simetria da fdp, E(X) =O. (Veja
o comentário abaixo.)
·
·
Além disso,
~
E(X')
f(x)
1>(1 +
1
x) dx
+
+
7
x (1- x)ch =
.
Com~~rio:
•
1
\
!·
Portanto, V(X) =
i
!
.i
1
-1
X
.
IFIQJ.
q~e
7.6
.·
al~atória con~nua
Su_ponhamos
uma \va.riável
tenha uma
fdp que seJa s1métnca em rela.çao a x =· O. Isto e, j(- x)· = j(x) para todo x.
Então, desde que E(X) exista, E(X) =o, lo que é uma !conseqüência imediata da
definição de E(X). Isto pode ser estendido a um ponto arbitrário de simetria
. '
.
I
z = a, e nesse caso E(X) = a. (Veja o f'robl. 7.33.)
I
I
7.6.
tória.
Prçpriecllades rdla Variância clle uma Variãvel Alea!
imp~rtantes,
Existem vana.s propriedades I
{!m parte análogas
àquelas expostas para a expectân4ia . de uma variável aleatória, as
quais valem para a variância.
. Ii .
Propriedade 7.7.
Se C for uni.a constant~,
I
l'(X C)i= V(X).
+
Demonstração:
V(X
+ C)
(7.13)
·
= E[(X + C) :- E(X
= E[X -
E(X))
2 ,;:
I
+iC)]
2
= l..1(X
+ C) ...,.
E(X) -: C]z
V(~.
.
I
Comentário: Esta ·propriedade é intuitivamente evidente, porque somar
UIWI constante a um resultado X ni!.o llllt6-a sua variabilidade, qUl!l é siquilo que a
vmância mede. Apenas "desloca" oo valores de X para 11. direita ou Iii esquerde,
dfl~ndendo do sinal de C. .
j
.
I
Pr()prÍedade 7.8. ~ C for ~a constante,
V(CX)
· Demcmstração:
(7J.4)
i
X)~ - [E(CX)}~.. lI (}2E(X
. V(CX) = E(C
.
= lc~V(X).
2) -
= C!(E(X2)- (E(X)}2}J. = C!V(X).
C2[E(X)}2
\
160 I PROBABIUDADIE
Propriedade 7.9. Se (X, Y) for uma variável aleatória bidimensional, e se X e Y forem ·indépendentes, então
Y(X
+ Y)
+ V(Y).
= l'(X)
(7.15)
Demonstração:
r(X
+ Y) = E(X + Y)2-
[E(X
+ Y))2
E(X 2 +2XY + Y 2 ) - [E(X)]2- 2E(X)E(Y)- [E(Y))2
E(X 2 ) - [E(X))2
+ E(P)-
[E(Y)}2
= V(X) + V(Y).
Comernário: 1!: importante compreender que .a variância. nao é, em geral,
aditiva, como o é o valor esperado. Com a hipótese complementar de independência, a Propriedade 7.9 fica ·válida. A variância t.ambéin não possui a proprie·dade de linearidade, que expusemos para a expectância, isto é, V(aX + b) r"
r" a V(X) + b. .Em vez disso, teremos V(aX + b) = a 2 V(X) .
Propriedade 7:10.
dependentes. Então,
Sejam X 1, .
. •,
Xn, n variáveis aleatórias in,(7.16)
Demonstração:
matemática.
Isto decorre da Propriedade 7.9, por indução
Propriedade 7.11. Seja X uma yariável aleatória com variâneia finita. Então, para qualquer número real a,
V(X)
=
E [(X - a) 2 ]
-
[E(X) -
aJz:
(7.17)
Demonstração: Veja o· Probl. 7.36.
Comerúários: (a) Esta é 1.1ma extensão óbvia do Teor. 7.5, porque fazendo
O, obteremos o Teor. 7.5.
(b) Se interpretarmos V(X) como o momento de inércia e E(X) como o
centro de ·uma unidade de massa, então a propriedade · acíma é uma formulação
do bem conhecido teorema dos. e.z':t.os paralelos, em · ~Iecânica: O momento de inércia em relação a üm ponto arbittário é igual ao mom.e nto de inércia em relação ao
centro de gravidade, mais o quadrado da distância desse ponto arbitrário ao centro .de gravidade.
a
=
se
(c) E[X - aY
torna mínimo se a = E(X). Isto decorre imediatamente
da propriedade acima. Portanto, o momento de· inércia (de uma unidade de ma.ssa
-distribuída sobre uma reta), em relação a um eixo que passe por um ponto arbitrário, torna-se mínimo se esse ponto escolhido for o centro de gravidade~ ...
Exemplo ·7.17. Vamos calcular a variância de uma variável
aleatória X, distribuída binomialmente, com parâmetro p.
Para calcular F(X), podemos proceder de duas maneiras. Como
já sabemos que E(X) = np, devemos apenas calcular E(X 2 ) e a seguir
.C ARACTERI:ZAÇÃOADICDONALDAS VAR!ÁVIEISALEATÓRIAS I 161
calcular ·V(X) como igual a E(X 2 ) - [E(X))2. Para calcular E(X 2 ),
empregaremos o fato de que P(X = k) = (Z)pk(1- p)"--k, k =
= o, 1, ... 'n. Portanto, E(X 2) == Lk~O e(~)pk(1 - p)n--k
Este
somatório pode ser calculado bastante facilmente, mas em vez de
fazer isso, empregaremos um método mais simples.
Novamente empregaremos a representação de X introduzida
no Ex. 7.13, a saber, X = Y1 + Y2 + ... + Yn. Agora .observaremos que os Y; são variáveis aleatórias independentes, uma vez que
o valor de Y; depende somente do resultado da i-ésima repetição, e
as sucessivas repetições são supostas independentes. Daí podermos
aplicar:..a Propriedade 7.10 e obter
=
V(X)
V(Y1
+ ... + Yn)
=
V(YI)
+ ... + V(Yn)·
Mas, V(Y/l = E(Y;) 2 - [E(Y;)] 2. Então,
E(Y;) = 1(p)
+ 0(1-
E(Y;) 2 = P(p)
p) = p,
Logo, V(Y;) = p- p 2 = p(l - p) para todo
= np(l- p) .
Comentário: Vamos conside,ar V(X) =
p) como uma função de p,
+ 0 (1-p)= p.
2
~-
Assim ,
V(X) =
V( X)
= np(l -
para n dado. Esboçaremos um gráfico
como aquele mostrado na Fig. 7.7.
Resolvendo (d/dp)np(l - p) = O, encontraremos que o valor máximo de
V(X) ocorre para p = 1/2. O valor míp=j
nimo de V(X), obviamente ocorre nos
extremos do intervalo, para p = O e p =
Fig. 7.7
= 1. Isto está de acordo com o que se
esperava, intuitivamente. Lembrando que a variância é uma medida da variação da variável aleatória X, definida como o número de vezes que o evento A ocorre
em n repetições, encontrar.emos que esta variação será zero, se p ,;, O ou 1 (isto é,
se A ocorrer com probabilidade O ou 1) e será máxima quando estivermos tão "incertos quanto poderíamos estar" sobre a ocorrência ou não de A, isto é, quando .
P(A) = 1/2.
Exemplo 7.18.
Suponhamos que a variável aleatória X seja
uniformemente distribuída sobre [a, b]. Como já calculamos ante-.
riormente E(X) = (a+ b)/2..
Para calcular V(X), vamos calcular E(X 2):
b
1
ba- aa
E(Xt) =
(.
j
x2
a
b- a
dx = --:--:::---:--
3(b - a)
I
Daí,
V(X)
=
E(X 2 )
-
depois de um cálculo simples.
[E(X)] 2
=
(b - a)
12
2
.~J
162 I PROBAB!LIDADIE
C.omenlários: (a) Este é um resultado intuitivamente significativo. Ele
diz que a variância de X não depende de a e b, individualmente, mas .somente de
(b - a)2, isto é, do quadrado de sua diferença. Portanto, dua.s variáveis aleatórias,
cada uma das quais é uniformemente distribuída sobre algum intervalo (não necessariamente o mesmo para ambas), terão variâncias iguais enquanto os comprimentos dos intervalos sejam iguais:
(b) É um fato bem conhecido que o momento de inércia de uma haste del. gada de massa Me comprii:nento L, em reLM;ã.o a um eixo perpendicular que passe
pelo seu centro; é dado por MV/12.
7.7.
Expressões Aproximadas ola Expectância e da Va-
riância
Já observamos que a fim de calc1,1lar E(Y) ou V(Y), onde
Y = H(X), não necessitamos achar a distribuição de probabilidade
de Y, pois poderemos trabalhar diretamente com a distribuição de
probabilidade de X. Semelhantemente, se Z = H(X, Y), poderemos
calcular E(Z) e V(Z), sem primei~o obter a distribuição deZ.
Se a função H for bem complicada, ó cálculo das expectâncias
e variâncias pode conduzir a .integrações (ou somatórios) que são
bastante difíceis. Por . isso, as seguintes aproximações são muito ·
úteis.
Teorema 7.6. Seja X uma variável aleatória com E(X) = fJ. e
V(X) = u 2 • Suponha-se que Y = H(X). Então, ·)
+ H'~(JJ.)
E(Y)
e!.
H(JJ.)
V(Y)
e!.
[H'(JJ.)] 2u 2 •
u 2,
(7.18)
(7.19)
(A fim de tornarmos significativas as aproximações acima, exigiremos, obviamente, que H seja derivável ao menos duas· vezes no
ponto x = f.L.)
. Dem(J11,8tração (apenas . esboçada): A frm de estabelecer a
Eq. (7.18), deSenvolveremos a função H em série de Taylor, próximo
de x = fJ., até dois termos. Deste modo
Y = H(f.L)
+ (X -
!Jr)H'(p.)
+
(X - JJ.)W"(JJ.)
2
"
onde R1 é o resto. Se abandonarmos o resto R 1, e
o valor esperado de ambos os membros, teremos
E(Y)
c::<
H(p.)
+
H"(p.) u 2 ,
2
+R
1
,
a seguir, tomarmos
I
CARACTERIZAÇÃO ADICIONAL IE>AS VARIÁVEIS ALEATÓRIAS I 163
I
porque E(X - p.) = O. A fim d'e e.Stabelecer a Eq. (7.19), desenvolveremos H em série de Taylor laté u~ ~ermo, p~ra x = p.. Nesse
caso, Y = H(p.)
(X-11-)H'(p.) +.R2. Se· abandonarmos o resto R 2
e tomarmos a variância de ambos os membros, teremos
+
Exemplo 7.19. Sob certas condições, a tensão superficial de um
líquido (dina/centimetro) será dad~ pela fórmula S = 2(1- 0,005 T) 1•2 ,
na qual T é a temperatura do líq(Iido (em graus centígrados).
Suponhamos que T seja lima i variável aleatória continua com a
1
seguinte fdp
Daí,
J(t)
= 3.ooot-\ t ;:::: H),
.
=
O, para quaisqJr outros valores.
E(T)
~
],
V(T)
=
E(T 2)
r~
I
3.ooor• dt
e
=
l
.
o
.:_ .
~ 15
(gm"' rentigrndo,),
I
i
(15)2
I
~
3.000t- 2 dt
.L 225
I
= 75 (graus centígrados)2.
Para calcularmos E(S) e V(S), i teremos que calcular as seguintes
integrais:
I
J.
m
(I - 0,005t)1. 2 e- 1 dt
eI
10
r~ (1 -
J1o
1
0,005t)Mt- 4 dt.
,
i
.
Em vez de calcular estas expressões,· obteremos aproximações
de E(S) e V(S) com o emprego d~ Eqs. (7.18) e (7.19). A fim de
titilizar essas fórmulas, teremos dJ calcular H'(l5) e• H"(15), onde
H(t) = 2(1 - 0,005t) 1• 2 • Teremos
I
H'(t)
= 2,4(1- 0,005t)o.2(- 0,005) = - 0,012(1..,..
0,005t)Oo2.
I
Portanto H(l5)
= 1,8~:, H'(15) = 0,01. Semelhantemente,
H"(t) = - 0,002 4(1 -- 0,005t)-M (
jl
O.po5) = 0,000 012(1- 0,005t)-0· 6:
Logo, .·
.
I
H"(l5) =
Portanto teremos
E(S)
'o;ooo 012
0 8
(o,925)
I •
=
o+.
i
C:!.
H(l5)
+ 75If'{l5) =
V(S) ~ 75[H'(l5)]:a
:i.
1,82 (d/em)
0,87 (d/cm) 2 •
164 I PROBABDUDADE
Se Z for uma função de duas variáveis, por exemplo Z
um resultado análogo será viável.
=. H(X, Y),
Teorema 7.7. Seja (X, Y) uma variável aleatória bidimensional.
Suponha-se que E(X) = !J.x, E(Y) = FJ.v; V(X) = O"x~ e V(Y) = O"y"'!..
SejaZ = H(X, Y). [Deve-se admitir que as várias derivadas de H
existam para (Jlx, Jly ).] Então, se X e Y forem independentes, ter-se-á
onde todas as derivadas parciais são calculadas para (;.;.:r, FJ.y).
Demonstração: A demonstração envolve o desenvolvimento de
H em série de Taylor, no ponto (;.;.:r, FJ.v), para um e dois termos, o
abandono do resto, e, a seguir, o cálculo da expectância e da variância de ambos os membros, tal como foi feito na demonstração do
Teor. 7.6. Deixamos os detalhes a cargo do leitor. (Se X e Y não forem
independentes, uma fórmula um pouco mais complicada poderá ser
deduzida.)
Comentário: O resultado acima pode ser estendido a uma função de n v&iâveis aleatórias independentes
H(X, ... , Xn). Se E(Xi) = 1-Li, V(Xz) =a{, teremos as seguintes aproximações, admitindo-se que todas as derivadas existam:
z·=
onde todas as derivadas parciais são calculadas no ponto Ú!11 • • • , lf.n).
Exemplo 7.20. Admita-se que ~mos um circuito simples,
para o qual a tensão M seja expressa pela Lei de Ohm como,M = IR,
onde I e R são, respectivamente, a· corrente e a resistência do circuito. Se I e R forem variáveis aleatórias independentes, então M será
uma variável aleatória, e empregando o Teor. 7.7, poderemos escrever
E[M] ~ E{I)E(R),
V[M]
C!l:!
[E(R)] 2 V(I) + [E(I)] 2 V(R).
CARACTER~ZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS
I 165
Existe uma bem conhecida desigualdade, devida ao matemático
russo Tchebycheff, que desempenhará um importante papel em nosso
trabalho subseqüente. Além disso, ela nos fornece meios de compreender precisamente como a variância mede a variabilidade em relação ao valor esperado· de uma variável aleatória.
Se conhecermos a distribuição de probabilidade de uma varlá:vel
aleatória X (quer a fdp no caso contínuo, quer as probabilidades
punctuais no caso discreto), poderemos nesse caso calcular E(X)
e V(X), se existirem. Contudo, a recíproca não é verdadeira. Isto
é, do . conhecimento de E(X) e V(X) não poderemos reconstruir a
distribuição de probabilidade de X e, conseqüentemente, calcular
quantidades tais como P[ IX - E(X) I~ C]. Não obstante, veri..,
fica-se que muito embora não possamos calcular tais probabilidades
[a partir do conhecimento de E(X) e V(X)], poderemos estabelecer
um limite superior (ou inferior) muito útil para essas probabilidades.
Este resultado está contido no que é conhecido como desigualdade
de Tchebycheff.
Desigualdade de Tchebycheff. Seja X uma variável aleatória, com
= f.l, e seja c um número real qualquer. Entã~, seE(X- c? for
fmita e e for qualquer número positivo, teremos
E(X)
1
P[ IX- c !;;. e]< --E(X- c) 2 •
€2
(7.20)
As seguintes formas, equivalentes a (7.20), são imediatas:
(a) Se considerarmos o evento complementar, obteremos
(.
1
P[IX-c l<e];;;;.1 - -E(X - c) 2 •
.
é
(7.20a)
( b) Escolhendo c = f.l, obteremos
(7.20b)
(c) Escolhendo c = f.1 e e = ka, onde a 2 = Var X> O, obteremos
P[ IX- f.l i ;;;;.ka] <k- 2 •
(7.21)
166 I PROBABILIDADE
Esta última forma (7.21) é particularmente indicativa de como a
variância mede o "grau de concentração" da probabilidade próxima de
E(X)=JJ..
Demonstração: [Demonstraremos apenas a (7 ,20), porque as
outràs decorrem do modo como foi indicado. Trataremos somente do
cáso conVnuo. No caso discreto, o raciocínio é muito seinelliante, com
as integrações substituídas por somatórios. Contudo, algum cuidado
deve ser tomado com os pontos extremos dos intervalos]:
Consideremos
=f .
P[ IX- c I;;;. E]
.X . 1X
_
..,.
cJ(x)dx.
C 1""" c
(O limite da integral diz que estamos integrando entre - oo e c entre c+ E e+ oo.)
Ora, lx - .cl;;;. 8. é equivalente a (x- c) 2 /E
2
;;;.
ce
L
Conseqüentemente, a integral acima é
(x- c)2
onde R
= {x:
f(x)dx,
Ix - c I;;;. c} .
Esta inte-gral é, por sua vez,
·~.
(x- c)2
f(x)dx,
que é igual a
1
-
[2
E[X-c]2
.
'
. i
como se queria demonstrar.
Comentdrios: (a) É importante compreender que o resultado acima é notável, precisamente porque muito pouco é suposto a respeito do comportamento
probabilístico da variável aleatória X.
(/J) Como poderíamos suspeitar, informação adicioná! sobre a distribuição
da variável aleatória X nos permitirá melhorar a desigualdade deduzida. Por
exemplo, se C= 3/2, teremos da desigualdade de Tchebycheff
CARACTERIZAÇÃO ADiCIOI\!All DAS
VARIÃ~EIS AlE;ATÕRiAS I
167
Admita-se que ta.mbém saibamos que ! X .é uniformemente distribuída sobre
(1- 1/
v3,
1 + l/"\/'3). Daí, E(X i
P[IX -
.ui~ 2·o-]
I
3
=
I
=P[IX- 111 ~
=
V(X)
1,
1/9, e portlilnto,
1
21 ~
1
1- P(IX- li,<
I
1
= 1- P[ 2
i
f
X<
3
21
v3-
= 1- -
21
= 0,134.
2
i
Observe-se que, muito embora o enuncia~o obtido da desigualdade de Tchebycheff
seja coerente ~om este resultado, este últlmo é muito mais preciso. Não obstante,
em muitos problemas, nenhuma hipót~e referente à. específica distribuição da
variável aleatória é justificável e, em tl.Lis casos, a desigualdade de Tchebycheff
nos fornece uma informação importante Jsobre o comportamento da variável alea.tória.
Como podemos observar <lá IEq. (7 .21), se V(X) for pequena,
a maior parte da distribuição de probabilidade de X estará "cone entrada" próxima de E( X). Isio pode sér· expresso · mais precisamente no seguinte teorema.
I
1
•
,
•
Teorema 7.8. Suponha-se qu~ V(X) =O. Então P[X
onde J.L = ECX). (Isto é, X = J.L, fom "probabilidade 1.")
Demonstração:
= JJl = 1,
I)a Eq. (7.20:b ), encontramos que
P[i X Por conseguinte
P[IX-
e
9 ] = O para qualquer c > O.
i
I
JJI < = 1 paraqualquer ~>O.
pI
Como
pode ser escolhido
demonstrado.
~
n
arbit~riamente pequeno,
o teorema fica
;
Comentários: (a) Este teorema mJtra que variância nula implica que toda
ponto, a saber, em E(X).
probabilidade está concentrada em um
(b)
Se E(X)
= O,
entã.o Y(X)
úrtco
I
= E(X1),
"
e por isso, neste caso, E()(l) ~- O
acarreta a mesma c~ncl~o.
.
1·
' .
•
(c) .f: no senttdo actma que dizem011 que uma vartável X e ckge1le'l'ada:
toma somente um valor com probabilidJde l.
Ela
I
7.9.
O Coeficiente de Cofrelação
I
Até aqui
como E(X) e
dimensionais.
anteriormente,
·~: .. '
tals
estivemos t;atandÓI de. parâmetros relacionados,
.
V(X), com a distribuição
de. variáveis aleatórias
unii
.
.
Estes parâmetros /medem, em um sentido ' ~xplicado
certas caracterist~cas da distribuição. Se tivermos
I
168 I PROBABI!.. BDADIE
uma variável aleatória bidimensional (X, Y), um problema análogo
será encontrado. Naturalmente, também poderemos eStudar as
variáveis aleatórias unidimensionais X e Y associadas com (X, Y).
Contudo, a questão surge quanto a haver um parâmetro expressivo,
que meça de algum modo o "grau de associação" entre X e Y. Est~
1 noção bastante vaga será tornada mais precisa, brevemente.
Estabeleçamos a seguinte definição.
Definição. Seja (X , Y) uma variável aleatória bidimensionaL
Definiremos pxy, o coeficiente de wrrelação, entre X e Y , da seguinte
forma:
P:zu =
E{[X- E(X)][Y- E(Y)]!
VV(X)V(Y)
(7.22)
Comentários: (a) Supomos que todas as esperanças matemáticas existam
e que ambas V(X) e V(Y) sejam não-nulas. Quando não houver dúvida quanto
variáveis, simplesme~te·escreveremos p em vez de Pxy·
(b) O numerador de p, E [[X- E(X)][Y- E(Y)]], é denominado covariância entre X e Y, e algumas vezes é d_enotado por axy.
(c) O coefiCiente de correlação é uma quantidade adimensional.
(d) Antes que a definição acirria fique realmente expressiva, devemos descobrir exatamente o que p mede. Faremos isto pela consideração de algumas propriedades de p.
às
Teorema 7.9.
p =
Demonstração:
E(XY) - E(X)E(Y)
VV(X)V(Y)
Considere-se
E[[X- E(X)][Y- E(Y)]) =
= E[XY- XE(Y) = E(XY) -
= E(XY)
+ E(X)E(Y)J
E(Y)E(X) + E(X)E(Y)
YE(X)
E(X)E(Y) -
- E(X)E(Y).
Tteorema 7.10.
Se X e Y forem independentes, então p =O.
Demonstração:
Isto decorre imediatamente do Teor. 7.9, porque
E(XY) ·= E(X)E(Y)
se X e Y forem independentes .
. Comentário: A recíproca do Teor. 7.10 em geral nao é verdadeira. (Veja
o Probl. 7.39;) Isto é, podemos ter p = O, e no entanto X e Y não precisam ser
independentes. Se p = O, diremos que X e Y são nao correlacúm.adas. Portanto,
eer não correlacionado e ser independente, em geral, não são equivalentes.
CARACTERIZAÇÃO ADDCDONAL IDAS VARIÁVEIS AUEATÓROAS / 169
O exemplo seguinte ilustra esta questão.*
Sejam X e Y duas variáveis aleatórias quaisquer que tenham a
mesma distribuição. Sejam U =X- Y e V= X+ Y. Então,E(U) =O
e cov ( U, V) = E[(X- Y) (X + Y)] = E(J(l - J72) = O. Portanto, U
e V são não correlacionadas. Ainda que X e Y sejam independentes,
U e V podem ser dependentes, como a seguinte escolha de X e Y indica.
Sejam X e Y os números ·que aparecem no primeiro e no segundo dados,
respectivamente, que tenham sido jogados. Nós agora achamos, por
exemplo, que P[ V= 4 I U = 3) = O (uma vez que X- Y = 3; X+ Y
não pode ser igual a 4), enquanto P(V = 4) = 3/36. Portanto, U e V
são depen<!entes.
Teorema 7.11. -1 .::; p ::; 1.
- 1 e + 1, inclusive.)
(Isto é, p toma valores entre
Considere-se a seguinte função da variável
Demonstração:
real i:
q(t)
= E[V + tW] 2 ,
onde
V
= X - E(X) e W = Y
'í(t}
q(t)
~
E(Y).
v
~'
(b)
(a)
Fig. 7.3
Visto que [V + tW] 2 2: O, temos que q(t) 2: O para todo t.
volvendo, obteremos
I
Desen~
.
* O exemplo dado neste comentário foi tirado de uma explicação que apareceu no
artigo intitulado "Mutually Exclusive Events, Independence and Zero C~rrelation",
por J. D. Gibbons, em The American Statistician, 22, N? 5, December)968,
p. 31-32.
'
170 I PROBABILIDADE
Deste modo, q(t) é uma expressão quadrática de t. Em geral, se u.
expressão quadrática q(t) = at 2
bt + c tem a propriedade de <
q(t) ~ O para todo t, isto significa que seu gráfico toca o eixo dm
em apenas 1un ponto, ou não toca, como se indica na Fig. 7.8. Is
por sua vez, significa que seu discriminante b2 - 4ac deve ser :::::;
porq~e b2 - 4ac >O ~ignificaria que q(t) teria duàs raízes reais d
tintas. Aplicando-se esta conclusão à função q(t), que estávam
considerando acima, obteremos
+
4[E(VW)]2 - 4E(V.2)E(W2) ~ O.
Isto acarreta
[E(VW)]2
{E[X- E(X)][Y- E(Y)]p
E(V2)E(W 2 ) ~ 1• e daí
V(X)V(Y)
Portanto, - 1 :::::; p
~
=
p
2
~ 1.
1.
Teorema 7.12. Suponha-se que p 2 = 1. Portanto (com proba
B, onde A e B sã•
bilidade 1, no sentido do Teor. 7.8), Y = AX
constantes. Em palavras: Se o coeficiente de correlação p for ± 1
então Y será uma função linear de X (com probabilidade 1).
+
Demonstração: Considere-se novamente a função q(t), descrita
na démonstração do Teor. 7.11. É coisa simples observar na de·
monstração daquele teorema que, se q(t) > O para todo t, então p 2 < 1
Daí a hipÓtese do presente teorema, a saber p2 = 1, acarretar qm
deve existir ao menos um valor de t, digamos to, tal qu~ q(to) =
= E(V + toW) 2 =O. Desde que V+ t 0W =[X- E(X)] + to[Y-E(Y)], temos que E(V + toW) =O e portanto a variância
+
+toW) = E(V + toW) 2 • Deste modo, encontramos que .a hipótesE
do Teor. 7.12 leva à conclusão de que a variância de (V+ toW) = O
Conseqüentemente, do Teor. 7.8 podemos concluir que a variáve
aleatória (V + toW) = O (com probabilidade 1). Logo, [X - E(X)] +
+ to[Y- E(Y)J :o: O. Reescrevendo Ísto, encontramos que Y =
= AX B (com probabilidade 1), como queríamos demonstrar.
·cv
+
·comentário:
no Teor. 7'.13.
A recíproca do Teor. 7.12 também vale, como est§; mostradc
.
Teorema 7.13. Suponha-se que X e Y sejam duas variáveü
aleatórias, para as quais Y = AX + B, onde ~ e B são constantes
Então p 2 = 1. Se A >O, p = + 1; se A < Ó, p = -1.
Demonstração:
Visto
1que
Y = AX
+ B,.
teremos
E(Y)
= AE(X) + B e V(Y) = A 2 V(X). Também, E(XY) = E[X(AX
+ B)] = AE(X2 ) + BE(X). Portanto,
11~\ ~
=
+
CARACTERIZAÇÃO
AOICIOi\!~l
DAS VAR IÁVEIS ALEATÓRIAS I 171
i
[E(XY)- E(X)!E(Y)]2
V(X)V(Y)!
I
+ BE~X)E(X)[AE(X) + B]
IAE(X 2)
2
}2
l{(X)A 2 V(X)
i
.
I
IAE(X 2) + BE(iX) - A[E(X))2.j1 2 [V(X))2 .
A 2 1E(X 2)
-
[E(.~)]2 rz .
.
.
BE(X)I2
1.
A 2 [V(X)F [ .
.I
(A segunda. parte do teo~ema resulta. da observação de que
Cmnentário: Os Teors.
i
7. 1~
. .
~-
vA
2
=IA I.)
'
e 7.13 estabelecem. a seguinte importal).te característica do coeficiente de correlação: O coeficiente de correlação é ~ma medida
do grau de linearidade entre X e Y. V~l<il'es de p próximos de -f- 1 ou - ·r indicam
um alto grau de linearidade, .enquan~ valores de p próximos de O jndiçam ·ralta
de tal linearidade. Valores positivos ~e p mostram que Y "tende a crescer com o
crescimento de _X, enquanto ~alares nekativos· de p Iii.ostr&m que Y tende· a decres-·
cer com valores crescentes de X, Exi~te muito eqU:ivoco sobre a interp"ret&.ção do
coeficiente de correlação. Um valor d~ p próximo de zero indica apenas a ausência M relação linear entre X e. Y. E!~ nãô eliminá a possibilidade de alguma relaÇão nali-lúl€ar.
'
.
.
. .
I
j Exemplo 7 .21. Suponha-se q,ue a
variável aleatória bidimensional (X, Y)
sej~ uniformemente distribuída sobre as
regiões
triangulares·
I
.
y
f------,--71(1, 1)
I R=
R
l(x,y)IO<x<y<l}.
!
(Veja a Fig. 7.9)
fdp \é dada como
Conseqüentemente, a
I
I
· .i
{
(x, y) E R,
f(x, y) ;, , 2,
· ~
i
= ·O,
Fig. 7.9
para outros quais-
quer valores.
I
Por conseguinte, as fdp niargiriaid déX e Y são ·
-
~(x) =
I
1
(2) dy,;
/
~(J- x),
O~ :t ~ 1;
I
h(y) ,;,
11! (2)d~ = ~y,
O
I
I
O~y~l.
\
~I
------- ----.--
-
172 I PROBABIUDADE
Logo,
1
E(X)
=
.
1[1
x2(1- x) dx
=
E(X 2)
[E(X)]2
-
E(XY) =
E(Y) =
3
E(X 2 ) = }o x 2 2(1- x)dx =
V (X)
1
1
= -,
1
1
o
2
y2ydy = - i
3
1
1
6,
E(P) =
18
o
1
2 ;
V(Y) = E(P) - [E(Y)]2 = _!_ ;
18
= __!_,
111Y
y 2 2y dy =
1
xy2 dx dy = - .
4
Portanto,
p
=
E(J( Y) - E(X)E(Y)
VV(X)V(Y)
1
=2
Como já observamos~ o coeficiente de correlação é uma quantidade adimensional. Seu valor não é influenciado pela mudança de
escala. O seguinte teorema pode ser facilmente demonstrado. (Veja
o Problema 7.41.)
Teorema 7.14. Se Pxy for o coeficiente de correlação entre
X e Y, e se V = AX
B e W = CY D, onde A, B, C e D são
constantes, eiJ.tão Pvw = (ACfJACJ)Pxv· (Supondo-se A~ O, C ~ - 0.)
+
+
7.i0. Valor Esperado Condicionado
Tal como definimos o valor esperado de uma variável aleatória X
(em termos de sua distribuição de probabilidade)_igual a f-~"' xj(x) dx
ou .;E;=l x,p(x;), tambêm podemos definir o valor esperado condicionado de uma variável .aleatória (em termos de sua distribuição de
probabilidade condicionada), da seguinte maneira:
Definição. (a) Se (X, Y) for uma variável aleatória contínua
bidimensional, definiremos o valor esperado condicionado de X, para.
um dado Y = y, como sendo
E(X jy)
=
+"'
1
"'
xg(xjy) dx.
(7 .23}
(b) Se (X, Y) for uma variável aleatória discreta bidimensional, definiremos o valor esperado condicionado de X, para um dado
CARACTERIZAÇÃO AIJI!C!ONAL DAS VARiÁVEIS AlEATÓRIAS I 173
Y = y;, como sendo
E(X IYi)
=
L"'
i=l
x;p(x; I Yi) .
(7.24)
O valor esperado condicionado de Y, para um dado X, será
definido de modo análogo.
Oomentários: (a) A interpretação do valor esperado condicionado é a seguinte: Desde que g(xly) representa a fdp condicionada de X para um dado·
Y = y, E(XIy) é o valor esperado de X, condicionado ao evento {Y = y). Por
exemplo, se (X, Y) representar o esforço de tração e a duréza de um espécime de
aço, enj;ão E(XIy = 52,7) será o esforço de tração esperado de um espécime de·
aço escolhido ao acaso da população de espécimes, cuja dureza (medida na Escala
Rockwell) for 52,7.
· (b) :f: importante compreender que, em geral, E(XIy) é uma função de y e,
por isso, é uma variável aleat6ria. Semelhantemente, E(Yix) é uma função de x
e, também, é uma variável aleatória. [Estritamente falarido, E(XIy) é o valo·r
da variável aleafória E(X I Y) .]
(c) Porque E(YIX) e E(XIY) são variáveis aleatórias, terá.sentido falar devalores esperados. Deste modo, poderemos considerar E[E(X IY)l, por exemplo. :f: importante compreender que o valor esperado, interno, é tomado em relação à distribuição condicionada de X, para Y igual a y, enquanto o valor espeya,do, externo, é tomado em relação à distribuição de probabilidade de Y.
BetUI
Teorema 7.15.
(7,.25)
(7.26)
E[E(XI Y)] = E(X),
E[E(YIX)] = E(Y).
Demonstração (apenas para o caso continuo): Por definição,
E(XIy) =,
f
+®
"
f+~
xg(xly) dx = . _.,
x
j~~f
)
dx,
onde fé a fdp conjunta de (X, Y) e a fdp marginal de Y. Por isso,
E[E(X IY)]
=
! +""..
E(X Iy)h(y) dy=
f+"'[f_+"'
] .
_"' . · _.. xf~Cy~) dx h(y) dy.
Se existirem todos os v17lores esperados, será permitido escreyeX'
a integral iterada acima, com a ordem de integração .trocada. Por isso
E[E(XI Y)]
=
1:= [J:"'j(x,
x
y) dy
]dx = J:""xg(x) dx '1, É(X),
174 I PRO.BABBLIDADE
[Um raciocínio semelhante poderia ser empregado para estabelecer a Eq. (7.26).] Este teorema é muito útil, como ilustram os exemplos seguintes.
Exemplo 7.22. Suponha-se que remessas, contendo um número
variável de peças, chegue cada dia. Se N for o número de peças da
remessa, ·a distribuição de probabilidade da variável aleatória N,
será dada assitn:
n:
P(N
= n):
10
0,05
11
0,10
12
0,10
13
0,20
14
0,35
15
0,20
A probabilidade de que qualquer peça em particular seja defeituosa
é a mesma. para todas as peças e igual a O, 10. Se X for o número de
peças defeituosas que chegue cada dia, qual será. o valor esperado
de X? Para um dado N igual a n, X apresentará distribuição binomial. Como N, por sua vez, é uma variável aleatória, procederemos como se segue.
Temos E(X) = E[E(X IN)l. Contudo, E(X!N) = 0,10N, porque
para N dado, X tem distribuição binomial. Conseqüentemente,
E(X) = E(0,10N) = O,lOE(N)
= 0,10[10(0,05) + 11(0,10)
+ 15(0,20)]
+ 12(0,10) + 13(0,20) + 14(0,35) +
= 1,33.
Teorema 7.16. Suponha-se que X e Y sejam variáveis aleatórias independentes. Então
E(X I Y)
= E(X)
e E(Y IX)
= .8(Y).
Demonstração: Veja o Probl. 7.43.
Exemplo 7.23. Suponha-se que o fornecimento energético (quilowatts) a uma companhia hidrelétrica, durante um período especificado, seja uma variável aleatória X, a qual admitiremos ter uma
distribuição uniforme sobre [10, 30]. A demanda de potência (quilowatts) é também uma variável aleatória Y, que admitiremos ser
uniformemente distribuí.da sobre [10, 20]. [Deste modo, em média,
mais potência é fornecida do que é demandada, porque E(X) = 20,
enquanto E(Y) = 15.1 Para cada quilowatt fornecido, a companhia
realiza um lucro de US$ 0,03. Se a demanda exceder a oferta, a
companhia obterá potência adicional de outra fonte, realizando um
lucro de US$ 0,01 por quilowatt desta potência fornecida. Qual será.
o lucro esperado, durante o especificado período considerado?
CARACTERrZAÇÃO ADiCiONAL dAs VARiÁVEIS ALEATÓRiAS/ 175
.
I
Seja T este lucro. Teremos!
i
I
'1' = 0,03Y
se
Y <X,
I
= 0,03X + O,OI(Y- K)
Y >X.
se
I
Para calcular E(T), o escreveremos como E[E(TIX)].
E(Tix)
I=
i"
L
!
0,03y
20
0,03y
1~ [0,015x
=
!
9
20
= { 0,05
,
1~ dy +
1~ dy
2
-
1,5
I
1
.
20
+ 0,02x)
(O,Oly
1
se '20
<x <
+ ~ + 0,4x -
30~
<x<
+ 0,04x -
0~45 se
20
1~ dy
se 10
<
x
<
20,
:...
0,005x2
~ 0,02xz]
se 10
1
se 20
Teremo10
i
30,
<x<
,
I
20,
.
I
0,001X 2 se 10
<x<
< x < 20,
30!.
I
Logo,
E[E(TIX)] =
r
I
~ } 10 (0,051+ 0,04x-
i
1
j+ 20
0,00lx 2)dx +
(30
J 20
~I
0,45 dx ~ $0,43
I
7.11.
Regressão da Média
I
Como já salientamos na seção Ianterior, E(X Iy) é o valor davariável' aleatória E(X I Y) e ·é uma junção de y. O gráfico .desta função
de y é conhecido como a çurva de Iregressão (da média) de X em Y.
Analogamente, o gráfico da funçãp de x, E(Yix) é denominado a
curva de regressão (da média) de Y em X,. Para, cada valor fixalio
y, E(XIy) será o valor esperado da variável aleatória (unidimensional) cuja distribUição de probabiliçlade é definida pela Eq. (6.5) ou
(6.7). (Veja a Fig. 7.10.) Em geral, este valpr esperado dlipenderá
de y. [Interpretações análogas podem ser feitas para E(Yix).r '
176 I IP'ROBAB!U.DADE
E(Y ix)
E(XJy)
·J!
(a)
(b)
Fig.7.11
Exemplc 7.24. Suponha-se que (X, Y) seja uniformemente distribuída sobre o semicírculo indicado na Fig. 7 .11. Nesse csso,
f(x, y) = 2/'if', (x, y) E semicireulo. Portanto,
-1 :::;; :E:::;; ll;
Logo, .
g(x Iy)
I
1
= 2Vl-
h(yix) -
Y2
1
- Vl-
x2
-
V
1 - y2
O:::; y:::;
'
:::;
x :::;
'
V
1 - x 2•
V
1-
y 2 ,·
CARACTERiZAÇÃO ADi CiONAl DAS VARIÁVEiS AlEATÓRiAS I 177
Em conseqüência
=
E(Yix)
-
i.yr-:;;
yh(ylx) dy
r~·y
- }o
V
1
dy=
1 - x2
=
1
r/~=
1 - x2 2 o
V
l
2
_;--
v 1- x 2 •
;Semelhantemen te
{ '
E(XIy)
=
!
+ ·~II-••
_
-v1-11'
xg(xly) dx
=o.
Pode acontecer que ·uma ou ambas as curvas de regressão sejam
de fato linhas retas (Fig. 7.12). Isto é, E(YI;;) pode ~er uma função
linear .de x, ou E(X Iy) pode ser uma função linear de y, ou ambas as
funções podem ser lineares. Neste caso, diremos que a regressão
da média, digamos de Y em X, é linear.
y
Fig. 7.12
Exemplo 7.25. Suponha-se que (X, Y) seja uniformemente distribuída sobre o triângulo indicado na Fig. 7 .13. :Kesse caso,
j(x, y) = 1, (x, y) E T. As seguintes expressões para as ídp marginal e condicionada são facilmente encontradas:
g(x)= 2x,
g(xly) =
Portanto,
O::::; x::::; 1j
2
2
h(y)
_ y , y/2::::; x::::; 1;
E(Yix)
=
2- y
= -2- ' o::;
h(ylx) =
fr/z yh(yjx) dy = fo 2"
y ::::; 2.
'1
x ,
2
y(!/2x)dy
O ~\ y::::; 2x.
= x.
178 I PROBABIUDADE
Semelhantemen te,
E(X Iy)
r! xg(x Iy)dx
=
1
1
-
JY/2
X
Y/2
2
2- y
1
y
dx=--:;-+- •
2
""
Por conseguinte, ambas as regressões de Y em X e de X em Y são
lineares (Fig. 7.14).
y
y
(1, 2)
(1, 2)
T
!Fig. 7.14
Fig. 7.13
Verifica-se que se a regressão da média de Y em X for ~ear,
digamos E(Yix) = aX + {3, po,deremos nesse caso e,q>rimir os ·coeficientes a e f3 em termos de certos parâmetros da distribuição conjunta de (X, Y). Vale o seguinte teorema:
Teorema 7.17. Seja (X, Y) uma variável aleatória bidimensional e suponha-se que
E(X) = J.Lx,
E(Y) = J.Ly,
Seja p o coeficiente de correlação entre X e Y.
de Y em X for linear, teremos
E(Yix) = !J.y
+p
uu (x- J.L,).
u.,
Se a regressão
('1.27)
Se a regressão de X em Y for linear, teremos "
E(XIy)
= Jl.x + P
Ux (y- J.Ly).
fTy
(7.28)
Demonstração: A demonstração deste teorema está esboçada no
Probl. 7.44.
I
.
.
.
CARACTEIFI!ZAÇAO ADICiONAl DAS VARDAVIEiS AliEATORiAS I 179
Comentários:
I
(a) Como foi sugerido pe~a exposição acima, é possível que uma.
das regressões da média seja linear, enquanto ia outra não o seja.
(b) Observe-se o papel decisivo represbnt!do pelo coeficiente de correlação
nas expressões ooima. Se 111 regressão de xj em Y, por exemplo, for linear, e se
p =O, então verificaremos (de novo) que E(X Iy) não depende de y. Observe-se
também que o sinal algébrico de p determiml' o sinal da declividade da reta de regressão.
(c) Se ambas as funções de regressãb forem lineares, verificaremos, pela
resolução simultânea das Eqs. (7.'J:7) e (7.28),! que as retas de regressão se interceptam no "centro" da distribuição, (y.", P-y).
I
I
I
!
Como já salientamos (Ex. 7.23), por exemplo), as funções de
regressão não precisam ser lineares. No entanto, poderemos ainda estar
interessados em aproximar a curva Id e regressão com uma função
linear. Isto é usualmente feito recorrendo-se ao princípio dos mínimos quadrados, o qual neste conte~to é assim enunciado: Escolham-se as constantes a e b de modo \ que E[E(YJX) - (aX b))2 se
torne mínima. Semelhantemente, es,colham-se as constantes c e d,
de modo que E[E(XI Y)- (cY
d)]r se torne miníma.
+
+
b e ~· = cy ~ d são denominadas as aproxiAs retas y = ax
mações de mínimos quadrados às correspondentes curvas de regressão·
E(Yix) e E(X Jy), respectivamente: I O teorema seguinte relaciona
essas retas de regressão àquelas examinadas anteriormente.
+
.
Teorema 7.18. Se y = ax
I
+b
fpr a aproximação de I}Únimos
quadrados a E(Y Ix) e se E(YJx) for de fato uma função linear de x,
isto é
I
I
+ b',
E(YJx) = a'x
então a = a' e b
de X em Y.
= b'. Enunciado báiogo vale para . a regressão
I
Demoru;tração: Veja o Probl. 7.45.
Problemas
I
i
7.1 . Determinar o valor esperado das seguintes vatiáveis alea.t6rias:
(a) A variável aleatória X definida nd Probl. 4.1.
Probl. 4.2.
(b) A variável aleat6ria. X definid&
Probl. 4.'6 .
(c) ,A_ variável ~eatória T definida
(d) k variável aleat6ria. X definida. no, Probl. 4.18.
nd
nd
I
'
l
I
\,
',
7.2. Mostre que E(X) não existe par~ a variável aleatória X defini~& ~.o
Probl. 4.25.
180 I PROBABIUDADE
7.3. Os valores abaixo represent!!m a distribuiçe.o de probabilidade de D,
a ·procura diária de um certo produto. Calcule E(D):
d:
P(D = d) :
1,
0,1,
2,
0,1,
3,
0,3,
4,
0,3,
5
0,2.
7.4. Na produção de petróleo, e temperstura de destila.ção T (graus centígrados) é decisivs na determ ina.çã.o da qualidade do produto final. Suponh&-se
que T seja considerada uma variável aleatória uniformemente distribufda sobre
(150, 300).
Admita-se que produzir · um galão de petróleo . custe C1 dólaz:es . . Se o óleo
for destilado á ums temperatura menor que 200<>C, o produto é conhecido como
nafta e se vende por C2 dólares por galão. Se o .~leo for destilado a uma temperstura maior que 200<>C, o produto é denominado óleo refinado desti.lado e se vende
.
por CJ dólares o galão. Determinar ó lucro líquido esperado (por ga!Ao).
7.5. Uma cert.a. liga é formada pela reunião da mistura em f~o de dois
metais. A liga resultante contém uma certe percentagem de chumbo X, que pode
ser considerada como uma. variável aleatória. Suponha que X tenha a seguinte fdp:
f(x) =
53
o~ z~
l<r5 x(lOO - x),
100.
Suponha-se que P, o lucro líquido obtido pela venda dessa liga (por libra), seja a
seguinte função da percentagem de chumbo contida: P = C1 + C2X. Calcule
o lucro esperado (por libra).
7.6. -Suponha que um dispositivo eletrônico tenha uma duração de vida X
(em unidades de 1.000 horas), a qual é considerada como uma variável aleatória.
contínua, com a seguinte fdp:
·'.
f(x) = e-:r:,
X>
O.
Suponha que o custo de fabricação de um desses dispositivos seja US$ 2,00. O
fsbricante vende a peça por US$ 5,00, mas garante o reembolso tot.a.l se X::::_ (),9.
Qual será o lucro esperado por peça, pelo fabricante?
.
7.7. As 5 primeiras repetições de um experimento custam US$10 cada.uma.
'I'odru; as repetições subseqüen'tes custn.m US$ 5 cada uma. Suponha que o experimento seje. repetido até que o primeiro resultado bem sucedido ocorra. Se· a
probabilidade de mn resultado bem sucedido for sempre iguai a 0,9, e se as repetições forem independentes, qual. será o custo esperado da operação complete?
7.8. Sabe-se que um lote contém 2 peças defeituosas e 8 nã.CHI.efeituoses.
Se essas peças forem inspecionadas ao acaso, uma após outra, qual será o número
esperado de peças que devem ser escollúdas para inspeção, a fim de removerem-se
todas as peças defeituosas?
7.9. Um lote 'de 10 motores elétricos deve ser ou totalmente rejeitado ou
vendido, dependendo do resultado do seguinte procedimento: Dois motores
f!Ji.o es_colhidos ao acaso e inspecionados. ·Se um ou mais forem defeituoooo, o
lote será rejeitado; caso contrário, será aceito. Suponha que cada motor custe
US$ 75 e seja vendido por US$ 100. Se o lote contiver 1 motor defeituoso, qual
será. o lucro esperado do fabricante?
CARACTEIFIRZAÇÃO ADiCIONAL DAS VAifUÃVIERS AlEATÓRiAS I 181
7.10. Suponha que D, a demanda diária de uma peça, seja uma variável
aleatória com a seguinte distribuição de probabilidade:
1
•
P(D
=
d)
=
C2ajd!,
d
=
1' 2, 3, 4.
(a) Calcule a constante C.
(b)
Calcule a demanda esperada.
Suponha que urna peça seja vendida por US$ 5,00 Um fabricante
produz diariamente K peças. Qualquer peça que não .tenha sido vendida ao fim
do dia, deve ser abandonada, com um prejuízo de US$ 3,00. (i) Determine a
distribuição de probabilidade do lucro diário, como uma função de K. (ii) Quanws peças devem ser fabricadas para tomar máx.imo o lucro diário esperado?
(c)
7.11 . (a) Com N =50, p = 0,3, efetue alguns cálculos para achar.qual o
valor de k minirnizaE(X) no Ex. 7 .12.
(b) Empregrando os valores acima de N e p, e tomando lc = 5, 10, 25,
determine, para cada um desses valores de k, se o "teste de grupo" é preferível.
7.12. Suponha que X e Y sejam variáveis aleatórias independentes, com
as seguintes fdp:
J(x) =
8/r,
X>
2;
g(y) = 2y,
o< y < 1.
Determine a fdp de Z,;, XY.
(a)
Obtenha E(Z) por duas maneiras: (i) empregai;!.do a fdp de Z, como
foi obtida em (a); (ii) Diretamente, sem empregar a ídp de Z.
(b)
7.13.
Suponha que X tenha a fdp: j(x)
=
Sfr,
(a)
Calcule E(W), empregando a fdp de W.
(b)
CeJcule E(W), sem empregar a fdp de W.
7.14. Um dado equilibrado é jogado 72 vezes.
de vezes que aparece o seis, calcule E()(l ).
x
> 2.
Seja W
=
(lj3)X.
Chamando de X o número
7.1!i. Determine o valor esperado e a variância das variáveis aleatórias Y e Z
do JP'robl. 5.2.
7.16. Determine o valor C:,!peyado e a variância da variá.vel aleatórie Y do
lP'robl. 5.3.
7.17. Determine o valor esperado e a variância das variáveis aleatórias Y e Z
do Probl. 5.5.
7.18.
Determine o valor espern.do e
a variância
das variáveis Y, Z e W do
lP'robl. 5.6
V e
7.19. Determine o valor esperado e a variância. das variáveis ·slentórias
S do Probl. 5.'!.
'1.211. Determine o valor esperado e a variâncis de variável Y do Probl. 5.10,
am cuis um dos três casoo.
7.21. Determine o valor espe,rado e . a ve.riânci& da variável aleatóri:~. A
do lP'robl. 6.'1.
7.22. Determine
dlo Pl"obl. 6. 11.
o valor e.~per~o
e
11
variância da. variável
~tle~tórh;l H
1_,
!I
l
,,l:t
[~11
182 I PROIBABIUDADE
'I
I!j
'I
li
7.23. Determine o valor esperado e a variância da; variável aleat6ria
Probl. 6.13.
i :,
7.24. Suponha que X seja uma variável aleatória, para a ,qual E(X) = 10
e V(X) = 25. Para quais valores positivos de a e b deve Y = aX - b ter valot
esperado O e variância 1 ?
\i !;~;l !I. i:~.
r
,/
I
~l:l
7.25, Suponha que S, uma _tensão aleatória, varie entre O e 1 volt e seja
uniformemente distribuíd-a sobre esse intervalo. Suponha que o sinal S seja perturbado p~r um ruído aleatório indepe~dente, aditivo, N, o qual seja uniformeme_nte distribuído;> entre O e 2 volts.
i
' :'1 nj
1
'I
.!1
!
I
I
~11
t{~:ii!l[
(a) Determine a tensão esperada do sinal. levando em conta o ruído.
.;;
!:)!·
~
t~:iil
':]!
'l~l'·~r~~ll' ll~
i!l!
·;li
):i·
'•t·:!,11'l1'1;11
• ·lt ill;
;
~ l"'!:Jt,l'!''
'ni'·
'/
W do
); !"~!i .
" ·····
fi
ji~~;
:!, 1,
~~~-'1~ li,,
1\;.
ffi
,,liI'
'iii.
":!lii
'
1
1 ~ 1 ' 11
I!;[
_il!biI ,.r,
tm~ 1 1 :111
. ~,~ -- i[;!
1\ír!l·!ii
'111'··!
I':..
""i['l
(b) Determine a potência esperada quando o sinal perturbado for aplicado
a um resistor de 2 ohms.
7.26. Suponha que X seja uniformemente distribuída sobre [ -: a, 3a].
termine a variância de X.
De-
7.27. Um alvo é constituído de três círculos concêntricos de raios 1/v3; 1,
e V3. Tiros dentro do ~lrculo interior valem 4 pontos, dentro do anel seguinte
valem 3 pontos, e dentro do anel exterior valem 2 pontos. Tiros fora do alvo
valem zero. S0ja R a variável-aleatória que representa a distância do ponto de
impacto ao centro do alvo. Suponha que a fdp de R seja j(r) = 2{-rr(l + r'Z),
r > O. Calcule o valor esperado do escore depois de 5 tiros.
7.28.
Suponha que a variável contínua X tenha a fdp
j(x) =
2xe-r,
X~
0.
Seja Y =X'-. Calcule E(Y): (a) Diretamente, sem primeiro obter a fdp de Y.
(b) Primeirame!_lte, obtendo a fdp de Y.
7.29. Suponha que a vaxjável aleatória bidimensional (_X, Y) seja uniformemente distribuída sobre o triângulo da Fig. 7.15. Calcule V(X) e _V(Y).
( 1,,.,
'I'!'
I' j'i:l
'1,[':I
,; 'iii
y
ld:r
'11;
'ir'
(2, 4)
ii. ·:
!I
~: lJi~!l·!(
···ii-:1
I'
~' i'!!jJ [
,_,,,,,,
: J~l,l'
~
~
I
11~1- ,
;;l,l l',;
~
"j
'i'''':[
Uj·i
i:i}tji
I
If"r'H
Fig. 7.15
l l!t:ii
fi' ii:·:!
!i!lj:f '
!liJfii
I
t'!
;n~. ! lr1 l~·i'I
~)f.:ii.!il
Fig. 7.16
7.30. Suponha que (X, Y) seja unüonnemente distribuída sobre o triângulo da Fig. 7.16.
(a) Estabeleça a fdp marginal de X e 111 de Y.
(b) Calcule V(X) e V(Y),
!
CARACTERI2AÇÃO ADJCIONAL -Dl SVARIÃVEIS AlEATÓfliAS l 183
7.31. Suponh& que X e Y sejjI · variáveis mleatórioo
para oo quais
.
.E(X) = p.,., E(Y) =lly, V(X) =· ~r,}, e V{IY) =<rl. Empregmndo o Teor. 7.7,
obtenha uma aproximaçittbde E(Z) e V(Z), jonde Z = X/Y.
7.32. Suponha
qu~
X e Y sejam
v~á.veis eJ.e~tórias
indepàndentA:s, cmdl!.
uma delas uniformemente distribuída sobrjl (1, 2). Seja Z = X/Y.
·
(a) Empregando o Teor. 7.7, obtenpa expressões aproximadas para E(Z)
a V(Z).
1
(b) Empregando o Teor. 6.5, obteruJ a fdp de Z, a a seguir, determine oo
I
vll.llores exmtos de E(Z) e V(Z). Comparej<>s com (a).
7.33. Mostre que se X for ~ma va~vel aleatória contíÍma, com fdp j tendo
propriedade de que o gráfico de j sejaJ simétrico em relação & z = a, entã.o
E(X) =a, desde que E(X) exista. (Veja o Ex. 7.16.)
.
111
7.34. (a) Suponha que a variável eJ.Ja.tória X tome os valores -1 e 1, c!Mlm
um deles com probabilidade 1/2. Consid~re P[ IX- E(X)I 2:: k v'v(X}] como
uma função de k, k > O. Em um gráfico) marque esta função de k e, no mesmo
sistema de coordenadas, marque o limitei superior da ·probabilidade acima, tal
COIW) é dada. pela. desigualdade de Tchebylheff.
O mesmo que em (a), exceto qj P(X
(b)
= -
1)
=
1/3, P(X
=
1)
2/3.
=
7.35. Compare o limite superior da probabilidade P[ IX- E(X) I 2:: 2 VV(X)l,
· obtida pela desigualdade de Tchebycheff, <iam a. probabilidade exata se X for unij.
formemente distribuída sobre (-1, 3).
7.35. Verifique a. Eq. (7.17).
i
7.37. Suponha que a variável alea.Jsria. bidimensional (X, Y) seja unifor1
memente distribuída sobre R, onde R é ·definida por ((z, y) Iz2 + y2 2 1, y 2:: Ol .
(Veja a Fig. 7.17.) Calcule p"'Y, o coefici~nte de correlaÇão.
7.38~ Suponha · que a variável aledtória bidimensional (X, Y) tenha fdp
l
dada. por
j(x, y) = ke""11,
IO < z < y < l
= -0, para.1 quaisquer putros valores.
(Veja a Fig, 7.1!3.) Detennine o coefrciente de oon:elação Pzu·
I
y
.
I
I
I
I
I
-1
FiiiJ. 7.17
I
~ig.
7.18 ·
7.~9. O exemplo segúinte ilustra ~ue p =O não significa independência.
Suponha que (X, Y) tenha uma distribui~o de probabilidade conjunta d11-da pele.
Tab. 7.1.
!
·
.·
·
·.
\
184 I PROBABILIDADE
(a) Mostre que E(XY) = E(X)E(Y) e conseqüentemente p =O.
(b) Explique por que X e Y não são independentes.
(c) Mostre que este exemplo pode ser generalizado como se segue. A escolha do número 1/8 não é decisiva. O que é importante é que todos os valores circundados sejam· iguais, todos os vm.lores enqWIIdrados sejl!m iguais e o valor central seja zero.
'I.I
i
Tab. 7.1
I>< CD
- I
o
i
[}] CD
o [I] o []]
-I
I
CD
w CD
7 ..00. Suponha que A. e B sejam dois eventos associados ao experimento e.
Suponhs que P(A) > O e P(B) > O. Sejam as variáveis aleatórias X e Y definidas =im:
Mostre que P:rv
7.41.
X
=
1 se A. ocorrer, e O em caso contrário,
Y
=
1 se B ocorrer, e O em caso contrário.
=
O
·implica que X e Y sejam independentes.
Demonstre o Teor. 7.14.
7.42. Para a variável aleatória (X, Y) definida no Probl. 6.15, calcule E(Xjy),
E(Yjx), e v~rifique que E(X) = E[E(XIY)] e E(Y) = E[E(YjX)].
7.43.
Demonstre o Teor. 7.16.
7.44. Demonstre o Teor. 7.17. [SugesUw: Para o ci!SO contínuo, multiplique a equação E(Y.lx) = Ax + B por g(x), a fdp de X, e integre de - <D 111 m,
Faça a mesma coisa, empregando xg(x) e, depois, resolva ru> duas equações resultantes para A e para B.]
7.45.
DemolllStre o Teor. 7.18.
7.46. Se X, Y e Z forem variáveis m.leatóri&s não-correlacionadas, com
desvios-padrões 5, 12 e 9, respectivamente, e se U = X + Y e V = Y + Z, cal..,
cule o coeficiente. de correlação entre U e V.
7.47. Suponha que ambas as curvas de regressãO da média. sejam, de fato,
lineares. Particularmente, admita. que E(Y)jx) = - (3/2)x- 2 e E(Xjy) =
= - (3/5)y - 3.
(a)
Determine o coeficiente de correlação p.
(b) Determine E(X) e E(Y).
CARACTERfiZAÇÃO ADICRONAL DAS VARIÃVEIS AlEATÓRiAS I 185
7.48. Considere a previsão de tempo com duas possibilidades: "chove" ou
"não chove" nas próximas 24 horas; Suponha que p = Prob (chove nas próximas
24 horas > 1/2). O previsor marca 1 ponto se ele estiver correto e O ponto se não
estiver. Ao fazer n previsões, um previsor sem capacidade escolhe de qualquer
maneira, ao acaso, n dias, (O< r < n) para afirmar "chove" e os restantes n- r
dias para afirmar "não chove" . Seu escore total de pontos é Sn . Calcule E(Sn) e
V ar (Sn) e encontre qual o valor de r para o qual E (Sn) é o maior. (Sugestão:
F aça Xi = 1 ou O, dependendo de que a i-ésima previsão esteja correta ou não .
Então, Sn =
:Ef= 1 Xi. Observe que os xi não são independentes.]
\.
'.
Variáveis Aleatórias Discretas:
A de Poisson e Outras
Capítulo 8
8,1,
A !Distribuição de Poisson
Tal como nos modelos determinísticos, nos quais algumas relações funcionais desempenham importante papel (como por exemplo
a linear, a quadrática, a exponencial, a trigonométrica etc.), também
verificamos que, na construção de modelos não-determinísticos para
fenômenos observáveis, algumas distribuições de probabilidade surgem mais freqüentemente que outras. Um motivo para isso ~ que,
da mesma maneira que no caso determinístico, alguns modelos matemáticos relativamente si~ples parecem ser capazes de descrever uma
classe bastante grande de fenômenos.
Neste capítulo, estudaremos bastante pormenorizadamente, algumas variáveis aleatórias discretas. No capitulo seguinte, faremos
o mesmo para variáveis aleatórias contínuas.
Vamos apresentar. rigorosamente a seguinte variável aleatória.
Depois, indicaremos sob quais circunstâncias esta variável aleatória
poderá representar o resultado de um experimento aleatório.
Definição. Seja X uma variável aleatória discreta, tomando os
seguintes valores: O, 1, . .. , n, . . . Se
P(X= k)
e--a ak
= -k!-
I
k.
= O, 1, ...~ n, ... ,
(8.1)
diremos que X tem distribuição de Poisson, com parâmetro a > O.
Para verificar que a expressão. acima representa uma legítima
distribuição de probabilidade, basta observar q~e
L;;=oP(X =
k) =
L,;;=o (e--aakfk!) =
e,_,.e" = 1.
VARIÁVEiS ALEATÓRiAS DISCRIE~AS: A DE POISSON E' OUTRAS I 187
I
i
Já que estamos definindo a variável aleatória diretamente em
Comentário:
termcs de seu contradomínio e distribbição de probabilidade, sem referência a
qualquer espaço amostral subjacente
poderemos snpor que o espaço amostral
S tenha sido identificado coin Rx e qt.Íe X(s) = s. Isto é, os resultados do experimento são apenas os números O, 1, 2j .. . e as probabilidades ·associadas a cada
um desses resultados são dadas pela. Eq.!I (8.1).
s,l
Teorema 8.1. Se X tiver ~istribuição de Poissón ·com parâmetro a, .então E(X) ;, a e V(X) I= a.
i
Demonstração:
E(X)
Fazendo-se s
=
E(X)
.
=.L
k~O
:t ~-e-«_a_k-.-:
(k - 1)!
~~
,t~;
k=1
·"'
L
s~o
~~
e-"a'~ l=aLj
"' e-"a'
=a.
8! I
s~O
8!
1
~·
!i
~
I
= L .k
"'
k~O
2 --a
~
J
j
f~
r;,
e a '
k!
•I
~f
Fazendo, novamente, 8 = k-- 1,!obteremos
I
e-a.as+ 1
e--aa'
2
E(X ) = L (s + 1)
= a s:[:
8 --+ a
o~O
s!
~o
s!
1 Ol
(I)
I
:j'
co
e-aas
~
=
E(X 2 )
I
-
[E(X))Z
l?i
L-= a +a
s!
:i
2
s=O
(porque o primeiro somatório rewesenta E(X), enquanto o segundo
é igual a um]. Portanto, ·
V(X)
jf,
1; verificamos que a expressão se torna
k -
Semelhan temente,
E(XZ)
I
k!
= a 2 + a - a 2 = a.
Comentário: NotEHJe a. interessante / propriedade que uma 1variável aleatória
de Poisson apresenta.: seu valor esperadt é igual a sua variância.
,.1
~
t·
~~:
lif~f'
t~
'~
1i'
f
i:
8.2. A DistriblUiição de Poisson! Como AproJtimação :
da Distrib111ição Binomial 1
A distribuição de Poi~son reJresenta U:m papel muito importante,
por si mesma; como um modelo probabilístico adequado para um grande número de fenômenos 'aleató~os. Explanaremos isso na próxima
seção. Aqui, trataremos da impo~tância dessa dist'ribuição como uma
aproximação das probabilidades bihomiais.
I
.
Exemplo 8.1. Suponhamos que chamadas telefônicas <;heguem a
período particular de três 'horas
uma grande central, e que em
fn
ni'
i
t
~
188 I PROBABI LIDADE
(180 minutos), um total de 270 chamadas tenham sido recebidas, ou
seja, 1,5 chamadas por minuto. Suponhamos que pretendamos, com
base nessa evidência, calcular a probabilidade de serem recebidas O,
1, 2 etc. chamadas durante os próximos três minutos.
Ao considerar o fenômeno da chegada de chamadas, poderemos
chegar à .conclusão. de que, a qualquer instante, uma chamada telefônica
é tão provável de ocorrer comoem qualquer outro instante . Assim, a
probabilidade permanece constante de "momento" a "momento". A dificuldade é que, mesmo em um intervalo de tempo muito pequeno, o
número de pontos não é apenas infinito, mas n~o pode ser enumerado.
Por isso, seremos levados a uma série de aproximações, que descreveremos agora.
Para começar, poderemos considerar o intervalo de três minutos
subdividido em nove intervalos de 20 segundos cada um. Poderemos
então tratar cada um desses nove intervalos como uma prova de
Bernouilli, durante a qual observaremos uma chamada (sucesso) ou
nenhuma chamada (insucesso ou falha), com P (sucesso) = (1,5)
(20/60) = 0,5. Desse modo, poderemos ser tentados a afirmar que a
probabilidade de duas chamadas durante o intervalo de três minutos
[isto é, 2 sucessos em 9 tentativas com P (sucesso) = 0,5] seja igual a
(~)(J/2) 9 = 9/128.
A dificuldade com esta aproximação é que estamos ignorando as
possibilidades· de, digamos, duas, três etc. chamadas durante um dos
períodos experimentais de 20 segundos. Se essas possibilidades fossem
consideradas, o emprego da distribuição binomial indicado não poderia
ser legitimado, porque essa distribuição é aplicável somente quando
existe uma dicotomia: uma chamada ou nenhuma chamada.
É para eliminar essa dificuldade que nos voltamos para a aproximação seguinte e, de fato, seremos levados a uma inteira seqüência de
aproximações. Uma das maneiras de estar provavelmente certo de que
ao menos uma chamada será recebida na central, durante um pequeno
intervalo de tempo, é fazer esse intervalo muito curto. Assim, em vez de
considerar nove intervalos de 20 segundos de duração, vamos, a seguir,
considerar 18 intervalos, cada um de dez segundos de duração. Agora
poderemos representar nosso experimento como 18' provas de Bernouilli,
com P (sucesso) = P (entrar chamada durante o subintervalo) = (1,5)
(10/60) = 0,25. Conseqüentemente, P (duas chamadas durante o inter-
valo de três minutos)=
C~J (0,25)2
(0,75l 6 . Observe-se que, não
obstante, agora, estarmos tratando com uma distribuição binomial
VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 189
diferente da anterior (isto é, tendo parâmetros n = 18, p = 0,25, em
lugar de n = 9, p = 0,5), o valor esperado np é o mesmo, a saber, np =
= 18 (0,25) = 9(0,5) = 4,5.
Se continuarmos nesta maneira, aumentando o número de subinter- ·
valas (isto é, n), faremos, ao mesmo tempo, decrescer a probabilidade
de chegar uma chamada (isto é, p ), de tal maneira que np fique constante .
Portanto, o exemplo precedente nos leva a formular a seguinte
pergunta: que acontece .com as probabilidades binomiais (
Z) pk
(1 - p )n - k, se n--* oo e p--* O, de tal maneira que np permaneça constante, digamos np =ex?
O cálculo seguinte leva à resposta desta questão muito importante.
Consideremos a expressão geral da probabilidade binomial,
P(X
= k)
=
(~ )p,.(1 -
p)n-<c
=
n!
k
.....Jc
k!(n - k)! p {l - p) =
n(n- l )(n- 2) .. . (n- 1c
k!
+
1)
Façamos np = ot. Daí, p = ot/n, e 1 - p = 1 - afn = (n - a)/n.
Substituindo todos os termos que contenham p . por sua expressão
equivalente em termos de ot, obteremos
P(X
=
k)
=
n(n- 1).
(n ~
1)( 2) (
··~~- k + 1) (~f
1
= otk!' [ (1) ( 1 -
-;
1 - -;
~~ [ (1) ( 1 ~ ~) ( 1 -
otr-k _
1)' ]( 1 --;;-a ]"-k
- . . . 1 - k- n
!)... (
1 -- k
~
1
)] X
X(1- ;r(l .- :rk
Agora, façamos n --+ m, de tal modo que np = ot permáneçil, constante. Evidentemente, isto significa que p --+ O, enquanto n --> oo,
f~J, E :: ~:,
~
r·i·
!~i::,:
I
· 190 I PROBABIUDADIE
\:~i.-r·: ~
n:·::· .
porque de outro modo np não poderia ficar constante. (Equivalentemente, poderíamos impor que n ~ co e p ~ O, de ·tal modo que
!i:~ r
··],;
:.u·:.
np~a.)
-~ ~~J!, .
11
J
I
'
I
~
l
i
::I
j:
!' •' !
\:·;:
;.i•I:
.! :i
'
ti!:l'li•l 'i lt:ll
I'
' .ii
1111 iini:!,
~~1íjl!l
jiill''l i': l
.i
Na expressão acima, os termos da forma (1 - 1/n), (1 - 2/n), . . .
se aproximam da unidade à medida que n tende para infinito, o que
dá (1 - afn)-~<. f} bem conhecido (da definição do número e) que
(1 - afn)" ~ e- quando n ~ "".
Por isso, Iim ,._,, P(X = k) = e- ak/k!. Isto é, no limite,
obteremos a distribuição de Poisson com parâmetro .01. . Vamos resumir este importante :resultado no seguinte teorema:
Teorúna 8.2. Seja X uma variável ahiatória distribuída binomialmente com parâmetro p (baseado em n repetições de um experimento). Isto é,
t'·
~~~:!·I j,[:''';!
~iiL !!·:!!
.jfjl;]fll
lilffi!ir!ii1'i l
·r
'
l:i: t!j
rii 1·1:
' lll
:'1!; ;:
' 1\l:;il :i Iii::
~~i;:l:
!tí'( I,H,I'
t,il'l-
li\j'l
ii111
~ ~ ;i:
Ir
\!iil
! ·:::,l 1,:rl·
I ,':~~ i: 1,;!i~l
l' i !
;!i'it J ,.,
•' I
~~~I .i
, !t
J:j:.l!~" ~ :1I
:''' I'
'.iit
·ii: H·I
~i}:' ir
,.,I
H
'ii
' !'
.l:;i,
f;j
li l!i!i,il
I·
[
i[!'
'··'···I
t
1!1:..
:~ ;
i!lii!l
:'II
~~
,;
:
!
mnr:
l :i
ilii:!i
!'"!.:;!i
~~r
::!
e-mOt.k
lim. P(X = k) = - - - ,
,_,..
k!
que é a distribuição de Poisson com parâmetro a.
Comentários: (a) O teorema acima diz, essencialmente, que poderemos
obter uma aproximação das probabilidades binomiais com as probabilidades da
distribuição de Poisson, toda ve~ que n seja grande e p seja peq,ueno.
(b) Já verificamos que se X tiver uma distribuição binomial, E (X) = np,
enquanto se X tiver uma distribuição de Poisson (com parâmetro a), E(X) == a.
(c) A distribuição binomial é caracterizada por dois parâmetros, n e p,
enquanto · a distribuição de Poisson é caracterizada por um único parâmetro,
a == np, o qual representa o número esperado de sucessos por unidade de tempo
(ou por unidade de espaço em alguma outra situação). Esse parâmetro é também
conhecido com a intensidade da distribuição. É importante distinguir entre o
número esperado de ocorrências por unidade de tempo e o número esperado de
ocorrências em um período de tempo especificado. Por exemplo, no Ex. 8.1, a
intensidade é 1,5 chamadas por minutos e, portanto, o número esperado de chamadas em, digamos, um período de 10 minutos seria 15. "
(d) Poderemos também considerar o seguinte raciocínio para avaliannos a
variância de uma variável aleatória de Poisson X, com parâmetro a: X pode ser
considerado como um caso limite de uma variável aleatória distribuída binomialmente Y, com parâmetros n e p, onde .n--+ oo e p _,.O, de tal modo que np--+ a.
Desde que E(Y) = np e Var(Y) = np (1- p), nós observamos que, no limite,
Var(Y) --+ a.
·
il!
!~i
Admita-se que quando n ~ "", fique np = 01. (const.), ou equivalentemente, quando n ~ "", p ~O, de modo que np ~a. Nessas
•Condições teremos
j, •
r:
,!!!
·~
~'~!
I
VARIÁVEIS ALEATÓRIAS DISC T ETAS: A DE POISSON E OUTRAS I 191
tábu~s
· ·~i·
~
Já existem extensas
da distribuição de Poisson. (E. C.
Molina, Poisson's Exponential j Binomial Limit, D. Van Nostrand
Company, Inc., New York, 1942.) Uma tábua resumida desta distribuição está ·apresentado no Apêndid,e (Tábua 3):
I
g;
Vamos apresentar três
da distribuição de Poisson.
·~
~:t
:~.
-,;,~'!/
11·"'
[i
~,
~l
I~i
Ii~
.~[(
·~~
exe~plos
I
I
,
Exemplo 8.2. Em um cruzamento de tráfego intenso, a probabilidade p de um carro sofrer uni acidente é muito pequena, digamos ·
p = 0,0001. Contudo, durante! certa parte 1 do dia, por exemplo das
16 às 18 horas, um grande número de carros passa no cruzamento
(1000 carros, admitamos). Ness~s condições, qual é a probabilidade de
que dois ou mais acidentes ocorr~m durante aquele período?
.
Vamos fazer algumas hipót~ses. Dever{1mos admitir que p seja a
mesma para todo carro. També~ deveremo~ supor que o fato de um
carro sofrer o~I não um acidente Inão depende do que ocorra a qualquer
outro carro. (Esta hipótese, ob~amente, não corresponde à realidade,
mas, apesar disso, a aceitaremos.) Assim, poderemos supor que, se X
for o número de acidentes ent}e os 1000 parros que chegam, então.
X terá distribuição binomial corrb = 0,0001. (Outra hipótese que faremos, não explicitamente, é que
o número de carros que passam no
cruzamento entre 16 e 18 horas, é prefixado em 1000. Obviamente,
.
I
.
um tratamento mais realista seFia considerar o próprio n como uma
variável aleatória, cujo vaior
dep~nda
de um mecanismo casual. Contu.
I
do, não faremos isso, e tomare*os n como pré-fixado.) Deste modo,
poderemos obter o valor exato d~ probabilidade procurada:
n,
P(X~
I
2) = 1- [Jf(X= O)+ P(X= 1)] =
= 1- (0,9999) 1000
:~;~.{~.
~1~
I
I
a mais, que ilustram a aplicação
- 11000(0,0001)(0,9999)999 •
I
Considerável dificuldade sulrge para o cálculo desses números.
Como n é grande e pé pequeno!, poderemos aplicar o Teorema 8.2, e
obter a seguinte aproximação: I
.
i e-o,I (O 1,k
P(X~k)~
'r
k!
Conseqüentemente,
F(X~ 2) ~ 1- e~ 0 ' 1 (1 + 0,1) = 0,0045.
192 I I?ROBABflUDADIE
Exemplo 8.3. Suponha-se que um processo de fabricação produza peças de tal maneira que uma determinada proporção (constante) das peças p seja defeituosa. Se uma partida de n dessas peças
for obtida, a probabilidade de encontrar exatamente k peças defeituosas pode ser calculada pela distribuição binomial como igual a
P(X = k) = (~)pk(l - p)"-k, onde X é o número de peças defeituosas na partida. Se n for grande e p for pequeno (como é freqüentemente o caso), poderemos aproximar a probabilidade acima por
Suponha-se, por exemplo, que um fabricante produza peças, das quais
cerca de 1 em 1.000 sejam defeituof.fas. Isto é, p = 0,001. Daí,
empregando-se a distribuição binomial, encontraremos que em uma
partida de 500 peças, a probabilidade de que nenhuma das peças
seja defeituosa será. (0,999) 600 = 0,609. Se aplicarmos a aproximação de Poisson, esta probabilidade poderá ser escrita cerno
e-0 •6 = 0,61. A probabilidade de encontrar 2 ou mais peças defei·tuosas será, de acordo com a aproximação de Poisson, 1 - e-M(l .+
0,5) = 0,085.
+
Exemplo 8.4. [Sugerido por uma expostçao contida em A.
Renyi, .Çálculô de Probabilidade (em alemão) VEB Deutscher Verlag
der Wisaenschaft, Berlim, 1962.1
Na fabricação de garrafas de vidro, partículas pequenas e duras
silo encontradas no vidr() em fusão, com o qual se fabricam as garrafas.
Se uma. única dessas partículas aparece na garrafa, a garrafa não
pode ser utilizada e deve ser jogada fora. Pode-se admitir que as
partículas estejam aleatoriamente espalhadas no vidro em fusão.
Devemos supor que o vidro em fusão seja produzido de ta:l maneira
que o número de partículas seja (em média) o mesmo para uma quantidade constante de vidro em fusão. Suponha-se, em particular, que
em 100 kg de vidro em fusão sejam encontradas x dessas partículas e
que seja necessário 1 kg de vidro em fusão para fabricar uma ga;rafa.
Pergunta: Que percentagem das garrafas terá de ser jogada
fora pelo fato de serem defeituosas? A primeira vista, a "solução'·
deste problema poderia ser a seguinte. Visto que o material par~
100 garrafas contém x partículas, haverá aproximadamente x pol
cento de garrafas que deva ser· jogada fora. Um pouco de reflexãc
mostrará, no entanto, que essa solução não é correta, porque umf
garrafa defeituosa poderá conter mais de uma partícula, deste mod<
VARiÁVEIS ALIEA'l"ÓROAS DISCRETAS : ADIE POUSSON E OUTRAS I 1~3
reduzindo a percentagem das garrafas defeituosas obtidas a partir
do material restante.
A fim de obtermos uma solução "correta", vamos fazer as seguintes hipóteses simplificadoras: (a) Cada particula aparece no
material de cada garrafa com igual probabilidade, e (b) a distribui~
ção de qualquer partícula especifica é independente da de qualquer
outra partícula específica. Com essas hipóteses, poderemos reduzir
nosso problema ao seguinte modelo de "urna":-n bolas são distribuídas ao aca.So por N urnas. Qual é a probabilidade de que, em uma
urna escolhida aleatoriamente, sejam encontradas exatamente k bolas? (As urnas, evidentemente, correspondem às garrafas, enquanto
as bolas correspondem às partículas.)
Chamando de Z o número de bolas encontradas em uma urna
escolhida aleatoriamente, decorre das hipóteses acima que Z é binomialmente distribuída com parâmetro 1/N. Por isso
P(Z = k) =
(~) (~r
(
1_
~r-~
Suponha-se, agora, que o vidro em fusão seja preparado em quantidades muito grandes. De fato, suponha-se que seja preparado em
unidades de·lOO kg e que M dessas unidades tenham sido fornecidas.
Portanto, N = 100M e n = xM. Façamos a = x/100, que é igual à
proporção de particulas por garrafa. Conseqüentem-ente, N = nfa
e a probabilidade acima pode ser escrita como igual a
Deste modo, à medida que o processo de produção continuar (isto é,
queM-+ oo e portanto n -+ oo), obteremos
Vamos calcular a probabilidade de que uma garrafa deva ser jogada
fora. Ela será igual a 1 - P(Z = 0). Conseqüentemente, a P(uma
garrafa defeituosa) ~ 1 - e'""' 100 • Se o número de garrafas fabricadas for bastante grande; poderemos identificar a probabilidade de
uma garrafa defeituosa com a freqüência relati'va das garrafas defeituosas. Por isso, a percentagem de garrafas defeitdosas . será,
aproximadamente, 100(1- e""'' 100). Se desenvolvermos · 100(1 -
~
194 I PROBABDUDADE
- e-4/Ioo) pela série de Maclaurin, obteremos
100 [ 1 - ( 1 -
x
100
+
x2
2(100)2 -
xs
3!(100) 8
+ ... )] =
Portanto, se x for pequeno, a proporçã<> de garrafas jogadas fora
será aproximadamente x, como inicialmente sugerimos. No entanto, para x grande, isto não valerá mais, Na situaçao em que
x = 100, a percentagem de garrafas jogadas fora não será 100, mas
em vez disso 100(1 - e- 1) = 63,21 por cento . Este constitui, na~
turalmente, um caso extremo e não seria encontrado em um 'processo
· de fabricação razoavelmente controlado. Suponha-se que x = 30
(um número mais próximo da realidade). Nesse caso, em vez de
jogar fora 30 por cento (nossa solução inicial, novamente), somente
jogaríamos 100(1 - e-0•8) = 25,92 por cento. Poderíamos observar
que se x fosse razoavelmente grande, seria mais ec~nômico fabricar
garrafas menores. Por exemplo, quando for necessário apenas
0,25 kg de vidro ·em fusão por garrafa em vez de 1 kg, e se x = 30,
então a percentagem jogada fora se reduzirá de 25,92 por cento para
7,22 por cento.
8.3,
O Processo dle IPoisson
Na seção anterior, a distribuição de Poisson foi empregada como
um recurso de aproximação de uma distribuição conhecida, a saber,
·a binomial. No entanto, a distribuição de Poissom exerce por si
mesma um papel extremamente importante porque ela representa
um modelo probabilistico adequado pari!.. wn grande número de fienômen.os ob~erváveis.
·
Muito embora noo venhamos a dlax umà d.ed:ução completamente
rigorosa de alguns dos resUltados que iremos apresentar, o tmtamento
gemi é de tal i.mporla.ncia que valerá a ·pena- oomprooridê-lo, mesmo
que não po.ssamos d,emonstrnr cada pasaagem.
Com o objetivo de aludir a um exemplo específico, enquanto
formos apresentando os detalhes matemáticos, vamos considerar
uma fon~ de. material radi()ativo, que emita partímlls.s a. Seja Xt
definido como o número de partículas emitidas durante um períOdo
especificado de tempo .[O, t)~ Devemos fazer algumas hipóteses sobre
!
VARiÁVEiS ALEATÓRIAS
i!>
DDSCRIE~AS:
variável aleatória (discreta) Xt,
L
A DE POISSOI\I E ~UTRAS I 195
quais nos, pe,mritiroo estabelecer
~~> distribuição de probabilidade d~ Xe. A plausibilidade dessas hip6t.eses (recordando o que Xe rep~esenta) é fortl!.lecida pelo fato de
que a evidência empírica aceita, ~m grau bastante oo~derá.vel, oa
resultados teóricos que iremos obier.
!
·
I
Vale a pena salientar que ao deduzir qualquer resultado matemático, deveremos aceitar alguns postulados 1 ou axiomas subjacentes. Ao procurarmos axiomas p~.ra descrevei' fenô.menoa observáveis, alguns axiomas poderão ser ibastant.e mais plausíveis (e menos
l!J'bitrá.rios~ que outros. Por exemplo, ao descrever o movimento
de um objeto lançado para cima ~om ~alguma velocidade inicial, poderemos &Upor que a distância acima do solo, s, seja uma função
quadrática do tempo t; isto é,
at 2 bt + c. Com dificuldade
isto conãtituiria uma suposição intuitiva genuína, em termos de
!
nossa experiência. Em lugar dissp, poderíamos supor que a aceleração fosse constante e, depois, deduzir disso 1que s deveria ser uma
função quadrática de t. O importante é, naturalmente, que se devemos supor alguma coisa a fun de ~laborar nosso modelo matemático,
deveremos admitir aquílo ·que sej~ plausível, em lugar daquilo que
seja menos plausível.
si=
+
1
A .mesma orientação nos guia~á
aqui, aõ construirmos um moI
delo probabilístico para a emissã<j de partículas a, por uma fonte
:radioativa. A variável aleatória Jtt, definid~ acima, pode tomar os
valores O, l, 2, . . . Seja Pn(t) = li[X, = n], n = O, 1, 2, ...
I
I
Agora serão feitas as cinco hipóteses seguintes:
A1 :
. I
O número de partículak emitidas durante 'intervalos de
tempo não-sobrepostos Jonstituem variáveis ;aleatórias inI
'
dependentes.
I
A2 : Se Xt for definida como ~cima, e se Y, for igual ao número
de partículas emitidas !durante [tJ, tl + t), então, para
qualquer t 1 > O, as variãveis aleatórias Xt e Y; terão a
mesma distribuição de brobabilidade. (Em outras palavras, a distribuiçCío do n~mero de partículas emitidas du~
rante qualquer intervaloi depende apenas do comprimento
daquele intervalo e pão !de seus pontos extremos.)
I
A a:
p 1(!:J.t) será aproximadamente igual a )\Ãt, 'se Ãl
for suficientemente pequeno, onde )\ é uma constante positi>;a. Escreveremos isto, as~im \PJ(ó.t) ~ ÀÓ.t. Por toda \~stâ. seção, a(ó.t)
~ b(!:J.t)
sigllifica
que a(ó.t)jb(!:J.t)
-> 1 quando
.
.
..
I
-.
..
I
196, I PROBABILIDADE
ilt ---7 O. Devemos também supor que D.t > O. (Esta hipótese afirma que se o intervalo for suficientemente pequeno, a probabilidade de obter exatamente uma eniissãO
durante o intervalo é diretamente proporcional ao comprimento do intervalo considerado.)
A4:
L,;:= 2Pk(!J.t)
A~:
Xo = O, ou o que é equivalente, po(O) = 1. Isto equivale a
uma condição inicial ~ara o modelo que estamos apresentando.
-r O. (Isto significa que Pk(D.t) "' O, k ;:::: 2.)
Isto afirma que a probabilidade de obter duas ou mais
emissões durante um intervalo suficientemente · pequeno é
desprezível.
Como dentro em pouco demonstraremos, as cinco hipóteses
relacionadas acima nos permitirão deduzir ~a expressão para
Pn(t) = P[Xt = nl. Vamos agora tirar algumas conclusões, a partir das hipóteses acima.
(a) As hipóteses Ai . e A2, em conjunto, querem dizer que as
variáveis aleatórias Xt e [XttAt- Xt l são variáveis aleatórias ino
t+~t
dependentes, com a mesma distribuição de probabilidade. (Veja a
Fig. 8.1
Fig. 8.1.)
(b)
Da.c; hipóteses Aa e Â4, pqdemos concluir que
m
Po(!J.t)= 1-pl(!J.t)-
L
Pk(!J.t)~l-'At+p(!J.t),
(8.2)
k=2
quando t-+ O.
(c)
Podemos escrever
po(t
+ Llt)
= P[Xt+At = O]
= P[Xt = O e (X~+t.t- Xt) =
=
Po(t)po(fJ.t).
~ Po(t)[t -
(d)
À!J.t].
[Veja a conclusão (a).]
[Veja a Eq. (8.2).]
Daí, teremos
Po(t
+ D.t) tit
oJ
Po(t) ,...., _ Àpo(t).
VARiÁVEiS AILEATÓRDAS DISCRETAS: A DE PO!SSOI\I E OUTRAS / 197
Fazendo i1t--) O, e observando que o primeiro membro representa o quociente das diferenças da função po e por isso se aproxima
de po'(t) (mais corretamente, se aproxima da derivada à direita, porque i1t > O), teremos
. I ente, -(-)
Po'(t) = - ,1\.
Po '(t) = - 'I'.Po ()
t ou, o que e., eqmva
Po t
Integrando ambos os membros em relação a t, obtém-se ln po(t) =
= - Àt + C, onde C é uma constante de integração. Da hipótese
As, fazendo t = O, obtemos C = O. Portanto,
Deste modo, nossas hipóteses nos levaram a uma expressão para
P[X1 = ot Empregando essencialmente o mesmo caminho, agora
obteremos pn(t) para n;:::: 1.
(e) Consideremos Pn(t
+ l1t)
= P[Xt+Lit = n].
Agora Xt+Lit = ·n se, e somente se, X, = x e [Xt+Lit ~ X,] =
n- x, x =O, 1, 2, .. -., n. Empregando as hipóteses At e A2,
teremos
=
Pn(t
:t Px(t)pn-x(f:1t) =
+ f:1t)
x=O
n-2
=
L
p.f...t}pn-x(f:1t)
8=0
+ Pn-t(t)pl(f:1t)+Pn(t)po(f:1t).
Empregando as hipóteses A3 e Â4 e também a Eq. (8.2), obteremos
Pn(t
+ f:1t)
"-' Pn-t(l)À./::it
+ p,.(t)(l -
À.f:1t].
Conseqüentemente,
Pn(t
+ /::it) -
Pn(t) "-' Àpn-t(l) - Àpn(t).
l1t
De novo fazendo l1t--) O, e também observando que o primeiro membro representa o quociente das diferenças da função pn, obteremos
Pn'(t)
= - Àpn(t) + Àpn-I(t),
n = 1, 2, .. :
Isto representa um sistema infinito de equações diferenciais e de diferençaS (lineares). O leitor, interessado poderá verificar que se
definirmos a função qn pela relação qn(t) = eÀ1pn(t), ' o sistema acima
se torna qn'(t) = Àqn- 1(t), n = 1, 2, ... Desd~ que po(t) = ,e..->..\ encontramos que qo(t) = L [Observe-se também que qn(O) ='9 para
n > O.] Por conseguinte, obteremos sucessivamente
t.JJJ
•'!
1!!8 I PROBABiliDADE
e daí
Em geral, q..'(t) = Àq,.- 1(t) e por isso q,.(t) = (Àt)n/n!
definição de q,., obteremos finalmente
p,.(t)
= e-">-'(1\t)"/n!,'
n =· O, 1, 2, . . .
Lembrando a
(8.4)
Mostramos, portanto, que o número de partfcúlas emitidas
durante o intervalo de tempo [0, t) por uma fonte radioativa, sujeita
~ hipóteses feitas acima, é uma variável aleatória, com distribuição
de Poisson, com parâmetro (Àt).
Comenúirios: (a) 11: importante compreender que a distrib,lição de Poisson
surgiu como wna conseqüência de alguma.s hipótE'.ses que fizemos. Isto significa
que ·~empre que essas hipóteses sejani válida.s (ou ao menos aproximadamente
válida.s), a. distribuição de Poisson po.de ser empregada como um modelo adequado.
Verifica-se que existe uma grande classe de fenômenos para os quais o modelo de
Po.isson é adequado.
(i) Admita-se que Xt represente o número de chamados que chegam a uma
central telefónica, durante um período de tempo de comprimento t. As hlpóteses acima são aproximadamente satisfeitas, particularmente durahte o "p~
rlodo movimentado" do dia. Conseqüentemente, Xt tem urna distribuição de
Poisson.
(ií) Adm.ita-tle que Xt represente o número de elétrons lil:.>ertados pelo
catodo de uma válvula eletrônica. Tambéin as hipóteses acima.são adequadss
e, portanto, Xt tem uma distribuição de Poisson.
(iii) o seguinte exemplo (da Astronomia) revela que o racioc(nio ACima pode
ser aplicado não ,somente ao número de ocorrências de algum evento, durante
um período de tempo fixado, mas também ao número de ocorrências de
um evento dentro das fronteiras de uma área ou volume fixados. Suponha-se
que um astrônomo investigue uma parte de. via-Láctea, .a admita que na parte
considerada, a densidade das estrelas X seja constante. [Isto. significa que em
um volume V (unidades cúbicas), podem-se encontrar, em média, ÀV estrelas.)
Seja X v o número de estrelas encontradaS em uma parte da Via-Láctea que
tenha o volume V. Se as hipóteses acima forem sat~feítas (com "volume"
substituindo "tempo"), ent!l:o P[X v = n) = (X V)n e-À Vjn!. (As hipóteses,
intsrpreta.das neste contexto, afirmariam essencialmente que o número de estrelas que aparecem em P.artes não-sobrepostas do céu, representam variáveis
aleatórias independentes, e que e. probabilidade de mais do que uma estrehl.
&parecer em uma parte bastante pequena do ·céu é zeto.)
(iv) Outra aplicação, no campo da Biologia, é lembrada se fizermos XA ser
o número de glóbulos sangüíneos visíveis ao microscópio, a área de superfície
visível no campo do microscópio sendo de.da por A unide.des quadradas.
(b) A constante ]\. originalmente surgiu como uma constante de proporcionalidade Dili hipótese Aa. As seguintes interpretações de ]\. sl!,o dignas de nOta :
Se Xt representar o número de ocorrências de algum evento, durante um intervalC>
de tempo de comprimento t, então E(Xt) = Àt, e portanto X = [E(Xt)lft repre-
I
VARiÁVEiS AliEATÕRDAS DISCRIEf AS: A DE POISSON E OUTRAS
I 1S!ll
segun~o
115nt& a. taxa (freqüência} esperada
a qual as partículas sil.o emitidms. Se
X v representar o número de ocorrênci4.. de algu~ evento dentro de um vol~e
especificado V, então E(Xv) = XV, e portanto X= [E(Xy)]/V representa adefl..
sidade esperada, segundo a qual as estn\las
ap&recem.
I
(c) É import&nte co~preender qu~ nossa exposição na. Seç. 8.3 nll.o tratou
exatamente de uma v.a riivel ale&tóri& X 1possuindo uma distribuição de Poiss<in .
Mais exatamente, para todo t > O, encontramos que Xt possuíaluma distribuição
de Poisson com um parâmetro dependehte de t. Tal coleção (infinita) de variáveis
aleatórias é também conhecida conio Pr, cesso de Poiss~n.
(Equivalentemente, um Processo de Poisson é gerado sempre que
um evento ocorra em algum interv~lo de tempo:para o qual as hipótéses
A 1 áté A 5 sejam satisfeitas.) De maheira análoga, poderemos.défmir um
Processo de Bemouilli: se X 1 ,X2 , 1• • • , Xn, ... forem os números de
ocorrências de sucessos em 1, 2, . j ., n, . .. provas de Bemouilli, então
I
.
a coleção de variáveis aleatórias
xn' ... é denominada um
Xi\1' ... '
Processo de Bernouilli.
·
.
Exemplo 8.5. Uma corriplic~da peça de maquinaria, quando
funciona adequadamente, dá
um l~cro
de C dóla~s por hora ·(C > 2)
,
I
a urna firma. Contudo, esta máquina tende a falhaJ;" em momentos
in~sperados e imprevisíveis. Su~onha-se que o núm~ro de falhas,
dura~te qualquer perlodo de duraJão t horas, seja urna variável alea-.
tória com uma distribUição de Poisson com parâmetro t. Se a má·:
quina falhar x vezes durante as t horas, o prejuízo sofrido (parada da
máquina mais reparação) é igual ~ (~ 2 x) dólares. Assim, o lucro
total P, durante qualquer períodb de t horas, é igual a P = Ct - (X 2. + X), onde X é a variável Ialeatória que repres~nta o número
de falhas da máquina. Logo, P é uma variável aleatória, e poderá
interessar escolher-se t (o qual es,t á à nossa disposição) de .tal ma. neira que o lucro esperado se tome máximo. Teremos
+
E(P)
= Ct
~ E(X 2 + X).
Do Teor. 8.1, encontraremos !I que E(X) =. t e E(X 2) = t + (t)a.
Segue-se então que E(P) = Ct - ~ 2t- t2 • Para achar o valor de t
para o qual E(P) se torna má.xirila, derivaremos E(P) e faremos a
~xpr~ssão resultante igual a zero. j . Obteremos C - 2 - 2t = O, qu~
fornece t = 1/2 (C - 2) horas.
!
·
I
.
I
.
Exemplo 8.6.
Seja Xt o número de partículas emitidas por un:i.a
fonte radioativa, durante um intenralo.d.e tempo de duração t. Admita-se que X, possua distribuição d~ Poisson com parâmetro at. ,, Um
dispositivo contador é colocado ~ara registrar Q número de p'a rtí.culas emitidas. Suponha-se que exista urna probabilidade consÚmte p
I
!
..
.,
200
I PROBABIUDADE
de que qualquer partícula emitida não seja contada. Se Rt for o
número de partículas contadas durante o intervalo especificado, qual
sem a distribuição de probabilidade de Rt?
Para um dadO X. = x, a variável aleatória Rc possui uma distribuição binomial, baseada em x repetições; com pacl~etro (1 - p).
Isto é,
Empregando a fórmula da probabilidade total [Eq. (3.4)], teremos
.,
P(Rc
=
k)
= 8-k
"L, P(R, =
klXt
=
x)P(Xc
=
x)
.
1-p .)I& e- "
1
,
( .- .p - -k,
L (X - k)i• (pat). ·
. a-k
1
=
Façamos i = x - k.
Porlanto,
P(R, = k) = (
1
"' )"'
- "
p
e-mi
"'
k!
i-O
l~~t)i+k
i!
~L -"'\}J'-"~-
= ( 1 .,.- p )"' e-«' (patY'eP"'t =
p
k!
e-CI--Pll(I -
p)at]"'
k!
Deste modo verificamos que Rt também possui distribuição de Poisson, com parâmetro (1 - p)at.
8,4, A Distribuiçâlo Geométrica
Suponha-se que realizemos um experimento· S e que estejamos
interessados apenas·· na ocorrência ou. não-ocorrência de algum
evento A. Admita~se; tal como na explicação da distribuição binomial, que realizemos S repetidamente, que as ,.repetições sejam independentes, e que em cada repetição P(A) = p e P(A) = 1 - p .= q
permaneçam os mesmos. Suponha-se que repetimos o experimento
até que A ocorra pela primeira vez. (Aqui nos afastamos das hipóteseS que levaram à distribuição. binomial. Lá, o número de repetições era predeterminado, enquanto aqui é uma variável aleatória.)
VARIÁVIEIS AllEATÓRIAS DISCRETAS: ADIE I?OiSSOI\I E OUTRAS I 201
Defina-se a variável aleatória X como o número de repetições
necessárias para obter a primeira ocorrência de A, nele se incluindo
essa última. Assim, X toma os valores possiveis 1, 2, ... Como
X:= k se, e somen.te se, as primeiras (k- 1) repetições de 8 derem
o resultado A, enquanto a k-ésima repetição dê o resultado A, teremos
k
= 1, 2, ...
(8.5)
Uma variável aleatória· com a distribuição de probabilidade da
Eq. (8.5) recebe ~ denominação de distribuição geométrica.
Um cálculo fácil mostra que a Eq. (8.5) define uma distribuição
de probabilidade legítima. Temos, obviamente, que P(X = k) 2:: O, e
L"'
k~l
-
.
'
P(X = k) = p(l
.
+ q + q + ·-· .) = p [ - 1-1· q- ]
2
= 1.
-
, Poderemos obter o vàlor esperado de X, da seguinte maneira:
E(X)
"'
= Lkprf- 1 =p
k=l
"' d
:Eq"' =
dq
k=l
d"'2.::: t =
= p---:dqk=l
d[ -º-] = -.
1
P-
qq
1-q
p
(A permuta da derivação e do somatório é válida aqui, porque a série
converge quando Iq I < 1.) Um cálculo semelhante mostra que
V(X) = q(p 2. (Obteremos de novo, ambos os resultados no Cap. 10,
seguindo um caminho diferente.) Resumindo o que está acima,
enunciamos o seguinte teorema:
Teorema 8.3. Se X tiver uma distribuição geométrica, como
dada pela Eq. (8.5),
E(X)
= 1/p e V(X) = q(p2.
Conie.nt<irio: O fato de E(X) ser igual ao inverso de ']i é aceito intuitivamente,
porque diz que pequenos valores de p = P(A) exigem muitas repetigões a fim de
permitir que A (ocorra.
Exemplo 8.7. Suponha-se que o custo de realização de um experimento seja US$ 1.000. Se o experimento falhar, ocorrerá um
custo adicional de US$ 300 em virtude de serem necessárias algumas
alteraÇões antes que a próxima tentativa seja executada. - Se a probabilidade de sucesso em uma tentativa qualquer for 0,2, se as provas
forem independentes, e se os experimentos continuarem até que o
.•.;
202 I PROBABILIDADE
primeiro resultado frutuoso seja alemç!Mllo, quru aem o eusto elipe-;
rado do procedimento completo "f
·
Se C for o custo, e X for o número. de provM necessárias para
alcançar sucesso, têremos
C = :LOOOX + 300(X - 1) = 1.300X ~· 300.
Em conseqüência,
1
E( C) = 1.300E(X) - 300 = 1.300 0,
.
2
- 300 = US$ 6.200~
Exemplo 8.8. Em determinada localidade, a probabilidade· da
ocorrência de uma tormenta em algum dia durante o verão (nos
meses de dezembro e janeiro) é igual a 0,1. Admitindo independêucia de um dia para outro, qual é a probabilidade da ocorrência da
primeira tormenta da estação de verão no dia 3 de janeiro?
Chamemos de X o número de dias (começando de 1.0 de dezembro)
até a primeira tormenta e façamos P(X = 34), o que é igual a
(0,9) 88(0,1) = 0,003.
Exemplo 8.9. Se a probabilidade de que um certo ensaio dê .
reação "positiva" for igual a 0,4, qual será. a probabilidade de qué
menos de 5 reações "negativas~' ocorram antes da primeira positiva?
Chamando de Y o número de reações negativas antes da, primeira
positiva, teremos
P(Y
==
k) = (0,6}'<(0,4),
k
=o, 1, 2, ... •.
Daí,
P(Y
< 5) =
4
L
(0,6)k(0,4)
= 0,92.
k=O
Camentá.rio: Se X tiver uma distribuição goométrica como a descrita pela
. Eq. (8.5) e se fizermos Z = X - 1, poderemos inter-Pretar Z como o número de
falhas que precedem o primeiro sucesso. Teremos: P(Z = k) = qkp, .k =
= O, 1, 2, ... , onde p = P (sucesso) e q = P (falha):
A distribuição geométrica apresénta uma propriedade interessante, que será resumida no teorema seguinte:
Teorema 8.4. Suponha-se que X tenha uma distribuição geométrica dada pela Eq. (8.5). Então, para dois quàisquer' inteiros
positivos 8 e t,
P(X;:::::
Demonstração:
8
+ t I X.> 8) =
Vej~ o Probl. 8.18.
P(X
> t).
(8.6)
ê.
e
?
:1.
-
-
I
,
VARIA VEIS A L EATORBAS DISCRETAS: A DE P-OISSON E OUTRAS I 203
I
.
I
Comentários: (a) O teorem& adima afirma que a distribuição geométrica.
"não possui memória", no oontido · ~eguinte: Suponha-se que o evento A nao
tenha ocorrido durante !l8 primeiras ~ repetições de E. Então, a probabilidade de
que ele não ocorre, durante as próximas t repetições será a .mesma probabilidade
de que não tivesse oeot"rido durante ~s primeiras t repetições. Em outras palavras, a informação de nenhum sucessJ é "esquecida", no que inte~~essa aos cálculos
I
subseqÜentes.
(b) A recíproca do teorema. acima é também verdadeira: Se a Eq. (8.6)
valer para uma variável aleatória, qde .tome somente valores inteiros positivos, então essa variável aleatória deve te~ uma distribuição geométrica. (Não ~ deJ;Ilonstraremos aqui. Uma exposição pode ser encontrada no livro de Feller, An
[ntrodudion to Probability Theory a~ Its Applications, John Wiley and Sons,
Inc., 2.• Edição, New York, 1957, lág. 304.)
(c) Observaremos no próximo ~apítulo que existe urna variável aleatória
contínua, com urna distribuição que possui propriedade análoga à da Eq. (8.6),
a saber, a_ çlistribuição exponencial.
Exemplo 8.10. Suponha-se que uma peça seja inspecionada ao
fim de cada dia, para verificar ke ela ainda funciona, adequadamente.
Seja p = P [de falhar duranJ qualquer dia especificado]. Conse.qüentemente, se X for o núme~o de inspeções necessárias.·para veri.ficar a primeira falha, · X ter~ disti.-ibuição geométrica." e teremos
P(X = n) = (1- p)n- 1p. Ou de modo equivalente, (1- p)n-ip = P
[a peça falhar na n-ésima insJeção e não ' ter falhado na (n- 1)].
I
·o valor máximo desta probabilidade é obtido pela resolução de
.
I
d
r
dp
.
·
r:<f = n) = O.
I
O que fornece
i
p(n - 1)(1 - p)'H( -1)
+ (1 ;- p)"-
1
=;: O
que é equivalente a
(1 - p)n-2[(1 --;' p) - (n - 1)p] = O,
da qual obtemo.s p
= 1/n.
I
i
I
8.5.
A Distribuição de i f?asc~l
gener~lização
distrib~ção
Uma
óbvia Ida
geométrica surge ' se
propusermos a seguinte quest~o: Suponha-se que 'Uill experiinento
seja continuado até que hm p~rticular evento A ocorra na r-ésima
I
' .
vez. Se
P(A) = p,
em cada repetição,
i P(A) =
q=1 - p
dofiniremool• variávcl aloat6ria
Y como St;lgue:
204 I PIF!OBA.BD UIDIA.OE
Y é o número de repetições necessárias a fim de que A possa
ocorrer exatamente r vezes.
Pede-se a distribuição de probabilidade de Y; é evidente que se
r = 1, Y terá a distribuição geométrica dada pela Eq. (8.5).
Ora, Y = k se, e somente se, A ocorrer na k-ésima repetição e A
tiver ocorrido e7'atamente (r - 1) vezes nas (k - 1) repetições~ante­
riores. A probabilidade deste evento é meramente p(~:Dp•-t~f-v,
desde que o que acontece nas primeiras (k - 1) repetições é independente daquilo que acontece na k-ésima repetiç_ão. Portanto,
P(Y
=
k)
=
o
(~ =
p'q'<-•,
k
= r, r+
1, . . .
,. (8.7)
Vê-se facilmente que para k = 1, a ·eJCpressão acima se reduz à
Eq. (8.5). Uma variável aleatória que tenha a distribuição de probabilidade dada pela Eq. (8.7) possui a distribuição de Pascal.
I'
Comentário: A precedente distribuição de Pascal é também geralmente
conhecida corno Distribuição Binomial Negativa. O motivo para isso é que, ao se
verificar a condição
L
P(Y=k)= 1,
k=l
obtém-se
t(k- 1l)prqk-r=pr f:(kl)qk-r=
r - 1
k=l
r
-
k=l
que é, obviamente, igual a 1. A última igualdade provém do desenvolvimento
em série de
(1-q) - r =L ( -nr)(-q)n,
n=l
que é igual a
E(k)qk- r,
r -
k=I
1
1
depois de algumas simplificações algébricas e relembrando a definição do coeficiente binomial generalizado (veja o Comentário antes do Ex. 2.7 ). Em virtude
do expoente negativo (-r) na expressão acima é que a distribuição é denominada
binomial negativa.
VA R IÃVEIS AlEATÓRiAS Di SCRETAS: A DE POISSON E OU TRAS / 205
Para calcular E(Y) e V(Y) poderemos ou proceder diretamente,
tentando calcular os vários somatórios, ou proceder da seguinte maneira:
se
Façamos
Z1
= número de repetições necessárias até a primeira ocorrên-
Z2
= número de repetições necessárias entre a primeira ocorrên-
cia de A.
e-
.... ,
cia de A até, inclusive, a segunda ocorrência de A .
Zr = número de repetições necessárias entre a ocorrência de
ordem (r - 1) de A até, inclusive, a r-ésima ocorrência
de A.
à
Deste modo, verificamos que todos os Z; são variáveis aleatórias independentes, cada uma delas tendo uma distribuição geOITiétrica. 'Também, Y = Z 1 + , + Zr. Daí, empregando o Teor. 8.3,
termos o seguinte teorema:
e
Teorema 8.5.
Eq. (8.7), então
:e
Se Y tiver uma distribuição de Pascal dada pela
E(Y) = rjp,
V(Y) = rqjp 2 •
(8.8)
Exemplo 8.11. A pt:obabilidade de que um experimento seja
bem sucedido é 0,8. Se o experimento for repetido até que quatro
resultados b'em sucedidos tenham ocorrido, qual será o número esperado de repetições necessárias? Do que foi exposto acima, teremos '
E(número de repetições) = 4/0,8 = 5.
8.6.
Relação entre as Distribui9fies Binomial e de !Pascal
Suponhamos que X tenha distribuição binomial com parâmetros
n e p. (Isto é, X = número de sucessos em n provas repetidas de
Bemouilli, com P(sucesso) = p.) Suponhamos que Y te':i1ha uma dist.ri·
buição de Pascal com parâmetros r e p. (Isto é, Y = número de provas
de Bemouilli necessárias para obter r sucessos, com P(sucesso) = p.)
Então, valem as seguintes rplações:
(a) P(Y<;n)
= P(X?'-r)
(b) P(Y>n)
= P(X<r)
·
1,
..,.-
•·-;.+
206 I PROBABILIDADE
·Demonstração: (a) Se ocorrerem r ou mais sucessos nas primeiras
n provas repetidas, então serão necessárias n ou menos provas para
obter os primeiros r sucessos.
(b) Se ocorrerem menos de r sucessos nas primeiras n provas,
então será preciso realizar mais do que n provas para obter r sucessos.
Comentários: (a) As propriedades acima tornam possível empregar a tábua
da distribuição binomial para calcular probabilidades asSociadas à distribuição de
Pascal. Por exemplo, suponhamos que desejamos calcular a probabilidade de que
mais de 10 repetições sejam necessárias para obter o terceiro sucesso, quando
p = P(sucesso) = 0,2. Empregando a notação acima para X e Y, teremos [P( Y >
> 10)
= P(X
< 3)
=
t
(~) (0:2)k
(0,8) 10 -k = 0,678
(da tábua no
k=O
Apêndice).
'
.
(b) Vamos rapidamente comparar as distribuições Binomial e de Pascal.
Nos dois casos, estaremos tratando com provas repetidas de Bernouilli. A distribuição binomial surge quando lidamos com número fixado (digamos n) dessas
provas e estaremos interessados no número de sucessos que venha a ocorrer. A
distribuição de Pascal é encontrada quando nós pré-fixamos o número de sucessos
a ser obtido e então registramos o número de provas de Bernouilli necessárias.
Isto será particularmente importante em um problema estatístico que iremos
explicar mais tarde (veja o Ex. 14.1).
8.7. . A
Distribuiçã~
Hipergeométrica
Suponha-se que tenhamos um lote de N peças, r das quais sejam
defeituqsas e (N - r) das quais sejam não~defeituosas. Suponha-se
que escolhamos, ao acaso, n peças desse lote (n ~ N), sem reposição.
Seja X o número de peças defeituosas encontradas. · Desde que X = k
se, e somente se, obtivermos exatamente k peças defeituosas (dentre
as r defei~uosas do lote) e exatamente (n - k) não-defeituosas (dentre
as (N - r) não-defeituosas do lote], teremos
P(X = k) =
(Ío)(;:'.:ik)
(~)
, k =O, 1, 2, . . .
(8.9)
Diz-se que uma variável aleatória, que tenha a,.. distribuição de. probabilidade da Eq. (8.9), tem distribuição hipergeométrica.
CQmentário: Visto que (6) = O sem~re que b > a, se a e .b forem inteiros
nã.o-negativos, poderemos definir iiB probabilidades acima para todo k = O, 1, 2, •..
Não poderemos, obviamente, obter mais do que r peças defeituosas, unicamente
probabilidade zero será· associada 11. esse evento, pel11. Eq. (8.9).
, )
VARiÁVEIS AlEATÓRIAS DISCRET ~S: A DE POISSOi\1 E OUTRAS I 207
I
Exemplo 8.12. Pequenos motores elétricos são expedidos em
lotes de 50 unidades. Antes que ba remessa seja aprovada, um
inspetor escolhe 5 desses motores ~ os inspeciona. Se ,n enhum dos
motores inspecionados for defeituosp, o lote é aprov~.do~ Se um ou
mais f~rem verificados defeituos~s, ~todos os motores da remessa s~o
inspecwnados. Suponha que eXIst,m, de fato, três motores defeituosos no lote. Qual é a probabil~dade de que a inspeção 100 por
I
I
cento seja necessária?
Se fizermos igual a X o núme~o de motores defeitÚosos encontrado, a inspeção 100 por cento será hecessária se, e somente se, X~ 1.
I
Logo,
·
I
P(X
.
2 1) = 1 -
I
P(X
= O)' = 1 I
~
Teorema 8.6. Admita-se que
métrica, como indicada pela Eq. (8.9).
Nesse caso, teremos
(~)(~)
(~)
=
0,28.
tenha distribuição hipergeoFaçamos p = r/N, q = 1 - p.
I
(a) E(X) = np;
(b) V(X)
(c) P(X
= npq NN-n
_ .
1
= k) ~
(~) p" (1 -
i
p~,._,.,
•4
~~
I
para N grande.
I
-~
Demonstração: Deixaremos ao leitor os detalhes da demonstra1
ção.
(Veja o Probl. 8.19.)
I
Comentário: A propriedade (c) do T~or. 8.6 afirma que se o tamanho do
lote N for suficientemente grande, a distribuição de X poderá. ser aproximada
pela distribuição binomial. Isto é intuitiv~mente aceitável, porque a distribuição
binomial é aplicável quando fazemos amostragem com reposição (visto que, nesse
caso, a probabilidade de obter uma peça defeituosa permanece constante), enquanto
a distribuição hipergeométrica é .aplicável1 quando fazemos amostragem sem reposição. Se o tam!!-nho do lote. for grande1 não fará grande diferença se fazemos
ou não retornar ao lote wna peça determinada, antes que a próxima seja escolhida.
A propriedade (c) do Teor. 8.6 constitui apenas uma afirinação matemática desse
fato. Observe-se, também, que o vaf.or esJierado de uma variável aleatória hipergeométrica X é o mesmo que o da corresdondente variável aleatória com distribuição binomial, en~uan~ a variância de X léum tanto menor do que a. co~es~,p­
dente no caso da bmmrual. O "fator de correção" (N - n){(N - 1) é, aproximadamente igual a 1, para N grande.
I
· .
•
i
I
li
~
208 I PROIBAB8UDA.DE
;.
i·: '•'
•i
I'"
. :·1
Podemos ilustrar o sentido da propriedade (c), com o seguinte
4:lxemplo simples. Suponha-se que desejemos calcular P(X = 0).
Para n = 1, obteremos para a distribuição hipergeométrica,
P(X = O) = (N - r)/N = 1 - rfN = q. Para a distribuição bfuomial, obteremos diretamente P(X = O) = q. Portanto, essas respostas são iguais, quando se trata de n = L
Para n=2, obteremos para a distribuição hipe.rgeométrica
P(X
=
O)
=
N - r
N ·
N - r - 1
N-1
=(1
-
_!_)
(1 N
r
N-1
) .
Para a distribuição binomial, obteremos P(X = O) == q2 • Deve"se
observar que (1 - r/N) = q, enquanto [1 - rf(N - 1)] é quase
igual a q.
Em geral, a aproximação da distribuição hipergeométrica pela
0,1.
distribuição binomial é bastante boa, se n f N
s
8.8.
A Distribuição Multinomial
Finalmente, vamos examinar uma importante variável aleatória·
discreta de maior número de dimensões, a qual pode ser considerada
como uma generalização da distribuição binomial. Considere-se um
experimento &, seu espaço amostral S, e a partição de S em k even- ·
tos mutuamente excludentes A 1, • . • , A~&. (Isto é, quando & fo.r realizado, um, e somente um, dos eventos A; ocorterá.) Comüderem-se
repetições de S. Seja p; = P(A;) e suponha-se que .Pi permimeça
constante durante todas as repetições. Evidentemente, teremos
"'I'
.L.i=lPõ
= l. Definam-se as variáveis aleatórias X 1 , . . . , X~& como
segue:
n
X; é o número de vezes que A; ooorre nas
.~
nrepetições
de &,
= ll, ... , k.
Os X; não são variáveis .aleatórias independentes, porque
n. Em conseqüência, logo que os valores de quaisquer
(k - 1) dessas variáveis aleatórias sejam conhecidos, o valor da
outra ficará. determinado. Chegamos ao seguinte resultado:
'I:f-1 X; =
Teorema 8.7. Se X;, i = 1, 2, ... , k, forj)m definidas como
teremos
acima,
VARDÃVIEUS AlEATÓRiAS DiSCRETAS: A IDE IPODSSON 1E OUTRAS I 209
Demonstração: O raciocínio é idêntico àquele empregado para.
estabelecer a distribuição de probabilidade binomial. Devemos
simplesmente observar que o número de maneiras de arranjar n objetos, n 1 dos quais são de uma espécie, n2 dos quais são de uma segunda
espécie, ... , nk dos quais são de uma k-ésima espécie, é dado por
n!
Comenlárws: (a) Se k = 2, o que está acii;n& se reduz & disiriliuiçil.o binomial. Nesse Ca.'lO, denominaremos os dois eventos possíveis "suresso" e "insucesso''.
(b) A distribuiç1o da Eq. (8.10) é conhecida como a dÜltribuiçao de probabilidade multinomial (ou polinomilll). Vamos recordar que os termos da distribuição
binomial são possíveis de se obter de um desenvolvimento da expressão binomial
[p
+ (1- p)]"
= L~=O(k)pk(l-p)~. De maneira análoga, as probabilidades
acima se podem opter do desenvolvimento da expressão multinomial (PI
+ P2 +
+··· + Pk)n.
Teorema 8.8. Suponha-s~ que (X1, , ...• Xk) tenha uma distribuição multinomial, dada pela Eq. (8.10). Nesse caso,
E(X;) = np; e V(X;) = np; (1-p;),
i= 1, 2, ... , k.
Demondtração: Isto é uma ~onseqüência imediata da observação
de que cada X;, como foi definida acima, tem uma distribuição binomial, com a probabilidade de sucesso (isto é, a ocorrência de A;)
igual a p;.
Exemplo 8.13. Uma barra de comprimento especificado é fabricada. Admita-se que o comprimento real X (polegadas) seja uma
variável aleatória uniformemente distribuída sobre [10, 12]. Suponha-se que somente interesse saber se um dos três eventos seguintes
terá ocorrido:
A1 = {X< 10,5}, A2 = {10,5 ~X~ 11,81 .e Aa = [X> 11,81.
E sejam as probabilidades
PI
=
P(AI) = 0,25,
P2
=
P(A2)
= 0,65 e
pa
=
P(Aa) = 0,1.
Portanto, se 10 dessas barras forem fabricadas, a probabilidade de
se obter exatamente 5 barras de .comprimento menor do que 10,5 polegadas e exatamente 2 de com~rimento maior do que 11,8 polegadas
é dada por
210 I I"ROBABULIDADIE
Problemas
8.1. Se X tiver uma distribuição de Poisson com parâmetro {3, e ~e
P(X = O) = 0,2, calcular P(X > 2).
8.2. Admita-se que X tenha distribuiç.ão de Poisson com parâmetro À. Determine aquele valor de k para o· qual P(X = k) seja máxima. [Sugestao: Compare P(X = k) com J'(X = k - 1).]
8.3. (F..ste problema foi tirado do livro ProbabiUty and Sta.t-istical /tLjcrcnct
for Engineers, por Derman e Klein, Oxford University Press, Londres, 1959.) O
número de navios petroleiros, digamos N, que chegam a .determinada refinaria,
cada dia, tem distribuição de Poisson, com parâmetro À = 2. As atuais instalações do porto podem atender a três petroleiros por dia. Se mais. de três petroleiros aportarem por dia, os excedentes a três deverão seguir para outro porto.
(a) Em um dia, qual é a probabilidade de se ter de mandar petroleiros para
outro porto ?
(b) De quanto deverã'o as atuais instalações ser aumentadas para permitir
manobrar todos os petroleiros, em aproximadamente 90 por cento dos dias?
(c) QLtal é o número esperado de petroleiros a chegarem por dia?
(d) Qual é o número mais provável de petroleiros a chegarem por dia?
(e)
Qual é o número esperado de petroleiros a serem atendidos diariamente?
Qual é o número espemdo de petroleiros que voltarão a outros portos
diariamente?
(f)
8.4. Suponha-se que a probabilidade de que uma peça, produzida por determinada máquina, seja defeituosa é 0,2. Se 10 peças produzidas por essa máquina forem escolhidas ao acaso, qual é a probabilidade de que não mais de uma
defeituosa seja encontrada? Empregue as distribuições binomial e cie Poisson
e compare as respostas.
8.5. Uma companhia de seguros descobriu que somente cerca de 0,1 por
cento da população está incluída em certo tipo de acidente cada ano. Se seus
10.000 segurados são escolhidos, ao acaso, na população, qual é a probabilidade
de que não mais do que 5 de seus clientes venham a estar incluídos em tal acidente no próximo ano?
8.6.
2 P(X
3
Suponha que X tenha uma distribuição de Poisson.
Se P(X = 2)
=!),calcular P(X =O) eP(X = 3).
8.7. Um fabricante de filmes produz 10 rolos de um filme especialmente
sensível, cada ano. Se o filme não for vendido dentro do ano, ele deve ser refugado. A experiência passada. diz que . D, a (pequena) procura desse filme, é
uma variável aleatória com distribuição de Poisson, com parâmetro 8. Se um
lucro de US$ 7 for obtido, para cada rolo vendido, enqu~nto um prejuízo deUS$ 3
é verificado para cada rolo refuga.do, calcule o lucro esperado que o fabricante
poderá realizar com os 10 rolos que ele produz.
8.8. Partículas são emitidas por uma fonte radioatiya. Suponha que o
número de tais partículas, emitidas durante um período de uma hora,. tenha uma
distribuição de Poisson com parâmetro À. Um dispositivo contador é empregado
para registrar o número dess8.9 partícul8.9 emitidas. Se mais de 30 partículas
VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 211
I
chegarem durante qualquer período de um1a hora, o dispositivo registrador é incapaz de registrar o excesso e simplesmente registra 30. Se Y for ~ variável ale~~>­
tória definida como o número de partículti,s registradas pelo dispositivo contador,
determine a distribuição de probabilidade! de Y.
I
8.9. Suponha que partículas sejam erütidas por uma. fonte radioativa e que
o número de partículas emitidas durante ~m período de uma. hora. tenha uma distribuição de Poisson com parâmetro À. Admita que o dispositivo conta.dor, que
registra essas emissões, ocasionalmente falHe no registro de uma ps.rt.ícula emitida.
1
EspeCificamente, suponha que qualquer p artícula emiti~a tenha uma. probabili·dade p de ser registrada.
(a) Se Y for definida como o númer~ de partículas registradas, quru é um&
expressão para a distribuição de probabilidade de Y?
'
1
I
(b)
Calcule P(Y
= 0),
.
se À
=4
I
e p 'F 0,9.
8.1 O. Suponha que um recipiente encerre 10.000 partículas. 1 A probabilidade de que uma dessas Pl!-rtículas escape \do recipiente é i!'llal a 0,000 4. Qual
é a probabilidade de que mais de 5 escapamentos desses oéorri!Jll? (Pode-se
admitir que os vários escapamentos sejam \independentes. uns doo obtros.) .
.
8.11. Suponha qne um livro de 585 páginas contenha 43 erros tipográficos.
Se esses erros estiverem aleatoriamente distribuídos pelo livro, qual i é a probabilidade de 10 páginas, escolhidas ao acaso, e5tejam livres de erros? (Sugest(!,o: Su,ponha que X = número de erros .,Por pági~a tenha uma distribuição de Poisson.)
8.12. Uma fonte radioativa é obsertada durante . 7 intervalos de tempo,
cada um de dez segundos de duração. O ~úmero de partículas emitidas durante
cada período é contado. Suponha que o ~úmero de par~ículas emitidas X, durante cada
período observado, tenha uma qistribuiç!l.o
de Poisson com ps.râii\etto
.
I
.
5,0. (Isto é, partículas são emitid!IS à t~ de 0,5 partícul!IB por segundo.)
(a) Qual é a probabilidade d,e que em c.a da um dos 7 intervalos de tempo, 4 ou
1
mais partículas sejam emitidas?
\
.
(b) I Qual é a probabilidade de que em 1ao menos 1 d~s 7 interv~os de tempo,
4 ou mais partículas sejam emitidas?
I
1
8.13. Verificou-se que o númt)ro de falhas de um transistor em um computador eletrônico, em qualquer período de }una hora, pqde ser considerado como
uma variável aleatória que tenha uma distribuição de Poisson com parâmetro 0,1.
(Isto é, em média, haverá uma falha. de t~ansistor cada 10 horás.) Determinado
cálculo, que requer 20 horas de tempo de c~lculo, é ini<;iado.
(a) Determinar a probabilidade que Ó cálculo acima. seja completado com
êxito, sem falhas. (Admita que a. máquinJ se torne inoperante somente se 3 ou
mais transistores falharem.)
i
i
O mesmo que (a), exceto que a má.~uina se torna inoperante se 2 ou mais
I
'
transistores falharem.
(b)
8.14. Ao formar números binários co\n n dígitos, ~ proba.bilidade de que
um dígito incorreto possa aparecer é 0,002. Se os erros forem independentes,
qual é a proba.bilidade de encontrar zero,
ou mais de um digitas incorretos
em um número binári~ de 25 dígitos? Se b computador forma 106 desses<.núnleros de 25 digitas por segundo, qual é a pro~abilidade de que um . número .\nc~\-­
reto seja forri:J.a.do durante qualquer período ide um segundo?
fun,
I
212 I !"ROBABIUDADIE
8.15. Dois procedimentos de lançamento, que operam independentemente,
são empregados toda semana para lançamento de foguetes . Admit~J. que cada
procedimento seja continuado até que ele produza um lançamento bem sucedido .
Suponha que empregando o procedimento I, P(S), a probabilidade de um lançamento bem sucedido, seja igual a PI> enquanto para o procedimento II, P(S) = P2·
Admita, também, que uma tentativa seja feita toda semana com cada um dos
dois métodos. Sejam Xt e X2 o número de sema~a.s exigidas para alcançar-se
um lançamento bem sucedido pelos procedimentos I e II, respectivamente. (Portanto, X1 e Xz são variáveis aleatória.s independentes, cada uma tendo uma distribtúção geométrica.) Façamos W igual ao m!rúmo (X11 X 2 ) e Z ao ·máximo
(Xt, X2). Deste modo, W representa o número de semana.s necessárias para obter
um lançamento bem sucedido, enquanto Z representa o número de semanas necessária.s para obter lançamentos bem sucedidos com ambos os procedimentos.
(Portanto, se o procedimento I der SSS S, enquanto o procedimento II derSS-S,
teremos w· = 3, z = 4.)
(a) Estabeleça urna expressão para a distribtúçã.o de probabilidade de W.
(SugesUto: Exprima, em termos de X1 e X 2, o evento i W = k) .)
(b) Estabeleça uma expressão para a distribuição de probabilidade de Z.
(c)
Reescreva a.s expressões acima se for PI = pz .
8.16. Quatro componentes são reurúdos em um único aparelho. · Os comp onentes são originários de fontes independentes e p; = P(i-6ímo componente
seja defeituoso), i .= 1, 2, 3, 4.
(a) Estabeleça. uma. expressão para a probabilidade <de que o aparelho completo venha. a funcionar.
(b) Est&beleça uma. expressão para a probabilidade de que w menos 3 componentes venham a funcionar,
(.:) Se PI- = P2 = 0,1 e P3 = p~ = 0,2, calcule e. probabilidade de qúe exatamente 2 componentes venham a funcionar.
8.17. Um maquinisttll conserva um grande número de arruelas em uma
gaveta. Cerca de 50 por cento dessas arruelas são de 1/4 de polegada de diâmetro;
cerca de 30 por cento 81!.0 de 1/8 de díAmetro, e os restantes 20 por cento são de 3/8.
Suponha que 10 arruelms sejam 6SCOlhid118 !W aca.so.
(a) Qual é a probabilidade de que existam exatamente cinco arruelas de ·1/4,
quatro de 1/8 e uma arruela de 3/8?
(b) Qual é a probabilidade de que somente doía tipos de arruelaa estejam
entre as escolhidlll!l?
'(c). Qual é 1!. probabilidade de que todos os três tipos de arruell!B estejam
entre aquelas escolhidas ?
(d) Qual é 1!. probabilidade que existam tr& de um tipo, três de outro tipo,
e quatro do terceiro tipo, em urna e.mostra. de 10?
$.18.
Demonstre o Teor. 8.41.
8.19.
Demonstre o Teor. 8.6.
8.20. O .número de partícu!B.s emitidas por uma fonte radioativa, durante
um período especificado, é uma. va.riável aleatória com distribuição de Poisson.
Se a probabilidade de nl!,o haver emissões for igual a l/3, qual é a probabilidade
de que 2 ou mais emil;S5es ocoi!Tam 't
VARIÁVEIS AlEATÓRiAS DISCRETAS: A DE I'OiSSON !E OUTRAS I 213
8.21. Suponha que Xt, o número de partículas emitidas em t horas por uma
fonte radioativa, tenha uma distribuição de Poisson com parâmetro 20t. Qual
será a probabilidade de que exatamente 5 partículas sejam emitjdas durante um
período de 15 minutos?
8.22. A probabilidade de um bem sucedido lançamento de foguete é igual
a 0,8. Suponha que· tentativas de lançamento sejam feitas até que tenham ocorrido 3 lançamentos bem sucedidos. Qual é a probabilidade de que exatamentc 6
tentativas sejam necessárias? Qual é a probabilidade de que menos de 6 tentativas sejam necessárias?
8.23. Na situação descrita no Probl. 8.22, suponha que as tentativas de lançamento sejam feitas até que três lançamentos bem sucedidos, consecutivos , ocorram . Responda às questões que surgiram no problema anterior, neste caso.
8.24. Considere novamente a situação descrita no Probl. 8.22. Suponha
que cada tentativa de lançamento custe US$ 5.000. Além disso, um lançamento
falho acarrete um custo adicional de US$ 500. Calcule o custo esperado, para a
situação apresentada.
8.25. Com X e Y definidos como na Seção 8.6, comprove se a expressão
seguinte é ou não verdadeira:
P(Y<n)=P(X>r).
Algumas Variáveis Aleatórias
Contínuas Importantes
Capítulo 9
9.1.
Introdução
Neste capítulo, prosseguiremos a tarefa que nos propusemos
no Cap. 8, e estudaremos minuciosamente algumas variáveis aleatórias contínuas importantes, e suas caracteristicas. Como já salientamos anteriormente, em muitos problemas se torna matematicamente mais simples considerar um espaço amostral "idealizado"
para uma variável aleatória X, no qual todos os números reais possíveis (em algum intervalo especificado ·ou conjunto de intervalos)
possam ser c·onsid·erados como resultados possíveis. Desta Jhaneira,
seremos levados às variáveis aleatórias contínuas. Muitas das variáveis que agora introduziremos possuem importantes aplicações, e
adiaremos para um capítulo posterior o exame de algumas dessas
aplicações.
9.2.
A Distribuição Normal
A seguinte é uma das mais importantes variáveis aleatórias
contínua'3.
Definição. A variável aleatória X, que tome todos os valores
reais - oo < x < oo, tem uma distribuição normal (ou Gaussiana)
se sua fdp for da forma
j(x)· =
ff
_1
1 [ -X - - jJ.
exp ( - vz7r u
2
u .
]
2
)
,
-oo
<X<""·
(9.1)
Os parâmetros fJ. eu devem satisfazer às condições - oo < fJ. < oo,
Já que teremos muitas ocasiões de nos referir à distribuição
> O.
I
ALGUMAS VARIÁVEIS ALEATÓRIAS CONTfNUAS IMPORTANTES I 215
.
I
.
acima, empregaremos a seguinte notação: X terá distribuição N(p., u 2 )
se, e somente se, sua distribuição de probabilidade for dada pela Eq.
(9.1). (Freqüentemente, utilizaremos Ia notação exp (t) para representarmos e'.]
Até o Cap. 12, não vamos explicar a razão da grande importância
desta distribuição. Vamos apenas afirmar, por enquanto, que a distribuição normal serve como uma extelente aproximação para uma
grande classe de distribuições, que têm
enorme importância
prática.
I
.
Além disso, esta distribuição apresent ~ algumas propriedades matemáti~
cas muito desejáveis, que permitem ~oncluir importantes resultados
teóricos.
I
.I
9.3.
!Propriedades Ola Distrirôuição
~ormal
Vamos mostrar que f é uiI a . fdp legitima. Obviamente,
j(x);?; O. Devemos ainda verificar qlie f_"t,"' f(x) dx = 1. Notamos
I
que fazendo t = (x - JL )/u, poderemos!'escrever f_"t."' j(x) dx na fonw~
(lf'\h7r) f_"t,"' e~lz dt =I.
.
(a)
O artifício empregado pàra calc&lar esta integml. (e é um artificio) é considerar,
lugar de I, o Juadrado de::>ta integral, a saber
I 2• Deste · modo,
em
1 2 =-=
_!_!+"'
2r
= -1
27r
"'.
I
e-t•tz dt
II
!+ .
e-•'!2 ds
-.,
J_+"'
f_+"',
I
_.,
_., I
e-W'+t'>/2 ds dt.
Vamos introduzir coordenadas polares para calcular est& integral
dupla:
t =r sena.
s = r cosa,
1
I
Conseqüentemente, o elemento de áre\i ds dt se toma r dr da. Comó
e t variain entre - 00 e + CIO 1 f' Variall entre o e 00 1 enquantO Ol VlllJ!'ia '
entre O e 27r. Portanto,
8
J! = - 1
21r
12"1~l
o
=-
l
12rr
27r
,o
= -1
12"'
.
27r
0
o
-
I
re-,'!2 dr da
1
I , ., da
ef' '2lo
I
dct. :b 1.
I
Por isso, I= i, como se queria mostr~r.
,-.-
!,.
·
I.
216 l PROBABiLIDADE
(b) Vamos examinar o aspecto do gráfico de j. Ele apresenta
a bem conhecida forma de sino, mostrada na Fig. 9.1. Visto que j
depende de x somente através
f(Jt)
da expressão (x - J.J.)\ torna-se
evidente que o gráfico de f será
simétrico em relação a J.l. . Por
exemplo, se x = J.l. + 2, (x - J.J.F == (J.J. + 2 - J.J.) 2 = 4, enquanto para x = fJ. - 2, (x -p.)2 = (JJ.-2- J.J.) 2 = 4, também.
O parâmetro u também
pode
ser interpretado geometri!Fig. 9.1
camente. Observamos que para
x = Jl., o gráfico de j é descendente, de concavidade para baixo.
Quando x ~ ± ro; j(x) ~O, assintoticamente. Visto que f(x) ?: O
para todo x, isto significa que, para valores grandes de x (positivos
ou negativos), o gráfico de tem a concavidade para cima.. o ponto
no qual a concavidade muda é denominado ponto de ID.flexão, e será
localizado pela resolução da equação f"(x) = O. Ao fazer isso
verificamos que os pontos de inflexão ocorrem para x = J1. ± u.
Isto é, u unidades para a direita e para a esquerda d~ .Jl. o gráfico ·de
f muda de concavidade. Por isso, se u . for relativamente grande, o
gráfico de f tende a ser "achatado", enquanto se u for pequeno, o
gráfico de tende a ser bastante "pontiagudo".
·',
X = p.
r
r
(c) Em complemento à interpreta~ão geométrica dos parâmetros J1. e u, o seguinte significado probabilístico importante pode
ser associado a essas quantidades. Consideremos
E(X)
Fazendo z
=
E(X)
!+ ~
= V 211r u
_~
x exp
(
-
21 [.·-X u fJ.- ]
(x - J.J.)/u e observando que dx
= - 1
v21r
1
v21r
J_+~ (uz
-~
~ O"
J_+~
- ~
=
2
).
dx.
u dz, obteremos
+ J.J.)e-•'fl .dz
ze-•'1 2 dz
1
+ J.l.-=
.
-v!21r
J_
+m
e -•'12 dz.
~
A primeira das integrais acima é igual a zero, porque o integrando
g(z) possui a propriedade g(z) = - g(-z), e por isso, g é uma função
impar. A segunda integral (sem o fator JL) representa· a área total
sob a fdp normal e, por isso, é igual à unidade. Assim, E(X) = Jl.
. i
~
. AlGUMAS VAI'HÃVE!S A L IEÀTÓRftAS CONTI"NUAS iMPORTANTES I 217
Consideremos agora
]. [ x - Jl.
( -2 -dr-
]z) dx
•
Novament e fazendo-se z = (x - J.L)Iu , obteremos
:;
,,i:'
i
! I
A segunda integral também é igual a zero, pelo mesmo argumento
usado acima. A última integral (sem o fator' J.L 2 ) é igual à unidade.
Para calcular (l/V 27r) J_+.,m z 2e-•'12 dz, integraremos por partes,
fazendo ze-•'1 2 = dv .e z = u. Conseqüentemente v = - e~·Jz enquanto dz = du. Obteremos
{ "
1
v'21r
f+m z e-•'1
2
2
dz =
m
=,0
-ze-<'J2,+m + --=
1
f+m e-•'1 dz=
2
v21r
+1=
-..,
v21r
-..,
1.
Logo,
= a- + J.L e, portanto, V(X) = E(X 2) - [E(X))2 = a- 2 •
Deste modo verificamos que os dois parâmetros J.l e 172, que caracterizam
a distribuição normal, são a expectância e a variância de X , respectivamente. Para dizê-lo de outra maneira, se souoormos que X é distribuida normalmente, saooremos apenas que sua distribuição de probabilidade é de um certo tipo (ou pertence a uma certa famllia). Se,
além disso, conhecermos E(X) e V(X), a distribuição de X estará
completamente especificada. Como dissemos acima, o gráfico da
fdp de uma variável aleatória normalmente distribuida é simétrico
em relação a J.L. O achatamento
do gráfico é determinado por 17 2,
no sentido de que :oe X tiver distribuição N(J.L, 1712) e Y tiver distribuição N(J.L, 17z2), onde 171 2 > 17z 2, então ~C::::.....----x-l~,-p.-----""--<>X
suas fdp terão as formas relativas
I
.
Fig. 9.2
apresentadas na Fig. 9.2.
(á) Se X tiver a distribuição N(O, 1), diremos que X possui. a
dis.tribuição normal reduzida. Isto é, a fdp de X pode ser escrita ·co~o
E(X 2)
2
2
·l··;
1•••
218 I PROBABiliDADE
igual a
I
l{J(x)
-x'f2 .
= V 27r e
(9.2)
(Empregaremos a letra l{J exclusivamente para a fdp da variável
aleatória X acima.) ·A importância da distribuição normal reduzida
está no fato de que ela está tabelada. Sempre que X tiver a distribuição N(p., CT 2), poderemos sempre obter a forma reduzida, pela
adoção de uma função linear de X, como o indica o seguinte teorema :
=
Teorema 9.1.· Se X tiver a distribuição N(}J., u 2), e se Y =
aX + b, então Y terá a distribuição N(ap, + b, a 2 u 2) .
Demonstração: O fato de que E(Y) = ap, + b e V(Y) = a 2CT 2
decorre imediatamente da.'l propriedades do valor esperado e da variância explicadas no Cap. 7. Para mostrar que, de fato, Y será normalmente distribuida, poderemos aplicar o Teor. 5.1, já que aX + b
será ou uma função decrescente ou uma função crescente de X, dependendo do sinal de a. Em conseqüência, se g for a fdp de Y, teremos
g(y)
=
~:11" CT
exp ( -
2!~
[
Y
~b
- J.L ] )
I! I
1
V27r CT!al exp ( -
que representa · a fdp de uma variável aleatória com distribuição
N(a!J. + b, a 2ir 2).
Coroldrio. Se X tiver distribuição N(}J., u 2) e se Y = (X - J.L)/CT,
então Y terá distribuição N(O, 1).
Demonstração: É evidente que Y é uma função linear de X, e,
por isso, o Teor. 9.1 se aplica.
.,
Comentário: A importância deste corolário é que, pela mudança de unidades
na qual a variável é mensurada, poderemos obter a distribuição reduzida (veja o
item d). Ao fazer isso, obteremos urna distribuição com parâmetros não-especificados, situação a mais desejáVel do ponto de vista da tabulação da distribuição
(veja a seção seguinte).
·
ALGUMAS VARIÁVEiS ALEATÓRIAS C0NTfNUAS IMPORTANTES I 219
!
9.4.
.
I
Tabu iõllçálo da1 IOistriino iÇã\o
INlorm~i
Suponha-se que X tenha distrib~ição N(O, 1).. Nesse caso,
. .l I
rb e-"'12 dx.
- -< b) = v2nJ,.
P(a <X
Esta integral não pode ser calculadl pelos caminhos comuns. (A
dificuldade reside no fa~ de que llião dodemos aplicar o Teorema Fun. I
damental do Cálcwo, porque não podemo:> achar uma função cuja
derivada seja igual a e-z'f2 .) Cont~do, métodos de int~gração numérica podem ser empregados para ca;lcular integràis da :.forma acima.,
e de fato P(X ~ s) tem sido tabelada.
A fd da distribuição normal -reduzida sem· coerentemente denotada por <][>. Isto é,
<ll(s) =
1
~~ e-z'f2 dx.
T
(9.3)
v21r .
(Veja a Fig. 9.3.) A função ,<ll tem ~ido tabelada extensivamente, e
um extrato dessa .tábua está
1
( )
'
.p X
apresentada no Apêndice. PoI
demos agora utilizar a tapuia,
ção da funÇão <I>, · a fim de cal·
cularmos P(a ~X ~ b), onde X
tem a distribuição reduzida
N(O, 1) visto que
P(a ~ X ~ b)
= <X>(b) - <Jr>(a).
!Fig.
u
A utilidade notável da tabulação
é devida ao fato de que,
se X tiver qualquer distribuição
, N(p., u2), a. função tabelada ~
pode ser empregada para calcular pnloa.outaaa!)s associadas · a X. ,
Simplesmente empregaremos o
9.1 para salientar que se
X tiver distribuição N(p., u 2), então r Y = (X - Jl)/u terá distribuição N(O, 1). Conseqüentemente,
i
1
P(a
< X < b) = P (
-
-
a - J&!
<
u I-
/LI) -q-1
_ <][> '( b -
-
Y
<
-
<][>
b - ,u ) =
u
( -u
.z - p. ) .
(9.4)
lr: também evidente da definição de <J[>I (Veja Fig. 9.3) que
<][>(- x) = 1-
~(x).
(9.5),
-: '
220 I I?ROBABIUOADIE
Esta relação é particularmente útil, porque na maioria das tábuas,
a função 4\1 está tabulada somente para valores positivos de x.
Finalmente, vamos calcular P(fl - ku ::::; X ::::; p. + ku), onde X
tem distribuição N(p., c:r 2). A probabilidade acima pode ser expreasm
em termos da função <ilP>, ao se escrevteK'
P(p, - ku :$ X :$ p.
+ ku) =
P ( - k :$ X; !A :$
k)
= q[>(k) ~ <ilP>(- k).
Empregando a Eq. (9.5), teremos para_ k > O,
P(fl - ku :$ X :$ p.,
+ ku)
= 2<i>(k) - 1.
(9.6)
Observe-se que a probabilidade acima é independente de p., e u. Explicando: A probJJ.bilidade de que uma variável aleatória com distribuição N(p., u 2 ) tome valores até k desvios padrões do valor esperado
depende somente de k, e é dada pela Eq. (9.6).
Came11tário: Teremos muitas ocasiões de nos referir a "!unções tabeladas" .
Em certo sentido, quando uma. expressão pode ser escrita. em termos de furiç.Ões
tabeladas, o problema est§. "resolvido". (Com o recurso das modemàs instalações
de computação, muitas funções que ainda. não estejam tabuladas podem ser facilmente calcula.da.3. Muito embora não ll.'lperemos que qualquer pessoa. tenha
fácil aCesso ·s. um computador, . não parece muito desarrazoado supor que algnma.S
t.é.buas comuns sejam dispmúveis.) Por isso, nos sentimos tão à vontade com, a
função cil(x) = (I/ V27r) f_!"' e -n'/2 ds quanto com a função f(x) = ...;-;.
Amba..9 essas funções estão tabeladas e, em ambos os casos poderemos sentir alguma dificuldade em calcular diretamente a função para x = 0,43, por eJWmplo. No
Apêndice, estão reunidas várias t.é.buas de algumas das mais importantes funções
que encontraremoa em nosso trabalh.o. Referências ocasionais .serão feitas a outras
tábuas não incltúdas neste livro.
Exemplo 9J.. Suponha-se que X tenha distribuição N(3, 4).
Desejamos achar um número c, tal que P(X > c) = 2P(X ::::; c).
Observamos que (X - 3)/2 tem distribuição N(O, 1). Logo,
P(X
> c) = prf X
\
- 3
.2
> c-
2
.3 )
= l _ ~ ( c - 3 )·
2
•
Tm1hêm,
P(X ,::::; c) = p
(X ; 3: : ;
c~
3) = ~ (
c
~
3).
.
,j:
ALGUMAS VARIÁVEOS ALEATÓRiAS CONTfNUAS 11\/lPORTAN"fES I 221
A condição anterior pode, pois, ser escrita como 1 - <I> [ (c- 3)/2] =
= 2q[P [(c - 3)/2]. Isto se toma ÇP [(c - 3)/2] = 1[3. Dai (a partir das tábuas da distribuição normal) encontrarmo~ que (c- 3)/2 =
= - 0,43, fornecendo c = 2, 14.
Exemplo 9.2. Suponha-se que a carga de rupturn de um tecido
de algodão (em libras), X, seja D.ormalmente distribuída com E(X) =
= 165 e .V(X) = 9. Além disso, admita-se que uma amostra desse
tecido seja considerada defeituosa ae X < 162. ·. Q~al é a probabilidade de que :mn. _tecido· escolhido ao acaso ~ja defeituoso i'
Devem~s calcular P(X < i62). .Contudo,
P(X
< 162) = p (X ~ 165 < 162 ; 165 )
=
<][>( - 1) = 1 - <][>(1) = 0,159.
Comentário: Uma objeção imediata ao emprego da distribuição normal pode
surgir aqui, porque é óbvio que X, a carga de ruptura de um tecido de algodão,
não pode tomar valores negativos, enquanto uma variável aleatória no.rmalmente
distribuída pode tomar todos. os valores positivos e negativos. No entanto, o
modelo acima (aparentemente .não válido, à vista da objeção recém surgida) atribui probabilidade desprezível ao evento {X <O}. Isto é, ,
.P(X <O)=
p(
X-; 165 < O -3165) =
.cf>(-55)~0.
O caso surgido aqui ocorrerá freqüentemente: Uma dada variável aleatória X,
que sabemos não poder tomar valores negativos, será suposta. ter uma distribtúção
normal, desse modo tomando (ao menos teoricamente) tanto valores positivos
como negativos. Enquanto os parâmetros J1. e u 2 forem escolhidos de modo que
P(X < O) seja essencialmente nula, tal representação será perfeitamente válida.
O problema de encontrar a fdp de uma função de variável aleatória, por exemplo Y = H(X), tal como se explicou no Cap. 5, se
apresenta nesta passagem, em que a variável aleatória X tem distribuição normal.
Exemplo 9.3. Suponha-se que o raio R de uma esfera de rolamento seja normalmente distribuído com valor esperado 1 e variância 0,04. Determinar a fdp do volume da esfera de rolamento.
A fdp da variável aleatória R é dada por
j(r)
=
1
V21r (0,2) exp
(
-
[r-
2
21 (),21 ] ) ·
Já que V é uma função monotonicamente crescente de R, P9demos
aplicar direta.mente o Teor. 5.1 para a fdp de V = 4/3 1rR 3, e 9pter
:·•
222 I PROBABILIDADE
g(v)
= j(r) (drfdv), onde r será sempre expresso em termos de v. Da.
relação acima, obteremos r = {/3v/47r. Daí, drjdv = (1/47r)(3v/47r)-2' 3•
Pela substituição dessas expressões na equação acima, obteremos a
fdp de V desejada.
Exemplo 9.4. Suponha-se que X, o diâmetro interno (milímetros) de um boéal, seja uma variável aleat6na normalmente distribuída com valor esperado p, e variância 1. Se X não atender a determmadas especificações, o fabricante sofrerá um prejuízo. Especificamente, suponha-se que o lucro T (por bocal) seja a seguinte função
d~.X:
T = Cx dólares se 10 :$ X :5;; 12,
se X< 10,
se X> 12.
Conseqüentemente, o lucro esperado (por bocal) pode ser escrito:
E(T) = Cx[<l>(12- p,)- cl>(10- p,)]- Cz[<I>(IO_. p,)]- Ca[1- <1>(12-:- p,)] ·
= (Cx
+ Ca)ci>(12-,u)- (Cx+Cz)<I>(IO- p,)- Ca.
Admita-se que o processo de fabricação possa ser ajustado de
modo q,ue diferentes valores de p, possam 'Ser encontrados. Para
que valor. de p, o lucro esperado será máxiino? Devere~os calcular
dE(T)j(dp,) e igual/i-la a zero. Denotando, como é cost\nne, a fdp
da distribuição N(O, 1) por l{J, teremos
dE(Tl
~
=
(Cx
·
+ Ca)[-l{J(l2p,)]- (Cx +Cz)[- l{J(lO- p,)].
Daí,
- (Cx
+ Ca) V~7r
exp [ -
~
(12- p,)2]
+ (C1 + C.,J V~7r
+
exp [ -
~
(10-p,)2
J
=0.
Ou
Portanto,
M = ll _ _!_ln ( Ct
2 .
C1
+ Ca )·
+ Cz
[f; fácil tarefa para o leitor verificar que a expressão acima fornece
o valor máximo para E(T).]
I
·[
ALGUMAS VARIÁVEIS AlEATÓijH AS CONTfNUAS IMPORTANTES
Comentários:
a
l-
r-
I 223
i
(a) Se C2 = C3, is~o é, se um diâmetro X muito grande ou.
muito pequeno constituírem defeitos igualmente sérios, então o valor de Jl, para
o qual o valor máximo de E(T) é atingido, será Jl = 11. Se C2 > C3, o valor
de p. será maior que 11, enquanto sei C2 < C3 , o valor de Jl será menor que 11.
Quando p. ~ + oo, E(T) ~ -Ca, enquanto se JL __,. ,_ ""• E('l') ~ -C2.
(b) Considerem-se 08 seguintes v~ores de custo: cl = US$ 10, c2 = US$ 3,
I
'
e Ca = US$ 2. Em conseqüência, o !valor de fi. para o qual E(T) se tomará
máximo é p. = 11 - (1/2) ln (12/13) US$11 ,04. Deste modo, o valor mt!.JP..mo
atingido por E(T) será igual a US$ 6 ,~4 por bocal.
=i
iio
Definição. Uma variável al~at6ria contínua X, que tome todos
oo valores não-negativos, terá ~a distribuição exponencial com parAmetro 01. > O, se sua fdp for dad~ por
1
1
•
J(x)
=
:!:
:le
ra
ar
lp
i
ae-;J\"''
x l>
:.,
,.,
I O
Ó, para quaisquer outros valores;
I
(Veja a Fig. 9.4.) [Uma integração imediata mostra que
1"'
J(x) dx
=
1
(9.7)
f(x)
1
!
e, por isso, a Eq. (9.7) represen1a
uma fdp.J
!
A distribuição exponencial dibsempenha importante papel n~
Fig. 9 •4
descrição de uma grande classe ide fenômenos, particularmente nos
assuntos da teoria da confiabntdade. Dedicaremos : o Cap. 11 a
algumas dessas aplicações. Por1 enquanto, ' vamos apenas estudar
algumas das propriedades da dis~ribuição exponencial.
o.
I
r
9.6.
(a)
Propriedac!Jem da lOi~,tribuiçio E:rqoonencie!
A fd F da distribuição
e~nencial é dada por
I
F(x) =.P(X
s x) =
("/xe-'dt
~
j.J!
l í.- ><>
e:;;;}~~ O
'f O,
[Portanto, P(X > x) ·=
~r·"""J
(9.8)
.:::-L--
1 .
para o:utros quaisque,r v~ores.
·. ':
\
224 I PROBABIUOADE
(b) O valolt' esperado de X é obtido assim:
E(X) =
1'"
:me-- dx.
por partes e fazendo ae-""' dx = dv, x = u, obtemos
du = dx. Port~mto,
E(X) = [-
. + 1"'·
u-"llo
o
e--<12 dx = - :1. ·
(9.9)
Ol
Por conseguinte, o valor esperado é igual ao inverso do parâmetro a.
[Pelo simples rebatismo do parâmetro a = 1/~, poderíamos escrever
a fdp de X como sendo f(x) = (1/~)e-x 113. Nesta forma, o parâmetro ~ fica igual ao valor esperado de X. No entanto, continuaremos a
empregar a forma da Eq. (9.7).]
(c) A variância de X pode ser obtida por uma ·integração semelhante. Encontraremos que E(X 2) = 2/a 2 e por isso
1
V(X) = E(X 2 ) - [E(X)]2 = ·
Ol~
(9.10)
(á) A distribuição exponencial apresentm a seguinte interessante propriedade, nnáloga à Eq. (8.6) exposta para a distribuição
geométrica. Considere-se para quaisquer s, t > O, P(X > s
tiX >e). Teremos
+
+
P(X
> s + tI X > s) =
P(X >
P(X
8
+ i)
> s)
Portanto,
P(X
> s + tI X > s) =
P(X
> i).
(9.11)
Desta maneira,. mostramos que a distribuição exponencial apresenta
, também a propriedade de "não possuir memória", tal como a distribuição geométrica. ('"feja o Comentário que se segue ao Teor. 8.4.)
Faremos uso intenso dessa propriedade ao aplicarmos a distribuição
exponencial aos modelos de fadiga, no Càp. 11.
. Comentário: Do mesmo modo que ~ verdadeira no caso da distribuiÇão geométrica, a reciproca da; Propriedade (d) também vale aqui. A única variável aleat&-ia contln= X, que toma valores não-negativos para os quais P(X > s
t \X > g)·= P(X > t) para todos s, t > O, é uma variável aleatória distribuída
+
+
exponencialmente. [Muito embora não o provemos aqui, deve-se salientar que o
ponto crítico do racioclnio se refere ao fato de que a única função continua G, que
tem a propriedade de G(x + y) = G(x)G(y) para todQs
y > O, é G(x) = e-k:<.
Verifica-oo facilmente que se ·definirmos G(x) = 1 - F(x), onde F é a fd de X,
entií,o G satisfará. a esta condição.]
x,
;.1
h
.!i
::i!,,,
ALGUMAS VARIÁVEIS ALIEATÓR8AS CONTfi\IUAS iMPORTANTES / 225
·•:•
:!~
~;~
.:;~
Exemplo 9.5. Suponha-se que tn:n fusfvei tenha uma duração de
vida X, a qual pode ser considerada uma variável aleatória contínua
com uma distribuição exponencial. Existem dois processos pelos
quais o fusível pode ser fabricado. O processo I apresenta uma duração de vida esperada de 100 horas (isto é, o parâmetro é igual a
ll00- 1), enquanto o Processo H apresenta uma duração de vida esperada de 150 horas (isto é, o parâmetro é igual a 150-1). Suponha-se
que o processo H seja duas vezes mais custoso (por fusível) que ll
processo I, que custa C dólares por fusível. Admita-se, além disso,
que se um fusível durar menos que 200 horas, um& multa de K dólares
seja lançada sobre o fabricante. Que processo deve ser empregado?
Vamos calcular o custo esperado para cada processo. Para o processo I , teremos
- Cr
= custo (por fusivel)
C
··';!
'I
:!~
"1 ~
:jj
fi
l!~
~ l~
ijí.l
fj';l·i
li,
.jij
i,I,:l
,,,'•J
,li
se X> 200
C + K se X ::s; 200.
I
'
I
Logo,
)
E(C1)
=
CP(X
<_200) +
(C
+ K)P(X ::s;
I
fi I
'li
200)
+ (C + K)(l _ e-<lliooJzoo)
+ (C + K){l - e- = K(l - e- + C.
= ce-<ltloo)2oo
= Ce-2
2)
[I·
2)
.ii
Iii
<:11•
Por um cálculo semelhante, encontraremos
li!i
lllj
n.
Portanto,
E(Cn) - E(Cr) = C
ConBeqüentemente,
C> 0,13K.
+ K(e-
2 -
preferiremos
e-413)
o
=C-
processo
-~
0,13K.
I,
visto
~1\1
ll:j.,,
que
P\
!:Iii
'!;I
T
q·
."!
i,'
Exemplo 9.6. Suponhamos que
X tenha uma distribuição exponencial com parâmetro ot. Nesse caso,
E(X) = 1/ot. Vamos calcular a probabilidade de que X ultrapasse seu
valor esperado (Fig. 9.5). Teremos
p (X >
! )=
j(x)
:!i').i
· t,
ii:I
;L
:I!:r
e-..(1/m}
I .
1
:r=l
:iji'
''I.·'
= e-n < -2
um
Exemplo 9.7. Suponhamos que T, o período para a quebrli· de
componente, seja distribuido exponencialmente. Portan,to,
;:·.
. '\\
J\;
d'
i.'
•I
í:
"
I'
l
b'ii
226 I PROBABiUDADE
j(t) = ae-at. Se n desses componentes forem instalados, quai será
a probabilidade de que a metade ou mais deles ainda esteja em fun•
cionamento oo fim de t horas? .A probabilidade pedida é
e -at)n-k(e-atk)
se n f or Í mpar.
Eumplo 9.8. Suponhamos que a duração da vida T, em horas,
de determinada. válvula eletrônica seja uma va-riável aleatória com
distribwção exponencial, com parâmetro ~Quer dizer, a fdp é
dada por j(t) = (3e-f3 1, t > O. Uma máquina que emprega esta
válvula custa C1 dólares/hora de funcionamento. Enquanto a máquina está funcionando, um lucro de C 2 dólares/hora é obtido. Um
operador deve ser contratado para um número de horas prefixado,
H, e recebe um pagamento de Ca dólares/hora. Para qual valor de H,
o lucro esperado será máximo ?
Vamos inicialmente obter uma expressão para o lucro R.
remos
R = C2H - C1H - CaH
= C2T - C1T - CaH
se T
Te-
>H
se T :::; H.
Note-se que R é um:a variável aleatória, porque é uma função de T.
Daí
E(R)
= H(C2-
+ (C2-
1
> H)
- CaHP(T :::; H)
8
C1)
t(3e-f3 1 dt
Ca)e-f3 8 - CaH(l - e-f3 8 )
(C2- Cl)[(3- 1 - e-f3 8 ((3- 1 + H)]
= H(C2-
, +
C1 - Ca)P(T
C1
-
= (C2 - CI)[He-f3H + {J- 1 - e-f3H({f"- 1 +H)] - CJI.
Para obtermos o valor JWLá.ximo de E(R), derivaremos em relação
a H e faremos a derivada igwLI a zero. Teremos
"~ :
ft~
ALGUMAS VARIÃVEIS AlEATÓRIP\S CONTfNUAS IMPORTANTES I 227
I
I
,
Conseqüentemente dE(R)/dH = O ~carreta q'111e
H=
I
_,(__!_)
1n
(3
I
1[
C3
]·
Cz- Ct
I
[A fim de que a solução acima tenHa significado, devemos ter H > O,
I
o que ocorre se, e somente se, O 'S Ca /(C 2 - C1) < 1, o que por ~ua ,
vez é equivalente a Cz- Ct >O e iC2 - C1 - Ca >O. No entanto,
a últka condição exige apenas quk os dados de custo sejam de tal
magnitude que um lucro possa ser auferido.)
ifi1
~~
]~
J-~5
·~~
t
~ri
I
,q~
:~~
·:~ ,Y:
J
"~'
.
Suponha-se, em particular, que (3 = 0,01, C1 = US$ 3, Cz =
= US$ 10, e Ca = US$ 4." Nessel' caso, H = - 100 ln (4/7) =
= 55,9 horas e::: 56 horas. Portanto,I! o operador
deve ser contratadGl
'
para 56 horas, de modo a se alcan'çar o máximo lucro. (Para uma
ligeira modificação do exemplo acim~, veja o Probl. 9.18.)
I
I
I
9.7.
1
A Distribuição Gama
-~"'
'
'
I
·~r::
.:i;
Vamos, inicialmente, introduzir uma função que é da maior
importância, não somente em teoria ide probabilidade, mas em muitos
_I
domínios da Matemática.
~~
~~
'1~
ti _
A junção gama, denotada por
Definição.
j~
'\r
·~~í
' r(p)
~~
I
=
1
~
I
r,
xP~le-" dx, !definida para
é assim definida:
p
> O.
(9.12)
I
I
[Pode-se demonstrar que essa I integral imprópria existe (converge) sempre que p > O.l Se iqtegrarmos por partes,' fazendo
e_, dx = du e xP-t = u obteremos !
'
r(p)
,
I
= -e-:rxp-llõ = O + (p
-
~~J
~I
\e-:rxp- 2 dx
1) l
= (p - 1)rcv -
[-e-"(p- 1)xP-Z d:d
0
I
I).
!
(9.13)
I
Desse 'modo, mostramos que a funç~o gama ob~dece a uma interes-
"'I
I
i~';_, _
. ~#i,.!tt:.
.
sante relação .de recorrência. Sup6nha.:.se que p seja 1 um inteiro
positivo, digamos p = n. Enião, aplicando-se a Eq. (9.13) repetii
damente, obteremos
'
rcn)
= cn - l)rcn - 1)
= (n- l)(n- 2)r(n-
I
2~
'
,. ,
= ... = (n - l)(n - 2)· . . r(l};.
~
228 I PAOBABHUDAIIJIIE
Porém, I'(l) =
fo "'e-"' dx = 1, e, por isso, teremos
r(n) = (n- 1)!
(9.14)
(se n for um inteiro positivo). (Portanto, poderemos considerar a
função gama como uma generalização da função fatorial.) É também fácil verificar que
r( ~ )
=i"'
x- 112e-"' dx =
-v;.
(9.15)
(Veja o Probl. 9.19.)
Com o auxilio da funçãÕ gama, poderemos agora introduzir a
distribuição de probabilidade gama.
Definição. Seja X uma variável aleatória continua, que tome
somente valores não-negativos. Diremos que X tem uma distribuição de probabilidade gama, se sua fdp for dada por
j(x)
f{x)
= -01.- (ax)'- 1e-&-"
I'(r)
'
x>O
= O, para quaisquer outros
valores.
(9.16)
Esta distribuição depende de
~:::::::::_
_ _..:=::=:=::::::::=...,.x
dois parâmetros, r e a, dos quais
se exige r >O, a >O. [Em virtude
da definição da função gama,
é fácil ver que f_:!:"' j(x) dx = 1.]
•A Fig. 9.6 mostra o gráfico da fdp Eq. (9.16), para vários valores
de r e a= L
Fig. 9.6
9.8.
Propriedades d<l! Distri!:wição Gama
(a) Se r = 1, a Eq. (9.16) fica j(x) = ae-«"'. Portanto, a d1·stribuição eiponencial é um caso particular da distribuição gama. · (Se r
for um inteiro positivo maior do que um, a distribuição· gama também estará relacionada com a distribuição· exponencial, porém de
uma forma ligeiramente diferente. Tratare~os disso no Cap. 10.)
(b) Na maioria de nossas aplicações, o parâmetro r será um
inteiro positivo. Neste caso, existe uma interessante relação entre
a fd da distribuição gama e a distribuição de Poisson, que agora apresentaremos.
.ALGUMAS VARiÁVEiS ALEATÓRIAS COI\!TfNUAS iilliPORTANTES I 229
r = fa "'(e-Y·!/fr!)dy,
Considere-se a integral
na qual r é um
inteiro positivo e a > O. Então, r!I = fa"' e-ily• dy. Integrando r1or
partes; fazendo-se u = y' e dv = e-Y dy, teremos du = ryr-I dy e v =
= - e-11 • Daí, r!J = e--ea• + r .f." e-11 y'- 1 dy. Nessa expressão, a integral é exatamente da mesma forma que a integral original, com r
substituído por (r- 1). Deste modo, continuando-se a integrar
por partes, desde que r seja um inteiro positivo, teremos
r!I
= e-a [a'+ ra'- 1 + r(r - l)a'- 2 +
· · · + r!l.
Conseqüentemente,
I
=
=
e-<~[1
t
k=o
+ a + a /2! + · · · + a'fr!]
2
P(Y
=
k),
onde Y tem uma distribuição de Poisson com parâmetro a.
Consideremos agora a fd da variável aleatória cuja fdp seja
dada pela Eq. (9.16). Desd~ que r seja um inteiro positivo, a Eq. (9.16)
poderá ser escrita assim
·
j(x) =
a
(r- 1)!
(ax)'- 1e-«'", x
>O
.e cohsiflüentemente a fd de X se torna
F(x)
= 1-
P(X > x)
= 1-
j"' _
_!!_ (as)'- 1e-"' ds, x >O.
x
(r -
1)!
Fazendo-se (as) = ú, verificamos que isto se transforma em
. 1"'
F(x) = 1 -
'""'
u•-!e-"
X>
(r_ 1)! du,
Ü.
Esta integral é justamente da forma considerada acima, a saber I
(com a = ax), e portanto
r-1
F(x) = 1 -
L
e-"'x(ax)k/k!,
k~O
X>
0.
(9.17)
Por isso, a jd da distribuição gama pode ser expressa em termos
da jd tabulada da distribuição de Poisson. (Lembramos que isto é
válido quando o parâmetro r é um inteiro positivo.)
1
e
I
Comentdrio: O resultado apresentado na Eq. (9 .11), que relaciona·a fd',da
. ·distribuição· de Poisson com a fd da distribuição gama, não é tão surpreendente
quanto poderia parecer à primeira vista, como será explicado a seguir.
·. ·
230 I
' PROBAB~LBDADE
Antes de tudo, lembremo-nos da relação entre as distribuições binomial e
de Pascal (veja o Comentário (b ), Seção 8.6). Uma relação semelliante existe entre
as distribuições de Poisson e gama, destacando-se que esta última é uma distribuição contfuua. Quando tratamos com uma distribuição de Poisson, estamos essencialmente interessados no número de ocorrências de algum evento durante um
periodo de tempo fixado. E, como também será indicado, a distribuição gama
surge quando inqagamos a distfibuição do témpo necessário para obter um número especificado de ocorrências do evento.
Especificáinente, suponhamos X = número de ocorrências do evento A
durante (0, t). Então, sob condições adequadas (por exemplo, satisfazendo as
hipóteses A 1 até A 5 da Seção 8.3), X tem uma distribuição de Poisson com parâmetro at, onde a é o número esperado (ou médio) de ocorrências de A durante
um intervalo de tempo unitário. Seja T = tempo necessário para observar r ocorrências de A .
Teremos:
H(t) =P(T <. t) = 1- P(T > t)
1 - P(menor do que r ocorrências de A ocorram em
(O, t])
1-P(X<r)
r- 1
1-
I:
e- at (at)k
k =O
k!
·A comparação disso com a Eq. (9.17) estabelece a relação desejada.
(c) Se X tiver uma distribuição gama, dada pela Eq. (9.16),
teremos
E(X)
Demonstração:
9.9.
=r/a,
(9.18)
Veja o Probl. 9.20.
A Distribuição de Qui-Quadrado
Um caso particular, muito importante, da distribuição gama
Eq. (9 .16) será obtido, se fizermos a = 1/2 e r = n/2, onde n é um
inteiro positivo. Obteremos uma família de distribmções. de um
parâmetro, com fdp
z
>o.
(9.19)
Uma variável aleatória Z, que tenha fdp dada pela Eq. {9.19), terá
uma distribuição de quz'-quadrado, com n graus de liberdade, (denotada
por Xn 2). Na Fig. 9.7, a fdp está. apresentada; para n = 1, 2 e n > 2.
ALGUMAS VARiÁVEIS ALIEATÓfUAS C.Oi\ITfNUAS HVii?ORTANTJES I 231
I
múal e
:e entre
stribuis essenl).te um
o gama
t'núme-
Uma conseqüência imediata da !Eq. (9.18)
Eq. (9.19), teremos
= n,l
E(Z)
n=2[I
(a)
z
(9.20)
J(z)
i
entoA
mdo as
m parâiurante
r ocor-
que se Z tiver a fdp da
. V(Z) = 2n.
I
I
J(z)
f(z)
~
R>2
~--~-(~~~~--~z
.1
F1lg . 9.7
ram em
(9 .16),
(9.18)
I
A distribuição de qui-quadr~do possui numerosas aplicações imm
portantes em inferência estatistica, algumas das quais mencionaremos mais tarde. Em Virtude jde sua importância, a distribuição
de qui-quadrado está tabulada1 para diferentes valores do parâmetro n. (Veja o Apêndice.)
j(z)
.Deste modo, poderemos . aéhar
na tábua, aquelevalor denotado
por x-,.3 que sat~sfaça a P(Z $
~ Xa 2) =a, O< a< 1 (Fig. 9.8).
O Ex. 9.9 trata de um caso particular de uma , cara.cterização
geral da distribuição de qui-quadrado, a qual estudaremos
Fig. 9.8
em capitulo posterior.
I
gama
é um
.e um
Exemplo 9.9. Suponha-se · due a velocidade V de um objeto
tenha distribuição N(O, 1). Sej~ K = mP/2 a energia cinética do
objeto. Para· encontrar-se a fdb de K, vamos inicialmente achar
fdp . de S = V 2• Aplicando ditetámente o Teor. 5.2, teremos . .
a
(9.19)
'), terá
notada
n > 2.
•
1
1
g(s)
I_r
= .y-; [~{v
2
= s-'il
_l_j·
v'21r
s)
e-'-"12.
-
+ (,0(-:- V s)]
.
.-M.'.l
232 I I?ROBABIUDADE
Se compararmos esse resultado com a Eq. (9.19) e recordarmos que
I'(l/2) = .y;;:, observaremos que S tem uma distribuição de X1 2 •
Assim, encontramos que o quadrado de uma varidvel aleatória com
distribuição N(O, 1) tem uma distribuição de )( 12• (É este resultado
que generalizaremos mais tarde.)
Agora, poderemos obter a fdp h da energia cinética K. J&
que K é uma função monótona de P, cuja fdp é dada por g, acima,
teremos diretamente
2 , .( -2 k ) . = 2
li. . ( -2 k )-11/2e-kfm
h(k) = _
m"' m
m V271"
m
'
k
>o.
Para calcularmos, por exemplo, P(K .::::; 5), não necessitaremos empregar a fdp de K, mas poderemos simplesmente utilizar a distribuição
tabulada de qui--quadrado, da seguinte maneira:
' Esta última probabilidade poderá s~r diretamente obtida das tábuas
da distribuição de qui-quadrado (se m for· conhecido), porque VZ
apresenta uma distribuição de X1 2 • Já que E(V2) == 1 e ít variância
(V 2 ) =-2 [veja a Eq. (9.20)], acharemos diretamente
.
E(K) = m/2 e
V(K) = m 2/2.
Comentário: A tabulação da distribuição de qui-quadrado, dada no Apêndice, somente apresenta aqueles valores para os quais n, o número de graus de
liberdade, é menor ou igual a 45. A justificativa disso é que, se n for grande,
poderemos aproximar a distribuição de qui-quadrado com a distribuição normal,
como se indica pelo teorema seguinte.
Teorema 9.2. Suponha-se que a variável aleatória Y tenha
distribuição de x.. ~. Então, para suficientemente grande, a· variá-
n
vel aleatória V2Y tem aproximadamente a distribuição N( V2n-1, 1).
(A demonstração não é dada aqui.)
Este teorema pode ser· empregado da seguinte maneira. Suponha-se que desejamos P(Y .::::; t); onde Y tem distribuição de Xn 2, e
n é tão_ grande que essa probabilidade não possa ser diretamente
obtida da tábua da distribuição de qui-quadrado. Empregando o
AII..GUIVlAS VAR8ÁV lEIS AILEATÕR !AS COI\!Tfi\!UAS !IVliPORTAN1l"ES
I 233
Teor. 9.2, poderemos escrever
2
I.
m
lo
P (Y :$ t)
= P(v2Y :$ -v'2t)
..j2n=-i :$
= <P(v2t..,.. v2n - 1).
= P(y2Y-
v2t -V2n-
1)
l
r&
a,
O valor de <lP será obtido das tábuas da distribuição normal.
9.10. Comparações e111t 1re Diversas Distrib!Aições
e~
LO
Até agora, já apresentamos algumas importantes distribuições de
probabilidades, discretas ou contínuas: a binomial, a de Pascal e a
de Poisson, dentre as discretas; a exponencial, a geométrica e a gama,
dentre l!S. contínuas. Nã9 vamos reafirmar as várias hipóteses que
levaram a essas distribuições. Nosso principal propósito é destacar certas
semelhanças (e diferenças) entre as variáveis aleatói:ias que possuem
essas distribuições.
.,
1. Admita-se que provas independentes de Bemouilli estejam sendo
realizadas:
lS
T2
ta
nje
!e,
a!,
ta
á~
).
D-
e
te
o
(a) variável aleatória: número de ocorrências do evento A em
um número fixado de provas;
distribuição: binomial;
(b) variável aleatória: número de provas de Bemouilli necessárias para obter a primeira ocorrência de A;
distribuição: geométrica;
(c) variável aleatória: número de provas de Bemouilli necessárias para obter a r-ésima ocorrência de A;
distribuição: Pascal.
2. Admita-se um Processo de Poisson (veja o Comentário (c) que
·
precede o Ex. 8.5):
(d) variável aleatória: número de ocorrências do evento A, durante um intervalo de tempo fixado;
distribuição: Poisson;
(e) variável aleatória: tempo :p.ecessário até a primeira ocorrência de A;
distribuição: exponencial;
I
(J) variável aleatória: tempo necessário at.é a r-ésima ocorrência
~A·
'
distn"buição: gama.
\
.;:.::.1
.. l
234 I I'ROBABBUDADE
Comentário: Observe-se a similaridade entre (a) e (d), (b) e (e) e, finalmen·
te, (c) e (f).
9.11.
A Distribuição Normal
~Bidimen s ional
Todas as variáveis aleatórias contínuas que temos estudado
têm sido variáveis aleatórias unidimensionais. Como mencionamos
no Cap. 6, variáveis aleatórias de maior número de dimensões desempenham importante papel ila descrição de resultados experimentais. Uma das mais importantes variáveis aleatórias contínuas
bidimensionais, uma generalização direta da distribuição normal
unidimensional, é definida da seguihte maneira:
Definição. Seja (X, Y) uma variável aleatória contínua, bidimensional, tomando todos os valores no plano euclidiano. _Diremos que (X, Y) tem uma distribuição normal bidimensional se sua fdp
conjunta for dada pela seguinte espressão
f(x, y)
1
=
21T"O"x0"1/Vl -
P2
X
2
1
X exp { -
2p (x -
-- co
20 _ p 2)
[(
X :;- 1-L:r: )
----;;-
Jl~~- Jlv) + ( y ~YP.v YJ},
<x<
c o , - ·co
<y<
co.
(9.21)
A fdp acima depende de 5 parâmetros. Para que j defina uma
fdp legítima [isto é, j(x, y) :2: O, J _+,oo f_+,oo j(x, y)dx dy = I], deveremos impor as seguintes restrições aos parâmetros: - co < Jlx < co;
- co < Jlv < co; O"x > O; O"y > O; -1 < p < 1. As seguintes propriedades da distribuição normal bidimensional podem ser facilmente
verificadas.
Teorema 9.3. Suponha-se que (X, Y) tenha fdp como a dada
.pela Eq. (9.21). Então, nesse caso:
(a) As distribuições marginais de X e de Y serão N(p,., u,,2)
e N(Jlu, 0"1/), respectivamente.
(b) O parâmetro p, que aparece acima, será o coeficiente de correlação entre X e Y.
,,,~,-
~i_:~
J
i
1_·_·
·_-_,_·
í
__
I
4~
ii
~r;
]f~
I
I
!
1
ALGUMAS VARiÃVE!S ALIEATóR !AS CONTfNUAS IMPORTANTES
I 23.5
(c) As distribuições condicionadas de X (dado que Y = y) e de Y
(dado que X = x) serão, respectivamente:
I
N [,Ux
+ P ;: (y
N [J.Lv
+ p ::
l
J.Lv), (T,,Z (1 '- p 2 )
]
11
~-
t
'
(x
J.Lz), O"v 2(1 ·- p2) ]
I
Demonstração: Veja o
I
Prob~.
9.21.
'
É pos~
sível ter-se uma fdp . conjunta, que nã~ seja normal bidimensional, e no entanto,
as fdp marginais de X e Y serem norm~is unidimensionais.
.
Cinnentários:
(a) A recíproca de (a) do Teor. 9.3 não é verdadeira.
'!J..i
-~-_ ~,~_-;
~!m
(b) Observamos da Eq. (9.21) quelse p = O, a fdp conjunta de (X, Y) poderá
ser fatorada e, conseqüentemente, X e Y serão independentes. Assim, verificamos que no caso de uma distribuição n~rmal bidimensional, correlação zero e inde1
pendência sao equivalentes.
(c) A proposição (c) do teorema ~cima mostra que ambas as funções de regressão da média são linearesJ Tamb ~m mostra que a variância da distribuição
condicionada fica reduzida na mesma proporção que (1 - pz). Isto é, se p for próxim.o d~ zero, ~ .variância condicionada\ será ess_encialmente a mes~a ~ue a ~~­
ânCia nao-condrcwnada, enquanto se p -.for próXImo de ± 1, a vanânCill> condicionada será próxima de zero.
_
\
.
.
p~opriedades
A fdp normal bidimensional \apresenta algumas
interessantes. Formularemos alguÍnas delas como teorema, deixando
a demonstração para o leitor. !
Teorema 9.4. Considere-se ~ superfície z = f(x, y), onde f é
a fdp normal bidimensional, dadalpela Eq. (9.3).
.
-:Í'~
?._·.~-~
·~
I
"'m,
l.
(a) z = c (const.) corta a 1superficie em uma elipse. (Estas
são, algumas vezes, denominadas\ contornos de· densidade de proba;
bilidade constante.)
'
(b) Se p = O e U::: - Cfv, essa elipse se transforma em
uma circunferência. (Que acont~cerá à elipse .mencionada quandO'
P --l> ± 1 ?)
I
I
Demonstração: Veja o Probl. l9.22.
I
I
Em virtude da importância da distribuição normal bidimensional, diferentes probabilid~;~des com )ela. associadas foram tabuladas.. (Veja
D. B. Owen, Handbook oj .Statistical T,le3, Addison-Wesley Publishing Çomvany,
Inc., Reading, Mass., 1962.)
Comentário:
iI·
I
236 I PROBAB ! UDADE .
9.12;
D istri bu ições Truncadas
Exemplo 9.10. Suponha-se que um dado tipo de parafuso ~eja
fabricado e seu comprimento Y seja uma variável aleatória com distribuição N(2,2, 0,01). De um
grande lote desses parafusos, um
X
o
. 2
novo lote é obtido pelo refugo de
Fig. 9.9
todos aqueles parafusos para os
quais Y > 2.
Nesse caso, se X ·for a variável aleatória que representa o
comprimento dos parafusos no novo lote, e se F for sua fd, teremos ·
::s; x) '
= P(Y ::s; X I y ::s; 2) =
= P(Y ::s; x)/P(Y ::s; 2)
=
F(x)
=
= O se
Fi(x)
x > 2,
se x $ 2.
1
se
Portanto j, a fdp de X será dada por
(Veja a Fig. 9.9.)
j(x)
P(X
x
I
1
· v21r
> 2,
co, 1)
1[
exp\-2
X -
2,2 ]
~
2
)
se .x
<I>(- 2)
::s;
2.
Em seguida,
P(Y
::s;
2) = P ( y
~:,'2
::s;
2
~} 2 ) =<I> (-2) . -~
[<I>, como de costume; é .a fd da distribuição N(O, 1).]
Esse é um exemplo de uma distribuição normal truncada (especificamente truncada à direita de X = 2). Este exemplo pode ser
generalizado da maneira seguinte.
Definição. Diremos que uma variável aleatória X tem uma
distribuiÇão normal truncada à direita de X = r, se sua fdp for da
.forma
j(x)
=O
se .x
= K _1
l
> r,
.
v 27r(J'
exp
(_ ~ [X~ M ] )
se x
Observamos que K é determinado pela condição
. e, conseqüentemente,
K
=
1
<I> [(r - p.)/(J']
P(Z
::s;
r)
::s; r.
(9.22)
f_-:, ~ .J(x) dx ,:, 1
ALGUMAS VARiÁVEiS AlEATÓI'IHAS CONTfNUAS iMPORTANTES I 237
onde Z tem distribuição N(p, a2 ). Analogamente à defmição anterior,
teremos a seguinte:
Dejiniçãc.. Diremos que a variável aleatória X tem uma distribuição normal truncmoo à esquerda de X = "f, se sua fdp j for da forma
j(x)
=O
=·
se x
< "f,
.!.[
K
exp. ("\1211"0'
2
2
x - JL ]
)
se z ;;::: 'Y·
(9.23)
(7
Também K é determinado pela condiçãof-"!:"' j(x)dx
portanto,
=
1 e1
Os conceitós acima, introduzidos para a distribuição normal,
podem ser estendidos de uma forma 'óbvia para outras distribuições.
Por exemplo, uma variável aleatória X distribuída exponencialmente,
truncada à esquerda de X = -y, teria a seguinte fdp:
j(x)
= O ·:se x < -y,
= Ca.e-·<>"' se x ;:::· 'Y.
(9.24)
N OVaD1ente, C é determinado pela condição f_~"' j(x) dx
isso
=1
e poX'
C = e" 7 •
Podemos também considerar uma variável aleatória truncada
no caso discreto. Por exemplo, se uma variável aleatória com distribuição de Poisson X (com ·parâmetro R) for truncada à direita de
X = k
1, isso significh que X tem a seguinte distribuição:
+
P(X
= i) = O se
-- c
.
i ;::: k
À'
•
t.1
+ 1,
e-À se
t• --
Determinamos C pela condição L;"'~ o P(X
c=
.k 1.
· Lj =O (À'/ j!)e-A
o,. 1, ..• , k .
= t) =
(9.25)
1 e achamos
•
Assim,
À'
P(X = t) = 1
t.
valores.
1
I:J=o(À''/j!) '
i= O, 1, ... , k e zero para outro:>
'
··
· 238 I PROBABILIDADE
Distribuições truncadas podem surgir em muitas aplicações importantes. Abaixo, apresentaremos .alguns exemplos.
Exemplo 9.11. Suponha-se que X represente a duração da vida
de wn componente. Se · X for distribuída normalmente, com
E(X)
7'
4 e V(X) = 4,
encontraremos que
P(X
< O) = (Jl(- 2) = 0,023
. .
)
Por conseguinte, este modelo não é muito significativo, porque ele
~tribui probabilidade 0,023 a wn evento que sabemos não pode ocorrer.
P'oderlamos, em seu lugar, considerar .a variável aleatória X truncada à esquerda de X = O. Daí, admitiremos qtie a fdp da variável aleatória X será dada por
f(x)
=
O se x :::;; O,
=
V(2~) (2)
exp [-
!(
x
~ 4 YJ <1)~2)
. se x >O.
Ccnnentário: Já mencionamos que, freqüentemente, empregamos a distri·
buição normal para representar uma variável aleatória X, a respeito da qual sabemos que ela não pode tomar valores negativos. (Por exemplo, tempo até falhar,
comprimento de uma barra etc.) Para detenninados valores dos ' parâmetros
p. = E(X)· e a 2 = V(X), o valor de P(X < O) será desprezível. Contudo, se não
for este o caso (como no Ex. 9.11), deveremos empregar a distribuição nomial
truncada a esquerda de X = O.
Exemplo 9.12. Suponha-se que um sistema seja constituído
por n com.ponentes, que funcionem independentemente, cada um
deles tendo a mesma probabilidade p de funcionar adequadàm:ente.
Sempre que o sistema funcione mal, ele é inspecionado para descobrir quais e quantos componentes estão defeitl10sos. Seja a variável
aleatória X definida como o número dos componentes que sejam
verificados defeituosos nwn sistema que tenha falhado. Se admitirmos que o sistema falhe se, e somente se, ao menos um componente
falhar, então X terá U.ma distribuição b~rwmial truncada à esquerda
de X = O; porque o simples fato de que o sistema tenha fal]lado,
elimina a possibilidade de que X= O. Nesse caso, teremos
.
(k)(l - p )kpn--k
. "
P(X = k) . = P(si:s:emaae
.t
f lh ) , k .= 1, 2, ... , n ..
Já que P(sistema falhe) = 1- p", podemos escrever
P(X = k) =
(~)(1 -
p )k_pn--k
1- p"
.k
=
1,2, ... ,n.
A L GUMAS VARBÃVEDS ALEATÓRiAS CONTfNUAS IMPORTANTES I 239 .
I
Suponha-se que partículas sej'am emitidas por
· uma fonte radioativa, de acordo com a distribuição de Poisson, com
parâmetro À. Um dispositivo co~tador registra e~as emissões somente quando menos de três paft;iculas .chegam. (Isto é, se três
ou mais partículas chegarem durante um período de tempo especificado, o dispositivo cessa de funcibnar em virtude de algum "trava'
. .
mento" que ocorre.) Portanto, fie Y for o 'número de partículas
registradas durante o intervalo de Itempo especlficado, Y tem os valores .possíveis O, 1 e 2. Conseqüentemente,
Exemplo 9.13.
~-
I
..
P(Y = k)
. e-x
k!
. )>.k
e-~[1 + lf- + (À2f2)] '
. I
k =O, 1, 2,
= O, para quaisquer outros valores.
!
Visto que a distribuição nokal truticada é particularmente
importante, vamos considerar o sekumte problema, associado a essa
distribuição.
Suponha-se que X seja uma variável aleatória normalmente distribuida, truncada à direita de X
Por isso, sua fdp é da forma
=\r.
f(x)
'
= O se x ~ r,
·=
1
---=
v'2mr
[- ; (" ~ ~ )']
exp
1
se x
~r.
I
Logo, teremos
E(X)
=
J:"'
.x .j(x)dx
1
<i»[(r- J.L)/CF]
1
=
J.1.
+
'
f(T-p.)/u
i
-.,
-=
V27r
(sq
)2]
dx
2 ds
+ p.)e-ll'/
·
.
~ J.L)fq] [J.L<i»( r~ p.\) + q V~7r J~-p.)fcr se-ll'/2 ds]
I
1
q
<l>[(r - J.L)/CF]
.
= J.1. -
i
I
x
exp [ - _!_ (· ~
V27rCF
2
CF
I
1
<i»[(r -:- iJ.)/CF]
<i»[(r
,
f_T.,
q
<P[(r- J.L)fq]
V27r
,
' e--''/2 (-1) J '!.:p.)/u
1
1 \
V27r! exp
·
[
-
1
2
(r - )2] .
J.1.
~
Observe-se que a expressão obtida .bara E(X) está expressa ein t~r­
mos de funções tabuladas. A função <I> é, naturalmente, a conhecida
I
·'' ·
240 I PROBABILIDADE
fd da distribuição N(O, 1), enquanto (1/V27r) e-x'fZ é a ordenada
da fdp da distribuição N(O, 1) e está, também, tabulada.
De fato, o quociente
(1jy'2;;)e-z'f2
<l>(x)
está tabulado. (Veja D. B. Owen, Handbook oj Statistical Tables,
Addison-Wesley Publishing Company, Inc~, Reading, Mass., 1962:)
. Empregando o resultado acima, poderemos agorà fazer a seguinte
pergunta: Para p, e u dados, onde ocorrerá q truncamento (isto é,
qual será o valor de r) de m.odo que o valor esperado depois do trun.,.
caniento tenha algum valor A preestabelecido ? Poderemos responder a essa pergunta com o auxilio da distribuição normal tabulada.
Suponha-se que p, = 10, u = 1, e que imponhamos A = 9,5. Conseqüentemente, deveremos resolver
9,5
=
10-
1
1
- - - e-Cr-l0)'/2.
<il(r - 10) V27r
· Isto se toma
1
2
T --,
(1/y'2;)e-(r-10!'/2
<I>(r - 10)
Empregando as tábuas mencionadas acima, encontraremos que
10 .~ 0,52 e, portanto, r = 10,52.
Comentário: O problema surgido acima somente pode ser resolvido para
determinados valores de ].l, rr e A. Isto é, para J.l e a: dados, poderá não ser possível
obter uril valor de A especificado. Consid~re-se a equação que deve ser resolvida:
(!'
J.l -A
=
<I>[(r - J.l)fa:]
. [ 2(
1
V27r exp.
1
-
T-
J.l
-u-
)2]
.
O segundo membro desta equação é, evidentemente, positivo. Logo, dev~remos
ter (p.- A)> O a fim de que o problema acima tenha uma solução. Esta·condição não é muito surpreendente, porque ela apenas diz que o valor esperado (depois
do truncamento à direita) deve ser menor do que o valor esperado original.
Problemas
/':""'--..,_
\_9.j). Suponha que X tenha a distribuição N(2, O 16). Empregando a tábu&
da dGtribuição normal, calcule as seguintes probabilidades:
.
(a)
P(X
"?.
2,3).
(b)
P(1,8~ X
S2,1).
9.2. O diâmetro .de um cabo elétrico é normalmente distribuído com média
0,8 e variância 0,000 4.,. Qual é a probabilidade de que o diâmetro ultrapasse 0,81 T
ALGUMAS VARiÁVE iS ALIEAlrÓROAS COi\!Ti"NUAS 6MPORTAi\!TES I 241
9.3. Suponha que o cabo, _no P robl. _9.2, seje, considerad_o defeituoso se o
diâmetro diferir de s)la. m&Ha e"in;'naiS de .o,õis. ·. Q"ual . é a probabilidade de se
encontrar um cabo defeituoso? 't · ·
· - > ·. ·-·.
9.4. Sabe-se que os erros, em certo dispositivo pare. medir comprimentos,
são normal';nente ' distriouídos CQ!_ll.-valor esperado zero e desvio-padrão 1 unidad~.
Qua"l é a probabilidade de que Q erro na .111edidá. sej!!-')naior: do que 1 ~rtidJrcie?
2 ur]!,cJ~des? 3 unidadei? ·
,_,,-!,· ;.,_
E (X ) ·-::-
16
2t'- '-: . ·4;,)
{ 9.$'. Suponha-se que a duração da vida de dois dispositivos eletrÔnicos,
D 1'•e'Í>z, tenham distribuições N(40, 36) e N(4.i, 9), respectivamente. Se o dispositivo eletrônico tiver de ser usado por nm período de 4.'í horas, qual dos dispositivos deve ser preferido? Se tiver de ser usado por um período de 48 boras,
qual deles deve ser preferido?
9.6. Podemos estar interessados apenas na magnitude de X , digamos .
Y,;, lXI . Se X tiver distribuição N(O, 1), determine a fdp de Y, e calculeE(Y) e V(Y).
g·,7. Suponha que estejamos medindo a posição de um objeto no plano.
Sejam X e Y os err.os de mensuração das coordenadas x e y, respectivamente.
Suponha que X e Y sejam independentes e identicamente distribuídos, cada um
+
deles com a distribuição N(O, u 2). Estabeleça a fdp de R = v'X2
yz_ (A
distribuição de R é conhecida. como distribuiçllo de Rayleigh.) [Sugestllo: Faça ·
X = R cos 1/,- e Y = R sen v,; Obtenha a fdp conjunta de (R, t/1) e, depois,
obtenha. a fdp m'arginal de R.]
'
9.8. Estabeleça a fdp da variável aleatória Q = X/Y, onde X e Y são distribufdos tal como no Probl. 9.7. (A distribuição de Q é conhecida como .distribuiçao de Cauchy.) Você pode c.alcular E(Q)?
9.9. Uma distribuiçãb, estreitamente relacionada com a distribuição normal,
é a d·istribU1{llo wgnormal. Suponha que X seja normalmente distribuído, com
média J.L e variância u 2 • Faça-se Y = eX. Então, Y possui a distribuição lognorma.l. (Isto é, Y será lognormal se, e somente se, ln Y for normal.) Estabeleça
a fdp de Y. Comentário:. As seguintes variávei~ aleatórias -podem ser representadas pela distribuiçãq_acima: o diâmetro de· pequenas partículas após um processo
de trituraÇão, o tamir.ho de um organismo sujeito a alguns pequenos impulsos, a
duração da vida de determinadas peças.
9.10. Suponha. que X tenha distribuição N(J.L, u 2).
uma função de p. e u), tal que P(X ~c) = 2P(X > c).
fííG)l,
Determine c (como
.
Suponha que a temperatura (medida em graus centígrados) seja nor-
m~te distribuída,' c.om expectância 5 Oq, -~ , variância 4. Qual é a probabilidade
de que a temperatura T esteja entre"48o e 53° centígrados?
/~
.
@1..1.~ O diâmetro exterior de um eixo, D, é especificado igual a 4 polegadas.Conãtaere D como .uma ·variável aleatória rrormalmlmte distribuída com médía
4 polegadas e fa.r~nc.:ia 0,01 (Qoleg~d~) 2 • Se. diâmetro reaf difern do yalor
especificado pot:, m:;;is de .(l,0-1~ pÕJ.'i~dll..'! e_menos de_0108-polegada5, o preju!zo do
fabricante sera~· US$ ...
o 'd iâtiie't;o
~o d(âmeU:ii' espécificado por
. . reàfdiférir
.
•' .. .
maia' de 0,08poJegadas, fprejlifzo será dé''US$1,p0. O prejúíZo L pode ser:'coU:
sid(lrado ~ ,}.ri~~l · ~eatóô~. " Estaoeleçà ~a distribuição de probabilidade
de L e calcule ·:E(L ).. .t'
o
~
o;E0:2:Se
--~_...,....
~~
~.......
~
242 I PROBABILIDADE
9.13. Compare o limite superiar da prob~bilidade P[ IX- E(X)I~2VV(X)],
obtido pela desigualdade ·de Tchebycheff, col:n a probabilidade ._exata, em cada.
um dos casos se~uintes:
\
.
\
(a) X tem d~tr~bu~ção N(p., u~).
(b) X tem distnbmção de. Pmsson, com parâmetro À.
(c) X tem distribuição exponencial, com parâlnetro a. ·
~--\
r.
~ SÍiiJonha que X seja uma variável aleatória para a qual E(X)-== 11-1. e
V(X) = u2. ·"S'uponha.--·que Y seja unifo.rmemente diktribuída sobré o intei:Yalo
.•.
I .
-'(a; b) . ...Détermine a e b de modo que E(X) = ~{Y) e V.(X) =. V(Y)I ~
. . . ...
..r
/
. '· I
L
....
\
...
•
9.15 • . Suponha que X, a carga de ruptura de um Ct!-bo (em kg), tenha distri·
buição N(100, 16). Cada rolo de 100 metros de cabo 'd á um lucro de US$ 25,
desde que X > 95. Se X .:S. 95, o cabo poderá ser utilizado para uma finalidade
dife~ente e um lucro de US$ 10 por rolo será obtido. Determinar o lucro espe·
rado por rolo.
9.16. Sejam X 1 e X 2 variáveis aleatórias independentes, cada nma com
distribuição N(Jl, u 2 ). Faça-se Z(t) = X 1 cos wt · X2 sen wt. Esta variável interessa ao estudo de sinais aleatórios. Seja V(t) ;;. l dZ(t)fdt. (Supõe-se que ·w
seja constante;} ..
+
(a)
Qual é
fixado ?
~:.llistribuição
de probabilidade de Z(t) e V(t), para qualquer t
·,\..'-'-..._
j
_;__ .•, , -
Mostre que Z(t) e'-V(tt:Jão nãO-correlacionadas. [Comentário: Poderse-á. também mostrar que Z(t) e V(t) são independentes, mas isto é um tanto mais
difícil de fazer-se.]
(b)
9.17. Um combustível para foguetes deve conter uma certa perce~ttagem X
de um componente especial. As CRpecificações exigem que X esteja entre 30 e 35
por cento. O fabricante obterá um lucro líquido T sobre o combustível (por ga·
lão ), que é dado pela seguinte função de X:
T(X) =
= (a)
U$.$ 0,10 por galão se 30 < X < 35,
US$ 0,05 por galão se 35 ~X < 40· ou 25 <X~ 30,
US$ 0,10 por galão, para outros ·quaisquer valores.
Calcular E(T), quando X tiver a distribuição N(33,.9).
(b) Suponha que o fabricante deseje aumentar seu iucro esperado E(T),
em 50 por cento. Ele pretende fazê-lo pelo aumento de seu lucro (por galão),
naquelas remessas de combustível que átendam às especificações, 30 < X < 35.
Qual deverá ser seu novo lucro líquido?
9.18. Reconsidere o Ex. 9.8. Suponha que se pague ao operador C3 dólares/hora, enquanto a máquina estiver operando e C4 dólares/hora (C4 < C3)
para o tempo restante em que tenha sido contratado, depois que a máquina tiver
parado. Determine novamente para que valor de H (o"'número de horas para as
quais o operador é contratado), deve o Incro esperado ser máximo.
9.19.
Mostre que
dança de variável X
r
= u2j2
(1/2)
=
y';. (Veja 9.15.) [Sugestao: Faça uma mu-
na i integral
r
(1/2)
= fo"'
x-If2e-Z dx.]
9.20. Verifique as expressões de E(X) e V(X), onde X tem a distribuição
gama [veja a Eq. (9.18)1.
I
:~~
I
:~
,l·;;~
I 243
!
Jt~
·!;~~
!ll.211.
~~
!1.22. Demoi!Stre o Teor. 9.4.
,;~.
·~~
I
·~.·~
·~~ .
~
I
']I
j~
:·.;' ~'
·.t :.
;~'~t
.
~i~
I
··~.~ ·~~.:
i
~~li'
.
I•
I
. ALGUMAS VARIÁVEIS ALEATÓRIA~CONTfi\!UAS IMPORTANTES
~F
~~~
··;f~ti
·i·.·. tf
Demolllltre o
Teo~.
9.3.
i
I
i
.
9.23. Suponh11. que a variável mlea~ória X tem uina distribuiçi!.o de qui~
. -quadrado, com 10 gre.us de liberde.de. Sa pedirmos p&ra determin&r .dois mimeros a e b, tais que P(a < :z: < b) = 0,85, por exemplo, deveremós compreende!"
que existem muitos pares dessa espécie. ··
·
.
I
1
(a) Determine dois diferentes conjuntos de valores · (a, b) que satisf~Ljiam à
1
condiç~ acimm.
·
(b) Suponhm que, em aditamento ao !"cima, se exije. que
·
.
P(X < a) = P(X > b).
Quantos pares de ve.lores haverá agora 1 I
I
9.24. Suj:lOnh~ que V, a velocidade (cm/seg) de um objeto que tenha mli.ss11.
de 1 kg, seja ume. variável alee.tória co~ distribuição N(O, 25). Admita-se .que
K = 1.000 Vlf2 = 500 V2 represente a energia cinética (EC) do objeto. Calculár
P(K < 200), · P(K > 800). .
i
9;25. Suponha que X tenha distribui~ão N(!L, u2 ). Empregando o Teor. 7.7,
obtenha uma. expressão aproximada para E (Y) e V(Y), quando .Y = ln X.
1
9.26. Suponha que X tenha uma distribuição normal truncada à. direite.,
tal como é dada pela Eq. (9.22). Estabeleç~ ~ma expressão para E(X), em 'termos
1
de funções tabuladas.
-.
i
9.27. Suporiha que X tenha uma d~tribuição exponenciru ··truncada à esquerda, como está dada pela Eq. (9.24). Obtenha.E(X).
9.28. {a) Estabeleça a distribuiçã~ dk probabilidade de uma variável e.leatória binomialmente· distribuída (baseada !em n repetições de um ·experimento)
.truncada à direita de X = ·n; isto .é, X =: n não poderá ser observado.
(b)
Determine o valor · e~;~;~do e a J.ariância da variável aleàtória descrita.
em (a) .
.
I
'
I
9.29. Suponha que uma variável aleatória normalmente distribuída, com
valor esperado !L e variância u2, seja truncafia à esquerda· de X ,;, T e à direita de
X= 'Y· .Estabeleça a fdp desta variável : aleatória "duplamente truncada".
Suponha que X, o comprimento de uma barra, tenha distribuição
Em VflZ de se . medir o valor d~ X, somente são especificadas certas
exigências que devem ser atendidas. Espepificame~te, cada barra fabricada será
classificada como segue: X < 8, 8 :':X < i1.2, e X 2:: 12. Se 15 dessas barras
forem fabricadas,
qual é a probabilidade d~I que um igual número de barras . caia
.
em cada uma das categorias acima?
9.30.
N(lO, 2).
9.31. Sabe-se· que a precipitação anqal de chuva, · em certa · localidade, · é
uma variável
normalmente
com
. aleatória
.
.
. distribuída,
I
. média igual a 29,5 cm e
desvio-padrão 2,5 cm. Quantos centímetr9s de chuva (anualmente) são ultrapassados em cerca de 5 por cento do tempo?
9.32.
·~
t
Suponha que X tenha distribuição N(O, 25). · Calcule P(l
I
< X2 < 4).
9.33. Seja Xt o número de partículaá emitidas em t horas por uma fon~e
radioativa e suponha-se que Xt tenha uma! distribuição de Poisson, com pe.r~-.
metro {Jt. Faç~~rSe igual a T o número de hôras entre emissõcil sucessivas. Mostre
/.
;
i
244
I IJ>ROBABHUDADIE
41!1W 7' tzm uma distribuiçil.o <elrpOnencil!.l com pmrimel.ro {J. [Sugestao: Ache o
01rento equivalente ·(em tennoo de Xt} ao evento 7' > t.)
~.34. Suponha que Xt seja, definido te,l como no Probl. 9.33 1 com fJ = 30.
!Qual é e, probabilide,de de que o tempo entre duas emissões sucessivas seja maior
do que 5 minutos? Maior do que 10 minutos? Menor do que 30 segundos?
!li.SS. Em algumas tábuas di! distribuição normal, H(x) == (1/V27r) fo"ct'P. dt
i:lpresentBrse tabulada para valores positivos de x (em vez de cl[>(x), como é dada,
no Apêndice]. Se & variável aleatória X . tiver distribuição N(l, 4), exprimir
cad& uma das seguintes probabilidades em termos dos valores tabulados da função H:
(a) P[IXI> 2].
(b) P[X <O].
!ll.36. Suponha que um dispositivo te!emedidor de um satélite receba duas
espécies de sinais, os quais podel!l ser registrados como números reais, X e Y. Suponha que X e Y sejam variáveis aleatórias continuas indepandentes, com fdp,
respectivamente, J e g. Suponha que, durante qualquer período ·de tempo especificado, somente um desses sinais possa ser recebido e, em conseqüência, transmitido de volt& à Terra, e, saber a,quele sinal que cheg41' primeiro. Admita, além ·
c:lissq, que o sinal que dá origem ao. valor de X chegue primeiro,
probabilidade
p, e, por isso, o sinal que dá origem a Y chegue primeiro com probabilidade 1- p.
Faça Z denotar a variável aleatória, cujo valor seja realmente recebido e transmitido.
(a) Exprimir a fdp de Z, em termos de j e g.
(b) Exprimir E(Z) em termos de E(X) e E(Y).
com
(c) Exprimir V(Z) em termos de V(X) e V(Y).
(d) Admita-se que X tenha distribuição N(2, 4) e que Y tenha distribuição
N (3, 3). Calcular P(Z > 2), sê p = 2/3.
(e) Admita-se que X e Y tenham distribuições, respectivamente, N(p1, Ut2)
e N<P-1., u22 ). Mostre que f!e !li = J.t 2 , a distribuição de Z será "unimodal", isto é,
a fdp de Z terá um único máximo relativo.
9.37. Suponha que· o mímero de acidentes em uma fábrica possa ser representado por um Processo de Poisson, com uma média de 2 acidentes por semana.
Qual é a probabilidade de que: (a) o tempo decorrido de um acidente até o
próximo seja maior do que três dias? ( b) o tempo decorrido desde um acidente
até o terceiro acidente seja maior do que uma semana? [Sugestão: Em (a), faça
T=tempo (emdias)ecalculeP(T> 3).]
9.38. Em média, um processo de produção cria uma peça defeituosa entre
cada 300 fabricadas. Qual é a probabilidade de que a terceira peça defeituosa
apareça:
(a)
antes de 1.000 peças terem sido fabricadas?
(b) quando a 1.000~ (milésima) peça for fabricada?
(c)
depois que a milésima peça for fabricada?
[Sugestão: Suponha um Processo de Poisson.]
A Função Geratriz de M omentos
Capítulo 10
Neste capítulo introduziremos um importante conceito matemático que possui mUitas aplicações aos modelos probàbilisticos que
estamos estudando. A fim de apresentar um desenvolvimento rigoroso deste assunto, seria necessário um conhecimento matemático
de nfvel bem mais elevado do que aquele que aqui temos empregado--.
No entanto, se es.tivermos dispostos a evitar certas dificuldades
matemáticas que surgem e a aceitar que determinadas operações
sejam V.álidas, nesse caso poderemos alcançar uma compreensão suficiente das · principaiS idéias abrangidas a fim de empregá-las inteli. gentemente.
· Para motivarmos o que se segue, vamos recordar .nosso mais
antigo encontro com o logaritmo. Ele nos foi apresentado simplesmente como um recurso de cálculo. A cada número real positivo x,
associamos outro número, denotado por log x. (O valor deste número pode-se obter de tábuas adequadas.) .. Com o objetivo de calcularmos xy, por exemplo,. obtínhamos os valores de log x e de làg y
e, a seguir, calculávamos log :ç
log y; o que representa log xy. Do
conhecimento de log xy, éramos, então, capazes de obter o valor
de xy (novamente com o auxílio de tábuas). De maneira semelhante;
poderemos simplificar o cálculo de outras .operações aritméticas, com
o auxílio do logaritmo. O tratamento acima é útil, pelas seguintes .
razões:
+
(a) A cada número positivo X corresponde exatamente .um número, log x, e este número é faÓilmente obtido nas tábuas.
(b) A cada valor de log :{corresponde exatamente um valor de x,
· e este valor é também encontrado nas tábuas. (Ísto é, a relação
entre x e log x . é biunívoca.)
li:
246 I PROBABiliDADE.
(c) Detexminàdas
opem~s
aritméticas abmn.gendo o_s números
:z e y, tl!.is como multiplicação e diviSão, podem ser substituídas pm
operações mais simples, tais como adição e subtraçã.o, por intermédio
dos números
Fig. lO.ll.).
11
tmnsfolrn!UM:los" log
:r;
e log y (veja o
~quem&
na,
-~Jogx,
L~~ ~~~~~ ~~------ »a
---
x+looY
Jog _v
Em lugar de executar as contas diretamente com os números
x e y, primeiramente obtemos os números log x e log y, fazemos
noosas contas com esses números e, em seguida, os transformamos de
novo.
10.2. A. Função Geratriz de Momeritol!ll
Vamos agora considerar uma situação mais complicada. . Suponhamos que X seja uma variável aleatória, ist<:JA X é uma furlção do
espaço amostral para os números reais. Ao calcularmos várias carac~
terlstica.s da. variável aleatória X, tais como E(X) ou · V(X); trabalhamos diretamente com a distribuição de probabilidade de X,
{A distribuição de probabilidade é . dada por uma junção: quer
a fdp no caso contínuo, quer as probabilidades punctuais p(Xi) =
= P(X = Xi) no caso discreto. A última pode também ser consi.:.
dera.da uma função que tOma valores não-nulos somente se X = x.,
i = L, 2, ... ] Possivelmente, poderemos introduzir alguma outra
junção e fazer os cálculos necessários em termos desta nova função
(exatamente como acima associamos a cada número, algum novo
número). Isto é, na verdade, precisamente aquilo que faremos.
Vamos, inicialmente, estabelecer uma definição formal.
" discreta, com di&Definição. Seja X, uma variável aleatória
tribuição de probabilidade p(Xi) = P(X = Xi), i = 1, 2, . . . A função Mx, denominada junção geratriz de momentos de X, é definida por
(!0.1)
A FUNçp;o GERATRIZ DE MOMENTOS I 247
I
Se X for uma variável aleatóri~ contínua com fdp J, definiremos
a função geratriz de momentos por l
Mx(t) =
J_+i..
.
.. ~ J(x) dz.
(10.2)
1
Comentários: (a) Em qualquer dos lasos, o discreto ou o contínuo, Mx(t)
é apenas o valor esperado de etX_ Por i~so, poderemos combinar as expressões
I
acima e escrever
I
Mx(t) =E(etX).
(1 0.3)
I
(b) Mx(t) é o valor que a função M X torna para a variável (real) t. A notação, que indica a dependência de X, é eqpregada porque nós poderemos desejar
considerar duas variáveis aleatórias, X e ~· e depois investigarmos a função gera. triz de · rnorn~.ntQs de cada urna delas, a sabfr M X eMy.
.
(c) Empregaremos a abreviatura fglp para a funç~o geratriz de .momentos.
(d) A fgrn, tal corno definida antefiorrnente, é escrita como urna série infinita ou integral (imprópria), conforme a: variável aleatória seja discreta ou contínua. Essa série (ou integral) poderá nem ~ernpre existir (isto é, convergir para um
valor finito) para todos os valores de t. c6nseqüenternente, poderá aconte·cer que
a fgrn não seja definida para todos os valdres de t. No entanto, não nos preocuparemos com esta dificuldade potenciaL Qu~ndo ernpreganrios a fgrn, admitiremos
que ela sempre exista. (Observe-se que aJfgm existe sempre para o valor t = O,
e é igual a 1.)
i
(e) Existe urna outra função, estreitamente relacionada com a fgrn, a qual
é freqüenternente empregada em seu lug~r. Ela é. denominada função caracter(s. tica, denotada por Cx e definida por Cx<tj) =E(e 1tX ), ondd = ,;-:::1, a unidade
irnagináriá: Por motivos teóricos; existe enorme vantagem, em empregar-se Cx(t)
em vez de M x(t). [Por esta razão: Cx<tJ) sempre existe, para todos os valores
de t.] Contudo, a fim de evitarmos cálcul?s com números complexos, restringiremos nossa exposição à função geratriz de D?ornentos.
(f} Adiaremos até a Seç. 10 .4 a explicação da justificativa de chamar-seMX
de função geratriz de momentos.
j
10.3. Exemplos de
Funçõe~
Geratrizes de Momentos
. Antes de estudarmos algumas ~importantes aplicações da fgm à
teoria da probabilidade, vamos calcular algumas dessas funções.
I
.•
Exemplo 10.1. Suponha-se que X seja uniformemente distribuúla sobre o intervalo [a, bl. Logo, a fgm será dada por
· i'
Mx(t)=
·
..
= (b
I
b
let:z:
--dx
b
a
1
-
~- a)t [é' -
eot], g ~ O.
(lo.4)
248 I PROBABILIDADE
Exemplo 10.2. Suponha-se que X ·seja binomialmente dislri"buída, com parâmetros n e p. Nesse caso,
(10.5)
(A última igualdade decorre de uma aplicação direta do teorema
binomial.)
, ·I
I
,!:; ,:
,·'1,
.fl·
Exemplo 10.3. Suponha-se que X tenha uma distribuição de
Poisson com parâmetro X. Por conseguinte,
~
Mx(t)
'
'"~~
=i ~·etk e-Àr
= e-~1
i (~~~;, ·
,k.
'
\~~ /p.
,'
\. , •
k =
=e-~ ~
i
'I',
(10.6)
[A .terceira igualdade decorre do desenvolvimento de ev em '2;=~ (Ú"/h!).
5
Esta foi empregada com y
Xe1.]
' •
·
··
=
Exemplo 10.4. Suponha-se que X tenha uma distribuição e;ponencial, com p~râmetro a. Logo,
Mx(t) =
1"'
e1"' ae-a" dx =a
o
1"'
o
e"<t-a) dx.
1
(Essa integral converge somente se t < a. Por isso, a:, fgm existe
l
somente para aqueles valores de t. Admitindo que essa
condição
seja satisfeita, podemos prosseguir.) Daí,
)
Mx(t)
= _a_ ez(t-a)
t"-a.
01.
Ol-
t '
I"'
.· o
t
< Ol.
(10.7)
Co-mentáric>: Visto: que a fgm é apena.s um valor esperado dé X, poderemos
obter a fgm de uma função de uma variável aleatória sem primeiramente obtermos
sua distribuição de probabilidade (veja o Teor .. 7.3). Por exemplo, se X tiver
A FUNÇÃO GERATRIZ DE MOMENTOS I 249 .
distribuição N(O, 1) e desejarmos achar a fgm de Y =X'-, poderemos prosseguir
sem obterm.os a fgm d~ Y. Bastará simplesmente escrever
My(t)
depois de
=
E(e 1Y)
=
= E(e 1X') =
--=
1
v2?l'
!+"'
exp (b;2- x2-f2) dx
_., ·
= (1-
2t)- 112
integração imediata.
Exemplo 10.5.
Suponha-se que X tenha distribuição N(p,, u 2).
Por isso,
Mx(t) =
J·
1
V27ru
2
+"' é" exp {- _!__ [ x - 11' ]. ) dx.
_.,
\
2
u
Façamos (x - p,)fu = s; portanto, x = us
conseguinte,
Mx(t)
=
·1
f
'\121!'
+"'
_., . exp _[t(us
j
j.+"'e~
.
+ p,)]e-•'1
+"'
(
_"' exp -
=
etP> _ }
-v 21!'
_.,
V~'ll'
= e1JA + cr't'/2
+ JL
1
{-
J:.,
.
[s 2
2
2
e dx = u ds.
ds
)
2ut8] ds
-
_!_ [(s2
exp ( -
Por
ut) 2
~
-
u2t2]} ds
[s - ut] 2) ds.
Façamos s - ut = v; então, ds = dv, e obteremos
Mx(t)
.
=
e~JA+ <i't'/2
1
--=
v21l'
= e(tJA+ O''t'/2l,
!
+"'
_.,
e-v'/2 dv
(10.8)
( '
Exemplo 10.6. Admita-se que X tenha uma distribuição gama
com parâmetros 01. e r (veja a Eq: 9.16). Nesse caso,
Mx(t)
=
_!!:__ 1·
r
(r)
o
~e
1
:;;
(ax)'- 1 e-a= dx ·
250 I PROIBABIUDADE
(Esta integral converge desde que a > t.)
por isso
dx = (du)/(a - t),
e obteremos
Façamos x(a - t) = u;
1"' (·~ )r-
1
Mx(t) =
=
a'
(a - t) r(r)
a -
o
t
e-"' du
(-a_
' )'_Jl_i=
u•-1 e-" du.
a- t
r(r)
o
. Já que a integral é igual a r(r), teremos
Mx(t) =
·
(-a-)r.
a-
(10.9)
t
~
Comentários: (a) Se r = 1, a· função gama se transforma na distribuição
·expünencial. Concluímos que se r = 1, as Eqs. (10.7) e (10.9) são iguais.
(b) ViSto que a distnõuiçf!.o de qui-quadrado é obtida como um caso particular .da. distribuição gama, fazençlo-se a = 1/2 e r = n/2 (n um inteiro positivo),
então
.
concluímos que se Z tiver distribuição
x! ,
M
10.4.
z (t)
= (1 -
2t)-nf2 •
(10.10)
·'.
Propriedades da Função Geratriz de Momentos
Apresentaremos, agora, i a justificativa de se denominar Mx
função geratriz de momentos. Recordemos o desenvolvimento da
função iT em s~rie de Macla:urin:
e" = 1 + x
x2
xa
x."J
+ -21. + -3,. + ... + -,
n. + ....
(Sabe-se que esta série converge para todos os valores de x.) Por isso,
(tx)2
etz
= 1 + tx + -21
.
(tx)n
+ ... + -,+ ...
n.
~
Em seguida,
MxW
=
.
IX
(
E(e) =·E 1 +tX+
2
(tX)
(tX)"
)
2!
+ ... + ~+···
Mostramos que para uma soma finita, o valor esperado da soma
é igual à soma dos vaio:res esperados. No entanto, eEJtamos tratando
-
i·
A FUNÇAO[GERAl:RIZ DE MOMENTOS I 251
I
acima com uma sene infinita e por ~sso não poderemos, de ifnediato,
aplicar tal resultado. Verifica-se, cpntudo, que sob condições bastante gerais, esta operação ainda é. válida. Nós admitiremos que
as condições exigidas sejam satisfei~as e prosseguiremos d~ acordo
com elas.
I
Lembremo-nos de que t é uma cbnstante, de modo que tomando
. I
os valores esperados, poderemos ·escrever
.
I
Mx(t)
t~E(X 2 )
= 1 + tE(X)
+-
·
+ ... +
2-1-~
tnE(Xn)
n!
+ ...
l
Já que Mx é uma função de variável real t, poderemos tomar a derivada de Mx(t) em relação a t, isto \é, [d/(dt)] Mx(t), ou por simplicidade M'(Ó. Novamente
estamos diante
de u~a dificuÚiade mate.
I.
mática. A derivada de uma soma finita é sempre igual à soma das
derivadas (admitindo-se, naturalmente, que todas as derivadas em
questão existam). Contudo, para u~a soma infinita, isto não. será
sempre assim. Determinada11.·condiÇões devem ser satisfeitas para
que esta operação seja justificável; \simplesmente admitiremos que
essas condições sejam atendidas e j prosseguiremos. (Na maioria
dos problemas que encontrarmos, tal liipótese se justifica.) Portanto,
II
t E(X
2
M'(t)
= E(X)
3) \
+ tE(X + ~I + ... +
2
)
tn- 1 E(Xn)i
(n _ )! , + ...
1
Fazendo-se t = O, verifica-se que somente o primeiro termo subsiste,
e teremos
·
!
'
.
I
M'(O)
= EI( X).
I
Portanto, a derivada
primeira da fgm,! calculada para t = IO, fornece
.
.
o valor esperado da variável aleatória. · Se .:alcularmos a derivada
segunda de Mx(t), procedendo novaméi).te tal como acima, obteremos
M"(t)
e fazendo t
= E(X 2)
= O,
i
+ tE(X + ... +
3
)
1
1
teremos
tn-2E(Xn.)·
(n- 2)!
+ ... ,
I
i
M"(O)
=
.I
E(X~).
i
.
Continuando dessa maneira, obteremo:;; [admitindo que M<n>(Q) exista]
I
o seguinte teorema:
252 I PROBABIIliDADE
Teorema :l.IG.ll..
(lO. H)
Xsto é, a derivada n-ésima de Mx(t), crucula4a pal!'a t
n.ece E(X"').
= O,
foy~
Comentários: (a) Os ndmeros E(X"), n = 1, 2, .. ), são denominados Oll
m.omentoa de IYfdem n ·da variável aleaMria X, em relação a zero. Por isso, mostramos que a partir do conhecimento d11. função Mx os momentos podem ser "geFados".
(Daí o nome "função geratriz de momentos".)
(b) Vamos recordar o desenvolvimento de uma função k, em série de
M&claurin:
h(t) = h(O)
h"(O)t2
+ h (O)t + 2 ! + , ..
1
_ h(n)
-t=
(O)t"
~
+ .. .,
onde Ja{n)(O) é a derivada n-ésima da fu~ção h, calculada para t
=
O.
Aplicando
este resultado à função Mx, poderemos esêrever
.
Mx(t) = Mx(O)
=i
onde JAi ==
E(X0),
+~lt
+ Mx'(O)t + . · · +
+ }l2t2/21 + ... +
i = 1, 2, . . .
V(X)
M!;l (O)tn
nl
f.Lnt"
--;J. +
+ ···
... , .
.Em particular,
= E(X2)-
[E(X))2
= M"(O)- [M'(0))2.
(c) O leitor pode se surpreender por que os métodos acima seri;;m de fato
proveitosos. Não seria mais simples (e mais imediato) calcular direta.mente os
momentos de X, em :vez de primeiramente obter a fgm e depois derivá-la? A
re.sposta é que em muitos problemas o último caminho é mais . facilmente percorrido. Oa exemplos seguintes ilustrarão esse fato.
Exemplo 10.7. Suponhà.-se que X tenha uma distribuição binomial com parAmetros n e p. Conseqüentemen.te (Ex. :1.0.2),
Mx(t) = [pe 1 q]". Por isso,
+
M'(t) = n(pe6
M"(t)
+ q) ..... pe
= np[tl(n -
1
8
,
1)(ptl
+ q)"-2pe1 + (pe1 + q)">-~ei].
lLo@O>, E(X) = M'(O) = np, o que concorda com nosso resultado anterior. Também, E(X2) = M"(O) = np [(n - 1) p + 1]. · Daí,
V(X) = M"(O) - [M'(0)]2 = np(:l- p),
o que também concorda com o que achamos anteriormente.
A FUNÇÃO GERATRIZ DE MOMENTOS
I 253
Exemplo ].0.8. Suponha-se que X tenha distribuição N(a, {32).
Por isso (Ex. 10.5), Mx(t) = exp (at
1j2 {3 2t2). Portanto,
+
Jli!'(t)
= e"'t +fl't'/2((3zt +a),
M"(t) = ef3't'!2 + ·at{32
+ ({32t + a)2ef3't'/2 + aa,
e M'(O) = a, M"(O) = {3 2 + a 2, fornecendo E(X) = a e V(X) = {32
como anteriormente.
Vamos empregar o método dà fgm para calcular o valor esperado
e a variância de uma variável aleatória com distribuição de probabilidade geométrica, Eq. (8.5) .
Exemplo 10.9. Admita-se que X tenha uma distribuição de
probabilidade geométrica. Isto é,
P(X
=
Por isso,
k)
= qk-1p,k = 1, 2, ...
.,
Mx(t) =
1p =
L e1 ~çq~k""l
.
(p
+ q = 1).
.,
L (qe 1)~ç.
qk=l
.E_
Se nos restringirmos àqueles valores de t para os quais O < qe1 < 1
[isto é, t <ln (1/q)] então, poderemos somar a série acima como,uma
série geométrica e obter
( "
Portanto,
(1 - qe1) 2
M"(t) =
(1 - qe1) 2 pi- pe12(1 - qe 1)(
(1 - qt!)4
-
+
qe 1)
pet(l
qet)
(1 - qe 1) 3
Em conseqüência,
E(X)
= M'(O) = p/(1 - q) 2 = 1/p,
E(X 2 )
= M"(O) = p(1 ;!- q)/(1 - q) 3 = (1
e
V(X)
=
(1 +.q)jpi- (l/p)2
+ q) /p
= q/pz,
Dessa forma, temos uma verificação do Teor. 8.5.
2
,
254 I PROBABILIDADE
Os dois teoremas seguintes serão de notável importância em
nossa aplicação da fgm.
Teorema 10.2. Suponha~se que a variável aleatória X . tenha
fgm Mx. Seja Y = a X + {3. Então, M y, a fgm da variável Y,
será dada por
My(t) , = ef3tMx(at).
(10.12)
Explicando: Para achar a fgm de Y = aX + {3, calcule-se a
fgm de X para at (em vez de t) e multiplique-se por ef3'.
Demonstração:
My(t) = E(eYt) = E[e<aX+f3lt]
=•ef3'E(e"' 1x) = ef3'Mx(at).
Teorema 10.3. Sejam X e Y duas variáveis aleatórias com fgm
Mx(t) e My(t), respectivam!;)nte. Se .Mx(t) = My(t) pai:a todos.
os valores de t, então X e Y terão a mesma distribuição de probabilidade.
Demonstração: A demonstração deste teorema é bastante di~ícil
para ser dada aqui. Contudo, é muito importante compreender
exatamente o que o teorema afirma. Diz que se duas variáveis
aleatórias tiverem a mesma fgm, então elas terão a mesma distribuição de probabilidade. Isto é, a fgm determina univocamente a dis~
tribuição de probabilidade da variável aleatória.
Exemplo 10.10.
Suponhamos que X tenha a distribuição
Seja Y = aX + {3. Então, Y será também distribuída
normalmente. Do Teor. 10.2, teremos que a fgm de Y será M y(t) =
= e61 Mx(at). Contudo, do E~. 10.8, temos que
N(JJ.,
CT 2).
M x(t)
=
M y(t)
= eflt[ e"'Jd + <aul't'/2]
eJL!
+ u't'/2.
Portanto,
.Ora, isto é a fgm de uma variável aleatória normalfllente distribuída,
com expectância a}J. {3 e variância a 2 CT 2• Assiin, de aco~do com
o Teor. 10.3, a distribuição de Y é normal.
o teorema seguinte também desempenha papel fundamental em
nosso trabalho subseqüente.
+
A FUNÇÃO G~RATRIZ OE MOMENTOS I 255
Teorema 10.4. Suponha-se que Xi e Y sejam variáveis aleatórias independentes. Façamos Z = X
Y. Sejam Mx(t), M y(t) e
Mz(t) as fgm das variáveis aleatórias iX, Y e Z, , respectivamente.
Então,
(10.13)
Mz(t) = Mx(t).t-{y(t) .
Demonstração:
I
T
.
.
. I
Mz(t) = E(ez1) = E[e<X-H\Y) '] = E(ex1eY1)
.
= E(ex )E(ey = Mx(t)M y(t).
1
)
1
.
I
Comentário: Este teorema pode ser genenÜizado assim: Se X 1, ••. , Xn forem
variáveis aleatórias independentes, com fgm Mx,, i= 1, 2, ... , n, então Mz,
a fgm de
\ ·
Z = Xr+ ... +Xm
será dada por
Mz(t) = Mx 1(t) .. .\Mxn(t).
10.5.
(10.14)
i
Propriedades Réprodutiv?s
Existem algumas distribuiçõ.es de p~obabilidade que apresentam
.a seguinte notável e muito útil propriedade: Se duas (ou mais)
variáveis aleatórias que tenham uma de~erminada distribuição forem
adicionadas, a variável aleatória resuJ~ante terá uma distribuição
do mesmo tipo ·que aquela das parcelas. \ Esta propriedade é denominada propriedade reprodutiva (ou aditivd), e a estabeleceremos para
algumas distribuições importantes, com\ o auxílio :dos Teors. 10.3
e 10.4.
\
Exemplo 10.11. Suponha-se que Xi e Y sejam variáveis aleatórias independentes, com distribuições N()1. 1, o- 1 2) e N(p, 2, o- 2 2), resr
pectivamente. Fàçamos Z = X+ Y: Conseqüentemente,
I
'
.
+ ahI t /2) exp. (p, t + o-22tI2/2)
= exp. [(,ui + ,U2)t + (o-1 2 + a-2?)t 2/2l.
. I .
.
Ora, isto representa a fgm de uma var~ável aleatória normalmente
distribuida, com valor esperado
+ e1 variância +
PorMz(t) = Mx(t)ll1 y(t) = exp. (;.Lit
,U1
2 2
,U2
tanto, Z terá ·esta distríbuição normal.
I
2
0'1
2
2
0"2 •
(Veja o Teor. 10.3.)
'
I
O fato de que E(Z) = I'-! +/ 2 e V(Z) = rr12 + 'r r22 poderiam
ser obtidos imediatamente ~o que se viu ante~~~nte, resulta das propriedades
referentes à expectância e variância. No entan~'o, para se estabelecer o fato de
que Z é também normalmente diStribuída exigeise o emprego da fgm: (Existe
outra maneira de se chegar a este resultado, a qn,a l será mencionada no Cap. 12.)
Comentário:
256 I PROBABIUDADE
l.."J
' •. !
!i
Exemplo 10.12. O comprimento de uma barra é uma variável
aleatória distribuída normalmente, com valor esperado 4 polegadas
e variância 0,01 (polegada) 2 • Duas dessas barras são postas uma em
continuação à outra e colocadas em um entalhe. O comprimento
deste entalhe é 8 polegadas com uma tolerância de ± O, 1 polegada.
Qual é a probabilidade de que as duas barras se ajustem?
Fazendo-se L 1 e L2 representar os comprimentos das barras 1 e 2,
teremos que L = L 1 + L 2 será distribuída normalmente, com
E(L = 8 e V(L) = 0,02. Conseqüentemente,
P[7 9 < L < 8 1] = p [ 7,9- 8 < L- .8 < 8,1- 8
' - '
0,14 0,14 0,14
J
= q, (+0,714)- q, (-0,714) = 0,526,
das tábuas da distribuição normal.
Poderemos generalizar .o resultado acima no seguinte teorema:
Tem·ema W.5. (Propriedade aditiva da distribuição normal.)
Sejam X 1 , X 2, ••• , Xn n variáveis aleatórias independentes com distribuição N(p.;, (J; 2 ), i= 1, 2, ... , n. Façamos Z = X1 + ... + Xn.
Então, Z terá a distribuição N("l:;~ = 1 }1;, "1:;~ = 1 (J";2).
A distribuição de Poisson também apresenta a propriedade adi·~
tiva.
Teorema· 10.6. . Sejam X 1, . . • , Xn variáveis aleatórias independentes. Suponha-se que X; tenha distribuição de .Poisson, com parâmetro a;, i= 1, 2, ... , n. Seja Z = X 1
Xn. Então, Z
terá distribuição de Poisson com parâmetro
+ ... +
Demonstração: Vamos considerar, inicialmente, o caso de n = 2:
Daí, M z(t = é'''+ <>•) (et - IJ. Mas isto ~ a fgm de uma variável aleatória com distribuição de Poisson que tenha parâmetro a1 + az. Poderemos agora completar a demonstração .do teoré'm a com o auxílio
da indução matemática.
Exemplo 10.13. Suponhamos que o número de chamadas telefónicas em um centro, entre 9 e 10 hóra.S, X 1, seja uma variável aleatória com distribuição de Poisson, com parâmetro 3. Semelhante-
A FUNÇÃO GERATRIZ DE MOMEI\liOS I 257
mente, o número de chamadas que chegam entre 10 e 11 horas, X 2 ,
também terá uma distribuição de Poisson, com parâmetro 5,
Se X1 e X2 forem independentes, qual será a probabilidade de que mais
de 5 chamadas ocorram entre 9 e 11 horas?
Façamos Z = X1 + X2. Do teorema acima, Z terá uma distribuição de . Poisson, com parâmetro 3 + 5 = 8. Conseqüentemente,
P(Z
> 5) = 1 -
P(Z ~ 5)
= 1-
s
e~sC8Yc.
L -k!lc =o
== ]. - 0,191 2 = 0,808 8.
Outra distribuição que apresenta a propriedade aditiva é a distribuição de qui-quadrado.
x,
x;,.,
Teorema 10.7. Suponha-se que a distribuição de
seja
i = 1, 2, ... , k, onde os X; sejam variáveis aleatórias independentes.
X~c. Então, Z terá distribuição Xn 2 , onde
Faça-se Z = X1
+ ... +
n
= n1 + ... + n~c.
i
= 1, 2, ... , k. Conseqüentemente,
Demonstração: (Pela Eq. (10.,10) teremos Mx,(t)
= (1 - 2t)- n;/2,
Ora, isto é a fgm de .uma variável aleatória que tenha distribuição
de Xn 2 •
· Agora, poderemos apresentar uma das razões da grande importância da distnbuição de qui-quadrado. No Ex. 9.9, verificamos
que se Xtiver di!ltribuiçãp N(O, 1), X 2 terá distribuição X1 2 • Combinando isto corri o Teor. 10.7, teremos o seguinte resultado:
Teorema 10:8. Suponha-se que X 1, ..• , X~c sejam variáveis
aleatórias independentes, cada uma tendo a distribuição N(O, 1).
Então, S = X 12 + X 22 + .... + X~c 2 terá distribuição de X./'Exempl~ 10.14. Suponhamos que X1,: . . , Xn sejam v.ariá,veis
aleatórias independentes, cada uma com a distribuição · N(O, 1).
Façamos T = VX 1 2 + ... + X;. 2 • Pela nossa exposição anterior,
sabemos que T 2 tem distribuição de X.n 2 •
I
Para acharmos a fdp de T, digamos h, procederemos .como habitualmente:
H(t)
-
- Jr;:J'
= P(T < t) = P(T2 < t2) = (t•
2
1
znf 2-le->tz dz
T(n/2)
·
258 I PROBABILIDADE
Conseqüentemente, teremos
h(t)
=
H'(t)
=
2t
2nf 2
rcn/2)
2t"-1 e-t'/2
2"/2 rcn/2) se t ~ o.
(t2ti2-Ie-t'f2
Comentários: (a) Se n = 2, a distribuição acima é conhecida como distrib1tiçao de Rayleigh. (Veja. o Probl. 9.7.)
(b) Se n = 3, a distribuição àcima é conhecida como distribuiçao de .Maxwell
(ou, algumas vezes, como distribuição da velocidade de Maxwell) e tem a seguinte
importante interpretação: Suponha-se que temos um gás em um recipiente fechado. Representemos os componentes da velocidade de uma molécula, escolhida
aleatoriamente, por (X, Y, Z). Admitamos que X, Y e Z sejam variáveis aleatórias independentes, cada uma tendo a distribuição N(O, cr2). (Admitir-se a mesma
distribuição para X, Y e Z significa que a pressão do gás é a mesma em todas as
direções. Admitir-se que as expectâncias sejam iguais a zero significa que o.
gás não está escoando.) Conseqüentemente, a velocidade da molécula (isto é, a
magnitude de sua velocidade) é dada
g(s)
vX
2 + Y 2 + Z 2 • Salientamos
por S =
que X/cr, Y/cr, e Z/cr são distribuídas
de acordo com N(O, 1). Portanto, Sfcr =
= V (X/cr)2 + (Y/cr) 2 + (Zfcr) 2 tem distribuição de Maxwell. Por issó, a fdp
da velocidade S, isto é, g, será dada por
s=V'i/"
Fig. 10.2
g(s) =
fl
n
S2
-eaJ
S2/2 2
cr 's ;;;.
o..~.
O gráfico de g está indicado na :Fig. 10.2, para cr = 2. Observe-se que valores de
S muito pequenos ou muito grandes são bastante improváveis. (Pode-se mostrar
que a constante cr, que aparece como um parâmetro da distribuição acima, tem a
seguinte interpretação ft<;ica: . cr = VkT/M , onde T é a temperatura absoluta,
M é a massa da molécula, e k é conhecida como a constante de Boltzmann.)
!I
.I
·: !.
i
Estudamos algumas distribuições para as quais vale a propriedade aditiva. Vamos agora examinar a distribuição exponencial
para a qual, estritamente falando, a propriedade aditiva não vale;
mas que, não obstante, possui uma propriedade análoga.
Sejam r variáveis aleatórias independentes: X;, i = 1, 2, ... , r,
todas as r com a mesma distribuição expónencial, com parâmetro a.
Em conseqüência, da Eq. (10.7) teremos que
Mxi(t) = a/(a - t).
Assim, se Z = X 1 + ... + Xr, teremos Mz(t) = [a/a - t]', que é
justamente a função geratriz de momentos da distribuição gama, com
A fUNÇÃO GER~TFUZ DE MOMENTOS I 259
i
parâmetros a e r [Eq. (10.9)]. A menosi que r = 1, esta não será
a fgm de uma distribuição exponencial, de modo que esta distribuição
não
possui a propriedade aditiva. No
e~tanto,
temos uma carac.
.
I
terização bastante interessante da distribu~ção gama, que resumireI
mos no teorema seguinte.
1
i
Teorema 10.9. Seja Z = X 1 + ...
X,, onde os Xa são r
variáveis aleatórias independentes, identic~mente distribuídas, cada
uma tendo distribuição exponencial, com lo (mesmo) parâmetro a.
Então, Z terá uma distribuição gama, com parâmetros a e r.
i
..
Cvmeritários: (a) O Teor. 10.9 não será. verda~eiro se os p&âmetros das v&rias distribuições exponenciais forem diferentes. I~to se tema evidente quando
·
eonsideramos a fgm da. soma resultante das variá.vei!l aleatórias. ·
---
.
..
i
.
.
(b) O seguinte corolário do teorema acima apr$mta
considerável
importância
I
.
.
.
.
.
em algumas aplicações estatísticas: A variável aleatória W = 20!2 tem distribuição
de x~,. Isto constitui uma conseqüência imediat;a do fato de que Mw.(t) =
= Mz(2at) = [a/(a- 2at)Jr = (1- 2t)-2 ''2 • A comparação disto com a Eq.
(10.10) dá origem ao corolário acima. Portanto, potleremos empregar a distribuição de qui-quadrado tabulada com o objetivo de calcular determinadas probabiridades associadas a Z. Por exemplo, P(Z .;;; 3) ~ P(2aZ .;;; 6a). Esta última
probabilidade pode ser diretàmente obtida das tábuas da distribuição de qui;<jua1
drado, se a e r forem dados.
·
\
I
10.6.
.
i
SeqUências dle Variáveis Aleatórias
Suponha-se que temos uma seqüência\ ~: v_ariávElis ~leat6rla.s
Xr, X2, ... , Xn, . . . Cada uma dessas vanaveiS aleatónas pode
I
.
ser descrita em termos de F;, SUfL fd, o~de F;(t) = , P(X; .:$; t),
_i= 1, 2, . . . Bastante freqüentemente est~remos interessados no
que acontece a F; quando i ....,. oo. Isto é,[ existirá alguma função
I
de distribuição limite F correspondente a al~a variável aleatória X,
I
tal que em algum sentido, as variáveis aleatórias X;, convirjam para
X? A resposta é sim, em muitos casos, e !existe um procedimento
bastante imediato para determinar-se F.
\
Essa situação pode surgir quando considerarmos n observações
independentes de uma variável aleatória X, J,o r exemplo, Xx, ... , Xn.
Poderemos estar interessados na média aritmética dessas observações,
Xn = (1/n) (X1 + ... + Xn). X,. é também! uma variável aleatória. Seja Fn a fd de X,.. Poderá interessar \ saber o que acontece à
distribuição de probabilidade deXn quando n se toma grande. Assim,
nosso problema envolve o comportamento limi~ de Fn quando n ~ co.
O teorema seguinte, enunciado sem . demonstração, nos tOrnará capazes de resolver esse e outros problemas s m r t)
. f
260 I
PPlOIBAB~UDADIE
Teorema 10.10. Seja X1, ... , X,. uma seqüência de variáveis
aleatórias com fd Fh· . . , F,., ... e fgm M 1 , ••• ,M,.,... Suponh11r00
que liiQ,.--. .. Mn(t) = M(t), onde M(O) = l. Então, M(t) é a fgm
da variável aleatória X, cuja fd Fé dada pelo Jim,._,., F .. (t).
C~vio: O Teor. 10.10 diz que p!l.i'& obter & distribuição "lilni.te procuradt:.~,
~tud!M' ru~ funçÕ~ geratrizes de momentos das variáveis rueatóriw
sob exame. Obteremos & forma limite da seqüência MI> . . .·, M,., . . . , digamos M(t).
Em virtude d111 propriedade de unicidade. das fgm, existirá. apenas uma distribuição de probe.bilidade correspondente à fgm M(t). Poderemos reconhecer M como
a fgm de uma distribuiçã,o conhecida (tal como lll normal, a. de Poisson etc.) ou
poderemps ter de empregar métodos IDIIIis &va.nça.dos pare. determinar 111 distribuição de probabiliw;,de lll partir de llf. N111 medida em que formoà Clilpa.zes de obter
a fgm a. partir do conhecimento d111 fdp, assim também seremos capazes .de obter
(sob condições bastante gerais) a fdp a. partir do conhecimento da fgm. Isto
ac:MTetlllria alguns teoremas rec!procos e nós não nos dedicaremos mais a isto.
é suficiente
Vimos que a fgm pode constituir um instrumento muito poderoso
para o estudo de vários aspectos das distribuições de probabilidade.
Em particular; verificamos ser o emprego da fgm muito útil ao estudarmos somas de variáveis aleatórias independentes, identicamente
distribuidas, ~ na obtenção de várias regras aditivas. Estudaremos
novamente no Cap. 12, somas de variáveis aleatórias independentes,
sem o emprego da fgm, porém com métodos semelhentes àqueles qpe
empregamos ao estudar o produto e o quociente de variáveis aleatórias independentes no Cap. 6.
14U. Suponhe que X tenhe fdp
d:!,du, por j(x) = 2x,
OS zS
1.
(a) Determine & fgm de X.
(b) Empregando a fgm, calcule E(X) e V(X) e verifique sua resposta. (Veja
o Comentário à Pág. 262.)
1.1U. (a) Determine 111 fgm
tMill no l?robl. 7 .25.
dm~
tensl!.o (i'l!Cluindo o ruído) tal como .apreren-
Empregando a fgm, obtenha o valor esperado e a variância dessa tensão .
(b)
10.3. Suponha que X tenha a seguinte fdp:
J(z) =
Xe- À(x-a),
x 2::
•
lll•
(Esta é conhecida como distribuição exponencial a dois parâmetros.)
(a)
(b)
Determine a fgm de X.
Empregando a fgm, ache E(X) e V(X).
A FUNÇÃO GERATRIZ DIE MOMEI\lTOS I 261
10.~.
Seja X o resultado da jogada de tliDa moeda equilibrada.
(a) Determine a fgm de X.
(b) Empregando a fgm, ache E(X) e V(X).
10.5. Determine a fgm da variável aleatória X do Probl. 6.7.
gando a fgm, ach!l E(X) e V(X).
1O.li.
Empre-
Suponha que a variável aleatóri& contínua X tenha fdp
j(x)
=.!. e-lzf,
2
-
oo
<x <
oo.
(a) Ache a fgm de X.
(b) Empregando a fgin, ache E(X) e V(X).
10.7. Empregue a fgm para mostrar que, se X e Y forem variáveis aleató-
riaB independentes, com distribuição N(p..,, u.,2 ) e N(JAy, u,l), · respectivamente,
então Z
tantes.
=
10.8.
dX
+ bY será também normalmente distribuída, onde a e b são cons-
Suponh& que a fgm da variável aleatória X seja da forma
Mx(t) = (0,~ 1
+ 0,6)a.
(a) Qual será a fgm da variável aleatória
(b)
Y
= 3X
+ 2?
Calcule E(X).
(c) Você poderá verificar sua nsposta a (b), por algtliD outro método? [Tente
"reconhecer" M x(t):]
10.9. Alguns resistores, R;, i = 1, 2, ... , n, são montados em série em um
circuito. · Suponha que a. resistência de cad& um seja normalmente distribuída,
com E(R;) = 10 ohms e V(Ri) = 0,16.
(a) Se n = 5, qual será a probabilidade de que a resisll!ncia do circuito exceda
49 ohms?
(b) Para que se tenha aproximadamente igilal a 0,05 a .probabilidade de que
a resistência total exceda 100 ohms, que valor deverá ter n?
10.10. Em uÍn circuito, n resistores são montados em série. Suponha que
a resistência de cada um seja ·uniformemente distribuída sobre [O, 1] e suponha,
·também, que todas as resistências seJam independentes. Seja R a resistência
total.
(a) Estabeleça s fgm. de R.
(b) Empregando
cálculo direto:
&
fgm, obtenha E(R) e V(R).
Confirme eu!Yl reapostes pelo
·
111.~1. Ss X tiver distribuiçio de
E(X) = n e V(X) = 2n,
x,.2,
empregando m fgm, mostre que
10.12. Snponh& que V, ~~>.velocidade (cm/seg) de um objeto, tenhe distri~
buição N(O, 4). Se K = mV2.f2 ergs for & energia cinética do objeto (ondl:l
m = Dll!SSa), ~etermine. e. fdp de K. Se m = 10 grami!S, c&lcule P(K:::;; 3).
262 I PROBABILIDADE
10.13. Suponha que a duração da vida de uma peça seja exponencialment
distribuída, com parâmetro 0,5. Suponha que 10 dessas peças .sejam instalada:
sucessivamente, de modo que a i-ésima peça seja instalada "imediatamente'
depois que a peça de ordem (i- i.) tenha falhado. Seja T; a duração até falha
da i-ésima peça, i = 1, 2, .•. , 10, sempre medida a partir do instante de insta
lação. Portanto, S . = T1 + ... + T1o representa o _tempo total de funciona
mento das 10 peças. Admitindo que os T; sejam independentes, calcul
P(S ~ 15,5).
10.14.
Suponha . que X1, ... , X ao sejam variáveis aleatórias
cada uma tendo distribuição N(O, 1).
gestão:
C:>lcule P[X 12
independent~
+ ... + x;0 > 77].
[Su
Empregue o Teor. 9.2.]
10.15. ·Mostre que se X;, i = 1, 2, ... , k, representar o número· de sucesso
em n; repetições de um experimento, no qual "?(sucesso) = p, para todo i, entã•
X 1 + .... + X1c terá uma di~5tribuição binomial. (Isto é, a distribuição binomia
possui a propriedade aditiva.)
1 0.16. (DistribuiçiJes de Poísson e multi-nom1:al.) Suponha que X;, i "
1,· 2, . . . , .n, sejam variáveis aleatórias independentes com distribuiç.ão de Poissor
com parâmetros a;, i = 1, ... , n. Faça X ·= _ L~= 1 X;. Nesse caso, a distribuiçã
de probabilidade conjunta de X 1 , .. . , Xn, dado X = x, é dada por uma distribu:
ção multinomial. Isto é,
10.17. Estabeleça a fgm de uma variável aleatória que tenha~ distribuiçü
geométrica. Essa distribni~ão possui a propriedade aditiva?
10.18. Se a variável aleatória X tiver uma fgm dada por Mx(t)
qual será o desvio-padrão de X ?
=
3/(3 - t
10.19. Estabeleça a fgm de uma variável aleatória que seja uniformemen·
distribuída sobre (- 1, 2).
10.20. Um determinado processo industrial produz grande número de cilil
dros de aço, cujos comprimentos são distribuídos, normalmente, com média 3,~
polegadas e desvio-padrão 0,05 polegadas. Se · dois desses cilindros forem esc
llúdos ao acaso e dispostos· um em continuação ao outro, qual será a probabilida<
de que seu comprimento combinado seja menor do que 6,60 _polegadas?
Comentário: Ao calcular M~(t), para t = O, pode· surgir uma forma irld
terminada. Assim, M~(O) pode ser da forma 0/0. Nesse caso, deveremos tent:
aplicar a regra de l'Hôpital. Por exemplo, se X for uniformemente distribui(
sobre [0, 1], nós facilmente encontraremos queMx(t) = (et- 1)/t eM_;(t)
= (tet ·- et + 1)/ t 2 • Conseqüentemente, -em t = O,M~(t) é indeterminad
· Aplicando a regra de l'Hôpital, encontraremos que
lirnt_,. 0 Mx(t) == lirnt_,. 0 tet /2t = 1/2.
Isto confirma, desde que M~(O)
ria apre.sentada aqui.
=
E(X), que é igual a 1/2 para a variável aleat•
!.
A pi icações à T eori~ da Confiabilidade
Capítulo 11
11.1. conceitos Fundamer ais
Neste capitulo, estudaremos um dominio em desenvolvimento,
muito importante, de aplicação de alguns conceitos apresentados
nos capitulas anteriores .
.,.
o
·.o
te·
n-
l5.
oie
ear
la
==
a.
;5-
Suponha-se que estejamos c6nsiderando um componente (ou
todo um complexo de componentbs instalados· em um sistema), o
qual é submetido a alguma espécie de "esforço". Isto pode constituir
uma viga sob uma carga, um fu~ivel intercalado em um circuito,
uma asa de avião sob a ação de fdrças, ou um dispositivo eletrônico
.
I
posto em serviço. Suponha-se
que,
para qualquer desses
compo.
I
.
nentes (ou sistema), um estado que! denotaremos como "falha" possa
ser definido. Desta forma, a vigJ de aço pode romper-se ou que.brar, o fusível pode queimar, a asa pode emp~nar, ou o dispositivo
eletrônico pode deixar de funcionari
Se- esse componente for posto 1sob condições de esforço, em algum instante especificado, digamos 1t = O, e observado até que falhe
(isto é, até que pare de funcionar aÇlequadamente sob o esforço aplicado), . a duraçã9 até falhar ou duraçãb .da vida, T, pode ser considerada
como uma variável aleatória continua com alguma fdp j. Existe
grande quantidade de provas emJ,iricas· para indicar que o valor
de T não pode ser previsto a part,i r de um modelo deterministico.
Isto é; componentes "idênticos" stljeitos a "idênticos'' ésforços falhárão em diferentes .e i~previsí~eis instantes. Alguns falharão
logo no início de sua vida e outros \ em épocas mais .tardias. N atu1
ralmente, "o estilo de(falhar" variará com o tipo de. peça que se es~
teja considerando. RQI_) xemplo, u~ fusível falhará bastante subitàmente, no sentido de que em dado momento estará funcionando
perfeitamente e no próximo momento
já não funcionará. mais. Por
I
.
outro lado, uma viga de aço sob uma carga pesada tornar-se-á ·pr,o-
264 I PROBABILIDADE
vavelmente mais fraca durante um longo. período de tempo. De qualquer modo, o emprego de um modelo probabilístico, com T considerada como uma variável aleatória, parece constituir-se no linico
tratamento realista do assunto. Apresentaremos, agora, outro
conceito importante.
Definição. A conjiabilidade de um componente (ou sistema) na
época t, R(t), é definida ~omo R(t) = P(T > t), onde T é a duração
da vida do componente. R é denominada função de conjiabilidade.
Comentário: Muito embora o termo "confiabilidade" (em inglês, "reliability") possua muitos significados técnicos ·diferentes, aquele apresentado acima
está se tornando o mais geralmente aceito. A definição, dada aqui, simplesmente
afirma que a confiabilidade de um componente é igual à probabilidade de que o
componente não venha a falhar durante o intervalo [0, t] (ou, de mod<;> equivalente, confiabilidade é igual à probabilidade de que o componente ainda esteja .
em funcionamento na época t). Por ·exemplo, se para uma determinada peça,
R(t1) = 0,90, isto significa que aproximadamente 90 por cento de tais _peças, utilizadas sob dadas condições, estarão ainda em funcionamento na época t1.
Em termos da fdp de T, digamos j, teremos
R(t) =
J:"'
j(s) ds.
Em termos da fd de T, digamos F, ·teremos
=1-
R(t)
P(T
~
t) = 1 - F(t).
Além daJunção.de confiabilidade R, outra função desempenhlJ- importante papei na descrição das caracterÍsticas de falhas de uma peça.
Definição. A taxa de falhas (instantânea) z. (algumas vezes denominada junção de risco) associada à variável aleatória T é dada por
Z(t)
definida para F(t)
•
Ccimentário:
cionada
=
1-
j(t)
F(t)
j(t)
R (t) '
=
(11.1)
< 1.
A fim de interpretar Z(t), considere-<>e a pro.babilidade condiP(t ~ T
:<:: t + t.t IT >
t),
iSto é, a probabilidade de que a peça venha a falhar durante as próximas t.t unidades de' tempo, desde que a peça esteja funcionando adequadamente no instant~ t.
Aplicando-se a definição de probábilidade condicionada, poderemos escrever a
expressão acima assim:
P(t ~ T ~ t
+ td IT > t)
= P(t
=
f
+ t,t)
<
T <t
P(T > t)
t+t.t'
f(x) dx/P(T
> t)
=
t.tJW/R(t),
APLICAÇÕES À TEORIA DA CON FIABI UDADE / Z65
A última expressão é (para tJ.t pequeno e supondo-ee que f seja contínua em t+)
aproximadamente igual a tJ.tZ(t). Portanto, ~xplicando não formalmente, tJ.tZ(t)
representa a proporção pe peças que falharão entre t e t
tJ.t, dentre aquelas peças
que estavam ainda funcionando na época t.
.
Do que se explicou acima, conclui-<le que /, a fdp de T, determina umvoCl!F
mente a taxa de falhas Z. ·Mostraremos agora que a recíproca também. vale: &
taxa de falhas Z determina univocamente a fdp f.
+
Teorema 11.1. Se T, a dura.ção. até falhar, . for um.a v.ariável
aleatória contínua, com fdp je se F(O) = O, onde F é a fd de T 1 então,
f poderá ser expressa em termos da taxa de falhas Z, da seguinte maneira:
j(t) = Z(t)e=f~Z(s)ds.
=-
Demonstraçao:· Visto· que
F'(t) = - j(t). Daí,
=
Z(t)
R(t)
(11.2)
= 1 ·_ F(t), teremos R '(t)
=
-R'(t) ,
R(t)
j(t)
R(t)
InMgremos ambos os membros de O a t:
r
}o Z(s) ds
r R'<)
= - )o
R(:) ds
= - ln R(s)\Ó
+ ln R(O) =
= - ln R(t)
- ln R(t),
de8de que ln R(O) = O, o que vale se, e somente se, R(O) = 1. [Esta
última condição será satisfeita se F(O) = O. Isto apenas diz que a
probabilidade de falha inicial é igual a zero; adotaremos esta hipótese no restante da exposição.] Conseqüentemente,
R(t)
=
e-fciZ(s)da.
Portanto,
f(t) = F'(t) =
:t [1 -
R(t)]
= Z(t)e-f~Z<•ld•.
Por conseguinte, mostramos que . a taxa de falhas Z determina univocamente a fdp j.
Existe unia interessante relação entre a função de confiabilidade
e a duração média até-falhar, E (T) .
Teorema 11.2.
~
)
I
Se-E(T) for finita, então
E(T) =
i.
R(t) dt.
(11.3)
266 I PROBABILIDADE
Demonstração: Considere-se
Vamos integrar por partes, fazendo
v = t e du = - j(t) dt. Portanto,
.["' R(t) dt
=t
1
J:"' j(s) d8 =
"'j(s) ds J
~+
u e dt = dv.
1"'
Dai,
tj(t) dt.
A segunda integral, no se~do membro, representa E(T). Portanto a demonstração estará completa se pudermos mostrar que :..,
t.f; "'f(s) ds se anula em t = O e quando t ---7 co. A anulação em
t = O é imediata. Empregando a finitude de. E(T), o leitor pode
completar a demonstração.
Os conceitos de confiabilidade e de taxa de falhas estão entre
as mais importantes ferramentas necessárias para um estudo profundo dos "modelos de falhas". Estudaremos principalmente a.S
seguintes questões:
(a) Que "leis de falhas" subjacentes será razoável admitir?
(Isto é, que forma a fdp de T deve ter?)
(b) Suponha-se que temos dois componentes, C1 e C2, com leis.
de falhas conhecidas. Suponha-se que esses componentes estejam~
associados em série
ou em paralelo,
para constituir um sistema. Qual será a lei de falhas (ou confiabilidade) do sistema?
A questão de qual será uma "razoável" lei de falhas nos leva
de volta a um problema que já discutimos anteriormente: Que é um
modelo matemático razoável para a descrição de al~m fenômeno
observável? De um ponto de vista estritamente matemático, poderemos admitir qualquer fdp para T e, depois, simplesmente estudar
as conseqüências dessa hipótese. Contudo, se estivermos interessados em ter um modelo que represente (tão acuradamente quanto
possível) os dados de falhas realmente disponíveis, nossa escolha do
modelo terá que levar isso em consideração.
APLICAÇÕES À TEO-RIA DA CONFIABILIDADE I 26.7
I
11.2. A IL.ei de Falhas Normal
Existem muitos tipos de componentes\ cujo comportamento das
falhas pode ser representado pela distribuição normal. Isto é, se T
for a duração da vida de uma peça, sua fdp será dada por
j(t) =
1
V2wu
exp ( -
·
_!: [
2
~I -u M ]2)·
,
[Novamente salientamos que a <luraçJ até falhar, T, deve ser
maior que (ou igual) a .zero. Conseqüenilemente, a fim de que o
modelo acima possa ser aplicado devemos insistir que P(T < O) 1seja
essencialmente zero.] Como a forma da
normal indica, a lei de
falhas normal significa que a. maioria das \peças falha em tomo da
duração até falhar média, E(T) = JL e o nbero de falhas decresce
(~imetricamente) quando IT- JLI cresce. I A lei de falhas no~
indicá que cerca de 95,72 por cento das fa!lias ocorrem, para aqueles
valores de t que satisfaçam a {ti lt- .ui < fu}. (Veja! a Fig. 11.1.)
fdb
.JII(t) l
I
J_____
I
t-,.-2, '
t = p.
Fig. 11.2
!Fig. 11.1
A função de confiabilidade da lei de falhas normal pode ser ex'
.
pressa em termos da função de distribuição; acumulada normal, tabulada, ~. da seguinte maneira:
R(t)
= P(T > t) = 1 - P(T ~ t)
1
~~_.., exp ( - 21 '·.[ -X q
- JL
= 1- V2?ru
-
]2) dx
=1-~ ( -tuJL-.)· " (\_ )
I
A Fig. 11.2 apresenta uma curva-de confiabilidade geral pa~ a lei
de falhas normal. Observe-se que a ·fim de alcançar alta confiabilidade (digamos 0,00 ou maior), o tempo de operação deverá ser bem
menor que p,, a duração da vida esperada.
.268 I PROBABiLIDADE
Exemplo 11.1. Suponha-se que a duração da vida de um com~
ponente seja distribuída normalmente, com desvio-padrão igual a ·
ll.O (horas). Se o componente tiver uma confiabilidade de 0,99 para
um período de operação de 100 horas, qual será sua duração de vida
esperada?
A equaçãO acima se torna
..
0,99 = ].
~
( 100<i> .
10
}t) .
Das tábuas da distribuição normal, isto dá (100- p.)/10
Portanto, Jl. = 12313 horas.
=-
2,33.
A lei de falhas normal representa um modelo apropriado para
coinppnentes nos quais a falha seja devida a algum efeito de "desgaste". Ela não se inclui, contudo, entre as mais importantes leis
de falhas encontradas.
11.3.
A lei tdle Falhas Exponencial
Uma das mais importantes leis de falhas é aquela cuja duração
até falhar é descrita pela· distribuição exponencial. Poderemos caracterizá-la de .muitas maneiras, mas, provavelmente, a maneira
mais simples é supor que a taxa de falhas seja constante. Isto é,
Z(t) = a. Uma conseqüência imediata desta hipótese é, pela
Eq. (11.2), que a fdp associada à duração até falhar T, seja dada por
I
·~
..
j(t)
= ae-"1,
t > O.
A recíproca disto é, também, imediata: Se j tiver a forma acima,
= 1 - F(t) = e-" 1 e, portanto, Z(t) = j(t)/R(t) = a. Deste. modo,
concluímos o seguinte resultado importante:
R(t)
Teorema 11.3. Seja T, a duração até falhar, uma variável aleatória contínua, que tome todos os valores não-negativos. Então,
T terá uma distribuição exponencial se, e somente se, tiver uma taxa
de falhas constante.
Comentário: A hipótese de taxa de falhas constante pode também significar ·
que, depois que a peça estiver em uso, sua probabilidade de falhar não se tenha
alterado. Dizendo de maneira menos rigorosa, não existe efeito de "desgaste"
quando o modelo exponencial é estipulado. Há outra maneira de dizer isto,
que· torna este aspecto ainda mais notável.
"'
+
Considere-se para . t;.t > O, P(t ~ T ~ t
/:lt IT > t).
Isto representa a
probabilidade de que a peça venha a falimr durante as próximas t;.t unidades,
desde que ela não tenha falhado à época t. Aplicando a definição de probabili-
AP U CAÇÕES À TEORIA DA CONF IABILIDADE I 269
dade condicionada, encontramos
P(t:S T :S t
+ t.tlT > t) =
e-at -
e - a(t+M
e at
= 1-
e-aL'l.t,
Portanto, esta probabilidade condicionada é independente de t, dependente apenas
de D.t. É neste sentido que poderemos dizer que a lei de falhas exponencial admite
que a probabilidade de falhar seja independente do que se tenha passado. Quer
dizer, enquanto a peça estiver ainda funcionando ela será "tão boa quanto nova".
Se ·desenvolvermos em série de Maclaurin, o último membro da expressão acima,
obteremos
P(t:S T :St
+ t.tlT > t)
= 1-
,
[ 1- atJ.t
(a 6.t)2
(a t.t) 3 .
+ 21
- -----a!+···
J
= atJ.t +h( D.t),
onde h( t.t) se torna deprezível para D.t pequeno. P or isso, para ·t.t .suficientemente pequeno, a probabilidade acima será diretamente proporcional a ó.t.
Para muitos _tipos de componentes, a hipótese que conduz à
lei de falhas exponencial é, não somente sugestiva intuitiva~ente,
roas de fato é confirmada pela evidência empírica. Por exemplo,
é bastante razoável admitir-se que um fusível ou um rolamento de
rubis sejam "tão bons quanto novos", enquanto estiverem ainda ·
funcionando. Isto é, se o fusível não tiver fundido, estará praticaW:ente em estado de novo; nem o rolamento se alterará muito devido
a desgaste. Em casos tais como esses, a lei de falhas exponencial
representa um modelo adequado com o qual se estudem as carfl,cteristicas de falhas da peça.
Contudo, uma palavra de advertência deve ser in clufda aqui.
Há muitas situações encontradas nos estudos de falhas, para as .quais
as hipóteses básicas que levam à distribuição exponencial não serão
satisfeitas. Por exemplo, se um pedaço de aço for submetido a esforço continuado, haverá obviamente alguma deterioração, e por
isso, Um. outro modelo, que não o exponencial deve ser examinado.
j(t)
F(t)
R(t)
. I
Fig. 11.3
a'~tado
Muito embora já tenhamos
vanas propriedades da
distribuição. exponencial, vamos resumi-las de novo para tê-las pre-
..
)
270 I PROBABILIDADE
sentes no objetivo atual. (Veja a Fig. 11.3.) Se T, a duração até
falhar, for distribulda exponencialmente (com parâmetro a), teremos
I E(T) ·= l fa;
V(T) =
F(t) = P(T :$; t) = 1 - e-
1
;
l/~ 2 ;
R(t) = e....1•
Exernplo 11.2. Se for dado o padmetro a e R(t) for especifk
cada, poderemos achar t, o número de horas, por exemplo, de opera- .
ção. Deste modo, se a = 0,01 e R(t) for igual a 0,00, teremos
0,00
=
e~.ou.
Daí, t =; - 100 ln (0,90) .= 10,54 horas. Logo, se cada um de 100
desses componentes estiver operando· durante 10,54 horas, aproxi;,
madamente 00 não falharão durante aquele período.
· Comentáriell: . (a) 11:. muito importmlte compreender que, no caso exponencial pod~mos identific&r tempo de operB.ção (a partir -de algum valor inicial fixado
·arbitrariamente) com idaik de operação. ~ porque, no Cil.'so exponencial, uma
peça que não tenha falhado é tão boa quanto a nova, e, por isso, seu comportamento
de falhas durante qualquer petíodo particular depe~de somente da extensão desse
período e não de seu pll888do. Contudo, quando se -admite uma lei de falhaa ~
-exponencial (tal como a 1~ normal ou uma das distribUições que ex~minaremo:i
em breve), o passe.do exerce influência sobre. o desempenho .da peça. Por isso,
enquanto podemoa definir T como o tempo em serviço (até fl!lliar) para o caso
exponencial, deveremos d~finir T como a duração total da vida até falhar para os
· CMOB não-exponenciais.
.
'
(~) A distribuição exponencial, que estudamos no contextO da duração da
vida dos .componentes, apresenta muitas outras aplicações importantes. De
fato, sempre que IDnB. variável aleat6ria continua T, que tome vmores não negativoa, satisfizer à hipótese P(T > s + tiT > s) := P(T > t) para todos 8 e t, então
T terá uma .distribuição exponencial. Desta .maneira, se T representar o tempo
que. um átomo radioativo leva para se desintegrar, poderemos &drnitir que T seja
distribuído exponencialmente, já que a suposição acima parece ser satisfeita.
Exemplo 11.3. Não é desarrazoado supor-se que c~te mais
produzir uma peça com uma grande duração de vida esperada, do
que outra com uma pequena éxpectância de vida. Especlficamente,
suponha-se que o c~tO C de produzir uma peça constitua a seguinte
função de Jt, a duração até falhar média,
c= 3jt
2
•
Suponha-se que um lucro de D dólares seja realizado para cada
hora que a peça esteja em serviço. Assim, o lucro por peça será
dado por
P = DT- 3Jt 2,
onde T é o número de horas em que a peça funcione adequadamente.
APUCAÇÕES À TEORIA DA COI\! FiABILIDADE I 271
1
!
até
mos
lcif~­
Jera-..
100
roxi;.,
onen-
ixado
Ulilll.
Em conseqüência, o lucro
Para acharmos qual o valor de P, que torna máxima esta quantidade,
bastará fazer dE(P)fdp, igual a kero, e resolvê-Ia em relação a p.. O .
resultado será p, = D/6, e por is~o o lucro máximo esperàdo,por peça,
·. será E(P)mru. = D 2/12.
'
Exemplo 11.4. Vamos reexaminar o Ex. 11.3, 1 fazendo as seguintes suposições adicionais. ;Suponha-se que T, a duração até
falhar, seja distribuída exponencialmente, com parâmetro a . Assim,
p,, a duração até falhar esperada,Jserá dada por p, := 1/a. Suponha-se
também que se a peça não fun~ionar adequadamente ao menos durante um _número especificado de horas, to, seja . lançada uma multa
igual a K(to- T) dólares, onde !T(T < to) é a época em que a falha
ocorra. Conseqüentemente, o lu?ro por peça será dado por
P
. De
negaentão
;empo
r seja.
i ta.
mais
t, do
ente,
uinte
= DT -
3p, 2
= DT- 3p,
~~
ii.o da
será dado por
I
. E(P) =;= Dp, - 3p, 2 •
nento
desse
remos
· isso,
, caso
'1.1"!1. os
esper~do
.,
2 -
•
se
...
o'
.,.
· .~:
T > to,
i
K(t 0 : I
.i1tj''',,
se T <to.
T)
11."
i'!:J
Logo, o lucro esperado cPor peçd) pode ser expresso dqmo
=
E(P)
D
!.
•
I
ii• ti
~·,,l,t
:
lj/l~
!ae-a1 dt- ~p, 2e- 1•
+ (D + K) }ot· tae-a Ijdt1
(3p 2
+ Kt )(10
= Dp, -
3M+ K[p, 2
lI''
i',',l
1' .1
e-a1•).
Depois de integrações imediatas,! a express,ão acima pode ser escrit11.
E(P)
..
:I
,:,
p,e-t•t11 - tol.
I
Observe-se que se K = O, isto se reduzirá ao resultado obtido
no Ex. 11.3. Poderíamos nos f~zer uma indagação análoga àquela
surgida no exemplo a:Q.terior: ;P ara quais valores de p, assumirá .
E(P) seu valor máximo? Nós; não prosseguiremos nos detalhes .
deste problema, porque incluem la resolução de uma equação trans-.
cendente, que deverá ser resolvida: numericamente.
I,'
,.I
li ~~
~III:
IIII
'l l·,i
I,!
H
. "II'!I
1
~
1
I
1
·I
i
11.4. A lei de Falhas ~xponenciai .e a Distribuição de
cada
será
3nte.
i
Poisson ·
I
.
Existe uma conexão muitoMtima entre alei de falhas exponencial descrita ·ria seção antenÇ.r.J um processo de Poisson. ~upo­
nha-se CJ,Ue a falha ocorra em virj;ude do aparecimento de certas--perturbações "aleatórias". Isso poderá ser causado por forças ext~rua8
I
272 I PROBABILIDADE
como súbitas rajadas de vento ou uma queda (elevação) de tensão
elétrica, ou por causas. internas tais como desintegração qui mica ou
defeito mecâinico. Seja Xt igual ao número de tais perturbações
ocorridas durante um intervalo de tempo t, e admita-se que Xt, t ;::: O
constitua um processo de Poisson. Quer dizer, para qualquer t fixado
a variável aleatória Xt tem uma distribuição de Poisson com parâmetro at. Suponha-se que a falha durante [0, t] seja causada se, e
somente se, ao menos uma dessas perturbações ocorrer. Seja T a
duração até falhar, a qual admitiremos ser uma variável aleatória
contínua. Então,
. F(t)
[0,
=
P(T :::; t)
=
> t).
1 - P(T
Ora, T > t se, e somente se, não .ocorrer perturbação durante
Isso aconlecerá se, e somente se, Xt = O. Por isso,
tl.
1
e--<> •
F(t) = 1 - P(Xt = O) = 1 -
Essa expressão representa a fd de uma lei de falhas exponencial.
Conseqüentemente, encontramos que a "causa" das falhas acima
envolve uma lei de falhas exponencial.
As idéias acima podem ser generalizadas de duas maneiras:
(a) Suponha-se novamente que perturbações apareçam de
acordo com um processo de Poisson. Suponha-se também que
sempre que essa perturbação aparecer, exista uma prob~bilidade
constante p de que elà não acarrete falha. Portanto, se T for a duração até falhar, teremos, como anteriormente,
F(t) = P(T :::; t) = 1 - P(T
>
t).
Agora, T > t se, e somente se, (durante [0, t]) nenhuma perturbação
ocorrer, ou uma perturbação ocorrer e não resultar falha, ou duas perturbações ocorrerem e não resultarem falhas, ou . .. Daí,
F(t) = 1 -
[ e-~
+ (at)e-« p + (at)
= 1- e-at 2.::~
k=O
1
(atp)k
__
._ =
k!
1-
2 -
c~2.1
e-a'e"'lp
p2
+. ... J
= 1-
e--<><1-p)t.
Deste modo, T possui uma lei de falhas exponencial com parâmetro
p). (Observe-se que se p = O, teremos o caso explicado anteriormente.)
a(l -
(b} Suponha-se novamente· que perturbações apareçam de
acordo com um processo de Poisson. Agora admitiremos que. ocprra
falha sempre que r ou mais perturbações (r;::: 1) ocorram durante
;i:Jjj'l
~~:i!
)! ,
:
APUCAÇÕIES À "l"IEOIRDA DACONFiABI LHDADE / 273
.'·::! .
um intervalo de extensão t. Por essa razão, se T for a duração até
falhar, teremos, como anteriormente,
F~) =
1-
. ~::1
. .~ij~
..• il
P(T > Q.
Neste caso, T > t se, e somente se, (r - 1) ou menos perturbações
ocorrerem. Logo,
F(t) = 1-
•-1 (atY'e-~
L
lc=O
k!
·
..
De acordo com a Eq. (9.17), a expressão acima é igual a fr/[a/(r- 1)!](as)'- 1e-• d~ e, por isso, representa a fd de uma distribuição
gama. Deste modo, achamos que a "causa" de falhas acima leva à
conclusão de que a duração até falhar segue uma lei de falhas gama.
(Naturalme?:~~. se r = 1, ela se toma uma distribuição exponencial.)
11 .5.
A lei dle
Fa~lhas
d® Weibull
=
j(t)
=
(a{3)tfl- 1 e- 1 ~,
ii
11:
~I ''
r_•.·l
''I 1
1.
r f 1.
''.·.il'i·l·lt'
li':iá
'.
·r
.~.,.. h.
! 'i. ,'11''
!il;li'i''·.'l·.·t
,,,,t
;~hl:·'•A.,t
.....J.>j.,11
'•;,"
(11.5)
0,8
Fig. 11.4
= 1 e {3 = 1, 2, 3. A função de confiabilidade
(
)
= e-atfi, a qual é uma função decresc~~ de t.
...;,, ,-.::-
ir"~'
Da Eq. (11.2) obtemos a se-
j(r)
.
I'
::; ' !!'lr:J
t > O, 01., ~>O.
à
I
(11.4)
Diz-se que uma variável aleatória que tenha a fdp dada pela Eq. (11.5)
tem uma distribuição de Weibull. · A Fig. 11.4 apresenta a fdp para
0,4
~ ,.:1·1
.. .., n:
!: ,':1~;·; ~ '( l
!!I .,, ... 1·~1,
(a{3)t~- 1 ,
onde a e {3 são constantes positivas.
guinte expressão para a fdp de T:
.:)')f[ill!,
~rt:::·riJI~
Vamos modificar a noção de taxa de falhas constante, que
conduz à lei de falhas exponencial. Suponha-se que a taxa de falhas
Z, associada a T, a duração da vida de uma peça, tenha a seguinte
. forma:
Z(t)
( -j~ '
R é dada por R(t) ~
..
..
~
274 I ' PAOBABH.. iDADIE
Camentário: A distribuição exponencial é um caso particular da distribuição
de Weibull, já que obteremos a distribuição _exponenéial se fizermos {1 = 1 na
Eq. (11.4). A Eq. (11.4) afirma a hipótese de que Z(t) ~o é uma constante, mas·
·é proporcional a potências de t. Por exemplo, se {1 · = 2, Z será uma função linear
de t; se {J = 3, Z será uma função quadrática de t etc. Deste modo, Z será uma
função crescente, decrescente ou constante de t, dep_!lpdendo do valor de {3, como
está indicado na Fig. 11.5.
Z(t)
Z(t)
Z(t)
/3>1
il=l
Z é constante
Z é crescente
0</3<1
Z é decrescente
Fig. 11.5
Teorema 11.4. Se a variável aleatória T tiver uma distribuição
de Weibull, com fdp dada pela Eq.(11.5), teremos
E(T)
=
a-l/III' (
++ 1) ,
V(T)=a-2'~~ {r(~ +1)-[r(~
{11.6)
+1)JJ
{11.7)
Demonstração: Veja o Probl. 11.8.
Comentário: A distribuição de Weibull representa um modelo adequado
para uma lei de falhas, sempre que o sistema for composto de vários componentes
e a falha seja essencialmente devida à "mais grave" imperfeição ou irregularidade
dentre um grande número de imperfeições do sistema. Também, empregando
uma distribuição de Weibull, poderemos obter tanto uma taxa de falhas crescente
como uma decrescente, pela simples escolha apropriada do parâmetro {3.
Nós não esgotamos, de maneira alguma, o número de leis de falhas razoáveis.
Não obstante, aquelas que apresentamos são, certamente, extremamente importantes enquanto representem modelos significativos para o estudo das características de falhas de .componentes ou sistemas de componentes.
11.6.
Cónfiabilidade de Sistemas
Agora. que já estudamos algumas distribuições de falhas importantes, nos dedicaremos à segunda questão proposta na Seç. 11.1:
Como poderemos avaliar a confiabilidade de um sistema, se conhecermos a confíabilidade de seus coll1ponentes ?, Isto . poderá. cons-
APLICAÇÕES À T1EOROA DA CONFiABOUIIJADE I 275
;ã.o
.
I
.
na
o.as·
titui.r.-se em um problema muito difícil, e .somente estudaremos allgw:W
casos simples (porém rela.tivamente jimporl!Wte!'J),
. .
el!l
Suponha-se que dois compon~tes esteja.m ·montM.oo em séria:
-
me.
mo
.
i
Isso significa que, a fim de que o sistema funcione, ambos os compC=>
nentes deveroo funcionar. Se, alé~ disso, admitirmos· que os com~
JPonentes funcionem indeperul.en.tem~te, poderemos obter .a oonfi.l!F
lbilidade do sistema, R(t), .em termqs das confiabilidades dos comp0=
· nentes, R1(t) e Rz(O, da seguinte màneira:
R(t)
l.6)
.. 7)
.
I
=
> t) (onde T .é a d~ração até falhar do sistema)
P(T1 > t e T2 > i) (o4de T1 e T 2 são as durações
=
P(T1
=
P(T
até
falhar, dos componentes (Jl e c~,
:re.S'pectivamente)
> t)P(T2 > t)
I
= R1(t)R2(t).
I
Assj.m, achamos que R(t) :::; .min [RM, R2(t)l. Quer dizer, para um
sistema formado de dois compone:h.tes independentes, em série, a
conÍiabilidade do sistema é menor d~ que a confiabilidade de qualquer ·
de . suas partes.
·
1·
A · explicação acima pode ob'iamente ser generalizada para n
componentes, e obteremos o seguiat{e teorema.
compone~tes,
9.do
ttes
9.de
1d0
TeorMna 11.5. Se n
que funcionem independentemente, forem montados em série, ;e ·se o i-ési.ino componente tiver
confiabilidade R;(t), então, a conftabilidade do sistema completo,
R(t), será dada por
.i
R(t)
nte
~is.
or:ís-
=
I
R1(t) · R2(~) ... R,(t).
(11.8)
Em particular, se T1 e T2 tiv~rem leis de falhas e:lg)onenciais
com parâmetros a 1 e a2, a Eq. (11.8)1se torna
. R(t) = e-a~te-a•' ! = e-(a,+a•>'.
.
I
Em conseqüência, a fdp da duração ~té falhar do sistema, digamos T,
será dada por
I
.
•r1:
es-
j(t) = - R'(t)
= (a1 ~ a2)e~(a,+a•) 1:
Desta maneira, estabelecemos o seguinte resultado: ·
.
... .
.
Teorema 11.6. Se doiS
I
:\
compon~n~,
.
.
"'
que funCionem mdepen::dentemente e tenham leis de falhas '{xponenciais com parâmetros a 1
·~ i
~I
I
•
276 I PROBABILIDADE
e a2, ·forem .montados em série, a lei de falhas do sistema resultante
será também exponencial com parâmetro igual a a1 + a2.
(Este teorema pode, evidentemente, ser generalizado para n
componentes em série:)
, Exemplo 11.5. (Extraído de I. Bazovsky, Reliability Theory
and Practice, Prentice-Hall, Inc., Englewood Cliffs, N. J., 1961.)
Considere-se um circuito eletrôrilco constituído de 4 transistores de
silício, 10 díodos de silício,· 20 resistores sintéticos e 10 ·capacitares
cerâmicos, operando em série contínua. Suponha-se que sob certas
condiÇões de trabalho, (isto é, tensão, corrente e temperatura prescritas), cada uma dessas peças tenha a seguinte taxa de falhas constante:
díodos de silício:
0,000 002
transistores de silício:
0,000 01
resistores sintéticos:
0,000 001
capacitares cerâmicos:
0,000 002
Em virtude da taxa de falhas constante admitida, a distribuição exponencial representa a lei de falhas para cada um dos componentes
acima. Devido à conexão em série, a duração até falhar para o circuito completo .será também distribuída exponencialmente com parâmetro (taxa de falhas) igual a
10(0,000 002)
+ 4(0,000 01) + 20(0,000 001 + 10(0,000 002) =
0,000 1.
·'
.
Portanto, a confiabilidade do circuito será dada por R(t) = e- 0•000 11•
Assim, para um período de 10 horas de operação, a probabilidade de
que o circuito não falhe será dada por e-o,oooi(lO) = 0,999. A duração
até falhar esperida do circuito é igual a 1/0,000 1 = 10.000 horas . .
Outro sistema importante é o sistema em paralelo, no qual os
componentes são ligados ·de tal maneira que o sistema deixa de funcionar somente se todos os componentes falharem. Se apenas' dois
componentes estiverem incluídos, o sistema pode ser esquematizado
como está na Fig. 11.6. Novamente, admitindo que os componentes
trabalhem independentemente um do outro, a confiabilidade do sis, tema, R(t); pode ser expressa em termos das confiabilidades çlos
componentes R 1(t) e R2(t), da maneira seguinte:
R(t) = P(T
> t)
= 1 - P(T :::; t)
= 1 - P[T 1 :::; t e T 2 :::; t]
= 1 - P(T 1 :::; t)P(T2 :::; t)
1 - {[1 - P(T1 > t)][l - P(T2
= 1 - [1 - ·R1(t)] [1 - R2(t)]
= R1(t) + R2(t) - R1(t)R2(t).
=
>
.
t)] }
APliCAÇÕES À TEORIA-DACONfiABiUDADE I Z77
A última forma indica que R(t) ;:::: máximo [R 1(t) , R 2 (t)l. Isto é,
um sistema composto de dois componentes em paralelo, que funcionem independentemente, será de· maior confiança que qualquer dos
componentes.
To_das as idéias expostas acima para
dois componentes podem ser generalizadas no seguinte teorema:
Teorema 11.7. Se n componentes,
que funcionem independentemente, estiFig. 11.6
verem operando em paralelo, e se o
i-ésimo componente tiver confiabilidade R1(t), então a confiabilidade
do sistema, R(t), será dada por
R(t) = 1 - [1 - R1(t)][1 - R2(t)l· · · [1 - Rn(t)].
·. (11.9)
Freqüentemente acontece que todos os componentes têm igual
confiabilidade, digamos R;(t) = r(t) para todo i. Neste caso, a
expressão acima ficará
R(t)
=
1 - (1 - r(t)]n.
(11.10)
Vamos considerar, em particular, pois componentes em paralelo,
cada -um com duração até falhar exponencialmente distribuída.
Então,
Portanto, a fdp da duração até_falhar do sistema paralelo, T, será
dada por
Conseqüentemente, T não será exponencialmente distribuída.
valor esperado de T é igual a
O
Enquanto a operação .em sene é, ~reqüeritemente obrigatória (isto
é, alguns componentes devem funcionar_ a fim de que o sistema funQ
cione), empregamos muitas vezes uma operação em paralelÓ de modô
a aumentar a confiabilidade do sistema. O exe~p)
lo seguinte ilustra
_o assunto.
\_
278 I PROBABiLIDADE
Exemplo 11.6. Suponhil.mos quE) três unidades sejam operadas
em paralelo. Admita-se que todas tenham a mesma taxa de falhas
constante a = 0,01. (Isto é, a duração até falhar de cada unidade é
exponencialmente distribufda com parâmetro a = 0,01.) Portanto,
a confiabilidade de cada unidade é R(t) = e- 0 •011, e, por isso, a . confiabilid~de para um periodo de operação de 10 horas é igual a e- 0• 1 =
= 0,905 ou cerca de 90 por cento. Quanto de melhoria poderlamos
obter (em termos de aumento de confiabilidade) pela operação de
três dessas unidades em paralelo ?
A confiabilidade de três unidades operando em paralelo por
10 horas seria
R(lO) = 1 ...., [1 - 0,905)3
=
1 - 0,000 86
,. )
= 0,999 14, ou cêrca de 99,9 por cento.
Na Fig. 11.1 vemos as curvas de confiabilidade para a unidade isolada e, também, para três unidades em paralelo. Para a unidade
isolada, R(t) = e-"1, enquanto para as três unidades em paralelo,
R(t) = 1 -:- (1 - e-" 1) 3, com a = 0,01.
R(t)
0,999
0,9
lO 50
100
200
300
400
Fig. 11.7
Até aqui estudamos apenas as maneiras mais simples de combinar unidades · individuais em um sistema, ·a saber, as operações de
componentes em série e em paralelo. Há várias outras maneiras de
combinar componentes, e apenas arrolaremos algumas delas. (Veja
a Fig. 11.8.) Algumas das questões que surgem em relação a es~as
combinações serão consideradas nos problemas ao fim do capítulo.
(a) Séries em paralelo. (Aqui estudamos grupos paralelos de
componentes, como em um . ci~cuito, por exemp1o, cada grupo· con~
tendo m componentes em série.)
(b) Paralelos em série.
(c) Sistema de reserva. Aqui consideramos dois componentes,
o segundo dos quais fica "de reserva" e funciona se, e somente se, o
APUCAÇÕES À TEO~iA IDA COi\!fHABiUDAIOE I 279
lasa,
primeiro componente falhar. Neste
o segundo oomponenoo
arranca (instantaneamente) e funcionm lno lugar do primeiro oompo'
nente.
(~) Séries em paralelo
(b) Paralelos em série
!Fig. 1U
I
I
io.
Vamos, ~&umidamente, explicar
conceito de jaw ·de seg~
Suponha-se que o esforço S aplicado a uma estrutura seJa
considerado unia variável aleatória (continua). De modo análogo,
a resistência da estrutura, R, pode tilmbém ser . considerada uma
variável aleatória contínua. DefinimoJI o fator de segurança como
.
o quociente de R por S,
1
ra11{a.
I
T =R/S. I
Se R e S forem variáveis aleatóriM iJdependentes, com fdp g e h,
•
.
I
.
respectivamente, então a fdp de T será. \fada por
j(t)
I
- ~- ·1·
-~~~~· .
;'~~
:;§ ~
:.·!: . ~:
.
I
= ("'
g(ts)h(s)s ds.
Jo
1
(Veja o Teor. 6.5.) Ora, a estrutura rufrá se S >R~ isto é, se T < L
Conseqüentemente, a probabilidade de !ruir é Pr = fc/ j(t) dt.
l?robiema~s
I
~ 1.1.
I
•
I
Suponha que T, a duração até fe.IJ:tll.l' de uma peça, seja normalmente
distribuída com E(T) = 90 horas e desvi01-paÍlril.o 5 horas.' Quantas l horas de
'operação deverão ser consideradas, a fim. de sei achar uma confiabilidade de 0,90;
~~~W?
.
I
.··
11.2. Suponha que a duração da ·vida de, um dispositivo eletrônico seja exponencialmente distribuída. Sabe-se que a cot;tfiabilidade desse dispositivo (para
um período de 100 horas de operação) é de 0,90. Quantas horas de operação
<.levem ser levadas em conta para ccin5eguir-sel uma confiabilidade de 0,95?
!'
I
11.3. Suponha que a duração da vida de ium dispositivo renhe. uma taxa de
falhas constante Co para O < t <to e uma diferente taxa de falhas constante C1
para t ~ to. Obtenha a fdp de T, a duração aM falhar, ./esboce seu gráfico.
ôt.·lit:·'.,.'·
~~~·-·.
IÍi;;"
-
-
I
\._) -
. .
.
280' I PROBABIUOADE
~ 1.4.
Suponha que a taxa de falhà.s Z seja dada por
Z(t) =O,
=C,
<A,
O< t
t 2:: A.
(Isto significa q\l(l nenhuma falha ocorre antes que T = A.)
(a) Estabeleça a fdp associada a T, a duração até falhar.
Calcule E(T).
(b>)
11.5. Suponha que..- a lei de falhas de um componente tenha a seguinte fdp:
j(t)
= (r+
l)Ar+1j(A
+ t)<+2,
t
..1
>o.
(a) Para quais valores de A e r, essa expressão é uma fdp?
(b)
(c)
Obtenha a expressão da função de confiabilidade e da função :.O.e riSco.
Verifique que a função de risco é decrescente com _t.
11.6. Suponha que a lei de falhas de um componente seja uma combinn.ç.ã o
linear de k leis de falhas exponenciais. Quer dizer, afdp da duração até falliar é
dada por
k
j(t) =
L
Cj{3;-e-fJjt,
t
>o,
{3j
>o.
i=i
(a) Para quais valores de Cj a expressão acima é uma fdp?
(b) Obtenha .ú.ma expressão para a função de confiabilidade e a função de
risco.
(c) .Obtenha a expressão da duração até falhar esperada. ·
(d)
Responda (b) e (c), quando {3j = {3 para todo j.
11.7• . Cada uma das seis válvulas de um radiorreceptor tem uma duração
de vida (em anos) que pode ser considerada como uma variável aleatória. Suponha que essas válvulas funcionem independentemente uma da outra. Qual será
a probabilidade de que nenhuma válvula tenha de ser substituída, durante os dois
primeiros meses de serviço se:
(a) A fdp da duração até falhar for j(t)
A fdp da duração até falhar for j(t)
(b)
~1.8.
=
50te-25 '', t
= 25te-2 5t,
t
> O?
> O?
Demonstre o Teor. 11.4.
11.9. A duração da vida de um satélite é uma variável aleatória exponencialmente distribuída, com d\rração da vida esperada igual a 1,5 anos. Se trêS desses
~atélites forem lanÇados simultaneamente, qual será a probabilidad~ de que ao
menos dois deles ainda venham a estar em órbita depois de 2 anos ?
!i=ig. 11.9
1i .1 O. Três componentes, que funcionem
independetemente, são ligados em um sistema
único, .como está indicado na Fig. 11.9. Supo-nha que. a coufiabilidade de cada um dos componentes, para um período de operação de t
horas, seja dada por R(t) = e-0,031.
Se T for a duração até falhar do sistema completo (erri horas), qual será a fdp
de T? Qual será a confiabilidade do sistema? . Como ela se compara com e-0,oa1 ?
·!)
AIP'IUICAÇÕIES À 1f'IEOIRDA DA ICOi\lfHAIBHUDADIE I 28~
11 . H. Suponha que n componentes, que funcionem independentemente,
sejam ligados em série. Admita que a duração até falhar, de Cl!.da componente,
s~ja normalmente distribuída, com expectância de 50 horaB e desvío-pa.drão 5 horas.
(a) Se n = 4, qual será. a probabilidade de que o siStema ainda esteja a funo
cionar depois de 52 horaB de operação?
(b) Se n componentes forem instalados em paralelo, qual .deverá ser o
valor de n, para que a probabilidade de falhar durante as primeiras 55 horas seja
aproximadamente igual a 0,01?
i1.1.2. (Extraído de Derman & Klein, Probability and Statistical Injerence,
Oxrord University Press, New York, 1959.) A duração da vida (L), em meses,
de uma dada válvula eletrônica empregada em aparelhos de radar, foi verificada
ser exponencialmente distribuída com parâmetro f3 = · 2; Ao executar seu programá de manutenção preventiva, ·uma: companhia quer decidir qua.ntos meses (m)
depois de sua instalação, cada válvula deverá ser substituída., para tornar mínimo
o custo ·esperado por válvula. O custo por válvula "(em dólares) Eerá denotado
por C. O m!J,is curto período utilizável de tempo de.corrido entre a instalação e a
.substituição é 0,01 do mês. Sujeito a essa restrição, qua.l o valor de -m que torna
mínimo E(C), o custo esperado, em ca.da uma das seguintes .situações, onde o custo
C é a men()ionada função de L e. m?
(a) C(L, m)
(c)
=
3 JL- mJ.
(b)
C(L, m) = 2 se L < m,
= 5(L - m) se L 2:: m.
C(L, m) = 3 se L
= 5(L - m)
< m,
se L 2:: m.
{Em cada c!i.so, ·esboce o gráíico de E(C), como função de m.]
Comentário: Evidentemente, C é uma variável aleatória, porque é uma função de L, a qual é uma variável aleatória. E( C) .é 1.llna funçao de m, e o problema
apenas pede para determinar aquele valor de m que torne mínilllo o valor esperado
2:: 0,01.
.
E(C), sujeito à restrição de que m
11.13. Suponha que a taxa de falhas, associada com a duração da vida T
de uma peça, seja. dada pela seguinte função
Z(t)
= Co,
=
Co
O_:::; t < to,
to), t 2:: 4J.
+ C1(t -
COmentário: Isto representa outra generalização da distribuição e~ponehcial.
A .expressão acima se reduz à taxa de falhas constante (e, por isso, à distribuição
o.
exponencial) se cl
=
(a) Estabeleça a fdp de T, a. duração até falhar.
(b) Estabeleça a expressão da eonfiabilidade R(t) e esboce seu gráíi~o.
11.14. Suponha que cada um de três dispositivos eletrônicos tenha uma
lei de falhas dada por urna distribuição expmi.encial, com parâmetros f111 /32, fJ 1,
respectivamente. Suponhu, que esses três dispositivos funciopem independentemente e estejam ligados em paralelo· par!)- formarem um único sistema.
(a) Estabeleça a expressão de R(t), a confiabilide,de do sistema.
(b) Estabeleça a expressão da fdp de T, a duração até falhar !lo sistema. ·
Esboce o gráíico da fdp.
(c) Calcule a duração até falhar esperada do sistema.
o
282
l PROBABI"LIDADE .
11.15. (a) Suponha que n componentes sejam ligados em série. A
seguir, k . dessas conexões em série
são ligadas em paralelo para formar
um sistema. completo. (Veja a Fig.
11.10.) Se todoo os componentes
tiverem a mesma confiabilidade,
!Fig. 11.10
R, para um dado período de operação, determine a exp~ da confiabilidade do sistema cqmpleto (para o mesmo período de operação).
(b) Suponha que cada um dos componentes· acima obedeça a uma lei de
falhas exponencial, com taxa de falhas 0,05. Suponha, também, que o tempo
de operação seja 10 horas e que h = 5. Determine o valor de k, de maneira que
a cmifiabilidade do sistema completo seja ígual a 0,99.
11.16. Suponha que k componentes sejam ligados em paralelo. Em seguida, n dessas conexões em paralelo são ligadas em série, formando um único
sistema. (Veja a Fig. 11.11.) Responda a (a) e (b) do Probl. 11.15, para esta
· situação.
!Fig. 11.11
11.17.. Suponha que n componentes, todos com a mesma taxa de falhas
oon8tante 'À, sejam ligados em paralelo. Estabeleça a expressão da duração até
falhar esperada, do sistema resultante.
11.18. (a) 9 sistema de propulsão de uma aeronave é constituída de três
motores. Supo;ma que a taxa de falhas constante de cada motor seja À = 0,000 5
e que cada motor falhe independentemente dos demais. Os motores são montados em paralelo. Qual será a cqnfiabilidade deste sistema de propulsão, para
uma missão que exija 10 horas, quando ao menos dois motores devam sobreviver?
(b) Responda à questão acima, para uma missão que exija 100 horas; i.ooo
horas. (Este ·problema está sugerido por uma explanação incluída em I. Bazovsky,
Reliabilily Tlieory and Pradice, Preritice-Hall, Inc., EnglE:ow~ Cliffs, N. J., 1961.}
p.19. Considere os componentes A, A', B, B' e C ligados da maneira indicada nas Figs. 11.12 (a) e (b). (0 componente C pode ser considerado como uma
"defesa", quando ambos A e B deixarem de funcionar.) Representando '!!: confiabilidadés dos componentes isoladamente porRA, RA'• RB, RB' e Rc (e admitindo
que os componentes funcionem independentemente um do outro), obtenha a expressio da confiabilidade do sistema completo, em cada uma dessas situações.
.
i
.
APLICAÇOES A TÇORIA DA CONIFIABI LI O ADE I 283
I
i
I
[Sugestao: No segundo caso, Fig. 11.12(p), empregue relações de probabilidade
condicion&da.)
I
I
Fig. 11;.12
11.20. Admitindo que todos os componentes incluídos no Probl. 11.19 tenham a mesma taxa de falhas constante. À, estabeleÇa a expressão da .confiabilidade R(t) do sistema apresentado na Fig. 11.12(b). Determine, também, a
duração até falhar média, desse sistema.
· 11.21. O componente A tem .confiabilidade 0,9, quando utilizado para dada
finalidade. O componente B, que pode
utilizado em lugar do componente A,
tem confiabilidade de somente 0,75 . . Qual kerá o número mínimo de componentes
do tipo B, que se terá ·de ligar e~ 'paralelo, Ide maneira a atingir a mesma confiabi. !idade que tem o co~ponente A sozinho? I
'
set
I
.
.
11.22. Suponha que dois componen$; que funcionem isoladamente, cada
um deles com a mesma taxa de falhas consta!nte, sejam ligtj.do5 em paralelo. Sendo
T a duração até falhar do sistema resultant~, estabeleça a fgm de T. Determine,
.
I
também, E(T) e V(T), empregando a fgm.i ·
. .
11.23. Toda vez que consideramos
sistema composto por vários componentes, admiÚmos sempre que os com~onentes funcionassem independentemente ·Um do outro. Essa sup,osição simPlificou consideravelmente nossos cálculos. N.o entanto, ela poderá não ser sempre uma hipótese realista. Em muitas
situações,v sabe-se que o desempenho de um !componente pode iniluenciar o desempenho de outros. · Este é, em geral, um p~. oblema muito. difícil de se abordar, e
examinaremos aqui, apenas um caso ·p~rticular. Suponha-se, .esPecificamente,
que dois componentes C 1 e C2 sempre falhefn. juntos. Quer dizer, Ci falhará se, e
somente se, c2 falhar. V;;rrifique que, neste caso, P(Cl falha e c2 falha) = P(Cl
falha) = P(C2 falha).
um
I
1
~cc
3
• •
· ·Cc·.- ·.
.·.:.. .
11.24. Considere quatro componentes l cb ·
Çz, Ci e c. Ligados da maneira indicada ! na
. ~
Fig. 11.13. Suponha q1.1e os componentes !UU:cionem independentemente um do outro, f'm
Fig. 11.13
éxceção de . C1 e C2, qmi falham juntamente;
como foi explicado no Probl. 11.23. Se T;, ia dmação até falhar do componente
C;, for exponencialmente distribuída com pa_râmetro /3;, obtenha a confiabilidade
R(t) do sistema completo. Obtenha tamb~~ a fdp de T, a. .duração até falhar do
sistema.
·I
11.25. Considere. o mesmo sistema. a.ptesentado nó Probl. ll.Ú, exceto q~e
agora os componentes C1 e C3 falham conjuntamente. Responda· às perguntas
do Probl. 11.24.
.. '
~
o
!
- - -- - -- - - - - - - - - -
Somas . de Variáveis Aleatórias
Capítulo 12
12:1.
Introdução
Neste capítulo desejamos tornar mais precisas algumas idéias·
a que apenas fizemos referência por todo o texto. A saber., à medida
que o número de . repetições de um experimento cresce, a freqüêncil1
relativa }A de algum evento A converge (em um sentido probabilístico a ser explicado) para a probabilidade teórica P(A) . É este fato
que nos permite · "identificar" a freqüêncià relativa de um evento,
baseada em um grande número de repetições, com a probabilidade
· do evento.
Por exemplo, se uma nova peça for produzida e não tivermos
conhecimento anterior sobi·e quão provável será que a peça seja defeituosa, poderemos proceder à inspeção de uin grande número dessas
peças, digamos N, contarmos o número de peças defeituosas dentre
elas, por exemplo n, e depois empregarmos nfN como uma aproximação da probabilidade de que uma peça seja defeituosa. O número
n/N é uma variável aleatória, e seu valor depende essencialmente
de duas coisas. · Primeira, o valor de n/N depende da probabilidade
básica (mas presumivelmente desconhecida) p de que uma peça seja
defeituosa. Segunda, 'rL/N depende · daquelas N peças · que tenham
sido inspecionadas. O que· iremos mostrar é que se a técnica de
selecionar as N peças f?r "aleatória", então o quociente n/N será
próXimo de p (em sentido a ser explicado). (Evidentemente, a seleção aleatória das N peças é importante. Se fôssemos escolher
somente aquelas peças que exibissem algum defeito fisico exte~o, por
~xemplo, poderíamos prejudicar seriamente nos~os cálculos.)
·12.2. A Lei dos Grancles Números
Com o auxílio da desigualdade de Tchebycheff, Eq. (7.20), esta- ·
remos aptos a deduzir o resultado menCionado acima. Agora, vamos
SOMAS IDJIE VARDÃVIEOS AliEATÓIF!DA.S I 285
apreciar um exemplo. Suponha-se que um mfssil guiado tenha a
probabilidade 0,95 de func'ionar adequadamente durant0 um certo
período de operação. Conseqüentemente, se ·soltarmos N infsseis
que tenham a confiabilidade mencionada, e se X for o número de
mísseis que não fU.ncionem adequadamente, teremos E(X) = 0,05N,
porque poderemos admitir que X seja binomialmente distribuída.
Isto é, esperaríamos que cerca de 1 nússil em cada 20 viesse a falhar.
À medida que N, o número de nússeis lançados, crescer, X, o número total de misseis falhados dividido por N, deve convergir, de
algum modo, para o número. 0,05. Este importante resultado pode
ser enunciado de ni:odo mais rigoroso como a Lei dos Grandes Números.
A Lei dos Grandes Números (Formulação de Bemouilli). Seja 8,
um experimento e seja A um evento associado a 8. Considerem-se n
repetições independentes de 8, seja nA o número de vezes em que A
ocorra nas n repetições, e façamos iA = nA/n. Seja P(A) = p (a
qual se admite seja a mesma para todas as repetições).
Então, para todo número positivo e, teremos
Prob [iJA-
Pi ~e)~
p(l- p)
ne 2
ou, equivalentemente,
Prob
liJA-Pi <d~l-
p(l -p)
n<Ez
(12.1)
Demonstração: Seja nA o número de vezes que o evento A ocorra.
Esta é uma variável aleatória binomialmente distribuída. Então,
E(nA) = np e V(nA) = np (1 - p). Mas iA = nA/n e, por isso,
E(JA) = p e V(JA) = p(l - p)fn.
Aplicando a desigualdade de Tchebycheff à variável aleatória f A,
obteremos
.
p[
Seja e = k
V
IJA - pI <
p) ]
1
k~
'·. p(l~ 1- n
Jc2.
p(l - p )jn. Logo, k 2 = (ne 2)/[p(l - p)l, e por isso
P[UA - p l <e);:::l -
p(l - p) .
ne 2
Comentários: (a) O resultado acimA pode ser enunciado de muitas maneira.-;
:1!: evidente que isto acarreta imediatamente que
'
equivalentes.
lim P[JfA - pi < ~ 1 =
.........
1 para todo
<!
> O.
11: nesse sentido que dizemos que a freqüêncie.- r-elativa iA "converge" para P(A).
u .
286 I PROBABiUDADIE
(b) 1l: importante salientar a diÚrença entre a convergência referida acima
(denominada ronvergência ~ probabilidade). e o tipo de convergência freqüentemente mencionada em Cálculo Infinitesimal. Quando dizemos que 2-n converge
para zero quando n --> co, queremos dizer que pa:ra n suficientemente. grande;
se torna e permanece arbitrariamente próximo de zero. Quando dizemos que
!A. =· nAfn converge para P(A), queremos dizer que a probabilidade do evento
z--n
{ inAfn- P(A) I
< el
pode se tornar arbitrariamente próxima da unidade, ao se tomar n suficientemente
grande.
(c) Ainda uma outra forma da Lei dos Grandes Números é obtida quando
nos fazemos a seguinte pergunta: Quantas repetições de & deveremos realizar,
a fim de termos uma probabilidade de ao menos 0,95, para que a frequência re~
lativa difira de p = P(A) por menos do que, digamos, 0,01? Isto é, para E = 0,01
desejamos escolher n, de n;;_odo que 1 - p(1 - p)/[n (0,01)2] = 0,95. Resolvendo
em relação a n, obteremos n = p(1 - p)/(0,01)2 ((),05). Substituindo os valores
específicos de 0,05 e 0,01 por 8 e E, respectivamente, teremos
P[IJA- Pi
·
<d~
1- ô sempre que n
.
2': P(1 ; p) .
eô
Também se deve salientar que ao tomar-se n ~ p(1 - p)fe2 ô nada se garante quanto
a liA- Pi· Apenas se torna prová~el que itA·-' Pi venha asermuitopequeno.
Exemplo 12.1. Quantas vezes deveremos jogar um dado equilibrado, de maneira a ficarmos ao menos 95 por cento certos de que a
freqüência relativa de tirarmos ·um seis, fique a menos de ·!0,01 da
probabilidade teórica 1/6 ?
Aqui, p = 1/6, 1 - p = 5/6, E = "0,01 e o = 0,05. Portanto,
da relação acima, encontramos que n ~ (1/6)(5/6)/(0,01) 2 (0,05) =
= 27.778.
Comentários: (a) Recordemo-nos de que f A é uma variável aleatória e não
apenas um valor observado .. Se realmente jogarmos .fun dado 27.778 vezes, e
· depois calcularmos a freqüência relativa de tirarmos um seis, este número estará
ou não a menos de 0,01 de 1/6. ' O essencial do exemplo acima é que, se fôssemos
jogar um dado 27.778 vezes em cada uma de 100 ocasiões, em cerca de 95 dessas
ocasiões, a freqüência relativa observada estaria a menos de 0,01 de 1/6.
(b) Em muj.tos problemas, não conhecemos o valor de p = P(A) e, por isso,
não poderemos empregar o limite de n acima. Nesse caso, poderemos empregar
o fato de que p(1 - p) toma seu valoi: máximo quando p = 1/2, e esse valor
máximo é igual a· 1/4. Conseqüentemente, estaremos é'ertamente do lado seguro
se afirmarmos que para n ~ 1/4e2 ô teremos
P[IJA -
pI < el ;:::: 1 - 8.
Exemplo 12.2. Peças são produzidas de tal maneira que a probabilidade de uma peça ser defeituo'sa é p (admitida desconhecida).
Um grande número de peças, digamos n, são classificadas como de-
SOMAS
9E VARIÁVEIS ALEATÓRIAS
I 287
I
i
{eituosas ou perfeitas. Que valor ddverá
ter n de maneira que pos1 •
.
samos estar 99 por cento certos de que a freqüência relativa de defeituosas difere de p por menos de o,p5?
I
Porque não conhecemos o valor de p, deveremos aplicar a última
forma enunciada da Lei dos Grandes Números.
Assim, com e= 0,05,
I
2
ô = 0,01, encontraremos
que
se
n;
2:::
1/4(0,05)
(0,01) = 10.000, a
.
I.
condição exigida estará satisfeita.
'
I
Como em nosso exemplo para à desigualdade de Tchebycheff,
deveremos concluir que conhecimento adicional sobre a distribuição
de probabilidade nos dará uma f0rmulação ~ 'melhorada". (Po~:_
exemplo, poderemos lançar mão de um número menor de repetições
e ainda formular a mesma proposição referente à proximidade de
}A par p.) . . .
.
\
Comentário: Outra formulação da Lei d~s Grandes Números pode ser obtida
da seguinte maneira. Suponha~e que Xb .. Xn sejam variáveis aleatórias independentes, identicamente distribuídas, corlt média e variância finitas. Sejam
E(X;) = p. e V(X;) = u2 • Defina~e X= ,(1/n) (X1 + ... +X~). Ora, X é
wna .função de X 1, ••. , Xn, a saber,_sua médfa aritmética, e, por isso, é também
uma variável aleatória. (Nós estudaremos esta variável aleatória com mais detalhe no Cap. 13. Por ora, diremos apenas 'que podemos pensar em X 11 .• . , Xn
_ com mensurações independentes de uma ca~acterística numérica X, fornecendo
a média aritmética X.) Das propriedades dai expectância e variância, l temos ime• I
diatamente, E(X) = p. e V(X) = u2fn. Apli9-uemos a des~gualdade de Tchebycheff à variável aleatória X:
!.,
I
_
ku ]
1
P.[ IX-p.J
< Vn :2: 1-k2·
Façamos ku/Vn = ~. Então, k
-
= vn E/O"
P[\Xp.\
< el:2:
i
.
ei podemos escrever
' u2
1-; -2
i En
•
(12.2)
I
À medida que n -> CXI, o segundo membro da desigualdade acima tende para
a unidade. 11: neste sentido que a média aritrltética. "converge" para E(X) .
l
Exemplo 12.3. Um grande núm~ro de válvulas eletrônicas é
teStado .. Seja T; a duração, .até falha~,
da i-:ési~a válvula... SupoI
nha-se, também, que todas as válvulas provenham da mesma reserva
e também admitamos que todas sej~m exponencialmente distribuídas com o mesmo parâmetro pt.
i
Conseqüentemente, E(T;) = a- 1• \Seja T = (T 1·+ .. ~ +Tn)/n.
A forma enunciada acima da Lei dos Grandes Números diz que se n
for grande, será "muito provável" que jo valor obtido para a média ·
aritmética de um grande número de doaiões até falhar seja próximo
~a~.
r
288 I PROBABiliDADE
A Lei dos Grandes Números, como foi enunciada acima, relaciona-se essencialmente com a variável aleatória X binomialmente dl~­
tribuída, porque X foi definida como o número de sucessos em n repetições independentes de um experimento, e precisamos apenas
associar "sucesso" com a ocorrência do evento A, a fim de reconhecermos essa relação. Assim, o resultado acima pode ser enunciado,
não rigorosamente, dizendo-se que à medida que o número de repetições de um experimento crescer, a freqüência relativa de sucesso,
X/n, convergirá para a probabilidade de sucesso p, no sentido indicado anteriormente.
Contudo, saber-se que Xfn será "próximo" de p, para n grande,
não nos diz como essa "proximidade" é alcançada. Com o objetivo
de investigar este assunto, deveremos estudar a distribuição de
probabilidade de X, quando n for grande.
Por exemplo, suponha-se que um processo de fabricação produza
arruelas, cerca de 5 por cento das quais são defeituosas (por exemplo,
muito grandes). Se 100 arruelas forem inspecionadas, qual será a
probabilidade de que menos de 4 arruelas sejam defeituosas?
Fazendo-se igual a X o número de arruelas defeituosas ~ncon­
tradas, a Lei dos Grandes Números apenas nos diz que X/100 será
"próximo" de 0,05; contudo, não nos diz como calcular ,a probabilidade desejada. O valor exato dessa probabilidade é dado por
P(X< 4)
=~
e~o) (0,05)k (0,95)
10
(}-k.
Esta probabilidade seria bastante difícil de calcular diretamente.
Já estudamos um método de aproximação das probabilidades binomiais; a saber, a aproximação de Poisson. Examinaremos ; agora ·
outra importante aproximação dessas probabilidades, · a qual será
aplicável sempre que n for suficientemente grande.
Considere-se, a seguir, P(X = k) = G)pk(l - p)n-Tc. Esta
probabilidade depende de n, de uma maneira bastante complicada,. e
não fica evidente o que acontece à expressão acima se n for grande.
Para estudarmos essa probabilidade, precisamos empregar a Fórmula
., de Stirlt'ng, uma aproximação bem conhecida de n! Esta fórmula diz
que, para n grande,
n! ~ V27r
e-nnn+l/ 2,
no sentido de que limn-.~ (n!)/(V27r
e-nnn+J/ 2)
(12.3)
=
1.
(Demonstração
SOMAS DE VAII'UÁVIE9S ALEATÓRIAS
,_
LS
I 28S
desta aproximação pode ser encontrada na maioria dos manuais de
Cálculo avançado.) A Tab. 12.1 pode dar .ao leitor uma idéia da
precisão desta aproximação. Esta tabela foi extraída de W. Feller,
Probability Theory and Its Applications, John Wiley and Sons, Xnc.,
1st. Edition, New York, 1950.
~-
o,
iab. 12.1
e-
o,
li-
le,
>'0
de
Diferença
V27r énn,n+(lf2Í
n!
Diferença
nl
1
2
5
10
1
2
120
(3,628 8)10 6
(9,332 6)10 157
100
0,922
1,919
118,019
(3,598 6)10 6
(9,324 9)10 157
0,078
0,081
1,981
(0,030 2)10 6
(0,007 7)10 157
0,08
0,04
. 0,02
·o,oo8
0,000 8
za.
lo,
a
m-
C&mentário: Muito embora a diferença entre nl e sua aproximação cresça
quando n ~ "'• o ·que é importante observar na Tab. 12.1 é que o erro relativo
(última coluill!.) se torna cada vez menor.
~rá
iii-
te.
10-
)ra ·
~rá
Empregando a Fórmula de Stirling aos vários fatoriais que aparecem na expressão de P(X = k), pode-se mostrar (depois de numerosas transformações), que para n grande,
P(X
= k) '=
~
(~) p"(l -
Pl-1'
1
k - np
]
exp (· - -1 [
v'21rnp(l- p)
·
2
vnp(l - p)
2
)
. (12.4)
Finalmente, pode-se mostrar que para n grande,
sta '
,,. e
P(X :s:; k) = P [
X - np
. Vnp(l - p)
'"'-'
_·_1_
__ -
v 127r,
<
-
k - np . ]
Vnp(l- p)
f_(k -np)fVnp(l-p )
_.,
e -1'/z dt.
(12.5)
Desta maneira, encontramos o seguinte resultado importante
(conhecido como a aproximação de DeMoivre-Laplace, para a distribui_ção binomial):
·
o
290 I PROBABIUIJADE
Aproximação normal_ da distribuição binomial. Se X tiver uma
distribuição binomial com parâmetros n e p, e se
y
X-np
[np(I-p)]l/2 '
então, para n grande, Y terá uma distribuição aproximadamenteN(O, 1),
no sentido de que
Esta aproximação será válida para valores de n > 10, desde que p
seja próximo de 1/2. Se p for próximo de Oou 1, n deverá ser um tanto
maior, para garantir uma boa aproximação.
Comentários: (a) Este resultado não é apenas de notável interesse teórico,
mas também de grande importância prática. Significa que poderemos empregar
a distribuição normal tabulada extensivamente para avaliar probabilidades que
surjam da distribuição binomial.
(b) NaTab. 12.2, a precisão da aproximação da fórmula (12.4) é,,apresentada para diversos valores de n, k e p.
'
Tab.12.2
n = S,.P = 0,2
k
o
1
2
3
4
5
6
7
8
9
10
11
n=S,p=0,5
n=25,p=0,2
Aproximação
Exata
Aproximação
Exata
Aproximação
Exata
0,130
0,306
0,331
0,164
0,037
0,004
0,168
0,336
0,294
0,147
0,046
0,009
0,001
0,005
0,030
0,104
0,220
0,282
0,220
0,104
0,030
0,005
0,004
0,031
0,109
0,219
0,273,.
0,219
0,109
0,004
0,024
0,071
0,136
0,187
0,196.
0,163
0,111
0,062,
O+
O+
O+
O+
O+
O+
0,009
0,027
0,065
0,121
0,176
0,199
0,176
0,121
0,065
0,027
0,009
0,002
O+
O+
O+
O+
O+
O+
O+
O+
O+
O+
O+
O,OJÍ
0,004
o,ozi
0,012
0,004;
..
j
SOMAS DIE \VARBÁVEBS AlEATÓRiAS I 291
I
Voltando ao exemplo acima, obser~amos que
E(X)
= np =
100(0,05)
= 5,
= npq
V(X';
- p)
= 4,75.
Dal podermos escrever
.= (0-5
X-5
3-5)
V4,75 _:: ; V4,7s
_:: ; -v4,7s
P(X _:::; 3)
P
= c:I>(-0,92)-
c:I>(J 2,3)
= 0,168,
das tábuas du distribuição normal.
I
Comentário: Ao empregar da aproximação normal à distribuição binomial,
estaremos aproximando a distribuição de uma \variável aleatória discreta com a
distribuição de uma variável aleatória contínu~. Por isso, algum cuidado deve
ser tomado com os pontos extremos dos intervalos considerados. Por . exemplo,
pam uma variável aleatória contínua, P(X = .3)\ = Q, enquanto para uma variável
I
'
aleatória discreta esta probabilidade pode ser n+o nula.
As seguintes correçiles de continuidade melhbram a aproximação acima:
.
(a)
.
I
1
1')
P(X = k) ::::: P (k - 2.:S X .:S k + 2\ ,
P(a .:S X .:S w::~ P (a- -4- .:S X .:Si t b) .
.
I
(h)
Empregando esta última correção para a avaliaÇão de P(X ~ 3), teremos
P(X
.:S 3)
= P(O
.:S X .:S 3)
= P
(1- +.:S X .:S 3 +)
: : : <t>c- o,69) - <I><- z,53)
= o,z39.
I
Exemplo 12.4. Suponha-se que um j sistema seja formado por
100 componentes, cada um dos ·quais tenha confiabilidade igual a
0,95. (Isto é, a probabilidade de que o \ componente funcione adeq)ladamente durante um período especif~cado é igual a 0,95.) Se
esses componentes funcionarem independentemente um do outro, e
se o sistema completo funcionar adequa~amente quando ao menos
80 componentes funcionarem, qual será a! confiabilidade do sistema?
Fazendo o número de componentes jque funcionem igual a X,
deveremos calcular
I
P(80 _:::; X .:::; 100).
e
I :,:,' 1
~ J'
111
I
292 I f'flOBABIL!IJADE
Temos E(X) = 100(0,95) = 95; V(X) = 100(0,95) (0,05)
empregando a cQrreção de continuidadé, obteremos
P(80 :::; X :::; 100)
C!:!
P(79,5 :::; X :::; 100,5)
=P (
C!:!
= 4,75. Daí,
79,5 -- 95
.
2,18
<1>(2,52) -
< _X_-_95_
2,18
:::; 100,5 - 95 )
-
.:JI(- 7,1)
2,18
= o, 994.
12.4. O Teorema do limite Central
A aproximação · acima constitui apenas um caso particular de
·um resultado geral. Para compreendermos isso, vamos recordar que
a variável aleatória X binomialmente distribuída, pode ser :representada como a soma das seguintes variáveis aleatórias independentes:
X;
= 1 se ocorrer sucesso na i-ésima repetição;
O se não ocorrer sucesso na
i-é~ima
repetição.
·Portanto, X= X 1 + X 2 + ... + Xn. (Veja o Ex . . 7.14.) Para està
variável aleatória, já mostramos que E(X) = np, V(X) = np(l- p)
e, além disso, que para n grande, (X- np)/Vnp(1-p) tem a distri:..
buição apro~imada N(O, 1).
Se uma variável
al~atória
X puder ser representada pela soma
de quaisquer n varidveis aleatórias independentes (que satisfaçam a
determinadas condições que valem na maioria: das aplicações), então
esta soma, para n suficientemente grande, terá distribuição aproximadamente normal. Este notável resultado é conhecido como o
Teorema do Limite Central. Um dos enunciados desse teorema pode .
ser apresentado da seguinte maneira:
Teorema do Limite Central. Seja X 1 , X2, ... , Xn, . . . uma
seqüência de variáveis aleatórias independentes, com E(X;) = J.l; e
V(X;) = cr; 2, i= 1, 2, . . . Façamos X= X 1 + X 2 + ... + Xn . .
Então, sob determinadas condições gerais (que não enunciaremos
aqui),
L7=IJ.li
~ L,;=I cr;2
X-
tem aproximadamente a distribuição N(O, 1). Isto é, se Gn for a fd
da variável aleatória Zn, teremos que Iimn__,., Gn(z) = <l>(z).
SOMAS DE VARRÃVIEDS AlEATÓROAS I 293
Comenió.rioo:
(a) Este teorema constitui uma evidente generalização da apro-
ximação de DeM:oiVTe-Laplace, porque as variáveis aleatórias independentes Xi,
que tomam somente os valores 1 e O, foràm substituídas por. variáveis aleatórias
que possuam qualquer espécie de distribuição (desde que tenham expectância
finita e variância finita). O fato de que as variáveis Xi possam ter (essencialmente)
qualquer espécie de distribuição, e também que a soma X= X 1 + ... +Xn possa
ser aproximada por uma variável aleatória normalmente distribuída, constitui arazão fundamental da importância da distribuição normal na teoria da probabilidade. Conclui-se que, em muitos problemas, a. variável aleatória em estudo poderá ser representada pela soma de n variáveis aleatórias independentes e, conseqüentemente, sua distribuição poderá ser aproximada pela distribuição normal.
Por exemplo, o consumo de eletricidade em uma cidade, em uma época qualquer, é a soma das procuras de um grande número de consumidores individuais.
A quantidade de água em um reservatório pode ser pensada .como o resultado
da soma de um grande número de contribuições individuais. .E o erro de mensuração em um experimento físico é composto de muitos erros pequelios, não observ&veis, oo quais podem ser admitidos como aditivos. O bombardeamento moleet~lar, que uma partícula suspensa em um líquido está sofrendo, acarreta seu des]ocamento em uma direção aleatória e com magnitude aleatória, e sua posição
(depois de um período de tempo especificado) pode ser considerada como a soma
de deslocamentos separados.
(b) As condições gerais, mencionadas no enunciado do Teorema do Limite
Central acima, podem ser resumidas da. seguinte maneira: Cada parcela na soma
contribui com um valor sem importância para. a variação da soma, e é muito improvável que qualquer parcela isolada dê uma contribuição muito grande para
a soma. (Os erros de mensuração parecem ter essa característica. O erro final
que eometemos pode ser representado como a soma de muitas contribuições pequeDJ!S, nenhuma das quais influi muito no erro total.)
(c) Nós já estabelecemos (Teor. 10.5) que a soma de um número finito
qualquer de variáveis aleatórias independentes normalmente distribuídas ·é também nonnalmente distribuída. O Teorema do Limite Central afirma que as
parcelas não necessitam ser normalmente distribuídas, para que a soma seja aproximad.e. por uma distribuição normal.
(d) Nós não poderemos demonstrar o teorema acima, sem ultrapassarmos
o nfvel pretendido de apresentação. No entanto, há um caso particulár, importante, deste teorema, que enunciaremos e para o qual poderemos dar, ao menos,
uma indicação da demonstração.
Teorema 12.1. Sejam X1,., ., Xn, n vanaveis aleatórias independentes, todas com a mesma distribuição. Sejam J1. ~ E(X;) e
a- 2 = V(X;) a expectância e a variância comuns.
Façamos
= :E:=I X;.
Então, E(S) = nJJ. e V{S) = nu 2, e teremos, para n
grande, que T,. = (S- nJJ.)/Vn ~ te;á aproximadamente a ·distribuição N(O, 1), no sentido de que lim,._,, P(T,.::::;; t) = «fl(t).
S
Demonstração (esboço): (O leitor faria bem de recordar os conceitos fundamentais da fgm apresentados no Cap. 10.) Seja M a fgm
294 I PROBABILIDADE
(comum) das X;. Já que as X; são independentes, Ms, a igm de S,
será dada por Ms(t) = [.lll(t)]n, e como Tn é uma funçãolinear de S,
a fgm de Tn será. dada por (empregando-se o Teor. 10.2)
MTn(t) =
e-<Vn~A/00>1 [ M( V~IY )T·
Portanto,
-v;_:;;
ln MT,,(t) =
}lo
t + n ln M (
V:1T )-
(Observemos, neste ponto, que a idéia da demonstração consiste
em investigar MTn(t), para valores grandes de n.)
Vamos desenvolver M(t) em série de Maclaurin:
M(t) = 1
+ M'(O)t + M"~O)t2 + R,
onde R é o resto da série.
= Jl.2 + u2, obteremos
M(t)
Recordando que M'(O) = Jl. e M"(O) =
= 1 + p.t +
(p.2
+ u2)t2
+ R.
2
ConSeqüentemente, .·
ln MT (t). =-
"'
.y:;; p.t
u.
p.t
+ n ln [ 1 + .y;;
u +
(p.2
+ u2)t2
2nu 2
+R ] ·
Agora empregaremos o desenvolvimento de l\1aclaurin para ln (1 + x}:
ln (1
+ x) = x -
x2
2
-
xl
+ -3 + ···
>
(Este desenvolvimento será válido para
x=
Jl.l
-I
v nu
+
(p.2
Ix I < 1.
+ u2)f2
2
nu 2
Em nosso caso
+R;
e para n suficientemente grande, o valor absoluto desta expressão
ser& menor do que a unidade.) Assim, obteremos
ln MT,(t) = -
V:;;,Jl.
+ n [( v_ if!_
+ (p.2 + o- 2 ~
+R)G"
.n u
2nu
2
.
Jl.f + (JI.2+ .u2) --+R
.t2
)2 +
--21 ( --vnu
2nG"
2
]
....
SOMAS 9E VARIÁVEIS ALEATÓRIAS I 295
I
Já que estamos apenas esboça~do os passos principais da demonstração, sem darmos todos os !detalhes, vamos omitir algumas
I
transformações algébricas e somente dizer aquilo que estamos fazendo. Nós desejamos estudar a e~ressão acima [ln MTn(t)] quando
n - t oo. Qualquer termo que ten?-a uma potência positiva de n
no denominador (tal como n- 112, jpor exemplo) tenderá para zero
quando n - t co • Também se pode mostrar que todos os termos
que incluam R tenderão para zero, qbando n - t oo D;epois de transforma~ões algébricas imediatas, po~ém tediosas, enco~traremos que
lim lnMT,.(t) = t2/2.
Conseqüentemente, tere:::
I
i
lim MTn(t) 'l = e ' 12 •
1
n-->~
Esta é a fgm de uma variável aleatória com distribuição N(O, I).
Em virtude da propriedade da unicidade da fgni (veja ~ 'Teor.
10.3),
I
poderemos concluir que a variável aleatória Tn converge em distribuição (quando n - t oo) para. a distiibuição N(O, 1).
I
I
I
Comentários: (a) Muito embora o qu~ apresentamos acima não constitua
uma demonstração rigorosa, ela dá ao leito~ alguma noção da dedução deste importante' te~r.ema. A forma mais geral dÓ Teorema do Limite Central (como
·originalmente enunciado) pode ser demons~rada empregando um caminho semelhante àquele empregado aqui.
:
. (b) A forma particular do Teorema - ~do Limite Central, como enunciada
acima, diz que a média aritmética (1/n) L~~ 1 X; de n observações ~a mesma variável aleatória tem, para n . grande, aproxhnadamente uma distribl!ição normal.
(c) Muito embora a demonstração mdtemá.tica deva estabelecer ·a validade
de um teorema, pode não contribuir muito p~ra a percepçã.p intuitiva do resultado.
Por isso, apresentaremos o exemplo ·seguinte) para aqueJes ique se oritlntam . melhor
numtJricrunente.
I
P(/11 =m)
P(X=x}
___...
"----::'-:---
0,1
-;:'-;::--<>)1
0,2
I ,/
IL--,/-~'1.--+-~-mi
I
2
FiiiJ. 12;2
Fig. 12.1
i
.
Considere-se UIDB. urna qu~ oontenha três ea;.
de objetos, identüicados como O, 1 e 2. Suponha-se que i~;
Eump'j(} 12.5.
péci~
j
1
296 I PROBABILIDADE
existam 20 zeros, 30 uns e 50 dois. Uni objeto é extraído aleatoriamente e seu valor,· digamos X,. é registrado. Suponha-se que X
tenha a seguinte distribuição (veja a Fig. 1~.1):
X
1-0__1 __2_
P(X = x)
0,2 0,3 0,5
Suponha que o objeto extraido em primeiro lugar seja reposto na
urna e, a seguir, um segundo objeto seja extraído e seu valor, digamos Y, seja registrado. Considere-se a variável aleatória. M =
(X+ Y)/2, e sua distribuição (Fig. 12.2):
o
1
2
1
3
2
2
0,04
0,12
0,29
0,30
0,25
.M
P(M
=
m)
· Os valores de P(M), acima, foram obtidos da seguinte maneira:
= O) = P(X = O, Y = O) = (0,2) 2 = 0,04;
P(M = !) = P(X = O, Y = 1) + P(X = 1, Y "" O)
= (0,2)(0,3) + (0,3)(0,2) = 0,12 etc.
P(M
Finalmente, suponha-se que depois q_ue o segundo objeto tenha sido
também reposto, um terceiro objeto seja extraído e seu valor, digamos Z, seja registrado. Cmisidere a variável aleatória N = (X+
+ Y + Z)/3 e sua distribuição (Fig. 12.3):
P(N
=
N
O
n)
0,008
1
2
3
3
0,036
0,114
As distribuições de probabilidades
das variáveis aleatórias M e N
já estãÔ mostrando sinais de "normalidade"; isto é, · a aparência da
curva em sino da distribuição normal está começando a surgir. Partindo da distribuição de X, a qual
é quase assimétrica, verificamos que
a média de apenas três observações telt). uma distribuição que já
está mostrando "indicações de nor.malidade".
4
3
5
3
2
0,285
0,225
0,125
1
0,207
P(N=n)
/
/
Fig. 12.3
SOMAS DE VAR~ÁVEDS ALEATÓR~AS I 297
Naturalmente1 o exemplo acima não demonstra coisa alguma.
No entanto, ele representa uma ilustração numérica do resultado
anteriormente estudado de maneira mais rigorosa. O leitor poderá
continuar este exemplo pela adição de mais uma observação e, depois,
achar a distribuição de probabilidade da média das quatro observações obtidas. (Veja o Probl. 12.10.)
Exemplo 12.6. Suponha-se que temos algumas voltagens de
ruído ·independentes, por exemplo V;, i = 1, 2, ... , n, as quais são
recebidas. naquilo que se denomina um "somador". (Veja a Fig. 12.4.)
Seja v a soma :..das vóltagens recebidas . . Isto é, v = L~=l V;. Suponha-se que cada variável aleatória V;
v.
seja uniformemente distribuída sobre o
intervalo [0, 10]. Daí, E(Vi) == 5 volts
e variância (V;) = 100/12.
De acordo com o Teorema do Limi~
V2
te Central, se n for suficientemente
grande, a variável aleatória
S
=
(V -
5n)vi2/IOV;;:
terá aproximadamente a · distribuição
N(O, 1). Portanto, se n = 20, poderemos calcular que a probabilidade de que a voltagem total na
entrada exceda 105 volts da seguinte maneira:
Fig. 12A,
P(V
> 105)
=pI v- 100
>
\ CIO/v12)v'2o
C=:
1 - <1>(0,388)
105- 100 •)
(10/v'12)v2o ·
= 0,352.
12.5 Outras Distribuições Aproximadas pela Distribuição
a de Poisson, a de Pascal e a Gama
No~mal:
Existem algumas distribuições importantes, que não a distribuição
binomial explicada na Seção 12.3, as quais podem ser aproximadas pela
distribuição normal. Em cada caso, como observaremos, a variável aleatória, cuja distribuição nós aproximaremos, pode .ser representa~ a como
a soma de variáveis aleatórias independentes, dando-nos assim uma
aplicação do Teorema do Limite Central, como foi explicado na Seção
12.4.
:;-.··
298 I PROBABDUDADE
(a) A distribuição de Poisson. Recorde-se de que uma variável
aleatória de Poisson . surge quando (sujeita a determinad·as hipóteses)
estivermos interessados no número total de ocorrências de algum
evento, em um intervalo de tempo de extensão t, com intensidade (isto
é, t.axa de ocorrência por unidade de tempo) de a (veja a Seção 8.2).
Como foi indicado naquela seção, nós poderemos considerar o número
total de ocorrências como a soma das ocorrências em intervalos meno~
res não-imbricados, tornando, dessa maneira, aplicáveis os resultados
da seção precedente.
'
Exemplo 12.7. Suponha-se que, em uma determinada central
telefónica, as chamadas cheguem com a taxa de 2 por minuto. Qual é
a probabilidade de que 22 ou menos chamadas sejam recebidas durante
um período de 15 minutos? (Admitiremos, naturalmente, que a intensidade permaneça inalterada durante o período considerado.) Se fizermos X= número de chamadas recebidas, então, E(X) = 2(15) = 30.
Para calcular P(X < 22), e aplicando a correção de continuidade [veja
a Eq. (b) que está imediatamente antes do Ex. 12.4 ], teremos
P(X<:22)~P
~
Y<:
-h ,
22 + - - 30
1
)
onde Y tem distribuição normal N(O, 1). Conseqüentemente, a probabilidade acima fica igual a </J ( - 1,37) = 0,0853.
(b) A distribuição de Pascal. Se Y = número de provas de
Bernouilli necessárias para obter r sucessos, então, Y tem uma distribuição de Pascal e pode ser representada como a soma de r variáveis
aleatórias independentes (veja a Seção 8.5). Neste caso, para r suficientemente grande,os resultados da seção precedente são aplicáveis.
Exemplo 12.8. Achar um valor aproximado para a probabilidade
de que serão executados 150 ou menos provas para obter 48 sucessos,
quando P(sucesso) = 0,25. Escrevendo X= número de provas necessárias, teremos (veja a Eq. 8.8): E(X) = r/p = 48/0,25 = 192, e Var X=
= rqjp 2 = (48X0,75)/(0,25) 2 = 576. Portanto, "
I
P(X<:150)~</J(
.
·
150 + --192
1
)
2
.
=</J(-1,73)=0,0418
.J576
SOMAS ~IE VARDÁVEiS ALEATÕRDAS I 299
(c) A distribuição Gama. Comb indicado no 'Teorema 10.9, uma
variável aleatória que tenha a distribJição Gama (com parâmetros c.: e r)
poderá se.r representada como a som~ de r variáveis aleatÓrias independentes, com distribuição exponencial. Portanto, para r grande, também
é aplicável o Teorema do Limite Cenfral.
i
12.6. A ICllistribuição dlóll Somôll dle um Número F'irniii:c
I
de Variáveis Aleatórias
,
O Ex. ·12.6 serve para motivar[a seguinte explanaço/>: · Sabemos
que a soma de um número fini.toj.qualquer de variáveis aleatórias
independentes e normalmente distnbuidas .é também normalmente
distribuída. Do Teorema do Lirhite Central, podemos concluir
que, para n grande, a soma de n !variáveis aleatórias é aproximada
e normalmente distribuída. A questão seguinte ainda resta . a ser
respondida: Suponhamos que se ?onsidere · X 1 + . . .
Xn, onde
os X; são variáveis aleatórias ind~pendentes (não necessariamente
normais) e n não seja suficienteme~te grande pam justüicar o emprego do Teorema do Limite Cehtral. Qual será a 1 distribuição
desta soma? Por exemplo, qual se~á a distribuição da voltagem de
I
.
I
entrada V (Ex. 12.6), se n = 2 ou n = 3?
Vamos primeiro examinar o importante caso da soma de duas
variáveis aleatórias. O seguinte r~sultado pode ser estabelecido.
+
I
!'
i, , 11
: •I
! .'
I,·
·.,
Teorema 12.2. Suponha-se quJ X e Y sejam variáveis aleatórias independentes, contínuas, com fdp g e h, respectivamente. Seja
Z = X.+ Y e denotemos a fdp de
por s. Então,
•
!z
I
s(z) =
J_
+"'
I
g(w)t (z - w) dw.
"'
(12.6)
Demonstração: Desde que X e Y são independentes, sua fdp
conjunta f poderá ser fatorada:
I
,
.
f(x, y)
Considere-se a transformação:
z=
Portanto, x = w e y
X
= g(x)h(y).
I!
+ y, II
= z - ·f».
J= 01
1
w
=
X.
O !jacobiano desta transformação é
ti =
-i
-1.
~
300 I PROBAIBIUDADIE
Por conseguinte, o valor absoluto de J é 1 e, por isso, a fdp conjunta
deZ = X
Y e W = X é
+
k(z, w)
=
g(w)h(z - w).
A fdp de Z será agora obtida pela integração de k(z, w) desde - · ro
até =, em relação a w, desse modo fornecendo o resultado acima.
Comentários: (a) A integral acima, que inclui as funções g e h, ocorre em
muitas outras passagens matemáticas. Ela é freqüentemente mencionada como a
integral de convo1ução de g e h, e é, algumas vezes, escrita como g • h.
(b) O cálc1Üb da integral acima deve ser feito com muito cuidado. De fato,
a mesma dificuldade que surge no cálculo da fdp de um produto ou de um quociente
surge agora. AB funções g e h serão freqüentemente não-nulas somente para determinados valores de seu argumento. Por isso, o integrando na integral acima,
será não-nulo somente para aqueles valores da variável de integração w, para os
quai~ ambos os fatores do integrando sejam não-nulos.
(c) A fórmula acima, Eq . (12.6), poderá ser empregada repetidamente (com
dificuldade crescente, porém) para obter-se a fdp da soma de um número qualquer
finito de variáveis aleatórias independentes contínuas . Por exemplo, se S = X+
+ Y + W, poderemos escrever S = Z + W, onde Z =X+ Y. Poderemos, então,
empregar a marcha acima para obtermos a fdp deZ, e depois, conhecendo a fdp
deZ, empregar este método novamente para obtermos a fdp de S.
(d) Poderemos deduzir a Eq. (12.6) de outra maneira, sem empregar o conceito de jacobiano. Façamos S denotar a fd da variável aleatória z = X + Y.
Então,
S(z)
= ~(Z .$ z) = P(X :+ Y
S z)
=
fi
g(x)h(y) dx dy,
1il
onde
R= {(:r, y) \ x
(Veja a Fig. 12.5.)
+ y S zl.
Portl!lnto,
S(z)
=
=
J:"' J":
8
g(x)h(y) dzdy
J: "g(x) [[:z
h(y) dy] dE.
Derivando S(z) em relação a z (sob o
sinal de integração, o que pode ser justificado), obteremos
s(z) = S'(z}
I[)
que concorda com a Eq. (12.6).
=
(+'"
J-"'
g(z)l'l(z - :.-)eh,
SOMAS OE VARiÁVEIS ALEATÓRIAS /301
111
+
(e) Como a distribuição de X
Y deve, pre8um!Veh:D.ente, ser a mesma que
distribuição de r
X, deveremos ser capazes de verificar que
+
! +""
_,.
g(~)h(z -
:r) dx
=
f+"'
._"
h(y)g(z - y) dy.
Apen!lB fazendo-se z - z = y na primeira integral, ter-se-á a segund!ll form!ll.
Algum!lB vezes, se indiCf!l est!ll propriedade escrevendo g•h = h•g. Vej& oComentário (a), acima.
-+-----+-----<>· r,
(
Exemplo 12.9. Cdnsiderem-se dois dispositivos eletrônicos, D 1
e D 2• Suponha-se que D 1 tenha uma duração de 'ida que possa
ser representada por uma variável aleatória Tx, cuja distribuição
seja exponencial com parâmetro ax, enquanto D: tenha uma duração
de vida que possa ser representada por uma variável aleatória T 2,
cuja distribuição seja eJ:ponencial com parâmetro a:. Suponha-se
que D 1 e D 2 estejam ligados de tal maneira que D2 comece a funcio..
nar no momento em que D1 âei:re de funcionar. Nesse caso,
T = T 1 T2 representa a duração total de funcionamento do sistema composto por esses dois dispositivos. Admita-se que T 1 e T 2
sejam independentes; poderemos apÚ~ar o · resultado acima, e obter
+
g(t1)
h(t2)
=
ale-"' 111,
= a2J(l-oc2t2,
(Para todos os outros valores de t 1 e i 2, as funções g e h são supostas
iguais a zero!). Conseqüentemente, empregando-se a Eq. (12.6),
encontraremos que a fdp de Tx + T2 = T será dada por
t?: o.
O integrando será positivo se, e somente se, ambos os fatores do integrando forem positivos~ isto é, sempre que t 1 ;::::: O e t- t1 ?: O. Isto
é equivalente a t 1 ?: O e t 1 ~ t, o que por sua vez é equivalente a
O~ 11 ·~ t. (Veja a Fig. 12.6.) Por isso; a integral acima se toma
s(t)
=
lt
ale - altla2e-"'2(t-tildtx
302 I PROBABIUDADE
Comentários: (a) Observamos que a soma de duas variáveis aleat6ri8!!l independentes, exponencialmente· distribu1das, fUlo é exponencialmente distribu1da.
(b)
Para
a1
> a2
1
o gráfico dá fdp de Testá. apresentado na Fig. 12.7. ·
$(/)
$(1)
/=ljor
fig. 12.7
!Fig. 12.8
(c) A expressão da fdp, acima, não é defiilide. para a1 = a2, isto é, para o
caso em que T1 e T2 tenham e. mesma distribuição exponencial. A fim. de levar
em conte. este caso particular, CO!lllidere-se a expressão qa primeira integral de s(t),
e faça-se a = a1 = a2. Obtém-se
1
a(t)
= ;:
ae-atlae-a(t-tlldt1
= o?e-at [ . dt1 = a 2te-at, t ~
O.
lato represente. a distribuição gama. [Veja a Eq. (9.16);] O gráfico deste. fdp está
apresentado na Fig. 12.8. O máximo ocorre para t = ·1/a = E( Ti) = E(T~).
Exemplo 12.10. Vamos reexawnar o Ex. 12.6, que trata da
adição de duas tensões elétricas aleatórias independentes vl e v2'
cada uma das quais é uniformemente distribuída sobre [O, 1O] volts. '
Por isso,
f(vl.)
=
io,
g(v2)
=
1
10 '
(Recordemos, novamente, que as funções f e g são nulas para quaisquer outros valores.) Se V = V1 + V2, teremos
Raciocinando tal como no Ex. 12.8, obsP-rvaremos que o integrando
será não-nulo somente para aqueles vaLores de v1 que., satisfaçam
a O ::::; v1 ::::; 10 e O ::::; v .:._ v1 ::::; 10. Essas condições são equivalentes
a O ::::; v1 ::::; 10 e v - 10 ::::; v1 ::::; v.
- - ! - - - 1 - - - - - ! - - t - -... v,
v-lO O
v 10
(a)
- - 1 - - t - - - - t - - - t - -....
!Fig. 12.9
O v-10
10
(b).
u
v,
SOMAS DE VARIÁVEIS ALEATÓRIAS I 303
Surgem dois casos, tal como se àpresentam na · Fig. 12.9:
(a) v- 10 ~ 10 e O ~ v
que O~ v~ 10.
~
10, as quais, conjuntamente, acar-
I.
I
(b) O~ v- 10 ~ 10 e v~ 10, as quaiS, conjuntamente, acar~
~
retam que 10
v ~ 20.
No caso (a), Vt poderá tornar valores entre O e v, enquanto no
caso (b), v1 poderá tornar valores entre v J 10.e 10. ,
, P()rtanto, obteremos
para
~·
o~
v::::; 10:
v
IqO'
.
para
10
~v~
I
20:
I
10
s(v)
=
1
-10
I
1 1
!
lo'-10 dv 1
20-v
iI= 100·
.
I
.Por isso, a fdp de V·terá o gráfico apresentado na Fig. 12.10.
J(u)
v
100
20-u
100
Fig. 12.10
I
I~
Exemplo 12.11. Como ilustração fmal de somas de variáve~s aleatórias, vamos reestudar um resultado que já demonstramos, empr&.
gando o método mais indireto das funçõ,es geratrizes de momeritbs
(veja Ex. 10.11), a saber, que a soma de duas variáveis aleatórias
normais independentes é também normalmente distribuída. Com :o
objetivo de evitar algumas transfonnaçõ~s algébricas, vâmos ': e:X;à'i'
minar somente um caso particular.
--..·
r-··
304 / PROBABiliDADE
Suponha-se que Z = X+ Y, onde X e Y são variáveis aleatórias
independentes, cada uma delas com. distribuição N(O, 1). Então,
1
-z'f2
j(. x) =: V21T
e
'
g(y)
= -}
v
- ""<x<
co,
-oo<y<co .
e-Y'f2,
21T
Conseqüentemente, a fdp deZ será dada por
S(Z)
=
j _""+""
j(X ) (j (Z
-
X)
dX
1
= 21T
f+""
_ .,
e-z'f2e-(z-x)•f2
dx
Completando o quadrado no expoente do integrando, obteremos
(x2 - ZX)
=[
(X - ~
r-~ ]
Daf, '
.·~.
s(z)
= J...
e-z'f2e•'f1
21T
Fazendo·
v2(xs(z) =.
!
+""
e-(!f2)[v2(x-zJ2)]'
dx.
""
z/2) = u; segue-se que dx = dujv2, e obteremos
1
vzrvz
e - z ' J14 -
v21r
1+"'
-.,
e -u'f2 du.
A integral ac1ma (incluindo o fator 1/V21T) é igual a um.
s(z)
= _1
Assim,
1
_r; e-<I/2){zJv2i'.
v2"ll'v2
Ora, isso representa a fdp de wna variável aleatóp a com distribuição N(O, 2), o que se queria verificar.
Ao explicarmos a distribuição da soma de variáveis aleatórias,
restringimo-nos às variáveis aleatórias contínuas. No caso discreto,
o problema é um tanto mais simples, ao menos em certos casos, como
o teorema seguinte indica.
SOMAS DE VARIÁVEIS ALEATÓRIAS I 305
Teorema 12.3. Suponha-se que X e Y sejam variáveis aleatórias independentes, cada uma. das quais possa tomar somente valores
inteiros não-negativos. Seja p(k) = P(X ~ k), k ~ O, - 1, ~i, .: .. ,
e seja q('r) = P(Y =r), r= O, 1, 2, ... Façamos Z;.. X+ Y e
= P(Z = i). Então,
- . .-
wm
w(t)
=
t
p(k)q(i- k),
i
&=0
= O, 1, 2, ...
Demonstração:
w(t) = P(Z = t)
= P[X =O, Y =i ou X= 1, Y =i- 1 ou ... ou X= i, Y =O]
=
t
P[X
~=0
= k, Y = i - k]
=
t
k=O
p(k)q(i- ic)
vistÓ que X e Y são independentes.
Comentário: Observe-se a semelhança entre esta
volução, deduzida no Teor. 12.2. ·
BOII111
e a integral de con-
Exemplo 12.12. Representemos por X e Y o número de erhissões de partículas a por duas diferentes fontes de material radioativo,
durante um período especificado de tempo t. Suponha-se qu'e X e Y
tenham distribuições de Poisson, com parâmetros fJ1t e fJ2t, respectivamente. Representemos por Z = X + Y o número total de partículas emitidas pelas duas fontes. Empregando o Teor. 12.3, obteremos
P(Z
=
k)
=
t
p(k)q(i - k)
k=O
(Essa igualdade é obtida pela aplicação do teorema binomial à soma
acima.) A última expressão representa a probabil~dade _de que lima
variável aleatória, que tenha unia distribuição de Poisson com parâmetro {J 1t (32t tome o valor i. Desse modo, verificamos aquilo
que já. sabíamos: A soma de duas variáveis aleatórias independentes com distribuição de Poisson tem distribuição de Poissori.
+
. --
'
-·.
--
-
-
r~mr-r.' ···:~
· 306 I PROB'A BRUDADIE
.)
Problemas
12.1. (a) Peças são produzidas de tal maneira que 2 por cento resultam.
defeituosas. Uí:n grande número dessas peças, digamos n, é inspecionado e a
freqüência relativa daiJ defeituosas, fD, é registrâ.da. Que valor deverá 4Jr n, a fim
de que a probabilidade seja ao menos 0,98, de que fD difira de 0,02 por menos do
que 0,05?
(b) Responda a (a), acima, supondo que 0,02, a probabilidade de se obter
uma peça defeituosa, seja substituída por p, a qual se admite ser desconhecida.
· 12.2. Suponha que tilD.ll. amostra de tamanho n seja obtida de uma grande
coleção de parafusos, 3 por cento dos quais sejam defeituosos. Qual será a probabilidade de que, no máximo, 5 por cento dos parafusos seleci,onados -sejam def ei tuosos, se
(a) n = 6?
(b) n=60?
(c)
n
= 600?
12.3. (a) Um siStema complexo é constituido de 100 componentes que fun~
cionam independentemente. A probabilidade de que. qualquer um dos componentes venha a falhar durante o período de operação é igual a 0,10. A fim de que
o sistema completo funcione, ao menos 85 dos componentes devem trabalhar.
Calcule a probabilidade de que isso aconteça.
(b) Suponha que o sistema acima seja constituído de n componentes, cada
um deles tendo uma confiabilidade de 0,90. O sistema funcionará. se ao menos
80 por cento dos componentes funcionarem adequadamente. Determine n, de
maneira. que o sistema tenha uma confiabilidade de 0,95.
12.4. Suponha-5e .que 30 di.llpositivos elétrônicos, D 11 • •• , D 3 o, sejam empregados da seguinte maneira: Tão logo D 1 falhe, D2 entra em ope~~ção; quando Dz
falhar, D 3 entrará em operação etc. Suponha que a duração até falhar Di seja
uma variável aleatória exponencialmente distribuída, com parâmetro fJ = 0,1 hora- 1•
Seja T o tempo total de operação dos 30 dispositivos. Qual é, a probabilidade
de que T ultrapasse 350 horas?
12.5. Um computador, ao adicionar números, arredonda cada número para
o inteiro mais ·próximo. Admita-se que todos qs erros de arredondamento sejam
independentes e uniformemente distribuidos sobre (- 015, 0,5).
(a) Se 1.500 números forem adicionados, qual é a probabilidade de que a
magnitude do erro total ultrapasse 15?
(b) Quantos números poderão· ser adicionados j.uritos, de modo que a
tude do erro total seja menor do que 10, com probabilidade 0,90~
magni~
12.6. Suponha que X;, i = 1, 2, .. . , 50 sejam variáveis aleatórias indepen~
dentes, cada uma delas tendo distribuição de Poisson com parâmetro À = 0,03.
Faça s ;=. XI
+ x60·
i
(a) Empregando o Teorema do Limite Cent~al, calcule P(S ~ 3).
+ ...
(b) Compare a respm;ta de (a) com. o valor exato. dessa probabilidade.
- SOMAS DE '1ARIÁVEOS ALEATÓRIAS I 307
I.
.
12.7. Em um circuito simples; dois resisfores, R1 e R 2, são ligaâosem série.
Portanto, a resistência total será dada por R = R1 + Rz, Suponha que R1 e Rz
sejam variáveis aleatórias independentes, tent cada uma a fdp
10 - r;
50
J(r;) = - -- - ,
,
.
O < r; } 10,
~
= 1,
2.
I
Determine a fdp de R, a resistência total, e esbloce seu gráfico.
12.8. Suponha que os resistore~ no Pro~l. 12.7 sejam ligados em paralelá.
Determine a fdp de R, a .resistência total do cjrcuito (estabeleça apenas na forma
de · integral). (Sugestao: A relação entre R, \R1 e R2 é dada por 1/R = 1/Rl +
i
+ 1/Rz.)
12.9. Ao mensurar-se T, a duração da :vida de uma peça, pode-se cometer
um erro, o qual se pode admitir ser uniformem~nte distribuído sobre (- 0,01, 0,01).
Por itiso, o tempo registrado (em horas) pode sér representado por T + X, onde T
tem uma distribuição exponencial com parâme~ro 0,2 e X tem a distribuiçã,o uniforme descrita ãcima. Determine a fdp de T +X, quando Te X forem independentes.
. I
12.10. Suponha que X e Y sejam variáTeis aleatórias independentes, idênticamente distribuídas. Suponha que a fdp df X (e, em conseqüência, a de Y)
seja dada por
1
j(x)
Determine a fdp de X
tegração.)
12.11.
4
i> a,
> O,
O, para quaisquer t utros valores.
afx2 ,
+ Y.
(S1tgestão: Emlregue {rações parciais para a in-
Realize os cálculos sugeridos ao íihal do Ex. 12.5.
I
.
I
12.12. (a) Um dispositivo eletrônico tem ! uma duração até falhar T, cuja
distribuição é dada por N(1ÜO, 4). Suponha q~e ao se registrar T cometa-se um
erro cujo valor possa ser representado por uma variável aleatória X, uniformemente distribuída sobre (- 1, 1). Determine ~ fdp de S = X + T em termos
de <I>, a fd da distribuição N(O, 1), quando X e Y forem independentes.
(b) Calcule P(100 ~ S .:::; 101). (Suge.stao:]Empregue a Regra .de Simpson,
para calcular um valor aproximado da integral.) ~
I
12.13. Suponha que um novo aparelho [seja testado repetidamente, sob
determinadas condições de carga, até que ele falhe. A probabilidade de ·falhar
em qualquer das provas é Pl· Faça igual a X o número de provas necessárias
inclusive a da primeira falha. Um segundo ap4relho é também testado repetidamente até falhar; suponha que uma probabiliqade constante de falhar -pz esteja
associada a ele. Faça igual a Y o número de [provas necessárias, inclusive- a de
sua primeira faiha. Admita que X e Y 1 sejam ~ndependentes e faça Z. = X + Y.
Portanto, Z é igual ao número de provas neces,sárias até que; ambos os ,aparelhos
tenham falhado.
j
(a) Estabeleça a distribuição de probabili9ade de Z.
(b) Calcule P(Z = 4), quando Pl = 0,1 e ~2 =-0,2.
(c) Estude (a), quando Pl =
p;.
:. \
•.
_-~
·
Amostras e . Distribuições Amostrais
Capítulo 13
13.1.
Introdução
Vamds novamente examinar um problema apresentado anteriormente. Suponha-se que temos uma fonte de material radioativo
que esteja emitindo partículas a. Suponha-se que as hipóteses formuladas no Cap. 8 sejam válidas, de maneira que a variável aleatória X, definida comei o número de partículas emitidas durante um
período de tempo especificado t, tenha uma distribui~ão de Poisson
com parâmetro Àt. .
Para que se possa "utilizai:" este modelo probabilístico na explica.ção da emissão de partículas a, necessitamos conhecer o valor de À.
AB .hipóteses que fizemos somente conduzem à conclusão de que X ·~
tem uma. distribuição de Poisson com algum parâmetro Àt. Porém,
se quisermos calcular P(X > 10), por exemplo, a resposta será em
termos de À, a menos que conheçamos seu valor numérico. Semelhantemerite, os importantes parâmetros associados à distribuição,
tais como. E(X) e V(X), são todos funções de À.
Para procurarmos um valor numérico para À, deveremos, ao
menos por enquanto, deixar o mundo de nosso modelo matemático
teórico . e entrar no mundo· empírico das observa~ões. Quer dizer,
deveremos realmente· observar a emissão de partículas, obter valores
numéricos de X, e a seguir empregar esses valores, de algum modo sistemático, a fim de obtermos alguma informação relevante sobre À.
É importante para o leit.or ter uma idéia clara ~obre a influência
recíproca entre ·a verificação empírica e a dedução mat~niática, que
surge em muitos domínios da Matemática aJ?licada. Isto é especialmente importante quando constrÚímos modelos probabilísticos para
o estudo de fenômenos observáveis.
Vamos exaininar um exemplo trivial da Trigonometria elementar. Um problema típico pode abranger o cálculo da altura de uma
AMOSTRAS IE DDSTR!IBUIÇÕES AMOSTRAiS I 309
árvore, Um modélo matemático para este problem& pode ser obtido
pela postulação de que a relação entre a altura desconhecida h, a sombra projetada s, e o ângulo 0t seja da forma h = 8 tg at. (Nós estac
mos admitindo que a árvore esteja ereta e. perpendicular ao solo,
Fig. 13.1.) Conseqüentemente, se 8 e Ot forem conh~cidos, . poderemos, com o au:xílio de uma ·tábua adequada,
calcular h. O ponto importante a salientar aqui
é que 8 é 0t devem ser conhecidos antes que
possamos calcular h. Isto é, alguém deverá ter
medido s e a. A dedução matemática que leva à
relação h = 8 tg a é completamente independente
s
dos
meios pélos quais mediremos 8 e a . Se essas
IFig. 13.1
mensurações forem precisas, então 8 tg ai representará um valor preciso de h (admitindo-se que o modelo seja válido).
Dizendo de outra maneira, não poderemos apenas ·deduzir o valor de
h a partir de nosso conhecimento de Trigonometria e com o auxílio
de tábuas trigonométricas. Nós teremos de deixar nosso santuário
(onde quer que ele possa estar) e fazer algumas mensurações! E,
justamente como tais mensuraçõ~s sejam feitas, ainda que isso cons. titua um importante problema a ser resolvido, de maneira alguma
influencia a validade de nossa dedução matemática.
Ao empregarmos modelos probabilisticos,- também teremos de
ent'rar no mundo empírico e fazer algumas mensurações. Por exemplo,
no caso que está sendo examinado, estamos empregando a distribuição de Poisson como nosso modelo probabilístico e, por isso, necessitamos conhecer o valor do parâmetro À. A fim de obter alguma informação sobre À, temos de realizar algumas mensurações e, depois,
empregar as medidas obtidas de alguma forma sistemática com o objetivo
de estimarmos À. De que maneira isso será feito será explicado no
Cap. 14.
Dois pontos devem ser finalmente salientados aqui. Primeiro,
as mensurações exigidas para obter-se informação sobre À serão,
em geral, mais fáceis de se conseguir, do que o seriam mensurações
diretas de e-~ 1(Àt)kjk! (da mesma forma que é mais fácil conseguir
mensurações do c0mprimento da sombra s e do ângulo a do que da
altura h). ~egundo, a maneü:a. pela qual obteremos mensurações
de À e a maneira pela qual empregaremos essas medidas de modo algum invalidará (ou confirmará) a ap1icabilidade do modelo ~e Poisson.
O exemplo ·acima é típico de uma grande classe de problemas.
Em muitas situações é relativamente natural (e apropriado) admitir
que uma variável aleatória X tenha uma particular distribuição dé
·:
'.
310 I PROBABILIDADE
probabilidade. Já Vimos alguns exemplos -que mostram que hipóteses bastante simples sobre o comportamento probabilístico de X
conduzem a um tipo definido de distribuição, tal cmno a binomial,
a exponencial, a normal, a de Poisson, e outras. Cada uma dessas
distribuições depende de certos parâmetros. Eni · alguns casos o
valor de um ou mais desses parâmetros pode ser conhecido. (Tal
conhecimento pode Vir de estudo anterior da variável aleatória.)
Mais freqüenteniente, porém, nós rião conhecemos o valor de todos
os parâmetros ·incluídos. Em tais casos; deveremos proceder como
sugerido acima e obter alguns valores empíricos de X e, depois, empregarmos esses valoiEls de maneira apropriada. Como isso 'Será
feito é o que prenderá nossa atenção no Cap. 14.
13.2. Amostras Aleatórias
Já explicamos a noção de amostragem aleatória com ou sem
reposição, de um conjunto finito ou população de objetos. Temos
sob exame uma população especificada de objetos. (pessoas, peças
fabricadas etc.) sobre os quais desejamos fazer alguma inferência
sem examinarmos cada objeto isoladamente. Por isso, "amostramos". Isto é, tentamos examinar alguns objetos "típicos", dos
quais esperamos extrair alguma informação, que em algum sentidq
seja característi:ca de toda a população. Vamos ser .mais precisos.
Suponha que rotulemos. ca9-a elemento de uma população
finita com um número, consecutivamente, de modo que, sem perda de .
generalidade, uma população formada de N objetos possa ser representada como 1, 2, ... , N. Agora escolhemos n itens, de uma· maneira a ser explicada abaixo. Defina,mos as seguintes variáveis
aleatócias:
X, "" valor da população obtido quando o i:..ésimo item for
escolhido, i = 1, 2, ... , n.
A distribuição de probabilidade das variáveis aleatórias X 1, ••• , Xn
obvil).mente dependerá de como conduzirmos a ·amostragem. Se
amostrarmos com reposição, · de · cada vez escolhendo um objeto
ao acaso, as variáveis aleatórias X 11 • • • , Xn serão inêlependentes e
2, . . . , n,
identicamente distribuídas. Isto é, . para cada X;, · i =
teremos
1.
1;
P(X•
=
j)
= 1/N,
j
= 1, 2, ... , N.
Se amostrarmos sem reposição, as · variáveis aleatórias X 11 •• • , Xn
não serão mais independentes. Ao contrário, sua distribuição de pro-
AMOSTRAS \E rmmFW:3UDÇÕIES AMOSlfRADS I J11
habilidade conjunta será dada por ·
P[Xi =h, ... ,Xn =jn]
1
+1) ... (N- r+ 1)
= - - - ,,- - - - - - -
N(N
na qual j~, . . . , in são quaisquer n valor~s de (1, ... , N). (Pode~emos
mostrar que a distribuição marginal de j qualquer X;, sem levar ~m
cop.ta os valores tomados por X i, ... , XJ-1, X;+ 11 ••• , X n, é a mesma
que a acima, quando amostrarmos com! reposição.)
Em
nossa exposição, até agora, terolos
admitido que exista umà
.
I . .
.
população subjacente, dig_amos 1, 2, .. ·!' N, a qual é finita e sobre
a qual desejamos obter alguma informação baseada em uma amostra
de tamanho n < N. Em muitas situações, não existe população
I
finita, na qual _e~tejamos a extrair amos tras; de fato, poderemos ter
1
dificuldade em definir uma populaçao subjacente de qualquer espécie.
Consideremos os seguintes exemplos: 1
'
(a)
X1
Uma moeda é jogada. Defina-se a variável aleatória
= número de caras obtidas. De alghm modo, poderemos pensar
em X 1 como uma amostra de tamanho hm, de uma "população" de
todas as jogadas possíveis daquela moeda. Se jogássemos a moeda
uma segunda vez e definíssemos a variáYel aleatória X 2 cómo o número de cara.S obtidas na segunda jogada, X1, Xz poderia presumivelmente ser . considerada como uma amos~ra de tamanho dois tirada
?a mesma população.
I
(b) A altura total de chuva anuail, em uma certa localidade,
para o ano de 1970, poderia ser definida como uma variável aleatória X 1• Durante anos sucessivos, variáveis aleatórias X 2, ••• , X n
poderiam ser definidas analogamente. ) Também poderemos considerar (X 1 , ••• , Xn) como uma amostra de tamanho n, obtida da população de todas as possíveis alturas dé. chuva anuais naquela localidade especifi'cada; e seria aceitável supÓr-se que os X; fossem variáveis aleatórias independente e identic~mente distribuídas. '
.
I
.
(c) A duração da vida de uma ~âmpada, fabricada por um
certo processo em certa fábrica, é estu~ada pela escolha de n lâmpadas e mensuração de suas durações da vida, digamos Tú ·; . :, T~.
Podemos considerar (Tb .. . ,Tn) como Iuma amostra aleatória' da
população •de todas as possíveis duraçõ'es de vida de lâmpadas fa1
bricadas de maneira especificada.
Vamos apresentar essas noções rigor9samente, da seguinte f9nna:
I
.. .
. .• .
~!
;·. ;,. •r, ·<,.:, .
Definição. Seja X uma variável aleatória .com uma :dif;triibuicã~
de probabilidade especificada. Sejam n variáveis aleatória,s .X11. '>
independentes e tendo cada uma delas a mesma distribuição que X. Nesse caso, denominaremos (X1 , • • • , Xn) uma amostra aleatória da
variável aleatória X.
I
Comentários: (a) Vamos enunciar o que está acima de modo menos formal:
Uma amostra aleatória de tainanho n, de uma variável uleatória 'x, corresponde
a n mensurações repetidas de X, feitas sob condições essencialmente inalteradas.
Como já, mencionamos antes em algumas passagens, a noção matematicamente
idealizada de amostra aleatória pode, quando muito, ·ser apenas aproximada pelas
condições experimentais reàis. Para .que X1 e X2 venham a ter a mesma distribuição, todas as condições "relevantes" sob as quais o experimento seja realizado
devem ser as mesmas quando X 1 e X2 forem observados. Naturalmente, condições
experimentais nunca podem ser Identicamente duplicadas. O "importante é qui:r
aquelas condições que sejam diferentes devem ter pequena ou nenhuma influência no resultado do experimento. Não obstante, algum cuidado deve ser tomado
para assegurar-nos realmente a obtenção de uma amostra aleatória.
Por exemplo, suponha-se que a variável aleatória em estudo seja X, o número de chamadas felefônícas que chegam a uma central entre 16 e 17 horas na
quarta--feira. A fim de que se obtenha uma amostra aleatória de X, escolheríamos
presum1velmente n quartas-feiraB ao acaso e registraríamos o valor de X h ... , Xn.
Nós deveríamos estar certos de que todas aB quartas-feiras fossem quartas-feiras
"típicas". Por exemplo, não poderíamos desejar incluir uma particular quarta-feira, que coincidisse com o Dia de Natal.
Também, se tentarmos obter uma amostra aleatória da variável aleatória X,
definida como a duração da vida de um dispositivo eletrônico, que tenha sido fabricado sujeito a certas especificações, desejaríamos estar seguros de que um ;valor
amostral não se tivesse obtido de uma peça, a qual fosse produzida em um mociento
em que o processo de produção estivesse imperfeito.
(b) Se X for uma. variável aleatória contínua. com fdp j e se X!J ... , Xn foy
uma amostra. alea.tória de X, então g, a fdp conjunta de X 1, ••. , Xn. poderá se?
escrita como g(xb . .. , x,.) = j(x1) . .. f(xn). Se X for uma variável aleatória discreta e p(x;) = P(X = x;), então
{c) Como já fizemos anteriormente,. empregaremos letrils maiúsculas para. a.
variável aleatória e letras minúsculas para os valores da variável aleatória. Desse
modo, os valores tomados por uma particular amostra (X!J ... , Xn) serão denotados por (x,, .... , Xn)• Freqüentemente, fn:Iaremos do ponúJ amostral (xb ... , xn),
com o que desejaremos dizer que poderemos considerar (x1, . .. , Xn) as coordenadas
de um ponto em um· espaço euclidiano YHlimensional.
Depois que tenhamos obtido os valores de uma amostra aleatória, desejaremos geralmente empregar aqueles valores amostrais
com o objetivo de realizar alguma inferência sobre a população re-
AMOSTRAS E D~STR~BU~ÇÕIES AMOSTRAiS I 313
presentada pela amostra, o que nesta passagem significa a distribuição de probabilidade da variável aleatória que está sendo amostrada. Desde que os vários parâmetros que caracterizam uma distribuição de probabilidade são números, é muito natural que desejemos calcular d~terminadas características numéricas pertinentes,
que se podem conseguir dos valores amostrais, as quais podem nos
· ajudar, de alguma forma, . a fazer afirmações apropriadas sobre os
valores dos parâmetros que são freqüentemente desconhecidos.
Vamos definir o seguinte conceito importante:
Definição. Seja Xt, .. . , Xn uma amostra aleatória de uma variável aleatória X, e sejam Xt, . .• , Xn os valores tomados pela amostra.
Seja H uma função definida para a ênupla (x 11 .. . , Xn). Definiremos
Y = H(X1, .... , Xn) como uma estatística, que tome o valor y =
= H(x1, .. . , Xn).
Explicando: Uma estatística é uma função de valores reais da amostra. Algumas vezes empregamos o termo estatística para referir ao valor
da função. Assim, poderemos falar da estatística y = H(x 1 , ••• ,xn),
quando realmente deveríamos dizer que y é o valor da estatística
Y = H(X1, . .. , Xn).
Comentários: (a} O emprego acima é um emprego muito especial, mas ge·ralmente aceito, do termo estatística. Observe-se que o empregamos no singular.
(b) De acordo ccim a definição acima, uma estatística é uma variável aleatória! É· muito importante guardar isso em mente. Em conseqüência, terá sentido considerar-se a distribuição de probabilidade de uma estatística, sua expectância, e sua variância. Quando uma variável aleatória for, de fato, uma estatística, quer dizer, uma função da amostra, falaremos freqüentemente de sua distribuiçflo amostral, em lugar de sua distribuição de probabilidade.
Como sugerimos no início deste capítulo, empregaremos a informação obtida de uma amostra com o objetivo de estimar certos
parâmetros desconhecidos, associados à distribuição de probabilidade. Verificaremos que determinadas estatísticas . desempenham
importante papel na resolução deste problema. Antes de examinarmos este assunto mais detalhadamente (no Cap. 14), . vamos estudar algumas estatísticas importantes e suas propriedades.
U.4. Algum<l!s Estatísticas
Importantes
I
Há determinadas estatísticas que encontramos freqüentemente .
Arrolaremos poucas delas e estudaremos algumas de suas propriedadcys
importantes.
314 I PROBABDUDADIE
Definição. Seja (X 1,. •• , XJ), ,uma amostra aleatória de UIWI.
variável aleatória X. As seguintes estatísticas são de interesse:
(a)
X = (1/n)L~=! X;, é denominada a média amostral.
ex.-
sz
(b)
= [1/Cn - 1)l:L:~=l
X) 2 é denominada ·a variância amostral. [Muito em breve, explicaremos por que dividimos por
(n - 1) em vez ·de fazê-lo por n, o que seria óbvio.]
(c) K = nún (X 1 , ••• , Xn) é denominado o minimo da amostra.
(K apenas representa o mimor valor observado.)
(d) M = máx (X 1 , . • • , X;..) é denominado o máximo da amostra.
(M representa o maior valor observado~
1
(e) R = M - K é denominada a amplitude da amostra.
U) Xn<i> = j-ésima observação maior de tod!J,S na amostra,
j = 1, 2, ... , n. (Temos Xn(I) = M, enquanto Xn(n) = K,)
xfp,
Comentários: (a) As variáveis aleatórias
j = 1, 2, ... , n são denominadas estatísticas ordinais (ou estatísticas de ordem) associadas com a amostra
aleatória X 1 , • • • , Xn- Se X for uma variável aleatória contínua, nós poderemos
supor que x~l) > x~
2
) > ... > x~n)_
(b) Os valores extremos de amostra (na notação _acima, X~l) e X~n)) sãO
freqüentemente de considerável interesse. Por exemplo, na construção de diques ~
para controle de enchentes, a maior altura da água que um rio particular tenha
atingido nos últirnôs 50 anos passados pode ser muito importante.
Naturalmente, há muitas outras estatísticas importantes q~e
encontraremos, mas certamente aquelas mencionadas acima desempenham importante papel em muitas aplicações estatísticas. Enunciaremos agora (e demonstraremos) alguns teoremas referentes às
estatísticas acima.
Teorema 13.1. Seja X uma ;variável aleatória, com expectância
E(X) = p. e variância V(X) = IJ' 2 • • Seja X a média amostral de uma
amostra aleatória de tamanho n. Então,
(a) E(X)
=
(b) V(X)
= u2/n.
p..
(c) Para n grande, (X- J.L)/(IJ'/Vn) terá aproximadamente adistribuição N(O, 1).
Demonstração: (a) e (b) decorrem imediatamente tias proprie. dades da expectância e da variância, antenormente estabelecidas:
~··
AMOSTRAS IE
DOSTRU~UiÇÕES AMOSTRAIS I
_ =E ·( -L
1 n X;
.
) =1 L)E(X;)
"'
1 : np. =
E(X)
=----,
n
n
>=1
·
(~n i: X;) =
i=l
p..
I
., · Porque os X; são independentes,
V(X) = V
n
i=l
315
1_2
n
t ~(X;) = _!_n nu2 = <T~n
2
i=l /
i
(c) decorre de uma aplica~o dir~ta do Teorema do Liinite
Poderemos escrever X = (1/p,)X;
(1/n)X!. como
a soma de variáveis aleatórias independentemente distribuidas.
+ ... +
I
.
Comentários: (a) À medida que o taman~o da amostra n crescer, 111 médi111
amostral X tenderá a varillJ' cada vez menos. I Isto é intuitivamente ~vidente e
corresponde à nossa experiência com dados numéricos; Considere-se, por exemplo,
·
o seguinte conjunto de 18 números:
-1; 3; 2; -4; -5; 6; 7; 2; O; 1;
I .
!
-2; -3; 8; 9; 6; ,-3; O; 5 ..
I
. .
Se tomarmos a média desses núme~os, dois a dois na ordem enumerada, obteremos
·a seguinte coleçi!.o de médias:
•.
i
.
.
·
i
1; -1; 0,5; 4,5; 0;5; -2,5; 8,5; 1,5;. 2,5..
Se promediarmos o conjunto- original de númejos, três a. três, obteremos
.·
1,3; -1; 3; -1,3; 7,7! 0,7.
I
Finalmente, se promediarmos os números, seis d~ cada. vez, obteremos
0,2; 0,8; 4, '·
<~
A variância, em cada uma dessas coleções de médias, é menor do que na coleçi!.o anterior, porque em cada caso a média e~tá baseada em um número maior
de números. O teorema acima explica, precisakente, .como a variação de X (medida em termos de sua variância) decresce co~ n crescente. [Neste ponto, veja
a Lei dos Grandes Números, Seç. 12.2 e, especialmente, Eq. (12.2).]
(b) Se n não for suficientemente grande.p~ra garantir a aplicação do Teorema
do Limite Central, poderemos tentar achar .a distribuição de probabilidade exata
de X por caminhos diretos (mas geralmente cotnplicados). Na Seç. 12.5 apresen·
tamos um método pelo qual })Qdemos achar a d.illtribuiçí!.o
de probabilidade
da. soma
I
.
de variáveis aleatórias. A aplicação repetida daquele método nos permitirá obter
a distribuição de probabilidade de :X, especialmehte se for relativamente --pequeno.
(c) O Tepr. 13.1 diz que, para n suficientemente grande, a média amostral X
será aproximadamente distribuída norma,Imente (com expectância p. e variância
•
n
(f2jn).
.
L
Nós verificarn.os que não somente x; mas a maioria das funções
I
"bem comportadas" de X têm esta propfiedade. Neste nível de exposição, não poderemos dar um cuidadoso !desenvolvimento deste resuí-
316 /'PROBABDUDADIE
tado. Contudo, o resultado é de suficiente importância em muitas
aplicações para merecer, ao menos, um raciocínio heurístico, ·intuitivo.
Suponha-se que Y = r(X) e que r possa ser desenvolvido em
série de Taylor, em relação a p,. Deste modo, r(X) = r(j;_) +(X- J.l.)r'(p,) +R, onde R é o resto da série e pode ser e~presso assim
R = [(X -.uY/2] r"(z), onde z é algum valor entre X e fi-· Se n for
suficientemente grande, X será próximo de ,u,, e conseqüentemente
(X- p,) 2 será pequeno oomparado a (X- p,). Para n grande, poderemos portanto considerar o resto desprezível e aproximar r(X),
da seguinte maneira:
r(X) ~ r(JL)
+ r'(J.L)(X-
p,).
Vemos que para n suficientemente grande, r(X) pode ser aproximado
por uma função linear de X. Visto que X será aproximadamente
normal (para n grande), encontramos que r(X) será também aproximadamente normal, porque uma função linear de 'uma variável aleatória normalmente distribuída é normalmente distribuída.
Da representação de r(X) acima, encontramos que
E[r(X)] ~ r(p,),
V[r(X)] ~ [r'(,u,)]2a z •
n
Portanto, para n suficientemente grande, vemos que (sob condiÇões
bastante gerais !:iobre a função r) a distribuição de r(X) será aproxi.
madamente N {r(J.L), [r'(p,)J2a 2/n}.
Teorema 13.2. Seja X uma variável aleatória . contínua com
fdp j e fd F. Seja X1, .. . , Xn uma amostra aleatória de X e sejam
K e Jl,f o núriimo e o máximo da amostra, respectivamente. Então,
(a) A fdp de M será dada por g(m)
=
n[F(m)]n- 1j(m).
(b) A fdp de K será dada por· h(k) = n[l - F(k) ]n- 1j(k).
Demonstração: Seja G(m) = P(M ::::; m) a fd de M. Ora,
é equivalente ao evento {X; ::::; m, para todo i}. Logo,
visto que os X; são independentes, encontramos
I M ::::; m}
G(m)
= P [X1::::;
m e Xz::::; m · · ~ e Xn ::::; m]""' [F(m)]n.
Por isso,
g(m)
=
G'(m)
=
n[F(m)]n-lj(m).
A dedução da fdp de K será deixada para o leitor.
Probl. 13.1.)
(Veja o
AMOSTRAS !E D!S'Hili!BUDÇÕES AMOSTRAHS / 3H
Exemplo 13.1. Um dispositivo eletrônico tem uma duração de
vida T, a qual é exponencialmente distribuída, com parâmetro
a = 0,001; quer dizer, sua fdp é j(t) = O,OOie- 0 •00 1!. Suponha-se
que 100 desses dispositivos sejam ensaiados, fornecendo os valores
observados T1, ... , Troo.
(a) Qual é a probabilidade de que 950 < T < UOO? Porque
tamanho da amostra é bastante grande, poderemos aplicar o. Teorema do Limite Central e proceder da seguinte maneira:
0
-
E(T)
=
1
O OO l
=
V(T)
1.000,
1
(0,001)- 2
100
=
= 10.000,
'
Portanto, (T - 1.000)/100 terá aproximadamente a distribuição
N(O, 1).
Por isso,
P(950
< -T <
1.100) = P ( - 0,5
= ~(1) -= 0,532,
1000 <
< 'i' - 100
1
)
<!>(- 0,5)
das tábuas da distribuição normal.
Comentário: No caso presente, poderemos realmente obter a distribuição
exata de T sem recorrermos ao Teorema do Limite Central. No Teor. 10.9, demonstramos que a soma de variáveis aleatórias independentes distribuídas exponencialmente tem uma distribuição gama; isto é,
(O,OOl)lOOs99 e.-j).OOJs
g(s)
onde g é a fdp de Tt
+ ...
=
'
T
+Ttoo. Daí, a fdp de
- ,
f(t) =
Portanto,
99!
será dada por
(O,l)lOO""j99e-O,it
99!
T tem uma distribuição gama,
.
com parâmetros 0,1 e 100.
(b) Qual é a probabilidade de que o maior valor obfjervado ultrapasse 7. 200 horas?
Pede-se que P(M > .7. 200) = 1 - P(M ~ 7.200). Ora, o valor máximo será menor que 7.200 se, e
somente se, todo valor amostral for menor que 7.200. Daí,
I
P(M
>
7.200)
= 1-
[F(~.200))1° 0 .'
Para calcular F(7.200), recordemos que para a variável aleatória
exponencialmente distribuída com parâmetro 0,001, F(t) = 1 - e- 0•0011 •
( '
.318 I PROBABILIDADE
Portanto,
F(7.200)
= 1 - e- 0 •001 <7 •200> = 1 - e- 7 •2 = 0,999 25.
Por conseguinte, a probabilidade pedida é 1 - (0,999 25) 100 = 0,071.
(c) Qual é a probabilidade de que a menor duração até falhar
seja menor do que 10 horas? ExigireJl10S que P(K < 10) = 1 - P(~ 2: 10).
Ora, o mfnimo da amostra será .maior do .que. ou igual a 10, se,
e somente se, todo valor amostral for maior do qué ou igual a 10.
Portanto,
P(K
<
10)
= 1 - [1 - F(10))1° 0 •
Empregando a expressão de F dada em (b), acima, teremos
1 - F(10)
= e-o,ooi(IOJ
= e-o,ol
= 0,99005.
Daf,
P(K
<
10) = 1 - (0,900 05)1° 0 = 0,63.
A última parte do exemplo acima pode
indica o seguinte teorema.
fre:r
generalizada, como o
Teorema 13.3. Seja X exponencialmente distribuída, com ·parân;l.etro a e seja (X1 , ..•• , X,) uma amostra. aleiitória de X. ~ Seja
K = mfn (X 1, . • . , X.,.). Então, K será. também exponenciahnente
distribuida com parâmetro na.
Demonstração. Seja H a fd de K.
H(k) = P(K ~ k) = 1 - P(K
>
Então,
k) = 1 - [1 - F(k)]",
onde F é a fd de X. Ora, F(x) = 1- e-"'. Por conseguinte,
= 1 - e-"""'. Tomando a derivada de H(k) em relação a k,
obteremos h(k) = na.e-n"k.
·
H(k)
Comentário:
Esse teorema pode oor estendido. da seguinte forma: 82
X1, ... , X.,. forem variáveis aleatórias independentes e se X; tiver distribuição el!ponencial com pa.râi;netro a;, i= 1, ... , n, então, K = mfn. (X 11 • • • , X.,.) terá
distribuição el!ponencial com ·parâmetro a 1 + . . . + a,. Para uma demonstração disso, veja o Probl. Í3.2.
O Teor. 13.4 nos dá alguma informação sobre a estatística 8 2•
Teorem11, 13.4. Suponhamos que Xil ... , X, constitua uma
amostra aleatória de uma variável aleatória X, com, expectância p,
AMOSTRAS E DiSTRIBUIÇÕES AMOSTRABS I 31~ .
e variância u 2 • Façamos
82
.
I
n- 1
i=l i
= -1- L" I(X;. -
-
X)2,
onde X é a média amostral. Então, Iteremos o seguinte: '
(a) E(S2)
= q2,
I
(b) Se . X for normalmente
d)stribuída,
[(n - l)/u 2}St .terá,
..
.
.
I
.
uma distribuição de qui-quadrado, c?m (n - 1) graus de liberdade.
.
(a) Escrevamos:
Demonstração:
n
R
r: (X; -
.~=1
X)2
=
L (X; i=l
..
iJ.
+ p. .
i=l
i
~2
!
"
=L
i
I
[(X; - p.) 2 + 2(p.
.
I
L X)(X;
I
I
I
n
- p.)
n
= ~(X; - J.LP + 2(p. T X) ~(X,
n
=
L
I _
'
(X; - J.L) 2
-
2n(}i -
i=l
=
+ (p.
- p.)
xy + n(J.L -
- X)2]
"
..
+ n(IJ. -
.
X)3
_
X) 2
1
i:_ (X;- J.L)t- n(X l_ J.L?.
•-~
I
Portanto,
,
1
- 2)
1
u2
n
E ( - - - L(X;-X)
= - ·I- [ nu 2 - n - ] = u 2•
n- 1 i=l
nT 1
n
Comentário: Se tivéssemos dividido por n em vez de fazê-io por (n-1) ao
definir S\ a propriedade acima não seria válida.
!I
(b) Não demonstraremos a prop1edade (b ), mas somente faremos
sua validade plausível, pela consideraçãp do seguinte caso particular. Con-
sidere-se L~-1 (X; - X) 2 para n =
(X1-
X) 2 + (X2 -
2. Então,
.
X)2 = [X1- j(X1 ~ X2)J2 + [Xz- t(X~ + X2)J2
= f[2.XI- XI - X2)2 + l[2X2- XI- X2)2
= l[(X1- X2)i + (X2- X1)~l= [XI- X 2)2 ·•
I
2
Desde que xl e x2 sejam independe~temente distribuídas, anibas Cólp
distribuição N(J.L, é), encontraremos que (X 1 - X2) terá distribui"
320 I PROIBABOUDADIE
c;fio N(O, 20" 2).
Daí,
X2] = ~i:_(x;-X) = --\s 2
[ Xrv20"
O" i=l
2
(J
terá distribuição de qui-quadrado com um grau de liberdade. (Veja
o Teor. 10.8.) A demonstração, para n qualquer, segue caminho
semelhante: Deveremos mostrar que L7=1 (X;- X)2/0" 2 poderá ser
decomposto na soma de quadrados d~ (n ""' 1) variáveis aleatórias
independentes, cada uma com distribuição N(O, 1).
Comentário: Muito embora S 2 seja definid·a como a soma de quadrados de n
termos, esses n termos n/io são independentes. De fàto, (X1 - X) + (X2 - X)
+.
+ ... + (Xn -
X) = L~= 1 X; - nX = O. Por isso, existe uma relação linear
entre esses n termos, o que significa que tão logo quaisquer (n - 1) dêles sejam
conhecidos o n-ésimo ficará .determinado.
Finalmente, vamos enunciar (sem demonstrar) um resultado referente à distribuição de probabilidade da amplitude amostral R.·
Teorema 13.5. Seja· X uma variável aleatória contínua cúm
fdp f. Seja R = M - K a amplitude amostral, baseada em uma
amostra aleatória de tamanho n. Então, a fdp de R será dada
pbr
g(r)
=
1+"' [js+r
n(n- 1)
= _"'
x=s
j(x) dx
]n-2j(s)j(s + r)ds,
para r ;::: O.
Exemplo 13.2. Uma tensão elétrica aleatória ·V é uniformemente distribuída sobre [O, 1]. Uma amostra de tamanho n é obtida,
digamos, V IJ ••. , V n, e a amplitude amostral R é calculada. A fdp
de· R é, a seguir, encontrada igual a
g(r)
=
+"
1
n(n - 1)
= _"'
r
n- 2j(s)j(s
+ r) ds.
Temosj(s) = f(s +r)= 1 sempre que O~ s ~ 1 e O~ s + r
as quais em conjunto determinam que O~ s ~ 1 - r. Daí,
k(r)
=
n(n- 1)
= n(n -
jl-r 2
rn-
l)rn- 2 (1 - r),
ds
O~r~l.
~1,
AMOSTRAS lE DISTRUIBUDÇÕES AMOSTRAIS I 321
Para n > 2, o gráfico da fdp de R
tem o aspecto mostrado na Fig. 13.2.
Observe-se que, quando n __,. oo, o
valor de r, para o qual ocorre o máximo, se desloca para a direita. Por
isso, à medida que o tamanho da
n,mostra aumenta, torna-se cada vez
mais provável que a amplitude R se
aproxime de 1, o que, intuitivamente, era de se esperar.
x(r)
r=(n-2)/<n -· 1)
, ;, l
Fig . 13 .2
13.5. A Transformação Integral
Uma amostra da variável aleatória X pode ser empregada para
obter-se alguma informação sobre parâmetros desconhecidos, associados à distribuição de probabilidade de X. No entanto, poderemos empregar uma amostra para objetivo diferente. Poderemos tomar
algumas observações de uma variável aleatória, cuja distribuição
seja completamente especificàda e, a seguir, empregar esses valores
amostrais para aproximar determinadas probabilidades, as ·quais
seriam muito difíceis de se obter através de transformações matemáticas diretas. Por exemplo, suponha-se que X tenha distribuição
N(O, 1), e desejamos estudar a variável aleatória Y = e- X s~n X.
Em particular, admitamos que se deseje calcular P(O S Y S 1/2).
A fim de se obter a resposta exata, necessitaremos achar G, a fd de Y
e, depois, calcular G(l/2) - G(O). I\ ós encontraríamos considerável
dificuldade para fazer isso. Contudo, poderemos seguir outro caminho, o qual se baseia na idéia de simulação do experimento que dê
origem à variável aleatória Y. Então, empregaremos a freqüência
relativa como uma aproximação da probabilidade desejada. Se
esta freqüência relativa for baseada em um número suficientemente
grande de observações, a Lei dos Grandes Números dará justificativa
ao nosso procedimento.
Especificamenie, suponha-se que temos uma amostra . aleatória
da variável aleatória X, acima, cuja dis tribuição e8teja completamente especificada, digamos X 1, . • . , X,.. Para cada X;, defina-se
a variável aleatória Y, = e-x, sen X;. A segwr calcularemos a freqüência relativa nA/n, onde n.t é igual ao número de valores de Y, ,
digamos y;, que satisfaçam O ~ Y• S 1/2. Portanto, ·11A/n será a
freqüência relativa do evento O ~ Y ~ 1/2, e se n· for grande, esta'
freqüência relativa será próxiiiU!. de P(O Y ~ l/2), no sentido da ·
Lei dos Grandes Números.
s
322 I PROBASILIDADIE
Para levar a cabo o procedimento acima, deveremos achar um
meio de "gerar" uma amostra aleatória X 11 ••• , X, da variável aleatória cuja distribuição é N(O, 1,). Antes de indicarmos como isso
se faz, vamos apresentar, bl!'l&vemente, uma .distribuição para a qual
essa tarefa foi essencialmente realizada para nós, por causa da disponibilidade de tábuas. Suponha-se que X seja uriiformemente distribuída sobre o intervalo [O, 1]. A fim de obter uma amostra aleatória, necessitaremos apen&S de consultar uma Táboo de Números
Aleatórios (veja o Apêndice). Tais tábuas foram compilad!IS de maneira a tomá-las adequadas parn este objetivo. Pam empregá~las,
apenas selecionamos uma posição ao acaso na tábua e, a seguir, obtemos números seguindo as colunas (ou as linhas). Se desejarmos
empregar esses números tabulados para representarem valores entre
O e 1, precisaremos somente inserir a vírgula decimal no início do
número; de8se. modo, o número 4.573, como está tabulado, seria empregado para representar o número 0,457 3 etc.
A disponibilidade dessas tábuas de números aleatórios toma
relativamente simples a tarefa de obter-se Uiru!. amostra aleatória
de 1liW!. distribuição arbitrária, em virtude do resultado contido no
seguinte teorema.
Teorema 13.6. Seja X uma variável aleatória com fdp j e fd..F.
[Suponha que f(x) = O, z EE (a, b).] Seja Y a variável aleatóri&
definida. por · Y = F{X). Então, Y será uniformemente distribuída
sobre [0, 1]. (Y é denomin.ada a transformada integral de X.)
1
Demonstração: Desde que X
é uma variável aleatória contínua,
a fd F será. uma· função continua,
y=F(x)
estritamente monótona, com uma
função inversa, F- 1• Isto é, Y =
= F(X) pode. ser resolvida para X
em termos de Y: X = F- 1(Y).
(Veja a Fig. 13.3.) [Se F(x) = O
para x S a, defina~se F- 1(0) = a.
Semelhantemente, se F(x) = 1 para
x 2: b, defina-se F- 1(1) = .b.] Seja G a fd
definida acima. Então,
G(y)
=
P(Y
s y) = P[F(X) s y] = P[X s F- (y)] = F[F-l(y)] = y.
Conseqüentemente, a fdp de Y, g(y)
llOI:ll:lo resultado.
1
=
G'(y) = 1.
Isto estabelece
AMOSTRAS E DISTRIBUIÇÕES AMOSTRAIS I 32J
Comentários: (a) Vamos comentar, resumidamente', como um valor da variável aleatória Y é realmente observada! Observamos um valor da varhivcl
aleatória X, digamos x, e depois caléulamÓs o valor de Y = F(X) como sendo
y == F(x), onde Fé a (conhecida) fd de X. J
·
(b) O Teor. 13.6, enunciado e demOJ).Strado acima para variáveis alcat\Írias
contínuas, também vale para variáveis· aleatórias discretas. Uma ligeira aitéração deve ser feita na demonstração, porque ja fd de uma variável aleat6ria discreta
é uma função em degraus e não tem uma inversa
única. .
' .· · ·
I
.
Agora poderemos empregar o resultado acima, a fim de gerar
uma amostra aleatória de uma variável aleatória com distribuição
especificada. Também estudaremos ~omente o ca.So . continuo~ . Seja
X uma variável aleatória com fd F, Jda qual se :pede uma amostrl!>.
, Seja y1 um valor (entre O e 1) obtido!de uma tábua de números aleatórios. Porque Y = F(X) é uniformemente
distribuída
I
.· . sobre [O,
. .1],
.·..
poderemos considerar Yl como Uffi1;!. observa~,;ão daquel:J. variável
aleatória. Resolvendo a eq~ação Y11= F(xt) para x1 (o que é possível se X for contínua), obteremos um valor da variável aleatória
cuja fd é F. Continuando. este procedimento com os números
y 2, .••• y,. tirados de uma tábua dei números aleatórios, obteremos
x., i = 1, ... , n, como a solução da ~qunção y; = F(:r;), e, portanto,
teremos nossos valores amostrais desejados.
I
I
que Idesejemos
Exemplo 13.3. Suponha-se
obter uma amostra
de tamanho cinco, de uma variável aleatória com distribuição
N(2, 0,09). Suponha-se que obtenHamos os seguintes valores de
uma tábua de números aleatórios: oJ487, 0,722, 0,661, 0,194, 0,336.
Defina-se x 1 da seguinte maneira: '
.
0,487 =
=
V 2?r1 (0, 3)
1
v 21r
f%1_ ~ expli[ -
J(xl-2)/0,3
_~
ex~
I
t- 2)
21 ( ---o.3
2]
dt
(-s2)ds = <p(xl-0,3 2\.j
2
Das tábuas de distribuição normal, eJcontraremos que (x1 ~ 2)/0,3 =
= ~ 0,03. Conseqüentemente, x 1
0,03) (0,3) + 2 = 1,991.
Esse número representa nosso ppmeiro valor amostral da distribuição
especificada. Procedendo-se da mesma maneira com os outros valores, obteremos os seguintes valores amostrais adicionais, 2,177, 2,124;
1,742, 1,874.
\ .
+(-
O procedimento acima pode ser generalizado da seguinte maneira:
Para obter um valor amostral x1 da ;distribuição N(fl, u 2), obteremc;>~
,,':.I
..1.
I
d
!
1:
324 I IPROBABIUDADIE
um valor amostral y 1 (entre O e 1) de uma tábua de números aleatórios.
O valor desejado Xt será definido pela equação <t>[(xt - p,)/u] = Yt·
Ctnnentários: (a) Há mé.todos alternativos daquele sugerido acima, para a
geração de amostras aleatória.s de uma distribuição especificada. Veja o Probl. 13.8.
(b) Um dos aspectos que tornam útil esta resolução por "simulação" é m
possibilidade de obter-se uma amostra aleatória ba.stante grande. Isto será factível, especialmente se um computador eletrônico for disponível.
Exemplo 13.4. O empuxo T de um foguete · de combustível
sólido é uma função muito complicada de várias variáveis. Se X =
= área da· garganta, Y = fator da taxa de combustão, Z = área de
combustão de combustível sólido, W = densidade do combustivel
sólido, n = coeficiente de combustão, e C; = constante, i= 1, 2, 3,
poderemos exprimir T, da seguinte forma:
X
T
= G1 (
YWZ
)1/(n-1)
X
+ C2
(
X
. YWZ
)1/(n-1)
+ Ca.
Investigações anteriores tomaram plausíveis as seguintes hipóteses:
X, Y, W e Z são variáveis aleatórias independentes, normalmente ·.
distribufdas, com médias e variâncias conhecidas. Quaisquer esfor·
ços para obter a distribuição de probabilidade da variável aleatória X,
ou mesmo expressões exatas para E(T) e V(T) serão frustradas em
virtude da complexa relação entre X, Y, W, Z e T.
Se pudermos gerar uma .(grande) amostra aleatória de X, Y,
Z e W, obtendo-se quadras (X;, Y;, Z;, W;) por exemplo, poderemos
depois gerar a amostra grande de T, digamos (Tt, ... , T ,.) e tentar
<eStudar a característica da variável aleatória T empiricamente (em
termos da amostra).
Suponha-se, por exemplo, que desejemos calAplicando a Lei dos Grandes Números, neces~
sitaremos somente obter a freqüência relativa do evento I a ~ T :::; b l
lll partir de nossa. amostra {grande), e, depois, poderemos el't.ar ra:zoJJ>velmente certos de que eSta freqüência relativa difira pouco da probabilidade teórica que estejamos procurando.
~mlar
P(a
~
T
~
b).
Até aqui, estivemos a tratar somente do problema · de aproximação de uma probabilidade exata com a freqüência relativa blli.Beada
em um grande número de observações. Contudo, o método que sugerimos pode ser empregado para obter· soluções aproximadas de
problema.s, que sejam de natureza inteiramente não-probabilística.
Mencionaremos apenas um dos muitos tipos de problema.S que podem
ser estudados· dessa maneira. O tratamento é referido como o m&
'''_;_11!
'1
·',(i ~ i
l~
III
. :I ~
AMOSTRAS E msTIF!OBUOÇÕES AMOSTRA6S I 325
,.!.:
·;r
~;:hi.
todo de "Monte Cario". Uma excelente explicação deste método
está apresentada no livro Modem Mathematics for the Engineer, editado por E. F . JBeckenbach, McGraw-Hill JBook Co., Inc., New
York, :1.956, Cap. 12. O Ex. :1.3.5 foi extraido dessa obra.
Exemplo 13.5.
Suponha-se que desejemos calcular a integmK
J;/x dx, sem recorrer ao cálculo trivial para obtermos seu valôrl/2.
Procederemos da seguinte maneira. Obteremos, de 'lmia tábua de
números aleatórios, uma amostra aleatória da variável aleatória
uniformemente distribuida sobre [O, 1]. Admita-se que os valoi'e3
amostrais sejam: 0,69, 0,37, 0,39, 0,97, 0,66, 0,51,:..0,00, 0,41, 0,76 e
0,09. Visto que a desejada integral representa E(X), onde X é a
variável aleatória umiformemente distribuída que está sendo amostrada, parece razoável que poderemos aproximar E(X) empregando
a média aritmética dos valores amostrais. Encontraremos que
X= 0,545. (Se tivéssemos tomado w:na amostra maior, teriaml)s
boas razões para esperar maior precisão.)
Esta ilustração trivial apres~mta a idéia fundamental, por detrás dos vários métodos de Monte Cario. Tais métodos têm sido
frutuosamente empregados para calcular integrais múltiplas sobre
complicadas regiões e para resolver determinadas equaçõ.es diferenciais;
Comentário: Os recursos de obtenção de amostras de uma distribuição
arbitrária, como .foi explicado na SeÇão 13.5, podem se tornar bastante incômodos. Em virtude da grartde importância da distribuição normal, existem tábuas
disponíveis (veja a Tábua 7 no Apêndice) que eliminam uma grande parte dos
cálculos descritos. A Tábua 7 lista diretamente amostras da distribuição normal
N(O, 1). Esses valores amostrais são denominados desvios (ou afastamentos)
normais reduzidos. Se n valores amostrais x,, .. . , Xn de uma distribuição N(O, 1)
forem desejados, eles serão lidos diretamente da Tábua 7 (escolhendo.,se o ponto
de partida de alguma maneira razoavehnente aleatória, como foi explicado para o
emprego da Tábua de Números Aleatórios).
De forma óbvia, esta tábua também pode ser empregada para obter amostras
de uma distribuição normal qualquer N(p., a 2 ). Bastará multiplicar xi, o valor
escolhido na tábua, por a e depois somar J.L, isto é, formar Yi = axi + p. . Dessa maneira, Yi será um valor amostral da distribuição desejada.
Problemas
13.1. Deduza a expressão da fdp do mínimo de uma amostra. (Veja o
Teor. 13.2.)
,;_:J,i
!,~~~ll
- , • "I
,_.(itl~
I
:;:~ ~~iil\;.
·-'·t'L
, ·il•i!l
}: (~!1~ 11
il!~il:;: ! l ~ l
!!
jJI(U
1
l:i t'il'i
~ilri\1]
~~'.:~ -~r~ :
j::• l[• k
~ --~i· í:
,_
. r-
~h:' \
:. 111!1.
·.
Ji ' l'
;l\~!l~ i:
lfl \i,
326 I PROBABIUDADIE
13.2. Verifique que se X 11 .•. , Xn forem variáveis aleatórias independent-es,
cada uma tendo uma distribuição exponencial com parâmetro a;, i = 1, 2, . . . , n,
e se K = mín (X h .. . , X n), então fC terá uma distribuição exponencial com parâmetro a 1 + .. . + an. (Veja o Teor. 13.3.)
13.3. Suponha que X tenha uma distribuição geométrica eom parâmetro p.
Seja X 11 . .. , Xn uma amostra aleatória de X e sejam M = máx (Xl> ... , Xn) e
K = mín (X 11 . . . , Xn). Estabeleça a distribuição de probabilidade de Me de K.
[Sugestão : P(M = m) = F(m) - F(m - 1), onde F é a fd de 111.]
13.4. Uma amostra de tamanho 5 é obtida de uma variável aleatória com
distribÚição N(12, 4).
(a) Qual é a probabilidade de que a média amostral exceda 13?
(b) Qual é a probabilidade de que o mínimo da. amostra seja menor do que 10?
(c)
Qual é a probabilidade de que o máximo da amostra exceda 15?
13.5. A duração da vida (em horas) de uma peça é exponencialmente distribuída, com parâmetro f3 = 0,001. Seis peças são ensaiadas e sua duração até
falhar é registrada.
(a) Qual é a probabilidade .de que nenhuma peça falhe antes que tenham
decorrido 800 horas ?
(b)
Qual é a, probabilidade de que nenhuma peça dure mais de 3.000 horas?
13.6. Suponha que X tenha distribuição N(O, 0,09). Uma amostra de
tamanho 25 é obtida de X, digamos X1, .... , X26· Qual é a probabilidade de que
2:7:
1
X;~ exceda 1,5?
13.7. Empregando uma tábua de números aleatórios, obtenha uma amostra
aleatória de tamanho 8 de uma· variável aleatória que tenha as seguintes distribuições:
Exponencial, com parâmetro 2.
De qui-quadrado, com 7 graus de liberdade.
(c) N(4; 4).
(a)
(b)
13.8. Na Seç. 13.5, apresentamos um. método pelo qual amostras aleatórias de uma distribuiç_ão especificada podem ser geradas. Há vários outros métodos pelos quais isto pode ser feito, alguns dos. quais são preferidos em relação
ao apresentado, particularmente se equipamentos de cálculo estiverem disponíveis. O seguinte é um desses métodos: Suponha que desejemos obter uma amostra aleatória de uma variável aleatória que tenha distribuição de qui-quadrado,
com 2k graus de liberdade. Proceda assim: obtenha uma amostra aleatória
de tamanho k (com o auxílio de. uma tábua de números nJef!,tórios) de uma variável aleàt6ria que seja uniformemente distribuída sobre (0, 1), digamos ul, ... , uk.
A seguir, calcule X1
=
-2ln (U1U2 ... Uk)
=
-2
L7= 1 ln (U;).
A variável alea-
tória X 1 terá, então, a distribuição desejada, como indicaJ!emos abaixo. Prosseguiremos, depois, este esquema, obtendo outra amostra de tamanho k de uma variável aleatória uniformemente distribuída, e, desse modo, encontrando o segundo
valor amostral X 1 . Note-se que este procedimento exige k observações de uma
I
AMOS"fiFIAS E lODST~DBUDÇÕES AMOSTRAUS
I
327
I
I
I
variável aleatórilil uniformemente distribulda, pare cada obaervàçi!.o de x? 2~c.
Para verificar 1!1\ afirma.ç~ feitl!l\ 1!1\Cima, procede. \como seg~,te: 1
'
•
(a) Obtenh~t a funç!M> gere.triz de mom~n~ da varill.vel .aleátória -2ln (U,),
onde u, é uniformemente distribulda sobre (O, 1).
(b) Obtenh111 & função geratriz de ~omentos da ' -variável · ai.eatórii!l
_ 2 I:~= 1 ln (U;), onde os U 0 .si!.o variáveis ~leatórias independentes, cada um&
com a distribuição acim&. Compare esta fgm ~om a da distribuição de .qui-que.drsdo e, depois, chegue à conclusão desejada.
!
·, ·
13.9. Empregando o esquemm esboçado no' Probi. 13.8, obtenha ume am.ostre aleatória de tamanho 3, da. distribuição de x}l.
I
I
13.10. Uma ve.riáyel aleatória contínua 'X é uniformemente distril>uld&
sobre· ( -1/2, 1/2). Uma amostra de tamanho n \é obtida de X e a inédia I!Jilos~ral
X é calculada. Que.! é o desvio-padrão de X? I
·
·
.
!.. .
,;:
I
.
13.11. Amostras independentes de tamanllos 10 e 15 são tiradas de uma
ve.riável a.lee.tória norme.lmente distribulda., coni expectâncie. 20 e variância. 3.
Qual será a probabilidade de que as médie.s da.s ldua.s amostras difiram (em valor
: absoluto) de mais de 0,3?
i
'
13.12. (l'ara este exercício e os três segujntes, leia o Comentário no final
·do Cap. 13.) Empregue a tábua de desvios normhls reduzidos (Tábua 7, no Apêndice) e obtenha urna amostra de tamanho 30, de uma variável aleatória X que
tenha a distribuição N (1,4). Use esta amostra parÁ responder o seguinte:
I
.
I
I
(a) CompareP(X;;;. 2) coni a freqüência relativa do evento.
(b) Compare a média amostral J[ e . a vatiância amostral S 2 com 1 e 4,
respectivamente .
\
(c) Construa o gráfico de F(t) = P(X.;; t ,) . Empregando o mesmo sistema
;:...
· . de coordenadas, obtenha o gráfico da função de 4istribuição edzpz'rica Fn defmida
assim:
i
O, se t <X(l)
k/n, seX(k).;; t=X(k + l)
1, se t;;;. x<n\
i
i
..
na qual x<O é a i-ésima maior observação na atnostra (isto é, x<O é a i-éshna
estatística ordinal). [A função Fn é freqüentem~nte ·empregada para aproxinlar
a fd F. Pode-se demonstrar que, sob condições bastante gerais, limn __,. = F~(t) =
!
=F(t)-]
I
13.13. Admitamos que X tenha distribuiç~ N(O, I). Da Tábua 7 no Apên..,djce, obtenha uma amostra de tamanho 20 desta d~stribuição.
' ·
.
Faça Y = I X I.
.
I
(a) Empregue esta amostra para comparar P[1
relativa daquele evento.
I·
< Y.;; 2] com afreqüência
·
·
328 I IP'AIOlBABDi..O/CIAIOfE
(b) Compare E (Y) com a média amostral Y.
(c) Compare a fd de Y, a saber, F(t) = P(Y
< t),
com Fn, a fd empírica
de Y.
13.14. Suponha que X tenha distribuição N(2, 9}.- !\.dmita que X 1 , • • •
X 20 seja uma ainostra aleatória de X obtida com o auxílio da Tábua 7. Calcule
S2 =
1
n-1
t
,
(Xi- X')'
i=l
e compare comE(S 2 ) = 9.
13.15. Admita qu.e X tenha distribuição N(O, 1). Seja X 1 , •• , , X 30 uma
amostra aleatória de X Õbtida empregando-se a Tábua .7. Calcule P(X2 ;;;. . O, 10)
e compare esse valor com a freq üência relativa daquele evento.
·
Estimação
de
Pdrâmetros
Capítulo 14
No capítulo ãnterior, mencionamos que muito freqüentemente
uina amostra aleatória de uma variável aleatória X pode ser empregada com o objetivo de estimar um ou vários parâmetros (desconhecidos) associados à distribuição de probabilidade de X. Neste
capítulo, estudaremos·· esse probl~ma minuciosamente.
Para que se tenha em mente um exemplo específico, considere-se
a seguinte situação. Um fabricante nos forneceu 100.000 pequenos
rebites. Uma junta firmemente rebitada exige que o rebite encaixe
idêquadamente em sêu furo e, conseqüentemente, verifica-se algum
· transtorno quando o rebite tiver rebarbas. Antes de aceitar esta
rein~ssa, desejamo:; ter alguma idéia sobre a magnitude de p, a proporção de rebites defeituosos (isto é, com rebarbas). Procederemos
da seguinte maneira. Inspecionaremos n rebites escolhidos, ao acaso,
da partida. Em virtude do tamanho grande da partida, poderemos
admitir que escolhemos com reposição, muito embora isto na realidade não venha a ser feito. befmamos as seguintes variáveis aleatórias: X;= 1, se o i-ésimo item for defeituoso, e O, em caso contrário i= 1, 2, ... , n. Portanto, pode:::emos considerar X 11 . • • , Xn como
uma amostra da variável aleatória X, cuja distribuição é dada por
P(X = 1) = p, P(X = O) = 1 - p.
A distr~buição de probabilidade de X depende do parâmetro
desconhecido p, de uma maneira muito simples. Poderemos emprea amostra X 11 . . . , X .. para, de algum modo, estimarmos o valor
p? Existe alguma estatística H, tal que H(X 1, •.• , Xn) possa
.ser empregada como uma estimativa ('por ponto) de p?
Seria óbvio que uma amostra de tamanho n, onde n < 100.000,
nunca nos pemitiria reconstruir a compos{ção real da remessa, não importa quão esclarecidamente utilizássemos a informação obtida da
330 I PR OBABIUDADE
amostra. Em outras palavras, a menos que inspecionássemos cada
it~m (isto é, tomássemos n = 100.000) nunca poderíamos conhecer
o verdadeiro valor de p. (Esta última afirmação se refere obviamente à amostragem sem reposição.)
Conseqüentemente, quando propomos
como uma estimativa
de p, não esperamos realmente que venha a ser igual a p. (Recordemos que p é uma variável alea:tória e, por isso, pode tomar diferentes valores.) Este dilema origina duas importantes questões :
p
p
(1) Quais as características que desejamos qw~ 'uma
estimativa apresente?
(2) Como decidiremos que uma estimativa é "melhor"
outra?
Já que esta poderá ser a primeira vez que o leitor tenha encontrado .
questões deste tipo, parece valer a pena comentar resumidamente a :
natureza geral deste problema.
Para muitas questões matemáticas há uma resposta definida.
Esta pode ser muito difícil de encontrar, abrangendo muitos problemas técnicos, e poderemos ter de nos contentar com uma aproximação. Contudo, é comumente ·evidente quando temos uma res- '
posta e quando não a temos. (Por exemplo, suponha-se que se peça .
encontrar uma raiz real da equação 3x 5 - 4x 2 13x- 7 =O. UI.lla .·
vez que se tenha achado uma solução, é muito simples verificar se
ela é a solução correta: precisaremos somente substitui-la na
dada. Se tivermos duas respostas aproximadas, .digamos r1 e r2, será
também assunto simples ·decidir qual das aproximações é a melhor:)
No entanto, o presente problema, a saber a estimação de p, não
admite uma análise tão simples. Em primeiro lugar, porque nunca
poderemos (ao menos em uma sit.\.Iação concreta) conhecer o verda..,
deiro valor de p, não fará sentido dizer que nossa estimativa p seja .
"correta". Segundo, se tivermos duas estimativas de p, por exemplo.
Px e P2, deveremos achar alguma maneira de decidir qual delas é
'·melhor". Isto significa que deveremos estipular algum critério, .
que poderemos aplicar para decidir se uma estímativa deve ser preferida à outra.
+
1.4.2. Critérios Para Estimativas
Agora definiremos alguns conceitos importantes
liarão a resolver os problemas sugeridos acima.
..)
IESTIMACÃ9 IClliE PAIPlÂM~TROS I 33~
1
..... .
i
Definição. Sejà X uma variável aleatóri~ com alguma distrib~tção
de probabilidade que dependa de um par~etro desconhecidà. Seja
X 1 , ••• ,Xn uma amostra de X, e sejamx 1 , •• ! . ,xn os correspondentes
valores amostrais. Se g(X1 , ••• , Xn) for um~ função qe amostra a ser
empregada para estimação de e, nos referiremds a g como um estimador
de e. O valor que g assume, isto é, g(x 1 , • • l xn), será referido como
uma estimativa de e e é usualmente escrito Jsim: ê = g(x 1 , .•• , xn).
(Veja o Coméntário seguinte.)
.
\
Cqmentdrio: Neste capítulo, nós transgredir~mos uma regia que t~mos
respeitado bastante cuidadosamente até aqui: fazer uma distinção cuidadosa entre
uma variável aleatória e o seu valor. Assim, freqüeptemente falaremos de Q, a
estimativa de e, quando desejaríamos realmente falar ilo est4uadorg(X1 , ••• ,Xn).
Desta maneira, escreveremos E(Ô) quando, naturalmente, queremos significar
••• , Xn)]· Contudo, o contexto no qual no ~ permitiremos esta liberdade
eliminará qualquer possível ambigüidade.
E[g(X 1 ,
I
Definição. Seja ê uma estimativa do patâmetro desconhecido e
associado com a distribuição da variá':~l aleat~ria X Neste caso, e será
um estimador não-tendencioso (ou uma es:f!ativa não-tendenciosa;
veja o Comentário precedente) de e, se forE(B) =e para todo e.
I
';"; ·r_
';,:
•
Comentário: Qualquer boa estimativa deve ser ..próxima" do valor que
está sendo estimado. "Não-tendenciosidade" signifj.ca, essencialmente, que o
valor médio da estimativa será próximo do verdadeiro valor do parâmetro. Por
áemplo, se a mesma estimativa for empregada rep~tidamente e promediarmos
esses valores, esperaríamos que a média fosse próxima do verdadeiro valor do
parâmetro. MuitQ embora seja desejável que uma ~stirnativa seja não-tendenciosa, haverá ocasiões em que poderemos preferir estimativa tendenciosa (veja
abaixo). :E: possível (e na verdade muito facilmente Úito) encontrar mais de uma
estimativa não-tendenciosa para um parâmetro desqonhecido. A fim de realizar uma escolha plausível em tais situações, introduziremos o seguinte conceito.
I
~
I
Definif!o. Seja e uma estimativa não-tf ndenciosa de e. Diremos que e é uma estimativa não-tendenciosa, de variância mz'nima
de e, se para todas as estimativas e* tais qÓe E(e *) = e, tivermos
V(B) < V( e*) para todo e. Isto é, dentre todJs as estimativas não-tende e' e tem
a variância menor de todas.
denciosas
.·
.
'
~
Comentdrio: (a) A variância de um~ variáved aleatória mede a variabilidade da variável aleatória em tomo de seu. valor es~erado. Por isso, exigir que
uma estimativa não-tendenciosa tenha variância pequ1ena é intuitivamente compreensível. Porque se a variância for pequena, então q valor da variável aleatória
tende a ser próximo de sua média, o que no caso de unia estimativa não~tenden- · ·
,.ciosa si~ifica próxima do valor verdadeiro do parâmefro. Assim, se (J 1 e ê 2 forem
332
I lf>ROBA\B!UIOAIDE
duas estimativas de O, cuja fdp está esboçada na Fig. 14.1, presum1velmente pre-
ferirí~mos ~ a
é;.
Ambas as estimativas são não-tendenciosas, e V(Ô!)
< V(Ô2).
8
8
Fig. 14.2
Fig. 14.1
No caso das estimativas Ô3e Ô4, a decisão não é tão evidente (Fig. 14.2), porque
A
A
A
'"
63 é não-tendenciosa, enquanto 84 não o (\. Todavia, V(8,) > V(84). Isto significa que, enquanto em média Ôa será próxima de 8, sua grande variâ~cia revela
que desvios consider-áveis em relação a 8 não serão de surpreender. 84, por sna
vez, tende a ser um tanto maior do que fi, em médin, e no entanto, poderá ser mais
próxima de 6 do que é; (veja a Fig. 14.2).
(b) Existem alguma.~ técnica.~ gerais para encontrar ·estimai ivas não-tendenciosas de variância mínima. Contudo, não estamos capacitados a explicar isso
aqui. Fl!.l'emos uso deste conceito principalmente com a finalidade de escolher
entre dW!B ou mais llStimS.tivas não-tendenciosBB disponíveis. Quer dizer, se
Ô1 e 2 ~rem ambas estimativas não-tendenciosas de e se V(Ô1) < V(Ô2), preferiremos 81•
o:
0
Outro critério para julgar estimativas é um tanto mais difícil de
formular e é baseado na seguinte definição.
-
DefiniÇão. Seja
e urna
estimativa
(ba~eada
em uma amostra ·
X1, ... , Xn) do parâmetro e. Diremos que () é urna. estimativa coerente de 8 se
lim Prob [ jÔ- 8 I
>
ti:] = O
para todo e
>O
ou, 'equivalentemente, se
lim Prob [jÔ- ej ~ti:]
n->"'
1
para todo "'
> O.
Comenl.ários: (a) Esta definição declara que um& estimativs será coerente
se, à medid& que o tamanho da amostra n for aumentado, 'a estimativa Ôconvergirá
para 8, no sentido probabilístico acima. Esta é, também, um& característica
intuitivamente compreensível que uma estimativa deva possuir, porque ela diz
que à medida que o tamanho da amostra crescer (o que significará, n& maioria de
circunstâncias razoáveis, que mais informação se torne diSponível) a estimativa
se tofnará "melhor", no sentido indic&do.
(b) É relativamente .fácil verificar se uma estimativa é não-tendenciosa ou
tendenciosa. Também é bastante imediato ·comparar as variâncias de duaa estimativas não-tendenciosas. Contudo, verificar a coerência, pela aplicação da def'mição acima, não é tão simples. O teorema seguinte é muitas vezes bastante útil.
!ESTiMAÇÃO DIE IP'AIRAMHROS I 333
Teorema 14.1. Seja ê uma estimativa de e baseada em uma amostra de tamanho n. Se Iimn .... ""E(ê) =e, e se Iimn .... "" V(ê) =O, então
ê será uma estimativa coerente de e.
Demonstração: Empregaremos a desigualdade de Tchebycheff,
Eq. (7 .20). Assim, escreveremos
P[l
~
1
2
ê- e1:;:;;.€],;;- E[ e- e] =
€2
I
c·
~
.
·~
=-E[8-E(e)+E(e)-e]2 =
€2
~
.
1
•
•
•
•
•
= - E{[e-E(e)y +2[8 -E(e)][E(8)-e]+
é
.
+ [E(ê)-8] 2 }=
1
•
·-..
= -€2 I V ar e + o+ [E (e) - e]2 }.
Portanto, fazendo n -+
encontraremos
oo
e empregando as hipóteses do teorema,
e, por isso, igual a O (zero).
Comentário: Se a estimativa
tará automaticamente satisfeita.
ê for não-tendenciosa, a primeira condição es-
Um último critério, que é freqüentemente aplicado a estimativas,
pode ser formulado da seguinte maneira: Suponha-se que X 1 , . • . , Xn
seja uma amostra de X e que e seja um parâmetro desconhecido. Seja
.ê uma função de (X1, ... , Xn).
Definição. Diremos que
linear de e se:
(a) E(ê) =e.
(b)
ê
é a melhor estimativa não -tendenciosa
.
ê = 'L7= 1 aixi. Isto é, ê é uma função linear da amostra.
(c) V(ê).;;;; V(8*), onde e* é qualquer outra estimativa de e que
a (a) e (b ), acima.
~atisfaça
I
:11
334 I PROBABILIDADE
Subseqüentemente, estudaremos um método bastante geral que ·;;:t~
fornecerá boas estimativas em um grande número de problemas, no ~~
sentido de que elas satisfazem a um ou mais dos critérios acima. ~~
Antes, porém, vamos examinar algumas estimativas que são intuiti- 'ifj
vamente mW.to razoáveis, e verificar, a seguir, quão boas ou más elas .)t~
são em termos dos critérios acima.
~~
I
14.3. Alguns Exemplos
Os critérios anteriores de não-tendenciosidade, vanancia mínima, coerência e linearidade nos . dão, ao menos, algumas diretrizes
para julgarmos uma estimativa. Vamos agora ex~minar alguns
exempl os.
:t/i
~~
:~t
•:\!Mi
_';~~~~
Vamos reexaminar o problema anterior. Nós ti- ~\}~:
·~:
ramos uma amostra de n rebites e encontramos que a amostra 'i~~~
(X 11 , •• Xn) apresentou exatamente k defeituosos; quer dizer Y =
Exemplo 14.1.
'J''-fllI
= .L?=l X;= k. Em virtude de nossas hipóteses,· Y é uma va- ~~"~
riável aleatória binomialmente distribuída.
;~
·}.{~R-
.
A estimativa do parâmetro p, intuitivamente mais sugestiva,. y~
, "
•
.,;>lF.J
e p = Y/n, a proporção defeituosa encontrada na amostra. Vamos. i~~
apli~ar ~guns dos critérios anteriore§, para ver quão boa é a es:ti- ~:~~~
matlva p.
\ i.il
Portanto,
p é uma estimativa não tendenciosa de p.
V(p)
=
v( Y)
=
n
n
__!_.(np)(l - p)
2
=
p(l- p)
n
Por conseguinte V(p) -7 O quando n -7 oo, e, por isso, p é uma esti- ;~
mativa coerente. Como já salientamos· anteriormente, poderão exis- ~
tir muitas estimativas não-tendenciosas para um parâmetro, algum:J;
das quaiS poderão ser, no entanto, bastante insatisfat6rias. Con~ :WJ
sidere-se, por exemplo, no contexto do presente exemplo, a estima- j~~
tiva p* assim definida: p* = 1 se o primeiro it~m escolhido for de:- ~!
feituoso, e igual a O no caso contrário. Fica eviden.te que esta não é · ·~
uma estimativa muito boa, quando notamos que seu valor é apenas ~~
uma função de X1, em vez de XiJ ... , Xn . . No entanto, p* é não- JI
-tendenciosa, porque E(p*) = lP(X = 1) OP(X = O) = p. A va- '~
riância de p* é p(l- p), a qual se compara muito mal à variância de p (l~l
apresentada acima, a saber p(l - p)/n, especialmente se n for grande~ (o~
·;g
+
ii
I
ESTIMAÇÃO DE PARÂMETROS I 335
I
o resultado
obtido no exemplo acima é um caso particular do
seguinte enunciado geral:
.
I
Teorema 14.2. Seja X uma variá;vel aleatória com expectância
finita JJ. e variância u 2 • Seja X a média amostral, baseada em uma
amostra aleatória de tamanho n . Nesse caso, X será uma estimativa
não-tendenciosa e coerente de Jl..
I
·
Demonstração: Isto decorre imediatamente do Teor. 13.1, no
qual demonstramos que E(X) = Jl. e V(X) = u 2jn, a qual se aproxima
ele O quando n ~ . co.
1
.
Comentário: .Verifica-se que o resultado dl monstrado no Ex. 14.1 é um caso
particular do Teor. 14.2, quando observamos que a propor~ão defeituosa ns. limos. tra, Yjn, pode ser escrita na forma (1/f&) (X1 j+ ... + Xn), onde os· X; tomam
os valores um e zero, dependendo .de ser ou não defeituoso o item inspecionado.
.
I
A média amostral mencionada no Teor. 14.2 é uma funÇão linear
da amostra, isto é, ela é da forma a1X1 + a 2X 2 + ... + anXn com
a1 = .' .. = an = lfn. Vê-se facilmente\que P, = L~-l aJ(, constitui
· ~ma
estimativa não-tendenciosa de Jl. para
qualquer escolha dos coe..
I
ficientes que satisfaçam à condição L?=l a,= 1. Surge a s~guinte e
1
interessant~ qu~stão: Para qual escolha idos a; (sujeitos a -~i.:.1 a; = 1)
sez:á a vanânCJa de Li= 1 a.X; a menor possfvel? · Venfwa-se que a
. variância se tornará mínima se a;= 1/nlpara todo i. · Isto é, X constitui a estimativa linear, não-tendenciosa, de .variância mÍ'llÍma.
Para verificar 1sso, considere~se
M=
t a;X;,
i=l
n
E
<i=l
a·= 1
l
Portanto ,
visto que OS Xi são variáveis aleatórias independentes com V!Uiância
comum a2 • Escreveremos
1
'Ê af = (a1 i=l
1/n)2 + .. 1. + (an - 1/n)2 +
I
i
·
2
+(2/nXal + ...l+an)-n(l/n )=
I
= (a 1 ...:... 1/n? + .. ~ + (an - 1/n)2 + 1/n~
--
336 I lf'ROBAI86UDADIE
(porque
L"
a1
= 1).
i=l
Portanto, esta expressão é evidentemente minimizada se for a.=
I
para todo i.
= 1/n,
Exemplo 14.2. Supo~ha-se que T, a duração até falhar de um
componente, seja exponencialmente distribuida. Isto é, a fdp de T ·
é dada por j(t) = {je-~ 1 , t ~ O. Suponha-se que ensaiemos· n desses
componentes, registrando a duração até falhar de cada. um, T 1,, .. , T n .
Desejamos uma estimativa não:-tendenciosa da duração até falhar
esp~rada, E(T) = 1/{j, baseada na amostra (T1, ... , Tn). Uma dessas .
estimativas será T = (1/n)
Do Teor. 14.2 sabemos que .·
E(T) = 1/{:J. Visto que V(T) = l/{j 2 o Teor. 13.1 nos diz que
V(T) = l/(j2n. Porém, T não é a .única estimativa não-tendenciosa
de 1/{:J. De fato, considere-se o mrnimo da amostra a saber.
Z = mín (Th ... , T.,.). De acordo com o Teor. 13.3, Z será também
exponencialmente distribuída com parâmetro n{j. Conseqüentemente,
E(Z) = 1/n{:J. Portanto, a estimativa nZ constitui também uma
estimativa não tendenciosa de 1/fJ.
I::-tT;.
Para calcular sua variância, tomemos
··
V(nZ)
=
n 2 V(Z)
=
n2
1
- - .-
(nfJ)2
1
= -. .
{P
Assim, muito embora as dua.S estimati~as nZ e T sejam ambas não-' ·.
-tendenciosas, a última tem menor variância e, por isso, deverá ser
preferida. '
Não obstante, nesta particular situação há outra razão que
poderá influenciar nossa es_coiha entre as i:luas estimativas sugeridas.
Os n componentes podem ser ensaiados simultaneamente. (Por
exemplo, poderemos inserir n lâmpadas em n soquetes e registrar
sua dura'ção até queimar.) Quandó' empregarmos nZ como nos;;a ·
estim:tLiva, o ensaio poderá estar terminado tão logo o primeiro componente tenha falhado. Ao empreganrlos T como nossa eRtimativ~.
deveremos esperar até que todos os componentes tenham falhado.. É
perfeitamente concebível que um longo pkriodo de tempo exista PntrP : .
a primeira e a última falha. Explicando 1de outro n:todo: se L .for o '
tempo necessário pa.ra ensaiar os n itens, e ca~cularmos a estimativa ·
para 1/{j, então, empregando nZ, teremos L = rnin (T 1 , •. • , T n), en- ·
quanto se empregarmos T teremos L= máx (TI> . .. , Tn). · Portanto,
· se o tempo necessário para executar os ensaios acarretar qualqurr
!ESTIMAÇÃO DE PARÃMETROS I 33J
~onseqüência séri& (em texmos de custo, pol!' exemplo), poderem~a
preferir a estimativa com maior variância.
Exemplo :14.3. Suponha-se que desejemos u.ma estimativa nio,.tendenciosa da variân~~a U 2 de unm variável aleatória, baseada em
· , uma amostra X h ••• , X ...
.. ·. · . Muito embora intuitivamente pudéssemos considerar (i/n)L~=l
(X; - X) 2, verifica-se que esta .estatística tem um valor esperado ·
· igual a [(n - l )/n]cr 2 • (Veja o Teor. 13.4.) Por isso, uma estimativa
rÚí.o-tendenciosa de o- 2 será obtida tomando-se
,.. = ___
1
~
q2
L:-J
n- 1
- .
(X,; _ X)2
i=l
Camentári.oo: (a) Muito embora dividir-illl por (n - 1) em vez de faz~lo
por n acarrete diferenç& quando n for relsti;,amente pequeno, pare n mruor fará
pequena diferença empregar-oo qualquer desslliS estimativas.
. . . (b) O Ex. 14.3 ilustra uma situação bast&nte....,comum: POde acontecer que
urna estimativa para um parâmetro {J, digamos {J, seja tendenciosa no sentido
de 'que E(~)= k{3 ; nesse caso, simplesmente consideraremos uma .nova aJtimativa
{]f/., .·a qual
será, en:tão, não-tendenciosa. ..
·
.
. (c) · Pode-tre verificar, muito embora não o tenhamos feito aqui, que m estj. mativa de 0'2, acima, é coerente.
Tab.
k
o
1~.1
7
8
9
10
11
Total
57 203 383 525 532 408 273 139 49
27
10
6
2.612
1
2
3
4
5
6
- - - - -- -- - - - - - - -- -- - - - - ---- - 11)\;
Exemplo 14.4. Na Tab. 14.1, reproduzimo~ os dados obtidos
no famoso experimento realizado por Rutherford [Rutherford and
· Geiger, Phil. Mag. §6 9 20, 698 (1910)] sobre a emissão de párticulas 01.
por. uma font~ radioativa. Na tabela, k é o número de partículas
•..•. . observadas em uma unidade de tempo [unidade = (1/8) minuto],
·; ·enquanto n,, é o número de intervalos, durante os quais k partículas
,.. foram observadas. Se fizermos X igual ao. número de partículas
: ~mitidas durante o intervalo de tempo de 1/8 (minuto) e se admitirmos
:>;qúe X tenha uma distribuição de Poisson, teremos
~-t:
.
.
e- (1/s>~(
+xt ·
k!
P (X = k) =
ij;:Desde que E(X) = (l/8)À, poderemos empregar a média amostral
if;,para obter u.ma estimativa não-tendenciosa de· X/8. Pali"a À, obte!t#mos então a estimativa À=
sx.
t\ ...
338 I PROBABiUDADE
Para calcular X simplesmente avaliamos
~11
L...Jk=okn~c
~ 11
=
3,87 particulas.
~k=O n1c
Portanto, uma estimativa não-tendenciosa de À baseada na média
amostral é igual a 30,96 (que pode ser interpretada como o número
esperado de partículas emitidas por minuto).
Exemplo 14.5. Na fabricação de explosivos, poçle ocorrer um.·,
certo número de ignições, ao acaso. Seja X o número de ignições :
por dia. Admita-se que X tenha uma distribuição de Poisson com ·
parâmetro À. A Tab. 14.2 fornece alguns dados que devem ser
pregados na estim~ção de À.
em-
Tab. 14.2
Número de ignições, k
Número de dias qom lc ignições,
n~c
o
-75
1
90
2
3
4
5
6
Tot8.1
54
22
6
2
1
250
-- --
Novamente empregando a média amostral para a estimativa .
de À, obteremos
Ç' "--..,. .
"'
L~.:kn~c
--=.~-'- =
Lknk
1,22 número de ignições por di;:t.
Tab. 14.3
Cinzas Contidas no carvão
X
n,
X
n,
X
n,
9,25
1
9,75
10,25
2
10,75
1
11,25 11,75
2
1
12,25
5
12,75 13,2& 13,75
4
7
6
14,25
13
14,75
15,25
15
15,75
13
16,25 16,75
15
24
17,25
19
17,75 18,25
. 22
23
18,75
12
19,25
12
1(),7.5 20,25 20,75 21,25 21,75 22,25
2
6
4
7
6
8
22,75
2
23,75
3
- -1 a;
24,25
nx
o
Total ·
de
amostras 250
o
14
-24,75
o
~
4
25,25
1
I
23,25
o
I
-
•
ESTI,AÇAO DIE IP'ARAMIETROS
I 339
Exemplo 14.6. Verificou-se que a kuantidade de cinzas contidas
no carvão é normalmente distribuída :com parâmetros p, e u2. Os
dados da Tab. 14.3 representam o conteúdo de cinzas em 250 amos. tras . de carvão analisadas. [Dados exttaidos de E. S. Grumm~l and
Â-· C. Dunningham (1930), British S~andards Institution 4!03, 17.]
é O nÚme<i'O de amostras que tinham X por cento de COnteúdo de
nz
~inzas.
I
A fim de estimar os parâmetros p, ~ u\ empregaremos as estima't ivas não-tendenciosas explicadas anteriormente
.
"
p,=
I
250
16,998,
"2
_\_249
1_ ""' nz(X - p,")2-- 7,1.
U - ,
L,
I
"'
Comentário: Stlponha-se que tenhamos ~ma estimativa não-tendenciosa, Ó:
Pode acontecer que estejamos r~almente interessados em
. estimar alguma função de 6, digamos. g(6). [Por exemplo, 1se X for exponencial. ·.jnent~ distribuída com pa~âmetr~ ~~ estaremos lprovavelm~n~. intetess~os .em .l/6,
a saber E(X).l Poder-;:;e-1a admitir que tudo rque necessrtanamos sena ·.conside1/Ô ou (ê)2' por exemplo, corno as estirn~tivas ~ão-tendenciosas apropriadas
para 1/0 ou (6)2. Isto, definitivamen_te, nao é jassim. Na verdade, uma d~ desvantagens do critério de não-tendenciosidade é que, se tivermos encontrado uma
1
.·. estimativa. não-tendenciosa de 6, deveremos, ;em geral, recomeçar do princípio
para encont' armos uma estimativa de g(IJ). !Somente se g(O) = ufJ
b, isto é,
'(lé. um parâmetro O.
rar
+
·somente se"'g for um~Junçã.o linear de O, será ~erdade q~e ElofoJJ = y[E(Ô)J. Em
'geral, E[g(8)]
g [E(O)]. Por exemplo, supon!m-se que X seja uma variável
, aleatória com E(X) = !J. e V(X) = u 2 • Já ·vimos Que a méqia amostral X. é uma
. estimativa não-tendenciosa de p.. Será XJ um~ estimativa não-tendenCiosa de !J..
· Será XJ uma estimativa não-tendenciosa de . ~!i)2 ? A resposta é "não'', como
·
o cálculo seguinte.
*
I
Desde que V(X) = E(X) 2
.
E(XY "" V(X)
-
[E(X')J2, terezrios
+ [E(X)]2 =
f++ (!J.J2 >"' (p,J2.
u2
embora os exemplos acima mostrem, bastante conclusivamente, que
i
í
E[g(Ô)] r" g[E(í)],
que em muitos casos a igualdade rale, ao menos aproximadamente,
se o tamanho da amostra for. gr~nde. Por exemplo, no ca,so acima
encontramos [com ê =X e g(z)
z2 ] que E(X) = p. e . E(X) 2
+ u 2{n, a qual será aproximadamente igu~l a !i2 se n for grande.
;=
=
I
I
',
Estimativas de Máxima iVerossimilhanÇa
I
Nós estudamos apenas alguns critérios pelos quais poderemos
1
uma estimativa. Quer dizer, dada uma estimativa proposta
I
340 I II"IFIOI3A.IBHJIDlADIE
para um parâmetro desconhecido, poderemos verificar se ela é nãoe coerente, e poderemos calcular (ao menos, em princípio) sua variância e compará-la com a variância de outra estimativa. , .
No entanto, não dispomos ainda de um procediJ;nento geral, com o
qual possamos encontrar estimativas "razoáveis". Existem vários
desses procedimentos, e exporemos um deles, a saber, o método da
máxima verossimilhança. Em muitos casos, .este método conduz a
estimativas razoáveis.
A fim de evitarmos repetir nossa exposição para o caso discreto .·
e o contínuo, vamos concordar em estabelecer a seguinte terminologia
para os objetivos da presente exposição.
Escreveremos j(x; O) quer pata a fdp de X (calculada no ponto x)
ou para P(X = x) se X for discreta. Incluiremos e (na notação)
com a finalidade de nos lembrarmos que a distribuição de probabilidade de X depende do parâmetro
em relação ao qual estaremos
interessados.
Seja X I, . . . , Xn uma amostra aleatória da variável aleatória X
e sejam xb . .. , Xn os valores amostrais. Definiremos a função de
verossimilhant;a L, como a seguinte função da amostra e de (J:
-tendencio~a
e,
(14.1)
Se X for discreta, L(x~, .. . ' Xn; e) representará P[XI = XI, .. . ' Xn= 'znl;
enquanto se X for contínua, L(x~, . .. , xn; e) representará a fdp conjunta de (Xt, ... , Xn).
Se a amostra (Xt, . .. , Xn) tiver sido obtida, os valores amostrais (XI, ... , Xn) serão COnhecidos. Já que (J é desconhecido, poderemos
nos prop0r a seguinte questão: Para qual valor de e será L (x 1 , .• • , Xn;
8) máxima? Colocando-a de maneira diferente, vamos supor que
dispomos de dois. valores possíveis de 8, digamos 01 e 82. Vamos .
admitir, além disso, que L(xi, .. . , Xn;OI) < L(xi, .. . , xn;02). Nesse
caso, preferiríamos 02 a (h, para os valores amostrais dados (xi, . .. , Xn), ·
porque, se (}2 realmente for o verdadeiro valor de então, a probabilidade de obter valores amostrais tais como aqueles que obtivemos é
maior do que se 01 for o verdadeiro valor de O. Dizendo sem muito
rigor, preferiremos aquele valor do parâmetro que torne o mais provável possível aquele evento que de fato tenha ocorrido. Assim, deseja- ·
remos escolher o valor mais provável de 8 depois que os dados sejam .
obtidos, admitindo que cada valor de e fosse igualmente provável antes
que os dados fossem obtidos. Estabeleceremos a seguinte definição ·
formal:
e,
EST~MÀIÇÃO DE PARÂMETROS I 341
Definição. A estimativa de mauma verossimilhança de O, isto
é, Ô, b'lSeada em uma amostra aleatória X,, . .. , Xn é aquele valor de .
8 que torna máxima L( X 17 ••• , X n; 8), considerada como uma função
de O para uma dada amostra X,,. .. , XR, onde L é definida pela
Eq. (14.1). (Esta estimativa é, geralmente, referida. como a estimativa de MV.)
Comentários: (a) Naturalmente, ê será uma estatístit>a e, por isso, uma variãvel aleatória, já que Sell valor dependerá. da amostra (Xh · . . , Xn). (Não con~ideraremo~ uma constante como solução.)
e
(b) Na maioria de nossos exemplos,
representará_um número. real isolado.
·· Contudo, pode acontecer que a distribttição de probabilidade de X dependa de
::_"-'dois ou mais valores de paràmetros (como se dá, por exemplo, com a distribuição
-~~rmal). Em tal caso, IJ P,oderá representar um vetor, por exemplo, (J
(01, {3) ou
O :.. (01, {3, 'Y) etc. ·
=
(c) A fim de encontrar a estiTi1ativa de MV, deveremos determinar_ o valor
máximo de uma função. Conseqiientl"mente, em muitos · problemi!.S, poderemos
nplic11or alguma das técnicas usuais do Cálculo para a<'harmos esse máximo. Visto
que l.n :i é uma função crescente de :r,
ln L(X11 ., . . , X,.; 6)
e
alcançará seu valor máximo para o mesmo valor de que o fará com L(X11 . .. ,Xni 0).
Por isso, sob condições bastante gerais, adnútindo-se que seja um número real
e que L( X" .. . , Xn; 8) seja uma função deriváv~l de 6, obteremos e estimatívm
.. d,e MV Ô, pela resoluç.ão dt>
e
a ln L(Xh- ., Kn; 6) =O
ao
que é conhecida como fiJ.!laçao de
(\4.2)
verossimilhom~.
Se IJ = (a, {J), a equaç_ã o acima de:ver6, ser substituída pele,s equa.ções simul~
tàneas de verossimilhança .
a
éJa ln L(XI> .. . , X,..; Ci /3) =O,
(14.3)
a
ap ln L(X" .. . , X,.; a, {J) ., O.
Deve-se novamente salientar que a orientação acima nem sempre
No entanto, em um grande número de exemplos im(alguns dos quais apresentaremos muito em breve), este
fornece, com relativa facilidade, a desejada estimativadel:\fV,
das estimativas de mdx~ma verossimilhança:
A estimativa de MV pode ser tendenciosa. Muito freqüental tendenciosidade pode ser eliminada pela multiplicação
uma constante apropriada.
342 I IP'ROBAB9t.JDADE
(b) Sob condições bastante gerais, as estimatÍ\'as de l\'KV são
coerentes. lsto é, re o t11.manho da amostrn sobre a qual essas esti·
mativas tenham sido calculadas for grande, a estimat.Í\':l de }IV
''próxima" do valor do parâmetro a ser estimado. (As estimativas ·•
de MV possuem outra propriedade de "grandes amoi"tras" muito im.
portante, a qual apresentaremos depois.)
(c) As estimativas de MV apresentam a se~inte propriedade de ·
invariância muito importante: Suponha-se que (} seja a estimativa .
de MV de
Nesse CMO, pode-se mostrar que a estimativa de l\[V
de g(O), onde g é uma função monótona contínua, é g(ê). Assim, se
estaticista (ou O estatístico) A faz sua mensuração em metros quadrados ·
(m2 ), o estaticjsta B mede em metros (in), e se a estimativa de MV de
A for e' então, estimativa de B será ft. Lembre-se de que as \O.:>Luuauvas não-tendenciosas não gozam desta propriedade.
e.
a
Vamos agora estudar alguns exemplos importantes de
tivas de MV.
Exemplo 14.7. Suponha-se que a duração até falhar, T, de um
componente tenha distribuição exponencial com parâmetro {3. Por- ·
tanto, a fdp de T será dada por
• j(t)
= {Je-:J',
t ~ O.
Suponha-se que n desses componentes sejp.m ensaiados,
as durações ·até falhar T 11 •• • , Tn. Conseqüentemente,
verossimilhança desta amostra será dada por
L(T11 ••• ,Tn;{3)= {Jnexp ( - {3
'tri).
•=1
Dai, ln L
= n ln {3
-
fJLf=I
() ln L = _!!:_ iJ{J
{3
T;.
Portanto,
i:, T;
i=l
e
iJlnL =
ar
0
fornece § = 1/T, onde T é a média amostral das dur:~ções até
Já que o valor esperado de '1', a média da duração até falhar, é
por 1/{3, encontmremos, empregando a propriedage dn in
das estimativas de l\IV, que a estimativa de ·MV de E('l') é dada
T, a média amostral. Sabemos que E(T) = 1/{3 e, por i~so, T,
estimativa de MV de E(T), é não-tendenciosa.
Comentário: Em geral, não é fácil achiu a distribuição de probabilidade
estimativas de MV, particularmente se o tamanho da amostra fór pe.queno.
n for grande, verificaremos que uma resposta geral será. viável.) Contudo,
IESTIM.f!>ÇÃO DE PARÂMETROS I 343
iI
presente exemplo, seremos co.po.zes de obter a distribuição da estimativa de l\!Y
qJe
distribuição
.de
.. Do Corolário - do Teor. 10.9, encontraremos
I 2n{JT . tem
.
,_ ·' . . .
. .. x;.n .
·. Portanto, P(T < t) = P(2n(JT < 2n(Jt). Esta prob~bilidade poderá ser direta·• mente obtida da tábua da distribuição de qui-qukdrado se {Je i forem conhecido$.
n;
I
Exemplo 14.8. Sabe-se que uma 6erta proporção (fixa), p, de
granadas é defeituosa. De uma graJJ.d~ partida de granadas, n são
escolhidas ao acaso e ensaiadas. Defi~am-se as seguintes trariáveis
1
· :â.leatóriâs:
X;= 1 se a i-ésima granada for d~feituosa, e igual a 0 em caso
= 1, 2, ... , n.
II ·
1
·
· - t·
contráno;
Portanto, (X r, ... , Xn) é uma amostra aleatória da variável
aleatória X, que tenha distribuição d, probabilidade P(X = O) =
= J(O; p) = 1 - p, P(X = 1) = j(l; p) = p.
j(x, p)
=
p"(~ - p)ll '
L(Xt,·· ., Xn;p)
k-,
= L7=1
X,
=
II
= 0, 1.
= p~(l-
p)n-k,
número total I de defeitu.osas.
ln L(X 1, . . . , Xn; p) = k ln p
=
X
*
I
Portanto,
(n- k) lnp- p). ,
I
I
O ou n, encontraremos diretamente, ao considerarmos a
.vAuH;I33olu de L, que o valor máximo de 'L será atingido quando p = O
ou 1, respectivamente. Para k =I= O ou n, faremos ln Ljap =O encon-
a
e
traremos como sua solução p = k(n = X) a média amostral. Nesse caso,
.
s novamente que a estirnativ~ deMV cons.titui uma estima. .
.
I. .
.
. . não-tendenciosa do parâmetro prócuFàdo. ·
·
- .. ·-.
I
I
i
· Exemplo 14.9. Suponha-se que a variávelaleatória X seja no.r. . ..
'âistribuída com expectân:cia ~ e variância 1. !sto é, a fdp
· X é dà.da por
I
!
1
j(x) = ---=- e-<1 , )(z-pJ
V21!"
/
:2
I
I
I
2
•
344 I PROBABBUDADE
Se (X 11 ..• , X,) for uma amostra aleatória de X, a função de verossimilhança dessa amostra será
L(X1,. .. , Xn;JJ-)
1
[
1 n
. ]
= (21r)"i
- 2 ~(X; -p-)2 .
2 exp
Dai,
ln L
n
=- -
2
ln (211") ,_
1 "
-L
(X; 2 i=l
·
p)2
.
e
à ln L
a;;Portanto,
aln Lfàp =
O fornece
íJ.
=
X,
a média amostral.
Exem,plo 14.10. Até agora temos considerado situações nas
quais éramos capazes de encontrar o valor máximo de L pela simples :
derivação de L (ou de ln L) em relação ao parâmetro, e a igualação
dessa derivada a zero. Isso nem sempre dá resultado, como ilustra .
o exemplo seguinte.
Suponha-se que a variável aleatória X seja uniformemente distribuída sobre o inter:valo [O, a] onde a é um parâmetro desconhecido:.
A fdp de X é da~a por
·
j(x) = 1/a,
=
O,
O~
x
·~a,
para quaisquer outros valores.
Se (X11 ••• , X ..) for uma amostra de X, sua função de verossimilhança
será dada por
L(X~: .. . , Xn;a) = (1/a)",
O ~ X,
~
a para todo i,
= O, para quaisy_uer outros valores.
ConsiderandoL como uma função de a para dada am,ostl'a (X 1 , •.• , Xn) .
notamos que deveremos ter a ;;;. Xi para todo i, a fim de que L não seja ·
nula. Isso é equivalente a impor a ;?:: máx (X 1; . . • ; X~). Assim, se - .
marcarmos L como uma função de a, obteremos o gráfico apresentado .··
na Fig. -14.3. Deste gráfico é imediatamente evidente qual o valo~ ·
de a que toma L máxima, a saber
;;_ = máx
(X11 ••• , X,.).
ESTIMAÇÃO DE I"ARÂMIETROS I 345
Vamos examinar algumas das
propriedades dessa estimativa.
Do Teor. 13.2, obtemos a fdp
de â: g(â) = n[F(â)]n-lj(â).
Mas F(x) = x/ot., O s; x ~a;, e
j(x) está dada acima. Portanto,
obteremos
[â]"- (1. - J.
1
01
.-..
g(ot.)
= n -
.
!Fig. 1<3.3
A
0!.
n(â)n-t
= -,
0!.
ot."'
os; â s; ot.
.
· Para achar E(a), calcularemos
E(â)
1"'
=
=
âg(â)dâ
i
=
I"'
· "'n-t
" not.
a
- - - d"
ot.=
1
ot."
a
n
â"+l
n, ·
a" n + 1 o = n + l a.
,.Po~ conseguinte, â não é uma estimativa não-tendenciosa de a; â tende
a "subestimar" a. Se desejarmos uma estimativa não-tendenciosa,
poderemos empregar
~
n+1
a=---- rnáx (X1 , . . • ,X.) . .
n
Observe-se que muito embora E(â) r! a, ternos lim,.~~E(â) =a.
; Portanto, para verificar a coerência., deveremos ainda mostrar que
__.O quando n __. oo. (Veja o Teor. 14.1.) Deverem0s calcular
V(â)
~2
= E(â) 2 - [E(â)F = n
a2 -
[
n
~1a
r
1
_ a2 [
(n
n
+ 2)(n
+ 1)
2
]
•
V(â) ~O quando n - 4 oo e, por isso, a coerência está esta-
346 I PROBABILiDADE
Exem]>lo 14.11. Vamos estudar um exemplo no qual dois parâmetros (ambos desconhecidos) caracterizam a distribuição. SupoJlha-se que X tenha distribuição N(J;., <r 2). Dai, a fdp de X será
, )
j(x)
= v' 2171" <T exp
(. -
1 [ --<TX - }.L
2
]2) ..
f.le (XJ, ... , Xn) for uma amostra de X, sua funçãv de verossimilhança
será dada por
L(X 11 ••• ,Xn;J.L,<T)
=
{-~i:[
X;- !-L ]
-•=1
(2·mr 2)-"' 2 exp
(f
2
}.
.
Portanto,
Deveremos resolver simultaneamente
dlnL
·a;- ·= o
d ln L
e
d<T
=0
.
Teremos
~
-(X----'-;----'-J.L-"-)
LJ -'-i= 1
que fornece ~ =
Jt,
(1'
a média amostral.
2
=o,
E
dln L
-ar;o que dá
ô-~
1
n
1
n
=-.L:
(X;- J.L)2 =-L (X; n ;-1
n i=l
X)2.
Observe-se que o método de MV fornece uma estimativa tendenciosa . ·
de <T2, porque já vimos que a estimativa não-tendenciosa é da forma
1 /(n - 1)L?=l EX, - X)2.
.
Exemplo 14.12. Já estudamos anteriormente (Ex. 14.7) o problema da estimação do par:1metro {J de uma lei de falhas exponencial,
pelo ensaio·de n itens e registro de sua duração até falhar, T 1, .. . , Tn. ·
Outro procedimento poderá ser o seguinte: Suponha-se que temos
n ·itens, submetemo-los a ensaio, e depois que um certo período de
IESTii\liAÇÃO DE PARÂMETROS I 347
I
· , tempo tenha decorrido, digamos To hof;3.9, contaremos apen'as o nú. mero de itens que tenham falhado, digaiuos X. Nossa amostra cons'tará de X~' . . . , Xn onde X; = 1 se o i-ésimo item tiver falhado no
p(n1odo especificado, e O em caso contlário. Desse modo, a função
verossimilhança da amostra será
L(X1, ... , Xn; (3)
p\(1 -
=
p)n-k,
·onde lc = L~= 1 X; = número de itens q~e tenham falhado e p = Prob.
(um ite~ falhe). Ora, p é uma funçã~ do parâmetro (3 a ser estii
mado: isto é,
p
= P(T ::; To) = 1j- e-Pr•.
Empregando o resultado do Ex. 14l8, encontraremos que a estiA
I
de MV de p é p = lc/n. Aplic:ando a propriedade da inva. riância da estimativa de MV (notandd que p é· ,u ma Junção cres. cente de (J), obteremos a estimativa de MV de (3 simplesmente pela
·· ~solução da equação 1 - rflT. = k{n. Um cálculo. fácil dé.
·.· ·
·~mativa
~=
.
I
.
~u, para a 1estimativa de
~o ln ( ~~ k ) '
-
11
!/{3, a média dfi duração até falhar,
( (31)
- 'E o
=
- 1k)/n]
ln [(1i
•
Em todos os exemplos estudados Jcima, o método de MV forequações que são relativamentefá6eis de resolver. Em muitos
isso não se· dará, e muitas te.zes teremos que recorrer a
..
num~ricos (aproximados) a fiJ de obterm~s a.S estimativas.
· seguinte exemplo ilustra tais dificulda~es.
, "-;::·
I
Exemplo 14.13. Como já salientml).os, a distribuição gama posimportantes aplicações em ensaios !de vida. Vamos supor, por
. :.!'A""'tJm, que a duração até falhar de um gerador elétrico tenh& dude vida X, cuja fdp seja dada
p1r
j( X)
-
i
À'xr- 1 ->.z
f(r) ~
I
i
I
'
>
X -
O
I
,
são dois parâmetros positivos que desejamos estimar.
u .,.. pv••u".-"" que uma amostra, X 1 , • . . , Xn de X seja disponível. (Isto
"'"'·u.u.un~::; tenham sido ensaiados e s uas durações até falhar regisA fun\ão de verossimilha!lça da amostra. será.
1
348 I PROBABILIDADE
1
= (À)"'(TI7=1X;)'- exp (- X.E7-t X;)
L(x lJ . . • ' X n; "',,, r)
ln L = nr ln
À+
~!__~c__.:.,.,--:~=-:-+2..._---==-=--=--~
.. -
(r-- 1)
.t
[r(r)]"
ln X;- À
't X;- n lu r(r).
i=l
1=1
Dai, deveremos resolver simultaneamente, .
iJ ln LjiJr = O. Essas equações se tornam
' _a ln L =
OÀ.
a ln L
~ =
t X,
~À
1
I "'
n n A
=
a ln LfiJ'A. =
O
e
O,
= 1
+ ;~
~I
11
X
r'(r)
n r(r)
; -
= ".
"
a
Assim, ln L/dÀ = o fornece diret.ament.e X= ,-(Jf. Por isso, depois
de substituir 'A por>-; encontraremos que aln LféJr = O dá
T'(r)
.r0) = ln X
ln r - - -
1 "
- -- L ln X;.
n
i-1
.
É evidente que deveremos resolver a equação acima para r,
obtendo r e, depois, X= r/X. Felizmente, a função r' (r) fr(r) foi
tabulada. Um método bastante rápido de encontrar a solução procurada foi apresentada em um trabalho' de D. G. Chapman (Annals
oj Matheriwiical Sf.atistic8 27, 498-506, 1956). Este e:x;emplo ilustra.
que a resolução das equaçoos de verossimilhança pode coi)duzir a
enormes dificuldades matemáticas.
Como já mencionamos anteriormente, as estimativas de MV
possuem uma p:roprieda.de adicional, que as toma particularmente
desejáveis, especialmente se as estimativas forem baseadas em um&.
amostra bastante grande.
Proprf,edad4! assintótica das estimativas de máxima verossimilhança.
Se Ôfor uma estimativa de MV pafl!, o parâmetro(), baseada em uma.
amostra. · aleatória Xh .. . , Xn_ de uma variável ·aleatória X, então,.
para n suficientemente grande, a variável aleatória terá aproximadamente a distribuição
·
( li1) , onde
N 8,
[a
B = nE .lN} lnj(X; ())
];
2
"
(14Al}
aqui j é a distribuição de probabilidade por pontos ou a ·fdp de X,
dependendo de ser X discreta ou continua, . e se supõe que () seja um
número Jllllal.
·.,
:;·
ESTIMAÇÃO DE PARÂMETROS I 349
Comentários: (a) A propriedade acima é, naturalmente, muito mais forte
do que a propriedade da coerência que já apresentamos anteriormente. Coerência apenas diz que se n for suficientemente grande, ê será "próxima" de e. O
en~nciado acima realmente nos indica qual é o comportamento · probabilíStico
de ê para n grande.
(b) Não demonstraremos o enunciado acima, apenas ilustraremos sua utilização com um exemplo.
Exemplo 14.14. Vamos reexaminar o Ex. 14.7. Nós achamos
~ = l(T como a estimativa de MV de {3. A fdp de T foi dada por
f(t; {3) = {3e-i3!, t >O. A propriedade acima nos diz que, para n suficientemente grande, ~ = l/T terá a distribuição aproximada N({3, 1/B),
onde B é dado pela Eq. (14.4).
Para encont:ramws B, consideremos lnf(T; {3) =ln {3- {3 T. Nesse
caso,
(a/a{3) lnf(T; {3) = (1/{3)- r.
Logo,
Já qúe
E(T)
= 1/fJ
e E(T2)
= V(T) + [E(T)]2 =
1/{3 2
+ 1/{3 = 2/fJZ,
2
teremos
E [
0~ lnf(T; {3) J
2 1
2
1
--+-=-·
fJ fJ
fJi
fJ2
A
Portanto, encontramos que, para n grande, fJ tem aproximadamente a
distribuição N(fj, {3 2/n). (Isto verifica a propriedade de coerência da
estimativa, desde que fJ 2/n ~O quando n ~ oo .)
14.5.
O Método dos Mínimos Quadrados
Exemplo ·14.15. Estamos familiarizados com o fato de que a
da localidade. Os dados
temperatura do ar decresce com a altitude
I
apresentados na Tab. 14.4 e o diagrama de dispersão associaçl.o (pontos
marcados) (Fig. 14.4) confirmam isso. Não somente os pontos marcados indicam que a temperatura Y decresce com a altitude X, mas
também uma tendência linear está evidenciada.
350 I PROBABDUDADE
Tab. 14.4
X
(altitude~
1.142
1.742
280
437
678
1.002
1.543
1.002
1.103
475
1.049
566
995
I·
m)
I y (temperatura, oC)
X (altitude, m)
13
7
jy
(temperatura, oC)
1.008
208
439
1.471
482
673
407
1.290
1.609
910
14
16
13
11
4
9
5
11
1.277
10
15
10
410
J3
18
14
14
18
13
16
7
6
9
..
)
11
14
As observações representam a altitude (em metros) e a temperatura (em graus centígrados) ao amanhecer, em algumas estações
meteorológicas da Suíça. Os dados são originários do Observatório
de Basilea- Sta. Margarida.
I
I
Qual é um .modelo razoável para os dados acima? Vamos supor
que Y seja uma variável aleatória cujo valor depende, entre outras
coisas, do valor de -X. Especificamente, admitiremos que
t
Y
,·
. i
'
= aX + f3 +e,
onde a e f3 são constantes (desconhecidas), X é a altitude (conhecida)
na qual Y é medida, e E é UIIll11 variável aleatória. A análise deste
Y
modelo linear depende das hipóteses que façamos sobre a variável
aleatória e. (N6s estamos dizendo,
essencialmente, que a temperatura.
é um resultado aleatório cujo vae
lor pode ser decomposto em ll.ma
componente estritament~ aleatória
mais um termo que depende da
"
X de uma maneira linear.)
L---------------------x altitude
A hipótese que faremos sobre e é
Fig. 14.4
a seguinte:
Q
E( e) = O;
V(e)
=u
2
para todo X. ··
-
ESTüMAÇ~O DE PAFIÃMETROS
1
I 351
Isto é, o valor esperado e a variância de le não dependem do valor
de X. Conseqüentemente, E(Y) = aX + ~e V(Y) = cr 2• Observe-se
que o modelo que estipulamos depende de três parâmetros: a, {3 e cr!.
Não poderemos empregar o método de má~ima verossimilhanç~ para
estimar esses parâmetros, a menos que fa~amos hipóteses adicionais
sobre a distribuição de e, porque nada foi :suposto sobre a distribuição da variável aleatória e;. somente uma[ hipótese sobre seu .val@,:~
esperado e sua variância foi feita. (Uma imodificaçãq deste m,od~l~
será mencionada posteriormente.)
·
.
' Antes de explicarmos como estimar os parâmetros apropriados,
vamos dizer alguma coisa sobre o signific~do de uma amostra. aleatória, no presente contexto. Suponha-se que n valores de X sejam
escolhidos, digamos XI, ... , Xn . (Lembrem~s, novamente, que ,·aqui,
X não é uma variável aleatória.) Para c~da x;, seja Y; uma observação independente da variável aleatória : Y descrita acima. Portanto, (x 1 , Yd, ... , (xn, Yn) podem s~r considerados como uma
amostra aleatória da variável aleatória Y, ~ara valores dados de X, a
saber, Cx1, ... , xn).
I
Definição. Suponha-se qua temos E(íY) = aX + {3, onde a, {3
e X são como explicadas acima. Seja (x1, Yt 1), . .. , (xn, Yn) urna amostra aleatória de Y. As estimativas de mín!imos quadrados dos parâmet~s ~ e {3 são aqueles valores de a e {3 1que tornam minima ,a expressao
..
E [Y;-
I
(ax;
•=1
I
+ {3)]~.
.
I
I
ComenMrio: A interpretação do critério acima é bastante clara~ (Veja
Fig. 14.5.) Para cada par (x;,Yi) calculamos a discrepância entre o valor observado
Y;, e ax; + {3, o valor esperado. Desde que es~mos interessados somente ne,
magnitude dessa discrepância, nós a elevamos ao q9adrado e ~roamos parai todos
os pontos amostrais. A reta procurada é aquela ·para a qual essa soma. é
mínima.
.
I .
.
.. .
A fim de obter as estimativas de' E! Y)
sejadas para a e {3, procederemos da
seguinte maneira: Façamos S(a, {3) =
E(Y)=aX+!I
= L~=l [Y;- (ax;
{3)]2 • Para tor- ,
nar mínima S(a, {3), deveremos resol- .,_;..:::::
! =-if---------x
ver as equações
I
+
as
dot.
= 0
.
e
as ,
=o.
of3
352 I I?ROBABBUDADIE
Derivando S, parcialmente, em relação a a e {3, obteremos
as
"
"
iJa = ,~_2[Y;- (ax;+ {3)](-x;) =,- 2 .~ [x;
~
~R =
V~
R
.L 2[Y; o=l
(ot.x, + {3)]( -1) = -:-2
.
.
y, - ax;2- J3:t;] 1
R
;E [Y,;- ax; a=!
{3].
Por isso, iJSfdot. = O e éJS/ô{3 =O podem ser escritas, respectivamente:
a
:E" x; + {3 G=l
L" x, = li=l
L" x.:Y,,
2
(14.5)
li=l
(14.6)
Po:rlanto, teremos duas equações lineares nas incógnitas ot. e {3.
A solução poderá ser obtida da maneira usual, quer por eliminação
direta, quer com o emprego de determinantes. Denotando as solufacilmente verificaremos que
ções por â e
S,
(14.7)
,,_.,..
. _:_
1"
{3 = Y - o:x, onde Y = Y;.
n
L:
(14.8) ,
i=l
As soluções acima serão sempre viáveis e únicas, desde que
i:, (x; -
x)2
o=l
~ o.
Porém, esta condição será satisfeita sempre que nem todos os X; sejam
iguais.
A estimativa do parãmetro u 2 não pode ser obtida pelos métodos
acima.. Vamos apenas afirmar que a estimativa usual de o-2, em termos das estimativas de mínimos-quadrados â e~. é
.A
1
q~ = - -
n- 2
:E [Y, i=l
R
,.....
(azo
~
+ tJ)12.
lfa, ... , Y,..
(b) ~ iJ tmmbêm umm função lineM de Yh ..• ,
vim<anto indicm:
, ... ,.._
fJ = Y- az =
Y,.,
romo o ooguinl'lll d<e!!a!nvol- .
IESTRMAÇÃO DE PARÂMETROS I 353 .
(c) Constitui um exercício simples mostrar que E(&)= a e E(~)= {3 . (Veja
o Probi. 14.34.) Isto é, que ambas &e são estimativas não-tendenciosas.
As variâncias de & e
Probl. 14.35.) Teremos,
(d)
V(â)
(f
a
a são também
facilmente calculadas. (Veja o
2
(1~.9)
a
(e) As estimativas & e são, de fato, as estimativas não-tendenciosas lineares ótimas de a e {3 . Quer dizer, dentre todas as estimativas nito-tendenciosas,
lineares, aquelas acima têm variância mínima. Este é um caso particular do
teorema geral de Gauss-Markoff, que afirma que, sob determinadas condições, as
estimativas de mínimos quadrados e as estimativas nilo-tendenciosas lineares
ótimas são sempre iguais.
(f) o método dos mínimos quadrados pode ser aplicado a modelos não-lineares. Por exemplo, se E(Y) = aX 2 + {3X + 'Y, poderemos estimar a, {3 e 'Y,
de modo que
n
2: [Y; -
(ax7
+ ax; + 'Y)] 2
i=l
seja minimizada.
(g) Se fizermos a hipótese adicional de que a variável aleatória E tenha distribuição N (0, ~ 2 ), podúemos aplicar o método da máxima verossm;ilhança para
estimar os parâmetros a e {3. Essas estimativas serão as mesmas e'stimativas de
mínimos quadrados obtidas· acima. (Isto não será sempre verdadeiro. Constitui
uma conseqüência da hipótese de normalidade .)
,.
1 .• •
Exemplo 14.16. Este exemplo está apresentado por Y. V. Linmk, em Method oj Least Squares and Principles oj the Theory oj Obser- . ·
vatúms, Pergamon Press, 'New York, 1961.. Os dados deste exemplo
forn.m obtidós por Mendeléjef e relatados em Foundations oj Chemistry. (Veja a Tah. 14.5.) Eles relacionam a solubilidade do nitrato
de sódio (NaNO a) com a temperatura da água (•C). Na 'temperatura
. indicada, as Y partes de NáN0 3 se dissolvem ~m iOO partes de água.
Mareando esses dados obtém-se o diagrama de dispersão apresentado
na Fig. 14.6. ·
354 / PROBABi U DADE
1'
o
Tab. 14.5
120
0
100
o
4
10
15
21
66,7
71,0
' 76,3
80,6
85,7
29
36
51
68
o
llO
92,9
99,4
113,6
125,1
00~--~---+----~--~Y
20
+
Isto sugere um modelo da forma E(Y) = bT a. Empregando
o método dos mínimos quadrados, explicado acima, encontraremos
. · .
que b = 0,87 e â = 67,5.
.
)
Na seção anterior, estivemos interessados em pares de valores
. (X, Y), porém, como rePetidamente salientamos, X não era considerada uma variável aleatória. Há, no entanto, variáveis aleatóri~
bidimensionais (X, Y) que dão origem a ~ amostra aleatória
{XI, Y1), ... , (X,, Y,..). Um dos parâmetros importantes, associados
a UIIl& variável aleatória bidimenaional, é 10 coeficiente de oor~
nlaçio /':<V·
Tab. 14.6
X(velocidade, km/seg)
11,93
11,81
Y(altitude, km)
62,56
57,78
A. estimativa geralmente empregada para
lação amostral, assim definido:
11,48
10,49
10,13
8,87
53,10
48,61
44,38
40,57
------------
p é o coeficiente de corre-
ESTBiViAÇÃO DE PARÂMETROS
I 355
empregar-se:
Exemplo 140170 Os dados reuni<;ios na Tabo 1406 representam
a velocidade (krníseg) e a altitude (km) do meteoro Noo 1.242, como
relatado em "Smíthsonian Contributi~ns to Astrophysics", dos Pra'
ceedings oj the Symposiurn on Astrohomy
and J:hysics· oj. Meteors,
I
Cambridge, Masso, agoo 28-seto, 1, 1961. Um cálculo direto fornece
r= 0,940
I
I.
14,7,
:: .. ;
intervalos de Confiançk
!
Até agora estivemos tratando ap!enas de obter uma estiinativa
por ponto de um parâmetro ftesconhecidoo Como mencionamos no
início deste capítulo, há outra inanei~a de tratar o assunto que fre~
qüentemente conduz a resultados muito significativos.
. I
Suponha-se que X tenha distribuigão N(p., a2 ), onde se supõe a2
c~nhecid~, enquanto p, é o parâmetro ~esconhecido. Seja X 1, oo. , X ..
uma amostra aleatória de X e seja X~ média amostral.
I
15abemos que X tem distril:juição N(p., cr 2/n); portanto,
Z = [(X- p,)fu] Vn tem distribuiçAo N.(O, 1). Observe-se que,
muito embora Z dependa de p,, sua di$tribuição de probabilidade não
depende. Empregaremos este fato a n:osso ·favor da seguinte maneira:
Considere-se
.
:M>(z) - 1 ':" P ( - z
~ x~
rVn ~ z)
=
v; x
I -<-,,.._< + _!!!__
v; - x). ·=
= P ( x- .;;:; ~ J.L ~ x + ,:/; }
= P ( - _!!!__ _
i
I
:
Esta última. expressão . de probabilidade deve ser interpretada muito
cuidadosamente; Ela rz.ão significa que ll. probabilidade·do parâmetro f.L
' cair dentro de um iritermlo especificaho seja igual a 2<1>{z)- 1; f.L
um parâmetro, e ou está ou não está dentro do inte.Valo acima:: :· ..
preferência, a expressão acima deve ser interpretada assi!U: 2<fif~~
li: .
:.
356 I I"ROBAIBBUDADE
é igual à probabilidade de que o intervalo aleatório (X -
zuh/;;;
X+ zu/Vn)
contenha fJ.. Tal intervalo é denominado intervalo de
confiança do parâmetro fJ.. Desde
<~><=)
que z é arbitrário, poderemos es~ ·
.
~!:;!~:~~~~~::.:~::: ~te, z ficará definido pela relação
c:l>(z) = 1 - a/2. Aquele valor de
z, denotado por K1-a/2, pode ser
obtido das tábuas da distribuição nomial.
Isto é, teremos cl>(KI-t,J 2 ) = 1 - a/2.
== KH.;2'
fig. 14.7
(Veja também a Fig, 14.7.)
Em resumo: O intervalo (X- n- 112uKI-a/2, X+ n- 112 uKI-a/?)
é um intervalo de confiança do parâmetro }.L, com coeficiente de confiança (1 - a), ou um intervalo de confiança 100 (I -a) por cento.
Suponha-se que X represente a duração da vida de uma peça de.
equipamento. Admita-se que 100 peças sejam ensaiadas, fornecendo
uma duração de vida média de X = 501,2 horas. Suponha-se que ri
seja conhecido e igual a 4 horas, e que se deseje obter um intervalo
de confiança de 95 por cento para a média fJ.. Nesse caso, encontraremos o seguinte intervalo de confiança para }.L = E(X):
.
4 .
.
501,2(1,96)r501,2
10
4 .
+ 10(1;96), que se
torna (500,4; 502,0).
Novamente cabe uma observação. Ao afirmar que (500,4; 502,0)
constitui um intervalo de confiança ·de 95 por cento para }.L, nãO estaremos dizendo que 95 por cento d.3s vezes a média am9Stral . cairá
naquele intervalo. A próxima vez que tirarmos uma amostra aleatória, X presumivelmente será diferente e, por isso, os extremos do intervalo de confiança ·serão diferentes. Estaremos afirmando que
95 por cento das vezes, fJ. estará contido no intervalo (X -1,96u/v;;;;
X+1,96ujy';). Quando fazemos a afirmação de que 500,4 <}.L< 502,0,
estamos apenas adotando a orientação de acreditar que alguma coisa
é assim, porque sabemos ser assim na maior parte das vezes.
Comentário: O intervalo de confiança construído não é o único. " Da mesm&
maneira que podem existir muitas estimativas (por ponto) para um parâmetro,
também poderemos construir muitos interv:alos . de confiança. Muito embora.
não examinemos o problema do que poderá significar um intervalo ·de confiança.
"ótimo", vamos enunciar uma . conclusão .óbvia. Se dois intervalos de confiança
que tenham o mesmo coeficiente de coiúiança estiverem sendo comparados, iremos
preferir aquele que tenha o menor comprimento esperado.
·
!ESTiMAÇÃO IIJE IP'AFI.l~.METROS I 357
Para o intervalo de confiança estudado acima, o comprimento L poderá ser
escrito como sendo:
Portanto,L será uma constante.
Além disso, resolvendo-se a equação precedente em relação a n, temos
n = (2ak 1 _rx 12 /L) 2 •
Portanto, poderemos determinar n (para valores de rx e a dados) de modo q11e o
intervalo d(l confiança tenha c.omprimento pré-estabelecido. Em geral, (tal como
foi ilustradõ no exemplo anterior), L será uma função decrescente de n: tanto
menor quanto desejarmos ter L, maior n deveremos tomar. No caso citado, deveremos essencialmente quadruplicar n, a fim de reduzirmos L à metade.
14.8.
A Distribuição de tt de Student
A análise do exemplo acima dependeu inteiramente do fato de
· que ·a variância u 2 era conhecida. Como deverá ser modificado
nosso procedimento, se não conhecermos o valor de u 2 ?
Suponha-se que estimemos u 2 , empregando a estimativa não-tendenciosa
Nós consideraremos a variável aleatória
t=
(x-
p)v; .
(14.10)
---~-.-(1
É intuitivamente evidente que a distribuição de probabilidade da
variável aleatória t deve ser muito mais complicada do que a de
Z = (X- p)V;;/u, porque na deJinição de t, ambos, numerador e
denominador, são variáveis aleatórias .enquanto Z é apenas "uma função linear de X 1, . . • , Xn. Para obtermos a distribuição de I, levaremos em cont!]. os seguintes fatos:
.
c·
(a) Z = (X- J.t)V;;/d tem distribuição N(O, 1).
I
(b) v= 2:?=1
X) 2/u 2 tem uma distribuição de qui-quadrado, com (n - 1) graus de liberdade. . (Veja Teor. 13.4.)
(c) Z e V são variáveis aleatórias independentes. (Isto não
é muito fácil de demonstrar, e aqui não o verificaremos.)
ex.-
o
358 I PROBABHUOAOIE
Com o auxilio do seguinte teorema, poderemos agora obter a.
fdp de t:
Teorema 14.3. Suponha-se que as variáveis aleatórias Z e V
sejam independentes e tenham, respectivamente, as distribuições
N{O, 1) e x.-,.2 • Defina-se
z
t = V(Vfk)
Então, a fdp de t será dada por
hk(t)
=
r[(k
+ 1)/2]
t 2 )·-(k+lJ{il
(
-/
. 1 + -k
r(k/2)v 1T'k .
.
' - "" < t
~
<
Clll.
(14.lll)
Esta distribuição é conhecida eomo distríbuição de t àe Student, com
k graus de liberdade.
Comentários: (a) A demonstração deste teorema não será dada aqui, rnM
está sugerida. na seção de pmbleiilllll. (Veja. o Probl. 14.17.) Nós temos os elementos disponíveis com os quais poderemos achar hk(t) bastante facilmente. Primeiro, precisaremos determinn.r a fdp de VV/k, que será facilmente obtida da
fdp conhecida de V. A seguir, ·precisaremos somente. aplicar o Teor. 6.5, que dá.
a fdp do quociente de duas variáveis aleatórias independentes.
.
(b) O teorema acima poderá ser aplicado diretamente para obter-se ·a (dp
de t =(X- p.)
a variável ale11.tória apresentada acima. Esta varitt~el
aleatória rem distribuição de t de Student, com (n - 1) graus de Überdade. No tese que, muito embora o valor de t dependa de p., sua distribuição não depende.
v;;;u,
(c) O gráfico de .hk é simétrico, como está apresentado na Fig. 14.8. De fato,
ele se assemeiha ao grá,fioo da distribuição nonnal, e o leitor poderá verificar que
lim k~ç(t) = (l/V2;)e-l'/~.
k->"'
..
)
h(t)
~;,
(d) Em virtude da importânci& desta distribuição, ela foi tabulada. (Veja o
.<\pêndics.) PW:& a d&do, 0,5 <a< 1, os valoresde lk,IÍ! que satisfazem à. condição
l
'k;<i!
_..,
h~<(l) clt
=a
IE~TiMAÇÃO DE PARÃMETRO.S
i
359
estmo tabuli!Mlos. (Veja a Fig. -14.9.) (Para valores• de a, que satisfaçam '-a
O < ct < 0,5, poderemoà empregmr os val~res tabulados, em victude t'la simetria
da distribuição,)
i
(e) EB!IIil distribuiçil.o leva jl!lte nom~ em homenagem ao estaticista _inglês
W . S. GO!!llet, que publicou sue pesquiseso~ o pseudónimo de "Studimt". ·
I
i
Voltaremos, agom, ao proble~a apresentado no início desia
de confiança
para
a média
de
seção. Como obteremos um - intervalo
· - I
___
<
uma variável aleatória normalmente distribuída, se !l: vari!ncia for
desconhecida ?
i
-- i
I
De maneira inteiramente análogl!. àquela empregada na Seç. 14.7,
obteremos o seguinte intervalo de donfiança para p., com coeficiente
de confiança (1 - a):
I
i
(X-
n- 112 utn-l,l-cr/2,
iX
+ n- 112 uth-l.l-o/2).
I
'
I
Desse modo, o coeficiente de confiança acima apresenta a mesma
estrutura que o anterior, com a im~ortante diferença de: que o valor
conhecido de CT foi substituído pelaiI -sua estimativa
ô- e, a constante
,
K1-a12, que anteriormente 'era obtida das tábuas da -distribuição
normal, foi substituída por tn-1, 1-,a/ 2\ esta obtida das tá,buas da distribuição t.
I
C~rúJ:
O comprimento L, do iritervalo de confiança acima é igual
&
I
L = 2n-112t;,-l,l-a/2U.
i
Concluímos que L não é uma constante, porque ele depende de
a qual por sua vez depende dos valpres amostrais (X1, . .. , Xn).
ô-,
I
I
Exemplo 14.18. Dez mensuraç~es são feitas para a. resistência
de um certo tipo de fio, fornecendp os valores XI, ... ' X lO• SupoA
J 1 "lO . - '
nha-se que X= 10,48 ohms e u =~9 L..i=l (X;- X) 2 = 1,36 ohms.
Vamos supor que X tenha distriBuição N(p,, cr 2) e q~e desejemos
obter um intervalo de confiança pa~a Jt, com coeficiente 'de confianÇa
0,90. Portanto, a = 0,10. Das t9:buas da_ distribuição/t encontra~
remos que tg; 0,95 = 1,83~ ConseqÜ~ntemente, o intervalo de confiança procurado será
1
1
í
I
i
1
.
[10,48-- fTR (1,36)(1;83), 1iQ,48 + . í1il (1,36)(1,83_)] =
.
v 10
i
v 10
1.
i
= (9,69; j11,27).
•
i
· .360 I PIFIOBABiUIDADIE
MuitO embora não pretendamos dar uma exposição geral deste
assunto, desejamos continuar a estudar alguns exemplos importantes.
Algumas vezeS desejamos obter um intervalo de confiança para
uma particular junção de um parâmetro desconhecidoí conhecendo-se
já um intervalo de confiança para o próprio parâmetro. Se a função
for monótona, .isto poderá ser conseguido na forma ilustrada pelo
exempl~ .seguinte .
·
Exemplo 14.19. Suponha-se que a duração da vida X de uma
peça t~nha distnbuição N(J.L, u 2 ). Admita-se que u 2 seja conhecido.
A confiabilidade da peça para um tempo de serviço de t horas será
dada por
R(t; J.L)
=
P(X
Desde que àR(t; J.L)fàJ.L
>
t) ~ 1- <lP
> O para todo
{ t- J.L)
\-u·
J.L, teremos que, para cada
t fixado, R(t; J.L) será uma função crescente de J.L. (Veja a Fig. 14.10.)
Assim, poderemos proceder da seguinte maneira, para obter um inter-
=±c
.R(t; p)
R(t; JJ)
j?:
R
!3. ---- '
!Fig. 14.10
I
!Fig. 14.11
valo de confiança para R(t; J.L). Seja (J.L; /i) o intervalo de confiança
para J.L, obtido na Seç. 14.7. Façam~s !!:. e R, · respectivament~,
iguais ao extremo inferior e superior do intervalo de confiança desejado para R(t; p.). Se definirmos !1_ e R pelas relações
~=1-<JP(t~~)
e
R=1~<P(t-:. 11 ),
a,
verificaremos que P(!!_ S R S R) = P<!!:_ :::; J.L S /i) = 1 e, por
isso, (R, R) representará um intervalo de confiança para R(t; J.L), com
coefici;nte de confiança (1 - a). (Veja a l<~ig. 14.11.)
Vamos empregar os valores amostrais obtidos na Seç. 14.7 para
ilustrar este procedimento. Suponha-se que desejemos um intercomrxmen~ quando utilivalo de confiança para a co:nfiabilidade
zado durante t = 500 horas. Já que obtivemos'!:. = 500,4 e }i. = 502,0,
do
EST~MAÇÃO DE PARÂMETROS I 361
encontraremos
~=
1_
w( 500 - 4 500,4 )
::= 0 ,655 4 ,
R=
1_
w( 500 ~ so2) =
= 0,6915.
Até agora temos tratado apenas de intervalos de confiança bifnr..
terais. Quer dizer, temos obtido duas estatísticas (alguiJÍ'iss vezes
.denominadas limites de confiança inferior e superior). di.gamo.s
L(X1, .•• , X,.) e U(K1, .. . , X,.), tais que P[L :$ 8 :$ U] = :n.- a,
~nde () é o parâmetro desconhecido.
Freqüentementé, porém, estaremos interessados em obter somente intervalos de confiança unilaterais, das formas seguintes:
P[() :$ U)
=
1- a
ou P[L :$ 9]
= 1 - az.
Vamos ilu8trar isso com exemplos.
Exemplo 14.20. Suponha-se que X tenha distribuição N(JL,
or 2 )
e desejemos obter um in.tervalo de. · confiànça unilateral para o
parâmetro desconhecido o- 2• Seja
;,,._J(x2)
xl, oo.' x,. uma amostra aleatória
de X.
Do Teor. 13.4, sabemos que
í::=1 (X; - X)2jor 2 tem distribui-.
ção de qui-quadrado x!-1. Por
isso, das tábuas da distribuição de
qui-quadrado, poderemos obter um
.
Xií-1.1-a:
Fig. 14.12
P
número
x!- 1. 1-a
tal que
2
[i:
(X;-2 X) :$ x!- 1.1-aJ = 1- a.
i=1
0"
(Veja a Fig. 14.12.)
forma seguinte:
p [ u2
A probabilidade acima poderá ser escrita na
~ L~=~ (X;- X)
Xn-1,
2
]
=
1-:- a.
l-a
Conseqüe~temente, [ I:7=1 (X; - X?fx~-1, 1-o:, oo] é o intervalo ·de
confiança unilateral pedido para d 2, com coeficiente d~ confiança
(1- a).
um
Exemplo 14.21. Suponha-se que X, a duração da vida de
dispositivo eletrônico; seja exponenci11Imente distribuída com pacl.··· metro 1/{3. Conseqüentemente, E( X) = [3. Seja X ~o ... ; X, um!!.
I PROBABiUDADE
362
:'~
amostra de X. No Ex. 14.i .encontramos que L~=I X;'n é a estima- ·~
tiva de MV de fJ. Do corolário do Teor. 10.9 verificamos que 2nX!i3
tem distribuiçfu:> de X~n. Portanto, P[2nX/fJ ;:::· X~n. 1-al = a, onde '~
o número X~n. 1-a é obtido da tábua da distribuição de qui~quadrado. ·~
Se desejarmos um intervalo de confiança (inferior ou à esquerda), •>i
para a confiabilidade R(t; fJ) = P(X > t) = e-liiJ, procederemos da ··~
seguinte maneira: Multiplicaremos a desigualdade acima por ( ~ t)
·'~
e reordeilaremos os termos, obtendo
J
- '.!""
;I
P[(-t/fJ);::: -tX~n, l-a/X2n) = 1 - a .
P { R(t;
fJ)
tX;~~-a ]} =
= e-l/IJ ;::: exp [ -
1-
a.
Conseqüentemente, (exp [-tX~"· 1-a!"Y2n], co) constitui um intervalo
de confiança unilateral para R(t; fJ), com coeficiente de confiança .i:lu
-~;.o
eneon· ~
ilwtmção final de intervalo de eonfiança, vamos
trar um intervalo de confiança para o parâmetro p associado a uma
variável aleatória X, bínomialmente distribuída. Examinaremos apenas o caso em que n, o número de repetições do experimento que dá
origem a X, seja suficientemente grande, de modo que possamos
empregar a aproximação normal.
(I
Empregando a aproximação normal da distribuição binomial,
poderemos escrever
P
[
I_h -- .pI
v 1 pqfn
~ K
]=
P[!h-
Pi
\ 1
~ Kvpq/n)!:::!. _ ;,
v 21r
j_K .~
e-ti-
dt=
-K
= 2cf> (K) .,_. 1,
.li
•!i~
onde, como sempre cf>(K) = (i/V"2tr)f..:.K., e- 1' 2 dt. Assim, se fizermos
a probabilidade acima igual a (1 - a), poderemos obter o valor de K {yj;
.
'!''-'
da ·. tábua da distribuição normaL Isto é, · 2cf>(K) - 1 = 1 - a ;·í~
acarreta K = K 1 -a·~. Porque estamos interessados em obter um'
intervalo de confiança para p, deveremos reescrever .a desigualdadii'/lj
·-.. )
!~·:l~;;
acima I lh - p! . ~ K Vpqfn } como uma desigualdade cm p. Ora/.;;iJ
i!
v pqfn l
--
.
.
1·'#1
.:iii;lffi
é equivalente a {(h- p) 2 :$ K~(l - p)p(n
Se considerarmos um sistema de coordenadas (h, p), a desigualdadéo'f'~lil
{lh-
.
p J :$
K
.
.
·J
I
.
~STBMAÇÃO OIE PARÂMETROS I 363
I
'
representará a fronteira e o intel.
de uma e]"1pse.
rwr
tipo de
~lipse
será
determinado
por
K e n:
I
quanto maior n, mais achatada
sbrá a elipse:
o .
p
1
''' p=p,~s::J:=~:::=.__
Considere-se um ponto Q(h, p)
rlo plano hzi.
(Veja a l'ig. 14.13.)
Q será um ponto "aleatório'' no
s~ntido de que :ma primeira coordcn~da h será 'dcterminady, pelo resultado do experimento. Porque Q
_L_ _.,.h
h=c
Fig. 14.13
cairá dentro da elipse se, e somente se, l lh - pI ::;; K V1'1Jfn I, a
probabilidade de que isso ocorra será 2<l>(K) - 1. Se desejarmos
ter esta probabilidade igual a (1 -a~, deveremos ei!côlher K adequadamente, isto é, K = K~-a12 •
I
. Ora, p é desconhecido. (Este é\ naturalmchte, no~s6 problema.)
A reta h = c (constante) cortará a Ielipse em dois pontos, digamos
p = PI e p = P2 (Pode ser facilmente verificado que, para a e h dados,
eXistirão sempre dois valores distintos \de p.)
·
Os valores PI e P2 podem ser obt·idos como a solução d:J. equação
quadrática (em p): (h- p) 2 = K 2
p)pín. As soluções são
PI=
hn
+ (!(2/2) -
nI -
K[h(l - h)n
n
+i K
I
hn
P2 =
+ (K2/4)] /2
1
2
+ (K /2) + K [h0 2
.
h)n
(14.12)
+ (K /4))112
2
n + iK2
Portanto, li h - pI ::;; K v'pqfn l éj equivalente ·a I P1 1
::; p ::;; pz}.
· Desse modo, se K fur escolhido tal q'ue o primeiro evento tenha pro•. habilidade (1 - o:), teremos obtido um intervalo de confiança para p,
. ·a saber {p 11 p2}, com coeficiente de cohfiança (1 - a).
Resumindo: A fim de obter um intervalo de con(iança par:~.
com coeficiente de confiarlça (1 - a), realize-se_. o experito n vezes e calcule-se a freqüência relativa do evento A, digamos h.
calculem-se PI e P2 de acordo com ·as Eqs. (14.12), onde K é
pelas tábuas da distrib~ição normaL Recorde-se que
procedimento é válido somente i quando n 'for .suficientemente
. . para justificar a . aproximação inormal.
. = P(A)
.
Comentário: Recorde-se que, na Eq. (14.12), h= X/n, onde X= número de
do evento A. Portanto, X= nh\e n- X= n(1- h). Se, além de n,
364
I
I?ROBABH.. DI:liADIE
ambos os valores X e n - X forem grandes, p 1 e p 2 poderão ser calculados aproximadamente como
k
k
PI '?!h-- .jh(l-h),p,'?!.h+- .jh(l-h) .
.Jfi
.Jfi
.
Exemplo 14.22. Em determinado processo produtivo, 79 itens
foram fabricados durante unia semana especificada. Desses, verificou-se
serem 3 defeituosos. Portanto, h = 3/79 ::= 0,038. Empregando o procedimento acima, obteremos (0,013; 0,106) como intervalo de confiança, para p = P (item ser defeituoso), com coeficiente de confirurça
0,95.
Exemplo 14~23. Uma fábrica tem um grande estoque de peças,
algumas das quais oriundas de um método de produção agora considerado inferior, enquanto outras provêm de um processo moderno. Três
milhares de peças são tiradas ao acaso do estoque. Dessas, verificou-se
serem 1578 originadas do processo inferior. Empregando as expressões
aproximadas de p 1 e p 2 , o cálculo seguinte fornece um intervalo de
confiança de 99 por cento para p = proporção de peças do processo
inferior:
h
1578
3000
=
0,526,
k= 2,576
2 576
'
..j3000
v(0,526)(0,4 74) = 0,502,
2,576
p 2 = 0,526 + y'3õõO
3000
V (0,526)(0,474) = 0,550.
P1 = 0,526
Problemas
14.1. Suponha-se. que um objeto seja mensurado independentemente com
dois diferentes dispositivos de mensuração. Sejam L 1 e L 2 os•comprimentos me-.
didos pelo primeiro e segundo dispositivos, respectivamente. Se arnbos os dispositivos estiverem calibrados corretamente, poderemos admitir que E(L 1 ) =
= E(L 2 ) =L, comprimento verdadeiro . No entanto , a precisão dos dispositivos não é necessariamente a mesma. Se avaliarmos a precisão em termos da
variância, então V (L 1 ) '4= V(L 2 ). Se empregarmos a combinação linear Z = aL 1 +
+ (1 -a) L 2 para nossa estimativa de L, teremos imediatamente que E(Z) =L,
o
ESTIMAÇÃO DIE PARÂMETROS I 365
isto é, Z será uma estimativa não-tendenciosa de L.
de a, O< a< I, a variância de Lseráummfnimo?
Para. qual valor escolhido
14.2. Seja X uma variável aleatória com expectância Jl. e variância u 2 • Seja
(.'ú, ... , X,.) uma amostra de X. Existem muitas outras estimativas de u2 que
se podem sugerir além daquela apresentada anteriormente. Verifique que
C
'L::;;11 (Xi+l -
X;) 2 constitui uma estimativa não-tendenciosa de u2 , para um!!.
.escolha adequada de C.
Determine aquele valor d? C.
14.3. Suponha que 200 observações independentes X 11 •• • , Xm sejam obti- ·
dasdeumavariávelaleatóriaX.
Sabe-seque I:7~1 X,;=300 e que L~~ 1 X,.2=
0
,:,. 3.754. Empregando esses valores, C!!>lcule uma estimativll> niiD-tendenciosa
de E(X) e de V(X).
14.4. Uma variável aleatória
(a)
X tem
fdp j(x)
=
({3
+ l)zP, O < x < 1.
Calcule a estimativa. de MV de {3, baseada numa a.mostr& Xl,-· ., X,..
(b) Calcule a estimativa quando os valores amostrais forem: 0,3; 0,'8; 0,27;
0,35; 0,62 e 0,55.
14.5. Os dados da Tab. 14.7 foram obtidos para a distribuição da espessur&
do lenho. em postes telefônicos. (W. A. Shewhart, Eccnwmic Control of Qiiality
"o} Manujactuud Productz, Macmillan and Co., New York, 1932, Pág.· &i.) Admi·
tindD-se que a variável aleatória em estudo tenha distribuição N(Jl, u 2 ), determine
ss estimativas de S:i.v de p. e u 2 • -
Tab. 14~7
Espessura do lenho
(pol)
1,0
1,3
1,6
1,9
2,2
2,.')
2,8
3,1
3.,4
Freqüência
Espessura do lenho
(pol)
·2
3,7
29
4,0
62
4,3
4,6
4,9
5,2
5,5
I ():fi
153
186
193
18il
151
Freqüência
123
82
48
27
14
5
1
Freqüência total: 1.370
14.6. Suponha que T, a duração até falhar (em horas) de lllll dispositivoe1etrônico, tenha a seguinte fdp:
t > to > O,
= O, para quaisquer outros valores.
j(t) = {3e-f3(t-t.),
tem uma distribuição exponencial truncada à esquerdll. de to.) Suponha que n
sejam ensaiados e as durações até í:Uhar T11 .. •, Tn sejam registradas.
(a)
Supondo que to seja conhecido, determine ~ . estimativa. de MV de .(3.
Supondo .que to seja desconhecido, mas
ativa de l\:iV de to.
(b)
f3 seja conhecido, determine a
366 I PROBABILIDADE
14.7. Considere a mesma lei de falhas apresentada no Probl. 14.6. Agora, .
N 'itens são ensaiados até To horas (To > to), e o número d~ itens . que falhem nesse
perlodo é registrado, digamos k. Responda à pergunta (a) do Probl. 14.6.
14.8. Suponha que X seja · uniformemente distribuldo sobre (- a,
Determine a estimativa de MV de a, baseada em uma amostra de tamanho n:
X), ... , Xn .
14.9. (a) Um procedimento é realizado -até que um particular evento A ocorra .
pela primeira vez. Em cada repetição, P(A) = p; suponha que sejam necessárias
n 1 repetições. Depois, esSe experimento é repetido e, agora, na repetições são
necessária.> para produzir-se o evento A. Se isso for feito k vezes, obteremos a
amostra niJ ... , nk. Baseando-se nessa amostra, determine a estimativa de MV
de p.
(b) Admita que k seja bastante grande. Determine
de E( p) e V(p), ond·e p é a estimativa de MV obtida em (a).
14.10. Testou-se um componente que se supõe ter uma distribuição de
lhas exponencial. Foram observadas as seguintes durações de vida (em horas);
108, 212, 174, 130, 198, 169, 2.52, 168, 143. Empregando esses valores amostrais,
calcule a estimativa de MV da confiabilidade desse componente, quando utilizarlo
por um período de 150 .horas.
14.11. Os seguintes dados representam a duração da vida de lâmpadas elétricas (em horas):
1.009,
1.352,
1.483,
L620,
1.757,
1.085,
1.359,
1.488,
1.62.5,
1.783,
1.123,
1.3GS,
1.499,
1.638,
1.796,
1.181, 1.23.5,
1.379, 1.397,
L!i0.'5, 1.509,
1.639, ' 1.65>!,
1.809, 1.82H,
1.249,
1.406,
1.519,
1.673,
1.834,
1.263,
1.425,
1..541,
1.682,
1.871,
1_.292,
1.437,
1.543,
1.720,
1.881,
1.327'
1.438,
1..548,
1.729,
1.936,
1.338,
1.441,
1.549,
1.737,
1.949,
1.34&
1.458
1.610
1.752,
2.007.
Com os valores amostrais acima, calcule a estimativa de MV da confiabilidade
dessa lâmpada elétrica, quando utilizada por 1.600 horas de operação,
do-se que a duração da vida seja normalmente distribuída.
14.12. Suponha que duas lâmpadas, como explicado no Probl. 14.11,
empregadas em (a) ligação em série, e (b) ligação em paralelo. Em cada
calcule a estimativa de MV da confiabilidade, para um período de 1.600 horas
operação do sistema, baseada nos valores amostrais fornecidos no Probl. 14 .11.
14.13. Suponhamos que partículas a sejam emitidas pur uma fonte
ativa, de acordo com uma distribuição de Poisson. Isto é, se X for o número
partículas emitidas durante um intervalo de t minutos, então P(X = k)
= e-Ãt()..t)kjk! Em lugar de registrar-se o número real ® partículas erru.·tlaas,·
suponha-tle que registremos o número de vezes em que nenhuma pa.rtfeula foi
tida. Espec1ficamente, suponhamos .que 30 fontes radioativas de mesma
cia, sejam observadas durante um período de 50 segundos e que em 25 dos
ao menos uma. partícula. tenha sido emitida. Determine a estimativa de MV de
baseada nessa ·informação.
.!'i
,' .I
.u
14.14. Uma variável aleatória X tem distribuição N(p., 1).
vinte observações de X, mas em vez de se registrar o valor ·real, somente
ESTIMAÇÃO DE PARÃMETROS
I 367
mos se X era ou não era. negativo. Suponha 6ue o evento {X <0) tenha ocorrido
exatamente 14 vezes...UtilizMdo essa informação, determine a estimativa de
1
I
MV de p..
d'
J
b . •. .
.
.
14.15. 1 Suponlm que X tenha uma 1si' uu;ao gama; 1sto e, sum fdp seja
dadr.~ por
Jl.(}u: )r-Ie-M:
X> 0.
j(x) =
f(r)
.
-. .
I
· ·que r seja conhecido, e seja X11 .. . , Xn uma amostra de X. ~termJlJe
a estimativa de MV de À, baseada nesss amJtra.
.
I
14.16. Suponha que X tenha uma distribuição de Weibull, com fdp
.
'
x
j(x) = (Aa)xa-le-Az<ll,l
Suponha que a seja conhecido.
uma ~.~mostra. de tamanho n.
> O.
Determine a estimativa de l\1V de
1
A,baseada em
I
I
.
14.17• ~monstre o Teor. 14.3. [Sugesiao: Veja o Comentário '(a), que se
segue a esse teorema.]
i
_ -
•: _ 14~18 • . Compare o valor_ de_ P~X ~ 1), \onde X tem ldistribuição N(O, 1),
c.om P(t ~ 1), onde t tem dJstnbuJI(ão t de Student com: (a) 5 gl., (b) 10gl.,
(~)· 15 gl., (d) 20 gl., (e) 25 gl.
14.19. Suponha que X tenhr.~ distribuiç-ãb N(p., o-2). Uma amostra de tamanho .30, !ligamos X1, .. ,, XJo, fornece os se~intes valores: L~ I X i= 700,8;
1 xf = 16.395,8. Determine um intervalo de confianÇa de 95% (bilateral)
L:r-
para IA·
\
.
I
14.2(). Suponha que X tenha distribuição N(JA, 4). Uma amostra de tamanho 25 fornece a média amostral X= 78,3.1 Determine um intervalo de con_ :·__fiança de 99 por cento (bilateral) para p..
i
I
' - 14.21. Suponha que a duração da vida de lum componente seja normalmente
-distribuída, N (.u, 9). Vinte componentes são ensaiados e suas durações até Jalliar
1 , .•• , X 20 são registradas. Suponha que X:= 100,9 horas. Determine um intyÍ:Valo de confiança de 99 por cento (bilateral) ;para a confiabilidade R (1 00).
14.22. Deternúne um intervalo de con!idnça de 99 por cento, unilateral
\!lferior,
·para R(100) do Probl. 14.21.
-...
Ii
Suponha que X tenha distribuição N(}l, o-2 ), onde Jl e o-2 são descoUma amostra de tamanho 15 forneceu os valores
x,:J.
=
27,3.
I
15
.
L;-1
Xo = 8,7 e
Determine um inte7alo pe confiança de 95 por cento. (bi-
para u2•
14.24. Uma centena de componentes foi ensaiada, e 93 deles funcionaram
de .500 horas. Determine um intervalo qe confiança de 95 por cento (bilapa.ra p = P (componente funcione mais ide 500 horas.) [Sugcstao: Em- ·
a Eq. (14.12).]
"i4.25. Suponha que· X, o comprimento de um parafuso, tenha distribuição
Um grande número de parafusos é fabricado e depois separado em duas
grandes reservas. A reserva 1 contém somente aqueles parafusos para os quais
. X > 5, enquanto a reserva 2 c;ontém todos os demais. Uina amostra de tamanho
n é tirada. da reserva l e os comprimentos dos parafusos escolhidos são medidos.
Obtém-se, assim, uma amostra Yr, ... , Yn da variável aleatória Y, que é normal~
mente distribuída, truncada à esquerda de 5. Escreva a equação a ser resolvida
a fim de se obter a estimativa de MV de p., baseada na amostra (Y11 • • • , Y,.) em
N(p., 1).
cp e
termos das funções tabuladllS
distribuição N(O, 1) .
. 14.26.
(Distribuição de F.)
<1>, onde rp(x) = (1/V'h)e-«'/2 e <I> é a fd da .
Sejam X e Y variáveis aleatórias indepéndentes,
tendo distribuições X~,. e x~,, respectivamente. Seja. a. variável ·aleatóri11. F
definida da seguinte maneira: F = (Xfn 1)/(Yfn2) = n-2X!nrY. (Esta variável
aleatória. desempenha importante papel em muitas aplicações estatísticas.) Veri- '
fique que a fdp de F é dada pela seguinte expressão:
j
>o.
{Esta é a denominada distribuição de F (de Snedecor), com (n 11 n 2 ) graus de liber~
dade. Em virtude de sua importância, probabilidades associadas à variável alea~
tória F foram tabuladas.] (Sugestão : Para deduzir a fdp acima, empregue
Teor. 6.5.)
~4.27. Esboce o gráfico da fdp h, como está apresentada no Probl.
supondo que nr > n2 > 2.
14.28. Um dos motivos da importância da distribuição de F é o seguinte ·
Suponha que X e Y sejam variáveis aleatórias independentes com
N(p.,., a,,?) e N(J! 11 , a 112 ), respectivamente. Sejam X r, ... , Xm e Y 11 •• •·, Yn,
tras aleatórias de X e Y, respectivamente. EntAo a estatística Cl:~!o 1 (X~-X)~
+ L~ 1 ( Y,; - YP tem uma distribuição de F, para uma escolha apropriada de
Verifique isso e determine C.
distribuição 7
Quais são os graus de liberdade associadoa
tt
~4.29. Suponha que a variável aleatória t tenha distribuição de t de S
com 1 grau de liberdade. Qu:<l será a distribuição de t2 ? Identifique-a.
14.30. Suponha que X seja normalmente di~tribuída. Uma amostra
tória de tamanho 4 é obtida e X, a média amostral, é calculada. Se a soma
quadrados dos desvios dessas 4 medidas em relação a X for igual a 48,
um intervalo de confiança de 95 por cento (bilateral) p!J.ra E(X) em termos de ·
"
14.;!1. A seguinte amostra de tamanho 5 foi obtida da variável
bidimensional (X, Y). Utilizando esses valores, calcule o coeficiente de cor-rel:acã.'
amostral.
xll2341í
y45312
ESTDMAÇÃO DE IP'ARÂMIElfROS I 369
14.32. Suponha que E( I') =a X+ {3. Uma amostr11 de tamanho 50 está
disponível, digamos (x;, Y;), i= 1, ... , 50 para a qual
= Y =O, L~ 1 x;2 =
x
"' 10, L~~~ Y; 2 = 1.~ e L~l x;Y; = 8.
(a)
Determine as est.imat.ivas de mínimos quadrados d~s parâmetroo
a saber â e
(b)
fi:
01
e {J,
.
50
..... .
Qual~ o valor do mínimo da soma de quadrados Li~l [Y,;-(âXi+fJ)F?
14.33. Pode-se supor (erroneamente) que uma estimativ& não-tendencios&
possa ~empre ser encontrada. para. um parâmetro desconhecido. Isso não é verdade, como está ii ustrapo pelo seguinte exemplo. Suponha. que n repetições de
.{im experimepto sejaci. realizadas e um particular evento A ocorra precisamente
k vezes. Se tivermos formulado a. hipótese de uma probabilidade constante
p "' P(A), de que A ocorra quando o experimento for realizado, poderemos es\,a.r
interessados na estimaÇão da razão r = p/(1 - p), Para verificar que nenhuma
esÚmativa. não-tendenciosa. de r = p/(1 - p) existe [baseada na observação de k
··resultados A, e (n - k) resultados A], suponha-se que, ,de :rato, essa. estimativa.
êxiSta. Isto é, suponha-se que 'T = h(k) seja uma. ·estatística para a qual E('r) =
, ~· p/(1 - p). Especificamente, suponha-se que n = 2, e, portanto, k = O, 1 ou 2.
"::Denotem-se os três valores correspondentes de r por a, b e c. Verifique que E(r) o;=
·,;, :p/(1 - p) conduz a. uma contradição, observando-se o que acontece ao primeiro
i aosegundo membros dessa. equação, quando p ...... 1.
14.34. Verifique que as estimativas de mínimos quadrados
dadas pelas Eqs. (14.7) e (14.8), são não-tendenciosas.
â
e
{:3~ tal como
as expressões de V(â) e V(~), tal como estão dadas pelas
onde X é preestabelecido .
em uma amostra (x;, Y;), i = 1, ... , n, deterrrúne as · estimativas de
e.•nttnJLm<)S quadrados dos parâmetros a, {J.e 'Y·
.pa.smmc•o-:"'
Com o auxílio da Tábua 7, obtenha uma amostra de tamanho 20 de
variável aleatória que tenha distribuição N (2, 4 ).
·(a) Suponha que essa amostra tenha sido obtida de uma variável aleatória
· ·· tenha distribuição N(01., 4 ). Empregue os valores amostrais para obter para 01.
intervalo de confiança de 95 por cento.
(b) O mesmo que em (a), admitindo, porém, que a amostra provenha de
distribuição N(01., {3 1 ), cóm (31 desconhecido.
,çmneime
Compare os comprimentos dos intervalos de confiança em (a) e (b)
o resultado.
Testes de Hipóteses
Neste capítulo apresentaremos outra maneira de tratar o p~
blema. de fazer uma afirmação sobre um parâmetro desconhecido,
associado a uma distribuição de probabilidade, baseada em uma amos.:
tra aleatória. Em vez de procurar-se uma estimativa do parâmetro,
freqüentemente nos parecerá conveniente admitir um valor
tético para ele e, depois, utilizar a informação da amostra para
firmar ou rejeitar esse valor hipotético. Os conceitos, a serem apresentados neste capitulo, podem ser formulados sobre uma base
bastante sólida. No entanto, não nos dedicaremos a este ....,.,u.u,,v
sob um ângulo rigoroso; em vez disso, examinaremos alguns
dimentos que são, intuitivamente, bastante interesS'an.tes.
remos algumas das propriedades dos procedimentos
mas não pretenderemos indicar por que .alguns dos métodos pr<>po•sto•s.
devam ser preferidos a outros, alternativos. O leitor
poderá encontr11-r melhor fundamentação teórica de alguns
procedimentos recorrendo às obras enumeradas no fim do
Considere-se o seguinte exemplo..
Exemplo 15.1. Um fabricante vem produzindo pinos para
utílizados sob determinadas condições de trabalho. Vennc•oU-·SE
que a duração da vida (em horas) dessés pinos é normalmente
buida, N(lOO, 9)~ Um novo esquema de fabricáção foi u·ltr•O<i1lZl•dc
com o objetivo de aumentar a duração da vida desses pinos.
dizer, a expectativa é que a duração da vida X (correspondente
pinos fabricados pelo novo processo) terá distribuição N(p., 9)
JL > 100. (Adlnitimos que a variância permaneça a mesma.
significa, essencialmente, que a variabilidade do novo
a mesma que a do processo antigo.)
TIESTIES IDE 1-DII"ÓTESIES I 371 .
I
· Deste modo, o fabricante e o Jomprador potencial desses pinos
estã.o interessados em pôr à prova <?u testar) as seguintes hlpótes.es:
I
: f1. > 100.
,' ,
!
(Estamos fazendo a suposição tácita jde que o novo proceooo não pode
ser pior do que o antigo.) H o é denominada a hipótese da nulicl.afk
(ou hipótese básica), e H 1 a hipótese \alternativa.
·
... . , ·
Estamos, essencialmente, dian~e de um problema semelhante
àquele apresentado no Cap. 14. ~stamos estudando lima variável
aleatória e não conhecemos o valor de um parâ1p.etro associado à sua
distribmção. Poderíamos resolver este problemã, como já o fizemos
I
anteriorinente, pela simples estima;ção de JL. Porém, em muitas
situações, estaremos realmente . intel-assados em tomar uma decisão
.. específica: de~eremos aceitar ou rejeitar a hipótese Ho? Por isso,
não retrocederemos aos conceitos anteriores
de estimação) mas iremos
I
desenvolver alguns conceitos que ser;ão particularmente adequados a
.resolver o. problema específico que teEos à mão.
Começamos por obter wna amqstra de tamanho n, da variável
.
· ·. ·;aleatória X. Isto é, escolhemos ao~ acaso n pinos _fabricados pelo
novo processo e registramos quant~ tempo esses pinos funcionam,
~assim obtendo a amostra X 1, .•• , X:n· Depois, calculamos a média
.aritmética desses números, digamos X. Como se sabe que X ·éonstitui
"boa" estimativa de p., pa~ce razoável que devamos basear
· nossa decisão de aceitar ou rejeitar H 0 sobre o valor de X. Já que
éstamos interessados em discriminar! entre p. = 100. e valo~s de p.
· · m.aiores do que 100, parece razoável rejeitarmos H o se · (X -100)
fôr "muito grande".
!
·
, Desta maneira, somos conduzid9s (estritamente em base intui~
t.iya) ao seguinte procedimento, comumente denomin,ado teste (ou
p~ova) de hipótese:.
Rejeitar H 0 se .X- 100 >'C' ou, equivaiente.
I
,:rp.ep.te, se X> C, (onde C é uma cpnstante a ser determinada), e
'aceitar no caso contrário.
!
Observe-se que a. forma partic~ar do teste que estamos utilifoi em parte sugerido pela hlpótese alte.r:nativa Hi. Este é
ponto ao qual voltaremos ainda. ! Se na situação acima estivésintéressados em testar H o: p. 100 contra ll/: p. ;';é 100, tede empregar o teste: Rejeitar Ho .se jX- 100 1 >C'. Esagora em posição análoga àqfe~~ em que no.s encontramos
estabelecemos uma estimativ~ e para o parâmetro e. Nós
pm·gunta,m(>S: Quão "boa:' é a estimh.tiva? Que propriedades desedeve ela apresentar? Podemos formular questões semelhailtes
H o: p. = ·100 cont~a H 1
uma
1
T
372 I PAOBABDUIDADIE
sobre o teste que construímos: Quão "bom" é o teste? Que propriedades deve ele apresentar? Como compará-lo com outro teste
que se possa propor?
.A fim de responder a essas questões, deveremos, antes de mais
·nada, compreender que nenhuma solução existe, no sentido usual, _para o problema que estamos colocando. Quer dizer, apenas pela
inspeção de alguns pinos que estejam sendo fabricados, nunca pode~ remos estar certos de que f..L = 100. (Novamente, observe-se a ana-<logia com
o problema da estimação:
não esperamos que nossa esti~ ·
A
mativa seja igual a O; apenas esperamos que ela esteja "próxima" .
de 0.) A mesma coisa é verdadeira aqui: Um teste ;!lão nqs. condu- -zirá sempre à decisão certa, mas um "bom" teste nos conduzirá à _
decisão correta "na maioria das vezes".
e
Vamos ser mais · precisos. Existem, fundamentalmente,
tipos de erros que-poderemos cometer. Poderemos rejeitar H 0
do, de fato, H o for verdadeira; isto é, quando a qualidade dos
não tiver melhorado. Isto poderá acontecer porque tenhamos esco~ ­
lhido alguns pinos fortes em nossa amostra, que não serão típicos
produção completa. Ou, alternativamente, poderemos aceitar
quando, de fato, H 0 for falsa; isto é, quando a qualidade dos
tiver melhorado. Formalizando, estabeleceremos a segujnte utoHlllyoLu
Definição. Erro Tipo 1:
Rejeitar Ho quando H o for verdadeira.
Erro Tipo 2:
Aceitar H o quando H o for falsa.
Deve-se esclarecer que não poderemos· evitar
oêsses erros; tentaremos manter relativamente pequena a pr-oo:aoJlih
.dade de 'cometer esses erros.
A fim de enfrentar este problema, vamos introduzir a
mtúto importante da função Característic~ de Operação de um
L, que é a ~guinte função do parâmetro J.t (desconhecido):
Dejhtíção. A junção cm·acteríslica de operação (função
teste acima é definida:
L(f..L) = P (aceitar Ho!JL) = P(X::; Cj,u).
1!IM
Isto é, L{p,) é a probabilidade de aceitar H o, considerada
função de Ji..
TESTES DE HIPÓTESES I 373
Comentário : Outra função estreitamente relacionada com a função CO é a
função de poder, definidp.por
H(J.l.) =?[rejeitar H 0 1~-t J .
Por isso, H (J.t) == 1 - L (J.t). Empregaremos a função CO para descrever as propriedades de um teste, apesar de que isso poderia ser também facilmente feito em
termos da função de poder.
'·
(
No caso particular que está sendo estudado, poderemos obter a
· · seguinte .expressão e:r;plícita para L: Se p. .for o verdadeiro valor de
E(X), então X terá a distribuição N(p., 9/n). Portanto,
L(p.)
..
-
= P(X ~
C !J.t)
_ .
=P
I\ X- J.l.) =' 4> [ <C- 3J.L)
VnJ.l. :::; c Vn
3/ n
. onde, como sempre
· 1
4> (s) = - -
3/ n
j_s
y'2;. -~
-v;]
. '
e-z'/2 dx.
As seguintes propriedades de L(p.) são facilmente verificadas:
v·
·~
(a) L(- co)
·.
= 1.
(b) L(+~)= O,
(c) dL/dJ.l. < O para todo p..
f) .·tRmente decrescente de J.l .)
· . <• . Assim, o gráfico da func;ão
.L apresenta a aparência geral da
.· ·,···· curva da Fig. 15.1. (A configu.ração específica dependerá, na. turalmente, da escolha da cons•·.· tante C e do tamanho da amos-
~f
;::
.
(Portanto, L é uma função estri-
Fig. 15.1
. .ti'a n.)
Considere-se 1 - L(lOO). Este número representa a probabi•·· Údade de rejeitar H o, quando H o for verdadeira. Isto é, 1 - L (lOO)
~;p;···.~pre~sertta a probabilidade de um erro tipo 1. Se n e C forem dados,
1 - L(lOO) ficará completamente determinado. Por exeJnplo,
aimos n = 50 e C = 101, obteremos
~-
L(lOO) = 1 -
=
~[
101 ;
I
1 - 4> (2,37)
100
V 50]
.
= 0,009.
este teste · particular nos levará a rejeitar H 0 erroneamente
de 0,9 por cento das vezes.
374 I PROBAB!UDADE
Freqüentemente, examma~mos o problema de um ângulo ligeiramente diferente. Suponha-se que o tamanho da amostra; n, seja
dado e que a Ilrobabilidade do erf? tipo 1 seja especificada. ' lato é,
1 - L(lOO) = a ou, equivalentemente, L(lOO) = li. - oz. Qual deQ
vem ser o valor de c?
Particularizando, se tomarmos n = 50 e escolhermos
obteremos C como solução da seguinte equação:
I
o,95 = w(c - 3100
ot
=0,05,
voo).
Da tábua da diStribuição normal, isso dá
1,64
=
c -3 100 vso.
Conseqüentemente,
c=
100
+ 3~·:) = 100,69.
Por conseguinte, se rejeitarmos a hipótese sempre que a média .
amostral for maior do que 100,69, estaremos assegurando uma p~ .
habilidade 0,05 de que o erro t;ipo
!.(,.)
11. ocorrerá.
Desde que n e C
A
I
sejam
agora
conhecidos,
a
L(,.)= I
CO estará completamente especi- •
ficada. Seu gráfico está apresen.:.
-------1-t------=--" tado na Fig. 15.2. O valor 0,05
é denominado nível de signijicân~
cia do teste (ou algumas vezes, ·. ·
Fig. 15.2
amplitude do teste). Na J.ua'v'·'"
dos problemas, este valor é tomado menor do que 0,1.
Note-se que, uma vez especificados n: e o tamanho da amostra
apenas a constante C terá de ser determinada, a fim de que se
cifique completamente o teste. Nós fizemos isso, impondo que
gráfico da função CO passasse por um ponto espepificado, a saber
(100; 0,95). (É evidente a maneira como o procedimento acima
modificado se tivéssemos escolhido um outro valor que não
para o nivel de significância.)
Agora que a função CO está completamente especificada,
remos achar as coordenadas de qualquer outro ponto. Por ""'''..ut'AV'
qual será o valor de L(102)?
TESTES DE HiPÓTESES I 375
I
.L(102) =
=
~(
V
100,69 L 102
31
50)
.
~ (-3,1) =10,000 97.
Portanto, para o teste que estamos examinando, a probabilidade de
aceitar H o: p. = 100, quando de fato j p. = 102, é igual a 0,000 9~.
Em conseqüência, lli probabilidade de um erro tipo 2 será realmente
I
muito pequena se p. = 102. Já que L é uma função decrescente de p., ·
· . concluímos que L(p.) < 0,000 97 para todo p. > 102.
l
Se nós desejarmos escolher tanto como C, deveremos especificar dois pontos, pelos qu~is o gráfico Ida função CO deverá passar.
Desta maneira, seremos capazes de controlar
não somente a probabia
I
. Iidà.de do erro tipo 1, mas também a probabilidade do erro tipo 2.
.
.
I
I
.
·
Suponha-se que, no exemL(p.)
plo que estamos estudando, não
\
desejemos rejeitar Ho quando L.;;...(~':...>=-::I==-­
·J}.2::· 102. Por isso, deveremos
·fazer, por exemplo, L(102) = ·.
·· . b 0,01, e, desde que L é uma ·
,.=102
1'= .100
Fig. 15.3
Junção decrescente de p,, segue-se
que L(p.) ::; 0,01 para J.L > 102.
1
(Veja a Fig. 15.3.) Se também impusermos um nível de significância de 0,05, obteremos as duas seguintes equações, para a determi.· nação de n e C:
\
,
L(lOO) = 0,95,
L(\102) = 0,01.
I
(
c~ 100
0,95 = <I>
3
o,o~ = <~> (c~'> 102 v~).
V n-) ,
I
· Das tábuas da distribuição normal, verificamos que essas expressões
I
equivalentes a
1,64 =
C- 100 _r
·
vn,
3
_
2'3I3
~
= C - 102 _ r
.
3
.. ,
vn. '
i
. fim de eliminarmos n, dividire:rp.os uma equação pela outra.
I
(C - 102)(1,64) = (- 2,33)(C- 100),
. qual se obtém
C
=
I
(102) (1,64) - (100) ( _:,2,33)
00 8
1,64 - C- 2,33) I
= 1 ' •
Dai,
376 I I'ROIBAmUI}ADE
Uma vez que C é conhecido, poderemos obter n elevando ao
quadrado qualquer das equações acima; portanto,
n :=:, [ 3 (l, 64 ) ]
100
c-
~5.2.
IFormllialção
Variância Con hecidla~
Gerai:
2
= 34 6 ~ 35
I
•
Distribuição
Norma i
Estudamos, com algum detalhe, um exemplo que trata de hipó-
tese referente à média de wna variável aleatória normalmente distribuída. . Enquanto algumas ·das operações ainda estão vivas em nossa .·
mente, vamos generalizar esse exemplo, da maneira seguinte.
Suponha-se que X seja uma variável aleatória com distribuição .
N(p., u 2), ond.e u 2 é suposto conhecido. Para testar H 0 : J-1. = J.l.o
contra H 1 : J.L > )J.o, propomos o seguinte: Obtenha-se uma amostra de tamanho n, calcule-se a média amostral X, e rejeite~se H 0
se X> C, onde C é uma constante a ser determinada. A função
CO deste. teste é dada por
-
(c - "" vn-).
LV;.)= P(X :<;;C)= .P - u -
A configuração geral da função CO é a apresentada na Fig. 15.4.
As propriedade~ gerais de L(p.) são facilmente estabelecidas ·
(vejà o Probl. 15.4):
(a) L(- cc)
=
1.
(b) L(+ cn) = O.
(c) L'(p.)
cente de J.L.
< O, e, por isso,
L é uma função estritamente decres(15.1) .
(á) L"(p.) = O para p. = C e, por isso, o gráfico
ponto de inflexão para esse valor de p..
(e) n crescente determina que a curva se tome
Para prosseguir, vamos examinar dois casos.
, Caso 1. Se n for dado e n'ós especificarmos o nível de ·
· ficância do teste (isto é, a probabilidade do erro tipo 1) em a
TESTES DIE HIPÓTESES I 317
valor a, poderemos obter o valor de C, pela resolução da seguinte
equação:
Definindo-se Ka pela relação
1/~
1:a e~'lz
dt = a,
poderemos
escrever a acima na forma
Kt-a. =C- J.l.o
Vn
()
'
onde K1-a poderá ser obtido da tábua da distribuição normal.
seqüentemente, rejeitaremos H o se
X> J.l.o
Con-
()
+ VnKI-a·
Caso 2. Se a e C tiverem -de ser determinados, deveremos es.pecificar dois pontos do gráfico da curva CO : 1 - L(J.i 0) = a, o
nivel de significância, e L(p.t) = {3, a probabilidade do erro tipo 2· para: JL = p. 1 • Em coriseqüência, deveremos resolver as seguintes
;··equações, para n e C: ·
r\
- vn7;
( c-qJJ.o.
1- a= <I> -. -
--::==c,-----1--------=c_.L(~)= I
A --- .... ,
,....,....---- H
D
Fig,· 15.4
Fig. 15.5
equações poderão ser resolvidas para n e C, tal como foi explianteriormente. Obteremos
C=
P.tKt-a- JLoK{J
K1-a- KfJ
Kl-a e Kp já foram definidos acima.
.. l
378 I PROBABDUDADE
No procedimento esboçado, tratamos com a hipótese alternativa H 1 : J.L > 100 (ou, no caso geral, }.L > J.Lo). Em alguma outra situação, poderemos desejar considerar Ho :J.J; =}.Lo contra H/: }.L< J.Lo
ou H o : J.L = J.Lo contra H 1" : J.L ~ J.Lo. Deve estir evidente a maneira
pela qual modificaremos o teste acima, para tal hipótese alternativa.
Se considerássemos .H 1' :}.L < }.Lo, rejeitaríamos II o se X < C e a
função CO seria definida por
L(J.L) = P(X'?.
C)= 1 - cf> (C-J.L
-·-(]"_
v'n-) .
Se considerássemos H 1" : }.L ~ }.Lo, rejeitaríamos H o sempre que
IX - }.Lo I > C e, conseqüentemente, a função CO seria definida por
L(J.L) =
P(IX - J.Lol
= <Jj (
=:;;C)
c + }.L: -
}.L
=
-v;) - {-c +:o - }.L v'~) ~
(!)
Se escolhermos o mesmo nível de significância para cada um dos
testes acima, digamos a, e marcarmos os gráficos das respectivas
funções CO no mesmo sistema de coordenadas, obteremos o que está
represtmtado na Fig. 15.5, onde a curva A correspon,de a H h B a H {,
e Da H 1". Essa figura nos dá meios de comparar os três testes que
estamos estu<!ando. Todos os .testes têm o mesmo nível de significância. (Deve ficar bem éompreendido que C é apenas um símbolo
genérico para uma constante, que não será a mesma em todos os casos.
O importante é que em cada caso C tenha sido escolhido de modo
que o teste tenha o nível de sigl).ificância a.)
Se JL > }.Lo, então o teste A será melhor do que os outros dois,
porque ele ~rá. um menor valor para a probabilidade do erro tipo 2.
No entanto, se JJ. < }.Lo, o teste A será o pior deles enquanto o teste B
será o melhor. Finalmente, o ·teste D é geralmente aceitável e, no
entanto, em qualquer caso específico poderá ser melhorado, quer pelo
teste A, quer pelo teste B. Portanto, observamos que é muito importante ter uma hipótese alternativa especlfica em mente, porque
o teste que escolhermos dependerá dela. (Nós somente comparamos
testes com o mesmo nível de significância; isto não é absolutamente
necessário, mas as comparações se tornarão um tanto vagas se empregarmos testes que tenham diferentes níveis de significância. Observe-se a semelhança ·com nossa comparação de certas estimativas:
somente comp8,ramos as variâncias daquelas estimativas que eram
nãO-tendenciosas.)
,:·
'
TESTES DE HIPÓTESES
'
I 379
.
basta~te
Em muitas situações é
evidente qual hipótese alternativa deveremos considerar. No Icaso acima, por exemplo, prciiu~
· mivelmente sabíamos que o novo processo de fabricação pro(IU:Ziria
pinos ou com a mesma durabilidadé ou com durabilidade aú~,
e, conseqüentemente, empregarlambs o teste A, como foi sugerido.
(Se o novo processo se destinasse. ~ produzir pinos de qualidade inferior, o nosso teste seria muito dJficiente.) Se uma hipótese co~o
essa não foose justificável, seria m~lhor empregar um teste talc·o~o
o D: Rejeitar H 0 se X- Jlo I > C. Testes tais como A e B são denominados teares unicaudais, enquanto um teste semelhante 111. D é denominado tes~ bicaudal. :..
·'
Ao examinar hipóteses altema~ivas, a seguinte analogia se revelam útil. Suponha-se que uma pe~a esteja deixando a localidade
M, e sabemos que terá ido para a ksquerda ou: para a direita de M,
percorrendo uma. trajetória retilmeJ..
'
'
.
:
di~poniveJ
grupo
Se 10 pessüru! estiverem
para um
de busca, como
deverão essas pessoas se dispersar:? Se nada, mais for conhecido,
relativamente ao paradeiro da. pes~oa, pareceria razoável enviar um
grupo de 5 pessoas em cada direção, dessa maneira expedindo um
grupo de busca bastante eficiente, Im~. não demasiadamente forte,
tanto para a esquerda como para ·a; d1relta. No entanto, se houver
algum indicio de que a pessoa ten~a se extraviado para a. esquerda,
nesse caso todas ou a maioria
pessoas disponíveis deveriam ser
enviada·> para a esquerda, para consf.it~irem um grupo de busca muito
eficiente à esquerda e um muito dJficiente à direita. Outras considerações poderiam também influenbiar o emprego dos recursos disponíveis. Por exemplo, suponha-se que a trajetória para a esquerda _
leve a um campo raso arborizado, edquanto a trajetória para a direita
conduza à borda de uma profund~ garganta. 1t ·Óbvio que, neste
caso, a maioria dos exploradores e~taria concentrada à ,direita, porque as conseqüências de ficar percifdo à direita seriam:Jnuito mais
sérias do que aquelas à esquerda.
1
A analogia fica evidente. Ao ~est11,r hipóteses, também estaremos interessados nas conseqÜências j de nossa decisíi,o de rejeitar . H o
ou de aceitá-la. Por exemplo, o erro que cometeríamos ao acettar
alguns pinos, que fossem realmente inferiores (acreditando-se que
não o fossem) seria tão importanik quanto não aceitar pinos que
fossem realmente satisfatórios (acJditando-se que não o fossem)?
ciJ
i
1
~·~
380 I I"ROBAB!UIJ>ADIE
Come?!ldrio: Na fo!'XIlulação acima, augerimoo que, freqUentemente, preesta·lbelecemoo o nfvel de significâncii!. do teste. Isto é feito freqüentemente ; contudo,
amist0 outll'o tratamento pall'a o problellllll, o qual é muito oomum e dew se~
~omentado.
Vamos voltar 11.0 lEx. ll5.ll, no qual testamos H e: IA = llOO con'1l;rs H 1 : fJ. > 100. Suponha-se que simplesmente tiramos uma
amostli'a. de tamanho 00, calculamos a. média amostral, digamos X,
e achamos que X = 100,87. Deveremos aceitar ou rejeitar H o?
Poderemos raciocinaR' assim: Se fl. = 100, então X terá distribuiçM
N(lOO, 9J/50). JP'or isoo, calcularemos
P(X
~
1100,81)
=
P
et
.
.
-;~ 100 voo
= 1- cJfl (2,06) =
;: :
ID0,873- ltOO
V 00)
=
0,019 699.
Desde que 0,01 < 0,019 699 < O,o5 diremos que o valor observado
de X é significativo no nfvel de 5%, mas não o é no nível de 1%.
Quer dizer, se empregássemos a = 0;05, rejeitaríamos H o, enquanto
ao mesmo tempo se empregássemos 01 = 0,01, não rejeitarfamos H o.
Por outras _palavras, se IA = 100, obteriamos um resultado ~ue
somente ocorreria cerca de 1,9 por cento das vezes. Se sentíssemos
que, ll. fim de aceitar H o, um result~do deveria ter ao menos p.robabi..lidade de ocorrência de 0,05, então rejeitaríamos H o. Se estivéss~mos
satisfeitos com uma probabilidade de 0,01 aceitaríamos Ho.
·
x2
Com.mlário: O teste acirns. estipula.
que Ho deve ser rejeitada sempre que·
X > C. Suponha-se que o tamanho da
amostra seja n = 2. Con..oeqüentemente,
o critério acima se torna (X 1 + X 2)/2 > C
ou, equivalentemente, (X1 + X 2) > k.
Dessa maneira, o conjunto dos v11Jores
possíveis (xJJ x2) terá sido dividido em
duas regiões: R = {(xl, x2) IXt + x~ > k}
e
R.
A região específica R depende, naturalmente, do valor de k, o qual por·
sua vez depende do nível de significância
do teste. R, a região de rejeição, é algumas vezes denomin;da regt'l!.o C?iiÍCI!l do
teste. (Veja a Fig. 15.6.)
!Fig. 15.6
De fonna bastante geral, um teste pode ser descrito em termos
de sua região crítica R. Quer dizer, rejeitaremos H o se, e somente se,.
(x1, ... , Xn) E R.
TESTES DE HIPÓTIESIES
15.3.
I 331
IE}(~mplos Aoliciona~is
Em vez de formularmos uma teoria geral dos testes de hipóteses·
(a qual existe .e é bastante extensa), continuaremos a examinar alguns
exemplos. Em cada caso, o teste que proporemos será intuitivamente
justificável. Nenhuma tentativa será feita para indicar qú.e um
teste particular seja, em algum sentido, o melhor.
Exemplo 15.2. Dois processos de produção estão sendo comparados. O produto do processo A pode ser caracterizado como
uma variável ale~tória X, .com distrib-qição N(p.:c, -u:z?), enquanto o
produto do processo B pode ser carncteriiado como uma variável
aleatória Y, com distribuição N(p.y, Uy 2) . Admitiremos que a variabilidade inerente cm cada um dos processos, medida pela variância,
seja conhecida. Desejamos testar â. hipótese H o : J.l.r = J.l.v contra a
hipótese alternativa H 1 : iJ.x - iJ.v > O.
Obteremos uma amo.stra de tamanho n de X, por exemplo
XIJ ... , Xn, e uma amostra de tamanho m de Y, digamos YIJ ... , Y ...
Calcularemos as respectivas médias amostrais X e Y e proporemos o
seguinte teste p:ua provarmos a hipótese acima.:
Rejeitar H o se X- y > c, onde c é urna constante escolhida de
modo que o teste tenha um nivel de significância eEpecific ado igual a 01.
A· variável aleatória Z = [(X- Y)..:.... (;i.:c - J.l.v)l/vur.~/n + <fv2fm ·
terá distribuição N (O, _1). Definindo J.1. = .J.l."' - iJ.v, poderemos. . ex;primir ·a funÇão CO do teste acima, como uma funçãO de J.l., assim:
Ora, p,, = Jlu <é equivalente a J.l. =,., O. . Conseqüentemente, para determinarmos C, deveremos resolver a equação
L(O)
ou
= 1- ot
382 I PROBABBIUDADIE
onde K .. é definido, como anteriormente, pela relação .. )
PQl'tanto,
(Nós ·não abordaremos a questão de determinar n e m, para uma solução ótima. Uma exposição dessa questão é encontrada em Dennan
and Klein, Probability and Statistical Injerence for Engineers, Oxford
University Press, New York, 1959.)
Exemplo 15.3. Um fabricante fornece fusi'veis, 90 por cent9
dos quais, aproximadamente, funcionam adequadamente. Inicia-se
um novo processo, cujo objetivo é aumentar a proporção dos fusíveis
que funcionam adequadamente. Conseqüentemente, desejamos testar a hipótese H o: p = 0,90 contraH 1 : p > 0,90, onde pé a proporção dos fusíveis que funcionam adequadamente. (Quer dizer, ·estamos testando a hipótese de que nenhuma melhoria teve lugar contra
a hipótese que o novo processo seja superior.) Tiramos uma
amostra de
fusíveis fabric.ados pelo novo processo e contamos X,
o número de fusíveis que funcionam adequadamente. Propomos o
seguinte teste:
Rejeitar Ho sempre que X > 48 e aceitar no caso contrário.
Supondo que a variável aleatória X tenha uma distribuição
binomial com parâmetro p (o que ,c onstitui umli. supos!ção adequada
se a amostra for tirada de um lote muito grande), obteremos a seguinW.
expressão para a função CO:
50
L(p)
= P(X
=
1-
:$ 48)
L50
1<=49
=
1- P(X 2:: 49)
(50) P"'
k
.
(1- p) 6 o-k
=
1- p 4D (.50- 49p)
'
TESTES DE HiPÓTESES I 383
i
depois de alguma simplificação algébrica.
I
seguinte:
Portanto, teremos
@-
!
= 1.
(b) L(l) = O.
(a) L(O)
(c) L'(p)
I
< O para
todo
p, O < pi< 1.
!
(á) L"(p) = O se p = 48/49.
'
I
[As propriedades (c) e (á) são facilmep.te verificadaS por uma derivação imediata.) ConseqüentemenL(p)
te, d gráfico da função L, acima,
terá laconfiguração da curva apresent~da na Fig. , 15.7. O nivel de
signi;ficância a do teste será obtido
calctilando-se 1 - L(0,9). Obteremds
1
'
I
l a = 1- L(0,9) =
p =~
= (0,9) 49[50 - 44,1] =
I
= 0,034.
Fig. 15.7
Comentários: (a) O exemplo acima pode rer generalizado assim: Suponha-M
que X seja uma variável aleatória binomialritente distribuída, baseada em n re' petições de um experimento, com parâmetro pj Para testar•& hipótese Ho:p =pu
contra H1 : p > po, propomos o seguinte tes~:
i
.
.
Rejeitar Ho· sempre que X > C, onde C é uma constante a ser d~tenninada.
(Portanto, aceitar H 0 sempre que X~ C.)
A função CO deste teste será da fonna
c
L(p)
=;
L
k=O
ÂB
(1)
,,
I
(n) pk(l k
(15.2)
p)n-k.
I
seguintes propriedades de L são facilme nte verificadaS. (Veja o Probl.l5.5.)
1
L(O) = 1;
L(l) = O.
(2) L'(p) < O para todo p, O < p
.
I
mente decrescente.)
(3) L:'(p) .= O se p = Cj(n- 1).
de inflexão em Ci\n - l).l
I
< 1!I
.
,
.
I
(Coriseqüimt.emente, L é lllltrita-
1
[Co,n~eqüentemente, L
possui um ponto
(b) Afirmamos que, em alguns casos, poderemos aproximar a. distribuição,
binomial com a distribuição de Poisson. I~to é, para n grande e p pequeno,.
\\
384 I 1-'ROBABiUDADE
IP(X = k)!:!! ~ ('1Bp)"'Jkl lEmpreg~mdo es~ foli'raoo dle JP(X
l!ll· ll'~ 00 ~& o t-este propooto ~ Wmlll:
= k),
®llloont!raremcs .·
<t)!OO
(15.3)
@
.& ~mi propriedooes de R do t&mbém facilmente verifnooiMl;
Jl»robl. 15.1$.}
(Veja .
(4) R(O) = ll; R(l) ,. O.
(~) !R/(p)
< I[JI JPllllli'&
tOO!o p, itJI
<p <L
(6) R"(p) = O llll p = Cjn.
(7) R(Cin) é ~ma f~ção somente de
C,
e não de m.
vronoo
li'OOXaminall' o problema, de restar H IJ : J1. = IJ.ij contm
onde X tenha, distribuição N (p,, u 2). Anteriormente,
admitimos que q'l. fOO!le conhecido; agora, vamos levMtar essa :~re&­
trição.
H 1 : }!
> f.J,o,
Nosso teste anterior rejeitava H o sempre que.(Jt- tJ.o) y;t{u > C;
C era dete~ado levando-se em conta o fato de que (X -~to) y;;ju
tem distribuição N(O, 1) quando 1J. = p.,n.
Da mesma maneira que fizemos quando construful.os um intervalo de confiança para p., quando o- 2 era desconhecido, vamos estimar
n 2 por ;;~ = [1/(n- 1)]~;'= 1 '(X• - X) 2 • Agora, vamos empregar .um
teste mmlogo àquele proposto acima: Rejeitar H o sempre que- .•.
(X- p) vn(G- > c. Para determinar c levaremos em conta o fato
de que (X.,..,. J.H.o) vnt'U possui distribuição de t de Student; oom (n - ll)
graus de libefdade, quando J.1.- IJ.o. (Veja o Teor. ll4.3.)
Seja ot, o nível de aignifid.ncia pree8tabelecido; · Então; a =
= P[(X - §Lo) v'~u > Cl acarreta que c = i..-1) 1-<liJ que se obtém
da tábua de distribuição de t de
Student. (Veja a Fig. 15.8.) Nosso
teSte se toma, portanto, rejeita:r H a
sempre que X> utn-1, ~-..n-1 ' 2 + J.Lo.
.
~
---<;>f
IA - 1.,1-ar
!Fig. íl5.S
Exemplo 15.4. Suponha-se qlie X , a qued~ anual de chuva em
deterffiinada looalidade, seja· normalmente distribuída com E(X) =
= 30,0 polegadas. (Este valor foi estabelecido a partiT de um longo
registro histórico de dados meteorológicos,) Em anos recentes,
determinadas alterações climáticas p~rece se eVidenciarem, mflul!')nciando, entre outras. coisas, · a preCipitação anual. Lança-se a
hlpó~ de que, de faf.o., a pluviosidade anual telllh.a aumentado.
TESTIES DIE Hii>ÕTIESIES
I
385
Particularmente, desejamos testar H o : p, = 30,0 contra· H 1 : p, > 30,0.
Admite-se que a variância seja desconhecida, porque as alterações
climáticas mencionadas podem ter também influenciado a variabilidade da .queda· de chuva e, conseqüentemente, os registras' passados
sobre a variância são destituidos de sentido.
Vamos admitir que os últimos 8 anos tenham dado a seguinte
precipitação anual (em polegadas):
34,1; 33,7; 27,4; 31,1;30,9; 35,2; 28,4; 32,1.
Cálculos imediatos dão X= 31,6 e
buição de t encontramos que t1: o,95
ut?;
u = 7,5.
2
Das tábuas da distri-
= 1,89. Portanto,
~
0,96-v.:'s + 3o,o. = 31,8 > 31,6.
Conseqüentemente, não rejeitaremos · H o, no nível . de significância
de 0,05.
15.4. Testes de Aderência
~
Na maioria de nossas explanações, admitimos .que a variável
aleat6ria. em estudo tivesse uma distribuição. especifica. No _capitulo anterior e em seções anteriores deste capitulo, aprendemos
como resolver o problema de ter um parâmetro desconhecido, associado a uma distribuição de probabilidade. No entanto, pode acon,tecer que não estejamos nem sequer seguros sobre a forma geral da.
distribuição básica. Vamos apresentar alguns exemplos.
Exemplo 15.5. Recipientes de mercadoria · de um certo tipo
foram expostos ao risco ·de acidentes sob ação de tempestades, gelo,
fogo, queda, desarranjo da maquinaria etc., por um período de 400
dias. O número de aci'dentes com cada recipiente, X, pode ser considerado como urna variável aleat6ria. Os seguintes dados foram
relatados:
Número de acidentes (X)
Número de recipientes com X acidentes:
o 123456
1.448 805 206 34 4 2 1
Os dados acima fundamentam a 'suposição de que X tenha uma distribuição de Poisson?
.
.
Exemplo 15.6. Suponha-se que 20 amostras de · um · particul~r
tipo de fio foram obtidas e as resistências (ohms) fotam meilid~\
386 I PROBABULIDADE
Os seguintes valores foram registrados:
9,8; 14,5; 13,7; 7,6; 10,5; 9,3; 11,1; 10,1; 12,7; 9,9;
.
.
10,4; 8,3; 11,5; 10,0; 9, 1; 13,8; 12,9; 10,6; 8,9; 9,5.
Se R for a variável aleatória da qual a amostra acima foi obtida,
teremos razão para supor que R seja normalmente distribuída?
Exemplo 15.7. Vjnte válvulas eletrônicas foram ensaiadas e
as seguintes durações de vida (horas) foram registradas:
7,2; 37,$; 49,6; 21,4; 67,2; 41,1; 3,8; 8,1; 23,2; 72,1;
11,4; 17,5; 29,8; 57,8; 84,6; 12,8; 2,9; 42;7;
7,4; 33,4.
Serão os dados acima consistentes com a hipótese de que T, a variável
aleatória amostrada, seja exponencialmente distribuída.~
Os exemplos acima são típicos de uma grande Classe de problemas que surgem freqüentemente nas aplicações. Há algumas técnicas estat.fsticas pelas quais tais problemas podem ser analisados, e
nós, a seguir, estudaremos uma delas.
O problema de testar a hipótese de que uma variável aleatória
tenhn. uma certa distribuição especificada pode ser considerado como
um caso especial do seguinte problema geral:
Considere-se novamente a situação que deu origem à distribuição multinomial (Seç. 8.7). Um. experimento 8 é realizado n vezes.
Cada repetição de 8 dá como resultado um e somente um dos eventos
A;, i = 1, 2, . .. , k. Suponha-se que P(A.;) = p;. Seja n; o número
de vezes que A.; ocorra dentre as n repetições de 8, n1 n2
+ +
+ nk = n .
+
Nós desejamos testar a hipótese H o : p; = Pio, i = 1, . .. , k,
onde Pio é . um valor especificado. Karl Pearson (1900) apresentou
o seguinte teste de "aderência" para testar a hipótese acima:
Rejeitar H o sempre que D 2
=
t
(n; -. np;.)
i=l
np;o
2
> c,
(15.4)
onde C é uma constante a ser determinada.
Comentários: (a) Desde que E(n;) = np;o se p; = p;a, o critério do teste
acima apresenta considerável base intuitivà. Porque ele requer que rejeitemos
Ho sempre que o desvio entre os valores observados n; e os valores esperados np;0
~eja. "muito grande". A estatística acima D 2 é, algumas vezes, sugestivamente
escrita sob a forma 2:~=l (o;- e;f/e;, onde o; e e; se referem aos valores observado;;· e esperados de n;, respectivamente.
I TESTES
DE HIPÓTESES I 381-
1
.
(b) . :É importante compreender que D 2 é _Jma
estatística
(isto
é, uma. função
I
.
dos valores observados n 11 . .. , nk) e, portanto, é uma variável aleatória. ·De
fato, D 2 é uma variável aleatória discreta que {fma um grande número, finito, de
valores. A distribUição verdadeira de D 2 é muito complicada. Felizmente, existe
uma aproximação para a distribuição de D2, ~álida se n for grande, Íorn~ndo o
procedimento apresentado aci~a. muito utilizáv~l.
;;i..''
. -...F
Teorema 15.1 Se n for suficiente~ente grande, e se p; == p;.,
a distribuição de D 2 tem, aproximadamente, a distribuição de · qui-quadrado, com (k - 1) graus de liberdade .
Demonstração: O seguínte raciocinib não constitui uma demonstração rigorosa. Repr~sent~ somente uk esforço para tornar o resultado plausível.
1
Considere-se um caso particular, a saber k = 2. Então,
.. D 2 = (nt - npto) 2 + (n!2 np1o
l,evando em conta o fato de que n1
poderemos escrever
i
np2o)~
np2o
+/n2 = n
e que P1o
+ P2o = 1,
se A1 ocorrer na j-ésima repetição;
I
para qualquer outra o<;orrência.
Assim, n 1 pode ser expresso como a sÓma de n variáveis aleatórias
independentes e, dé acordo com o Teorema do Limite Central, tem
aproximadamente uma distribuiçao nobal se n for grande. Além
disso, E(nt) = npto e V(nr) = np1o (1 - Pto) se P1• for o verdadeiro
, valor de Pl· Conseqüentemente, se p ~ = P1o 1 então para n grande,
a variável ,aleatória (n 1 - np 1 o)/Vnp~o (1 - Plo) terá, ap~oximada­
mente, a distribuição N(O, 1). Deste modo, de acordo com o'l'eor.10.8
para n grande, a variável aleatória . . 1
·[
n1 _- npto l ]
V np1o (1 .:__ Pio)
I
2
.
terá aproximadamente a distribuição de X12 •
38!3 I PROBABDUDADIE
Mo~tramos que se n for suficientemente grande, D 2 (com k = 2)
tem aproximadamente a distribuição de XI 2 •
isto é, precisamente, o que afirmàmcis no teorema. A demonstração para k genéll'ioo segue as mesm&c3 . linhas: Deveremos mostrar que D2 pode ser
exp~ como a soma de quadrados de (k ~ · 1) variáveis aleatórias
iindependentes, cada uma delas com distribuição N(O, 1), se n for
grnnde e se p; = p;o, e recorrendo-.se ao Teor. 10.8, encontraremos
qu<B 11\eSultará ·o que se afirmou ac~ma.
Mas
Kt-l(x)
~
0,05
~
x2k-1;0,9.5
Fig. 15.9
Podemos empregar o resultado que acabamos de estabeleceF
para respondermos ã questão de "quão grande" D2 deveria ser a fim
de que rejeitássemos a hipótese H o :Pi =Pio.
Suponha-se que desejemos obter uma probabilidade ·do erro'
tipo 1 (isto é, d<;> nível de significância) igual a 0,05. Isto significa
que . esperamos rejeitar H 0 cerca de 5 por cento das vezes, quando
de fato H o for verdadeira. Por isso, escolheremos C que satisfaça
P(D 2
>
C jpi =Pio)
= 0,05.
Já que D 2 tem distribuição de xL1 se Pi = Pio, poderemos obter o
valor de C das tábuas da distribuição de qui-quadrado, i~:;to é,
C = X~-1; o,95; aqui, xLI; o.95 é definido pela relação
}
r;
[!le-I
(x) dx = 0,05, .
Xk-1; 0,95
onde [[Jc-I (x) é a fdp da variável aleatória com distribuição de X~-1·
(Veja a Fig. 15.9.)
Vamos empregar as idéias desenvolvidas acima para respondermos a algumas das questões colocadas no início desta seção: Como
poderemos encontrar um teste para decidir aceitar ou rejeitar a hipótese de que uma particular amostra tenha sido extraída de uma
variável aleatória com uma distribuição especificada?
l"IES'TriES DIE HBi>Ó'TrESIES I 389
Neste ponto, deveremos faze r uma distinção entre dois tipos .
de problemas. Poderemos simplesmente colocar a hipótese de que
a variável que está sendo amostrada tenha alguma distribuiç1í,o no:rma1, sem especificarmos .os parâmetros correspondentes. Ou :pode-'
remos ser mais específicos e colocar ~ hipótese de que a variâv~l em
estudo tenha uma distribuição normal com média e variância espE!cificadas. Os dois problemas podem ser tratadps de maneira seme.::
lhante, mas o últ.iino (quando especificamos a hipotética distribuição
completamente) é um tanto mais simples e o examinaremos em primeiro
lugar.
Caso 1.
ficada.
Teste para uma . distribuição completamente especi-
Exemplo... 15.8. Suponha~se que acreditemos que a duração da
vida T;- de lâmpadas elétricas, seja exponencialmente _distribuída
com parâmetro {3 = 0,005. (Isto é, a duração até falhar esperada
é 200 horas.) Obtemos uma amostra de 150 lâmpadas, ensaiamo-las,
e registramos sua duração até queimar, Tt, ... , Ttóo· Considerem-se
os seguintes quatro 'eventos mutuamente excludentes:
A1 :0::; T
< 100;
< 300;
. Aa :200::; T
A2 : 100 ::; T
< 200;
A4: T.'?:. 300 .
Suponha-se que registremos n;, o número .de vezes (dentre as 150
durações até falhar) que o evento A; tenha ocorrido, e encontremos
o seguinte: n1 = 47, n2 = 40, na = 35 e n4 = 28. A fim de calcular
a estatística D 2 , deveremos calcular p;, i = 1, 2, 3, 4. ·Ora,
p1
p2
=P(T ::; 100) = 1 =
Pn =
P4 =
e- 0•005 (tooJ = 1 - e-o.s = 0,39,
P(lOO ::; T < 200) = 1 - . e- 0•005 <2ool - 0,39 = 0,24,
P(200 ::; T < 300) ~ 1- e-:-o.oo5(aoo) _ (1- e-o,oo5(2ool)
P(T > 300) = e-o,o o5(3ool. = 0,22.
= 0, 15,
Agora podemos calcular
D2 =
:Ê (n.. i=l
=
np,-.)2 =
np;.
(47- 58,5)2
.58,5
+
(40 - 36t~
36
+
(28- 3~)2
(35- 22,5)2
22;5
+
33
= 11,56.
Da.s tábuas da distribuição de qui-q1,1adrado, encontramos que
P(D 2 > 11,56) < 0,01, onde D~ terá aproximadamente (!. distribuiÇã.9
de qui-quadrado com 4 - l = 3 graus de liberdade. Coi.íseqü~~:.
.,
~
~:
390 I PROBABiUe:>ADE
~!,
f(
'I'
~,!
u![
~!
~ii~
r'li"l
r
I[;ii
~fi
l''ihli
'i!
\
.11
li
1,:
H
li
·i'
I
-
temente, rejeital1amos a hipótese de que os. dados representem uma
amostra de uma distribuição exponencial com parâmetro {3 = 0,005.
O exemplo a.cima ilustra o procedimento geral que empregaremos
para testar a hip.ótese de que x;, ... , Xn represente uma amostra de
uma variável aleatória com uma distribuição completamente especificada:
(a) Divida!POS a reta real em k intervalos mutuamente excludentes, A1, ... , A!<·
(b) :Façamo~ igual a n; o número de valores amostrais que caiam
dentro de A;, i= 1, 2, . . . , k.
(c) Façamo~ p;o = P(A;). Esses valores podem ser calculados
já que a hipótese especifica completamente a distribuição.
(d) Calcule!1los D 2 e rejeitemos a hipótese se D 2 > C, onde C
é obtido das tábvas da distribuição de qui-quadrado. Se um nível
de significância a for desejado, C = X~-1; 1-a.
Comentário: Nã.O examinaremos a questão de como os intervalos A;, acima,
devam ser escolhidos .ou quantos deles devam ser escolhidos. Vamos somente enunciar a seguinte regra: Se np;. < 5 para qualquer A;, reúna os dados com A;+ 1
ou A;-1 • Isto é, nã.o desejaremos subdividir·o espaço amostral da variável aleatória
em partes tão peque1.1as que o número esperado de ocorrência.s em qualquer particular subdivisão seja menor do que 5. [Uma exposição compreensível deste problema pode ser enco~trada em um trabalho de W. G. Cochran, intitulado "The
x2-Test -of Goodness af Fit", (traduzindo, "0 Teste de Qui-quadrado de Aderên:
cia"), publicado nos fi.nn. M alh. Stat. 23, 315-345 (1952).]
..
)
Caso 2. Teste para uma distribuição cujos parâmetros devam
ser estimados.
Em muitos problemas, temos somente motivos para supor que
a variável aleatória que está sendo amostrada tenha urna distribuição de um certo tipo, sem sermos capazes de especificar os parâmetros.
Por exemplo, sabeplOS que certas hipóteses que fizemos poderiam nos
conduzir a uma di~tribuição de Poisson, a uma distribuição exponen·
cial etc. A fim de aplicarmos a técnica sugerida na seção anterior,
deveremos conhecer os valores dos parâmetros da distribuição.
Se não conhec;ermos esses valores, o caminho óbvio será primeiro
estimar os parâmetros conhecidos, :e, depois, utilizar ess~ estimativascom a finalidade de avaliar as probabilidades P•· Duas questões surgem:
(a)
Como deveriam ser estimados os parâmetros?
p;
(b) Se
(isto é, o parâmetro estimado) for empregado no lugar de p;0 , na expressão de D~, como isso influenciará a diStribuição de
D 2 ? (O fato de que isso alterará a distribui!;ão fica evidenciado quandO>
,-
TESTES DE HIPOTESES I 3St
oompreen.~ que, origimJ,lmente, oo ;p;., limlm ~Con.stmn.tea, . enqu111n.ta
:a,gora. os próprios
são variánm rueat6~, 'desB® m.Odo . darido m
~vel. aleatória D 8 uma estrutura muito xrui!.is compliCada;) '
I
,. .. .·
En®ciaremoo (sem . demoJMtmçio)
ai~ respostms às '""lll:m1
.
I
'li
Wes &eima:
.
'
P•
(a) As estimativas gemlmen4 empregadas pmm os pa.râmetll'OO
alio aquelas obtidas pelo método da múima verossilnilhança. .
Se o número de parâ.met~s a seir estimado for igual a
(b)
tem
r< k,
então, para n grande, a variável aleatória D 2
~ambém uma..dis,.
tribuição de qul-qua<l.rado, desta. v~z .com n - k - r graus de Jiber.dade.
.
I
Ctm1.tl!tdrio: Esta último fato é bastante notável. Ele significa que J)2 rem
11. mesma distribuição de qui-qUadrado b~ci!. que anteriormente; a t!.nica diferenÇ&
sendo que e ~rdenlí .u m fÇ'IllU de liberdade pam cada parlimetro que se tiver de
• .
I
I.
eBtpm\r.
Exemplo 15;9. .Considerem.-oo 1 os dados para o conteúdo de
cinzas no carVão, apresentados no f Ex. 14.6. 'Suponha-ae que desejemoo testar .a hipótese de que aqqeles dadoa tenham sido obtidos de
variável aleat6ria distribuída
normalmente.
Deveremos iniI
.
cialmente 'estimmr o8 parâmetros ç~rrespon.dentes JL e 0" 2• Anterior~
2 = 7,1.
mente já haVíamos obtido as estimativas de MV; ;;. = 1710
Va,xn.OO -Bubdiv:idir .os valores possiv~is .de X nas .cinco seguintes cateJlliil!la .
e·u
~:
'
.Ah: X
.
<
!
12;
A~:. 12 ·:$ X I<15;
A~: 1'8
:$X< 21; :
A..a: 15 ·::::; X
<
lS;
A~: X;:::: 21.
sS• .'Iil\;l ®~ . de veze~~ .que A,; .ooolf'll'l!l.. Enoon.tmremns IQ!U.e
.
.
I
•
'111n= :'ã; fl>J-= 49; 'ftu == lOO; n;, = 61; n5 = 18.
S~0 .~remoo
·Jk
~
.
4mlmili!ir
Pó ~ P(A.,;),. eXI!q>N:gM.OO
;,.-e qll l[)btidos ~!ma.
p(·X
os
"v.a.llOlNI:!ll
1eremoo
I
I
~'
-1'1
. .r oe\ <Roí&! ... i V""·< .1L~, ='
2,'1
I < 122,7 17)·= .&(
~ - ·.~~.,Oili,='<IIJ!Jiól>~
Pll ""'P{l::ll :S X< 15) ·= ~(--p/14) - . <9P(-1,85) = Q;W, . .
.' /lJifV
.
ps,·=.P(15:S X<
lU~)=
I
I
.
.
w(O,f1)- ~(--0.74:)~ 0,4~
= ~(~) - ·i!fi(0,37) =
p~
'= P(l8 .~ X < 21)
;p~
;,.. P(l'2: .21) = l.;.. ~{1,4S),; 0,()1.
0,291
392 I H"ROBABDUDADIE
Agora poderemos calcular
i
=
D2
i-1
(n; - 2~0p;)2
250p,
+
= (7 - 7,5)2
(49 - 50) 2
50
7,5 .
+
(67 - 72,5)2
72,5
= 0,82.
+
+ (109 -
102,5)2
102,5
.
+
(18 - 17,5)2
17,5
Já que D 2 tem 5 - 1 - 2 = 2 graus de liberdade, encontrare-
mos nas tábuas da distribuição de qui-quadrado que P(D 2 ~ 0,82) ;._,
~ 0,65 e, conseqüentemente, deveremos aceitar a hipótese de normalidade.
Exemplo 15.10. Vamos considerar os dados apresentados no
Ex. 15.5. Terá a variável aleatória X = número de acidentes durante o periodo especificado de 400 dias, uma distribuição de Poisson?
Vamos inicialmente estimar o parâmetro À da distribuição. No
Cap. 14, vimos que a estimativa de MV de À é dada pela média aritmética. Desse modo,
~
= o (1.448)
+ 1(805) + 2(206) + 3(34) + 4(4) + 5(2) + 6(1)
1.448 + 805 + 206 + 34 + 4 + 2 + 1
= 1.351 =
o 543
2.500
'
o
Façamos A 1 : X = O; A2: X = 1; A3: X= 2; A4: X= 3; A&: X~ 4.
Então, n 1 = 1.448; n2 = 805 ; na = 206; n~ = 34; n6 = 7, e obteremos
P1 =
P (X = O) = e-( 0 • 543 >= 0 ,58
e
P2 =
P (X = 1) = e- 0• 543 (0,543) = 0,31
3
P (X = 2) = e-M 43 (O,s; )2 =0,08
np2 = 775,
e npa = 200,
Pa =
nP1 = 1.450,
e
p~
"
=
P (X = 3) = e-M 4a -
e
np~
P6
=
P(X ~ 4)
e
np5 =50.
=
(0,543)8
- - = 0,01
6
1 - P(X < 4) = 0,02
= 25,
Poderemos agora calcular
D2 =
5
:E (n; ,; =1
+
A
"'np;)2
np;
(206 - 200)
200
2
2
= (1.448 - 1.450)
1.450
+
(34- 25) 2
25
.
+
+
(805 - 775)2
+
775
(7 - 50)2
50
= 42 ' 2"
TIESTIES DIE HRPÓTESIES
I . ~913
Porque existem cinco· categorias e estimamos . um pal!"âmetro, a variável aleatória D 2 terá a distribuição aproximada de . X32 • Da.S tábuas
da distribuição de qui-quadrado, encontraremo~ que P (D2 :2: 42,2) ~ 0
e, conseqüentemente, deveremos rejeitar a hipótese.
·
' .·
.15.1. Suponha-se que X tenha distribuição N(J.t, u 2 ) com u 2 cqnhecido.
Para testar H o : J.t = J.lo contra H 1 : J.t < J.lo propõe-se o seguinte procedimento:
Obter uma amostra de tamanho n e rejeitar H osempre que a média amostrai]:'< C,
onde C é uma constante a ser determinada.
(a) Obtenha uma expressão para L(p), a função CO, em termos da distribuição normal tabulada.
(b) Quando o nível de significância dos testes for a = 0,01 1 obtenha üma
expressão para C.
Suponha que u 2 = 4 e admita que estejamos testando H o : f' = 30 contra
lh : fJ. < 30. Determine o tamanho da amostra n e a co·nstante C, a fim de sati.s fazer às condições: L(30) = 0,98 e L(27) · = 0,01.
(c)
(d)
Suponha que os seguintes valores amostrais de X .tenham sido obtidos:
27;1; 29,3; 31,5; 33,0; 30,1; 30,9; 28,4; 32,4; 31,6; 28,9; 27,3; 29,1.
Você rejeitaria Ho (contra H 1 ), tal como enunciada em· (c), no nível de significân.cia de 5 por cento ?
15.2. Considere a situaçãÓ apresentada no Probl. 15.1, excetil que a hipótese alternativa é, . agora, da forma H 1 : J.t ,6 J.lo. Portanto, rejeitaremos H o ·sempre que I X- J.tol > c. Responda às questões (a) e Cb), acima.
15.3. Suponha que X tenha uma distribuição de Poisson com parâmetro À.
Para testar H o: h = Ào contra H 1 : À > Ào, o seguinte teste é proposto: Obtenha
uma amostra de tamanho n, calcule a média X, e rejeite Ho sempre que X> C,
onde C é llil1lA constante a ser determinada.
(a) Obtenha uma expressão para a função CO do teste acima, a saber L(A).
{Suges~·= Empregue a propriedade reprodutiva da distribuição de lPoisson.]
(b)
Esboee o gráfico da função CO.
(c) Suponha ·que estejamos testando H o: h = 0,2 contra H1 :h > 0,2. Uma
amostra de tamanho rf= lO é obtida, e rejeitaremos H o se X> 0,25. Qua~ será
o nível de significância deste teste?
1!5.4.
Estabeleça as propriedades da Eq. (15.1) para a função CO:..L(!L) =
= qp [(C - p.) v'~u].
15.5. Verifique as propriedades da função CO: L(p}, tal como foram definidas pela Eq. (15-2).
15.5. Verifique a5 propriedades da · função CO: R(p), tal como. foram :def!.i
'•
nidas peJa Eq. (15.3).
I
i'
í~
li
iii
394 I PROBABILIDADE
15.7. Saba-se que uma grande pll!.rtida de voltímetros contém uma certa
proporção de defeituosos, digamos p. Para testar H.o: p = 0,2 contra H1: p > 0,2,
o seguinte procedimento é empregado. Uma amostra de ~nho·5 é obtida e X,
o número de volt!metros defeitu<>sOO, é contado. Se X .:SI, aceita-se Ho; se X > 4,
rejeita-se H 0 ; e se X= 2, 3 ou 4, tira-se uma segunda amostra de tamanho 5. Seja
Y o número de voltímetros defeituosos na se~nda amostra. Seja Y o número de
volt!met.ros defeituosos ne. segunda amostra. Rejeite-se Ho se Y ;:::. 2, e aceite-se
em caso contrário. (Suponha que a partida que está sendo amostrada seja suficientemente grande, de modo que X e Y possam ser supostas variáveis aleatórias
independentes e bin<iniialinente distribuídas.)
(a) Obtenha uma expressao para L(p), a função CO do teste acima, e esboce
o seu gráfico.
(b) Determine a amplitude do teste acima.
(c) Qual é a probabilidade do erro tipo 2, quando p = 0,5?
15.8. Se n = 4 e k = 3, quantos valores possíveis poderá tomar a vli!.I"iável
aleatória D2, tal como foi definida na Eq. (15.4)?
15.9. (a) Calcule o valor esperado da variável aleatória D 2 , . tal como foi
definida na Eq. (15.4).
(b) Como esse valor se compara com o valor esperado (assintótico) de D~
obtido da distribuição de qui-quadrado, a qual pode ser empregada para aproximar
a distribuição de D\ quando n for grande?
15.1 O. Três espécies de lubrificantes estão sendo preparados por um novo
processo. Cada lubrificante é testado em certo número de · máquinas, e o resultado é, depois, classificado como aceitável ou inaceitável. Os dados da Tab. 15.1
representam o resultado desse experimento. Teste a hipótese de que a probabilidade p de que um lubrificante apresente um resultado aceitável seja a mesma para
todos três lubrificantes. . (Su.gesUto: Inicialmente, calcule p a partir da amostra).
1'ab. 15.1
Lubrificante 1
Aceitável
Inaceitável
Total
144
I Lubrificante 21
I 152 I
56
I
48
200
I
200
'
I
I
Lubrificante 3
,l
140
60
.,
200
15.11. Ao empregarmos várias leis de falhas, verificamos que & distribuição
exponencial desempenha um pf!.pel particularmente importante, e, conseqüentemente, é importante ser capaz de decidir se uma particular mostra de duraç&s
até falhar se originam de uma distribuição exponencial básica. Suponha que
~ ~ Umpod- ~oham
~·.
IBi
.\í'L:
0
-.o - . d u •
o
vid& (eJ,n horas), esteja disponível:
Duração d&
vida (horas) o~ T
< 100
~:·::. :H:~::: ~
i
< 200 2qo~ T < 300
100~ T
V~t ------1------1-------1-i----'""'.
f~,'
~J.
§.'·
Nd.mero de
ampadas
I
71
82
39
< 4100
300~ T
T~
62
68
52
A partir das reais durações até falh!\r, que reiatamoa, encontrou-l!e que ·T, a média
ainoat~, é igual a 123,5 horas. Empregan~o esta informaçii.~, teste a hipótese
de .que T, a duração até falh&r seja exponencialmente distribuída.
.
I
.
15.12. Suponh& que a v&riável ale&tória X tenha a seguinte fdp:
a coa ax
O< x
= sen (r/2) a'
f(x)
< ~/2,
onde O < a
< 1. .
I
Pat:a testar H o: a =ao, o seguinte teste é !proposto: Obtenha uma
de X~ digamos X1, e rejeite Ho se .X:1 > 1. I
observ~
(a) Obtenha uma expreBB!i.o .P&ra a funÇão CO deste teste, digamos L{a), e
~
seu gráfico.
·
·
·
(b) Qual será a amplitude deste teste se ao = 1r/4'f
.
.
.
.
. !
15.13. . Em uma malha de 165 células, o número de gril.oa de grafita em cada
célula foi contado. Os dados da Tab. 15.2 !foram obtidos. Teste a i hipótese de
que .o núxm:ro de gri!.os em cada célula seja u~a variável 'aleatória com uma distri1
buição .de Poiseon. (SugesUto: Reúna as ·1observações ~ 2 e, também, aquelas ~ 10.)
.
.
I
Ta~b. 15!2
Observados
Npmero de Pios
iie grafite. em
1 uma célula
Observadoo
o
1
7
1
g
17
li.
2
3
5
7
20
34
00
9
N dmero de grãos
clls gr&fita em
UIJUI, cQula
4
5
6
I.
22
10
21
41
12
11.
u
400
2
•
I
!{~
':tt}
;:.;'·
~:t.
·~{~
~)
~fi
i'i'
i:t
:';!i{
:~
:w
l'í
:i}
V
'
·~~~
t·~
·.~}
~;:
:j\'
i~';
,~
'
,r::
ltL
ilj t
'i:.:l
!ii :
lt:
11[1
ft,
jj,,
~~l=
!ii
'N
11,:
f!ll'
~i!IZ
.}::'1
!l1!;i
!li;
!jt
I!I:
ii
itil
!l
\·.
GDl
398 I I"ROBABDUDADE
q.(z)
ll
-3,0
,,
r,
~~
i
. !i
I
I
~
i'
Jt
li
-2,9
-2,8
- 2,7
-2,6
-2,5
-2,4
-2,3
-2,2
-2,1
-2,0
-1,9
- 1,8
-1,7
-1,6
-1,5
- 1,4
-1,3
-~.~
-1,1
-1,0
-0,9
-0,8 .
-0,7
-0,6·
- .0,5
-0,4
- 0,3
-0,2
-0,1
-0,0
o
1
=
2
j_ .
1
-=.e-u'fdu = P(Z
-~v'z,.
3
4.
5
S
z)
6
7
8
0,0013 0,001 o 0,0007 0,000 5 0,0003 0,0002 0,0002 0,0001 0,0001
0,0019
0,002 6
0,003 5
0,004 7
0,006 2
0,008 2
0,010 7
0,013 9
0,017 9
0,022 8
0,028' 7
0,035 9
0,044 6
0,054 8
. 0,066 8
0,080 8
0,096 8
0,]151
0,1;15 7
0,0018
0,002 5
0,003 4
0,004 5
0,006 o
0,008 o
0,010 4
0,013 6
0,017 4
0,022 2
0,0281
0,035 2
0,043 6
0,053 7
0,065 5
0,079 3
0,0951
0,0017
0,002 4
0,003 3
0,0044
0,005 9
0,007 8
0,0102
0,013 2
0,017 o
0,021 í
0,027 4
0,034 4
0,042 7
0,052 6
0,064 3
0,077 8
0,093 4
0,0017 0,0016. 0,001 6
0,002 3 0,002 3 0,002 2
0,003 2 0,0031 0,003 o
0,004 3 0,0041 0,004 o
0,005 7 0,005 5 0,005 4
0,007 5 0,007 3 0,0071
0,009 9 0,009 6 0,009 4
0,0129 0,012 6 0,012 2
0,016 6 0,016 2 0,015 8
0,0212 0,020 7 0,020 2
0,026 8 0,0262 0,025 6
0,033 6 0,032 9 0,032 2
0,0418 0,040 9 0,0401
0,0516 0,050 5 0,049 5
0,063 o 0,0618 0,060 6
0,076 4 0,074 9 0,073 5
0,091 ~090 1 0,088 5
o,n3-±-tl;ttl-~o;Tmra o,Iõr5-o,.105. 6
0,133 5 0,1314 0,129 2 0,127 1 0,1251
~ 0,1562 0,153 9 0,1515 0,149 2 0,146 9
0,1841 0,1814 0,178 8 0,176 2 0,173 6 0,1711
0,211 9 ' 0,209 o 0,206 1 0,203 3 0,200 5 0,197 7
0,242 o 0,238 9 0,235 8 0,232 7 0,229 7 0,226 6
0,274 3 0,270 9 0,2676 0,264 3 0,2611 0,257 8
~0,3050 0,3015 0,2981 0,294 6 0,2912
0,344 6 0,340 9 0,337 2 . 0,333 6 0,330 o 0,326 4
0,382 1 0,378 3 0,374 5 0,3707 0,366 9 0,363 2
0,420 7 0,416 8 0,4i2 9 0,409 o 0,405 2 0,4013
0,460 2 0,456 2 0,452 2 0,448 3 0,444 3 0,440 4
0,500 o 0,496 o 0,492 o '0,488 o 0,4840 0,4801
0,0015
0,0021
0,002 9
0,003 9
0,005 2
0,006 9
0,0091
0,0119
0,015 4
0,019 7
0,025 o
0,0314
0,039 2
0,048 5
0,059 4
0,072 2
0,086 9
0,103 8
0,123 o
0,144 6
0,168 5
0,194 9
0,223 6
0,254 6
0,287 7
0,322 8
0,359 4
0,397 4
0,436 4
0,476 1
0,001 5
0,002 1
0,002 8
0,003 8
0,005 1
0,006 8
0,008 9
0,0116
0,015 o
0,019 2
0,024 4
0,030 7
0,038 4
0,047 5
0,058 2
0,070 8
0,085 3
0,102 o
0,121 o
0,142 3
0,166 o
0,192 2
0,220 6
0,2514
0;284 3
0,319 2
0,355 7
0,393 6
0,432 5
0,4721
'" B. W. Lindgren, Statistical Theory, The Macmillan Company, 1960.
. ·l
..)
0,()(11 4
0,002 o
0,002 7
0,003 7
0,0049
0,0066
0,008 7
0,0113
0,014 6
0,018 8
0,023 8
0,030 o
0,037 5
0,046 5
0,057 o
0,069 4
0,083 8
0,100 3
0,119 o
0,1401
0,163 5
0,189 4
0,217 7
0,248 3
0,281 o
0,315 6
0,352 o
0;389 7
0,428 6
0,468 1
o
j )10
1
2
4
3
01500 O 01504 O 01508 O 01512 O
011
01539 8 01543 8 ol547 8 g~5~~
,0 12 <'
0157-9-3----{l,.ã~l:""'"' 15
013 01617' 9 01621 7 01625 5 01629 3
:o4
01655 4 01659 1 0,662 8 0,666 4
o:5
0,6915 0,695 o 0,698 5 017019
0,6
0,725 7 01729 1 0,732 4 0,735 7
·O7
0,758 O 0,7611 0,764 2 0,767 3
i o:8
o,7881 o,7910 ol793 9 o,796 7
o,9 ,
~o 81 9 · 0,818 6 . 0,821 2 o,823 8
1~0 ·- . '· , 8'41 3 0,843 8 0,846 1 0,848 5
1,1
,,864 3 0,866 5 0,868 6 0,870 8
1,2
0;884 9 a,-oo
,
,
1,3
0,903 2 0,904 9 0,906 6 0,908 2
1,4 ·
0,919 2 0,920 7 {),922 2 . 0,923 6
1;5
0,933 2 0,934 5 0,935 7 0,937 o
0,945 2 01946 3 0,947 4 0,948 4
1,6
0,955 4 0,956 4 0,957 3 o,958 2
1,7
118
0;964 1 01964 8 ·01965 6 01966 4
119
0,971 3 01971 9 0,972 6 0,973 2
2,0
0;'97'7 2 0,9'77 8 0,978 3 0,978 8
2,1
0,9821 0,982 6 0,983 o 0,9834
2,2
0,986 1 0,986 4 0,98'6 8 0,987.1
0,989 3 0,989 6 0,989 8 0,990 1
2,3
0,9918 0,992 o 0,992 2 0,992 5
2,4
25'
0,9938 0,9940 ·0,9941 0,9943
2:6
0,995 3 0,995 5 0,995 6 0,995 7
2,1
0,996.5 . 0,996 6 0,996 7 o,996 8
2,8
0,997 4 0,997 5 0,997 6 0,997 7
2,9
.0,998 1 01998 2 0;998 2 0,998 3
3,0
5
6
7
8
0 516 O 0 519 9 0 523 9 01527 9 o 531 9 01535 9
01 /i67 5 0,571 4 0,575 3
0,606 4 0,610 3 0,614 1
1
. 1 .98J~I602
0,633 1 01636 8 0,640 6 0,644 3' 0,648 o 0,6517
0,670 o 0,673 6 0,677 2. 0,680'8 fj,684 4 O,!j'879
0,705 4 ()17088_ 0,712 3 0,715 7 0,719 o 01722 4
0,738 9 0,742 2 0,745 4 0,748 6· 0,7517 0,754 9
0,770 3 0,773 4 0,776 4 0,779 4 0,782 3 0,785 2
o,799 5 o;so2 3 o;so5 1 0,807 8 ~810 6 0,813 3
o,826 4 0,828'9 0,831 5 0,834 o u,836 5 0,838 9
0,850 8 0,853 1 0,855 4 0,857 7 0,859 9 0,862 1
0,872 9 0,874 9 0,877 o 0,879 o 0,8810 01883 o
,
. , . 4 0,896 2 0,898 o 0,899 7 0,901 5
0,909 9 \),911 5 0,9131 0,914 7 0,916_2 0,9177
0,9251 p,926 5 0,927 8 0,929 2 0,930 6 0,931 9
0,938 2 0,939 4 0,940 6 0,941 8 0,943 o 0,944 1
0,949 5 0,950 5 0,951 5 0,952 5 0,953 5 0,954 5
·o,959 1 0 1959 9 01960 8· 0,961 6 0,962 5 . 0,963 3
0,967 1 '0,967 8 01968 6 0,969 3 0,970 o 0,970 6
0,973 8 pl974 4 0,975 o 0,975 6 0,976 2 . 0,976 7
0,979 3 ,0,979 8 0,980 3 0,980 8 0,981 2 0,981 7
0,9838 ' ,0,984 2 0,984 6 0,985 o 0,985 4 0,985 7
0,987 4 ,0,987 8 ; 0,988 1 0,988 4 0,988 7 0,989 o
0,990 4 i0,990 6 0,990 9 0,991 1 ·0,9913 0,991 6
0;992 7 i0,992 9 ·. 0,9931 0,993 2 0,99~ 4 0,993 6
0,9945 j0 ,9946 0,9948 0,994 9 0;995 1 0,995 2
0,995 9 ;0,996 o 0,996 1 0;996 2 0,996 3 0,996 4
o;996 9 10,997 o 0,997 1 01997 2 0,997 3 0,997 4
0,997 7 j0;997 8 0,997 9 o,997 9 · o;998 o 0,998 1
0,998 4 10,998 4 0,998 5 0,998 5 0,998 6: 0,998 6
1
1
1
z ~~~;
,..~S9-!l ol563 6
6
li
0,998 7 0,999 o 0,999 3 0,9995 0,999 7 ,01999 8
01999 8 01999 9 01999 9 1,000 o
·,
,,
400 I I'ROBAB!UOAOE
r =n
. 1- F(z- 1) = .L(~)prqn:-r
r=z
n
=
n
z
10
z =· lO
0,000000 o
.0,000 000 o
0,000000 o
0,000 000 0
0,000 000 o
0,000000 o
0,000 000 o
0,000000
0,000000 o
0,000 000 o
0,000 000 o
0,0000000
0,000 0000
0,000 0000
0,0000000 .
O,OQO 000 O
0,000 ooo o
0,000000 o
0,000 000 1
0,000 0001
0,000000 2
·0,000 000 .3
0,000000 4
0,000000 6
0,000001 o
0,0000014
0,0000021
0,000 003 o
0,000004 2
.0,000005 9
0,000008 2
0,000 0113
0,000015 3
0,000020 6
0,000027 6
0,000036 6
0,000 0481 .
0,000 062 8
0,000 0814
o;ooo 1049
0,0001342
Q,OOO 170 8
0,0002161
0,000272 o
0,000340 5
0,0004242
0,000526 o
0,000649 3
0,000 7979
0,000976 6
o
0,00(}000 o
0,0000000
0,000000 o
0,0000000
0,000 000 o
0,000 0000
0,0000000
0,000 000 o
0,000000 o
0,000 000 o
o;ooo ooo o
0,0000000
o,ooo 000 1
0,000 0002
0,000 0003.
0,000 000 6
0,000 001 o
0,000 0017
0,000002 7
0,000 0042
0,000 0064
0,000 009 7
0,000 0143
0,000020_7
0,000 029 6
0,000 0416
0,0000577
0,000 079 1
0,000107 2
0,000143 7
0,0001906.
0,000250 5
0,000 326 3
0,0004214
0,000 539 9
0,000 686 5
0,000 866 8
0,0010871
0,001 S54 6
0,001677 7
0,002 065 8
0,002 529 5
0,003 0809
0,003 733 5
0,004 5022
0,005404 o
0,006457 4
0,007 682 8
0,009102 8
0,010 742 2
=
=
10
8
n = 10
z·= 7
o,ooo oooo·
0,000 oooo
0,000 000 o
0,000 000 o
0,000 000 o
0,000 000 o
·o,ooo ooo 1
o,ooo 000 3
0,000 0000
0,000 000 1
0,0000002
0,0000004
0,000 0008
0,0000015
0,000 002 9
0,000 0051
0,000 008 7
0,000 014 2 .
0,000 022 6
0,000035 o
0,000 052 8
0,000 077 9
0,000112 7
0,000159 9
0,000223 2
0,000306 8
0,000 415 8
0,000 536 2
0,000 735 o
0,000 960 5
0,001242 o
0,001590 4
0,002 017 9
0,002 538 4
0,003 167 3
0,003 9219
.0,004 821 3
0,005 886 4
0,007: 140 3
0,008 607 9
0,010 316 3
Q,Ol2 294 6
0,014 573 8
0,017 187 1
0,020 169 6
0,023 558 3
0,027 3918
0,031710 5
0,036 556 o
0,0419713
0,048 000 3
0,054 6875
0,000 004 5
0,0000091
0,000 017 3
0,000 030 8
0,000052 5
0,000085 6
0,000134 6
0,0002051
0,000304 2
. 0,0004401
0,000622 9
0,0008644
0,0011783
0,001580 4
0,002 088 5
0,002722 8
0,003 505.7
0,004 46.18
0,005 6181
0,007 0039
0,008 6507
0,010 5921
0,012 863 7
0,015 502 9
0,018 548 9
0,022 042 2
0,026 024 3
0,030 537 6
0,03_5 625 2
0,041330 1
0,047 694 9
0,054 761 9
0,062 5719
0,071164 3
0,080 576 3
0,090 842 7
0,101 994 9
0,114 061 2
0,127 065 5
0,141 027 2
0,1551)60 -7
0,171 875 o
0,0000000
0,0000000
0,000 000 o
0,000 000 o
o,ooo ooo s
0,000002 o
p
·o,o1
0,02
0,03
0,04
0,05
0,06
. 0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0,21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0;32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0,41
0,42
0,43
..0,44
0,45
0,46
0,47
0,48
0,49
0,50
(Conit i ilY a!!i~O)
Tab. 2.
AIP'IÊN DBCIE I 401
r=n
1 - F(x- 1) =
L
C~p"qn-r
r=z
n = 10 ·
- X=
6
0,000 000 o
0,000 000 o
0,000 000 1
0,000000 7
0,000 002 8
0,000 007 9
0,000 019 3
0,000 0415
0,000081 o
0,000146 9
0,000250 7
0,000406 9
o,ooo 633 2
0,000 950 5
0,001383 2
0,001959 3
0,002 709 8
0,003 669 4
0,004 875 7
0,006369 4
0,008 193 5
0,010 393 6
0,013 016 7
0,0113 Hl 6
0,019 727 7
_0,023.!)i4 8
0,028722 4
0,034199 4
·0,040393 2
0,04'7349 o
0,055 109 7.
0,063 714 9
0,073 200 5
0,083 597 9
0,094 9341
0,107 2304
0,120 502 6
0,134 760 6
0,150 006 8
0,166 238 6
0,183 445 2
0,201609 2
0,220705 8
0,240703 3
0,261562 7
0,283 .238 .2
0,305 6772
0,328 820 5
0,352 602 8
0,376 953 1
n = 10
5
.X=
0,000 000 o
0,000 000 7
0,000 005 4
0,000 0218
0,000 063 7
0,000 151 7
0,000 313 9
0,000 585 7
0,001 009 6
0,001634 9
0,002 517 o
0,003'WU
0,005 29ô 7
0,007 326 3
0,009 8741
0,013 0101
0,016 803 8
0,021322 9
0,026 632 5
0,032 793 5
0,039 862 _4
0,047 889 7
0,056 919 6
0,066 989 o
-0,078 126 9
I
j
n = io
x=4
0,000 002 o
0,0000305
0,000 147 1
0,000442 6
0,001028 5
0,002 029 3
0,003 5761
0,005 8013
0,008 833 8
0,012 795 2
0,017 797 2
. 0,023 938 8
0,031 304 8
0,039 964 2
0,049 969 8
0,061357 7
. 0,074147 2
0,088 3411
0,103 9261
0,120 873 9
0,139 1418
0,158 6739
0,179 402 4 .
0,201248 7
0,224124 9
0,090354~ 0,247 934 9
0,103 683 1 0,272 5761
0,118 117 1 I 0,297 940 5
0,133 650 3 0,323 9164
0,150 268 3 0,350 389 3
0,167 947 5 0,377 243 3
0,186 6.?5 4 0,404362 6
0,206 3514 0,431 63_2 o
0,226 986 6 0,458 938 8
0,248504 5 0,486173 o
0,270 8415 0,513 228 4
0,293 927 7 0,540 003 8
0,317 687.0 0,566 403 o
0,342 Q38 5 0,592 336 i
0,366 896 7 0,617 719 4
0,392172 8 0,642 476 2
0,417 774 9 0,666 5372
0,443 6094 0,689 8401
0,469 5813 0,712 3307
0,495 595 4 0,733 9621
0,5215571 . 0,754 6952
0,547 373 o 0,774 498 5
0,572 951 7 0,793 348 o
0,598 204 7. 0,811 226 8
0,623 046 9 o,828 125 o
n = 10
x=3
I
n = 10
x=2
0,000 113 8 0,004 2662
0,000 863 9 0,016177 6
0,002 765 o 0,034 5066
0,006 213 7 0,058153 8
0,011 503 6 0,086138 4
0,018 837 8 0,117 588 o
0,028 342 1 0,151 729 9
0,040 075 4 0,187 882 5
0,054 040 o '0,225 4471
0,070 190 8 0,263 9011
o;o88 443 s 0,302790 8
0,108 681 8 0,341725 o
0,130 7642 ·0,380 369 2
0,154 529 8 0,4184400
0,179 803 5 0,455 7002
.0;206 400 5 0,491953 6
0,234130 5 0,527 0412
0,262 801 o 0;560836 8
0,292 220 4 0,593243 5
0;322 200 5 0,6241904
0,352 558 6 0,653 628.9
0,383 119 7 0,681.5306
0,413 717 3 0,7078843
0;444194 9 0,732_693 6
0,474407 2 0,7559748
0,504 220 o 0,7777550
0,533 5112 0,798.070 5
0,562171 o 0,816.9646
0,590 1015 0,834486 9.
0,617 217 2 0,8506917
0,643 444 5 0,8656366
0,668 721.2 0,8793821
0,692 996 6 0,8919901
0,716 230 4 0,903523 5
0,738 392 6 0,9140456
0,759 462 7 0,923 619 o
0,779 429 2 0,932305 6
0,798 288 7 0,9401661
0,816 045 a· 0,947259 4
0;832 710 2 0,953 642 6
0,848 300 7 0,9593705
0,862 839 3 0,964495 8
0,876 353 8 0,969 0684
0,888 875 7 0,9731358
0,900440 3 0,976 742 9
0,911 085 9 0,9799319
0,920 853 o 0,9827422
0,929 783 9 0,9852109
0,937 922 2 0,987372 2
o,945 a12 s 0,989 357 8
I
n =lO
:r;=
1
I·P
0,095 617 9 0,01
0,182 927 2 0,02
0,262 575 9 0,03
0,335 167 4 0,04
0,401263 1 0,05
0,461 384 9 0,0&
0,516 017 7. 0,07
0,565 6115 0,08
0,610 583 9 0,09
0,6513216 0,10
0,688182 8 0,11
0,721'499 o 0,12
0,751 57{! 6 0,13
0,778 698 4 0,14
0,803 125 6 0,15
0,825 0988 0,16
0,844 839 6 0,17
0,862 552 o 0,18
0,878 423 3 .0,19
(),892 625 8 0,20
0;905-3172 0,21
0,916 6422 0,22
0,926 7332 0,23
0,935 7111 0,24
0,943 686 5 0,25
(),950760 1 0,26
. 0,957 023 7 0,27
.0,962 560 9. 0,28
0,967 447 6 0,29
0,971752 5 0;30
0,975 5381 .0,31 ·
0,978 860 8 0,32
0,981 7716 0,33
0,984 316 6 0,34
0,986 537 3 0,35
,0,988 4708 0,36
0,990 150 7 0,37
0,991607 o 0,38
0,992 866 6 0,39
0,993 9534 .0,40
0,994 888 8 0,41
0,995 692 o 0,42
0,996 379 7 0,43
0;996 966 9 0,44
0,997467 ó 0,45
0,997 891 7 0,46
0,99& 2511 0,47
0,998554 4 0,48
0,998 809 6 0,49
0,999 023 4 0,50
/
402 l PROBABILIDADE
Tab. 3.
Função de Distribuição de
1 - F(x - 1)
=
·=~
L e-<lar
r-"'
X
Poisson~
a= 0,3
a= 0,4
:ri
:
o
1
2
3
4.
1,000 ooó o
1,1812{)9 2
1,017 523 1 ,
1,001148 5
1,000056 8
1,000 000 o
,1,259 181 8
1,036 936 3
1,003 599 5
1,000265 8
l,OOOOoo O·
1,329 680 o
1,0615519
1,007 926 3
1,000 776 3 .
1,000 000 o
1,393 4~.9
1,090204
1,014388
1,001 752
1,000 000 o
1,451188
1,121 901
1,023 111\
1,<Y03 358
5
6
7
;1.,000 002 3
1,000 000 1
·1,000 015 8
1,000 000 8
1,000 061.2
1,000 01)4 o
1,000 000 2
1,000 .172
1,000 014
1,000 001
1,000394
1,000 039
1,000 003
x
o
1
2
3
4
• 5
6
7
. 8
9
.I
a c=. 1,0
1,000000 o ' 1,000 000 o
1,503 415
i,550 671
1,155.805
1,191208
1,034142
i,047 423
1,005 753
1,009 080
1,000 000 o
1,593 430
1,227 518
1,062 857
1,013 459
1,000 000 o
1,632 121
1,264 241
1,080 301
1,018 988
1,000 786
1,000 090
1,000 009
1,000 001
1,002 344
1;000 343
1,000 043
1,000 005
1,003 660
1,000 594
1,000 083 '
1,000 010
1,000 001
10
X
I
a= 0,9
a = O, 7
a = 1;4 .
a = 0,8
1,001411
1,000 184
1,000021
1,000 002
I
a c= 1,6
. a= 1,8
a
= 1,9
I
a
=1,2
1,000000 o
1,,698806
1,337 373
1,120 513
1,033 769
1,007 746
·-
1,001500
1,000 251
1,000 031
1,000 005
1,000 001
a= 2,0
o
1
2
3
4
1,000 000
' 1,753 403
1,408167
1,166 502
1,053 725
1,000 000
1;798103
1,475 069
1,216 642
1,078 813
1,000 000 '
1,834 701
1,537163
1,269 379 .
1,108 708
1,000 000 '
'1,850 431'
1,566 251
1,296 280
1,125 298.
1,000 000 .
1,864 665
1,593 9,94
1,323 324
1,142 877
5
6
7
8
9
1,014 25'3
1,003 201'
1,0.00 622_
1,000107
1,000 016
1,023 682
1,006 040
1,001336
1,002 60
1,000 045
1,036 407
1,010 378'
1,002 569
1,000 562
1,001110
1,044 081
1,013 219
1,003 446'
1,'000 7.93
1;000 163 '
1,052 653
1,016 564
1,004 534
1,001•097
1,000 237.
10
11
1,000 002
l,Ooo oo7
í,OOO 001
1,000.019
1,ooo oo3
1,000 030
1;ooo oo5
1,000 046
1,000 008
'"E.- C. 'Molina, Poi$son's Expcnumtial Binomial Jdmit; D. Van Nostrand, Inc.
1947.
APIÊNDBCIE I 403
.
. I. .
Tab. 3. (Conthnaação)
i
r=; cu
1-
F(x - 1)
=
Í: e-<>ar
r']'" r!
a= 2._5
o
I
a = 3,0
I a = 3,5 I!a = 4,0
,.a
~ 4,5
·'
1,000 000
1,950 213
1,800 852
1,576 810
1,352 768.
1,000 000 11,000 000
1,969 803 11,981 684
1,864 112 . 1,908 422
1,679153 1,761 897
1,463 367 1,566 530
1,000 000
1,988 891
1,938 901 '
1,826 422
1,657 704
1,000 000
11,993 262
'1,959 572
1,875 348
'1,734 974
1,559 507
1,384 039
1,237 817 .
1;133 372
· 1,068 094
1,031 828
1,013 695
' 1,005 453
! 1,002 019
' 1,000 698
1
2
3
4
1,000 000
1,917 915
1,712 703'
1,456 187
1,242 424
5
6
7
8
9
1,108 822 1,184 737
1,~ 021 .1,083 918
1,014 187 1,033 509
1,004 247 1,011 905
1,001140 1,003 803
1,274 555
1,142 386
1,065 288
1,026 739
1,009 874
1,371163
1,214 870
1,110 '674
1,021363
1,467 896
1,297 070
1,Í68 949
1,086 586
1,040 257
10
1,000 277 . 1,001102
1,000 062 1,000 292
1,000 013 1,000 071
1,000 002 . 1;000 016
1,000 003
1,003 315.
1,001 019
1,000289
1~000 076
1;ooo 019
1,008 132
1,002 840
1,000 915
1,000 274
' 1,000 '076
1,017 093
1,006 669.
1',002 404
1,000 805
1,000 252
1,000 004
1,000 001
1,000 .020
1,000 005
1,000 001
11
12
13
14
15
16
17
18
19
a-= 5,0
1,000 001
~,051134
1
1
,
1,000 074 1,000 226
1,000 020 1,000 069
1,000 005 ' 1,000.020
1,000 001 · 1,000 005
' 1,000 001
i
..... :
:- ~
404 I PROBABiUPADIE
Tab. 4.
Valores Críticos da !DistribuiÇão de
11;
de Student*
Pr {t de Student ~ valor tabelado}. = 'Y
,
1
0,75
1,000 o
0,816 5
0,764 9.
0,740 7
0,90
0,95 .
, . 0,975
0,99
0;726?
0,71'7'6
0,7111
0,706 4
0,702 7
0,699 8
1,439 8
1,4i4 9
1,3968
1,383 o
1,372 2
1,943 2
1,894 6
1,859 5
1,833 1
1,812 5
2,446 9
. 2,364 6
2,306 o
2,262 2
2,2281
3,142 7
2,998 o
2,896 5
2,8214
2,763 8
3,7074·
3,499 5
3,355 4
3,249 8
3,169 a.
15
0,697 4
0,695 5
0,693 8
0,6924
0,6912
1,363 4
1,356 2
1,350 2
1,345 o
1,340 6
1,795 9
1,782 3
1,770 9
1,_7 613
1,7531
2,201 o
2, 178 8
2,160 4
2,144 8
2,'131 5
2,718 i
2,681 o
2,6503
2,624 5
2,602 5
3,105 3·
3,054 5
3,012 3
2,976 8
2,946 7
16
17
18
19
20
0,6901
0,689 2
0,688 4
0,687 6
0,687'()
1,336 8
1,333 4
1,3304
1,327 7
1,325 3
1,745 9 .
1,739 6
1,734 1
1,729 1
1,72!17
2,119 9
.2,109 8
2,100 9
2;0930
2,086 o
2,583 5
2,566 9
2,552 4 ·
2,539 5
2,528 o
2,920 8
2,898 2
2,878 4
2,860 9
2,845 3
21
22
23
24
25
0,686 4
0,685 8
0,685 g
0,684 8
0,684 4
. 1;323 2
1,3212
1,319 5
1,317 8
1,316 3
1,720 7
. 1,717 1
1,713 9
1,710 9
1,708 1
2,079
2,073
2,068
2,063
.2,059
6
9
7
9
5
2,517 7
2,508 3
·2,499 9
2,492 2
2,4851
2,831 4
2,8I8 8
2,807 3
2,796 9
2,787 4
26
27
28
29
30
0,684 o
0,683 7
0,683 4
0,683 o
0,682 8
1,315 o
1,313 7
1,312 5
1,3114
1;310 4
1,705 6
1,703 3
1,701 1
1,6991
1,697 3
2,055 5
2,0518
2,048 4
2,045 2
2,042 3
2,478 6
2,472 7
2,467 1
2,462 o
'2,4573
2.,778 7
2,770 7
2,763 3
2,756 4
2,750 o
31
32
33
34
35 -.
0,682 5
0,682 2
0,682 o
0,6818
0,6816
1,309 5
1,308 6
1,307 7
1,30_1 o
1,306 2
1,695 5
1,693 9
1,692 4
1,6909
1,689 6
2,039 5
2,036 9
2,034 5
2,032 2
2,03\J 1
2,452 8
2,448 7
2,444 8
. 2,441 1
2,437 7
2,744 o
2,738 5
2,733 3
2,728 4
2,723 8
36
37
38
39
40
0,681 4
0,681 2
0,681;0
'0,680 8
0,680 7
1,305 5
1,3049
1,304 2
1,303 6
1,303 1
1,6,88 3
1,,687 1 '
1,686 o
1,684 9
1,683 9
2,028 1
2,026 2
2,024 4.
2,022 7
2,0211
2,434 5
2,4314
2,428 6
2,425 8
2,423 3
2,719 5 '
2.,715 4
2,71 1 6
2,707 9
2,704 5-
41
42
43
44
45
0,680 5
0,680 4
0,680 2
0,6801
0,680 o
1,302 5
1,302 o
1,3 016
1,3011
1,300-6
1,682 9
1,682 o
1,68Í 1
1,6SO 2
1,679:4
2,019 5
.2,018 1
2,016 7
2,015 4
2,0141
2,420.8
2,418 5
2,416 3
2,414 1
2,412 1
2,7012
2,698 1
2,6951
2,692 3
2,689 6
6
7
8
9
10
u·
12
13
14
;.
.
12,706 2
4,302 7
3,182 4
2,776 4
2,570 6
31,820 7
6,964 6
4,540 7
.3,746 9
3,364 9
63,657 4
9,924 8
5,840 9
4,6041
4;032 2
3,077 7
1,885 6
. 1,637 7
1,533 2
1,475 9
1
2
3
4
5.'
6,313 8
2,920 o
2,353 4
2,1318
2,015 o
. 0,995
-~
*D. B. Owen, Handbook of S !a!is!>:cal Tables, Addison-Wesley Publishing Co.,
i962. (Cortesia de Atomic Energy Commission, Washington, D .C.)
A~lí!Nibil~~~ I 405
Tmb. 4. (Coi'lil:im.aação)
Pr {t de Student
~
valor tabelado)
=')'
j
0,75
0,90
0,95
0,975
0,99
0,995
46
47
48
49
50
o;679 9
0,679 7
0,679 6
0,679 5
0,679.4
1,3002
1,299 g
1,299 4
1,299 1
1,298 7
1,678 7
1,677 9
1,677 2
1,676 6
1,675 9
2,012 9
2,0117
2,0106
2,009 6
2,008 6
2,4102
2,.408 3
2,4066
2,404 9
2,403 3
2,687 o
2,684 6
2,6822
2,680 o
2,677.8
51
52
53
54
55
0,679 3
0,679 2
0,6791
0,679 1
0,679 o
1,298 4
1,298 o
1,297 7
1,297 4
1,297 1
1,675 3
1,674 7
1,6741
1,673 6
1,673 o
2,0Ó7 6
2,006 6
z,o:o5 7
2,004 9
2,004 o
2,4017
2,400 2
2,3988
2,397 4
2,3961
2,675 7
2,673 7
2,6718
2,670 o
2,668 2
56
57
58
59
60
0,678 9
0,678 8
0,678 7
0,678 7
0,678 6
1,2969
1,296 6
1,296 3
1,2961
1,295 8
1,672 5
1,672 o
1,6716
1,6711
1,670 6
2,003 2
2,002 5
2,0017
2,001 o
2,0003
2,394 8
2)393·6
2;3924
2,3912
2,3901
2,666 5.
2,664 9
2;663 3
2,6618
2,660 3
61
62
63
64
65
0,678 5
0,678 5
0,678 4
0,678 3
0,678 3
1,291') 6
1,295 4
1,2951
1,294 9
1,29,t 7
1,670 2
1,6698
1,669 4
1,669 o
1,668 6
1,999 6
1,999 o
1,998 3
1,997 7
1,9971
2,389 o
2,388 o
2,387 o
2,386 o
2,3851
2,658 9
2,657 5
2,6561
2,654 9
2,653 6
66
67
68
69
70
0,6782.
0,678 2
0,678 1
0,6781
0,678 o
1,294 5
1,294 3
1,2941
1,293 9
1,293 8
1,668 3
1,667 9
1,667 6
1,667 2
1,666 9
1,996 6
1,996 o
1,995 5
1,994 9
1,994 4•
2,384 2
2,383 3
2,382 4
2,381 6
2,380 8
2,652 4
2,6512
2,6501
2,649 o
2,647 9
J
d
71
72
73
74
75
0,678 o
0,677 9
0,677 9
0,677 8
0,6778
1,293 6
1,293 4
1,293 3
1,293 1
1,292 9
1,666 6
1,666 3
1,666 o
1,665 7
1,665 4
1,993 9
1,99tl5
1,993 o
1,992 5
1,992 1
2,380 o
2,379 3
2,378 5
2,377 8
2,3771
2,646 9
2,645 9
2,644 9
2,643 9
2,643 o
76
77
78
79
80
0,677
0,677
0,677
0,677
0,677
7
7
6
6
6
1,292 8
1,292 6
1,292 5
1,292 4
1,292 2
1,665 2
1,6649
1,664 61,664 4
1,6641
1,991 7
1,9913
1,990 8
1,990 5
1,990 1
2,376 4
2,375 8
2,375 1
2,374 5
2,373 9
2,6421
2,6412
2,6403
2,639 5
2,638 7
81
82
83
84
85
0,677 5
0,677 5
0,677 5
0,677 4
0,677 4
1,292 1
1,292 o
1,291 8
1;291 7
1,291 6
1,663 9
1,663 6
1,663 4
1,663 2
1,663 o
1,989 7
1,989 3
1,989 o
1,988 6
1,9883
2,373 3
2,3727
2,3721
2,3716
2,371 o
2,6379
2,637-1
2,636 4
2,6356
2,634.9
86
. 87
88
89
90
0,677 4
0,677 3
0,677 3
0,677 3
.0,677 2
1,291 5
1,2914
1,2912
1,291 1
1,291 o
1,662 8
1,662 6
1,662 4
1,662 2
1,662 o
1,987 9
1,987 6
1,9873·
1,9870
1,986. 7
I
;li
,,1
i:l
ii
'I
'·'
406 I .lf>ROBAIBiliDADIE
'iimf!ll. 5.
\?aio~ Crftie~ ~a~ Dis'i:rill:nliçlilo llle Qui-Quadrall:!lo"
lP'II' ( x2 com f graus de liberdade ~ valor tabelado
,
l
2
3
4
5
1
o,oo5
-
0,010
o;o72
·0,207
0,412 .
1
0,01
0,020
0,115
0;297.:
0,554 .
1
o,oo5
l
= 'Y
o,o5
0,10
0,25
0,001
0,051
0,216
0,484
0,831
0,004
0,103
0,352
0;711
1,145
.0,016
0,211 .
0,584
1,610 ·
0,102
0,575
1,213
1,923
2,675
1,237 I
1,690
2,180
2,7p0
3,247 .
1,635
2,167
2,733
3;325
3,940
2,204
2,833
3,490
4,168.
4,865
3,455
4,255
5,071
5,899
6,737
5,578 .
6,304
7,042
7,7QO
8,547
7,584
8,438
9,299
10,165
11,037
1
1,064
6
7
8
9
10
0,676
0,989
1,344 .
1,735
2,156
·o,872 •
1,239
1,646·
2,088
2,558
11
12
13
14
15
2,603
3,074
3,565
4,075
4,601
3,053 .
3,571
4,107
4,660
5,229
3,816
·4;404
5,009
5,629
6,262.
4,575
5,226
5;892
6,571
7,261
16
i7
18
19
20
5,142
5,697
6,265
6,844
7,434
5,812
6,408
7,015
7,633
8,260
6,908
7,564
8,231
8.907
9,591
7,962
8,672
9,390
10,117
10,851
9,312
10,0_85
10,865
11;651
12,443
11,912
12,792
13,675
14,562
15,452
21
22
23
24
25
8,034
8,643
.9,260
9,886
10,520
8,897
9,542
10,196
10,856
11,524
10,283
10,982
11,689
12,401
13,120
11,591
12,338
13,091
13,848.
i4,611
13,240
14,042
14,848
15,659
16,473
16,344
17,240
18,137
19,037
19,939
26
27
28
29
30
11,160
11,808
12,461
13,121
13,787
12,198
12,879
13,565
14,257
14,954
13,844
14,573
15,308
16,047
16,791
15,379
16,151
16,928
17,708
18,493
17,292
18,11.4
18,939
19;768
20,599
20,843
21,749
22,657
23,567
24,478
.31
32
33
34
35
14,458
15,134
15,815
16,501
17,192
15,655
Hi,362
17,074
17,789
18,509
17,539
18,291
19,047
19,806
20,569
19,281
20,072
20,867
21,'664
22,465
21,434
22,271
23,110
23,952
24,797
26,304
27,2Hl
2R,136
29,054
36
37
38
39
40
17,887
18,586
19;289
19,996
20,707
19,233
19,960
20,691
21,426·
22,164
21,336
22,106
22,878
23,654
24,4i_l3
23,269
24,075
24,884
25,695 ·
26,509
25,643
26,492
27,343
28,196
29,051
29,973
30,893
3l,R11i
32,737
33,660
41
42
43
44
45
21,421
22,138
22,859
23,584
24,311
22,906
23,650
24,398
25,148
25,901
25,215 .
25,999
26.,785
27,575
28,366
27,326
28,144
28,965
29,787
29,907
30,765
31,625
32,487
33,350
34,585
35,510
36,436
37,363
38,291
30,6~2
25,3~0
'"D. B. Owen, Ham.dbook oj Statzstical Tables, Addison-Wesley Publishing Co.,
(Cortesia de Atomjc Energy Commission, Washington,D. C.)
1962.
Tab.
s.
Pr ( x2 com j graus de
j
I
cconr nuação)
liberda~e ~
0,95 : 1
0,75
valor tabelado} - = 'Y .·
0,975
1
0,995
0,99
5,024
7,378
9,348 I
11,143
12,833 '
6,635 '
9,21() .
11,345
13,277
15,086
14,860
16,750
12,592!
14,0671
15,507,
16,919,
'18,307
14,449
16,013
17,535
19,023
20,483
·16,812
18,475
20,090
21,666
23,209
18,548
.20;278
21,955
23,589
25,188
_1
2
3
4
5
1,323
2,773
4,108
5,385
6,626
2,706
4,605
6;251
7,779
9,236
3,8411
5,99lj
7;815,
9,488.
11,0711
6
7
8
9
10
7,841
9,037
10,219
11,389
12,549
10,645
12,017
13,362
14,684
15,987
I
7;879
10,597 .
12,~8
-·· ·-
11
12
13
14
15
13,701
14,845
15,984
17,117
18,245
17,275
18,549
19,812
21,0(/4
22,307
·19,675
21,026
22,362
23,685
24,996
21,920
23,337
24,736
26,119
27,488
24,725 '
26,21'7
27,688 '.
2_9,141 :
30,578
26,'757
28,299
29,819
31;319
32,801
16
17
18
19
20
19,369
20,489
21,605
22,718 .
23,828
23,542
24,769
25,989
27,204
28,412
26,296
27,587 .
31,410
28,845
30,191
31,526
32,852
34,170
32,000 1
33,409 '
34,805 .
36,191 I
37,566 I .
34,267
35,71&
37,156
38,582
39,9?7 .
21
22
23
24
25
24,935
26,039
27,141
28,241
29,339
. 29,615
30,813
32,007
33,196
34,382
32,671
33,924
35,1721
36,4151
37,652
35,479
36,781
38,076
39,364
40,646
38,932 '
40,289
41,638
42,980 '
44,314 I
41,401
42,J96
44,181
45,559
46,928
26
27
28
29
30
30,435
31,528·
32,620
33,711
34,800
35,563
36,741 .
37,916
39,087
40,256
38,8851
40,113
41,337 1
42,557 1
43,773
41,923
43,194
44,461
45,722
46,979
45,642 :
46,963 .
48,278
49,588 .
50,892
48,290
49,645
50,993
52,336
53,672
31
32
33
34
35
35,887
36;973
38,058
. '39,141
40,223
41,422
42,,'i85
43,745
44,903
46,059
44,985 1
46,194 1
47,400 1
48,602 1
49,802
48,232
49,480
50,725
51,966
53,203
52,191
53,486
54,776
56,061
57,342
36
37
38
39
40
41,304
42,383
43,462
44,539
45,616
47,212
48,363
49,513
50,660 .
51,805.
54,437
55,668
56,896
58,120
59,342
58,619
59,892 .
61,162 I
62,428
63,691
41
42
43
46,692
·47,766
48,840
49,913
. 50,985·
52,949
54,090
55,230
56,369_
57,505.
50,998 1
52,19253,384Í
54;572 !
55,758 !
I
56,942 1
.
~g:~~i
I
44
45
58,124 ~
59',3041
60,481 1
61,656 1.
I
60,561
61,777
62,990
_64,201
65,410 .
. 64,950
66,206
67,459
- 68,710
69,957
,
55,003
56,328
57,648
58,964
60,275
1
61,581
62,883
64,181
65,476
66,766 , .
'
i
I
. . 68;053 .
69,33() ,·
. 70,616 .:L
.· 71,893\,
'-- 73166 ;.:
•
'}
,1 •• ,.
"
••• '~ 1,
,.
.,I
'
,
408 I i"ROBABHUDADE
Talb!. @.
INJt(im®r.Ciôl Aiearfl:6riosQ
07018
52444
72161
17918
13623
31172
65625
57299
7507:1.
76165
12572
97918
87521
91057
4319,5
23968
46794
44351
46829
50205
55216
62370
99981
47992
75736
85366
59344
.55008
26797
77473
56223
20149
93371
64423
07268
94564
51669
66662
91676
~1330 07337
18172
47429
27036
71Ü27
55901 .
27426
96039
68282
54262
66290
97534
21338
98888
21477
27544
89707
88169
25545
33097
72780
97453
69530
69406
48125
91384
90836
53300
29470
92982
47296
78967
29895
46476
98382
54892
00704
71507
54562
11265
59168
85734
28517
79373
25366
83951
21776
77761
72993
06636
9i075
85764
17244
98998
25349
04724
53348
34482
99268
95342
38556
39044
42758
98715
97178
60373
04072 62210
48436
07545 27317
10401 31615
77935 64608
01209.
30254
52459
95784.
28949
43999
50029
75366
77026
94764
54952
19016
43688
33087
45312
68699 31912
56837~ 05206·
27460 65145
65961 10056
71171 . 15400
09317
33851
65429
72834
72182
39159
41786
95627
98738
75214
04795
18169
30768
15548
61575
51163
96649
30607
42263
27805
84475
92406
89023
79489
21930
60722
42773
60730
85118
94726
35268
23672
31519
97073
39454 .
05044
37333
53462
01574
19616
56420
85734
90489
57310
72239
39214
99886
81693
59375
93791
89822
81200
17849
22610
73904
33329
66364
68349
19193
89123
08896
94799
16984
99621
19271
94662
62211
86532
66899
15792
05781
37539
96186
12351
72675
59187
80172
53893
72438
62175
53284
.43269
48268
99839
48746
28024
91133
82821
24228 .
56084
45421
05562
19526
32079
54029
37956
82385
63257
53517
22296
14252
91760
14288
18558
49017
76941
55430
33023
87337
23489
77008
25875
26895
74487
19172
27646
26446
65304
83196
80439
82072
25738
34978
61939
76263
28048
32962
43053
05045
98918
4f589
24266
28951
20405
59330
70883
26814
22676
69324
20121
72035
01194
05303
80823
89779
81800
48587
39725
20905
- 58862
50296
93319
60054
68727
81773
74279
34968
99696
55282
36773
85087
76028
78454
6105L
21247
94186
54285
21700
.97260
54735
67793
9Ó845
12301
89829
68996
18178
35464
88832
69121
16937
82224
68076
96796
86547
18134
17069
15868
59341
62195
51873
87880
70063
16136
72492
10973
54945
26794
01803
33536
77090
73489
81386
17.537
60137
31337 83886 72886
94128 97990 58609
.00511 48241 49521
69981 03469 56128
23701 56612 8,6307
42598
20002
64568
80405
02364
05464
76530
69459
97485
88677
88071
81981
95079
88251
17192
·92209
30999
42588
76708
23082
50728
50147
98590
.09558
00728
67442
93941
12829
86759
78660
47529
80754
64366
15065
74196
0!1237
11007
60622
79973
71080
24607
4S461
78444
43668
71367
12817
24725
39582
19599
23485
98120
02877
91930
30021
82364
30937
74667
97948
68572
30321
70666
18427
13221
318i6
42982
76059
45658
·99234
63033
74427
44446 94188
40044 59484
99629 22430
14597 28953
25625 74309
14060
59966
49247
21162
15855
09923
153094
Jl9800
117295
59338
26729
72826
42212
74244
27190
?'4573
65558
41268
43088
99302
16583
22616
84923
27056
84020
37689
33472
21002
86338:
15425
00703
67515
30588
47331
21846
75585
40676
09737
"
98578
19747
31154
84058
25447
08865
83133
12382
~0128
09300
17596
60620
42379
78329
90005
94961
83735
ll4748 ~380 99376
54~17
30496 84523
"'The Rand Corporation, A Millioo. Random Digite 'llli!A UJO,OOô N MfYIQ, l
Dwiak:J, The Fr01:1 Jl>rsoo, 1955.
·
p.fill~i\!!:))~C~
c·
..
irõll!il. ®.
I
-~og
(te@i'!\l:iii'IM~ál@)
96124
31283
49988
82790
5i473
73355
54371
48558
45529
13821
01925
20985
20397
48792
75776
17211}
00299
60384
31384
24401
81719
71681
24574
55649
00445
74603
22496
14852
. 08779
<51570
07785
16624
287'18
33373
36535
02854
68335
92405
90330
48606
91971
46052
07123
67545
11139
63537
07442
22008
74667
82646
84671
41667
83082
20398
03517
62897
28526
58239
ll8600
47408
·56i29
35459
61955
85374
62155
36513
10460
55992
69791
47467
41292
33925
.36.520
18857
14Sl3
.82142
75946
08005
92948
15556
75454
27582
89658
57194
39555
90681
90856
47708
77203
09325
73339
04254
01691
26072
16717
08810
23715
. 22284
92538
64219
53166
58112
14548
21251
53416
78592
88451:
36314
15618
03811
80640
22892
05831
40764
30953
12764
72393
11031
91948
63369
79194
7i563
40757
69586
18537
66885
9'6177
37321
77905
.30305 29383 . 69753
71241 35347 37285
26414 10767 <50334
94194 6::2843 11182
80687 3945-1. 0'7628
6U56 ·
02028
.36911
49766
94806
53~8
28914
40326
49117
22772
70267
48762
75187
96627
. 34500
74970
76952
36639
38470
34392
35100
96837
21396.
78905
92989
01291 .
56684
13717
26708
48783
90933
. 56681
49966
63004
08773
90290
31779
35367
89286
45424
97232
30441
43255
24880
44359
61348
U9883
06993
38838
. 25248
22204
'l.7044
17418
76022
75881
4344(ll
74724
89716
00086
50446
85097
79343
99234
12164
05451
58178
26313
36613
16943
68947
46391
39585
43440
62009
34932
58980
56285
60269
' 32132
81628
12207
22525
00899
93031
22716
94901
11439
58248 29765
01921
99303
80876
68818
20908
97159
38995
38314
78915
49267
55540
97879
7707S
57288
18968
00867
98178
85171
85310
39165
84294
03701
06316
43287
03332
54653
70069
29523
89223
94932
81281
8Ó463
05445
36992
42596
10904
45045
20240
74905
87366
22385
67557
35362
85867
80039
39813
86629
82072
18672
75647
63111
67943
29280
28716
66121
33237
. 23405
72468
17995
17083
95008
86552
94845
63510
{}7327
09057
17393
97004
67901
39209
.50820
24221
07384
11985
71237
96867
69703
13059
38553
08744
64979
77702
47389
97029
38483
89159
·90176
97265
. 88433
16602
33269
04883
11379
78988
. 94343
06367
84487
24426
88864
18593
09234
88688
09528
03876
84747
.77201
09360
36035
48791
57469
92195
42803
02501
72613
08334
89547
88379
53814
16963
87558
84269
94907
14560
3732,0
58885
55068
08019
43698
40740
65475
10532
05159
86631
79330
25295
43324
64613
87561
04318
59946
39407
26962
90731
56078
47877
65004
30688
59632
23196
81764
35041
51677
52672
49668
85986
20714
05111
24519
80418
61687
20880
51215
10966
73842
04373
:1.9385
53285
45735
11755
51242
00281
12233
14319
40589
05075
25893
65661
78439
83489
80028
94848
10625
18033
95820
35144
74342
93343
72250
70913
70599
45848
21834
87674
87328
92270
10404
95563
6740.5
04636
62912
28635
15070
94163
42466
08859
92136
99901
16622
68427
87405
42852
09382
. 54994
79135
·08266
40812
01498
88817
75548
42860
71208
44319
57827
53699
40656
72822
22313
02940
90888
33282
17662·
89649
66788
94921
45677
50330
47415
7?246
04949
06003
32576
.21065
85094
80725
46597
95030
42846
44885
72120
67666
87874
78055
72542
80838
70858
25965
6477{}
31695
38409
41314
05261
64993'
83843
72270
71100
95727
48051
..
i.: ·:
.'j .:
:i:
' I,;
',,,li
.I''.'
.!.
..1 . ··
i,'!
lr :;l.
I :
!! .
I!
r
i
;:;·1
.
AI"IÊNÓICE I 411
'
I
Tah. 7. (Continuaçã1)
I
10
11
12
13
14
115
16
17
00
01
02
03
04
os
06
07
08
09
-0,73
-0,87
1,18
-2,09
-0,32
0,90
-0,16
0,15
- 1,87
0,87
0,25
-0,74
0,05
1,13
1,06
- 0,86
-0,22
- 1,12
· 0,72
0,95
-2,08
1,44
0,10
- 0,50
1,14
0,63
- 0,17
0,80
-1,17
0,05
0,17
- 0,79
-0,15
0,37
- 0,23
-1,62
-0,81
-0,30
-0,36
0,46
-1,04
-0,76
0,05
-0,18
0,49
-0,52
0,49
- 0,77
- 1,42
- 0,01
- o l23
-0!42
0,74
1,93
0,82
-1,85
-0,27
0,78
0,53
· o,oo
-0,58
1,19
0,23
0,88
; 0,90
-0,90
-0,64
-0,54
1,73
I 0,94
• 0,03
-'- 1,61
0,70
0,80
- 1,38
1,32
0,47
-0,29
0,14
-1,16
2,08
-0,10 .
-0,79
-0,53
0,51
-0,83
10
0,52
-1,39
-'. 0,94
-0,51
- 1,50
-0,48
0,89
0,38
- 0,53
0,15
0,12
- 1,18
: -0,46
0,04
-0,21
1,54
-0,23
1,52
0,37
0,62
-1,04
1,67
-0,85
-0,44
-0;89
1,88
0,57
-1,32
0,19
-1,29
-0,56
2,88
- 0,29
-1,87
o;43
0,66
0,23
2,13
- 2,41 .
1,84
-0,91
-2,06
0,54
-1,06
-1,81
-0,62
1,81
-0,14
0,16
0,80
-0\13
OllO
01'71
1,18
0,17
0,05
0,90
-0,39
-0,66
-0,34
0,33
-0,46
-0,15
10,72
1,17
.,.o,s5 '
-0,42
0,22
-0,02
. 2,42
1,23
0,25
0,14
1 1,1? .
-1,24
0,74
-1,30
-0,55
1,77
-1,65
1,31
0,65
-0,15
0,07
-0,84
0,33
0,50
-0,54
-1,54
2,06
0,06 .
· 1,i8
-0,73
0,46
~o.81
- ·0,22
2,51
- 0,48
0,75
1,37
0,04
I'
- 1,53
- 0,44
0,45
1,34
1,16
- 2,17
-0,43
-0,35
0,68
- 1,73
0,59
.,. 0,20
0,27
1,50
1,09
0,49
-2,08
2,10
0,00
0,25
- 0,15
- 2,05
0,67
0,57
-0,73
-1,24
0,75
- 0,70
1,87
• 0,26
_ . 0,15
- 0,27
- 0,74
- 1,78
- 0,15
o;87
0,97
1,78
0,94
0,77
- 0,77
0,68
- 0,2'1
- 1,11
0,95
.:. 0,88
0,92
0,37
0,85
- 1,16
0,89
0,18
- 0,42
0,83
- 1,18
0,38
-0,04
'0,18
-1,87
0,89
-0,73
-0,92
- 1,51
0 ,49
- 1,41
0,71
1,18
0,44
0,74
0,18
0,43
1,82
1,62
1,46
1,48
0,28
0,11
- 0,41
- 0,44
0,48
- 1,53
- 0,71
- 0,88
- 0,31
1,02
- 0,39
0,62
- 1,32
j,67
- 0,26
- 6,76
- 1,76
0,03
- 0,76
0,51
2;35
0;48
0,82
- Oi58
- 1;26
- 1,03
-0,14
0,76
0,76
1,25
-0,43
- 1,08.
-0,24
0,37
. 2,22
-0,01
- 0,26
0,55
- 1,36
- 0,66
- 2,08
0,30
- 0,99
1,56
0,11
-0,28
0,15
-0,60
- 0,60
0,83
0,32
- 0,21
1,76
- 0,95
- 0,72
- 0,37
- 0,10
- p,74
- 1,76
Q,37
- 9.42
- 0,70
- 0,07
1,44
0,96
0,69
0,90
- .0,11
- 0,02
1,40
0,34
0,14
-1,11
-0,58
0,79
- . 0,03
0,85
-0,58
-0,73
1,61
- 1,08
11
' 12
13
14
15
16
17
18
19
20
. 21
22
23
24
25
26 .
27
28
29
-1 ,6 1
0,26
- 0,32
- 1,00
0,66
- 0,20
1,01
- 1,81
- 0,40
30
31
32
33
34
35
36
37
38
39
-
0,01
0,23
1,27
1,72
0,78
1,86
- 0,50
1,02
- 1,57
2,27
0,15
- 0,19
0 ,13
1,70
1,55
1,12
- 0,93
- 0,81
0,10
- 0,61
-
1,83
1,08
0,17
0,61
0,19
2,09
0,68
0,62
0,11
0,61
40
41
42
43
44
45
46
47
48
49
- 2,17
0,05
- 0,38
0,40
0,39
- .0,12
1,20
- 1,04
- 0,32
1,08
- 0,69
- 1,71
1,75
- 1,50
0,66
1,18
- 0,91
1,28
0,56
0',56
1,33
0,21
0,93
0,24
0,19
- 0,08
- 1,08
2,50
- 1.03
0,34
-
.-
1:06
-0,16
11,1o
-1!sS
01,96
-0 \91
-0\46
0\85
-o;o1
~.28
1,02
o;,2a
0,36
-
~,65
~.16
f,59
t29
- q,l4
~.46
- q,11
- q.so
- 0,17
,,08
q,o5
-
- Q,3T
f.35
- Q.45
I
9.45
- p,8o.
- /.02
p,53
0,46
. .-
1,86
. 0,14
0,07
0,12
0,83
0,20
0,27
0,08
0,27
0,89
0,78
0,90
1,10
0,35
0,53
1,84
0,51
0,45
- 0,27
0,03
l 0,15
;
-
-
'
-
0,55
0,20
0,12
1,67
0,14
0,45
0,13
0,69
0,42
0,65
0,99
2,83
0,46
0,38
0,23
0,59
1,22
1,43
0,64
2,52
0,42
,0,16
0,92
0,26
0,25
- 1,90
- 0,17
- 1,13
18
'
- o;21
19
- o,os
0,19
1,21
0,44
1,11
-0,87
I
I
I
i'
., o:·.> .. ...
.... ,(
-
Respostas a
Problemas Selecionados
Capitulo
U.
~
(a)
!SI; '
(b)
ti, 3, 4,
5, 6, 7, 8, 9, 10},
(c) 12, 3, 4, 5.},
(e)
2, 5, 6, 7, 8, 9, IO}.
.
(d)
I1, 5, 6; 7, 8, 9, lO),
(a)
~:r)O~x<jfu{xl~~x~2f,
(b)
~x)O~x<!fu~xl~ <x~1~U{-xl1~x~2f,
(c)
{xlO~x~ ~f
(d)
jx.lt~x~ifu~xll<x <~f·
1.3.
(a)
Verdadeira, (õ) Verdadeira, .(c) Falsa, (d} Flrlsa, (e) .Verdadeira.
Vt
(a) A = 1(0, 0), (1, O), (2, O), (0, 1), (1, l), (2, 1),
1.2.
(b)
B = { (0,
(3,
(4,
(3, 3), (4,
(4, '5)~ (5,
.y,
0),
1),
3),
5),
II,
U J x/1
<x~2f,
(i, 0), (2, 0), (3, O),
(5, 1), (6, 1), (2, 2),
(5; 3), (6, 3), (2, 4),
(6, 5), (3, 6),_' (4,,. 6),
(.0,
2), (1; 2)},
(4, 0), (5, 0), (6, 0), (1, 1), (2, 1)~
(3; 2); (4, 2), (5, 2), (6, 2), (2, 3),
(3, 4), (4, 4), -(5, 4), (6, 4), (.3; 5),
{5, 6), (6, 6)J.
::-.·
1.6. -.fl?Ii>;·N._tJJJ;"7JNIJD,'I>NDN, DNinJ, DNNN, NDND, NDNN,
. NNDD, NNDN; NNNp, NNNNI. ·
1.10. (a) Í(x; y))O~x < y~24).
U'l. (a) AVBUC,
(b)
{A(')B(')C]U[A(')Br'\ClU1A(')B(')C],
(<J) A(')B(')C.
1.~5.
1 4 8
13'
!3' 13
2..1.
113
1\
(a)'ilg' .(li)-,;.
"
..
.
. 1.16. (a) 1- z, (b) y- z. 'i1.17.
Jl
2.2. (a)-,
12
1
20
(b)-.
5
g'
.
K
2
2.3. (a)-,
.a
5
(b)- •
8
RESPOSTAS A PROBLEMAS SELECIONADOS I 4 13
2.4.
( ~~0)(-\i~)
2.8.
1
[( 4~)( 12~~) + ( ~)( \~~)J
-
( 1.500 )
..200 J
4
45.
2.5.
2.7.
' (b)
( 1.500)
200
(a)
(a)~.
2.6.
3
(a) --,
8
120.
(b)
1~0,
(c)
7
j''
7
8 .
~'
(e) .1''
2.9.
720.
(d)
2.10. 455.
•
-~
(b) - ,
8
91
(j) 120'
2.11. (a) 120,
(b) 4 . 37,
.(D
-,
2.12. (a)
(cj 70,
!.
(c)
4
~
(g)
1
gó
(b) 2.970.
(à) 336.
2.13. (N - 1)!/(N - n)!N.....1•
't.:
'_.p,
a+ b.
2.14. (a) 360,
(b) 1.296. .
2.15.
2.16. (a) . 2/n;
(b) 2(n - l )/n2 •
2.111. 0,24.
i'-
2.20. 120.
1
n- k + 1
10!
2.22.-----
10' (10- r)!
;: •
Capítulo 3
31
• • '(
X
~y)
1
(b)
3.2.
(a)
6'
3.4.
(a)
ios r
3.7.
a·
3.12.
(a)
3.15.
( z
2
~ ~ ~ 1 ) · + (X ~ y )
1
.!.,
3.3.
(c)-.
2
3
·' (b)2.
5
2
.!_,
(b)
4
.!.
Z
+: +1 )
5
9
3.6.
(a)~,
3.9,
0,362r 0,406r
95 .
!1.
5
+ 2p3 -
5pl
+ 2p5,
2_+ (2p -
.r~·-
<a>, ; 0,65;·
\ '·--;.:/
(b) P
+ 3p2 -
(c) 48 .
95
0,2~2.
l)n
(ll - t)
(b)
0,22
(b) 0,145 . .
4ps - P4
3.25. · (a) 0,50,
16'
3.34. f3n =
.!!
95 r
(b)
. ••. · -...
... J:1 7. ~) ,0,995;
16'
.
3.13. 1 - (1- p)" .
4.
3.20. (a) 2p2
3
3.23.
3.35.
(
+ 3p~ _:_ pa. ,
(b) 0,05 . .
(c) 8/35
·: =-'.-
414 I PROBABILIDADE
..
)
a
i3
3.37. Pn = - - +
a+ I'
(a+ 13) (a+ i3 + l)n - 1
3.39. (n - 1) p 2 /(1 - 2p + np 2 )
Capítulo 4
4.1.
P(X = O) =
4.2.
(a)
4.3.
(a)
.!.
, P(X =
64
1) =
r r-z.
~,
P(X = 2) = ~-, P(X =
ô4
64
(!) (t (f
1
(b)
3'
1
16'
~
.'
M
G) (/~ ~) /rf) .
(o)
1
4.~~
7.
(c)
3) ""'
.
·I
27
64'
.<1,.10. e- e-1'.
4.11. P(X
> biX < b/2) = - W!(OD + 8).
4.13. (a) a= (2/b)- b.
1
4.15. (a) a= 2'
4.17. (a) j(z) =
g'
.!. , O < x < 5,
(b)j(x)
5
(c) j(x) = 3é", x
4.23. (b) P(X = k)
4.16. (b) F(z)
= 3z2 -
4t5•
2x 8•
= (1/rr)(x - z 2)-112, O < x < 1.
.§_.
4
= (~O) (0,09)k(0,91) 1o.-!:.
.!. .
3
5'
4.28.
4
4.29. (a) k = !3,
= 5t0 c;:
< O.
(b) a =
4.20. (a) a = .3,
4.25. (a)
3
(c)
4.14. (a) F(t)
(b) r= 1.
Capítulo 5
= ~ (4-
P,
y)-1
3
<
< 4.
5.1.
g(y)
5.2.
(a) g(y) =
1
'6,
7 < y < 13,
5.3.
(a) . g(y) =
~ y-2f3cvlf3, Y > O.
5.6.
(a) g(y)
(b) h(z)
y
(b) h(z) = 1j2z, e
y 2)-1f2, -1 < y < 1,
(2/,.)(1- a:2)-1f2, O< z < 1, (c)j(w)
< z < ev.
= (1/,-)(1 -
=
=
1; O.< w < !.
RESPOSTAS A !PROBLEMAS SE LECIQi\i ADOS I 415
,
5.7.
5.8.
(3j2,-)[(3vj4,-)-1i 3
(a) g(v) =
~
I
< v < 4vj3,
O < s < 4,..
1], O
(b)
h(a) = (3/4,-)[1 -
(a/4,-)}11],
g(p)
= _!__ (2/p) 1f2,
< p < 242.
8
162
I
= 1; g(y) = O,
5.1 0. (a)_ g(O)
y
l
O.
< yo((k - a)/(xo- a)],
a)fkyo, O < y < yo; g(yo) = 1 - xefk.
(b) g(O) = ajk; g(y) = (xo 1 a)jkyo, O < y
(c)
g(O)-
= a/k; g(y)
= (xo -
I
5.13. 0,71.-
Capitulo~
s·/__.--·
i
6.2.
= S,
(a) k
(b) h(x)
1
Z~: O < x
~.,.....-'[' .....
.. ·-.
=;
1
< 2,
"'"r! ~ v/4(;.''/"'"""k~~'
y Jli';~: ~ y:52 .
~~.
8
(c)
' '
g(y) = <
'~
/
li~ y~4 t_-~~41~~~--~7 ~ y ~o.
6.3.
(a)
~,
6.6.
(Cll)
k,;,t,
(b)h(x)=l! -lxl,-l< x<I,
(c)
u<vL =
IY I, -
h(z)
=
UI.
=
6.11. g(h)
(b) !._,
=
1 -
k = 1/(1 - e-1) 2•
6.5.
32
l
l/2z\ z ~ 1.
1/2, o < z < 1.
(1.600 -
.É...
(c)
24!_
6
< v < 1.
_
9h~)/80h\
I
I
s:< h < ~
=_!__ ~<h~B
5' 3
= (5h!- 80)/16112, 4
l!i>.12. h( i) =
e-(2/i)IJ![ -
~h~~ .
(2/l) :_;__ 2(2ti) 1f2 - 2]
+ e-< 1/•> 1(-![(1/i) + 2(1/i) 111 + 2], i> O.
®.13. h(w) = 6 +6w- 12w 112, O !< w <I.
6.14. (a} g(x) =e-%, x >O,
(b} 1 h(y) = ye-v, y >O.
7.3.
3,<1..
7.4.
_!_(2C3
7.6.
US~0,03.
7.8.
715
3[
'2
+ C2- 3CJ).
·..,: -, I'
416 I PROBABIUDADE
7.9.
US$50.
7.10. (a) C= _!_
6
(b) E(D) =
~.
9
7.13. (b) E(IV) = ~.
. 3
7.12. (b) E(Z) = i_.
3
7.14. 154.
7.15. E(Y)
= 10, V(Y) = 3,
E(Z) = (e{i)(e2
-
V (Z)
I),
=
(e~{i)(t?- I ).
7.11!. E(Y) = O, 1-"( Y ) =f, E (Z) = 2/v, V (Z) = (.-1- 8)f2,:Z, E (W)
=+,
. 1
V(W) = - .
12
7.20.
c~
7.:!4.
lll
=
2
2: E(Y) = (yaf2k)(T.J)- a), V(Y)= (xo -ka)yo [
f,
b
= 2.
7.25. (a) E( V)
7.26. V (X) = ~~
3
7.2.7. E(S) =
7.30. (a) g(x) = x{i, O < x
(b)
7.31.
V(X) =
E(Z):::: !'z/JJy
< 2;
.
=
+- xo,~ l
IB
f,
(b) E(P) = : .
~.
6
h(y) = l{i - y/8, O < y
< 4,
~.
9'
+ 2(Jl.:</)ly 3)o-v 2 ;
V(Z):::: (1/p.1/)u, 2
+ (JJ.i/p.y~)1Jv •
2
7.32. E(Z):::: ~ ; V (Z) ~ ~.
27
7.35.
1
"4;
27
7.46. 48
65
O.
7 .48. P(Xi=l)=p(rjn)+q[(n-r)/n].
Capítulo 8
11.1 .. 0,219.
ll.3.
(a) 0,145,
(b) 4,
(c) 2,
(d) l ou 2.
(e) 1,185,
1!.4.
0,375 8(binomial); 0,405 (Poisson).
8.5.
0,067.
3.6.
P(X
1!.7.
E(P) = US$45,74.
3.9.
(b)
= O) = 0,264.
0,027.
3.12. (a) (0,735) 7, (b) 1 - (0,265) 7 •
11.10. 0,21<,.
1!.16. (a) (1 - Ptl( 1 - P2)(1- pa)(l- p4),
8.17. (a) 0,064.
8.20. (2- ln 3)/3.
(b) 0,13.
3.24o
(a) 0,226 6,
(b) 0,:290 2.
9.2.
(c) 0,096 4.
US$19.125.
Capitulo 9
9.1.
(J) 0,2 15.
0,308 5.
.j.
~
RESPOSTAS A PROBLEMAS SELECiONADOS I 417
9.3_.
'
/~ )
~'
1o,21.
9.5.:.,___ (a) D 2,
1
9.6.
E(.Y-J-= 2 12f,r, V(Y) = (.- - 2)/,.-.
9. fo.
c=
+ Jl-
0,433u
9. ~2. E( L)
9.13. (a)
9.11.
j
<
o, 7745
US$0,528.
=
+;
0,044 5,
J..; 0,049.
_!_; 0,069, (c)
(b)
4
9.15. US$23,40.
9.24. 0,10;
p,.
(b)
-
4
9.17. (a) US$0,077.
0,80.
9.25. E(Y) ~ln JA - (1/2JJ. 2 )u 2 ; V(Y) ~ (1/JJ.')o-2 •
E(X) = np[(1 - p,._ 1)/(l - p")].
9.28. (b)
9.32. 0,15.
F
i
r·
Capítulo 10
10.1.
M,(t) = (2jt 2 )[el(t- 1)+1].
(a)
(b) E(X) =
.!,
V(X) =
3
Xetaj(À- t),
10.3.
(a)
M,.(t) =
10.4.
·(a)
M:. (t) . =
1 0.6.
(a)
(1 - t')- 1•
10.8.
10,9.
(a)
0,8686.
10.12. 0,30;
(b) E(X) = (aÀ
6
V(X) = l/À2 •
i
.
E( X) = 3,2.
(b)
10.14. 0,579 •
1
10.19. {e 3l - l)/3tet.
3
1'1.1.
ll3,55·hor:~s;
~ 1.2.
48,6 hore,s.
n.:il.
j(t)
=
81,77 horas;
78,35 horas.
Co exp [ - Cot], O~ t ~ 41
C,(to - t1)],
= C, exp [- Coto
+
t
> to.
11.41.
(a) j(t) = Ce-C<t-Al, t ~A.
11.5.
(b) R(t)
11.7.
(a)
Aproximadamente (0,5) 6 •
11.9.
0,007.
H.10. R(t) = 2e-0,06t- e-0,091,
11.1~. (a) m =ln
11.13. R(t)
18
+ 1)/À.,
J..cet + t? 1 + e31 + ét. + tft + e6t).
10.13. 0,75.
. 10.11Jl.
..!._,
('VZ),
=
[A/(A +t)]r+l.
11.11. (a) 0,014.
(b) m = 0,01,
exp(-Cot), O< t <to.
= exp [t(C,to - C0 ) (CJ!2)(t2
(c)+ "'·
=
1'1.14. (a) R(t)
= e - f3,t
+ to2)], t > to.
+ e - f3,t + e-f3,t- e-@,+{3,)1- e-<f1,+f3ilt
e-{/3,+f3,)t + e-@,+f3,+f3alt.
I
-
11.15. (a) Rs
=
1- (1- R")k.
11.18. (a) 0,999 926,
(b) 0,99,
·
11.16. (a) Rs = [1- (1-'- R)k]".
(c) 0,68.
·.•,
,.
418 I PROBABiliDADE
= [1- (1- RA) (1- RB)(1- Rc)][1- (1- RA•)(1- RB·)~.
Rs = 1 - Rc(l - RA•)(l - RB•)
- (1 - Rc)(l - RARA·)(l - RBRB•) . .
11.19. (a) Rs
(b)
11.22, Mx(!)
=
2À[I/(t- À)- )f(t- 2À)].
-
,. )
Capítuto 12
•.
n = 392,
(b)n = 5.000. 12.2.
(a) 0,083.
12.1.
(a)
12.3.
(a) 0,966 2,
(b) n = 24.
12.4.
0,1814.
12.5.
(a) 0,180 2,
(b) n = 374.
12.6.
(a)
12.7.
g(r) = (15.000)- 1(r 3
=
12.9..
(a) g(s)
''= 50[1 - e-0,2(s+O.OI)], se -0,01
=
12.12. j(s)
+[
PIP2(1 - PI) /o--1
P2- PI
12.13. (a)
~ 8 ~
50[e-0,2(a-O,Ol) - e-0,2(s+O.Ol)], se
<J? ( s--; 99) _ <J?
=
0,1112,
(b) 0;191 5.
+ 600r), O ,.;; r,.;; 10
r3 + 60r2 - 1.200r + 8.000), 10 ~ r .~ 20.
__:_ 60r2
(15.000)-1( -
[
1-
(
8
0,01
> 0,01. ·
(a -
101)].
2
I - P2
1- PI
)k-1]
' (b) 0,055.
Capítulo 13
13.3.
P(M = m) = [1 - (1 - p)"')" - [I - (I - p)m-1]n.
13.4.
(a) 0,13,
13.6.
(b) 0,58.
0,89.
13.5.
(a) 0,018,
13.8.
(a)
(b) 0,77.
(I - 21)-1•
Capítul© 14
14.1.
V(~)
V(L:)
14.3.
I6,1.
14.6.
(a)
14.9.
(a)
+ V(L:z)
1/(T- to).
k/'1;7 = 1 fli.
C = l/2(n - 1).
14.4.
- 1 - nf-:í;~-l ln X;.
14.7.
(a
) ' 1)(·)
--- n
· . To- 41 "
14.13. 0,034.
14.15.
14.14. -0,52.
14.16. nt1:-~m 1
14.2.
r/X.
x,a.
14.29. Distribuição de F, com (1, 1) graUB de liberdade.
14.31. (-4/5).
14.32. 8,6.
--.
n- k
i
RESPOST
.
A1 APROBLEMAS SELECiONADOS
I 419
I
Ca~pítuio
15.1.
I
15
C:!' vn), c= Vn
<P [c + ':- iv;;] + <!>r- c+:o - ~-~ .v;;J
(b)
(a) l-ei>(
-2,33~+JJ.
I
.15.2.
(a)
1 _
I'
I
(b) C=2,575un-1fJ.
[ nC] e-nX(nÀ)k
~
15.3.
(a)
15.7.
(a) (1- p) 4 (5p
k~O
k!
.
+ ssp• o15.8.
15.
15.9.
(a) (k - 1),
,
onde
. .
[nC] =.maior inteiro~ nC,
(c) 0,323 3.
+ (1 + 2!5 p 5 ) (1- p) +
p) 2 + 60p 3 (1- p) 3 + 10p 2 Cl- p) 3 J.
i
(b) Iguais.
.15.12. (a) sena I sen (
f a) .
·I
.i
..
Indicações Bibliográficas
As seguintes indicações bibliográficas, que de modo algum constituem um&
lista completa, darão ao leitor interessado a oportunidade de encontrar umà. grande
quantidade de leitur!l8 suplementares e complementares de mllitos dos assuntos
que foram examinados no livro. . Além de encontrar alguns a.Ssunto~ exphmlldos,
os quais não foram incluídos nesta exposição, o leitor encontrará certos temas estudados ou em maior detalhe ou de um ângulo um tanto diferente.
Além de registrar os manuais arrolados abaixo, o leitor deverá. também conhecer determinadas revistas especializadas, nas quais são feitas contribuições importantes. Muitas dessas revistas são, naturalm~nte, escritas para pessoas que
tenham base bastante maior e um conhecimento deste domínio além daquele que
pode ser alcançado com o estudo de um semestre. No entanto, há algumas revistas que ocasiqnalmente contêm artigos muito claros, ·que estão ao calcance de
um estudante que tenha . dominado o assunto deste livro. Dentre essas estão o
Journal oj lhe American Statislical Asso~ialicm e a Technomelrics. A última apresenta, na verdade, o subtítulo "A Journal of Statistics for the Physical, Cbemical
and Engineering Sciences", e, por isso, deve ser de particular interesse pars. o
estudante a quem este livro é principalmente destinado.
Muitos dos livros relacionados contêm explana~ões da maioria dos assuntos
tratados neste livro. Contudo, algumas indicações são um pouco mais especializadas e são particularmente pertinentes a. alguns capítulos apenas. Nesse caso,
os capítulos específicos estão mencionados após a indicação da obra.
BAZOVSKY, I. Reliability theory and practice, Englewood Cliffs, New
Jersey, Prentice-Hall, Inc., 1961 (11).
BERMAN, Simeon M. The elements ofprobability. Reading, Mass., AddisonWesley Publishing Co., Inc., 1969.
BOWKER, A. H. e LIEBERMAN, G. J. Engineering statistics. Englewood
Cliffs, New Jersey, Prentice-Hall, Inc., 1959.
DERMAN, C. e KLEIN, M. Probability and statistica/ inference for engineers. New York, Oxford University Press, 1959. ·
EHRENFELD, S. e LITIAUER, S. B. lntroduction to statistical method.
New York, McGraw-Hill Book Company, 1964.
UNDBCAÇÕES BDBliOGRÁfiCAS I .1321
FELLER, W. An introduction to probability theory and }ts applications.
3 ed. New York, John Wiley and Sons, Inc., 1968 (1, 2, 3).
FREUND, J. E. Mathematical statistics. Englewood Cliffs, New Jersey,
Prentice-Hall, lnc., 1962.
·
FRY, T . C. Probability and its engineering uses. 2 ed. New Jersey, D. Van
Nostrand, Princeton, 1964.
GNEDENKO, B. V. The theory of probability. (Tradução do russo.) New
York, Chelsea Publishing Company, ln c., 1962.
GUTTMAN, .I. e WILKS, S. S. Jntroductory engineering statistics.,New .
York, John Wiley and Sons, Inc.,1965.
"
LINDGREN, B. W. Statistical theory. 2 ed. New York, The Macmillan
Company, 1968. ·
LINDGREN, B. W. e McELRATH, G. W. Jntroduction to probability and
statistics.·3 ed. New York, The Macmillan Company, 1969 (13,14, 15).
LLOYD , D. K. e LIPOW, M. Reliability: managerrient, methods, and mathematics. Englewood Cliffs, New Jersey, Prentice-Hall, Inc., 1962 (11).
McCORD, J. R., III e MORONEY, Jr., R. M. Introduction to probability
theory. New York, The Macmillan Company, 1964.
MILLER, I. e FREUND, J. E, Probability and statistics for engineers. New
Jersey, Prentice-Hall, Inc., Englewood Cliffs, 1965 ~
MOOD, A. M. e GRAYBILL, F. A.Jntroduction to the theoryofstatistics.
2 ed., New York, McGraw-Hill Book Company,1963.
PARZEN, E. Modem probability theory and its applications. New
John Wiley and Sons, lnc., 1960.
~ork,
WADSWORTH, B. P. e BRYAN, J. G. Jntroduction to probability and
random variables. New York, McGraw-Hill Book Company, Inc.,1960.
. .1
"
lndice
Alfabético
Aderência, Testes de, 385
Amostra, 308
aleatória de uma variável aleatória,
310
gerando uma amostra aleatória,
. 322, 327
amplitude de uma, 314
máximo de uma, 314
média. de uma, .314
mínimo de uma, 3.14
variância de urna:, 314, 319
Amplitude amostral, 320
Amplitude de um teste, 374
Analogias mecânicas, 74, 84, 142, 157,
160
Bayes, Teorema de, 49
Binomial, Coeficiente,
distribuição, 77
teorema, 77
Boolé, DesigUaldade de, 25 ·
· Cauchy; Distribuição de, 239
Coeficiente
binomial, 33
de confiança, 356
de correlação amostral, 355
Confíabilidade, 263
de sistemas, 274
e duração da vida esperada, 264
.e função de distribuição (acumulada),
264
e taxa de falhas, 265
Conjunto,4
complemento de um, 6
fundamental, 4
identidades referentes a, 7
interseção, 6
número de elementos de um, 7
subconjunto," 5
união, 5
vazio, 5
Contradomínio, 67
Convergência em pro habilidade, 28 7
Correlação amostral, 354
coeficiente de, 16 7
cálculo do, 167
interpretação do, 169,170,171
propriedades do, 167
Covariância, 167 ·
..
)
Desigualdade
de Boole, 25
de Tchebycheff, 165
De Moivre-Laplace, Aproximação de
à distribuição binomial, 290
Desvio-padrão de uma · variável ·aleatória, 157
Distribuição,
binomial, 77
aproximaÇão n'cirmal da, 288
aproximação de DeMoivre-Laplace
à, 290
·propriedades da, 92, 93
valor esperado da, 141, 15 5
variância da, 160
de Cauchy, 239
de Maxwell, 25 8
de Pascal, 20 3
expectância da, 204
variância da, 204 ..
de Poisson, 186
e a distribuição binomial, 187
e a distribuição multinomial, 262
.propriedade reprodutiva da, 256
valor esperado da, 186
variância da, 186
de quí-quadrado, 230
fNDICIE AlFABÉTICO I 423
e distribuição gama, 230
e distribuição normal, 231, 257
para número grande de graus de
liberdade, 233
propriedade aditiva, 25 7
valor esperado da, 232
variância da, 232
de Bayleigh, 258
de Weibull, 273
exponencial, 223 ·
F de Snedecor, 368
gama, 228
geométrica, 200
hipergeornétrica, 38, 205
lognorrnal, 239
rnultinornial, 206
e a distribuição de Poisson, 262
valor esp.erado da, 141, 155
variância da, 160
normal, 214
aproximação da distribuição
miai pela, 288
bidimensional, 233, 234
função linear de, 219
propriedade reprodutiva, 255
i:eduzida, 219
sorna de variáveis aleatórias inde~
I
pendentes, 255
i
tabulação da, 220
truncada, 234
valor esperado da, 218
variância çla, 218
t de Student, 358
propriedades da, 357
truncada, 233 ·
uniforme, 90, 118
bidimensional, 117
unidirnensional, 90, 91
valor esperado da, 14 3
variância da, 161
Distribuições mistas, 89
Enumeração, Métodos de, 29
combinações, 32
·
permutações, 31, 37
regra da adição, 31
regra da multiplicação, 30
Erro tipo 1 e erro tipo 2, 372
Escolha de objetos ao acaso,29,"38, 4~
Escolha de um ponto ao acaso em UI!)
intervalo, 90
Espaço amostral, 11
e resultados igualmente verossírneis,
28
exemplos de, 10, 11
finito, 26
partição de um, 47
Espaço contradomínio, 313
Estatística, 312
Estimação de parâmetros, 329
Estimativa,
coerente, 333
linear Ótima, 333
não-tendenciosa, 332
de variância mínima, 332
inexistência de, 369
de mínimos quadrados, 350
de máxima verossirn'ilhança, 3 39
Estimativas de máxima
verossimilhan1
ça, 339
do parâmetro de uma distribuição
exponencial, 340, 345
do parâmetro de uma distribuição
gama, 346
do parâmetro de uma distribuição
normal, 343, 344
do parâmetro de uma distribuição
uniforme, 343
equação das, 341
propriedades das, 341
propriedades assintóticas das, 348
Eventos, .13
complementares, 14
equivalentes, 70, 98
independentes, 50, 52, 53
mutuamente excludentes, 15
Expectância,
condicionada, 17 2
Experimento,
aleatório, 8
determinístico, 7, 8
não-determinístico, 8
Exponencial, Distribuição; 223
e distribuição gama, 228, 259
farni1ia de, com dois parâmetros, 260
propriedades da, 223
valor esperado da, 223
variância da, 224
Fatorial, 32
Fórmula de Stirling, ·289
Freqüência relativa, 15
Função característica de operação de
um teste, 372
e escolha do tamanho dà amostra, 3 77
para o teste da média de uma distribuição normal com variância conhecida, 372, 375
para o teste da média de uma distribuição normal com variância desconhecida, 384 ·
para o parâmetro p de uma variável
aleatória binomialmeilte distribuída,
383
Função de distribuição (acumulada),
85,116
conjunta, 116
e função densidade de probabilidade,
88, 116
gráfico da, 86, 87
propriedades da, 87 88
Função de regressão, 175
aproximação de mínimos quadrados
da, 179
linear, 176
Função densidade de probabilidade, 81
condicionada, 116
conjunta, 116
da amplitude amostral, 320
da soma de variáveis aleatórias independentes, 297
do máximo de uma amostra, 316
do mínimo de uma amostra, 316 .
do produto de variáveis aleatórias
independentes, 128
do quociente de· variáveis aleatórias
independentes, 130
marginal, 11 7
Função gama, 227
Função geratriz de momentos, 266
e momentos, 251
para uma distribuição
binomial, 248
de Poisson, 248
de qui-quadrado, 249
exponencial, 249
gama, 249
geométrica, 252
normal, 249
uniforme,248
para uma função linear de variável
aleatória, 254
seqüências de variáveis aleat6rias,
259
somas de variáveis aleatórias independentes, 255
propriedade da unicidade da, 254
Funções de variáveis aleatóri.as, 97
caso bidimensional, 124, 125
caso contínuo, 101, 102
caso discreto, 99
monótonas, 104
valor esperado de, 145, 149
variância de, 15 6
Gauss, Distribuição de, 353
Gauss-Markoff, Teorema de, 353
Gama, Distribuição, 228
e a distribuição de Poisson, 229
e a distribuição exponencia~ 229,259
valor esperado da; 229
variância da, 230
Geométrica
distribuição, 201
propriedades, 203
valor esperado, 202
variância, 202
série, 7 5 .
Grandes Números, Lei dos, 284
Hipótese
básica, 264
alternativa, 3 7 O
de nulidade, 379
Hipergeométrica, Distribuição, 37, 205
e a distribuição binomial, 206
valor esperado da, 205
·
variância da, 205
Independentes,
Variáveis
aleatórias,
198
critério para, 122
Integral de convolução, 298
Intervalo de confiança, 355 .
da média de uma distribuição normal
variância conhecida, 3'55
variância desconhecida, 359
do parâmetro de uma distribuição
binomia:J, 362
da variância de uma distribuição
normal, 361
Bi\!DliCIE AlFABÚICO I 425
Jacobiano de uma transformação, 126 .
Lei de falhas
exponencial, 268
e distribuição de Poisson, 271
gama, 273
normal, 267
Lei dos Grandes Números, 284
Limite Central, Teorema do, 292
Lognonnal, Distribuição, 239
Máxima verossimilhança,
estimativas de, 3 39
equação para, 34l
propriedades assintóricas das, 348
Máximo de uma amostra, 314, 316
Média de uma amostra (ou Média
amostral), 314
Mínimo de uma amostra, 314, 316
e a distribuição exponencial, 319
Modelos matemáticos, 1
Momento de uma variável aleatória
em relação à sua expectância, 157
Mutuamente excludentes, Eventos, 15
Nível de significância de um teste, 3 74
Normal, Distribuição, 214
Números aleatórios, 322
Pascal, Distribuição de, 206
Parâmetros de uma distribuição, 137
Partição de um espaço amostral, 47
Poisson, Distribuição de, 186
Ponto amostral, 312
Probabilidade, 17
axionas da, 18
condicionada, 42, 44
função densidade de, 119
induzida, 72, 100
marginal, 117
teoremas fundamentais da, 19, 20
total, 48
Processo de Poisson, 194
aplicações do, 198, 199
hipóteses para o, 195
Propriedade aditiva (ou reprodutiva),
255
da distribuição
de Poisson, 256
de qui-quadrado, 257
normal, 256
c·
Rayleigh, Distribuição de, 256
Região crítica de um teste, 381
Regularidade estatística, 17
Resultados igualmente verossímeis, 2 7,
28
Série geométrica, 7 5
Snedecor, Distribuição de F de, 368
Soma de variáveis aleatórias independentes, 29.8, 305
Stirlíng, Fórmula de, 289
· · Student, Distribuição de t de, 358.
propriedades da, 357
Taxa de falhas, 264
Tchebycheff, Desigualdade de, 165
Teorema,
binomial, 34
da multiplicação de probabilidade,
45
generalização do, 65
de Gauss-Markoff, 353
do Limite Central, 292
Teste de hipótese, 370
da média de uma variável aleatória
normalmente distribuída, 375
nível de significância de um, 376
região crítica de um, 381
Testes
amplitude de, 374
de aderência, 385
de uma distribuição especificada, 388,
389
distribuição assintótica de um, 387
Transformação integral, 321
Truncada, distribuição, 234
Valor esperado,
de uma variável aleatória, 137, 139,
142
aproximação do, 162
condicionado, 172
·
de uma função de variável aleatória,
145, 149
de uma função linear, 151
de um produto de variáveis aleatórias
independentes, 154
de uma soma de variáveis aleatórias,
154
propriedades do, 150
ri
•
~
426 I fNDiCE ALFABÉTICO
f
Valor médio de uma variável aleatória,
I
r
f
I
'
i
i
i
I
l
não-correlacionadas; 108
.n-dimensionais, 131
seqüências de, 259
Variância,
amostral, 318
de uma variável aleatória; 316
aproximação da, 162
çálculo da, 157
propriedades da, 156 _
da soma de variáveis aleatórias independentes, 156
Venn, Diagrama de, 6
137
Variávél aleatória, 66
contíima, 81
discreta, 72, 73
distribuição de probabilidade de uma,
73
espaço amostral de, 67
independente, 121, 122
valor médio de uma; 137
variância de uma, 156
Variáveis aleatórias,
bidimensionais, 11 O
contínuas, 111
discretas, 111
normais, ·233
independentes, 121, 122
critério para, 122
Weibull, Distribuição de, 273
aplicações da, 273
expectância da, 274
· variância da, 27 4
.)
. Serviços de impressão e acabamento
executados, ·a partir de filmes fornecidos,
nas oficinas gráficas da EDITORA SANTUÁRIO
Fone: (OXX12) 3104-2000- Fax (OXX12) 3104-2016 ·
http:l/www.editorasantuario.com.br - Aparecida-SP
10
11
12
13
14
15
16
17.
I
.
. A;_· .
Download