XIV ' I PREFÁCIO DA PRIMEiRA EDIÇÃO jeto; pani com a .Sr!! Carol Sloan, por ser uma datilógrafa eficiente e atenta; para com D. Van Nostrand, Inc., The Free Press, Inc: e Mac~ millan Publishing .Cqmpany, por sua permissã'o para reproduzir as. Tábuas 3, 6 e 1, respectivamente; para com McGraw~Hill Book Co., Inc., Oxford University Press Inc., Pergamon Press, Ltda. e P&ntice" Hall, Inc., por suas permissões para citar · determinados exemplos ·no texto, e, finalmente para com minha esposa, não somente por me amparar no esforço, como também por "deixar-me" e levar nossos :doi.s filhos com ela a visitarem os avós, por dois .cruciais meses de verão, durante os quais fui capaz de transformar.nossa casa em uma desordenada, porém tranqhila oficina, da qual surgiu, miraculosamente, a última versão final deste livro. P.L.M. Pullman, Washirigton Abril, 1965 , .·. SUMÁRIO Introdução à 1Probabilic1~de Caprtuio 11 . Modelos Matemáticos Introdução aos Conjuntos Exemplos de Experimentos Não-Determinísticos· O ~spaço Amostral Eventos Freqüência Relativa Noções Fundamentais de Probabilidade Duas Observações 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 Cápftulo~ \ 3.1 3.2 3.3 Capftuio~ 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 Caprtuil>~ 5.1 5.2 5.3 5.4 4 8 11 13 15 17 21 .; Espaços Amostrais Finitos ... 2.1 . Espaço Amostral Finito 2.2 Resultados Igualmente Verqssímeis 2.3 Métodos de Enumeração -Ca~rtulo\\~ 1 26 27 29 Probabilidade Condfcionada e Independência Probabilidade .Condicionada Teorema de Bayes Eventos Independentes 42 49 52 Variãveis Aleatórias Unidimensionais Noção Geral de Variável Aleatória Variáveis Aleatórias Discretas A Distribuição Binomial Variáveis Aleatórias Contínuas Função de Distribuição Acumulada Distribuições Mistas Variáveis Aleatórias Uniformemente Distribuídas Uma Observação 66 72 75 80 85 89 89 91 funções de Variáveis Ale~tórias Um Exemplo Everitos Equivalentes ·Variáveis .Aleatórias Discretas Variáveis Aieatórias Contínuas 97 97 ., 100 i 101 ! . I ; ·1 -t~;;~~-~;:·:-':'· r -:"·.. ' _ XVI I SUMÁRIO ~ Caprtulo 6. ~ 6.1 ~:~ r lj 604 6.5 i' r~ i' 6 .6 I If l' r Capítulo 1. tI 701 702 703 . 704 705 7.6 707 708 709 7010 7011 Capftulo 8. 801 802 8.3 8.4 805 8o6 807 808 Capftulo 9. '. 901 902 903 9.4 905 906 907 9.8 Variáveis Aleatórias de Duas 0111 Mais Dimensões Variáv~is Aleatórias Bidimensionais Distribuições de Probabilidade Marginal e Condicionáda Variáveis Aleatórias Independentes · · ' ·. Funções de Variável Aleatória Distribuição do Produto e do Quociente de Variáveis · Aleatórias Independentes Variáveis Aleatórias n-Dimensionais l. o 110 116 121 124 128 131 ' Caracterização Adlicio1111al das . · Variáveis Aleatórias O Valor Esperado de Uma Variável AleatóriiJ. Expectância de uma Função de uma Variável Aleatória Variáveis Aleatórias Bidimensionais Prupriedades do Valor Esperado A Variância de uma Variável Aleat6ria Propriedades da Variância de uma Variável Aleatória Expressões Aproximadas da Expectância e da Variância A Desigualdade 'de Tchebycheff O Coeficiente de Correlação Valor Esperado Condicionado Regressão da Média 137 144 149 150 ú6 159 162 165 167 172 175 Variáveis Aleatórias Discretas: A de Poisson e Outras A Distribuição de .Poisson A Distribuição de Poisson como Aproximação da Distribuição Binomial O Processo de Poisson·. A Distribuição Geométrica A Distribuição de Pascal Relação entre as Distribuições Binomial e de Pascal A Distribuição Hipergeométrica A Distribuição Multinomial 187 194 . 200 . 203 205 206 208 Algumas Variáveis Aleatórias Continuas !mpoll'ital!'ites Introdução A Distribuição Normal ~ Propriedades da Distribuição Normal Tabulação da Distribuição Nonrtal A Distribuição Exponencial Propriedades da Distribuição Exponencial A Distribuição Gama Propriedades da Distribuição Gama o 214 214 215 219 223 223 227 228 I I SUfViÃRIO I XVII 9.9 A Distribuição de" Qu~-quadrado 9.10 Comparações entre Diversas Distribuições 1 9.11 A Distribuição Normp Bidimensional 9.12 Distribuições Truncadas I 230 233 234 236 I Caprtulo 10. A f11..mção Geratrõzi de Momentos ! 10 .1 10.2 10.3 10.4 ~0.5 10.6 10.7 ' Introdução 1 A Função Geratriz de Momentos Exemplos de Funções Geratrizes de Momentos Propriedades da FunÇão Geratriz de Momentos Propriedades Reprod~tivas Seqüências de Variáveis Aleatórias Observação ·Final ' e ~ i '' ,- 247 250 255 259 260 ! ~ ·. Cap ótu !o 11. Aplicações à Teori~ da Confiabi!idade Conceitos Fundamenfis . 11.2 A Lei de Falhas Normal 11.3 A Lei de Falhas Expdnencial 11.4 A Lei de Falhas Exponencial e a Distribuição de Poisson J 11.5 A Lei de Falhas de Weibull 11.6 Confiabilidade de Sistemas 11.1 Capftulo 12. ~ lv(l/12 .1 f:Y J? ' 12_2 ., - () 12.3 "ÇJ 'y• 12.4 ÔJ~· 12.5 \f d C c\ l\ fv '\ ,'JJ Capftulo 12.6 ~ f. ~ 263 267 268 ' I·, _ L ,.,. 271 273 274 I. I ,Somas de Variáveis Aleatórias I ~u,-J~~ - G<--0.. . ,, InJ.odução . I A Lei dos Grandes N~meros · Aproximação Normal da Distribuição Binomial O Teorema do Limit~ Central Outras Distribuições Aproximadas pela Distribuição Normal: a de Poisson ~ a de Pascal e a Gama A Distribuição da So~a de um Número Finito de Variáveis Aleatórias A'mostras e Dist~rib~ições Amostrais 13.1 Introdução 13 .2 Amostras Aleatórias 13.3 Estatísticas 13.4 Algumas Estatísticas 'mportantes 13.5 A Transformação Integral Cap_í~-~~~ ··. I I 284 286 288 292 I ·I ~ H 297 1: 299 ~ li ~ li li 308 310 312 313 321 !I j! i' ,.j! lI•i ~· !: li · !Estimação de Parâmetros I 1"l1 14.1 Introdução 14.2 Critérios para Estima~ivas 14.3 Alguns Exemplos 14.4 Estimativas de Máxima Verossimilhança 14.5 O Método dos Mínimbs Quadrados I 329 330 334 339 349 i i I .1! l. . .J XVIII I SUMÁRIO 14.6 O Coeficiente de Correlação 14 .7 Intervalos de Confiança 1,4.8 A Distribuição de t de Student 14.9 Mais Sobre Intervalos de Confiança Capftulo 1!5. 354 355 357 360 Testes de IHiõpóteses 15 .1. Introdução 15.2 Formulação Geral: Distribuição Non~al com V~riância Conhecida 15.3 Exemplos Adicionais 15.4 Testes de Aderência 370 376 381 385 APÊNDICE 397 RESPOSTAS A PROBLEMAS SELECIONA!)OS 412 INDICAÇÕES BIBLIOGRÁFICAS 420 fNDICE ALFABÉTICO 422 .i 1 ·i Introdução Probabilidade Capítulo 1 1 J" Modeios Matemáticos Neste capítulo examinaremos o tipo de fenômeno que estudaremos por todo este livro. Além disso, formularemos um modelo matemático que nos ajudará a investigar, de maneira bastante precisa, esse fenômeno. De início, é muito importante distinguir o próprio fenômeno e o modelo matemático para esse fenômeno. Naturalmente, não exercemos influência sobre aquilo que observamos. No entanto, ao escolher um modelo, podemos lançar mão de nosso julgamento crítico. Isto foi espec\almente bem expresso pelo Prof. J. Neyman, que escreveu:* "Todas as vezes que empregarmos Matemática a fim de estudar alguns fenômenos de observação, deveremos essencialmente começar por construir um modelo matemático (determinístico ou probabilístico) para esses fenômenos. Inevitavelmente, o modelo deve simplificar as coisas e certos pormenores devem ser desprezados. O bom resultado do modelo depende de que os pormenores desprezados sejam ou não realmente sem import&ncia na elucidação do fenômeno estudado. A resolução do problema matemático pode estar correta e, não obstante, estar em grande discotdância com os dados observados, simplesmente porque as hipóteses básicas feitas não sejam confirmadas. Geralmente é bastante difícil afirmar com certeza se um modelo matemático especüicado é ou não adequado, antes que alguns dados de observação sejam obtidos. A fim de verüicar a validade de um modelo, deveremos deduzir um certo número de conseqüências de nosso .modelo e, a seguir, comparar esses resultados previ:Jtos com observações." Deveremos nos lembrar das idéias aCima enquanto estivermos estudando alguns fenômenos de observação e modelos apropriados " University oj Calijornia Publications in Statistics, Vol. I, Uriiversity of California Press, 1954. ::! I PROBABILIDADE pax:a sua explicação. Vamos examinar, inicialmente, o que se pode adequadamente denominar modelo detenninistico. Por essa expressão pretendemos nos referir a um modelo que estipule que as condições sob as quais um experimento seja executado determinem o resultado do experimento. Por exemplo, se introduzirmos uma bateria em um circuito simples, o modelo matemático que, presumivelmente, descreveria o fluxo de corrente elétrica observável seria I = E/R, isto é, a J~i de Ohm. O modelo prognostica o valor de I tão logo os valore:; de E e R sejam fornecidos. Dizendo de outra mail-eira, se o experimento mencionado for repetido um certo número de vezes, toda vez utilizando-se o mesmo circuito (isto ~" conservando-se fixados E e R), poderemos presumivelmente esperar observar o mesmo valor para I. Quaisquer desvios que pudessem ocorrer seriam tão pequenos que, para a maioria _das finalidades, a descrição acima (isto é, o modelo) seria suficiente. O importante é que a bateria, fio, e amperômetro particulares utilizados para gerai: e observar a corrente elétrica, e a nossa capacidade de empregar o instrumento de medição, determinam o resultado em cada repetição. (Existem detenninados fatores que bem poderão ser diferentes de repetição para repetição, que, no entanto, não influenciarão de modo digno de nota o resultado. Por exemplo, a temperatura e a umidade no laboratório, ou a estatura da pessoa que lê o. amperômetro, pode-se razoàvelmente admitir, não terão influência no resultado.) Na natureza, existem muitos exemplos de "experimentos", para os quais modelos determinísticos são apropriados. Por exemplo, as leis da gravitação explicam bastante precisamente o que ~contece a um corpo que cai sob determinadas condições. As leis de Kepler nos dão o comportamento dos planetas. Em cada situação, o. modelo específica que as condições, sob as quais determinado fenômeno acontece, determinam o valor de algumas variáveiS observáveis: a grandeza da velocidade, a área varrida durante determinado periodo de tempo etc. Esses números aparecem em muitas' das fõr:mulas com as quais estamos familiarizados. Por exemplo, sabemos que, sob determinadas condições, a distância percorrida (verticalmente, acima do solo) por um objeto é dada por s = -16t 2 v0 t, onde vo é a velocidade inicial e t o tempo gasto na queda. O ponto, no qual desejamos fixar nossa atenção, não é a forma particular da equação acima (que é quadrática), mas antes o fato de que existe uma .relação definida entre t e s, a qual determina univocamente a quantidade no primeiro membro da equação, se aquelas no segundo membro forem fornecidas. + + i IN f RODUÇÃO À PROBABILIDADE I 3 ~ - Para um grande número de Isituações, modelo matemático determinístico apresentado acima ! é suficiente. Contudo, existem também muitos fenômenos que ~equerem um modelo matemático diferente para sua investigação. São os que denominaremos modelos não-deterministicos ou probabüístico~. (Outra expressão muito coroumente empregada é modelo estocástico.) Mais adiante neste capitulo, estudaremos muito minuciosamente~ como tais modelos probabilísticos podem se~ apresentados. Por oraJ examinaremos alguns exemplos. SuponhaJilOS que se tenha uml fragmento de material radioativo que emita partículas alfa. Com o Iauxílio de um dispositivo de contagem, poderemos . registrar o número dessas partfculas emitidas durante um intervalo de tempo especificado. É evidente que não poderemos. a,ntecipar precisamente nÚiílero de partículas emitidas, runda ' que se conheçam de modo exato a forma,! a dimensão, a compo. I sição química e a massa do objeto em estudo. Por isso, parece não existir modelo determinístico razoáf el que forneça o número de partículas emitidas, por . exemplo n, como uma função de várias características pertinentes ao material ~onte. Deveremos considerar, · em seu lugar, um modelo probabilístico. lo i i i I ! ! 1 Como outro exemplo, considere-se a seguinte situação meteorológica. Deseja-se deterniinar qual · a precipitação de chuva que cairá ·coino resultado de uma tempestade particular, que ocorra · em determinada localidade. Dispõe-s~ de instrumentos para registrar a precipitação. Observações metrorológicas podem nos fornecer considerável informação relativa à t~mpestade que se avizinhe: pressão barométrica em vários pontos, variações de pressão, velocidade do vento, origem e dir,eção da tormerlta, e várias leituras referentes a altitudes elevadas.. Contudo, quão !valiosas essas informações possam ser para o prognóstico da naturez~ geral da precipitação (digamos, fraca, média ou forte), simplesme:b.te não tomam possível dizer-se quanta chuva irá cair. Novament~ estaremos nos ocupando de um ,. I ·fenômeno que não se presta a um .tratamento determinístico. Um modelo prob~billstico explica a sitdação mais rigorosamente. · Em princípio, poderemos ser ! capazes de dizer quanta chuva caiu se uma teoria tiver sido desen~olvida (o que não foi). Por isso, empregaremos um modelo probabilÍstico. No exemplo que trata de I desintegração radioativa, deveremos empregar um modelo probabilístico invariavelmente em princípiol ' Arriscando-n.os a adiantarmos! demais na ap~esentação de um conceito que será definido. poster~ormelite, vamos apenas afirmar .que, em um modelo determinístico, admite-se que o resultado efeti:Vo · 1 i . 4 I PROBABIUDADE (numérico ou de outra espécie) seja determinado , pl:)l~ çq~dições sob as quais o experimento ou o procedimento seja executlj,~O, ..Em um modelo não-determinístico, no entanto, as . co~diçqes c!a "e:xpl:lrirnentação determinam somente o comportamento prob~hÚí~tico (mais especificamente, a lei probabilística) do resuÍtad() : ()b~l:lFYáyeJ. Em outras palavras, em um modelo determinístico 'émpiegâmos "considerações físicas" para prever o resultado, enquantb em ·u m modelo probabilístico ernpregfllllOS a mesma espécie de considerações para especificar uma distribuição de probabilidade. 1.2. ~ ntrodução aos Conjuntos A fim de expor os conceitos básicos do modelo probabilístico que desejamos desenvolver, será conveniente conhecer algurn~s idéiM e conceitos da teoria matemática dos conjuntos. Este é um assunto dos mais extensos e muito se tem escrito sobre ele. Contudo, necessitaremos apenas de algumas noções fundamentais. Um conjunto é urna coleção de objetos. Usualmente, conjuntos são representados por letras maiúsculas A, B etc. Existem três maneiras de descrever que objetos est~o contidos no ~·anjunto A: (a) Poderemos fazer uma lista dos elementos de A. Por exemplo, A = {1, 2, 3, descreve o conjunto formado pelos inteiros positivos 1, 2, 3, 4. 11 (b) Poderemos descrever o conjunto A por meio de palavras. Por exemplo, poderemos dizer que A é formado de todos os números reais entre O e 1, inclusive. (c) Para descrever o conjunto acima poderemos simplesmente escrever A = {x J O :<:::; x :<:::; 1 }; isto é, A é ó conjunto de todos os x, onde x é um número real entre O e 1, inclusive. Os objetos que individualmente formam a cole~ão ou conjunto A são denominados membros ou elementos de A. Quando "à" for um elemento de A, escreveremos a E A, e quando "a" não for um elemento de A, escreveremos a Et A. Existem dois conjuntos especiais que, freqüentemente, nos interessarão. Em muitos problemas nos dedicaremos a estudar um conjunto definido de objetos, e não outros. Por exemplo, poderemos interessar por todos os números. reais;· por todas as peças que uma linha de produção durante um período de 24 horas etc. o conjunto fundamental como o conjunto de todos os ·. ' INTRODUÇÃO À PROBABILIDAD!= I 5 objetos que estejam sendo estudados. Este conjunto é, geralmente representado pela letra U. O QUtro conjunto que deve ser destacado pode surgir da seguinte nrui.neira: Suponha-se que o conjtm~ A seja descrito como o conjunto de todos os números reais x, que satisfaçam ~ equação x2 + 1 ==O. Naturalmente, sabemos que não existem tais números; isto é, o conjunt~ A não contém qualquer elemento. Esta situação ocorre tão freqüentemente que se justifica a introdução de um nome especial para esse conjunto. Por isso, definiremos o conjunto vazio ou. nulo como o conjunto que não contenha qualquer ele~ento. · Geralmente se representa. esse conjunto por 0. ~ Pode acontecer que, quando dois conjuntos A e B sejam consi·derados, ser elemento de A implique ser elemento de B. Nesse caso, diremos que A é um subconjunto .de B,.e escreveremos A C B. Interpretação semelhante será dada para B C A. Diremos que · dois conjuntos constituem o mesmo conjunto, A = B, se, ·e somente se,A C B e B C A. Desse modo, dois conjuntos serão iguais se, e somente se, eles contiverem os mesmos elementos. As duas seguintes propriedades do conjunto vazio e do conjunto funda.mental são imediatas: (a) Para todo conjunto A, temos que 0 C A. (b) Desde que se tenha definido o conjunto fundamental, então, para todo conjunto A, considerado na composição de U, teremos AC U. Exemplo 1.1. Suponha-se que U = todos os números reais, = I x Ix 2 + 2x ~ 3 = O}, B = I x I (x ~ 2) (x 2 + 2x ~ 3) = O} e c = rX IX = ~ 3, 1, 2}. Então, A c B e B = c. A A seguir, estudaremos a importante idéia de combinar conjun-· tos dados, a fim de formarmos. um novo conjunto. Há duas opera-_ ç.ões fundai):lentais, e essas operações se assemelham, em · certos aspectos, à.s operações de adição e multiplicação de números. Sejam dois conjuntos A e B .. Definiremos C como a união de A e B (algumas vezes denominada a soma de A e B), da seguinte maneira: C = lx Jx E ,A ou x E B (ou ambos) ). Escreveremos· a união de A e B, assim: C= A U B. Desse modo, C será formado de todos os elementos que estejam em A, ou em B, ou em ambos. I; I'' i' p;, 6 I PÀOBABILIDADE Definiremos D .como a interseção ·d~ A e B (al~iiigs y~~es •.P,~no· minada o produto de A e B), da seguinte maneira: .: . , - ·. . . , ·. . .. D = {xjx E A ex E B}. ·. ·. . .. .. ·· ~· ·: ·. J:;:.~~-: . L,j·,.~:~~·, ..:..'.... Escreveremos a jnterseção de A e 13, assi:q1: J) =c 4 0 i-:8.: :Rqi:t~ri~ó, D será formado de todos .os elementos queestão ,~~Ae e,m B. ;; .. · · Fiilaimente, ín troduziremos ·a noção •·de complem;entc?:·d~ q~ :con...: junto 4., na forma seguinte: . O conhmto· denotado,J>or; i}:) ;cpnstf... .tuido por todos os elementos que nào esteJam e!llA (mas que ~átej~m no conjunto fundamental U) é denominado ,éoinpletÍlen~o de A;·..Is't o · é, A= {xjx EE A}. . . ·.. Um recurso gráfico, conhecido como Diaura~a d(i fenn, - pód~rá ser vantajosamente empregado quando estivermos combW:and,<;> qonjun,tos, na maneira indicada acima. Em cada diagrama na}?ig..J), a região sombreadarenresenta o conjunto sob exame . .· CD AnB IFig. 1.1 :/~~~~' Exemplo 1.2.. Suponha-se que U = {1, 2, 3, 4, 5; 6, 7, 8/9, io}, A = { 1, .2, 3, 4}, B = { 3, 4, 5, 6} . Então, encontraremos · que A= {5,.6,7,8,9,10}, AUB= {1,2,3,4,5,6} e A ()B= {3;4}~ Observe-se que, ao descrever um .conjunto (tal como A U B), cada . elemento é relacionado apenas uma vez. As operações de união e interseção, definidas acima para doiS conjuntos, podem ser estendidas, intuitivamente, para qualquer número finito de conjuntos. Assim, defhüremos .A U "B U C como A U (B U C) 0'\1 (A U B) U C, o que é equivalente, como se poderá verificar facilmente .. De modo ànálogo, definiremos A () B n C como .sendo A (l (B () C) ou (A () B) () C, o que também se pode ver'fficar serem · equi~alent~s. É evidente que poderemo~ continuar essas composiçõe!; · de ·conjuntos para qualquer número finito de conjuntos dados. .J:.!'' i i - . INTRODUÇAO A PROBABILIDADE I I ~ . 7 . . Afirmamos que alguns conjqntos são equivalente!'!, por exemplo, A (B ()C) e (A () B) () Conclui-se que existe Ul)l certo número de tai& conjuntos equivalentes, alguns ·dos quais estão relacionados abaixo. Se nos lembrÚmos de que dois conjuntos são o mesmo conjunto sempre que ele:s contenham os mesmos elementos, será fácil mostrar que as afirmaÇões feitas são verdadeiras. O leitor poderá se convencer disso, com a :a juda dos Diagramas ide Vemi'. c.i n 1 I (b} A() B = B () IA, (1.1) (c) A U (B U C)=(A U B) U C) (d) A() (B ()C)= (A() B) ()C. (a) A U B = B U A, • I ! . ~~~~üp{;)-s.,~li)t·e:c(li}wii~~f~fiU$Uff®1;;:~~-r~Y!v:~~r@.:i:f.í~~~~Ç;t~tf&~?·:,;; , e a s Há- outras identidades de coAjuntos encerrando união, interseção complementação. As mais irhportantes delas estão enumeradas I ooguir. A validade de cada uma delas poderá ser verificada com . da de um .D'1agrama de V enn. .I aJU 1 ' ()~C)= lJ) h-(A U C), V (ªJnB) k«~. C), (e) A U (B (A U U) A() (B.U C)= (g) .A () 0 = 0, (1.2) 4.U 0 ~A; ('J ) (A() B) =A ÜB, (h) I (i) (A (k) Ã~ 0 :: (A u-131 u B) = A () B, A= A. Observe-se que (g) e (h) mo·stram I , Uma o~tra"màneira de form~ conjuntos, quando forem dados dois (ou mais) conjuntos, será necessá~a a seguir. i I . . Definição. Sejam dois conjuntos A e B. Denominaremos produto cartesiano de A e B, denotando-o por A X B, o conjunto {(a, b ), a E A, b E B l, isto é, o conjunto de .tod:os os pares ordenados n..os quais o primeifo elemento é tirado de A e o ~gundo, de B. \ Exemplo 1.3. Suponha-se queA = {1, 2, 3};B = {1, 2, 3, 4}. Então, A X B = {(1, 1), (1, 2), .. l , (1, 4), (2, 1) . .'., (2, 4), (3, 1), ... , I (3, 4)}. Observação. Em geral, A i X si=F B X A. 8 I PROBABILIDADE A noção acima pode ser estendida da seguinte :maneira: Se.A 1 , ••• , A n forem conjuntos, então, A 1 X A 2 X ... X An = {(a! ; a2 , ·;· •• an ), ai E A i], ou seja, o conjunto de todas as ênuplas ordenadas ~ ·: · Um caso especial importante surge quando cons.ideram<;)S!O produto cartesiano--~~ um conjunto por ele próprio, isto é,AiXA,:o114 •X).l )Ç-A. ···~?f.~my1~§:cit1~~E;~~~~~JJL.,q;g.~,g~~twõs!é}~t~~!~ll~~~~~J}~.$";".,~, onde R é d~coríjunto de todos os números reais, e do espaço eudideano tridimensional, representado por R X R X R. · O número de elementos de um conjunto terá .grandeiiD,portância para nós. Se existir um número finito de elementos no conjunto A, digamos ar, a2,_ ... , an, diremos que A éJinito: Q~~tie.liÍJifli.Pmer0 - ~~~J~;~j~~i~:;~- .:§~~~~~;=~~·é!f!;Sk!:f!~?!:;' ou·"injinito numerável. (Pode-se :m:ostrar, por exemplo, ·que\ () c-onjunto de todos os números racionais é numeráveL) :.Finalmente, deveremos considerar o caso de um conjuntoinfinito:não~númerável; este tipo de conjunto possui um número infinito de elementos qUe não podem. ser enumerados. Pode-se mostrar, por exemplo, __que para quaisquer dois números reais b > ~~ o conjunto ·A = Jx I a :::; .x :::; b} contém um número não-numerável de elementos, J ~ que pÇ>dererjws associar um ponto da reta dos números reais a cada m)mero .real, o que dissemos acima afirma que qualquer interv'~lo (não deg~nerado) contém mais do que um número contável de pontos. Os conceitos apresentados acima, muito embora representem apenas um rápido exame da teoria dos corijuritds, são sufic'iehtes ·para nossos objetivos: expor, com razoável rigor e pr~ci.são, ·~ idéias fundamentais da teoria da probabilidade. 1.3. Exemplos de Experimentos Não-DeterminísÜcos Estamos agora em condições de examinar o q1,1e enténdemos por um experimento '-'aleatório" ou "não-determinístico". '· {~ais ,'precisamente, daremos exemplos de fenômenos, para os · qmtis .: rriôdelos não-determinísticos são apropriados. Esta é uma distinção .·que o leitor deverá guardar. Portanto, nos referiremos freS!üêntemen'te a experimentos não-determinísticos ou aleatórios, quando de fato estaremos falando de um modelo não-detefminístico para um experimento.) Kão nos esforçaremos em dar uma definição preCisa _desté ~onceito. E.m vez disso, citaremos um grande ~úmer~ de exemplos. que ilustrarão o que temos em mente. 6NTRODUÇÃO À PROBABIUDADE I 9 E 1 : Jogue um dado e observe o número mostrado na face de cima. E,: Jogue· uma moeda quatro vezes e observe o número de caras obtido. E 3 : Jogue uma moeda quatro vezes e observe a seqüência obtida de caras-e coroas. E 4: Em uma linha de produção, fabrique peças em série e conte o número de peças defeituosas produzidas em um período de 24 horas. Eó: Uma asa de avião é fixada por um grande número de rebites. Conte o número de rebites defeituosos. Es: Uma lâmpada é fabricada. Em seguida é ensaiada quanto à duração da vida, pela colocação em um soquete e anotação do tempo decorrido (em horas) até queimar. E1: Um lote de 10 peças contém 3 defeituosas. As peças são retiradas uma a uma (sem reposição da peça retirada) até que a última ·peça defeituosa seja encontrada. O número total de peças retiradas do lote é contado. Peças são fabricadas até que 10 peças perfeitas sejam produzidas. O número total de peças fabricadas é contado. Um míssil é lançado. Em um momento especificado t, suas três velocidades coq~.ponentes, v.., v11 e v. são observadas. Um míssil récem-lançado é observado nos instantes tb t 2, ••• , t,. Em cada um desses instantes, a altura do míssil acima do solo é re~strada. A resistência à tração de uma barra metálica é medida. De uma urna, que só contém bolas pretas, tira-se uma bola e verüica-se sua cor. Um termógrafo registra a temperatura continuamente, num período de 24 horas. Em determinada locálidade e em uma data especificada, esse termógrafo é lido. Na situação descrita em E18, x e y, 118 temperâturas núnima e máxima, no período de 24 horas considerado, são registra,das. E'il: Es: E 1o: E 11 : Eu: E 13 : Eu: O que os experimentos acima têm em comum? (a) Cada experimento poderá ser sob condições essencialmente inalteradas. 10 I PROBABILIDADE (c) Quando o experimento for executado re~t~(l.amente, os resultados :individuais parecerão ocorrer de u:ffia , J~rma .aCidental. ·g:~~~I[~3~~m:~-to . de Contudo,· quando o experimento for repetÚlo vezes, uma configuração definida ou regulátidade ' surgirá. : É esta regularidade que toma possível construir íri6cie'13' inatêltáÍico preciso, com o qual se analisará o expetimentCi. l\lhili brde, teremos muito que dizer sobre a natureza e a irnpqrtândade~ia}ágwaridade. Por- ora, o leitor necessita apenas pensar nas repetidas ~ogadas de uma moeda equilibrada. Muito embora caras e cordas- apareçam sucessivamente, em uma maneira quase arbttrária, é f~to . empírico bem conhecido que , depois de uni grande número d~. jogadas, a pro. porção de caras e a de coroas serão aproximadamente Ígu'aiS. º:tri um Deve-se salientar que todos os experimentos ..descritos acima satisfazem a essas características gerais. (Evidentemente, a última característica mencionada somente pode ser · verificada . pela experimentação; deixaremos para a intuição do leitor '. acreditar que · se o experimento fosse repetido um grande número de .vezes, regularidade referida seria evidente. Por exemplo, se um · g~~nde nÚmero de lâmpadas, de um mesmo fabricante, fosse ensaiado, . presumivelmente o número de lâmpadas que se queimaria após iOO horas poderia ser previsto com precisão considerável.) Note-sé que o experimento E 12 apresenta o traço peculiar de que somente umres11ltado. é possível. Em geral, tais experimentos não nos :interessarão, porque, realinente, o fato de não sabermos qual particular resultado virá Íl ocorrer, quando um experimento for realizado , é que torna um experimento intere'S8ante para nós. a Comentário: Ao descrever os diversos experimentos, nós especificamos não somente o procedimento que tem que ser realizado, mas também aquilo que estaremos interessados em observar (veja, por exemplo, a diferença imtre E z e E 3 , citados anteriormente). Este .é um ponto rrmito importante, ao qual novamente nos referiremos mais tarde, quando explicarmos variáveis aleatórias. Por ora, vamos apenas comentar que, em conseqüência de um procedimento experimental isolado ou a ocorrência de um fenômeno único, muitos valores numéricos diferentes poderiam ser calculados. Por exemplo, se uma pessoa for escolliida de um grupo grande de pessoas (e a escoTha real seria o procedimento e:X:perimental previamente mencionado), poderíamos estar interessados na altura daquela pessoa, . no seu peso, na sua renda anual, no número de fillios dela etc. Naturalmente, na ·maioria dos ca~s. nós saberemos, antes de iniciar nossa experimentação, quais serão as características numéricas em que iremos estar interessados. · , 11\!TRODUCÃO À PROBABiLIDADE I 11 1A.~· Definição. -Para cada êxf>eDmêhto ·e do tipo que estamos considerando, definiremos o úpâ:Ço amCist;az como <i cÓnjurito de tó:Jõs'os resultados possíveis de e. Geraltnente representaremos esse conjunto por S. (Neste contexto, S repre,senta o conjwlto fundamental, explicado anteriormente.) Vamos considerar cada um dos experimentos acima e descrever um espaço amostral para cada um deles. O espaço amostral S; se referirá ao experimento E;. I r· . ' I 11, 2, 3, 4, 5, 6}. lo, 1, 2, 3, 4}. {todas as seqüências p6ssíveis da forma a11 a2, aa, a4 }, onde I cada a; = H ou T, conforme apareça ca~a ou coroa na i-ésima jogada. ~ : , {0, 1, 2, ... , N}, onde N é o número máximo q:ue pode ser produzido em '24 hora.S . . I {0, 1, 2,-... , .M}, ond~ M é o número de ·rebites empregado. 1 S6: ltlt ~ 0}. S1: 13, Ss: 110, 11, 12, ... },. . I 4, 5, 6, 7, 8, 9, 10 }. I v.,, Vy, Vz Iv.,, Vy, I i ' v, números reais}.·. S10: {hh· .. , hn jh;;:::: O, i 2, .. . , n}. Su: ITIT~O}. i' s12: I bola preta}. Su: Este espaço amostral éj o mais complexo de todos os co!lsiderados aqui. Podemos admitir, com realismo, que .a. tem-. . , I . . peratura em determin!1-da localidade nunca possa ocorrer acima ou abaixo de ce*os valores 11! e m. Afora esta .reitrição, poderemos aceitar a possibilidade de que qualquer I .. gráfico apareça com /determinadas restrições. Presumivelmente, o gráfico não terá saltos (isto é, el~Ç representará uma função contínua).! Além ~isso, o gráfi~o terá certas características de ,regu\arização, que podem ser resumidllS matematicamente di~eddo-se , I . que. o gráfico representa uma função derivável. Deste modo, poderemos finalmente afirmar que o espaço a~ostral será: S9: =11, IJIJ uma função perivável, que satisfaça a m ..::::; . .::::; j(t) .::::; M, para ltodo t} .. I~ 12 I PROBABH.HDADIE {(x, y)lm:::;; x:::;; y:::;; M}. Isto é, §aéfo11J1acio p 0 rtodos os pontos dentro e sobre um. triâJ1gulo: no:;~Ia,po . x; ybiclimensional. · · · .. . · · · . .·.. ,, .-.c-;•. ; ·,-,.> (Neste livro não cuidaremos de espaços amostrais di :•cdfnpl~xi'dade . encontrada em 81a- Ko entanto, tais espaços ariÍ6slrais'''p8dem ' súi:~ gir, mas exigem para seu estudo mais ~Íatemática âvànÇ~dâ> do qúe estamos admitindo aqui.) .e~~;.!~ii:f7~~]~~9r~~x;:~;;:mE:::;s;g;~@.8?::;;~. · estamos '' ·. · .·.··: .: d@ii::•"'"" Por isso, de ;,~;.·;'~~~~~;~ amostral associado a um experimerito, e P:ão de "o" espaço' amostraL A esse respeito, note-se a dif~re~ça· entre 82 e 8a. Saliente~se, 'tambein~ 'qu~ o r~sul t-~do de 'urri'. ê},~·~~Q}~rho não é necessariamente, um número. Por exemplo, em E i, cada resultado é uma seqüência de caras (H) e coroas (T). Em É9 e E.1 o cada resultado e formado por um vetor, enquanto em E; 3 , e~d~ resultado constitui uma função . lativamente aos exemplos acima, observamos que 8], 82;. 8a, 84, 8s, .• 81 e 812 são finitos, 8s é infinito numerável, e 8s, 89, 810r 8u, 813 e 814 são infinitos não-numeráveis. :~~=::~~~;:;!~·:::,~~~~~t· :rimento ·Ê 6 e seu e~paço amostral associado 81. É eVidente que, quando estivermos realmente registrando o tempo . tot~l t, •durante o qual uma lâmpada funcione, seremos "Vitimas" da precis[b de nosso instrumento de medir. Suponha-se que temos um instruínerrto que seja capaz de registrar o tempo com duas casas decir11ais, por exem.: . pio, 16,43 horas. Com esta restrição imposta, nosso esjlàço amost ral se tomará infinito numerdvel: {0,00, 0,01, 0,02; •: : : }. Além disso, é bastante próximo da realidade admitir quenenhíun8,Jâinpada possa durar 'mais do que H horas, onde H pode ser uín fiúinero muito grande. ConseqÜentemente, parece que se f()i:inos ·completamente realistas na descrição deste espaço amostral, estaremos realmente tratando com um espaço amostral finito: {0,00, 0,01, 0,02, .. . , H}. O número total . de resultados seria (H/0,01) + 1, que poderá ser um número muito grande; mesmo que H seja moderadamente grande, iNTRODUÇÃO À PROBABiii..IDADE I 13 por exemplo se H = 100. Torna-se bem mail:l simples e, matematicamente, conveniente, admitir que todos os valores de t ~ O sejam .resultados possíveis e, portanto, tratar o espaço amostral Ss tal como foi originalmente definido . . Diante desses comentários, alguns dos espaços amostrais descritos são idealizados. Em todas as situações subseqüentes, oespaço amostral ·considerado será aquele que for matematicamente mais conveniente. Na maioria dos problemas, pouca dúvida ~.urge quanto à escolha adeQuada ·d9 :êsPáçO·· amosti-al. :; ·.-. ·. :. :..,.., ··.. .· . :... ·,.:: ·.. ·.- ... -: · .:;.: :~:- Eventos 1._5. Outra noção fundamental é o conceito de evento. <R-~~~­ (relativo a um particular espaço amostral S, associado a" Upl experimento )< e<:smrp:):es~~At!P.~ti'tfi:C0nlj;un;,t~cl:~§lresu1t~dbsi-'#~~~t;~~-~ ·· . Na tenninologia. dos conjuntos, um evento é·;;~ ;~bconju~to d~· Ü;·<es­ paço amostral S. Considerando nossa exposição anterior, isto sig~ nifica que o próprio S constitui um-evento, bem como o é o conjunto vazio 0. Qualquer resultado individual pode também ser to~ado como um evento . e .Al~s exe~plos d~ ey~nt()S s~- ~ados ~ - ~~~ir. N.?,yªqí~~te, . nos referimos aos .experimentos 'relacionados aCima: A; sé teféÍ{rií. ao evento asso~iad~ ao .éxpedrh~~tÓ EZ ·-· ' · -_ ;· . \'"· · Al: ul!l número par OCQrre, .isto é, Al = {2, 4, 6}. A2: {2} ;isto é, duas caras ocorrem. A3 : {HHHH, HHHT; HHTH, HTHH.; THHH); isto é, mais caras do que coroas ocorréfam.' - . . . A4: {O}; isto é, todas as peças são perfeitas. {' A6: {3, 4, ..• , M}; isto é, mais do que dois rebites eram defeituosos. ·As: {t I t < 3}; isto é, a lâmpada queima em menos de. 3 horas. Au: {(x, y) I y = x + 20}; isto é, a temper~tura máxima é 20° maior do que a mínima. " .r j \ Quando o espaçó amostral S for finito ou infinito numerável, todo subconjunto poderá ser considerado um evento. [Constitui um I • exercício fácil de provar, e o faremos resumidamente, que se S cdntiver n elementos, existirão exatamente 2n subconjuntos (eventos).] Contudo, se S for infinito não'-numerável, surgirá uma dificuldade teórica. Verifica-se que nem todo subconjunto imaginável poderá 14 I PROBABDLIDAIDE ._ ,.:;.;e~~:;:~:~;!~~~;~;;~!;d~~:!;::::;=:=~:~=:~~·~~ .. d.I:J.§t:a;~~J.Cp:lil.~'Wál:ç'ão. Felizmente, . tais subconjuntos >'iiã~:::adffiis~tveis -~·ã;;'~-~~rgem nas aplicações e, por isso, nãO ·'cU:idii.reÍxios:r dê)es . aqui. Na exposição subseqüente, será admitido : tacit~fn~ri't~ ~'que $empre que nos referirmos a um evento, ele .será da espécié :.4u'ê' j~ ~éljriitimos considerar. · · · ,~ · ·· Agora, poderemos empregar as várias téGnicas .·de combirtar conjuntos (isto é, eventos) ~ obter novos ·. conhintô~·~·{istó ê, ·eventos), os quais já apresentamos anteriormente. ·· . (a) Se A e B forem eventos, A U B será o evento que ocorrerá se, e somente se, A ou B (ou ambos) ocorrêreri\: (b) Se A e B forem eventos, A se, e somente se, A e B ocorrerem. nB será .o .evel).to que ocorrerá (c) Se A for um evento, A será o evento que ocorrehí se, e somente se, não ocorrer A. (d) Se A~> . : . , An for qUalquer coléção Íinita deeve~tos, então, U~-1 A; será o evento que ocorrerá se, e somente·se, ao menos um· dos eventos A; ocorrer. ···, de (e) · Se A 1, . . . , An for qualquer coleção finita eventos, então n~-1 A; será o evento que ocorrerá se, e somente s~, todos os eventos A; ocorrerem. . . . U) Se A~> ... , An, . .. · for qualquer coleção infini~a (numerável) de eventos, então, Ui-- 1 A; será o evento que ocorre~~ se, e somente se, ao menos um dos eventos A; ocorrer. (g) Se A 11 •• • , An, ... for qualquer coleção infinita (numerável) de eventos, então, ();=1 A; será o evento que ocon.'e rá se1 e soinente se, todos os eventos A; ocorrerem. ' • (Q .. . .:.. . • - .•.:. . . -· : . (h) Suponha.se que S represente o espaço amo~f:.L~L~sociado a ~;~~~~~;:;::~~:i~:i::~~~f!~~:;:::::::~;:~;:· · ~~~::;!=~~::· (i) o exemplo contido em (h) pode, obviamente, ser generalizado. Considerem~se n repetições de um experimento & cujo espaço amostràl sejaS: S X S X . .'.X S = {(s 1 , s 2 , ••• , sn), si ES, i= 1, •.. , n} :'lr., INf RODUÇÃO À PROBABILfDADE I 15 I representa o conjunto de todos o~ possíveis resultados, quando & for executado n vezes. De certo modd, S X S X ..• X S é ele próprio um . espaço amostral, a saber, o espaçbI amostral associado a n repetições . . . de 8,. I Definição. Dois eventos, A le B, são den~~~Ê_g~,~"t:.@?.tr!mie -ez~ludentes, se eles não puderem 'ocorrer juntos. E~ri;mremos isso escrevendo.,~~t~"'B~rt~~J!lf'''isto é, a 1interseção de A e B é o conjunto vaziO. I Exemplo 1.4. Um dispositivbI .eletrônico é ensaiado e o tempo total de servjço t é registrado. Admitiremos, que o espaço amostral seja {t it 2:: O). Sejam A, B e c ltrês eventos definidos da seguinte maneira: 1 ! A = · {tjt < 100}; B = {t J.50 ' ~ t ~ 200i; Conseqüentemente, C.= (tit > 150}. 1 A U B = (tlt ~ 200}; A jn B = {t J50 ~ t < 100}; BUC=(tJt2::50}; BnC={tJ150<t~200}; AnC=O; A u c = {tI t < 100 ou t > 150 J; ~ = {tI t ;::: 100 J; = (tI t ~ 150 J. I c Uma das características fundamentais do conceito de "experimento", como foi apresentado n~ seção anterior, é que nÓs 11~0 sabemos qual resultado particular Ócorrerá quando o experimento· for . . I realizado. Por ~;mtras palavras, Sf A for um 'evento associado a um experimento, então, não poderembs afirmar com certeza que A irá ocorrer ou não. Por isso, torna-s,e muito importante tentar associar um número ao· evento A, o qual medirá de alguma maneira quão verossírnil é que o evento A venll.a a ocorrer; Essa tarefa nos leva à teoria da prob.abilidade. I i 1.~~efliii&lê~~~a;tiva-), I A fim de ·motivar a o seguinte procedimento: I Definição. ]A =· nA/n é denominada freqüência relativa do evento A nas n repetições de 8. A f;eqü~ncia relativa f A ap.rese~ta as seguintes propriedades, de fácil verificaÇão: . (1) o ~ fA ~ 1. . . (2) j A = 1 se, e somente se, I h. OCOrrer em todas aS n repetições. . .,, : 16 I IP'ROISAIS8UDAiiJIE (3) !A. :=O se, esomente se, A nunca ocorrer nas;nrepetiçpes. (4) Se A e B forem eventos mutuamerité' ex2ludé#tes;e~sef~ u B · for a freqüênci!l relativa associada ao ~vento~ ~y ,s, :~B.tio-;]~ •li. fi ·= . = fA + fB. . ... . ···:. , _ ,; _,_ .. ·. .. (5) fA, .com base em n repétiçõe"s dó ex.periment() 'e' :66nsideiada como uma função de "converge" em ceitó "senfído ''prohábilísti_ço paraP (A), quando n -7 oo . · .· · · · ' ' ' • · · n; Conientárw: A Propriedade (5) está evidentemente expressada um tanto vagamente, nesta seção. Somente mais tarde (Seç.l2.2), estaremos aptos a tornar esta idéia mais precisa. Por enquanto, podemos a~enas afirmar q_{iê ;a-Propriedade (5) envolve a nÕção nitidamente intuitiva de que a freq üêricia ·relativa, ba5eada em um número crescente de observações, tende a se "estabilizar" próximo . de algum valor definido . Este não é o mesmo conceito usual de convergência encontrado em alguma parte da Matemática. De fato, tal co.inó af'rrmamos aqui, esta riãó é, de modo algum, uma conclusão matemática, mas apenas um fato e~pírico. A maioria de nós está intuitivamente a par deste fenômeno de estabilização, muito embora nunca o tenhamos verificado. Fazê-lo exige considerável porção de tempo e de paciência, porque inclui um grande número de repetições de um experimento. Contudo, algumas vezes, poderemos ser ingênuos observadores deste fenômenô, como ilustra o seguinte exemplo: Exemplo 1.5. Admitamos que estejamos postados na calçada e fixemos nossa atenção em dois blocos de meio-fio adjacentes. Suponha-se · que comece a chover de tal maneira que sejamos realmente capazes de distinguir pingos isolados de chuvà e registrar se esses pingos caem num . meio-fio ou noutro. Ficamos a observar os pingos anotar seu ponto de impacto. Denotando o i-ésimo pingo por Xi, onde Xi = 1 se o pingo cair no primeiro meio-fio, e igual a O se . cair no outro, poderemos observar uma seqüência como, por exemp1o, 1, 1, O, 1, O; 0,0, 1, O, O, 1. É evidente que não seremos capazes de prever onde um particular pingo irá cair. (Nosso experimento consta de alguma espécie de situação meteorológica que causa a queda dos pingos de chuva.) Se calcularmos a freqüência relativa do evento A ·= { ci pingo cai no meio-fio 1}, então, a seqüência de resultados acima dará origem às Seguintes freqüências relativas (baseadas na observação de 1, 2, 3, ... pingos): 1, 1; 2/3, 3/4, 3/5, 3/6, 3/7, 4/8, 4/9, 4/ 10, 5/11, ... Esses números e..videnciam um elevado grau de variação, especialmente no início. É intuitivamente evidente que, se o experimento acima continuasse indefmidamente, essas freqüências relativas iriam se estabilizar próximas do valor 1/2. Canse. _qüentemente, teríamos toda razão em acreditar que, depois de algum tempo decorrido, os dois meios-fios estariam igualmente molhados. ea •; ~' .·, ·i Oi\!TRODUÇÃO À IP'IROBABIUDADE I H Esta propriedade de estabilidade da. freqüência relaJ;j.va é, por enquanto, uma noção inteiramente intuitiva, porém mais tarde estaremos aptos a torná-la matematicamente precisa. -~êl:lêí:ã ~§ÍI!i"1fproprieda<!?.:ê';_g,ile'{-Se"~experimentó:ri'er--execntad&"uitr::gr.ande o· , n~~l!o~1le-ve~~S'Fa-frequên:'êÍa-tei!tti~"ª:idaii".éeórtên,Ç!ií.~c.:-álgum.;evento ..q..i4iii~~'hde~a""'i''~:ar.'º-~-.::ovez,"'mêíiõ,ili:;:rn.edi~que,.O""-nYmero~d,~:,re~·- . :... ·t~~~r?allli!.~-P~~d"ã:- Esta caracterfstica é também conhecida como regularidade estatística. N 6s fomos um tanto vagos em nossa definição de experimento. Quando um procedimento ou mecanismo constituirá, em nossa acepção, um experimento capaz de ser estudado matematicani:ente por meio de um modelo não-determinístico ? Já afirmamos, anteriormente, que um experimento deve ser capaz de ser realizado repetid;unente, sob condiçQes essencialmente inalteradas. Agora, podemos acrescentar outra. condição. Quando o experimento for repetidamente realizado, ele deverá apresentar a regularidade estatistica mencionada acima. Mais adiante, estudaremos um teorema (denominado Lei dos Grandes Nú:meros) que mostrará que a regularidade .estatística é, de fato, uma conseqüência da primeira .condição: reprodutibilidade. .. .. ·~ .. .. 1.7. · ~~~~lr:nif~nià~i~~~cfl!~Ni~í1ffi;dade Voltemos agora ao problema proposto acima: atri~uir um número a cada evento A, o qual avaliará quão verossírnil será a ocorrência de A quando' ·o experimento for realizado. Uma possivel maneira de tratar a questão seria a seguinte:--repetir o experimento um grande número de vezes, calcular a freqüência relativa fA e utilizar esse número. Quando record;nnos as propriedades de j A, torna-se evidente que este número fornece uma informação muito precisa de quão verossímil é a ocorrência de A. Além disso, sabemos que à medida que o experimento se repetir mais e mais vezes, a freqüência relativa f A se estabilizará próxima de algum número, suponhamos · p. ,···Há, contudo, duas sérias objeções a esta maneira de tratar a questão: (a) Não está esclarecido ·quão grande deva ser n, antes que se cenheça o n~­ mero: 1.000 .? 2.000? 10.000? (b) Uma vez que o experimento tenha sitio c~mpletaÍnente · descrito e o evento A especificado, o número · que estamos. procurando não deverá depender .do experimentador ou da particular veia de sortE) que ele possua. (Por exemplo, é possível que uma moeda perfeitamente equilibrada, , .quando jogada 10 vezes, venha a apresentar 9 caras e 1 coroa. A freqüência relativa do evento A = {ocorrer cara} seria, nesse caso, igual a 9/10• . 18 I PROBABI LIOADE !\o entanto, é evidente que nas próximas 10 jogadas o padrão de caras e coroas possa se inverter.) O que desejamos é um meio de obter tal número, sem recorrer à experimentação. Naturalmente, para. que o número que convencionarmos tenha significado, qualquer experimentação subseqüente deverá produzir uma freqüência relativa que seja "próxima" do valor convencionado, particularmente se o número de repetições, no qual a freqüência relativa calculada se tenha. baseado, for muito grande. Nós procederemos, formalmente, da seguinte maneira: Definição. Seja e um experimento. Seja S um espaço amostral associado a e. A cada evento A associaremos um número real representado por P(A) e denominado probabilidade de A, que satisfaça à.s seguintes propriedades: (1) O ~ P(A) ~ 1. (2) P(S) = 1. (1.3) (3) Se A e B Corem eventos mutuamente excludentes, P(AUB)= = P(A) + P(B). (4) Se A 11 At,. .. , An,. . . forem, dois a dois, eventos mutuamente excludentes, então, Observe-se que da Propriedade 3, decorre imectiatamente que, para qualquer n finito, A Propriedade 4 não se seguirá; no entanto, quando considerarmos o espaço amostral idealizado, esta propriedade será imposta e, por isso, foi incluida aqui. A escolha das propriedades da probabilidade acima relacionadas é, obviamente, sugerida pelas correspondentes cara.ctcnsticas da frcqüência relativa. A propriedade, antes mencionada como regularidade estatística, será mais adiante vinculada a esta definição de probabilidade. Por enquanto, nós apenas afirmamos que se pode mostrar que os números P(A) e f A são "próximos" um do outro (em determinado sentido), se }A for baseado em um grande número de repetições. ~ este fato que nos dá a justificativa da utilização de P(A) para avaliarmos quão verossímil é a ocorrência de A. Por enquanto não sabemos como calcular P(A). Nós apenas arrolamos algumas propriedades gerais que P(A) possui. O leitor INTRODUÇÃO À PROBABILIOAOE I 19 terá que ser um pouco mais paciente (atê o próximo capitulo), antes quE' aprenda como avaliar P(A). Antes de voltarmos a esta questão, vamos enunciar e demonstrar várias conseqüências relacionadas a P(A), que decorrem das condições acima e que não dependem da maneira pela qual nós realmente calculamos P(A). Teorema 1.1. Se 0 for o conjunto vazio, então P(0) =O. Demonstração: Para qualquer evento A, podemos escrever A = A U 0. Uma vez que A e 0 são mutuamente excludentes, decorre da Propriedade 3, que P(A) = P(A U 0) = P(A) + P(0). Daqui, a conclusão do teorema é imediata. Comentário: Mais tarde, teremos oeasiAo de ver q11e a reciproca do teorelllA acima nAo é verdadeira. lst.o é, se P(A) • O, nlo poderemos, em geral, concluir que A - 1!, porque existem situações nas quais atribuú:nos probabilidade zero a um evento que pode ocorrer. Teorema 1.2. Se à for o evento complementar de A, então P(A) = 1 - P(Ã). (1.4) Demonstração : Podemos escrever S = A U à e, empregando ~ Propriedades 2 e 3, obteremos 1 = P(A) + P(Ã). Ccmwmtório: Este é um resultado puticulannente útil, porque ele significa que sempre que desejarmos avaliar P(A), poderemos cs.lculu P(Ã) e, depois, obtermos o resultado desejado por subtração. Veremos mais tarde que, em muiWs problemas, é muito mais fácil calculu P(ii) do que P(A). Teorema 1.3. Se A e B forem dois eventos quaisquer, então P(A U B) = P(A) + P(B)- P(A () B). (1.5) Demonstração: A idéia desta. demonstração é decompor A U B e B em dois eventos mutuamente excludentes e, em seguida, aplicar a Propriedade 3. (Veja o Diagrama de Venn na Fig. 1.2.) Desse modo escreveremos A U B = A U (B () A), B = (A () B) U (B () A). Conseqüentemente, PfA U B) = P(A) + P(B () Ã), P(B) = P(A (J B) + P(B () A). .~·,. ' r i.;•' i .r~ { ,, .. 20 I PROBABOUDADE .... Subtraindo a segunda igualdade da primeira, .obtém~se . I' P(A U B) - P(B) = P(A) ----: P(A íi B) e daí chega-se ao resultado. rI Fig. 1.2 Comentário: Este teorema representa uma extensão imediata da Proprie-_ .dade. 3, porque se A n B = 0, obteremos do enunciado acima .a. Propriedade 3. Teorema 1.4. Se A, B e C forem três eventos· quaisquer, então P(A U B U C)=P(A) + P(B)+P(C)-P(A íi B)-P(A (')C)- P(B íi C) + P(A íi B n t:). . (1.6) Demonstração: A demonstração consiste em.escrever A U B U C na forma (A U B) U C e aplicar o resultado do teorema anterior. Deixa-se ao leitor completar a demonstração. Comentário: Uma extensão óbvia do teorema é sugerida. Sejam A ii ... ,· Ak, quaisquer k eventos. Então, k P(Ar u A2 u ... u Ak) = L k P(A;) - 1=1' L P(A; nA;) + i<j=2 k + ·E i<j<r=a P{AinA;nAr) + ... +(-I)1HP(ArnA2n .. . nAk). (1.7) Este resultado pode ser facilmente estabelecido porr indução matemática~ I i .!I. 'l : ~. Teorema 1.5. Se A CB, então P(A):::;; P(B). Demonstração: Podemos decompor B em dois eventos mutuamente excludentes, na seguinte forma: B = A U (B nA). Conse- INTRODUÇÃO À PROBABiliDADE I 21 qüentemente, P(B) = P(A.) ;;:: O, pela Propriedade 1. i:. :; 1: + P(B nA) ;:::: P(A), porque P(B (I Ã) ;:::: . Comentário: Este resultado é, certamente, de conhecimento intuitivo, poill ele afirma que se B deve ocorrer sempre que A ocorra, conseqüentemente, ·B é mu.Íll pl'ovável do que A. 1.8. .Aig11.1mas Observações (a) Cabe aqui uma palavra de advertência. Da exposição anterior poderia ser (incorretamente) inferido que quando escolhermos mp modelo probabilístico para a descrição de algum fenômeno de observação, estaremos abandonando todas as relações determinísticas. Nada poderia estar ~ais distante da verdade. Nós ainda utilizãm~; o fato de que, por exemplo, a Lei de Ohm I = E/R vale em determinadas circunstâncias. A diferença seria uma diferença de interpretação. Em vez de afirmar que a relação .acima determina I para E e R dados, admitiremos que E ou R (ou ambos) possam variar de alguma maneira aleatória imprevisível e que,· em conseqüência, I variará ta'Inbém de alguma forma aleatória. Para E e 'R dados, I será ainda determinado pela relação acima. O importante é que, quando se adotar um modelo probabilístico para a descrição de um circuito, considera-se a possibilidade de que E e R possam variar de alguma maneira imprevisível, a qual somente pode ser descrita probabilisticamente. . Portanto, desde que tenha sen. tido considerar somente a probabilidade de que E e R tomem certos valores, torna-se significativo . falar somente · da probabilidade de que I venha a tomar certos valores. - ~- ·7~~::~=~~iflj[~l~!:~;;~~!f;~~~!~~· depenaercnrcomplicação de nossa técnica de mensuração e da exatidão associada a. ela. Por exemplo, se medidas exatas foremJlfo difíceis de obter que leituras repetidas da mesma quantidade condÚzam a resultados variados, um modelo probabilístico será sem dúvida mais adequado para descrever a situação. (c) Indicaremo~ resumidamente que, sob certas circunstâncias, teremos condições de fazer hipóteses adicionais sobre o comportamento probabilístico de nossos resultados experimentais, as quais nos conduzirão a um método de avaliação das probabilidades básicas. A escollia dessas hipóteses adicionais pode ser baseada em 'considerações físicas do experimento (por exemplo, propriedades de simetria), evidência empí.,. ; - - ·. ~' ~:" .. 22 I PROBABILIDADE rica ou, em alguns casos, apenas julgamento :<pesspãl,>bàseado em experiência anterior de uma situação similar! A IreqJ.iêl1ciâ relativa fA pode desempenhar um importante papel em nossa 'deliberação sobre a atribuição numérica de P(A). Contudo,~ imponànte' '·'coriÍ~ieender que qualquer suposição que façamos sobre P(A) deve '''s~r'fajY:qú'~ " ~êjam satisfeitos os axiomas básicos desde (1) até (4)daDefuiiç'ãô·{1.3): · · · (d) No curso do desenvolvimento da5 idéias bâsicãs datêoria 'da probabilidade, faremos algumas referências a det~rriúnadas. analogias mecânicas. A primeira delas pode ser apropriada a.qili. Etii M~tânica, atribuímos a cada corpo B sua massa, digamos m(.B)~ ''Effi .§~guút"a'~ faremos diversos cálculos e obteremos várias condüsÕÚ sobre comportamento de B e suas relações com outros coipos, iÍxirita(P,as -qliais envolvem sua massa m (B). O fato de que · nós podere·fu.os' ter que recorrer a alguma aproximação para obter reâlméntt m(B) uin . corpo especificado não diminui a utilidade do coritéitó ' de hiassa~ Semelhantemente, estipularemos para cada evento A assocüid.() aoespaÇo amostral de um experimento um número P(A ), denominado 'probabilidade de A, e satisfazendo nossos axiomas básicos. Ao calci.ílar reallliente P (A) para um evento específico, nós teremos que fazer hipÓteses adicionais ou que obter uma aproximação base ada em evidência. empírica. o pâra (e") . 1!; muíto importante compreender que nós tenhamos postulado a existência do número P(A), e que tenhamos postulado de- terminadas propriedades que esse número possui. A validade das várias conseqüências {teoremàs), decorrentes desses postulados, 'de modo algum depende da maneira pela qual iremos obter um valor numérico para P(A). 1!; essencial que este ponto fique claro. Por exemplo, admitimos que P(A U B) = P(A) + P(B). A fim de empregar esta relação para a avaliação concreta de P(A U B), deveiemo~ conhecer os valores de ·P(A) e de· P(B). Explicaremos, i-esuffiidamente, que sob certas circunstâncias, nós poderemos fazer suposiçõês adicionais que conduzam a um método de avaliação dessas probabilidades. Se essas (ou outras) suposições não forem fundamentadas, poderemos ter de recorrer à experi~entação a fim de alcançar o valor de P(A) a partir de dados reais. A freqüência relativa fA desempe~ nhará nisso um importante papel e será, de fato, utilizada para aproximar P(A). Contudo, é importante saber que j A ,o P(A) ní'ío slto o. rncHllll\ coisn.; que nó11 ~~ponaH ni.iliznrom01-1 j A Jl l~l'l~ t\proJ<iouu• /'(A) ., qt11, li!llllpl'l q111 11011 rt •ft'IÍI'Illll ll 1L /'(ti), 1'1\I,HIIIIIIIHI 111111 111r11 11tlo IIII Vn loll' \lllll l,llltlclo t 1 1101 11 1fl1nllll11111111111" J~ 1'11111 /'( ,1) , clt 111'1111 1'11111 ------- -~---- -- --- INT;RODUÇÃO À PROBABILIDADE I 23 [ preender que estaremos tão-somenie substituindo um valor postulado por urna aproximação obtida exp~rirnentalrnente. Quão boa ou má essa aproximação possa ser, de. ~odo algum influencia a estrutura lógica de nosso modelo. Muito ~mbora o fenômeno que o modelo tente representar tenha sido levadÓ em conta na construção do modelo, nós nos teremos distanciado do bróprio fenôrnen~ (ao menos tempo:rariarnente), quando entrarmos no i-eino do modelo. I I Problemas I I I 1.1. Suponha que o conjuntO funqamental seja ÍQI'Ill8do pelos- inteiros. pomtivos de 1 a. 10. Sejam A= (2, 3, 4) 1, B = (3, 4, 51, e C= (5, 6, 7). Enumere os elementos dos seguintes conjuntós: ·. - .. I I (a) A n B. A U B. (b) (c) A n ~· (d) A n (B n C). ~undamental 1.2. _ Suponha. que o conjunto n (B U (e) A C)· U seja dado por U = (x!O s; x ~ 2). Sejam os conjunto8 A e B definidos da forma. seguinte: A= (xll/2 < x~ 1) e B = {xll/4~ x < 3/2). Descreva os seguintes con- I juntos: r (a) A U B. (b) A U B. (c) A I n IJ, Cd> :A n B. 1.3. Quais das seguintes relações si\.o verdadeiras? I n n (c) (A U B) (A U C) = A U (~ C). A C\ B = A U B. (d) (A Li B) (e) (A (a) = (A n c-= A n B n C. I n B) n (B n C) = e. (b) (A U B) n B) U B. i 1.4. Suponha que o conjunto fund~ental seja. formado por todos os pontos (x, y) de coordenadas ambas inteiras, e que estejam dentro ou sobre a fronteira do quadrado limitado pelas retas x = O, jy = O, x = 6 'e y = 6. Eriuroere .os elemento,s dos seguintes conjuntoo: ! A= ((x,y)jx2 (a) (c) C = +y 2 I ~ 6). {(x, y)jx ~ y2 }. (~) B = ((x,y)Jy~ x~l. _ (d) B q1 C. (e) (B U A) n Ç· ! 1.5. Empregue diagramas de Vem\. para estabelecer as seguintes relly;õoa: (a) A C B e B C C implica quk A C C. " (b) A C B implica q\10 A - A n B. (c) A c B I implica que- ·:B c A. (d) A c B ilnpliCII quo A 1 ,0, '"' 11 o l1rl•t I'OI)I IJ u c. l11 III 11 1 (lll A n B I.; 0 e c c A 'IIli\ HIU\111 rlr t 1\IHII lill (ll\ r(tl(ll 1,11111111 (N), l(llllilo 111 Ih u cc lj\11 ~~~ I)IIIJifl\ ll dr IIM~II I , 111(1111' I I 1(111• '""' ""'" ''' (/J) 1111" <llllldl~Jtll l'IIV, Hl.l'l\r),., tlllr I prl~ll' l tlr1l11 1.111111111 1'111111!111111 '/ll~ ~~~],.lu (u(ll l•tt<llf Ulljllll(l c - 0. (HIIf)IIÇ O tlflO 11\1\r()!l,l\iUI 1(1 foi(tullm 1Uijll111l01UIIlrl/1 I! V''~ lt ulttuu llhlu 111~(1111' 1111111hlk llltlllo riU VI' IIII I implicam quo B () '"'"III ""' I" 11111 111 ti I •(1111 l1111111 r - 2<l I PROBABILIDADE . · ·-::-. (a) Uma caixa coi:n N lâmpad!IS contém: r lâmpa<;llj.S~- (r < ;:?'!) , com fila-: mento partido. Essas lâmpadas são verificadas \l!Íia a urnii, at.é .9ue .l,l!P-11 1~1!!­ pada défeituosa seja encontrada. Descreva um espaÇ 0 , ~kÇ;if~i :par~ : este e~ rimento.. .,.... · ' ·· · · · '· ·..., ..,_·_ .. ·"·· ·/· ·-'' · '· . frj). /' ' . • . . . _. , --~ _. <·: ...,__ :,~~ ... ,~ -._.' . Suponha que as lâmpadas ·acima sejam verlficaâili uiriâ' à. •·uma; até que todas as defeituosas tenham sido encontradà.s. Déscreva: fe~p~Çi;: ~m6St~al para -~~ '.~ · :. este experimento . (b) '. . 1.8. Considere ' quatro objetos, á'f-õl:t;ticiiiif;td'!J' . Suponha que a . or~m em que tais objetos sejam :listados represente o resultado de um experilp.ento. Sejam os eventos A e B definidos assim: A. = -fâ"êSf~lll!.~ priméha:.-'-Posi~o); . B ~ lb"·el!t:t''ria":se-gnndB."-posição l . · (a) Enumere todos os elementos do ·'es~~m0st1>~J;h(b) Enumere todos os elemtmtos dos ey~entos<4 nB e A U iJ: 1.9. Um lote contém pe~as pesando 5, 10, 15, .. . , 5Q gr11mas. : Admitamós que ao menos1 duas pe~as de cada peso sejam_ ensontradas no, !<;>te~ Duas ~as sãoretí;adas dà~ I0;te .. Sejam X o peso da pri~eita peça escolhid,a;}l .Y o pe'so q~ segunda. Portanto, o par de números (X, Y) rep_resentá : um .. resultl),do _simples do experii:ne\lto. Empregando o plano XY, marque o espaç.o amostral~ os segtüntes eventos: · [X= Y). (b) !Y> XI. (c) A ·segunda pe~a é duas vezes mais pesada que a primeira. (a) (d) A primeira peÇa pesa menos 10 ~ama$ que a segtmda -p~a. (e) O peso médio de duâs p~ças é meno~ do ~ue 30 gramas.·· ;~~rodo 2~-- horas, Q;;) burante-:m de ein algum moment:O X, uma chave é posta na posição "ligada". Depois, em algum momento futuro Y (ainda durante o mesmo período .de 24 horas), a chave é virada para a posi~ão "desligada". Suponha que X e Y sejam medidas em horas, no eixo dos tempos, com o início do período na origem da escala. O resultado do experimento é constituído pelo par de números (X, Y). (a) Descreva o espaço amostral. Descreva e marque no plano XY os seguintes eventos; (b) (i) O circuito está ligado por uma. _hora ou ~enos. I (Ü) O circuito está ligado no tempo z, onde zé algum instante no período dado de 24 horas. . (iii) O circuito é ligado antes do tempo lt e desligado depois do tempd 12 (onde também 11 < t2 são dois instantes durante o período de 24 -hora.S· especificado). (iv) O circuito permanece ligado duas vezes mais tempo do· que desligado. /f:11'1 em Sejam A, É eC três eventos associados a um experimento. ~~ões de conjuntos, as _segtüntes afirmações verbais: Ao menos um dos eventos ocorre. Exatamente um dos eventos ocorre. Exprima INTRODUÇÃO À PROBABILIDADE (r) I 25 Exatamente dois dos eventos ocorrem. (d) Não pais de dois dos eventos ocorrem simultaneamente. 1.12. Demonstre o Teor 1.4. l ' (a) Verifique que para dois eventos quaisquer, Ar e A 2, temos que P(Ar U A2) S P(Ar) P(A2) .. 1.13. + (b) Verifique que para quaisquer n eventos Ar, . . . , An, temos que P(Ar U . .. U An) S P(Ar) + ... + P(An). Empregue a indução matemática. é denominado desigualdade de Boole.] (Swestdo: . O resultado enunciado em (b) ~.14. O Teor. 1.3 trata da probabilidade de que ao menos um de dois eventos O seguinte enunciado se refere à probabilidade de que exalmMnte um deis eventos A ou B ocorra. Verifique que P[(A () B) U (B () A)] ·= P(A) + P(B) - 2P(A () B) . A ou"B ·o~rra. .@ J ~;n certo tipo de motor _elé~ri~ falha se ocorrer uma das seguindteass srtuàçoes: emperramento dos :r,nancars, querma dos enrolamentos, desgaste escovas. Süponha que o emperr~tnén);o seja· dua.s vezes ma i~ pr.ováyel do que 1\ queima, esta ·sendo quàtro -..:e~es mais pro~ável 'do 'que ' o 'fles~alite, dàs es~ovas: . ' Q;at,será. ·a;' ProBabilidàde de 'que-a--fàlba · seja~flevida' a _c.ada um~· dessas\ circun1stânçill.ll? . , ,. ~-,.. / ")~':1"6.) Suponha • ·'.<! que_A .e B sejam eventos tais que P(.Á) = x, P(B) = y, e = i. · Exprima cada uma das seguintes probabilidades em termos P(~~) de x, y e z. (~) P(à U B). (b) P(à () B). (c) P(A U B). (d) P(A n Ii). 1.17. Suponha que A, B e C sejam eventos tais que P(A) = P(B) = P(C) = P(A n· B) = P(C () B) = o e P(A () C) = 1/8. Calcule a probabilidade de. que ao menos um.dos eventos A, B ou C ocorra. = 1/4, . .r;?:~·· '-r.1-8. Uma instalação é constituída de duas caldeiras e umamáquina.Admita que o evento A seja qqe a _!TI~quina esteja em boas condições de funcionamento, enquanto. ~veritos Bk (k := 1, são os eventos-de que a k-ésima caldeira esteja em boas condições. O evento C é que a instalação possa funcionar. Se--a instalação puder funcionar sempre que a máquina e pelo menos urria.das caldt;jras funcionar, ' expresse os eventos C e C, em termos de A e dos Bk. ,os :n .~"'"',;~_...;., )~ ('.....t.ts~· Um mecanismo tem dois tipos de unidades: I e · II_. Suponha que .se disponha de duas unidades do tipo I e três unidades do tipo I( Defina os eventos Ak, k= 1, 2eBj,j= 1, 2, 3 daseguintemaneiía:Ak:ak-ésimaunidade do tipo I está funcionando adequadamente; Bj= aj-ésima unidade do tipo II está funcionando adequadamente. Finalmente,· admita que C represente o evento: o mecanismo funciona. Admita que o mecan1smo .funcione se ao menos uma unidade do tipo I e ao menos duas unidades do tipo II funcionarem; expressé o evento C em termos dosAk e dosBj. ·.;' ..., . .' '~ Espaços Amostrais Finitos Capí.tulo 2 2.1. Espaço Amostral Finito Neste capítulo nos ocuparemos unicamente de experimentos para os quais o espaço amostral S seja formado de um número finito de elementos. Isto S I ,·1 A fim de caracterizar P(A) para este modelo, deveremos ini..: 'cialmente considerar o evento formado por um resultado simples, algumas vezes denominado evento simples ou elementar, A ~ {a;}. Procederemos da seguinte maneira: A cada evento simples {a;} associaremos um número p;, denominado probabilidade de {a;} 1 que satisfaça às seguintes condições': (a) p;;,:::o, (b) P1 i= 1,2, ... ,k, + P2 + ... + Pk = 1. [Porque {a;) é um evento, essas condições devem ser coerentes com aquelas postuladas para as probabilidades dos eventos em geral, como foi feito nas Eq. (1.3). É fácil verificar que isso se dá.] Em segu_ida, suponha-se ,que um evento A seja constituído por · · r resultados, 1 :::; r:::; k, a saber onde j;, j~,;· ., ;};representam mn qualquer'<'.Q§~;fq,~tfêsj de 1 até k. Conseqüentemente, conclui-se da Eq. (1.3), Propriedade 4, que i I 1 I ESPAÇOS AMOSTRAiS fiNiTOS 1 27 • "?>~~.'õ'.':..~~~~~----~- - atnbmçao dr! probabilidades • Pi a cada evento • ~~~!~t~~~'f"!'·a • - I elementar {ad, sujtjto às condições (a) e (b) citadas anteriormente, determina ~,.:~~~~nte P(A) para lcada evento A C S, onde P(A) é dado pelãE~f~'t} . , . 1 Para avaliarmos os p; individuais, algllina hipqtese referente aos resultados individuais de_ve seJ feita. . · Exemplo 2.11.. Suponha-se que somente • tres resultados sejam possiveis em um experimento, a saber, ah .<li e a 3 • Aléni .disso, suponha-se _que. a1 seja duas vezes Fis provável de o.correr que a2, o qual por sua vez é duas vezes mai~ provável de ocorrer que a 3 • Portanto, P1 = 2p2 e P2 = 2p3. Já que P1 remos 4pa 2pa pg = 1, o qul finalmente dá + + 1 Pa = 7• P2lI 72 + P:l+ P3 = I, te- 4 e P1 = T· Comentdrio: Ns exposição que se..$egue, empregaremos a expressão "iguali . mente verossúneis" para signüicar "igu~lmeote prová'\éis". co~um~nte A hipótese mais Ifeita para ;espaços amostrais finitos é a de que todos os . sejam igualmente verossímeis. Esta ·hipótese nãO pode ser, · tomada como segura; ela deve ser cuidadosamente justificada. ;Existem muitos experimentos para os quais tal hipótese é assegurad11, mas existem também muitas si. tuações experimentais nas quais i seria · absolutamente errôneo aceitar-se essa suposição. Por exeJ?~lo, seria b~~;Sta.nte irreal supor que seja igualmente verossímil não ocorrerem chamadas telefônicas em um centro entre 1 e 2 horas da ~adrugada e entre 17 e 18 horas da tarde. I • \ I • "'~+~==~~· ... + l-~·rução P1 p~c =:= 1 torna-se kp• = 1· para todo, i. t Disto de, formado de r resultados, teremos 1t muito importante ··C·om.onleii.der que a expressão de é apenas uma cons~qüên~i~ qa P(A) acima de,,que todos, os resultados 28 I PROBABILIDADE sejam igualmente verossimeis, e ela é aplicável somente . quandO essa suposição for atendida. Ela certamente não serve como .· uma · defi·nição geral de probabilidade. o"::\ Exemplo 2.2. Um dado é lançado e . todos os r~sriliados se supõem igualmente verossimeis. O evento A ·-~c~r~er'á. se, e. somente se, um número maior do que 4 aparecer, isto é, =:: {5, ' 6}: Conseqüentemente, P(A) = 1/6 1/6 .== 2/6. + A r-:>\ ~ v Exemplo 2.3. Uma moeda equilibrada é · at_irada . çluas vezes. Seja A. o evento: {aparece uma cara). Na avaliação _de P(A), a ~ ~ análise do. .problema poderia ser a seguinte: O espaço amostral é -~ S ={O, 1, 2} onde cada resultado representa o número _de ~aras ~ que ocorre. Portanto, seria encontrada P(A) ;, 1/3! Esta análise ~ é obviamente incorreta, porque no espaço amostral.cónsiderado aci~a; ' todos os resultados não são igualmente verossímeis. A fim de aplicar · !f os . métodos expostos, deveremos considerar. em s .e ú lugar o espaÇo amostral '= IHH, HT, TH, TT}, onde H ·i:épresenta cara, e ·T - . oroa. Neste espaço amostral todos os resultados são _igualJ!lente verossimeis e, . por isso, obteremos como soluçãó cbrreta de · nosso problema: P(A) = 2/4 = 1/2. Poderíamos empregar corretamente o· · espaço S da seguinte maneira: Os resultados O e 2 ·são igualmente verossímeis, enquanto o resultado 1 é du~s vezes mais provável que qualquer um · dos outros. Portanto, P(A) =: 1/2, o que concorda com a resposta anterior. f_ W 3 =r t Este exemplo ilustra dois aspectos. Primeiro, deveremos estar bastante I SegUrOS de que tod~S OS resultados pOSSam SUpOr-Se igual.:_ mente verossíme\s, .antes de empregar o procedimento 'acima. Segundo, poderemos freqüentemente, por uma escolha apropriada do espaço· amostral, reduzir o problema a outro, em que todos os resultados seja,;_ igualmente verossímeis. Se~pre 'qne possível, isto deve .ser feito porque g~ralmente· , torna o cálculo . máis si.rhples. Este aspectQ. será-de novo mencionado em exemplos subseqüentes. r Muito freqüentemente, a maneira pela qual o experimento -é executado determina se os result!tdos possíveis são igualmente verossímeis ou iíão. Por exémplo, suponha-se que retiremos um parafuso de uma caixa /que ·coiitenh~ tr~s parafusos de tamanhos dife~n­ tes. Se simplesmente escolhermos o parafuso este:rrdendo a mão dentro da caixa e apanhando aquele que tocarmos primeiro, é óbvio que o parafuso maior terá maior probabilidade de ser escolhido que os outros dois. No entanto, etiquetando cuidadosamente cada para.:. fuso com um número, escrevendo o número em um ·cartão, é esco- ~ . IESI?AÇOS AMOSTIRA~S .fiNDTOS I 29 lhendo um cartão, tentaremos garantir que cada parafuso tenha de fato a mesma probabilidade de ser escolhido. Assim, poderemos nos meter em enorme trabalho a fim de assegurarmos que a suposição matemática de resultados igualmente verossímeis seja de fato apropriada. ' Nos exemplos já vistos e em muitos que se seguirão, trataremos d:a escolha ao aeliso de um ou mais objetos de uma dada coleção de ~:.~;~::::::;~~,::=:!::!~~:~~~~::foe';:/:ion'hamQ~. (a) Escolher ao acaso.um obJeto, dentre N objetos, significa qiUle cada objeto tem ã mesrn.a: Pl)Obabilidade ser esc,o!hido, isto é, · · -b ~ ). Pro (escolher a;= lN, r de · =. 1, ~2, ... ,N."·o t ~..11"1 í((j de·:;, ~ ,.~~·), l'!.'J.,<;~':?Gi':J/"i,::fc,..-1, ' ""r/Z (b) Escolher ao acaso dois obJetos, dentre N objetos, significa que cada par de objetos (deixada a'ordem à partertem a mesma probabilidade de ser escolhido que qualquer outro par. Por exemplo, se devemos escolher ao acaso dois objetos dentre (ai; a 2, as, a4), obter a 1 e a2 é então tão .provávêl quanto obter a2 e as etc. '·Esta for~ula­ ·r;ão'"levanta-imediatamente a questão de quantos pares diferentes existem. Admita-se que existam K desses pares. Então, a proba- bilid~-;!,~~~R~/K. Logo,, Vft~~:m;,ç§~i~2:S~l~~iS~?). /,..........(~) Escolher ao acaso n objetos (n ::; N) dentre N objetos signi/ / ,. / i ., ) \\ fica que cada ~nupla, a saber a;,, a;,, . .. , a;n é tão provável de ser escolhida quarito qualquer outra ~nupla. Comentário: Já sugerimos acima que se deve tomarextremo cuidado durante o procedimento experimental, para assegurarmos ,que a suposição matemática q~ ~ / ,...... . • • I =-+ ~ .•4 .tl .P~-<J ~"'Y) "escolher. ao acaso" seJa atendtda.. .t ,, r1•".11~; ...r~e.., .:-~'i l·~i t•r.·, t.,.,.,. ,<'= ...,.."'\ C ÇJ L-.· jlt,1 '-·· '"" .. . 1 . -~''{_ t:· - or:';;....-r- .., . \~.--·'if'> €;--~/t.NiVJ;Dt. ?ki de 2.3. .v ,. Métodos de Enumeração Deveremos fazer uma digressão, a esta. altura, para aprendero mos como enumerar. Considere-se novamente a forma já vista de P(A) a saber P(A) = r/k, :'Onflfu~Ji~O'inlffil:ero"'io:t·a:l;;€hle:matt:eir.a:s..-- . -~;~:::~!!1:~=:~~;:~;~~~t~~;~!!!~~~;:~:;:~~:~~:" . aqui;-pequena difi~uld~de-foi ençontrada para calcular r e k. · Mas nós precisamos estudar sit~ações apenas um poupo mais complicadas, para percebermos a necessidade de alguns procedimentos sistemáticos de contagem ou enumerâção. 30 I PROBABIUDADIE / lp _,. / ,:;ljl~~~{~~~r,·.~ Uma partida de cem peças ,é ,comppsta ,de ~O . peçM-defeituosas e 80 peças perfeitas. n ·ez dessas . peçás 'são escolhidas ao acaso, sem reposição de qualqu~r peça· escolhida antes que a seguinte seja escolhida. Qual é a probabilidade de que exatarnente metade das peças escolhidas seja defeituosa? ·· Para analisarmos este problema, consideremos ·o seguinte ·espaço amostral S. Cada elemento de S é. constituÚ:lo deqez possíveis peças da partida, (i,, i2, . . . , i,o). Quantos resultádos des~es existem? E dentre esses resultados, quantos têm a característica de que exatamente a metade das peças seja defeituosa? Nós, evidentemente, precisamos ter condições de responder a tais questões a fim de resolvermos o problema em estudo. Muitos problemas semelhantes dão origem a questões análogas. N'nST"puucmí:::i)eç~egumte~...,a.p.re~­ tãiêffio'S'::~àlgumas=téeni:cas~si1fteiji4Hj~.as,,;dg~êriDttmY.a~aeo Suponha-se que ·um procedimento possa ser de n 1 ma~eiras. Admita'-se que um- segundo procedimento, designado por 2, possa ser executado de n2 maneiras. Suponha-se, também, que cada maneira de e~ecutâ.r 1 possa ser· seguida por qualquer daquelas para executar 2. Então, o procedimento formado por 1 seguido de 2 poderá ser executado de n 1 • n 2 maneiras. Para indicar a validade deste priiJ.cipio, é ~ais fácil considerar o seguinte tratamento sistemático; I li ,,I p i"íg. 2.1 COnsiderem-se um ponto P e duas retas L 1 e L2. Admita-se que o procedimento 1 consista em ir de P até L1, enquanto o procedimento 2 consista em ir de L 1 até L 2 • A Fig. 2.1 indica como o resultado final é obtido. Comentário: Obviamente, esta regra pode ·ser estendida a qualquer número de procedimentos. Se existirem k procedimentos e o i-ésimo procedimento puder · set executado de n,; maneiras, i = 1, 2, .. ; , k, então o proc.edimento formado por 1, seguido por 2, .. . , se'guido pelo procedimento k, poderá ·s er executàdo de l'l1ll:! • • • nk rrumeiras. ESPAÇOS AMOSTRA IS FINITOS I 31 Exemplo 2.5. UDll). peça manufaturada deve passar por três estações de controle. Em cada estação, a peça é inspecionada para determinada característica e marcada adequadamente. ~a primeira estação, três classificaçõe..> ~il.o possiveis, enquanto nas duas últimas, quatro classificaçõe!l são po!~!l{veis. Conseqüentemente, exilitem 3 - 4 - 4 = 48 maneiras pela:; quais uma peça pode ser marcada. B. Regra da Adição. Suponha-se que um procedimento, designado por 1, possa ser realizado de n1 maneiras. Admita-se que um segundo procedimento, designado por 2, possa ser realizado de n2 maneiras. Além disso, suponha-se que não seja possível que ambos os procedimentos l e 2 sejam realizados em conjunto. Então, o número de maneiras pelas quais poderemos realizar ou I ou 2 será n1 + n2. Novamente, empregaremos um tratamento esquemático para nos convencermos da validade da regra da adição, como a Fig. 2.2 indtca. p L,~l, Fig. 2.2 Comenúirio: Esta regra também pode ser generalizada da seguinte maneira: Se existirem k procedimentos e o i-ésimo procedimento puder ser realizado de n; manein.s, i ~ 1, 2, ... , k, entAo, o número de m&neiras pelas quais poderemos realizar ou o procedimento 1, ou o procedimento 2, ou ... , ou o procedimento k, é dado por n 1 + n2 + _ . + nA:. supond<H!e que dois quaisquer deles nlo se possam realizar co llJltament.e. Exemplo 2.6. Suponha-se que estejamos planejando uma viagem e devamos escolher entre o transporte por ônibus ou por trem. Se existirem três rodovias e duas ferrovi~, então existirão 3 + 2 = 5 caminhos disponíveis para a viagem. C. Permutações e Arranjos. (a) Suponha-se q ue nós temos n objetos diferentes. De quantas maneiras "p" poderemos dispor (permutar) esses objetos 'l Por exemplo, se tivermos os objetos a, b e c, P<>deremos considerar as seguintes permutações: abc, ccb, bac, bca, cab e cba. Portanto, a resposta é 6. Considere-se, em geral, o se- ... ____________________________ ._ . 32 I I"ROBAB!UOADIE O primeiro comparti,mento pode ser ocupado por qualquer uma das n maneiras, o segundo compartimento por qualquer u~a. das (n - 1) maneiras, .. . , e o último comparÜmentO apenas por uma maneira. Portanto, aplicando-se a regra da multiplicação, vista acima, verifica-se que a caixa poderá ser carregada de n(n-1) (n- 2) . .. 1 maneiras. Este número aparece tão freqüentemente em Matemática que se adotam um nome e um símbolo especiais para ele. Definição. Sendo n um inteiro positivo, definimos n! = ·(n)(n- I) Também definimos (n- 2) ... 1 e o denominamos fatorial de n. O!= 1. Dessa maneira, o número de permutações de n objetos diferentes é dado por (b) Considerem-se novamente n objetos diferentes. cA<gQp§t9:~- .• ~~~::;~fi!!~~~~~~:;~!e~v:!~:!~~~-~:;;r-~~~~~~]1!~3~~~~:, por::11Jf;. ··Recorremos novamente ao esquema acima, de encher uma caixa de n compartimentos; desta vez simplesmente paramos depois que o compartimento de ordem r tenha sido ocupado. Assim, o primeiro compartimento pode ser preenchido de n maneiras, o segundo de (n- 1) maneiras, ... e o de ordem -r de n- (r- I) maneiras. Portanto,- o procedimento completo poderá ser executado, novamente aplicando-se a regra da multiplicação, de n(n -'- 1) (n - 2) ... (n- r + 1) maneiras. Empregando a notação · de fatorial, introduzida acima, poderemos escrever ·'I D. Combinações. C.on8iderem-se, novamente, n objetos difeAgora, trataremos da cont&g<em do número de mweiras de rentes. ESPA'ÇOS AMOSTRAIS FINITOS I 33 escolher r dentre esses n objetos sem. considerarmos a ordem. Por exemplo, temós os obj~tos a, -b, ~ ~ =:2; desejainQ~· contar ab, ac, ad, bc 1 bd e cd; por outras palavras, não contaremos ab e ba, porque os mesmos objetos estão incluídos e somente a ordem é diversa. Para obtermos o resultado geral, recordaremos .a· fórmula deduzida acima: o número de maneiras de escolher r objetos dentre n, e permutar os r escolhidos é n!/(n- r)! Seja C o número de maneiras . de escolher r denl;re os n, não considerada a ordem. (Isto· é, C é o número procurado.) Observe-se que, uma vez que r objetos tenham sido escÓlhidos, existirão r! maneiras de permutá-l~s. Conseqüen-:temente, aplicando~se novamente a regra da multiplicação, juntamente com esse resultado, obteremos ';':Z/ :; __ n! 1 Cr.(n- r)! Portanto, o número de maneiras de escolher r dentre n objetos diferentes, não se considerando. a ordem, é dado por. C= . n! r!{fl.- r)! . Este número surge em muitas passagens da Matemática e, por isso, um símbolo especial é empregado pará éle. Escreveremos rl(n~ r)! Para nossos objetivos atuais, ( ~) =( ~) somente fica definido para n in- teiro positivo e r um inteiro tal que O :5_ r :5_ n. remos definir (~) · de Contudo, pode- modo mais geral, para qualquer número real n e para qual<Iuer inteiro não negativo r, na forma seguinte: n) = (r Os números ( n(n-l)(n-2) ··· (nr! . r+ 1). ~) são freqüentemente denominados coeficientes bino- miclis, porque eles. aparecem como co!)ficientes no desenvolyimento da binomial (a+ b)n. I Se for inteiro positivo, (a+ = = (a+ b) (ar+ b) ..• (a + b). Q~ando a multiplicação tiver sido eKecutada, cada termo será formado de k elementos a, e de (n - k) <e;lq)ressio elementos b, n um k =O, 1, 2, .. . ,n. w Quàntos te~osda forma akbn-k 34 I PROBABiLIDADE existir~? Simplesmente contaremos o númeci ,iJ.e>lniuiei.ráB posSf.. veis de escolher k déntre os n elemen~s a, ·débiandó deiãdó a'otdém. Mas isw é justamente dado por ( ~) ~· Dai ob~rtridso "~Jeé collhe- cido como o reorema birwmial: ± . ·. .(a+ b)" ~ •-o (n)a~bn-k_ k . . (2.2) Os números (;)apresentam muitas propriedades in~~ess;mtes, ape- nas duas das quais mencionaremos aqui: (A . merios que . ~e diga expressamente de modo diverso, admitiremos que n sej~ inteiro posi· tivo e r um inteiro, O ~ r ~ nJ ~ fácil verificar algebricamente as duas identidades acima. Basta desenvolverem-se, em cada uma, · o primeiro e o segundo membros, e verificar que são iguais. Existe, contudo, outra maneira de verificar essas "'id~ntidades, que emprega a interpretação que demos para ( ~), . a · saber, o nú- mero de maneiras de escolher r dentre n coisas. (a) Quando escolhemos ·r dentre n coisas, estamos ao mesmo tempo deixando (n:.... r) coisas não ·escolhidas, e, por isso, escolher r dentre n é equivalente a escolher (n ·- r) dentre n. Ora, isso é exatamente a primeira identidade a verificar. (b) Vamos fixar um qualqm~r dos n objetos, por exemplo o primeiro, a1. Ao. escolher r objetos, a 1 estará incluído ou estará excluído, mas não ambas as coisas. Portanto, ao contar o número de maneir!LS de escolher r objetos, poderemos aplicar a Regra da Adição, explicada anteriormente. Se a 1 for excluído, então deveremos escolher os r objetos desejados dentre os restantes (n - I) objetos, e existem ( n ~ 1 ) maneiras de se fazer isso. Se a 1 for incluído, entã:o somente (r - I) mais objetos deve~ ser escolhidos dentre os restantes (n - I) objetos e isto pode ser feito de ( = ~ ~) maneiras. Conseqüentemente;· o .número procu- rado é a soma desses dois, o que verifica a segunda identidade. :~ I . . ESPAÇOS AMOSTRAIS FINITOS I 35 . I Comentário: Neste contexto, os [ f"1c1entes · c~e b'momm.lS · · ( kn ) t"em sent'd 1 o somente se n e k forem inteiros não-negativos, com O ,;;; k ,;;; n. Todavia, se escre. I vermos i I n! _ n(~-l) ... (n -k+ l) ( )=---I k k!(n-k)! k! n . ·' I observaremos que a última expressão temisentido se n for qualquer número real e k for qualquer inteiro não-negativo. Portanto, I 3 I (-3)( + 4) ... (-7) ! = -----,-,...----- c ) . I 5! 5 I e assim por diar1te. Empreg;uido · esta versão estendida dos· coeficientes binomiais, poderemos estabelecer a forma generalizada do teorenk binomial: f. . I . n ooi (l+x) =E ' ·· ( n kJo k I )x k ' I Esta série tem significado para qualquer ;n real e para todo x tal que I·X I < 1. Observe-;<;e que, se n for um inteiro posithp, a série infinita se reduz a um número finito de t~rmos,porque, neste caso, ( ~) f i O, se k> n. . (a) Dentre oi:o l pessoas, quantas conússõ~s de tres membros podem ser escolhidas ? Desde que duas corrussões sejam a mesma comissão se forem cbnstituidas pelas mesmas pessoas (não se levando em conta a ordem e~ que sejam escolhidas), · teremos • Exemplo 2.1. · ( ~ ) = 56 conússões possíveis. 1 (b) Com oito bandeiras difere~tes, quantos sinais , feitos com tl'ês bandei;ra.s se podem obter? Este problema parece-se muito com o anterior. No entanto, aqui a ordem acarreta diferença e, ,por isso, obteremos 8!f5! = 336 siwüs. : · · · (c) Um grupo de oito pessoa.S é formado de cinco homens e três mulheres. Quantas coiDÍllSões ~e três pessoas podení. ser constituídas, .· incluilldo exatamente dois 1homens? · Aqui deveremos fazer duas coisas: escolher dois homens (dentre cinco) e escolher uma . I mulher (dentre três). Daí 1 obtermos como 1 número procurado ( ~) · ( ~ ) = 30 comissões. ! (á) Agora poderemos verifica~ uma afirmà.ção feita anteriormente, a · saber, a de que o númerq de subconjuntos (ou partes) de 36 I lf'ROBABIUDAOIE um conjunto constituído de n elementos é igüàJa 2" :(coritados o conjunto vazio e o próprio ()onjunto) . .· Siwplesine11te a.ssoçiemos a cada elemento o valor um ou zero, conforme esse elemento deva ser incluído . ou excluído do subconjunto. Existe~ du~s .· maneiras de rotular cada elemento e existem a,o ~oqo p, desses elementos. Daí a regra da multiplicação nos dizer que existem 2 · 2 · 2 · · · 2 = 2" rotulações possíveis. Mas cada rotulação particular representa uma escolha de um subconjunto. Por exemplo, . (1; 1, O, ,0, O) constituiria. Ó subconjunto formado exatamente por d.1 e · ~~- Ainda, (1, 1, •... , 1) representaria o próprioS, e (0, O, ... , O) .representaria . o conjuntá vazio. o;· ... , (e) Poderíamos. obter o resultado acima, pelo emprego da Regra da Adição, na forma seguinte: Para obter subconjuntOs, .deveremos escolher o conjunto vazio,. aqueles subconjuntos co:D,stituídos .exatamente por ~m elemento, aqueies constituídos exat~nÍenÚ~ por dois elementos, ... , e o próprio conjunto constituído por todos os n elementos. Isto seria feito de maneiras. Ora, a soma desses coeficientes. binomiais é exatamente o desenvolvimento de' (1 1)" 2": Voltemos agora ao . Ex. 2.4. De · uma partida formada . por 20 peças defeituosas e 80 peças perfeitas, escolhemos ao acaso 10 (sem· + = reposição). O número de maneiras de fazer isso é· e~). Daí, a probabilidade de achar exatamente 5 peças defeitu 0sas e ·5 perfeitas entre as 10 escnlhidas ser dada por (2~) (~o)_ e~) Por meio de logaritmos de fatoriais (os quais se acham tabuls.dos), a expressão acima pode ser avaliada como igual a 0,021. Exemplo ·2.8. Vamos generalizar o problema acima. Admitamos que temos N peças. Se. escolhermos ao acaso n delas, sem reposição, teremos ( ~) diferentes amostras possíveis, todas elas com 111 · rilesma. probabilidade de serem escolhida.S. Se as N peças forem !~~madás por r 1 da classe A e r2 da, classe B · (COJ1l r1 r2 = N), + ESPAÇOS AMOSTRAIS !FINITOS I 37 então, a probabilidade de qu~ as n peças escolhidas sejam exatamente da classe A e (n- s 1) da classe B será dada por 111 (A express·ao acima se denomina probabilidade ltipergeomélrica, e será aillda reencontrada.) Comentdrw: 11: muit;o importante <éspecificar, quando falarmos de peças G!lxtra!das oo acaso, SG!l a eS1:nlh& é · com ou sem reposiçl!.o. Na maiori& dos casos concretcs, pretenderemos a última. Por exemplo, qus.ndo inspecionamos certo ndmero de- peças manufs.turadas a fim de descobrirmos quantas defeituosas poderiw existir, geralmente não tencionaremos examinar a mG!lSma. peça. duas vezes. Já disSG!l!D.()8 que o número <l.e maneiras de e.gcolher r coiSilll dentre n, não considerada B (~). · O. número de maneiras de escolher y coisas dentre n, dado por n•. Neste caso, eataremoa interessados na ordem em ordem, é dado por com repoaição, é que as peç:ns sejam escolhidas. ·- ·. Exemplo 2.9. Admitamos que se escolham ao acaso dois objeios, dentre os quatro denominados a, b, c e d. (a) Se escolhermos sem reposição, o espaço amostral S poderá. ser representado da forma abaixo: S Existem ( ~) = ((a, b); = (a, c); (b, c); (b, d); .(c, d); (a, d)}. 6 resultados passiveis. Cada um desses resultados indica somente quais os dois objetos que foram escolhidos e não a ordem em que eles foram escolhidos. (b) Se escolhermos com reposição, o espaço amost ral §' poderá -ser representado por: S' = { (a, a); (a, b);_ (a, c); (a, d); (b, a); (b, b); (b, c); (b., d);}. (c, a); (c, b); (c, c,); (c, d); (d, a); (d, b); (d, c); (d, d) Existem 4 2 _= 16 resultados possíveis. Aqui, cada um desses resultados indica quais objetos foram escolhidos e a ordem -em que eles o foram. Escolher ao acasq implica que, se escolhermos sem reposição, todos os resultados em S serão igualmente verossimeis, enquanto se escolhermos com reposição, então todos os resultados em S' serão igualmente verossímeis. Portanto, se A for o evento {o objeto c é 38 I PROBABILIDADE escolhido} I então teremos: de . s, P(A) = 3/f, ;=( 1/2 se ' eS(!Olh~rffios se~ reposição; e de S', P(A) = 7/16 se escdlhermôa com;-re~~siÇão. E. __,.Ji!e7f/ttiil&$r§<ÇÕW,4lu'úits:c;Jtléirient&~:,B~e'ffie~ftvs~' · Em.todas .as técnicas'"â~:.:-êiiumeraçã~ já apresent~das, . admitimos que ~deis os objetos considerados fossem diferentes (isto é, distinguív(lis). No entanto, não é sempre essa a situação que ocorre, · Suponha-se, a seguir, que temos n objetos, tai!l que n~ sejam de uma primeira espécie, nz de uma segunda espécie, -. , .;•m< .de .;\una k-ésima espécie, com n1 + nz + ... n~c = _n. - Nesse CaS!), o 'nú~ mero de permutações possíveis desses n objetos .é dado por + I'Í n! n1!nz!. . . n~c! Deixa-se ao leitor a dedução dessa fórmula. Note-se ~tie, se todos objetos fossem diferentes, teríamos TU = 1, i ·:.: 1j 2, ; ·~ . 1 k, é, conseqüentemente, a fórmula acima se reduzirià a n!, que é o res'll1- . tado obtido anteriormente. OS Comentán"o: Devemos .salientar mais uma vez que a atribuição realística de probabilidades a resultados individuais de um espaço amostral,( ou a mp.a.éoleção de resultados, isto é' um evento) constitui alguma coisa que nã:o pode sei déduzi~a matematicamente, mas que deve ser originada de outras considerações. Por 'exemplo, poderemos recorrer a determinados traços simétricos do experimento para ' averiguar se todos os resultados são .igualmente prováveis. Além disso;poderemos construir um procedimento de amostragem (por exemplo, escolhendo :• um:ou vários indivíduos de uma população especificada) de tal maneira que' seja rai:oávd admitir que todas as escolhas sejam igualmente prováveis. Em muitos outi:os casos, quando nenhuma suposição básica natural seja apropriada, deveremos recorrer à aproximação da freqüência relativa. Nós repetiremos o experimento n'vezes e·, em seguida, calcularemos a proporção de vezes em que o resultado (ou eveiltÓ) estudo tenha ocorrido . Ao empregar isto como uma aproximação, sabemos que é bastante improvável que esta freqüência relativa difira da ''Verdadéira" pfõbàbili~ dade (cuja existência tenha sido especificada por nosso modelo te6rico), de tim valor apreciável, se n for suficientemente grande. Quando for impossível estabelecer suposições razoáveis sobre a probabilidade de um resultado e também impossível repetir o experimento um grande número de vezes (em Virtude de considerações de custo ou de tempo, por exemplo), será realmente bastante sem sentido prosseguir com um estudo probabilístico do experimento, exceto em uma base puramente teórica. (Para um comentário adicional sobre este mesmo ponto, veja a Seção 13.5). ' efu 2.1. O aeguÍnte grupo de pessoas está numa ·sala: 5 homens maiores de 21 anos; 4 homens com menos de 21 anos deidade; .6 mulheres maiorés de 21- anos, ·e ..ti ~''!' I"'\ ,J...J"'{'<-, j, " r ''..]'\ . -~-...\ .,..:\ DOt;, r .r-.,5"'<---J ESPAÇOS AMOSTRAIS FINITOS I 39 \ "J' V'" \}( 3 mulheres menores. Uma pessoa. é esdolhida ao ace.So. Definem-se os seguint..es eventos: A= {a pessoa é ~aior de'2i1 an~sl; 'E= (a. ,pessoil. é menor de 21 anos).;, C,;;,· (.a. pessoa. é homem); D (a. ~oa. . é mülhe'rl, ~ CS.!~e: · ;= (a) P(B ·.· li ·. U D), (b) P(à n C). ~ E~· um~ s~J,la., 10 pessoas estãd usando emble~as numerados de 1 até 10. I Tr~OII8 são escolhidas ao acaso e t convidadas a saírem da sala simultanea... ···' mente. r.O número de seu_!~mblem_~. é _~nota.do. . . .. ·....::. . . l .. ,.... ·:.:·.·. ~ . .:·:-: ..- ·.:..:.:~-~-: ....~:.:-~,..:.-~;::-:;.::.r::::::::;~.-:;":-~_--:,-·::~::::::.,... (a) Qual é a. probabilidade ·d~ .qtle .o menor número .de . ern~~IDJ!oAlCja .-5? ... ,.,, ' (b) Qual é. ~ p~~b~hÜidad~ d~ que lo' ~~iJ;·~;j;~;~d~·~~bl~ma ~ej~ 5? / . .·· ... \ i . . ,_ .. ' ·-· ~ . . Suponha que os três dígitoS.l, 2 e 3 s~jam escritos em ~rdem*atória. Qual a probabilidade· de que ao menos um dígito. ocupe seu lugar próprio? (b) O ~esmo que em (a), com os \dígitos 1, 2, 3 e 4. . i · · - 2.3. (c) (a) ·o mesmo que em (a), com os idígitos 1, 2, 3, ... , n. ! SugeStão·: Empregue (1.7) . (d) Examine a resposta a (c), quarldo .n for grande. . . I . 2.4. Uma remessa de 1.500 a,rrueias contém 4ÔO peças defeituosas e 1.100 perfeitas. Duzentas arruelas são escolhidas ao acaso (sem reposição) e classi~ ficadas. . . (a) Qual a probabilidade de que sejam encontradas exatamente 90 peças defeitUOSas? ; ', , r, . I· .. • ,; I · · Qual a probabilidade de que seiencontrem ao. menos 2 p eças .defeituosas? (b) 1 2.5. Dez ficha~ numeradas <:le 1 até 10 são misturadas em uma urna. Duas. fichas, nu:merad~ ._<X, Y), são extr~!das d j a urna, sucessivame,nte :e, sem reposição. Qual é a probab1hdade de que seJa X +t- Y ·= 10? .f.J.__. l J (1 . . ,r// "~ · 1 . r • ) o'-"~ . 2.6. Um. lote é' formado de 10 ar~i~os e 2 com ' : . bons, / 4 \ ~rr: d~feitos menor~~ . defeitos graves; U:m arti"go é dcolnido lf acãso. ··Ache a probab,ilidade de que: (a) . Ele não tenha defeitos. j \' "\.. t;nh~ d~reitos gra':-es. • · . (c) E!~ ~u ·seja p~rfei~· ou 'tenh~· d~feitos graves. (b) ,EJel nii.o • ,~· - - I , ,'·~ · . 2.7. s'e do lote 1~~rtigos descrito [no Probi. :2.{!, dois artigos f~re~ escolhi- . ~ L . .-:::) dos (sem rep,osiÇ.ão), áché a probabilidàd~ de que: t.a) Ambos- sejam' perfeitos. · (b} Amb~s"'-tenham defeitos gr~~eà, (c) ~o meno.s um. seja -perfeito. (d) No máxill]ó úin seja perfeito. (e) Exatamente Úm • sejã ·.Perfêltó'. . -(j1""Neuhum deles teuba l defeitos graves. ,....Cg) Nenhum deles seja ! ....._ " ./' perfeito. -~ ~ · · 1 . / 1_ 2.8. Um produto é montado em 1 três estágios. No primeiro estágio, existem 5 linhas de montagem; no segundo lestágio, existem 4 linhas de montagem e no terceiro estágio, existem 6 linhas d,e montagem . De qúantás maneiras diferentes poderá o prod.utó se deslocar durante o processo de montagem? I . . . 2.9. Um inspetor visita 6 máquinas diferentes durante um dia . A fim cie evitar que os operários saibam quando 1ele os irá. inspecionar, o inspetorvaria a ordenação de suas visitas. De quantas maneiras isto poderá ser feito? I •·' . 4 40 I lf'ROBABBUDADE man!~· ;~:ám=~ueC:7:~:~~/:!e 3f~h~~;:~;<;~;~" :~1:;'i;,pç quantas 2.1~. Eirist0m 12. categor~ de d~feitos ~~~6~' :.ât0't~~f~ç~-~J;anrifatu­ rradm, e 10 tipoo de defeitos graves. De quantM'~a,fi~ir~ :pode~q.'. Je<iirer, 1 de- :~J;,~S~~SS;j~l}~~~#;;;;, (b) Adm1W. que esses mecanismos sejam ins't~l'ados- 'eni âetemiiriâda 'ordem o si&t~rria .po~~f.4';~er: disposto, se dois mecanismos adjacantes não estiverem em igul!.l -pqsiçã~ -~-.:':·, :.. .. (lin~) preestabelecida. De quantas ~aneir!lll (c) Qu~mtas maneiras de disppr· serão possíveis, se ,8omentç. as -posições .a e b 1orem usadas, e o forem com igual freqüência? .__ 1 : ...,. __· ·:.- , _,,." .' '·'" . (d) Quantas maneiras serão possíveis, se somente duas. posições fo~em usa,. das, e d~as posições .uma ocorrer três vezes mais freqüe~te~ez;_f.~' q~~ -~ ~utra? . . . ·.,· ,. t' ~ .. f• . ·: I . -2.13. Suponha que de N objetos, n sejam escolhidos ao acaso, com reposição. Qual sem SI probabilidade de que nenhum objeto·seja escolhido vez? (Admita n < N.) maiS do qiui'uroa , 2.'14. Com as seis letras a, b, c, d, e, j quantas palavras-có~igo de 4 letras poderão ser foriDSidas se: ·(a) Nenhuma let~_a puder ser repetida? (b) Qualquer letra. puder ser repetida qualquer · núi:nero de_vezes-? i) .=a e (O:) 2.15. Supondo que ( 9 111 e b. (Sugeswô: . N ao ca.lcule as = b, expreSstJ ( 19W)emtermos de expr~ões acima, para . resolver ~ .p;oblema:) 2.16. Uma caiu contém etiquetas numeradas 1,· 2, ... , n. Duas etique- tas_são escolhidas ao acaso. Determine a probl),bilidade de que os ·números das <etiquetms ooj&m inteiros consecutivos se: (a) As etiquetas forem escolhidas sem reposição .._ {b) As etiquetas forem escolhidas com reposição. 2.17. Quantos subconjlintos se podem formar, contend~ . a~- ·p-tenos um ele- mento, de um conjunto de 100 elementos? 2. ~gj. Um inteiro é escolhido ao a.ca.so, dentre os números 1, 2, ~ . . , 50. Qual 00~ a probabilids.de de que o número esoolhld9 seja divisível por 6 ou por 8? 2.19. Dentre 6 números positivos e 8 negativos, escolhem-se ao acaso .4 números (sem reposição) e multiplicam-se esses números. Qual, será aprobabilidade de que o produto séja. um número positivo? 2.20. Determinado composto qufmico é obtido pela. mistura de 5 Ú~uidos diferentes. P ropõe-se despejar um lfquido em uin tanque e, em seguida, juntar os outro~ lfquidos sucessivSJ,mente. Todas as seqüências possíveis devem ser ensaiadas, para verificar-se qual delas dará o ~elhor resultado.· Quantos ensaios deverão ser efetuados? ESPAÇOS AMOSTRAIS FINOTOS I 41 2.21. Um lote contém n peças, das quais se sabe serem r defeituosas. &l a orden{ da inspeção das peças se fizer ao acaso, qual a probabilidade de que a peç&· inspecionada em k-ésimo lugar (k ~ r) seja s última peça defeituosa contida no lote? 2.22. Dentre os números O, 1, 2, ... , 9 são escolliidos ao acaso (sem reposição) r números (O <r < 10). Qual é a probabilidade de que não ocorram dois números iguais? \ .I., I I I \ I I '. 1,,:.. ""." "·! Probabilidade Condicionada e Independência Capítulo 3 . l 3.1. P·robab.ilid.ade Cond,icionada . ·Vamos . reexaminar a diferença entre extrair uma peça de um lote, ao acaso, com ou sem reposição. No Ex. 2.4, : o lote estudado tinha a seguinte composição: 80 não-defeituosàs e 20 defeituosas. Suponha-se que escolhemos duas peças desse lote: ·(a) com reposição; (b) sem reposição. ,. · Definamos os dois eventos seguintes: A = {a primeira peça é defeituos~); B = {a segunda peça é . defeituosa) . Se estivermos extraindo com reposição, P(A) = P(B) = 20/100 = 1/5, porque cada vez que extrairmos do lote, existirão 20 peças defeituosas no total de 100. No entanto; se estivermos extraindo sem reposição, os resultados ~ão serão tão imediatos. É: ainda ver. dade, naturalmente, que P(A) = 1/5. Mas e sopre P(B) ? É evidente que, a fim de calcularmos P(B), dB:veremos conhecer a composiçãq do lote no momento de se extrair a segunda peça. Isto é, deveremos saber se A ocorreu ou não. Este exemplo mostra a necessidade de se introduzir o seguinte importante conceito. Sejam A e B dois eventos associados ao experimento e. De~ .notaremos por P(BIA) a probabiiidade condicionada d~ evento B, quando . A tiver ocorrido. = No exemplo acima, P(B IA) = 19/99, porque se A t iver ocorrido, então para a segunda extração restarão somente 99 peças, das quais 19 delas serão defeituosas. Sempre que calcularmos P(B IA), estaremos essencialmente cal.:. culando P(B) em relação ao espaço.amostral reduzido A, êm lugar de I . \_ PROBABILIDADE CONDICIONADA Ê.INUEP.ENDENCIA I .4l~ I fazê-lo em relação ao espaço ambstral original S. Consideremos o Diagra$ de Venn da Fig. .3.1. r---~--------·s A B Qu:kdo . calcularmos · P(B) estâl:emos nos (]) per~taiido quão provávEl! será estar- D;J.OS em! B, sabendo que · devemos_ -estar em S. ~ quando calcularmos P(B IA) .e staremos p~rguntando ·quão provável será, estarmos eii). iJ,. sabendo que ~evemos estar em A, i(Isto é, o ·espaço amostral ficou redmido Ide S para A.) Logd, daremos uma !Fig. 3.1 definiçãJ rigorosa <teP(BIA). Por enquan~ to, contudo, empregaremos nossd noção intuitiva de probabilidade .. da e d.aremos um exemplo. I condICIOna 1 1-· Exemplo 3.1. Dois dados ~quilibrados são lançados, registrand~se o resultado ~orno (x 1, x 2~, onde Xi é o resultado do i-ésimo dado, ~ = 1, 2. Por Isso, o esp3:ço amostral S pode ser representado pela seguinte lista de 36 re~ultados igualmente prováveis. I ( (1, I)'" S = ) (2, I) . { (6, :I) . (1, ~) (2, 2) (1, 6) ) , . (2, 6) ~ I (6, 6) (6, 2) c) ' Consideremos os dois eventos seguintes: . I A = {(x1, x2) Ix1 + X2 = 10t B = {(x1, x2) Ix1 ,> x2}. I Assim, A . I . . = {(5; 5), (4, 6), (6, 4)} e fl.= ·{(2, 1), (3, 1), (3, 2), ... , (6, 5)}. ··E 3 P(B 14) = ~, : uma ve.z; qüe e P(B) = l~ 36 . o espaço amostral é, _agora, forma!do por A (isto é, ·três resultados), e somente um desses três resultadJs é coerente com o evento B. De . . I. modo semelhante, poderemos calc~lar P(A !B) ,= I/15. · Portanto, P(A) = ··'.. Finalmente, vamos calcular PCA () B) . . O evento A () B ·ocorre se, e soii).ente se, a soma dos dois \dados for 10 e se o primeiro dado tiver, apresentado um valor maior que o segundo dado~ Existe ape1 nas um desses resultados e, por isso, P(A () B) = . 1/36. Se fizermos , . I um exame cuidadoso dos vá'rios números já calculados, concluiremos I ' que i I P(AIB) = P(A () B) el P(BIA) = P(A () B) · · · ·. P(A') P(B) ii 44 I lí'IROBABBUDADIE ,, Essas relações não surgiram apenas do particular exemplo que <Consideramos. Ao contrário, elas são bastante gerais, e_nos .<ião caminho p3;ra definir rigorosamente a probabilidad~ ·condicionada. Para sugerir essa definição, voltemos ao conc~it<J de frequência relativa. Admitamos que um experimento s tenha ~ido. repetido n vezes. Sejam nA, nB e nAnB o número de vezes que, respectivamente, os eventos A, B e. A () B tenham ocorrido em n repetições; Qual o significado de nAnB/nA? Representa frequência relativa de B naqueles resultados em que A tenha ocorrido. . Isto é, nAnB/nA é a frequênc.ia relativa de B, condicionada a que A tenha. ocorrido. Poderemos escrever nAn~/riA, da· seguint~ forma:- um a fUnB nAnB/n . nA nA/n }AnB =--· }A · onde }AnB e }A são as frequências rel~tivas dos eventos A ()B e A, respectivamente. Como já dissemos (e explicaremos ~ais tarde) se n, o número de repetiçõesfot grande, }Anil f)erá próximâ de P(A () B) e Ú ·será próxima de P(A), Conseqüentemente, a relação acima sugere que nAnB/riA . será próxima de P(B IA). Por isso, estabelece. remos a seguinte definição: Definição: P(BiA) = P(A n B) P(A) I desde que P(A) >o. (3.1) Comentârios: (a) :f: importante co~preender que isso não ·é um teoremil. (nós não demonstramos coisa ·alguma), nem é tim axioma. Apena.s introduzimos a noção intuitiva de probabilidade condicionada e, . depoi.~, estabelecemos uma. definição ·formal daquilo ·que essa noção significa. o fato de que no!lSÍ!. defiriiÇão formal corresponde à noSsa noção intuitiva· é fundamentado. pelo .parágrafo que precede à definição. (b) l!: assunto simples verificar que P(B IA) para A fixado, satisfaz aos várioo posttdados de probabilidade das Eq. (1.3). (Ver ·Probl., 3.22.) IstO é; temos (1') O~P(B!A)~l, (2') P(SIA) = 1, (3') P(BiU~~IA),;P(B 1 !A)+P(B2lA) se Bt()B2='0, (4') (c) P(Bt u B2 u para i ~j. ···IA)= P(BtlA) (3.2) _ + P(B2IA) + ·: ·· se · B; nn; =e Se A= S, P(B I S) =P(B n S) I P(S) =P(B). (d) A cada evento B c S poderemos associar dois números, P(B), a probabilidade (não-condicionada) de B, e P(B 1 A), a probabilidade condicionada de ._·. B, desde que _algüm evento A (para o qualP(A) > 0) tenha ocorrido. Em gerai, · essas·.; duas medidas de probabilidade atnouirão probabilidades diferentes ao I :~ .· PROBABILIDADE COi\lDBCiOI\lADA rE ii\lDrEI"rENDIÊi\lCiA I 45 evento B, como indicaram os exemplos precedentes. Dentro em breve, estudaremos um caso especial importante, para o qualP(B) e P(B I A) serão iguais. (e) Observe-se que a probabilidade condicionada está definida em termos . da medida de probabilidade não-condicionada P, isto é, se conhecermos P(B) para todo B c S, poderemos calcular P(B 1 A) para todo B c S. Deste modo, temos duas maneiras de calcular a probabilidade condicionada P(B IA): (a) Diretamente, pela consideração da probabilidade de B einm ~relação ao espaço amostra! ~~:Cduzido .Al. (b) Empregando a definição acima, onde P(A n B) e P(A) são calculados em relaÇão ao espaço amostr~l original S. Ccmientário: Se A = S, obteremos P(B IS) = P(B () S)/P(S) = P(B), porque = 1 e B () S = B. Isto é como seria de se esperar, porque dizer que S ocorreu é à.penas dizer que o experimento joi realizado. P(S) Tab. 3.1 E ·~ . .;_:.·.; 1 M ·. N 40 30 70 u 20 10 30 60 40 100 Exemplo 3.2. Suponha-'se que um escritório possua 100 máquinas de calcular. Algumas dessas máquinas são elétricas (E), enquanto outras são manuais (M); e algumas são novas (N), enquanto outras são muito usadas (U). A Tàb. 3.1 dá o número de máquinas de cada categoria. Uma pestsoa entra no escritório, pega uma máquina ao acaso, e descobre que é nova. Qual será a probabilidade de que seja elétrica? Em termos da notação introduzida, desejamos calcular P(E IN) . Considerando-se somente o espaço amostral reduzido N (isto · é, as 70 máquinas novas), temos P(E IN) = 40/70 = 4/7. Empregando a definição de probabilidade condicionada, temos que P(E N) = : 1 n P (E N) = 40/IOO = P(N) 70/100 .!. 7 ' A mais importante conseqüência da definição de probabilidane condicionada acima, é obtida ao se escrever: P(A n B) = P(B IA)P(A) ou, equivalentemente, .. .-.~·':. · .. 46 I PROBABILIDADE P(A n B) =P(A ' i B)P(E) . .... (3;3.a) . Isto é, algumas vezes, mencionado como o teore_ma. da ·miiltiplicação de probabilidades. · · · '" . · Podemos aplic~r esse teorema para calcular ocorrência conjunta dos eventos A e B. a ptobabÜidade da Exemplo 3.3. Consideremos novamente o 'lote forma<;lo . de ·. 20 peças defeituosas e 80 não-:defeituosas, estudado no início' da Seç~ 3.1. Se escolhermos ao acaso duas peças, sem reposição, qu.ai se~á a pro-: babil~ade de que ambas as peças sejam defeituosas? Como anteriormente, definamos os eventos .A e .B, forma. A = {a primeira peça é defeituosa l; B defeituosa l· na seguinte = {a segunda peça é Conseqüentemente, pediremos P(A (I B), qtre poderemos calcular, de acordo com a fó~da acima, como P(B\A) P(A). ::'i1as, · P(B IA) = 19/99, enquanto P(A) = 1/5. Portanto, P(A. (I B) = =: 19/495. ') Cornentdrjo: O teorema da multiplicação de probabilidades (3.3.a) pode ser · generalizado para mais de dois eventos, da seguinte maneira : p [A 1 n A 2 n ... n An J = =P(Á 1 )P(A 2 I A 1 )P(A 3 I A,,A 2 ) A nB=íl (a) ... P(An I A, ... Ari -1). (c) B c A (b) A :: B (d) (3.3.b) Nenhum desses casos Fig. 3.2 Examinemos agora, rapidamente,. se poderemos fazer uma afir- · geral sobre a grandeza relativa de P(A jB) e P, (A). Consiquatro casos, que estão ilustrados pelos Diagramas de Fig. 3.2. Teremos: porque A não poderá ocorrer se · B 11 .. . --~~ · --~ ---= - ~ ~- ·-·· IPROBABIUDADE CONDiCIONADA E INDEPENDÊNCIA I 47 I I=[P(A)/P(p)l ~ P(A), já que (b) P(A I.8) = P(A í1 B)/P(B) O~ P(B) ~ 1. i = = ~ \= (c) P(A IB) P(A í1 B)/P(B) P(B)/P(B) 1 P(A). . (d) Neste caso nada poderem4s afirmar spbre a grandeza relativa de P(A IB) e P(A). 1 . · · · I Observe-se que em dois dos casos acima, P(A) ~ P(A IB); em~ um caso, P(A) ;:::: P(A !B); e no qu~rto caso: não podemos fazer qualquer comparação~ I . · · Até aqui, empregamos o conceito de probabilidade condicionada . a fim de avaliar a p~obabilidade de [ocorrência conjunt~ de dois even;tos. Poderemos aphcar esse conce1to em outra manem• rle calcular • a: ·.probabilidade de um evento suhples A. Necessitaremos ·da se·•. g\J'in:te 'definição: f 1 • '.. I '! . Definição. Dizemos que os e~entos B 11 B 2, ••• , Bk representam :uma partição do espaço amostral S, f uando B ; íl Bi. .= 0, para todo iI (a) ~ .j. · I /c · ' :::. U (b) (c9 P(B;) :;:.· . I B; =S. I > O para todo i. Explicando: Quando o experimento E é realizado um, e somente I um, dos {'V~ntos Bi ocorre. I·, · ·· (P?r exemplo: na jogada de um dado, B 1 ~ 11 1,_21; B2 = •{3, 4, 5) e B 3 = {6} representariam uma partição do espaço amo~trhl, enquanto C 1 = I i, 2, 3, 4) ~ c2 = 5, 6) não o representariam.) Consideremos A um evento qualquer referente aS, e B 1, B2, .. .', B~c uma partição de S. O Diagrama de Venn na Fi~. 3.3 ilusira isso para k = 8. Fig.·3.3 ·Portan~o, . poderem~s escrever I .· 'tj4, 1,/.' Íl: ' \ . ll · L = A íl B1 U A . I I . I": . n .B2 I U ... U . A íl Bk. Natura.lmcntc, alguns dos conjunto~ A n Bi poderãó ser vazios, mas isso não invalidá essa decomposição de A. O ponto importante é que todos os ~ven.tos A n B ,)A í1 B~r, são dois a ,dois mutuaA . , . I . . 11 •• • mente excludentes. Por isso, poderemos aplicar a propriedade da .' I ;•.: I I . 48 I IPROBABIUDADIE . , __ ,: adição de eventos mutuamente éxcludentes "[Eq." '(t3)k !e - es~rever P(A) = P(A n B1) + P(A (1 B 2) ·. ·· :l · · + ~ -.;t...-.+ ;rDí. :n ~k). _::_ r,.:f ':. ·' • · _..._!::-· /-.~!- ~- .. _ Contudo, c'ada termo P(A () B;) pode ser expresso na forma P(iq B;): ·P(B;) c, daí, obteremos o que se denomi;1a o teoremà -'d3: J;;·obaliilidade total: · ' P(A) = P(AIB1)P(B1,) + P(AjB2)P(B2)+ ... +P(AIBk)~(nS (3.4) - Este resultado representa ~ma relação extré;n~~e,ite .útil, - porque freqüentemeqte, quando P(A) é pedida, p~dc_ ser difícii ,calculá-la diretamcnte. No entanto, com a informação adicional de qÚe B; tenha ocorrido, seremos capa~es de calcula~ P(A.IB;) ~. e~ - seguida, empregar a fórmula acima. · -· - Exemplo 3.4. Consideremos (pela última vez) o lote de 20 peças defeituosas c 80 não-defeituosas, do qual extrairemos duas peças, sem 1·eposição. Novamente definindo-se A e B como iguais lJ. _A = B = I a primeira peça extraída I a _segunda peça extraída é defeituosa J, é defeituosa}, poderemos, agora, calcular P(B), assim: P(B) = P(BIA)P(A) + P(BjA)P(A} Empregando alguns dos "cálculos realizados no Ex:. 3.3, ~ncontramo~ q ue 20 4 l 19 1 P(B) = - · =- 99 ' 5 +·99 5 5 Este resultado pode ser um tanto surpreendente, especialmente se o leitor se recordar de que no início da Seç. 3.1 encontramo!:! que _!(I!) = 1/5, quando extraímos- as peças com reposição. Exemplo 3.5. Uma determinada peça é manufaturada por três _ fábricas, digamos _1, 2 e 3. Sabe-se que 1 produz· o dobro de peças que 2, e 2 e 3 produziram o mesmo número de peças (durante um período de produção especificado). Sabe-se também que 2 por cento - das peças produzidas por l. e por 2 são4 defeituosas, enquanto' 4 por · . cento daquelas produzidas por 3 são defeituosas. Todas as peças . produzidas são colocadas em um dep6sito, e dep,ois . uma peça é- extraída ao acaso. Qual é a probabilidade de que ess; peça seja de"ÍE)ituosa? . , - ·;;<Vamos introduZir os seguintes , eventos: A = I a peça é defeituº~~ }-, ~~ = , I a peça provém de 1}, B2 = I a peça provém de 2}, -B.:~ :;::""')~ ~pe~a provém de 3 J. ::.:; PROBABiUDADIE CONDICIONADA IE iNDEPENDÊNCIA I 49 Pede-se P(A), e empregando-se o resultado acima, poderemos escrever: P(A) = P(A JB1)P(B 1 ~ + P(A JB2)P(B,) + P(A IB3)P(B3). Ora,-P(B 1)=1/2, enquantó P(B 2 )=P(B3)= 1/4. Também, P(AIB1) = = P(A IB 2) = 0,02, enquanto P(A IB 3) = 0,04. Levando-se esses vm~ lores à expressão acima, encontraremol;l P(A) = 1!},025. Comentário: A seguinte analogia com o teorema da probabilidade total é · observada em Quí~ica:· Sup~nha-se que ternos k frascos contendo diferentes soluções de um mesmo sal totalizando, digamos, um litro. Seja P(Bi) o volume do i-ésirno frasco e seja P(A IBi) a concentração da solução no i-ésirno frasco. Se reunirmos todas as soluções em um só frasco e seP(A) denotar a concentração· da sq~tição resultante, teremos: P(A) = P(A JB1)P(BI)+ ·=·+PIA IBJ,)P(B~~:). Poderemos empregar o Ex. 3.5 para sugerir outro importante resultado. Suponha-se que uma peça seja retirada do depósito e se verifique ser ela d~feituosà~ Qual é a probabilidade de que tenha sido produzida na fábriCa 1? Empregando a notação já introduzida, pede-se P(BdA). Poderemos calc~lar esta probabilidade como uma conseqüência da seguinte exposição: ·Seja B 1 , B2, .. . , Bk uma partição .do espaço amostral S e seja A um evento associado a S. Aplicando-se a definição de probabilidade .condicionada, poderemos escrever P(BdA) = :L ~(A JB,)P(B;) j = 1 P(A IB;)P(B;) 1: =: 1, 2,. o., k. ~3.5) Este resultado é conhecido como Teorema de Bayes. É também denominado fórmula da probabilidade das ;,causas" (ou dos "antecedentes"). Desde que os B.; constituam uma partição do êspaço amos. trai um, e somente um, dos eventos B; ocorrerá. (Isto ' é, um dos eventos B; deverá ocorrer e somente um poderá ocorrer.) Portanto, a expressão acima nos dá a probabilidade de um particular B; (isto·· é, uma "causa"), dado que o evento A tenha ocorrido~ A .fim de aplicar esse teorema, deveremos conhecer os valores das P(B;). Muito freqüentemente, esses valores são desconhecidos, e isso limita a aplicabilidade do teorema. ,T em havido considerável controvérsia sobre o Teorema de Bayes; ele é perfeitamente. correto matemati- . camcnte; somente a escolha imprópria dos P(B;) pode tornar o .resultado discutível. ~':'·. -, .. 50 I PRQBABIUDAD!: Voltando ao problema proposto a~ima, , ~ agqra , apltca114o a Eq. (3.5), obtemos: P(B IA) 1 . = . (0,02)(1 /2) (0,02)(1/ 2) . .. . _; 'o.4···0· + (0,02)(1/4)+JQ;p4)(JL~) ·.:~ ,.' ~.~ ' Comentário: De novo, podemos encontrar :ó·Tê:or~inâ ~e .Baye~, uma analogia da Química. Em k frascos, temos soluções do cmesino saCporém de concentrações diferentes. Admita-se que o ·volume totaL das ·soluções seja um litro. Denotando por P(Bi) o volume da s~lU:çio do i~êsiino frasco, e a concentração do sal nesse· i-ésimo frasco por P(A lEi), verificaremos que a Eq. (3.5) forneee a proporção da quantidade total do sal que é encontrada; no·i-ésimo frasco. para O seguinte exemplo do Teorema de Bayes nos ·dará uma oportunidade para introduzir a idéia do diagrama de árvore, um esquema bastante útil para analisar determinados problemas. Suponha-se que um grande número de caixas de bombons sejam compostas de dois tipos, A e B. O tipo A · contém 70 por cento de · bombons doces e 30 por cento de bombons .amargos, enquanto no tipo B ·essas percentagens de sabor são inversas. Além disso, suponha-se que 60 por cento de todas as caixas de bombons sejam do tipo A, enquanto as restantes sejam do tipo B. Você agora se defronta com ó. seguinte problema de decisão: uma caixa do tipo desconhecido lhe é oferecida. Você terá. per:inissão para tirar uma amostra de bombom (uma situação reconhecidamente irrealística, mas que nos permitirá introduzir idéias importantes, sem ficar muito complicado), e com esta informação você deve .decidir se adivinha que a caixa que lhe foi oferecida é do tipq A ou se do tipo B. O seguinte "diagrama de árvore" (assim denominado por causa dos vários passos ou ramos que aparecem) nos ajudará a analisar o problema. (Sa sa correspondem, respectivamente, a escouier um bombom de ·saJ:>or doce ou um bombom de sabor amargo.) e I"IROBAB!UDADIE CONDiCIONADA E INDEPENDÊNCiA I 51 i Façamos alguns cálculos: I I I P(A) = 0,6;P(B) = 0,4;P(Sa IJi) = 0,7; . P(Sa I:A) = 0,3;P(Sa IB) = 0,3;1P(Sa IB) = 0,7 . . Desejamos realmente saber: I . I P(A ISa), P(AIS0 ), IP(BISa) e, P(BlSa). · I . I . Suponha-se que realmente ret~remos um bombom de sabor doce. Qual decisão seríamos mais tentados a tomar?· Vamos comparar I P(A lSa) ~ P(BiSa). i' Empregando a fórmula de Bayes, teremos , . I. ' J · · _ P(Sa IA)P(A) P(A ISa)- P($a iA)P€A) + P(Sa IB)P(B) I t:I, ; (0,7)(0,6) 7 =9. (0,7)(0,6) +(0,3)(0,4) i . . . I Cálculo semelhante dará. . j. P(BISai) 'i = 2/9 . . Dessa maneira, baseados na evidência que tivemos (isto é, a tirada de urh bombom de sabor doce) é ~i vezes mais provável que nós estejamos _diante de uma caixa do tipojA, em vez de uma do tipo B. Conseqüentemente, podéríamos presurhlvelmente decidir que uma caixa do tipo A foi apresentada. (Naturalmbnte, nós poderíamos estar errados. A sugestão desta análise é que esta~errios escolhendo aquela alternativa que pareça ·a mais provável, com base na evidência liffiitada que tivermos.) . Em termos do diagrama da ánrore, o que era realme~te necessário (e foi ·feito) era uma análise parai o pas~~do. Assim, dado. o que f?i observado Sa, neste caso iqual a probabilidade de que o tlpo A seJa o envolvido? I. , , . I . ... . Uma situação mais interessante surge, se nos for permitido tirar dois bombons antes de decidir sci se trata do tipo A ou do tipo_ B. Neste casó, o diagrama de árvore aparece ássim: ' · ' . · ·. . -.. I I I I li I 52 I PROBABHUDADE A B [.' · No problema 3.26, você será chamado a decidir de qual dos dois tipos, A ou B, você tirou ·a amostra, na dependência de ·qual seja Óbservado dentre três resultados experimentais possíveis . .3.3. Eventos Independentes Ja·consideramos eventos A e B que não podem ocorrer conjuntamente, ü1to é, A (I B = 0. Tais eventos são denominados mutuamente excludentes, ou eventos incomi>atíveis. Observamos anterior-· mente que se A e B forem mutuamente excludentes, então P(A IB) =: O, porque a ocorrência dada de B impede a ocorrência de A. No outro extremo, temos a situação já estudada, na qual B :,) A e, conseqÜentemente, P(B IA) = L . Em cada uma· das sitúações mencionadas, saber que B já ocorreu nos da · algumà "nforinação bastante definida referente à probabilidade . de ocorrência de A. Existem, porém, muitas situações nas quàis saber que algum evento B ocorreu não tem qualquer interesse quanto à ocorrênciaou não ocorrência de A. Exemplo. 3.6. Suponhamos que um dado equilibrado seja jogado duas vezes. Definamos os eventos A e B, da seguinte forma: A = {o primeiro dado mostra um número par}, Io segundo dàdo mostra um 5 ou 6}. .~ B =<= nm · ~ inttrltivamente compreensível que os evento~ A e B são inteiramente não .relacionados. Saber que B ocorreu não .fornece qualqUer illformação sobre a ocorrência de A. De fato, o seguinte cálculo mostra isso. Tomando como nosso espaço amostral os 36 resul- . . . . IPIROBAIBU.DDlADIE COI\!DiC~OI\!AIDIA ~ H\IDEIPIENIJIÊNCiA I 53- tados igualmente prováveis, considerados no Ex. 3.1, encontraremos que P(A) = 18/36 = 1/2, P(B) = 12/36 = 1/3, enquanto P(A () B) = = 6/36= 1/6~ Conseqüentemente, P(A IB) = P(A () B) f P(B) = = (1/6)/Ü/3) = 1/2. Deste modo encontramos, como seria de se esperar, que a proba- ~ . bilidade absoluta (ou não condicionada) é igual à probabilidade colidicionada P(A IB). Semelhantemente, . P(BjA) = (t) P(lUI A) P(A) - = (f) = 1 3 = . P(B). Daí, pod~rlamos ser tentados a dizer que A e B serão independentes se, e somente se, P (A IB) = P(A) e P(BIA) = P(B). l\fuito embora isso~pudesse ser essencialmente apropriado, existe outra forma de colocar a questão que contorna a dificuldade encontrada aqui, a saber, que tanto P(A) como P(B) devem ser não-nulos para que as igualdades .acima tenham significado. Consideremos P(A () B), supondo que· as probabilidades condicionadas sejam iguais às correspondentes probabilidades absolutas. Teremos: P(A () B)= P(AjB)P(B) = :P(A)P(B), P(A () B). = ['(B IA)P(A) = P(B)P(A). . Desse modo, desde quienem P(A) nem P(B) sejam iguais a zero, verificamos que as probabilidades absolutas serão iguais às probabili.da.des condicionadas se, e somente se,:r--.,e(A () 1J) = .P(A) P(B). Em . : c~mseqüência, formulamos a segú.inte definição, a qual sell.'á tàmbém seja nulo: · . . válida querI .P(A) óu P(B) . . . . Definição: A e B ser.ão eventos independentes se, ·e somente. se, P(A () B) ~ P(A)P(B). (3.6) Comenlário:· EsW. definiçil.o é, essencialmente, equivalente àqQ.ei& I!Ugerida !!.Cima, Sa.ber, que A e B são independentes quando P(B!A) = P(B) e. P(A IB) = = P(A). .Esta. última for!IU!I ·é ligeiramente mais intuitiva, porque diz precisamente o que se t).nha. tentado dizer antes: que A e B ileril.o indePendentes se o conhecimento da. ocorrência de A de nenhum modo infltienciar. a probabilidS.de da . ocorrência. de B. Peio exame do seguinte exemplo, vê-se que a definição formal acima adotadm. apresenta também uma oerta 1atra.çio intuitiva. a Exemplo 3t7.. Consideremos novamente ' o Ex. 3.2. Inicial~ mente examillaremos apenas a tabela abaixo, em que sii.Q forneddÇ>s . 54 I PROBABiLIDADE somente os valores marginais. Isto · é; existem 60 ináqúiiias ·elétricas e 40 manuais, e delas 70 são novas enquanto ao.;sãd usadas. E Nu M I I· 30 7o ~--------~--~ 60 íoo Existem muitas maneiras de preencher as· .casas da tabela; concordantes com os totais marginais dados. · A seguir apresentaremob algumas dessas possibilidades. E llf N u 16: 10 30 40 60 (a) E I 70 N 30 100 u E M I .o 130 30 60 40 40 (b) 70 N 30 . u 100 llf I:: 281 12 40 60 70 30 100 (c) Consideremos a Tab. (.a). Aqui todas as máquirias elétrica8 são novas e todas as ·máquinas usadas são manuais. Desse modo, existe uma conexão óbvia (não necessariâmente causal) entre a característica de .ser elétrica e a de ser nova. Semelhántemente, na Tab. (b), todas as máquinas manuais são novas e todas as· máquina9 usadas são elétricas. Também, uma conexão definida existe entre essas características. No entanto, quando chegamos à Tab. (c), a situaçãO fica bem diferente: aqui, nenhuma relação evidente existe. Por exemplo, 60 . por cento de todas as máquinas são el~tricas, e exatame~te 60 por cento das máquinas usadas são . eÍétricas. Senielhantemen; e, 70 por cento de todas as máquinas são novas, · enquanto exatamente 70 por cento das ·máquinas man1,1ais são novas etc; Portanto; nenh)lma indicação está evidente .de que a característica de "ser nova" e de "ser elétrica" tenham qualquer conexão uma com a outra. Naturalmente, esta tabela foi construída justamente de modo a apresentar essa propriedade. Como foram obtidos os valores. das casas da· tabela? ·Apenas com o .emprego da . Eq~ (3.6); isto é, porque P(E) = 60/100 e P(N) = 70/100, deveremos ter, para independêp.cia, P(E () N) = P(E) P(N) :/42/100. Daí, a .riasa' na tàbela que indique o número de m:áquina~ elétricas novas deverá conter o número 42. As outras casas seriam obtidas de maJlei~a análoga. mai?ria das aplicações, teremos que adotar a hzpôtese de ín,- . de' dois eventos A e B, e depois empregar essa suposição . .. .P(A () B) como igual a P(A) P(B). Geralmente, .,,...,ii;;>~ a-. PROBABILIDADE CQNDICIONADA E INDEPENDÊNCIA I 55 i condições físicas sob as quais q experiment~ seja realizado tornarão possível decidir se tal suposição será justificada ou ao menos aproximadamente justificada. I I Exemplo 3.8. Consideremés um lote grande de .peças, digamos 10.000. Admitamos que 10 pof cento dessas p~ças sejam defeituosas e 90 por cento perfeitas. Duas peças são extraídas. Qual é a probabilidade de que ambas. sejarJ perfeitas? . I Definamos os eventos A e B,, assim: I . A = I a primeira peça -é perfeita}, I . B = Ia segunçla peça é perfeita}. ''<:t. Se adill.itirmos que a primeira Jeça seja reposta, antes que a segunda seja escolhida, então o~ eventoJ A e B podem ser consideràdos independentes e, portanto, P(A. h B) = (0,9) (0,9) = 0,81. Na prática, contudo, ·a ~egunda peça éjescolhida sem a reposição da prim~ira peça; neste caso, .1 P(A n B). = P(E IA)P(A) = ! . 1 999 ~9999 I I I (O 9) ' I que é aproximadamente igual a 0,81. Assim, muito embora A e B não sejam independentes no sebdo caso, a hipótese de independência (que siinplifi~a considerav~lmente os ·~ cálculos) . acarreta apenas um erro desprezível. (Recorde~se o objetivo de um .mod.elo matemático, tal como foi apresentado i na Seç. 1.1.) Se existissem somente poucas peças no lote; cligÍlmos j30, a hipótese de independência teria acarretado um erro grande. . Por isso, torna-se importante · verificar cui~adosamente as condiçõ~s s?b as quais o e~:rimen~q é realizad?, a f1m de estabelecer a validade de uma -supos1çao de mdependênCia . entre os vários eventos. i · . · ..· E,xemplo 3.9. Admitamos) que ,um mecanismo, seja constituído por dois componentes montadosI em série, como indicado na Fig." 3.4. . Cada componente tem uma probabilidade p de não 'funcionar. Qual será a probabilidade de ·que o: mecanismo funcione ? . i -~ . ., Fig, 3.4 I 1!; evidente que o mecanis~o funcionará s'e, e somente se, ambos às componentes estiverem funcionando. Por isso, 1 · Prob (o mecanismo funcione) [= Prob (C1 funcione e C2 funcio11e). I .I I· I . 'j . • 'I ._., ..-.'; .. ·. ".. L 56./ PROBABIUDADE :·.,! A informação fornecida não nos permite continuiJ.r·sem, que , se saiba (ou se suponha) que os dois mecanismos trabalhem mdeperidénteJnimte um do outro. Isto pode, ou não, ser uma sup~siÇão:' r~àlista, dependendo. de como as duas partes sejam engatadas. . Se admitirmos que . ru3 duas partes trabalhem independe~terh~~te, 9 l:ite~e~~~ .· pár,a a · .· · · · · · · probabilidade pedida o valor (1- p)2, · Será importante para nós, estendermos a noção dejndependência para mais de dois eventos. Consideremos, iriicialm~nte, três eventos associados a um experimento, digam~s A, B e C. · Se A e B, A e C, B e C forem independentes doiS a dois (no sentido acima), então não se concluirá, em geral, que não exista dependência entre os três eventos. O exemplo seguinte (um tanto artificial) ilustra esse ponto. Exemplo 3.10. Suponha-se que joguemos dois dados. se os eventos A, B e C da seguinte forma: Definam- A = {o primeiro dado mostra um número par}, B = Io segundo dado mostra um número ímpar ), c = Iambos os dados mostram números ímpares ou ambos mostram números pares} . Temos P(A) = P(B) = P(C) = 1/2. Além disso, P(A () B) = = P(A rt C) = P(B rt C) = 1/4. Portanto, os três eventos são todos independentes dois a dois. Contudo, P(A n B n C) = = O ;é P(A) P(B) P(C). Este exemplo sugere a seguinte definição. Definição . . Diremos que os três eventos A, B e C são mu.tUOr ru3 condições seguintes forem válidas: mente independentes ~e, e somente se, todas P(A n B) = P(A)P(B), P(B rt C) = P(B)P(C) , P (A rt C)= P(A)P(C), P(A rt B rt C) (3.7) = P (A)P(B)P(C). Finalmente, generalizaremos esta noção para n eventos, na definição: se~te Definição. Os n eventos Ah A 2 , •• • , An serão mutu9:,mente independentes se, e somente se, tivermos para k = 2, 3, . .. , n: P(A;1 rt A;2 rt · · · rt A;k) = P(A; )P(A; 1 2) • • • P(A;t)· (3.8) (Existem . ao todo 2n - :n· - 1 condições aí arroladas; veja o Probl. 3.18.) PROBABILIDADE COI\IDiC~ONADA E iNDEPENDÊNCUA / 57 Comentário: Na maioria das aplicações, não precisaremos verificar todas essas condições, porque nós geralmente admitimos a independência (baseada naquilo que conhecermos do experimento). Depois, empregaremos essa suposição para calcular, digamos P(A,, (I A;, (I · · · (I A;k) como P(À;,)P(A;,) · · · P(A;k). Exemplo 3.11. A probabilidade de fechamento de cada relé do circuito apresentado na Fig. a:s é dada por p. Se todos os relés funcionarem independentemente, qual será a probabilidade de que haja corrente entre os terminais L e R?. 1 3 f--l~· 2 _ R 4 f--j Fig. 3.5 Represente-se por A; o evento {o relé i está fechado J, i = 1, 2, 3, 4. Represente-se por E o evento {a corrente passa de L para R). Em consequenCia, E = (A 1 (J A2) U (A3 (J A4). (Observe-se . que AI A2 e A3 A4 não são mutuamente excludentes.) Portanto, n n P(E) = = + P(A1 (J A2) P(A3 (J A,) - P(A1 () A2. n A3 ri A,) p2 p2- p4 = 2p2- p'. + (' o . . Ex~:mplo 3.12. Suponhamos novamente que, para o circuito da Fig. 3.6, a probabilidade de que cada relé esteja fechado é p, e que todos os relés fúncionem independentemente. Qual será a probabilidade de que exista corrente entre os terminais L e R? Empregando a mesma notação do Ex. 3.11, teremos que P(E) ~ P(A1 (J A2) + P(A6) + P(A3 n A4)- P(A1 (J A2 (J As) - P(Al (J A2 ri AJ ri A4) - P (A6 (J A3 () A4). + P(At (J A2 Íl As n A4 () A6) == p2 + p + p2 - p3- p'- p3 + p5 = p + 2p2- 2p3- p' + p~. Vamos encerrar este capitulo com a indicação de uma bastante comum, mas errônea, resolução de um problema. 58 I PROBABiLIDADE Exemplo 3,13 .. Admita-se que dentre seis:pârafusosf 'dois ·sejam menores do que um comprimento ei!pecificado)< ·Se':'d9is'::doi(parafU:7 sós forem escolhidos ~ '.• acaso, qual 's~rá 'Pióoàb\úa:i<Ié:~e . que dois parafusos mais curtos sejam extraídos? . Seja Ai oêveiíto {o i-ési~ mo parafuSo escolhido é curto J, i = 1, 2. a II~.'. ~ !, 1 11 d: os Portanto, desejamos calcular P(Al nA%), . A sohição 'correta é obtida, naturalmente, escrevendo A solução comum, mas incorreta, é obtida escrevendo-se Naturalmente, o importante é que, muito embora a respost.a esteja numericamente correta, a identificação de 1/5 com P(A 2 ) é incorreta~ 1/5 representa P(A2IA 1). Para calcular P(A 2) corretamente, escreveremos 3.4. Considerações Esquemáticas; Probabilidade Condicionada e Independência A abordagem esquemática seguinte poderá se.r útil para compreender a probabilidade condicionada. Stiponhamos que A e B Sejam dois eventos associados a um espaço amostral ·para q]Jal as várias probabilidades estão indicadf s no Diagrama de Venn, dado :ila Fig. 3 .7. o 0,2 !Fig. 3.7 i .. Tem-se P(A = 0,5. n B) = 0,1; P(A) = 0,1 + 0,3 = 0,4 eP(B) .=;= 0,1 + 0,4 = . ' PROBABILIDADE CONDICIONADA E INDEPENDÊNCIA I 59 I I . Em seguida, representaremos asl várias probabilidades pelas áre(ls dos retângulos, como na Fig. 3.8. Exti cada caso, as regiões somhreadas esquerda, estamos representando indicam o evento B: no retângulo A í1 B e, no da direita, A' í1 B. I ' · cti · B' 0,2 0,4 B Agora, admitamos que se deseje sitamos somente considerar A, isto Observamos que a prop.orção de B rificar isso pela aplicaçãb da Eq. (3. = 0,1ÍÔ,4 = .1/4.) Portanto, P(B' I sentando essa probabilidade balcular P (B I A). Por isso, neces- élA' pode ser ignorado no cálculo. A é 1/4. (Poderemo~ também ve-.' : P(B IA) = P(A í1,B) !P(A) = ) . = 3/4, e ,Inosso. diagrama repre-. . , , . . seria dado pela Ffg. 3.9. . 1,0 B' 0,75 o B A' . fig. i ~.9 j / Observe-se, também, que se A fqr dado como tendo ocorrido, toda a probabilidade (isto é, I) deverá se~ associada ao evento A, enquanto nenhuma probabilidade (isto é, O) e:stará associada a A'. Além disso, observe-se que, no retângulo d~ esqu~rda, representando AI somente os v;uores individullis mudaram na Fig. 3.8 para a Fig. 3.9 (cuja soma é 1, , em lugar de 0,4). Contudo, as propor~ões dentro do retângulo permane· ' ceram as mesmas (isto é, 3 :1). ,i 60 I PROBABIUDADIE Vamos também ilustrar a noção de independência; empregap.do a abordagem esquemática introduzida· anterionilente. Supàiiljaljlcis~;qüe A .. e B sejam como indicado na Fig. 3.1 O. Nesse caso; as 'prÇi (e:·,:~qe,s nos dois retângulos, represéntando A e A', são as mesmas: 3:1 fiõ,dois casos. Por isso, teremos P(B) = 0,1 + 0,15 ~ 0,25 e P(B 'A}~ = 0,1/0,4 = 0,25. . . n ~ ~ r ~?'~ j o 0,45 B1 o B' 0,3 B B A' A !Fig. 3.10 I \ Finalmente, observe-se que, simplesmente olhando a FÍg . .3.8, poderemos também calcular as outras probabilidades condicionadas; : P (A I B) = l/5 (desde que 1/5 da área total retangular representando \festeja ocupada por A'); P (~' I B) = 4/5 . . \.problemas ~ 3.1 ;'\ A urna contém x· bolas brancas e y bolas ve~:melhas. A ur.n.a. ·2. con.tém z bol~{>ranca.s e v bolas vermelhas. Uma bola é escolhida ao acaso da 'ur.na ~ e posta na ur"na 2. A seguir, uma. bola é escolhida ao aca,so da urna 2. Qual será a probabilidade de que esta bola seja branca? r' . 3.2. Duas válvulas defeituosas se misturam com duas válvulas pedeita.s. As. válvulas são epsaiarlBs, UillA a uma, até.que amb&S as defeitu~as sejam encontradas. · (a). Ql.lal ~á a -prbbabilidade de que a últirrui. vs.!~l:i. defeiru0S& seia encontrada.no segundo ensaiO?. ' (b) Qual será a prpbabilidade de que a última válvula defeituosa seja encontrada no terceiro. e"D.Sai@ ? ·· (c) .. Qual 9erá a probabilid8.de de !lUe a úl.ltãma vá.!vuia tr.ad.a n.o qu.o.rto ensaio? ' . .. . ·. ·'.(d) Some os 11úmeros obtidos em (a), (b) e (c) aciina. eO:dente? .· -·- - - -·_ __:_ ____________ ~ . defeitu~sa sejae~coa. . O tesultado é surJ?re- .. \ _) PROBABULIOADE CONDICIONADA E INDEPIENDÊNCDA I 61 3.3. Um_a caixa contém 4 válvulas defeituosas e 6 perleitl).S. Duas vil.lvul,as são extr11ída8 juntas: Uffil!. delas é em;aiada e -se verüic~~< ser perfeita. · .QW1l a · idarde de que a outra válvula também seja perfeita? No' problema anterior, as válvulas são verificadas e;xtrai.ndo-se uma v v a ao acaso,, énsaiandoca e repetindo-se o procedimento até q_ue todaS as 4 vá.lvulas defeituosas s_ejam encontradas. Qual .será a probabilidade de que a quarta vá.lvula defeituosa.,seja encontrada: (a) (b) No quinto ensaio,? No décimo ensaio? 3.5. Suponha que A e B sejarn-eventos independentes l).Ssociados a um ex> ;..perimento. Se a probabilidade de A ou ·s ocorrerem fm: igual a 0,6, eJ;Jquanto a. • probabilidade da ocorrência de A fOJ; igual a. 0,4, determine a probabilidade da ocorrência de B. 3.6. Vinte peças, 12 das quais são defeituosas e 8 perfeitas, são inspecionadas uma a pó~ .a outra. Se essas peças forem extraídas ao. acaso, qual será a. probabilidade de que: (a) (b) As duas primeiras peças sejam defeituosas? As duas primeiras peças sejam perfeitas? • (c) Das .duas primeiras peças inspecionadas, uma seja. perfeita e a outra defeituosa? !~ .I .J ,j :I r . 3.7. Suponha que temos duas urnas. 1 e 2, _cada uma· corri duas gavetas. A urna 1 contérn uma moeda de ouro. em uma gaxeta e uma moeda de prata na outra gaveta; enquanto a urna 2 contém uma moed.a de ouro em cada gaveta .. Uma urna é escolhida ao acaso; · a seguir uma _de .=s ·gavetas é aberta ao ~caso.. Verifica-se que a moeda encontrada nessa gaveta ,é de ouro. Qu11l a probabilidade de que a moeda provenha da urna . 2? . 3.8. Um saco contém três' moedas, uma das quais foi cunhada cm;n 'duas caras, enquanto as duas outras moedas são normais e não viciadas. Uma mpeda é tirada ao acaso do saco e jogada quatro vezes, em seqüência. Se sàir cara toda vez, qual se~.á a probabilidade de que essa seja a moeda de duas caras? . · 3.9. Em uma fábrica .de parafusos, as máquinas A, B e C produzem 25, 35 40 por cento do total produzido, respectivamente. Da produção de cada. máqUina, 5, .4 e 2 por cento, respectivamente, silo parafusos defeituosos. Es.colhe-se ao .acaso um parafuso e se verifica. Sf1t defeituoso. Qual será a probabilidade de que o parafuso venha da máquina-A? B? Da C? lll Da - .1. . ( ' Sejam A e B dois eve,ntos associados a- úrll experimento. Su:p.onha que P(A) = 0,4, enquanto P(~ u,.~,~ =;~0,7, . Seja ,P(B)·_:= t :· .. ..____ ·3.10. (a) Para que valor de [ (b) '?• A e . B -serão ~utuai,Dente · excludentes? Para que valor de p, A e B serão mdependentes? 3.11. Três componentes C1, C2 e C3, de um mecanismo são postos em série (em li9!;Ja_reta). Suponha que esses C?JHPOÍ1~ntes sejam dispostos em ordem aleatória. Seja R o evento ( C2 est4 à direhil>d;~ . C1l. e seja S o evento ( C3 está à di~- reita de Cd .. Os eventos R e-S são indep~ndentes? Por ,.qilê? ~ 3.12. Um dado é l ançado e, independentemente, uma carta é extrafda de um bara.lho completo (52 cartas). Qual será a probabilidade de que: III' li !j 62 I PROBABiLIDADE ···. _ ' . ! •· i! (a) O dado mostre um número par . e a , c~t~ta ~~ja A~ ,Uffi-,·Jil~ip~;\Y,em:Ellbo? !! !I ~1 ,, ;,: q: 3~ ~~on:::: :::::e:::s::t:í:~â~::11sà:t:.~jgii~fj~t~f\l;:~oo: exemplo, 1011, 1100 etc.) Esses núrn~rós têrri i!1J:p,~r~~~WP.ll~~i! ~~ .~~t4[i~~o de computadores eletrônicos. Suponha que um iilíxn~ró'';})iriário.'<sei~~:!?izrtil(lO' de n dígitos. Suponha que a probabilidade de úrli -dígito ilrtotrêtdi'ii:li'â:r~cet'seja P e que os erros em diferentes dígitos sejam independentes i.im\ .'âo~ · Ói.itros. ''Qual ·. :' .. será a probabilidade de formar-,se um nú171:ero incorr.e to? .· . .: . 'I ~i l !! " i' ,, li 3.14. Um dado é atirado n vezes. . reça ao ID.eno~ uma. vez em n jogadas! :• !1 :I 3.15. Cada uma de duas pessoas j~ga três rnoe~as eq~liÚbr;das. · Qual é a probabilidade de que elas obtenham o mesmo número de carS:.S ?. . " . .. 'I 1: li 11. 3.16. Jogam-se dois dados. Desde que as faces mostrem números diferentes, qual é a probabilidade de que urna face seja 4? ii:j li ,J I! Qual é a probabilidad~ de que "6" apa··,.· ·· _.) 3.17. Sabe-se que na fabricação de um certo 11rtigo, defeitos. de um ' tipo .ocorrem com JJiobabilidade 0,1 e defeitos de outro Úp(; com probabilida'de · Õ,Ó5. Qual'l'será a probabilidade de que: i . a.rtig~ ~o tenha .a~b<)s os tii>os de defeitos? Um ãrtigo 'aéja defeituos'o? - · · -- .' . - (a) Um ! (b) (c) u~ artigo' ~e"nha ~~nas·,irn.c~q--~a'rJefcl~o: _,_ ______ __ sabido que"é defeituoso? I 3:18. Ve.rifique que o núm.ero de condições impostas· pela Eq, (3.8) é dado por 2n- n- 1. lI A e ! i 3.19. Demonstre que, se A e B forem eventos independentes, também o serão, Ii, A e B, A e Ii. . . . . I i,. !.;. r 3,20. Na Fig. 3.ll(a) e (b), suponha que a probabilidade ~e que cada relé esteja fechado seja p, e que cada relé seja aberto ou fechado independentemente um do outro. Em cad~ CMo, determine a probabilidade de· que a corrente pas.se de L para R. · · · I I I (b) (a) fig. 3.11 3.21. DuM ·máquinas A e B,· sendo operadas independentemente, podem ter alguns desarranjos cada dia. A Tab. 3.2 dá a distribuição de probabilidades dos desarranjos· para cada máquina. Calcule M segUinte!) probabilidades: (a) A e B tenham o mesmo número de desarranjos. , (b). O nli.rooro total de dsstln':IDjos seja menor que 4; me~~.or que 5 .. ..· ! • ·f:'ROBABIUDA DE CONDICIONADA IE iNDEPENDENCIA . I I 63 I (c) A tenhà mais desarranjos que B . f· (d) B tenha duas vezes mais desarranjos que ·A . . (e) B tenha 4\!iesarranjos, quando se li saiba. que B ,iá tenha tido 2 desarranjos. U) o número mínimo de desarranjos ~as - duas máquinas . seja 3; seja menor do que 3. (g) O JILúmero má.ximo de desarranjos das máquinaS seja 3; seja maior que 3. I Tab. 3.2 I Número de desa.rranjós o 1 2 A 0,1 0,2 0,3 B 0,3 0,1 0,1 I se~do 3.22. 1-, . i ·f 5 6 0,09 0,07· 0,04· 0,1 0,15 0,15t P(~ Verifique pelas Eqs. (3.2) que, A flxo, IA) satisfaz aos váriO!! da probabilidade. 3.23.. Se cada eleinento de um determinante d~ segunda. ordem for zero ou um, qusJ será a probabilidade de que o jvaior do detenrunante seja positivo? . (Admita que· os elementos do dete_rminante jsejam escolhidos independentemente, a cad_a valor se atri,buindo a probabilidade ~/2.) . post~os ,, 4 I . . 3.24. Verifique que o teorema da multiplicação P(A n B) = P(A I B)P(B), estabelecido para dois eventos, pode ser estkndido para três eventos, da seguinte maneira:. .I , . . "- _, P(A (JB C)= P(AIB C)P(BIC)P(C). n \ .... .· . n ) 3.2~ Uma montagem eletr.ônica é fonilada de dois subsistemas A e B. De \iiro~meQ.tos de ensaio anteri9re8, as· seg uintes probabilidades . seradmitem co1 nhecidaS~ j· P(B falhe 8o::inho) P(A falhe) = 0,20, P(A e B falhem) i= 0,15, • . Cllllcule as seguintes probâbilidades: , . I B .teiilia . ·, ,falhado). . (a) P(4. falhe . .. /" I. ·' I II . . ·' :=0,15. . (b) P(A falhe sozinho). .. 3.26. Conclua à análise do exemplo djldo na Seção 3 .2, pela decisão de qual dos dois tipos de caixa de bombons, A ou B, foi apresentada, ba~eando-5e na evidêncià·dos dois bombons que foram tiradÓs na amostra.· " I , é! · 3.27. Sempre que um experimento realizado, a ocorrência de um particu1ar evento A é igual a 0,2. O experimento é repetido independentemente, até que A ocorra. Calcule a proba~ilidade de qu~ seja necessário levar a cabo o experimento até a quarta vez. : ·· 3.28. Suponha que .um equipamento 1possua N v.ílvulas, todas necessárias para seu funcionamento. A fim de localizar uma válvula com mau funcionamento, faz-se a substituição de cada válvula: sucessi~amente, por U)Ila '?Ílvula nova. Calcule a probabilidade de que seja necessário trocar N válvulas, se a probabilidade (constante) de uma válvula estar desarranjada por lp. · I. ! 3.29. Demonstre:SeP (A I B) >P (A), então,P (B I A) >P (B) . .I I I 64 I IPROBABHUDADE 3.30. Uma válvula a vácuo pode provir de três fabricantes, com probabilidades p, = 0,25, P 2 =. 0,50 e p 3 = 0,25. As probabilidades de que, ·durante determinado período de tempo, a válvula funcione bem são, respectivamente, 0,1; 0,2 e 0,4 para cada um dos fabricantes. Calcule a probabilidade de que uma válvula escolhida ao acaso funcione bem durante o período de·tempo especifiiido. . . . : 3.31. Um sistema elétrico é composto de dois comutadores do tipo A, um do tipo B, e quatro do tipo C, ligados como indica a Fig. 3.12. Calcule a probabilidade de que uma pane no circuito não possa ser eliminada co~ a chave K, se os comutadores A, B e C estiverem abertos (isto é, desligados) com probabilidades 0,3; 0,4 e 0,2, respectivamente, e se eles operarem independentemente. \ ' i 1 Fig. 3.12 3.32. A probabilidade de que um sistema fique sobrecarregado é 0,4 durante cada etapa de um experimento. Calcule a probabilidade de que o sistema deixe de funcionar em -três tentativas independentes do experimento, se as probabilidades de falhas em 1, 2 ou 3 tentativas forem iguais, respectivamente, a 0,2; 0,5 e 0,8. ··.~ 3.33. Quatro sinais de rádio são emitidos sucessivàmente._Se a recepção de cada uni for 'independente'·d~ recepção de outí:o, e se .essas probabilidades forem 0,1; 'b,2;0.,3 e o,4;respectivamente, .calcule a probabilidadé de que k sinais venham a ser recebidos pàia: k;,; 0', 1; 2, 3, 4. ' 3.34. A seguinte (de algum modo simplória) previsão de tempo é empregada por um amador. :0 tempo, diariamente, é classificado como "seco" ou "úmido", e supõe-se que a probabilidade de que qualquer dia dado seja igual ao dia anterior seja uma constante p (0 < p < 1). Com base em registras passados, admite-se que 1? de janeiro tenha probabilidade {3 de ser dia "seco". Fazendo f3n = probabilidade (de que o1 n-ésimo dia do ano seja "seco"), pede-se obter uma expressão para 13n em termos de {3 e de.p. Calcule também limn..., "" f3n. e interprete o seu resulta· do [Sugestão: Exprima f3n em termos de 13n _ 1-J 3.35.. Três jornais A, B e C são publicados em uma cidade e uma recente pesquisa entre-_9'S leitores indica o segufute: 2Q por cento ~êem ;i; 2Q., PO! CeJ:lt<2_ -lêem B; 14 por cento lê~m ,C; 8 por ce!ltO lêem A e\8._;_5,. pot.cento lêem A ·-e Ç; .2 porceflt? lêem A, f1 e. Ç; ~ 4p_:por .cento lêe~B,~ ~f]ara um adulto .esco!hiêlo' ao acaso; calcule a probabilidade de que: (a) ele não leia qualquer dos jornais; II ·I II .J, I'ROBAIBDUDADE CONDICIONADA E iNDEPENDÊNCIA I 65 (b) ele leia exatamente um dos jornais; (c) ele leia ao menos A e B, se se souber· que ele lê ao. menos um dos jornais publicados. 3.36. Uma moeda equilibrada é jogada 2n vezes. (a) Obtenha a probabilidade de que ocorrerá um igual número de caras e coroas; ( b) Mostre que a probabilidade calculada em (q_)__,,uma função decrescente de n. 3.37. Cada uma das n umas: Urna 1, Urna 2, ... , Urna n, contém a bolas brancas e fi bolas pretas. Uma bola é retirada da Urna 1 e posta na Urna 2; em seguida, uma bola é retirada da Urna 2 e posta na Urna 3, e assim por diante. Finalmente, uma bola é retirada da Urna n. Se a primeira bola transferida for branca, qual será a probabilidade de que a última bola escolhida seja branca? Que acontece, se n _, co? [Sugestão: Façapn = Prob (a n-ésima bola transferida seja branca) e exprima Pn em termos de Pn _ 1·l 3.38. A Urna 1 contém a boias brancas e fi bolas pretas, enquanto a Urna.2 contém fi bolas brancas e a pretas. Uma bola é extraída (de ·uma das umas) e é em seguida reposta naquela uma. Se a bola extraída for branca, escolha a próxima bola da Urna 1; se a bola extraída for preta, escolha a próxima bola da Uma 2. Continue a operar dessa maneira. Dado que a primeira bola escolhida venha da Urna 1, calcule Prob (n-ésima bola escolhida seja· branca) e também o limite dessa probabilidade, quando n _,. oo. 3.39. Uma máquina impressora pode imprimir n letras, digamos a 1, ci 2 ·, ••• , "'n- Ela é acionada por impulsos elétricos, cada letra sendo produzida por um impulso diferente. Suponha que exista uma probabilidade constante p de imprimir a letra correta e também suponha independência. Um dos n impulsos, escolhido . ao acaso, foi alimentado na máquiria duas vezes e, em ambas, a letra a 1 foi impressa. Calcule a probabilidade de que o impulso escolhido tenha. sido para imprimira1 . 1l II i ! I 1 I·i !; ' Variáveis Aleãtórias Unidimensionais · Capítulo 4 4.1. Noção Geral de Variável Aleatória Ao descrever o espaço amostral de üm experimento, ·não especificamos que um resultado individual necessariamente seja um nú:.. mero. De fato, apresentamos alguns exemplos nos quais os resultados do experimento· não eram uma quantidade numérica. Por exemplo, ao ·descrever uma peça manufaturada, podemos empregar apenas as categorias "defeituosa" e "não defeituosa". Também, ao observar a temperatura durante o periodo de 24 horas, podemos simplesmente registrar a cwva traçada pelo termógrafo. .Contudo, em muitas situações experimentais, estaremos interessados na mensuração de alguma-coisa e no seu registro como l.iin número. Mesmo nos casos menci.onados acima, poderemos atribuir um número a cada resultado (não numérico) do experimento. Por exemplo, podererp.os atribuir o valor um às peças perfeitas e o valor zero ·às defeituosas. Poderemos registrar a temperatura máxima do ·dia, ou a temperatuTa mínima, ou a média das temperaturas máxima e mínima. Os exemplos acima são bastante típicos, de uma classe muito geral de problemas: em muitas situações experimentais, desejamos atribuir um nú-mero real x a todo elemento 8 do espaço amostral B. Isto é, x = X(8) é o valor di) uma função X do espaço amostral no espaço dos números reais. Com isto em mente, formulamos a seguinte definição. Definição. Sejam S um experimento e S um espaço amostral associado ao experimento. Uma junção X, que associe a cada elemento 8 E 8 número real, X(8), é denominada vari.ável aleat6ria. um Comentários: (a) A terminologia acima é um tanto infeliz, mas é tão universalmente aceita·, que não nos afastaremos dela. Tornamos tão claro quanto . possível que X é uma funçao, e contudo, a denominamos uma variável (aleatória)! VARIÁVEIS AlEATÓRIAS UNI DIMENSIONAIS I 67 pod~ (b) E evidente que nem toda funçãt imaginável ser considerada uma variável aleatória. Um requisito (embora_hão seja o mais geral) é que, para todo · número real x, o evento [X(s) x] e,p-~a t.odo intervalo/, o evento [X(s)E/] têm probabilidades bem definidas, con~stentes com os axiomas básicos. Na maioria das aplicações, essa dificuldade não surge e nós não voltaremos a ·nos referir a ela. = I I . (c) Em a.lgunias situações, o resultado \1: do espaço amostral já eonstitui ,a .caracterlatics num~ca . que desejamos li reíiistrar. \ Simplesmente tomaremoa X(s) = s, a função 1dentJ.dade. _ (d) Na maior parte de nOSBI!. sub5eqii:ente exposição sobre vo.riáveis aleatórias, não necessitaremos indicar a natur~za funcional de X. · Geralmente, estaremos interessados 'tios valores po~veis d~ X, mais do que de onde el~ se originam. Por exemplo, suponha-se que atiremos duas moedas e considéremos o es~ paço associado a este experimento. · Isto! é, S . = {HH, HTi TH, TTI. - I · Definamos a variável aleatória da seguintfi maneira: X é o número de caras (H) obtidas nas duas moedas. Daí, X(HH) = 12, _X(IIT) = X(TH) = 1 e X(TT) =O. S = espaço ! = amostral de ·& llx valores possívei~ de X . i I - Fig. 4 .1 1 I (e) 11: muito importante . compreende~ uma. exigência fundamental de uma função (unívoca) : A cada sES coi:respohderá exatamente um valor I X(s). Isto I. . está apresentado esquematicamente na Fig. 4.1. Diferentes valore 1s de s podem levar ao mesmo valor de X. Por exempJolr na ilustração acima, verificamos que X(HT) = X(TH) = 1. . , - I - . ·o espaço Rx, conjunto de tod~ os valores possíveis de X, é algumas vezes denominado contradc'minio. De certo modo, poderemos considerar Rx como um outro ~aço amostral. O espaço amostral (original) S corresponde ao reshltado (possiv~l:m:!mte não-l'lumérico) do experimento, enquanto Rx léo espaço amostral·,IJSSOCiado à variável aleatória X, .representand4 a característica numérica que nos poderá interessar. Se for X(s), = s, tererrl.os S ::= Rx. . Muito embora estejamos prevezUdos do perigo didático inerente a dar muitas explicações para umÁ mesma coisa, 'vamos salientar que püderemos pensar em u:ma.. variá.t el aleatótia :X, de du~ maneiras: (a) Realizamos o ·experimento 1E que dá um regultado sES; a seg;,.ir cal~ulamos o número X(s). ! 68 / PROBABIUDADE (b) Realizamos 8, obtemos o resultado ~.e (imediatamente) calculamos X(s). Neste caso, o número X(s) é~;>ensado éo~o ovr6prio resultado do experimento e Rx se toma o .espli,ÇO amost~al do ·. . ·· -' experimento. A diferença entre as interpretações (a) e (b) é percebida com · dific1,1ldade; é relativamente secundária, mas me1;ecedora de, atl~nção. Em (a), o experimento essencialmente. termina com a obs~rvação de s. · · A avaliação de X(s) é considerada alguma coisa qile é feita poste- .· 'riormente, e que não é influenciada pela aleatoriedade de 8. Em · (b), o experimento não é considerado concluídO ·até que o ni1mero X (s) tenha sido realmente calculado, desse modo se originando o e.Spaço amostral Rx. l\iuito embora a primeir~ interpretação, (a), seja aquela ·geralmente pretendida, a segunda interpreta'ção, (b), poderá ser muito útil e o leitor deverá lembrar-se dela. Aquilo que estamos dizendo, e isso ficará cada vez inais claro nas seções posteriores, é que no estudo das variáveis. _aleatórias estaremos mais interessados nos valores que X toma do qlle em sua forma funcional. Conseqüentemente, em muitos casos, ignoramos completamente o espaço amostral subjacente no qual X pode ser definido. Exemplo 4.1. Suponha-se que uma lâmpada tenha sido posta em um soquete. O experiment,o será. considerado terminado quando a lâmpada se queimar. Qual será um possível resultado, s? Uma das maneiras de descrever s seria apenas registrar o di'a e a ho_ra em que ' a lâmpada se queimou, por exemplo: 19 de maio, 16 h e 32 min. Em conseqüência, o - espaço am~stral poderia ser rep~e~entado por S = {(d, t) Id = dia, t = momento do dia). Presu~iyelmente, a variável alpat6ria que interessa é X, a duração até queimar. Ob~er­ ve-se que, uma vez que s = (d, t) tenha sido observado, o cálculo · de X(s) não inçlui qualquer aleatoriedade. Quando s é especificado, X (s) fica completamente determinado. As du~. interpretações explicadas acima -podem ser aplicadas a este exemplo, como se segue. Em -(a), consideramos o experimento terminado Cdm a observação S = (d, t), O dia e a hora. 0 cálculo de X(s) é realizado -depois, abrangendo um& operação aritmética simples. Em (b),_ consideramos que o experimento somente estará terminado depois que X(s) tenha sido calculado · e um,... número; por exemplo, X(s) = 107 horas seja então considerado o resultado do exi>erimento. Pode-se salientar . que análise semelhante se aplicaria a qualquer outra variável que interessMSe, por exemplo, Y(s), a temperatura da sala no momento em que a lâmpada se tenh& queimado. VARiÁVIEUS ALEATó,~ IAS UNiDRMENSiONAiS I 69 ( ' Exemplo 4.2. Três moedas são atiradas sobre a mesa. Tão ·iogo as moedas repousem, !!), !fase / 1aleat6ria" do experimento tenni_lllOU. Um resultado simplea 8 poderia consistir ~a descrição deta: lhada de como e onde as moedas pousaram. · Presumivelmente, estaremos oomente intereesados em certas características numéricas. · •ciadas a este experimente. Por exemplo, poden2.mos avaliu: X(s) Y(s) Z(s) número de caras que apareceram, distância máxima entre duas moedas quaisquer, distância mínima das moedas a um bordo qualquer da mesa. Se for a variável X que interesse, poderemos, como se explicou no exemplo anterior, Íncluir a avaliação de X(s) na descrição de nosso experimento ·e, depois, simplesmente afirmar que o espaço amostral associado· ao experimento é {0, 1, 2, 3), correspondendo aos valores de X. Conquanto muito freqüentemente venhamos. a adotar esta interpretação, é importante compreender que a contagem do número de caras é feita depois que os aspectos aleat6rios do experimento tenham terminado. · Comentário: Referindo-nos a variáveis aleatórias, empregamos quase sem exceção ~etras maiúsculas, como X, Y, Z etc. Contudo, quando falamos do valor que essas variáveis. aleatórias tomam, usaremos, em geral, letras minúsculas, como x, y, z etc. Esta é uma distinção muito importante a ser feita e o estudante pode bem parar para considerá-la. Por ·exemplo, quando nós falamos em escolher uma pessoa ao acaso, de alguma população designada, e medimos sua altura (em centímetros, por exemplo), poderemos nos referir aos resultados possíveis como uma variável aleatória X. Poderemos então formular várias questões sobre X, como indagar se P (X;;, 60). No entanto, uma vez que tenhamos escolhido uma pessoa e medido sua altura, obteremos um valor específico de X, digamos x. Por isso, não teria sentido indagar se P (x;;, 60), uma vez que x é ou não é ;;, 60 . Esta distinção entre uma variável aleatória e seu valor é importante e nós voltaremos a fazer referência a ela. Quando estivermos interessados nos eventos associados a um espaço amostral S, verificaremos a necessidade de examin~r os eventos relativamente à variável aleatória X, isto é, subespaços do contradomínio Rx. Bastante freqüentemente, certos . eventos associados a S são "relacionados" (em um sentido a ser explicado) a eventos associados com Rx, na seguinte forma: I Sejam um experimento 8 e seu espaço amostral S. Seja X uma variável aleat6ria definida em Se seja Rx seu contradomínio. Seja Bum evento definido em relação a Rx, isto é, B C Rx. Definição. 70 I PROBABILIDADE Então, A será definido assim: (4.1) A= {8 E SjX(s) E B) . Explicando: A será constituído por todos os resultados em S, para os quais X(s) E B (veia Fig. 4.2). NesÍe c~o, direnios que A e B são event08 ~qu.ivalenle8. Fig. 4.2 Coment6,rios: (a) Dizendo a mesma coisll, com :inenos rigor: A Ei B serão equivalentes sempre que ocorram juntos. Isto é, quando A ocorre, B ocorre; é inversamente. Porque se A tiver ocorrido, então um resultado 8 :terá ocorrido, para o qual X(li) E B ~~ portanto, B ocorreu. Reciprocamente, se B ocorreu, um valor X(s) terA sido observa<;lo, para .o qual 8 EA e, portanto, A, ocorreu. . . . {b) É impÓrtante ·compreender que, -'em ·l1~ssa defuriçA~ ·evcmtoS equivalentes, A ·e B sãCI associados .a espaços amostrais diferentes. . . ·de Exemplo 4.3. Considere-se a jogada ·de duas moedas. Dai, S = •I HH, HT, TH, TT}. Seja X ·o número de carp.s ob'tidC>-. Por·t anto, Rx = {O, 1, 2}. Seja B = {1}. Já que X'(IIT) = X('I'Il) =··.11 se, e somente se, X(s) = 1; temos que A= IIIT, THj é·equiva:lenteaB. Agora, daremos a seguinte importante definição. Definição. Seja B 1im evento no ·contra:dO'l'IlÍnio Rx. caso, definimos P(B) da seguinte maneira P(B) A C = P(A), onde A= Is E SJX(s) EB}. Nesse (4;2) Explicando: Definimos P(B) igtl.al à pro·babilida:de do evento S, ;o q\~al é equivalente a B, no sentido ·da Eq. (4.1). Ccnnentár (qs : (a) Estamos ·admitindo que probabilidaacs possam ser associadas a. eventos ·em S. Portanto, a. definição acima. torna possível atribuir .probabilidades a ev-entos associados a Rx em termos·de probabilidades·definidas sobreS. (b) É realmente possível demonstrar ·que P(B) deve ser definida tal como . e fizemos. Contudo, isto envolveria algumas dificuldades teóricas que desejamos evitar e, por isso, procedemos ·como acima. (c) Desde que na formulação ·da Eq. (4.2) .os eventos A e B se referem a. espaços amostrais diferentes, deveríamos realmente empregar notaÇão diferente ·qJ:ando. nos ·referíssemos a probabilidades definidas sobre S ·e àquelas ·aefinidaa .s 9bie Rx, digamos alguma. coisa tal como P(A) e Px(B). No entanto, .não .fare- VARIÁVEiS ALEATÓRIAS UNDIOIMENSIONABS I 71 I mos isso, mas continuaremos simplesmeJep•escrever .P(A.) e P(B). ·o contexto em que tais expressões apar"'çam tornará lcÍara a interpretação. · (d) As probabilidades associadas a eventos ~o .espaço amostrai (original) S são, de 'certo modo, determinadas por "{orças .fora de nosso controle", ou como às vezes se diz :•pela. Natureza". A comppsição de uma fonte radio~iiva •que erniW. partfculas, a dmpos1ção de um grande numero de pessoas ·que façam éhamaàa!l ·origem a 'Um fluxo telefónicas durante certa hora, e a agit~ção térmica que ·ou as condições atmosféricas que dêein ofigem a urna tempe5tade, ilustram esse aspecto. Quando introduzimos. uma variável aleatólia X e seu··contradomfnio Rx estl!,rnos induzindo probabilidades nos ev~ntos associados a ·'Rx, as quais serão estritamente determinadas se as probabiliclades associadas a ·e~entos em S forem especificadas. aê I ' I Exemplo 4.4. Se as moedas consideradas 'llQ Ex. . 4:3 -forem "equilibradas", teremos P(HT) = P(TH) = 1/4. Poft;a'Il'OO, P(HI', TH) = 1/4 + 1/4 = 1/2. (Os cálculos acima são m:ria. lt!onsequência direta de nossa suposição fundaxrlental referente à :propriedade ·de equilíbrio ou simetria das moedas. Visto que ·o evento ·I X = 1}' é equivalente ao evento {HT, TH}, empregando Eq. (4.1); teremos. que P(X = 1) == P(HT, .TH) = l/2JI [Na. realida:de não 'e:lciste escolha para o valor de P(X = 1) .. coeren~e com a Eq.. (4.2), uma ·vez que P(HT~ ·Til) tenha sido determinada. 1l': neste sentido que probabi.!idades associadas a eventos de Rxj são induzida.'l.l ii a 1 Comentário: Agora qúe jil. -esta:belecebos a existência de ·uma funl,li!.o ·de probabilidade indozida. sobre o contradomiJio de X- Eqs. (4.1 ·e, 4.2)achamos . . I . .. conveniente .l!Jlprimir a natureza. 'funcional de X. Por isso, escreverein!ls ·(como fizemos no ·e~plo ·acima) P(X = 1) = 142. O que se quer dizer é que, um certo evento no ·espsço amostral S, a saber ·(HT, THI = (s}!X(s) = 11 •ocbrre com probabilidade 1/2. Da.! atribuirmos ·essa m~sma probabilidade, ao ·evento (X = 11 no contradom!U:ió. · Continuaremos a escr~ver expressões sernelha.n~s a P(X = 1), . I . P(X ~ 5) etc. t muitc imporlánle para o I,eitor compreender o que essas expressões reslm:ente representam. I . I I Uma v.ez que as probabilidad~s associadas aos vááos resultadoe (ou eventos) :no contradomin:io R~ tenham sido determinadas (mais precisamente, induzida.S), ignor.arbmos freqüentemente o espaço amostral original S, que deu orige~ a 'essas probabilidades. Assim, bo exemplo anterior, ·• simplesmepte estaremos inter~ssados em Rx = ' {O, 1, 2} e as probabilidaqes assCJciad'as (1/4, 1/'i, 1/4). O fato, de que ·essas probabilidades s~jam determinadas por uma função . de probabilidade definida ~obre o! espaço amostral original s, não nos interessa, quando estamos ap:enas interessados em estudar os valores da v~riável aleatória X. I Ao apresentar, em minúcias, lrmito~ dos importantes con:tieitos ·referentes a variáveis aleatórias, J julgamos conveniente distinguir 1 72 I I'ROBAB!UDADE dois casos importantes: as variáveis aleatórias discretas e as variáveis aleatórias contínuas. 'De}z"-nição. Seja X uma variável aleatória. Se o número de val ores possíveis de X (isto é, Rx, o. contrado:riúnio) for finito ou infinito n umerável, denolninaremos X de variável aleat6rja discreta. Isto é, os valores possíveis· de X, podem ser postos em lista como x 11 ·x2, . ... , Xn. No caso finito, a lista acaba, e no caso infinito ntiínerável, a lista continua indefinidamente. Exemplo 4.5. Uma fonte radioativa está eMitindo partículas a. A. emissão dessa.s partículas é observada em um dispositivo contador, durante um período de tempo especificado. A variável aleatória seguinte é a que intere3sa: X = número de partículas observada{~. Quais são os valores possíveis de X? Admitiremos que esses valores são todos os inteiros não negativos, isto é, R.Tt: = (O, 1, 2 . .. , ·n, . .. }. Uma obje~ão com que j ~ nos defrontamos uma vez pode, novamente, ser levantada neste ponto. Pode-se argumentar que durante um es- , pecificado intervalo (finito) de tempo, é impossível observai· mais. :. do que, digamos N partículas, onde N pode ser um inteiro positivo muito grand~. Conseqüentemente, os valores possíveis para X realmente seriam: O, 1, 2, . .. , N. Contudo, torna-:se matematicamente ·mais simples considerar a descriÇãO idealizada feita .acima. De fato, sempre que adniitirmos que os valores possíveis de unta variável aleatória X sejam infinito numerável, estaremos realmente considerando uma: representação idealizada de X. À yista de nossas explicações anteriores da descrição prob~bi­ lística de eventos com um ,número finito ou infinito numerável de elementos, a descrição prol?abilística d~; uma variável aleatória discreta não apresentà.rá quakruer dificuldade. Procederemos da seguinte maneira: Definição. Seja X uma, variável aleatória discreta. "Portando, Rz, o contradomínio de X, será formado no máximo por Um número infinito numerável de valores x1, x 2 ,. • • A calla poss[vel resultado x' associaremos um número p(xi) = P (X = x;), denominado probabilidade de . x;. ·Os .números p(x;), .i = 1, 2, . . . devem satisfazer às . VAR!ÃVIEOS ALIEAlJ"Ó~QAS UI\IIDiilfiiEI\ISOONA!S I 73 seguintes condições: (a) p(x;) ~ O para todo i, (b) L"' p(x;) = 1. (4.3) oi=l A função p, definida acima, é denominadajun;ão de probabilidade (ou função de probabilidade no ponto) dá.' V!i.riável aleatória X. A coleção de pares [.r;, p(.ri)], i= 1, 2, ... , é. algumas vezes denominada distribuição de probabilidade de X. Comentários: (a) A escolha. particular dos números p(x;) é presum!Velmentedeterminn.da a partir. do. função de probabilidade associada. aos eventos no espaço Fig. 4.3 amostral S, no qual X. seja definida. Isto é, p(x;) = P[s IX(s) = :r;]. [Veja as Eqs. (4.1 e 4.2).] Contudo, já que es tamos interessados apenas nos valores de X, isto é, Rx, e as probabilidades IISSociadas a. . estes valores, estaremoS novamente suprimir,c:lo _a. natnre~a fun.cional de X. ·. .(Veja a Fig. 4.3.) Muito embora, tia. maioria dos casos, os números sejam de fato determinados a partir da distribuição de probabilidiules em algum espaço amostral subjacente s, qualquer conjunto de números p(:í:i), que satisfaçam às Eqs. (4.3), pode servir comi:> descrição proba.billstica apropriada de uma variável aleatória discreta. (b) Se X tomà.r apenas um número finito de : valores, digamos XlJ ••. ,xN, então p(x;) = O para i > N, e1 portanto, a série infinita na Eq. (4.3) se transforma em uma soma finita. (c) Podemos salientar, novamente, uma análogia com a Mecânica, ao considerarmos a massa total de uma. unidade distribuída sobre a reta real, com a massa total concentrada nos pontos x 11 X2, . . . Os ·números p(x;) representam a quantidade de massa localizada. no ponto x;. (d) A interpretação geométrica (Fig. 4.4) de uma. distribuição de probabilidade é freqüeritemente útil. p(x) 111 I ii Fig. 4.oll J ~x 74 I PROBABIUDADIE Seja Bum evento associado i variável aleatória X; isto é, B C Rx (Fig. 4.5). Suponha-se, especificamente, que B = I x,;1, x;w .. }. Daf, P(B) = ..f'[s!X(s) E B] (porque esses eventos são equivalentes) :::, P[s!X(s) = x;i'j = 1, 2, ... ] . = . f:p(r; ). i=l ....1 (4. 4) Explicando: A probabilidade de um evento B é igual à iíoma das probabilidades dos resultados individuais aSsociados com . B. Comentários: (a) Suponhamos qué a variável aleatpria disereta X possa tomar somente um número finito de vàlores, X 1 , ... : ; Xfif. Se os resultados forem igualmente prováveis, então teremos obviamente p(x,) == ... = p(xN) = 1/N. (b) Se X tomar um número infinito numerável de vàlores, então é impossível ter todos os valores igualmente prováveis; porque · não poderemos satisfazer à condição . :E oo p (xi) = 1, se tivermos p (xi) = c para todo i. z= 1 , (c) Em todo intervalo finito, existirá no máxi:Íno um número finito de valores possíveis de X. Se algum desses intervalos não contiver qualquer desses valores possíveis, nós atribuiremos a ele probabilidade zero. Assim, se Rx = = [x,, x2 , ••• , Xnl e se nenhum xiE [a, b],entãoP [a"" X"" b] =O. ExemjJlo 4.6. Suponhamos que urna vái~Ià' eletrônica . seja posta em um saquete e ensaiada. Admitiunos que a ·p:robabilidàde de que o teste seja positivo seja 3/4; daí, á p~ob~bilid~e _dé que s~2 ja negativo é igual a 1/4. Admitamos também que estej~os ensai:. ando uma partida grande dessas válvulas. ensaios : ~ontinuam até que a primeira vál~la positiva apareça. Definàmqs a variável aleatória, assim: X é o n,úmero de testes · neÚss.ârios para con- . cluil' o experimento. O espaço amostral associado ·a este experimento é: Os s ==: I+, - +, - - +, - +, ... }. Para determinarmos a dist~il:>uição. de probabilidáde de X, racioClp.aremos da seguinte forma: os valores possíveisde X são 1, 2, . .. n, •..• (estamos, obviamente, tratando com um espaço amostral idealizado). E será X = n se, e somente se, as pri:!neiras (n - l), válvulas forem negatjvas e a. '(.1.-ésima válvula for positiva. Se aceitarmos que a condição ·de 1Uill1 váLvula não influencie a condição de 'outra, poderemos escrever p(n) == P(X = n) ( 1)n-l.(43) , = 4 n = 1, 2, .. •; VARIÁVEIS ALEATÓRIAS UNIDIMENSIONABS 1 75. II -- Para verificarmos que esses valores de p(n) satisfazem à Eq. (4.3) observaremos que \ ' · L.. n=l p(n) = -3 ( \1 + -41 + -161: + · · ·) 4 1 3 i1 =-~ -- = . 1. , 4 1\-_!_ . 4 I. -I ' Comenl.árw: I Estamos empregand6 aqui o resultado de que a. série gpomélrica 1 +r+ r+ ... çonv~rge para _1.'(1 ~) sempre q~e· \r I < 1. ~ste é lUD resultado que será menciOnado mu1las vezes. Suponha-se que ,deseJemos calcular · P(A), onde A 6 defini.d.o como: 10 exphimento termina. depois 'd e um nú!l;leco paJ: de repetições.! Empregando n. Eq. (414); teremos~ t- P(A) = .. I L p(2ni = 71=1 i I1 3 = .2_ + 2_ 16 256 1 + · ·· ' 3 I 1 -:16 (1 +: ~ + .. ·) = 16 --~- = 5 . 1 - 16 i I 4.3. A Distribuição Bi.nomial\ Nos prmamos capítulos, estJdaremos pormenorizadamente algumas variáveis discretas importantk Agora estudaremos apenas uma delas e, em seguida, a empregar~mos para ilustrar alguns conceitos importantes. \ . ! ~eças ,~e l~nha Exemplo 4.7. Suponha que saiam uma de produção e sejam classificadas como defe~tuosas (D) ou como não-defeituosa~ (N), isto é, perfeitas. Admita que três dessas peças, da produção de um dia, sejam escolliidas ao acaso e Classificadas de acordo com esse esquema. O espaço amostral para es~se experimento, S, pode ser assim, apresentado: iI . I . •I S = {DDD, DDN,DND,NDD,NND,NDN,DNN,NNNJ. . I I . . (Outra maneira de descrever s ,é como s = s 1 X Sz X s3' o produto cartesiano de St, S 2 e S3, onde c~daSi = {D,N}.) Suponhamos que seja 0,2 a probabilidade de uma peça sér, defeituosa e 0,8 a de ser não-defeituosa. A4rnitamos q~e essas probabilidades ' 76 i PROBABUUDADIE sejam as mesmas para cada peça, ao menos enquanto durar o nosso estudo. Firialmente, admita-se que a classificação . de qualquer peça em particular, seja independente da classificação de qualquer outra peça . . Empregando essas suposições, segue-se q~e as probabilidades associadas aos vários resultados do espaço ariwstral S, como se explicou acima, são: (0,2) 3 ' (0,8)(0,2) 2 ' (0,8)(0,2) 2 ' (0,8)(0,2) 2 ' (0,2)(0,8) 2 ; (0,2)(0,8) 2 ; (0,2)(0,8) 2 , (0,8) 3 . Geralmente, nosso interesse não está. dirigido para os resultados .individuais de S. Ao contrário, desejamos tão-somente cànhécer qiuzntas peças defeituosas seriam encontradas . (não interessà:ndo . a ordem em que tenh'am ocorrido). Isto é~ desejamos estudar a variáv~l aleirtóriaX, a qual atribui a cada resultado s e S o número de peças defeituosas encontradas em s. Conseqüentemente, o conjunto dos valores possíveis de X é {0, 1, 2, 3}. Poderemos obter a distribuição de probabilidade de X, p(xi) = = P(X = xi), .da seguinte maneira: X = O se, e somente se, ocorrer NNN; X = 1 se, e somente se, ocorrer DNN, NDN, ou·NND; X= 2 se, e somente se, ocorrer DDN, DND, ouf!DD; X = 3 se, e somente se, ocorrer DDD. (Note-se que {NNN} é equivalente a {X= O} etc.) Ent'ão, p(O) = P(X =O)= (0,8) 3 p(l) = P(X = 1) = -~ (0,2)(0,8) 2 , p(2) = P(X = 2) = 3(0,2)2 (0,8), p(3) =P(X = 3) = (0,2) 3 • Observe que a soma dessas probabilidades é igual a 1, porque .a soma pode ser escrita como igual a (0,8 + 0,2) 3 • Comentdrio: A explicação dada ilustra como as probabilidades em um contradomínio Rx (neste caso {0, 1, 2, 3}) são induzidas pelas probabilidades defmidas sobre o espaço amostral S. Porque a hipGtese de que os oito Í esultados de S = {DDD, DDN, DND,NDD,NND,NDN, DNN, iiNN} tenham as probabilidades daçlas no Ex. 4.7, determinou o valor de p(x) para todo x e Rx. VARIÁVEiS AlEATÓROAS UI\!DD!MIENSOONAHS I 77 Vamos agora generalizar as noções introduzidas no ex. anterior. Definição: Consideremos um experimento E e seja A algum '"evento associado a E. Admita-se que P(A) = p e conseqüentemente P(A) = 1 - p. Considerem-se n repetições de E. Daí, o espaço amostral será formado por todis as seqüências passiveis I a1, á2, . . . , an I, onde cada a; é ou A ou A, dependendo de que tenha ocorrido A ou A na i-ésima repetição de E. (Existem 2n dessas seqüências.) Além disso, suponha-se que P(A) = p permaneça a mesma para todas as repetições. A variável aleatOria X será assim definida: X = número de vezes que o· e-vento A tenha ocorrido. Denominaremos X de va- · riável aleatória binomial, com parâmetros n e p. Seus valores possíveis são evidentemente O, 1, 2, ... , n. (De maneira equivalente, diremos que X tem uma. distribuição bmoinial.) As repetições individuais de E serão denominadas Provas de Bernouilli. Teorema 4.1. Seja X uma variável binomial, baseada em n repetições. Então, P(X = k) = ( ~) p '(1- Pt-lc, 1 k =O, 1, ... , n. (4.5) Demonstração: Considere-se um particular elemento do espaço amostral de S satisfazendo à condição X = k. Um resultado como esse poderia surgir, por exemplo, se nas primeiras k repetições de E ocorresse A , enquanto nas últimas n- k r~petições ocorresse A, · isto é, AAA· · · AÃAA· ··A. k n-· k Como todas as repetições são independentes, a probabilidade desta seqüência particular seria plc(l - p)n-k, mas exatamente essa mesma probabilidade seria associada a qualquer outro resultado para o qual X = k. O número total de tais resultados é igual a {~), porque deveremos escolher exatamente k posições (dentre n) para o evento A. Ora, isso dá o resultado acima, porque esses (~) resultados são todos mutuamente excludentes. ·........ · 78 I PROBABILIDADE Comentários: (a) Para verificaJ' nO!lflO resultado, . ~bªervemos que empre. >· gando o teorem,a binomial temos . .. · I:~~o P(X = k) = Lk=O m pk(l ~ p)n~~ =; [p + (1 '- p)]n = "1" = 1, como era de se esperar. · Como as probabilidÍld~ '(k) pk(f:...:. p)ii-k obtid&S . pelo desenvolvimento da expressão binomial[p (i C:: p)];.;/eí'a+ecelle a deri'omi~ nação de distribuição binomial. . ' · . São + (b) Sempre que realizarmos repetiÇões indep.eridentes_' de uni:experiinento e estivermos interessados somente em uma dicotOmia- defeituoso ou nãc:i-def.eic tuoso (perfeito).; dureza acima ou abaixo de certO padrão;, nível.,de ruído em um sistema de comwúcações acima ou abaixo de ~~ limiar ,pr~estab~lecido ~ estaremos virtualmente tratando com um espaço amostrai nÕ qual podemos definir uma. variável aleatória binomial. ·Enquanto as con:diçÕes da experimentação permaneçam suficientemente · estáveis, · .de· modo que a probabilidade de . algum atributo, digamos A, permaneça constante, poderemos empregar modelo aciina. o (c) Se n for pequeno, os termos individuais da distribuição binomial serão r~:lativamente fáceis de calcular. Contudo, se n for relativamente grande, os cálculos se tornam bastante incómodos. Felizmente, foram preparadas tábuas. de probabilidades bin01piais; existem várias dessas tábuas. (Veja o . Apêndice.) Exemplo 4.8. Sup@ha-se que uma válvula eletrônica, instalada em determinado circuito, tenha probabilidade 0,2 de funcionar mais do que 500 horas. Se ensaiarmos 20 válvulas, qual será a probabilidade de que· delas, exatamente k, funcionem mais que 500 horas, k = o, 1, 2, ... ' 20? P(x) I 'I L-~0-+1~2~3~4~5~~6-!7~8~9~1~0~1~1~1~2~13~14~15~16~1=7~1~8-x I Fig. 4.6 Se X for o número de válvulas que funcionem mais de 500 horas, admitiremos que X tenha uma distribuição binomial. Então, P(X = k) = CZ2) (0,2)!<(0,8)= 0-k. Os valores podem ser lidos na Tab. 4.L . . Se marcarmos os valores dessa distribuição, obteremos o gráfico apresentado na Fig. 4.6. A configuração que observamos aqui é bastante· geral. As probabilidades binomiais crescem monótonica. mente, até que atingem um valor máximo e, depois, decrescem monotonicamente. (Veja o Probl. 4.8.) ~ ~ - I - . VARBAVIEISA!l.EATORIAS UI\IDDIMIENSiOI\IAIS I 79 I Tab. /4.1 I P(X = O) = 0,012 I P(X = 1) = 0,058 P(X = 4) = 0,218 . I . P(X = 5) = 0,175 P(X = 2) = 0,137 P(X = 6) = P(X = 3) P(X = 0,205 I 0,~09 = 7) = o,pss P(X ;, 8) = 0,022 P(X '= 9) = 0,007 P(X == 10) = 0,002 P(X = k) = o+ para k ~ 11 (As probabilidades restantes são meilores do que 0,001.) I I Exemplo 4.9. Ao operar det~rrninada máquina, existe alguma probab-ilidade de que o operador qa máquina cometa um erro. Po~ de-se admitir, razoavelmente, que ;o operador aprenda, no sen~,ido dç que . decresça a probabilidade de cpmeter um erro, se ele usar repetidamente a máquina. Suponha que q operador faça n tentativas e que as n repetições sejam estatisticamente ipdependentes. Suponhamos, especificamente, que P (um erro ser cometido na i-ésima repetiçã<;>) = 1/(i + 1), i = 1, 2, . .. , n. Admitamos que /se pretendam 4 tentativas (isto é, n = 4) e defmamos a variável aleatória X como o número de operações da máquina, executadas sem erro. NJ ote-se que X não tem distribuição binomial, porque a probabilidade de "sucesso" não é constante. Para calcular a probabilidade jde que X = 3, por exemplo, procede-se do seguinte modo: X = 3 se, e somente' se, houver exatamente uma tentativa mal sucedida. -Isto ~ode ocorrer na prin~eira, segunda,terceira ou· quarta tentativas. Portanto, 1 I . . . 1 2 3 4 ~ 1 3 4 1 2 1 4 ~x=m=----+~---+----+ . 2 3 4 5 ~ 3 4 5 2 3 4 5 1 2 3 1 5 +z-345= iz· I I Exemplo 4.10. . Considere-se ruma situação semelhante à.quel11, · apresentada no .Ex. 4.9. Agora, !admitiremos que exista uma probabilidade constante p 1 de não cmpeter um erro na máquina, dura~te cada 'uma das n 1 tentativas, e urra probabilidade constante p~ ~ P1 de não cometer um erro em cada uma das n2 .repetições:subseqüentes . . Seja X o número de operações be~ sucedidas da máquina durante as n = n 1 n 2 tentativas independe? tes: Vamos procurar a expressão geral de P(X = k). Pelo mesmo rp.otivo dado no exemplo precedente, X não tem distribuição binomial. i Para obter P(X = ik), procede-se qa seguinte maneira: ' I · Sejam Y1 o número de operações corretas 'durante as primeiras n 1 tentativas, · e Y2 o número dei· operações corretas· durante as n2 tentativas s~bseqüentes. Portantp, Y 1 e Y2 são variáveis aleatórias independentes e X = _Y 1 Y 2• 1 Assim, X = k se, e somente se, + + I 80 i PROBABILIDADE . Y1 =r e Yz = .k- r, para qualquer inteiro r ql).e satisfaça às condições O ::::; r S n1 e O ::::; k - r ::::; n 2• As restrições aciina, sobre r, são eqUivalentes 'a ·o: : ; r .:5 n1 e k - n2 ::::; r ::::; k. Combinando-as, põdérêmb~ es~re'v~rmáx. (O, 'k ~ - nz) ::::; r S mín. (k; ni)., Portanto, teniinci~ Com nossa convenção usual de que (b) = O sempre qu~ b b < O, poderemos escrever a probabilidade acima como . P(X= k) = > a ou T~ (~1) p~(l- PI)nl-'r(k ~r) p;-r(l-' P2)"2-k+r (4.6) P or exemplo, se P1 = 0,2, P2 = 0,1, n1 = n2 = 10 e k bilidade acima fica, depois de um cálculo direto: Comentário: Sup.onha-ose que p 1 = P2· = 2, a proba- Neste . caso, ii; Eq. (4.6) se reduz a p~ (1 - pi)n-k, porque agora a .variável aleatória X tem . uma dist~ibuição binomiaL Para verificar que é a.Ssim, note-se que poderemos escrever, (desde · (k) que n1 + 112 = n): P(X = k) =· p~(l- p 1)n-k ~ (~1 ) (k~ ,.) Para verificar que a SQ~~ acima é igual a (~), bast& comparar os coeficien~ d as potências de xl,; .ehi ambos os membros da idéntidade (l +. x)n 1 (1 + x)" 2 ~ = (1. + x)nl+n2. ··4.4. Variáveis Aleatórias Conttífl'lluas Suponha-se que o · contradonúnio de X seja formado por um número finito muito grande de val~res, digamos todos OS . valores X no intervàio O ::::; x i, da forma: O; 0,01;. 0,02; ... ; 0,98; 0,99; 1,00: A cada um · desses valores .está associado um número não-negativo p(x.) ;, P(X =:= Xi), i.= 1,· 2,·: .. , cuja soma é igual a 1. Esta operação está represen~ada geometricamente na !"ig. 4. 7. . - s VA.RO Á VEUS A. LEA.TÕR8A.S UN8Dii\liEN SDONA.iS I 81 J á. salientamos anteriormente que poderia ser matematicamente ma.iB fácil idealizar a apresentação probabilística de X, pela suposição de que X pudesse tomar P!ll) t<Jdos os valores possíveis, O ~ x ~ 1. Se fizermos isso, que acontecerá às probabilidades no ponto p(x;)? Como os· valores possíveis de X não O I são numeráveis, não podemos realmente falar do i-ésimo valor de X, e, por isso, p(x;) se torna sem sentido. O que faremos é substituir a função p definida somente para x 1 , x 2, • •• por uma função f definida (neste conte:do) para todos os valores de x, O ~ x ~ 1. As proprie1 dades da Eq. (4.3) serão substituídas por j(x) ~O e fo f(x)dx = 1. Vamos proceder formalmente como se segue. kJmw Iiliiillli., Definição: Diz-se que X é uma variável aleatória contínua, se existir uma função t, denominada função densidade de probabilidade (fdp) de X que satisfaça às seguintes condições: (a) f(x) ?>O para todo x, · (b) I+ ~ f(x ){lx = 1, - 00 . (4.7) . (c) p~a quaisquer a, b, com - oo <a< b < + oo, teremos (4.8) P (a<X<b)=Jg f(x)dx. Comentários: (a) Estaremos essencialmente dizendo que X é uma variável aleatória contínua, se X puder tomar todos os valores em algum intervalo (c, d), onde c e d podem ser-~ e+~, respectivamente. A existência estipulada de uma fdp constitui um artifício matemático, que possui considerável apelo intuitivo e torna nossos cálculos mais simples. Em relação a isso, também devemos salientar que, quando supomos que X seja uma variável aleatória contúma, estamos tratando com uma descrição idealizada de X. (b) P(c <X< d) representa a área sob a curva no gráfico da Fig. 4 .8, da fdp f. entre x = c ex = d. J(x) ='+-----..,:.: X=C ir=d 82 I PROBABILIDADE (c) Constitui uma conseqüência da descrição probabilfstica de.. X, acima, que, par& qualquer valor especificado de X, di~~s ~; · téciíiri~·P(X = Zo) ' = O, porque P(X = xa) = j(x) dx = O. Este rooult~o ~~ecer ~clto contrário à. nossa intuição. Contudo, . devemos compreender que se permitirmos que X tome rodos os valores em algum Intervalo, então a pr.obe.bili<lade zero.não é equivalente à impossibilidade. Por issO, no caso contínuo, P(A) = O não implica · ser A = 0, o conjunto vazio. (Veja. o Teor. 1.1.) Explicandc) ias:> •ménos rigorosamente, .considel"EHle a escolha de um ponto .ao .se~ento de reta {xj O .:S x.:S 2l. Muito embora. possamos ~ta.r desejosos em concordar (para objetivos matemáticos) que cada.. ponto imagiml.vel no segmento posSa. ser resultado de nosso experimento, ficaríamos completamente surpreendidos qu~nto ii. isso, sa de. fato escolhéssemos precisamente o ponto médio do segmento ou · qualquer outro ponto especificado. Quando expressamos isto '.em ling'uagetn . matemática rigorosa., dizemos que o evento tem "probabilidade líerÕ". Tend~ em vista. essas obaerve,ções, 88 seguintes probabilidades serl!.o todas iguaiiJ, se X for uma va.riá~el aleatória contínua: · · . pode, Jz;o aéaso,:nó P(c5. X 5. d), P(c 5. X< d), P(c <X 5. d), e P(c <X< d). (d) Apesar de não verificarmos aqui os detBlhes, pode-se mostrar que easa atribuição de probabilidades a eventos em Rx · sa.tisfa.Z aos ·axiomas básicOs. da probabilidade [Eq. (1.3)1, onde poderemos toiiU!.l" {zl - "' < x < ·"'I como · nosso espaço amo&ti:al. + (e) Se uma função r satisfizer às condiÇões j'; (z) ~ O para todo x, e r (:z;) dx = K, onde K é um número real positivo (não necessiuiamente igilal a 1), então r não satisfaz a todas as condiÇões para ser uma fdp. No entanto, poderemos fácilmente definir uma nove. função, digamos J, em termos de r. ll&,lim: f_+.,"" j(z) = JO(z) K para todo x. Em conseqüência, f se.tisfad, a todas as condiÇões de uma fdp. (f) Se X tomar valorea somente em algum intervalo rmito [a, b], poderemos aimplesmente pôrj(x) = O para todo z EE [a, bl. Em conseqüência, · a. fdp ficam definida para todoo os valores ree.is dez, e poderemos. exigir quef_f;.,"" j(x) dx=r. Sempre que a fdp for especificada somente para determinados valores de z, deveramos supor que seja zero em todos os demais. (g) J(x) não representa. 111 probabilidade de coisa alguma! Anteriorm!)nte j& salientamos que, por exemplo, P(X = 2) = O e, conseqüentemente, f(2} certa.mente nl!.O representa easa. probabilidade. Somente quando a função for integrada entre dois limites, ela produzirá uma. probabilidade. Poderemos, contudo, dar uma interpretação dej(x)t:.x, da: seguinte maneira: Bo teorema do valor médio, em Cálculo, tem-se, que P(x 2 X 2 x + tu) = i z+L'>z j(s) ds = l:.xj(~), · VARIÁVEIS k lEATÕRBAS UNIDIMENSIONAIS l 83 .i + Se D.x for pequeno, f(x) D.x será aprd,ximadamente igual a P(x ~ X~ x D.x)·. (Sef for contínua à direita, esta aproxitnação se tornará mais exata quando D.x->0.) (h) Devemos novamente salientat que a distribuição de probabilidade (neste caso a fdp) é induzida em Rx pela probabilidade s~bjacente associada com eventos I . em S. Por isso, quando escrevemos P(c < X < d), queremos significar como sempre P[c < X(s) < d], que por sua vez! é igual a P[s 1 c < X(s) < d], já que esses eventos são equivalentes. A definição anterior, Eq. (4.8), estipula essencialmente a existência de uma fdp f definida sobre Rx tal que . P[,j« X[•) ~~ - 1' J[•) d>. I Novamente suprimiremos a natureza funcional de X e, por isso, trataremos so. I . . mente com Rx e a fdp f. (i) No caso contínuo, também !poderemos considerar a seguinte analogia com a Mect1nica: Suponha-se que tembs uma massa ·total de uma unidade conttnuamente distribuída sobre o intervalo a~ x ~ b•. ' Nesse caso, f(x) represe~ ta J:d f(x) dx representa a massa total contida a densidade de massa no ponto x e no intervalo c ~ x ~ d. I .:f . ,.; , ~ -~ l ·.! · I Exemplo 4.11. A e~istêncial de uma fdp foi admitida na exposição de uma variável aleatória cont~ua. Vamos considerar um . exemplo simples, no qual poderemos facilmente determinar a f~p, fazendo uma suposição apropriada sobre o corp.portamento probabilístico da variável aleatória. Suponhamos que -~m ~onto_ s~ja e~~ollúdo n~ interv~o (O,l). Representemos por X a vanavel hleatona cuJpvalor seJa a absc1ssax do ponto escolhido. I Supor: Se I for qualquer intervalo em (0,1), então Prob [X E I] · I será diretamente proporcional ao cumprimento de I, digamos L (I). Isto é, Prob [X E I]= kL(I), oJde k é a constante de 'proporcionalidade. (É fácil. verificar, tomando-se I = (0,1) e observando-se .que I L :[(0,1)] = 1 e Prob [X E (0,1)] = 1, que k = 1.) . , Obviamente, X toma todos , os valores em (O,l).' Qual é sua fdp? Assim, podemos encontrar uma fynção f tal que I P(a<X < b) = f b f(x')dx? j a Note que, se a<b<Ooui1<a<b,P(a<X<b)=Oe,porisso,f(x) = O. Se O< a<; b < 1,,P(a<X < b) = b- a e, conseqüentemente,[(x) = 1. Portanto, encontramos . I 1,0<x< 1 , 1 f(x)= { . , . · O, para qfrusquer outros valores. 84 I PROBABBUOAD_E Exem,plo 4.12. Sup~nhamos que a variável a.Ieatótia X ·seja (Veja a Fig. 4.9.) Seja ·a fdp j dada pO~· contínua. 2x, . j(x) o, 0< x < 1;' para quaisquer outros valores . . Evidentemente, .j(x) ~O e. f_+,"" j(x)dx = fo~'!-xdx ::_ i. · Para calcular P(X.;;;; 1/2), deve-se apenas calcular a integral fo 112 (2x)_dx = 1/4. f(x) J(x) "'--- L---~----------+--Qx X= Fig. 4.9 1500 Fig. 4.10 O conceito de probabilidade condicionada, explicado no Cap. 3, pode ser significativamente aplicado a variáveis aleatórias: Assim, no exemplo acima, podemos calcular P( X :::; X :::; } )·· Aplicando-{le diretamente a definição de probabilidade condicionada, teremos i I-} : :; p ( X < _!_I _!_ - 2 ~ X < _3_) = p ( t : :; X :::; +) p (l. < X < _3_) 3 - 3 3 - - 3 . f~)~ 2x dx 5(36 1/3 fi)~ 2x d:c 5 = n' Exemplo 4.13. Seja X a duração da vida (em horas) de um certo tipo de lâmpada. Admitindo que X seja uma variável aleatória contínua, suponha-se que a fdp j de X seja dada por j(x) = a/x 3, 1.500 :::; x :::; 2.500, = O, para _q uaisquer outros valores. (Isto é, está se ~tribuindo probabilidade zero aos eventos {X < 1.500} e {X > 2.500} .) Para calcular a constante recorre-'§e à condição . f_"', j(x) dx = 1, que neste caso se torna fr_~ggo (a/x 3 )dx = 1. Dai se obtém a = 7.031.250. O gráfico de j est~ apresentado na Fig. 4.10. Em capítulo posterior estudaremos, pormenorizadamente, muitas variáveis aleatórias importantes, tanto discretas como contínuas. a,. VARIÁVIEIS ALEATÓRIAS UNDDDMIENSIONAHS I 85 Sabemos, de nosso emprego de modelos determinísticos, que certas funções gozam de papel _mais importante que outras. . Por exemplo, as funções linear, quadrática, exponencial e trigonométrica têm papel vital na .explicação de modelos determinísticos. Ao desenvolver modelos não-determinísticos (isto é, probabilísticos) verificaremos que certas'Ovariáveis aleatórias são de notável importância. 4.5, Função de Distribuição Acumulaw'la Vamos introduzir outro importante conceito. geral, neste capítulo. Seja X uma variável aleatória, discreta ou continua. a função F como .a junção lk distribuição. acumulada da· variável - aTeatóJ;iá X (abreviadamente indicada fd) como F(x) ,;, = P(X ~ x). Definição. Def~ne-se Teorema 4.2. (a) .Se X for uma variável aleatória discreta L p(xi), F(x) = (4.9) j onde o somatório é estendido a todos os índices j que satisfaçam à condiÇão Xi ~ x. (b) Se X for uma variável aleatória contínua com fdp j, F(x) = '\ Demonstração. J: (4.10) f(s)ds. Ambos os resultádos decorrem imediatamente da definição. ! .j •_.·!' ;-:;· Exemplo 4.14. ~<G.P'bnhamos que a variáyel aleat~~a X tome os três valores O, 1 e'2; com probabilidades 1/3, 1/6 e 1/2;)respectivamente. Então, · ·.. . 1 F(x) = o 1 =3" .1 2 = 1 se x <O, se O$ x se 1 ~ < 1, x < 2, se x ;::: 2. (Obse~e-se que é muito intportante indicar a inclusão ou a exclusão dos limites, na descrição dos diversos intervalos:) O gráfico de F está apresentado na Fig. 4.11 . ! . ! í ; . .,' l 86 I PROBABILIDADE ' Ftx) ik--_, I I 3. 2 • x· ·.. . IFiPJ. 4.11 Exemplo 4.15. com ·ídp Suponhamos que X seja uma variável I d !' j(x) 2x, O< c~mthma x < l, O, para quaisquer outros valores. Portanto, a fdp de Fé dada por j F(x) = O se, x::::; O, I [o" I 1! 2s ds se O< = x2 • x::::; 1, . i lsex>l. r O gráfico está apresentado na Fig. 4;12. ~ li F_(x) j I I 1 Ijt I! 1j ·i! '1 li-. ',':·_ . :I I !j.·-. 11- :.1 'I! li lj fig. 4.12 Os gráficos· apresentados nas Figs. 4.11 e 4.12 para as fd são, em cada caso, bastante típicos, no seguinte sentido~ (a) Se X for uma variável aleatória discreta, com um número finito de valores possíveis, o gráfico da fd será constituído por segmentos de reta horizontais (nesse caso, a fd se denomina função ém degraus). A função Fé contínua, exceto nos valores possíveis de X: x 1 , ••• ,xn, ... No valor xi o gráfico apresenta um "salto" de magnitude p(xi) = =P(X=xi). . . (b) Se X for uma variável aleatória continua, F será uma funÇão continua para todo x. · (;!('l'Jiil i VARIÁVEIS ALEATÓRIAS Ui\IIDIMENSIONA8S i I . . I 87 (c) A fd Fé definida. para. todok os valores de x, o que é um motivo importante para considerá-Ia. Existem duas ou_tras importantes propriedades da fd, que re"·· sumirem~s ~oc'"teore~aseguiiite: , ... I _ ? , I .. Teorema 4.3. (a) A função P é não-decrescente Isto é, se x1 ~ x2, teremos F(xi) ~ F(x2). ! -~- -(b) lilllz-+- mF(x) = O e lim.:~ .. F(x) = 1. [Freqüentemente, escrevemos isto como F(- oo) = O e F("") = 1.1 • 1 ! Demonstração: (a) De(inamol:! os eventos A e B, assim: .A = I X ~ xil, B = 'I X ~ i2l - · P~rtanto, como xi ~ i2, teremos A C B e, ,pelo Teor. r.5, P (A) ~ ~ P(B), que é o resultado d~sej~o. (b) .N.o caso continuo, teremo~ : F(- "".) = ' z-+CD ·> I ,. •\: _ Jlt-.-~~~']{8)'âir-[,~: F("") . =;: 1J No .caso discreto, o raciochuo é · 1-"' f(s) _ds = 1, ' - GD an~ogo. ,. . A função de _distribuição ( ac~mulada) é importante por ·muitas razões. Isto é particularmente verdadeiro quando tratarmos com uma variável aleatória contúma, porque nesse caso não poderemos estudar' o comportamento probabilístico d~ X através do cálculo de P(X = x). Aquela probabilidade é sempre igultl a zero no caso contínuo. Contudo, poderemos indagar de P(X ~ x) ·e\ como demonstra ó teorema seguinte, obter a fdp de X . J I Teore:ma 4.4. (a) Seja F a i fd de urna variável aleatória con- Id tínua, com fdp j . Então, f(x) = iax F(x), ! para todo x no qual F seja derivável. . I . (b) Seja X uma variável aleatória dis<:reta, com .. valores possíveis xi, x2, . .. , e suponha-se qu.e jesses valores tenham, sido indexados de mooo que XI < X2 < .,.. SeJa! F a fd de X. EntãO, p(xi) = . P(X I = xJ)! I F(xi)- F(xh). Demonstração: (a) F(x)=P(X ! ~ x) = f_-"'= j(s) ds. ' cando-se o teorema fundamental !do Cálculo, :obteremos . I "• (4.12) . Por isso, apliF'(x). = . j(x) . 88 I 'f"ROBABDU D A DIE (b) Como admitimos < x 2 < ... ; teremós' .; · Xr F(x;-) = P(X = = p(j) Xj U X= x;-- 1 \j ;'; ·Ü'X = x;) .· + p(j - i). .+. -:·:·+ ·' pcir ·· . ·: ,, .. E F(Xi-cl) = P(X = ·• . ' ' '; ·.• :' ;·~) . ;' ·~ u X =. ~f-;2 u ... u + p(j....,. 2) + :. :+.p(l); - Xj-1 = p(j- 1) X = XI) Portanto, Comentário: Vamos rtisumidamente recon~i~~rar apart~ Ú)dÓTeor~ma 4.4. . ·· · Recordemos a definição de derivada de uma funÇão F: ·· · F(x)= = lim F(x+h)-F(x) h-+ o h P(X < x +h)- P(X.;; x) lim h-" o+ h = lim - 1- [P(x<X<x+h)]. h-'> o+ h Portanto, se h for pequeno _ll-positivo, / F' (x/~ f(x)'- P(x <X< x +h) h Assim,f(x) é aproximadamente igual à "quantidade de.probabilidade no intervalo (x, x + h) pelo comprimento h". Daí o nome função densidade de probabilidade, ~r---~. Exemplo 4.16. Suponha-se que uma variável aleatória contínua tenha a fd F dada por F(x) Kesse caso, F'(x) O, x ~ 0, 1- e-, x >O. = e- para x > O, e, por isso, a fdp será dada por j(i) = e-z, = O, X;::: 0, para quaisquer outros valores. Camenlário: É oportuno dizer uma palavra. fi11al sobre a terminologia. Esta terminologia, muito embora ainda não uniforme, tornou-se bastante· p-adronizada. Quando falamos da distribm'çllo de probabilidade de uma variável aleatória X, nos referimos à s_u a fdp se ·x fõr contínua, ou à sua fun~ão de probabilidade no ponto, p, definida para x 11 x~, ... se X fõr discreta. Quando falamos da função de distribuição acumulada, ou algum~ vezes apenas junçao de distribuição (ou função de repartição),queremos sempre nos referir aF, ondeF(x) = =P(X<x). . li VAR~ÃVIEOS Al!EATÓRIAS Ui\! iD iMIENSIONA~S 4.6. ~ I 89 IDJistribuições Mistas Restringimos nossa explanação tão-somente a vanaveis aleatórias que sejam discretas ou contínuas. Tais variáveis são certamente as mais importantes nas aplicações. Contudo, há situações em que poderemos encontrar um tipo misto: a variável aleatória X pode tomar alguns valores diferentes, digamos xh . .. x., com probabilidade n.ã.o-p.ula, e também tomar todoo os valores em algum intervalo, digamos a :::; x :::; b. A distribuição de probabilidade de tal variável aleatória seria obtida pela combinação das idéias já examinadas na descrição de variáveis aleatórias discretas e de contínu.as, ·como se verá a seguir. A cada valor x, associa-se um número p(x;) tal que p(x;) ~ O p.a ra todo i, e tal que L~=l p(x;) = p < l. Em seguida, defme-se uma função j, satisfazendo a j(x) ~ O, fab .j(x) dx = 1 - p. Para todo a, b, com - oo <a < b < + 00 , P(a <; ·<;X<; b) = fab f(x) dx + L p(xi). Desta maneira, aten{i:a<xi<b} deremos à condição P(S) = P(- oo < X < oo) = 1. . i \ Uma variável aleatória de tipo misto p~d~ria surgir da maneira explicada a seguir. Supónha-se que estejamos ensaiando algum equipamento e façamos igual .a X o tempo de funcionamento. Em muitos problemas, ·descreveremos X como uma variável aleatória contínua, com valores possíveis x ;:::=: O. No entanto, podem surgir situações nas quais exista uma probabilidade não-nula de que a peça não funcione de modo algum, isto é, falhe no momento X= O. Nesse caso, desejaríamos modificar nosso modelo e atribuir uma probabilidade p > O ao resultado X = O. Conseqüentemente, teríamos P(X = O) = p e P(X > O) = I - p. Deste modo, p descreveria a distribuição de X no ponto O, enquanto & fdp j descreveria a distribuição para valores de X > O. (Veja a Fig. 4.13.) j{JI) l'(X=O)=p .I 1 Fi!l). 4.14 4.7. Variáveis Aleat6riaJs \\Jniformem®nte Distribuídas ( " Nos Caps. 8 e 9, estudaremos minuciosamente muitas variáveis aleatórias discretas e contínuas importantes, Já introduzimos a i'-i :: ... I _,. , ·' 90 I PROBABILiDADE importante variável aleatória binoiniaL V~os ; âg6rii exaíninar, resumidamente; uma importante variável a.Ie'atória cohtinua. . . ·' '·. :.:,:, ....~ .. : ~- . ' ·. ' : ; -~ . Definição. Suponha-se que X seja uma varl~v~iáleat6ria contínua, que tome todos os valores no intel'Valô [ii;' b], 'lio 'qual a e b sejam ambos finito/~.fdJLde .X-f~por) · /(x) = b ~- . . [ . ·\ a ' a ~- x~}~ (4.13) • / "/ = O, para ,g,uru:squer Qutros yalores, .diremo.s '~-----·------------· que X é uniformemente distribuída sobre o intervalo [ci, :91. (Veja a Fig. 4.14.) Cvmentários: (a) .Uma· variável aleatória · uniformemente distribuída. tem uma fdp que é constante sobre o intervalo de definição. A fim de satisfazer à condição f_+, m j(x) dx = 1, essa constante deve ser igual ao inverso do compri- mento do intervalo. (b) Uma variável aleatória uniformemente distribuída representa o análogo contínuo dos resultados igualmente pro~áveis, no seguinte sentido. · Para qualquer subintervalo [c, d], onde a:::_ c < d :::_ b, P(c :::_ X:::_ d) é a ~msma para todos os subintervalos que tenham o mesmo comprimento. Isto é, P(c :::_ X:::_ d) = f.. d c d- c j(x) dx = - . - .-· .b ... ·a ·, e, por isso, depende unicamente do comprimento do intervalo . e nã'o da posição desse intervalo. ·· (c) Agora podemos tornar mais precisa a noção intuitiva de e3colher ao aca..o· i~tervalo [a, ·b]. Por isto simplesmente quetémos dizer que a coordenada x do ponto escolhido, digamos X, é uniformemente distribuída sobre ~a, b]. um p<mto P, em um I f H· ~ 'i.' Iii ! Exemplo 4.17. tJrh ponto é escolhido ao aca.so no segmento de reta [O, 2]. Qual será a probabilidade de que o ponto escolhido esteja entre 1 e 3/2? Fazendo-se X representar a coordenada do ponto escolhido, nós temos que a fdp de X é dada por j(x) = 1/2,. O < x < 2 e, portanto, P(1 ~ X ~ 3/2) = 1/4. F(x) l :r x=a x=b Fig. 4.15 1 VARIÃVEIS i i..EATÓRIAS UNiDIMENSIONAIS I. I 91 . Exemplo 4.18. A dureza ~ de uma peça de aço (avaliada na escala Rockwell) pode-se supor ~er. uma variável aleatória contínua uniformemente distribuída sobre o intervalo [50, 70}, da escala B. Conseqüentémente, I f(h) .1 50 1 < h < 70 F(x) = P(X .~ r) = j(s)~ . x-a I =---sea<x<b1 (' b- a = 1 O gráfico está apresentado na 4.8 ·I /_"... se x <a, =0 .; v~ores. Exemplo 4.19. Vamos obte~I a expressão da fd de umà variável aleatória uniformemente distribuída. I ·, 1 = O, para/ quaisquer putros ! ' 1 = 2o 1 ~m• Oboomção I ~e - x;::: b. Fík. 4.15. I i Repetidamente temos salien~ado que em algum estágio de nosso desenvolvimento de. um modelo probabilístico, algumas .prpbabilidades devem ser atribuídas a resultados, com base ou em evidência experimental (como as freqüências relat~vas, por exemplo) 'ou,em alguma outra consideração, como a experiênci~ passada com o fenômep.o que esteja em estudo. A seguinte questão pode ocorrer :ao estudante: Por que nós não podemos obter todas as proij abilidades em que estejamos iriteressados por tais meios não-dedutivÇ>s? A resposta e que muitos eventos cujas probabilidades desejamos Iconhecer são tão complicados que nosso conhecimento intuitivo é ipsuficiente. Por exemplo, suponhamos que 1000 peças estejam sairido diariamente de uma linha de produção, algumas das quais defeituosas. ~esejiunos saber a probabilidade de ter 50 ou menos peças defeituosas! em certb dia. Mesmo que estejamos familiarizados com o comportamento geral do processo de produção, poderá ser difícil para nós assodiarmos uma. medida quantitativa com I o evento: 50 ou menos peças são defeituosas. No entanto, poderemos ser capazes de fazer a afirmação /de que qualquer peça individual tenha probabilidade de 0,10 de ser def;eituosa. (Assim; a experiência passada nOs dá a informação de que cerd,a de 1 O por cento das peças são defei1 92 I PROBABILIDADE tuosas.) Além disso, poderemos estar inclinados a adirütir _qu:e, individualmente, as peças sejam defeituosas ou perfeitas iridepen<;leriteme:rite uma da outra. Agora, poderemos proceder deduÜvame~-i:e , ·e obter a probabilidade do evento em estudo. Assim, se X= . número de peças defeituosas, . 50 (1000) . P(X.;;;, 50)~ ~ (O,lO)k (0,90)1000- k k= o . k .. O que se quer destacar aqui é que os vários métodos que nós deduzimos para calcular probabilidades (e outros que serão estudados subseqüentemente) são de enorme importância, porque com eles poderemos avaliar probabilidades associadas a eventos bastante complicados, as quais seriam difíceis de obter por meios intuitivos ou empíricos. -i1J &~ q~ 1liilA determinada. moeda apresenta. cara. três vezes mais · X o. número freqüeiitemente que OOI'oa. .E= moeda é jo~da três vêzés. de' caras _qíle~p~. -Es~beleç~~> . a dis~buiçl!.ci de probabilidade de X e ta.m··"' ~..... -· ~ ·--.) . -bém ~Jtfâ.. t-Fa.ça. um esboço do. grá.fioo de-IUilbllS.rl Seia .9 ~-F7 ~ . ( r ~/ ~ • ' De um lote ~ue contém ~-)je-l)ãâ, ~ quais 5 são deíejtuosas, são escolhi IIS 4 ao &easo. &lJa. X o número de defe1tuosas encontra.daa. Estabeleça _a distribuição de probabilidade de X, quando: (a) AD peças forem escolhidas com r.eposiçl!.o. (b) As-peças forem escolhidas sem reposição. /; l9 e P(X . Suponh~ que ~ variável a.lea.t6ris. X tenha. os valores pol!!líveis 1, 2, 3, -~ .. , = J1 = 1/2', i= 1, 2, ... (a) Ca.lcule P(X ser par). (b) Calcule P(X ;:::: 5). (c) Calcule P(X ser divisível por 3) • . x 4.13, Considere Suponha que P(X UIM variável aleatória. X com resultados possíveis: -0, - a)ai, i = O, 1, 2, ..• 1, 2, ... = J1 = (1 (a) _Para que valores de a o modelo acima tem sentido? (b) Verifique probabilidade. qu~ esse. eJCpressão represente uma legíti.xru!. dietribuição de · (c) Mostre que, para · quaisquer dom inteiros positivos· a e 8, P(X .> s J + t IX > s) = P(X ;:::: t). . VARIÁVEiS ALEATÓRIAS UNIDIMENSIONAIS ./ 93 /4~ Suporihà que ·a máqUina 1 ·produza (por dia) o dobro das peças que 2. . No entanto, 4% das peças fabricad:i.s pela máqUina: 1 tendem a ser defeituosas, enquanto somente cerca de 2% de defeituosasproduz a máquina 2: Admita que a produção diária das duas máquinas seja misturada. Uma amostra aleatória de 10 peças é extraída da produção total. Qual será a probabilidade · de que essa amostra· contenha 2 peças defeituosas? sã~uzidas ·pela máquina 4. . Foguetes são lançados até que o primeiro lançamento bem sucedido a ocorrido. Se isso não ocorrer até 5 tent~tivas, o expernr;ento é ~lispenso e o eqUipamento inspecionado. Admita que exista uma probabilidade constante· de 0,8- de haver um lànçamento bem sucedido e que . os sucessivos lançamentos. sejam independentes. Suponha que· custo do primeiro lançamento seja K dólares, enquanto os lan~;amentos subseqüentes custam K/3 dólares. Sempre que ocorre um. lançamento !\em sucedido, uma certa quantidade de informação é obtida; a qual pode ser expressa como um ganho financeiro de C dólares. Sendo T o . custo líqUido· desse experimento, estabeleça a disti:i.buição de probabilidade de T • . o @ Calcule P(X = 5), onde X é a variável suponha que n1 10, n2 = 15, PI = 0,3 e P2 = 0,2. = ale~tória definida no Ex. 4.10. · )("4.8 . . (Propriedades das Probabilidades Binomiais.) Na explanação do Ex. 4.8, um padrão geral para as _probabilidades binomiais (';,)p7c(1- p)n-:-lc foi sugerido. Vamos denotar essas 'probabilidades por Pn(k). (a) Mostre que, para O~ k <n~ temos Pn(k + 1)/pn(k) = [(n - k)/(lc + 1)] [p/(1 - p)]. (b) Empregando (a), mostre que (i) Pn(k (ü) Pn(k (iü) Pn(k + 1) > Pn(k) se k < np - + 1) = Pn(k) (1 - p), se k = np - (1 - p), + 1) < p~(k) se k > np - (l- p). (c) Mostre que se np - (1 - p) fói: um inteiro, Pn(k) toma seu valor máxinto para dois valores de k, a saber, ko = np - (1 - p) e ko' = np - (1 - p) + 1. (d) Mostre que se np - Ú - p) não fórum inteiro, então Pn(k) toma seu valor máximo quando k for iguàl ao men<:>r inteiro maior que ko. (e) · Mostfé que se np - (1 - p) se np - (1 - p) = O, Pn(O) = Pn(1) < O, Pn(O) > Pn(1) > ... > Pn(n), > Pn(2) > ... > Pn(n) . enquanto . 4. . A variável aleatória contínua X tem para fdp: · j(x) = x/2, O~ x ~ 2. São feitas du~ det~rminações independentes de X. Qual será a prÓbabilidade de que ambas essas determinações sejam maiores do que 1 ? Se três determinaçÕes independentes "forem feitas, qual a probabilidade de que exatanierite duas dela~ sejam maiores do que 1? 4 • .0. Seja X a duração da vida de uma válvula eletrônica. e admita--se que X possa ser representada por uma variável aleatória contínua, com fdp j(x) = be-00:, x ~ O. Seja Pi = P(j ~X < j 1). Verifique que Pi é da forma (1 - a)ai e determin~ a. · ' + --,_...., 4;11. A variável aleatória con~ínua X tem fdp j(x) = 3x2; .-1 ~ x ~O se b for um número que satisfaça a -1 < b < O, cs:lcule P(X-> b IX < b/2). . ! l 1 II I l' 94 I PROBABILIDADE 6 ·. Suponha que j e g sejam fdp no mesmo intervalo a .:'S. x .:'S. b. . Verifique que j + g não é uma fdp nesse interyalo. · .·· . • . (b) Verifique que, para todo núm~ro {3, O< {3 < 1, {3j(x)+(1 ~ {3)g(x} é uma fdp nesse intervalo. ' · ~a) I r.r::J . ,ij·~J~ . .·, . .' Su~onha que o gráfico na Fig. 4.16represente afdp x; aleatória (a) Qual será . a relação entre .. de_hni.a . variável a e b? · (b) Se a > O e b > O, que se pode dizer do maior valor que b pode tomar?' (Veja a Fig. 4.16.) . Fig. 4.16 4~ ( A percentagem de álcool (100 X) em certo composto pode ser considerada ú'ma variável aleatóri~,_Jmde X, 1f < X < 1, tem a seguinte'fdp: j(x) = 20x3(1 - x),_ O < x < 1. (a) E>tabeleça a expressão da fd F e esboce seu ~áfico. (b) Calcul~ P(X ~ 2/S). (c) .Supollha qu_!l o preço de venda desse composto dependa do conteúdo ·de álcool. Especificamente, se 1/3 < X < 2/3, o composto se vende por C1 dólares/galão; caso contrário, ·ele se vende por C2 dólaresjgalão. Se . o custo for c; dólares/galão, calcule a distribuição de probabilidade do lucro líquido por galão. r:Q 4.15. Seja X uma variável aleatória contín]ia, com fdp dada por J f(x) ax, a, O.:'S.x.:'S.l, 1.:'S.x .:'S. 2,. + -ax 3a, 2.:'S. x .:'S.3, O, para quaisquer outros valores. I·. (a) Determi.ne a cot;l,l:Jtll.nte a. (b) Determine a fd F e esboce. o seu gráfico. (c) Se X 1, X2 e X a forem til\8 observações independentes de X, qual será a proba~ bilidade de, exatameilte, um desses três ·números ser maior do que 1,5? ~ elétric~ ·~ariável aleatória O diâmetro X de um cabo supõe-se ser uma contmuJ X, com fdp f(x) = 6x(l - x), O ~ x ::::_ 1. " · (a) Verifíque que essa expressão é uma fdp e ·esboce o seu gráfico. (b) Obtenha uma expressão para a fd de X -e esboce o seu gráfico. (c) Determine um número b tal _que P(X (d) Calcule P(X .:'S.l/211/3 < k< 2/,3). < b) = 2P(X > b). VARDÃVEDS A~EATÕRIAS UNIDIMENSIONAIS I 95 I 4.17. Cada uma das seguintes funç~es representa a. fd de mna. va.riá.vel alea.tória continua. Em cada caso, F(x) = O pa.ra x < a. e F(r) = 1 pa.ra x > b, onde [a, b] é o interva.lo indicado. Em ca.da. c+o, <'"b~l·e o gráfico da. função F, deter~ mine a fdp f e faça o seu gráfico. També,m verifique que f é ·uma fdp. (a} F(x) = x/5, O.S x .S 5.. (c) (b)i F(x) (2/Jr) sen- 1 ( y';), o_s x _s .1. = I (d) F(x)=x3/2+ F(x)=eJ.z,- "'<x.SO. I 1 2 ,-l.Sx.S1. 4.18. Seja .\ 1!. duração da vida j(medid& em horas) de um, <lispositivo eletrõnico. Suponha. que X seja. X va~iá.vel aleatória contínua com fdp j(x) = = kjx" 1 2.000 _s X _s 10.000. (a) Para n = 2, determine k. (b) !Pa.ra. n = 3, determine k. (c} Pa.ra. n I • em geral, determine k. (d) Qua.l a. probapilida.de de que o dispositivo falhe antes'' que 5.000 horas se tenham pa.ssad() 7 (e) Esboce a fd F(t) para 11 letra (c) e determine sua forma 8lgébrict\. l I Seja X uma. va.riá.vel alea.tótia com distribuição hinomia.l, basea.da em 10 repetições de um experimento. Sei p = 0,3, calcule as seguintes probabilida.des, empregando a tábua da distribuiçro binomial do Ap~ndicte: 4.19. (a} P(X .S 8); (b) P(X = 7); (c) P(X > 6). I + 4.20. Suponha que X seja uniforlnemente distribulda sol;lre l-a, a], onde a > O. Quando posslvel, determin~ a de modo que as seguintes relações sejam satisfeitas: (a) P(X > 1) = ..!_ • (d) P(X < 1 -zl = 0,3. 3 (b) P(X JI I) = 1 (c) P(X' < "2 . . i P<IXI < 1) = P(iXI > (e) I I I ..!. )= 2 0,7. 1). 4.21. Suponha que X tenha distribuição uniforme sobre (O, a], a I , ponda. às perguntas d o Probl. 4.20. J > O. Res- 4.22. Um ponto é ·escolhido ao acaso, sobre uma. reta. de comprimento L. Qual é a. probabilidade de que o quocien~e do segroen~ mais curto p&ra o mais 1 longo seja menor do que 1/4? 4.23. Uma fábrica. produz 10 recipi~ntes de vidro por dia.. Deve-se supor que exista uma probabilida.de constante~ = 0,1 de produzir um recipiente defei- ·· tuoso. Antes que esses recipientes seja~ estocados, eles são inspecionados .e os defeituosos são separados. Admita que exista uma probabilidade con>tante r = 0,1 I de que um recipiente defeituoso seja mal classificado. Faça. X igual a.o número de recipientes classificados como defeitU:~sos ao fim de um dia ··de produção. I (Admita. que todos os recipientes fabricados em um dia sejam inspeciona.dos naj . quele dia..) > 3). (a) Calcule P(X = 3) e P(X I !' (b) Obtenha a expressão de P(X = k). ' 4.24. Suponha que 5 por cento de todas as peça.s que 'saiam de uma linha de fabricação sejam defeituosas. $e 10 dessas peças fo,rem escolhida.s e ill:lpecionada.s, qual será a proba.bilida.de de que j no máximo 2 defeituosas sejam encon.trada.s? 1 .I 96 I PROBABILIDADE 4.25. Suponha que a duração da vida (em horas) de uma certa válvula seja uma variável aleatória contínua X com fdp f(x) = 100fx2, para x > 100, ·e zero para quaisquer outros valores de x. (a) .Qual ~erá a probabilidade de que uma válvuia dure menos de 200 horas, se soubermos que ela ainda está funcionando após 150 horas de serviço? (b) Se tr~ dessas válvulas forem instaladas em um conjunto, qual será a probabilidade de que exatamente uma delas tenha de ser substituída após 150 horas de serviço? (c) Qual será -o número máximo de válvulas que poderá ser colocado em um conjunto, de modo que exista uma probabilidade de 0,5 de que após 150 horas de serviço to~as elas ainda estejam funcionando? 4.26. Um experimento consiste em n tentativas independentes. Deve-se admitir que por catÍsa da "aprendizagem~', a probabilidade de :...o bter um resultado favorável cresça com o número de tentativas realizadas. Especlficamente, sliponha que P (sucesso na i-ésima repetição) = (i + 1)/(i + 2), i = 1, 2, . . . , n. (a} · Qual será. a probabilidade de ter ao menos 3 resultados favoráveis, em 8 repetições? '(b) Qual será a probabilidade de que o primeiro resultado favorável ocorra na oitava repetição? 4.27. Com referência ao Ex. 4.10: (a} Calcule P(X = 2), se n = 4. (b) Para n arbitrário, verifique que P(X = n- 1) = P (exatamente uma tentativa mal sucedida) é igual a [1/(n + 1)] L?= 1 (1/i). 4;28. Se a variá.vel aleatória K fór uniformemente distribuída sobre (O, 5), · qual será. a probabilidade de que as raízes da equação 4x2 + ·4xK + K + 2 = O' sejam reais? · 4.29. Suponha que a variável aleatória X tenha valores possíveis, 1, 2, 3, ... e que P(X =r)= k(1- (3}r- 1, O < (3 < 1. (a) Determine a constante k. (b) Ache a moda desta distribuição (isto é, o valor de r que tome P(X =r) a maior de todas). 4.30. Uma variável aleatória X pode tomar quatro valores, com probabilidades (1 3x)/4, (1 - x)/4, (1 2x)/4 e ·(1 - 4x)/4. Para que valores de x é esta uma distribuição de probabilidade? + + ij .! ·I ;(., •t -! -; >i ,, -; ! ·. ~ Fun_ções de Variáveis _Aleatórias -Í Capítulo 5 Suponhamos que o raio do orifício de um tubo calibrado com precisão X seja conside~ado uma variável aleatória contínua com fdp j. Seja A = 1r X 2 a área da secção transversal do orifício. É intuitivamente evidente que, uma vez que o valor de X é o resultado de um experimento aleatório, o valor de A também o é. Quer dizer, A é uma variável aleatória (contínua) e desejamos obter sua fdp, que denotaremos g. Esperamos, Úma vez que A é função de X, que a fdp g seja de algum modo deduzivel do cànhecimento da fdp j. N;t:Ste capítulo, tr11taremos de' problemas desse tipo geral. Antes porém de nos familiarizarmos com algumas das técnicas específicas necessárias, vamos exprimir os conceitos acima mais rigoro!lalllente. Seja E um experimento · e ~ja S um espaço amostral associado a S. Seja X uma variável aleatória definida em S. Suponha-se que y = H (x) seja uma função real de x. Então, Y = H(X) é uma Fig. 5.1 variável aleatória, porque para todo s E S, um valor de terminado, a saber y= H [X(s)l. Esquematicam~nte, . Fig. 5.1. - 98 I PROBABILIDADE Como anteriormente, denominaremo~ Rx o contradomínio de X, o conjunto de todos os valorc;; possíveis da função X . Semelhantemente, definiremos R y como o contradomínio (la variável aleatória Y, o conjunto de todos os valores possíveis de Y. Anteriormente, já definimos [Eq. (4.1)] a noção de eventos equivalentes em S e em Rx. Agora, estenderemos esse conceito na seguinte forma natural. Definição. Seja C um evento (subconjunto) associado ao contradomínio RY, de Y, como se explicou acima. Seja B C Rx definido assim: B = {-;?:E Rx: H(x) E C}. (5.1) Em palavras: B é o conjunto de todos os valores de X, tais que H(x) E C. Se B e C forem relacionados desse modo, os denominaremos eventos equivalentes. Comentários: (a) Como anteriormente, a interpretação não formal disso é que B e C serão eventos equivalentes se, e somente se, B e C ocorrerem conjuntameu te. Isto é, quando B ocorrer, C ocorrerá, e inversamente. (b) Suponha-se que A seja um evento ·ai;sociado a S, o qual é equivalente a. um evento B associado a Rx. Então, se C for um evento ru,sociado a Ry o qual é equivalente a B, teremos que A será equivalente a C. (c) B também importante compreender que quando falamos de eve~tos equivalentes (no sentido acima), esses eventos são associados a diferentes espaços , amostrais. Exemplo 5.1. Suponha-se que H(x) = 1rx 2 , tal como na Seç. 5.1. Então, . os eventos B: {X > 2} e C: { Y > 47r l são equivalentes. Porque, se. Y = 7r X 2 , então {X > 2} ocorrerá se, e somente se, { Y > 47r l ocorrer, desde que X não pode tom.ar valores negativos no caso presente: (Veja a Fig. 5.2.) y Fig. 5.2 i: i L J c Cvmenlário: B também importante salientar que uma notação abreviada está sendo empregada quando escrevemos expressões tais como !X > 2} e I Y > 471"}. Aquilo a que nos estaremos referindo, naturalmente,· são os valores d, X • oo volo•~ do Y, llilo '• [•[XI•: > 2[ • [•[Y(•) > 4,L ' FUl\IÇÕ"ESj DE VARI'Á VEIS ALEAJÓRIAS / -99_:. Tal cqmo fizemos no Cap. definição. I 4,1[Eq. (4,2!], dar~~~s- ~ j~~~7 i . . ...... :·..;:,..:; .. . ... Definição: Seja uma variável! al~atória X defiil:id~ n~ , e~~~~­ amostral S. Seja Rx o contradomínio de X. ' Seja 1/ rumaruriÇã:~' real e considere-se a variável aleat6Ha y = H(X) com contrii.dólníill~ . I . . . . R,y. Para qualquer evento C C RIY, definiremos P(C) ~ssim: : . ··,,_~:: P(C) = P[ {x E Rx: H(x) E C)]. (5,2) . Em linguagem corrente: A p~obabilidade de um ~vento associado ao contradomínio de . Y é d~finida como a probabilidade do evento equivalente (em termos de X), como indicado pela Eq. (5.2). . ! - Comerúár.ios: ' (a) A definição acima jtorna possível calc~_ar probahilidades que envolvam eventos associados a Y, se ·conhecermos ·a distribuição .de probabilidade de X e se pudermos determinar o erento equivalente em apre_ço~ (b) .Uma vez que explicamos anterioxhente [Eq. (4.1 e 4.2)] como relacionar probabilidades associadas a Rx com prob:abilidades associadas a S, podemos rei escrever a Eq. (5.2) assim: I . P(C) = P[(x E Rx: H(x) E ClJ = P l (s E S: H[X(s)] E C}]. . I Exemplo 5.2. contínua v · (Uma . J;~. e- I ~oro fdp ·I j(x) = e-, in~egração I dx = I ;' x simples > O. confirma que 1.) Suponha-se que. H(x) = 2x + 1. Em conseqüênbia, I;lx = { x Ix > O), enquanto RY = {y Iy > 1). Suponha-se, que. o evento C seja definido deste modo: C= { Y;::: 5). I --,4 ---J<J..=.:...l_ _,__.,.Então, y 2: 5 se, e somente se, .2x 1 ;::: 5, o . que porJsua vez acarreta x;?: 2. Daí, C Fig, 5.3 é equivalente. a B = {X ;?: 2 J. (Veja Fig. 5.3.) Então, P(X ;::: 2) = h~ e= 1/e2• .Aplicando-se então a. Eq. (5. 2) encontraremos que i + )C '\ - . Seja X uma variável !ax P(Y ;?: 5) ·= 1/e2• nov.a~ente CQ77le111.drios: (a) li: provbitoso salientar que poderemos considerar a incorporação de ambas as avaliaçõ~ de x = X(s) e .de y = H(x) em_ ll,q~Q:. experimento e, conseqüentemente, conside~ar apenas Ry, o contra?o~fu!.o ~tf,~; · como o espaço amostral de nOBBo experimento. '·'·:f·" · Rigorosamente falando, o eapaço amo~tral de nosso e)!:perimenti> .é ._ sultado do expe!imento é 8. Tudo o que ~ faz subseqüentemente , n.ão Wlll I f'ROBAIBUUDADE cia<l<i pela ,natureza aleat6ria do experimento. A determinaçii.o de x = X(s)" e a avnliaçíi.o de y =. H(x) .sll,o processos ngorosamente. determinísticos depois qúe. s · tenha sido observado. COntudo, .. como já explicam·os, podemos incorporar esses cálculos na descri~o de nosso. experimento. e, deste modo, tratar diretamente com o contradomínio Ry. (b) Exatamente ·do modo como a distribuição de probabilidade foi induzida em Rx pela distribuiÇii.o. de probabilidade sobre o espaço amostral original· S, a . distrib!=liçii.o de probabilidade de y será determinada quando a distribuição de probàbilidade de ··X for conhecida. Assim, no Ex. 5.2 acima, a distribuição espe· cificada de. x:determillOI:l'COmpletarnente o valor de P(Y ~ 5). Y . (c) ·Ao· considerar uma função de uma variável aleatória X, digamos = H(X), devemos observar _que nem· «ida funçii.o H concebível poderá ser aceita. Contudo, as funções ·que surgem nas-aplicações estão infalivelmente entre aquelas que podemos considerar e, por isso, não nos referiremos maÍfj a esta· pequena dificuldade. 5.3. Va~riáveis Aleatórias Discretas Caso L X é uma · variável aleatória diseretá~ Se X for um~ variável aleatória discreta e Y = H(X), nesse ca~o segue~se ímedia. tamente que y será também uma variável aleatória discreta. ' Porq~e sup()r _que os valor~s possíveis de X possam ser ~nume­ radps COniO X1, . X2, ...., Xn, . . . acarr~ta qu~ Certamente OS Valores pos~(veis de Y sejam enumerados · como Y1 = .f:l(xi), y 2 = H(x2), . ... . (Alguns desses valo_res de Y poderão ser iguais, mas isso certamente não perturba o fatq de qUe esses valores possam ser enumerados.) ExemplO 5.3 . . · S~ponhamos que a variável aleatória X tome os · três valores -1, O e 1, com probabilidades 1/3, 1/2 e 1/6, respectivamente. Seja y = 3X + 1. Nesse CIJ.SO os yalores possíveis de y são -2, 1 e 4, tomados coniprob~bilidades 1/3, 1/2 e 1/6. . Este exemplo sugere o seguinte procedimento geral: Se - ~ 1 ; .•• , Xn, . .• forem os valores possíveis de X, p(x;) ~- P(X = x;), e· ii for uma função tal que, a cada valor y correspÔhda exatamente um valor x, _então a distribuição de probabilidade . de Y será obtida do seguinte modo: Valores possíveis de Y: Probabilidades de Y: y; = H(x;), i= 1,_.21 .- •• , n, .. . ; q(y;) = P (Y '= y;) = p(x;). Muito freqÜentemente a função H não possui a característica acima, e poderá acontecer que vários valores :.de X levem ao mesmo ~~dor de Y, como ilustra o exemplo seguinte: . · Exemplo 5.4. Suponha-se que consideramos a mesma variável aleatória X, como no Ex. 5.3 acima. Contud;, frttrodu,ziilws Y # X 2 • FUNÇÕES DE VARIÃVI;1S A .L EATÓRIAS I 1"01. Portanto, os valores possíveis de Y são zero e um, tomados com piohabilidades 1/2 e 1/2, porque Y ==: 1 se, e somente se; X = ---,· 1 ou X = 1 e a probabilidade deste último evento é i/3 + 1/6 = 1/2. Em termos de nossa terminologia preliminar, os eventos B: [X = ± 1} e C: [ Y =.1} são eventos equivalentes e, em conseqüência, pela Eq. (5.2) têm iguais probabilidades. O procedimento geral para situações como a apresentada no exemplo acima é o seguinte: Sejam x;P ·x;2 , • •• , x;k, . .. os valores de X que tenham a propriedade H(x;;) = y; para todo j. E~ tão, q(y;) = P(Y = y;) = p(x;) + p(i; + ... 2 ) isto é, para palcular a probabilidade d<;> evento I Y = y;}, acha-se o evento equivalente em termos de X (no· contradomínio Rx) e em seguida adicionam-se todas as probabilidades correspondentes. (Veja a Fig. ·5.4.) i' Fig. 5.4 Exemplo 5.5. Admita-se que X. tenha os valores possíveis 1, 2, .. . , n, . . . e suponha-se que P(X = n) = (1/2)n. Seja = 1 = - Y Y se X for par, 1 se X for ímpar. Portanto, Y toma os dois valores -1 e + 1. Desde que Y = 1 se, e · somente se, X = 2, ou X = 4, ou X = 6, ou ... , a aplicação da Eq. (5.2) fornece . P(Y = 1) = 1 1 1 1 4 + W + M + ... = 3 . Conseqüentemente: P(Y = -1) = . 1 - P(Y = 1) =- 2 3 Caso 2. X é uma variável aleatória contínua. Pode acontecer que X seja uma variável aleatória contínua enquanto Y seja discreta. Por exemplo, suponha-se que X possa ·tomar todos os valores reais, enquanto Y seja definido igual a + 1 se X ;::: o; e ! .I ~r 102 I PROBABBUDADE Y = - 1 se X < O. A fim de obter a distribuição de probabilidade de Y, determina-se apenas o evento equivalente (no contradomínio . Rx) correspondente aos diferentes valores de Y. Neste caso, Y = 1 se, e somente se, X ~ O, ·enquanto Y =- 1 se, e somente ?C, X < O. Por isso, P(Y = 1) = P(X ~ 0) 1 enquanto P(Y = -1) = P(X < O). Se a fdp de X for conhecida, essas probabilidades poderão ser calculadas. No caso geral, se I Y = yi) for equivalente a um evento, por exemplo A, no contradominio de X, então = P(Y = q(y;) ·'!:. ),·: y;) = .h. j(x) dx. 5.4. Variáveis Aleatórias Contínuas O caso mais importante (e mais freqüentemente encontrado) aparece quando X for uma variável aleatória continua com fdp j e H for uma função continua. Conseqüentemente Y = H(X) será uma variável aleatória continua, e nossa tarefa será obter sua fdp, que denotaremos por g. O procedimento geral será: (a) Obter G, a fd de Y, na qual G(y) ., i = P(Y ~ o evento A (no contradomínio de X) o qual é equivalente ao everito {Y ~ y}. (b) Derivar G(y) em relação a y, a fim de obter g(y). I I ' I' . . y), achando-se (c) Deteiminar aqúeles valores de y no contr;adominio de Y, para os quais g(y) > O. y Exemplo 5.6. Supoilhamos que X tenha fdp j(x) = 2x, = O, Ü < X < 1, para outros quaisquer valores. Seja .H(x) = 3x + 1. Da[, para obter a fdp de Y = H(X)/teremos (veja a F\g. 5.5). ' Fig. 5.5 l -'ES DE 'í'ARIÁVEIS ALEATÓRIAS / 103. . FUNÇ0 1 i G(y) ' . I (11-1)/3 = 1 . . . l . ' 1)/3]~; . I . i . . . I 2 9 I. > O para O < xl < 1, Desde que j(x) 1 < y < 4. . . ,,t I . · g(y) = . G'(~) = . . : 2x dx ,;,. [(y-:- 0 D~ . + P(Y :::; ~) = P(àx' 1 :::; y)= P[X' ::5 i(y - · 1)j3] ' ··. ./' ~ ~. I · . ·. (y -:- 1). l i . . . . . encontramos q'ue g(y) · I . . . . • . > O para . . . Comentário: O evento A, :rereri~o acima, equivalente ao evento {Y ~ y I é apenas {X ~(y- 1)/3}. i · . Existe uma outra maneid, ligeiramente diferente, de obter o mesmo resultado, a qual será ,de utilidade mais tarde. Consideremos novamente ·j · . . . . G(y) = P(Y ::5 onde F é a fd de X; y) =P i~to (X:::; y ;l) = F(y; 1), é, F(x) ~ P(X_~:::; x): A fim de calcular a derivada de G, G'(y), ·empregaremos a regra • I . . . de denvação de função, coino segUe: . . . 1 dG(y) == dG(y) . du , . onde dy du dy . I. · . . Portanto, . u = Y- 1.. 3 1 · G'(y) = F'(u) · _!_ = f(u) · _!_ = 2 ( Y 3 . 3 . . 3 1 ·I ~ ) . , . . 3 como .anteriormente. A fdp de Y teip. 9 gráfico apresentado. na Fig. 5.6. (Para verificar o cálculo, ob4 serve que j; g(y)dy = L) I ')' y= I y=4 Exemplo 5.7. Suponhamos que Fig; 5.6 uma variável aleatória contínua tem I •• a fdp . como foi dada no Ex. 5.6. ·.·· SeI ·. '· ja H(x) = e-. Para achar a fdp de Y = H(X), · procederemos como se mdica a segwr (veja a /Fig. 5.7): T~l) . I y) = P(e-x ::5 y)' P(X ~ ~Iny) = ~ · i · 2xdx G(y) . = P(Y 1--: ::5 1 (-~ I · y)2. -ln11 . l' 104 I PROBABIUOADE <i: < 1, 2.ln, yfy. · Visto quej(~).> O pára O y < L ..[Observe q~e algébricó para g(y) está C:orreto, pois que ln y< Opii,ra l/e < O gráfico de g(y) está esboçado na Fig. 5.K. . . Daí, g(y) = G'(y) = - ~ricontramos que g(y) ::> Q pari!, l/e < o . s-i,rtal y <).] . y I. !: . · : ·. . = 'I' i',; :I: i ·' I.i I''l i li 'I I•I li Fig, 5.7 Fig •.5.8 Poderemos também obter ó resultado acima por um tratamento um pouco diferente, que esboçll.remos resumidamente. Tal como anterio.rmente G(y) = P(Y - ~ y) = P(X ?: -ln y) 1- P(X~ -lny) = 1-F(-ln'y), onde F é a fd de X, comei antes. A fim de obter a derivada de G, aplicaremos também a regra de .derivação· de função de função, como sé segue: dG(y) . = ·ac au dy du ·dy ' Deste modo onde u = -ln y. . · (- -i) .+ 2ln. (· 1) . y •G'(y) ·= - F'(u) . . Y· = . y· . ----:. , ·tal como anteriotniente. Vam~s agora generalizar o tratamento sugerido pelos exemplos acima. O passo mais importante em· cada um dos exemplos foi dado quando substituímos o evento I Y ~ y} pelo evento equivalente em termos da variável aleatória X~ Nos problemas acima, isso foi relativamente fácil porque em .cada caso a função de X era estritamente crescente ou estritamenté decrescente. .FUNÇÕES D.E VARIÁ\ÍEIS.ALEATÓRIAS "/ ~105 . Na JFig. 5.9, y é uma funçoo estritam.ente crescente de z . . Por ll8so, ~deremos resolver y = H(x) em termos de y, i~to é, x = Ji-l(JJ), :J? · · onde H-1 é denominada função invell'Sa de H. Porumto, se H foli' estritamente crescente I H(X) ::; y} será equivalente . e (X::; H-1(y)}, enquanto se H for estritamente decreséente, I H(X) ::; y} será equivalente a {X;::: H-1(y)}. O processo empregado nos exem~--------~~~-----Y x=H-I(y) plos acima pode agora ser generalizado, na seguinte forma: IFi!lJ. 5.9 ( " Teorema 5.l. Seja X uma variável aleatória continua com fdp j, onde j(x) > O, para a < x < b. Suponha-se que y = H(x) seja uma função de x estritamente monótona (ou· crescente ou decrescente). Admita-se que essa função seja derivável (e, portanto, contínua) para todo x~ Então, a variável aleatória Y, definida como Y = H (X) possui a fdp g dada por ·g(y) = j(x) I:I• (5.3) onde x é expresso em termos de y. Se H for crescente, então g será não-nula para aqueles valores de y que satisfaçam H(a) < y < H(b). Se H for decrescente, então g será não-nula para aqueles valores de y que satisfaçam H(b) < y < H(a). Demomtração: (a) Suponha-se que H seja uma função mente crescente. estrit~t­ Daf G(y) '· P(Y ::; 'J!.) = P[H(X) ::; y] P[X ::; H-1(y)] = F[H-'(y)]. Derivando G(y) em relação a y, obteremos com o emprego da regrá da derivada de função de função: dG(y) dX dy I dG(y) dY = ---a;Portanto, onde x = H-1 (y). I , dF(x) dx dx G(y) = - - - =J(x) - ·· dx dy dy =-======------__:________ __jr 106 I PROBABILIDADE (b) Suponha-se que H seja uma função decrescente. P(Y:::; y) G(y) Daí = P[H(X) :::; y] = P[X ~ H-i-(y)] 1 - P[X :::; H- 1(y)] = 1 - F[H- 1(y)]. Procedendo tal como acima, poderemos escrever dG(y) dy = dG(y) dx dx = dy · j_ [1 _ F(x)] dx = _ f(x) dx dy dx. dy Comentário : O sinal algébrico obtido em (b) está correto porque, se y for uma função decrescente de x, i será uma função decrescente de y e, conseqüentemente, dxfdy < O. Deste modo, pelo emprego do sinal, com o valor absoluto em tomo de dxfdy, poderemos combinar o resultado de (a) e dé (b) e obter a forma final do teorema. Exemplo 5.8. Vamos reexaminar os Exs. 5.6 e 5.7 pela aplicação do Teor. 5.1. + . (a) No Ex. 5.6 tivemos f(x) = 2x, O < x < 1, e y ~ 3x 1. Conseqüentemente, x = (y - 1)/3 e dxfdy = 1/3. Por isso, g(y) = 2 [(y - 1)/3Í(l/3) = 12/9)(y - 1), 1 < y < 4, o que confirma o resultado obtido anteriormente. = (b) No Ex. 5.7, tivemos j(x) = 2x, O < x < 1 e y = e""". Em conseqüência, x ;= - ln y e dxfdy = - 1/y. Deste modo, g(y) ::, ,;, ;_ 2(ln y)fy, 1/e < y < 1, o que também confirma o resultado já obtido. Se y = H(x) não for uma função monótona de x, não poderemos aplicar diretamente o processo acima. Em vez disso, voltaremos ao processo geral esquemàtizado acima. O exemplo seguinte ilustra esse procedimento. l.:r Exemplo 5.9. Suponhamos que li ·.L .. .' =~=---:~. ·.~ .-- , · · ·< : :._ ' .' .·.. · ' '-.'•, j(x) \ = 1/2, O, -1 < x < I, fora desse mtervalo. . ,· S~J~~ÍJ(x) ~~~: Jjbviamente, esta. · ~ ( 'Z~B~t~~..:&~!~/{-;-1, ~: I] .(Fig. 5.10). dcrségumte modo: . G(y) ' é unia função monótona Por isso, obteremos a fdp de . :5 y) = P(X 2 :5 y) P(- Vy :5X ~ Vy) P(Y F(Vy)- F(-v0, I . .. . .. . - . F.UNÇÕE;S OE VARIÁVEIS .A LEATÓ.RIAS I onde F é a fd da variável aleat6~a . I X.'. . 1v'2vy J;) g(y/ = G'(y) = ']• . 1 =c _r 2v y Deste modo, g(y) = a Fig. 5.11.) Logo, . J< ~vi;) , -2-v'Y . I u<Y Y) +J(-vy)l. i \. (1/2Vy) (1/2 i + 1/2) l/2.;;y, o'< y< 1; (Veja <:. __, · -< g(y) y I y=x2 · (t,4) X x=i x=-l Fig. 5.10 · empregado no O processo sultado geral. y .!I !! Fig. 5.11 I 1o acrma · f omece· o segwnte · re- . • e~emp I I Teorema 5.2. Seja X uma v'ariável aleatória contínua c~m fdp j. Façamos Y = X 2 • Então, a varikvel aleat6ria Y tem fdp . dada por a g(y) = 1 _r 2v y U<yj. y) + J(-v' y)]. Demonstração: Veja o Ex. Problemas 1 - i I 5r· i i ·Suponha que X seja uniformemente distribuída sobre (-1, 1). Seja Achar a fdp de Y, g(y), e fazer seu : gráfico. Verifiq)Í'e t.à.mbém que g(y) é a fdp adequada. 5.1. Y = 4 .- X 2 • I 1 5.2. Suponha que X ·seja. uniformemente distribuída sobre (1, 3). a fdp dll.'l seguintes variáveis aleatórill.'l! (a) Y = 3X ~ 4, (b) i Z =eX. Verifique em cada ca.so que a função obtida II I é a fdp. Esboce os gráficos. Ache 108 I PROBAIBHUIDAOE z 5.3. Suponha que "' variável aleatória contínua X tenha fdp j(x) "" e...,, Ache a fdp das seguintes variá.veis aleatórias: > O. (a) Y "" X 3, (b) Z "" 3/(X + 1)2• 5.4. Suponha que a variável aleatória discreta X tome os valores 1, 2 e 3 com igual probabilidade. Ache a distribuição de probabilidade de Y "" 2X + 3. 5.5. Suponha que X seja uniformemente distribuída sobre o intervalo (O, 1). Ache a fdp das seguintes variáveis aleatórias: (a) Y "" X2 + 1, (b) Z "" 1/(X + 1). 5.6. Suponha que X seja uniformemente distribuída sobre ( -1, 1). Ache mfdp das seguintes variáveis. aleatórias: ' (a) Y = sen (7r/2)X, (b) Z = cos (7r/2)X, (c) W = IX!. 5.7. Suponha que o raio de uma esfera seja uma variá.vel aleatória contínua. (Em virtude de imprecisões do processo de fabricação, os raios das diferentes esferas podem ser diferentes.) Suponha que o raio R tenha fdp j(r) = 6r(1 - r), O < r < 1. Ache a fd;p do volume V e da IM-ea suJllflrlicial S da esfera. 5.3~ Uma corrente elétrica oscilante I pode ser considerada como uma variável aleatória uniformemente distribuída sobre o intervalo (9, 11). Se essa corrente passar em um resistor de 2 ohms, qual será a fdp da potência P = 2P? 5.9. A velocidade de uma molécula em um gás uniforme. em equilíbrio é uma variá.vel aleatória V cuja fdp é dada por j(v) = wP e-b••, v> o; onde b = mf2kT e. k, T e m denotam respectivamente a constante de Boltzman; a temperat~a absoluta e a massa da molécula. . (a) Calcular a constante a (em termos de b). [Sugesldo: Considere o fato de que J;"" e-z• dx -"" v;;2 e integre por partes.) (b) Estabeleça a distribuição da variá.vel aleatória W ""mV2/2, a qual representa a energia cinética d_a molécula. 5.10. A tensão elétrica aleatória X é uniformemente distribuída sobre o intervalo (!- k, k) . . Se Y for a entrada de um dispositivo não~linear, com as características indicadas na Fig. 5.12, ache a distribuiçãode probabilidade de Y, nos três casos seguintes: (a) k < a, (b) a < k < xo, (c) k > xo. y Fng. s.12 Comentário: A distribuição de probabilidade de Y constitui um exemplo de uma distribuição mista. Y toma o valor zero com probabilidade não-nula 0 também toma todos os valores em certos, intervalos. (Veja a Seç. 4.6.) [ f Ui\l ÇÕIES DIE VA!RiÃVIEiS A L IEATÓ!RiAS I 109 ( " I 5. 11 . A energia radiante (em Btu/hora/pé 2 ) é dada p.ela seguinte função da f t emperatura T (em escala Fahrenheit): E = 0,173 (T/100) 4 • Suponha que a temperatura T seja considerada uma variável aleatória contínua como fdp r ·1 I J.(l) O, pl!.i'e. outros quawquer vll!lorea. Estabeleça a fdp da energia radiante·E. t\~ Para medir velocidades do ar, utiliza-se um tubo (conhecido como tubo estático de Pitot), o qual permite que se meça a pressão diferencial. Esta pressão diferencial é dada por P = (1/2) dV 2 , onde d é a densidade do ar e V é a velocidade do vento (mph) . Achar a fdp deP, quando V for uma variável aleatória uniform~mente distribuída sobre (10, 20) . · ~W~\Suponha que P(X .;; 0,29) = 0,75, onde X é uma variável aleatória contín\1-'lJ?lcom alguma distribuição definida sobre (0, 1) . Quando Y = 1 - X, determinar k de modo queP(Y .;; k) = 0,25 . ., I I ____) ..· I Variáveis Aleatórias de Duas ou Mais Dimensões · Capítulo 6 6.1. Variáveis Aleatórias Bidimensionais Até aqui, em nosso estudo de variáveis aleatórias, consideramos apenas o caso unidimensional. .Jsto é, o resultado do experimento seria registrado como um único número x. · -·,:.;1;~~~~=~;~z~;;:r~:B~·* · -;(~fiít1rceã;:;:.~a~:!~::"!-~:~ a dureza H e a tensão de -;~ptu;~· T de uma peça manufaturada de aço poderão interessar, e nós consideraríamos (h, t) como um único resultado experimental. Poderíamos estudar a estatura H e o peso w ·'. de alguma pessoa escolhida, o que forneceria o resultado (h, w). Finalmente poderíamos observar a altura total da chuva R e a temperatura T em uma certa localidade, durante um mês especificado, dando origem ao resultado (r, t). Faremos a seguinte definição formal. Definição. Sejam & um experimento e S um espaço amostral s X y Fig. 6.1 associado a &. Sejam X = X(s) e Y = Y(s) duas funções, cada uma associando um l!Úmero real a cada resultado s E S (Fig. 6.1). ~~ - VAR IA VEIS ACE"ATOR I AS I - DU~S OUIVIA1S IJIMENSOES I 111 como no caso não estaremos interessados na natureza funcional de X(s) e Y(s), nos valores que X e Y tomam. Também falaremos do contradomínio de Y), a .saber Rxx y, como o conjúnto de todos os valores possíveis de (X, Y). caso bidimensional, por exemplo, o con(X, Y) será um subconjunto do plano euclidiano. C.ada resultado tradomínio de . I . X(s) , Y(s) pod,erá ~er represent~do conto u~ po!lto (~, y) no plano. Tam~ém supriremos a natureza funcional de X Y, ao escrevermos, por exemplo, P [X 2 a, y b] em lugar de P[X(s) a, Y(s) b]. · . . T al como . no caso unidimensional, distinguiremos dois tipos básicos de variáveis aleatórias: as variáveis aleatórirul discretas e as contínuas. 2 2 e 21 . I I . Definição. ·ex, Y) será uma !variável aleatória discreta bidimensional se os valores possíveis de (X, Y) forem finitos ou infinitos numeráveis. Isto é, os valqres pos~íveis de (X, Y) poséam ser repre~entados por (x;, Yi), i~\1,2, -[- .,n, .. .; J= 1,2, , .. ,m .. . , (X, Y) será .uma variável aleatória contínua bidimensional se (X, Y) puder tomar .todos os vai6res em algum conjuhto não-numerável do plano euclidiano. [Por rxemplo, se (X, Y) t~m-ar todos os valores no retângulo {(x; y) I a ~ x ~ b, c ~ y :s; d} ou todos os valores no círculo {(x, y) Ix 2 + y 2 1 ~ 1), poderemos diier que (X, Y) é un:;a variável aleatórià bidimen~ional contí~uaJ Comentários: (a) Falando não ri~orosainente, (X, Y) . será uma variável aleatória bidimensional se ela representat o resultado de um experimento aleatório no qual tenhamos medido os dois caracteh sticos numéricos X e Y .. (b) Pode acontecer que um dos 9omponentes_ de (X, Y), por exemplo X, seja discreto, enquanto o outro seja conrínuq. No entanto, em muitas aplicações trataremos somente com os casos apresFntadcis acima, · nos quais ·ambos os componentes serão discretos ou ambos serão contínuos. · (c) Em muitas situações as duas v~riáveis X e Y, quando considera.das conjuntamente, constituirão de maneira m~ito natural o· resultado de um único experimento, como se · ilustrou nos exem~los acima. Por. exemplo, X e Y podem representar a estatura e o peso do mesbo indivíduo etc. Contudo, esta espécÍe de conexão não existe necessariamente.! Por exemplo, X poderá ser a corrente que passe em um circuito em dado moxfento, enquanto Y poderá spr a temperatura da sala naquele momento, 1e podetemos considerar, então, a variável ale.a'tó-.. ria bidimensional (X, Y). Em quase to'das as aplicações existe Ullia razão bastante. definida para .considerar X e Y cdnjuntamente. · Procederemos de modo análo,go ao 1caso ção de probabilidade de (X, Y). ' 1 unidimei,~Sional ao expor a distribui- 112 I PROBABILIDADE . . (a) Seja (X, Y) uma variável alea:tória discreta bi'dimensional. A cada resultado possível (x.;, y;) aSsociaremos um número p(x;1 y;) representando P(X = x;, Y = y;) , e satiSfazendo às seguintes condições: _ · . . _ ,...;-)~ Definição. (1) (2) p(x;, y;) ~O para todo (x, y), . L., L., p(x;, Yi) .o. \ = 1. . . ~C-D ) i=l i=l · ~ .í~ ~ .. u \...-- \ - ~""jj(90~ir (6.1)/l \ !'i, ' o c:L.( {JtAO..:;- · A função p definida para todo (x;, yj) ·no coutradominio de (X, Y) é denominada a junçãÓ de probabilidade de (X, Y), · O ' conjunto dos ternos [x;, y;, p(x;, Yi)], i, j = 1, 2, ... é, algumas vezes; denominado distribuição de probabilidade de (X, Y). (b) Seja (X, Y) uma variável aleatória contíJ:lua tomando todos os valores em alguma região R do plan~ . e\:iclidiano. A junção densidade de probabilidade con}unta j é ui:na função que satisfaz às seguintes condições: · . ~ (3) j(x, y) (4) ~ O para todo (x, y) E R jjJ(x, y) dx dy = l. cfÚ p .___-- (6.2) R Comentários: (a) A analogia .com a distribuição de massa é também . aqui evidente. l'emos uma massa unitária distribuída sobre uma região no plano. No caso discreto, toda a massa estil. concentrada em um. número finito ou infinitQ · munerável de lugares 6om mruisa p(x;, Yi) situada em (~, y;). No caso. ccintíiluo, a massa é encontrada em todos ·os pontos de algum conjunto não-Jiuinerável; no · · . plano. (b) A condição (4) afirma que o volume total sob a superfície dada pela equação z = j(x, y) é igual a 1. (c) Como no caso unidimensional, j(x, y) não representa a probábilidade de. coisa alguma. Contudo, para Ax positivo e Ay _suficienteinente pequeno, j(x, y) Ax Ay é aproriroadamente igual a P(x :S. X_::: x Ax; y :S. Y :S. y Ay). + + (d) Como no caso unidimensional, adotaremos a convenção de que j (x, y) = O se (x, y) EE R. Por isso, poderemos considerar j definida para todo (x, y) no plano e a condição (4) acima se torna f_+.,"' J_+.,"' j(x, y) dx dy = 1. (e) Também suprimiremos a naturtf;a funcional da variável aleatória bidimensional (X, Y). Nós deveríamos sempre escrever ·expressões da forma P (X(s) = =· x;, Y(s) = Yil etc. No entanto, se nossa notação abJ:eviada for compreendida, nenhuma dificuldade deve~á ~urgir. W Também, como no caso unidimensional, a. distribuição de probabilidade de (X, Y) é realmente induzida pela. probabilidade dos eventos associados ao ~ .paço amostral original S. Contudo, estaremos interesSados principalmente nos valores de (X, Y) e, por isso, trataremos diretamenre com o coritradomínio de (X, Y). Não obstante, o leitor não deverá p.erder de vista o fato de que se P(A) . I VARIÁVEiS ALEATÓRiAS DE DUAS OU MAOS DIMENSÕES I 113 ~ for especificado para todos os eventos A C S, então a probabilidade associada aos eventos no contradomínio de (X, Y) ficará determinada. Isto é, se B estiver no contradomínio de (X, Y), teremos P(B) r = P{[X(s), Y(s)] E B} = P{si[X(s), Y(s)] E B}. Esta última probabilidade se refere a um evento em S e, conseqüentemente, determina a probab.ilidade de B. De acordo com nossa terminologia anterior, B e (si(X(s), Y(s)] E Bl são eventos equivalentes (Fig. 6.2). . I ! I ,. ! . I Fig. 6.2 1 i Se B estiver no contradomínio de (X, Y), teremos 1 P(B) = i I LL p(x;, Yj), (8.3) B "! ~ (X, Y) for discreta, na qual a soma é feita para todos os índices (1:, })' para os quais (x;, y;) E B. E P(B) = v I Jf j(x, y) dr dy, (6.4) B i s.e (X, Y) for contínua. J EXim!plo 6.1. Duas linhas de produÇão fabricam um certo tipo de peça. Suponha que .a capacidade (em qualquer dia) seja 5 peças nà. linha I e 3 peças .n a linha II. Admita que o número de peças realmente produzidas em qualquer lill;ha seja uma variável aleatória, e que (X, Y) represente a variável aleatória bidimensional quê fornece o número de peças produzidas Pela. linha I e a linha II, respectivamente. A Tab. 6.1 dá a distribuição de probabilidade êonjunta de (X, Y). Cada casa representa 'l .I 'I I i :1 .I I I j = P(X = x;, Y = y;). = 2, Y = 3) = 0,04 etc. p(x;1 y;) Assim, p(2, 3) definido' como = P(X Port:J.nto, se B for B = { l\fais peças são produzidas pela linha I que pela linha II l. encontraremos q)le P(B) = 0,01 + 0,03 + 0,05 + 0,07 + 0,09 + 0,04 + 0,05 + 0,06 + 0,08 + 0,05 + 0,05 + 0,06 + 0,06 +0,05 = 0,75. 114 I .P.ROBABI,LID.ADE o o o 1 0,01 0,01 0,01 ~ 1 3 0,01 0,02. 0,03 0,02 0,03 0,04 (o05 I 0,05 0,05 0,05 0,00 ~ 4 5 0,07 0,06 0,05 0,()6 0,09 0,08 0,06 0,05 . ,. Exemplo 6.2. Suponha que um fabricante de lâmpadM esteja interessado no número de lâmpadas encome~dadas a ele durante os meses de janeiro e fevereiro . . Sejam X e Y, respectiv!i.mente, o número de lâmpadM encomendadas durante esses dois meses. Admitiremos que (X, Y) seja uma variável . aleatória contínua bidimensional, com a seguinte fdp conjunta (veja Fig. 6.3): ' .-.'::. ' ' .-'-- . . ) . j(x, y) ~-~-\se 5.000 ::; x ::; 10.000 e .4.000 ::; = O · )para quaisquer outros valores. . y::; 9.000, y -r------+-------~-----x x=5000 X= 10.000 !Fig. 6.3 Para determinar c, levaremos em conta o fato de que J +~ f+~ _.. _.. j(x, y) dx dy = 1. .... Por conseguinte, f_ + a> ; · +., .. - ., j(x, y) dx dy = 19,000 110.000 f(x, y) dx, dy · 4.1100 5.00ll ·. I = é[5.000]!. I ·r ·l I V~I'!I~VEIS ALEATÓRIAS,, DE DUAS' OU MAIS Dli\I!ENSÕ~7,_1 'l~:::~nal?/, .. ,.? ,, __,, -<~'c ;Jl,, .~ ,,-, ,...,, '1 ,....-r .-;r-t;;/ ??·~/. )"l.,_,..,· s· i!'" 't !(. -"'~::s~ ..,'J.b_,~ f·'~f\ \< 1:...."'-:\Q, I l_ I r P(B) Ii = ' 1- !' 'I.. - ~ ,,I 5.000 5.000 ·- (~~~~) 2 J.:J ax~ ay [y- 1 -~~ · . ~- 5.ÓOOJ dy = . - Exemplo 6.3. Suponhamos que a var~ável aleatória contínua bidimensional (X, Y) tenha fdp Çonjunta dada por J xy = x2 + 3 / lo~ x ~ 1, , O~ y ~ 2, = O para quais quer outros valores. 'I' 1 I' +m Ir +"' Para verificar que .f_- m i-., j(x, y) dx dy = I: 1:·[" f(x,y)~dy ~ A' J:' ( +i )a~ x' . = = /i2 ~ + }~ !J 3 2 ( I 21 . . = 3 1+ i_ I I l x2y 6, -1 + .Jf._) 3 6 4 12 = 1. dy 1"'=1 dy ; x=O 2 dy = -1 3 y 21 + JL 12 Q ' · Seja B ·=- {X -.; :Y'~ .i }. (Vei k a Fig. 6.4.) . Deveremos calcular ' __, - ' ' . P(B) pela avaliação de' 1- P(Bf, on~e B ={X+ 'Y < 1'}. Portanto, - y P(B) ~ 11,- .[l~~(x'+ ';)~y~ ,o . I. o. =III -..)àç[ x2(J - x) I T ' 7 . + x(l; x)2 J dx I ·65 = ;1 - 72 = 72. -JI i \:-----"--x Fig. 6.4 ' Ao dstudar variáveis aleatórias unidimenI . sionais, '{imos que F,' a função de distribuição acumulada, representava imp6rtante papel. No ! f , •.:/r:J c~·...t) . Comentário: No Ex. 6-2, X e Y Jdevem, evidentemente, ser inteiras, porque não podemos encomendar um número fracionário de. lâmpadas! No entanto, estamos novamente tratando com uma situação idealizada, na qual permitimos que X tome todos os valores entre 5.000 e/10.000 (inclusive). f(x, y) I I J.ll 1.9.00p 1 ··c{5. ooo)2/ _:. 00 1- ,. ll '·). Assirrr;-:~_:_,.(5~)?·-- Daí, se ~ ~ {X~ Yj, teremos I I 1fs) ' 116 I PROBABILIDADE .. {aso bidirnensionai, também ·defínirnos urna função acumulada, dll> seguinte maneira: Definição. Seja (X, Y) uma variável aleatória bidimensional. A função de distribuição acumulada (fd) F da variável aleatória bidimensional (X, Y) é definida por F(x, y) = P(X ~x, Y ~ y). Comentário: F é uma função de duas. variáveis e tem múitas propriedades I!!.Ilálogas àquelas expostas. para a fd unidimensional. (Veja Seç. 4.5.) Menciona,.. remos somente a seguinte propriedade importante: Se F for a fd de uma variável aleatória bidimensional com fdp j, então I a 2 F(x, y)fax ay = j(x, y) sempre que F for derivável. Este resultado é análogo ao Teor. 4.4, no qual provamos que (d/dx)F(x) = j(x), onde j é a fdp da variável aleatória unidímerisional X. 6.2. ·Distribuições de Probabilidade Marginal .e Condi. . cionada ' A cada variável aleatória bidimensional (X, Y) associamos duas . . variáveis aleatórias unidirncnsionais, a saber X e Y, individualmente. Isto é, poderemos· estar interessados na distribuição de probabilidade de X ou na distribuição de probabilidade de ·Y:' Exemplo 6.4. Vamos . novamente considerar o Ex. 6.1. Em complementação às casas -da Tab. 6.1, vamos ta~bérn calcular os totais "marginais", isto é, a sorna das 6 colunas e 4 linhas da -tabola .. (Veja Tab. 6.2.) As probabilidades que aparecem nas margens, linha e coluna, representam a distribuição de probabilidade de Y e de X, respectivamente. Por exemplo, P(Y = 1) = 0,26, P(X = 3) = 0,21 · etc. Em virtude da forma de apresentação da Tab. 6.2, aludiremos, de modo muito usual, à distribuição marginal de X ou à distribuição marginal de Y, sempre que tivermos uma variável aleatória bidimeri~ sional (X, Y), quer discreta, quer contínua. ' Tab. 6.2 o ,'oJ o 1 2 3 Soma ' 0,01 0,01 0,01 I' o;õl) I 5 4 Soma 1 2 3 0,01 0,02 0,03 0,02 0,03 0,04 o 05 o:o4 o,os O,On o:o6 o,os o,2o 0,05 0,.06 0,0:> 0,06 0,06 0,05 0,2.i 0,24 0,08 ' 0,16 0,21 0,24 0,2-i ,-1 ,00- o 07 ,. 1 0,09 0,2.5 VARIÁVEIS A L EATÓRIAS DE DUAS OU MAIS DIMENSÕES I 117 í No caso discreto, procederemos assim: Desde que X = x; deve ocorrer junto com Y = Yi para algum i e pode ocorrer com Y = Yi somente para um j , teremos ;j ~! p(x;) I' J ! I I .) P(X = x;) = P(X = = t ,. x;, Y = Y1 ou ~ = x;, Y = Y2 ou ·'· ) p(x;, Yi) ·, Je=l II JI = ,.- A função p definida para x1, x2, . . . , representa à distribuição de probabilidade marginal de X. Analogamente definimos q(yi) = P(Y = -~ Yi) = Li:l p(x;, Yi) como a distribuição de probabilidade marginal de Y. No caso contínuo, procederemos do segrnnte modo: Seja f a fdp conjunta da variável aleatória bidimensional continua (X, Y). Definiremos :g e ·h, respectivamente as junções densidade de probabilidade marginal de X e de Y, assim: g(x) = ! +"' "' ' f(x, y) dy; Essas fdp correspondem às fdp básicas das variáveis aleatórias unidimensionais X e Y, respectivamente. Por exemplo ., P(c:::::; X::::; r1) .= P[c:::::; X:::::; d,- ."" < Y < oo] .= = f J: _jd "'I f(x, y) dy dx g(x) dx. Exemplo 6.5. Dois característicos do desempenho do motor de um foguete são o empuxo X e a taxa de mistura Y. Suponha-se que (X,' Y) seja uma variável aleatória contínua bidimensional com fdp conj~ta: . j(x, y) = 2(x +y- 2xy), O ::=::; x ::=::; 1, O _:::; y ::=::; 1, para quaisquer outros valores. = 0,.· (As unidades foram escolhidas de modo a empregú valores entre O e 1.) A fdp marginal de X é dada por 1 g(x) = { }o 2(x + , y- 2xy)dy 2(xy 1, + y 2/2' 0:::::; X xy 2)jÕ :::::;,1. Quer dizer, X é uniformemente distribmda sobre [0, 1]. 118 I PROBABILIDADE A fdp marginal de Y é dada por 1 1 h(y) = 2(x +y- z~y)jà 2xy) dx = 'l.(z2/2 + xy - O::;; y::;; L = 1, <. Portanto, Y é também uniformemente distribuída sobre [0, ll. Definição. Dizemos .que a .variável aleatória oontíi:ma bidinien~ sional é uniformemente distribuída sobre a região R do piano euclidiano · quando ·1 para (x, y) E R, · para qualquer outra região. f(x, y) = cte o Em virtude da condição f_+,"" f_+,"" f(x, y) dx dy = 1, a definição acima acarreta que a constante será igual a l/área (R). Estamos supondo que R seja uma região com área finita, nã.o nula .. Comentário: ÉÍlsa definição represe.nt& o .análogO bidimensional da variável aleatória UIÚdimensional dístr\buida uniformemente .. Exemplo 6.6. Suponhamos que a variável aleatória (X, Y) seja uniformemente distribuúla sobre a região sombreada R indiçada na Fig. 6.5. Portanto, f(x, y) = y 1 área (R) ' (x, y) E R. Encontraremos que 1 área (R) = 1 . (x- x 1) dx . 1 = 6· Logo, a fdp será dada por f(x, y) = 6, =o, E R, (x, y) EE R. (x, y) Fig. 6.5 Encontraremos as fdp marginais de X e Y, pelas seguintes expressões: 1:"" g(x) = h(y) = /:'" f(x, y) dy = f(x, y) dx = 1" l..Jíi 6 dy = 6(x - x 2), " O ::;; x ::;; 1; 6 dx = 6(yy- y), Os gráficos dessas fdp estão esboçados na Fig. 6.6. O~ y ~1. h(_r) g(x) X=~ (a) (I, O) (I , O) (b) I. 1! ."I -i· I I •t '· I I (6.5) T2() I P.ROBA!31L'IDADE:. A ftip de X condicionada a g(x Iy) = uin dado Y J(x, y) h(y) ' >o. h(y) A fdp ·de Y condicionada a um dado X h(y Ix) = -j(x, y) g(x) = y é definida por = x é definida por g(x) ' (6.7) >O. (6.8) C~rics: (a) AB fdp condicionadas, acima, satisfazem a todas as condi!jOOS impostas para uma fdp unidimensional. Deste modo, para y fixado, nós teremos g(xiy) ~ O e ! +~ ~ g(xiy)dx = 1· +~ ~('yy)) jx -<D . 1 dx = --,;--( ) y Um cálculo análogo pode ser feito para h(y lx). fdp em Rx e Ry; respectivamente. !+= _, j(x, y) dx = . h(y) h[) y =, 1.·· Dar; as Eqs. (6.7) e (6.8) definirem (b) Uma interpretação intuitiva de g(xiy) é obtida se considerarmos a superfície representada pela fdp conjunta j cortada ·pelo plano y = c, por exemplo. A interseção do plano com a superfície z = j(x, y) determinará uma fdp unidimensional, a saber a fdp de X para Y = c. Isto será justamente g(x Ic). (c) Suponhamos que (X, Y) represente a estatura :e o peso de uma pessoa, respectivamente. Sejam j a fdp conjunta de (X, Y) e g a fdp marginal de X (sem Portanto, fs.~· g(x) dx representaria a probabilidade do evento 15,8 .::':X.::': 6) sem considerar o peso Y. E fs.~· g(x 1150) dx seria interprets,da como P(5;8 .::': X.::': 61Y = 150). Estiitainente falando, esta probabilidade c~n­ dicionada não é definida, tendo em vista nossa convenção já feita para a probabilidade condicionada, porque F(Y = 150) = O. Contudo, apenas empregamos a integral acima para definir essa probabilidade. .Certamente, em base intuitiva, este deve ser o significado desse número. lev!M' em conta Y). Exemplo 6.8. Com 2 g(x) · = ( refer~ncia (x + 2 ~o 1 h(y) ' I I i = 1 ( x2 ao Ex. 6.3, teremos xy) dy 3 = 2x 2 + _!_ x, 3. + -xy) dx = 3 + -31 · -·y6 Portanto, {?(xjy) = h(ylx)= x 2+ :x;y/3 _ 1/3.+ y/6 2 x +xyf3 2x 2 + 2/3(x) 6x 2 + 2xy 2+y 0 :::; X :::; 3x 2 + xy 3x+ y 6x 2 6x + 2x = 1, +2 0 :::; y :::; 2; ' 0 S y :::; 2, · 0 :::; X :::; 1. VAIFUÁVE!S AlEATÓAHAS DE DUAS OU MAIS DBMENSÕES I 12~ Para verificar que g(x Iy) é uma fqp, teremos J(10 Gx2 2 + + 2xy Y dx -- 2 . 2 + Yy + -- 1 para todo y. Um cálculo semelhante pode ser feito para h(y Ix). 6~3. Vatriáiveh~ A!earl:ória~ ! ndependent®s Exatamente da maneira pela qual definimos o conceito de independência de dois eventos, A e B, agora definiremos variáveis aleatórias independentes. Intuitivamente, pretenderemos dizer que X e Y são variáveis aleatórias independentes quando o resultado de X, por exemplo, de modo algum influenciar o resultado de Y. Esta é uma noção extremamente importante e existem numerosas situações em que tal suposição é válida. .i ( : .: Exemplo· 6.9. Consideremos duas fontes de material radioativo, a algUma distância uma da outra, as quais estão einitindo partículas a. Suponhamos que essas duas fontes sejam observadas durante um período de duas horas e o número de partículas emitidas seja registrado. Admitamos que se esteja interessado nas seguintes variáveis aleatórias: XI e x2, respectivamente o número de partículas emitidas pela primeira fonte durante a primeira e a segunda horas; e Yi e Y~, o número de partículas emitidas pela segunda fonte durante. a primeira e a segunda horas, respectivamente. Parece intuitivamente óbvio que {X1e Y1), ou (XI e Y2'), ou (X2e Y1) ou (X2e Y2) sejamtodoa os pares de variáveis aleatórias independentes; porque os Xi de~n­ dem somente das caracteristicas da fonte 1, enquanto os Yj dependem apenas das características da fonte 2, e não existe preaumivelmente motivo para supor que as duas fontes influenciem, de qualquer modo, o comportamento uma d~~, outra. Quando consideramos a possível independência de X 1 e X ll; no entanto, a questão não é assim tão nítida, Sem o mí.mero de partículas emitidas durante a segunda hora influenciado pelo número das que tenham sido emitidas durante & prim.eirn hora T Para responder a essa pergunta, deveremos obter informação adicional sobre o processo de emissão. Não poderíamos certamente supor, a priori, que X 1 e X2 sejam independentes. Vamos agorn tomar esa& noção intuitiva de independência mais precisa. Definição. (a) Seja (X, Y) uma variável a}e~~,t6ria discreta bidimensional. Diremos que X e Y são variáveis ale'a t6rias independentoo se, e somente se, p(x., Yi) = p(Xi.)q(yi) para quaisquer i e}. !ato é, P(X = x;, Y = y;) =P (X = x;) P(Y = y;) pandodo i e j. i!! l:l li!. 122 I PROBABIUDADE (b) Seja. (X, Y) uma variável aleatória. contínua bidimensional. Diremos que X e Y são variá.veis aleatórias. independentes se, e somente se, j(x, y) = g(x)h(y) para todo (x, y), o~de f é a fdp conjunta, e g e h são as fdp marginais de X e Y, respectiv~mente. Ji il 1: li; Co171e1!Urio: Se compararmos a defini~ 8 o acima .com aquela. dada para wenws independentes, a seiuelliança fica eviden:estamos .essencie.Imente exigi!'ido que a probabilidade conj'unta (ou édp conjunta) possa ser fato;ada. O teorema seguinte indica que a definiÇão acima é equivalente a outra maneira. de tratar o assunto, que poderíamos ter adotado. r' .1 11 III !jl ~ !~I i\; jl ~ ~· ~. . Teorema 6.1. (a) Seja (X, Y) uma variável aleatória. discreta bidimensional. Nesse cas . o, X e Y serão independentes se, e. so.me.n. te se, p(x; I y;) = p(x.) para todo i e j [ou, o que é. equivalente se, e somente se, q(y; Ix.) = q(y;) para todo i e j]. · (b) Seja (X, Y) uma variável aleatória contínua bidimensional. Nesse caso, X e Y serão independentes se, e somente se, g(xjy) = = g(x), ou equivalentemente, se e somente se,.h(y!x) =· h(y)1 para todo (x, y). Demonstração: Veja Probl. 6.10. Exemplo 6.10. Suponhamos que uma máquina.. ) seja utilizada para determinada . tarefa durante a manhã e para ·uma tarefa diferente durante ·a tarde. Representemos por X e Y, respectivamente, o número de vezes que a máquina. pára por desarranjo de manhã e à tarde. A Tab. 6;3 dá a distribuição de probabilidadé conjunta ' de (X, Y). . Um cálculo fácil mostra que, para todas as casas 'da. Tab. 6.3, teremos p(x;, y;) = !P(X;)q(y;). Portanto, X e Y são variáveis aleatórias independentes. (Veja também o Ex. 3.7, para comparação.) Tab. 6.3 ~ o 2 1 q(y1) o 0,1 0,2 0,2 1 0,04 0,08 0,08 0,2 2 O,OG 0,12 . 0,12 0,3 0,4 . 0,4 1,0 p(x;) 0;2 .... 0,5 VARIÁVEIS ALEATÓRIAS! D-i:. DUAS Ol!.JMAIS Exemplo 6.11. Sejam X e DIMEi\I~ÕES I 123" rI a duração da vida ·de dois disposiSuponha-se que sua fdp conjunta seja dada por tivos eletrônicos. I = e-<"'+1>, j(x, y) . . x :2: O, y :2: O. I Desde que podemos fatorarj(x, '!)) = e-e-:-'11, a independência de X e Y fica estabelecida. II . Exemplo 6.12. Suponha-se que j(x, y) = 8xy,j O ~ x ~ y ~ 1. (Q domínio é indicado Ipela região1sombreada na Fig. 6.7). Muito !embora j seja (já) escrita na forma fatorada, X e Y não são independentes, já que o campo de definição t (x, y) 1o ~ ~ ~ ~ y ~ ~ 1) é tal que para dado x, y pode to"-------!'-----Jt mar soinente valores maiores do que aquele dado J! e menores 'que 1. Por isso, X e Y Fl· g · 6·7 ~ saç> - I m · dependen· t es. nao !I . Comentário: Da definição de distribuição de probabilidade margiri.al (quer no. caso discreto, quer no caso contínJo) torna-se evidente que a distribuição de I probabilidade conjunta determina, uniyocamente, a distribuição de probabilidade Úlarginat Isto é, do conhecimento df fdp conjuntá j, poderemos obter as fdp marginais g e h. No entanto, 1J. rec!ptoca nAo é verdadeira! De fato, em geral, o conhecimento das fdp marginais g e não determina fdp conjunta j. Somente ·qUji.Ildo X e Y forem independentes issô será verdadeiro, porque nesse caso teremos . I f(x, y) = g(x)h(y). 'hl a i · ·· . O teorema séguinte mostra que nossa definição de variáveis aleat6ri8.'3 independentes é coerente cbm nossa d~fi~ção anterior de even1 . tos independentes. ! ·, Teorema 6.2. Seja (X, Y) Jma variável aleatória bidimensional. Sej.am A e B eventos cuja ocorrência (ou não ocorrência) dependa de X e Y, respectivamente. (Isto é, A é um -subconjunto---de apenas . ! .. . Rx, :o contradomínio d~__X; enq~anto B--é um subconjunto de RY, o contradomínio de Y.) ;ElJ.tão, sf X e Y forem variáveis aleatórias independentes, teremos · P(A "() B) ._= P(A)P(B). .. ... ·. ' '-... Demonstração (apen8.'3 para . ::·. ) P(A n B) = ff 4nB ~ o c8.'3o t· ··- - .. I contínuo): - . j(x,_y)! dx dy = : }! g(x)h(y) dx dy A..nB~ I = f }A g(x) dx_r h(y) dy = P(A)P(B) . . 'JB I IIi i'',!1 '•I 124 I PROBAB8LIDADE il' 6,4,. Funções de Variável Aleatória i I I I r: 1: j; I ·I Ao definir uma variável aleatória X, salientamos bastante que X é uma junção definida a partir do espaço amostral S para os números reais. Ao definir uma variável aleatória bidimensional (X, Y) estaremos interessados em um par de funções; X = X(s)) Y = Y(s), cada uma das quais é definida no espaço amosÚal de algum experimento e associa um número real a todo s ·E S, desse modo fornecendo·. o vetar bidimensional [X(s), Y(s).J. ' .. Vamos agora considerar Z = H 1 (X, Y), uma função de duas variáveis aleatórias X e Y . Fica evidente que Z = Z(s) é também uma variável aleatória. Consideremos. a: seguinte seqüência de etapaS:· (a) Executar o experimento 8 e obter o resultado s. (b) Calcular os números X(s) e Y(s). (c) Calcular o número Z = H 1 [X(s), Y(s)] . O valor de Z depende evidentemente de s, o resultado original do experimento. Ou seja, Z = Z(s) é . uma função que associa um número real Z(s) a todo resultado s E S . Conseqüentemente, Z é · uma variável aleatória. Algumas das importantes variáveis .àle·a t6rias, nas quais estaremos interessados, são: X+ Y, XY, X/Y, mín (X, Y), máx (X, Y) etc. O problema que resolvemos no capitulo ant~rior, para a variáve,l aleatória unidimênsional, surge novamente: dada .a distribuição de probabilidade conjunta de (X, Y), qual é a distribuição de probabilidade de Z = H 1(X, Y)? (Deve ter ficado evidente, das muitas explanações ante~iores sobre este assunto, que .uma distribuição de probabilidade é induzida em Rz, o espaço amostral de Z.) Se (X, Y) for uma variável aleatória discreta, este problema estará resolvido bastante facilmente. . Suponha-se que (X, Y) tenha a distribuição dada nos Exs. 6.1 e 6.4. As seguintes variáveis aleatórias (unidimensionais) poderão interessar à questão : U = mín (X, Y) = menor número de peças produzidas ·pel~ duas linhas; V = máx (X, Y) = maior número de peças produzidas pelas . duas linhas; W = X Y = número total de peças produzidas pelas· duas linhas. + I r I'I Para obter a distribuição de ·probabilidade de U, procederelflOS como se segue. Os válores possíveis de U são: O, 1, 2 .e 3. Para · I I I~ ---~-- · - -~- ----------~------~--------------~----------~----- VARIÁVEIS ALIEATÓRDAS DE DUAS OU MAIS iJIUMIENSÕES I 125 calcular P(U = O), raciocinaremos que U = O se, e somente se, um, dos seguirites ocorrer: X= O, Y =O ou X= O.Y = 1 ou X= O, Y = 2 ou X = O, Y = 3 ou X = 1, Y = O ou X = 2, Y = O ou X = 3, Y = O ou X = ( Y = O ou X= 5, Y = O. Portanto, P(U = O) = = 0,28. As outras probabilidades associadas a U podem ser obtidas de modo semelhante. · Daí, a distribuição de probabilidade de U poder ser assim resumida: u: O, 1, 2, 3; P(U = u)-: 0,28, 0,30, 0,25, 0,17. A distribuição de probabilidade das variáveis aleatórias V e W, .como definidas acima, pode ser ·obtida de maneira semelhante. (Veja Probl. 6.9.) Se (X; Y) .for uma variável aleatória bidimensional contínua e se Z = H 1 (X, Y) for uma função contínua de (X, Y), então Z ser~ uma variável aleatória contínua (unidimensionai) e o problema de achar sua-fdp é um pouco m3i;··c~mpllcado. A fim de resolver este problema, precisaremos de um teorema que enunciaremos e explicaremos a seguir. Antés de fazê-lo, vamos esboçar resumidamente · a idéia fundamental. Para procurar a fdp de Z = H 1(X, Y) é freqüentemÉmte mais simples introduzir uma segunda variável .. aleatória, por exemplo W = H 2 (X, Y), e primeiro obter a fdp conjunta de Z e W, digamos k(z, w). Com o conhecimento de k(z, w), poderemos então obter a fdp de Z desejada, isto é, g(z), pela simples integração de k(z, w) com relação a w, ou seja, g(z) = J +<c> -m . k(z, w) dw. Os problemas restantes .são: (1} como encontrar a fdp conjunta de Z e W, e (2) como escolher a variável aleatória apropriada W = = H2(X, Y). Para resolver o último problema, devemos dizer que geralmente se faz a mais simples escolha possível para W. Nesta passagem, W possu! apenas papel intermediário, e não estamos realmente interessá:dos nela em si mesma. A fim de encontrar a fdp conjunta de Z e W, temos necessidade do Teor. 6.3. Teorema 6.3. Suponhamos.que (X, Y) seja umay.ariável :iJeatória contínua bidimensional com fdp conjunta j. Seffm Z = H 1(X, Y) e W = H2(X, Y), e admitamos que as funções H 1 e H 2 satisfaça~ às seguintes condições: ( ' (a) As equações z = HI(x, y) e w = H2(x, y) podem ser univocamente resolvidas para x e y, em termos de z e w, isto é, x == Gi(z, w) · e y = G2(z, w). 126 l PROBABILIDADE (b) As derivadas pareiais éJxfàz, éJxféJU?, ÕyféJz e Õy/Õt~ existem e são continua.s. Nessa.s circunstâncias, a fdp conjunta de (Z, W), isto é, k(i; tiJ) · é dada pela seguinte expressão: k(z, w) = j[G 1(z, w), G2(z; te)] I J(z, w) I; onde J(z, w) é o seguinte determinante 2 X 2: . ax J(z, ax ·aw i)z w) éJy éJy é)z aw Este detenninan te é denominado o Jacobiano da transformação (x, y)--> (z, w) e, ~gumas vezes, é denotado por éJ(x, y)/éJ(z, w) . . Salientamos que k(z, w) será. não-nula para aqueles valores de (z, w) correspondentes a valores de (x, y) para os quais j(x, y) não seja nula. y z (a} (b) Fig. 6.8 ·, (a) Muito embora não demonstremos este teorema, indic&remos ao menos o que se deseja e onde residem as dificuldades. Consideremos a fd conjunta da variável aleatória bidimensional (Z, W), isto é, . ) ComentárÍO$: . K(z, w) = P(Z ~ z, ..! '] j'" j' _ ~ . _ ~ k(s, I) ds dt, na. qual k é a fdp procurada. Como se supõe que a transformação (x, y) _, (z, w) seja .biunívoca [veja a hipótese (a), acima], poderemos achar o evento, equivalente a {Z 5. z, W ~ wl , em ·termos de X e Y. Suponhamos que este evento seja de.n otado por C. (Veja. a Fig. 6.8.) Sendo assim, {(X, Y) E C} se, e somente se, .IZ ~· z, W ~ w} • Conseqüentemente, f ,. f' co l;Ii W ~ w) = -co k(s, t) ds dt = { }c· 1• j(x, y} dx dy ... Como se admite j conhecida, a integral do segundo membro pode ser calculada. O cálculo de suas derivadas em relação a z e w fornecerá a. fdp pedida. Na maior pe.rte dos manuais de Cálculo avançado, mostra-se que essas· ~nicas conduzem resultado, tal como foi enunciado no .teorema. acima.. oo I I . VAR1ÃVEIS ALEATORIASIDE DUAS ou MAIS DIME~SÕIES I 121 (b) Observe-se a acentuada semelhança entre o resultado acima e o res)lltado obtido no caso unidimensiop.al, l explicado no· capítulo anterior.. (Veja o Teor: 5.1.) A .exigência de monotonicidade para a função y = H(x) é substituída pela suposição de que a co~respondênciJ entre (x, y) e (z, w) seja biuruvoca. A condiçã~ .de de~va.bilidade é s~b~tit~ída po~ algumas hipótese~ sobre as der~vadas parmrus consideradas. A soluçao f10al jobt1da é, também, mm to semelhante aqqela . o:btids. no csso unidimensional: as var,iáveis x e y são simplesmente substituíd:JS por ·suas expressões equivalentes em termos de z e ·W, e o valor absoluto de dxfdy é substituído pelo .valor· absoluto do J ~cobiano. ' J · y Elemplo 6.13. Suponha-se que estejamos f~zendo mira em um alvo circular, de raio ~tário, que 'tenha sitio colocado de modo ~ue sim ce~tro se situe na origem . de um Isistema de coordenadas retangulares (Fig. 6l9). Admita-se que as coordenadas (X, Y) Ido ponto de impacto estejam unifor~ ni.eme,te distribuídas sobre o círculo. Isto é, J(l' y) = 1/';r, se (x, y) estiver dentro (ou . nai circunferência) do ~írculo, · . j(l , y) =O, se ,em qualquer outra parte. Fig. 6.9 Suponha-se que estejamos inte~ados na variável aleatória R, que representa a distância da origem. (Veja : a Fig. · 6.10.) Então, R':' V X 2 + Y 2• Encontraremys a. fdp de R, digamos .g, assim: SeJa <I> = tg:-1 (Y/X). Portanto, X= H 1(R; <I>) e Y = H 2(R, <I>), I ' onde x = H 1(r, cp) = r cos cp e y = H2(r, cp) = r sen cp. (Estdios I apenas introduzindo coordenadas polares.) i r 1--·- - - , - - - - - - - - - .·(27r, 1} 1"···· Fig. 6.10 I. • <I> Fig. 6.11 O jacobiano é ax J= cos 1> - r sen acp ;! . cp T I I sencp = r cos 2 cp +r seri2 cp = r. r cos 4> J I . I Pelá transformação acima, o círc~o unitário no plano xy fica transformado no retângulo no plano cfJ,r, na Fig. 6.11. Em conseqüência, I'· I 128 I PROBAB!IUDADE a fdp conjunta de (<I>, R) será dada por g(cp, r) = r 11"' O::::; r::::; 1, Portanto, a fdp de R, pedida, e que vamos denÓtar por h; é dada por h(r) = {2"' }o g(cp, r) dcp O::::; r::::; = 2r, 1. Comentário: Este exemplo salienta a importância de obter-se uma representação precisa da região dos valores possíveis para as novas variáveis · aleatórias introduzidas. · 6.5. rDistribu içãío do !Produto e do Quociente de Variávais Aleatórias: _Independentes_ ___ Dentre as mais importantes funções de X e Y que desejamos examinar; estão a soma S = X + Y, o produto W = XY e o quociente Z = X/Y. Poderemos empregar o método apresentado nesta seção para obter a fdp de cada uma dessas variáv~is aleatópas, sob condições bastante gerais. No Cap. 11, estudaremos a soma de variáveis aleatórias m'l'it'o minuciosamente.- Por isso, adiaremos para aquela ocasião o estudo da distribuição de probabilidade de X + Y. Consideraremos, entretanto, o produto e o quocl.ente nos dois teoremas seguintes. Teorema 6.4. Seja (X, Y) · uma variável aleatória contínua bidimensional e admita-se que X e Y sejam independentes; Conseqüentemente, afdp jpodeser escritacomoj(x, y) = g(x)h(y) . Façamos W ~ XY. Nesse caso, a fdp de W, digamos p, é dada por p(w) y = 1:= g(u)h{:) I ~ I Demonstração: Sejam w O jacobiano é du. = xy e u = x. = wfu. o 1 u 1 u (6.9) Portanto, x = u e VAFIDÃVIEiS ALEATÓRiAS DE DUAS OU MADS DDMIIEI\!SÕIES I 12!!J Dai, a fdp conjunta de W = XY e U = X é s(w, u) = g(u)h ( : ) l~ I A fdp marginal de W será obtida pela integração de s(w, u) em relação a u, fornec~ndo o resultado procurado. Os valores de w, para os quais p(w} > O, dependerão dos valores de (x, y) para os quais j(x, y) >O. · Comentário: Para calcular a integral acima, poderemos nos basear no fato de ·que ~ Exemplo 6.14. Suponhamos que temos um circuito no qual tanto â corrente I como a resistência R variem de algum modo aleatório. Particularmente, suponhamos que I e R sejam variáveis aleatórias continuas independentes com as seguintes fdp: I: R: = 2i, O .:::; i .:::; 1 e O fora desse intervalo, h(r) = r 2/9, O .:::; r .:::; 3 e O fora desse intervalo; g(i) . A variável aleatória que -interessa é E = IR' (a tensão no circuito) . Seja p a fdp de E. Pelo Teor. 6.4, teremos (' Algum cuidado se deve tomar -ao calcular-se esta integral. Primeiro, observe-se ·que a variável de int~gr~ção não pode tomar valores negativos. Segundo, observe-se que a fim de que o integrando seja posi~ · tivo, ambas as fdp que aparecem no integrando devem ser positivas .. Atentando,para os valores para os quais g e h não sejam iguais a zero, verificaremos que as seguintes condições devem ser satisfeitas: e O .:::; e/i .:::; 3~ Essas duas desigualdades são, por sua vez, equivalentes a e/3 .:::; i .:::; 1. Por isso, a integral acima se torna igual a . ... u t rnUI:SAMILIDADE. = 2 g-e(3- e), Um cálculo fácil mostra que ./o p(e) .de = 1. (Veja a Fig. 6.12.) e=~ 3 (3, O) Fig. 6.12 Teorema 6.5. Seja (X, Y) UII).a variável .aleatória bidimensional · contínua e suponhamos que X e Y sejam independentes. [Portanto, a fdp de (X, Y) pode ser escrita como j(x, y) ~ · g(x)h(y).] ·Seja Z = X/Y. Deste modo, a fdp de Z, digamos q, será dada por 1"'"' . q(z) y = = + . Demonstração: Seja!Il z = ·xfy e v = y. v. O jacobiano é J =I~ (6.l0) g(vz)h(v)lvldv. .z Portanto, x = vz e I 1 = .v. Daí a fdp conjuntâ de Z = X/Y e V = Y ser igual a t(z, v) = g(vz)h(v) Ivi. Integrando esta fdp conjunta em relação a v obtém-se a fdp marginal de Z procurada. · j..J Exemplo 6.15. Admita-se que X e Y representem a duração da vida de duas lâmpadas fabricadas por processos diferentés. Suponha-se que X e Y sejam variáveis aleatórias independentes, com fdp respectivamente f e g, onde f(x) g(y) = e..:r:, : = 2e-2v, x y 2:: O, e O para outros .quaisquer valores; 2:: O, e O para outros valores. Poderia · nos interessar a variável aleatória X/Y, que· 1representa o quociente das duas durações de vida. Seja q a fdp deZ. . r+ Pelo Teor. 6.5 temos que q(z) = J-.,"' g(vz)h(v) fv Idv. Porque X e Y podem tomar somente valores não-negativos, a integração a.cima precisa ser feita apenas sobre os valores positivos da variável VARIÁVEIS ALIEATÓFUAS IDE DUAS OU MAiS DIMENSÕES I 1J1 int~grando de integração. Além disso, o será positivo somente quando ambas as fdp que aparecem sejam positivas. Isto significa que deveremos ter v ;;;. O e vz ;;;. O. Visto :que z >O, e~sas desigualdades determinam que v ;;;. O. Portanto a exprpssão acima se torna Iq(z) = q(z) 1m I 1 I i = 2 e-·· 2e-2 ~ v dv = m ve -•<2 +•> dv. Uma integração por partes, fácil, fornece 2 Fig. 6.13 I (Veja a Fig. 6.13.) Constitui que fo m q(z) dz = 1. q(z) = (z no~amente· um + 2)2 ' z 2': o. exercício fácil verificar 1 I 6.6. Variáveis Aleatórias! n-Dimensionais I. Até aqui, nossa exposição seI restringiu . completamente a variá. . . veis aleatórias bidimensionais .. !No entanto, como apontamos no iníCio deste capitulo, poderemos ter de tratar com três .ou mais características numéricas simultâneas. I ' Faremos apenas uma brevfu,sima expos1çao de variáveis aleatórias n-dimensionais. A maio~ parte dos conceitos introduzidos acima para o caso bidimensional ~ode ser estendida para o caso n-dimensional. Nos restringiremos ad, caso conthluo. (Veja o Comentário no fim deste capitulo.) Suponhamos, a seguir, que ~X1, ... , Xn) possa tomar todos os valores em alguma região de espaço n-dimensional. Isto é, esse valor é um vetor n-dimensional.l uni I [XI(s),. !.. , Xn(s)]. Caracterizaremos a distribuição: de probabilidade de (X 11 • •• ,X!') . I da seguinte maneira: . 1 ·Existe uma função densidaqe de probabilidade conjunta f qu,e satisfaz às seguintes condiÇõ~: : (a) j(x 1, . .. , Xn) 2': O, para tddo (x1, ... , Xn). +m J_+m I ) _ (b) f_- m • • • -a; j(x1, ... , Xn dx1 .. . dXn- 1. I 132 I II"ROiflAIBBUDADIE Com o auxílio desta fdp definimos P[(Xh- . . , Xn) E C]= ( . · ·_ff(xl,·· . . , Xn) dx1 .. . dxn; c . onde C é um subconjunto do contradomínio d~ (X 1,. ; . ,X;.). A cada uma das variáveis · aleatórias n-dimensionais, poderemos associar algumas variáveis aleatórias de dimensão mais baixa. Por exemplo, se n = 3, . então. onde g é a fdp marginal da variável aleatória l]nidimensional X3, enquanto onde h representa a fdp conjunta da variável aleatória bidimensional (X1, X~) etc. O conceito de variáveis aleatórias independentes será tàmbém estendido de maneira natural. Diremos que (X 1, . . . ,Xn) serão variáveis aleatórias independentes se, e somente se, sua fdp conjunta j(x 1, . •• , Xn) puder ser fatorada na. forma Existem muitas situações nas quais desejaremos considerar variáyeis aleatórias n-dimensionais. :barerrí~s al!Slills ex.:e~plos. (a) Suponha-se que estejamos a estudar o padrão de precipitação decorrente· de um particulàr sistema de tempestades. · Se tivermos uma rede de, digamos, 5 estações de observação e se admitirmos que x, é a precipitação na· estação' i, devida a um particular sistema de·fre~tes de chuva, desejaremos considerar. a variável aieatória a 5-dimensões (X1, X2, x3, x4, X6)(b) Uma das mais importantes aplicações de variáveis aleatórias n-dimensionais ocorre quando tivermos de tratar com mensurações repetidas de algwria variável aleatória· X. Sup<:>nha-se que se deseje informação sobre a duração· da vida, X, de uma :válvula eletrônica. Um grande número dessas válvulas é produzido por determinado fabricante, e ensaiamos n dessas válvulas. Seja x, a duração da vida da i-ésima válvula, i= l, ... , n·. Portanto, (Xr, .. . , Xn) é uma variável aleàtória n-diinensional. Se admitirmos que cada. X; tenha a mesma distribuição de prohabilidade (porque todas as VARIÁVEIS ALEATÓRIAS DE DUAS OU MA8S DIMENSÕES I 133 válvulas são produzidas da mesma maneira), e se admitirmos que as X; sejam todas variáveis aleatór~as independentes (porque, presume-se, a fabricação de uma válvula não influencia a fabricação das outras válvulas), poderemos supor que a variável aleatória n-dimensional (X 1, ••• , Xn) seja .composta pelos componentes independentes, de idêntica distribuição de probabilidade X h . . . , Xn. (É óbvio que, muito embora xl e x2 tenham a mesma distribuição, eles não precisam tomar o mesmo .valor.) (c) Outra maneira, pela qual surgem variáveis aleatórias n-dimensionais, é a seguinte: admita-se que X(t) represente a potência exigida por uma certa empresa industrial, na época t. Para t fixado, X(t) será uma variável aleatória unidimensional, Contudo, podtJremos estar illteressados em descrever a potência exigida em n determinadas -épocas especificadas, digamos t 1 < t2 < ... < tn.: Portanto, desejamos estudar a variável aleatória n-dimensional Problemas deste tipo são estudados em nível mais adiantado. (Uma . referência excelente para este assunto é "Stochastic Processes", por Emanuel Par2;en, Holden-:bay, São Fr~ncisco, 1962.) . I Comentário: Em vários pontos de nossa exposição, mencionamos o conceito de "espaço n-dimensional". Vamos resumir alguma· coisa das idéias fundamentais a respeito. · .A cada número realx, podemos associar um ponto na reta dos números reais, e reCiprocamente.· Semelhantemente, a· cada pa•r de números. reais (x1 , x2), podemos associar um ponto no plano de coordenadas retangulares, e reei procamente. Finalmente, a cada conjunto de três números reais (xt, x2, x 3), podemos associar um ponto no espaço de coordenw:las retangulares tridimensional, e reciprocamente. Em muitos dos problemas que nos interessam, tratamos corri um conjunto de n números reais, (xt, x2, ... , Xn), também denominado. uma ênupla. Muito · embo~a não possamos desenhar ql)alquer esboço se n > 3, podemos continuar a l;l.dotar a .terminologia geométrica, como sugerido pelos casos de menor número de dimensões mencionados acima. Deste modo, falaremos de um "ponto" no espaço n-dimensional determinado pela ênupla. (Xt, ... , x,) . Definimos como espaço n (algumas vezes denominado espaço n euclidiano). o conjunto de todo {x1, . . . , Xn), onde x; pode ser qualquer número real. . Conquanto não necessitemos realmente de calcular integrais n-dimensionais, verificamos que . esse é um conceito muito útil e, ocasionalmente, precisaremos exprimir uma quantidade por uina integral múltipla. Se nos lembrarmos da definição de J J j(x, y) dx dy, A ~; .... 134 I PROBABIUDADE na qual A é uma região no plano (x, y), então a extensão deste conceito a f · · ·f J(xl, ... , x,.)dx1 . .• dxn, R na qual R é uma região .no espaço n, ficará evidente. Se j representar a fdp conjunta da variável aleatória bidimensional (X, Y), teremos que f f f(x, y) dx dy .A representará a probabilidade P[(X, Y) E A]. a fdp conjunta de (X 1, ... , Xn), então f · · ·f Semelhnntcmente, se j representar j(x1, . .• , Xn)dXl' · ·dr.,. R representará . P[(XJ, ... , Xn) E R]. Problemas 6.1. Suponha que a tabela seguinte represente a distribuição de probabilidadE; conjunta da variável aleatória discreta (X, Y). Calcule todas as distribuições marginais e as condicionadas. ~ - 1 2 3 1 -121 1 o 2 o 1 9 1 -1 - - "" IS 6 - 1 5 2 15 ~ 6.2. Suponha que a variável aleatória 'bidimensional (X, Y) tenha a fdp conjunta .f(r, y) k:r(x - y), O < x < 2, - x < ~ < :r:A O, para outros quaisquer valores. (a) Calcule a constante k : (b) _!\çh~ ; _fdp marginal de X. E~~-- -~~~~-~- idP ~~gmãf~ 6.3: -··supmlmí que a ídp conjunta da variável aleatória bidimensional (X, Y) seja dada por f(:r, y) x2 + x: , O< x < 1, O< y O, para quaisquer outros valores. < 2, VARIÁVEiS ALEATÓRIAS DIE DUAS ou MAUS DIMENSÕES I 135 Calcule o seguinte: P(X):> (a) :.···· !). . (b) P(Y < 'f.l· l.(<) P(Y >HX <·lJ. 6.4. Suponha que duas cartas sejam tiradas ao acaso de um baralho de cartas. Seja X o número de azes obtido! e seja Y o número de damas obtido. (a) Estabeleça a distribuição de propabilidade conjunta de (X, Y). Estabeleça a distribuição margiilal de X e a de Y. (b) (c) Estabeleça a distribuição condiéionada de X (dadoY) e a: de Y (dado X). 6.5. Para que valor de k, a expressãb j(x, y) = ke < 1, O < y 1? !< (X, Y), m:>bre a região O < x -(Xi;Y) é' a fdp conjunta de · ! 6.6. Suponha que a variável aleatória bidimensional . contínua (X, Y) seja uniformemente distribuida sobre o quadra4o cujos vértic~s são ( 1, 0), (0, 1),.(- 1, 0) e (0, - 1). Ache as fdp marginais de X e de Y. . J 6.7. Suponha que as dimensões, X Y, de uma chapa retangular de metal, · possam ser consideradas variáveis alcatória!f contínuas independentes; com as s·egtÚntes fdp: I X: g(x),., x- 1, 'j 1 <x.S2, -X := . Y: h(y) = + ?• 2 < X < 3; O, para'l quaisquer outros valores .. !, 2 < y < 4, . = O, parai quaisquer outros valores. Ache e. fdp da área da chapa, A = XY. l ·j 6.8. Admi~ que X represeri.t e a du~ação da vida de um dispositi\l'o eletrônico e suponha que X seja uma variável al~atória contínua com fdp l J; ~- j(x) = l.~?O , 1. x > ÚOO, = O, para Iquaisquer outros valores. Sejam X 1 e X 2 dua.S<tletenninações independentes da variável ale~tória X acima. · (Isto é, suponha que estejamos ensaiando ~ dura~ da yida de dois desses dispo• sitivos.) Ache a fdp da variável aleatória 1z = XI!X2. 1 . 1 I I 6.9. Obtenha a distribuição de probaJ?ilidade das variáve s aleatórias. V e W, 1 introduzidas na Pág. 124. ' . 6.10. Demonstre o Teor. 6.1. 6.11. A f~rça magnetizante II no .. ponto P, dis' de um condutor que. conduza uma. tante X unidades corrente I, é d4a por H = 2!/X. (Vej~ a Fig. 6.14.) Suponh!l- que R seja um ponto móvel, isto é, X seja uma variável aleatória contínua uniformemente distri- ·• ; •. buída sobre (3 ) 5). Suponha que. a corrente I seja também uma :Variável aleatória contínua, uniformemente distribuí!ia sobre (10, 20).,.. Suponha, ·\l-(lemais,· I ' que as variáveis aleatórias X e· I sejam independeiites. Fig. 6.14 Estabeleça a fdp da variável aleatória I!. 136 I ll"ROBABUUIDAIOIE 5,12•. A intensidade luminose. em um dado ponto é dada pele. expressão I = C/Ifl, na qual C é o poder luminoso da fonte e D é &·distância dess& fonte &té o ponto d!!.do. Suponha que C seja. uniformemente distribuída 8obre (1, 2), enquanto D sej& um& .variável &leatóri& contínua com fdp f(d) = cd, d > O. Ache e. fdp de I, ·admitindo que C e D sejam independentes. (Sugest/lo: Primeiro ache a ·fdp de D 2 e depois aplique. os res\]ltiM!os de:ite capítUlo.) 6.13. Qwtndo umil. corrente I (&mperes) pllSS& &través de um resistor R (ohms), a potênci& gerada é de.de. por W = PR (watts). Suponha. que i e R sejam v&riáveis aleatórii!S independentes, com I!S seguintes fdp: I: j(i) = 6i(l - t), O~i~ 1, = O, para quaisquer outros valores. R: g(r) = 2r, . O < r < 1, = O, para quaisquer ·qutros valores. Determine e. fdp de. variável aleatória W e esboce seu gráfico. 6.14. Suponha que a fdp conjunt&-de (X, Y) seja dada por j(x, y) = para. z > O, y > x, para. quaisquer outros valores. e-:111 =- O, (a) Ache a fdp marginal de X. (b) Ache a fdp marginal de Y. (c) Calcttle a. P(X > 21Y 4). < Caracterização Adicional das Variáveis Aleatórias Capí"tulo 7 7.1. O Valor Esperado de uma Variável Aleatória Considere-se a relação determinística ax + by = O. Nós a As constanreconhecemos como uma relação linear entre x 1e y. tes a e b são os parâmetros dessa relação, no sentido de que para qualquer escolha particular de a e b obtemos uma função linear específica. Em outros casos, um ou mais parâmetros podem catacterizar a relação· em estudo. Por exemplo, se y = · ax 2 bx c, três parâmetros são necessários. Se y = e-kz, uin parâmetro é suficiente. Não somente uma particular relação é caracterizada pelos parâmetros, mas, inversamente, a partir de um_a certa relação podemos defibx = O, nir diferentes paràmetros pertinentes. Por exemplo, se ay então m = - b/a representa a declividade da reta. Também, se y = · ax 2 bx c, então - bf2a representa o valor para o qual ocorre um. máximo relativo ou um mínimo relativo. Nos modelos matemáticos não-determinísticos ou aleatórios, que temos considerado, os parâmetros podem, também, ser empregados para caracterizar a distribuição de probabilidade. A cada distribuição de probabilidade, podemos associar certos parâmetros, os quais fornecem informação valiosa sobre a distribuição (tal como a declividade de uma reta fornece informação valiosa sobre a relação linear que representa). + + + + + Exemplo 7.1. Sup~:mha que X seja uma variável aleatória contínua, com fdp j(x) = ke--Í"", x Z O. Para verificar que esta expressão constitui uma fdp, observe-se que fo m ke--1= dx = 1 para tod~ k > O, e que ke-lcx > O para k > O Esta distribuição é denominada uma distribuição exponencial, a qual estudaremos !nimiciosamente mais tarde. Ela é uma distribuição especialmente útil para ,__ , 138 I PROBABILIDADE ·· representar a duração da vida X, de certos tipos de equipamentos ou componentes. A interpretação de k, nesse contexto, também será explicada depois. Exemplo 7.2. Admita-se que peças sejam produzidas indefinidamente em uma linha de montagem. A probabilidade de uma peça ser defeituosa é p, e este valor é o mesmo para todas as peças. Suponha-se, também, que as sucessivas · peças sejam defeituosas .(D). ' ou não-defeituosas (N), independentemente umas das <mtras. Seja a variável ale.ató:tia X o número de peças inspecionadas até que a primeira peÇa defeituosa seja encontrada. Assim, um resultado típico do experimento seria da forma NNNND. Aqui X(NNNND) == = 5. Os valores possíveis de X são: 1, 2, ... , n, . . . · Já que X= k se, e somente se, 'as primeiras (k - 1) peças forem não-defeituosas e· a k-ésima peça for defeituosa, atribuiremos a seguinte probabilidade ao evento {X = ic') : P(X = k) = p(1 - p)"- 1, k = 1; 2, ... n, ... Para verificar que esta é uma. legitima distribuição de probabilida· ~ de, observemos que ~ E lc- 1 p(1 - p)k-1 = pf1 . = p + (1 - p) + Cl- p)2 + ... J 1 1 _ (1 _ P) = 1 se O < Ip I < 1. Por isso, o. pa~âmetro p pode ser qualquer número satisfazen,do O<p<l. Suponha que uma variável aleat6ria e sua distribuição de probabilidade sejam especificadas. Existirá alguma maneira de carac- · terizar-se essa distribuição em termos de alguns parâmetros numéricos adequados ?_ Antes de nos dedicarmos à questão acima, vamos explanação com o estudo do exemplo seguinte. mot~var nossa Exemplo 7.3. Uma máquina de cortar arame corta o arame conforme um comprimento especificado. Em virtude de certas i~preci­ sões do mecanismo de corte, o comprimento do .arame cortado · (em polegadas), X, pode ser considerado como uma variável aleatória · uniformemente distribuída sobre [11,5i 12,5]. . O comprimento especificado é 12 polegadas. Se 11,7.:5 X < 12,2, o ararrie pode ser vendido com um lucro de US$ 0,25. Se X ~ 12,2, o arame pode ~er recortado, e um lucro eventual deUS$ 0,10 é obtid(). E se X< 11,7, o arame é refugado com uma perda de· US$ 0,02. Um cálculo fácil mostra que P(X;:::: 12,2) = 0,3, Pcll,7 .:5 X <- 12,2) = 0;5, e P(X < < 11,7) = 0,2. ~~-~ ·· ~--~---------------------------------------- I CARACTERIZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS / ' 139 !l Supónha-se que um grande númfro" de peda,ços de. a~ame tenha sido cortado, digamos N. Sejam Ns lo número de pedaços para os quais X < -11,7, NR o número de ped~ços para os quais 11,7.:::; X< 12,2, e N L o número de pedaços paA ·os quais X ;::: 12,2. Daí, o lucro l ' ' total obtido da produção de N ~edaços é igual a T = N s(- 0,02) + + N R(0,25) + N L(O,lO). O lucro total par pedaço de arame cortado, digamos W, é igual a W ,;,[ (N s/N) (- 0,02) + (NR/N) (0,25) + + (NL{N) (0,1). (Observe-se qu~ W é uma variável aleatória, porque N s, N R e N L são variáveis aleatótias.) . I · Já mencionamos que a freqüência relàtiva de um evento é próxima da probabilidade desse:...evebto, se o núm~ro de repetições sobre I o qual a freqüência relativa foi Ibaseada for grande. , (Explicaremos isto mais precisamente no Cap. 12.) Portanto, se ' N for grande, poderemos esperar que Ns/N seja próxima de 0,2, NR/N seja próxima de 0,5 e N L/N seja próxin\.a de 0,3. •Logo, para N grande, I W pode ser calculada aproximadamente como segue: ~ W i ' ,. ·','} ' .. i . . + (0,5) (0,25) + (0,3) .(0,1) = US$ 0,151. ! . ' (0,2) (- 0,02) . I ~ Deste modo, se um grande número de pedaços de arame for produzido, esperaremos conseguir um Ilucro de US$ 0,151 ·por pedaço de valor esperado da. variável arame. O número 0,151 é denhminado I , aleatória ·w. i I Definição. Seja X wna variável aleatória discreta, com valores ~ possíveis x 1, ••• , x,. . . . Seja p(~) = P(X = x;), i = 1, Então, o valor esperado de X (ou esperança matemática de X), denotado por E(X) é definido como 2, ... , ... . I E(X) = . E x.p(x.), (7.1) ti'=l ! se a série 2: xi p(xD convergir absolutamente, isto é, se I i= 1 00 2: i= 1 i lxlip(x·)< oo. IÍ I Este número é tam:bém denofninado o-valor médio de X, ou expecidncia de X. 1 I Comentários: (a) Se X toÍnar apedas um número finito de valores, a expiesi ' ' são aGima se torna E(X) = L~=l p(Xi)fi. Isto pode ser considerado-como I1.Dlll. "médi!r.. ponderada" .dos valores poss!v~is a:~o ... , z,. Se todos esses valores possíveis forem igualmente prováveis, E(JÍt) = (1/n) L~=l x., e. ·qual r~p!esenta ~ média aritmética simples ou usual dos ~ valores possíveis. I I '"i 140 I I'ROBABDUDA DIE (b) Se um dado equilibrado for jogado e a variável aleatóna X designar o número de. pontos obtidos, então E(X) = (1/6) (1 + 2 + 3 + 4 + 5 + 6) = 7/2. Este exemplo simples ilustra, nitidamente, que E(X) não é o resultado que podemos esperar quantia X for observado uma única vez. De fato, na situação anterior Fica evidente, porém, que se <Jbtivermos um grande número de observações independentes de)(, digamos X!J ... , Xn, e calcula.rmos a média aritmética desses resultados, então, sob condições bastante gerais, a média aritmética será próxima de E(X), em um sentido probabilístico. Por exemplo, na situação acima, se jogássemos o dado um grande número de vezes e depois calculássemos a média aritmética dos vários resultados, .esperaríamos que essa média ficasse t~nto, mais próxima de 7/2 quà.rito maior número de vezes o dado fosse jogado: . ' E(X) = 7/2 nem mesmo é um valor possível de X! (c) Devemos notar a semelhança entre a noção de v alor esperado, como foi -definida acima (especialmente se X puder tomar somente um número finito de .zy-alores), e a noção de média de um conjnnto de números z1, . . . , Zn . Comumente definimos z= (1/n) L~= l z.;. como a média aritmética dos números z1, . .. , Suponhamos, ademais, que tephamos números z1', ... , vezes, L7=l n; = n. Fazendo' fi= n;/n, derada dos números z1', . . •, . z~' I cpmo . k 1; """' --, .L.J ·. : n;:i=l' L7= ~\ i· I 1 , Zn. onde z.;.' ocorra 14 1, definimos a média pon- \ I ' 74Zi 1 f; = Zk kl . \ ~ f iZi,;,•• = \ . 2.) \:\i=Il ( Muito embora exista Uma forte ·semelhança entre a média ponderada acima e a definição de E(X), é importante cumpreender q~e a última é um número (parâmetro) associado a uma distribuiç~o de probabilidade teórica, enquanto a primeira é simplesmente o resultado da combinação de um conjunto de numeras em uma forina particular. Contudo, existe mais do que apenas uma semelhança superficial. Considere-se uma variável aleatória X e sejam x1, . .. , Xn os valores obtidos quando o experimento que origina X for realizado n vezes independentemente. (Isto é, x 1, • • • , Xn apenas representam os resultados de n mensurações repetidas da característica numérica X.) Seja x a média aritmética desses n números. Então, como eXplica' remos muito mais precisamente no Cap. 12, se n for suficientemente grande, x será "próxima" de E(X), em certo sentido. Este·. resultado é bastante r.elacionado à idéia (também a ser explicada no Cap. 12) de que ~ freqüência relativa j A associada a n repetições de um experimento será próxima da probabilidade P(A) se f A Jor baseada em um grande número de repetições de 8. Exemplo 7.4. Um fabricante produz peças tais que 10 por cento delas são defeituosas e 90 por cento são não-defeituosas. Se uma peça defeituosa for produzida, o fabricante perde US$ 1, enquanto uma peça não-defeituosa lhe dá um lucro de US$ 5. Se X CARACTERIZAÇÃO ADDCIONAL DAS VARIÁVEiS AlEATÓRiAS I 141 for o lucro liquido por peça, então X será uma variável aleatória cujo valor esperado é calculado como E(X) = - 1(0, 1) 5(0,.9) ~ = US$ 4,40. Suponha-se que um grande número de tais peças seja produzido. Nesse caso, quando o fabricante perder US$1 cerca de 10 por cento das vezes e ganhar US$ 5 cerca de 90 por cento das vezes, ele esperará ganhar cerca de US$ 4,40 por peça, a longo prazo. + Teorema 7.1. Seja X uma variável aleatória distribuida binomialrriente, com parâmetro p, baseada em n repetições de um_experi. mento. Então, E(X} = np. >\ __. . .<) Demonstração: k)-== -(~)pk(1 Como P(X- ; - p t-k, teremos l'}.. -. Jt_!(~ n (k - n!' . _- . _ p)n-k = pk(l k)) . . d--a , Q r\ .. ;--r yOt\\ l;r--.~ \ Vfv 1 n! pk(l - p)"-k l)!(n- k)! 8 l'bU (uma vez que o termo coni k = O é igual a zero). Façamos s = k - 1 na soma acimà. Como k toma valores desde úm- até n, s tomará valores desde zero até (n- 1). Substituindo k, em todos os termos, por . (s + 1), obteremos {Q,4- ht'.: B(X) I:l ~ (n- 1) p<+t(1 -p).n-8-t:=o . ~ s=O------~ ~,..-..,! = np_ il (n -l)-;-;- p)n-t-•. .. ------S A soma, na última expressão, é apenas a soma das probabilidades binomiais com n substituído por (n - 1), . isto é, [p + (f- p)]n-l e, portanto, igual a um. Isto estabelece o resultado. ·Comentário: O r'\Sultado acima corresponde certamente a nossa noção inc tuitiva, porque supomos que a probabilidade de algum evento A seja, digamos 0,3, quando um experimento é realizado. Se repetirmos esse experimento, por exemplo 100 vezes, deveremos esperar que A ocorra cerca de 100(0,3) = 30 vezes. O conceito de valor esperado, introduzido acima para a variáv~l aleatória discreta, _será muito em breve estendido. ao caso contínüo. Exemplo 7.5. Uma máquina impressora tem uma probabilidade_ constante de 0,05 de entrar em pane, cm um dia qualquer. Se a máquina não apresentar panes durante a semana, um lucw de :~JS será obtido. Se 1 ou 2 panes ocorrerem, um lucró de. $R s~rá alcançado (R < S). Se 3 ou mais panes ocorrerem, um lucro de $( - L) I . () -YJ - :€_ E (.i--())o:.e_ b = s=O ~ 142 I PROBABILIDADE será obtido. (Admitimos que R, S e L sej;1m maiores do que zero; também supomos que, se a máquina ent~ar em pane em qualquer dia, ela permanecerá parada durante o resto do dia.) Seja X o h,1cro . obtido por semana de cinco dias úteis. Os valores possíveis de X são R, S e (-L). Seja B o número de panes pcir semana. Teremos P(B = = k) (~) (0,05)k(0,95) -k, 5 k=0,1, . .. ,5. Já que X= S se, e somente se, B =O, X= R se, e somente se, B = 1 ou 2, e X = (-L) se, e somente se B = 3, 4 ou 5, verificamos que · E(X) =-SP(B =O)+ RP(B = 1 ou 2) + (-L)P(B = 3; 4 ou 5) = 8(0,95)5 + R[5(0;05)(0,95) 4 + 10(0,05) 2(0,95) 3] + . + (- L)[10(0,05) 3(0,95)2 + 5(0,05)4(0,95) + (0,05) 5] dólares. Definição. Seja X uma variável aleatória continua com fdp f. O valor esperado de X é definido como E(X) I 'I = J-: . . xj(x) dx. Pode acontecer que esta integral (imprópria) não convirja. seqüentemente, d~remos que..E(X) existirá se, e somente se, 1: (7.2) Con- lx lf(x) dx for finita. , l;l :; Comentário: Devemos observar .a analogia· entre o valor esperado de uma variável aleatória e o conceito de "centro de gravidade" em ·Mecânica. Se uma unidade de massa for distribuída sobre a reta, em pontos discretos X!J • •• , Xn. • • e se p(x;) for a massa no ponto x;, então vemos que L;': 1 x;p(x;) nipresenta o centro de gravidade (em relação à origem). Semelhantemente, se urna unidade de massa for distribuída continuamente sobre uma reta, e se j(x) ·representar a densidade · J 2:: xj(x) dx poderá também ser interpretado como o centro de massa em x, então de gravidade. No sentido acima, E(X) pode representar "um centro" da distribuição de probabilidade. Também, E(X) é algumas vezes denominado med1'da de posiçao central e é expresso nas mesmas unidades que X. Exemplo 7.6. Seja a variável aleatória X definida como segue. Suponha-se que X seja o tempo (em minutos) durante o qual um equipamento elétrico seja utilizado em máxima carga, em um certo período de tempo especificado. Suponha-se que X seja uma variável aleatória continua com a seguinte fdp: I j(x) ~ (1.500)2 x, Ü ~X~ 1.500, CARACTERIZAÇÃO ADICIONAL DAS VARIÁVEIS ALEt\TÓRIAS I 143 I i -1 (1. 00)2 (x - 3.00~), .· 5 1.500 ,::; x ::; 3.000, = O, para quaisquei !outros valoreE:, I Portanto E(X) = r:= I xj(x) dx [ 1 . (1.500)(1.500) I r }b 1.500 I = 1.500 minutos. . r3.000 x2 dx . J1.500 x(x - 3.000) dx J , 1 (Veja a Fig. 7.L) f(x) ~· x l l500 x = 3000 F~g. 7.1 . . I Exeitnp.Zo 7.7. O conteúdo de cinzas (em' percentagem) no carvão, ~ri. . , 'l alea . t,ona . con- · V'Ue ser coDSl'deradio como uma vanave di gamos X , }J' 2 (1/4.S75Yx , 10 ::; x ::; 25. Portínua c<im. a se~te fdp: f(x) 5 tanto, E(X) = (1/4.875) .~;: x 31 dx = 19,5 . por cento. Assim; o .coiiteúdo de cinz~ esperado no particula.r espé~ime de carvão que está sendo estudado é de 19,5 por cento. ' · . i= Teoienui 7,2. · Seja ·X . valo [a, b]. Nesse caso, unifo~emente distribuída sobre ci inter- E(X) r 1a~ b. I . I Demonstração: Afdp de X é 1ada por j(x), = 1/(b-:- a), a:::::;. x ::; b.. . Portanto, i · · E(X).= · · fb _x_ dx i= _ a b...,. . a (Observe-se que est e valor 1 1_·.b"-a ~210a+2-. b. 2 .. - - - r~pr~enta o ponto.médio do inte~~lo [a,·b], como era de se espe~ar.int~tivamente.) . .. .. . . 'I i . . . . .. . \ '. . Come1if.<irio:: .Pode ser .valioso leri:tpràr nesta oca8ião que uma váriável aleatória X é uma função .de .um espaço a)nostral S sobre contradomínio Rx. Como . . I ,.i 144 I PROBABILIDADE já salientamos repetidamente, para. muitos fins, estaremos tão-somente interessados no espaço amostral e nas probabilidades definidas nele. Esta noção .de valor esperado foi definida. completamente em termos do contradomínio. [Veja. as Eqs. (7.1) e (7.2).] Contudo, ocasionalmente, devemos observar a natureza. funcional de X. Por exemplo, como expressaremos a Eq. (7.1) em termos do resultado s E S, admitindo que S seja finito? Desde que x; = X(s) para algum s E S, ·e já que p(x:;) = P[s: X(s) = x;], poderemos escrever n E(X) = r:· x; p(x;) = i- 1 . L X(s)P(s), (7.3) • ES ~ onde P(s) é a probabilidade do evento {s} C S. Por exemplo, se o experimento consistir na classificação de três peças como defeituosas (D) ou não-defeituosas (N), um espaço amostral para este experimento seria S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD). Se X for definido como o número de defeituosas, e se admitirmos que todos os resultados acima sejam igualmente possíveis, teremos, de acordo com a Eq. (7.3), E(X) = L •ES X(~)P(s) + + + + =o ·( t )+ 1 ( )+ 1 ( )+ 1 ( )+ 2 ( t )+ 2 ( t )+2 ( )+ 3 ( t) N a.tura.lmente; este resultado poderia ter sido obtido mais facilmente pela aplicação da. Éq. (7.1) diretamente. Contudo, é conveniente lembrar que ·a fim de empregar a Eq. (7.1), necessitaremos conhecer os números p(x;), o que por sua vez significa que um cálculo, tal como aquele que empregam,os acima, teria de ser executado. O que se deve salientar é que uma vez que a distrib\l.ição de probabilidade sobre. Rx seja conhecida [neste caso, os valores dos números p(x;)], poderemos suprimir a. relação funcional entre Rx e S. 7.2. Expectância de uma Função de uma Variável Alea- tória Como já explicamos anteriormente, se X for uma variável. aleatória e se Y = H (X) for uma função .d e X, então Y será também uma variável aleatória, com alguma distribuição de probabilidade; conseqüentemente, haverá interesse e terá sentidó calcular E(Y). Existem duas maneiras de calcular E(Y), .qOO se mostram equivalentes. Mostrar que elas são, em geral, equivalentes, não é trivial e dei:nons~raremos apen~ um caso especíal. . No entanto, é importante que o leitor compréenda os dois tratamentos do assunto apresentados a seguir. CARACTER I ZAÇÃO ADBC.IONAL DAS VARIÃV..EJS-ALE"ATÓRUAS I 145 Definição: Seja X uma variável aleatória e seja ~-- ~ _!!__(~)­ (a) Se Y for uma variável aleatória . discreta C()m valores possí- · veis y1, Y2, . .. e se q(y;) = P(:r := y;), definiremos m E(Y) b) L y;q(v.). i=l = (7.4) Se Y for uma variável aleatória contínua com fdp g, defini- remos E(:> = f +m m yg(y)dy. (7.5) Comentário: Naturalmente, essas definições são completamente coerentes com as definições anteriores, dadas para o valor esperado de ~a variável alea. tória. · De ·rato, o que está acima sii:nplesmente representa uma reformula~ão em. termos de Y. Uma "desvantagem" de aplicar a definição acima -a fim de obter E(Y) é que a distribuição de probabilidade d~ Y (isto é, a distribuição de probabilidade sobre o contradomjnio Ry) é exigida. Explicamos, no capítulo anterior, métodos pelos quais. podemos obter ou as probabilidades no ponto q(y;), ou g, a fdp de Y. No entanto, surge a questão de podermos obter E(Y), sem prelilninàrmente encontrarmos a distribuição de probabilidade de. Y, partindo-se apenas do conhecimento da distribUição de probabilidade de X. A resposta é afirmativa, · · como o indicam os teoremas seguintes. Teorema 7.3. Seja X uma variável aleatórià e seja Y = H(X). (a) Se X for uma variável aleatória discreta e p(x;) = P(X = x;), teremos E(Y) = E [H(X)] = f: H(xJ)p(xJ). (7.6) i=I (b) Se X for uma variável aleatória contínua com fdp j, teremos +m E'(Y) = E [H(X) ] = j_ m H(x)j(x)dx. (7.7) Comentário: Este teorema torna a avaliação de E(Y) muito . mais simples, porque ele quer dizer que não necessitamos achar a distribuição de probabilidade de Y, a. fim de avaliarmos E(Y); o conhecimento da distribuição .de probabilidade de X é suficiente. Demonstração: [Somente demonstraremos a Eq. (7.6) . . A demonstração da Eq. (7.7) é 'u m tanto mais complicada.) Considere-~e a soma L1:1 H(xJ)p(x;-) = Li:l [_L, H(x;)p(x;)], onde a soma interior é tomada para todos os índices i para os quais 1I(x;) ~YJ, para algum Yi fixo. Conseqüentemente, todos os termos. H(r.;) são cons-. '...,;. 146 I PROBABILIDADE tantes na soma interior. Por isso EH(x;)p(x;) = .f: Yi L i=l i=l p(x;). i No entanto, L; p(x;) = L P[x !H(x.;) = . i I:,:I Logo, H(x;)p(xi) = }:;:I y;] = q(y;). y;q(y;), o que estabelece a Eq. (7.6)" Comentário: O método de demonstração é essencialmente equivalente ao método de contagem, no qual reunimos todos os itens que tenham o mesmo valor. Assim, se desejarmos achar a soma total dos valores 1, 1, 2, 3, 5, 3, 2, 1, 2, 2, 3, poderemos ou somar diretamente, ou indicar que existem 3 um, 4 dois, ,) três e 1 cinco, o que determina que a soma total seja iguàl a 3(1) + 4(2) + 3(3) + 1(5) = 25. Exemplo 7.8. Seja V a velocidade do vento (em milhas por hora) e suponha-se que V seja uniformemente distribmda sobre o intervalo [0, 10]. A pressão, digamos W (em libras/pé quadrado), na superfície da asa de um avião é dada pela relação: W = 0,003V 2 • Para achar o valor esperado de W, E(W), poderemos proceder de duas maneiras: (a) Empregando o Teor. 7.3, teremos 1 10 E(W) = 0,003v 2j(v)dv {10 = }o 1 0,003v 2 lO dv = 0,1 libras/pé quadrado. (b) Empregando a definiç&.o de E(W), precisaremos primeiramente achar a fdp de W que chamaremos g, e depois calcular f_+;, w wg(w)dw. Para acharmos g(w), observamos que w = 0,003v 2 é uma função monótona de v para v ~ O. Poderemos aplicar o. Teor. 5.1 e obter g(w) = = 1~ I~:1 .l.. Jww-112 213 ' = O, para quaisquer outros valores. Em conseqüência . {0,3 E(W) 1! !1! = }o wg(w)dw = 0,1 CARACTERIZAÇÃO ADICION.O:liDAS VARIÁVEIS ALEATÓRiAS I 147 I .. ! I depois de um cálculo simples. Deste modo, como afirrn.a o teorema, os dois cálculos de E(W) forne~em o mesmo resultado. I Exempla 7.9. Em muitos problemas estamos interessados apenas na magnitude de uma variável! aleatória, sem con:siderarmqs o seu sinal algébrico. Isto é, estaremos interessados em IX 1. Suponha. I mos que X seja uma variável a1eatória contínua com a seguinte fdp: 1 ec I . j(x) = _ , se e~~ x ~O, se x > O. =~ Seja Y = IX 1. Para obtermo~ E(Y), poderemos proceder por uma de duas maneiras. I (a) Empregando o Teor. E(Y) = J+ ~~ 2 [1 teremos IX IJ(x) ~X -[/ ( = m (1.3, (-x)~ + j," + 1] = . dx (x),- I 1! dx] . I (b) Para calcular E(Y) einpregando a definição, necessitamos obter a fdp de Y = lXI, que ! denotaremos g. Seja G a fd de Y. i ~rl~o, · ~,i G(y) = P(Y ~ y) = P[ IXI ~ y] i= P[-y ~X~ y] = 2P(O ~X~ y), ! porque a fdp de X é simétrica! em relação a zero. G(y) = 2 l i/ I j(x) dx:! 2 1 I 1 Logo, !1.., o !!._ dx 2 =-e-u+ 1. Deste modo teremos ~ara g, ai fdp ~e Y, g(y) = ~'(y) =·e-u, y _"2:. O. Portanto, E(Y) = fo yg(y) dy r= fo ye-u dy = 1, tal como acrma. . I Exemplo 7.10. EIQ mui~s problemas, pode~os empreg:=J:r o valor esperado de uma variável alea,tória a fim de tomar uma certa decisão de uma maneira ótima: Suponha-se que um fabncante produza um cert<J trpo de óleo lubrificante, o qual perde algum de seus atributos especiais se não I I ' .. . I II I I I ~43 I PROBABIUDADIE _x · for · utilizado dentro ·. de certo pei(odo «!e tempo. Seja o :n,límero de unidades de Óleo encomElndadas ao' f~bricllJlk (lu~~t~ ;~$~ $Kl~· (Uma unidádie ~ igual' a 1.000 ,gal~.) · Suponba-sie que X: aeja uma V"ariáveL aleat6rla coritúma; uiüform~ment~ . diStlclblddk 8ijb~ [2, 4]. Piirtarito, a fdp J tém .a forma · ·.' 1 f(x) ,.. > z ' = i' Iii 'I I· o, ' Suponha-se :.que para cada .unidade vendida; se ~n~a um lucro de US$ 300, enquanto para cada unidade não vendid~t (durante qualquer · ano especific11do) se .verifique unia perda de US$ ioo, porque uma .unidade :não . utiliza-da terá.:·de ser jogi_da fora. · Admít~t-se que o . fabrica.nte deva. decidir, alguns meses antes -do início de cada ano, quanto ele irá produzir, e que ele decida fàbricar Y unidades. (Y não · é rima variável aleat6ri~; é · especificada pelo fabricante.) S~ja Z o lucrd por ano (em dólares). Aqui, Z é .eVidentemente uma variável · àleatórla, porque é uma fW:lção da variável aleatória X. Especificamente, Z = H(X). onde H(X) :;: 300Y se 300X .. '! ' para quaisquer outros valores. . x ·_;: : Y, + (-lOO)(Y - X) se X< Y.' . (A 1fltima expressão pode ser escrita como 4ooX ~ lOOY) A fim de ~bterxnos E(Z), aplicaremos io ~oor. · 7.3 e escreveremos E(Z) = I f+ . H(x)J(x) dx = . I ! 1·. ~ H(i) dx. 6:1 -<m· 2 E(Z) I I z I . ·~ 2 y 4 Y=2 Y=3~S Y=<l IFifii; 7•3 esta integrai, dev:ere~os c~nsiderar três . Para calcul~r 2 ::; Y ::; . 4 e Y > .4. Com .a. ·ajude da F-ig. 1.2 e c~os: Y < 2, depois <J,e atgunias CARACTERIZAÇÃO ADICIONAL DAS VAR IÁVEoiS ALEATÓRIAS I 149 simplificações, obteremos E(Z) = 300 Y se Y ~ 2 - 100Y2 + 700Y- 400 se2<Y< 4 = 1.200- lOOY se Y?: 4, A questão seguinte apresenta interesse. Como deve o fabricante escoll!er o valor de· Y, a fim de maximizar seu lucro esperado ? Poderemos responder apenas que dE(Z)/dY = O. a esta questão facilmente, estabelecendo Isto fornece Y = 3. 5. (Veja a Fig. 7. 3.) 7.3: · Variáveis Aleatórias IBidimensionats Os conceitos discutidos acima, para o caso unidimensional, também valem pa!a variáveis aleatórias de dimensão mais elevada. Em particular, para o caso bidimensional, estabeleceremos a seguinte definição. Definição. Seja (X, Y) uma variável aleatória bidimensional e seja Z' = H(X, Y) uma função réal de (X, Y). Em conseqüência, Z uma variável aleatória (unidimensi~nal) e definiremos E(Z) como se segue: será ,. ' (a) Se Z for uma variável aleatória discreta, com valores posP(Z = z;), síveis z1, z_2 , •.. e com p(z;) m então E(Z) = Í: z,p(z;). (7.8) i= 1 (b) Se Z for UIIl1l. i variável aleatória contínua com fdp j, teremos E[(Z) = J_ +m ~ zj(z) <h. (7.9) Como no caso unidimensional, o seguinte teorema (análogo ao Teor. 7.3) pode ser demonstrado. Teorema 7.4. Seja (X, Y) uma variável aleatória bidimensio' Y). nal e façamos Z = H(X, (a) Se (X, Y) for uma variável aleatória discreta e :;;e \ ' p(xi, y;) = P(X -= x;, Y = Y;), i,j = l, 2,. ! :! 150 I PROBABiliDADE teremos m ~ m L L H(x;, Yi)p(x;, Yi), ) j - I i=l E(Z) = (7.10) ! ~ i' 11 ! (b) Se (X, Y) for urna variável aleatória contínua com fdp conjunta j, teremos E(Z) i r = J: "'1:"' (7.11) H(x, y)j(x, y)dx dy . Comentário: Não demonstraremos o Teor. 7.4. Também, tal como no caso unidimensional, este é um resultado extremamente útil porque ele afirma que nllo necessitamos achar a. distribuição . de probabilidade da. va.riá.vel aleatória. Z, a fim de calcular sua. expectância. Poderemos achar E(Z) diretamente, a partir do conhecimento da. distribuição conjunta de (X, Y) . Exemplo 7.11. Vamos reconsiderar o Ex. 6.14 e achar E(E) onde E= IR . Já vimos que I e R er~m variáveis aleatórias com as seguintes fdp g e h, respectivamente: g(i) = 2i, o~ i~ h(r) = r 2/9, 1; O~ r ~ 3. Também encontramos que a fdp de E era p(e) = (2/9)e(3 - e), O ~ e ~ - 3. Visto que I e R são variáveis aleatórias independentes, a fdp conjunta de (I, R) é simplesmente o produto das fdp de I e de R: j(i, r) = (2/9)ir 2 , O ~ i ~ 1, O ~ r ~ 3. Para calcular E(E) em·' pregando o Teor. 7.4, teremos 21 1 3 1 = 9 ::, :~i: i 2 di o ~ r 8 dr = -3 · 2 Empregando diretamente a definição (7.9), teremos {3 I '! ~I 2 = 9 I ~ •:! 7.4. i:' '~l ii,,i .1 'i i ;I i 11 ~Iii 111: ~\\ :r {3 2 E(E) = }o ep(e) de =}o_ e 9 e (3 - e)de { Jo 3 (3ell- efl) de= 3 2-. Propriedades de Valor Esperado Mencionaremos algumas importantes propriedades do valor esperado de uma variável aleatória, as quais serão muito úteis para I I I . . CARACTERIZAÇÃO AD I CION,AL DAS VARIA VEIS ALEATQR I AS I 151 I o estudo subseqüente. Em ~ada _caso, admitirelfos· que todos os valores esperados que mencionarmos, existam. As demonstrações . . I , serão dadas apen&a para o ca.So contínuo. O leitor deve estar apto .. I I . 111 desenvolver l!ll demonstração para o c;aso discreto, pela simpl~s substituiçãO dM integrais pot somat6rios. · . I Pr~ 7.1. Se X=+ C, onde C é .u ma constante, então, I F(x) E(X) = C. Demonstração: 1 , . . - - - - - - - -F(x)=i I i xl x=C E(X) = dx . ·d·.·,, r+~ I !Fig. 7.4 J:"' C~(;r;) -. _)J-"' j(x) dx =C. Comentário: O significado de ser X igual a' C é o seguinte: · Desde- que X é uma função do espaço amostral nd Rx, a propriedade acima diz que o Rx é constituído unicamente plllo v:alor C. Gonseqüentemente, X será iguai a C, se, e . somente se, P[X(s) = C.l = 1. Estai idéia é melhor explh::ada em termos d;,. 'fd de X, A saber, F(x) = O, se x < é; F(x) ~ 1, se x 2: C (veia a Fig. 7.4). Tal variável aleilt6ria é, algumas vez~, chamada degenerada. · ·. . .... I • . Propriedade 7.2. Supo~a,.:se que C seja uma constante e X seja uma variável aleatória. !ED,tão, E(CX) ="' CE(X). i Demonstração: E(CX) = ~ ! +.. _"' Cxj(x) I f+"' F = C :__ ~ xj(x) dx = CE(X} I. Propriedade 7.3. Seja (~, Y) uma variável aleatória bídimen- . sional · com uma distribuição de probabilidade conjunta. Seja I Z = H 1(X, Y) e W "= H 2 (X, Yj). Então, E(Z + W) = E(Z) + E(W). Demonstração: I i i E(Z + W) = J: "'1: . [+(x, y) +H 2 (x, y)]j(x, y)dx dy = .j 1 [onde j é a fdp conjunta de (X, Y)J : . . ;.- ., 152 I PROBABIUDADIE Propriedade 7.4. Então, E(X quer. Sejtilm X .~ Y duas variáveis aleatóriM qu&is- + Y) = E(X) + E(Y). Demonstração: Isto decorre ãmOOi&tmnente da Propriedade 7.3, ao se fazer H 1(X, Y) = X e H 2(X, Y) = Y. I I : .. Comentário: (a) Combinando-se as Propriedades 7.1, 7.2 e 7 .4, observaremos o seguinte fato importante: Se Y = aX + b, onde a e b sl!.o constantes, .entl!.o E(Y) = aE(X) + b. Em linguagem corrente: o valor esperado de uma função line&r é 111 mesma função line&r do v&lor esper&do. X!!to fUlo será. verdadeiro, a men9s que se trate de função linear, e constitui um erro comum pensar que a propriedade ·seja vá.lid& para outras funções. Por eJtemplo, E(X 2 ) ;;é (E(X)J2, E(ln X) ;;é ln E(X) etc. Assim, se X tomar valores _: 1 e 1, cada um com probBbilidade 1/2, entlto E(X) = O. No entanto, + (b) Em geral, é difícil obter expressões para E(l/X) ou E(X 112 ), digamos em termos de 1 IE (X) ou [E (X) ] 112 • Contudo, algumas desigualdades estão disponíveis, as quais são muito simples de deduzir. (Veja os artigos de Fleiss, Murthy e Pillai e o de Gurland, nos números de fevereiro e dezembro de 1966 e abril de 1977, respectivamente, da revista The American StatisticiLui.) Por exemplo, teremos: (1) se X tomar soinente valores positivos e tiver expectância finita, então, E (I/X);;. 1/E(X). (2) sob as mesmas hipóteses de (1), E(X 112 ) Propriedade 7.5. Então, E(Xt .;; [E(X)] 112 • Sejam n variáveis aleatórias X 1 , .•• , X,.. + ... + Xn) = E(Xt) + ... + E(Xn). Demonstração: Isto decorre imediatamente da Propriedade 7.4, pela aplicação da indut;ão matemática. Comentário: Combina.nd<HJe esta propriedade com a anterior, obteremos E ( ±~x.) E~E(X;), = io:::r 1 i -1 onde os a; são constantes. Propriedade 7.6. Seja (X, Y) uma variável aleatória bidimensional e suponha-se que X e Y sejam independentes. Então, E(XY) = = E(X)E(Y). CARACTERIZAÇÃO ADiCIONAl DAS VARIÁVEIS AlEATÓFUAS I 153 Demonstração: E(JÇY) = = = _"' f _"'+mf+= xyj(x,y) dxdy r+"'j+"' J-"' - xyg(x)h(y) dx dy m f +m xg(x) dx}r+"' _"' yh(y) dy = E(X)E(Y). = Comentário: A hipótese adiCional de independência é exigida para estabelecer-se a Propriedade 7 .6, enquanto tal suposição não foi necessária para obter-se a Propriedade 7 .4. Exemplo 7.12. (Este exemplo se baseia em um problema do livro An Introduction to Probability Theory and Its Applications, de W. Feller, p. 225.) Suponhamos que seja necessário testar alguma característica em um grande número .de pessoas, com resultados positivos ou negativos. Além disso, suponhamos que alguém possa tomar amostras (ou provas) de várias pessoas e testar a amostra combinada como uma unidade, como pode ser o caso de certos tipos de exames de sangue. Suposição: A amostra combinada dará um resultado negativo se e somente se todas as amostras que contribuem forem negativas. Por isso, no caso de um resultado positivo (da amostra combinada), todas as amostras devem ser retestadas individualmente, para determinar quais são as positivas. Se as N pessoas forem divididas em n grupos de 'k pessoas (admita-se que N = kn), então, surgem as seguintes escclhas: (a) testar todas as N pessoas individualmente, sendo necessários Ntestes; (b) testar grupos de k amostras, o que poderá exigir tão pouc6 quanto n = Njk testes ou tantos testes quanto (k + l)n = N + n. · Será nosso propósito estudar o número médio de testes exigidos no caso (b) e, em seguida, comparar esse número comN Suposição: A prob~bilidade de que os resultados do teste sejàm positivos é igual a p, e é a mesma para todas as,pessoas. Os resultados dos testes para pessoas de um mesmo grupo sujeitas ao teste também são independentes. Seja X= número de testes requerídos para deterrni- 154 I PROBABILIDADE nar a característica que esteja sendo estudada para todas as N pessoas, e seja Xi = número de testes requeridos para testar pessoas no i-ésimo grupo, i= 1, .. . , n. Daí, X= X 1 + ... +Xn e, por isso, E(X) =E(Xt)+ .. . +E(Xn), o que é igual a nE(Xt), porque todos os Xi têm a mesma expectância. Agora, X 1 toma somente dois valores: 1 e k + 1. Ademais,P(X1 = 1) = = p (todas as k pessoas no grupo 1 são negativas)= (1 - p )k. Portanto, P(X 1 =k+ 1)= 1-(1-p)k .) e então E(Xt)= 1· (1-p)k +(k+ 1)[1-(1-p)k]= = k[ 1- (I- p )k + k- 1 ]. Logo, (A fórmula acima é válida somente para k > 1, desde que k = 1 conduz aE(X) =N + p • n, o que obviamente é falso!) Uma questão de interesse é a escolha de k para o qual aE(X) s~ja a menor possível. Isto poderá ser trátado facilmente por algum procedimento numérico. (Veja o Problema 7.11.a.) Finalmente, note-se que, para o "teste em grupo" ser preferível ao teste individual, deveremos ter E(X) < N, isto é, 1 - (1- p )k + k- 1 < 1, o que é equivalente a k- 1 < p )k. Isto não pode ocorrer, se (1 ~ p) < 1/2, porque, nesse caso, (1'- p)k < 1/2k < 1/k, a última ·desigualdade decorrendo do fato de que 2k > k. Daqui, obteremos a seguinte conclusão interessante: Se p, a probabilidade de um teste positivo em qualquer dado individual; for maior do que 1/2, então nunca será preferfvel grupai amostras antes de testar. (Veja o Problema 7.11.b.) (1: - Exemplo 7.13. Vamos aplicar algumas das propriedades acima pára deduzir (de novo) a expectância de uma variáy;,l aleatória distribuída binomialmente. O método empregado poderá ser aplicado vantajosamente em muitas situações similares, Consideremos n repetições d~ um experimento e seja X o nú. mero de vezes que algum evento, digamos A, ocorra. Seja p = P(A) e 11~11 1~\ : CARACTERIZAÇÃO AD8C.IONAL pAS VAR~ÁVEIS ALEATÓRIAS I 155 . i admitamos que _este número seja\ constante em tod~Mj as repetições OOWJJidemd&a. · Defmmmoa aa v~iáveia ~uxiliarea Y1 , ••• , Y,., asaim: Yfã i = .li. ae o ewnto A ooorjrer nm i-ésima repetição, = illiiiSO @ oontxiírio. + i . . +... + Y,.; e aplicando a Proprie-- Em oonseqüência, X = Y 1 Y2 d!M!e 7.5, obteremos· . . ! E~X) = E(Yl) l+ ... + E(Y,.). t!ontudo, · I .. . ..AssJm, E(X) . E(Yo) = l(p) = np, .. o que + 0(11I - ·;· ···· --) verific~ I p) = p, para todo i. . . o resultado antenor. Comentd.rio: V~m~.os relliterpretar ~w importante resultado. Consideremo5l ~ v~iáwl aleatória X/n~ Isto repreeenJ a freqUência relativa do evooto A, dêritre 'J!B n repetições de&. Empregando a·Pro~riedade 7.2, teremos E(X/n) = (np)fn = p. Isto é, intUitivamente, CQmo seria d<a ~p<arar-se, porque afirma ·que a freqüência. relativa .~a do evento A .ê p, quarldo p = P(A). Ele representa a primeira verifiC8\)li.0 tOOrie& do fato de que existe ~One:xão entre I a freqüênciiL remtiVI!. de um evento· e .a probabilidade ds,quele eventb. Em um eapítulo posterior, obteremos outros nsultados que est:Welecem uma ·telaÇio ~uito .:maiS pr~ entre freqüên1 cia, rolativa e probabilidade. • ' ! I Exemplo 7.14. Suponhamos que a procura D, por semana, de um certo produto seja uma variável [a leatória com uma certa distribui- .. çio de probabilidade, digamos J:r(D = n) = p(n), n = O, 1, 2, ... Admitamos que o custo pe.ra o t endedo:r seja C1 dólares por peça, enq1Jlanto ele vende cada peça P?r C2 dólares. Qualquer peça· que não tenha sido vendida até o fimI da semana. deve ser estocada ao . custo de Cu dólares por peça.. Se o vendedor deddir · pro-duzir ·N peÇ$.8 no início da semana, qual s~á seu lucro esperado por seman.11.? Pam. que valor 'de N, o lucro esp~ra.do se toma máximo? Se T for .o lucro por semana, teremos \. .T NC,. - N(;l se I D l > N, DC2- C1N- CJra(N- D) se D . Reescrevendo o que .'1' ea~ I N. ;. acima., Qbteremos I I N(Cs- C1) se (Cs ~ + CD)D - I E! > N, N((C1 I I + Ca) \ se D ::_:; N. . 156 I PROBABIUDAOE Por isst>, o lucro esperado é obtido assim. E(T) N(C2- Ct)P(D - N(Ct > N) N + (C2 + Ca) n·=o L np(n) + Ca)P(D ~ N) N m N(C2- Ct) L p(n)· + (C2 + C3) n-0 Lnp(n) n=N+l N - N(Ct + Ca) n=O L p(n) N N(C2- Ct) + (C2 + Ca) n=O L p(n)(n - N). Suponhamos que se. saiba que a seguinte distribuição de probabilidade seja apropriada para D: P(D = n) = 1/5, n = 1, 2, 3, 4, 5. Daí, E(T) = N(C2- C1) + (C 2 ~ C3) [N(N 1. N(C2 - C1) + (C2 + Ca) 5 + 1)/2 .~ N se N 2] > (15 ~ 5N) se N Suponhamos que C 2 = $9, C 1 = $3 e C3 = $1. ~ 5, - N2] 5. Logo, E(T) E(T) =6N + 2 [ N(N + 1) 2 se N 6N L-----~------~--~N + 2(15 - 5N) se N ~ 5, > 5, 7N- N 2 se N 30-4N se N > 5. ~ 5,. Portanto, o máximo ocorre para N = 3,5. (Veja Fig. ·7.5.) Para N = 3 ou 4, teremos E(T) = 12, que é o máximo atingível, porque N é um inteiro. 7.5. A Variãncõat de uma Variável Aleatória Suponhamos que, para uma variável aleat6ria X, verificamos que E(X) = 2. Qual é o significado disto ? É importante que ·não atribUamos a essa informação mais significado do que é autori~ado .. CARACTERIZAÇÃO ADDCIOI\IAL D"AS.VARIÁVE.ISAlEATÔRIAS I 15.7 Ela simplesmente signific& que se considerarmos um grande número de determinações de X, digamos x ••... . , Xn e calcularmos SI média desses valores de X, esta média estaria' próxima de 2, se n fosse grande. No entanto, é verdadeiramente crucial não atribu~r demasiado significado a um valor esperado. Por exemplo, suponhamos que X represente a durnção da vida de lâmpadas que estejam sendo recebidas de um fabricante; e que E(X) = 1.000 horas. Isto poderia significar uma dentre muitas coisas. Poderia significar que a maioria das lâmpadas deveria durar um periodo compreendido entre 900 horas e.l.lOO horas. Poderia, também, significar que as lâmpadas fornecidas são formadas de dois tipos de lâmpadas, l.nteiramente diferentes:eerca de metade são de muito boa qualidade e du~arão aproximadamente 1.300 horas, enquanto a outra metade são de muito má qualidade -e durarão aproximadamente 700 horas. Existe uma necessidade óbvia de introduzir uma medida quantitativa que venha a distinguir entre essas duas situações. Vária.S medidas são por si mesmas muito sugestivas, mas a seguinte é a quan~ tidade mais comumente empregada. Definição. Seja X uma variável aleatória. Definimos a variância de X, denotada por V(X) ou ~Yx 2 , da maneira seguinte: V(X) = E [X - E(X)] 2 • (7.12) A raiz quadrada positiva de V(X) é denofuinada o desvio-padrão de X, e é denotado por ~Yx. Comentários: (a) O número V(X) é expresso por unidades qua<Jr{ulas ·de X. Isto é, se X for medido em horas, então V(X) é exprelS:\1 em (horas)2 • Este é um motivo para considerarmos o desvio-padrão; ele é expresso nas m~ unidades que X.· (b) Outra medida possível poderia ter sido E IX - E(X) J. Por alguns . motivos, um dos quais é que X2 é uma função melhor "comportada" que IX J, a variância é preferida. (c) . Se interpretarmos E(X) como o centro de gravidade da unidade de massa distribuída· sobre = reta, poderemos interpretar V(X) como o momento · de inércia dessa massa, em relação a um eixo perpendicular que passe pelo centro .de gravidade da massa. (d) V(X), tal como definida na Eq. (7.12) é: um caso especial da seguinte noção mais geral. O k-ésimo rrwmento da variável aleatória X, em relação a sua expectância, é definida comd sendo }J. J, = E [X - E(X) ]k. Evidentemente,· para k = 2, obteremos a variância. O cálculo dé V(X) pode ser simplificado com o auxílio :do seguinte resultado. 158 I PROBABILIDADE Teorema 7.5. Demonstração: Desenvolvendo E[X- E(X)]2 e empregando as propriedades já estâbelecidas para o valor esperado, obteremos V(X) = E[X - E(X)] 2 = E{X 2 = E(X 2 + [E(X)] j 2E(X)E(X) + [E(X)] 2 2XE(X) - )- 2 = E(X2) _ [E(X)l2. [Lembrar que E(X) é uma constante.] 'Exemplo 7.15. O serviç~ de meteorologia classifica o tipo de céu que é visivel, em termos de "graus de nebulosidade". Uma escala de 11 categorias é empregada: O, I, 2, .. . , 10, onde O representa um céu perfeitamente claro, 10 representa um céu completamente encoberto, enquanto os outros valores representam ~ diferentesó.c,ondições intermediárias. Suponha-se que tal classificação seia;}E;!ita em uma determinada estação meteorológica, em uriJ. daterminaq~,,dia e hora. Seja X a variável aleatória que pode tomar um dos Ii · ~a­ lores acima. Admita-se que a distribuição de probabilidade de X seja = Pa = p~ P6 P1 = P2 = Ps = = pa = p1 = 0,06. pa = 0,15; Portanto 1 E(X) = + 2(0;15) + 3(0,06) + 4(0,06) + 5(0,06) + + 6(0;06) + 7(0,06) + 8{0,15) + 9(0,15) + + 10(0,05) = 5,0. 1(0,15) A fim de calcular V(X), necessitamos calcular E(X 2). + 4(0,15) + 9(0,06) + 16(0,06) + 25(0,06) + + 36(0,06) + 49(0,06) + 64(0,15) + 81(0,15) + + 100(0,05) = 35,6. E(X 2) = 1(0,15) Portanto, V(X) = E(X 2 ) e o de.svio,-padrão Exemplo 7.16. continua com f'dp · - [E(X))2 = 35,6 - 25 = 10,6, u = 3,25. Suponhamos que X seja uma variável \ aleatóri~ I ~ . - I I I - . . CARACTERIZAÇAO AD.ICIONAL DAS VARIA VEIS ALIEATORIAS I t59 j(x) = 1 + X; I - 1 ~ x ~ O, = 1 ~- X ~ 1. X, ~ 0 ~ (Veja a Fig. 7.6.) Em virtude da [simetria da fdp, E(X) =O. (Veja o comentário abaixo.) · · Além disso, ~ E(X') f(x) 1>(1 + 1 x) dx + + 7 x (1- x)ch = . Com~~rio: • 1 \ !· Portanto, V(X) = i ! .i 1 -1 X . IFIQJ. q~e 7.6 .· al~atória con~nua Su_ponhamos uma \va.riável tenha uma fdp que seJa s1métnca em rela.çao a x =· O. Isto e, j(- x)· = j(x) para todo x. Então, desde que E(X) exista, E(X) =o, lo que é uma !conseqüência imediata da definição de E(X). Isto pode ser estendido a um ponto arbitrário de simetria . ' . I z = a, e nesse caso E(X) = a. (Veja o f'robl. 7.33.) I I 7.6. tória. Prçpriecllades rdla Variância clle uma Variãvel Alea! imp~rtantes, Existem vana.s propriedades I {!m parte análogas àquelas expostas para a expectân4ia . de uma variável aleatória, as quais valem para a variância. . Ii . Propriedade 7.7. Se C for uni.a constant~, I l'(X C)i= V(X). + Demonstração: V(X + C) (7.13) · = E[(X + C) :- E(X = E[X - E(X)) 2 ,;: I +iC)] 2 = l..1(X + C) ...,. E(X) -: C]z V(~. . I Comentário: Esta ·propriedade é intuitivamente evidente, porque somar UIWI constante a um resultado X ni!.o llllt6-a sua variabilidade, qUl!l é siquilo que a vmância mede. Apenas "desloca" oo valores de X para 11. direita ou Iii esquerde, dfl~ndendo do sinal de C. . j . I Pr()prÍedade 7.8. ~ C for ~a constante, V(CX) · Demcmstração: (7J.4) i X)~ - [E(CX)}~.. lI (}2E(X . V(CX) = E(C . = lc~V(X). 2) - = C!(E(X2)- (E(X)}2}J. = C!V(X). C2[E(X)}2 \ 160 I PROBABIUDADIE Propriedade 7.9. Se (X, Y) for uma variável aleatória bidimensional, e se X e Y forem ·indépendentes, então Y(X + Y) + V(Y). = l'(X) (7.15) Demonstração: r(X + Y) = E(X + Y)2- [E(X + Y))2 E(X 2 +2XY + Y 2 ) - [E(X)]2- 2E(X)E(Y)- [E(Y))2 E(X 2 ) - [E(X))2 + E(P)- [E(Y)}2 = V(X) + V(Y). Comernário: 1!: importante compreender que .a variância. nao é, em geral, aditiva, como o é o valor esperado. Com a hipótese complementar de independência, a Propriedade 7.9 fica ·válida. A variância t.ambéin não possui a proprie·dade de linearidade, que expusemos para a expectância, isto é, V(aX + b) r" r" a V(X) + b. .Em vez disso, teremos V(aX + b) = a 2 V(X) . Propriedade 7:10. dependentes. Então, Sejam X 1, . . •, Xn, n variáveis aleatórias in,(7.16) Demonstração: matemática. Isto decorre da Propriedade 7.9, por indução Propriedade 7.11. Seja X uma yariável aleatória com variâneia finita. Então, para qualquer número real a, V(X) = E [(X - a) 2 ] - [E(X) - aJz: (7.17) Demonstração: Veja o· Probl. 7.36. Comerúários: (a) Esta é 1.1ma extensão óbvia do Teor. 7.5, porque fazendo O, obteremos o Teor. 7.5. (b) Se interpretarmos V(X) como o momento de inércia e E(X) como o centro de ·uma unidade de massa, então a propriedade · acíma é uma formulação do bem conhecido teorema dos. e.z':t.os paralelos, em · ~Iecânica: O momento de inércia em relação a üm ponto arbittário é igual ao mom.e nto de inércia em relação ao centro de gravidade, mais o quadrado da distância desse ponto arbitrário ao centro .de gravidade. a = se (c) E[X - aY torna mínimo se a = E(X). Isto decorre imediatamente da propriedade acima. Portanto, o momento de· inércia (de uma unidade de ma.ssa -distribuída sobre uma reta), em relação a um eixo que passe por um ponto arbitrário, torna-se mínimo se esse ponto escolhido for o centro de gravidade~ ... Exemplo ·7.17. Vamos calcular a variância de uma variável aleatória X, distribuída binomialmente, com parâmetro p. Para calcular F(X), podemos proceder de duas maneiras. Como já sabemos que E(X) = np, devemos apenas calcular E(X 2 ) e a seguir .C ARACTERI:ZAÇÃOADICDONALDAS VAR!ÁVIEISALEATÓRIAS I 161 calcular ·V(X) como igual a E(X 2 ) - [E(X))2. Para calcular E(X 2 ), empregaremos o fato de que P(X = k) = (Z)pk(1- p)"--k, k = = o, 1, ... 'n. Portanto, E(X 2) == Lk~O e(~)pk(1 - p)n--k Este somatório pode ser calculado bastante facilmente, mas em vez de fazer isso, empregaremos um método mais simples. Novamente empregaremos a representação de X introduzida no Ex. 7.13, a saber, X = Y1 + Y2 + ... + Yn. Agora .observaremos que os Y; são variáveis aleatórias independentes, uma vez que o valor de Y; depende somente do resultado da i-ésima repetição, e as sucessivas repetições são supostas independentes. Daí podermos aplicar:..a Propriedade 7.10 e obter = V(X) V(Y1 + ... + Yn) = V(YI) + ... + V(Yn)· Mas, V(Y/l = E(Y;) 2 - [E(Y;)] 2. Então, E(Y;) = 1(p) + 0(1- E(Y;) 2 = P(p) p) = p, Logo, V(Y;) = p- p 2 = p(l - p) para todo = np(l- p) . Comentário: Vamos conside,ar V(X) = p) como uma função de p, + 0 (1-p)= p. 2 ~- Assim , V(X) = V( X) = np(l - para n dado. Esboçaremos um gráfico como aquele mostrado na Fig. 7.7. Resolvendo (d/dp)np(l - p) = O, encontraremos que o valor máximo de V(X) ocorre para p = 1/2. O valor míp=j nimo de V(X), obviamente ocorre nos extremos do intervalo, para p = O e p = Fig. 7.7 = 1. Isto está de acordo com o que se esperava, intuitivamente. Lembrando que a variância é uma medida da variação da variável aleatória X, definida como o número de vezes que o evento A ocorre em n repetições, encontrar.emos que esta variação será zero, se p ,;, O ou 1 (isto é, se A ocorrer com probabilidade O ou 1) e será máxima quando estivermos tão "incertos quanto poderíamos estar" sobre a ocorrência ou não de A, isto é, quando . P(A) = 1/2. Exemplo 7.18. Suponhamos que a variável aleatória X seja uniformemente distribuída sobre [a, b]. Como já calculamos ante-. riormente E(X) = (a+ b)/2.. Para calcular V(X), vamos calcular E(X 2): b 1 ba- aa E(Xt) = (. j x2 a b- a dx = --:--:::---:-- 3(b - a) I Daí, V(X) = E(X 2 ) - depois de um cálculo simples. [E(X)] 2 = (b - a) 12 2 .~J 162 I PROBAB!LIDADIE C.omenlários: (a) Este é um resultado intuitivamente significativo. Ele diz que a variância de X não depende de a e b, individualmente, mas .somente de (b - a)2, isto é, do quadrado de sua diferença. Portanto, dua.s variáveis aleatórias, cada uma das quais é uniformemente distribuída sobre algum intervalo (não necessariamente o mesmo para ambas), terão variâncias iguais enquanto os comprimentos dos intervalos sejam iguais: (b) É um fato bem conhecido que o momento de inércia de uma haste del. gada de massa Me comprii:nento L, em reLM;ã.o a um eixo perpendicular que passe pelo seu centro; é dado por MV/12. 7.7. Expressões Aproximadas ola Expectância e da Va- riância Já observamos que a fim de calc1,1lar E(Y) ou V(Y), onde Y = H(X), não necessitamos achar a distribuição de probabilidade de Y, pois poderemos trabalhar diretamente com a distribuição de probabilidade de X. Semelhantemente, se Z = H(X, Y), poderemos calcular E(Z) e V(Z), sem primei~o obter a distribuição deZ. Se a função H for bem complicada, ó cálculo das expectâncias e variâncias pode conduzir a .integrações (ou somatórios) que são bastante difíceis. Por . isso, as seguintes aproximações são muito · úteis. Teorema 7.6. Seja X uma variável aleatória com E(X) = fJ. e V(X) = u 2 • Suponha-se que Y = H(X). Então, ·) + H'~(JJ.) E(Y) e!. H(JJ.) V(Y) e!. [H'(JJ.)] 2u 2 • u 2, (7.18) (7.19) (A fim de tornarmos significativas as aproximações acima, exigiremos, obviamente, que H seja derivável ao menos duas· vezes no ponto x = f.L.) . Dem(J11,8tração (apenas . esboçada): A frm de estabelecer a Eq. (7.18), deSenvolveremos a função H em série de Taylor, próximo de x = fJ., até dois termos. Deste modo Y = H(f.L) + (X - !Jr)H'(p.) + (X - JJ.)W"(JJ.) 2 " onde R1 é o resto. Se abandonarmos o resto R 1, e o valor esperado de ambos os membros, teremos E(Y) c::< H(p.) + H"(p.) u 2 , 2 +R 1 , a seguir, tomarmos I CARACTERIZAÇÃO ADICIONAL IE>AS VARIÁVEIS ALEATÓRIAS I 163 I porque E(X - p.) = O. A fim d'e e.Stabelecer a Eq. (7.19), desenvolveremos H em série de Taylor laté u~ ~ermo, p~ra x = p.. Nesse caso, Y = H(p.) (X-11-)H'(p.) +.R2. Se· abandonarmos o resto R 2 e tomarmos a variância de ambos os membros, teremos + Exemplo 7.19. Sob certas condições, a tensão superficial de um líquido (dina/centimetro) será dad~ pela fórmula S = 2(1- 0,005 T) 1•2 , na qual T é a temperatura do líq(Iido (em graus centígrados). Suponhamos que T seja lima i variável aleatória continua com a 1 seguinte fdp Daí, J(t) = 3.ooot-\ t ;:::: H), . = O, para quaisqJr outros valores. E(T) ~ ], V(T) = E(T 2) r~ I 3.ooor• dt e = l . o .:_ . ~ 15 (gm"' rentigrndo,), I i (15)2 I ~ 3.000t- 2 dt .L 225 I = 75 (graus centígrados)2. Para calcularmos E(S) e V(S), i teremos que calcular as seguintes integrais: I J. m (I - 0,005t)1. 2 e- 1 dt eI 10 r~ (1 - J1o 1 0,005t)Mt- 4 dt. , i . Em vez de calcular estas expressões,· obteremos aproximações de E(S) e V(S) com o emprego d~ Eqs. (7.18) e (7.19). A fim de titilizar essas fórmulas, teremos dJ calcular H'(l5) e• H"(15), onde H(t) = 2(1 - 0,005t) 1• 2 • Teremos I H'(t) = 2,4(1- 0,005t)o.2(- 0,005) = - 0,012(1..,.. 0,005t)Oo2. I Portanto H(l5) = 1,8~:, H'(15) = 0,01. Semelhantemente, H"(t) = - 0,002 4(1 -- 0,005t)-M ( jl O.po5) = 0,000 012(1- 0,005t)-0· 6: Logo, .· . I H"(l5) = Portanto teremos E(S) 'o;ooo 012 0 8 (o,925) I • = o+. i C:!. H(l5) + 75If'{l5) = V(S) ~ 75[H'(l5)]:a :i. 1,82 (d/em) 0,87 (d/cm) 2 • 164 I PROBABDUDADE Se Z for uma função de duas variáveis, por exemplo Z um resultado análogo será viável. =. H(X, Y), Teorema 7.7. Seja (X, Y) uma variável aleatória bidimensional. Suponha-se que E(X) = !J.x, E(Y) = FJ.v; V(X) = O"x~ e V(Y) = O"y"'!.. SejaZ = H(X, Y). [Deve-se admitir que as várias derivadas de H existam para (Jlx, Jly ).] Então, se X e Y forem independentes, ter-se-á onde todas as derivadas parciais são calculadas para (;.;.:r, FJ.y). Demonstração: A demonstração envolve o desenvolvimento de H em série de Taylor, no ponto (;.;.:r, FJ.v), para um e dois termos, o abandono do resto, e, a seguir, o cálculo da expectância e da variância de ambos os membros, tal como foi feito na demonstração do Teor. 7.6. Deixamos os detalhes a cargo do leitor. (Se X e Y não forem independentes, uma fórmula um pouco mais complicada poderá ser deduzida.) Comentário: O resultado acima pode ser estendido a uma função de n v&iâveis aleatórias independentes H(X, ... , Xn). Se E(Xi) = 1-Li, V(Xz) =a{, teremos as seguintes aproximações, admitindo-se que todas as derivadas existam: z·= onde todas as derivadas parciais são calculadas no ponto Ú!11 • • • , lf.n). Exemplo 7.20. Admita-se que ~mos um circuito simples, para o qual a tensão M seja expressa pela Lei de Ohm como,M = IR, onde I e R são, respectivamente, a· corrente e a resistência do circuito. Se I e R forem variáveis aleatórias independentes, então M será uma variável aleatória, e empregando o Teor. 7.7, poderemos escrever E[M] ~ E{I)E(R), V[M] C!l:! [E(R)] 2 V(I) + [E(I)] 2 V(R). CARACTER~ZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS I 165 Existe uma bem conhecida desigualdade, devida ao matemático russo Tchebycheff, que desempenhará um importante papel em nosso trabalho subseqüente. Além disso, ela nos fornece meios de compreender precisamente como a variância mede a variabilidade em relação ao valor esperado· de uma variável aleatória. Se conhecermos a distribuição de probabilidade de uma varlá:vel aleatória X (quer a fdp no caso contínuo, quer as probabilidades punctuais no caso discreto), poderemos nesse caso calcular E(X) e V(X), se existirem. Contudo, a recíproca não é verdadeira. Isto é, do . conhecimento de E(X) e V(X) não poderemos reconstruir a distribuição de probabilidade de X e, conseqüentemente, calcular quantidades tais como P[ IX - E(X) I~ C]. Não obstante, veri.., fica-se que muito embora não possamos calcular tais probabilidades [a partir do conhecimento de E(X) e V(X)], poderemos estabelecer um limite superior (ou inferior) muito útil para essas probabilidades. Este resultado está contido no que é conhecido como desigualdade de Tchebycheff. Desigualdade de Tchebycheff. Seja X uma variável aleatória, com = f.l, e seja c um número real qualquer. Entã~, seE(X- c? for fmita e e for qualquer número positivo, teremos E(X) 1 P[ IX- c !;;. e]< --E(X- c) 2 • €2 (7.20) As seguintes formas, equivalentes a (7.20), são imediatas: (a) Se considerarmos o evento complementar, obteremos (. 1 P[IX-c l<e];;;;.1 - -E(X - c) 2 • . é (7.20a) ( b) Escolhendo c = f.l, obteremos (7.20b) (c) Escolhendo c = f.1 e e = ka, onde a 2 = Var X> O, obteremos P[ IX- f.l i ;;;;.ka] <k- 2 • (7.21) 166 I PROBABILIDADE Esta última forma (7.21) é particularmente indicativa de como a variância mede o "grau de concentração" da probabilidade próxima de E(X)=JJ.. Demonstração: [Demonstraremos apenas a (7 ,20), porque as outràs decorrem do modo como foi indicado. Trataremos somente do cáso conVnuo. No caso discreto, o raciocínio é muito seinelliante, com as integrações substituídas por somatórios. Contudo, algum cuidado deve ser tomado com os pontos extremos dos intervalos]: Consideremos =f . P[ IX- c I;;;. E] .X . 1X _ ..,. cJ(x)dx. C 1""" c (O limite da integral diz que estamos integrando entre - oo e c entre c+ E e+ oo.) Ora, lx - .cl;;;. 8. é equivalente a (x- c) 2 /E 2 ;;;. ce L Conseqüentemente, a integral acima é (x- c)2 onde R = {x: f(x)dx, Ix - c I;;;. c} . Esta inte-gral é, por sua vez, ·~. (x- c)2 f(x)dx, que é igual a 1 - [2 E[X-c]2 . ' . i como se queria demonstrar. Comentdrios: (a) É importante compreender que o resultado acima é notável, precisamente porque muito pouco é suposto a respeito do comportamento probabilístico da variável aleatória X. (/J) Como poderíamos suspeitar, informação adicioná! sobre a distribuição da variável aleatória X nos permitirá melhorar a desigualdade deduzida. Por exemplo, se C= 3/2, teremos da desigualdade de Tchebycheff CARACTERIZAÇÃO ADiCIOI\!All DAS VARIÃ~EIS AlE;ATÕRiAS I 167 Admita-se que ta.mbém saibamos que ! X .é uniformemente distribuída sobre (1- 1/ v3, 1 + l/"\/'3). Daí, E(X i P[IX - .ui~ 2·o-] I 3 = I =P[IX- 111 ~ = V(X) 1, 1/9, e portlilnto, 1 21 ~ 1 1- P(IX- li,< I 1 = 1- P[ 2 i f X< 3 21 v3- = 1- - 21 = 0,134. 2 i Observe-se que, muito embora o enuncia~o obtido da desigualdade de Tchebycheff seja coerente ~om este resultado, este últlmo é muito mais preciso. Não obstante, em muitos problemas, nenhuma hipót~e referente à. específica distribuição da variável aleatória é justificável e, em tl.Lis casos, a desigualdade de Tchebycheff nos fornece uma informação importante Jsobre o comportamento da variável alea.tória. Como podemos observar <lá IEq. (7 .21), se V(X) for pequena, a maior parte da distribuição de probabilidade de X estará "cone entrada" próxima de E( X). Isio pode sér· expresso · mais precisamente no seguinte teorema. I 1 • , • Teorema 7.8. Suponha-se qu~ V(X) =O. Então P[X onde J.L = ECX). (Isto é, X = J.L, fom "probabilidade 1.") Demonstração: = JJl = 1, I)a Eq. (7.20:b ), encontramos que P[i X Por conseguinte P[IX- e 9 ] = O para qualquer c > O. i I JJI < = 1 paraqualquer ~>O. pI Como pode ser escolhido demonstrado. ~ n arbit~riamente pequeno, o teorema fica ; Comentários: (a) Este teorema mJtra que variância nula implica que toda ponto, a saber, em E(X). probabilidade está concentrada em um (b) Se E(X) = O, entã.o Y(X) úrtco I = E(X1), " e por isso, neste caso, E()(l) ~- O acarreta a mesma c~ncl~o. . 1· ' . • (c) .f: no senttdo actma que dizem011 que uma vartável X e ckge1le'l'ada: toma somente um valor com probabilidJde l. Ela I 7.9. O Coeficiente de Cofrelação I Até aqui como E(X) e dimensionais. anteriormente, ·~: .. ' tals estivemos t;atandÓI de. parâmetros relacionados, . V(X), com a distribuição de. variáveis aleatórias unii . . Estes parâmetros /medem, em um sentido ' ~xplicado certas caracterist~cas da distribuição. Se tivermos I 168 I PROBABI!.. BDADIE uma variável aleatória bidimensional (X, Y), um problema análogo será encontrado. Naturalmente, também poderemos eStudar as variáveis aleatórias unidimensionais X e Y associadas com (X, Y). Contudo, a questão surge quanto a haver um parâmetro expressivo, que meça de algum modo o "grau de associação" entre X e Y. Est~ 1 noção bastante vaga será tornada mais precisa, brevemente. Estabeleçamos a seguinte definição. Definição. Seja (X , Y) uma variável aleatória bidimensionaL Definiremos pxy, o coeficiente de wrrelação, entre X e Y , da seguinte forma: P:zu = E{[X- E(X)][Y- E(Y)]! VV(X)V(Y) (7.22) Comentários: (a) Supomos que todas as esperanças matemáticas existam e que ambas V(X) e V(Y) sejam não-nulas. Quando não houver dúvida quanto variáveis, simplesme~te·escreveremos p em vez de Pxy· (b) O numerador de p, E [[X- E(X)][Y- E(Y)]], é denominado covariância entre X e Y, e algumas vezes é d_enotado por axy. (c) O coefiCiente de correlação é uma quantidade adimensional. (d) Antes que a definição acirria fique realmente expressiva, devemos descobrir exatamente o que p mede. Faremos isto pela consideração de algumas propriedades de p. às Teorema 7.9. p = Demonstração: E(XY) - E(X)E(Y) VV(X)V(Y) Considere-se E[[X- E(X)][Y- E(Y)]) = = E[XY- XE(Y) = E(XY) - = E(XY) + E(X)E(Y)J E(Y)E(X) + E(X)E(Y) YE(X) E(X)E(Y) - - E(X)E(Y). Tteorema 7.10. Se X e Y forem independentes, então p =O. Demonstração: Isto decorre imediatamente do Teor. 7.9, porque E(XY) ·= E(X)E(Y) se X e Y forem independentes . . Comentário: A recíproca do Teor. 7.10 em geral nao é verdadeira. (Veja o Probl. 7.39;) Isto é, podemos ter p = O, e no entanto X e Y não precisam ser independentes. Se p = O, diremos que X e Y são nao correlacúm.adas. Portanto, eer não correlacionado e ser independente, em geral, não são equivalentes. CARACTERIZAÇÃO ADDCDONAL IDAS VARIÁVEIS AUEATÓROAS / 169 O exemplo seguinte ilustra esta questão.* Sejam X e Y duas variáveis aleatórias quaisquer que tenham a mesma distribuição. Sejam U =X- Y e V= X+ Y. Então,E(U) =O e cov ( U, V) = E[(X- Y) (X + Y)] = E(J(l - J72) = O. Portanto, U e V são não correlacionadas. Ainda que X e Y sejam independentes, U e V podem ser dependentes, como a seguinte escolha de X e Y indica. Sejam X e Y os números ·que aparecem no primeiro e no segundo dados, respectivamente, que tenham sido jogados. Nós agora achamos, por exemplo, que P[ V= 4 I U = 3) = O (uma vez que X- Y = 3; X+ Y não pode ser igual a 4), enquanto P(V = 4) = 3/36. Portanto, U e V são depen<!entes. Teorema 7.11. -1 .::; p ::; 1. - 1 e + 1, inclusive.) (Isto é, p toma valores entre Considere-se a seguinte função da variável Demonstração: real i: q(t) = E[V + tW] 2 , onde V = X - E(X) e W = Y 'í(t} q(t) ~ E(Y). v ~' (b) (a) Fig. 7.3 Visto que [V + tW] 2 2: O, temos que q(t) 2: O para todo t. volvendo, obteremos I Desen~ . * O exemplo dado neste comentário foi tirado de uma explicação que apareceu no artigo intitulado "Mutually Exclusive Events, Independence and Zero C~rrelation", por J. D. Gibbons, em The American Statistician, 22, N? 5, December)968, p. 31-32. ' 170 I PROBABILIDADE Deste modo, q(t) é uma expressão quadrática de t. Em geral, se u. expressão quadrática q(t) = at 2 bt + c tem a propriedade de < q(t) ~ O para todo t, isto significa que seu gráfico toca o eixo dm em apenas 1un ponto, ou não toca, como se indica na Fig. 7.8. Is por sua vez, significa que seu discriminante b2 - 4ac deve ser :::::; porq~e b2 - 4ac >O ~ignificaria que q(t) teria duàs raízes reais d tintas. Aplicando-se esta conclusão à função q(t), que estávam considerando acima, obteremos + 4[E(VW)]2 - 4E(V.2)E(W2) ~ O. Isto acarreta [E(VW)]2 {E[X- E(X)][Y- E(Y)]p E(V2)E(W 2 ) ~ 1• e daí V(X)V(Y) Portanto, - 1 :::::; p ~ = p 2 ~ 1. 1. Teorema 7.12. Suponha-se que p 2 = 1. Portanto (com proba B, onde A e B sã• bilidade 1, no sentido do Teor. 7.8), Y = AX constantes. Em palavras: Se o coeficiente de correlação p for ± 1 então Y será uma função linear de X (com probabilidade 1). + Demonstração: Considere-se novamente a função q(t), descrita na démonstração do Teor. 7.11. É coisa simples observar na de· monstração daquele teorema que, se q(t) > O para todo t, então p 2 < 1 Daí a hipÓtese do presente teorema, a saber p2 = 1, acarretar qm deve existir ao menos um valor de t, digamos to, tal qu~ q(to) = = E(V + toW) 2 =O. Desde que V+ t 0W =[X- E(X)] + to[Y-E(Y)], temos que E(V + toW) =O e portanto a variância + +toW) = E(V + toW) 2 • Deste modo, encontramos que .a hipótesE do Teor. 7.12 leva à conclusão de que a variância de (V+ toW) = O Conseqüentemente, do Teor. 7.8 podemos concluir que a variáve aleatória (V + toW) = O (com probabilidade 1). Logo, [X - E(X)] + + to[Y- E(Y)J :o: O. Reescrevendo Ísto, encontramos que Y = = AX B (com probabilidade 1), como queríamos demonstrar. ·cv + ·comentário: no Teor. 7'.13. A recíproca do Teor. 7.12 também vale, como est§; mostradc . Teorema 7.13. Suponha-se que X e Y sejam duas variáveü aleatórias, para as quais Y = AX + B, onde ~ e B são constantes Então p 2 = 1. Se A >O, p = + 1; se A < Ó, p = -1. Demonstração: Visto 1que Y = AX + B,. teremos E(Y) = AE(X) + B e V(Y) = A 2 V(X). Também, E(XY) = E[X(AX + B)] = AE(X2 ) + BE(X). Portanto, 11~\ ~ = + CARACTERIZAÇÃO AOICIOi\!~l DAS VAR IÁVEIS ALEATÓRIAS I 171 i [E(XY)- E(X)!E(Y)]2 V(X)V(Y)! I + BE~X)E(X)[AE(X) + B] IAE(X 2) 2 }2 l{(X)A 2 V(X) i . I IAE(X 2) + BE(iX) - A[E(X))2.j1 2 [V(X))2 . A 2 1E(X 2) - [E(.~)]2 rz . . . BE(X)I2 1. A 2 [V(X)F [ . .I (A segunda. parte do teo~ema resulta. da observação de que Cmnentário: Os Teors. i 7. 1~ . . ~- vA 2 =IA I.) ' e 7.13 estabelecem. a seguinte importal).te característica do coeficiente de correlação: O coeficiente de correlação é ~ma medida do grau de linearidade entre X e Y. V~l<il'es de p próximos de -f- 1 ou - ·r indicam um alto grau de linearidade, .enquan~ valores de p próximos de O jndiçam ·ralta de tal linearidade. Valores positivos ~e p mostram que Y "tende a crescer com o crescimento de _X, enquanto ~alares nekativos· de p Iii.ostr&m que Y tende· a decres-· cer com valores crescentes de X, Exi~te muito eqU:ivoco sobre a interp"ret&.ção do coeficiente de correlação. Um valor d~ p próximo de zero indica apenas a ausência M relação linear entre X e. Y. E!~ nãô eliminá a possibilidade de alguma relaÇão nali-lúl€ar. ' . . . . I j Exemplo 7 .21. Suponha-se q,ue a variável aleatória bidimensional (X, Y) sej~ uniformemente distribuída sobre as regiões triangulares· I . y f------,--71(1, 1) I R= R l(x,y)IO<x<y<l}. ! (Veja a Fig. 7.9) fdp \é dada como Conseqüentemente, a I I · .i { (x, y) E R, f(x, y) ;, , 2, · ~ i = ·O, Fig. 7.9 para outros quais- quer valores. I Por conseguinte, as fdp niargiriaid déX e Y são · - ~(x) = I 1 (2) dy,; / ~(J- x), O~ :t ~ 1; I h(y) ,;, 11! (2)d~ = ~y, O I I O~y~l. \ ~I ------- ----.-- - 172 I PROBABIUDADE Logo, 1 E(X) = . 1[1 x2(1- x) dx = E(X 2) [E(X)]2 - E(XY) = E(Y) = 3 E(X 2 ) = }o x 2 2(1- x)dx = V (X) 1 1 = -, 1 1 o 2 y2ydy = - i 3 1 1 6, E(P) = 18 o 1 2 ; V(Y) = E(P) - [E(Y)]2 = _!_ ; 18 = __!_, 111Y y 2 2y dy = 1 xy2 dx dy = - . 4 Portanto, p = E(J( Y) - E(X)E(Y) VV(X)V(Y) 1 =2 Como já observamos~ o coeficiente de correlação é uma quantidade adimensional. Seu valor não é influenciado pela mudança de escala. O seguinte teorema pode ser facilmente demonstrado. (Veja o Problema 7.41.) Teorema 7.14. Se Pxy for o coeficiente de correlação entre X e Y, e se V = AX B e W = CY D, onde A, B, C e D são constantes, eiJ.tão Pvw = (ACfJACJ)Pxv· (Supondo-se A~ O, C ~ - 0.) + + 7.i0. Valor Esperado Condicionado Tal como definimos o valor esperado de uma variável aleatória X (em termos de sua distribuição de probabilidade)_igual a f-~"' xj(x) dx ou .;E;=l x,p(x;), tambêm podemos definir o valor esperado condicionado de uma variável .aleatória (em termos de sua distribuição de probabilidade condicionada), da seguinte maneira: Definição. (a) Se (X, Y) for uma variável aleatória contínua bidimensional, definiremos o valor esperado condicionado de X, para. um dado Y = y, como sendo E(X jy) = +"' 1 "' xg(xjy) dx. (7 .23} (b) Se (X, Y) for uma variável aleatória discreta bidimensional, definiremos o valor esperado condicionado de X, para um dado CARACTERIZAÇÃO AIJI!C!ONAL DAS VARiÁVEIS AlEATÓRIAS I 173 Y = y;, como sendo E(X IYi) = L"' i=l x;p(x; I Yi) . (7.24) O valor esperado condicionado de Y, para um dado X, será definido de modo análogo. Oomentários: (a) A interpretação do valor esperado condicionado é a seguinte: Desde que g(xly) representa a fdp condicionada de X para um dado· Y = y, E(XIy) é o valor esperado de X, condicionado ao evento {Y = y). Por exemplo, se (X, Y) representar o esforço de tração e a duréza de um espécime de aço, enj;ão E(XIy = 52,7) será o esforço de tração esperado de um espécime de· aço escolhido ao acaso da população de espécimes, cuja dureza (medida na Escala Rockwell) for 52,7. · (b) :f: importante compreender que, em geral, E(XIy) é uma função de y e, por isso, é uma variável aleat6ria. Semelhantemente, E(Yix) é uma função de x e, também, é uma variável aleatória. [Estritamente falarido, E(XIy) é o valo·r da variável aleafória E(X I Y) .] (c) Porque E(YIX) e E(XIY) são variáveis aleatórias, terá.sentido falar devalores esperados. Deste modo, poderemos considerar E[E(X IY)l, por exemplo. :f: importante compreender que o valor esperado, interno, é tomado em relação à distribuição condicionada de X, para Y igual a y, enquanto o valor espeya,do, externo, é tomado em relação à distribuição de probabilidade de Y. BetUI Teorema 7.15. (7,.25) (7.26) E[E(XI Y)] = E(X), E[E(YIX)] = E(Y). Demonstração (apenas para o caso continuo): Por definição, E(XIy) =, f +® " f+~ xg(xly) dx = . _., x j~~f ) dx, onde fé a fdp conjunta de (X, Y) e a fdp marginal de Y. Por isso, E[E(X IY)] = ! +"".. E(X Iy)h(y) dy= f+"'[f_+"' ] . _"' . · _.. xf~Cy~) dx h(y) dy. Se existirem todos os v17lores esperados, será permitido escreyeX' a integral iterada acima, com a ordem de integração .trocada. Por isso E[E(XI Y)] = 1:= [J:"'j(x, x y) dy ]dx = J:""xg(x) dx '1, É(X), 174 I PRO.BABBLIDADE [Um raciocínio semelhante poderia ser empregado para estabelecer a Eq. (7.26).] Este teorema é muito útil, como ilustram os exemplos seguintes. Exemplo 7.22. Suponha-se que remessas, contendo um número variável de peças, chegue cada dia. Se N for o número de peças da remessa, ·a distribuição de probabilidade da variável aleatória N, será dada assitn: n: P(N = n): 10 0,05 11 0,10 12 0,10 13 0,20 14 0,35 15 0,20 A probabilidade de que qualquer peça em particular seja defeituosa é a mesma. para todas as peças e igual a O, 10. Se X for o número de peças defeituosas que chegue cada dia, qual será. o valor esperado de X? Para um dado N igual a n, X apresentará distribuição binomial. Como N, por sua vez, é uma variável aleatória, procederemos como se segue. Temos E(X) = E[E(X IN)l. Contudo, E(X!N) = 0,10N, porque para N dado, X tem distribuição binomial. Conseqüentemente, E(X) = E(0,10N) = O,lOE(N) = 0,10[10(0,05) + 11(0,10) + 15(0,20)] + 12(0,10) + 13(0,20) + 14(0,35) + = 1,33. Teorema 7.16. Suponha-se que X e Y sejam variáveis aleatórias independentes. Então E(X I Y) = E(X) e E(Y IX) = .8(Y). Demonstração: Veja o Probl. 7.43. Exemplo 7.23. Suponha-se que o fornecimento energético (quilowatts) a uma companhia hidrelétrica, durante um período especificado, seja uma variável aleatória X, a qual admitiremos ter uma distribuição uniforme sobre [10, 30]. A demanda de potência (quilowatts) é também uma variável aleatória Y, que admitiremos ser uniformemente distribuí.da sobre [10, 20]. [Deste modo, em média, mais potência é fornecida do que é demandada, porque E(X) = 20, enquanto E(Y) = 15.1 Para cada quilowatt fornecido, a companhia realiza um lucro de US$ 0,03. Se a demanda exceder a oferta, a companhia obterá potência adicional de outra fonte, realizando um lucro de US$ 0,01 por quilowatt desta potência fornecida. Qual será. o lucro esperado, durante o especificado período considerado? CARACTERrZAÇÃO ADiCiONAL dAs VARiÁVEIS ALEATÓRiAS/ 175 . I Seja T este lucro. Teremos! i I '1' = 0,03Y se Y <X, I = 0,03X + O,OI(Y- K) Y >X. se I Para calcular E(T), o escreveremos como E[E(TIX)]. E(Tix) I= i" L ! 0,03y 20 0,03y 1~ [0,015x = ! 9 20 = { 0,05 , 1~ dy + 1~ dy 2 - 1,5 I 1 . 20 + 0,02x) (O,Oly 1 se '20 <x < + ~ + 0,4x - 30~ <x< + 0,04x - 0~45 se 20 1~ dy se 10 < x < 20, :... 0,005x2 ~ 0,02xz] se 10 1 se 20 Teremo10 i 30, <x< , I 20, . I 0,001X 2 se 10 <x< < x < 20, 30!. I Logo, E[E(TIX)] = r I ~ } 10 (0,051+ 0,04x- i 1 j+ 20 0,00lx 2)dx + (30 J 20 ~I 0,45 dx ~ $0,43 I 7.11. Regressão da Média I Como já salientamos na seção Ianterior, E(X Iy) é o valor davariável' aleatória E(X I Y) e ·é uma junção de y. O gráfico .desta função de y é conhecido como a çurva de Iregressão (da média) de X em Y. Analogamente, o gráfico da funçãp de x, E(Yix) é denominado a curva de regressão (da média) de Y em X,. Para, cada valor fixalio y, E(XIy) será o valor esperado da variável aleatória (unidimensional) cuja distribUição de probabiliçlade é definida pela Eq. (6.5) ou (6.7). (Veja a Fig. 7.10.) Em geral, este valpr esperado dlipenderá de y. [Interpretações análogas podem ser feitas para E(Yix).r ' 176 I IP'ROBAB!U.DADE E(Y ix) E(XJy) ·J! (a) (b) Fig.7.11 Exemplc 7.24. Suponha-se que (X, Y) seja uniformemente distribuída sobre o semicírculo indicado na Fig. 7 .11. Nesse csso, f(x, y) = 2/'if', (x, y) E semicireulo. Portanto, -1 :::;; :E:::;; ll; Logo, . g(x Iy) I 1 = 2Vl- h(yix) - Y2 1 - Vl- x2 - V 1 - y2 O:::; y:::; ' :::; x :::; ' V 1 - x 2• V 1- y 2 ,· CARACTERiZAÇÃO ADi CiONAl DAS VARIÁVEiS AlEATÓRiAS I 177 Em conseqüência = E(Yix) - i.yr-:;; yh(ylx) dy r~·y - }o V 1 dy= 1 - x2 = 1 r/~= 1 - x2 2 o V l 2 _;-- v 1- x 2 • ;Semelhantemen te { ' E(XIy) = ! + ·~II-•• _ -v1-11' xg(xly) dx =o. Pode acontecer que ·uma ou ambas as curvas de regressão sejam de fato linhas retas (Fig. 7.12). Isto é, E(YI;;) pode ~er uma função linear .de x, ou E(X Iy) pode ser uma função linear de y, ou ambas as funções podem ser lineares. Neste caso, diremos que a regressão da média, digamos de Y em X, é linear. y Fig. 7.12 Exemplo 7.25. Suponha-se que (X, Y) seja uniformemente distribuída sobre o triângulo indicado na Fig. 7 .13. :Kesse caso, j(x, y) = 1, (x, y) E T. As seguintes expressões para as ídp marginal e condicionada são facilmente encontradas: g(x)= 2x, g(xly) = Portanto, O::::; x::::; 1j 2 2 h(y) _ y , y/2::::; x::::; 1; E(Yix) = 2- y = -2- ' o::; h(ylx) = fr/z yh(yjx) dy = fo 2" y ::::; 2. '1 x , 2 y(!/2x)dy O ~\ y::::; 2x. = x. 178 I PROBABIUDADE Semelhantemen te, E(X Iy) r! xg(x Iy)dx = 1 1 - JY/2 X Y/2 2 2- y 1 y dx=--:;-+- • 2 "" Por conseguinte, ambas as regressões de Y em X e de X em Y são lineares (Fig. 7.14). y y (1, 2) (1, 2) T !Fig. 7.14 Fig. 7.13 Verifica-se que se a regressão da média de Y em X for ~ear, digamos E(Yix) = aX + {3, po,deremos nesse caso e,q>rimir os ·coeficientes a e f3 em termos de certos parâmetros da distribuição conjunta de (X, Y). Vale o seguinte teorema: Teorema 7.17. Seja (X, Y) uma variável aleatória bidimensional e suponha-se que E(X) = J.Lx, E(Y) = J.Ly, Seja p o coeficiente de correlação entre X e Y. de Y em X for linear, teremos E(Yix) = !J.y +p uu (x- J.L,). u., Se a regressão ('1.27) Se a regressão de X em Y for linear, teremos " E(XIy) = Jl.x + P Ux (y- J.Ly). fTy (7.28) Demonstração: A demonstração deste teorema está esboçada no Probl. 7.44. I . . . CARACTEIFI!ZAÇAO ADICiONAl DAS VARDAVIEiS AliEATORiAS I 179 Comentários: I (a) Como foi sugerido pe~a exposição acima, é possível que uma. das regressões da média seja linear, enquanto ia outra não o seja. (b) Observe-se o papel decisivo represbnt!do pelo coeficiente de correlação nas expressões ooima. Se 111 regressão de xj em Y, por exemplo, for linear, e se p =O, então verificaremos (de novo) que E(X Iy) não depende de y. Observe-se também que o sinal algébrico de p determiml' o sinal da declividade da reta de regressão. (c) Se ambas as funções de regressãb forem lineares, verificaremos, pela resolução simultânea das Eqs. (7.'J:7) e (7.28),! que as retas de regressão se interceptam no "centro" da distribuição, (y.", P-y). I I I ! Como já salientamos (Ex. 7.23), por exemplo), as funções de regressão não precisam ser lineares. No entanto, poderemos ainda estar interessados em aproximar a curva Id e regressão com uma função linear. Isto é usualmente feito recorrendo-se ao princípio dos mínimos quadrados, o qual neste conte~to é assim enunciado: Escolham-se as constantes a e b de modo \ que E[E(YJX) - (aX b))2 se torne mínima. Semelhantemente, es,colham-se as constantes c e d, de modo que E[E(XI Y)- (cY d)]r se torne miníma. + + b e ~· = cy ~ d são denominadas as aproxiAs retas y = ax mações de mínimos quadrados às correspondentes curvas de regressão· E(Yix) e E(X Jy), respectivamente: I O teorema seguinte relaciona essas retas de regressão àquelas examinadas anteriormente. + . Teorema 7.18. Se y = ax I +b fpr a aproximação de I}Únimos quadrados a E(Y Ix) e se E(YJx) for de fato uma função linear de x, isto é I I + b', E(YJx) = a'x então a = a' e b de X em Y. = b'. Enunciado báiogo vale para . a regressão I Demoru;tração: Veja o Probl. 7.45. Problemas I i 7.1 . Determinar o valor esperado das seguintes vatiáveis alea.t6rias: (a) A variável aleatória X definida nd Probl. 4.1. Probl. 4.2. (b) A variável aleat6ria. X definid& Probl. 4.'6 . (c) ,A_ variável ~eatória T definida (d) k variável aleat6ria. X definida. no, Probl. 4.18. nd nd I ' l I \, ', 7.2. Mostre que E(X) não existe par~ a variável aleatória X defini~& ~.o Probl. 4.25. 180 I PROBABIUDADE 7.3. Os valores abaixo represent!!m a distribuiçe.o de probabilidade de D, a ·procura diária de um certo produto. Calcule E(D): d: P(D = d) : 1, 0,1, 2, 0,1, 3, 0,3, 4, 0,3, 5 0,2. 7.4. Na produção de petróleo, e temperstura de destila.ção T (graus centígrados) é decisivs na determ ina.çã.o da qualidade do produto final. Suponh&-se que T seja considerada uma variável aleatória uniformemente distribufda sobre (150, 300). Admita-se que produzir · um galão de petróleo . custe C1 dólaz:es . . Se o óleo for destilado á ums temperatura menor que 200<>C, o produto é conhecido como nafta e se vende por C2 dólares por galão. Se o .~leo for destilado a uma temperstura maior que 200<>C, o produto é denominado óleo refinado desti.lado e se vende . por CJ dólares o galão. Determinar ó lucro líquido esperado (por ga!Ao). 7.5. Uma cert.a. liga é formada pela reunião da mistura em f~o de dois metais. A liga resultante contém uma certe percentagem de chumbo X, que pode ser considerada como uma. variável aleatória. Suponha que X tenha a seguinte fdp: f(x) = 53 o~ z~ l<r5 x(lOO - x), 100. Suponha-se que P, o lucro líquido obtido pela venda dessa liga (por libra), seja a seguinte função da percentagem de chumbo contida: P = C1 + C2X. Calcule o lucro esperado (por libra). 7.6. -Suponha que um dispositivo eletrônico tenha uma duração de vida X (em unidades de 1.000 horas), a qual é considerada como uma variável aleatória. contínua, com a seguinte fdp: ·'. f(x) = e-:r:, X> O. Suponha que o custo de fabricação de um desses dispositivos seja US$ 2,00. O fsbricante vende a peça por US$ 5,00, mas garante o reembolso tot.a.l se X::::_ (),9. Qual será o lucro esperado por peça, pelo fabricante? . 7.7. As 5 primeiras repetições de um experimento custam US$10 cada.uma. 'I'odru; as repetições subseqüen'tes custn.m US$ 5 cada uma. Suponha que o experimento seje. repetido até que o primeiro resultado bem sucedido ocorra. Se· a probabilidade de mn resultado bem sucedido for sempre iguai a 0,9, e se as repetições forem independentes, qual. será o custo esperado da operação complete? 7.8. Sabe-se que um lote contém 2 peças defeituosas e 8 nã.CHI.efeituoses. Se essas peças forem inspecionadas ao acaso, uma após outra, qual será o número esperado de peças que devem ser escollúdas para inspeção, a fim de removerem-se todas as peças defeituosas? 7.9. Um lote 'de 10 motores elétricos deve ser ou totalmente rejeitado ou vendido, dependendo do resultado do seguinte procedimento: Dois motores f!Ji.o es_colhidos ao acaso e inspecionados. ·Se um ou mais forem defeituoooo, o lote será rejeitado; caso contrário, será aceito. Suponha que cada motor custe US$ 75 e seja vendido por US$ 100. Se o lote contiver 1 motor defeituoso, qual será. o lucro esperado do fabricante? CARACTEIFIRZAÇÃO ADiCIONAL DAS VAifUÃVIERS AlEATÓRiAS I 181 7.10. Suponha que D, a demanda diária de uma peça, seja uma variável aleatória com a seguinte distribuição de probabilidade: 1 • P(D = d) = C2ajd!, d = 1' 2, 3, 4. (a) Calcule a constante C. (b) Calcule a demanda esperada. Suponha que urna peça seja vendida por US$ 5,00 Um fabricante produz diariamente K peças. Qualquer peça que não .tenha sido vendida ao fim do dia, deve ser abandonada, com um prejuízo de US$ 3,00. (i) Determine a distribuição de probabilidade do lucro diário, como uma função de K. (ii) Quanws peças devem ser fabricadas para tomar máx.imo o lucro diário esperado? (c) 7.11 . (a) Com N =50, p = 0,3, efetue alguns cálculos para achar.qual o valor de k minirnizaE(X) no Ex. 7 .12. (b) Empregrando os valores acima de N e p, e tomando lc = 5, 10, 25, determine, para cada um desses valores de k, se o "teste de grupo" é preferível. 7.12. Suponha que X e Y sejam variáveis aleatórias independentes, com as seguintes fdp: J(x) = 8/r, X> 2; g(y) = 2y, o< y < 1. Determine a fdp de Z,;, XY. (a) Obtenha E(Z) por duas maneiras: (i) empregai;!.do a fdp de Z, como foi obtida em (a); (ii) Diretamente, sem empregar a ídp de Z. (b) 7.13. Suponha que X tenha a fdp: j(x) = Sfr, (a) Calcule E(W), empregando a fdp de W. (b) CeJcule E(W), sem empregar a fdp de W. 7.14. Um dado equilibrado é jogado 72 vezes. de vezes que aparece o seis, calcule E()(l ). x > 2. Seja W = (lj3)X. Chamando de X o número 7.1!i. Determine o valor esperado e a variância das variáveis aleatórias Y e Z do JP'robl. 5.2. 7.16. Determine o valor C:,!peyado e a variância da variá.vel aleatórie Y do lP'robl. 5.3. 7.17. Determine o valor esperado e a variância das variáveis aleatórias Y e Z do Probl. 5.5. 7.18. Determine o valor espern.do e a variância das variáveis Y, Z e W do lP'robl. 5.6 V e 7.19. Determine o valor esperado e a variância. das variáveis ·slentórias S do Probl. 5.'!. '1.211. Determine o valor esperado e a variâncis de variável Y do Probl. 5.10, am cuis um dos três casoo. 7.21. Determine o valor espe,rado e . a ve.riânci& da variável aleatóri:~. A do lP'robl. 6.'1. 7.22. Determine dlo Pl"obl. 6. 11. o valor e.~per~o e 11 variância da. variável ~tle~tórh;l H 1_, !I l ,,l:t [~11 182 I PROIBABIUDADE 'I I!j 'I li 7.23. Determine o valor esperado e a variância da; variável aleat6ria Probl. 6.13. i :, 7.24. Suponha que X seja uma variável aleatória, para a ,qual E(X) = 10 e V(X) = 25. Para quais valores positivos de a e b deve Y = aX - b ter valot esperado O e variância 1 ? \i !;~;l !I. i:~. r ,/ I ~l:l 7.25, Suponha que S, uma _tensão aleatória, varie entre O e 1 volt e seja uniformemente distribuíd-a sobre esse intervalo. Suponha que o sinal S seja perturbado p~r um ruído aleatório indepe~dente, aditivo, N, o qual seja uniformeme_nte distribuído;> entre O e 2 volts. i ' :'1 nj 1 'I .!1 ! I I ~11 t{~:ii!l[ (a) Determine a tensão esperada do sinal. levando em conta o ruído. .;; !:)!· ~ t~:iil ':]! 'l~l'·~r~~ll' ll~ i!l! ·;li ):i· '•t·:!,11'l1'1;11 • ·lt ill; ; ~ l"'!:Jt,l'!'' 'ni'· '/ W do ); !"~!i . " ····· fi ji~~; :!, 1, ~~~-'1~ li,, 1\;. ffi ,,liI' 'iii. ":!lii ' 1 1 ~ 1 ' 11 I!;[ _il!biI ,.r, tm~ 1 1 :111 . ~,~ -- i[;! 1\ír!l·!ii '111'··! I':.. ""i['l (b) Determine a potência esperada quando o sinal perturbado for aplicado a um resistor de 2 ohms. 7.26. Suponha que X seja uniformemente distribuída sobre [ -: a, 3a]. termine a variância de X. De- 7.27. Um alvo é constituído de três círculos concêntricos de raios 1/v3; 1, e V3. Tiros dentro do ~lrculo interior valem 4 pontos, dentro do anel seguinte valem 3 pontos, e dentro do anel exterior valem 2 pontos. Tiros fora do alvo valem zero. S0ja R a variável-aleatória que representa a distância do ponto de impacto ao centro do alvo. Suponha que a fdp de R seja j(r) = 2{-rr(l + r'Z), r > O. Calcule o valor esperado do escore depois de 5 tiros. 7.28. Suponha que a variável contínua X tenha a fdp j(x) = 2xe-r, X~ 0. Seja Y =X'-. Calcule E(Y): (a) Diretamente, sem primeiro obter a fdp de Y. (b) Primeirame!_lte, obtendo a fdp de Y. 7.29. Suponha que a vaxjável aleatória bidimensional (_X, Y) seja uniformemente distribuída sobre o triângulo da Fig. 7.15. Calcule V(X) e _V(Y). ( 1,,., 'I'!' I' j'i:l '1,[':I ,; 'iii y ld:r '11; 'ir' (2, 4) ii. ·: !I ~: lJi~!l·!( ···ii-:1 I' ~' i'!!jJ [ ,_,,,,,, : J~l,l' ~ ~ I 11~1- , ;;l,l l',; ~ "j 'i'''':[ Uj·i i:i}tji I If"r'H Fig. 7.15 l l!t:ii fi' ii:·:! !i!lj:f ' !liJfii I t'! ;n~. ! lr1 l~·i'I ~)f.:ii.!il Fig. 7.16 7.30. Suponha que (X, Y) seja unüonnemente distribuída sobre o triângulo da Fig. 7.16. (a) Estabeleça a fdp marginal de X e 111 de Y. (b) Calcule V(X) e V(Y), ! CARACTERI2AÇÃO ADJCIONAL -Dl SVARIÃVEIS AlEATÓfliAS l 183 7.31. Suponh& que X e Y sejjI · variáveis mleatórioo para oo quais . .E(X) = p.,., E(Y) =lly, V(X) =· ~r,}, e V{IY) =<rl. Empregmndo o Teor. 7.7, obtenha uma aproximaçittbde E(Z) e V(Z), jonde Z = X/Y. 7.32. Suponha qu~ X e Y sejam v~á.veis eJ.e~tórias indepàndentA:s, cmdl!. uma delas uniformemente distribuída sobrjl (1, 2). Seja Z = X/Y. · (a) Empregando o Teor. 7.7, obtenpa expressões aproximadas para E(Z) a V(Z). 1 (b) Empregando o Teor. 6.5, obteruJ a fdp de Z, a a seguir, determine oo I vll.llores exmtos de E(Z) e V(Z). Comparej<>s com (a). 7.33. Mostre que se X for ~ma va~vel aleatória contíÍma, com fdp j tendo propriedade de que o gráfico de j sejaJ simétrico em relação & z = a, entã.o E(X) =a, desde que E(X) exista. (Veja o Ex. 7.16.) . 111 7.34. (a) Suponha que a variável eJ.Ja.tória X tome os valores -1 e 1, c!Mlm um deles com probabilidade 1/2. Consid~re P[ IX- E(X)I 2:: k v'v(X}] como uma função de k, k > O. Em um gráfico) marque esta função de k e, no mesmo sistema de coordenadas, marque o limitei superior da ·probabilidade acima, tal COIW) é dada. pela. desigualdade de Tchebylheff. O mesmo que em (a), exceto qj P(X (b) = - 1) = 1/3, P(X = 1) 2/3. = 7.35. Compare o limite superior da probabilidade P[ IX- E(X) I 2:: 2 VV(X)l, · obtida pela desigualdade de Tchebycheff, <iam a. probabilidade exata se X for unij. formemente distribuída sobre (-1, 3). 7.35. Verifique a. Eq. (7.17). i 7.37. Suponha que a variável alea.Jsria. bidimensional (X, Y) seja unifor1 memente distribuída sobre R, onde R é ·definida por ((z, y) Iz2 + y2 2 1, y 2:: Ol . (Veja a Fig. 7.17.) Calcule p"'Y, o coefici~nte de correlaÇão. 7.38~ Suponha · que a variável aledtória bidimensional (X, Y) tenha fdp l dada. por j(x, y) = ke""11, IO < z < y < l = -0, para.1 quaisquer putros valores. (Veja a Fig, 7.1!3.) Detennine o coefrciente de oon:elação Pzu· I y . I I I I I -1 FiiiJ. 7.17 I ~ig. 7.18 · 7.~9. O exemplo segúinte ilustra ~ue p =O não significa independência. Suponha que (X, Y) tenha uma distribui~o de probabilidade conjunta d11-da pele. Tab. 7.1. ! · .· · ·. \ 184 I PROBABILIDADE (a) Mostre que E(XY) = E(X)E(Y) e conseqüentemente p =O. (b) Explique por que X e Y não são independentes. (c) Mostre que este exemplo pode ser generalizado como se segue. A escolha do número 1/8 não é decisiva. O que é importante é que todos os valores circundados sejam· iguais, todos os vm.lores enqWIIdrados sejl!m iguais e o valor central seja zero. 'I.I i Tab. 7.1 I>< CD - I o i [}] CD o [I] o []] -I I CD w CD 7 ..00. Suponha que A. e B sejam dois eventos associados ao experimento e. Suponhs que P(A) > O e P(B) > O. Sejam as variáveis aleatórias X e Y definidas =im: Mostre que P:rv 7.41. X = 1 se A. ocorrer, e O em caso contrário, Y = 1 se B ocorrer, e O em caso contrário. = O ·implica que X e Y sejam independentes. Demonstre o Teor. 7.14. 7.42. Para a variável aleatória (X, Y) definida no Probl. 6.15, calcule E(Xjy), E(Yjx), e v~rifique que E(X) = E[E(XIY)] e E(Y) = E[E(YjX)]. 7.43. Demonstre o Teor. 7.16. 7.44. Demonstre o Teor. 7.17. [SugesUw: Para o ci!SO contínuo, multiplique a equação E(Y.lx) = Ax + B por g(x), a fdp de X, e integre de - <D 111 m, Faça a mesma coisa, empregando xg(x) e, depois, resolva ru> duas equações resultantes para A e para B.] 7.45. DemolllStre o Teor. 7.18. 7.46. Se X, Y e Z forem variáveis m.leatóri&s não-correlacionadas, com desvios-padrões 5, 12 e 9, respectivamente, e se U = X + Y e V = Y + Z, cal.., cule o coeficiente. de correlação entre U e V. 7.47. Suponha que ambas as curvas de regressãO da média. sejam, de fato, lineares. Particularmente, admita. que E(Y)jx) = - (3/2)x- 2 e E(Xjy) = = - (3/5)y - 3. (a) Determine o coeficiente de correlação p. (b) Determine E(X) e E(Y). CARACTERfiZAÇÃO ADICRONAL DAS VARIÃVEIS AlEATÓRiAS I 185 7.48. Considere a previsão de tempo com duas possibilidades: "chove" ou "não chove" nas próximas 24 horas; Suponha que p = Prob (chove nas próximas 24 horas > 1/2). O previsor marca 1 ponto se ele estiver correto e O ponto se não estiver. Ao fazer n previsões, um previsor sem capacidade escolhe de qualquer maneira, ao acaso, n dias, (O< r < n) para afirmar "chove" e os restantes n- r dias para afirmar "não chove" . Seu escore total de pontos é Sn . Calcule E(Sn) e V ar (Sn) e encontre qual o valor de r para o qual E (Sn) é o maior. (Sugestão: F aça Xi = 1 ou O, dependendo de que a i-ésima previsão esteja correta ou não . Então, Sn = :Ef= 1 Xi. Observe que os xi não são independentes.] \. '. Variáveis Aleatórias Discretas: A de Poisson e Outras Capítulo 8 8,1, A !Distribuição de Poisson Tal como nos modelos determinísticos, nos quais algumas relações funcionais desempenham importante papel (como por exemplo a linear, a quadrática, a exponencial, a trigonométrica etc.), também verificamos que, na construção de modelos não-determinísticos para fenômenos observáveis, algumas distribuições de probabilidade surgem mais freqüentemente que outras. Um motivo para isso ~ que, da mesma maneira que no caso determinístico, alguns modelos matemáticos relativamente si~ples parecem ser capazes de descrever uma classe bastante grande de fenômenos. Neste capítulo, estudaremos bastante pormenorizadamente, algumas variáveis aleatórias discretas. No capitulo seguinte, faremos o mesmo para variáveis aleatórias contínuas. Vamos apresentar. rigorosamente a seguinte variável aleatória. Depois, indicaremos sob quais circunstâncias esta variável aleatória poderá representar o resultado de um experimento aleatório. Definição. Seja X uma variável aleatória discreta, tomando os seguintes valores: O, 1, . .. , n, . . . Se P(X= k) e--a ak = -k!- I k. = O, 1, ...~ n, ... , (8.1) diremos que X tem distribuição de Poisson, com parâmetro a > O. Para verificar que a expressão. acima representa uma legítima distribuição de probabilidade, basta observar q~e L;;=oP(X = k) = L,;;=o (e--aakfk!) = e,_,.e" = 1. VARIÁVEiS ALEATÓRiAS DISCRIE~AS: A DE POISSON E' OUTRAS I 187 I i Já que estamos definindo a variável aleatória diretamente em Comentário: termcs de seu contradomínio e distribbição de probabilidade, sem referência a qualquer espaço amostral subjacente poderemos snpor que o espaço amostral S tenha sido identificado coin Rx e qt.Íe X(s) = s. Isto é, os resultados do experimento são apenas os números O, 1, 2j .. . e as probabilidades ·associadas a cada um desses resultados são dadas pela. Eq.!I (8.1). s,l Teorema 8.1. Se X tiver ~istribuição de Poissón ·com parâmetro a, .então E(X) ;, a e V(X) I= a. i Demonstração: E(X) Fazendo-se s = E(X) . =.L k~O :t ~-e-«_a_k-.-: (k - 1)! ~~ ,t~; k=1 ·"' L s~o ~~ e-"a'~ l=aLj "' e-"a' =a. 8! I s~O 8! 1 ~· !i ~ I = L .k "' k~O 2 --a ~ J j f~ r;, e a ' k! •I ~f Fazendo, novamente, 8 = k-- 1,!obteremos I e-a.as+ 1 e--aa' 2 E(X ) = L (s + 1) = a s:[: 8 --+ a o~O s! ~o s! 1 Ol (I) I :j' co e-aas ~ = E(X 2 ) I - [E(X))Z l?i L-= a +a s! :i 2 s=O (porque o primeiro somatório rewesenta E(X), enquanto o segundo é igual a um]. Portanto, · V(X) jf, 1; verificamos que a expressão se torna k - Semelhan temente, E(XZ) I k! = a 2 + a - a 2 = a. Comentário: NotEHJe a. interessante / propriedade que uma 1variável aleatória de Poisson apresenta.: seu valor esperadt é igual a sua variância. ,.1 ~ t· ~~: lif~f' t~ '~ 1i' f i: 8.2. A DistriblUiição de Poisson! Como AproJtimação : da Distrib111ição Binomial 1 A distribuição de Poi~son reJresenta U:m papel muito importante, por si mesma; como um modelo probabilístico adequado para um grande número de fenômenos 'aleató~os. Explanaremos isso na próxima seção. Aqui, trataremos da impo~tância dessa dist'ribuição como uma aproximação das probabilidades bihomiais. I . Exemplo 8.1. Suponhamos que chamadas telefônicas <;heguem a período particular de três 'horas uma grande central, e que em fn ni' i t ~ 188 I PROBABI LIDADE (180 minutos), um total de 270 chamadas tenham sido recebidas, ou seja, 1,5 chamadas por minuto. Suponhamos que pretendamos, com base nessa evidência, calcular a probabilidade de serem recebidas O, 1, 2 etc. chamadas durante os próximos três minutos. Ao considerar o fenômeno da chegada de chamadas, poderemos chegar à .conclusão. de que, a qualquer instante, uma chamada telefônica é tão provável de ocorrer comoem qualquer outro instante . Assim, a probabilidade permanece constante de "momento" a "momento". A dificuldade é que, mesmo em um intervalo de tempo muito pequeno, o número de pontos não é apenas infinito, mas n~o pode ser enumerado. Por isso, seremos levados a uma série de aproximações, que descreveremos agora. Para começar, poderemos considerar o intervalo de três minutos subdividido em nove intervalos de 20 segundos cada um. Poderemos então tratar cada um desses nove intervalos como uma prova de Bernouilli, durante a qual observaremos uma chamada (sucesso) ou nenhuma chamada (insucesso ou falha), com P (sucesso) = (1,5) (20/60) = 0,5. Desse modo, poderemos ser tentados a afirmar que a probabilidade de duas chamadas durante o intervalo de três minutos [isto é, 2 sucessos em 9 tentativas com P (sucesso) = 0,5] seja igual a (~)(J/2) 9 = 9/128. A dificuldade com esta aproximação é que estamos ignorando as possibilidades· de, digamos, duas, três etc. chamadas durante um dos períodos experimentais de 20 segundos. Se essas possibilidades fossem consideradas, o emprego da distribuição binomial indicado não poderia ser legitimado, porque essa distribuição é aplicável somente quando existe uma dicotomia: uma chamada ou nenhuma chamada. É para eliminar essa dificuldade que nos voltamos para a aproximação seguinte e, de fato, seremos levados a uma inteira seqüência de aproximações. Uma das maneiras de estar provavelmente certo de que ao menos uma chamada será recebida na central, durante um pequeno intervalo de tempo, é fazer esse intervalo muito curto. Assim, em vez de considerar nove intervalos de 20 segundos de duração, vamos, a seguir, considerar 18 intervalos, cada um de dez segundos de duração. Agora poderemos representar nosso experimento como 18' provas de Bernouilli, com P (sucesso) = P (entrar chamada durante o subintervalo) = (1,5) (10/60) = 0,25. Conseqüentemente, P (duas chamadas durante o inter- valo de três minutos)= C~J (0,25)2 (0,75l 6 . Observe-se que, não obstante, agora, estarmos tratando com uma distribuição binomial VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 189 diferente da anterior (isto é, tendo parâmetros n = 18, p = 0,25, em lugar de n = 9, p = 0,5), o valor esperado np é o mesmo, a saber, np = = 18 (0,25) = 9(0,5) = 4,5. Se continuarmos nesta maneira, aumentando o número de subinter- · valas (isto é, n), faremos, ao mesmo tempo, decrescer a probabilidade de chegar uma chamada (isto é, p ), de tal maneira que np fique constante . Portanto, o exemplo precedente nos leva a formular a seguinte pergunta: que acontece .com as probabilidades binomiais ( Z) pk (1 - p )n - k, se n--* oo e p--* O, de tal maneira que np permaneça constante, digamos np =ex? O cálculo seguinte leva à resposta desta questão muito importante. Consideremos a expressão geral da probabilidade binomial, P(X = k) = (~ )p,.(1 - p)n-<c = n! k .....Jc k!(n - k)! p {l - p) = n(n- l )(n- 2) .. . (n- 1c k! + 1) Façamos np = ot. Daí, p = ot/n, e 1 - p = 1 - afn = (n - a)/n. Substituindo todos os termos que contenham p . por sua expressão equivalente em termos de ot, obteremos P(X = k) = n(n- 1). (n ~ 1)( 2) ( ··~~- k + 1) (~f 1 = otk!' [ (1) ( 1 - -; 1 - -; ~~ [ (1) ( 1 ~ ~) ( 1 - otr-k _ 1)' ]( 1 --;;-a ]"-k - . . . 1 - k- n !)... ( 1 -- k ~ 1 )] X X(1- ;r(l .- :rk Agora, façamos n --+ m, de tal modo que np = ot permáneçil, constante. Evidentemente, isto significa que p --+ O, enquanto n --> oo, f~J, E :: ~:, ~ r·i· !~i::,: I · 190 I PROBABIUDADIE \:~i.-r·: ~ n:·::· . porque de outro modo np não poderia ficar constante. (Equivalentemente, poderíamos impor que n ~ co e p ~ O, de ·tal modo que !i:~ r ··],; :.u·:. np~a.) -~ ~~J!, . 11 J I ' I ~ l i ::I j: !' •' ! \:·;: ;.i•I: .! :i ' ti!:l'li•l 'i lt:ll I' ' .ii 1111 iini:!, ~~1íjl!l jiill''l i': l .i Na expressão acima, os termos da forma (1 - 1/n), (1 - 2/n), . . . se aproximam da unidade à medida que n tende para infinito, o que dá (1 - afn)-~<. f} bem conhecido (da definição do número e) que (1 - afn)" ~ e- quando n ~ "". Por isso, Iim ,._,, P(X = k) = e- ak/k!. Isto é, no limite, obteremos a distribuição de Poisson com parâmetro .01. . Vamos resumir este importante :resultado no seguinte teorema: Teorúna 8.2. Seja X uma variável ahiatória distribuída binomialmente com parâmetro p (baseado em n repetições de um experimento). Isto é, t'· ~~~:!·I j,[:''';! ~iiL !!·:!! .jfjl;]fll lilffi!ir!ii1'i l ·r ' l:i: t!j rii 1·1: ' lll :'1!; ;: ' 1\l:;il :i Iii:: ~~i;:l: !tí'( I,H,I' t,il'l- li\j'l ii111 ~ ~ ;i: Ir \!iil ! ·:::,l 1,:rl· I ,':~~ i: 1,;!i~l l' i ! ;!i'it J ,., •' I ~~~I .i , !t J:j:.l!~" ~ :1I :''' I' '.iit ·ii: H·I ~i}:' ir ,.,I H 'ii ' !' .l:;i, f;j li l!i!i,il I· [ i[!' '··'···I t 1!1:.. :~ ; i!lii!l :'II ~~ ,; : ! mnr: l :i ilii:!i !'"!.:;!i ~~r ::! e-mOt.k lim. P(X = k) = - - - , ,_,.. k! que é a distribuição de Poisson com parâmetro a. Comentários: (a) O teorema acima diz, essencialmente, que poderemos obter uma aproximação das probabilidades binomiais com as probabilidades da distribuição de Poisson, toda ve~ que n seja grande e p seja peq,ueno. (b) Já verificamos que se X tiver uma distribuição binomial, E (X) = np, enquanto se X tiver uma distribuição de Poisson (com parâmetro a), E(X) == a. (c) A distribuição binomial é caracterizada por dois parâmetros, n e p, enquanto · a distribuição de Poisson é caracterizada por um único parâmetro, a == np, o qual representa o número esperado de sucessos por unidade de tempo (ou por unidade de espaço em alguma outra situação). Esse parâmetro é também conhecido com a intensidade da distribuição. É importante distinguir entre o número esperado de ocorrências por unidade de tempo e o número esperado de ocorrências em um período de tempo especificado. Por exemplo, no Ex. 8.1, a intensidade é 1,5 chamadas por minutos e, portanto, o número esperado de chamadas em, digamos, um período de 10 minutos seria 15. " (d) Poderemos também considerar o seguinte raciocínio para avaliannos a variância de uma variável aleatória de Poisson X, com parâmetro a: X pode ser considerado como um caso limite de uma variável aleatória distribuída binomialmente Y, com parâmetros n e p, onde .n--+ oo e p _,.O, de tal modo que np--+ a. Desde que E(Y) = np e Var(Y) = np (1- p), nós observamos que, no limite, Var(Y) --+ a. · il! !~i Admita-se que quando n ~ "", fique np = 01. (const.), ou equivalentemente, quando n ~ "", p ~O, de modo que np ~a. Nessas •Condições teremos j, • r: ,!!! ·~ ~'~! I VARIÁVEIS ALEATÓRIAS DISC T ETAS: A DE POISSON E OUTRAS I 191 tábu~s · ·~i· ~ Já existem extensas da distribuição de Poisson. (E. C. Molina, Poisson's Exponential j Binomial Limit, D. Van Nostrand Company, Inc., New York, 1942.) Uma tábua resumida desta distribuição está ·apresentado no Apêndid,e (Tábua 3): I g; Vamos apresentar três da distribuição de Poisson. ·~ ~:t :~. -,;,~'!/ 11·"' [i ~, ~l I~i Ii~ .~[( ·~~ exe~plos I I , Exemplo 8.2. Em um cruzamento de tráfego intenso, a probabilidade p de um carro sofrer uni acidente é muito pequena, digamos · p = 0,0001. Contudo, durante! certa parte 1 do dia, por exemplo das 16 às 18 horas, um grande número de carros passa no cruzamento (1000 carros, admitamos). Ness~s condições, qual é a probabilidade de que dois ou mais acidentes ocorr~m durante aquele período? . Vamos fazer algumas hipót~ses. Dever{1mos admitir que p seja a mesma para todo carro. També~ deveremo~ supor que o fato de um carro sofrer o~I não um acidente Inão depende do que ocorra a qualquer outro carro. (Esta hipótese, ob~amente, não corresponde à realidade, mas, apesar disso, a aceitaremos.) Assim, poderemos supor que, se X for o número de acidentes ent}e os 1000 parros que chegam, então. X terá distribuição binomial corrb = 0,0001. (Outra hipótese que faremos, não explicitamente, é que o número de carros que passam no cruzamento entre 16 e 18 horas, é prefixado em 1000. Obviamente, . I . um tratamento mais realista seFia considerar o próprio n como uma variável aleatória, cujo vaior dep~nda de um mecanismo casual. Contu. I do, não faremos isso, e tomare*os n como pré-fixado.) Deste modo, poderemos obter o valor exato d~ probabilidade procurada: n, P(X~ I 2) = 1- [Jf(X= O)+ P(X= 1)] = = 1- (0,9999) 1000 :~;~.{~. ~1~ I I a mais, que ilustram a aplicação - 11000(0,0001)(0,9999)999 • I Considerável dificuldade sulrge para o cálculo desses números. Como n é grande e pé pequeno!, poderemos aplicar o Teorema 8.2, e obter a seguinte aproximação: I . i e-o,I (O 1,k P(X~k)~ 'r k! Conseqüentemente, F(X~ 2) ~ 1- e~ 0 ' 1 (1 + 0,1) = 0,0045. 192 I I?ROBABflUDADIE Exemplo 8.3. Suponha-se que um processo de fabricação produza peças de tal maneira que uma determinada proporção (constante) das peças p seja defeituosa. Se uma partida de n dessas peças for obtida, a probabilidade de encontrar exatamente k peças defeituosas pode ser calculada pela distribuição binomial como igual a P(X = k) = (~)pk(l - p)"-k, onde X é o número de peças defeituosas na partida. Se n for grande e p for pequeno (como é freqüentemente o caso), poderemos aproximar a probabilidade acima por Suponha-se, por exemplo, que um fabricante produza peças, das quais cerca de 1 em 1.000 sejam defeituof.fas. Isto é, p = 0,001. Daí, empregando-se a distribuição binomial, encontraremos que em uma partida de 500 peças, a probabilidade de que nenhuma das peças seja defeituosa será. (0,999) 600 = 0,609. Se aplicarmos a aproximação de Poisson, esta probabilidade poderá ser escrita cerno e-0 •6 = 0,61. A probabilidade de encontrar 2 ou mais peças defei·tuosas será, de acordo com a aproximação de Poisson, 1 - e-M(l .+ 0,5) = 0,085. + Exemplo 8.4. [Sugerido por uma expostçao contida em A. Renyi, .Çálculô de Probabilidade (em alemão) VEB Deutscher Verlag der Wisaenschaft, Berlim, 1962.1 Na fabricação de garrafas de vidro, partículas pequenas e duras silo encontradas no vidr() em fusão, com o qual se fabricam as garrafas. Se uma. única dessas partículas aparece na garrafa, a garrafa não pode ser utilizada e deve ser jogada fora. Pode-se admitir que as partículas estejam aleatoriamente espalhadas no vidro em fusão. Devemos supor que o vidro em fusão seja produzido de ta:l maneira que o número de partículas seja (em média) o mesmo para uma quantidade constante de vidro em fusão. Suponha-se, em particular, que em 100 kg de vidro em fusão sejam encontradas x dessas partículas e que seja necessário 1 kg de vidro em fusão para fabricar uma ga;rafa. Pergunta: Que percentagem das garrafas terá de ser jogada fora pelo fato de serem defeituosas? A primeira vista, a "solução'· deste problema poderia ser a seguinte. Visto que o material par~ 100 garrafas contém x partículas, haverá aproximadamente x pol cento de garrafas que deva ser· jogada fora. Um pouco de reflexãc mostrará, no entanto, que essa solução não é correta, porque umf garrafa defeituosa poderá conter mais de uma partícula, deste mod< VARiÁVEIS ALIEA'l"ÓROAS DISCRETAS : ADIE POUSSON E OUTRAS I 1~3 reduzindo a percentagem das garrafas defeituosas obtidas a partir do material restante. A fim de obtermos uma solução "correta", vamos fazer as seguintes hipóteses simplificadoras: (a) Cada particula aparece no material de cada garrafa com igual probabilidade, e (b) a distribui~ ção de qualquer partícula especifica é independente da de qualquer outra partícula específica. Com essas hipóteses, poderemos reduzir nosso problema ao seguinte modelo de "urna":-n bolas são distribuídas ao aca.So por N urnas. Qual é a probabilidade de que, em uma urna escolhida aleatoriamente, sejam encontradas exatamente k bolas? (As urnas, evidentemente, correspondem às garrafas, enquanto as bolas correspondem às partículas.) Chamando de Z o número de bolas encontradas em uma urna escolhida aleatoriamente, decorre das hipóteses acima que Z é binomialmente distribuída com parâmetro 1/N. Por isso P(Z = k) = (~) (~r ( 1_ ~r-~ Suponha-se, agora, que o vidro em fusão seja preparado em quantidades muito grandes. De fato, suponha-se que seja preparado em unidades de·lOO kg e que M dessas unidades tenham sido fornecidas. Portanto, N = 100M e n = xM. Façamos a = x/100, que é igual à proporção de particulas por garrafa. Conseqüentem-ente, N = nfa e a probabilidade acima pode ser escrita como igual a Deste modo, à medida que o processo de produção continuar (isto é, queM-+ oo e portanto n -+ oo), obteremos Vamos calcular a probabilidade de que uma garrafa deva ser jogada fora. Ela será igual a 1 - P(Z = 0). Conseqüentemente, a P(uma garrafa defeituosa) ~ 1 - e'""' 100 • Se o número de garrafas fabricadas for bastante grande; poderemos identificar a probabilidade de uma garrafa defeituosa com a freqüência relati'va das garrafas defeituosas. Por isso, a percentagem de garrafas defeitdosas . será, aproximadamente, 100(1- e""'' 100). Se desenvolvermos · 100(1 - ~ 194 I PROBABDUDADE - e-4/Ioo) pela série de Maclaurin, obteremos 100 [ 1 - ( 1 - x 100 + x2 2(100)2 - xs 3!(100) 8 + ... )] = Portanto, se x for pequeno, a proporçã<> de garrafas jogadas fora será aproximadamente x, como inicialmente sugerimos. No entanto, para x grande, isto não valerá mais, Na situaçao em que x = 100, a percentagem de garrafas jogadas fora não será 100, mas em vez disso 100(1 - e- 1) = 63,21 por cento . Este constitui, na~ turalmente, um caso extremo e não seria encontrado em um 'processo · de fabricação razoavelmente controlado. Suponha-se que x = 30 (um número mais próximo da realidade). Nesse caso, em vez de jogar fora 30 por cento (nossa solução inicial, novamente), somente jogaríamos 100(1 - e-0•8) = 25,92 por cento. Poderíamos observar que se x fosse razoavelmente grande, seria mais ec~nômico fabricar garrafas menores. Por exemplo, quando for necessário apenas 0,25 kg de vidro ·em fusão por garrafa em vez de 1 kg, e se x = 30, então a percentagem jogada fora se reduzirá de 25,92 por cento para 7,22 por cento. 8.3, O Processo dle IPoisson Na seção anterior, a distribuição de Poisson foi empregada como um recurso de aproximação de uma distribuição conhecida, a saber, ·a binomial. No entanto, a distribuição de Poissom exerce por si mesma um papel extremamente importante porque ela representa um modelo probabilistico adequado pari!.. wn grande número de fienômen.os ob~erváveis. · Muito embora noo venhamos a dlax umà d.ed:ução completamente rigorosa de alguns dos resUltados que iremos apresentar, o tmtamento gemi é de tal i.mporla.ncia que valerá a ·pena- oomprooridê-lo, mesmo que não po.ssamos d,emonstrnr cada pasaagem. Com o objetivo de aludir a um exemplo específico, enquanto formos apresentando os detalhes matemáticos, vamos considerar uma fon~ de. material radi()ativo, que emita partímlls.s a. Seja Xt definido como o número de partículas emitidas durante um períOdo especificado de tempo .[O, t)~ Devemos fazer algumas hipóteses sobre ! VARiÁVEiS ALEATÓRIAS i!> DDSCRIE~AS: variável aleatória (discreta) Xt, L A DE POISSOI\I E ~UTRAS I 195 quais nos, pe,mritiroo estabelecer ~~> distribuição de probabilidade d~ Xe. A plausibilidade dessas hip6t.eses (recordando o que Xe rep~esenta) é fortl!.lecida pelo fato de que a evidência empírica aceita, ~m grau bastante oo~derá.vel, oa resultados teóricos que iremos obier. ! · I Vale a pena salientar que ao deduzir qualquer resultado matemático, deveremos aceitar alguns postulados 1 ou axiomas subjacentes. Ao procurarmos axiomas p~.ra descrevei' fenô.menoa observáveis, alguns axiomas poderão ser ibastant.e mais plausíveis (e menos l!J'bitrá.rios~ que outros. Por exemplo, ao descrever o movimento de um objeto lançado para cima ~om ~alguma velocidade inicial, poderemos &Upor que a distância acima do solo, s, seja uma função quadrática do tempo t; isto é, at 2 bt + c. Com dificuldade isto conãtituiria uma suposição intuitiva genuína, em termos de ! nossa experiência. Em lugar dissp, poderíamos supor que a aceleração fosse constante e, depois, deduzir disso 1que s deveria ser uma função quadrática de t. O importante é, naturalmente, que se devemos supor alguma coisa a fun de ~laborar nosso modelo matemático, deveremos admitir aquílo ·que sej~ plausível, em lugar daquilo que seja menos plausível. si= + 1 A .mesma orientação nos guia~á aqui, aõ construirmos um moI delo probabilístico para a emissã<j de partículas a, por uma fonte :radioativa. A variável aleatória Jtt, definid~ acima, pode tomar os valores O, l, 2, . . . Seja Pn(t) = li[X, = n], n = O, 1, 2, ... I I Agora serão feitas as cinco hipóteses seguintes: A1 : . I O número de partículak emitidas durante 'intervalos de tempo não-sobrepostos Jonstituem variáveis ;aleatórias inI ' dependentes. I A2 : Se Xt for definida como ~cima, e se Y, for igual ao número de partículas emitidas !durante [tJ, tl + t), então, para qualquer t 1 > O, as variãveis aleatórias Xt e Y; terão a mesma distribuição de brobabilidade. (Em outras palavras, a distribuiçCío do n~mero de partículas emitidas du~ rante qualquer intervaloi depende apenas do comprimento daquele intervalo e pão !de seus pontos extremos.) I A a: p 1(!:J.t) será aproximadamente igual a )\Ãt, 'se Ãl for suficientemente pequeno, onde )\ é uma constante positi>;a. Escreveremos isto, as~im \PJ(ó.t) ~ ÀÓ.t. Por toda \~stâ. seção, a(ó.t) ~ b(!:J.t) sigllifica que a(ó.t)jb(!:J.t) -> 1 quando . . .. I -. .. I 196, I PROBABILIDADE ilt ---7 O. Devemos também supor que D.t > O. (Esta hipótese afirma que se o intervalo for suficientemente pequeno, a probabilidade de obter exatamente uma eniissãO durante o intervalo é diretamente proporcional ao comprimento do intervalo considerado.) A4: L,;:= 2Pk(!J.t) A~: Xo = O, ou o que é equivalente, po(O) = 1. Isto equivale a uma condição inicial ~ara o modelo que estamos apresentando. -r O. (Isto significa que Pk(D.t) "' O, k ;:::: 2.) Isto afirma que a probabilidade de obter duas ou mais emissões durante um intervalo suficientemente · pequeno é desprezível. Como dentro em pouco demonstraremos, as cinco hipóteses relacionadas acima nos permitirão deduzir ~a expressão para Pn(t) = P[Xt = nl. Vamos agora tirar algumas conclusões, a partir das hipóteses acima. (a) As hipóteses Ai . e A2, em conjunto, querem dizer que as variáveis aleatórias Xt e [XttAt- Xt l são variáveis aleatórias ino t+~t dependentes, com a mesma distribuição de probabilidade. (Veja a Fig. 8.1 Fig. 8.1.) (b) Da.c; hipóteses Aa e Â4, pqdemos concluir que m Po(!J.t)= 1-pl(!J.t)- L Pk(!J.t)~l-'At+p(!J.t), (8.2) k=2 quando t-+ O. (c) Podemos escrever po(t + Llt) = P[Xt+At = O] = P[Xt = O e (X~+t.t- Xt) = = Po(t)po(fJ.t). ~ Po(t)[t - (d) À!J.t]. [Veja a conclusão (a).] [Veja a Eq. (8.2).] Daí, teremos Po(t + D.t) tit oJ Po(t) ,...., _ Àpo(t). VARiÁVEiS AILEATÓRDAS DISCRETAS: A DE PO!SSOI\I E OUTRAS / 197 Fazendo i1t--) O, e observando que o primeiro membro representa o quociente das diferenças da função po e por isso se aproxima de po'(t) (mais corretamente, se aproxima da derivada à direita, porque i1t > O), teremos . I ente, -(-) Po'(t) = - ,1\. Po '(t) = - 'I'.Po () t ou, o que e., eqmva Po t Integrando ambos os membros em relação a t, obtém-se ln po(t) = = - Àt + C, onde C é uma constante de integração. Da hipótese As, fazendo t = O, obtemos C = O. Portanto, Deste modo, nossas hipóteses nos levaram a uma expressão para P[X1 = ot Empregando essencialmente o mesmo caminho, agora obteremos pn(t) para n;:::: 1. (e) Consideremos Pn(t + l1t) = P[Xt+Lit = n]. Agora Xt+Lit = ·n se, e somente se, X, = x e [Xt+Lit ~ X,] = n- x, x =O, 1, 2, .. -., n. Empregando as hipóteses At e A2, teremos = Pn(t :t Px(t)pn-x(f:1t) = + f:1t) x=O n-2 = L p.f...t}pn-x(f:1t) 8=0 + Pn-t(t)pl(f:1t)+Pn(t)po(f:1t). Empregando as hipóteses A3 e Â4 e também a Eq. (8.2), obteremos Pn(t + f:1t) "-' Pn-t(l)À./::it + p,.(t)(l - À.f:1t]. Conseqüentemente, Pn(t + /::it) - Pn(t) "-' Àpn-t(l) - Àpn(t). l1t De novo fazendo l1t--) O, e também observando que o primeiro membro representa o quociente das diferenças da função pn, obteremos Pn'(t) = - Àpn(t) + Àpn-I(t), n = 1, 2, .. : Isto representa um sistema infinito de equações diferenciais e de diferençaS (lineares). O leitor, interessado poderá verificar que se definirmos a função qn pela relação qn(t) = eÀ1pn(t), ' o sistema acima se torna qn'(t) = Àqn- 1(t), n = 1, 2, ... Desd~ que po(t) = ,e..->..\ encontramos que qo(t) = L [Observe-se também que qn(O) ='9 para n > O.] Por conseguinte, obteremos sucessivamente t.JJJ •'! 1!!8 I PROBABiliDADE e daí Em geral, q..'(t) = Àq,.- 1(t) e por isso q,.(t) = (Àt)n/n! definição de q,., obteremos finalmente p,.(t) = e-">-'(1\t)"/n!,' n =· O, 1, 2, . . . Lembrando a (8.4) Mostramos, portanto, que o número de partfcúlas emitidas durante o intervalo de tempo [0, t) por uma fonte radioativa, sujeita ~ hipóteses feitas acima, é uma variável aleatória, com distribuição de Poisson, com parâmetro (Àt). Comenúirios: (a) 11: importante compreender que a distrib,lição de Poisson surgiu como wna conseqüência de alguma.s hipótE'.ses que fizemos. Isto significa que ·~empre que essas hipóteses sejani válida.s (ou ao menos aproximadamente válida.s), a. distribuição de Poisson po.de ser empregada como um modelo adequado. Verifica-se que existe uma grande classe de fenômenos para os quais o modelo de Po.isson é adequado. (i) Admita-se que Xt represente o número de chamados que chegam a uma central telefónica, durante um período de tempo de comprimento t. As hlpóteses acima são aproximadamente satisfeitas, particularmente durahte o "p~ rlodo movimentado" do dia. Conseqüentemente, Xt tem urna distribuição de Poisson. (ií) Adm.ita-tle que Xt represente o número de elétrons lil:.>ertados pelo catodo de uma válvula eletrônica. Tambéin as hipóteses acima.são adequadss e, portanto, Xt tem uma distribuição de Poisson. (iii) o seguinte exemplo (da Astronomia) revela que o racioc(nio ACima pode ser aplicado não ,somente ao número de ocorrências de algum evento, durante um período de tempo fixado, mas também ao número de ocorrências de um evento dentro das fronteiras de uma área ou volume fixados. Suponha-se que um astrônomo investigue uma parte de. via-Láctea, .a admita que na parte considerada, a densidade das estrelas X seja constante. [Isto. significa que em um volume V (unidades cúbicas), podem-se encontrar, em média, ÀV estrelas.) Seja X v o número de estrelas encontradaS em uma parte da Via-Láctea que tenha o volume V. Se as hipóteses acima forem sat~feítas (com "volume" substituindo "tempo"), ent!l:o P[X v = n) = (X V)n e-À Vjn!. (As hipóteses, intsrpreta.das neste contexto, afirmariam essencialmente que o número de estrelas que aparecem em P.artes não-sobrepostas do céu, representam variáveis aleatórias independentes, e que e. probabilidade de mais do que uma estrehl. &parecer em uma parte bastante pequena do ·céu é zeto.) (iv) Outra aplicação, no campo da Biologia, é lembrada se fizermos XA ser o número de glóbulos sangüíneos visíveis ao microscópio, a área de superfície visível no campo do microscópio sendo de.da por A unide.des quadradas. (b) A constante ]\. originalmente surgiu como uma constante de proporcionalidade Dili hipótese Aa. As seguintes interpretações de ]\. sl!,o dignas de nOta : Se Xt representar o número de ocorrências de algum evento, durante um intervalC> de tempo de comprimento t, então E(Xt) = Àt, e portanto X = [E(Xt)lft repre- I VARiÁVEiS AliEATÕRDAS DISCRIEf AS: A DE POISSON E OUTRAS I 1S!ll segun~o 115nt& a. taxa (freqüência} esperada a qual as partículas sil.o emitidms. Se X v representar o número de ocorrênci4.. de algu~ evento dentro de um vol~e especificado V, então E(Xv) = XV, e portanto X= [E(Xy)]/V representa adefl.. sidade esperada, segundo a qual as estn\las ap&recem. I (c) É import&nte co~preender qu~ nossa exposição na. Seç. 8.3 nll.o tratou exatamente de uma v.a riivel ale&tóri& X 1possuindo uma distribuição de Poiss<in . Mais exatamente, para todo t > O, encontramos que Xt possuíaluma distribuição de Poisson com um parâmetro dependehte de t. Tal coleção (infinita) de variáveis aleatórias é também conhecida conio Pr, cesso de Poiss~n. (Equivalentemente, um Processo de Poisson é gerado sempre que um evento ocorra em algum interv~lo de tempo:para o qual as hipótéses A 1 áté A 5 sejam satisfeitas.) De maheira análoga, poderemos.défmir um Processo de Bemouilli: se X 1 ,X2 , 1• • • , Xn, ... forem os números de ocorrências de sucessos em 1, 2, . j ., n, . .. provas de Bemouilli, então I . a coleção de variáveis aleatórias xn' ... é denominada um Xi\1' ... ' Processo de Bernouilli. · . Exemplo 8.5. Uma corriplic~da peça de maquinaria, quando funciona adequadamente, dá um l~cro de C dóla~s por hora ·(C > 2) , I a urna firma. Contudo, esta máquina tende a falhaJ;" em momentos in~sperados e imprevisíveis. Su~onha-se que o núm~ro de falhas, dura~te qualquer perlodo de duraJão t horas, seja urna variável alea-. tória com uma distribUição de Poisson com parâmetro t. Se a má·: quina falhar x vezes durante as t horas, o prejuízo sofrido (parada da máquina mais reparação) é igual ~ (~ 2 x) dólares. Assim, o lucro total P, durante qualquer períodb de t horas, é igual a P = Ct - (X 2. + X), onde X é a variável Ialeatória que repres~nta o número de falhas da máquina. Logo, P é uma variável aleatória, e poderá interessar escolher-se t (o qual es,t á à nossa disposição) de .tal ma. neira que o lucro esperado se tome máximo. Teremos + E(P) = Ct ~ E(X 2 + X). Do Teor. 8.1, encontraremos !I que E(X) =. t e E(X 2) = t + (t)a. Segue-se então que E(P) = Ct - ~ 2t- t2 • Para achar o valor de t para o qual E(P) se torna má.xirila, derivaremos E(P) e faremos a ~xpr~ssão resultante igual a zero. j . Obteremos C - 2 - 2t = O, qu~ fornece t = 1/2 (C - 2) horas. ! · I . I . Exemplo 8.6. Seja Xt o número de partículas emitidas por un:i.a fonte radioativa, durante um intenralo.d.e tempo de duração t. Admita-se que X, possua distribuição d~ Poisson com parâmetro at. ,, Um dispositivo contador é colocado ~ara registrar Q número de p'a rtí.culas emitidas. Suponha-se que exista urna probabilidade consÚmte p I ! .. ., 200 I PROBABIUDADE de que qualquer partícula emitida não seja contada. Se Rt for o número de partículas contadas durante o intervalo especificado, qual sem a distribuição de probabilidade de Rt? Para um dadO X. = x, a variável aleatória Rc possui uma distribuição binomial, baseada em x repetições; com pacl~etro (1 - p). Isto é, Empregando a fórmula da probabilidade total [Eq. (3.4)], teremos ., P(Rc = k) = 8-k "L, P(R, = klXt = x)P(Xc = x) . 1-p .)I& e- " 1 , ( .- .p - -k, L (X - k)i• (pat). · . a-k 1 = Façamos i = x - k. Porlanto, P(R, = k) = ( 1 "' )"' - " p e-mi "' k! i-O l~~t)i+k i! ~L -"'\}J'-"~- = ( 1 .,.- p )"' e-«' (patY'eP"'t = p k! e-CI--Pll(I - p)at]"' k! Deste modo verificamos que Rt também possui distribuição de Poisson, com parâmetro (1 - p)at. 8,4, A Distribuiçâlo Geométrica Suponha-se que realizemos um experimento· S e que estejamos interessados apenas·· na ocorrência ou. não-ocorrência de algum evento A. Admita~se; tal como na explicação da distribuição binomial, que realizemos S repetidamente, que as ,.repetições sejam independentes, e que em cada repetição P(A) = p e P(A) = 1 - p .= q permaneçam os mesmos. Suponha-se que repetimos o experimento até que A ocorra pela primeira vez. (Aqui nos afastamos das hipóteseS que levaram à distribuição. binomial. Lá, o número de repetições era predeterminado, enquanto aqui é uma variável aleatória.) VARIÁVIEIS AllEATÓRIAS DISCRETAS: ADIE I?OiSSOI\I E OUTRAS I 201 Defina-se a variável aleatória X como o número de repetições necessárias para obter a primeira ocorrência de A, nele se incluindo essa última. Assim, X toma os valores possiveis 1, 2, ... Como X:= k se, e somen.te se, as primeiras (k- 1) repetições de 8 derem o resultado A, enquanto a k-ésima repetição dê o resultado A, teremos k = 1, 2, ... (8.5) Uma variável aleatória· com a distribuição de probabilidade da Eq. (8.5) recebe ~ denominação de distribuição geométrica. Um cálculo fácil mostra que a Eq. (8.5) define uma distribuição de probabilidade legítima. Temos, obviamente, que P(X = k) 2:: O, e L"' k~l - . ' P(X = k) = p(l . + q + q + ·-· .) = p [ - 1-1· q- ] 2 = 1. - , Poderemos obter o vàlor esperado de X, da seguinte maneira: E(X) "' = Lkprf- 1 =p k=l "' d :Eq"' = dq k=l d"'2.::: t = = p---:dqk=l d[ -º-] = -. 1 P- qq 1-q p (A permuta da derivação e do somatório é válida aqui, porque a série converge quando Iq I < 1.) Um cálculo semelhante mostra que V(X) = q(p 2. (Obteremos de novo, ambos os resultados no Cap. 10, seguindo um caminho diferente.) Resumindo o que está acima, enunciamos o seguinte teorema: Teorema 8.3. Se X tiver uma distribuição geométrica, como dada pela Eq. (8.5), E(X) = 1/p e V(X) = q(p2. Conie.nt<irio: O fato de E(X) ser igual ao inverso de ']i é aceito intuitivamente, porque diz que pequenos valores de p = P(A) exigem muitas repetigões a fim de permitir que A (ocorra. Exemplo 8.7. Suponha-se que o custo de realização de um experimento seja US$ 1.000. Se o experimento falhar, ocorrerá um custo adicional de US$ 300 em virtude de serem necessárias algumas alteraÇões antes que a próxima tentativa seja executada. - Se a probabilidade de sucesso em uma tentativa qualquer for 0,2, se as provas forem independentes, e se os experimentos continuarem até que o .•.; 202 I PROBABILIDADE primeiro resultado frutuoso seja alemç!Mllo, quru aem o eusto elipe-; rado do procedimento completo "f · Se C for o custo, e X for o número. de provM necessárias para alcançar sucesso, têremos C = :LOOOX + 300(X - 1) = 1.300X ~· 300. Em conseqüência, 1 E( C) = 1.300E(X) - 300 = 1.300 0, . 2 - 300 = US$ 6.200~ Exemplo 8.8. Em determinada localidade, a probabilidade· da ocorrência de uma tormenta em algum dia durante o verão (nos meses de dezembro e janeiro) é igual a 0,1. Admitindo independêucia de um dia para outro, qual é a probabilidade da ocorrência da primeira tormenta da estação de verão no dia 3 de janeiro? Chamemos de X o número de dias (começando de 1.0 de dezembro) até a primeira tormenta e façamos P(X = 34), o que é igual a (0,9) 88(0,1) = 0,003. Exemplo 8.9. Se a probabilidade de que um certo ensaio dê . reação "positiva" for igual a 0,4, qual será. a probabilidade de qué menos de 5 reações "negativas~' ocorram antes da primeira positiva? Chamando de Y o número de reações negativas antes da, primeira positiva, teremos P(Y == k) = (0,6}'<(0,4), k =o, 1, 2, ... •. Daí, P(Y < 5) = 4 L (0,6)k(0,4) = 0,92. k=O Camentá.rio: Se X tiver uma distribuição goométrica como a descrita pela . Eq. (8.5) e se fizermos Z = X - 1, poderemos inter-Pretar Z como o número de falhas que precedem o primeiro sucesso. Teremos: P(Z = k) = qkp, .k = = O, 1, 2, ... , onde p = P (sucesso) e q = P (falha): A distribuição geométrica apresénta uma propriedade interessante, que será resumida no teorema seguinte: Teorema 8.4. Suponha-se que X tenha uma distribuição geométrica dada pela Eq. (8.5). Então, para dois quàisquer' inteiros positivos 8 e t, P(X;::::: Demonstração: 8 + t I X.> 8) = Vej~ o Probl. 8.18. P(X > t). (8.6) ê. e ? :1. - - I , VARIA VEIS A L EATORBAS DISCRETAS: A DE P-OISSON E OUTRAS I 203 I . I Comentários: (a) O teorem& adima afirma que a distribuição geométrica. "não possui memória", no oontido · ~eguinte: Suponha-se que o evento A nao tenha ocorrido durante !l8 primeiras ~ repetições de E. Então, a probabilidade de que ele não ocorre, durante as próximas t repetições será a .mesma probabilidade de que não tivesse oeot"rido durante ~s primeiras t repetições. Em outras palavras, a informação de nenhum sucessJ é "esquecida", no que inte~~essa aos cálculos I subseqÜentes. (b) A recíproca do teorema. acima é também verdadeira: Se a Eq. (8.6) valer para uma variável aleatória, qde .tome somente valores inteiros positivos, então essa variável aleatória deve te~ uma distribuição geométrica. (Não ~ deJ;Ilonstraremos aqui. Uma exposição pode ser encontrada no livro de Feller, An [ntrodudion to Probability Theory a~ Its Applications, John Wiley and Sons, Inc., 2.• Edição, New York, 1957, lág. 304.) (c) Observaremos no próximo ~apítulo que existe urna variável aleatória contínua, com urna distribuição que possui propriedade análoga à da Eq. (8.6), a saber, a_ çlistribuição exponencial. Exemplo 8.10. Suponha-se que uma peça seja inspecionada ao fim de cada dia, para verificar ke ela ainda funciona, adequadamente. Seja p = P [de falhar duranJ qualquer dia especificado]. Conse.qüentemente, se X for o núme~o de inspeções necessárias.·para veri.ficar a primeira falha, · X ter~ disti.-ibuição geométrica." e teremos P(X = n) = (1- p)n- 1p. Ou de modo equivalente, (1- p)n-ip = P [a peça falhar na n-ésima insJeção e não ' ter falhado na (n- 1)]. I ·o valor máximo desta probabilidade é obtido pela resolução de . I d r dp . · r:<f = n) = O. I O que fornece i p(n - 1)(1 - p)'H( -1) + (1 ;- p)"- 1 =;: O que é equivalente a (1 - p)n-2[(1 --;' p) - (n - 1)p] = O, da qual obtemo.s p = 1/n. I i I 8.5. A Distribuição de i f?asc~l gener~lização distrib~ção Uma óbvia Ida geométrica surge ' se propusermos a seguinte quest~o: Suponha-se que 'Uill experiinento seja continuado até que hm p~rticular evento A ocorra na r-ésima I ' . vez. Se P(A) = p, em cada repetição, i P(A) = q=1 - p dofiniremool• variávcl aloat6ria Y como St;lgue: 204 I PIF!OBA.BD UIDIA.OE Y é o número de repetições necessárias a fim de que A possa ocorrer exatamente r vezes. Pede-se a distribuição de probabilidade de Y; é evidente que se r = 1, Y terá a distribuição geométrica dada pela Eq. (8.5). Ora, Y = k se, e somente se, A ocorrer na k-ésima repetição e A tiver ocorrido e7'atamente (r - 1) vezes nas (k - 1) repetições~ante­ riores. A probabilidade deste evento é meramente p(~:Dp•-t~f-v, desde que o que acontece nas primeiras (k - 1) repetições é independente daquilo que acontece na k-ésima repetiç_ão. Portanto, P(Y = k) = o (~ = p'q'<-•, k = r, r+ 1, . . . ,. (8.7) Vê-se facilmente que para k = 1, a ·eJCpressão acima se reduz à Eq. (8.5). Uma variável aleatória que tenha a distribuição de probabilidade dada pela Eq. (8.7) possui a distribuição de Pascal. I' Comentário: A precedente distribuição de Pascal é também geralmente conhecida corno Distribuição Binomial Negativa. O motivo para isso é que, ao se verificar a condição L P(Y=k)= 1, k=l obtém-se t(k- 1l)prqk-r=pr f:(kl)qk-r= r - 1 k=l r - k=l que é, obviamente, igual a 1. A última igualdade provém do desenvolvimento em série de (1-q) - r =L ( -nr)(-q)n, n=l que é igual a E(k)qk- r, r - k=I 1 1 depois de algumas simplificações algébricas e relembrando a definição do coeficiente binomial generalizado (veja o Comentário antes do Ex. 2.7 ). Em virtude do expoente negativo (-r) na expressão acima é que a distribuição é denominada binomial negativa. VA R IÃVEIS AlEATÓRiAS Di SCRETAS: A DE POISSON E OU TRAS / 205 Para calcular E(Y) e V(Y) poderemos ou proceder diretamente, tentando calcular os vários somatórios, ou proceder da seguinte maneira: se Façamos Z1 = número de repetições necessárias até a primeira ocorrên- Z2 = número de repetições necessárias entre a primeira ocorrên- cia de A. e- .... , cia de A até, inclusive, a segunda ocorrência de A . Zr = número de repetições necessárias entre a ocorrência de ordem (r - 1) de A até, inclusive, a r-ésima ocorrência de A. à Deste modo, verificamos que todos os Z; são variáveis aleatórias independentes, cada uma delas tendo uma distribuição geOITiétrica. 'Também, Y = Z 1 + , + Zr. Daí, empregando o Teor. 8.3, termos o seguinte teorema: e Teorema 8.5. Eq. (8.7), então :e Se Y tiver uma distribuição de Pascal dada pela E(Y) = rjp, V(Y) = rqjp 2 • (8.8) Exemplo 8.11. A pt:obabilidade de que um experimento seja bem sucedido é 0,8. Se o experimento for repetido até que quatro resultados b'em sucedidos tenham ocorrido, qual será o número esperado de repetições necessárias? Do que foi exposto acima, teremos ' E(número de repetições) = 4/0,8 = 5. 8.6. Relação entre as Distribui9fies Binomial e de !Pascal Suponhamos que X tenha distribuição binomial com parâmetros n e p. (Isto é, X = número de sucessos em n provas repetidas de Bemouilli, com P(sucesso) = p.) Suponhamos que Y te':i1ha uma dist.ri· buição de Pascal com parâmetros r e p. (Isto é, Y = número de provas de Bemouilli necessárias para obter r sucessos, com P(sucesso) = p.) Então, valem as seguintes rplações: (a) P(Y<;n) = P(X?'-r) (b) P(Y>n) = P(X<r) · 1, ..,.- •·-;.+ 206 I PROBABILIDADE ·Demonstração: (a) Se ocorrerem r ou mais sucessos nas primeiras n provas repetidas, então serão necessárias n ou menos provas para obter os primeiros r sucessos. (b) Se ocorrerem menos de r sucessos nas primeiras n provas, então será preciso realizar mais do que n provas para obter r sucessos. Comentários: (a) As propriedades acima tornam possível empregar a tábua da distribuição binomial para calcular probabilidades asSociadas à distribuição de Pascal. Por exemplo, suponhamos que desejamos calcular a probabilidade de que mais de 10 repetições sejam necessárias para obter o terceiro sucesso, quando p = P(sucesso) = 0,2. Empregando a notação acima para X e Y, teremos [P( Y > > 10) = P(X < 3) = t (~) (0:2)k (0,8) 10 -k = 0,678 (da tábua no k=O Apêndice). ' . (b) Vamos rapidamente comparar as distribuições Binomial e de Pascal. Nos dois casos, estaremos tratando com provas repetidas de Bernouilli. A distribuição binomial surge quando lidamos com número fixado (digamos n) dessas provas e estaremos interessados no número de sucessos que venha a ocorrer. A distribuição de Pascal é encontrada quando nós pré-fixamos o número de sucessos a ser obtido e então registramos o número de provas de Bernouilli necessárias. Isto será particularmente importante em um problema estatístico que iremos explicar mais tarde (veja o Ex. 14.1). 8.7. . A Distribuiçã~ Hipergeométrica Suponha-se que tenhamos um lote de N peças, r das quais sejam defeituqsas e (N - r) das quais sejam não~defeituosas. Suponha-se que escolhamos, ao acaso, n peças desse lote (n ~ N), sem reposição. Seja X o número de peças defeituosas encontradas. · Desde que X = k se, e somente se, obtivermos exatamente k peças defeituosas (dentre as r defei~uosas do lote) e exatamente (n - k) não-defeituosas (dentre as (N - r) não-defeituosas do lote], teremos P(X = k) = (Ío)(;:'.:ik) (~) , k =O, 1, 2, . . . (8.9) Diz-se que uma variável aleatória, que tenha a,.. distribuição de. probabilidade da Eq. (8.9), tem distribuição hipergeométrica. CQmentário: Visto que (6) = O sem~re que b > a, se a e .b forem inteiros nã.o-negativos, poderemos definir iiB probabilidades acima para todo k = O, 1, 2, •.. Não poderemos, obviamente, obter mais do que r peças defeituosas, unicamente probabilidade zero será· associada 11. esse evento, pel11. Eq. (8.9). , ) VARiÁVEIS AlEATÓRIAS DISCRET ~S: A DE POISSOi\1 E OUTRAS I 207 I Exemplo 8.12. Pequenos motores elétricos são expedidos em lotes de 50 unidades. Antes que ba remessa seja aprovada, um inspetor escolhe 5 desses motores ~ os inspeciona. Se ,n enhum dos motores inspecionados for defeituosp, o lote é aprov~.do~ Se um ou mais f~rem verificados defeituos~s, ~todos os motores da remessa s~o inspecwnados. Suponha que eXIst,m, de fato, três motores defeituosos no lote. Qual é a probabil~dade de que a inspeção 100 por I I cento seja necessária? Se fizermos igual a X o núme~o de motores defeitÚosos encontrado, a inspeção 100 por cento será hecessária se, e somente se, X~ 1. I Logo, · I P(X . 2 1) = 1 - I P(X = O)' = 1 I ~ Teorema 8.6. Admita-se que métrica, como indicada pela Eq. (8.9). Nesse caso, teremos (~)(~) (~) = 0,28. tenha distribuição hipergeoFaçamos p = r/N, q = 1 - p. I (a) E(X) = np; (b) V(X) (c) P(X = npq NN-n _ . 1 = k) ~ (~) p" (1 - i p~,._,., •4 ~~ I para N grande. I -~ Demonstração: Deixaremos ao leitor os detalhes da demonstra1 ção. (Veja o Probl. 8.19.) I Comentário: A propriedade (c) do T~or. 8.6 afirma que se o tamanho do lote N for suficientemente grande, a distribuição de X poderá. ser aproximada pela distribuição binomial. Isto é intuitiv~mente aceitável, porque a distribuição binomial é aplicável quando fazemos amostragem com reposição (visto que, nesse caso, a probabilidade de obter uma peça defeituosa permanece constante), enquanto a distribuição hipergeométrica é .aplicável1 quando fazemos amostragem sem reposição. Se o tam!!-nho do lote. for grande1 não fará grande diferença se fazemos ou não retornar ao lote wna peça determinada, antes que a próxima seja escolhida. A propriedade (c) do Teor. 8.6 constitui apenas uma afirinação matemática desse fato. Observe-se, também, que o vaf.or esJierado de uma variável aleatória hipergeométrica X é o mesmo que o da corresdondente variável aleatória com distribuição binomial, en~uan~ a variância de X léum tanto menor do que a. co~es~,p­ dente no caso da bmmrual. O "fator de correção" (N - n){(N - 1) é, aproximadamente igual a 1, para N grande. I · . • i I li ~ 208 I PROIBAB8UDA.DE ;. i·: '•' •i I'" . :·1 Podemos ilustrar o sentido da propriedade (c), com o seguinte 4:lxemplo simples. Suponha-se que desejemos calcular P(X = 0). Para n = 1, obteremos para a distribuição hipergeométrica, P(X = O) = (N - r)/N = 1 - rfN = q. Para a distribuição bfuomial, obteremos diretamente P(X = O) = q. Portanto, essas respostas são iguais, quando se trata de n = L Para n=2, obteremos para a distribuição hipe.rgeométrica P(X = O) = N - r N · N - r - 1 N-1 =(1 - _!_) (1 N r N-1 ) . Para a distribuição binomial, obteremos P(X = O) == q2 • Deve"se observar que (1 - r/N) = q, enquanto [1 - rf(N - 1)] é quase igual a q. Em geral, a aproximação da distribuição hipergeométrica pela 0,1. distribuição binomial é bastante boa, se n f N s 8.8. A Distribuição Multinomial Finalmente, vamos examinar uma importante variável aleatória· discreta de maior número de dimensões, a qual pode ser considerada como uma generalização da distribuição binomial. Considere-se um experimento &, seu espaço amostral S, e a partição de S em k even- · tos mutuamente excludentes A 1, • . • , A~&. (Isto é, quando & fo.r realizado, um, e somente um, dos eventos A; ocorterá.) Comüderem-se repetições de S. Seja p; = P(A;) e suponha-se que .Pi permimeça constante durante todas as repetições. Evidentemente, teremos "'I' .L.i=lPõ = l. Definam-se as variáveis aleatórias X 1 , . . . , X~& como segue: n X; é o número de vezes que A; ooorre nas .~ nrepetições de &, = ll, ... , k. Os X; não são variáveis .aleatórias independentes, porque n. Em conseqüência, logo que os valores de quaisquer (k - 1) dessas variáveis aleatórias sejam conhecidos, o valor da outra ficará. determinado. Chegamos ao seguinte resultado: 'I:f-1 X; = Teorema 8.7. Se X;, i = 1, 2, ... , k, forj)m definidas como teremos acima, VARDÃVIEUS AlEATÓRiAS DiSCRETAS: A IDE IPODSSON 1E OUTRAS I 209 Demonstração: O raciocínio é idêntico àquele empregado para. estabelecer a distribuição de probabilidade binomial. Devemos simplesmente observar que o número de maneiras de arranjar n objetos, n 1 dos quais são de uma espécie, n2 dos quais são de uma segunda espécie, ... , nk dos quais são de uma k-ésima espécie, é dado por n! Comenlárws: (a) Se k = 2, o que está acii;n& se reduz & disiriliuiçil.o binomial. Nesse Ca.'lO, denominaremos os dois eventos possíveis "suresso" e "insucesso''. (b) A distribuiç1o da Eq. (8.10) é conhecida como a dÜltribuiçao de probabilidade multinomial (ou polinomilll). Vamos recordar que os termos da distribuição binomial são possíveis de se obter de um desenvolvimento da expressão binomial [p + (1- p)]" = L~=O(k)pk(l-p)~. De maneira análoga, as probabilidades acima se podem opter do desenvolvimento da expressão multinomial (PI + P2 + +··· + Pk)n. Teorema 8.8. Suponha-s~ que (X1, , ...• Xk) tenha uma distribuição multinomial, dada pela Eq. (8.10). Nesse caso, E(X;) = np; e V(X;) = np; (1-p;), i= 1, 2, ... , k. Demondtração: Isto é uma ~onseqüência imediata da observação de que cada X;, como foi definida acima, tem uma distribuição binomial, com a probabilidade de sucesso (isto é, a ocorrência de A;) igual a p;. Exemplo 8.13. Uma barra de comprimento especificado é fabricada. Admita-se que o comprimento real X (polegadas) seja uma variável aleatória uniformemente distribuída sobre [10, 12]. Suponha-se que somente interesse saber se um dos três eventos seguintes terá ocorrido: A1 = {X< 10,5}, A2 = {10,5 ~X~ 11,81 .e Aa = [X> 11,81. E sejam as probabilidades PI = P(AI) = 0,25, P2 = P(A2) = 0,65 e pa = P(Aa) = 0,1. Portanto, se 10 dessas barras forem fabricadas, a probabilidade de se obter exatamente 5 barras de .comprimento menor do que 10,5 polegadas e exatamente 2 de com~rimento maior do que 11,8 polegadas é dada por 210 I I"ROBABULIDADIE Problemas 8.1. Se X tiver uma distribuição de Poisson com parâmetro {3, e ~e P(X = O) = 0,2, calcular P(X > 2). 8.2. Admita-se que X tenha distribuiç.ão de Poisson com parâmetro À. Determine aquele valor de k para o· qual P(X = k) seja máxima. [Sugestao: Compare P(X = k) com J'(X = k - 1).] 8.3. (F..ste problema foi tirado do livro ProbabiUty and Sta.t-istical /tLjcrcnct for Engineers, por Derman e Klein, Oxford University Press, Londres, 1959.) O número de navios petroleiros, digamos N, que chegam a .determinada refinaria, cada dia, tem distribuição de Poisson, com parâmetro À = 2. As atuais instalações do porto podem atender a três petroleiros por dia. Se mais. de três petroleiros aportarem por dia, os excedentes a três deverão seguir para outro porto. (a) Em um dia, qual é a probabilidade de se ter de mandar petroleiros para outro porto ? (b) De quanto deverã'o as atuais instalações ser aumentadas para permitir manobrar todos os petroleiros, em aproximadamente 90 por cento dos dias? (c) QLtal é o número esperado de petroleiros a chegarem por dia? (d) Qual é o número mais provável de petroleiros a chegarem por dia? (e) Qual é o número esperado de petroleiros a serem atendidos diariamente? Qual é o número espemdo de petroleiros que voltarão a outros portos diariamente? (f) 8.4. Suponha-se que a probabilidade de que uma peça, produzida por determinada máquina, seja defeituosa é 0,2. Se 10 peças produzidas por essa máquina forem escolhidas ao acaso, qual é a probabilidade de que não mais de uma defeituosa seja encontrada? Empregue as distribuições binomial e cie Poisson e compare as respostas. 8.5. Uma companhia de seguros descobriu que somente cerca de 0,1 por cento da população está incluída em certo tipo de acidente cada ano. Se seus 10.000 segurados são escolhidos, ao acaso, na população, qual é a probabilidade de que não mais do que 5 de seus clientes venham a estar incluídos em tal acidente no próximo ano? 8.6. 2 P(X 3 Suponha que X tenha uma distribuição de Poisson. Se P(X = 2) =!),calcular P(X =O) eP(X = 3). 8.7. Um fabricante de filmes produz 10 rolos de um filme especialmente sensível, cada ano. Se o filme não for vendido dentro do ano, ele deve ser refugado. A experiência passada. diz que . D, a (pequena) procura desse filme, é uma variável aleatória com distribuição de Poisson, com parâmetro 8. Se um lucro de US$ 7 for obtido, para cada rolo vendido, enqu~nto um prejuízo deUS$ 3 é verificado para cada rolo refuga.do, calcule o lucro esperado que o fabricante poderá realizar com os 10 rolos que ele produz. 8.8. Partículas são emitidas por uma fonte radioatiya. Suponha que o número de tais partículas, emitidas durante um período de uma hora,. tenha uma distribuição de Poisson com parâmetro À. Um dispositivo contador é empregado para registrar o número dess8.9 partícul8.9 emitidas. Se mais de 30 partículas VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 211 I chegarem durante qualquer período de um1a hora, o dispositivo registrador é incapaz de registrar o excesso e simplesmente registra 30. Se Y for ~ variável ale~~>­ tória definida como o número de partículti,s registradas pelo dispositivo contador, determine a distribuição de probabilidade! de Y. I 8.9. Suponha que partículas sejam erütidas por uma. fonte radioativa e que o número de partículas emitidas durante ~m período de uma. hora. tenha uma distribuição de Poisson com parâmetro À. Admita que o dispositivo conta.dor, que registra essas emissões, ocasionalmente falHe no registro de uma ps.rt.ícula emitida. 1 EspeCificamente, suponha que qualquer p artícula emiti~a tenha uma. probabili·dade p de ser registrada. (a) Se Y for definida como o númer~ de partículas registradas, quru é um& expressão para a distribuição de probabilidade de Y? ' 1 I (b) Calcule P(Y = 0), . se À =4 I e p 'F 0,9. 8.1 O. Suponha que um recipiente encerre 10.000 partículas. 1 A probabilidade de que uma dessas Pl!-rtículas escape \do recipiente é i!'llal a 0,000 4. Qual é a probabilidade de que mais de 5 escapamentos desses oéorri!Jll? (Pode-se admitir que os vários escapamentos sejam \independentes. uns doo obtros.) . . 8.11. Suponha qne um livro de 585 páginas contenha 43 erros tipográficos. Se esses erros estiverem aleatoriamente distribuídos pelo livro, qual i é a probabilidade de 10 páginas, escolhidas ao acaso, e5tejam livres de erros? (Sugest(!,o: Su,ponha que X = número de erros .,Por pági~a tenha uma distribuição de Poisson.) 8.12. Uma fonte radioativa é obsertada durante . 7 intervalos de tempo, cada um de dez segundos de duração. O ~úmero de partículas emitidas durante cada período é contado. Suponha que o ~úmero de par~ículas emitidas X, durante cada período observado, tenha uma qistribuiç!l.o de Poisson com ps.râii\etto . I . 5,0. (Isto é, partículas são emitid!IS à t~ de 0,5 partícul!IB por segundo.) (a) Qual é a probabilidade d,e que em c.a da um dos 7 intervalos de tempo, 4 ou 1 mais partículas sejam emitidas? \ . (b) I Qual é a probabilidade de que em 1ao menos 1 d~s 7 interv~os de tempo, 4 ou mais partículas sejam emitidas? I 1 8.13. Verificou-se que o númt)ro de falhas de um transistor em um computador eletrônico, em qualquer período de }una hora, pqde ser considerado como uma variável aleatória que tenha uma distribuição de Poisson com parâmetro 0,1. (Isto é, em média, haverá uma falha. de t~ansistor cada 10 horás.) Determinado cálculo, que requer 20 horas de tempo de c~lculo, é ini<;iado. (a) Determinar a probabilidade que Ó cálculo acima. seja completado com êxito, sem falhas. (Admita que a. máquinJ se torne inoperante somente se 3 ou mais transistores falharem.) i i O mesmo que (a), exceto que a má.~uina se torna inoperante se 2 ou mais I ' transistores falharem. (b) 8.14. Ao formar números binários co\n n dígitos, ~ proba.bilidade de que um dígito incorreto possa aparecer é 0,002. Se os erros forem independentes, qual é a proba.bilidade de encontrar zero, ou mais de um digitas incorretos em um número binári~ de 25 dígitos? Se b computador forma 106 desses<.núnleros de 25 digitas por segundo, qual é a pro~abilidade de que um . número .\nc~\-­ reto seja forri:J.a.do durante qualquer período ide um segundo? fun, I 212 I !"ROBABIUDADIE 8.15. Dois procedimentos de lançamento, que operam independentemente, são empregados toda semana para lançamento de foguetes . Admit~J. que cada procedimento seja continuado até que ele produza um lançamento bem sucedido . Suponha que empregando o procedimento I, P(S), a probabilidade de um lançamento bem sucedido, seja igual a PI> enquanto para o procedimento II, P(S) = P2· Admita, também, que uma tentativa seja feita toda semana com cada um dos dois métodos. Sejam Xt e X2 o número de sema~a.s exigidas para alcançar-se um lançamento bem sucedido pelos procedimentos I e II, respectivamente. (Portanto, X1 e Xz são variáveis aleatória.s independentes, cada uma tendo uma distribtúção geométrica.) Façamos W igual ao m!rúmo (X11 X 2 ) e Z ao ·máximo (Xt, X2). Deste modo, W representa o número de semana.s necessárias para obter um lançamento bem sucedido, enquanto Z representa o número de semanas necessária.s para obter lançamentos bem sucedidos com ambos os procedimentos. (Portanto, se o procedimento I der SSS S, enquanto o procedimento II derSS-S, teremos w· = 3, z = 4.) (a) Estabeleça urna expressão para a distribtúçã.o de probabilidade de W. (SugesUto: Exprima, em termos de X1 e X 2, o evento i W = k) .) (b) Estabeleça uma expressão para a distribuição de probabilidade de Z. (c) Reescreva a.s expressões acima se for PI = pz . 8.16. Quatro componentes são reurúdos em um único aparelho. · Os comp onentes são originários de fontes independentes e p; = P(i-6ímo componente seja defeituoso), i .= 1, 2, 3, 4. (a) Estabeleça. uma. expressão para a probabilidade <de que o aparelho completo venha. a funcionar. (b) Est&beleça uma. expressão para a probabilidade de que w menos 3 componentes venham a funcionar, (.:) Se PI- = P2 = 0,1 e P3 = p~ = 0,2, calcule e. probabilidade de qúe exatamente 2 componentes venham a funcionar. 8.17. Um maquinisttll conserva um grande número de arruelas em uma gaveta. Cerca de 50 por cento dessas arruelas são de 1/4 de polegada de diâmetro; cerca de 30 por cento 81!.0 de 1/8 de díAmetro, e os restantes 20 por cento são de 3/8. Suponha que 10 arruelms sejam 6SCOlhid118 !W aca.so. (a) Qual é a probabilidade de que existam exatamente cinco arruelas de ·1/4, quatro de 1/8 e uma arruela de 3/8? (b) Qual é a probabilidade de que somente doía tipos de arruelaa estejam entre as escolhidlll!l? '(c). Qual é 1!. probabilidade de que todos os três tipos de arruell!B estejam entre aquelas escolhidas ? (d) Qual é 1!. probabilidade que existam tr& de um tipo, três de outro tipo, e quatro do terceiro tipo, em urna e.mostra. de 10? $.18. Demonstre o Teor. 8.41. 8.19. Demonstre o Teor. 8.6. 8.20. O .número de partícu!B.s emitidas por uma fonte radioativa, durante um período especificado, é uma. va.riável aleatória com distribuição de Poisson. Se a probabilidade de nl!,o haver emissões for igual a l/3, qual é a probabilidade de que 2 ou mais emil;S5es ocoi!Tam 't VARIÁVEIS AlEATÓRiAS DISCRETAS: A DE I'OiSSON !E OUTRAS I 213 8.21. Suponha que Xt, o número de partículas emitidas em t horas por uma fonte radioativa, tenha uma distribuição de Poisson com parâmetro 20t. Qual será a probabilidade de que exatamente 5 partículas sejam emitjdas durante um período de 15 minutos? 8.22. A probabilidade de um bem sucedido lançamento de foguete é igual a 0,8. Suponha que· tentativas de lançamento sejam feitas até que tenham ocorrido 3 lançamentos bem sucedidos. Qual é a probabilidade de que exatamentc 6 tentativas sejam necessárias? Qual é a probabilidade de que menos de 6 tentativas sejam necessárias? 8.23. Na situação descrita no Probl. 8.22, suponha que as tentativas de lançamento sejam feitas até que três lançamentos bem sucedidos, consecutivos , ocorram . Responda às questões que surgiram no problema anterior, neste caso. 8.24. Considere novamente a situação descrita no Probl. 8.22. Suponha que cada tentativa de lançamento custe US$ 5.000. Além disso, um lançamento falho acarrete um custo adicional de US$ 500. Calcule o custo esperado, para a situação apresentada. 8.25. Com X e Y definidos como na Seção 8.6, comprove se a expressão seguinte é ou não verdadeira: P(Y<n)=P(X>r). Algumas Variáveis Aleatórias Contínuas Importantes Capítulo 9 9.1. Introdução Neste capítulo, prosseguiremos a tarefa que nos propusemos no Cap. 8, e estudaremos minuciosamente algumas variáveis aleatórias contínuas importantes, e suas caracteristicas. Como já salientamos anteriormente, em muitos problemas se torna matematicamente mais simples considerar um espaço amostral "idealizado" para uma variável aleatória X, no qual todos os números reais possíveis (em algum intervalo especificado ·ou conjunto de intervalos) possam ser c·onsid·erados como resultados possíveis. Desta Jhaneira, seremos levados às variáveis aleatórias contínuas. Muitas das variáveis que agora introduziremos possuem importantes aplicações, e adiaremos para um capítulo posterior o exame de algumas dessas aplicações. 9.2. A Distribuição Normal A seguinte é uma das mais importantes variáveis aleatórias contínua'3. Definição. A variável aleatória X, que tome todos os valores reais - oo < x < oo, tem uma distribuição normal (ou Gaussiana) se sua fdp for da forma j(x)· = ff _1 1 [ -X - - jJ. exp ( - vz7r u 2 u . ] 2 ) , -oo <X<""· (9.1) Os parâmetros fJ. eu devem satisfazer às condições - oo < fJ. < oo, Já que teremos muitas ocasiões de nos referir à distribuição > O. I ALGUMAS VARIÁVEIS ALEATÓRIAS CONTfNUAS IMPORTANTES I 215 . I . acima, empregaremos a seguinte notação: X terá distribuição N(p., u 2 ) se, e somente se, sua distribuição de probabilidade for dada pela Eq. (9.1). (Freqüentemente, utilizaremos Ia notação exp (t) para representarmos e'.] Até o Cap. 12, não vamos explicar a razão da grande importância desta distribuição. Vamos apenas afirmar, por enquanto, que a distribuição normal serve como uma extelente aproximação para uma grande classe de distribuições, que têm enorme importância prática. I . Além disso, esta distribuição apresent ~ algumas propriedades matemáti~ cas muito desejáveis, que permitem ~oncluir importantes resultados teóricos. I .I 9.3. !Propriedades Ola Distrirôuição ~ormal Vamos mostrar que f é uiI a . fdp legitima. Obviamente, j(x);?; O. Devemos ainda verificar qlie f_"t,"' f(x) dx = 1. Notamos I que fazendo t = (x - JL )/u, poderemos!'escrever f_"t."' j(x) dx na fonw~ (lf'\h7r) f_"t,"' e~lz dt =I. . (a) O artifício empregado pàra calc&lar esta integml. (e é um artificio) é considerar, lugar de I, o Juadrado de::>ta integral, a saber I 2• Deste · modo, em 1 2 =-= _!_!+"' 2r = -1 27r "'. I e-t•tz dt II !+ . e-•'!2 ds -., J_+"' f_+"', I _., _., I e-W'+t'>/2 ds dt. Vamos introduzir coordenadas polares para calcular est& integral dupla: t =r sena. s = r cosa, 1 I Conseqüentemente, o elemento de áre\i ds dt se toma r dr da. Comó e t variain entre - 00 e + CIO 1 f' Variall entre o e 00 1 enquantO Ol VlllJ!'ia ' entre O e 27r. Portanto, 8 J! = - 1 21r 12"1~l o =- l 12rr 27r ,o = -1 12"' . 27r 0 o - I re-,'!2 dr da 1 I , ., da ef' '2lo I dct. :b 1. I Por isso, I= i, como se queria mostr~r. ,-.- !,. · I. 216 l PROBABiLIDADE (b) Vamos examinar o aspecto do gráfico de j. Ele apresenta a bem conhecida forma de sino, mostrada na Fig. 9.1. Visto que j depende de x somente através f(Jt) da expressão (x - J.J.)\ torna-se evidente que o gráfico de f será simétrico em relação a J.l. . Por exemplo, se x = J.l. + 2, (x - J.J.F == (J.J. + 2 - J.J.) 2 = 4, enquanto para x = fJ. - 2, (x -p.)2 = (JJ.-2- J.J.) 2 = 4, também. O parâmetro u também pode ser interpretado geometri!Fig. 9.1 camente. Observamos que para x = Jl., o gráfico de j é descendente, de concavidade para baixo. Quando x ~ ± ro; j(x) ~O, assintoticamente. Visto que f(x) ?: O para todo x, isto significa que, para valores grandes de x (positivos ou negativos), o gráfico de tem a concavidade para cima.. o ponto no qual a concavidade muda é denominado ponto de ID.flexão, e será localizado pela resolução da equação f"(x) = O. Ao fazer isso verificamos que os pontos de inflexão ocorrem para x = J1. ± u. Isto é, u unidades para a direita e para a esquerda d~ .Jl. o gráfico ·de f muda de concavidade. Por isso, se u . for relativamente grande, o gráfico de f tende a ser "achatado", enquanto se u for pequeno, o gráfico de tende a ser bastante "pontiagudo". ·', X = p. r r (c) Em complemento à interpreta~ão geométrica dos parâmetros J1. e u, o seguinte significado probabilístico importante pode ser associado a essas quantidades. Consideremos E(X) Fazendo z = E(X) !+ ~ = V 211r u _~ x exp ( - 21 [.·-X u fJ.- ] (x - J.J.)/u e observando que dx = - 1 v21r 1 v21r J_+~ (uz -~ ~ O" J_+~ - ~ = 2 ). dx. u dz, obteremos + J.J.)e-•'fl .dz ze-•'1 2 dz 1 + J.l.-= . -v!21r J_ +m e -•'12 dz. ~ A primeira das integrais acima é igual a zero, porque o integrando g(z) possui a propriedade g(z) = - g(-z), e por isso, g é uma função impar. A segunda integral (sem o fator JL) representa· a área total sob a fdp normal e, por isso, é igual à unidade. Assim, E(X) = Jl. . i ~ . AlGUMAS VAI'HÃVE!S A L IEÀTÓRftAS CONTI"NUAS iMPORTANTES I 217 Consideremos agora ]. [ x - Jl. ( -2 -dr- ]z) dx • Novament e fazendo-se z = (x - J.L)Iu , obteremos :; ,,i:' i ! I A segunda integral também é igual a zero, pelo mesmo argumento usado acima. A última integral (sem o fator' J.L 2 ) é igual à unidade. Para calcular (l/V 27r) J_+.,m z 2e-•'12 dz, integraremos por partes, fazendo ze-•'1 2 = dv .e z = u. Conseqüentemente v = - e~·Jz enquanto dz = du. Obteremos { " 1 v'21r f+m z e-•'1 2 2 dz = m =,0 -ze-<'J2,+m + --= 1 f+m e-•'1 dz= 2 v21r +1= -.., v21r -.., 1. Logo, = a- + J.L e, portanto, V(X) = E(X 2) - [E(X))2 = a- 2 • Deste modo verificamos que os dois parâmetros J.l e 172, que caracterizam a distribuição normal, são a expectância e a variância de X , respectivamente. Para dizê-lo de outra maneira, se souoormos que X é distribuida normalmente, saooremos apenas que sua distribuição de probabilidade é de um certo tipo (ou pertence a uma certa famllia). Se, além disso, conhecermos E(X) e V(X), a distribuição de X estará completamente especificada. Como dissemos acima, o gráfico da fdp de uma variável aleatória normalmente distribuida é simétrico em relação a J.L. O achatamento do gráfico é determinado por 17 2, no sentido de que :oe X tiver distribuição N(J.L, 1712) e Y tiver distribuição N(J.L, 17z2), onde 171 2 > 17z 2, então ~C::::.....----x-l~,-p.-----""--<>X suas fdp terão as formas relativas I . Fig. 9.2 apresentadas na Fig. 9.2. (á) Se X tiver a distribuição N(O, 1), diremos que X possui. a dis.tribuição normal reduzida. Isto é, a fdp de X pode ser escrita ·co~o E(X 2) 2 2 ·l··; 1••• 218 I PROBABiliDADE igual a I l{J(x) -x'f2 . = V 27r e (9.2) (Empregaremos a letra l{J exclusivamente para a fdp da variável aleatória X acima.) ·A importância da distribuição normal reduzida está no fato de que ela está tabelada. Sempre que X tiver a distribuição N(p., CT 2), poderemos sempre obter a forma reduzida, pela adoção de uma função linear de X, como o indica o seguinte teorema : = Teorema 9.1.· Se X tiver a distribuição N(}J., u 2), e se Y = aX + b, então Y terá a distribuição N(ap, + b, a 2 u 2) . Demonstração: O fato de que E(Y) = ap, + b e V(Y) = a 2CT 2 decorre imediatamente da.'l propriedades do valor esperado e da variância explicadas no Cap. 7. Para mostrar que, de fato, Y será normalmente distribuida, poderemos aplicar o Teor. 5.1, já que aX + b será ou uma função decrescente ou uma função crescente de X, dependendo do sinal de a. Em conseqüência, se g for a fdp de Y, teremos g(y) = ~:11" CT exp ( - 2!~ [ Y ~b - J.L ] ) I! I 1 V27r CT!al exp ( - que representa · a fdp de uma variável aleatória com distribuição N(a!J. + b, a 2ir 2). Coroldrio. Se X tiver distribuição N(}J., u 2) e se Y = (X - J.L)/CT, então Y terá distribuição N(O, 1). Demonstração: É evidente que Y é uma função linear de X, e, por isso, o Teor. 9.1 se aplica. ., Comentário: A importância deste corolário é que, pela mudança de unidades na qual a variável é mensurada, poderemos obter a distribuição reduzida (veja o item d). Ao fazer isso, obteremos urna distribuição com parâmetros não-especificados, situação a mais desejáVel do ponto de vista da tabulação da distribuição (veja a seção seguinte). · ALGUMAS VARIÁVEiS ALEATÓRIAS C0NTfNUAS IMPORTANTES I 219 ! 9.4. . I Tabu iõllçálo da1 IOistriino iÇã\o INlorm~i Suponha-se que X tenha distrib~ição N(O, 1).. Nesse caso, . .l I rb e-"'12 dx. - -< b) = v2nJ,. P(a <X Esta integral não pode ser calculadl pelos caminhos comuns. (A dificuldade reside no fa~ de que llião dodemos aplicar o Teorema Fun. I damental do Cálcwo, porque não podemo:> achar uma função cuja derivada seja igual a e-z'f2 .) Cont~do, métodos de int~gração numérica podem ser empregados para ca;lcular integràis da :.forma acima., e de fato P(X ~ s) tem sido tabelada. A fd da distribuição normal -reduzida sem· coerentemente denotada por <][>. Isto é, <ll(s) = 1 ~~ e-z'f2 dx. T (9.3) v21r . (Veja a Fig. 9.3.) A função ,<ll tem ~ido tabelada extensivamente, e um extrato dessa .tábua está 1 ( ) ' .p X apresentada no Apêndice. PoI demos agora utilizar a tapuia, ção da funÇão <I>, · a fim de cal· cularmos P(a ~X ~ b), onde X tem a distribuição reduzida N(O, 1) visto que P(a ~ X ~ b) = <X>(b) - <Jr>(a). !Fig. u A utilidade notável da tabulação é devida ao fato de que, se X tiver qualquer distribuição , N(p., u2), a. função tabelada ~ pode ser empregada para calcular pnloa.outaaa!)s associadas · a X. , Simplesmente empregaremos o 9.1 para salientar que se X tiver distribuição N(p., u 2), então r Y = (X - Jl)/u terá distribuição N(O, 1). Conseqüentemente, i 1 P(a < X < b) = P ( - - a - J&! < u I- /LI) -q-1 _ <][> '( b - - Y < - <][> b - ,u ) = u ( -u .z - p. ) . (9.4) lr: também evidente da definição de <J[>I (Veja Fig. 9.3) que <][>(- x) = 1- ~(x). (9.5), -: ' 220 I I?ROBABIUOADIE Esta relação é particularmente útil, porque na maioria das tábuas, a função 4\1 está tabulada somente para valores positivos de x. Finalmente, vamos calcular P(fl - ku ::::; X ::::; p. + ku), onde X tem distribuição N(p., c:r 2). A probabilidade acima pode ser expreasm em termos da função <ilP>, ao se escrevteK' P(p, - ku :$ X :$ p. + ku) = P ( - k :$ X; !A :$ k) = q[>(k) ~ <ilP>(- k). Empregando a Eq. (9.5), teremos para_ k > O, P(fl - ku :$ X :$ p., + ku) = 2<i>(k) - 1. (9.6) Observe-se que a probabilidade acima é independente de p., e u. Explicando: A probJJ.bilidade de que uma variável aleatória com distribuição N(p., u 2 ) tome valores até k desvios padrões do valor esperado depende somente de k, e é dada pela Eq. (9.6). Came11tário: Teremos muitas ocasiões de nos referir a "!unções tabeladas" . Em certo sentido, quando uma. expressão pode ser escrita. em termos de furiç.Ões tabeladas, o problema est§. "resolvido". (Com o recurso das modemàs instalações de computação, muitas funções que ainda. não estejam tabuladas podem ser facilmente calcula.da.3. Muito embora não ll.'lperemos que qualquer pessoa. tenha fácil aCesso ·s. um computador, . não parece muito desarrazoado supor que algnma.S t.é.buas comuns sejam dispmúveis.) Por isso, nos sentimos tão à vontade com, a função cil(x) = (I/ V27r) f_!"' e -n'/2 ds quanto com a função f(x) = ...;-;. Amba..9 essas funções estão tabeladas e, em ambos os casos poderemos sentir alguma dificuldade em calcular diretamente a função para x = 0,43, por eJWmplo. No Apêndice, estão reunidas várias t.é.buas de algumas das mais importantes funções que encontraremoa em nosso trabalh.o. Referências ocasionais .serão feitas a outras tábuas não incltúdas neste livro. Exemplo 9J.. Suponha-se que X tenha distribuição N(3, 4). Desejamos achar um número c, tal que P(X > c) = 2P(X ::::; c). Observamos que (X - 3)/2 tem distribuição N(O, 1). Logo, P(X > c) = prf X \ - 3 .2 > c- 2 .3 ) = l _ ~ ( c - 3 )· 2 • Tm1hêm, P(X ,::::; c) = p (X ; 3: : ; c~ 3) = ~ ( c ~ 3). . ,j: ALGUMAS VARIÁVEOS ALEATÓRiAS CONTfNUAS 11\/lPORTAN"fES I 221 A condição anterior pode, pois, ser escrita como 1 - <I> [ (c- 3)/2] = = 2q[P [(c - 3)/2]. Isto se toma ÇP [(c - 3)/2] = 1[3. Dai (a partir das tábuas da distribuição normal) encontrarmo~ que (c- 3)/2 = = - 0,43, fornecendo c = 2, 14. Exemplo 9.2. Suponha-se que a carga de rupturn de um tecido de algodão (em libras), X, seja D.ormalmente distribuída com E(X) = = 165 e .V(X) = 9. Além disso, admita-se que uma amostra desse tecido seja considerada defeituosa ae X < 162. ·. Q~al é a probabilidade de que :mn. _tecido· escolhido ao acaso ~ja defeituoso i' Devem~s calcular P(X < i62). .Contudo, P(X < 162) = p (X ~ 165 < 162 ; 165 ) = <][>( - 1) = 1 - <][>(1) = 0,159. Comentário: Uma objeção imediata ao emprego da distribuição normal pode surgir aqui, porque é óbvio que X, a carga de ruptura de um tecido de algodão, não pode tomar valores negativos, enquanto uma variável aleatória no.rmalmente distribuída pode tomar todos. os valores positivos e negativos. No entanto, o modelo acima (aparentemente .não válido, à vista da objeção recém surgida) atribui probabilidade desprezível ao evento {X <O}. Isto é, , .P(X <O)= p( X-; 165 < O -3165) = .cf>(-55)~0. O caso surgido aqui ocorrerá freqüentemente: Uma dada variável aleatória X, que sabemos não poder tomar valores negativos, será suposta. ter uma distribtúção normal, desse modo tomando (ao menos teoricamente) tanto valores positivos como negativos. Enquanto os parâmetros J1. e u 2 forem escolhidos de modo que P(X < O) seja essencialmente nula, tal representação será perfeitamente válida. O problema de encontrar a fdp de uma função de variável aleatória, por exemplo Y = H(X), tal como se explicou no Cap. 5, se apresenta nesta passagem, em que a variável aleatória X tem distribuição normal. Exemplo 9.3. Suponha-se que o raio R de uma esfera de rolamento seja normalmente distribuído com valor esperado 1 e variância 0,04. Determinar a fdp do volume da esfera de rolamento. A fdp da variável aleatória R é dada por j(r) = 1 V21r (0,2) exp ( - [r- 2 21 (),21 ] ) · Já que V é uma função monotonicamente crescente de R, P9demos aplicar direta.mente o Teor. 5.1 para a fdp de V = 4/3 1rR 3, e 9pter :·• 222 I PROBABILIDADE g(v) = j(r) (drfdv), onde r será sempre expresso em termos de v. Da. relação acima, obteremos r = {/3v/47r. Daí, drjdv = (1/47r)(3v/47r)-2' 3• Pela substituição dessas expressões na equação acima, obteremos a fdp de V desejada. Exemplo 9.4. Suponha-se que X, o diâmetro interno (milímetros) de um boéal, seja uma variável aleat6na normalmente distribuída com valor esperado p, e variância 1. Se X não atender a determmadas especificações, o fabricante sofrerá um prejuízo. Especificamente, suponha-se que o lucro T (por bocal) seja a seguinte função d~.X: T = Cx dólares se 10 :$ X :5;; 12, se X< 10, se X> 12. Conseqüentemente, o lucro esperado (por bocal) pode ser escrito: E(T) = Cx[<l>(12- p,)- cl>(10- p,)]- Cz[<I>(IO_. p,)]- Ca[1- <1>(12-:- p,)] · = (Cx + Ca)ci>(12-,u)- (Cx+Cz)<I>(IO- p,)- Ca. Admita-se que o processo de fabricação possa ser ajustado de modo q,ue diferentes valores de p, possam 'Ser encontrados. Para que valor. de p, o lucro esperado será máxiino? Devere~os calcular dE(T)j(dp,) e igual/i-la a zero. Denotando, como é cost\nne, a fdp da distribuição N(O, 1) por l{J, teremos dE(Tl ~ = (Cx · + Ca)[-l{J(l2p,)]- (Cx +Cz)[- l{J(lO- p,)]. Daí, - (Cx + Ca) V~7r exp [ - ~ (12- p,)2] + (C1 + C.,J V~7r + exp [ - ~ (10-p,)2 J =0. Ou Portanto, M = ll _ _!_ln ( Ct 2 . C1 + Ca )· + Cz [f; fácil tarefa para o leitor verificar que a expressão acima fornece o valor máximo para E(T).] I ·[ ALGUMAS VARIÁVEIS AlEATÓijH AS CONTfNUAS IMPORTANTES Comentários: a l- r- I 223 i (a) Se C2 = C3, is~o é, se um diâmetro X muito grande ou. muito pequeno constituírem defeitos igualmente sérios, então o valor de Jl, para o qual o valor máximo de E(T) é atingido, será Jl = 11. Se C2 > C3, o valor de p. será maior que 11, enquanto sei C2 < C3 , o valor de Jl será menor que 11. Quando p. ~ + oo, E(T) ~ -Ca, enquanto se JL __,. ,_ ""• E('l') ~ -C2. (b) Considerem-se 08 seguintes v~ores de custo: cl = US$ 10, c2 = US$ 3, I ' e Ca = US$ 2. Em conseqüência, o !valor de fi. para o qual E(T) se tomará máximo é p. = 11 - (1/2) ln (12/13) US$11 ,04. Deste modo, o valor mt!.JP..mo atingido por E(T) será igual a US$ 6 ,~4 por bocal. =i iio Definição. Uma variável al~at6ria contínua X, que tome todos oo valores não-negativos, terá ~a distribuição exponencial com parAmetro 01. > O, se sua fdp for dad~ por 1 1 • J(x) = :!: :le ra ar lp i ae-;J\"'' x l> :., ,., I O Ó, para quaisquer outros valores; I (Veja a Fig. 9.4.) [Uma integração imediata mostra que 1"' J(x) dx = 1 (9.7) f(x) 1 ! e, por isso, a Eq. (9.7) represen1a uma fdp.J ! A distribuição exponencial dibsempenha importante papel n~ Fig. 9 •4 descrição de uma grande classe ide fenômenos, particularmente nos assuntos da teoria da confiabntdade. Dedicaremos : o Cap. 11 a algumas dessas aplicações. Por1 enquanto, ' vamos apenas estudar algumas das propriedades da dis~ribuição exponencial. o. I r 9.6. (a) Propriedac!Jem da lOi~,tribuiçio E:rqoonencie! A fd F da distribuição e~nencial é dada por I F(x) =.P(X s x) = ("/xe-'dt ~ j.J! l í.- ><> e:;;;}~~ O 'f O, [Portanto, P(X > x) ·= ~r·"""J (9.8) .:::-L-- 1 . para o:utros quaisque,r v~ores. ·. ': \ 224 I PROBABIUOADE (b) O valolt' esperado de X é obtido assim: E(X) = 1'" :me-- dx. por partes e fazendo ae-""' dx = dv, x = u, obtemos du = dx. Port~mto, E(X) = [- . + 1"'· u-"llo o e--<12 dx = - :1. · (9.9) Ol Por conseguinte, o valor esperado é igual ao inverso do parâmetro a. [Pelo simples rebatismo do parâmetro a = 1/~, poderíamos escrever a fdp de X como sendo f(x) = (1/~)e-x 113. Nesta forma, o parâmetro ~ fica igual ao valor esperado de X. No entanto, continuaremos a empregar a forma da Eq. (9.7).] (c) A variância de X pode ser obtida por uma ·integração semelhante. Encontraremos que E(X 2) = 2/a 2 e por isso 1 V(X) = E(X 2 ) - [E(X)]2 = · Ol~ (9.10) (á) A distribuição exponencial apresentm a seguinte interessante propriedade, nnáloga à Eq. (8.6) exposta para a distribuição geométrica. Considere-se para quaisquer s, t > O, P(X > s tiX >e). Teremos + + P(X > s + tI X > s) = P(X > P(X 8 + i) > s) Portanto, P(X > s + tI X > s) = P(X > i). (9.11) Desta maneira,. mostramos que a distribuição exponencial apresenta , também a propriedade de "não possuir memória", tal como a distribuição geométrica. ('"feja o Comentário que se segue ao Teor. 8.4.) Faremos uso intenso dessa propriedade ao aplicarmos a distribuição exponencial aos modelos de fadiga, no Càp. 11. . Comentário: Do mesmo modo que ~ verdadeira no caso da distribuiÇão geométrica, a reciproca da; Propriedade (d) também vale aqui. A única variável aleat&-ia contln= X, que toma valores não-negativos para os quais P(X > s t \X > g)·= P(X > t) para todos s, t > O, é uma variável aleatória distribuída + + exponencialmente. [Muito embora não o provemos aqui, deve-se salientar que o ponto crítico do racioclnio se refere ao fato de que a única função continua G, que tem a propriedade de G(x + y) = G(x)G(y) para todQs y > O, é G(x) = e-k:<. Verifica-oo facilmente que se ·definirmos G(x) = 1 - F(x), onde F é a fd de X, entií,o G satisfará. a esta condição.] x, ;.1 h .!i ::i!,,, ALGUMAS VARIÁVEIS ALIEATÓR8AS CONTfi\IUAS iMPORTANTES / 225 ·•:• :!~ ~;~ .:;~ Exemplo 9.5. Suponha-se que tn:n fusfvei tenha uma duração de vida X, a qual pode ser considerada uma variável aleatória contínua com uma distribuição exponencial. Existem dois processos pelos quais o fusível pode ser fabricado. O processo I apresenta uma duração de vida esperada de 100 horas (isto é, o parâmetro é igual a ll00- 1), enquanto o Processo H apresenta uma duração de vida esperada de 150 horas (isto é, o parâmetro é igual a 150-1). Suponha-se que o processo H seja duas vezes mais custoso (por fusível) que ll processo I, que custa C dólares por fusível. Admita-se, além disso, que se um fusível durar menos que 200 horas, um& multa de K dólares seja lançada sobre o fabricante. Que processo deve ser empregado? Vamos calcular o custo esperado para cada processo. Para o processo I , teremos - Cr = custo (por fusivel) C ··';! 'I :!~ "1 ~ :jj fi l!~ ~ l~ ijí.l fj';l·i li, .jij i,I,:l ,,,'•J ,li se X> 200 C + K se X ::s; 200. I ' I Logo, ) E(C1) = CP(X <_200) + (C + K)P(X ::s; I fi I 'li 200) + (C + K)(l _ e-<lliooJzoo) + (C + K){l - e- = K(l - e- + C. = ce-<ltloo)2oo = Ce-2 2) [I· 2) .ii Iii <:11• Por um cálculo semelhante, encontraremos li!i lllj n. Portanto, E(Cn) - E(Cr) = C ConBeqüentemente, C> 0,13K. + K(e- 2 - preferiremos e-413) o =C- processo -~ 0,13K. I, visto ~1\1 ll:j.,, que P\ !:Iii '!;I T q· ."! i,' Exemplo 9.6. Suponhamos que X tenha uma distribuição exponencial com parâmetro ot. Nesse caso, E(X) = 1/ot. Vamos calcular a probabilidade de que X ultrapasse seu valor esperado (Fig. 9.5). Teremos p (X > ! )= j(x) :!i').i · t, ii:I ;L :I!:r e-..(1/m} I . 1 :r=l :iji' ''I.·' = e-n < -2 um Exemplo 9.7. Suponhamos que T, o período para a quebrli· de componente, seja distribuido exponencialmente. Portan,to, ;:·. . '\\ J\; d' i.' •I í: " I' l b'ii 226 I PROBABiUDADE j(t) = ae-at. Se n desses componentes forem instalados, quai será a probabilidade de que a metade ou mais deles ainda esteja em fun• cionamento oo fim de t horas? .A probabilidade pedida é e -at)n-k(e-atk) se n f or Í mpar. Eumplo 9.8. Suponhamos que a duração da vida T, em horas, de determinada. válvula eletrônica seja uma va-riável aleatória com distribwção exponencial, com parâmetro ~Quer dizer, a fdp é dada por j(t) = (3e-f3 1, t > O. Uma máquina que emprega esta válvula custa C1 dólares/hora de funcionamento. Enquanto a máquina está funcionando, um lucro de C 2 dólares/hora é obtido. Um operador deve ser contratado para um número de horas prefixado, H, e recebe um pagamento de Ca dólares/hora. Para qual valor de H, o lucro esperado será máximo ? Vamos inicialmente obter uma expressão para o lucro R. remos R = C2H - C1H - CaH = C2T - C1T - CaH se T Te- >H se T :::; H. Note-se que R é um:a variável aleatória, porque é uma função de T. Daí E(R) = H(C2- + (C2- 1 > H) - CaHP(T :::; H) 8 C1) t(3e-f3 1 dt Ca)e-f3 8 - CaH(l - e-f3 8 ) (C2- Cl)[(3- 1 - e-f3 8 ((3- 1 + H)] = H(C2- , + C1 - Ca)P(T C1 - = (C2 - CI)[He-f3H + {J- 1 - e-f3H({f"- 1 +H)] - CJI. Para obtermos o valor JWLá.ximo de E(R), derivaremos em relação a H e faremos a derivada igwLI a zero. Teremos "~ : ft~ ALGUMAS VARIÃVEIS AlEATÓRIP\S CONTfNUAS IMPORTANTES I 227 I I , Conseqüentemente dE(R)/dH = O ~carreta q'111e H= I _,(__!_) 1n (3 I 1[ C3 ]· Cz- Ct I [A fim de que a solução acima tenHa significado, devemos ter H > O, I o que ocorre se, e somente se, O 'S Ca /(C 2 - C1) < 1, o que por ~ua , vez é equivalente a Cz- Ct >O e iC2 - C1 - Ca >O. No entanto, a últka condição exige apenas quk os dados de custo sejam de tal magnitude que um lucro possa ser auferido.) ifi1 ~~ ]~ J-~5 ·~~ t ~ri I ,q~ :~~ ·:~ ,Y: J "~' . Suponha-se, em particular, que (3 = 0,01, C1 = US$ 3, Cz = = US$ 10, e Ca = US$ 4." Nessel' caso, H = - 100 ln (4/7) = = 55,9 horas e::: 56 horas. Portanto,I! o operador deve ser contratadGl ' para 56 horas, de modo a se alcan'çar o máximo lucro. (Para uma ligeira modificação do exemplo acim~, veja o Probl. 9.18.) I I I 9.7. 1 A Distribuição Gama -~"' ' ' I ·~r:: .:i; Vamos, inicialmente, introduzir uma função que é da maior importância, não somente em teoria ide probabilidade, mas em muitos _I domínios da Matemática. ~~ ~~ '1~ ti _ A junção gama, denotada por Definição. j~ '\r ·~~í ' r(p) ~~ I = 1 ~ I r, xP~le-" dx, !definida para é assim definida: p > O. (9.12) I I [Pode-se demonstrar que essa I integral imprópria existe (converge) sempre que p > O.l Se iqtegrarmos por partes,' fazendo e_, dx = du e xP-t = u obteremos ! ' r(p) , I = -e-:rxp-llõ = O + (p - ~~J ~I \e-:rxp- 2 dx 1) l = (p - 1)rcv - [-e-"(p- 1)xP-Z d:d 0 I I). ! (9.13) I Desse 'modo, mostramos que a funç~o gama ob~dece a uma interes- "'I I i~';_, _ . ~#i,.!tt:. . sante relação .de recorrência. Sup6nha.:.se que p seja 1 um inteiro positivo, digamos p = n. Enião, aplicando-se a Eq. (9.13) repetii damente, obteremos ' rcn) = cn - l)rcn - 1) = (n- l)(n- 2)r(n- I 2~ ' ,. , = ... = (n - l)(n - 2)· . . r(l};. ~ 228 I PAOBABHUDAIIJIIE Porém, I'(l) = fo "'e-"' dx = 1, e, por isso, teremos r(n) = (n- 1)! (9.14) (se n for um inteiro positivo). (Portanto, poderemos considerar a função gama como uma generalização da função fatorial.) É também fácil verificar que r( ~ ) =i"' x- 112e-"' dx = -v;. (9.15) (Veja o Probl. 9.19.) Com o auxilio da funçãÕ gama, poderemos agora introduzir a distribuição de probabilidade gama. Definição. Seja X uma variável aleatória continua, que tome somente valores não-negativos. Diremos que X tem uma distribuição de probabilidade gama, se sua fdp for dada por j(x) f{x) = -01.- (ax)'- 1e-&-" I'(r) ' x>O = O, para quaisquer outros valores. (9.16) Esta distribuição depende de ~:::::::::_ _ _..:=::=:=::::::::=...,.x dois parâmetros, r e a, dos quais se exige r >O, a >O. [Em virtude da definição da função gama, é fácil ver que f_:!:"' j(x) dx = 1.] •A Fig. 9.6 mostra o gráfico da fdp Eq. (9.16), para vários valores de r e a= L Fig. 9.6 9.8. Propriedades d<l! Distri!:wição Gama (a) Se r = 1, a Eq. (9.16) fica j(x) = ae-«"'. Portanto, a d1·stribuição eiponencial é um caso particular da distribuição gama. · (Se r for um inteiro positivo maior do que um, a distribuição· gama também estará relacionada com a distribuição· exponencial, porém de uma forma ligeiramente diferente. Tratare~os disso no Cap. 10.) (b) Na maioria de nossas aplicações, o parâmetro r será um inteiro positivo. Neste caso, existe uma interessante relação entre a fd da distribuição gama e a distribuição de Poisson, que agora apresentaremos. .ALGUMAS VARiÁVEiS ALEATÓRIAS COI\!TfNUAS iilliPORTANTES I 229 r = fa "'(e-Y·!/fr!)dy, Considere-se a integral na qual r é um inteiro positivo e a > O. Então, r!I = fa"' e-ily• dy. Integrando r1or partes; fazendo-se u = y' e dv = e-Y dy, teremos du = ryr-I dy e v = = - e-11 • Daí, r!J = e--ea• + r .f." e-11 y'- 1 dy. Nessa expressão, a integral é exatamente da mesma forma que a integral original, com r substituído por (r- 1). Deste modo, continuando-se a integrar por partes, desde que r seja um inteiro positivo, teremos r!I = e-a [a'+ ra'- 1 + r(r - l)a'- 2 + · · · + r!l. Conseqüentemente, I = = e-<~[1 t k=o + a + a /2! + · · · + a'fr!] 2 P(Y = k), onde Y tem uma distribuição de Poisson com parâmetro a. Consideremos agora a fd da variável aleatória cuja fdp seja dada pela Eq. (9.16). Desd~ que r seja um inteiro positivo, a Eq. (9.16) poderá ser escrita assim · j(x) = a (r- 1)! (ax)'- 1e-«'", x >O .e cohsiflüentemente a fd de X se torna F(x) = 1- P(X > x) = 1- j"' _ _!!_ (as)'- 1e-"' ds, x >O. x (r - 1)! Fazendo-se (as) = ú, verificamos que isto se transforma em . 1"' F(x) = 1 - '""' u•-!e-" X> (r_ 1)! du, Ü. Esta integral é justamente da forma considerada acima, a saber I (com a = ax), e portanto r-1 F(x) = 1 - L e-"'x(ax)k/k!, k~O X> 0. (9.17) Por isso, a jd da distribuição gama pode ser expressa em termos da jd tabulada da distribuição de Poisson. (Lembramos que isto é válido quando o parâmetro r é um inteiro positivo.) 1 e I Comentdrio: O resultado apresentado na Eq. (9 .11), que relaciona·a fd',da . ·distribuição· de Poisson com a fd da distribuição gama, não é tão surpreendente quanto poderia parecer à primeira vista, como será explicado a seguir. ·. · 230 I ' PROBAB~LBDADE Antes de tudo, lembremo-nos da relação entre as distribuições binomial e de Pascal (veja o Comentário (b ), Seção 8.6). Uma relação semelliante existe entre as distribuições de Poisson e gama, destacando-se que esta última é uma distribuição contfuua. Quando tratamos com uma distribuição de Poisson, estamos essencialmente interessados no número de ocorrências de algum evento durante um periodo de tempo fixado. E, como também será indicado, a distribuição gama surge quando inqagamos a distfibuição do témpo necessário para obter um número especificado de ocorrências do evento. Especificáinente, suponhamos X = número de ocorrências do evento A durante (0, t). Então, sob condições adequadas (por exemplo, satisfazendo as hipóteses A 1 até A 5 da Seção 8.3), X tem uma distribuição de Poisson com parâmetro at, onde a é o número esperado (ou médio) de ocorrências de A durante um intervalo de tempo unitário. Seja T = tempo necessário para observar r ocorrências de A . Teremos: H(t) =P(T <. t) = 1- P(T > t) 1 - P(menor do que r ocorrências de A ocorram em (O, t]) 1-P(X<r) r- 1 1- I: e- at (at)k k =O k! ·A comparação disso com a Eq. (9.17) estabelece a relação desejada. (c) Se X tiver uma distribuição gama, dada pela Eq. (9.16), teremos E(X) Demonstração: 9.9. =r/a, (9.18) Veja o Probl. 9.20. A Distribuição de Qui-Quadrado Um caso particular, muito importante, da distribuição gama Eq. (9 .16) será obtido, se fizermos a = 1/2 e r = n/2, onde n é um inteiro positivo. Obteremos uma família de distribmções. de um parâmetro, com fdp z >o. (9.19) Uma variável aleatória Z, que tenha fdp dada pela Eq. {9.19), terá uma distribuição de quz'-quadrado, com n graus de liberdade, (denotada por Xn 2). Na Fig. 9.7, a fdp está. apresentada; para n = 1, 2 e n > 2. ALGUMAS VARiÁVEIS ALIEATÓfUAS C.Oi\ITfNUAS HVii?ORTANTJES I 231 I múal e :e entre stribuis essenl).te um o gama t'núme- Uma conseqüência imediata da !Eq. (9.18) Eq. (9.19), teremos = n,l E(Z) n=2[I (a) z (9.20) J(z) i entoA mdo as m parâiurante r ocor- que se Z tiver a fdp da . V(Z) = 2n. I I J(z) f(z) ~ R>2 ~--~-(~~~~--~z .1 F1lg . 9.7 ram em (9 .16), (9.18) I A distribuição de qui-quadr~do possui numerosas aplicações imm portantes em inferência estatistica, algumas das quais mencionaremos mais tarde. Em Virtude jde sua importância, a distribuição de qui-quadrado está tabulada1 para diferentes valores do parâmetro n. (Veja o Apêndice.) j(z) .Deste modo, poderemos . aéhar na tábua, aquelevalor denotado por x-,.3 que sat~sfaça a P(Z $ ~ Xa 2) =a, O< a< 1 (Fig. 9.8). O Ex. 9.9 trata de um caso particular de uma , cara.cterização geral da distribuição de qui-quadrado, a qual estudaremos Fig. 9.8 em capitulo posterior. I gama é um .e um Exemplo 9.9. Suponha-se · due a velocidade V de um objeto tenha distribuição N(O, 1). Sej~ K = mP/2 a energia cinética do objeto. Para· encontrar-se a fdb de K, vamos inicialmente achar fdp . de S = V 2• Aplicando ditetámente o Teor. 5.2, teremos . . a (9.19) '), terá notada n > 2. • 1 1 g(s) I_r = .y-; [~{v 2 = s-'il _l_j· v'21r s) e-'-"12. - + (,0(-:- V s)] . .-M.'.l 232 I I?ROBABIUDADE Se compararmos esse resultado com a Eq. (9.19) e recordarmos que I'(l/2) = .y;;:, observaremos que S tem uma distribuição de X1 2 • Assim, encontramos que o quadrado de uma varidvel aleatória com distribuição N(O, 1) tem uma distribuição de )( 12• (É este resultado que generalizaremos mais tarde.) Agora, poderemos obter a fdp h da energia cinética K. J& que K é uma função monótona de P, cuja fdp é dada por g, acima, teremos diretamente 2 , .( -2 k ) . = 2 li. . ( -2 k )-11/2e-kfm h(k) = _ m"' m m V271" m ' k >o. Para calcularmos, por exemplo, P(K .::::; 5), não necessitaremos empregar a fdp de K, mas poderemos simplesmente utilizar a distribuição tabulada de qui--quadrado, da seguinte maneira: ' Esta última probabilidade poderá s~r diretamente obtida das tábuas da distribuição de qui-quadrado (se m for· conhecido), porque VZ apresenta uma distribuição de X1 2 • Já que E(V2) == 1 e ít variância (V 2 ) =-2 [veja a Eq. (9.20)], acharemos diretamente . E(K) = m/2 e V(K) = m 2/2. Comentário: A tabulação da distribuição de qui-quadrado, dada no Apêndice, somente apresenta aqueles valores para os quais n, o número de graus de liberdade, é menor ou igual a 45. A justificativa disso é que, se n for grande, poderemos aproximar a distribuição de qui-quadrado com a distribuição normal, como se indica pelo teorema seguinte. Teorema 9.2. Suponha-se que a variável aleatória Y tenha distribuição de x.. ~. Então, para suficientemente grande, a· variá- n vel aleatória V2Y tem aproximadamente a distribuição N( V2n-1, 1). (A demonstração não é dada aqui.) Este teorema pode ser· empregado da seguinte maneira. Suponha-se que desejamos P(Y .::::; t); onde Y tem distribuição de Xn 2, e n é tão_ grande que essa probabilidade não possa ser diretamente obtida da tábua da distribuição de qui-quadrado. Empregando o AII..GUIVlAS VAR8ÁV lEIS AILEATÕR !AS COI\!Tfi\!UAS !IVliPORTAN1l"ES I 233 Teor. 9.2, poderemos escrever 2 I. m lo P (Y :$ t) = P(v2Y :$ -v'2t) ..j2n=-i :$ = <P(v2t..,.. v2n - 1). = P(y2Y- v2t -V2n- 1) l r& a, O valor de <lP será obtido das tábuas da distribuição normal. 9.10. Comparações e111t 1re Diversas Distrib!Aições e~ LO Até agora, já apresentamos algumas importantes distribuições de probabilidades, discretas ou contínuas: a binomial, a de Pascal e a de Poisson, dentre as discretas; a exponencial, a geométrica e a gama, dentre l!S. contínuas. Nã9 vamos reafirmar as várias hipóteses que levaram a essas distribuições. Nosso principal propósito é destacar certas semelhanças (e diferenças) entre as variáveis aleatói:ias que possuem essas distribuições. ., 1. Admita-se que provas independentes de Bemouilli estejam sendo realizadas: lS T2 ta nje !e, a!, ta á~ ). D- e te o (a) variável aleatória: número de ocorrências do evento A em um número fixado de provas; distribuição: binomial; (b) variável aleatória: número de provas de Bemouilli necessárias para obter a primeira ocorrência de A; distribuição: geométrica; (c) variável aleatória: número de provas de Bemouilli necessárias para obter a r-ésima ocorrência de A; distribuição: Pascal. 2. Admita-se um Processo de Poisson (veja o Comentário (c) que · precede o Ex. 8.5): (d) variável aleatória: número de ocorrências do evento A, durante um intervalo de tempo fixado; distribuição: Poisson; (e) variável aleatória: tempo :p.ecessário até a primeira ocorrência de A; distribuição: exponencial; I (J) variável aleatória: tempo necessário at.é a r-ésima ocorrência ~A· ' distn"buição: gama. \ .;:.::.1 .. l 234 I I'ROBABBUDADE Comentário: Observe-se a similaridade entre (a) e (d), (b) e (e) e, finalmen· te, (c) e (f). 9.11. A Distribuição Normal ~Bidimen s ional Todas as variáveis aleatórias contínuas que temos estudado têm sido variáveis aleatórias unidimensionais. Como mencionamos no Cap. 6, variáveis aleatórias de maior número de dimensões desempenham importante papel ila descrição de resultados experimentais. Uma das mais importantes variáveis aleatórias contínuas bidimensionais, uma generalização direta da distribuição normal unidimensional, é definida da seguihte maneira: Definição. Seja (X, Y) uma variável aleatória contínua, bidimensional, tomando todos os valores no plano euclidiano. _Diremos que (X, Y) tem uma distribuição normal bidimensional se sua fdp conjunta for dada pela seguinte espressão f(x, y) 1 = 21T"O"x0"1/Vl - P2 X 2 1 X exp { - 2p (x - -- co 20 _ p 2) [( X :;- 1-L:r: ) ----;;- Jl~~- Jlv) + ( y ~YP.v YJ}, <x< c o , - ·co <y< co. (9.21) A fdp acima depende de 5 parâmetros. Para que j defina uma fdp legítima [isto é, j(x, y) :2: O, J _+,oo f_+,oo j(x, y)dx dy = I], deveremos impor as seguintes restrições aos parâmetros: - co < Jlx < co; - co < Jlv < co; O"x > O; O"y > O; -1 < p < 1. As seguintes propriedades da distribuição normal bidimensional podem ser facilmente verificadas. Teorema 9.3. Suponha-se que (X, Y) tenha fdp como a dada .pela Eq. (9.21). Então, nesse caso: (a) As distribuições marginais de X e de Y serão N(p,., u,,2) e N(Jlu, 0"1/), respectivamente. (b) O parâmetro p, que aparece acima, será o coeficiente de correlação entre X e Y. ,,,~,- ~i_:~ J i 1_·_· ·_-_,_· í __ I 4~ ii ~r; ]f~ I I ! 1 ALGUMAS VARiÃVE!S ALIEATóR !AS CONTfNUAS IMPORTANTES I 23.5 (c) As distribuições condicionadas de X (dado que Y = y) e de Y (dado que X = x) serão, respectivamente: I N [,Ux + P ;: (y N [J.Lv + p :: l J.Lv), (T,,Z (1 '- p 2 ) ] 11 ~- t ' (x J.Lz), O"v 2(1 ·- p2) ] I Demonstração: Veja o I Prob~. 9.21. ' É pos~ sível ter-se uma fdp . conjunta, que nã~ seja normal bidimensional, e no entanto, as fdp marginais de X e Y serem norm~is unidimensionais. . Cinnentários: (a) A recíproca de (a) do Teor. 9.3 não é verdadeira. '!J..i -~-_ ~,~_-; ~!m (b) Observamos da Eq. (9.21) quelse p = O, a fdp conjunta de (X, Y) poderá ser fatorada e, conseqüentemente, X e Y serão independentes. Assim, verificamos que no caso de uma distribuição n~rmal bidimensional, correlação zero e inde1 pendência sao equivalentes. (c) A proposição (c) do teorema ~cima mostra que ambas as funções de regressão da média são linearesJ Tamb ~m mostra que a variância da distribuição condicionada fica reduzida na mesma proporção que (1 - pz). Isto é, se p for próxim.o d~ zero, ~ .variância condicionada\ será ess_encialmente a mes~a ~ue a ~~­ ânCia nao-condrcwnada, enquanto se p -.for próXImo de ± 1, a vanânCill> condicionada será próxima de zero. _ \ . . p~opriedades A fdp normal bidimensional \apresenta algumas interessantes. Formularemos alguÍnas delas como teorema, deixando a demonstração para o leitor. ! Teorema 9.4. Considere-se ~ superfície z = f(x, y), onde f é a fdp normal bidimensional, dadalpela Eq. (9.3). . -:Í'~ ?._·.~-~ ·~ I "'m, l. (a) z = c (const.) corta a 1superficie em uma elipse. (Estas são, algumas vezes, denominadas\ contornos de· densidade de proba; bilidade constante.) ' (b) Se p = O e U::: - Cfv, essa elipse se transforma em uma circunferência. (Que acont~cerá à elipse .mencionada quandO' P --l> ± 1 ?) I I Demonstração: Veja o Probl. l9.22. I I Em virtude da importância da distribuição normal bidimensional, diferentes probabilid~;~des com )ela. associadas foram tabuladas.. (Veja D. B. Owen, Handbook oj .Statistical T,le3, Addison-Wesley Publishing Çomvany, Inc., Reading, Mass., 1962.) Comentário: iI· I 236 I PROBAB ! UDADE . 9.12; D istri bu ições Truncadas Exemplo 9.10. Suponha-se que um dado tipo de parafuso ~eja fabricado e seu comprimento Y seja uma variável aleatória com distribuição N(2,2, 0,01). De um grande lote desses parafusos, um X o . 2 novo lote é obtido pelo refugo de Fig. 9.9 todos aqueles parafusos para os quais Y > 2. Nesse caso, se X ·for a variável aleatória que representa o comprimento dos parafusos no novo lote, e se F for sua fd, teremos · ::s; x) ' = P(Y ::s; X I y ::s; 2) = = P(Y ::s; x)/P(Y ::s; 2) = F(x) = = O se Fi(x) x > 2, se x $ 2. 1 se Portanto j, a fdp de X será dada por (Veja a Fig. 9.9.) j(x) P(X x I 1 · v21r > 2, co, 1) 1[ exp\-2 X - 2,2 ] ~ 2 ) se .x <I>(- 2) ::s; 2. Em seguida, P(Y ::s; 2) = P ( y ~:,'2 ::s; 2 ~} 2 ) =<I> (-2) . -~ [<I>, como de costume; é .a fd da distribuição N(O, 1).] Esse é um exemplo de uma distribuição normal truncada (especificamente truncada à direita de X = 2). Este exemplo pode ser generalizado da maneira seguinte. Definição. Diremos que uma variável aleatória X tem uma distribuiÇão normal truncada à direita de X = r, se sua fdp for da .forma j(x) =O se .x = K _1 l > r, . v 27r(J' exp (_ ~ [X~ M ] ) se x Observamos que K é determinado pela condição . e, conseqüentemente, K = 1 <I> [(r - p.)/(J'] P(Z ::s; r) ::s; r. (9.22) f_-:, ~ .J(x) dx ,:, 1 ALGUMAS VARiÁVEiS AlEATÓI'IHAS CONTfNUAS iMPORTANTES I 237 onde Z tem distribuição N(p, a2 ). Analogamente à defmição anterior, teremos a seguinte: Dejiniçãc.. Diremos que a variável aleatória X tem uma distribuição normal truncmoo à esquerda de X = "f, se sua fdp j for da forma j(x) =O =· se x < "f, .!.[ K exp. ("\1211"0' 2 2 x - JL ] ) se z ;;::: 'Y· (9.23) (7 Também K é determinado pela condiçãof-"!:"' j(x)dx portanto, = 1 e1 Os conceitós acima, introduzidos para a distribuição normal, podem ser estendidos de uma forma 'óbvia para outras distribuições. Por exemplo, uma variável aleatória X distribuída exponencialmente, truncada à esquerda de X = -y, teria a seguinte fdp: j(x) = O ·:se x < -y, = Ca.e-·<>"' se x ;:::· 'Y. (9.24) N OVaD1ente, C é determinado pela condição f_~"' j(x) dx isso =1 e poX' C = e" 7 • Podemos também considerar uma variável aleatória truncada no caso discreto. Por exemplo, se uma variável aleatória com distribuição de Poisson X (com ·parâmetro R) for truncada à direita de X = k 1, isso significh que X tem a seguinte distribuição: + P(X = i) = O se -- c . i ;::: k À' • t.1 + 1, e-À se t• -- Determinamos C pela condição L;"'~ o P(X c= .k 1. · Lj =O (À'/ j!)e-A o,. 1, ..• , k . = t) = (9.25) 1 e achamos • Assim, À' P(X = t) = 1 t. valores. 1 I:J=o(À''/j!) ' i= O, 1, ... , k e zero para outro:> ' ·· · 238 I PROBABILIDADE Distribuições truncadas podem surgir em muitas aplicações importantes. Abaixo, apresentaremos .alguns exemplos. Exemplo 9.11. Suponha-se que X represente a duração da vida de wn componente. Se · X for distribuída normalmente, com E(X) 7' 4 e V(X) = 4, encontraremos que P(X < O) = (Jl(- 2) = 0,023 . . ) Por conseguinte, este modelo não é muito significativo, porque ele ~tribui probabilidade 0,023 a wn evento que sabemos não pode ocorrer. P'oderlamos, em seu lugar, considerar .a variável aleatória X truncada à esquerda de X = O. Daí, admitiremos qtie a fdp da variável aleatória X será dada por f(x) = O se x :::;; O, = V(2~) (2) exp [- !( x ~ 4 YJ <1)~2) . se x >O. Ccnnentário: Já mencionamos que, freqüentemente, empregamos a distri· buição normal para representar uma variável aleatória X, a respeito da qual sabemos que ela não pode tomar valores negativos. (Por exemplo, tempo até falhar, comprimento de uma barra etc.) Para detenninados valores dos ' parâmetros p. = E(X)· e a 2 = V(X), o valor de P(X < O) será desprezível. Contudo, se não for este o caso (como no Ex. 9.11), deveremos empregar a distribuição nomial truncada a esquerda de X = O. Exemplo 9.12. Suponha-se que um sistema seja constituído por n com.ponentes, que funcionem independentemente, cada um deles tendo a mesma probabilidade p de funcionar adequadàm:ente. Sempre que o sistema funcione mal, ele é inspecionado para descobrir quais e quantos componentes estão defeitl10sos. Seja a variável aleatória X definida como o número dos componentes que sejam verificados defeituosos nwn sistema que tenha falhado. Se admitirmos que o sistema falhe se, e somente se, ao menos um componente falhar, então X terá U.ma distribuição b~rwmial truncada à esquerda de X = O; porque o simples fato de que o sistema tenha fal]lado, elimina a possibilidade de que X= O. Nesse caso, teremos . (k)(l - p )kpn--k . " P(X = k) . = P(si:s:emaae .t f lh ) , k .= 1, 2, ... , n .. Já que P(sistema falhe) = 1- p", podemos escrever P(X = k) = (~)(1 - p )k_pn--k 1- p" .k = 1,2, ... ,n. A L GUMAS VARBÃVEDS ALEATÓRiAS CONTfNUAS IMPORTANTES I 239 . I Suponha-se que partículas sej'am emitidas por · uma fonte radioativa, de acordo com a distribuição de Poisson, com parâmetro À. Um dispositivo co~tador registra e~as emissões somente quando menos de três paft;iculas .chegam. (Isto é, se três ou mais partículas chegarem durante um período de tempo especificado, o dispositivo cessa de funcibnar em virtude de algum "trava' . . mento" que ocorre.) Portanto, fie Y for o 'número de partículas registradas durante o intervalo de Itempo especlficado, Y tem os valores .possíveis O, 1 e 2. Conseqüentemente, Exemplo 9.13. ~- I .. P(Y = k) . e-x k! . )>.k e-~[1 + lf- + (À2f2)] ' . I k =O, 1, 2, = O, para quaisquer outros valores. ! Visto que a distribuição nokal truticada é particularmente importante, vamos considerar o sekumte problema, associado a essa distribuição. Suponha-se que X seja uma variável aleatória normalmente distribuida, truncada à direita de X Por isso, sua fdp é da forma =\r. f(x) ' = O se x ~ r, ·= 1 ---= v'2mr [- ; (" ~ ~ )'] exp 1 se x ~r. I Logo, teremos E(X) = J:"' .x .j(x)dx 1 <i»[(r- J.L)/CF] 1 = J.1. + ' f(T-p.)/u i -., -= V27r (sq )2] dx 2 ds + p.)e-ll'/ · . ~ J.L)fq] [J.L<i»( r~ p.\) + q V~7r J~-p.)fcr se-ll'/2 ds] I 1 q <l>[(r - J.L)/CF] . = J.1. - i I x exp [ - _!_ (· ~ V27rCF 2 CF I 1 <i»[(r -:- iJ.)/CF] <i»[(r , f_T., q <P[(r- J.L)fq] V27r , ' e--''/2 (-1) J '!.:p.)/u 1 1 \ V27r! exp · [ - 1 2 (r - )2] . J.1. ~ Observe-se que a expressão obtida .bara E(X) está expressa ein t~r­ mos de funções tabuladas. A função <I> é, naturalmente, a conhecida I ·'' · 240 I PROBABILIDADE fd da distribuição N(O, 1), enquanto (1/V27r) e-x'fZ é a ordenada da fdp da distribuição N(O, 1) e está, também, tabulada. De fato, o quociente (1jy'2;;)e-z'f2 <l>(x) está tabulado. (Veja D. B. Owen, Handbook oj Statistical Tables, Addison-Wesley Publishing Company, Inc~, Reading, Mass., 1962:) . Empregando o resultado acima, poderemos agorà fazer a seguinte pergunta: Para p, e u dados, onde ocorrerá q truncamento (isto é, qual será o valor de r) de m.odo que o valor esperado depois do trun.,. caniento tenha algum valor A preestabelecido ? Poderemos responder a essa pergunta com o auxilio da distribuição normal tabulada. Suponha-se que p, = 10, u = 1, e que imponhamos A = 9,5. Conseqüentemente, deveremos resolver 9,5 = 10- 1 1 - - - e-Cr-l0)'/2. <il(r - 10) V27r · Isto se toma 1 2 T --, (1/y'2;)e-(r-10!'/2 <I>(r - 10) Empregando as tábuas mencionadas acima, encontraremos que 10 .~ 0,52 e, portanto, r = 10,52. Comentário: O problema surgido acima somente pode ser resolvido para determinados valores de ].l, rr e A. Isto é, para J.l e a: dados, poderá não ser possível obter uril valor de A especificado. Consid~re-se a equação que deve ser resolvida: (!' J.l -A = <I>[(r - J.l)fa:] . [ 2( 1 V27r exp. 1 - T- J.l -u- )2] . O segundo membro desta equação é, evidentemente, positivo. Logo, dev~remos ter (p.- A)> O a fim de que o problema acima tenha uma solução. Esta·condição não é muito surpreendente, porque ela apenas diz que o valor esperado (depois do truncamento à direita) deve ser menor do que o valor esperado original. Problemas /':""'--..,_ \_9.j). Suponha que X tenha a distribuição N(2, O 16). Empregando a tábu& da dGtribuição normal, calcule as seguintes probabilidades: . (a) P(X "?. 2,3). (b) P(1,8~ X S2,1). 9.2. O diâmetro .de um cabo elétrico é normalmente distribuído com média 0,8 e variância 0,000 4.,. Qual é a probabilidade de que o diâmetro ultrapasse 0,81 T ALGUMAS VARiÁVE iS ALIEAlrÓROAS COi\!Ti"NUAS 6MPORTAi\!TES I 241 9.3. Suponha que o cabo, _no P robl. _9.2, seje, considerad_o defeituoso se o diâmetro diferir de s)la. m&Ha e"in;'naiS de .o,õis. ·. Q"ual . é a probabilidade de se encontrar um cabo defeituoso? 't · · · - > ·. ·-·. 9.4. Sabe-se que os erros, em certo dispositivo pare. medir comprimentos, são normal';nente ' distriouídos CQ!_ll.-valor esperado zero e desvio-padrão 1 unidad~. Qua"l é a probabilidade de que Q erro na .111edidá. sej!!-')naior: do que 1 ~rtidJrcie? 2 ur]!,cJ~des? 3 unidadei? · ,_,,-!,· ;.,_ E (X ) ·-::- 16 2t'- '-: . ·4;,) { 9.$'. Suponha-se que a duração da vida de dois dispositivos eletrÔnicos, D 1'•e'Í>z, tenham distribuições N(40, 36) e N(4.i, 9), respectivamente. Se o dispositivo eletrônico tiver de ser usado por nm período de 4.'í horas, qual dos dispositivos deve ser preferido? Se tiver de ser usado por um período de 48 boras, qual deles deve ser preferido? 9.6. Podemos estar interessados apenas na magnitude de X , digamos . Y,;, lXI . Se X tiver distribuição N(O, 1), determine a fdp de Y, e calculeE(Y) e V(Y). g·,7. Suponha que estejamos medindo a posição de um objeto no plano. Sejam X e Y os err.os de mensuração das coordenadas x e y, respectivamente. Suponha que X e Y sejam independentes e identicamente distribuídos, cada um + deles com a distribuição N(O, u 2). Estabeleça a fdp de R = v'X2 yz_ (A distribuição de R é conhecida. como distribuiçllo de Rayleigh.) [Sugestllo: Faça · X = R cos 1/,- e Y = R sen v,; Obtenha a fdp conjunta de (R, t/1) e, depois, obtenha. a fdp m'arginal de R.] ' 9.8. Estabeleça a fdp da variável aleatória Q = X/Y, onde X e Y são distribufdos tal como no Probl. 9.7. (A distribuição de Q é conhecida como .distribuiçao de Cauchy.) Você pode c.alcular E(Q)? 9.9. Uma distribuiçãb, estreitamente relacionada com a distribuição normal, é a d·istribU1{llo wgnormal. Suponha que X seja normalmente distribuído, com média J.L e variância u 2 • Faça-se Y = eX. Então, Y possui a distribuição lognorma.l. (Isto é, Y será lognormal se, e somente se, ln Y for normal.) Estabeleça a fdp de Y. Comentário:. As seguintes variávei~ aleatórias -podem ser representadas pela distribuiçãq_acima: o diâmetro de· pequenas partículas após um processo de trituraÇão, o tamir.ho de um organismo sujeito a alguns pequenos impulsos, a duração da vida de determinadas peças. 9.10. Suponha. que X tenha distribuição N(J.L, u 2). uma função de p. e u), tal que P(X ~c) = 2P(X > c). fííG)l, Determine c (como . Suponha que a temperatura (medida em graus centígrados) seja nor- m~te distribuída,' c.om expectância 5 Oq, -~ , variância 4. Qual é a probabilidade de que a temperatura T esteja entre"48o e 53° centígrados? /~ . @1..1.~ O diâmetro exterior de um eixo, D, é especificado igual a 4 polegadas.Conãtaere D como .uma ·variável aleatória rrormalmlmte distribuída com médía 4 polegadas e fa.r~nc.:ia 0,01 (Qoleg~d~) 2 • Se. diâmetro reaf difern do yalor especificado pot:, m:;;is de .(l,0-1~ pÕJ.'i~dll..'! e_menos de_0108-polegada5, o preju!zo do fabricante sera~· US$ ... o 'd iâtiie't;o ~o d(âmeU:ii' espécificado por . . reàfdiférir . •' .. . maia' de 0,08poJegadas, fprejlifzo será dé''US$1,p0. O prejúíZo L pode ser:'coU: sid(lrado ~ ,}.ri~~l · ~eatóô~. " Estaoeleçà ~a distribuição de probabilidade de L e calcule ·:E(L ).. .t' o ~ o;E0:2:Se --~_...,.... ~~ ~....... ~ 242 I PROBABILIDADE 9.13. Compare o limite superiar da prob~bilidade P[ IX- E(X)I~2VV(X)], obtido pela desigualdade ·de Tchebycheff, col:n a probabilidade ._exata, em cada. um dos casos se~uintes: \ . \ (a) X tem d~tr~bu~ção N(p., u~). (b) X tem distnbmção de. Pmsson, com parâmetro À. (c) X tem distribuição exponencial, com parâlnetro a. · ~--\ r. ~ SÍiiJonha que X seja uma variável aleatória para a qual E(X)-== 11-1. e V(X) = u2. ·"S'uponha.--·que Y seja unifo.rmemente diktribuída sobré o intei:Yalo .•. I . -'(a; b) . ...Détermine a e b de modo que E(X) = ~{Y) e V.(X) =. V(Y)I ~ . . . ... ..r / . '· I L .... \ ... • 9.15 • . Suponha que X, a carga de ruptura de um Ct!-bo (em kg), tenha distri· buição N(100, 16). Cada rolo de 100 metros de cabo 'd á um lucro de US$ 25, desde que X > 95. Se X .:S. 95, o cabo poderá ser utilizado para uma finalidade dife~ente e um lucro de US$ 10 por rolo será obtido. Determinar o lucro espe· rado por rolo. 9.16. Sejam X 1 e X 2 variáveis aleatórias independentes, cada nma com distribuição N(Jl, u 2 ). Faça-se Z(t) = X 1 cos wt · X2 sen wt. Esta variável interessa ao estudo de sinais aleatórios. Seja V(t) ;;. l dZ(t)fdt. (Supõe-se que ·w seja constante;} .. + (a) Qual é fixado ? ~:.llistribuição de probabilidade de Z(t) e V(t), para qualquer t ·,\..'-'-..._ j _;__ .•, , - Mostre que Z(t) e'-V(tt:Jão nãO-correlacionadas. [Comentário: Poderse-á. também mostrar que Z(t) e V(t) são independentes, mas isto é um tanto mais difícil de fazer-se.] (b) 9.17. Um combustível para foguetes deve conter uma certa perce~ttagem X de um componente especial. As CRpecificações exigem que X esteja entre 30 e 35 por cento. O fabricante obterá um lucro líquido T sobre o combustível (por ga· lão ), que é dado pela seguinte função de X: T(X) = = (a) U$.$ 0,10 por galão se 30 < X < 35, US$ 0,05 por galão se 35 ~X < 40· ou 25 <X~ 30, US$ 0,10 por galão, para outros ·quaisquer valores. Calcular E(T), quando X tiver a distribuição N(33,.9). (b) Suponha que o fabricante deseje aumentar seu iucro esperado E(T), em 50 por cento. Ele pretende fazê-lo pelo aumento de seu lucro (por galão), naquelas remessas de combustível que átendam às especificações, 30 < X < 35. Qual deverá ser seu novo lucro líquido? 9.18. Reconsidere o Ex. 9.8. Suponha que se pague ao operador C3 dólares/hora, enquanto a máquina estiver operando e C4 dólares/hora (C4 < C3) para o tempo restante em que tenha sido contratado, depois que a máquina tiver parado. Determine novamente para que valor de H (o"'número de horas para as quais o operador é contratado), deve o Incro esperado ser máximo. 9.19. Mostre que dança de variável X r = u2j2 (1/2) = y';. (Veja 9.15.) [Sugestao: Faça uma mu- na i integral r (1/2) = fo"' x-If2e-Z dx.] 9.20. Verifique as expressões de E(X) e V(X), onde X tem a distribuição gama [veja a Eq. (9.18)1. I :~~ I :~ ,l·;;~ I 243 ! Jt~ ·!;~~ !ll.211. ~~ !1.22. Demoi!Stre o Teor. 9.4. ,;~. ·~~ I ·~.·~ ·~~ . ~ I ']I j~ :·.;' ~' ·.t :. ;~'~t . ~i~ I ··~.~ ·~~.: i ~~li' . I• I . ALGUMAS VARIÁVEIS ALEATÓRIA~CONTfi\!UAS IMPORTANTES ~F ~~~ ··;f~ti ·i·.·. tf Demolllltre o Teo~. 9.3. i I i . 9.23. Suponh11. que a variável mlea~ória X tem uina distribuiçi!.o de qui~ . -quadrado, com 10 gre.us de liberde.de. Sa pedirmos p&ra determin&r .dois mimeros a e b, tais que P(a < :z: < b) = 0,85, por exemplo, deveremós compreende!" que existem muitos pares dessa espécie. ·· · . I 1 (a) Determine dois diferentes conjuntos de valores · (a, b) que satisf~Ljiam à 1 condiç~ acimm. · (b) Suponhm que, em aditamento ao !"cima, se exije. que · . P(X < a) = P(X > b). Quantos pares de ve.lores haverá agora 1 I I 9.24. Suj:lOnh~ que V, a velocidade (cm/seg) de um objeto que tenha mli.ss11. de 1 kg, seja ume. variável alee.tória co~ distribuição N(O, 25). Admita-se .que K = 1.000 Vlf2 = 500 V2 represente a energia cinética (EC) do objeto. Calculár P(K < 200), · P(K > 800). . i 9;25. Suponha que X tenha distribui~ão N(!L, u2 ). Empregando o Teor. 7.7, obtenha uma. expressão aproximada para E (Y) e V(Y), quando .Y = ln X. 1 9.26. Suponha que X tenha uma distribuição normal truncada à. direite., tal como é dada pela Eq. (9.22). Estabeleç~ ~ma expressão para E(X), em 'termos 1 de funções tabuladas. -. i 9.27. Suporiha que X tenha uma d~tribuição exponenciru ··truncada à esquerda, como está dada pela Eq. (9.24). Obtenha.E(X). 9.28. {a) Estabeleça a distribuiçã~ dk probabilidade de uma variável e.leatória binomialmente· distribuída (baseada !em n repetições de um ·experimento) .truncada à direita de X = ·n; isto .é, X =: n não poderá ser observado. (b) Determine o valor · e~;~;~do e a J.ariância da variável aleàtória descrita. em (a) . . I ' I 9.29. Suponha que uma variável aleatória normalmente distribuída, com valor esperado !L e variância u2, seja truncafia à esquerda· de X ,;, T e à direita de X= 'Y· .Estabeleça a fdp desta variável : aleatória "duplamente truncada". Suponha que X, o comprimento de uma barra, tenha distribuição Em VflZ de se . medir o valor d~ X, somente são especificadas certas exigências que devem ser atendidas. Espepificame~te, cada barra fabricada será classificada como segue: X < 8, 8 :':X < i1.2, e X 2:: 12. Se 15 dessas barras forem fabricadas, qual é a probabilidade d~I que um igual número de barras . caia . em cada uma das categorias acima? 9.30. N(lO, 2). 9.31. Sabe-se· que a precipitação anqal de chuva, · em certa · localidade, · é uma variável normalmente com . aleatória . . . distribuída, I . média igual a 29,5 cm e desvio-padrão 2,5 cm. Quantos centímetr9s de chuva (anualmente) são ultrapassados em cerca de 5 por cento do tempo? 9.32. ·~ t Suponha que X tenha distribuição N(O, 25). · Calcule P(l I < X2 < 4). 9.33. Seja Xt o número de partículaá emitidas em t horas por uma fon~e radioativa e suponha-se que Xt tenha uma! distribuição de Poisson, com pe.r~-. metro {Jt. Faç~~rSe igual a T o número de hôras entre emissõcil sucessivas. Mostre /. ; i 244 I IJ>ROBABHUDADIE 41!1W 7' tzm uma distribuiçil.o <elrpOnencil!.l com pmrimel.ro {J. [Sugestao: Ache o 01rento equivalente ·(em tennoo de Xt} ao evento 7' > t.) ~.34. Suponha que Xt seja, definido te,l como no Probl. 9.33 1 com fJ = 30. !Qual é e, probabilide,de de que o tempo entre duas emissões sucessivas seja maior do que 5 minutos? Maior do que 10 minutos? Menor do que 30 segundos? !li.SS. Em algumas tábuas di! distribuição normal, H(x) == (1/V27r) fo"ct'P. dt i:lpresentBrse tabulada para valores positivos de x (em vez de cl[>(x), como é dada, no Apêndice]. Se & variável aleatória X . tiver distribuição N(l, 4), exprimir cad& uma das seguintes probabilidades em termos dos valores tabulados da função H: (a) P[IXI> 2]. (b) P[X <O]. !ll.36. Suponha que um dispositivo te!emedidor de um satélite receba duas espécies de sinais, os quais podel!l ser registrados como números reais, X e Y. Suponha que X e Y sejam variáveis aleatórias continuas indepandentes, com fdp, respectivamente, J e g. Suponha que, durante qualquer período ·de tempo especificado, somente um desses sinais possa ser recebido e, em conseqüência, transmitido de volt& à Terra, e, saber a,quele sinal que cheg41' primeiro. Admita, além · c:lissq, que o sinal que dá origem ao. valor de X chegue primeiro, probabilidade p, e, por isso, o sinal que dá origem a Y chegue primeiro com probabilidade 1- p. Faça Z denotar a variável aleatória, cujo valor seja realmente recebido e transmitido. (a) Exprimir a fdp de Z, em termos de j e g. (b) Exprimir E(Z) em termos de E(X) e E(Y). com (c) Exprimir V(Z) em termos de V(X) e V(Y). (d) Admita-se que X tenha distribuição N(2, 4) e que Y tenha distribuição N (3, 3). Calcular P(Z > 2), sê p = 2/3. (e) Admita-se que X e Y tenham distribuições, respectivamente, N(p1, Ut2) e N<P-1., u22 ). Mostre que f!e !li = J.t 2 , a distribuição de Z será "unimodal", isto é, a fdp de Z terá um único máximo relativo. 9.37. Suponha que· o mímero de acidentes em uma fábrica possa ser representado por um Processo de Poisson, com uma média de 2 acidentes por semana. Qual é a probabilidade de que: (a) o tempo decorrido de um acidente até o próximo seja maior do que três dias? ( b) o tempo decorrido desde um acidente até o terceiro acidente seja maior do que uma semana? [Sugestão: Em (a), faça T=tempo (emdias)ecalculeP(T> 3).] 9.38. Em média, um processo de produção cria uma peça defeituosa entre cada 300 fabricadas. Qual é a probabilidade de que a terceira peça defeituosa apareça: (a) antes de 1.000 peças terem sido fabricadas? (b) quando a 1.000~ (milésima) peça for fabricada? (c) depois que a milésima peça for fabricada? [Sugestão: Suponha um Processo de Poisson.] A Função Geratriz de M omentos Capítulo 10 Neste capítulo introduziremos um importante conceito matemático que possui mUitas aplicações aos modelos probàbilisticos que estamos estudando. A fim de apresentar um desenvolvimento rigoroso deste assunto, seria necessário um conhecimento matemático de nfvel bem mais elevado do que aquele que aqui temos empregado--. No entanto, se es.tivermos dispostos a evitar certas dificuldades matemáticas que surgem e a aceitar que determinadas operações sejam V.álidas, nesse caso poderemos alcançar uma compreensão suficiente das · principaiS idéias abrangidas a fim de empregá-las inteli. gentemente. · Para motivarmos o que se segue, vamos recordar .nosso mais antigo encontro com o logaritmo. Ele nos foi apresentado simplesmente como um recurso de cálculo. A cada número real positivo x, associamos outro número, denotado por log x. (O valor deste número pode-se obter de tábuas adequadas.) .. Com o objetivo de calcularmos xy, por exemplo,. obtínhamos os valores de log x e de làg y e, a seguir, calculávamos log :ç log y; o que representa log xy. Do conhecimento de log xy, éramos, então, capazes de obter o valor de xy (novamente com o auxílio de tábuas). De maneira semelhante; poderemos simplificar o cálculo de outras .operações aritméticas, com o auxílio do logaritmo. O tratamento acima é útil, pelas seguintes . razões: + (a) A cada número positivo X corresponde exatamente .um número, log x, e este número é faÓilmente obtido nas tábuas. (b) A cada valor de log :{corresponde exatamente um valor de x, · e este valor é também encontrado nas tábuas. (Ísto é, a relação entre x e log x . é biunívoca.) li: 246 I PROBABiliDADE. (c) Detexminàdas opem~s aritméticas abmn.gendo o_s números :z e y, tl!.is como multiplicação e diviSão, podem ser substituídas pm operações mais simples, tais como adição e subtraçã.o, por intermédio dos números Fig. lO.ll.). 11 tmnsfolrn!UM:los" log :r; e log y (veja o ~quem& na, -~Jogx, L~~ ~~~~~ ~~------ »a --- x+looY Jog _v Em lugar de executar as contas diretamente com os números x e y, primeiramente obtemos os números log x e log y, fazemos noosas contas com esses números e, em seguida, os transformamos de novo. 10.2. A. Função Geratriz de Momeritol!ll Vamos agora considerar uma situação mais complicada. . Suponhamos que X seja uma variável aleatória, ist<:JA X é uma furlção do espaço amostral para os números reais. Ao calcularmos várias carac~ terlstica.s da. variável aleatória X, tais como E(X) ou · V(X); trabalhamos diretamente com a distribuição de probabilidade de X, {A distribuição de probabilidade é . dada por uma junção: quer a fdp no caso contínuo, quer as probabilidades punctuais p(Xi) = = P(X = Xi) no caso discreto. A última pode também ser consi.:. dera.da uma função que tOma valores não-nulos somente se X = x., i = L, 2, ... ] Possivelmente, poderemos introduzir alguma outra junção e fazer os cálculos necessários em termos desta nova função (exatamente como acima associamos a cada número, algum novo número). Isto é, na verdade, precisamente aquilo que faremos. Vamos, inicialmente, estabelecer uma definição formal. " discreta, com di&Definição. Seja X, uma variável aleatória tribuição de probabilidade p(Xi) = P(X = Xi), i = 1, 2, . . . A função Mx, denominada junção geratriz de momentos de X, é definida por (!0.1) A FUNçp;o GERATRIZ DE MOMENTOS I 247 I Se X for uma variável aleatóri~ contínua com fdp J, definiremos a função geratriz de momentos por l Mx(t) = J_+i.. . .. ~ J(x) dz. (10.2) 1 Comentários: (a) Em qualquer dos lasos, o discreto ou o contínuo, Mx(t) é apenas o valor esperado de etX_ Por i~so, poderemos combinar as expressões I acima e escrever I Mx(t) =E(etX). (1 0.3) I (b) Mx(t) é o valor que a função M X torna para a variável (real) t. A notação, que indica a dependência de X, é eqpregada porque nós poderemos desejar considerar duas variáveis aleatórias, X e ~· e depois investigarmos a função gera. triz de · rnorn~.ntQs de cada urna delas, a sabfr M X eMy. . (c) Empregaremos a abreviatura fglp para a funç~o geratriz de .momentos. (d) A fgrn, tal corno definida antefiorrnente, é escrita como urna série infinita ou integral (imprópria), conforme a: variável aleatória seja discreta ou contínua. Essa série (ou integral) poderá nem ~ernpre existir (isto é, convergir para um valor finito) para todos os valores de t. c6nseqüenternente, poderá aconte·cer que a fgrn não seja definida para todos os valdres de t. No entanto, não nos preocuparemos com esta dificuldade potenciaL Qu~ndo ernpreganrios a fgrn, admitiremos que ela sempre exista. (Observe-se que aJfgm existe sempre para o valor t = O, e é igual a 1.) i (e) Existe urna outra função, estreitamente relacionada com a fgrn, a qual é freqüenternente empregada em seu lug~r. Ela é. denominada função caracter(s. tica, denotada por Cx e definida por Cx<tj) =E(e 1tX ), ondd = ,;-:::1, a unidade irnagináriá: Por motivos teóricos; existe enorme vantagem, em empregar-se Cx(t) em vez de M x(t). [Por esta razão: Cx<tJ) sempre existe, para todos os valores de t.] Contudo, a fim de evitarmos cálcul?s com números complexos, restringiremos nossa exposição à função geratriz de D?ornentos. (f} Adiaremos até a Seç. 10 .4 a explicação da justificativa de chamar-seMX de função geratriz de momentos. j 10.3. Exemplos de Funçõe~ Geratrizes de Momentos . Antes de estudarmos algumas ~importantes aplicações da fgm à teoria da probabilidade, vamos calcular algumas dessas funções. I .• Exemplo 10.1. Suponha-se que X seja uniformemente distribuúla sobre o intervalo [a, bl. Logo, a fgm será dada por · i' Mx(t)= · .. = (b I b let:z: --dx b a 1 - ~- a)t [é' - eot], g ~ O. (lo.4) 248 I PROBABILIDADE Exemplo 10.2. Suponha-se que X ·seja binomialmente dislri"buída, com parâmetros n e p. Nesse caso, (10.5) (A última igualdade decorre de uma aplicação direta do teorema binomial.) , ·I I ,!:; ,: ,·'1, .fl· Exemplo 10.3. Suponha-se que X tenha uma distribuição de Poisson com parâmetro X. Por conseguinte, ~ Mx(t) ' '"~~ =i ~·etk e-Àr = e-~1 i (~~~;, · ,k. ' \~~ /p. ,' \. , • k = =e-~ ~ i 'I', (10.6) [A .terceira igualdade decorre do desenvolvimento de ev em '2;=~ (Ú"/h!). 5 Esta foi empregada com y Xe1.] ' • · ·· = Exemplo 10.4. Suponha-se que X tenha uma distribuição e;ponencial, com p~râmetro a. Logo, Mx(t) = 1"' e1"' ae-a" dx =a o 1"' o e"<t-a) dx. 1 (Essa integral converge somente se t < a. Por isso, a:, fgm existe l somente para aqueles valores de t. Admitindo que essa condição seja satisfeita, podemos prosseguir.) Daí, ) Mx(t) = _a_ ez(t-a) t"-a. 01. Ol- t ' I"' .· o t < Ol. (10.7) Co-mentáric>: Visto: que a fgm é apena.s um valor esperado dé X, poderemos obter a fgm de uma função de uma variável aleatória sem primeiramente obtermos sua distribuição de probabilidade (veja o Teor .. 7.3). Por exemplo, se X tiver A FUNÇÃO GERATRIZ DE MOMENTOS I 249 . distribuição N(O, 1) e desejarmos achar a fgm de Y =X'-, poderemos prosseguir sem obterm.os a fgm d~ Y. Bastará simplesmente escrever My(t) depois de = E(e 1Y) = = E(e 1X') = --= 1 v2?l' !+"' exp (b;2- x2-f2) dx _., · = (1- 2t)- 112 integração imediata. Exemplo 10.5. Suponha-se que X tenha distribuição N(p,, u 2). Por isso, Mx(t) = J· 1 V27ru 2 +"' é" exp {- _!__ [ x - 11' ]. ) dx. _., \ 2 u Façamos (x - p,)fu = s; portanto, x = us conseguinte, Mx(t) = ·1 f '\121!' +"' _., . exp _[t(us j j.+"'e~ . + p,)]e-•'1 +"' ( _"' exp - = etP> _ } -v 21!' _., V~'ll' = e1JA + cr't'/2 + JL 1 {- J:., . [s 2 2 2 e dx = u ds. ds ) 2ut8] ds - _!_ [(s2 exp ( - Por ut) 2 ~ - u2t2]} ds [s - ut] 2) ds. Façamos s - ut = v; então, ds = dv, e obteremos Mx(t) . = e~JA+ <i't'/2 1 --= v21l' = e(tJA+ O''t'/2l, ! +"' _., e-v'/2 dv (10.8) ( ' Exemplo 10.6. Admita-se que X tenha uma distribuição gama com parâmetros 01. e r (veja a Eq: 9.16). Nesse caso, Mx(t) = _!!:__ 1· r (r) o ~e 1 :;; (ax)'- 1 e-a= dx · 250 I PROIBABIUDADE (Esta integral converge desde que a > t.) por isso dx = (du)/(a - t), e obteremos Façamos x(a - t) = u; 1"' (·~ )r- 1 Mx(t) = = a' (a - t) r(r) a - o t e-"' du (-a_ ' )'_Jl_i= u•-1 e-" du. a- t r(r) o . Já que a integral é igual a r(r), teremos Mx(t) = · (-a-)r. a- (10.9) t ~ Comentários: (a) Se r = 1, a· função gama se transforma na distribuição ·expünencial. Concluímos que se r = 1, as Eqs. (10.7) e (10.9) são iguais. (b) ViSto que a distnõuiçf!.o de qui-quadrado é obtida como um caso particular .da. distribuição gama, fazençlo-se a = 1/2 e r = n/2 (n um inteiro positivo), então . concluímos que se Z tiver distribuição x! , M 10.4. z (t) = (1 - 2t)-nf2 • (10.10) ·'. Propriedades da Função Geratriz de Momentos Apresentaremos, agora, i a justificativa de se denominar Mx função geratriz de momentos. Recordemos o desenvolvimento da função iT em s~rie de Macla:urin: e" = 1 + x x2 xa x."J + -21. + -3,. + ... + -, n. + .... (Sabe-se que esta série converge para todos os valores de x.) Por isso, (tx)2 etz = 1 + tx + -21 . (tx)n + ... + -,+ ... n. ~ Em seguida, MxW = . IX ( E(e) =·E 1 +tX+ 2 (tX) (tX)" ) 2! + ... + ~+··· Mostramos que para uma soma finita, o valor esperado da soma é igual à soma dos vaio:res esperados. No entanto, eEJtamos tratando - i· A FUNÇAO[GERAl:RIZ DE MOMENTOS I 251 I acima com uma sene infinita e por ~sso não poderemos, de ifnediato, aplicar tal resultado. Verifica-se, cpntudo, que sob condições bastante gerais, esta operação ainda é. válida. Nós admitiremos que as condições exigidas sejam satisfei~as e prosseguiremos d~ acordo com elas. I Lembremo-nos de que t é uma cbnstante, de modo que tomando . I os valores esperados, poderemos ·escrever . I Mx(t) t~E(X 2 ) = 1 + tE(X) +- · + ... + 2-1-~ tnE(Xn) n! + ... l Já que Mx é uma função de variável real t, poderemos tomar a derivada de Mx(t) em relação a t, isto \é, [d/(dt)] Mx(t), ou por simplicidade M'(Ó. Novamente estamos diante de u~a dificuÚiade mate. I. mática. A derivada de uma soma finita é sempre igual à soma das derivadas (admitindo-se, naturalmente, que todas as derivadas em questão existam). Contudo, para u~a soma infinita, isto não. será sempre assim. Determinada11.·condiÇões devem ser satisfeitas para que esta operação seja justificável; \simplesmente admitiremos que essas condições sejam atendidas e j prosseguiremos. (Na maioria dos problemas que encontrarmos, tal liipótese se justifica.) Portanto, II t E(X 2 M'(t) = E(X) 3) \ + tE(X + ~I + ... + 2 ) tn- 1 E(Xn)i (n _ )! , + ... 1 Fazendo-se t = O, verifica-se que somente o primeiro termo subsiste, e teremos · ! ' . I M'(O) = EI( X). I Portanto, a derivada primeira da fgm,! calculada para t = IO, fornece . . o valor esperado da variável aleatória. · Se .:alcularmos a derivada segunda de Mx(t), procedendo novaméi).te tal como acima, obteremos M"(t) e fazendo t = E(X 2) = O, i + tE(X + ... + 3 ) 1 1 teremos tn-2E(Xn.)· (n- 2)! + ... , I i M"(O) = .I E(X~). i . Continuando dessa maneira, obteremo:;; [admitindo que M<n>(Q) exista] I o seguinte teorema: 252 I PROBABIIliDADE Teorema :l.IG.ll.. (lO. H) Xsto é, a derivada n-ésima de Mx(t), crucula4a pal!'a t n.ece E(X"'). = O, foy~ Comentários: (a) Os ndmeros E(X"), n = 1, 2, .. ), são denominados Oll m.omentoa de IYfdem n ·da variável aleaMria X, em relação a zero. Por isso, mostramos que a partir do conhecimento d11. função Mx os momentos podem ser "geFados". (Daí o nome "função geratriz de momentos".) (b) Vamos recordar o desenvolvimento de uma função k, em série de M&claurin: h(t) = h(O) h"(O)t2 + h (O)t + 2 ! + , .. 1 _ h(n) -t= (O)t" ~ + .. ., onde Ja{n)(O) é a derivada n-ésima da fu~ção h, calculada para t = O. Aplicando este resultado à função Mx, poderemos esêrever . Mx(t) = Mx(O) =i onde JAi == E(X0), +~lt + Mx'(O)t + . · · + + }l2t2/21 + ... + i = 1, 2, . . . V(X) M!;l (O)tn nl f.Lnt" --;J. + + ··· ... , . .Em particular, = E(X2)- [E(X))2 = M"(O)- [M'(0))2. (c) O leitor pode se surpreender por que os métodos acima seri;;m de fato proveitosos. Não seria mais simples (e mais imediato) calcular direta.mente os momentos de X, em :vez de primeiramente obter a fgm e depois derivá-la? A re.sposta é que em muitos problemas o último caminho é mais . facilmente percorrido. Oa exemplos seguintes ilustrarão esse fato. Exemplo 10.7. Suponhà.-se que X tenha uma distribuição binomial com parAmetros n e p. Conseqüentemen.te (Ex. :1.0.2), Mx(t) = [pe 1 q]". Por isso, + M'(t) = n(pe6 M"(t) + q) ..... pe = np[tl(n - 1 8 , 1)(ptl + q)"-2pe1 + (pe1 + q)">-~ei]. lLo@O>, E(X) = M'(O) = np, o que concorda com nosso resultado anterior. Também, E(X2) = M"(O) = np [(n - 1) p + 1]. · Daí, V(X) = M"(O) - [M'(0)]2 = np(:l- p), o que também concorda com o que achamos anteriormente. A FUNÇÃO GERATRIZ DE MOMENTOS I 253 Exemplo ].0.8. Suponha-se que X tenha distribuição N(a, {32). Por isso (Ex. 10.5), Mx(t) = exp (at 1j2 {3 2t2). Portanto, + Jli!'(t) = e"'t +fl't'/2((3zt +a), M"(t) = ef3't'!2 + ·at{32 + ({32t + a)2ef3't'/2 + aa, e M'(O) = a, M"(O) = {3 2 + a 2, fornecendo E(X) = a e V(X) = {32 como anteriormente. Vamos empregar o método dà fgm para calcular o valor esperado e a variância de uma variável aleatória com distribuição de probabilidade geométrica, Eq. (8.5) . Exemplo 10.9. Admita-se que X tenha uma distribuição de probabilidade geométrica. Isto é, P(X = Por isso, k) = qk-1p,k = 1, 2, ... ., Mx(t) = 1p = L e1 ~çq~k""l . (p + q = 1). ., L (qe 1)~ç. qk=l .E_ Se nos restringirmos àqueles valores de t para os quais O < qe1 < 1 [isto é, t <ln (1/q)] então, poderemos somar a série acima como,uma série geométrica e obter ( " Portanto, (1 - qe1) 2 M"(t) = (1 - qe1) 2 pi- pe12(1 - qe 1)( (1 - qt!)4 - + qe 1) pet(l qet) (1 - qe 1) 3 Em conseqüência, E(X) = M'(O) = p/(1 - q) 2 = 1/p, E(X 2 ) = M"(O) = p(1 ;!- q)/(1 - q) 3 = (1 e V(X) = (1 +.q)jpi- (l/p)2 + q) /p = q/pz, Dessa forma, temos uma verificação do Teor. 8.5. 2 , 254 I PROBABILIDADE Os dois teoremas seguintes serão de notável importância em nossa aplicação da fgm. Teorema 10.2. Suponha~se que a variável aleatória X . tenha fgm Mx. Seja Y = a X + {3. Então, M y, a fgm da variável Y, será dada por My(t) , = ef3tMx(at). (10.12) Explicando: Para achar a fgm de Y = aX + {3, calcule-se a fgm de X para at (em vez de t) e multiplique-se por ef3'. Demonstração: My(t) = E(eYt) = E[e<aX+f3lt] =•ef3'E(e"' 1x) = ef3'Mx(at). Teorema 10.3. Sejam X e Y duas variáveis aleatórias com fgm Mx(t) e My(t), respectivam!;)nte. Se .Mx(t) = My(t) pai:a todos. os valores de t, então X e Y terão a mesma distribuição de probabilidade. Demonstração: A demonstração deste teorema é bastante di~ícil para ser dada aqui. Contudo, é muito importante compreender exatamente o que o teorema afirma. Diz que se duas variáveis aleatórias tiverem a mesma fgm, então elas terão a mesma distribuição de probabilidade. Isto é, a fgm determina univocamente a dis~ tribuição de probabilidade da variável aleatória. Exemplo 10.10. Suponhamos que X tenha a distribuição Seja Y = aX + {3. Então, Y será também distribuída normalmente. Do Teor. 10.2, teremos que a fgm de Y será M y(t) = = e61 Mx(at). Contudo, do E~. 10.8, temos que N(JJ., CT 2). M x(t) = M y(t) = eflt[ e"'Jd + <aul't'/2] eJL! + u't'/2. Portanto, .Ora, isto é a fgm de uma variável aleatória normalfllente distribuída, com expectância a}J. {3 e variância a 2 CT 2• Assiin, de aco~do com o Teor. 10.3, a distribuição de Y é normal. o teorema seguinte também desempenha papel fundamental em nosso trabalho subseqüente. + A FUNÇÃO G~RATRIZ OE MOMENTOS I 255 Teorema 10.4. Suponha-se que Xi e Y sejam variáveis aleatórias independentes. Façamos Z = X Y. Sejam Mx(t), M y(t) e Mz(t) as fgm das variáveis aleatórias iX, Y e Z, , respectivamente. Então, (10.13) Mz(t) = Mx(t).t-{y(t) . Demonstração: I T . . . I Mz(t) = E(ez1) = E[e<X-H\Y) '] = E(ex1eY1) . = E(ex )E(ey = Mx(t)M y(t). 1 ) 1 . I Comentário: Este teorema pode ser genenÜizado assim: Se X 1, ••. , Xn forem variáveis aleatórias independentes, com fgm Mx,, i= 1, 2, ... , n, então Mz, a fgm de \ · Z = Xr+ ... +Xm será dada por Mz(t) = Mx 1(t) .. .\Mxn(t). 10.5. (10.14) i Propriedades Réprodutiv?s Existem algumas distribuiçõ.es de p~obabilidade que apresentam .a seguinte notável e muito útil propriedade: Se duas (ou mais) variáveis aleatórias que tenham uma de~erminada distribuição forem adicionadas, a variável aleatória resuJ~ante terá uma distribuição do mesmo tipo ·que aquela das parcelas. \ Esta propriedade é denominada propriedade reprodutiva (ou aditivd), e a estabeleceremos para algumas distribuições importantes, com\ o auxílio :dos Teors. 10.3 e 10.4. \ Exemplo 10.11. Suponha-se que Xi e Y sejam variáveis aleatórias independentes, com distribuições N()1. 1, o- 1 2) e N(p, 2, o- 2 2), resr pectivamente. Fàçamos Z = X+ Y: Conseqüentemente, I ' . + ahI t /2) exp. (p, t + o-22tI2/2) = exp. [(,ui + ,U2)t + (o-1 2 + a-2?)t 2/2l. . I . . Ora, isto representa a fgm de uma var~ável aleatória normalmente distribuida, com valor esperado + e1 variância + PorMz(t) = Mx(t)ll1 y(t) = exp. (;.Lit ,U1 2 2 ,U2 tanto, Z terá ·esta distríbuição normal. I 2 0'1 2 2 0"2 • (Veja o Teor. 10.3.) ' I O fato de que E(Z) = I'-! +/ 2 e V(Z) = rr12 + 'r r22 poderiam ser obtidos imediatamente ~o que se viu ante~~~nte, resulta das propriedades referentes à expectância e variância. No entan~'o, para se estabelecer o fato de que Z é também normalmente diStribuída exigeise o emprego da fgm: (Existe outra maneira de se chegar a este resultado, a qn,a l será mencionada no Cap. 12.) Comentário: 256 I PROBABIUDADE l.."J ' •. ! !i Exemplo 10.12. O comprimento de uma barra é uma variável aleatória distribuída normalmente, com valor esperado 4 polegadas e variância 0,01 (polegada) 2 • Duas dessas barras são postas uma em continuação à outra e colocadas em um entalhe. O comprimento deste entalhe é 8 polegadas com uma tolerância de ± O, 1 polegada. Qual é a probabilidade de que as duas barras se ajustem? Fazendo-se L 1 e L2 representar os comprimentos das barras 1 e 2, teremos que L = L 1 + L 2 será distribuída normalmente, com E(L = 8 e V(L) = 0,02. Conseqüentemente, P[7 9 < L < 8 1] = p [ 7,9- 8 < L- .8 < 8,1- 8 ' - ' 0,14 0,14 0,14 J = q, (+0,714)- q, (-0,714) = 0,526, das tábuas da distribuição normal. Poderemos generalizar .o resultado acima no seguinte teorema: Tem·ema W.5. (Propriedade aditiva da distribuição normal.) Sejam X 1 , X 2, ••• , Xn n variáveis aleatórias independentes com distribuição N(p.;, (J; 2 ), i= 1, 2, ... , n. Façamos Z = X1 + ... + Xn. Então, Z terá a distribuição N("l:;~ = 1 }1;, "1:;~ = 1 (J";2). A distribuição de Poisson também apresenta a propriedade adi·~ tiva. Teorema· 10.6. . Sejam X 1, . . • , Xn variáveis aleatórias independentes. Suponha-se que X; tenha distribuição de .Poisson, com parâmetro a;, i= 1, 2, ... , n. Seja Z = X 1 Xn. Então, Z terá distribuição de Poisson com parâmetro + ... + Demonstração: Vamos considerar, inicialmente, o caso de n = 2: Daí, M z(t = é'''+ <>•) (et - IJ. Mas isto ~ a fgm de uma variável aleatória com distribuição de Poisson que tenha parâmetro a1 + az. Poderemos agora completar a demonstração .do teoré'm a com o auxílio da indução matemática. Exemplo 10.13. Suponhamos que o número de chamadas telefónicas em um centro, entre 9 e 10 hóra.S, X 1, seja uma variável aleatória com distribuição de Poisson, com parâmetro 3. Semelhante- A FUNÇÃO GERATRIZ DE MOMEI\liOS I 257 mente, o número de chamadas que chegam entre 10 e 11 horas, X 2 , também terá uma distribuição de Poisson, com parâmetro 5, Se X1 e X2 forem independentes, qual será a probabilidade de que mais de 5 chamadas ocorram entre 9 e 11 horas? Façamos Z = X1 + X2. Do teorema acima, Z terá uma distribuição de . Poisson, com parâmetro 3 + 5 = 8. Conseqüentemente, P(Z > 5) = 1 - P(Z ~ 5) = 1- s e~sC8Yc. L -k!lc =o == ]. - 0,191 2 = 0,808 8. Outra distribuição que apresenta a propriedade aditiva é a distribuição de qui-quadrado. x, x;,., Teorema 10.7. Suponha-se que a distribuição de seja i = 1, 2, ... , k, onde os X; sejam variáveis aleatórias independentes. X~c. Então, Z terá distribuição Xn 2 , onde Faça-se Z = X1 + ... + n = n1 + ... + n~c. i = 1, 2, ... , k. Conseqüentemente, Demonstração: (Pela Eq. (10.,10) teremos Mx,(t) = (1 - 2t)- n;/2, Ora, isto é a fgm de .uma variável aleatória que tenha distribuição de Xn 2 • · Agora, poderemos apresentar uma das razões da grande importância da distnbuição de qui-quadrado. No Ex. 9.9, verificamos que se Xtiver di!ltribuiçãp N(O, 1), X 2 terá distribuição X1 2 • Combinando isto corri o Teor. 10.7, teremos o seguinte resultado: Teorema 10:8. Suponha-se que X 1, ..• , X~c sejam variáveis aleatórias independentes, cada uma tendo a distribuição N(O, 1). Então, S = X 12 + X 22 + .... + X~c 2 terá distribuição de X./'Exempl~ 10.14. Suponhamos que X1,: . . , Xn sejam v.ariá,veis aleatórias independentes, cada uma com a distribuição · N(O, 1). Façamos T = VX 1 2 + ... + X;. 2 • Pela nossa exposição anterior, sabemos que T 2 tem distribuição de X.n 2 • I Para acharmos a fdp de T, digamos h, procederemos .como habitualmente: H(t) - - Jr;:J' = P(T < t) = P(T2 < t2) = (t• 2 1 znf 2-le->tz dz T(n/2) · 258 I PROBABILIDADE Conseqüentemente, teremos h(t) = H'(t) = 2t 2nf 2 rcn/2) 2t"-1 e-t'/2 2"/2 rcn/2) se t ~ o. (t2ti2-Ie-t'f2 Comentários: (a) Se n = 2, a distribuição acima é conhecida como distrib1tiçao de Rayleigh. (Veja. o Probl. 9.7.) (b) Se n = 3, a distribuição àcima é conhecida como distribuiçao de .Maxwell (ou, algumas vezes, como distribuição da velocidade de Maxwell) e tem a seguinte importante interpretação: Suponha-se que temos um gás em um recipiente fechado. Representemos os componentes da velocidade de uma molécula, escolhida aleatoriamente, por (X, Y, Z). Admitamos que X, Y e Z sejam variáveis aleatórias independentes, cada uma tendo a distribuição N(O, cr2). (Admitir-se a mesma distribuição para X, Y e Z significa que a pressão do gás é a mesma em todas as direções. Admitir-se que as expectâncias sejam iguais a zero significa que o. gás não está escoando.) Conseqüentemente, a velocidade da molécula (isto é, a magnitude de sua velocidade) é dada g(s) vX 2 + Y 2 + Z 2 • Salientamos por S = que X/cr, Y/cr, e Z/cr são distribuídas de acordo com N(O, 1). Portanto, Sfcr = = V (X/cr)2 + (Y/cr) 2 + (Zfcr) 2 tem distribuição de Maxwell. Por issó, a fdp da velocidade S, isto é, g, será dada por s=V'i/" Fig. 10.2 g(s) = fl n S2 -eaJ S2/2 2 cr 's ;;;. o..~. O gráfico de g está indicado na :Fig. 10.2, para cr = 2. Observe-se que valores de S muito pequenos ou muito grandes são bastante improváveis. (Pode-se mostrar que a constante cr, que aparece como um parâmetro da distribuição acima, tem a seguinte interpretação ft<;ica: . cr = VkT/M , onde T é a temperatura absoluta, M é a massa da molécula, e k é conhecida como a constante de Boltzmann.) !I .I ·: !. i Estudamos algumas distribuições para as quais vale a propriedade aditiva. Vamos agora examinar a distribuição exponencial para a qual, estritamente falando, a propriedade aditiva não vale; mas que, não obstante, possui uma propriedade análoga. Sejam r variáveis aleatórias independentes: X;, i = 1, 2, ... , r, todas as r com a mesma distribuição expónencial, com parâmetro a. Em conseqüência, da Eq. (10.7) teremos que Mxi(t) = a/(a - t). Assim, se Z = X 1 + ... + Xr, teremos Mz(t) = [a/a - t]', que é justamente a função geratriz de momentos da distribuição gama, com A fUNÇÃO GER~TFUZ DE MOMENTOS I 259 i parâmetros a e r [Eq. (10.9)]. A menosi que r = 1, esta não será a fgm de uma distribuição exponencial, de modo que esta distribuição não possui a propriedade aditiva. No e~tanto, temos uma carac. . I terização bastante interessante da distribu~ção gama, que resumireI mos no teorema seguinte. 1 i Teorema 10.9. Seja Z = X 1 + ... X,, onde os Xa são r variáveis aleatórias independentes, identic~mente distribuídas, cada uma tendo distribuição exponencial, com lo (mesmo) parâmetro a. Então, Z terá uma distribuição gama, com parâmetros a e r. i .. Cvmeritários: (a) O Teor. 10.9 não será. verda~eiro se os p&âmetros das v&rias distribuições exponenciais forem diferentes. I~to se tema evidente quando · eonsideramos a fgm da. soma resultante das variá.vei!l aleatórias. · --- . .. i . . (b) O seguinte corolário do teorema acima apr$mta considerável importância I . . . . . em algumas aplicações estatísticas: A variável aleatória W = 20!2 tem distribuição de x~,. Isto constitui uma conseqüência imediat;a do fato de que Mw.(t) = = Mz(2at) = [a/(a- 2at)Jr = (1- 2t)-2 ''2 • A comparação disto com a Eq. (10.10) dá origem ao corolário acima. Portanto, potleremos empregar a distribuição de qui-quadrado tabulada com o objetivo de calcular determinadas probabiridades associadas a Z. Por exemplo, P(Z .;;; 3) ~ P(2aZ .;;; 6a). Esta última probabilidade pode ser diretàmente obtida das tábuas da distribuição de qui;<jua1 drado, se a e r forem dados. · \ I 10.6. . i SeqUências dle Variáveis Aleatórias Suponha-se que temos uma seqüência\ ~: v_ariávElis ~leat6rla.s Xr, X2, ... , Xn, . . . Cada uma dessas vanaveiS aleatónas pode I . ser descrita em termos de F;, SUfL fd, o~de F;(t) = , P(X; .:$; t), _i= 1, 2, . . . Bastante freqüentemente est~remos interessados no que acontece a F; quando i ....,. oo. Isto é,[ existirá alguma função I de distribuição limite F correspondente a al~a variável aleatória X, I tal que em algum sentido, as variáveis aleatórias X;, convirjam para X? A resposta é sim, em muitos casos, e !existe um procedimento bastante imediato para determinar-se F. \ Essa situação pode surgir quando considerarmos n observações independentes de uma variável aleatória X, J,o r exemplo, Xx, ... , Xn. Poderemos estar interessados na média aritmética dessas observações, Xn = (1/n) (X1 + ... + Xn). X,. é também! uma variável aleatória. Seja Fn a fd de X,.. Poderá interessar \ saber o que acontece à distribuição de probabilidade deXn quando n se toma grande. Assim, nosso problema envolve o comportamento limi~ de Fn quando n ~ co. O teorema seguinte, enunciado sem . demonstração, nos tOrnará capazes de resolver esse e outros problemas s m r t) . f 260 I PPlOIBAB~UDADIE Teorema 10.10. Seja X1, ... , X,. uma seqüência de variáveis aleatórias com fd Fh· . . , F,., ... e fgm M 1 , ••• ,M,.,... Suponh11r00 que liiQ,.--. .. Mn(t) = M(t), onde M(O) = l. Então, M(t) é a fgm da variável aleatória X, cuja fd Fé dada pelo Jim,._,., F .. (t). C~vio: O Teor. 10.10 diz que p!l.i'& obter & distribuição "lilni.te procuradt:.~, ~tud!M' ru~ funçÕ~ geratrizes de momentos das variáveis rueatóriw sob exame. Obteremos & forma limite da seqüência MI> . . .·, M,., . . . , digamos M(t). Em virtude d111 propriedade de unicidade. das fgm, existirá. apenas uma distribuição de probe.bilidade correspondente à fgm M(t). Poderemos reconhecer M como a fgm de uma distribuiçã,o conhecida (tal como lll normal, a. de Poisson etc.) ou poderemps ter de empregar métodos IDIIIis &va.nça.dos pare. determinar 111 distribuição de probabiliw;,de lll partir de llf. N111 medida em que formoà Clilpa.zes de obter a fgm a. partir do conhecimento d111 fdp, assim também seremos capazes .de obter (sob condições bastante gerais) a fdp a. partir do conhecimento da fgm. Isto ac:MTetlllria alguns teoremas rec!procos e nós não nos dedicaremos mais a isto. é suficiente Vimos que a fgm pode constituir um instrumento muito poderoso para o estudo de vários aspectos das distribuições de probabilidade. Em particular; verificamos ser o emprego da fgm muito útil ao estudarmos somas de variáveis aleatórias independentes, identicamente distribuidas, ~ na obtenção de várias regras aditivas. Estudaremos novamente no Cap. 12, somas de variáveis aleatórias independentes, sem o emprego da fgm, porém com métodos semelhentes àqueles qpe empregamos ao estudar o produto e o quociente de variáveis aleatórias independentes no Cap. 6. 14U. Suponhe que X tenhe fdp d:!,du, por j(x) = 2x, OS zS 1. (a) Determine & fgm de X. (b) Empregando a fgm, calcule E(X) e V(X) e verifique sua resposta. (Veja o Comentário à Pág. 262.) 1.1U. (a) Determine 111 fgm tMill no l?robl. 7 .25. dm~ tensl!.o (i'l!Cluindo o ruído) tal como .apreren- Empregando a fgm, obtenha o valor esperado e a variância dessa tensão . (b) 10.3. Suponha que X tenha a seguinte fdp: J(z) = Xe- À(x-a), x 2:: • lll• (Esta é conhecida como distribuição exponencial a dois parâmetros.) (a) (b) Determine a fgm de X. Empregando a fgm, ache E(X) e V(X). A FUNÇÃO GERATRIZ DIE MOMEI\lTOS I 261 10.~. Seja X o resultado da jogada de tliDa moeda equilibrada. (a) Determine a fgm de X. (b) Empregando a fgm, ache E(X) e V(X). 10.5. Determine a fgm da variável aleatória X do Probl. 6.7. gando a fgm, ach!l E(X) e V(X). 1O.li. Empre- Suponha que a variável aleatóri& contínua X tenha fdp j(x) =.!. e-lzf, 2 - oo <x < oo. (a) Ache a fgm de X. (b) Empregando a fgin, ache E(X) e V(X). 10.7. Empregue a fgm para mostrar que, se X e Y forem variáveis aleató- riaB independentes, com distribuição N(p..,, u.,2 ) e N(JAy, u,l), · respectivamente, então Z tantes. = 10.8. dX + bY será também normalmente distribuída, onde a e b são cons- Suponh& que a fgm da variável aleatória X seja da forma Mx(t) = (0,~ 1 + 0,6)a. (a) Qual será a fgm da variável aleatória (b) Y = 3X + 2? Calcule E(X). (c) Você poderá verificar sua nsposta a (b), por algtliD outro método? [Tente "reconhecer" M x(t):] 10.9. Alguns resistores, R;, i = 1, 2, ... , n, são montados em série em um circuito. · Suponha que a. resistência de cad& um seja normalmente distribuída, com E(R;) = 10 ohms e V(Ri) = 0,16. (a) Se n = 5, qual será a probabilidade de que a resisll!ncia do circuito exceda 49 ohms? (b) Para que se tenha aproximadamente igilal a 0,05 a .probabilidade de que a resistência total exceda 100 ohms, que valor deverá ter n? 10.10. Em uÍn circuito, n resistores são montados em série. Suponha que a resistência de cada um seja ·uniformemente distribuída sobre [O, 1] e suponha, ·também, que todas as resistências seJam independentes. Seja R a resistência total. (a) Estabeleça s fgm. de R. (b) Empregando cálculo direto: & fgm, obtenha E(R) e V(R). Confirme eu!Yl reapostes pelo · 111.~1. Ss X tiver distribuiçio de E(X) = n e V(X) = 2n, x,.2, empregando m fgm, mostre que 10.12. Snponh& que V, ~~>.velocidade (cm/seg) de um objeto, tenhe distri~ buição N(O, 4). Se K = mV2.f2 ergs for & energia cinética do objeto (ondl:l m = Dll!SSa), ~etermine. e. fdp de K. Se m = 10 grami!S, c&lcule P(K:::;; 3). 262 I PROBABILIDADE 10.13. Suponha que a duração da vida de uma peça seja exponencialment distribuída, com parâmetro 0,5. Suponha que 10 dessas peças .sejam instalada: sucessivamente, de modo que a i-ésima peça seja instalada "imediatamente' depois que a peça de ordem (i- i.) tenha falhado. Seja T; a duração até falha da i-ésima peça, i = 1, 2, .•. , 10, sempre medida a partir do instante de insta lação. Portanto, S . = T1 + ... + T1o representa o _tempo total de funciona mento das 10 peças. Admitindo que os T; sejam independentes, calcul P(S ~ 15,5). 10.14. Suponha . que X1, ... , X ao sejam variáveis aleatórias cada uma tendo distribuição N(O, 1). gestão: C:>lcule P[X 12 independent~ + ... + x;0 > 77]. [Su Empregue o Teor. 9.2.] 10.15. ·Mostre que se X;, i = 1, 2, ... , k, representar o número· de sucesso em n; repetições de um experimento, no qual "?(sucesso) = p, para todo i, entã• X 1 + .... + X1c terá uma di~5tribuição binomial. (Isto é, a distribuição binomia possui a propriedade aditiva.) 1 0.16. (DistribuiçiJes de Poísson e multi-nom1:al.) Suponha que X;, i " 1,· 2, . . . , .n, sejam variáveis aleatórias independentes com distribuiç.ão de Poissor com parâmetros a;, i = 1, ... , n. Faça X ·= _ L~= 1 X;. Nesse caso, a distribuiçã de probabilidade conjunta de X 1 , .. . , Xn, dado X = x, é dada por uma distribu: ção multinomial. Isto é, 10.17. Estabeleça a fgm de uma variável aleatória que tenha~ distribuiçü geométrica. Essa distribni~ão possui a propriedade aditiva? 10.18. Se a variável aleatória X tiver uma fgm dada por Mx(t) qual será o desvio-padrão de X ? = 3/(3 - t 10.19. Estabeleça a fgm de uma variável aleatória que seja uniformemen· distribuída sobre (- 1, 2). 10.20. Um determinado processo industrial produz grande número de cilil dros de aço, cujos comprimentos são distribuídos, normalmente, com média 3,~ polegadas e desvio-padrão 0,05 polegadas. Se · dois desses cilindros forem esc llúdos ao acaso e dispostos· um em continuação ao outro, qual será a probabilida< de que seu comprimento combinado seja menor do que 6,60 _polegadas? Comentário: Ao calcular M~(t), para t = O, pode· surgir uma forma irld terminada. Assim, M~(O) pode ser da forma 0/0. Nesse caso, deveremos tent: aplicar a regra de l'Hôpital. Por exemplo, se X for uniformemente distribui( sobre [0, 1], nós facilmente encontraremos queMx(t) = (et- 1)/t eM_;(t) = (tet ·- et + 1)/ t 2 • Conseqüentemente, -em t = O,M~(t) é indeterminad · Aplicando a regra de l'Hôpital, encontraremos que lirnt_,. 0 Mx(t) == lirnt_,. 0 tet /2t = 1/2. Isto confirma, desde que M~(O) ria apre.sentada aqui. = E(X), que é igual a 1/2 para a variável aleat• !. A pi icações à T eori~ da Confiabilidade Capítulo 11 11.1. conceitos Fundamer ais Neste capitulo, estudaremos um dominio em desenvolvimento, muito importante, de aplicação de alguns conceitos apresentados nos capitulas anteriores . .,. o ·.o te· n- l5. oie ear la == a. ;5- Suponha-se que estejamos c6nsiderando um componente (ou todo um complexo de componentbs instalados· em um sistema), o qual é submetido a alguma espécie de "esforço". Isto pode constituir uma viga sob uma carga, um fu~ivel intercalado em um circuito, uma asa de avião sob a ação de fdrças, ou um dispositivo eletrônico . I posto em serviço. Suponha-se que, para qualquer desses compo. I . nentes (ou sistema), um estado que! denotaremos como "falha" possa ser definido. Desta forma, a vigJ de aço pode romper-se ou que.brar, o fusível pode queimar, a asa pode emp~nar, ou o dispositivo eletrônico pode deixar de funcionari Se- esse componente for posto 1sob condições de esforço, em algum instante especificado, digamos 1t = O, e observado até que falhe (isto é, até que pare de funcionar aÇlequadamente sob o esforço aplicado), . a duraçã9 até falhar ou duraçãb .da vida, T, pode ser considerada como uma variável aleatória continua com alguma fdp j. Existe grande quantidade de provas emJ,iricas· para indicar que o valor de T não pode ser previsto a part,i r de um modelo deterministico. Isto é; componentes "idênticos" stljeitos a "idênticos'' ésforços falhárão em diferentes .e i~previsí~eis instantes. Alguns falharão logo no início de sua vida e outros \ em épocas mais .tardias. N atu1 ralmente, "o estilo de(falhar" variará com o tipo de. peça que se es~ teja considerando. RQI_) xemplo, u~ fusível falhará bastante subitàmente, no sentido de que em dado momento estará funcionando perfeitamente e no próximo momento já não funcionará. mais. Por I . outro lado, uma viga de aço sob uma carga pesada tornar-se-á ·pr,o- 264 I PROBABILIDADE vavelmente mais fraca durante um longo. período de tempo. De qualquer modo, o emprego de um modelo probabilístico, com T considerada como uma variável aleatória, parece constituir-se no linico tratamento realista do assunto. Apresentaremos, agora, outro conceito importante. Definição. A conjiabilidade de um componente (ou sistema) na época t, R(t), é definida ~omo R(t) = P(T > t), onde T é a duração da vida do componente. R é denominada função de conjiabilidade. Comentário: Muito embora o termo "confiabilidade" (em inglês, "reliability") possua muitos significados técnicos ·diferentes, aquele apresentado acima está se tornando o mais geralmente aceito. A definição, dada aqui, simplesmente afirma que a confiabilidade de um componente é igual à probabilidade de que o componente não venha a falhar durante o intervalo [0, t] (ou, de mod<;> equivalente, confiabilidade é igual à probabilidade de que o componente ainda esteja . em funcionamento na época t). Por ·exemplo, se para uma determinada peça, R(t1) = 0,90, isto significa que aproximadamente 90 por cento de tais _peças, utilizadas sob dadas condições, estarão ainda em funcionamento na época t1. Em termos da fdp de T, digamos j, teremos R(t) = J:"' j(s) ds. Em termos da fd de T, digamos F, ·teremos =1- R(t) P(T ~ t) = 1 - F(t). Além daJunção.de confiabilidade R, outra função desempenhlJ- importante papei na descrição das caracterÍsticas de falhas de uma peça. Definição. A taxa de falhas (instantânea) z. (algumas vezes denominada junção de risco) associada à variável aleatória T é dada por Z(t) definida para F(t) • Ccimentário: cionada = 1- j(t) F(t) j(t) R (t) ' = (11.1) < 1. A fim de interpretar Z(t), considere-<>e a pro.babilidade condiP(t ~ T :<:: t + t.t IT > t), iSto é, a probabilidade de que a peça venha a falhar durante as próximas t.t unidades de' tempo, desde que a peça esteja funcionando adequadamente no instant~ t. Aplicando-se a definição de probábilidade condicionada, poderemos escrever a expressão acima assim: P(t ~ T ~ t + td IT > t) = P(t = f + t,t) < T <t P(T > t) t+t.t' f(x) dx/P(T > t) = t.tJW/R(t), APLICAÇÕES À TEORIA DA CON FIABI UDADE / Z65 A última expressão é (para tJ.t pequeno e supondo-ee que f seja contínua em t+) aproximadamente igual a tJ.tZ(t). Portanto, ~xplicando não formalmente, tJ.tZ(t) representa a proporção pe peças que falharão entre t e t tJ.t, dentre aquelas peças que estavam ainda funcionando na época t. . Do que se explicou acima, conclui-<le que /, a fdp de T, determina umvoCl!F mente a taxa de falhas Z. ·Mostraremos agora que a recíproca também. vale: & taxa de falhas Z determina univocamente a fdp f. + Teorema 11.1. Se T, a dura.ção. até falhar, . for um.a v.ariável aleatória contínua, com fdp je se F(O) = O, onde F é a fd de T 1 então, f poderá ser expressa em termos da taxa de falhas Z, da seguinte maneira: j(t) = Z(t)e=f~Z(s)ds. =- Demonstraçao:· Visto· que F'(t) = - j(t). Daí, = Z(t) R(t) (11.2) = 1 ·_ F(t), teremos R '(t) = -R'(t) , R(t) j(t) R(t) InMgremos ambos os membros de O a t: r }o Z(s) ds r R'<) = - )o R(:) ds = - ln R(s)\Ó + ln R(O) = = - ln R(t) - ln R(t), de8de que ln R(O) = O, o que vale se, e somente se, R(O) = 1. [Esta última condição será satisfeita se F(O) = O. Isto apenas diz que a probabilidade de falha inicial é igual a zero; adotaremos esta hipótese no restante da exposição.] Conseqüentemente, R(t) = e-fciZ(s)da. Portanto, f(t) = F'(t) = :t [1 - R(t)] = Z(t)e-f~Z<•ld•. Por conseguinte, mostramos que . a taxa de falhas Z determina univocamente a fdp j. Existe unia interessante relação entre a função de confiabilidade e a duração média até-falhar, E (T) . Teorema 11.2. ~ ) I Se-E(T) for finita, então E(T) = i. R(t) dt. (11.3) 266 I PROBABILIDADE Demonstração: Considere-se Vamos integrar por partes, fazendo v = t e du = - j(t) dt. Portanto, .["' R(t) dt =t 1 J:"' j(s) d8 = "'j(s) ds J ~+ u e dt = dv. 1"' Dai, tj(t) dt. A segunda integral, no se~do membro, representa E(T). Portanto a demonstração estará completa se pudermos mostrar que :.., t.f; "'f(s) ds se anula em t = O e quando t ---7 co. A anulação em t = O é imediata. Empregando a finitude de. E(T), o leitor pode completar a demonstração. Os conceitos de confiabilidade e de taxa de falhas estão entre as mais importantes ferramentas necessárias para um estudo profundo dos "modelos de falhas". Estudaremos principalmente a.S seguintes questões: (a) Que "leis de falhas" subjacentes será razoável admitir? (Isto é, que forma a fdp de T deve ter?) (b) Suponha-se que temos dois componentes, C1 e C2, com leis. de falhas conhecidas. Suponha-se que esses componentes estejam~ associados em série ou em paralelo, para constituir um sistema. Qual será a lei de falhas (ou confiabilidade) do sistema? A questão de qual será uma "razoável" lei de falhas nos leva de volta a um problema que já discutimos anteriormente: Que é um modelo matemático razoável para a descrição de al~m fenômeno observável? De um ponto de vista estritamente matemático, poderemos admitir qualquer fdp para T e, depois, simplesmente estudar as conseqüências dessa hipótese. Contudo, se estivermos interessados em ter um modelo que represente (tão acuradamente quanto possível) os dados de falhas realmente disponíveis, nossa escolha do modelo terá que levar isso em consideração. APLICAÇÕES À TEO-RIA DA CONFIABILIDADE I 26.7 I 11.2. A IL.ei de Falhas Normal Existem muitos tipos de componentes\ cujo comportamento das falhas pode ser representado pela distribuição normal. Isto é, se T for a duração da vida de uma peça, sua fdp será dada por j(t) = 1 V2wu exp ( - · _!: [ 2 ~I -u M ]2)· , [Novamente salientamos que a <luraçJ até falhar, T, deve ser maior que (ou igual) a .zero. Conseqüenilemente, a fim de que o modelo acima possa ser aplicado devemos insistir que P(T < O) 1seja essencialmente zero.] Como a forma da normal indica, a lei de falhas normal significa que a. maioria das \peças falha em tomo da duração até falhar média, E(T) = JL e o nbero de falhas decresce (~imetricamente) quando IT- JLI cresce. I A lei de falhas no~ indicá que cerca de 95,72 por cento das fa!lias ocorrem, para aqueles valores de t que satisfaçam a {ti lt- .ui < fu}. (Veja! a Fig. 11.1.) fdb .JII(t) l I J_____ I t-,.-2, ' t = p. Fig. 11.2 !Fig. 11.1 A função de confiabilidade da lei de falhas normal pode ser ex' . pressa em termos da função de distribuição; acumulada normal, tabulada, ~. da seguinte maneira: R(t) = P(T > t) = 1 - P(T ~ t) 1 ~~_.., exp ( - 21 '·.[ -X q - JL = 1- V2?ru - ]2) dx =1-~ ( -tuJL-.)· " (\_ ) I A Fig. 11.2 apresenta uma curva-de confiabilidade geral pa~ a lei de falhas normal. Observe-se que a ·fim de alcançar alta confiabilidade (digamos 0,00 ou maior), o tempo de operação deverá ser bem menor que p,, a duração da vida esperada. .268 I PROBABiLIDADE Exemplo 11.1. Suponha-se que a duração da vida de um com~ ponente seja distribuída normalmente, com desvio-padrão igual a · ll.O (horas). Se o componente tiver uma confiabilidade de 0,99 para um período de operação de 100 horas, qual será sua duração de vida esperada? A equaçãO acima se torna .. 0,99 = ]. ~ ( 100<i> . 10 }t) . Das tábuas da distribuição normal, isto dá (100- p.)/10 Portanto, Jl. = 12313 horas. =- 2,33. A lei de falhas normal representa um modelo apropriado para coinppnentes nos quais a falha seja devida a algum efeito de "desgaste". Ela não se inclui, contudo, entre as mais importantes leis de falhas encontradas. 11.3. A lei tdle Falhas Exponencial Uma das mais importantes leis de falhas é aquela cuja duração até falhar é descrita pela· distribuição exponencial. Poderemos caracterizá-la de .muitas maneiras, mas, provavelmente, a maneira mais simples é supor que a taxa de falhas seja constante. Isto é, Z(t) = a. Uma conseqüência imediata desta hipótese é, pela Eq. (11.2), que a fdp associada à duração até falhar T, seja dada por I ·~ .. j(t) = ae-"1, t > O. A recíproca disto é, também, imediata: Se j tiver a forma acima, = 1 - F(t) = e-" 1 e, portanto, Z(t) = j(t)/R(t) = a. Deste. modo, concluímos o seguinte resultado importante: R(t) Teorema 11.3. Seja T, a duração até falhar, uma variável aleatória contínua, que tome todos os valores não-negativos. Então, T terá uma distribuição exponencial se, e somente se, tiver uma taxa de falhas constante. Comentário: A hipótese de taxa de falhas constante pode também significar · que, depois que a peça estiver em uso, sua probabilidade de falhar não se tenha alterado. Dizendo de maneira menos rigorosa, não existe efeito de "desgaste" quando o modelo exponencial é estipulado. Há outra maneira de dizer isto, que· torna este aspecto ainda mais notável. "' + Considere-se para . t;.t > O, P(t ~ T ~ t /:lt IT > t). Isto representa a probabilidade de que a peça venha a falimr durante as próximas t;.t unidades, desde que ela não tenha falhado à época t. Aplicando a definição de probabili- AP U CAÇÕES À TEORIA DA CONF IABILIDADE I 269 dade condicionada, encontramos P(t:S T :S t + t.tlT > t) = e-at - e - a(t+M e at = 1- e-aL'l.t, Portanto, esta probabilidade condicionada é independente de t, dependente apenas de D.t. É neste sentido que poderemos dizer que a lei de falhas exponencial admite que a probabilidade de falhar seja independente do que se tenha passado. Quer dizer, enquanto a peça estiver ainda funcionando ela será "tão boa quanto nova". Se ·desenvolvermos em série de Maclaurin, o último membro da expressão acima, obteremos P(t:S T :St + t.tlT > t) = 1- , [ 1- atJ.t (a 6.t)2 (a t.t) 3 . + 21 - -----a!+··· J = atJ.t +h( D.t), onde h( t.t) se torna deprezível para D.t pequeno. P or isso, para ·t.t .suficientemente pequeno, a probabilidade acima será diretamente proporcional a ó.t. Para muitos _tipos de componentes, a hipótese que conduz à lei de falhas exponencial é, não somente sugestiva intuitiva~ente, roas de fato é confirmada pela evidência empírica. Por exemplo, é bastante razoável admitir-se que um fusível ou um rolamento de rubis sejam "tão bons quanto novos", enquanto estiverem ainda · funcionando. Isto é, se o fusível não tiver fundido, estará praticaW:ente em estado de novo; nem o rolamento se alterará muito devido a desgaste. Em casos tais como esses, a lei de falhas exponencial representa um modelo adequado com o qual se estudem as carfl,cteristicas de falhas da peça. Contudo, uma palavra de advertência deve ser in clufda aqui. Há muitas situações encontradas nos estudos de falhas, para as .quais as hipóteses básicas que levam à distribuição exponencial não serão satisfeitas. Por exemplo, se um pedaço de aço for submetido a esforço continuado, haverá obviamente alguma deterioração, e por isso, Um. outro modelo, que não o exponencial deve ser examinado. j(t) F(t) R(t) . I Fig. 11.3 a'~tado Muito embora já tenhamos vanas propriedades da distribuição. exponencial, vamos resumi-las de novo para tê-las pre- .. ) 270 I PROBABILIDADE sentes no objetivo atual. (Veja a Fig. 11.3.) Se T, a duração até falhar, for distribulda exponencialmente (com parâmetro a), teremos I E(T) ·= l fa; V(T) = F(t) = P(T :$; t) = 1 - e- 1 ; l/~ 2 ; R(t) = e....1• Exernplo 11.2. Se for dado o padmetro a e R(t) for especifk cada, poderemos achar t, o número de horas, por exemplo, de opera- . ção. Deste modo, se a = 0,01 e R(t) for igual a 0,00, teremos 0,00 = e~.ou. Daí, t =; - 100 ln (0,90) .= 10,54 horas. Logo, se cada um de 100 desses componentes estiver operando· durante 10,54 horas, aproxi;, madamente 00 não falharão durante aquele período. · Comentáriell: . (a) 11:. muito importmlte compreender que, no caso exponencial pod~mos identific&r tempo de operB.ção (a partir -de algum valor inicial fixado ·arbitrariamente) com idaik de operação. ~ porque, no Cil.'so exponencial, uma peça que não tenha falhado é tão boa quanto a nova, e, por isso, seu comportamento de falhas durante qualquer petíodo particular depe~de somente da extensão desse período e não de seu pll888do. Contudo, quando se -admite uma lei de falhaa ~ -exponencial (tal como a 1~ normal ou uma das distribUições que ex~minaremo:i em breve), o passe.do exerce influência sobre. o desempenho .da peça. Por isso, enquanto podemoa definir T como o tempo em serviço (até fl!lliar) para o caso exponencial, deveremos d~finir T como a duração total da vida até falhar para os · CMOB não-exponenciais. . ' (~) A distribuição exponencial, que estudamos no contextO da duração da vida dos .componentes, apresenta muitas outras aplicações importantes. De fato, sempre que IDnB. variável aleat6ria continua T, que tome vmores não negativoa, satisfizer à hipótese P(T > s + tiT > s) := P(T > t) para todos 8 e t, então T terá uma .distribuição exponencial. Desta .maneira, se T representar o tempo que. um átomo radioativo leva para se desintegrar, poderemos &drnitir que T seja distribuído exponencialmente, já que a suposição acima parece ser satisfeita. Exemplo 11.3. Não é desarrazoado supor-se que c~te mais produzir uma peça com uma grande duração de vida esperada, do que outra com uma pequena éxpectância de vida. Especlficamente, suponha-se que o c~tO C de produzir uma peça constitua a seguinte função de Jt, a duração até falhar média, c= 3jt 2 • Suponha-se que um lucro de D dólares seja realizado para cada hora que a peça esteja em serviço. Assim, o lucro por peça será dado por P = DT- 3Jt 2, onde T é o número de horas em que a peça funcione adequadamente. APUCAÇÕES À TEORIA DA COI\! FiABILIDADE I 271 1 ! até mos lcif~­ Jera-.. 100 roxi;., onen- ixado Ulilll. Em conseqüência, o lucro Para acharmos qual o valor de P, que torna máxima esta quantidade, bastará fazer dE(P)fdp, igual a kero, e resolvê-Ia em relação a p.. O . resultado será p, = D/6, e por is~o o lucro máximo esperàdo,por peça, ·. será E(P)mru. = D 2/12. ' Exemplo 11.4. Vamos reexaminar o Ex. 11.3, 1 fazendo as seguintes suposições adicionais. ;Suponha-se que T, a duração até falhar, seja distribuída exponencialmente, com parâmetro a . Assim, p,, a duração até falhar esperada,Jserá dada por p, := 1/a. Suponha-se também que se a peça não fun~ionar adequadamente ao menos durante um _número especificado de horas, to, seja . lançada uma multa igual a K(to- T) dólares, onde !T(T < to) é a época em que a falha ocorra. Conseqüentemente, o lu?ro por peça será dado por P . De negaentão ;empo r seja. i ta. mais t, do ente, uinte = DT - 3p, 2 = DT- 3p, ~~ ii.o da será dado por I . E(P) =;= Dp, - 3p, 2 • nento desse remos · isso, , caso '1.1"!1. os esper~do ., 2 - • se ... o' .,. · .~: T > to, i K(t 0 : I .i1tj''',, se T <to. T) 11." i'!:J Logo, o lucro esperado cPor peçd) pode ser expresso dqmo = E(P) D !. • I ii• ti ~·,,l,t : lj/l~ !ae-a1 dt- ~p, 2e- 1• + (D + K) }ot· tae-a Ijdt1 (3p 2 + Kt )(10 = Dp, - 3M+ K[p, 2 lI'' i',',l 1' .1 e-a1•). Depois de integrações imediatas,! a express,ão acima pode ser escrit11. E(P) .. :I ,:, p,e-t•t11 - tol. I Observe-se que se K = O, isto se reduzirá ao resultado obtido no Ex. 11.3. Poderíamos nos f~zer uma indagação análoga àquela surgida no exemplo a:Q.terior: ;P ara quais valores de p, assumirá . E(P) seu valor máximo? Nós; não prosseguiremos nos detalhes . deste problema, porque incluem la resolução de uma equação trans-. cendente, que deverá ser resolvida: numericamente. I,' ,.I li ~~ ~III: IIII 'l l·,i I,! H . "II'!I 1 ~ 1 I 1 ·I i 11.4. A lei de Falhas ~xponenciai .e a Distribuição de cada será 3nte. i Poisson · I . Existe uma conexão muitoMtima entre alei de falhas exponencial descrita ·ria seção antenÇ.r.J um processo de Poisson. ~upo­ nha-se CJ,Ue a falha ocorra em virj;ude do aparecimento de certas--perturbações "aleatórias". Isso poderá ser causado por forças ext~rua8 I 272 I PROBABILIDADE como súbitas rajadas de vento ou uma queda (elevação) de tensão elétrica, ou por causas. internas tais como desintegração qui mica ou defeito mecâinico. Seja Xt igual ao número de tais perturbações ocorridas durante um intervalo de tempo t, e admita-se que Xt, t ;::: O constitua um processo de Poisson. Quer dizer, para qualquer t fixado a variável aleatória Xt tem uma distribuição de Poisson com parâmetro at. Suponha-se que a falha durante [0, t] seja causada se, e somente se, ao menos uma dessas perturbações ocorrer. Seja T a duração até falhar, a qual admitiremos ser uma variável aleatória contínua. Então, . F(t) [0, = P(T :::; t) = > t). 1 - P(T Ora, T > t se, e somente se, não .ocorrer perturbação durante Isso aconlecerá se, e somente se, Xt = O. Por isso, tl. 1 e--<> • F(t) = 1 - P(Xt = O) = 1 - Essa expressão representa a fd de uma lei de falhas exponencial. Conseqüentemente, encontramos que a "causa" das falhas acima envolve uma lei de falhas exponencial. As idéias acima podem ser generalizadas de duas maneiras: (a) Suponha-se novamente que perturbações apareçam de acordo com um processo de Poisson. Suponha-se também que sempre que essa perturbação aparecer, exista uma prob~bilidade constante p de que elà não acarrete falha. Portanto, se T for a duração até falhar, teremos, como anteriormente, F(t) = P(T :::; t) = 1 - P(T > t). Agora, T > t se, e somente se, (durante [0, t]) nenhuma perturbação ocorrer, ou uma perturbação ocorrer e não resultar falha, ou duas perturbações ocorrerem e não resultarem falhas, ou . .. Daí, F(t) = 1 - [ e-~ + (at)e-« p + (at) = 1- e-at 2.::~ k=O 1 (atp)k __ ._ = k! 1- 2 - c~2.1 e-a'e"'lp p2 +. ... J = 1- e--<><1-p)t. Deste modo, T possui uma lei de falhas exponencial com parâmetro p). (Observe-se que se p = O, teremos o caso explicado anteriormente.) a(l - (b} Suponha-se novamente· que perturbações apareçam de acordo com um processo de Poisson. Agora admitiremos que. ocprra falha sempre que r ou mais perturbações (r;::: 1) ocorram durante ;i:Jjj'l ~~:i! )! , : APUCAÇÕIES À "l"IEOIRDA DACONFiABI LHDADE / 273 .'·::! . um intervalo de extensão t. Por essa razão, se T for a duração até falhar, teremos, como anteriormente, F~) = 1- . ~::1 . .~ij~ ..• il P(T > Q. Neste caso, T > t se, e somente se, (r - 1) ou menos perturbações ocorrerem. Logo, F(t) = 1- •-1 (atY'e-~ L lc=O k! · .. De acordo com a Eq. (9.17), a expressão acima é igual a fr/[a/(r- 1)!](as)'- 1e-• d~ e, por isso, representa a fd de uma distribuição gama. Deste modo, achamos que a "causa" de falhas acima leva à conclusão de que a duração até falhar segue uma lei de falhas gama. (Naturalme?:~~. se r = 1, ela se toma uma distribuição exponencial.) 11 .5. A lei dle Fa~lhas d® Weibull = j(t) = (a{3)tfl- 1 e- 1 ~, ii 11: ~I '' r_•.·l ''I 1 1. r f 1. ''.·.il'i·l·lt' li':iá '. ·r .~.,.. h. ! 'i. ,'11'' !il;li'i''·.'l·.·t ,,,,t ;~hl:·'•A.,t .....J.>j.,11 '•;," (11.5) 0,8 Fig. 11.4 = 1 e {3 = 1, 2, 3. A função de confiabilidade ( ) = e-atfi, a qual é uma função decresc~~ de t. ...;,, ,-.::- ir"~' Da Eq. (11.2) obtemos a se- j(r) . I' ::; ' !!'lr:J t > O, 01., ~>O. à I (11.4) Diz-se que uma variável aleatória que tenha a fdp dada pela Eq. (11.5) tem uma distribuição de Weibull. · A Fig. 11.4 apresenta a fdp para 0,4 ~ ,.:1·1 .. .., n: !: ,':1~;·; ~ '( l !!I .,, ... 1·~1, (a{3)t~- 1 , onde a e {3 são constantes positivas. guinte expressão para a fdp de T: .:)')f[ill!, ~rt:::·riJI~ Vamos modificar a noção de taxa de falhas constante, que conduz à lei de falhas exponencial. Suponha-se que a taxa de falhas Z, associada a T, a duração da vida de uma peça, tenha a seguinte . forma: Z(t) ( -j~ ' R é dada por R(t) ~ .. .. ~ 274 I ' PAOBABH.. iDADIE Camentário: A distribuição exponencial é um caso particular da distribuição de Weibull, já que obteremos a distribuição _exponenéial se fizermos {1 = 1 na Eq. (11.4). A Eq. (11.4) afirma a hipótese de que Z(t) ~o é uma constante, mas· ·é proporcional a potências de t. Por exemplo, se {1 · = 2, Z será uma função linear de t; se {J = 3, Z será uma função quadrática de t etc. Deste modo, Z será uma função crescente, decrescente ou constante de t, dep_!lpdendo do valor de {3, como está indicado na Fig. 11.5. Z(t) Z(t) Z(t) /3>1 il=l Z é constante Z é crescente 0</3<1 Z é decrescente Fig. 11.5 Teorema 11.4. Se a variável aleatória T tiver uma distribuição de Weibull, com fdp dada pela Eq.(11.5), teremos E(T) = a-l/III' ( ++ 1) , V(T)=a-2'~~ {r(~ +1)-[r(~ {11.6) +1)JJ {11.7) Demonstração: Veja o Probl. 11.8. Comentário: A distribuição de Weibull representa um modelo adequado para uma lei de falhas, sempre que o sistema for composto de vários componentes e a falha seja essencialmente devida à "mais grave" imperfeição ou irregularidade dentre um grande número de imperfeições do sistema. Também, empregando uma distribuição de Weibull, poderemos obter tanto uma taxa de falhas crescente como uma decrescente, pela simples escolha apropriada do parâmetro {3. Nós não esgotamos, de maneira alguma, o número de leis de falhas razoáveis. Não obstante, aquelas que apresentamos são, certamente, extremamente importantes enquanto representem modelos significativos para o estudo das características de falhas de .componentes ou sistemas de componentes. 11.6. Cónfiabilidade de Sistemas Agora. que já estudamos algumas distribuições de falhas importantes, nos dedicaremos à segunda questão proposta na Seç. 11.1: Como poderemos avaliar a confiabilidade de um sistema, se conhecermos a confíabilidade de seus coll1ponentes ?, Isto . poderá. cons- APLICAÇÕES À T1EOROA DA CONFiABOUIIJADE I 275 ;ã.o . I . na o.as· titui.r.-se em um problema muito difícil, e .somente estudaremos allgw:W casos simples (porém rela.tivamente jimporl!Wte!'J), . . el!l Suponha-se que dois compon~tes esteja.m ·montM.oo em séria: - me. mo . i Isso significa que, a fim de que o sistema funcione, ambos os compC=> nentes deveroo funcionar. Se, alé~ disso, admitirmos· que os com~ JPonentes funcionem indeperul.en.tem~te, poderemos obter .a oonfi.l!F lbilidade do sistema, R(t), .em termqs das confiabilidades dos comp0= · nentes, R1(t) e Rz(O, da seguinte màneira: R(t) l.6) .. 7) . I = > t) (onde T .é a d~ração até falhar do sistema) P(T1 > t e T2 > i) (o4de T1 e T 2 são as durações = P(T1 = P(T até falhar, dos componentes (Jl e c~, :re.S'pectivamente) > t)P(T2 > t) I = R1(t)R2(t). I Assj.m, achamos que R(t) :::; .min [RM, R2(t)l. Quer dizer, para um sistema formado de dois compone:h.tes independentes, em série, a conÍiabilidade do sistema é menor d~ que a confiabilidade de qualquer · de . suas partes. · 1· A · explicação acima pode ob'iamente ser generalizada para n componentes, e obteremos o seguiat{e teorema. compone~tes, 9.do ttes 9.de 1d0 TeorMna 11.5. Se n que funcionem independentemente, forem montados em série, ;e ·se o i-ési.ino componente tiver confiabilidade R;(t), então, a conftabilidade do sistema completo, R(t), será dada por .i R(t) nte ~is. or:ís- = I R1(t) · R2(~) ... R,(t). (11.8) Em particular, se T1 e T2 tiv~rem leis de falhas e:lg)onenciais com parâmetros a 1 e a2, a Eq. (11.8)1se torna . R(t) = e-a~te-a•' ! = e-(a,+a•>'. . I Em conseqüência, a fdp da duração ~té falhar do sistema, digamos T, será dada por I . •r1: es- j(t) = - R'(t) = (a1 ~ a2)e~(a,+a•) 1: Desta maneira, estabelecemos o seguinte resultado: · . ... . . Teorema 11.6. Se doiS I :\ compon~n~, . . "' que funCionem mdepen::dentemente e tenham leis de falhas '{xponenciais com parâmetros a 1 ·~ i ~I I • 276 I PROBABILIDADE e a2, ·forem .montados em série, a lei de falhas do sistema resultante será também exponencial com parâmetro igual a a1 + a2. (Este teorema pode, evidentemente, ser generalizado para n componentes em série:) , Exemplo 11.5. (Extraído de I. Bazovsky, Reliability Theory and Practice, Prentice-Hall, Inc., Englewood Cliffs, N. J., 1961.) Considere-se um circuito eletrôrilco constituído de 4 transistores de silício, 10 díodos de silício,· 20 resistores sintéticos e 10 ·capacitares cerâmicos, operando em série contínua. Suponha-se que sob certas condiÇões de trabalho, (isto é, tensão, corrente e temperatura prescritas), cada uma dessas peças tenha a seguinte taxa de falhas constante: díodos de silício: 0,000 002 transistores de silício: 0,000 01 resistores sintéticos: 0,000 001 capacitares cerâmicos: 0,000 002 Em virtude da taxa de falhas constante admitida, a distribuição exponencial representa a lei de falhas para cada um dos componentes acima. Devido à conexão em série, a duração até falhar para o circuito completo .será também distribuída exponencialmente com parâmetro (taxa de falhas) igual a 10(0,000 002) + 4(0,000 01) + 20(0,000 001 + 10(0,000 002) = 0,000 1. ·' . Portanto, a confiabilidade do circuito será dada por R(t) = e- 0•000 11• Assim, para um período de 10 horas de operação, a probabilidade de que o circuito não falhe será dada por e-o,oooi(lO) = 0,999. A duração até falhar esperida do circuito é igual a 1/0,000 1 = 10.000 horas . . Outro sistema importante é o sistema em paralelo, no qual os componentes são ligados ·de tal maneira que o sistema deixa de funcionar somente se todos os componentes falharem. Se apenas' dois componentes estiverem incluídos, o sistema pode ser esquematizado como está na Fig. 11.6. Novamente, admitindo que os componentes trabalhem independentemente um do outro, a confiabilidade do sis, tema, R(t); pode ser expressa em termos das confiabilidades çlos componentes R 1(t) e R2(t), da maneira seguinte: R(t) = P(T > t) = 1 - P(T :::; t) = 1 - P[T 1 :::; t e T 2 :::; t] = 1 - P(T 1 :::; t)P(T2 :::; t) 1 - {[1 - P(T1 > t)][l - P(T2 = 1 - [1 - ·R1(t)] [1 - R2(t)] = R1(t) + R2(t) - R1(t)R2(t). = > . t)] } APliCAÇÕES À TEORIA-DACONfiABiUDADE I Z77 A última forma indica que R(t) ;:::: máximo [R 1(t) , R 2 (t)l. Isto é, um sistema composto de dois componentes em paralelo, que funcionem independentemente, será de· maior confiança que qualquer dos componentes. To_das as idéias expostas acima para dois componentes podem ser generalizadas no seguinte teorema: Teorema 11.7. Se n componentes, que funcionem independentemente, estiFig. 11.6 verem operando em paralelo, e se o i-ésimo componente tiver confiabilidade R1(t), então a confiabilidade do sistema, R(t), será dada por R(t) = 1 - [1 - R1(t)][1 - R2(t)l· · · [1 - Rn(t)]. ·. (11.9) Freqüentemente acontece que todos os componentes têm igual confiabilidade, digamos R;(t) = r(t) para todo i. Neste caso, a expressão acima ficará R(t) = 1 - (1 - r(t)]n. (11.10) Vamos considerar, em particular, pois componentes em paralelo, cada -um com duração até falhar exponencialmente distribuída. Então, Portanto, a fdp da duração até_falhar do sistema paralelo, T, será dada por Conseqüentemente, T não será exponencialmente distribuída. valor esperado de T é igual a O Enquanto a operação .em sene é, ~reqüeritemente obrigatória (isto é, alguns componentes devem funcionar_ a fim de que o sistema funQ cione), empregamos muitas vezes uma operação em paralelÓ de modô a aumentar a confiabilidade do sistema. O exe~p) lo seguinte ilustra _o assunto. \_ 278 I PROBABiLIDADE Exemplo 11.6. Suponhil.mos quE) três unidades sejam operadas em paralelo. Admita-se que todas tenham a mesma taxa de falhas constante a = 0,01. (Isto é, a duração até falhar de cada unidade é exponencialmente distribufda com parâmetro a = 0,01.) Portanto, a confiabilidade de cada unidade é R(t) = e- 0 •011, e, por isso, a . confiabilid~de para um periodo de operação de 10 horas é igual a e- 0• 1 = = 0,905 ou cerca de 90 por cento. Quanto de melhoria poderlamos obter (em termos de aumento de confiabilidade) pela operação de três dessas unidades em paralelo ? A confiabilidade de três unidades operando em paralelo por 10 horas seria R(lO) = 1 ...., [1 - 0,905)3 = 1 - 0,000 86 ,. ) = 0,999 14, ou cêrca de 99,9 por cento. Na Fig. 11.1 vemos as curvas de confiabilidade para a unidade isolada e, também, para três unidades em paralelo. Para a unidade isolada, R(t) = e-"1, enquanto para as três unidades em paralelo, R(t) = 1 -:- (1 - e-" 1) 3, com a = 0,01. R(t) 0,999 0,9 lO 50 100 200 300 400 Fig. 11.7 Até aqui estudamos apenas as maneiras mais simples de combinar unidades · individuais em um sistema, ·a saber, as operações de componentes em série e em paralelo. Há várias outras maneiras de combinar componentes, e apenas arrolaremos algumas delas. (Veja a Fig. 11.8.) Algumas das questões que surgem em relação a es~as combinações serão consideradas nos problemas ao fim do capítulo. (a) Séries em paralelo. (Aqui estudamos grupos paralelos de componentes, como em um . ci~cuito, por exemp1o, cada grupo· con~ tendo m componentes em série.) (b) Paralelos em série. (c) Sistema de reserva. Aqui consideramos dois componentes, o segundo dos quais fica "de reserva" e funciona se, e somente se, o APUCAÇÕES À TEO~iA IDA COi\!fHABiUDAIOE I 279 lasa, primeiro componente falhar. Neste o segundo oomponenoo arranca (instantaneamente) e funcionm lno lugar do primeiro oompo' nente. (~) Séries em paralelo (b) Paralelos em série !Fig. 1U I I io. Vamos, ~&umidamente, explicar conceito de jaw ·de seg~ Suponha-se que o esforço S aplicado a uma estrutura seJa considerado unia variável aleatória (continua). De modo análogo, a resistência da estrutura, R, pode tilmbém ser . considerada uma variável aleatória contínua. DefinimoJI o fator de segurança como . o quociente de R por S, 1 ra11{a. I T =R/S. I Se R e S forem variáveis aleatóriM iJdependentes, com fdp g e h, • . I . respectivamente, então a fdp de T será. \fada por j(t) I - ~- ·1· -~~~~· . ;'~~ :;§ ~ :.·!: . ~: . I = ("' g(ts)h(s)s ds. Jo 1 (Veja o Teor. 6.5.) Ora, a estrutura rufrá se S >R~ isto é, se T < L Conseqüentemente, a probabilidade de !ruir é Pr = fc/ j(t) dt. l?robiema~s I ~ 1.1. I • I Suponha que T, a duração até fe.IJ:tll.l' de uma peça, seja normalmente distribuída com E(T) = 90 horas e desvi01-paÍlril.o 5 horas.' Quantas l horas de 'operação deverão ser consideradas, a fim. de sei achar uma confiabilidade de 0,90; ~~~W? . I .·· 11.2. Suponha que a duração da ·vida de, um dispositivo eletrônico seja exponencialmente distribuída. Sabe-se que a cot;tfiabilidade desse dispositivo (para um período de 100 horas de operação) é de 0,90. Quantas horas de operação <.levem ser levadas em conta para ccin5eguir-sel uma confiabilidade de 0,95? !' I 11.3. Suponha que a duração da vida de ium dispositivo renhe. uma taxa de falhas constante Co para O < t <to e uma diferente taxa de falhas constante C1 para t ~ to. Obtenha a fdp de T, a duração aM falhar, ./esboce seu gráfico. ôt.·lit:·'.,.'· ~~~·-·. IÍi;;" - - I \._) - . . . 280' I PROBABIUOADE ~ 1.4. Suponha que a taxa de falhà.s Z seja dada por Z(t) =O, =C, <A, O< t t 2:: A. (Isto significa q\l(l nenhuma falha ocorre antes que T = A.) (a) Estabeleça a fdp associada a T, a duração até falhar. Calcule E(T). (b>) 11.5. Suponha que..- a lei de falhas de um componente tenha a seguinte fdp: j(t) = (r+ l)Ar+1j(A + t)<+2, t ..1 >o. (a) Para quais valores de A e r, essa expressão é uma fdp? (b) (c) Obtenha a expressão da função de confiabilidade e da função :.O.e riSco. Verifique que a função de risco é decrescente com _t. 11.6. Suponha que a lei de falhas de um componente seja uma combinn.ç.ã o linear de k leis de falhas exponenciais. Quer dizer, afdp da duração até falliar é dada por k j(t) = L Cj{3;-e-fJjt, t >o, {3j >o. i=i (a) Para quais valores de Cj a expressão acima é uma fdp? (b) Obtenha .ú.ma expressão para a função de confiabilidade e a função de risco. (c) .Obtenha a expressão da duração até falhar esperada. · (d) Responda (b) e (c), quando {3j = {3 para todo j. 11.7• . Cada uma das seis válvulas de um radiorreceptor tem uma duração de vida (em anos) que pode ser considerada como uma variável aleatória. Suponha que essas válvulas funcionem independentemente uma da outra. Qual será a probabilidade de que nenhuma válvula tenha de ser substituída, durante os dois primeiros meses de serviço se: (a) A fdp da duração até falhar for j(t) A fdp da duração até falhar for j(t) (b) ~1.8. = 50te-25 '', t = 25te-2 5t, t > O? > O? Demonstre o Teor. 11.4. 11.9. A duração da vida de um satélite é uma variável aleatória exponencialmente distribuída, com d\rração da vida esperada igual a 1,5 anos. Se trêS desses ~atélites forem lanÇados simultaneamente, qual será a probabilidad~ de que ao menos dois deles ainda venham a estar em órbita depois de 2 anos ? !i=ig. 11.9 1i .1 O. Três componentes, que funcionem independetemente, são ligados em um sistema único, .como está indicado na Fig. 11.9. Supo-nha que. a coufiabilidade de cada um dos componentes, para um período de operação de t horas, seja dada por R(t) = e-0,031. Se T for a duração até falhar do sistema completo (erri horas), qual será a fdp de T? Qual será a confiabilidade do sistema? . Como ela se compara com e-0,oa1 ? ·!) AIP'IUICAÇÕIES À 1f'IEOIRDA DA ICOi\lfHAIBHUDADIE I 28~ 11 . H. Suponha que n componentes, que funcionem independentemente, sejam ligados em série. Admita que a duração até falhar, de Cl!.da componente, s~ja normalmente distribuída, com expectância de 50 horaB e desvío-pa.drão 5 horas. (a) Se n = 4, qual será. a probabilidade de que o siStema ainda esteja a funo cionar depois de 52 horaB de operação? (b) Se n componentes forem instalados em paralelo, qual .deverá ser o valor de n, para que a probabilidade de falhar durante as primeiras 55 horas seja aproximadamente igual a 0,01? i1.1.2. (Extraído de Derman & Klein, Probability and Statistical Injerence, Oxrord University Press, New York, 1959.) A duração da vida (L), em meses, de uma dada válvula eletrônica empregada em aparelhos de radar, foi verificada ser exponencialmente distribuída com parâmetro f3 = · 2; Ao executar seu programá de manutenção preventiva, ·uma: companhia quer decidir qua.ntos meses (m) depois de sua instalação, cada válvula deverá ser substituída., para tornar mínimo o custo ·esperado por válvula. O custo por válvula "(em dólares) Eerá denotado por C. O m!J,is curto período utilizável de tempo de.corrido entre a instalação e a .substituição é 0,01 do mês. Sujeito a essa restrição, qua.l o valor de -m que torna mínimo E(C), o custo esperado, em ca.da uma das seguintes .situações, onde o custo C é a men()ionada função de L e. m? (a) C(L, m) (c) = 3 JL- mJ. (b) C(L, m) = 2 se L < m, = 5(L - m) se L 2:: m. C(L, m) = 3 se L = 5(L - m) < m, se L 2:: m. {Em cada c!i.so, ·esboce o gráíico de E(C), como função de m.] Comentário: Evidentemente, C é uma variável aleatória, porque é uma função de L, a qual é uma variável aleatória. E( C) .é 1.llna funçao de m, e o problema apenas pede para determinar aquele valor de m que torne mínilllo o valor esperado 2:: 0,01. . E(C), sujeito à restrição de que m 11.13. Suponha que a taxa de falhas, associada com a duração da vida T de uma peça, seja. dada pela seguinte função Z(t) = Co, = Co O_:::; t < to, to), t 2:: 4J. + C1(t - COmentário: Isto representa outra generalização da distribuição e~ponehcial. A .expressão acima se reduz à taxa de falhas constante (e, por isso, à distribuição o. exponencial) se cl = (a) Estabeleça a fdp de T, a. duração até falhar. (b) Estabeleça a expressão da eonfiabilidade R(t) e esboce seu gráíi~o. 11.14. Suponha que cada um de três dispositivos eletrônicos tenha uma lei de falhas dada por urna distribuição expmi.encial, com parâmetros f111 /32, fJ 1, respectivamente. Suponhu, que esses três dispositivos funciopem independentemente e estejam ligados em paralelo· par!)- formarem um único sistema. (a) Estabeleça a expressão de R(t), a confiabilide,de do sistema. (b) Estabeleça a expressão da fdp de T, a duração até falhar !lo sistema. · Esboce o gráíico da fdp. (c) Calcule a duração até falhar esperada do sistema. o 282 l PROBABI"LIDADE . 11.15. (a) Suponha que n componentes sejam ligados em série. A seguir, k . dessas conexões em série são ligadas em paralelo para formar um sistema. completo. (Veja a Fig. 11.10.) Se todoo os componentes tiverem a mesma confiabilidade, !Fig. 11.10 R, para um dado período de operação, determine a exp~ da confiabilidade do sistema cqmpleto (para o mesmo período de operação). (b) Suponha que cada um dos componentes· acima obedeça a uma lei de falhas exponencial, com taxa de falhas 0,05. Suponha, também, que o tempo de operação seja 10 horas e que h = 5. Determine o valor de k, de maneira que a cmifiabilidade do sistema completo seja ígual a 0,99. 11.16. Suponha que k componentes sejam ligados em paralelo. Em seguida, n dessas conexões em paralelo são ligadas em série, formando um único sistema. (Veja a Fig. 11.11.) Responda a (a) e (b) do Probl. 11.15, para esta · situação. !Fig. 11.11 11.17.. Suponha que n componentes, todos com a mesma taxa de falhas oon8tante 'À, sejam ligados em paralelo. Estabeleça a expressão da duração até falhar esperada, do sistema resultante. 11.18. (a) 9 sistema de propulsão de uma aeronave é constituída de três motores. Supo;ma que a taxa de falhas constante de cada motor seja À = 0,000 5 e que cada motor falhe independentemente dos demais. Os motores são montados em paralelo. Qual será a cqnfiabilidade deste sistema de propulsão, para uma missão que exija 10 horas, quando ao menos dois motores devam sobreviver? (b) Responda à questão acima, para uma missão que exija 100 horas; i.ooo horas. (Este ·problema está sugerido por uma explanação incluída em I. Bazovsky, Reliabilily Tlieory and Pradice, Preritice-Hall, Inc., EnglE:ow~ Cliffs, N. J., 1961.} p.19. Considere os componentes A, A', B, B' e C ligados da maneira indicada nas Figs. 11.12 (a) e (b). (0 componente C pode ser considerado como uma "defesa", quando ambos A e B deixarem de funcionar.) Representando '!!: confiabilidadés dos componentes isoladamente porRA, RA'• RB, RB' e Rc (e admitindo que os componentes funcionem independentemente um do outro), obtenha a expressio da confiabilidade do sistema completo, em cada uma dessas situações. . i . APLICAÇOES A TÇORIA DA CONIFIABI LI O ADE I 283 I i I [Sugestao: No segundo caso, Fig. 11.12(p), empregue relações de probabilidade condicion&da.) I I Fig. 11;.12 11.20. Admitindo que todos os componentes incluídos no Probl. 11.19 tenham a mesma taxa de falhas constante. À, estabeleÇa a expressão da .confiabilidade R(t) do sistema apresentado na Fig. 11.12(b). Determine, também, a duração até falhar média, desse sistema. · 11.21. O componente A tem .confiabilidade 0,9, quando utilizado para dada finalidade. O componente B, que pode utilizado em lugar do componente A, tem confiabilidade de somente 0,75 . . Qual kerá o número mínimo de componentes do tipo B, que se terá ·de ligar e~ 'paralelo, Ide maneira a atingir a mesma confiabi. !idade que tem o co~ponente A sozinho? I ' set I . . 11.22. Suponha que dois componen$; que funcionem isoladamente, cada um deles com a mesma taxa de falhas consta!nte, sejam ligtj.do5 em paralelo. Sendo T a duração até falhar do sistema resultant~, estabeleça a fgm de T. Determine, . I também, E(T) e V(T), empregando a fgm.i · . . 11.23. Toda vez que consideramos sistema composto por vários componentes, admiÚmos sempre que os com~onentes funcionassem independentemente ·Um do outro. Essa sup,osição simPlificou consideravelmente nossos cálculos. N.o entanto, ela poderá não ser sempre uma hipótese realista. Em muitas situações,v sabe-se que o desempenho de um !componente pode iniluenciar o desempenho de outros. · Este é, em geral, um p~. oblema muito. difícil de se abordar, e examinaremos aqui, apenas um caso ·p~rticular. Suponha-se, .esPecificamente, que dois componentes C 1 e C2 sempre falhefn. juntos. Quer dizer, Ci falhará se, e somente se, c2 falhar. V;;rrifique que, neste caso, P(Cl falha e c2 falha) = P(Cl falha) = P(C2 falha). um I 1 ~cc 3 • • · ·Cc·.- ·. .·.:.. . 11.24. Considere quatro componentes l cb · Çz, Ci e c. Ligados da maneira indicada ! na . ~ Fig. 11.13. Suponha q1.1e os componentes !UU:cionem independentemente um do outro, f'm Fig. 11.13 éxceção de . C1 e C2, qmi falham juntamente; como foi explicado no Probl. 11.23. Se T;, ia dmação até falhar do componente C;, for exponencialmente distribuída com pa_râmetro /3;, obtenha a confiabilidade R(t) do sistema completo. Obtenha tamb~~ a fdp de T, a. .duração até falhar do sistema. ·I 11.25. Considere. o mesmo sistema. a.ptesentado nó Probl. ll.Ú, exceto q~e agora os componentes C1 e C3 falham conjuntamente. Responda· às perguntas do Probl. 11.24. .. ' ~ o ! - - -- - -- - - - - - - - - - Somas . de Variáveis Aleatórias Capítulo 12 12:1. Introdução Neste capítulo desejamos tornar mais precisas algumas idéias· a que apenas fizemos referência por todo o texto. A saber., à medida que o número de . repetições de um experimento cresce, a freqüêncil1 relativa }A de algum evento A converge (em um sentido probabilístico a ser explicado) para a probabilidade teórica P(A) . É este fato que nos permite · "identificar" a freqüêncià relativa de um evento, baseada em um grande número de repetições, com a probabilidade · do evento. Por exemplo, se uma nova peça for produzida e não tivermos conhecimento anterior sobi·e quão provável será que a peça seja defeituosa, poderemos proceder à inspeção de uin grande número dessas peças, digamos N, contarmos o número de peças defeituosas dentre elas, por exemplo n, e depois empregarmos nfN como uma aproximação da probabilidade de que uma peça seja defeituosa. O número n/N é uma variável aleatória, e seu valor depende essencialmente de duas coisas. · Primeira, o valor de n/N depende da probabilidade básica (mas presumivelmente desconhecida) p de que uma peça seja defeituosa. Segunda, 'rL/N depende · daquelas N peças · que tenham sido inspecionadas. O que· iremos mostrar é que se a técnica de selecionar as N peças f?r "aleatória", então o quociente n/N será próXimo de p (em sentido a ser explicado). (Evidentemente, a seleção aleatória das N peças é importante. Se fôssemos escolher somente aquelas peças que exibissem algum defeito fisico exte~o, por ~xemplo, poderíamos prejudicar seriamente nos~os cálculos.) ·12.2. A Lei dos Grancles Números Com o auxílio da desigualdade de Tchebycheff, Eq. (7.20), esta- · remos aptos a deduzir o resultado menCionado acima. Agora, vamos SOMAS IDJIE VARDÃVIEOS AliEATÓIF!DA.S I 285 apreciar um exemplo. Suponha-se que um mfssil guiado tenha a probabilidade 0,95 de func'ionar adequadamente durant0 um certo período de operação. Conseqüentemente, se ·soltarmos N infsseis que tenham a confiabilidade mencionada, e se X for o número de mísseis que não fU.ncionem adequadamente, teremos E(X) = 0,05N, porque poderemos admitir que X seja binomialmente distribuída. Isto é, esperaríamos que cerca de 1 nússil em cada 20 viesse a falhar. À medida que N, o número de nússeis lançados, crescer, X, o número total de misseis falhados dividido por N, deve convergir, de algum modo, para o número. 0,05. Este importante resultado pode ser enunciado de ni:odo mais rigoroso como a Lei dos Grandes Números. A Lei dos Grandes Números (Formulação de Bemouilli). Seja 8, um experimento e seja A um evento associado a 8. Considerem-se n repetições independentes de 8, seja nA o número de vezes em que A ocorra nas n repetições, e façamos iA = nA/n. Seja P(A) = p (a qual se admite seja a mesma para todas as repetições). Então, para todo número positivo e, teremos Prob [iJA- Pi ~e)~ p(l- p) ne 2 ou, equivalentemente, Prob liJA-Pi <d~l- p(l -p) n<Ez (12.1) Demonstração: Seja nA o número de vezes que o evento A ocorra. Esta é uma variável aleatória binomialmente distribuída. Então, E(nA) = np e V(nA) = np (1 - p). Mas iA = nA/n e, por isso, E(JA) = p e V(JA) = p(l - p)fn. Aplicando a desigualdade de Tchebycheff à variável aleatória f A, obteremos . p[ Seja e = k V IJA - pI < p) ] 1 k~ '·. p(l~ 1- n Jc2. p(l - p )jn. Logo, k 2 = (ne 2)/[p(l - p)l, e por isso P[UA - p l <e);:::l - p(l - p) . ne 2 Comentários: (a) O resultado acimA pode ser enunciado de muitas maneira.-; :1!: evidente que isto acarreta imediatamente que ' equivalentes. lim P[JfA - pi < ~ 1 = ......... 1 para todo <! > O. 11: nesse sentido que dizemos que a freqüêncie.- r-elativa iA "converge" para P(A). u . 286 I PROBABiUDADIE (b) 1l: importante salientar a diÚrença entre a convergência referida acima (denominada ronvergência ~ probabilidade). e o tipo de convergência freqüentemente mencionada em Cálculo Infinitesimal. Quando dizemos que 2-n converge para zero quando n --> co, queremos dizer que pa:ra n suficientemente. grande; se torna e permanece arbitrariamente próximo de zero. Quando dizemos que !A. =· nAfn converge para P(A), queremos dizer que a probabilidade do evento z--n { inAfn- P(A) I < el pode se tornar arbitrariamente próxima da unidade, ao se tomar n suficientemente grande. (c) Ainda uma outra forma da Lei dos Grandes Números é obtida quando nos fazemos a seguinte pergunta: Quantas repetições de & deveremos realizar, a fim de termos uma probabilidade de ao menos 0,95, para que a frequência re~ lativa difira de p = P(A) por menos do que, digamos, 0,01? Isto é, para E = 0,01 desejamos escolher n, de n;;_odo que 1 - p(1 - p)/[n (0,01)2] = 0,95. Resolvendo em relação a n, obteremos n = p(1 - p)/(0,01)2 ((),05). Substituindo os valores específicos de 0,05 e 0,01 por 8 e E, respectivamente, teremos P[IJA- Pi · <d~ 1- ô sempre que n . 2': P(1 ; p) . eô Também se deve salientar que ao tomar-se n ~ p(1 - p)fe2 ô nada se garante quanto a liA- Pi· Apenas se torna prová~el que itA·-' Pi venha asermuitopequeno. Exemplo 12.1. Quantas vezes deveremos jogar um dado equilibrado, de maneira a ficarmos ao menos 95 por cento certos de que a freqüência relativa de tirarmos ·um seis, fique a menos de ·!0,01 da probabilidade teórica 1/6 ? Aqui, p = 1/6, 1 - p = 5/6, E = "0,01 e o = 0,05. Portanto, da relação acima, encontramos que n ~ (1/6)(5/6)/(0,01) 2 (0,05) = = 27.778. Comentários: (a) Recordemo-nos de que f A é uma variável aleatória e não apenas um valor observado .. Se realmente jogarmos .fun dado 27.778 vezes, e · depois calcularmos a freqüência relativa de tirarmos um seis, este número estará ou não a menos de 0,01 de 1/6. ' O essencial do exemplo acima é que, se fôssemos jogar um dado 27.778 vezes em cada uma de 100 ocasiões, em cerca de 95 dessas ocasiões, a freqüência relativa observada estaria a menos de 0,01 de 1/6. (b) Em muj.tos problemas, não conhecemos o valor de p = P(A) e, por isso, não poderemos empregar o limite de n acima. Nesse caso, poderemos empregar o fato de que p(1 - p) toma seu valoi: máximo quando p = 1/2, e esse valor máximo é igual a· 1/4. Conseqüentemente, estaremos é'ertamente do lado seguro se afirmarmos que para n ~ 1/4e2 ô teremos P[IJA - pI < el ;:::: 1 - 8. Exemplo 12.2. Peças são produzidas de tal maneira que a probabilidade de uma peça ser defeituo'sa é p (admitida desconhecida). Um grande número de peças, digamos n, são classificadas como de- SOMAS 9E VARIÁVEIS ALEATÓRIAS I 287 I i {eituosas ou perfeitas. Que valor ddverá ter n de maneira que pos1 • . samos estar 99 por cento certos de que a freqüência relativa de defeituosas difere de p por menos de o,p5? I Porque não conhecemos o valor de p, deveremos aplicar a última forma enunciada da Lei dos Grandes Números. Assim, com e= 0,05, I 2 ô = 0,01, encontraremos que se n; 2::: 1/4(0,05) (0,01) = 10.000, a . I. condição exigida estará satisfeita. ' I Como em nosso exemplo para à desigualdade de Tchebycheff, deveremos concluir que conhecimento adicional sobre a distribuição de probabilidade nos dará uma f0rmulação ~ 'melhorada". (Po~:_ exemplo, poderemos lançar mão de um número menor de repetições e ainda formular a mesma proposição referente à proximidade de }A par p.) . . . . \ Comentário: Outra formulação da Lei d~s Grandes Números pode ser obtida da seguinte maneira. Suponha~e que Xb .. Xn sejam variáveis aleatórias independentes, identicamente distribuídas, corlt média e variância finitas. Sejam E(X;) = p. e V(X;) = u2 • Defina~e X= ,(1/n) (X1 + ... +X~). Ora, X é wna .função de X 1, ••. , Xn, a saber,_sua médfa aritmética, e, por isso, é também uma variável aleatória. (Nós estudaremos esta variável aleatória com mais detalhe no Cap. 13. Por ora, diremos apenas 'que podemos pensar em X 11 .• . , Xn _ com mensurações independentes de uma ca~acterística numérica X, fornecendo a média aritmética X.) Das propriedades dai expectância e variância, l temos ime• I diatamente, E(X) = p. e V(X) = u2fn. Apli9-uemos a des~gualdade de Tchebycheff à variável aleatória X: !., I _ ku ] 1 P.[ IX-p.J < Vn :2: 1-k2· Façamos ku/Vn = ~. Então, k - = vn E/O" P[\Xp.\ < el:2: i . ei podemos escrever ' u2 1-; -2 i En • (12.2) I À medida que n -> CXI, o segundo membro da desigualdade acima tende para a unidade. 11: neste sentido que a média aritrltética. "converge" para E(X) . l Exemplo 12.3. Um grande núm~ro de válvulas eletrônicas é teStado .. Seja T; a duração, .até falha~, da i-:ési~a válvula... SupoI nha-se, também, que todas as válvulas provenham da mesma reserva e também admitamos que todas sej~m exponencialmente distribuídas com o mesmo parâmetro pt. i Conseqüentemente, E(T;) = a- 1• \Seja T = (T 1·+ .. ~ +Tn)/n. A forma enunciada acima da Lei dos Grandes Números diz que se n for grande, será "muito provável" que jo valor obtido para a média · aritmética de um grande número de doaiões até falhar seja próximo ~a~. r 288 I PROBABiliDADE A Lei dos Grandes Números, como foi enunciada acima, relaciona-se essencialmente com a variável aleatória X binomialmente dl~­ tribuída, porque X foi definida como o número de sucessos em n repetições independentes de um experimento, e precisamos apenas associar "sucesso" com a ocorrência do evento A, a fim de reconhecermos essa relação. Assim, o resultado acima pode ser enunciado, não rigorosamente, dizendo-se que à medida que o número de repetições de um experimento crescer, a freqüência relativa de sucesso, X/n, convergirá para a probabilidade de sucesso p, no sentido indicado anteriormente. Contudo, saber-se que Xfn será "próximo" de p, para n grande, não nos diz como essa "proximidade" é alcançada. Com o objetivo de investigar este assunto, deveremos estudar a distribuição de probabilidade de X, quando n for grande. Por exemplo, suponha-se que um processo de fabricação produza arruelas, cerca de 5 por cento das quais são defeituosas (por exemplo, muito grandes). Se 100 arruelas forem inspecionadas, qual será a probabilidade de que menos de 4 arruelas sejam defeituosas? Fazendo-se igual a X o número de arruelas defeituosas ~ncon­ tradas, a Lei dos Grandes Números apenas nos diz que X/100 será "próximo" de 0,05; contudo, não nos diz como calcular ,a probabilidade desejada. O valor exato dessa probabilidade é dado por P(X< 4) =~ e~o) (0,05)k (0,95) 10 (}-k. Esta probabilidade seria bastante difícil de calcular diretamente. Já estudamos um método de aproximação das probabilidades binomiais; a saber, a aproximação de Poisson. Examinaremos ; agora · outra importante aproximação dessas probabilidades, · a qual será aplicável sempre que n for suficientemente grande. Considere-se, a seguir, P(X = k) = G)pk(l - p)n-Tc. Esta probabilidade depende de n, de uma maneira bastante complicada,. e não fica evidente o que acontece à expressão acima se n for grande. Para estudarmos essa probabilidade, precisamos empregar a Fórmula ., de Stirlt'ng, uma aproximação bem conhecida de n! Esta fórmula diz que, para n grande, n! ~ V27r e-nnn+l/ 2, no sentido de que limn-.~ (n!)/(V27r e-nnn+J/ 2) (12.3) = 1. (Demonstração SOMAS DE VAII'UÁVIE9S ALEATÓRIAS ,_ LS I 28S desta aproximação pode ser encontrada na maioria dos manuais de Cálculo avançado.) A Tab. 12.1 pode dar .ao leitor uma idéia da precisão desta aproximação. Esta tabela foi extraída de W. Feller, Probability Theory and Its Applications, John Wiley and Sons, Xnc., 1st. Edition, New York, 1950. ~- o, iab. 12.1 e- o, li- le, >'0 de Diferença V27r énn,n+(lf2Í n! Diferença nl 1 2 5 10 1 2 120 (3,628 8)10 6 (9,332 6)10 157 100 0,922 1,919 118,019 (3,598 6)10 6 (9,324 9)10 157 0,078 0,081 1,981 (0,030 2)10 6 (0,007 7)10 157 0,08 0,04 . 0,02 ·o,oo8 0,000 8 za. lo, a m- C&mentário: Muito embora a diferença entre nl e sua aproximação cresça quando n ~ "'• o ·que é importante observar na Tab. 12.1 é que o erro relativo (última coluill!.) se torna cada vez menor. ~rá iii- te. 10- )ra · ~rá Empregando a Fórmula de Stirling aos vários fatoriais que aparecem na expressão de P(X = k), pode-se mostrar (depois de numerosas transformações), que para n grande, P(X = k) '= ~ (~) p"(l - Pl-1' 1 k - np ] exp (· - -1 [ v'21rnp(l- p) · 2 vnp(l - p) 2 ) . (12.4) Finalmente, pode-se mostrar que para n grande, sta ' ,,. e P(X :s:; k) = P [ X - np . Vnp(l - p) '"'-' _·_1_ __ - v 127r, < - k - np . ] Vnp(l- p) f_(k -np)fVnp(l-p ) _., e -1'/z dt. (12.5) Desta maneira, encontramos o seguinte resultado importante (conhecido como a aproximação de DeMoivre-Laplace, para a distribui_ção binomial): · o 290 I PROBABIUIJADE Aproximação normal_ da distribuição binomial. Se X tiver uma distribuição binomial com parâmetros n e p, e se y X-np [np(I-p)]l/2 ' então, para n grande, Y terá uma distribuição aproximadamenteN(O, 1), no sentido de que Esta aproximação será válida para valores de n > 10, desde que p seja próximo de 1/2. Se p for próximo de Oou 1, n deverá ser um tanto maior, para garantir uma boa aproximação. Comentários: (a) Este resultado não é apenas de notável interesse teórico, mas também de grande importância prática. Significa que poderemos empregar a distribuição normal tabulada extensivamente para avaliar probabilidades que surjam da distribuição binomial. (b) NaTab. 12.2, a precisão da aproximação da fórmula (12.4) é,,apresentada para diversos valores de n, k e p. ' Tab.12.2 n = S,.P = 0,2 k o 1 2 3 4 5 6 7 8 9 10 11 n=S,p=0,5 n=25,p=0,2 Aproximação Exata Aproximação Exata Aproximação Exata 0,130 0,306 0,331 0,164 0,037 0,004 0,168 0,336 0,294 0,147 0,046 0,009 0,001 0,005 0,030 0,104 0,220 0,282 0,220 0,104 0,030 0,005 0,004 0,031 0,109 0,219 0,273,. 0,219 0,109 0,004 0,024 0,071 0,136 0,187 0,196. 0,163 0,111 0,062, O+ O+ O+ O+ O+ O+ 0,009 0,027 0,065 0,121 0,176 0,199 0,176 0,121 0,065 0,027 0,009 0,002 O+ O+ O+ O+ O+ O+ O+ O+ O+ O+ O+ O,OJÍ 0,004 o,ozi 0,012 0,004; .. j SOMAS DIE \VARBÁVEBS AlEATÓRiAS I 291 I Voltando ao exemplo acima, obser~amos que E(X) = np = 100(0,05) = 5, = npq V(X'; - p) = 4,75. Dal podermos escrever .= (0-5 X-5 3-5) V4,75 _:: ; V4,7s _:: ; -v4,7s P(X _:::; 3) P = c:I>(-0,92)- c:I>(J 2,3) = 0,168, das tábuas du distribuição normal. I Comentário: Ao empregar da aproximação normal à distribuição binomial, estaremos aproximando a distribuição de uma \variável aleatória discreta com a distribuição de uma variável aleatória contínu~. Por isso, algum cuidado deve ser tomado com os pontos extremos dos intervalos considerados. Por . exemplo, pam uma variável aleatória contínua, P(X = .3)\ = Q, enquanto para uma variável I ' aleatória discreta esta probabilidade pode ser n+o nula. As seguintes correçiles de continuidade melhbram a aproximação acima: . (a) . I 1 1') P(X = k) ::::: P (k - 2.:S X .:S k + 2\ , P(a .:S X .:S w::~ P (a- -4- .:S X .:Si t b) . . I (h) Empregando esta última correção para a avaliaÇão de P(X ~ 3), teremos P(X .:S 3) = P(O .:S X .:S 3) = P (1- +.:S X .:S 3 +) : : : <t>c- o,69) - <I><- z,53) = o,z39. I Exemplo 12.4. Suponha-se que um j sistema seja formado por 100 componentes, cada um dos ·quais tenha confiabilidade igual a 0,95. (Isto é, a probabilidade de que o \ componente funcione adeq)ladamente durante um período especif~cado é igual a 0,95.) Se esses componentes funcionarem independentemente um do outro, e se o sistema completo funcionar adequa~amente quando ao menos 80 componentes funcionarem, qual será a! confiabilidade do sistema? Fazendo o número de componentes jque funcionem igual a X, deveremos calcular I P(80 _:::; X .:::; 100). e I :,:,' 1 ~ J' 111 I 292 I f'flOBABIL!IJADE Temos E(X) = 100(0,95) = 95; V(X) = 100(0,95) (0,05) empregando a cQrreção de continuidadé, obteremos P(80 :::; X :::; 100) C!:! P(79,5 :::; X :::; 100,5) =P ( C!:! = 4,75. Daí, 79,5 -- 95 . 2,18 <1>(2,52) - < _X_-_95_ 2,18 :::; 100,5 - 95 ) - .:JI(- 7,1) 2,18 = o, 994. 12.4. O Teorema do limite Central A aproximação · acima constitui apenas um caso particular de ·um resultado geral. Para compreendermos isso, vamos recordar que a variável aleatória X binomialmente distribuída, pode ser :representada como a soma das seguintes variáveis aleatórias independentes: X; = 1 se ocorrer sucesso na i-ésima repetição; O se não ocorrer sucesso na i-é~ima repetição. ·Portanto, X= X 1 + X 2 + ... + Xn. (Veja o Ex . . 7.14.) Para està variável aleatória, já mostramos que E(X) = np, V(X) = np(l- p) e, além disso, que para n grande, (X- np)/Vnp(1-p) tem a distri:.. buição apro~imada N(O, 1). Se uma variável al~atória X puder ser representada pela soma de quaisquer n varidveis aleatórias independentes (que satisfaçam a determinadas condições que valem na maioria: das aplicações), então esta soma, para n suficientemente grande, terá distribuição aproximadamente normal. Este notável resultado é conhecido como o Teorema do Limite Central. Um dos enunciados desse teorema pode . ser apresentado da seguinte maneira: Teorema do Limite Central. Seja X 1 , X2, ... , Xn, . . . uma seqüência de variáveis aleatórias independentes, com E(X;) = J.l; e V(X;) = cr; 2, i= 1, 2, . . . Façamos X= X 1 + X 2 + ... + Xn . . Então, sob determinadas condições gerais (que não enunciaremos aqui), L7=IJ.li ~ L,;=I cr;2 X- tem aproximadamente a distribuição N(O, 1). Isto é, se Gn for a fd da variável aleatória Zn, teremos que Iimn__,., Gn(z) = <l>(z). SOMAS DE VARRÃVIEDS AlEATÓROAS I 293 Comenió.rioo: (a) Este teorema constitui uma evidente generalização da apro- ximação de DeM:oiVTe-Laplace, porque as variáveis aleatórias independentes Xi, que tomam somente os valores 1 e O, foràm substituídas por. variáveis aleatórias que possuam qualquer espécie de distribuição (desde que tenham expectância finita e variância finita). O fato de que as variáveis Xi possam ter (essencialmente) qualquer espécie de distribuição, e também que a soma X= X 1 + ... +Xn possa ser aproximada por uma variável aleatória normalmente distribuída, constitui arazão fundamental da importância da distribuição normal na teoria da probabilidade. Conclui-se que, em muitos problemas, a. variável aleatória em estudo poderá ser representada pela soma de n variáveis aleatórias independentes e, conseqüentemente, sua distribuição poderá ser aproximada pela distribuição normal. Por exemplo, o consumo de eletricidade em uma cidade, em uma época qualquer, é a soma das procuras de um grande número de consumidores individuais. A quantidade de água em um reservatório pode ser pensada .como o resultado da soma de um grande número de contribuições individuais. .E o erro de mensuração em um experimento físico é composto de muitos erros pequelios, não observ&veis, oo quais podem ser admitidos como aditivos. O bombardeamento moleet~lar, que uma partícula suspensa em um líquido está sofrendo, acarreta seu des]ocamento em uma direção aleatória e com magnitude aleatória, e sua posição (depois de um período de tempo especificado) pode ser considerada como a soma de deslocamentos separados. (b) As condições gerais, mencionadas no enunciado do Teorema do Limite Central acima, podem ser resumidas da. seguinte maneira: Cada parcela na soma contribui com um valor sem importância para. a variação da soma, e é muito improvável que qualquer parcela isolada dê uma contribuição muito grande para a soma. (Os erros de mensuração parecem ter essa característica. O erro final que eometemos pode ser representado como a soma de muitas contribuições pequeDJ!S, nenhuma das quais influi muito no erro total.) (c) Nós já estabelecemos (Teor. 10.5) que a soma de um número finito qualquer de variáveis aleatórias independentes normalmente distribuídas ·é também nonnalmente distribuída. O Teorema do Limite Central afirma que as parcelas não necessitam ser normalmente distribuídas, para que a soma seja aproximad.e. por uma distribuição normal. (d) Nós não poderemos demonstrar o teorema acima, sem ultrapassarmos o nfvel pretendido de apresentação. No entanto, há um caso particulár, importante, deste teorema, que enunciaremos e para o qual poderemos dar, ao menos, uma indicação da demonstração. Teorema 12.1. Sejam X1,., ., Xn, n vanaveis aleatórias independentes, todas com a mesma distribuição. Sejam J1. ~ E(X;) e a- 2 = V(X;) a expectância e a variância comuns. Façamos = :E:=I X;. Então, E(S) = nJJ. e V{S) = nu 2, e teremos, para n grande, que T,. = (S- nJJ.)/Vn ~ te;á aproximadamente a ·distribuição N(O, 1), no sentido de que lim,._,, P(T,.::::;; t) = «fl(t). S Demonstração (esboço): (O leitor faria bem de recordar os conceitos fundamentais da fgm apresentados no Cap. 10.) Seja M a fgm 294 I PROBABILIDADE (comum) das X;. Já que as X; são independentes, Ms, a igm de S, será dada por Ms(t) = [.lll(t)]n, e como Tn é uma funçãolinear de S, a fgm de Tn será. dada por (empregando-se o Teor. 10.2) MTn(t) = e-<Vn~A/00>1 [ M( V~IY )T· Portanto, -v;_:;; ln MT,,(t) = }lo t + n ln M ( V:1T )- (Observemos, neste ponto, que a idéia da demonstração consiste em investigar MTn(t), para valores grandes de n.) Vamos desenvolver M(t) em série de Maclaurin: M(t) = 1 + M'(O)t + M"~O)t2 + R, onde R é o resto da série. = Jl.2 + u2, obteremos M(t) Recordando que M'(O) = Jl. e M"(O) = = 1 + p.t + (p.2 + u2)t2 + R. 2 ConSeqüentemente, .· ln MT (t). =- "' .y:;; p.t u. p.t + n ln [ 1 + .y;; u + (p.2 + u2)t2 2nu 2 +R ] · Agora empregaremos o desenvolvimento de l\1aclaurin para ln (1 + x}: ln (1 + x) = x - x2 2 - xl + -3 + ··· > (Este desenvolvimento será válido para x= Jl.l -I v nu + (p.2 Ix I < 1. + u2)f2 2 nu 2 Em nosso caso +R; e para n suficientemente grande, o valor absoluto desta expressão ser& menor do que a unidade.) Assim, obteremos ln MT,(t) = - V:;;,Jl. + n [( v_ if!_ + (p.2 + o- 2 ~ +R)G" .n u 2nu 2 . Jl.f + (JI.2+ .u2) --+R .t2 )2 + --21 ( --vnu 2nG" 2 ] .... SOMAS 9E VARIÁVEIS ALEATÓRIAS I 295 I Já que estamos apenas esboça~do os passos principais da demonstração, sem darmos todos os !detalhes, vamos omitir algumas I transformações algébricas e somente dizer aquilo que estamos fazendo. Nós desejamos estudar a e~ressão acima [ln MTn(t)] quando n - t oo. Qualquer termo que ten?-a uma potência positiva de n no denominador (tal como n- 112, jpor exemplo) tenderá para zero quando n - t co • Também se pode mostrar que todos os termos que incluam R tenderão para zero, qbando n - t oo D;epois de transforma~ões algébricas imediatas, po~ém tediosas, enco~traremos que lim lnMT,.(t) = t2/2. Conseqüentemente, tere::: I i lim MTn(t) 'l = e ' 12 • 1 n-->~ Esta é a fgm de uma variável aleatória com distribuição N(O, I). Em virtude da propriedade da unicidade da fgni (veja ~ 'Teor. 10.3), I poderemos concluir que a variável aleatória Tn converge em distribuição (quando n - t oo) para. a distiibuição N(O, 1). I I I Comentários: (a) Muito embora o qu~ apresentamos acima não constitua uma demonstração rigorosa, ela dá ao leito~ alguma noção da dedução deste importante' te~r.ema. A forma mais geral dÓ Teorema do Limite Central (como ·originalmente enunciado) pode ser demons~rada empregando um caminho semelhante àquele empregado aqui. : . (b) A forma particular do Teorema - ~do Limite Central, como enunciada acima, diz que a média aritmética (1/n) L~~ 1 X; de n observações ~a mesma variável aleatória tem, para n . grande, aproxhnadamente uma distribl!ição normal. (c) Muito embora a demonstração mdtemá.tica deva estabelecer ·a validade de um teorema, pode não contribuir muito p~ra a percepçã.p intuitiva do resultado. Por isso, apresentaremos o exemplo ·seguinte) para aqueJes ique se oritlntam . melhor numtJricrunente. I P(/11 =m) P(X=x} ___... "----::'-:--- 0,1 -;:'-;::--<>)1 0,2 I ,/ IL--,/-~'1.--+-~-mi I 2 FiiiJ. 12;2 Fig. 12.1 i . Considere-se UIDB. urna qu~ oontenha três ea;. de objetos, identüicados como O, 1 e 2. Suponha-se que i~; Eump'j(} 12.5. péci~ j 1 296 I PROBABILIDADE existam 20 zeros, 30 uns e 50 dois. Uni objeto é extraído aleatoriamente e seu valor,· digamos X,. é registrado. Suponha-se que X tenha a seguinte distribuição (veja a Fig. 1~.1): X 1-0__1 __2_ P(X = x) 0,2 0,3 0,5 Suponha que o objeto extraido em primeiro lugar seja reposto na urna e, a seguir, um segundo objeto seja extraído e seu valor, digamos Y, seja registrado. Considere-se a variável aleatória. M = (X+ Y)/2, e sua distribuição (Fig. 12.2): o 1 2 1 3 2 2 0,04 0,12 0,29 0,30 0,25 .M P(M = m) · Os valores de P(M), acima, foram obtidos da seguinte maneira: = O) = P(X = O, Y = O) = (0,2) 2 = 0,04; P(M = !) = P(X = O, Y = 1) + P(X = 1, Y "" O) = (0,2)(0,3) + (0,3)(0,2) = 0,12 etc. P(M Finalmente, suponha-se que depois q_ue o segundo objeto tenha sido também reposto, um terceiro objeto seja extraído e seu valor, digamos Z, seja registrado. Cmisidere a variável aleatória N = (X+ + Y + Z)/3 e sua distribuição (Fig. 12.3): P(N = N O n) 0,008 1 2 3 3 0,036 0,114 As distribuições de probabilidades das variáveis aleatórias M e N já estãÔ mostrando sinais de "normalidade"; isto é, · a aparência da curva em sino da distribuição normal está começando a surgir. Partindo da distribuição de X, a qual é quase assimétrica, verificamos que a média de apenas três observações telt). uma distribuição que já está mostrando "indicações de nor.malidade". 4 3 5 3 2 0,285 0,225 0,125 1 0,207 P(N=n) / / Fig. 12.3 SOMAS DE VAR~ÁVEDS ALEATÓR~AS I 297 Naturalmente1 o exemplo acima não demonstra coisa alguma. No entanto, ele representa uma ilustração numérica do resultado anteriormente estudado de maneira mais rigorosa. O leitor poderá continuar este exemplo pela adição de mais uma observação e, depois, achar a distribuição de probabilidade da média das quatro observações obtidas. (Veja o Probl. 12.10.) Exemplo 12.6. Suponha-se que temos algumas voltagens de ruído ·independentes, por exemplo V;, i = 1, 2, ... , n, as quais são recebidas. naquilo que se denomina um "somador". (Veja a Fig. 12.4.) Seja v a soma :..das vóltagens recebidas . . Isto é, v = L~=l V;. Suponha-se que cada variável aleatória V; v. seja uniformemente distribuída sobre o intervalo [0, 10]. Daí, E(Vi) == 5 volts e variância (V;) = 100/12. De acordo com o Teorema do Limi~ V2 te Central, se n for suficientemente grande, a variável aleatória S = (V - 5n)vi2/IOV;;: terá aproximadamente a · distribuição N(O, 1). Portanto, se n = 20, poderemos calcular que a probabilidade de que a voltagem total na entrada exceda 105 volts da seguinte maneira: Fig. 12A, P(V > 105) =pI v- 100 > \ CIO/v12)v'2o C=: 1 - <1>(0,388) 105- 100 •) (10/v'12)v2o · = 0,352. 12.5 Outras Distribuições Aproximadas pela Distribuição a de Poisson, a de Pascal e a Gama No~mal: Existem algumas distribuições importantes, que não a distribuição binomial explicada na Seção 12.3, as quais podem ser aproximadas pela distribuição normal. Em cada caso, como observaremos, a variável aleatória, cuja distribuição nós aproximaremos, pode .ser representa~ a como a soma de variáveis aleatórias independentes, dando-nos assim uma aplicação do Teorema do Limite Central, como foi explicado na Seção 12.4. :;-.·· 298 I PROBABDUDADE (a) A distribuição de Poisson. Recorde-se de que uma variável aleatória de Poisson . surge quando (sujeita a determinad·as hipóteses) estivermos interessados no número total de ocorrências de algum evento, em um intervalo de tempo de extensão t, com intensidade (isto é, t.axa de ocorrência por unidade de tempo) de a (veja a Seção 8.2). Como foi indicado naquela seção, nós poderemos considerar o número total de ocorrências como a soma das ocorrências em intervalos meno~ res não-imbricados, tornando, dessa maneira, aplicáveis os resultados da seção precedente. ' Exemplo 12.7. Suponha-se que, em uma determinada central telefónica, as chamadas cheguem com a taxa de 2 por minuto. Qual é a probabilidade de que 22 ou menos chamadas sejam recebidas durante um período de 15 minutos? (Admitiremos, naturalmente, que a intensidade permaneça inalterada durante o período considerado.) Se fizermos X= número de chamadas recebidas, então, E(X) = 2(15) = 30. Para calcular P(X < 22), e aplicando a correção de continuidade [veja a Eq. (b) que está imediatamente antes do Ex. 12.4 ], teremos P(X<:22)~P ~ Y<: -h , 22 + - - 30 1 ) onde Y tem distribuição normal N(O, 1). Conseqüentemente, a probabilidade acima fica igual a </J ( - 1,37) = 0,0853. (b) A distribuição de Pascal. Se Y = número de provas de Bernouilli necessárias para obter r sucessos, então, Y tem uma distribuição de Pascal e pode ser representada como a soma de r variáveis aleatórias independentes (veja a Seção 8.5). Neste caso, para r suficientemente grande,os resultados da seção precedente são aplicáveis. Exemplo 12.8. Achar um valor aproximado para a probabilidade de que serão executados 150 ou menos provas para obter 48 sucessos, quando P(sucesso) = 0,25. Escrevendo X= número de provas necessárias, teremos (veja a Eq. 8.8): E(X) = r/p = 48/0,25 = 192, e Var X= = rqjp 2 = (48X0,75)/(0,25) 2 = 576. Portanto, " I P(X<:150)~</J( . · 150 + --192 1 ) 2 . =</J(-1,73)=0,0418 .J576 SOMAS ~IE VARDÁVEiS ALEATÕRDAS I 299 (c) A distribuição Gama. Comb indicado no 'Teorema 10.9, uma variável aleatória que tenha a distribJição Gama (com parâmetros c.: e r) poderá se.r representada como a som~ de r variáveis aleatÓrias independentes, com distribuição exponencial. Portanto, para r grande, também é aplicável o Teorema do Limite Cenfral. i 12.6. A ICllistribuição dlóll Somôll dle um Número F'irniii:c I de Variáveis Aleatórias , O Ex. ·12.6 serve para motivar[a seguinte explanaço/>: · Sabemos que a soma de um número fini.toj.qualquer de variáveis aleatórias independentes e normalmente distnbuidas .é também normalmente distribuída. Do Teorema do Lirhite Central, podemos concluir que, para n grande, a soma de n !variáveis aleatórias é aproximada e normalmente distribuída. A questão seguinte ainda resta . a ser respondida: Suponhamos que se ?onsidere · X 1 + . . . Xn, onde os X; são variáveis aleatórias ind~pendentes (não necessariamente normais) e n não seja suficienteme~te grande pam justüicar o emprego do Teorema do Limite Cehtral. Qual será a 1 distribuição desta soma? Por exemplo, qual se~á a distribuição da voltagem de I . I entrada V (Ex. 12.6), se n = 2 ou n = 3? Vamos primeiro examinar o importante caso da soma de duas variáveis aleatórias. O seguinte r~sultado pode ser estabelecido. + I !' i, , 11 : •I ! .' I,· ·., Teorema 12.2. Suponha-se quJ X e Y sejam variáveis aleatórias independentes, contínuas, com fdp g e h, respectivamente. Seja Z = X.+ Y e denotemos a fdp de por s. Então, • !z I s(z) = J_ +"' I g(w)t (z - w) dw. "' (12.6) Demonstração: Desde que X e Y são independentes, sua fdp conjunta f poderá ser fatorada: I , . f(x, y) Considere-se a transformação: z= Portanto, x = w e y X = g(x)h(y). I! + y, II = z - ·f». J= 01 1 w = X. O !jacobiano desta transformação é ti = -i -1. ~ 300 I PROBAIBIUDADIE Por conseguinte, o valor absoluto de J é 1 e, por isso, a fdp conjunta deZ = X Y e W = X é + k(z, w) = g(w)h(z - w). A fdp de Z será agora obtida pela integração de k(z, w) desde - · ro até =, em relação a w, desse modo fornecendo o resultado acima. Comentários: (a) A integral acima, que inclui as funções g e h, ocorre em muitas outras passagens matemáticas. Ela é freqüentemente mencionada como a integral de convo1ução de g e h, e é, algumas vezes, escrita como g • h. (b) O cálc1Üb da integral acima deve ser feito com muito cuidado. De fato, a mesma dificuldade que surge no cálculo da fdp de um produto ou de um quociente surge agora. AB funções g e h serão freqüentemente não-nulas somente para determinados valores de seu argumento. Por isso, o integrando na integral acima, será não-nulo somente para aqueles valores da variável de integração w, para os quai~ ambos os fatores do integrando sejam não-nulos. (c) A fórmula acima, Eq . (12.6), poderá ser empregada repetidamente (com dificuldade crescente, porém) para obter-se a fdp da soma de um número qualquer finito de variáveis aleatórias independentes contínuas . Por exemplo, se S = X+ + Y + W, poderemos escrever S = Z + W, onde Z =X+ Y. Poderemos, então, empregar a marcha acima para obtermos a fdp deZ, e depois, conhecendo a fdp deZ, empregar este método novamente para obtermos a fdp de S. (d) Poderemos deduzir a Eq. (12.6) de outra maneira, sem empregar o conceito de jacobiano. Façamos S denotar a fd da variável aleatória z = X + Y. Então, S(z) = ~(Z .$ z) = P(X :+ Y S z) = fi g(x)h(y) dx dy, 1il onde R= {(:r, y) \ x (Veja a Fig. 12.5.) + y S zl. Portl!lnto, S(z) = = J:"' J": 8 g(x)h(y) dzdy J: "g(x) [[:z h(y) dy] dE. Derivando S(z) em relação a z (sob o sinal de integração, o que pode ser justificado), obteremos s(z) = S'(z} I[) que concorda com a Eq. (12.6). = (+'" J-"' g(z)l'l(z - :.-)eh, SOMAS OE VARiÁVEIS ALEATÓRIAS /301 111 + (e) Como a distribuição de X Y deve, pre8um!Veh:D.ente, ser a mesma que distribuição de r X, deveremos ser capazes de verificar que + ! +"" _,. g(~)h(z - :r) dx = f+"' ._" h(y)g(z - y) dy. Apen!lB fazendo-se z - z = y na primeira integral, ter-se-á a segund!ll form!ll. Algum!lB vezes, se indiCf!l est!ll propriedade escrevendo g•h = h•g. Vej& oComentário (a), acima. -+-----+-----<>· r, ( Exemplo 12.9. Cdnsiderem-se dois dispositivos eletrônicos, D 1 e D 2• Suponha-se que D 1 tenha uma duração de 'ida que possa ser representada por uma variável aleatória Tx, cuja distribuição seja exponencial com parâmetro ax, enquanto D: tenha uma duração de vida que possa ser representada por uma variável aleatória T 2, cuja distribuição seja eJ:ponencial com parâmetro a:. Suponha-se que D 1 e D 2 estejam ligados de tal maneira que D2 comece a funcio.. nar no momento em que D1 âei:re de funcionar. Nesse caso, T = T 1 T2 representa a duração total de funcionamento do sistema composto por esses dois dispositivos. Admita-se que T 1 e T 2 sejam independentes; poderemos apÚ~ar o · resultado acima, e obter + g(t1) h(t2) = ale-"' 111, = a2J(l-oc2t2, (Para todos os outros valores de t 1 e i 2, as funções g e h são supostas iguais a zero!). Conseqüentemente, empregando-se a Eq. (12.6), encontraremos que a fdp de Tx + T2 = T será dada por t?: o. O integrando será positivo se, e somente se, ambos os fatores do integrando forem positivos~ isto é, sempre que t 1 ;::::: O e t- t1 ?: O. Isto é equivalente a t 1 ?: O e t 1 ~ t, o que por sua vez é equivalente a O~ 11 ·~ t. (Veja a Fig. 12.6.) Por isso; a integral acima se toma s(t) = lt ale - altla2e-"'2(t-tildtx 302 I PROBABIUDADE Comentários: (a) Observamos que a soma de duas variáveis aleat6ri8!!l independentes, exponencialmente· distribu1das, fUlo é exponencialmente distribu1da. (b) Para a1 > a2 1 o gráfico dá fdp de Testá. apresentado na Fig. 12.7. · $(/) $(1) /=ljor fig. 12.7 !Fig. 12.8 (c) A expressão da fdp, acima, não é defiilide. para a1 = a2, isto é, para o caso em que T1 e T2 tenham e. mesma distribuição exponencial. A fim. de levar em conte. este caso particular, CO!lllidere-se a expressão qa primeira integral de s(t), e faça-se a = a1 = a2. Obtém-se 1 a(t) = ;: ae-atlae-a(t-tlldt1 = o?e-at [ . dt1 = a 2te-at, t ~ O. lato represente. a distribuição gama. [Veja a Eq. (9.16);] O gráfico deste. fdp está apresentado na Fig. 12.8. O máximo ocorre para t = ·1/a = E( Ti) = E(T~). Exemplo 12.10. Vamos reexawnar o Ex. 12.6, que trata da adição de duas tensões elétricas aleatórias independentes vl e v2' cada uma das quais é uniformemente distribuída sobre [O, 1O] volts. ' Por isso, f(vl.) = io, g(v2) = 1 10 ' (Recordemos, novamente, que as funções f e g são nulas para quaisquer outros valores.) Se V = V1 + V2, teremos Raciocinando tal como no Ex. 12.8, obsP-rvaremos que o integrando será não-nulo somente para aqueles vaLores de v1 que., satisfaçam a O ::::; v1 ::::; 10 e O ::::; v .:._ v1 ::::; 10. Essas condições são equivalentes a O ::::; v1 ::::; 10 e v - 10 ::::; v1 ::::; v. - - ! - - - 1 - - - - - ! - - t - -... v, v-lO O v 10 (a) - - 1 - - t - - - - t - - - t - -.... !Fig. 12.9 O v-10 10 (b). u v, SOMAS DE VARIÁVEIS ALEATÓRIAS I 303 Surgem dois casos, tal como se àpresentam na · Fig. 12.9: (a) v- 10 ~ 10 e O ~ v que O~ v~ 10. ~ 10, as quais, conjuntamente, acar- I. I (b) O~ v- 10 ~ 10 e v~ 10, as quaiS, conjuntamente, acar~ ~ retam que 10 v ~ 20. No caso (a), Vt poderá tornar valores entre O e v, enquanto no caso (b), v1 poderá tornar valores entre v J 10.e 10. , , P()rtanto, obteremos para ~· o~ v::::; 10: v IqO' . para 10 ~v~ I 20: I 10 s(v) = 1 -10 I 1 1 ! lo'-10 dv 1 20-v iI= 100· . I .Por isso, a fdp de V·terá o gráfico apresentado na Fig. 12.10. J(u) v 100 20-u 100 Fig. 12.10 I I~ Exemplo 12.11. Como ilustração fmal de somas de variáve~s aleatórias, vamos reestudar um resultado que já demonstramos, empr&. gando o método mais indireto das funçõ,es geratrizes de momeritbs (veja Ex. 10.11), a saber, que a soma de duas variáveis aleatórias normais independentes é também normalmente distribuída. Com :o objetivo de evitar algumas transfonnaçõ~s algébricas, vâmos ': e:X;à'i' minar somente um caso particular. --..· r-·· 304 / PROBABiliDADE Suponha-se que Z = X+ Y, onde X e Y são variáveis aleatórias independentes, cada uma delas com. distribuição N(O, 1). Então, 1 -z'f2 j(. x) =: V21T e ' g(y) = -} v - ""<x< co, -oo<y<co . e-Y'f2, 21T Conseqüentemente, a fdp deZ será dada por S(Z) = j _""+"" j(X ) (j (Z - X) dX 1 = 21T f+"" _ ., e-z'f2e-(z-x)•f2 dx Completando o quadrado no expoente do integrando, obteremos (x2 - ZX) =[ (X - ~ r-~ ] Daf, ' .·~. s(z) = J... e-z'f2e•'f1 21T Fazendo· v2(xs(z) =. ! +"" e-(!f2)[v2(x-zJ2)]' dx. "" z/2) = u; segue-se que dx = dujv2, e obteremos 1 vzrvz e - z ' J14 - v21r 1+"' -., e -u'f2 du. A integral ac1ma (incluindo o fator 1/V21T) é igual a um. s(z) = _1 Assim, 1 _r; e-<I/2){zJv2i'. v2"ll'v2 Ora, isso representa a fdp de wna variável aleatóp a com distribuição N(O, 2), o que se queria verificar. Ao explicarmos a distribuição da soma de variáveis aleatórias, restringimo-nos às variáveis aleatórias contínuas. No caso discreto, o problema é um tanto mais simples, ao menos em certos casos, como o teorema seguinte indica. SOMAS DE VARIÁVEIS ALEATÓRIAS I 305 Teorema 12.3. Suponha-se que X e Y sejam variáveis aleatórias independentes, cada uma. das quais possa tomar somente valores inteiros não-negativos. Seja p(k) = P(X ~ k), k ~ O, - 1, ~i, .: .. , e seja q('r) = P(Y =r), r= O, 1, 2, ... Façamos Z;.. X+ Y e = P(Z = i). Então, - . .- wm w(t) = t p(k)q(i- k), i &=0 = O, 1, 2, ... Demonstração: w(t) = P(Z = t) = P[X =O, Y =i ou X= 1, Y =i- 1 ou ... ou X= i, Y =O] = t P[X ~=0 = k, Y = i - k] = t k=O p(k)q(i- ic) vistÓ que X e Y são independentes. Comentário: Observe-se a semelhança entre esta volução, deduzida no Teor. 12.2. · BOII111 e a integral de con- Exemplo 12.12. Representemos por X e Y o número de erhissões de partículas a por duas diferentes fontes de material radioativo, durante um período especificado de tempo t. Suponha-se qu'e X e Y tenham distribuições de Poisson, com parâmetros fJ1t e fJ2t, respectivamente. Representemos por Z = X + Y o número total de partículas emitidas pelas duas fontes. Empregando o Teor. 12.3, obteremos P(Z = k) = t p(k)q(i - k) k=O (Essa igualdade é obtida pela aplicação do teorema binomial à soma acima.) A última expressão representa a probabil~dade _de que lima variável aleatória, que tenha unia distribuição de Poisson com parâmetro {J 1t (32t tome o valor i. Desse modo, verificamos aquilo que já. sabíamos: A soma de duas variáveis aleatórias independentes com distribuição de Poisson tem distribuição de Poissori. + . -- ' -·. -- - - r~mr-r.' ···:~ · 306 I PROB'A BRUDADIE .) Problemas 12.1. (a) Peças são produzidas de tal maneira que 2 por cento resultam. defeituosas. Uí:n grande número dessas peças, digamos n, é inspecionado e a freqüência relativa daiJ defeituosas, fD, é registrâ.da. Que valor deverá 4Jr n, a fim de que a probabilidade seja ao menos 0,98, de que fD difira de 0,02 por menos do que 0,05? (b) Responda a (a), acima, supondo que 0,02, a probabilidade de se obter uma peça defeituosa, seja substituída por p, a qual se admite ser desconhecida. · 12.2. Suponha que tilD.ll. amostra de tamanho n seja obtida de uma grande coleção de parafusos, 3 por cento dos quais sejam defeituosos. Qual será a probabilidade de que, no máximo, 5 por cento dos parafusos seleci,onados -sejam def ei tuosos, se (a) n = 6? (b) n=60? (c) n = 600? 12.3. (a) Um siStema complexo é constituido de 100 componentes que fun~ cionam independentemente. A probabilidade de que. qualquer um dos componentes venha a falhar durante o período de operação é igual a 0,10. A fim de que o sistema completo funcione, ao menos 85 dos componentes devem trabalhar. Calcule a probabilidade de que isso aconteça. (b) Suponha que o sistema acima seja constituído de n componentes, cada um deles tendo uma confiabilidade de 0,90. O sistema funcionará. se ao menos 80 por cento dos componentes funcionarem adequadamente. Determine n, de maneira. que o sistema tenha uma confiabilidade de 0,95. 12.4. Suponha-5e .que 30 di.llpositivos elétrônicos, D 11 • •• , D 3 o, sejam empregados da seguinte maneira: Tão logo D 1 falhe, D2 entra em ope~~ção; quando Dz falhar, D 3 entrará em operação etc. Suponha que a duração até falhar Di seja uma variável aleatória exponencialmente distribuída, com parâmetro fJ = 0,1 hora- 1• Seja T o tempo total de operação dos 30 dispositivos. Qual é, a probabilidade de que T ultrapasse 350 horas? 12.5. Um computador, ao adicionar números, arredonda cada número para o inteiro mais ·próximo. Admita-se que todos qs erros de arredondamento sejam independentes e uniformemente distribuidos sobre (- 015, 0,5). (a) Se 1.500 números forem adicionados, qual é a probabilidade de que a magnitude do erro total ultrapasse 15? (b) Quantos números poderão· ser adicionados j.uritos, de modo que a tude do erro total seja menor do que 10, com probabilidade 0,90~ magni~ 12.6. Suponha que X;, i = 1, 2, .. . , 50 sejam variáveis aleatórias indepen~ dentes, cada uma delas tendo distribuição de Poisson com parâmetro À = 0,03. Faça s ;=. XI + x60· i (a) Empregando o Teorema do Limite Cent~al, calcule P(S ~ 3). + ... (b) Compare a respm;ta de (a) com. o valor exato. dessa probabilidade. - SOMAS DE '1ARIÁVEOS ALEATÓRIAS I 307 I. . 12.7. Em um circuito simples; dois resisfores, R1 e R 2, são ligaâosem série. Portanto, a resistência total será dada por R = R1 + Rz, Suponha que R1 e Rz sejam variáveis aleatórias independentes, tent cada uma a fdp 10 - r; 50 J(r;) = - -- - , , . O < r; } 10, ~ = 1, 2. I Determine a fdp de R, a resistência total, e esbloce seu gráfico. 12.8. Suponha que os resistore~ no Pro~l. 12.7 sejam ligados em paralelá. Determine a fdp de R, a .resistência total do cjrcuito (estabeleça apenas na forma de · integral). (Sugestao: A relação entre R, \R1 e R2 é dada por 1/R = 1/Rl + i + 1/Rz.) 12.9. Ao mensurar-se T, a duração da :vida de uma peça, pode-se cometer um erro, o qual se pode admitir ser uniformem~nte distribuído sobre (- 0,01, 0,01). Por itiso, o tempo registrado (em horas) pode sér representado por T + X, onde T tem uma distribuição exponencial com parâme~ro 0,2 e X tem a distribuiçã,o uniforme descrita ãcima. Determine a fdp de T +X, quando Te X forem independentes. . I 12.10. Suponha que X e Y sejam variáTeis aleatórias independentes, idênticamente distribuídas. Suponha que a fdp df X (e, em conseqüência, a de Y) seja dada por 1 j(x) Determine a fdp de X tegração.) 12.11. 4 i> a, > O, O, para quaisquer t utros valores. afx2 , + Y. (S1tgestão: Emlregue {rações parciais para a in- Realize os cálculos sugeridos ao íihal do Ex. 12.5. I . I 12.12. (a) Um dispositivo eletrônico tem ! uma duração até falhar T, cuja distribuição é dada por N(1ÜO, 4). Suponha q~e ao se registrar T cometa-se um erro cujo valor possa ser representado por uma variável aleatória X, uniformemente distribuída sobre (- 1, 1). Determine ~ fdp de S = X + T em termos de <I>, a fd da distribuição N(O, 1), quando X e Y forem independentes. (b) Calcule P(100 ~ S .:::; 101). (Suge.stao:]Empregue a Regra .de Simpson, para calcular um valor aproximado da integral.) ~ I 12.13. Suponha que um novo aparelho [seja testado repetidamente, sob determinadas condições de carga, até que ele falhe. A probabilidade de ·falhar em qualquer das provas é Pl· Faça igual a X o número de provas necessárias inclusive a da primeira falha. Um segundo ap4relho é também testado repetidamente até falhar; suponha que uma probabiliqade constante de falhar -pz esteja associada a ele. Faça igual a Y o número de [provas necessárias, inclusive- a de sua primeira faiha. Admita que X e Y 1 sejam ~ndependentes e faça Z. = X + Y. Portanto, Z é igual ao número de provas neces,sárias até que; ambos os ,aparelhos tenham falhado. j (a) Estabeleça a distribuição de probabili9ade de Z. (b) Calcule P(Z = 4), quando Pl = 0,1 e ~2 =-0,2. (c) Estude (a), quando Pl = p;. :. \ •. _-~ · Amostras e . Distribuições Amostrais Capítulo 13 13.1. Introdução Vamds novamente examinar um problema apresentado anteriormente. Suponha-se que temos uma fonte de material radioativo que esteja emitindo partículas a. Suponha-se que as hipóteses formuladas no Cap. 8 sejam válidas, de maneira que a variável aleatória X, definida comei o número de partículas emitidas durante um período de tempo especificado t, tenha uma distribui~ão de Poisson com parâmetro Àt. . Para que se possa "utilizai:" este modelo probabilístico na explica.ção da emissão de partículas a, necessitamos conhecer o valor de À. AB .hipóteses que fizemos somente conduzem à conclusão de que X ·~ tem uma. distribuição de Poisson com algum parâmetro Àt. Porém, se quisermos calcular P(X > 10), por exemplo, a resposta será em termos de À, a menos que conheçamos seu valor numérico. Semelhantemerite, os importantes parâmetros associados à distribuição, tais como. E(X) e V(X), são todos funções de À. Para procurarmos um valor numérico para À, deveremos, ao menos por enquanto, deixar o mundo de nosso modelo matemático teórico . e entrar no mundo· empírico das observa~ões. Quer dizer, deveremos realmente· observar a emissão de partículas, obter valores numéricos de X, e a seguir empregar esses valores, de algum modo sistemático, a fim de obtermos alguma informação relevante sobre À. É importante para o leit.or ter uma idéia clara ~obre a influência recíproca entre ·a verificação empírica e a dedução mat~niática, que surge em muitos domínios da Matemática aJ?licada. Isto é especialmente importante quando constrÚímos modelos probabilísticos para o estudo de fenômenos observáveis. Vamos exaininar um exemplo trivial da Trigonometria elementar. Um problema típico pode abranger o cálculo da altura de uma AMOSTRAS IE DDSTR!IBUIÇÕES AMOSTRAiS I 309 árvore, Um modélo matemático para este problem& pode ser obtido pela postulação de que a relação entre a altura desconhecida h, a sombra projetada s, e o ângulo 0t seja da forma h = 8 tg at. (Nós estac mos admitindo que a árvore esteja ereta e. perpendicular ao solo, Fig. 13.1.) Conseqüentemente, se 8 e Ot forem conh~cidos, . poderemos, com o au:xílio de uma ·tábua adequada, calcular h. O ponto importante a salientar aqui é que 8 é 0t devem ser conhecidos antes que possamos calcular h. Isto é, alguém deverá ter medido s e a. A dedução matemática que leva à relação h = 8 tg a é completamente independente s dos meios pélos quais mediremos 8 e a . Se essas IFig. 13.1 mensurações forem precisas, então 8 tg ai representará um valor preciso de h (admitindo-se que o modelo seja válido). Dizendo de outra maneira, não poderemos apenas ·deduzir o valor de h a partir de nosso conhecimento de Trigonometria e com o auxílio de tábuas trigonométricas. Nós teremos de deixar nosso santuário (onde quer que ele possa estar) e fazer algumas mensurações! E, justamente como tais mensuraçõ~s sejam feitas, ainda que isso cons. titua um importante problema a ser resolvido, de maneira alguma influencia a validade de nossa dedução matemática. Ao empregarmos modelos probabilisticos,- também teremos de ent'rar no mundo empírico e fazer algumas mensurações. Por exemplo, no caso que está sendo examinado, estamos empregando a distribuição de Poisson como nosso modelo probabilístico e, por isso, necessitamos conhecer o valor do parâmetro À. A fim de obter alguma informação sobre À, temos de realizar algumas mensurações e, depois, empregar as medidas obtidas de alguma forma sistemática com o objetivo de estimarmos À. De que maneira isso será feito será explicado no Cap. 14. Dois pontos devem ser finalmente salientados aqui. Primeiro, as mensurações exigidas para obter-se informação sobre À serão, em geral, mais fáceis de se conseguir, do que o seriam mensurações diretas de e-~ 1(Àt)kjk! (da mesma forma que é mais fácil conseguir mensurações do c0mprimento da sombra s e do ângulo a do que da altura h). ~egundo, a maneü:a. pela qual obteremos mensurações de À e a maneira pela qual empregaremos essas medidas de modo algum invalidará (ou confirmará) a ap1icabilidade do modelo ~e Poisson. O exemplo ·acima é típico de uma grande classe de problemas. Em muitas situações é relativamente natural (e apropriado) admitir que uma variável aleatória X tenha uma particular distribuição dé ·: '. 310 I PROBABILIDADE probabilidade. Já Vimos alguns exemplos -que mostram que hipóteses bastante simples sobre o comportamento probabilístico de X conduzem a um tipo definido de distribuição, tal cmno a binomial, a exponencial, a normal, a de Poisson, e outras. Cada uma dessas distribuições depende de certos parâmetros. Eni · alguns casos o valor de um ou mais desses parâmetros pode ser conhecido. (Tal conhecimento pode Vir de estudo anterior da variável aleatória.) Mais freqüenteniente, porém, nós rião conhecemos o valor de todos os parâmetros ·incluídos. Em tais casos; deveremos proceder como sugerido acima e obter alguns valores empíricos de X e, depois, empregarmos esses valoiEls de maneira apropriada. Como isso 'Será feito é o que prenderá nossa atenção no Cap. 14. 13.2. Amostras Aleatórias Já explicamos a noção de amostragem aleatória com ou sem reposição, de um conjunto finito ou população de objetos. Temos sob exame uma população especificada de objetos. (pessoas, peças fabricadas etc.) sobre os quais desejamos fazer alguma inferência sem examinarmos cada objeto isoladamente. Por isso, "amostramos". Isto é, tentamos examinar alguns objetos "típicos", dos quais esperamos extrair alguma informação, que em algum sentidq seja característi:ca de toda a população. Vamos ser .mais precisos. Suponha que rotulemos. ca9-a elemento de uma população finita com um número, consecutivamente, de modo que, sem perda de . generalidade, uma população formada de N objetos possa ser representada como 1, 2, ... , N. Agora escolhemos n itens, de uma· maneira a ser explicada abaixo. Defina,mos as seguintes variáveis aleatócias: X, "" valor da população obtido quando o i:..ésimo item for escolhido, i = 1, 2, ... , n. A distribuição de probabilidade das variáveis aleatórias X 1, ••• , Xn obvil).mente dependerá de como conduzirmos a ·amostragem. Se amostrarmos com reposição, · de · cada vez escolhendo um objeto ao acaso, as variáveis aleatórias X 11 • • • , Xn serão inêlependentes e 2, . . . , n, identicamente distribuídas. Isto é, . para cada X;, · i = teremos 1. 1; P(X• = j) = 1/N, j = 1, 2, ... , N. Se amostrarmos sem reposição, as · variáveis aleatórias X 11 •• • , Xn não serão mais independentes. Ao contrário, sua distribuição de pro- AMOSTRAS \E rmmFW:3UDÇÕIES AMOSlfRADS I J11 habilidade conjunta será dada por · P[Xi =h, ... ,Xn =jn] 1 +1) ... (N- r+ 1) = - - - ,,- - - - - - - N(N na qual j~, . . . , in são quaisquer n valor~s de (1, ... , N). (Pode~emos mostrar que a distribuição marginal de j qualquer X;, sem levar ~m cop.ta os valores tomados por X i, ... , XJ-1, X;+ 11 ••• , X n, é a mesma que a acima, quando amostrarmos com! reposição.) Em nossa exposição, até agora, terolos admitido que exista umà . I . . . população subjacente, dig_amos 1, 2, .. ·!' N, a qual é finita e sobre a qual desejamos obter alguma informação baseada em uma amostra de tamanho n < N. Em muitas situações, não existe população I finita, na qual _e~tejamos a extrair amos tras; de fato, poderemos ter 1 dificuldade em definir uma populaçao subjacente de qualquer espécie. Consideremos os seguintes exemplos: 1 ' (a) X1 Uma moeda é jogada. Defina-se a variável aleatória = número de caras obtidas. De alghm modo, poderemos pensar em X 1 como uma amostra de tamanho hm, de uma "população" de todas as jogadas possíveis daquela moeda. Se jogássemos a moeda uma segunda vez e definíssemos a variáYel aleatória X 2 cómo o número de cara.S obtidas na segunda jogada, X1, Xz poderia presumivelmente ser . considerada como uma amos~ra de tamanho dois tirada ?a mesma população. I (b) A altura total de chuva anuail, em uma certa localidade, para o ano de 1970, poderia ser definida como uma variável aleatória X 1• Durante anos sucessivos, variáveis aleatórias X 2, ••• , X n poderiam ser definidas analogamente. ) Também poderemos considerar (X 1 , ••• , Xn) como uma amostra de tamanho n, obtida da população de todas as possíveis alturas dé. chuva anuais naquela localidade especifi'cada; e seria aceitável supÓr-se que os X; fossem variáveis aleatórias independente e identic~mente distribuídas. ' . I . (c) A duração da vida de uma ~âmpada, fabricada por um certo processo em certa fábrica, é estu~ada pela escolha de n lâmpadas e mensuração de suas durações da vida, digamos Tú ·; . :, T~. Podemos considerar (Tb .. . ,Tn) como Iuma amostra aleatória' da população •de todas as possíveis duraçõ'es de vida de lâmpadas fa1 bricadas de maneira especificada. Vamos apresentar essas noções rigor9samente, da seguinte f9nna: I .. . . .• . ~! ;·. ;,. •r, ·<,.:, . Definição. Seja X uma variável aleatória .com uma :dif;triibuicã~ de probabilidade especificada. Sejam n variáveis aleatória,s .X11. '> independentes e tendo cada uma delas a mesma distribuição que X. Nesse caso, denominaremos (X1 , • • • , Xn) uma amostra aleatória da variável aleatória X. I Comentários: (a) Vamos enunciar o que está acima de modo menos formal: Uma amostra aleatória de tainanho n, de uma variável uleatória 'x, corresponde a n mensurações repetidas de X, feitas sob condições essencialmente inalteradas. Como já, mencionamos antes em algumas passagens, a noção matematicamente idealizada de amostra aleatória pode, quando muito, ·ser apenas aproximada pelas condições experimentais reàis. Para .que X1 e X2 venham a ter a mesma distribuição, todas as condições "relevantes" sob as quais o experimento seja realizado devem ser as mesmas quando X 1 e X2 forem observados. Naturalmente, condições experimentais nunca podem ser Identicamente duplicadas. O "importante é qui:r aquelas condições que sejam diferentes devem ter pequena ou nenhuma influência no resultado do experimento. Não obstante, algum cuidado deve ser tomado para assegurar-nos realmente a obtenção de uma amostra aleatória. Por exemplo, suponha-se que a variável aleatória em estudo seja X, o número de chamadas felefônícas que chegam a uma central entre 16 e 17 horas na quarta--feira. A fim de que se obtenha uma amostra aleatória de X, escolheríamos presum1velmente n quartas-feiraB ao acaso e registraríamos o valor de X h ... , Xn. Nós deveríamos estar certos de que todas aB quartas-feiras fossem quartas-feiras "típicas". Por exemplo, não poderíamos desejar incluir uma particular quarta-feira, que coincidisse com o Dia de Natal. Também, se tentarmos obter uma amostra aleatória da variável aleatória X, definida como a duração da vida de um dispositivo eletrônico, que tenha sido fabricado sujeito a certas especificações, desejaríamos estar seguros de que um ;valor amostral não se tivesse obtido de uma peça, a qual fosse produzida em um mociento em que o processo de produção estivesse imperfeito. (b) Se X for uma. variável aleatória contínua. com fdp j e se X!J ... , Xn foy uma amostra. alea.tória de X, então g, a fdp conjunta de X 1, ••. , Xn. poderá se? escrita como g(xb . .. , x,.) = j(x1) . .. f(xn). Se X for uma variável aleatória discreta e p(x;) = P(X = x;), então {c) Como já fizemos anteriormente,. empregaremos letrils maiúsculas para. a. variável aleatória e letras minúsculas para os valores da variável aleatória. Desse modo, os valores tomados por uma particular amostra (X!J ... , Xn) serão denotados por (x,, .... , Xn)• Freqüentemente, fn:Iaremos do ponúJ amostral (xb ... , xn), com o que desejaremos dizer que poderemos considerar (x1, . .. , Xn) as coordenadas de um ponto em um· espaço euclidiano YHlimensional. Depois que tenhamos obtido os valores de uma amostra aleatória, desejaremos geralmente empregar aqueles valores amostrais com o objetivo de realizar alguma inferência sobre a população re- AMOSTRAS E D~STR~BU~ÇÕIES AMOSTRAiS I 313 presentada pela amostra, o que nesta passagem significa a distribuição de probabilidade da variável aleatória que está sendo amostrada. Desde que os vários parâmetros que caracterizam uma distribuição de probabilidade são números, é muito natural que desejemos calcular d~terminadas características numéricas pertinentes, que se podem conseguir dos valores amostrais, as quais podem nos · ajudar, de alguma forma, . a fazer afirmações apropriadas sobre os valores dos parâmetros que são freqüentemente desconhecidos. Vamos definir o seguinte conceito importante: Definição. Seja Xt, .. . , Xn uma amostra aleatória de uma variável aleatória X, e sejam Xt, . .• , Xn os valores tomados pela amostra. Seja H uma função definida para a ênupla (x 11 .. . , Xn). Definiremos Y = H(X1, .... , Xn) como uma estatística, que tome o valor y = = H(x1, .. . , Xn). Explicando: Uma estatística é uma função de valores reais da amostra. Algumas vezes empregamos o termo estatística para referir ao valor da função. Assim, poderemos falar da estatística y = H(x 1 , ••• ,xn), quando realmente deveríamos dizer que y é o valor da estatística Y = H(X1, . .. , Xn). Comentários: (a} O emprego acima é um emprego muito especial, mas ge·ralmente aceito, do termo estatística. Observe-se que o empregamos no singular. (b) De acordo ccim a definição acima, uma estatística é uma variável aleatória! É· muito importante guardar isso em mente. Em conseqüência, terá sentido considerar-se a distribuição de probabilidade de uma estatística, sua expectância, e sua variância. Quando uma variável aleatória for, de fato, uma estatística, quer dizer, uma função da amostra, falaremos freqüentemente de sua distribuiçflo amostral, em lugar de sua distribuição de probabilidade. Como sugerimos no início deste capítulo, empregaremos a informação obtida de uma amostra com o objetivo de estimar certos parâmetros desconhecidos, associados à distribuição de probabilidade. Verificaremos que determinadas estatísticas . desempenham importante papel na resolução deste problema. Antes de examinarmos este assunto mais detalhadamente (no Cap. 14), . vamos estudar algumas estatísticas importantes e suas propriedades. U.4. Algum<l!s Estatísticas Importantes I Há determinadas estatísticas que encontramos freqüentemente . Arrolaremos poucas delas e estudaremos algumas de suas propriedadcys importantes. 314 I PROBABDUDADIE Definição. Seja (X 1,. •• , XJ), ,uma amostra aleatória de UIWI. variável aleatória X. As seguintes estatísticas são de interesse: (a) X = (1/n)L~=! X;, é denominada a média amostral. ex.- sz (b) = [1/Cn - 1)l:L:~=l X) 2 é denominada ·a variância amostral. [Muito em breve, explicaremos por que dividimos por (n - 1) em vez ·de fazê-lo por n, o que seria óbvio.] (c) K = nún (X 1 , ••• , Xn) é denominado o minimo da amostra. (K apenas representa o mimor valor observado.) (d) M = máx (X 1 , . • • , X;..) é denominado o máximo da amostra. (M representa o maior valor observado~ 1 (e) R = M - K é denominada a amplitude da amostra. U) Xn<i> = j-ésima observação maior de tod!J,S na amostra, j = 1, 2, ... , n. (Temos Xn(I) = M, enquanto Xn(n) = K,) xfp, Comentários: (a) As variáveis aleatórias j = 1, 2, ... , n são denominadas estatísticas ordinais (ou estatísticas de ordem) associadas com a amostra aleatória X 1 , • • • , Xn- Se X for uma variável aleatória contínua, nós poderemos supor que x~l) > x~ 2 ) > ... > x~n)_ (b) Os valores extremos de amostra (na notação _acima, X~l) e X~n)) sãO freqüentemente de considerável interesse. Por exemplo, na construção de diques ~ para controle de enchentes, a maior altura da água que um rio particular tenha atingido nos últirnôs 50 anos passados pode ser muito importante. Naturalmente, há muitas outras estatísticas importantes q~e encontraremos, mas certamente aquelas mencionadas acima desempenham importante papel em muitas aplicações estatísticas. Enunciaremos agora (e demonstraremos) alguns teoremas referentes às estatísticas acima. Teorema 13.1. Seja X uma ;variável aleatória, com expectância E(X) = p. e variância V(X) = IJ' 2 • • Seja X a média amostral de uma amostra aleatória de tamanho n. Então, (a) E(X) = (b) V(X) = u2/n. p.. (c) Para n grande, (X- J.L)/(IJ'/Vn) terá aproximadamente adistribuição N(O, 1). Demonstração: (a) e (b) decorrem imediatamente tias proprie. dades da expectância e da variância, antenormente estabelecidas: ~·· AMOSTRAS IE DOSTRU~UiÇÕES AMOSTRAIS I _ =E ·( -L 1 n X; . ) =1 L)E(X;) "' 1 : np. = E(X) =----, n n >=1 · (~n i: X;) = i=l p.. I ., · Porque os X; são independentes, V(X) = V n i=l 315 1_2 n t ~(X;) = _!_n nu2 = <T~n 2 i=l / i (c) decorre de uma aplica~o dir~ta do Teorema do Liinite Poderemos escrever X = (1/p,)X; (1/n)X!. como a soma de variáveis aleatórias independentemente distribuidas. + ... + I . Comentários: (a) À medida que o taman~o da amostra n crescer, 111 médi111 amostral X tenderá a varillJ' cada vez menos. I Isto é intuitivamente ~vidente e corresponde à nossa experiência com dados numéricos; Considere-se, por exemplo, · o seguinte conjunto de 18 números: -1; 3; 2; -4; -5; 6; 7; 2; O; 1; I . ! -2; -3; 8; 9; 6; ,-3; O; 5 .. I . . Se tomarmos a média desses núme~os, dois a dois na ordem enumerada, obteremos ·a seguinte coleçi!.o de médias: •. i . . · i 1; -1; 0,5; 4,5; 0;5; -2,5; 8,5; 1,5;. 2,5.. Se promediarmos o conjunto- original de númejos, três a. três, obteremos .· 1,3; -1; 3; -1,3; 7,7! 0,7. I Finalmente, se promediarmos os números, seis d~ cada. vez, obteremos 0,2; 0,8; 4, '· <~ A variância, em cada uma dessas coleções de médias, é menor do que na coleçi!.o anterior, porque em cada caso a média e~tá baseada em um número maior de números. O teorema acima explica, precisakente, .como a variação de X (medida em termos de sua variância) decresce co~ n crescente. [Neste ponto, veja a Lei dos Grandes Números, Seç. 12.2 e, especialmente, Eq. (12.2).] (b) Se n não for suficientemente grande.p~ra garantir a aplicação do Teorema do Limite Central, poderemos tentar achar .a distribuição de probabilidade exata de X por caminhos diretos (mas geralmente cotnplicados). Na Seç. 12.5 apresen· tamos um método pelo qual })Qdemos achar a d.illtribuiçí!.o de probabilidade da. soma I . de variáveis aleatórias. A aplicação repetida daquele método nos permitirá obter a distribuição de probabilidade de :X, especialmehte se for relativamente --pequeno. (c) O Tepr. 13.1 diz que, para n suficientemente grande, a média amostral X será aproximadamente distribuída norma,Imente (com expectância p. e variância • n (f2jn). . L Nós verificarn.os que não somente x; mas a maioria das funções I "bem comportadas" de X têm esta propfiedade. Neste nível de exposição, não poderemos dar um cuidadoso !desenvolvimento deste resuí- 316 /'PROBABDUDADIE tado. Contudo, o resultado é de suficiente importância em muitas aplicações para merecer, ao menos, um raciocínio heurístico, ·intuitivo. Suponha-se que Y = r(X) e que r possa ser desenvolvido em série de Taylor, em relação a p,. Deste modo, r(X) = r(j;_) +(X- J.l.)r'(p,) +R, onde R é o resto da série e pode ser e~presso assim R = [(X -.uY/2] r"(z), onde z é algum valor entre X e fi-· Se n for suficientemente grande, X será próximo de ,u,, e conseqüentemente (X- p,) 2 será pequeno oomparado a (X- p,). Para n grande, poderemos portanto considerar o resto desprezível e aproximar r(X), da seguinte maneira: r(X) ~ r(JL) + r'(J.L)(X- p,). Vemos que para n suficientemente grande, r(X) pode ser aproximado por uma função linear de X. Visto que X será aproximadamente normal (para n grande), encontramos que r(X) será também aproximadamente normal, porque uma função linear de 'uma variável aleatória normalmente distribuída é normalmente distribuída. Da representação de r(X) acima, encontramos que E[r(X)] ~ r(p,), V[r(X)] ~ [r'(,u,)]2a z • n Portanto, para n suficientemente grande, vemos que (sob condiÇões bastante gerais !:iobre a função r) a distribuição de r(X) será aproxi. madamente N {r(J.L), [r'(p,)J2a 2/n}. Teorema 13.2. Seja X uma variável aleatória . contínua com fdp j e fd F. Seja X1, .. . , Xn uma amostra aleatória de X e sejam K e Jl,f o núriimo e o máximo da amostra, respectivamente. Então, (a) A fdp de M será dada por g(m) = n[F(m)]n- 1j(m). (b) A fdp de K será dada por· h(k) = n[l - F(k) ]n- 1j(k). Demonstração: Seja G(m) = P(M ::::; m) a fd de M. Ora, é equivalente ao evento {X; ::::; m, para todo i}. Logo, visto que os X; são independentes, encontramos I M ::::; m} G(m) = P [X1::::; m e Xz::::; m · · ~ e Xn ::::; m]""' [F(m)]n. Por isso, g(m) = G'(m) = n[F(m)]n-lj(m). A dedução da fdp de K será deixada para o leitor. Probl. 13.1.) (Veja o AMOSTRAS !E D!S'Hili!BUDÇÕES AMOSTRAHS / 3H Exemplo 13.1. Um dispositivo eletrônico tem uma duração de vida T, a qual é exponencialmente distribuída, com parâmetro a = 0,001; quer dizer, sua fdp é j(t) = O,OOie- 0 •00 1!. Suponha-se que 100 desses dispositivos sejam ensaiados, fornecendo os valores observados T1, ... , Troo. (a) Qual é a probabilidade de que 950 < T < UOO? Porque tamanho da amostra é bastante grande, poderemos aplicar o. Teorema do Limite Central e proceder da seguinte maneira: 0 - E(T) = 1 O OO l = V(T) 1.000, 1 (0,001)- 2 100 = = 10.000, ' Portanto, (T - 1.000)/100 terá aproximadamente a distribuição N(O, 1). Por isso, P(950 < -T < 1.100) = P ( - 0,5 = ~(1) -= 0,532, 1000 < < 'i' - 100 1 ) <!>(- 0,5) das tábuas da distribuição normal. Comentário: No caso presente, poderemos realmente obter a distribuição exata de T sem recorrermos ao Teorema do Limite Central. No Teor. 10.9, demonstramos que a soma de variáveis aleatórias independentes distribuídas exponencialmente tem uma distribuição gama; isto é, (O,OOl)lOOs99 e.-j).OOJs g(s) onde g é a fdp de Tt + ... = ' T +Ttoo. Daí, a fdp de - , f(t) = Portanto, 99! será dada por (O,l)lOO""j99e-O,it 99! T tem uma distribuição gama, . com parâmetros 0,1 e 100. (b) Qual é a probabilidade de que o maior valor obfjervado ultrapasse 7. 200 horas? Pede-se que P(M > .7. 200) = 1 - P(M ~ 7.200). Ora, o valor máximo será menor que 7.200 se, e somente se, todo valor amostral for menor que 7.200. Daí, I P(M > 7.200) = 1- [F(~.200))1° 0 .' Para calcular F(7.200), recordemos que para a variável aleatória exponencialmente distribuída com parâmetro 0,001, F(t) = 1 - e- 0•0011 • ( ' .318 I PROBABILIDADE Portanto, F(7.200) = 1 - e- 0 •001 <7 •200> = 1 - e- 7 •2 = 0,999 25. Por conseguinte, a probabilidade pedida é 1 - (0,999 25) 100 = 0,071. (c) Qual é a probabilidade de que a menor duração até falhar seja menor do que 10 horas? ExigireJl10S que P(K < 10) = 1 - P(~ 2: 10). Ora, o mfnimo da amostra será .maior do .que. ou igual a 10, se, e somente se, todo valor amostral for maior do qué ou igual a 10. Portanto, P(K < 10) = 1 - [1 - F(10))1° 0 • Empregando a expressão de F dada em (b), acima, teremos 1 - F(10) = e-o,ooi(IOJ = e-o,ol = 0,99005. Daf, P(K < 10) = 1 - (0,900 05)1° 0 = 0,63. A última parte do exemplo acima pode indica o seguinte teorema. fre:r generalizada, como o Teorema 13.3. Seja X exponencialmente distribuída, com ·parân;l.etro a e seja (X1 , ..•• , X,) uma amostra. aleiitória de X. ~ Seja K = mfn (X 1, . • . , X.,.). Então, K será. também exponenciahnente distribuida com parâmetro na. Demonstração. Seja H a fd de K. H(k) = P(K ~ k) = 1 - P(K > Então, k) = 1 - [1 - F(k)]", onde F é a fd de X. Ora, F(x) = 1- e-"'. Por conseguinte, = 1 - e-"""'. Tomando a derivada de H(k) em relação a k, obteremos h(k) = na.e-n"k. · H(k) Comentário: Esse teorema pode oor estendido. da seguinte forma: 82 X1, ... , X.,. forem variáveis aleatórias independentes e se X; tiver distribuição el!ponencial com pa.râi;netro a;, i= 1, ... , n, então, K = mfn. (X 11 • • • , X.,.) terá distribuição el!ponencial com ·parâmetro a 1 + . . . + a,. Para uma demonstração disso, veja o Probl. Í3.2. O Teor. 13.4 nos dá alguma informação sobre a estatística 8 2• Teorem11, 13.4. Suponhamos que Xil ... , X, constitua uma amostra aleatória de uma variável aleatória X, com, expectância p, AMOSTRAS E DiSTRIBUIÇÕES AMOSTRABS I 31~ . e variância u 2 • Façamos 82 . I n- 1 i=l i = -1- L" I(X;. - - X)2, onde X é a média amostral. Então, Iteremos o seguinte: ' (a) E(S2) = q2, I (b) Se . X for normalmente d)stribuída, [(n - l)/u 2}St .terá, .. . . I . uma distribuição de qui-quadrado, c?m (n - 1) graus de liberdade. . (a) Escrevamos: Demonstração: n R r: (X; - .~=1 X)2 = L (X; i=l .. iJ. + p. . i=l i ~2 ! " =L i I [(X; - p.) 2 + 2(p. . I L X)(X; I I I n - p.) n = ~(X; - J.LP + 2(p. T X) ~(X, n = L I _ ' (X; - J.L) 2 - 2n(}i - i=l = + (p. - p.) xy + n(J.L - - X)2] " .. + n(IJ. - . X)3 _ X) 2 1 i:_ (X;- J.L)t- n(X l_ J.L?. •-~ I Portanto, , 1 - 2) 1 u2 n E ( - - - L(X;-X) = - ·I- [ nu 2 - n - ] = u 2• n- 1 i=l nT 1 n Comentário: Se tivéssemos dividido por n em vez de fazê-io por (n-1) ao definir S\ a propriedade acima não seria válida. !I (b) Não demonstraremos a prop1edade (b ), mas somente faremos sua validade plausível, pela consideraçãp do seguinte caso particular. Con- sidere-se L~-1 (X; - X) 2 para n = (X1- X) 2 + (X2 - 2. Então, . X)2 = [X1- j(X1 ~ X2)J2 + [Xz- t(X~ + X2)J2 = f[2.XI- XI - X2)2 + l[2X2- XI- X2)2 = l[(X1- X2)i + (X2- X1)~l= [XI- X 2)2 ·• I 2 Desde que xl e x2 sejam independe~temente distribuídas, anibas Cólp distribuição N(J.L, é), encontraremos que (X 1 - X2) terá distribui" 320 I PROIBABOUDADIE c;fio N(O, 20" 2). Daí, X2] = ~i:_(x;-X) = --\s 2 [ Xrv20" O" i=l 2 (J terá distribuição de qui-quadrado com um grau de liberdade. (Veja o Teor. 10.8.) A demonstração, para n qualquer, segue caminho semelhante: Deveremos mostrar que L7=1 (X;- X)2/0" 2 poderá ser decomposto na soma de quadrados d~ (n ""' 1) variáveis aleatórias independentes, cada uma com distribuição N(O, 1). Comentário: Muito embora S 2 seja definid·a como a soma de quadrados de n termos, esses n termos n/io são independentes. De fàto, (X1 - X) + (X2 - X) +. + ... + (Xn - X) = L~= 1 X; - nX = O. Por isso, existe uma relação linear entre esses n termos, o que significa que tão logo quaisquer (n - 1) dêles sejam conhecidos o n-ésimo ficará .determinado. Finalmente, vamos enunciar (sem demonstrar) um resultado referente à distribuição de probabilidade da amplitude amostral R.· Teorema 13.5. Seja· X uma variável aleatória contínua cúm fdp f. Seja R = M - K a amplitude amostral, baseada em uma amostra aleatória de tamanho n. Então, a fdp de R será dada pbr g(r) = 1+"' [js+r n(n- 1) = _"' x=s j(x) dx ]n-2j(s)j(s + r)ds, para r ;::: O. Exemplo 13.2. Uma tensão elétrica aleatória ·V é uniformemente distribuída sobre [O, 1]. Uma amostra de tamanho n é obtida, digamos, V IJ ••. , V n, e a amplitude amostral R é calculada. A fdp de· R é, a seguir, encontrada igual a g(r) = +" 1 n(n - 1) = _"' r n- 2j(s)j(s + r) ds. Temosj(s) = f(s +r)= 1 sempre que O~ s ~ 1 e O~ s + r as quais em conjunto determinam que O~ s ~ 1 - r. Daí, k(r) = n(n- 1) = n(n - jl-r 2 rn- l)rn- 2 (1 - r), ds O~r~l. ~1, AMOSTRAS lE DISTRUIBUDÇÕES AMOSTRAIS I 321 Para n > 2, o gráfico da fdp de R tem o aspecto mostrado na Fig. 13.2. Observe-se que, quando n __,. oo, o valor de r, para o qual ocorre o máximo, se desloca para a direita. Por isso, à medida que o tamanho da n,mostra aumenta, torna-se cada vez mais provável que a amplitude R se aproxime de 1, o que, intuitivamente, era de se esperar. x(r) r=(n-2)/<n -· 1) , ;, l Fig . 13 .2 13.5. A Transformação Integral Uma amostra da variável aleatória X pode ser empregada para obter-se alguma informação sobre parâmetros desconhecidos, associados à distribuição de probabilidade de X. No entanto, poderemos empregar uma amostra para objetivo diferente. Poderemos tomar algumas observações de uma variável aleatória, cuja distribuição seja completamente especificàda e, a seguir, empregar esses valores amostrais para aproximar determinadas probabilidades, as ·quais seriam muito difíceis de se obter através de transformações matemáticas diretas. Por exemplo, suponha-se que X tenha distribuição N(O, 1), e desejamos estudar a variável aleatória Y = e- X s~n X. Em particular, admitamos que se deseje calcular P(O S Y S 1/2). A fim de se obter a resposta exata, necessitaremos achar G, a fd de Y e, depois, calcular G(l/2) - G(O). I\ ós encontraríamos considerável dificuldade para fazer isso. Contudo, poderemos seguir outro caminho, o qual se baseia na idéia de simulação do experimento que dê origem à variável aleatória Y. Então, empregaremos a freqüência relativa como uma aproximação da probabilidade desejada. Se esta freqüência relativa for baseada em um número suficientemente grande de observações, a Lei dos Grandes Números dará justificativa ao nosso procedimento. Especificamenie, suponha-se que temos uma amostra . aleatória da variável aleatória X, acima, cuja dis tribuição e8teja completamente especificada, digamos X 1, . • . , X,.. Para cada X;, defina-se a variável aleatória Y, = e-x, sen X;. A segwr calcularemos a freqüência relativa nA/n, onde n.t é igual ao número de valores de Y, , digamos y;, que satisfaçam O ~ Y• S 1/2. Portanto, ·11A/n será a freqüência relativa do evento O ~ Y ~ 1/2, e se n· for grande, esta' freqüência relativa será próxiiiU!. de P(O Y ~ l/2), no sentido da · Lei dos Grandes Números. s 322 I PROBASILIDADIE Para levar a cabo o procedimento acima, deveremos achar um meio de "gerar" uma amostra aleatória X 11 ••• , X, da variável aleatória cuja distribuição é N(O, 1,). Antes de indicarmos como isso se faz, vamos apresentar, bl!'l&vemente, uma .distribuição para a qual essa tarefa foi essencialmente realizada para nós, por causa da disponibilidade de tábuas. Suponha-se que X seja uriiformemente distribuída sobre o intervalo [O, 1]. A fim de obter uma amostra aleatória, necessitaremos apen&S de consultar uma Táboo de Números Aleatórios (veja o Apêndice). Tais tábuas foram compilad!IS de maneira a tomá-las adequadas parn este objetivo. Pam empregá~las, apenas selecionamos uma posição ao acaso na tábua e, a seguir, obtemos números seguindo as colunas (ou as linhas). Se desejarmos empregar esses números tabulados para representarem valores entre O e 1, precisaremos somente inserir a vírgula decimal no início do número; de8se. modo, o número 4.573, como está tabulado, seria empregado para representar o número 0,457 3 etc. A disponibilidade dessas tábuas de números aleatórios toma relativamente simples a tarefa de obter-se Uiru!. amostra aleatória de 1liW!. distribuição arbitrária, em virtude do resultado contido no seguinte teorema. Teorema 13.6. Seja X uma variável aleatória com fdp j e fd..F. [Suponha que f(x) = O, z EE (a, b).] Seja Y a variável aleatóri& definida. por · Y = F{X). Então, Y será uniformemente distribuída sobre [0, 1]. (Y é denomin.ada a transformada integral de X.) 1 Demonstração: Desde que X é uma variável aleatória contínua, a fd F será. uma· função continua, y=F(x) estritamente monótona, com uma função inversa, F- 1• Isto é, Y = = F(X) pode. ser resolvida para X em termos de Y: X = F- 1(Y). (Veja a Fig. 13.3.) [Se F(x) = O para x S a, defina~se F- 1(0) = a. Semelhantemente, se F(x) = 1 para x 2: b, defina-se F- 1(1) = .b.] Seja G a fd definida acima. Então, G(y) = P(Y s y) = P[F(X) s y] = P[X s F- (y)] = F[F-l(y)] = y. Conseqüentemente, a fdp de Y, g(y) llOI:ll:lo resultado. 1 = G'(y) = 1. Isto estabelece AMOSTRAS E DISTRIBUIÇÕES AMOSTRAIS I 32J Comentários: (a) Vamos comentar, resumidamente', como um valor da variável aleatória Y é realmente observada! Observamos um valor da varhivcl aleatória X, digamos x, e depois caléulamÓs o valor de Y = F(X) como sendo y == F(x), onde Fé a (conhecida) fd de X. J · (b) O Teor. 13.6, enunciado e demOJ).Strado acima para variáveis alcat\Írias contínuas, também vale para variáveis· aleatórias discretas. Uma ligeira aitéração deve ser feita na demonstração, porque ja fd de uma variável aleat6ria discreta é uma função em degraus e não tem uma inversa única. . ' .· · · I . Agora poderemos empregar o resultado acima, a fim de gerar uma amostra aleatória de uma variável aleatória com distribuição especificada. Também estudaremos ~omente o ca.So . continuo~ . Seja X uma variável aleatória com fd F, Jda qual se :pede uma amostrl!>. , Seja y1 um valor (entre O e 1) obtido!de uma tábua de números aleatórios. Porque Y = F(X) é uniformemente distribuída I .· . sobre [O, . .1], .·.. poderemos considerar Yl como Uffi1;!. observa~,;ão daquel:J. variável aleatória. Resolvendo a eq~ação Y11= F(xt) para x1 (o que é possível se X for contínua), obteremos um valor da variável aleatória cuja fd é F. Continuando. este procedimento com os números y 2, .••• y,. tirados de uma tábua dei números aleatórios, obteremos x., i = 1, ... , n, como a solução da ~qunção y; = F(:r;), e, portanto, teremos nossos valores amostrais desejados. I I que Idesejemos Exemplo 13.3. Suponha-se obter uma amostra de tamanho cinco, de uma variável aleatória com distribuição N(2, 0,09). Suponha-se que obtenHamos os seguintes valores de uma tábua de números aleatórios: oJ487, 0,722, 0,661, 0,194, 0,336. Defina-se x 1 da seguinte maneira: ' . 0,487 = = V 2?r1 (0, 3) 1 v 21r f%1_ ~ expli[ - J(xl-2)/0,3 _~ ex~ I t- 2) 21 ( ---o.3 2] dt (-s2)ds = <p(xl-0,3 2\.j 2 Das tábuas de distribuição normal, eJcontraremos que (x1 ~ 2)/0,3 = = ~ 0,03. Conseqüentemente, x 1 0,03) (0,3) + 2 = 1,991. Esse número representa nosso ppmeiro valor amostral da distribuição especificada. Procedendo-se da mesma maneira com os outros valores, obteremos os seguintes valores amostrais adicionais, 2,177, 2,124; 1,742, 1,874. \ . +(- O procedimento acima pode ser generalizado da seguinte maneira: Para obter um valor amostral x1 da ;distribuição N(fl, u 2), obteremc;>~ ,,':.I ..1. I d ! 1: 324 I IPROBABIUDADIE um valor amostral y 1 (entre O e 1) de uma tábua de números aleatórios. O valor desejado Xt será definido pela equação <t>[(xt - p,)/u] = Yt· Ctnnentários: (a) Há mé.todos alternativos daquele sugerido acima, para a geração de amostras aleatória.s de uma distribuição especificada. Veja o Probl. 13.8. (b) Um dos aspectos que tornam útil esta resolução por "simulação" é m possibilidade de obter-se uma amostra aleatória ba.stante grande. Isto será factível, especialmente se um computador eletrônico for disponível. Exemplo 13.4. O empuxo T de um foguete · de combustível sólido é uma função muito complicada de várias variáveis. Se X = = área da· garganta, Y = fator da taxa de combustão, Z = área de combustão de combustível sólido, W = densidade do combustivel sólido, n = coeficiente de combustão, e C; = constante, i= 1, 2, 3, poderemos exprimir T, da seguinte forma: X T = G1 ( YWZ )1/(n-1) X + C2 ( X . YWZ )1/(n-1) + Ca. Investigações anteriores tomaram plausíveis as seguintes hipóteses: X, Y, W e Z são variáveis aleatórias independentes, normalmente ·. distribufdas, com médias e variâncias conhecidas. Quaisquer esfor· ços para obter a distribuição de probabilidade da variável aleatória X, ou mesmo expressões exatas para E(T) e V(T) serão frustradas em virtude da complexa relação entre X, Y, W, Z e T. Se pudermos gerar uma .(grande) amostra aleatória de X, Y, Z e W, obtendo-se quadras (X;, Y;, Z;, W;) por exemplo, poderemos depois gerar a amostra grande de T, digamos (Tt, ... , T ,.) e tentar <eStudar a característica da variável aleatória T empiricamente (em termos da amostra). Suponha-se, por exemplo, que desejemos calAplicando a Lei dos Grandes Números, neces~ sitaremos somente obter a freqüência relativa do evento I a ~ T :::; b l lll partir de nossa. amostra {grande), e, depois, poderemos el't.ar ra:zoJJ>velmente certos de que eSta freqüência relativa difira pouco da probabilidade teórica que estejamos procurando. ~mlar P(a ~ T ~ b). Até aqui, estivemos a tratar somente do problema · de aproximação de uma probabilidade exata com a freqüência relativa blli.Beada em um grande número de observações. Contudo, o método que sugerimos pode ser empregado para obter· soluções aproximadas de problema.s, que sejam de natureza inteiramente não-probabilística. Mencionaremos apenas um dos muitos tipos de problema.S que podem ser estudados· dessa maneira. O tratamento é referido como o m& '''_;_11! '1 ·',(i ~ i l~ III . :I ~ AMOSTRAS E msTIF!OBUOÇÕES AMOSTRA6S I 325 ,.!.: ·;r ~;:hi. todo de "Monte Cario". Uma excelente explicação deste método está apresentada no livro Modem Mathematics for the Engineer, editado por E. F . JBeckenbach, McGraw-Hill JBook Co., Inc., New York, :1.956, Cap. 12. O Ex. :1.3.5 foi extraido dessa obra. Exemplo 13.5. Suponha-se que desejemos calcular a integmK J;/x dx, sem recorrer ao cálculo trivial para obtermos seu valôrl/2. Procederemos da seguinte maneira. Obteremos, de 'lmia tábua de números aleatórios, uma amostra aleatória da variável aleatória uniformemente distribuida sobre [O, 1]. Admita-se que os valoi'e3 amostrais sejam: 0,69, 0,37, 0,39, 0,97, 0,66, 0,51,:..0,00, 0,41, 0,76 e 0,09. Visto que a desejada integral representa E(X), onde X é a variável aleatória umiformemente distribuída que está sendo amostrada, parece razoável que poderemos aproximar E(X) empregando a média aritmética dos valores amostrais. Encontraremos que X= 0,545. (Se tivéssemos tomado w:na amostra maior, teriaml)s boas razões para esperar maior precisão.) Esta ilustração trivial apres~mta a idéia fundamental, por detrás dos vários métodos de Monte Cario. Tais métodos têm sido frutuosamente empregados para calcular integrais múltiplas sobre complicadas regiões e para resolver determinadas equaçõ.es diferenciais; Comentário: Os recursos de obtenção de amostras de uma distribuição arbitrária, como .foi explicado na SeÇão 13.5, podem se tornar bastante incômodos. Em virtude da grartde importância da distribuição normal, existem tábuas disponíveis (veja a Tábua 7 no Apêndice) que eliminam uma grande parte dos cálculos descritos. A Tábua 7 lista diretamente amostras da distribuição normal N(O, 1). Esses valores amostrais são denominados desvios (ou afastamentos) normais reduzidos. Se n valores amostrais x,, .. . , Xn de uma distribuição N(O, 1) forem desejados, eles serão lidos diretamente da Tábua 7 (escolhendo.,se o ponto de partida de alguma maneira razoavehnente aleatória, como foi explicado para o emprego da Tábua de Números Aleatórios). De forma óbvia, esta tábua também pode ser empregada para obter amostras de uma distribuição normal qualquer N(p., a 2 ). Bastará multiplicar xi, o valor escolhido na tábua, por a e depois somar J.L, isto é, formar Yi = axi + p. . Dessa maneira, Yi será um valor amostral da distribuição desejada. Problemas 13.1. Deduza a expressão da fdp do mínimo de uma amostra. (Veja o Teor. 13.2.) ,;_:J,i !,~~~ll - , • "I ,_.(itl~ I :;:~ ~~iil\;. ·-'·t'L , ·il•i!l }: (~!1~ 11 il!~il:;: ! l ~ l !! jJI(U 1 l:i t'il'i ~ilri\1] ~~'.:~ -~r~ : j::• l[• k ~ --~i· í: ,_ . r- ~h:' \ :. 111!1. ·. Ji ' l' ;l\~!l~ i: lfl \i, 326 I PROBABIUDADIE 13.2. Verifique que se X 11 .•. , Xn forem variáveis aleatórias independent-es, cada uma tendo uma distribuição exponencial com parâmetro a;, i = 1, 2, . . . , n, e se K = mín (X h .. . , X n), então fC terá uma distribuição exponencial com parâmetro a 1 + .. . + an. (Veja o Teor. 13.3.) 13.3. Suponha que X tenha uma distribuição geométrica eom parâmetro p. Seja X 11 . .. , Xn uma amostra aleatória de X e sejam M = máx (Xl> ... , Xn) e K = mín (X 11 . . . , Xn). Estabeleça a distribuição de probabilidade de Me de K. [Sugestão : P(M = m) = F(m) - F(m - 1), onde F é a fd de 111.] 13.4. Uma amostra de tamanho 5 é obtida de uma variável aleatória com distribÚição N(12, 4). (a) Qual é a probabilidade de que a média amostral exceda 13? (b) Qual é a probabilidade de que o mínimo da. amostra seja menor do que 10? (c) Qual é a probabilidade de que o máximo da amostra exceda 15? 13.5. A duração da vida (em horas) de uma peça é exponencialmente distribuída, com parâmetro f3 = 0,001. Seis peças são ensaiadas e sua duração até falhar é registrada. (a) Qual é a probabilidade .de que nenhuma peça falhe antes que tenham decorrido 800 horas ? (b) Qual é a, probabilidade de que nenhuma peça dure mais de 3.000 horas? 13.6. Suponha que X tenha distribuição N(O, 0,09). Uma amostra de tamanho 25 é obtida de X, digamos X1, .... , X26· Qual é a probabilidade de que 2:7: 1 X;~ exceda 1,5? 13.7. Empregando uma tábua de números aleatórios, obtenha uma amostra aleatória de tamanho 8 de uma· variável aleatória que tenha as seguintes distribuições: Exponencial, com parâmetro 2. De qui-quadrado, com 7 graus de liberdade. (c) N(4; 4). (a) (b) 13.8. Na Seç. 13.5, apresentamos um. método pelo qual amostras aleatórias de uma distribuiç_ão especificada podem ser geradas. Há vários outros métodos pelos quais isto pode ser feito, alguns dos. quais são preferidos em relação ao apresentado, particularmente se equipamentos de cálculo estiverem disponíveis. O seguinte é um desses métodos: Suponha que desejemos obter uma amostra aleatória de uma variável aleatória que tenha distribuição de qui-quadrado, com 2k graus de liberdade. Proceda assim: obtenha uma amostra aleatória de tamanho k (com o auxílio de. uma tábua de números nJef!,tórios) de uma variável aleàt6ria que seja uniformemente distribuída sobre (0, 1), digamos ul, ... , uk. A seguir, calcule X1 = -2ln (U1U2 ... Uk) = -2 L7= 1 ln (U;). A variável alea- tória X 1 terá, então, a distribuição desejada, como indicaJ!emos abaixo. Prosseguiremos, depois, este esquema, obtendo outra amostra de tamanho k de uma variável aleatória uniformemente distribuída, e, desse modo, encontrando o segundo valor amostral X 1 . Note-se que este procedimento exige k observações de uma I AMOS"fiFIAS E lODST~DBUDÇÕES AMOSTRAUS I 327 I I I variável aleatórilil uniformemente distribulda, pare cada obaervàçi!.o de x? 2~c. Para verificar 1!1\ afirma.ç~ feitl!l\ 1!1\Cima, procede. \como seg~,te: 1 ' • (a) Obtenh~t a funç!M> gere.triz de mom~n~ da varill.vel .aleátória -2ln (U,), onde u, é uniformemente distribulda sobre (O, 1). (b) Obtenh111 & função geratriz de ~omentos da ' -variável · ai.eatórii!l _ 2 I:~= 1 ln (U;), onde os U 0 .si!.o variáveis ~leatórias independentes, cada um& com a distribuição acim&. Compare esta fgm ~om a da distribuição de .qui-que.drsdo e, depois, chegue à conclusão desejada. ! ·, · 13.9. Empregando o esquemm esboçado no' Probi. 13.8, obtenha ume am.ostre aleatória de tamanho 3, da. distribuição de x}l. I I 13.10. Uma ve.riáyel aleatória contínua 'X é uniformemente distril>uld& sobre· ( -1/2, 1/2). Uma amostra de tamanho n \é obtida de X e a inédia I!Jilos~ral X é calculada. Que.! é o desvio-padrão de X? I · · . !.. . ,;: I . 13.11. Amostras independentes de tamanllos 10 e 15 são tiradas de uma ve.riável a.lee.tória norme.lmente distribulda., coni expectâncie. 20 e variância. 3. Qual será a probabilidade de que as médie.s da.s ldua.s amostras difiram (em valor : absoluto) de mais de 0,3? i ' 13.12. (l'ara este exercício e os três segujntes, leia o Comentário no final ·do Cap. 13.) Empregue a tábua de desvios normhls reduzidos (Tábua 7, no Apêndice) e obtenha urna amostra de tamanho 30, de uma variável aleatória X que tenha a distribuição N (1,4). Use esta amostra parÁ responder o seguinte: I . I I (a) CompareP(X;;;. 2) coni a freqüência relativa do evento. (b) Compare a média amostral J[ e . a vatiância amostral S 2 com 1 e 4, respectivamente . \ (c) Construa o gráfico de F(t) = P(X.;; t ,) . Empregando o mesmo sistema ;:... · . de coordenadas, obtenha o gráfico da função de 4istribuição edzpz'rica Fn defmida assim: i O, se t <X(l) k/n, seX(k).;; t=X(k + l) 1, se t;;;. x<n\ i i .. na qual x<O é a i-ésima maior observação na atnostra (isto é, x<O é a i-éshna estatística ordinal). [A função Fn é freqüentem~nte ·empregada para aproxinlar a fd F. Pode-se demonstrar que, sob condições bastante gerais, limn __,. = F~(t) = ! =F(t)-] I 13.13. Admitamos que X tenha distribuiç~ N(O, I). Da Tábua 7 no Apên..,djce, obtenha uma amostra de tamanho 20 desta d~stribuição. ' · . Faça Y = I X I. . I (a) Empregue esta amostra para comparar P[1 relativa daquele evento. I· < Y.;; 2] com afreqüência · · 328 I IP'AIOlBABDi..O/CIAIOfE (b) Compare E (Y) com a média amostral Y. (c) Compare a fd de Y, a saber, F(t) = P(Y < t), com Fn, a fd empírica de Y. 13.14. Suponha que X tenha distribuição N(2, 9}.- !\.dmita que X 1 , • • • X 20 seja uma ainostra aleatória de X obtida com o auxílio da Tábua 7. Calcule S2 = 1 n-1 t , (Xi- X')' i=l e compare comE(S 2 ) = 9. 13.15. Admita qu.e X tenha distribuição N(O, 1). Seja X 1 , •• , , X 30 uma amostra aleatória de X Õbtida empregando-se a Tábua .7. Calcule P(X2 ;;;. . O, 10) e compare esse valor com a freq üência relativa daquele evento. · Estimação de Pdrâmetros Capítulo 14 No capítulo ãnterior, mencionamos que muito freqüentemente uina amostra aleatória de uma variável aleatória X pode ser empregada com o objetivo de estimar um ou vários parâmetros (desconhecidos) associados à distribuição de probabilidade de X. Neste capítulo, estudaremos·· esse probl~ma minuciosamente. Para que se tenha em mente um exemplo específico, considere-se a seguinte situação. Um fabricante nos forneceu 100.000 pequenos rebites. Uma junta firmemente rebitada exige que o rebite encaixe idêquadamente em sêu furo e, conseqüentemente, verifica-se algum · transtorno quando o rebite tiver rebarbas. Antes de aceitar esta rein~ssa, desejamo:; ter alguma idéia sobre a magnitude de p, a proporção de rebites defeituosos (isto é, com rebarbas). Procederemos da seguinte maneira. Inspecionaremos n rebites escolhidos, ao acaso, da partida. Em virtude do tamanho grande da partida, poderemos admitir que escolhemos com reposição, muito embora isto na realidade não venha a ser feito. befmamos as seguintes variáveis aleatórias: X;= 1, se o i-ésimo item for defeituoso, e O, em caso contrário i= 1, 2, ... , n. Portanto, pode:::emos considerar X 11 . • • , Xn como uma amostra da variável aleatória X, cuja distribuição é dada por P(X = 1) = p, P(X = O) = 1 - p. A distr~buição de probabilidade de X depende do parâmetro desconhecido p, de uma maneira muito simples. Poderemos emprea amostra X 11 . . . , X .. para, de algum modo, estimarmos o valor p? Existe alguma estatística H, tal que H(X 1, •.• , Xn) possa .ser empregada como uma estimativa ('por ponto) de p? Seria óbvio que uma amostra de tamanho n, onde n < 100.000, nunca nos pemitiria reconstruir a compos{ção real da remessa, não importa quão esclarecidamente utilizássemos a informação obtida da 330 I PR OBABIUDADE amostra. Em outras palavras, a menos que inspecionássemos cada it~m (isto é, tomássemos n = 100.000) nunca poderíamos conhecer o verdadeiro valor de p. (Esta última afirmação se refere obviamente à amostragem sem reposição.) Conseqüentemente, quando propomos como uma estimativa de p, não esperamos realmente que venha a ser igual a p. (Recordemos que p é uma variável alea:tória e, por isso, pode tomar diferentes valores.) Este dilema origina duas importantes questões : p p (1) Quais as características que desejamos qw~ 'uma estimativa apresente? (2) Como decidiremos que uma estimativa é "melhor" outra? Já que esta poderá ser a primeira vez que o leitor tenha encontrado . questões deste tipo, parece valer a pena comentar resumidamente a : natureza geral deste problema. Para muitas questões matemáticas há uma resposta definida. Esta pode ser muito difícil de encontrar, abrangendo muitos problemas técnicos, e poderemos ter de nos contentar com uma aproximação. Contudo, é comumente ·evidente quando temos uma res- ' posta e quando não a temos. (Por exemplo, suponha-se que se peça . encontrar uma raiz real da equação 3x 5 - 4x 2 13x- 7 =O. UI.lla .· vez que se tenha achado uma solução, é muito simples verificar se ela é a solução correta: precisaremos somente substitui-la na dada. Se tivermos duas respostas aproximadas, .digamos r1 e r2, será também assunto simples ·decidir qual das aproximações é a melhor:) No entanto, o presente problema, a saber a estimação de p, não admite uma análise tão simples. Em primeiro lugar, porque nunca poderemos (ao menos em uma sit.\.Iação concreta) conhecer o verda.., deiro valor de p, não fará sentido dizer que nossa estimativa p seja . "correta". Segundo, se tivermos duas estimativas de p, por exemplo. Px e P2, deveremos achar alguma maneira de decidir qual delas é '·melhor". Isto significa que deveremos estipular algum critério, . que poderemos aplicar para decidir se uma estímativa deve ser preferida à outra. + 1.4.2. Critérios Para Estimativas Agora definiremos alguns conceitos importantes liarão a resolver os problemas sugeridos acima. ..) IESTIMACÃ9 IClliE PAIPlÂM~TROS I 33~ 1 ..... . i Definição. Sejà X uma variável aleatóri~ com alguma distrib~tção de probabilidade que dependa de um par~etro desconhecidà. Seja X 1 , ••• ,Xn uma amostra de X, e sejamx 1 , •• ! . ,xn os correspondentes valores amostrais. Se g(X1 , ••• , Xn) for um~ função qe amostra a ser empregada para estimação de e, nos referiremds a g como um estimador de e. O valor que g assume, isto é, g(x 1 , • • l xn), será referido como uma estimativa de e e é usualmente escrito Jsim: ê = g(x 1 , .•• , xn). (Veja o Coméntário seguinte.) . \ Cqmentdrio: Neste capítulo, nós transgredir~mos uma regia que t~mos respeitado bastante cuidadosamente até aqui: fazer uma distinção cuidadosa entre uma variável aleatória e o seu valor. Assim, freqüeptemente falaremos de Q, a estimativa de e, quando desejaríamos realmente falar ilo est4uadorg(X1 , ••• ,Xn). Desta maneira, escreveremos E(Ô) quando, naturalmente, queremos significar ••• , Xn)]· Contudo, o contexto no qual no ~ permitiremos esta liberdade eliminará qualquer possível ambigüidade. E[g(X 1 , I Definição. Seja ê uma estimativa do patâmetro desconhecido e associado com a distribuição da variá':~l aleat~ria X Neste caso, e será um estimador não-tendencioso (ou uma es:f!ativa não-tendenciosa; veja o Comentário precedente) de e, se forE(B) =e para todo e. I ';"; ·r_ ';,: • Comentário: Qualquer boa estimativa deve ser ..próxima" do valor que está sendo estimado. "Não-tendenciosidade" signifj.ca, essencialmente, que o valor médio da estimativa será próximo do verdadeiro valor do parâmetro. Por áemplo, se a mesma estimativa for empregada rep~tidamente e promediarmos esses valores, esperaríamos que a média fosse próxima do verdadeiro valor do parâmetro. MuitQ embora seja desejável que uma ~stirnativa seja não-tendenciosa, haverá ocasiões em que poderemos preferir estimativa tendenciosa (veja abaixo). :E: possível (e na verdade muito facilmente Úito) encontrar mais de uma estimativa não-tendenciosa para um parâmetro desqonhecido. A fim de realizar uma escolha plausível em tais situações, introduziremos o seguinte conceito. I ~ I Definif!o. Seja e uma estimativa não-tf ndenciosa de e. Diremos que e é uma estimativa não-tendenciosa, de variância mz'nima de e, se para todas as estimativas e* tais qÓe E(e *) = e, tivermos V(B) < V( e*) para todo e. Isto é, dentre todJs as estimativas não-tende e' e tem a variância menor de todas. denciosas .· . ' ~ Comentdrio: (a) A variância de um~ variáved aleatória mede a variabilidade da variável aleatória em tomo de seu. valor es~erado. Por isso, exigir que uma estimativa não-tendenciosa tenha variância pequ1ena é intuitivamente compreensível. Porque se a variância for pequena, então q valor da variável aleatória tende a ser próximo de sua média, o que no caso de unia estimativa não~tenden- · · ,.ciosa si~ifica próxima do valor verdadeiro do parâmefro. Assim, se (J 1 e ê 2 forem 332 I lf>ROBA\B!UIOAIDE duas estimativas de O, cuja fdp está esboçada na Fig. 14.1, presum1velmente pre- ferirí~mos ~ a é;. Ambas as estimativas são não-tendenciosas, e V(Ô!) < V(Ô2). 8 8 Fig. 14.2 Fig. 14.1 No caso das estimativas Ô3e Ô4, a decisão não é tão evidente (Fig. 14.2), porque A A A '" 63 é não-tendenciosa, enquanto 84 não o (\. Todavia, V(8,) > V(84). Isto significa que, enquanto em média Ôa será próxima de 8, sua grande variâ~cia revela que desvios consider-áveis em relação a 8 não serão de surpreender. 84, por sna vez, tende a ser um tanto maior do que fi, em médin, e no entanto, poderá ser mais próxima de 6 do que é; (veja a Fig. 14.2). (b) Existem alguma.~ técnica.~ gerais para encontrar ·estimai ivas não-tendenciosas de variância mínima. Contudo, não estamos capacitados a explicar isso aqui. Fl!.l'emos uso deste conceito principalmente com a finalidade de escolher entre dW!B ou mais llStimS.tivas não-tendenciosBB disponíveis. Quer dizer, se Ô1 e 2 ~rem ambas estimativas não-tendenciosas de e se V(Ô1) < V(Ô2), preferiremos 81• o: 0 Outro critério para julgar estimativas é um tanto mais difícil de formular e é baseado na seguinte definição. - DefiniÇão. Seja e urna estimativa (ba~eada em uma amostra · X1, ... , Xn) do parâmetro e. Diremos que () é urna. estimativa coerente de 8 se lim Prob [ jÔ- 8 I > ti:] = O para todo e >O ou, 'equivalentemente, se lim Prob [jÔ- ej ~ti:] n->"' 1 para todo "' > O. Comenl.ários: (a) Esta definição declara que um& estimativs será coerente se, à medid& que o tamanho da amostra n for aumentado, 'a estimativa Ôconvergirá para 8, no sentido probabilístico acima. Esta é, também, um& característica intuitivamente compreensível que uma estimativa deva possuir, porque ela diz que à medida que o tamanho da amostra crescer (o que significará, n& maioria de circunstâncias razoáveis, que mais informação se torne diSponível) a estimativa se tofnará "melhor", no sentido indic&do. (b) É relativamente .fácil verificar se uma estimativa é não-tendenciosa ou tendenciosa. Também é bastante imediato ·comparar as variâncias de duaa estimativas não-tendenciosas. Contudo, verificar a coerência, pela aplicação da def'mição acima, não é tão simples. O teorema seguinte é muitas vezes bastante útil. !ESTiMAÇÃO DIE IP'AIRAMHROS I 333 Teorema 14.1. Seja ê uma estimativa de e baseada em uma amostra de tamanho n. Se Iimn .... ""E(ê) =e, e se Iimn .... "" V(ê) =O, então ê será uma estimativa coerente de e. Demonstração: Empregaremos a desigualdade de Tchebycheff, Eq. (7 .20). Assim, escreveremos P[l ~ 1 2 ê- e1:;:;;.€],;;- E[ e- e] = €2 I c· ~ . ·~ =-E[8-E(e)+E(e)-e]2 = €2 ~ . 1 • • • • • = - E{[e-E(e)y +2[8 -E(e)][E(8)-e]+ é . + [E(ê)-8] 2 }= 1 • ·-.. = -€2 I V ar e + o+ [E (e) - e]2 }. Portanto, fazendo n -+ encontraremos oo e empregando as hipóteses do teorema, e, por isso, igual a O (zero). Comentário: Se a estimativa tará automaticamente satisfeita. ê for não-tendenciosa, a primeira condição es- Um último critério, que é freqüentemente aplicado a estimativas, pode ser formulado da seguinte maneira: Suponha-se que X 1 , . • . , Xn seja uma amostra de X e que e seja um parâmetro desconhecido. Seja .ê uma função de (X1, ... , Xn). Definição. Diremos que linear de e se: (a) E(ê) =e. (b) ê é a melhor estimativa não -tendenciosa . ê = 'L7= 1 aixi. Isto é, ê é uma função linear da amostra. (c) V(ê).;;;; V(8*), onde e* é qualquer outra estimativa de e que a (a) e (b ), acima. ~atisfaça I :11 334 I PROBABILIDADE Subseqüentemente, estudaremos um método bastante geral que ·;;:t~ fornecerá boas estimativas em um grande número de problemas, no ~~ sentido de que elas satisfazem a um ou mais dos critérios acima. ~~ Antes, porém, vamos examinar algumas estimativas que são intuiti- 'ifj vamente mW.to razoáveis, e verificar, a seguir, quão boas ou más elas .)t~ são em termos dos critérios acima. ~~ I 14.3. Alguns Exemplos Os critérios anteriores de não-tendenciosidade, vanancia mínima, coerência e linearidade nos . dão, ao menos, algumas diretrizes para julgarmos uma estimativa. Vamos agora ex~minar alguns exempl os. :t/i ~~ :~t •:\!Mi _';~~~~ Vamos reexaminar o problema anterior. Nós ti- ~\}~: ·~: ramos uma amostra de n rebites e encontramos que a amostra 'i~~~ (X 11 , •• Xn) apresentou exatamente k defeituosos; quer dizer Y = Exemplo 14.1. 'J''-fllI = .L?=l X;= k. Em virtude de nossas hipóteses,· Y é uma va- ~~"~ riável aleatória binomialmente distribuída. ;~ ·}.{~R- . A estimativa do parâmetro p, intuitivamente mais sugestiva,. y~ , " • .,;>lF.J e p = Y/n, a proporção defeituosa encontrada na amostra. Vamos. i~~ apli~ar ~guns dos critérios anteriore§, para ver quão boa é a es:ti- ~:~~~ matlva p. \ i.il Portanto, p é uma estimativa não tendenciosa de p. V(p) = v( Y) = n n __!_.(np)(l - p) 2 = p(l- p) n Por conseguinte V(p) -7 O quando n -7 oo, e, por isso, p é uma esti- ;~ mativa coerente. Como já salientamos· anteriormente, poderão exis- ~ tir muitas estimativas não-tendenciosas para um parâmetro, algum:J; das quaiS poderão ser, no entanto, bastante insatisfat6rias. Con~ :WJ sidere-se, por exemplo, no contexto do presente exemplo, a estima- j~~ tiva p* assim definida: p* = 1 se o primeiro it~m escolhido for de:- ~! feituoso, e igual a O no caso contrário. Fica eviden.te que esta não é · ·~ uma estimativa muito boa, quando notamos que seu valor é apenas ~~ uma função de X1, em vez de XiJ ... , Xn . . No entanto, p* é não- JI -tendenciosa, porque E(p*) = lP(X = 1) OP(X = O) = p. A va- '~ riância de p* é p(l- p), a qual se compara muito mal à variância de p (l~l apresentada acima, a saber p(l - p)/n, especialmente se n for grande~ (o~ ·;g + ii I ESTIMAÇÃO DE PARÂMETROS I 335 I o resultado obtido no exemplo acima é um caso particular do seguinte enunciado geral: . I Teorema 14.2. Seja X uma variá;vel aleatória com expectância finita JJ. e variância u 2 • Seja X a média amostral, baseada em uma amostra aleatória de tamanho n . Nesse caso, X será uma estimativa não-tendenciosa e coerente de Jl.. I · Demonstração: Isto decorre imediatamente do Teor. 13.1, no qual demonstramos que E(X) = Jl. e V(X) = u 2jn, a qual se aproxima ele O quando n ~ . co. 1 . Comentário: .Verifica-se que o resultado dl monstrado no Ex. 14.1 é um caso particular do Teor. 14.2, quando observamos que a propor~ão defeituosa ns. limos. tra, Yjn, pode ser escrita na forma (1/f&) (X1 j+ ... + Xn), onde os· X; tomam os valores um e zero, dependendo .de ser ou não defeituoso o item inspecionado. . I A média amostral mencionada no Teor. 14.2 é uma funÇão linear da amostra, isto é, ela é da forma a1X1 + a 2X 2 + ... + anXn com a1 = .' .. = an = lfn. Vê-se facilmente\que P, = L~-l aJ(, constitui · ~ma estimativa não-tendenciosa de Jl. para qualquer escolha dos coe.. I ficientes que satisfaçam à condição L?=l a,= 1. Surge a s~guinte e 1 interessant~ qu~stão: Para qual escolha idos a; (sujeitos a -~i.:.1 a; = 1) sez:á a vanânCJa de Li= 1 a.X; a menor possfvel? · Venfwa-se que a . variância se tornará mínima se a;= 1/nlpara todo i. · Isto é, X constitui a estimativa linear, não-tendenciosa, de .variância mÍ'llÍma. Para verificar 1sso, considere~se M= t a;X;, i=l n E <i=l a·= 1 l Portanto , visto que OS Xi são variáveis aleatórias independentes com V!Uiância comum a2 • Escreveremos 1 'Ê af = (a1 i=l 1/n)2 + .. 1. + (an - 1/n)2 + I i · 2 +(2/nXal + ...l+an)-n(l/n )= I = (a 1 ...:... 1/n? + .. ~ + (an - 1/n)2 + 1/n~ -- 336 I lf'ROBAI86UDADIE (porque L" a1 = 1). i=l Portanto, esta expressão é evidentemente minimizada se for a.= I para todo i. = 1/n, Exemplo 14.2. Supo~ha-se que T, a duração até falhar de um componente, seja exponencialmente distribuida. Isto é, a fdp de T · é dada por j(t) = {je-~ 1 , t ~ O. Suponha-se que ensaiemos· n desses componentes, registrando a duração até falhar de cada. um, T 1,, .. , T n . Desejamos uma estimativa não:-tendenciosa da duração até falhar esp~rada, E(T) = 1/{j, baseada na amostra (T1, ... , Tn). Uma dessas . estimativas será T = (1/n) Do Teor. 14.2 sabemos que .· E(T) = 1/{:J. Visto que V(T) = l/{j 2 o Teor. 13.1 nos diz que V(T) = l/(j2n. Porém, T não é a .única estimativa não-tendenciosa de 1/{:J. De fato, considere-se o mrnimo da amostra a saber. Z = mín (Th ... , T.,.). De acordo com o Teor. 13.3, Z será também exponencialmente distribuída com parâmetro n{j. Conseqüentemente, E(Z) = 1/n{:J. Portanto, a estimativa nZ constitui também uma estimativa não tendenciosa de 1/fJ. I::-tT;. Para calcular sua variância, tomemos ·· V(nZ) = n 2 V(Z) = n2 1 - - .- (nfJ)2 1 = -. . {P Assim, muito embora as dua.S estimati~as nZ e T sejam ambas não-' ·. -tendenciosas, a última tem menor variância e, por isso, deverá ser preferida. ' Não obstante, nesta particular situação há outra razão que poderá influenciar nossa es_coiha entre as i:luas estimativas sugeridas. Os n componentes podem ser ensaiados simultaneamente. (Por exemplo, poderemos inserir n lâmpadas em n soquetes e registrar sua dura'ção até queimar.) Quandó' empregarmos nZ como nos;;a · estim:tLiva, o ensaio poderá estar terminado tão logo o primeiro componente tenha falhado. Ao empreganrlos T como nossa eRtimativ~. deveremos esperar até que todos os componentes tenham falhado.. É perfeitamente concebível que um longo pkriodo de tempo exista PntrP : . a primeira e a última falha. Explicando 1de outro n:todo: se L .for o ' tempo necessário pa.ra ensaiar os n itens, e ca~cularmos a estimativa · para 1/{j, então, empregando nZ, teremos L = rnin (T 1 , •. • , T n), en- · quanto se empregarmos T teremos L= máx (TI> . .. , Tn). · Portanto, · se o tempo necessário para executar os ensaios acarretar qualqurr !ESTIMAÇÃO DE PARÃMETROS I 33J ~onseqüência séri& (em texmos de custo, pol!' exemplo), poderem~a preferir a estimativa com maior variância. Exemplo :14.3. Suponha-se que desejemos u.ma estimativa nio,.tendenciosa da variân~~a U 2 de unm variável aleatória, baseada em · , uma amostra X h ••• , X ... .. ·. · . Muito embora intuitivamente pudéssemos considerar (i/n)L~=l (X; - X) 2, verifica-se que esta .estatística tem um valor esperado · · igual a [(n - l )/n]cr 2 • (Veja o Teor. 13.4.) Por isso, uma estimativa rÚí.o-tendenciosa de o- 2 será obtida tomando-se ,.. = ___ 1 ~ q2 L:-J n- 1 - . (X,; _ X)2 i=l Camentári.oo: (a) Muito embora dividir-illl por (n - 1) em vez de faz~lo por n acarrete diferenç& quando n for relsti;,amente pequeno, pare n mruor fará pequena diferença empregar-oo qualquer desslliS estimativas. . . . (b) O Ex. 14.3 ilustra uma situação bast&nte....,comum: POde acontecer que urna estimativa para um parâmetro {J, digamos {J, seja tendenciosa no sentido de 'que E(~)= k{3 ; nesse caso, simplesmente consideraremos uma .nova aJtimativa {]f/., .·a qual será, en:tão, não-tendenciosa. .. · . . (c) · Pode-tre verificar, muito embora não o tenhamos feito aqui, que m estj. mativa de 0'2, acima, é coerente. Tab. k o 1~.1 7 8 9 10 11 Total 57 203 383 525 532 408 273 139 49 27 10 6 2.612 1 2 3 4 5 6 - - - - -- -- - - - - - - -- -- - - - - ---- - 11)\; Exemplo 14.4. Na Tab. 14.1, reproduzimo~ os dados obtidos no famoso experimento realizado por Rutherford [Rutherford and · Geiger, Phil. Mag. §6 9 20, 698 (1910)] sobre a emissão de párticulas 01. por. uma font~ radioativa. Na tabela, k é o número de partículas •..•. . observadas em uma unidade de tempo [unidade = (1/8) minuto], ·; ·enquanto n,, é o número de intervalos, durante os quais k partículas ,.. foram observadas. Se fizermos X igual ao. número de partículas : ~mitidas durante o intervalo de tempo de 1/8 (minuto) e se admitirmos :>;qúe X tenha uma distribuição de Poisson, teremos ~-t: . . e- (1/s>~( +xt · k! P (X = k) = ij;:Desde que E(X) = (l/8)À, poderemos empregar a média amostral if;,para obter u.ma estimativa não-tendenciosa de· X/8. Pali"a À, obte!t#mos então a estimativa À= sx. t\ ... 338 I PROBABiUDADE Para calcular X simplesmente avaliamos ~11 L...Jk=okn~c ~ 11 = 3,87 particulas. ~k=O n1c Portanto, uma estimativa não-tendenciosa de À baseada na média amostral é igual a 30,96 (que pode ser interpretada como o número esperado de partículas emitidas por minuto). Exemplo 14.5. Na fabricação de explosivos, poçle ocorrer um.·, certo número de ignições, ao acaso. Seja X o número de ignições : por dia. Admita-se que X tenha uma distribuição de Poisson com · parâmetro À. A Tab. 14.2 fornece alguns dados que devem ser pregados na estim~ção de À. em- Tab. 14.2 Número de ignições, k Número de dias qom lc ignições, n~c o -75 1 90 2 3 4 5 6 Tot8.1 54 22 6 2 1 250 -- -- Novamente empregando a média amostral para a estimativa . de À, obteremos Ç' "--..,. . "' L~.:kn~c --=.~-'- = Lknk 1,22 número de ignições por di;:t. Tab. 14.3 Cinzas Contidas no carvão X n, X n, X n, 9,25 1 9,75 10,25 2 10,75 1 11,25 11,75 2 1 12,25 5 12,75 13,2& 13,75 4 7 6 14,25 13 14,75 15,25 15 15,75 13 16,25 16,75 15 24 17,25 19 17,75 18,25 . 22 23 18,75 12 19,25 12 1(),7.5 20,25 20,75 21,25 21,75 22,25 2 6 4 7 6 8 22,75 2 23,75 3 - -1 a; 24,25 nx o Total · de amostras 250 o 14 -24,75 o ~ 4 25,25 1 I 23,25 o I - • ESTI,AÇAO DIE IP'ARAMIETROS I 339 Exemplo 14.6. Verificou-se que a kuantidade de cinzas contidas no carvão é normalmente distribuída :com parâmetros p, e u2. Os dados da Tab. 14.3 representam o conteúdo de cinzas em 250 amos. tras . de carvão analisadas. [Dados exttaidos de E. S. Grumm~l and Â-· C. Dunningham (1930), British S~andards Institution 4!03, 17.] é O nÚme<i'O de amostras que tinham X por cento de COnteúdo de nz ~inzas. I A fim de estimar os parâmetros p, ~ u\ empregaremos as estima't ivas não-tendenciosas explicadas anteriormente . " p,= I 250 16,998, "2 _\_249 1_ ""' nz(X - p,")2-- 7,1. U - , L, I "' Comentário: Stlponha-se que tenhamos ~ma estimativa não-tendenciosa, Ó: Pode acontecer que estejamos r~almente interessados em . estimar alguma função de 6, digamos. g(6). [Por exemplo, 1se X for exponencial. ·.jnent~ distribuída com pa~âmetr~ ~~ estaremos lprovavelm~n~. intetess~os .em .l/6, a saber E(X).l Poder-;:;e-1a admitir que tudo rque necessrtanamos sena ·.conside1/Ô ou (ê)2' por exemplo, corno as estirn~tivas ~ão-tendenciosas apropriadas para 1/0 ou (6)2. Isto, definitivamen_te, nao é jassim. Na verdade, uma d~ desvantagens do critério de não-tendenciosidade é que, se tivermos encontrado uma 1 .·. estimativa. não-tendenciosa de 6, deveremos, ;em geral, recomeçar do princípio para encont' armos uma estimativa de g(IJ). !Somente se g(O) = ufJ b, isto é, '(lé. um parâmetro O. rar + ·somente se"'g for um~Junçã.o linear de O, será ~erdade q~e ElofoJJ = y[E(Ô)J. Em 'geral, E[g(8)] g [E(O)]. Por exemplo, supon!m-se que X seja uma variável , aleatória com E(X) = !J. e V(X) = u 2 • Já ·vimos Que a méqia amostral X. é uma . estimativa não-tendenciosa de p.. Será XJ um~ estimativa não-tendenCiosa de !J.. · Será XJ uma estimativa não-tendenciosa de . ~!i)2 ? A resposta é "não'', como · o cálculo seguinte. * I Desde que V(X) = E(X) 2 . E(XY "" V(X) - [E(X')J2, terezrios + [E(X)]2 = f++ (!J.J2 >"' (p,J2. u2 embora os exemplos acima mostrem, bastante conclusivamente, que i í E[g(Ô)] r" g[E(í)], que em muitos casos a igualdade rale, ao menos aproximadamente, se o tamanho da amostra for. gr~nde. Por exemplo, no ca,so acima encontramos [com ê =X e g(z) z2 ] que E(X) = p. e . E(X) 2 + u 2{n, a qual será aproximadamente igu~l a !i2 se n for grande. ;= = I I ', Estimativas de Máxima iVerossimilhanÇa I Nós estudamos apenas alguns critérios pelos quais poderemos 1 uma estimativa. Quer dizer, dada uma estimativa proposta I 340 I II"IFIOI3A.IBHJIDlADIE para um parâmetro desconhecido, poderemos verificar se ela é nãoe coerente, e poderemos calcular (ao menos, em princípio) sua variância e compará-la com a variância de outra estimativa. , . No entanto, não dispomos ainda de um procediJ;nento geral, com o qual possamos encontrar estimativas "razoáveis". Existem vários desses procedimentos, e exporemos um deles, a saber, o método da máxima verossimilhança. Em muitos casos, .este método conduz a estimativas razoáveis. A fim de evitarmos repetir nossa exposição para o caso discreto .· e o contínuo, vamos concordar em estabelecer a seguinte terminologia para os objetivos da presente exposição. Escreveremos j(x; O) quer pata a fdp de X (calculada no ponto x) ou para P(X = x) se X for discreta. Incluiremos e (na notação) com a finalidade de nos lembrarmos que a distribuição de probabilidade de X depende do parâmetro em relação ao qual estaremos interessados. Seja X I, . . . , Xn uma amostra aleatória da variável aleatória X e sejam xb . .. , Xn os valores amostrais. Definiremos a função de verossimilhant;a L, como a seguinte função da amostra e de (J: -tendencio~a e, (14.1) Se X for discreta, L(x~, .. . ' Xn; e) representará P[XI = XI, .. . ' Xn= 'znl; enquanto se X for contínua, L(x~, . .. , xn; e) representará a fdp conjunta de (Xt, ... , Xn). Se a amostra (Xt, . .. , Xn) tiver sido obtida, os valores amostrais (XI, ... , Xn) serão COnhecidos. Já que (J é desconhecido, poderemos nos prop0r a seguinte questão: Para qual valor de e será L (x 1 , .• • , Xn; 8) máxima? Colocando-a de maneira diferente, vamos supor que dispomos de dois. valores possíveis de 8, digamos 01 e 82. Vamos . admitir, além disso, que L(xi, .. . , Xn;OI) < L(xi, .. . , xn;02). Nesse caso, preferiríamos 02 a (h, para os valores amostrais dados (xi, . .. , Xn), · porque, se (}2 realmente for o verdadeiro valor de então, a probabilidade de obter valores amostrais tais como aqueles que obtivemos é maior do que se 01 for o verdadeiro valor de O. Dizendo sem muito rigor, preferiremos aquele valor do parâmetro que torne o mais provável possível aquele evento que de fato tenha ocorrido. Assim, deseja- · remos escolher o valor mais provável de 8 depois que os dados sejam . obtidos, admitindo que cada valor de e fosse igualmente provável antes que os dados fossem obtidos. Estabeleceremos a seguinte definição · formal: e, EST~MÀIÇÃO DE PARÂMETROS I 341 Definição. A estimativa de mauma verossimilhança de O, isto é, Ô, b'lSeada em uma amostra aleatória X,, . .. , Xn é aquele valor de . 8 que torna máxima L( X 17 ••• , X n; 8), considerada como uma função de O para uma dada amostra X,,. .. , XR, onde L é definida pela Eq. (14.1). (Esta estimativa é, geralmente, referida. como a estimativa de MV.) Comentários: (a) Naturalmente, ê será uma estatístit>a e, por isso, uma variãvel aleatória, já que Sell valor dependerá. da amostra (Xh · . . , Xn). (Não con~ideraremo~ uma constante como solução.) e (b) Na maioria de nossos exemplos, representará_um número. real isolado. ·· Contudo, pode acontecer que a distribttição de probabilidade de X dependa de ::_"-'dois ou mais valores de paràmetros (como se dá, por exemplo, com a distribuição -~~rmal). Em tal caso, IJ P,oderá representar um vetor, por exemplo, (J (01, {3) ou O :.. (01, {3, 'Y) etc. · = (c) A fim de encontrar a estiTi1ativa de MV, deveremos determinar_ o valor máximo de uma função. Conseqiientl"mente, em muitos · problemi!.S, poderemos nplic11or alguma das técnicas usuais do Cálculo para a<'harmos esse máximo. Visto que l.n :i é uma função crescente de :r, ln L(X11 ., . . , X,.; 6) e alcançará seu valor máximo para o mesmo valor de que o fará com L(X11 . .. ,Xni 0). Por isso, sob condições bastante gerais, adnútindo-se que seja um número real e que L( X" .. . , Xn; 8) seja uma função deriváv~l de 6, obteremos e estimatívm .. d,e MV Ô, pela resoluç.ão dt> e a ln L(Xh- ., Kn; 6) =O ao que é conhecida como fiJ.!laçao de (\4.2) verossimilhom~. Se IJ = (a, {J), a equaç_ã o acima de:ver6, ser substituída pele,s equa.ções simul~ tàneas de verossimilhança . a éJa ln L(XI> .. . , X,..; Ci /3) =O, (14.3) a ap ln L(X" .. . , X,.; a, {J) ., O. Deve-se novamente salientar que a orientação acima nem sempre No entanto, em um grande número de exemplos im(alguns dos quais apresentaremos muito em breve), este fornece, com relativa facilidade, a desejada estimativadel:\fV, das estimativas de mdx~ma verossimilhança: A estimativa de MV pode ser tendenciosa. Muito freqüental tendenciosidade pode ser eliminada pela multiplicação uma constante apropriada. 342 I IP'ROBAB9t.JDADE (b) Sob condições bastante gerais, as estimatÍ\'as de l\'KV são coerentes. lsto é, re o t11.manho da amostrn sobre a qual essas esti· mativas tenham sido calculadas for grande, a estimat.Í\':l de }IV ''próxima" do valor do parâmetro a ser estimado. (As estimativas ·• de MV possuem outra propriedade de "grandes amoi"tras" muito im. portante, a qual apresentaremos depois.) (c) As estimativas de MV apresentam a se~inte propriedade de · invariância muito importante: Suponha-se que (} seja a estimativa . de MV de Nesse CMO, pode-se mostrar que a estimativa de l\[V de g(O), onde g é uma função monótona contínua, é g(ê). Assim, se estaticista (ou O estatístico) A faz sua mensuração em metros quadrados · (m2 ), o estaticjsta B mede em metros (in), e se a estimativa de MV de A for e' então, estimativa de B será ft. Lembre-se de que as \O.:>Luuauvas não-tendenciosas não gozam desta propriedade. e. a Vamos agora estudar alguns exemplos importantes de tivas de MV. Exemplo 14.7. Suponha-se que a duração até falhar, T, de um componente tenha distribuição exponencial com parâmetro {3. Por- · tanto, a fdp de T será dada por • j(t) = {Je-:J', t ~ O. Suponha-se que n desses componentes sejp.m ensaiados, as durações ·até falhar T 11 •• • , Tn. Conseqüentemente, verossimilhança desta amostra será dada por L(T11 ••• ,Tn;{3)= {Jnexp ( - {3 'tri). •=1 Dai, ln L = n ln {3 - fJLf=I () ln L = _!!:_ iJ{J {3 T;. Portanto, i:, T; i=l e iJlnL = ar 0 fornece § = 1/T, onde T é a média amostral das dur:~ções até Já que o valor esperado de '1', a média da duração até falhar, é por 1/{3, encontmremos, empregando a propriedage dn in das estimativas de l\IV, que a estimativa de ·MV de E('l') é dada T, a média amostral. Sabemos que E(T) = 1/{3 e, por i~so, T, estimativa de MV de E(T), é não-tendenciosa. Comentário: Em geral, não é fácil achiu a distribuição de probabilidade estimativas de MV, particularmente se o tamanho da amostra fór pe.queno. n for grande, verificaremos que uma resposta geral será. viável.) Contudo, IESTIM.f!>ÇÃO DE PARÂMETROS I 343 iI presente exemplo, seremos co.po.zes de obter a distribuição da estimativa de l\!Y qJe distribuição .de .. Do Corolário - do Teor. 10.9, encontraremos I 2n{JT . tem . ,_ ·' . . . . .. x;.n . ·. Portanto, P(T < t) = P(2n(JT < 2n(Jt). Esta prob~bilidade poderá ser direta·• mente obtida da tábua da distribuição de qui-qukdrado se {Je i forem conhecido$. n; I Exemplo 14.8. Sabe-se que uma 6erta proporção (fixa), p, de granadas é defeituosa. De uma graJJ.d~ partida de granadas, n são escolhidas ao acaso e ensaiadas. Defi~am-se as seguintes trariáveis 1 · :â.leatóriâs: X;= 1 se a i-ésima granada for d~feituosa, e igual a 0 em caso = 1, 2, ... , n. II · 1 · · - t· contráno; Portanto, (X r, ... , Xn) é uma amostra aleatória da variável aleatória X, que tenha distribuição d, probabilidade P(X = O) = = J(O; p) = 1 - p, P(X = 1) = j(l; p) = p. j(x, p) = p"(~ - p)ll ' L(Xt,·· ., Xn;p) k-, = L7=1 X, = II = 0, 1. = p~(l- p)n-k, número total I de defeitu.osas. ln L(X 1, . . . , Xn; p) = k ln p = X * I Portanto, (n- k) lnp- p). , I I O ou n, encontraremos diretamente, ao considerarmos a .vAuH;I33olu de L, que o valor máximo de 'L será atingido quando p = O ou 1, respectivamente. Para k =I= O ou n, faremos ln Ljap =O encon- a e traremos como sua solução p = k(n = X) a média amostral. Nesse caso, . s novamente que a estirnativ~ deMV cons.titui uma estima. . . I. . . . . não-tendenciosa do parâmetro prócuFàdo. · · - .. ·-. I I i · Exemplo 14.9. Suponha-se que a variávelaleatória X seja no.r. . .. 'âistribuída com expectân:cia ~ e variância 1. !sto é, a fdp · X é dà.da por I ! 1 j(x) = ---=- e-<1 , )(z-pJ V21!" / :2 I I I 2 • 344 I PROBABBUDADE Se (X 11 ..• , X,) for uma amostra aleatória de X, a função de verossimilhança dessa amostra será L(X1,. .. , Xn;JJ-) 1 [ 1 n . ] = (21r)"i - 2 ~(X; -p-)2 . 2 exp Dai, ln L n =- - 2 ln (211") ,_ 1 " -L (X; 2 i=l · p)2 . e à ln L a;;Portanto, aln Lfàp = O fornece íJ. = X, a média amostral. Exem,plo 14.10. Até agora temos considerado situações nas quais éramos capazes de encontrar o valor máximo de L pela simples : derivação de L (ou de ln L) em relação ao parâmetro, e a igualação dessa derivada a zero. Isso nem sempre dá resultado, como ilustra . o exemplo seguinte. Suponha-se que a variável aleatória X seja uniformemente distribuída sobre o inter:valo [O, a] onde a é um parâmetro desconhecido:. A fdp de X é da~a por · j(x) = 1/a, = O, O~ x ·~a, para quaisquer outros valores. Se (X11 ••• , X ..) for uma amostra de X, sua função de verossimilhança será dada por L(X~: .. . , Xn;a) = (1/a)", O ~ X, ~ a para todo i, = O, para quaisy_uer outros valores. ConsiderandoL como uma função de a para dada am,ostl'a (X 1 , •.• , Xn) . notamos que deveremos ter a ;;;. Xi para todo i, a fim de que L não seja · nula. Isso é equivalente a impor a ;?:: máx (X 1; . . • ; X~). Assim, se - . marcarmos L como uma função de a, obteremos o gráfico apresentado .·· na Fig. -14.3. Deste gráfico é imediatamente evidente qual o valo~ · de a que toma L máxima, a saber ;;_ = máx (X11 ••• , X,.). ESTIMAÇÃO DE I"ARÂMIETROS I 345 Vamos examinar algumas das propriedades dessa estimativa. Do Teor. 13.2, obtemos a fdp de â: g(â) = n[F(â)]n-lj(â). Mas F(x) = x/ot., O s; x ~a;, e j(x) está dada acima. Portanto, obteremos [â]"- (1. - J. 1 01 .-.. g(ot.) = n - . !Fig. 1<3.3 A 0!. n(â)n-t = -, 0!. ot."' os; â s; ot. . · Para achar E(a), calcularemos E(â) 1"' = = âg(â)dâ i = I"' · "'n-t " not. a - - - d" ot.= 1 ot." a n â"+l n, · a" n + 1 o = n + l a. ,.Po~ conseguinte, â não é uma estimativa não-tendenciosa de a; â tende a "subestimar" a. Se desejarmos uma estimativa não-tendenciosa, poderemos empregar ~ n+1 a=---- rnáx (X1 , . . • ,X.) . . n Observe-se que muito embora E(â) r! a, ternos lim,.~~E(â) =a. ; Portanto, para verificar a coerência., deveremos ainda mostrar que __.O quando n __. oo. (Veja o Teor. 14.1.) Deverem0s calcular V(â) ~2 = E(â) 2 - [E(â)F = n a2 - [ n ~1a r 1 _ a2 [ (n n + 2)(n + 1) 2 ] • V(â) ~O quando n - 4 oo e, por isso, a coerência está esta- 346 I PROBABILiDADE Exem]>lo 14.11. Vamos estudar um exemplo no qual dois parâmetros (ambos desconhecidos) caracterizam a distribuição. SupoJlha-se que X tenha distribuição N(J;., <r 2). Dai, a fdp de X será , ) j(x) = v' 2171" <T exp (. - 1 [ --<TX - }.L 2 ]2) .. f.le (XJ, ... , Xn) for uma amostra de X, sua funçãv de verossimilhança será dada por L(X 11 ••• ,Xn;J.L,<T) = {-~i:[ X;- !-L ] -•=1 (2·mr 2)-"' 2 exp (f 2 }. . Portanto, Deveremos resolver simultaneamente dlnL ·a;- ·= o d ln L e d<T =0 . Teremos ~ -(X----'-;----'-J.L-"-) LJ -'-i= 1 que fornece ~ = Jt, (1' a média amostral. 2 =o, E dln L -ar;o que dá ô-~ 1 n 1 n =-.L: (X;- J.L)2 =-L (X; n ;-1 n i=l X)2. Observe-se que o método de MV fornece uma estimativa tendenciosa . · de <T2, porque já vimos que a estimativa não-tendenciosa é da forma 1 /(n - 1)L?=l EX, - X)2. . Exemplo 14.12. Já estudamos anteriormente (Ex. 14.7) o problema da estimação do par:1metro {J de uma lei de falhas exponencial, pelo ensaio·de n itens e registro de sua duração até falhar, T 1, .. . , Tn. · Outro procedimento poderá ser o seguinte: Suponha-se que temos n ·itens, submetemo-los a ensaio, e depois que um certo período de IESTii\liAÇÃO DE PARÂMETROS I 347 I · , tempo tenha decorrido, digamos To hof;3.9, contaremos apen'as o nú. mero de itens que tenham falhado, digaiuos X. Nossa amostra cons'tará de X~' . . . , Xn onde X; = 1 se o i-ésimo item tiver falhado no p(n1odo especificado, e O em caso contlário. Desse modo, a função verossimilhança da amostra será L(X1, ... , Xn; (3) p\(1 - = p)n-k, ·onde lc = L~= 1 X; = número de itens q~e tenham falhado e p = Prob. (um ite~ falhe). Ora, p é uma funçã~ do parâmetro (3 a ser estii mado: isto é, p = P(T ::; To) = 1j- e-Pr•. Empregando o resultado do Ex. 14l8, encontraremos que a estiA I de MV de p é p = lc/n. Aplic:ando a propriedade da inva. riância da estimativa de MV (notandd que p é· ,u ma Junção cres. cente de (J), obteremos a estimativa de MV de (3 simplesmente pela ·· ~solução da equação 1 - rflT. = k{n. Um cálculo. fácil dé. ·.· · ·~mativa ~= . I . ~u, para a 1estimativa de ~o ln ( ~~ k ) ' - 11 !/{3, a média dfi duração até falhar, ( (31) - 'E o = - 1k)/n] ln [(1i • Em todos os exemplos estudados Jcima, o método de MV forequações que são relativamentefá6eis de resolver. Em muitos isso não se· dará, e muitas te.zes teremos que recorrer a .. num~ricos (aproximados) a fiJ de obterm~s a.S estimativas. · seguinte exemplo ilustra tais dificulda~es. , "-;::· I Exemplo 14.13. Como já salientml).os, a distribuição gama posimportantes aplicações em ensaios !de vida. Vamos supor, por . :.!'A""'tJm, que a duração até falhar de um gerador elétrico tenh& dude vida X, cuja fdp seja dada p1r j( X) - i À'xr- 1 ->.z f(r) ~ I i I ' > X - O I , são dois parâmetros positivos que desejamos estimar. u .,.. pv••u".-"" que uma amostra, X 1 , • . . , Xn de X seja disponível. (Isto "'"'·u.u.un~::; tenham sido ensaiados e s uas durações até falhar regisA fun\ão de verossimilha!lça da amostra. será. 1 348 I PROBABILIDADE 1 = (À)"'(TI7=1X;)'- exp (- X.E7-t X;) L(x lJ . . • ' X n; "',,, r) ln L = nr ln À+ ~!__~c__.:.,.,--:~=-:-+2..._---==-=--=--~ .. - (r-- 1) .t [r(r)]" ln X;- À 't X;- n lu r(r). i=l 1=1 Dai, deveremos resolver simultaneamente, . iJ ln LjiJr = O. Essas equações se tornam ' _a ln L = OÀ. a ln L ~ = t X, ~À 1 I "' n n A = a ln LfiJ'A. = O e O, = 1 + ;~ ~I 11 X r'(r) n r(r) ; - = ". " a Assim, ln L/dÀ = o fornece diret.ament.e X= ,-(Jf. Por isso, depois de substituir 'A por>-; encontraremos que aln LféJr = O dá T'(r) .r0) = ln X ln r - - - 1 " - -- L ln X;. n i-1 . É evidente que deveremos resolver a equação acima para r, obtendo r e, depois, X= r/X. Felizmente, a função r' (r) fr(r) foi tabulada. Um método bastante rápido de encontrar a solução procurada foi apresentada em um trabalho' de D. G. Chapman (Annals oj Matheriwiical Sf.atistic8 27, 498-506, 1956). Este e:x;emplo ilustra. que a resolução das equaçoos de verossimilhança pode coi)duzir a enormes dificuldades matemáticas. Como já mencionamos anteriormente, as estimativas de MV possuem uma p:roprieda.de adicional, que as toma particularmente desejáveis, especialmente se as estimativas forem baseadas em um&. amostra bastante grande. Proprf,edad4! assintótica das estimativas de máxima verossimilhança. Se Ôfor uma estimativa de MV pafl!, o parâmetro(), baseada em uma. amostra. · aleatória Xh .. . , Xn_ de uma variável ·aleatória X, então,. para n suficientemente grande, a variável aleatória terá aproximadamente a distribuição · ( li1) , onde N 8, [a B = nE .lN} lnj(X; ()) ]; 2 " (14Al} aqui j é a distribuição de probabilidade por pontos ou a ·fdp de X, dependendo de ser X discreta ou continua, . e se supõe que () seja um número Jllllal. ·., :;· ESTIMAÇÃO DE PARÂMETROS I 349 Comentários: (a) A propriedade acima é, naturalmente, muito mais forte do que a propriedade da coerência que já apresentamos anteriormente. Coerência apenas diz que se n for suficientemente grande, ê será "próxima" de e. O en~nciado acima realmente nos indica qual é o comportamento · probabilíStico de ê para n grande. (b) Não demonstraremos o enunciado acima, apenas ilustraremos sua utilização com um exemplo. Exemplo 14.14. Vamos reexaminar o Ex. 14.7. Nós achamos ~ = l(T como a estimativa de MV de {3. A fdp de T foi dada por f(t; {3) = {3e-i3!, t >O. A propriedade acima nos diz que, para n suficientemente grande, ~ = l/T terá a distribuição aproximada N({3, 1/B), onde B é dado pela Eq. (14.4). Para encont:ramws B, consideremos lnf(T; {3) =ln {3- {3 T. Nesse caso, (a/a{3) lnf(T; {3) = (1/{3)- r. Logo, Já qúe E(T) = 1/fJ e E(T2) = V(T) + [E(T)]2 = 1/{3 2 + 1/{3 = 2/fJZ, 2 teremos E [ 0~ lnf(T; {3) J 2 1 2 1 --+-=-· fJ fJ fJi fJ2 A Portanto, encontramos que, para n grande, fJ tem aproximadamente a distribuição N(fj, {3 2/n). (Isto verifica a propriedade de coerência da estimativa, desde que fJ 2/n ~O quando n ~ oo .) 14.5. O Método dos Mínimos Quadrados Exemplo ·14.15. Estamos familiarizados com o fato de que a da localidade. Os dados temperatura do ar decresce com a altitude I apresentados na Tab. 14.4 e o diagrama de dispersão associaçl.o (pontos marcados) (Fig. 14.4) confirmam isso. Não somente os pontos marcados indicam que a temperatura Y decresce com a altitude X, mas também uma tendência linear está evidenciada. 350 I PROBABDUDADE Tab. 14.4 X (altitude~ 1.142 1.742 280 437 678 1.002 1.543 1.002 1.103 475 1.049 566 995 I· m) I y (temperatura, oC) X (altitude, m) 13 7 jy (temperatura, oC) 1.008 208 439 1.471 482 673 407 1.290 1.609 910 14 16 13 11 4 9 5 11 1.277 10 15 10 410 J3 18 14 14 18 13 16 7 6 9 .. ) 11 14 As observações representam a altitude (em metros) e a temperatura (em graus centígrados) ao amanhecer, em algumas estações meteorológicas da Suíça. Os dados são originários do Observatório de Basilea- Sta. Margarida. I I Qual é um .modelo razoável para os dados acima? Vamos supor que Y seja uma variável aleatória cujo valor depende, entre outras coisas, do valor de -X. Especificamente, admitiremos que t Y ,· . i ' = aX + f3 +e, onde a e f3 são constantes (desconhecidas), X é a altitude (conhecida) na qual Y é medida, e E é UIIll11 variável aleatória. A análise deste Y modelo linear depende das hipóteses que façamos sobre a variável aleatória e. (N6s estamos dizendo, essencialmente, que a temperatura. é um resultado aleatório cujo vae lor pode ser decomposto em ll.ma componente estritament~ aleatória mais um termo que depende da " X de uma maneira linear.) L---------------------x altitude A hipótese que faremos sobre e é Fig. 14.4 a seguinte: Q E( e) = O; V(e) =u 2 para todo X. ·· - ESTüMAÇ~O DE PAFIÃMETROS 1 I 351 Isto é, o valor esperado e a variância de le não dependem do valor de X. Conseqüentemente, E(Y) = aX + ~e V(Y) = cr 2• Observe-se que o modelo que estipulamos depende de três parâmetros: a, {3 e cr!. Não poderemos empregar o método de má~ima verossimilhanç~ para estimar esses parâmetros, a menos que fa~amos hipóteses adicionais sobre a distribuição de e, porque nada foi :suposto sobre a distribuição da variável aleatória e;. somente uma[ hipótese sobre seu .val@,:~ esperado e sua variância foi feita. (Uma imodificaçãq deste m,od~l~ será mencionada posteriormente.) · . ' Antes de explicarmos como estimar os parâmetros apropriados, vamos dizer alguma coisa sobre o signific~do de uma amostra. aleatória, no presente contexto. Suponha-se que n valores de X sejam escolhidos, digamos XI, ... , Xn . (Lembrem~s, novamente, que ,·aqui, X não é uma variável aleatória.) Para c~da x;, seja Y; uma observação independente da variável aleatória : Y descrita acima. Portanto, (x 1 , Yd, ... , (xn, Yn) podem s~r considerados como uma amostra aleatória da variável aleatória Y, ~ara valores dados de X, a saber, Cx1, ... , xn). I Definição. Suponha-se qua temos E(íY) = aX + {3, onde a, {3 e X são como explicadas acima. Seja (x1, Yt 1), . .. , (xn, Yn) urna amostra aleatória de Y. As estimativas de mín!imos quadrados dos parâmet~s ~ e {3 são aqueles valores de a e {3 1que tornam minima ,a expressao .. E [Y;- I (ax; •=1 I + {3)]~. . I I ComenMrio: A interpretação do critério acima é bastante clara~ (Veja Fig. 14.5.) Para cada par (x;,Yi) calculamos a discrepância entre o valor observado Y;, e ax; + {3, o valor esperado. Desde que es~mos interessados somente ne, magnitude dessa discrepância, nós a elevamos ao q9adrado e ~roamos parai todos os pontos amostrais. A reta procurada é aquela ·para a qual essa soma. é mínima. . I . . .. . A fim de obter as estimativas de' E! Y) sejadas para a e {3, procederemos da seguinte maneira: Façamos S(a, {3) = E(Y)=aX+!I = L~=l [Y;- (ax; {3)]2 • Para tor- , nar mínima S(a, {3), deveremos resol- .,_;..::::: ! =-if---------x ver as equações I + as dot. = 0 . e as , =o. of3 352 I I?ROBABBUDADIE Derivando S, parcialmente, em relação a a e {3, obteremos as " " iJa = ,~_2[Y;- (ax;+ {3)](-x;) =,- 2 .~ [x; ~ ~R = V~ R .L 2[Y; o=l (ot.x, + {3)]( -1) = -:-2 . . y, - ax;2- J3:t;] 1 R ;E [Y,;- ax; a=! {3]. Por isso, iJSfdot. = O e éJS/ô{3 =O podem ser escritas, respectivamente: a :E" x; + {3 G=l L" x, = li=l L" x.:Y,, 2 (14.5) li=l (14.6) Po:rlanto, teremos duas equações lineares nas incógnitas ot. e {3. A solução poderá ser obtida da maneira usual, quer por eliminação direta, quer com o emprego de determinantes. Denotando as solufacilmente verificaremos que ções por â e S, (14.7) ,,_.,.. . _:_ 1" {3 = Y - o:x, onde Y = Y;. n L: (14.8) , i=l As soluções acima serão sempre viáveis e únicas, desde que i:, (x; - x)2 o=l ~ o. Porém, esta condição será satisfeita sempre que nem todos os X; sejam iguais. A estimativa do parãmetro u 2 não pode ser obtida pelos métodos acima.. Vamos apenas afirmar que a estimativa usual de o-2, em termos das estimativas de mínimos-quadrados â e~. é .A 1 q~ = - - n- 2 :E [Y, i=l R ,..... (azo ~ + tJ)12. lfa, ... , Y,.. (b) ~ iJ tmmbêm umm função lineM de Yh ..• , vim<anto indicm: , ... ,.._ fJ = Y- az = Y,., romo o ooguinl'lll d<e!!a!nvol- . IESTRMAÇÃO DE PARÂMETROS I 353 . (c) Constitui um exercício simples mostrar que E(&)= a e E(~)= {3 . (Veja o Probi. 14.34.) Isto é, que ambas &e são estimativas não-tendenciosas. As variâncias de & e Probl. 14.35.) Teremos, (d) V(â) (f a a são também facilmente calculadas. (Veja o 2 (1~.9) a (e) As estimativas & e são, de fato, as estimativas não-tendenciosas lineares ótimas de a e {3 . Quer dizer, dentre todas as estimativas nito-tendenciosas, lineares, aquelas acima têm variância mínima. Este é um caso particular do teorema geral de Gauss-Markoff, que afirma que, sob determinadas condições, as estimativas de mínimos quadrados e as estimativas nilo-tendenciosas lineares ótimas são sempre iguais. (f) o método dos mínimos quadrados pode ser aplicado a modelos não-lineares. Por exemplo, se E(Y) = aX 2 + {3X + 'Y, poderemos estimar a, {3 e 'Y, de modo que n 2: [Y; - (ax7 + ax; + 'Y)] 2 i=l seja minimizada. (g) Se fizermos a hipótese adicional de que a variável aleatória E tenha distribuição N (0, ~ 2 ), podúemos aplicar o método da máxima verossm;ilhança para estimar os parâmetros a e {3. Essas estimativas serão as mesmas e'stimativas de mínimos quadrados obtidas· acima. (Isto não será sempre verdadeiro. Constitui uma conseqüência da hipótese de normalidade .) ,. 1 .• • Exemplo 14.16. Este exemplo está apresentado por Y. V. Linmk, em Method oj Least Squares and Principles oj the Theory oj Obser- . · vatúms, Pergamon Press, 'New York, 1961.. Os dados deste exemplo forn.m obtidós por Mendeléjef e relatados em Foundations oj Chemistry. (Veja a Tah. 14.5.) Eles relacionam a solubilidade do nitrato de sódio (NaNO a) com a temperatura da água (•C). Na 'temperatura . indicada, as Y partes de NáN0 3 se dissolvem ~m iOO partes de água. Mareando esses dados obtém-se o diagrama de dispersão apresentado na Fig. 14.6. · 354 / PROBABi U DADE 1' o Tab. 14.5 120 0 100 o 4 10 15 21 66,7 71,0 ' 76,3 80,6 85,7 29 36 51 68 o llO 92,9 99,4 113,6 125,1 00~--~---+----~--~Y 20 + Isto sugere um modelo da forma E(Y) = bT a. Empregando o método dos mínimos quadrados, explicado acima, encontraremos . · . que b = 0,87 e â = 67,5. . ) Na seção anterior, estivemos interessados em pares de valores . (X, Y), porém, como rePetidamente salientamos, X não era considerada uma variável aleatória. Há, no entanto, variáveis aleatóri~ bidimensionais (X, Y) que dão origem a ~ amostra aleatória {XI, Y1), ... , (X,, Y,..). Um dos parâmetros importantes, associados a UIIl& variável aleatória bidimenaional, é 10 coeficiente de oor~ nlaçio /':<V· Tab. 14.6 X(velocidade, km/seg) 11,93 11,81 Y(altitude, km) 62,56 57,78 A. estimativa geralmente empregada para lação amostral, assim definido: 11,48 10,49 10,13 8,87 53,10 48,61 44,38 40,57 ------------ p é o coeficiente de corre- ESTBiViAÇÃO DE PARÂMETROS I 355 empregar-se: Exemplo 140170 Os dados reuni<;ios na Tabo 1406 representam a velocidade (krníseg) e a altitude (km) do meteoro Noo 1.242, como relatado em "Smíthsonian Contributi~ns to Astrophysics", dos Pra' ceedings oj the Symposiurn on Astrohomy and J:hysics· oj. Meteors, I Cambridge, Masso, agoo 28-seto, 1, 1961. Um cálculo direto fornece r= 0,940 I I. 14,7, :: .. ; intervalos de Confiançk ! Até agora estivemos tratando ap!enas de obter uma estiinativa por ponto de um parâmetro ftesconhecidoo Como mencionamos no início deste capítulo, há outra inanei~a de tratar o assunto que fre~ qüentemente conduz a resultados muito significativos. . I Suponha-se que X tenha distribuigão N(p., a2 ), onde se supõe a2 c~nhecid~, enquanto p, é o parâmetro ~esconhecido. Seja X 1, oo. , X .. uma amostra aleatória de X e seja X~ média amostral. I 15abemos que X tem distril:juição N(p., cr 2/n); portanto, Z = [(X- p,)fu] Vn tem distribuiçAo N.(O, 1). Observe-se que, muito embora Z dependa de p,, sua di$tribuição de probabilidade não depende. Empregaremos este fato a n:osso ·favor da seguinte maneira: Considere-se . :M>(z) - 1 ':" P ( - z ~ x~ rVn ~ z) = v; x I -<-,,.._< + _!!!__ v; - x). ·= = P ( x- .;;:; ~ J.L ~ x + ,:/; } = P ( - _!!!__ _ i I : Esta última. expressão . de probabilidade deve ser interpretada muito cuidadosamente; Ela rz.ão significa que ll. probabilidade·do parâmetro f.L ' cair dentro de um iritermlo especificaho seja igual a 2<1>{z)- 1; f.L um parâmetro, e ou está ou não está dentro do inte.Valo acima:: :· .. preferência, a expressão acima deve ser interpretada assi!U: 2<fif~~ li: . :. 356 I I"ROBAIBBUDADE é igual à probabilidade de que o intervalo aleatório (X - zuh/;;; X+ zu/Vn) contenha fJ.. Tal intervalo é denominado intervalo de confiança do parâmetro fJ.. Desde <~><=) que z é arbitrário, poderemos es~ · . ~!:;!~:~~~~~::.:~::: ~te, z ficará definido pela relação c:l>(z) = 1 - a/2. Aquele valor de z, denotado por K1-a/2, pode ser obtido das tábuas da distribuição nomial. Isto é, teremos cl>(KI-t,J 2 ) = 1 - a/2. == KH.;2' fig. 14.7 (Veja também a Fig, 14.7.) Em resumo: O intervalo (X- n- 112uKI-a/2, X+ n- 112 uKI-a/?) é um intervalo de confiança do parâmetro }.L, com coeficiente de confiança (1 - a), ou um intervalo de confiança 100 (I -a) por cento. Suponha-se que X represente a duração da vida de uma peça de. equipamento. Admita-se que 100 peças sejam ensaiadas, fornecendo uma duração de vida média de X = 501,2 horas. Suponha-se que ri seja conhecido e igual a 4 horas, e que se deseje obter um intervalo de confiança de 95 por cento para a média fJ.. Nesse caso, encontraremos o seguinte intervalo de confiança para }.L = E(X): . 4 . . 501,2(1,96)r501,2 10 4 . + 10(1;96), que se torna (500,4; 502,0). Novamente cabe uma observação. Ao afirmar que (500,4; 502,0) constitui um intervalo de confiança ·de 95 por cento para }.L, nãO estaremos dizendo que 95 por cento d.3s vezes a média am9Stral . cairá naquele intervalo. A próxima vez que tirarmos uma amostra aleatória, X presumivelmente será diferente e, por isso, os extremos do intervalo de confiança ·serão diferentes. Estaremos afirmando que 95 por cento das vezes, fJ. estará contido no intervalo (X -1,96u/v;;;; X+1,96ujy';). Quando fazemos a afirmação de que 500,4 <}.L< 502,0, estamos apenas adotando a orientação de acreditar que alguma coisa é assim, porque sabemos ser assim na maior parte das vezes. Comentário: O intervalo de confiança construído não é o único. " Da mesm& maneira que podem existir muitas estimativas (por ponto) para um parâmetro, também poderemos construir muitos interv:alos . de confiança. Muito embora. não examinemos o problema do que poderá significar um intervalo ·de confiança. "ótimo", vamos enunciar uma . conclusão .óbvia. Se dois intervalos de confiança que tenham o mesmo coeficiente de coiúiança estiverem sendo comparados, iremos preferir aquele que tenha o menor comprimento esperado. · !ESTiMAÇÃO IIJE IP'AFI.l~.METROS I 357 Para o intervalo de confiança estudado acima, o comprimento L poderá ser escrito como sendo: Portanto,L será uma constante. Além disso, resolvendo-se a equação precedente em relação a n, temos n = (2ak 1 _rx 12 /L) 2 • Portanto, poderemos determinar n (para valores de rx e a dados) de modo q11e o intervalo d(l confiança tenha c.omprimento pré-estabelecido. Em geral, (tal como foi ilustradõ no exemplo anterior), L será uma função decrescente de n: tanto menor quanto desejarmos ter L, maior n deveremos tomar. No caso citado, deveremos essencialmente quadruplicar n, a fim de reduzirmos L à metade. 14.8. A Distribuição de tt de Student A análise do exemplo acima dependeu inteiramente do fato de · que ·a variância u 2 era conhecida. Como deverá ser modificado nosso procedimento, se não conhecermos o valor de u 2 ? Suponha-se que estimemos u 2 , empregando a estimativa não-tendenciosa Nós consideraremos a variável aleatória t= (x- p)v; . (14.10) ---~-.-(1 É intuitivamente evidente que a distribuição de probabilidade da variável aleatória t deve ser muito mais complicada do que a de Z = (X- p)V;;/u, porque na deJinição de t, ambos, numerador e denominador, são variáveis aleatórias .enquanto Z é apenas "uma função linear de X 1, . . • , Xn. Para obtermos a distribuição de I, levaremos em cont!]. os seguintes fatos: . c· (a) Z = (X- J.t)V;;/d tem distribuição N(O, 1). I (b) v= 2:?=1 X) 2/u 2 tem uma distribuição de qui-quadrado, com (n - 1) graus de liberdade. . (Veja Teor. 13.4.) (c) Z e V são variáveis aleatórias independentes. (Isto não é muito fácil de demonstrar, e aqui não o verificaremos.) ex.- o 358 I PROBABHUOAOIE Com o auxilio do seguinte teorema, poderemos agora obter a. fdp de t: Teorema 14.3. Suponha-se que as variáveis aleatórias Z e V sejam independentes e tenham, respectivamente, as distribuições N{O, 1) e x.-,.2 • Defina-se z t = V(Vfk) Então, a fdp de t será dada por hk(t) = r[(k + 1)/2] t 2 )·-(k+lJ{il ( -/ . 1 + -k r(k/2)v 1T'k . . ' - "" < t ~ < Clll. (14.lll) Esta distribuição é conhecida eomo distríbuição de t àe Student, com k graus de liberdade. Comentários: (a) A demonstração deste teorema não será dada aqui, rnM está sugerida. na seção de pmbleiilllll. (Veja. o Probl. 14.17.) Nós temos os elementos disponíveis com os quais poderemos achar hk(t) bastante facilmente. Primeiro, precisaremos determinn.r a fdp de VV/k, que será facilmente obtida da fdp conhecida de V. A seguir, ·precisaremos somente. aplicar o Teor. 6.5, que dá. a fdp do quociente de duas variáveis aleatórias independentes. . (b) O teorema acima poderá ser aplicado diretamente para obter-se ·a (dp de t =(X- p.) a variável ale11.tória apresentada acima. Esta varitt~el aleatória rem distribuição de t de Student, com (n - 1) graus de Überdade. No tese que, muito embora o valor de t dependa de p., sua distribuição não depende. v;;;u, (c) O gráfico de .hk é simétrico, como está apresentado na Fig. 14.8. De fato, ele se assemeiha ao grá,fioo da distribuição nonnal, e o leitor poderá verificar que lim k~ç(t) = (l/V2;)e-l'/~. k->"' .. ) h(t) ~;, (d) Em virtude da importânci& desta distribuição, ela foi tabulada. (Veja o .<\pêndics.) PW:& a d&do, 0,5 <a< 1, os valoresde lk,IÍ! que satisfazem à. condição l 'k;<i! _.., h~<(l) clt =a IE~TiMAÇÃO DE PARÃMETRO.S i 359 estmo tabuli!Mlos. (Veja a Fig. -14.9.) (Para valores• de a, que satisfaçam '-a O < ct < 0,5, poderemoà empregmr os val~res tabulados, em victude t'la simetria da distribuição,) i (e) EB!IIil distribuiçil.o leva jl!lte nom~ em homenagem ao estaticista _inglês W . S. GO!!llet, que publicou sue pesquiseso~ o pseudónimo de "Studimt". · I i Voltaremos, agom, ao proble~a apresentado no início desia de confiança para a média de seção. Como obteremos um - intervalo · - I ___ < uma variável aleatória normalmente distribuída, se !l: vari!ncia for desconhecida ? i -- i I De maneira inteiramente análogl!. àquela empregada na Seç. 14.7, obteremos o seguinte intervalo de donfiança para p., com coeficiente de confiança (1 - a): I i (X- n- 112 utn-l,l-cr/2, iX + n- 112 uth-l.l-o/2). I ' I Desse modo, o coeficiente de confiança acima apresenta a mesma estrutura que o anterior, com a im~ortante diferença de: que o valor conhecido de CT foi substituído pelaiI -sua estimativa ô- e, a constante , K1-a12, que anteriormente 'era obtida das tábuas da -distribuição normal, foi substituída por tn-1, 1-,a/ 2\ esta obtida das tá,buas da distribuição t. I C~rúJ: O comprimento L, do iritervalo de confiança acima é igual & I L = 2n-112t;,-l,l-a/2U. i Concluímos que L não é uma constante, porque ele depende de a qual por sua vez depende dos valpres amostrais (X1, . .. , Xn). ô-, I I Exemplo 14.18. Dez mensuraç~es são feitas para a. resistência de um certo tipo de fio, fornecendp os valores XI, ... ' X lO• SupoA J 1 "lO . - ' nha-se que X= 10,48 ohms e u =~9 L..i=l (X;- X) 2 = 1,36 ohms. Vamos supor que X tenha distriBuição N(p,, cr 2) e q~e desejemos obter um intervalo de confiança pa~a Jt, com coeficiente 'de confianÇa 0,90. Portanto, a = 0,10. Das t9:buas da_ distribuição/t encontra~ remos que tg; 0,95 = 1,83~ ConseqÜ~ntemente, o intervalo de confiança procurado será 1 1 í I i 1 . [10,48-- fTR (1,36)(1;83), 1iQ,48 + . í1il (1,36)(1,83_)] = . v 10 i v 10 1. i = (9,69; j11,27). • i · .360 I PIFIOBABiUIDADIE MuitO embora não pretendamos dar uma exposição geral deste assunto, desejamos continuar a estudar alguns exemplos importantes. Algumas vezeS desejamos obter um intervalo de confiança para uma particular junção de um parâmetro desconhecidoí conhecendo-se já um intervalo de confiança para o próprio parâmetro. Se a função for monótona, .isto poderá ser conseguido na forma ilustrada pelo exempl~ .seguinte . · Exemplo 14.19. Suponha-se que a duração da vida X de uma peça t~nha distnbuição N(J.L, u 2 ). Admita-se que u 2 seja conhecido. A confiabilidade da peça para um tempo de serviço de t horas será dada por R(t; J.L) = P(X Desde que àR(t; J.L)fàJ.L > t) ~ 1- <lP > O para todo { t- J.L) \-u· J.L, teremos que, para cada t fixado, R(t; J.L) será uma função crescente de J.L. (Veja a Fig. 14.10.) Assim, poderemos proceder da seguinte maneira, para obter um inter- =±c .R(t; p) R(t; JJ) j?: R !3. ---- ' !Fig. 14.10 I !Fig. 14.11 valo de confiança para R(t; J.L). Seja (J.L; /i) o intervalo de confiança para J.L, obtido na Seç. 14.7. Façam~s !!:. e R, · respectivament~, iguais ao extremo inferior e superior do intervalo de confiança desejado para R(t; p.). Se definirmos !1_ e R pelas relações ~=1-<JP(t~~) e R=1~<P(t-:. 11 ), a, verificaremos que P(!!_ S R S R) = P<!!:_ :::; J.L S /i) = 1 e, por isso, (R, R) representará um intervalo de confiança para R(t; J.L), com coefici;nte de confiança (1 - a). (Veja a l<~ig. 14.11.) Vamos empregar os valores amostrais obtidos na Seç. 14.7 para ilustrar este procedimento. Suponha-se que desejemos um intercomrxmen~ quando utilivalo de confiança para a co:nfiabilidade zado durante t = 500 horas. Já que obtivemos'!:. = 500,4 e }i. = 502,0, do EST~MAÇÃO DE PARÂMETROS I 361 encontraremos ~= 1_ w( 500 - 4 500,4 ) ::= 0 ,655 4 , R= 1_ w( 500 ~ so2) = = 0,6915. Até agora temos tratado apenas de intervalos de confiança bifnr.. terais. Quer dizer, temos obtido duas estatísticas (alguiJÍ'iss vezes .denominadas limites de confiança inferior e superior). di.gamo.s L(X1, .•• , X,.) e U(K1, .. . , X,.), tais que P[L :$ 8 :$ U] = :n.- a, ~nde () é o parâmetro desconhecido. Freqüentementé, porém, estaremos interessados em obter somente intervalos de confiança unilaterais, das formas seguintes: P[() :$ U) = 1- a ou P[L :$ 9] = 1 - az. Vamos ilu8trar isso com exemplos. Exemplo 14.20. Suponha-se que X tenha distribuição N(JL, or 2 ) e desejemos obter um in.tervalo de. · confiànça unilateral para o parâmetro desconhecido o- 2• Seja ;,,._J(x2) xl, oo.' x,. uma amostra aleatória de X. Do Teor. 13.4, sabemos que í::=1 (X; - X)2jor 2 tem distribui-. ção de qui-quadrado x!-1. Por isso, das tábuas da distribuição de qui-quadrado, poderemos obter um . Xií-1.1-a: Fig. 14.12 P número x!- 1. 1-a tal que 2 [i: (X;-2 X) :$ x!- 1.1-aJ = 1- a. i=1 0" (Veja a Fig. 14.12.) forma seguinte: p [ u2 A probabilidade acima poderá ser escrita na ~ L~=~ (X;- X) Xn-1, 2 ] = 1-:- a. l-a Conseqüe~temente, [ I:7=1 (X; - X?fx~-1, 1-o:, oo] é o intervalo ·de confiança unilateral pedido para d 2, com coeficiente d~ confiança (1- a). um Exemplo 14.21. Suponha-se que X, a duração da vida de dispositivo eletrônico; seja exponenci11Imente distribuída com pacl.··· metro 1/{3. Conseqüentemente, E( X) = [3. Seja X ~o ... ; X, um!!. I PROBABiUDADE 362 :'~ amostra de X. No Ex. 14.i .encontramos que L~=I X;'n é a estima- ·~ tiva de MV de fJ. Do corolário do Teor. 10.9 verificamos que 2nX!i3 tem distribuiçfu:> de X~n. Portanto, P[2nX/fJ ;:::· X~n. 1-al = a, onde '~ o número X~n. 1-a é obtido da tábua da distribuição de qui~quadrado. ·~ Se desejarmos um intervalo de confiança (inferior ou à esquerda), •>i para a confiabilidade R(t; fJ) = P(X > t) = e-liiJ, procederemos da ··~ seguinte maneira: Multiplicaremos a desigualdade acima por ( ~ t) ·'~ e reordeilaremos os termos, obtendo J - '.!"" ;I P[(-t/fJ);::: -tX~n, l-a/X2n) = 1 - a . P { R(t; fJ) tX;~~-a ]} = = e-l/IJ ;::: exp [ - 1- a. Conseqüentemente, (exp [-tX~"· 1-a!"Y2n], co) constitui um intervalo de confiança unilateral para R(t; fJ), com coeficiente de confiança .i:lu -~;.o eneon· ~ ilwtmção final de intervalo de eonfiança, vamos trar um intervalo de confiança para o parâmetro p associado a uma variável aleatória X, bínomialmente distribuída. Examinaremos apenas o caso em que n, o número de repetições do experimento que dá origem a X, seja suficientemente grande, de modo que possamos empregar a aproximação normal. (I Empregando a aproximação normal da distribuição binomial, poderemos escrever P [ I_h -- .pI v 1 pqfn ~ K ]= P[!h- Pi \ 1 ~ Kvpq/n)!:::!. _ ;, v 21r j_K .~ e-ti- dt= -K = 2cf> (K) .,_. 1, .li •!i~ onde, como sempre cf>(K) = (i/V"2tr)f..:.K., e- 1' 2 dt. Assim, se fizermos a probabilidade acima igual a (1 - a), poderemos obter o valor de K {yj; . '!''-' da ·. tábua da distribuição normaL Isto é, · 2cf>(K) - 1 = 1 - a ;·í~ acarreta K = K 1 -a·~. Porque estamos interessados em obter um' intervalo de confiança para p, deveremos reescrever .a desigualdadii'/lj ·-.. ) !~·:l~;; acima I lh - p! . ~ K Vpqfn } como uma desigualdade cm p. Ora/.;;iJ i! v pqfn l -- . . 1·'#1 .:iii;lffi é equivalente a {(h- p) 2 :$ K~(l - p)p(n Se considerarmos um sistema de coordenadas (h, p), a desigualdadéo'f'~lil {lh- . p J :$ K . . ·J I . ~STBMAÇÃO OIE PARÂMETROS I 363 I ' representará a fronteira e o intel. de uma e]"1pse. rwr tipo de ~lipse será determinado por K e n: I quanto maior n, mais achatada sbrá a elipse: o . p 1 ''' p=p,~s::J:=~:::=.__ Considere-se um ponto Q(h, p) rlo plano hzi. (Veja a l'ig. 14.13.) Q será um ponto "aleatório'' no s~ntido de que :ma primeira coordcn~da h será 'dcterminady, pelo resultado do experimento. Porque Q _L_ _.,.h h=c Fig. 14.13 cairá dentro da elipse se, e somente se, l lh - pI ::;; K V1'1Jfn I, a probabilidade de que isso ocorra será 2<l>(K) - 1. Se desejarmos ter esta probabilidade igual a (1 -a~, deveremos ei!côlher K adequadamente, isto é, K = K~-a12 • I . Ora, p é desconhecido. (Este é\ naturalmchte, no~s6 problema.) A reta h = c (constante) cortará a Ielipse em dois pontos, digamos p = PI e p = P2 (Pode ser facilmente verificado que, para a e h dados, eXistirão sempre dois valores distintos \de p.) · Os valores PI e P2 podem ser obt·idos como a solução d:J. equação quadrática (em p): (h- p) 2 = K 2 p)pín. As soluções são PI= hn + (!(2/2) - nI - K[h(l - h)n n +i K I hn P2 = + (K2/4)] /2 1 2 + (K /2) + K [h0 2 . h)n (14.12) + (K /4))112 2 n + iK2 Portanto, li h - pI ::;; K v'pqfn l éj equivalente ·a I P1 1 ::; p ::;; pz}. · Desse modo, se K fur escolhido tal q'ue o primeiro evento tenha pro•. habilidade (1 - o:), teremos obtido um intervalo de confiança para p, . ·a saber {p 11 p2}, com coeficiente de cohfiança (1 - a). Resumindo: A fim de obter um intervalo de con(iança par:~. com coeficiente de confiarlça (1 - a), realize-se_. o experito n vezes e calcule-se a freqüência relativa do evento A, digamos h. calculem-se PI e P2 de acordo com ·as Eqs. (14.12), onde K é pelas tábuas da distrib~ição normaL Recorde-se que procedimento é válido somente i quando n 'for .suficientemente . . para justificar a . aproximação inormal. . = P(A) . Comentário: Recorde-se que, na Eq. (14.12), h= X/n, onde X= número de do evento A. Portanto, X= nh\e n- X= n(1- h). Se, além de n, 364 I I?ROBABH.. DI:liADIE ambos os valores X e n - X forem grandes, p 1 e p 2 poderão ser calculados aproximadamente como k k PI '?!h-- .jh(l-h),p,'?!.h+- .jh(l-h) . .Jfi .Jfi . Exemplo 14.22. Em determinado processo produtivo, 79 itens foram fabricados durante unia semana especificada. Desses, verificou-se serem 3 defeituosos. Portanto, h = 3/79 ::= 0,038. Empregando o procedimento acima, obteremos (0,013; 0,106) como intervalo de confiança, para p = P (item ser defeituoso), com coeficiente de confirurça 0,95. Exemplo 14~23. Uma fábrica tem um grande estoque de peças, algumas das quais oriundas de um método de produção agora considerado inferior, enquanto outras provêm de um processo moderno. Três milhares de peças são tiradas ao acaso do estoque. Dessas, verificou-se serem 1578 originadas do processo inferior. Empregando as expressões aproximadas de p 1 e p 2 , o cálculo seguinte fornece um intervalo de confiança de 99 por cento para p = proporção de peças do processo inferior: h 1578 3000 = 0,526, k= 2,576 2 576 ' ..j3000 v(0,526)(0,4 74) = 0,502, 2,576 p 2 = 0,526 + y'3õõO 3000 V (0,526)(0,474) = 0,550. P1 = 0,526 Problemas 14.1. Suponha-se. que um objeto seja mensurado independentemente com dois diferentes dispositivos de mensuração. Sejam L 1 e L 2 os•comprimentos me-. didos pelo primeiro e segundo dispositivos, respectivamente. Se arnbos os dispositivos estiverem calibrados corretamente, poderemos admitir que E(L 1 ) = = E(L 2 ) =L, comprimento verdadeiro . No entanto , a precisão dos dispositivos não é necessariamente a mesma. Se avaliarmos a precisão em termos da variância, então V (L 1 ) '4= V(L 2 ). Se empregarmos a combinação linear Z = aL 1 + + (1 -a) L 2 para nossa estimativa de L, teremos imediatamente que E(Z) =L, o ESTIMAÇÃO DIE PARÂMETROS I 365 isto é, Z será uma estimativa não-tendenciosa de L. de a, O< a< I, a variância de Lseráummfnimo? Para. qual valor escolhido 14.2. Seja X uma variável aleatória com expectância Jl. e variância u 2 • Seja (.'ú, ... , X,.) uma amostra de X. Existem muitas outras estimativas de u2 que se podem sugerir além daquela apresentada anteriormente. Verifique que C 'L::;;11 (Xi+l - X;) 2 constitui uma estimativa não-tendenciosa de u2 , para um!!. .escolha adequada de C. Determine aquele valor d? C. 14.3. Suponha que 200 observações independentes X 11 •• • , Xm sejam obti- · dasdeumavariávelaleatóriaX. Sabe-seque I:7~1 X,;=300 e que L~~ 1 X,.2= 0 ,:,. 3.754. Empregando esses valores, C!!>lcule uma estimativll> niiD-tendenciosa de E(X) e de V(X). 14.4. Uma variável aleatória (a) X tem fdp j(x) = ({3 + l)zP, O < x < 1. Calcule a estimativa. de MV de {3, baseada numa a.mostr& Xl,-· ., X,.. (b) Calcule a estimativa quando os valores amostrais forem: 0,3; 0,'8; 0,27; 0,35; 0,62 e 0,55. 14.5. Os dados da Tab. 14.7 foram obtidos para a distribuição da espessur& do lenho. em postes telefônicos. (W. A. Shewhart, Eccnwmic Control of Qiiality "o} Manujactuud Productz, Macmillan and Co., New York, 1932, Pág.· &i.) Admi· tindD-se que a variável aleatória em estudo tenha distribuição N(Jl, u 2 ), determine ss estimativas de S:i.v de p. e u 2 • - Tab. 14~7 Espessura do lenho (pol) 1,0 1,3 1,6 1,9 2,2 2,.') 2,8 3,1 3.,4 Freqüência Espessura do lenho (pol) ·2 3,7 29 4,0 62 4,3 4,6 4,9 5,2 5,5 I ():fi 153 186 193 18il 151 Freqüência 123 82 48 27 14 5 1 Freqüência total: 1.370 14.6. Suponha que T, a duração até falhar (em horas) de lllll dispositivoe1etrônico, tenha a seguinte fdp: t > to > O, = O, para quaisquer outros valores. j(t) = {3e-f3(t-t.), tem uma distribuição exponencial truncada à esquerdll. de to.) Suponha que n sejam ensaiados e as durações até í:Uhar T11 .. •, Tn sejam registradas. (a) Supondo que to seja conhecido, determine ~ . estimativa. de MV de .(3. Supondo .que to seja desconhecido, mas ativa de l\:iV de to. (b) f3 seja conhecido, determine a 366 I PROBABILIDADE 14.7. Considere a mesma lei de falhas apresentada no Probl. 14.6. Agora, . N 'itens são ensaiados até To horas (To > to), e o número d~ itens . que falhem nesse perlodo é registrado, digamos k. Responda à pergunta (a) do Probl. 14.6. 14.8. Suponha que X seja · uniformemente distribuldo sobre (- a, Determine a estimativa de MV de a, baseada em uma amostra de tamanho n: X), ... , Xn . 14.9. (a) Um procedimento é realizado -até que um particular evento A ocorra . pela primeira vez. Em cada repetição, P(A) = p; suponha que sejam necessárias n 1 repetições. Depois, esSe experimento é repetido e, agora, na repetições são necessária.> para produzir-se o evento A. Se isso for feito k vezes, obteremos a amostra niJ ... , nk. Baseando-se nessa amostra, determine a estimativa de MV de p. (b) Admita que k seja bastante grande. Determine de E( p) e V(p), ond·e p é a estimativa de MV obtida em (a). 14.10. Testou-se um componente que se supõe ter uma distribuição de lhas exponencial. Foram observadas as seguintes durações de vida (em horas); 108, 212, 174, 130, 198, 169, 2.52, 168, 143. Empregando esses valores amostrais, calcule a estimativa de MV da confiabilidade desse componente, quando utilizarlo por um período de 150 .horas. 14.11. Os seguintes dados representam a duração da vida de lâmpadas elétricas (em horas): 1.009, 1.352, 1.483, L620, 1.757, 1.085, 1.359, 1.488, 1.62.5, 1.783, 1.123, 1.3GS, 1.499, 1.638, 1.796, 1.181, 1.23.5, 1.379, 1.397, L!i0.'5, 1.509, 1.639, ' 1.65>!, 1.809, 1.82H, 1.249, 1.406, 1.519, 1.673, 1.834, 1.263, 1.425, 1..541, 1.682, 1.871, 1_.292, 1.437, 1.543, 1.720, 1.881, 1.327' 1.438, 1..548, 1.729, 1.936, 1.338, 1.441, 1.549, 1.737, 1.949, 1.34& 1.458 1.610 1.752, 2.007. Com os valores amostrais acima, calcule a estimativa de MV da confiabilidade dessa lâmpada elétrica, quando utilizada por 1.600 horas de operação, do-se que a duração da vida seja normalmente distribuída. 14.12. Suponha que duas lâmpadas, como explicado no Probl. 14.11, empregadas em (a) ligação em série, e (b) ligação em paralelo. Em cada calcule a estimativa de MV da confiabilidade, para um período de 1.600 horas operação do sistema, baseada nos valores amostrais fornecidos no Probl. 14 .11. 14.13. Suponhamos que partículas a sejam emitidas pur uma fonte ativa, de acordo com uma distribuição de Poisson. Isto é, se X for o número partículas emitidas durante um intervalo de t minutos, então P(X = k) = e-Ãt()..t)kjk! Em lugar de registrar-se o número real ® partículas erru.·tlaas,· suponha-tle que registremos o número de vezes em que nenhuma pa.rtfeula foi tida. Espec1ficamente, suponhamos .que 30 fontes radioativas de mesma cia, sejam observadas durante um período de 50 segundos e que em 25 dos ao menos uma. partícula. tenha sido emitida. Determine a estimativa de MV de baseada nessa ·informação. .!'i ,' .I .u 14.14. Uma variável aleatória X tem distribuição N(p., 1). vinte observações de X, mas em vez de se registrar o valor ·real, somente ESTIMAÇÃO DE PARÃMETROS I 367 mos se X era ou não era. negativo. Suponha 6ue o evento {X <0) tenha ocorrido exatamente 14 vezes...UtilizMdo essa informação, determine a estimativa de 1 I MV de p.. d' J b . •. . . . 14.15. 1 Suponlm que X tenha uma 1si' uu;ao gama; 1sto e, sum fdp seja dadr.~ por Jl.(}u: )r-Ie-M: X> 0. j(x) = f(r) . -. . I · ·que r seja conhecido, e seja X11 .. . , Xn uma amostra de X. ~termJlJe a estimativa de MV de À, baseada nesss amJtra. . I 14.16. Suponha que X tenha uma distribuição de Weibull, com fdp . ' x j(x) = (Aa)xa-le-Az<ll,l Suponha que a seja conhecido. uma ~.~mostra. de tamanho n. > O. Determine a estimativa de l\1V de 1 A,baseada em I I . 14.17• ~monstre o Teor. 14.3. [Sugesiao: Veja o Comentário '(a), que se segue a esse teorema.] i _ - •: _ 14~18 • . Compare o valor_ de_ P~X ~ 1), \onde X tem ldistribuição N(O, 1), c.om P(t ~ 1), onde t tem dJstnbuJI(ão t de Student com: (a) 5 gl., (b) 10gl., (~)· 15 gl., (d) 20 gl., (e) 25 gl. 14.19. Suponha que X tenhr.~ distribuiç-ãb N(p., o-2). Uma amostra de tamanho .30, !ligamos X1, .. ,, XJo, fornece os se~intes valores: L~ I X i= 700,8; 1 xf = 16.395,8. Determine um intervalo de confianÇa de 95% (bilateral) L:r- para IA· \ . I 14.2(). Suponha que X tenha distribuição N(JA, 4). Uma amostra de tamanho 25 fornece a média amostral X= 78,3.1 Determine um intervalo de con_ :·__fiança de 99 por cento (bilateral) para p.. i I ' - 14.21. Suponha que a duração da vida de lum componente seja normalmente -distribuída, N (.u, 9). Vinte componentes são ensaiados e suas durações até Jalliar 1 , .•• , X 20 são registradas. Suponha que X:= 100,9 horas. Determine um intyÍ:Valo de confiança de 99 por cento (bilateral) ;para a confiabilidade R (1 00). 14.22. Deternúne um intervalo de con!idnça de 99 por cento, unilateral \!lferior, ·para R(100) do Probl. 14.21. -... Ii Suponha que X tenha distribuição N(}l, o-2 ), onde Jl e o-2 são descoUma amostra de tamanho 15 forneceu os valores x,:J. = 27,3. I 15 . L;-1 Xo = 8,7 e Determine um inte7alo pe confiança de 95 por cento. (bi- para u2• 14.24. Uma centena de componentes foi ensaiada, e 93 deles funcionaram de .500 horas. Determine um intervalo qe confiança de 95 por cento (bilapa.ra p = P (componente funcione mais ide 500 horas.) [Sugcstao: Em- · a Eq. (14.12).] "i4.25. Suponha que· X, o comprimento de um parafuso, tenha distribuição Um grande número de parafusos é fabricado e depois separado em duas grandes reservas. A reserva 1 contém somente aqueles parafusos para os quais . X > 5, enquanto a reserva 2 c;ontém todos os demais. Uina amostra de tamanho n é tirada. da reserva l e os comprimentos dos parafusos escolhidos são medidos. Obtém-se, assim, uma amostra Yr, ... , Yn da variável aleatória Y, que é normal~ mente distribuída, truncada à esquerda de 5. Escreva a equação a ser resolvida a fim de se obter a estimativa de MV de p., baseada na amostra (Y11 • • • , Y,.) em N(p., 1). cp e termos das funções tabuladllS distribuição N(O, 1) . . 14.26. (Distribuição de F.) <1>, onde rp(x) = (1/V'h)e-«'/2 e <I> é a fd da . Sejam X e Y variáveis aleatórias indepéndentes, tendo distribuições X~,. e x~,, respectivamente. Seja. a. variável ·aleatóri11. F definida da seguinte maneira: F = (Xfn 1)/(Yfn2) = n-2X!nrY. (Esta variável aleatória. desempenha importante papel em muitas aplicações estatísticas.) Veri- ' fique que a fdp de F é dada pela seguinte expressão: j >o. {Esta é a denominada distribuição de F (de Snedecor), com (n 11 n 2 ) graus de liber~ dade. Em virtude de sua importância, probabilidades associadas à variável alea~ tória F foram tabuladas.] (Sugestão : Para deduzir a fdp acima, empregue Teor. 6.5.) ~4.27. Esboce o gráfico da fdp h, como está apresentada no Probl. supondo que nr > n2 > 2. 14.28. Um dos motivos da importância da distribuição de F é o seguinte · Suponha que X e Y sejam variáveis aleatórias independentes com N(p.,., a,,?) e N(J! 11 , a 112 ), respectivamente. Sejam X r, ... , Xm e Y 11 •• •·, Yn, tras aleatórias de X e Y, respectivamente. EntAo a estatística Cl:~!o 1 (X~-X)~ + L~ 1 ( Y,; - YP tem uma distribuição de F, para uma escolha apropriada de Verifique isso e determine C. distribuição 7 Quais são os graus de liberdade associadoa tt ~4.29. Suponha que a variável aleatória t tenha distribuição de t de S com 1 grau de liberdade. Qu:<l será a distribuição de t2 ? Identifique-a. 14.30. Suponha que X seja normalmente di~tribuída. Uma amostra tória de tamanho 4 é obtida e X, a média amostral, é calculada. Se a soma quadrados dos desvios dessas 4 medidas em relação a X for igual a 48, um intervalo de confiança de 95 por cento (bilateral) p!J.ra E(X) em termos de · " 14.;!1. A seguinte amostra de tamanho 5 foi obtida da variável bidimensional (X, Y). Utilizando esses valores, calcule o coeficiente de cor-rel:acã.' amostral. xll2341í y45312 ESTDMAÇÃO DE IP'ARÂMIElfROS I 369 14.32. Suponha que E( I') =a X+ {3. Uma amostr11 de tamanho 50 está disponível, digamos (x;, Y;), i= 1, ... , 50 para a qual = Y =O, L~ 1 x;2 = x "' 10, L~~~ Y; 2 = 1.~ e L~l x;Y; = 8. (a) Determine as est.imat.ivas de mínimos quadrados d~s parâmetroo a saber â e (b) fi: 01 e {J, . 50 ..... . Qual~ o valor do mínimo da soma de quadrados Li~l [Y,;-(âXi+fJ)F? 14.33. Pode-se supor (erroneamente) que uma estimativ& não-tendencios& possa ~empre ser encontrada. para. um parâmetro desconhecido. Isso não é verdade, como está ii ustrapo pelo seguinte exemplo. Suponha. que n repetições de .{im experimepto sejaci. realizadas e um particular evento A ocorra precisamente k vezes. Se tivermos formulado a. hipótese de uma probabilidade constante p "' P(A), de que A ocorra quando o experimento for realizado, poderemos es\,a.r interessados na estimaÇão da razão r = p/(1 - p), Para verificar que nenhuma esÚmativa. não-tendenciosa. de r = p/(1 - p) existe [baseada na observação de k ··resultados A, e (n - k) resultados A], suponha-se que, ,de :rato, essa. estimativa. êxiSta. Isto é, suponha-se que 'T = h(k) seja uma. ·estatística para a qual E('r) = , ~· p/(1 - p). Especificamente, suponha-se que n = 2, e, portanto, k = O, 1 ou 2. "::Denotem-se os três valores correspondentes de r por a, b e c. Verifique que E(r) o;= ·,;, :p/(1 - p) conduz a. uma contradição, observando-se o que acontece ao primeiro i aosegundo membros dessa. equação, quando p ...... 1. 14.34. Verifique que as estimativas de mínimos quadrados dadas pelas Eqs. (14.7) e (14.8), são não-tendenciosas. â e {:3~ tal como as expressões de V(â) e V(~), tal como estão dadas pelas onde X é preestabelecido . em uma amostra (x;, Y;), i = 1, ... , n, deterrrúne as · estimativas de e.•nttnJLm<)S quadrados dos parâmetros a, {J.e 'Y· .pa.smmc•o-:"' Com o auxílio da Tábua 7, obtenha uma amostra de tamanho 20 de variável aleatória que tenha distribuição N (2, 4 ). ·(a) Suponha que essa amostra tenha sido obtida de uma variável aleatória · ·· tenha distribuição N(01., 4 ). Empregue os valores amostrais para obter para 01. intervalo de confiança de 95 por cento. (b) O mesmo que em (a), admitindo, porém, que a amostra provenha de distribuição N(01., {3 1 ), cóm (31 desconhecido. ,çmneime Compare os comprimentos dos intervalos de confiança em (a) e (b) o resultado. Testes de Hipóteses Neste capítulo apresentaremos outra maneira de tratar o p~ blema. de fazer uma afirmação sobre um parâmetro desconhecido, associado a uma distribuição de probabilidade, baseada em uma amos.: tra aleatória. Em vez de procurar-se uma estimativa do parâmetro, freqüentemente nos parecerá conveniente admitir um valor tético para ele e, depois, utilizar a informação da amostra para firmar ou rejeitar esse valor hipotético. Os conceitos, a serem apresentados neste capitulo, podem ser formulados sobre uma base bastante sólida. No entanto, não nos dedicaremos a este ....,.,u.u,,v sob um ângulo rigoroso; em vez disso, examinaremos alguns dimentos que são, intuitivamente, bastante interesS'an.tes. remos algumas das propriedades dos procedimentos mas não pretenderemos indicar por que .alguns dos métodos pr<>po•sto•s. devam ser preferidos a outros, alternativos. O leitor poderá encontr11-r melhor fundamentação teórica de alguns procedimentos recorrendo às obras enumeradas no fim do Considere-se o seguinte exemplo.. Exemplo 15.1. Um fabricante vem produzindo pinos para utílizados sob determinadas condições de trabalho. Vennc•oU-·SE que a duração da vida (em horas) dessés pinos é normalmente buida, N(lOO, 9)~ Um novo esquema de fabricáção foi u·ltr•O<i1lZl•dc com o objetivo de aumentar a duração da vida desses pinos. dizer, a expectativa é que a duração da vida X (correspondente pinos fabricados pelo novo processo) terá distribuição N(p., 9) JL > 100. (Adlnitimos que a variância permaneça a mesma. significa, essencialmente, que a variabilidade do novo a mesma que a do processo antigo.) TIESTIES IDE 1-DII"ÓTESIES I 371 . I · Deste modo, o fabricante e o Jomprador potencial desses pinos estã.o interessados em pôr à prova <?u testar) as seguintes hlpótes.es: I : f1. > 100. ,' , ! (Estamos fazendo a suposição tácita jde que o novo proceooo não pode ser pior do que o antigo.) H o é denominada a hipótese da nulicl.afk (ou hipótese básica), e H 1 a hipótese \alternativa. · ... . , · Estamos, essencialmente, dian~e de um problema semelhante àquele apresentado no Cap. 14. ~stamos estudando lima variável aleatória e não conhecemos o valor de um parâ1p.etro associado à sua distribmção. Poderíamos resolver este problemã, como já o fizemos I anteriorinente, pela simples estima;ção de JL. Porém, em muitas situações, estaremos realmente . intel-assados em tomar uma decisão .. específica: de~eremos aceitar ou rejeitar a hipótese Ho? Por isso, não retrocederemos aos conceitos anteriores de estimação) mas iremos I desenvolver alguns conceitos que ser;ão particularmente adequados a .resolver o. problema específico que teEos à mão. Começamos por obter wna amqstra de tamanho n, da variável . · ·. ·;aleatória X. Isto é, escolhemos ao~ acaso n pinos _fabricados pelo novo processo e registramos quant~ tempo esses pinos funcionam, ~assim obtendo a amostra X 1, .•• , X:n· Depois, calculamos a média .aritmética desses números, digamos X. Como se sabe que X ·éonstitui "boa" estimativa de p., pa~ce razoável que devamos basear · nossa decisão de aceitar ou rejeitar H 0 sobre o valor de X. Já que éstamos interessados em discriminar! entre p. = 100. e valo~s de p. · · m.aiores do que 100, parece razoável rejeitarmos H o se · (X -100) fôr "muito grande". ! · , Desta maneira, somos conduzid9s (estritamente em base intui~ t.iya) ao seguinte procedimento, comumente denomin,ado teste (ou p~ova) de hipótese:. Rejeitar H 0 se .X- 100 >'C' ou, equivaiente. I ,:rp.ep.te, se X> C, (onde C é uma cpnstante a ser determinada), e 'aceitar no caso contrário. ! Observe-se que a. forma partic~ar do teste que estamos utilifoi em parte sugerido pela hlpótese alte.r:nativa Hi. Este é ponto ao qual voltaremos ainda. ! Se na situação acima estivésintéressados em testar H o: p. 100 contra ll/: p. ;';é 100, tede empregar o teste: Rejeitar Ho .se jX- 100 1 >C'. Esagora em posição análoga àqfe~~ em que no.s encontramos estabelecemos uma estimativ~ e para o parâmetro e. Nós pm·gunta,m(>S: Quão "boa:' é a estimh.tiva? Que propriedades desedeve ela apresentar? Podemos formular questões semelhailtes H o: p. = ·100 cont~a H 1 uma 1 T 372 I PAOBABDUIDADIE sobre o teste que construímos: Quão "bom" é o teste? Que propriedades deve ele apresentar? Como compará-lo com outro teste que se possa propor? .A fim de responder a essas questões, deveremos, antes de mais ·nada, compreender que nenhuma solução existe, no sentido usual, _para o problema que estamos colocando. Quer dizer, apenas pela inspeção de alguns pinos que estejam sendo fabricados, nunca pode~ remos estar certos de que f..L = 100. (Novamente, observe-se a ana-<logia com o problema da estimação: não esperamos que nossa esti~ · A mativa seja igual a O; apenas esperamos que ela esteja "próxima" . de 0.) A mesma coisa é verdadeira aqui: Um teste ;!lão nqs. condu- -zirá sempre à decisão certa, mas um "bom" teste nos conduzirá à _ decisão correta "na maioria das vezes". e Vamos ser mais · precisos. Existem, fundamentalmente, tipos de erros que-poderemos cometer. Poderemos rejeitar H 0 do, de fato, H o for verdadeira; isto é, quando a qualidade dos não tiver melhorado. Isto poderá acontecer porque tenhamos esco~ ­ lhido alguns pinos fortes em nossa amostra, que não serão típicos produção completa. Ou, alternativamente, poderemos aceitar quando, de fato, H 0 for falsa; isto é, quando a qualidade dos tiver melhorado. Formalizando, estabeleceremos a segujnte utoHlllyoLu Definição. Erro Tipo 1: Rejeitar Ho quando H o for verdadeira. Erro Tipo 2: Aceitar H o quando H o for falsa. Deve-se esclarecer que não poderemos· evitar oêsses erros; tentaremos manter relativamente pequena a pr-oo:aoJlih .dade de 'cometer esses erros. A fim de enfrentar este problema, vamos introduzir a mtúto importante da função Característic~ de Operação de um L, que é a ~guinte função do parâmetro J.t (desconhecido): Dejhtíção. A junção cm·acteríslica de operação (função teste acima é definida: L(f..L) = P (aceitar Ho!JL) = P(X::; Cj,u). 1!IM Isto é, L{p,) é a probabilidade de aceitar H o, considerada função de Ji.. TESTES DE HIPÓTESES I 373 Comentário : Outra função estreitamente relacionada com a função CO é a função de poder, definidp.por H(J.l.) =?[rejeitar H 0 1~-t J . Por isso, H (J.t) == 1 - L (J.t). Empregaremos a função CO para descrever as propriedades de um teste, apesar de que isso poderia ser também facilmente feito em termos da função de poder. '· ( No caso particular que está sendo estudado, poderemos obter a · · seguinte .expressão e:r;plícita para L: Se p. .for o verdadeiro valor de E(X), então X terá a distribuição N(p., 9/n). Portanto, L(p.) .. - = P(X ~ C !J.t) _ . =P I\ X- J.l.) =' 4> [ <C- 3J.L) VnJ.l. :::; c Vn 3/ n . onde, como sempre · 1 4> (s) = - - 3/ n j_s y'2;. -~ -v;] . ' e-z'/2 dx. As seguintes propriedades de L(p.) são facilmente verificadas: v· ·~ (a) L(- co) ·. = 1. (b) L(+~)= O, (c) dL/dJ.l. < O para todo p.. f) .·tRmente decrescente de J.l .) · . <• . Assim, o gráfico da func;ão .L apresenta a aparência geral da .· ·,···· curva da Fig. 15.1. (A configu.ração específica dependerá, na. turalmente, da escolha da cons•·.· tante C e do tamanho da amos- ~f ;:: . (Portanto, L é uma função estri- Fig. 15.1 . .ti'a n.) Considere-se 1 - L(lOO). Este número representa a probabi•·· Údade de rejeitar H o, quando H o for verdadeira. Isto é, 1 - L (lOO) ~;p;···.~pre~sertta a probabilidade de um erro tipo 1. Se n e C forem dados, 1 - L(lOO) ficará completamente determinado. Por exeJnplo, aimos n = 50 e C = 101, obteremos ~- L(lOO) = 1 - = ~[ 101 ; I 1 - 4> (2,37) 100 V 50] . = 0,009. este teste · particular nos levará a rejeitar H 0 erroneamente de 0,9 por cento das vezes. 374 I PROBAB!UDADE Freqüentemente, examma~mos o problema de um ângulo ligeiramente diferente. Suponha-se que o tamanho da amostra; n, seja dado e que a Ilrobabilidade do erf? tipo 1 seja especificada. ' lato é, 1 - L(lOO) = a ou, equivalentemente, L(lOO) = li. - oz. Qual deQ vem ser o valor de c? Particularizando, se tomarmos n = 50 e escolhermos obteremos C como solução da seguinte equação: I o,95 = w(c - 3100 ot =0,05, voo). Da tábua da diStribuição normal, isso dá 1,64 = c -3 100 vso. Conseqüentemente, c= 100 + 3~·:) = 100,69. Por conseguinte, se rejeitarmos a hipótese sempre que a média . amostral for maior do que 100,69, estaremos assegurando uma p~ . habilidade 0,05 de que o erro t;ipo !.(,.) 11. ocorrerá. Desde que n e C A I sejam agora conhecidos, a L(,.)= I CO estará completamente especi- • ficada. Seu gráfico está apresen.:. -------1-t------=--" tado na Fig. 15.2. O valor 0,05 é denominado nível de signijicân~ cia do teste (ou algumas vezes, ·. · Fig. 15.2 amplitude do teste). Na J.ua'v'·'" dos problemas, este valor é tomado menor do que 0,1. Note-se que, uma vez especificados n: e o tamanho da amostra apenas a constante C terá de ser determinada, a fim de que se cifique completamente o teste. Nós fizemos isso, impondo que gráfico da função CO passasse por um ponto espepificado, a saber (100; 0,95). (É evidente a maneira como o procedimento acima modificado se tivéssemos escolhido um outro valor que não para o nivel de significância.) Agora que a função CO está completamente especificada, remos achar as coordenadas de qualquer outro ponto. Por ""'''..ut'AV' qual será o valor de L(102)? TESTES DE HiPÓTESES I 375 I .L(102) = = ~( V 100,69 L 102 31 50) . ~ (-3,1) =10,000 97. Portanto, para o teste que estamos examinando, a probabilidade de aceitar H o: p. = 100, quando de fato j p. = 102, é igual a 0,000 9~. Em conseqüência, lli probabilidade de um erro tipo 2 será realmente I muito pequena se p. = 102. Já que L é uma função decrescente de p., · · . concluímos que L(p.) < 0,000 97 para todo p. > 102. l Se nós desejarmos escolher tanto como C, deveremos especificar dois pontos, pelos qu~is o gráfico Ida função CO deverá passar. Desta maneira, seremos capazes de controlar não somente a probabia I . Iidà.de do erro tipo 1, mas também a probabilidade do erro tipo 2. . . I I . · Suponha-se que, no exemL(p.) plo que estamos estudando, não \ desejemos rejeitar Ho quando L.;;...(~':...>=-::I==-­ ·J}.2::· 102. Por isso, deveremos ·fazer, por exemplo, L(102) = ·. ·· . b 0,01, e, desde que L é uma · ,.=102 1'= .100 Fig. 15.3 Junção decrescente de p,, segue-se que L(p.) ::; 0,01 para J.L > 102. 1 (Veja a Fig. 15.3.) Se também impusermos um nível de significância de 0,05, obteremos as duas seguintes equações, para a determi.· nação de n e C: \ , L(lOO) = 0,95, L(\102) = 0,01. I ( c~ 100 0,95 = <I> 3 o,o~ = <~> (c~'> 102 v~). V n-) , I · Das tábuas da distribuição normal, verificamos que essas expressões I equivalentes a 1,64 = C- 100 _r · vn, 3 _ 2'3I3 ~ = C - 102 _ r . 3 .. , vn. ' i . fim de eliminarmos n, dividire:rp.os uma equação pela outra. I (C - 102)(1,64) = (- 2,33)(C- 100), . qual se obtém C = I (102) (1,64) - (100) ( _:,2,33) 00 8 1,64 - C- 2,33) I = 1 ' • Dai, 376 I I'ROIBAmUI}ADE Uma vez que C é conhecido, poderemos obter n elevando ao quadrado qualquer das equações acima; portanto, n :=:, [ 3 (l, 64 ) ] 100 c- ~5.2. IFormllialção Variância Con hecidla~ Gerai: 2 = 34 6 ~ 35 I • Distribuição Norma i Estudamos, com algum detalhe, um exemplo que trata de hipó- tese referente à média de wna variável aleatória normalmente distribuída. . Enquanto algumas ·das operações ainda estão vivas em nossa .· mente, vamos generalizar esse exemplo, da maneira seguinte. Suponha-se que X seja uma variável aleatória com distribuição . N(p., u 2), ond.e u 2 é suposto conhecido. Para testar H 0 : J-1. = J.l.o contra H 1 : J.L > )J.o, propomos o seguinte: Obtenha-se uma amostra de tamanho n, calcule-se a média amostral X, e rejeite~se H 0 se X> C, onde C é uma constante a ser determinada. A função CO deste. teste é dada por - (c - "" vn-). LV;.)= P(X :<;;C)= .P - u - A configuração geral da função CO é a apresentada na Fig. 15.4. As propriedade~ gerais de L(p.) são facilmente estabelecidas · (vejà o Probl. 15.4): (a) L(- cc) = 1. (b) L(+ cn) = O. (c) L'(p.) cente de J.L. < O, e, por isso, L é uma função estritamente decres(15.1) . (á) L"(p.) = O para p. = C e, por isso, o gráfico ponto de inflexão para esse valor de p.. (e) n crescente determina que a curva se tome Para prosseguir, vamos examinar dois casos. , Caso 1. Se n for dado e n'ós especificarmos o nível de · · ficância do teste (isto é, a probabilidade do erro tipo 1) em a TESTES DIE HIPÓTESES I 317 valor a, poderemos obter o valor de C, pela resolução da seguinte equação: Definindo-se Ka pela relação 1/~ 1:a e~'lz dt = a, poderemos escrever a acima na forma Kt-a. =C- J.l.o Vn () ' onde K1-a poderá ser obtido da tábua da distribuição normal. seqüentemente, rejeitaremos H o se X> J.l.o Con- () + VnKI-a· Caso 2. Se a e C tiverem -de ser determinados, deveremos es.pecificar dois pontos do gráfico da curva CO : 1 - L(J.i 0) = a, o nivel de significância, e L(p.t) = {3, a probabilidade do erro tipo 2· para: JL = p. 1 • Em coriseqüência, deveremos resolver as seguintes ;··equações, para n e C: · r\ - vn7; ( c-qJJ.o. 1- a= <I> -. - --::==c,-----1--------=c_.L(~)= I A --- .... , ,....,....---- H D Fig,· 15.4 Fig. 15.5 equações poderão ser resolvidas para n e C, tal como foi explianteriormente. Obteremos C= P.tKt-a- JLoK{J K1-a- KfJ Kl-a e Kp já foram definidos acima. .. l 378 I PROBABDUDADE No procedimento esboçado, tratamos com a hipótese alternativa H 1 : J.L > 100 (ou, no caso geral, }.L > J.Lo). Em alguma outra situação, poderemos desejar considerar Ho :J.J; =}.Lo contra H/: }.L< J.Lo ou H o : J.L = J.Lo contra H 1" : J.L ~ J.Lo. Deve estir evidente a maneira pela qual modificaremos o teste acima, para tal hipótese alternativa. Se considerássemos .H 1' :}.L < }.Lo, rejeitaríamos II o se X < C e a função CO seria definida por L(J.L) = P(X'?. C)= 1 - cf> (C-J.L -·-(]"_ v'n-) . Se considerássemos H 1" : }.L ~ }.Lo, rejeitaríamos H o sempre que IX - }.Lo I > C e, conseqüentemente, a função CO seria definida por L(J.L) = P(IX - J.Lol = <Jj ( =:;;C) c + }.L: - }.L = -v;) - {-c +:o - }.L v'~) ~ (!) Se escolhermos o mesmo nível de significância para cada um dos testes acima, digamos a, e marcarmos os gráficos das respectivas funções CO no mesmo sistema de coordenadas, obteremos o que está represtmtado na Fig. 15.5, onde a curva A correspon,de a H h B a H {, e Da H 1". Essa figura nos dá meios de comparar os três testes que estamos estu<!ando. Todos os .testes têm o mesmo nível de significância. (Deve ficar bem éompreendido que C é apenas um símbolo genérico para uma constante, que não será a mesma em todos os casos. O importante é que em cada caso C tenha sido escolhido de modo que o teste tenha o nível de sigl).ificância a.) Se JL > }.Lo, então o teste A será melhor do que os outros dois, porque ele ~rá. um menor valor para a probabilidade do erro tipo 2. No entanto, se JJ. < }.Lo, o teste A será o pior deles enquanto o teste B será o melhor. Finalmente, o ·teste D é geralmente aceitável e, no entanto, em qualquer caso específico poderá ser melhorado, quer pelo teste A, quer pelo teste B. Portanto, observamos que é muito importante ter uma hipótese alternativa especlfica em mente, porque o teste que escolhermos dependerá dela. (Nós somente comparamos testes com o mesmo nível de significância; isto não é absolutamente necessário, mas as comparações se tornarão um tanto vagas se empregarmos testes que tenham diferentes níveis de significância. Observe-se a semelhança ·com nossa comparação de certas estimativas: somente comp8,ramos as variâncias daquelas estimativas que eram nãO-tendenciosas.) ,:· ' TESTES DE HIPÓTESES ' I 379 . basta~te Em muitas situações é evidente qual hipótese alternativa deveremos considerar. No Icaso acima, por exemplo, prciiu~ · mivelmente sabíamos que o novo processo de fabricação pro(IU:Ziria pinos ou com a mesma durabilidadé ou com durabilidade aú~, e, conseqüentemente, empregarlambs o teste A, como foi sugerido. (Se o novo processo se destinasse. ~ produzir pinos de qualidade inferior, o nosso teste seria muito dJficiente.) Se uma hipótese co~o essa não foose justificável, seria m~lhor empregar um teste talc·o~o o D: Rejeitar H 0 se X- Jlo I > C. Testes tais como A e B são denominados teares unicaudais, enquanto um teste semelhante 111. D é denominado tes~ bicaudal. :.. ·' Ao examinar hipóteses altema~ivas, a seguinte analogia se revelam útil. Suponha-se que uma pe~a esteja deixando a localidade M, e sabemos que terá ido para a ksquerda ou: para a direita de M, percorrendo uma. trajetória retilmeJ.. ' ' . : di~poniveJ grupo Se 10 pessüru! estiverem para um de busca, como deverão essas pessoas se dispersar:? Se nada, mais for conhecido, relativamente ao paradeiro da. pes~oa, pareceria razoável enviar um grupo de 5 pessoas em cada direção, dessa maneira expedindo um grupo de busca bastante eficiente, Im~. não demasiadamente forte, tanto para a esquerda como para ·a; d1relta. No entanto, se houver algum indicio de que a pessoa ten~a se extraviado para a. esquerda, nesse caso todas ou a maioria pessoas disponíveis deveriam ser enviada·> para a esquerda, para consf.it~irem um grupo de busca muito eficiente à esquerda e um muito dJficiente à direita. Outras considerações poderiam também influenbiar o emprego dos recursos disponíveis. Por exemplo, suponha-se que a trajetória para a esquerda _ leve a um campo raso arborizado, edquanto a trajetória para a direita conduza à borda de uma profund~ garganta. 1t ·Óbvio que, neste caso, a maioria dos exploradores e~taria concentrada à ,direita, porque as conseqüências de ficar percifdo à direita seriam:Jnuito mais sérias do que aquelas à esquerda. 1 A analogia fica evidente. Ao ~est11,r hipóteses, também estaremos interessados nas conseqÜências j de nossa decisíi,o de rejeitar . H o ou de aceitá-la. Por exemplo, o erro que cometeríamos ao acettar alguns pinos, que fossem realmente inferiores (acreditando-se que não o fossem) seria tão importanik quanto não aceitar pinos que fossem realmente satisfatórios (acJditando-se que não o fossem)? ciJ i 1 ~·~ 380 I I"ROBAB!UIJ>ADIE Come?!ldrio: Na fo!'XIlulação acima, augerimoo que, freqUentemente, preesta·lbelecemoo o nfvel de significâncii!. do teste. Isto é feito freqüentemente ; contudo, amist0 outll'o tratamento pall'a o problellllll, o qual é muito oomum e dew se~ ~omentado. Vamos voltar 11.0 lEx. ll5.ll, no qual testamos H e: IA = llOO con'1l;rs H 1 : fJ. > 100. Suponha-se que simplesmente tiramos uma amostli'a. de tamanho 00, calculamos a. média amostral, digamos X, e achamos que X = 100,87. Deveremos aceitar ou rejeitar H o? Poderemos raciocinaR' assim: Se fl. = 100, então X terá distribuiçM N(lOO, 9J/50). JP'or isoo, calcularemos P(X ~ 1100,81) = P et . . -;~ 100 voo = 1- cJfl (2,06) = ;: : ID0,873- ltOO V 00) = 0,019 699. Desde que 0,01 < 0,019 699 < O,o5 diremos que o valor observado de X é significativo no nfvel de 5%, mas não o é no nível de 1%. Quer dizer, se empregássemos a = 0;05, rejeitaríamos H o, enquanto ao mesmo tempo se empregássemos 01 = 0,01, não rejeitarfamos H o. Por outras _palavras, se IA = 100, obteriamos um resultado ~ue somente ocorreria cerca de 1,9 por cento das vezes. Se sentíssemos que, ll. fim de aceitar H o, um result~do deveria ter ao menos p.robabi..lidade de ocorrência de 0,05, então rejeitaríamos H o. Se estivéss~mos satisfeitos com uma probabilidade de 0,01 aceitaríamos Ho. · x2 Com.mlário: O teste acirns. estipula. que Ho deve ser rejeitada sempre que· X > C. Suponha-se que o tamanho da amostra seja n = 2. Con..oeqüentemente, o critério acima se torna (X 1 + X 2)/2 > C ou, equivalentemente, (X1 + X 2) > k. Dessa maneira, o conjunto dos v11Jores possíveis (xJJ x2) terá sido dividido em duas regiões: R = {(xl, x2) IXt + x~ > k} e R. A região específica R depende, naturalmente, do valor de k, o qual por· sua vez depende do nível de significância do teste. R, a região de rejeição, é algumas vezes denomin;da regt'l!.o C?iiÍCI!l do teste. (Veja a Fig. 15.6.) !Fig. 15.6 De fonna bastante geral, um teste pode ser descrito em termos de sua região crítica R. Quer dizer, rejeitaremos H o se, e somente se,. (x1, ... , Xn) E R. TESTES DE HIPÓTIESIES 15.3. I 331 IE}(~mplos Aoliciona~is Em vez de formularmos uma teoria geral dos testes de hipóteses· (a qual existe .e é bastante extensa), continuaremos a examinar alguns exemplos. Em cada caso, o teste que proporemos será intuitivamente justificável. Nenhuma tentativa será feita para indicar qú.e um teste particular seja, em algum sentido, o melhor. Exemplo 15.2. Dois processos de produção estão sendo comparados. O produto do processo A pode ser caracterizado como uma variável ale~tória X, .com distrib-qição N(p.:c, -u:z?), enquanto o produto do processo B pode ser carncteriiado como uma variável aleatória Y, com distribuição N(p.y, Uy 2) . Admitiremos que a variabilidade inerente cm cada um dos processos, medida pela variância, seja conhecida. Desejamos testar â. hipótese H o : J.l.r = J.l.v contra a hipótese alternativa H 1 : iJ.x - iJ.v > O. Obteremos uma amo.stra de tamanho n de X, por exemplo XIJ ... , Xn, e uma amostra de tamanho m de Y, digamos YIJ ... , Y ... Calcularemos as respectivas médias amostrais X e Y e proporemos o seguinte teste p:ua provarmos a hipótese acima.: Rejeitar H o se X- y > c, onde c é urna constante escolhida de modo que o teste tenha um nivel de significância eEpecific ado igual a 01. A· variável aleatória Z = [(X- Y)..:.... (;i.:c - J.l.v)l/vur.~/n + <fv2fm · terá distribuição N (O, _1). Definindo J.1. = .J.l."' - iJ.v, poderemos. . ex;primir ·a funÇão CO do teste acima, como uma funçãO de J.l., assim: Ora, p,, = Jlu <é equivalente a J.l. =,., O. . Conseqüentemente, para determinarmos C, deveremos resolver a equação L(O) ou = 1- ot 382 I PROBABBIUDADIE onde K .. é definido, como anteriormente, pela relação .. ) PQl'tanto, (Nós ·não abordaremos a questão de determinar n e m, para uma solução ótima. Uma exposição dessa questão é encontrada em Dennan and Klein, Probability and Statistical Injerence for Engineers, Oxford University Press, New York, 1959.) Exemplo 15.3. Um fabricante fornece fusi'veis, 90 por cent9 dos quais, aproximadamente, funcionam adequadamente. Inicia-se um novo processo, cujo objetivo é aumentar a proporção dos fusíveis que funcionam adequadamente. Conseqüentemente, desejamos testar a hipótese H o: p = 0,90 contraH 1 : p > 0,90, onde pé a proporção dos fusíveis que funcionam adequadamente. (Quer dizer, ·estamos testando a hipótese de que nenhuma melhoria teve lugar contra a hipótese que o novo processo seja superior.) Tiramos uma amostra de fusíveis fabric.ados pelo novo processo e contamos X, o número de fusíveis que funcionam adequadamente. Propomos o seguinte teste: Rejeitar Ho sempre que X > 48 e aceitar no caso contrário. Supondo que a variável aleatória X tenha uma distribuição binomial com parâmetro p (o que ,c onstitui umli. supos!ção adequada se a amostra for tirada de um lote muito grande), obteremos a seguinW. expressão para a função CO: 50 L(p) = P(X = 1- :$ 48) L50 1<=49 = 1- P(X 2:: 49) (50) P"' k . (1- p) 6 o-k = 1- p 4D (.50- 49p) ' TESTES DE HiPÓTESES I 383 i depois de alguma simplificação algébrica. I seguinte: Portanto, teremos @- ! = 1. (b) L(l) = O. (a) L(O) (c) L'(p) I < O para todo p, O < pi< 1. ! (á) L"(p) = O se p = 48/49. ' I [As propriedades (c) e (á) são facilmep.te verificadaS por uma derivação imediata.) ConseqüentemenL(p) te, d gráfico da função L, acima, terá laconfiguração da curva apresent~da na Fig. , 15.7. O nivel de signi;ficância a do teste será obtido calctilando-se 1 - L(0,9). Obteremds 1 ' I l a = 1- L(0,9) = p =~ = (0,9) 49[50 - 44,1] = I = 0,034. Fig. 15.7 Comentários: (a) O exemplo acima pode rer generalizado assim: Suponha-M que X seja uma variável aleatória binomialritente distribuída, baseada em n re' petições de um experimento, com parâmetro pj Para testar•& hipótese Ho:p =pu contra H1 : p > po, propomos o seguinte tes~: i . . Rejeitar Ho· sempre que X > C, onde C é uma constante a ser d~tenninada. (Portanto, aceitar H 0 sempre que X~ C.) A função CO deste teste será da fonna c L(p) =; L k=O ÂB (1) ,, I (n) pk(l k (15.2) p)n-k. I seguintes propriedades de L são facilme nte verificadaS. (Veja o Probl.l5.5.) 1 L(O) = 1; L(l) = O. (2) L'(p) < O para todo p, O < p . I mente decrescente.) (3) L:'(p) .= O se p = Cj(n- 1). de inflexão em Ci\n - l).l I < 1!I . , . I (Coriseqüimt.emente, L é lllltrita- 1 [Co,n~eqüentemente, L possui um ponto (b) Afirmamos que, em alguns casos, poderemos aproximar a. distribuição, binomial com a distribuição de Poisson. I~to é, para n grande e p pequeno,. \\ 384 I 1-'ROBABiUDADE IP(X = k)!:!! ~ ('1Bp)"'Jkl lEmpreg~mdo es~ foli'raoo dle JP(X l!ll· ll'~ 00 ~& o t-este propooto ~ Wmlll: = k), ®llloont!raremcs .· <t)!OO (15.3) @ .& ~mi propriedooes de R do t&mbém facilmente verifnooiMl; Jl»robl. 15.1$.} (Veja . (4) R(O) = ll; R(l) ,. O. (~) !R/(p) < I[JI JPllllli'& tOO!o p, itJI <p <L (6) R"(p) = O llll p = Cjn. (7) R(Cin) é ~ma f~ção somente de C, e não de m. vronoo li'OOXaminall' o problema, de restar H IJ : J1. = IJ.ij contm onde X tenha, distribuição N (p,, u 2). Anteriormente, admitimos que q'l. fOO!le conhecido; agora, vamos levMtar essa :~re&­ trição. H 1 : }! > f.J,o, Nosso teste anterior rejeitava H o sempre que.(Jt- tJ.o) y;t{u > C; C era dete~ado levando-se em conta o fato de que (X -~to) y;;ju tem distribuição N(O, 1) quando 1J. = p.,n. Da mesma maneira que fizemos quando construful.os um intervalo de confiança para p., quando o- 2 era desconhecido, vamos estimar n 2 por ;;~ = [1/(n- 1)]~;'= 1 '(X• - X) 2 • Agora, vamos empregar .um teste mmlogo àquele proposto acima: Rejeitar H o sempre que- .•. (X- p) vn(G- > c. Para determinar c levaremos em conta o fato de que (X.,..,. J.H.o) vnt'U possui distribuição de t de Student; oom (n - ll) graus de libefdade, quando J.1.- IJ.o. (Veja o Teor. ll4.3.) Seja ot, o nível de aignifid.ncia pree8tabelecido; · Então; a = = P[(X - §Lo) v'~u > Cl acarreta que c = i..-1) 1-<liJ que se obtém da tábua de distribuição de t de Student. (Veja a Fig. 15.8.) Nosso teSte se toma, portanto, rejeita:r H a sempre que X> utn-1, ~-..n-1 ' 2 + J.Lo. . ~ ---<;>f IA - 1.,1-ar !Fig. íl5.S Exemplo 15.4. Suponha-se qlie X , a qued~ anual de chuva em deterffiinada looalidade, seja· normalmente distribuída com E(X) = = 30,0 polegadas. (Este valor foi estabelecido a partiT de um longo registro histórico de dados meteorológicos,) Em anos recentes, determinadas alterações climáticas p~rece se eVidenciarem, mflul!')nciando, entre outras. coisas, · a preCipitação anual. Lança-se a hlpó~ de que, de faf.o., a pluviosidade anual telllh.a aumentado. TESTIES DIE Hii>ÕTIESIES I 385 Particularmente, desejamos testar H o : p, = 30,0 contra· H 1 : p, > 30,0. Admite-se que a variância seja desconhecida, porque as alterações climáticas mencionadas podem ter também influenciado a variabilidade da .queda· de chuva e, conseqüentemente, os registras' passados sobre a variância são destituidos de sentido. Vamos admitir que os últimos 8 anos tenham dado a seguinte precipitação anual (em polegadas): 34,1; 33,7; 27,4; 31,1;30,9; 35,2; 28,4; 32,1. Cálculos imediatos dão X= 31,6 e buição de t encontramos que t1: o,95 ut?; u = 7,5. 2 Das tábuas da distri- = 1,89. Portanto, ~ 0,96-v.:'s + 3o,o. = 31,8 > 31,6. Conseqüentemente, não rejeitaremos · H o, no nível . de significância de 0,05. 15.4. Testes de Aderência ~ Na maioria de nossas explanações, admitimos .que a variável aleat6ria. em estudo tivesse uma distribuição. especifica. No _capitulo anterior e em seções anteriores deste capitulo, aprendemos como resolver o problema de ter um parâmetro desconhecido, associado a uma distribuição de probabilidade. No entanto, pode acon,tecer que não estejamos nem sequer seguros sobre a forma geral da. distribuição básica. Vamos apresentar alguns exemplos. Exemplo 15.5. Recipientes de mercadoria · de um certo tipo foram expostos ao risco ·de acidentes sob ação de tempestades, gelo, fogo, queda, desarranjo da maquinaria etc., por um período de 400 dias. O número de aci'dentes com cada recipiente, X, pode ser considerado como urna variável aleat6ria. Os seguintes dados foram relatados: Número de acidentes (X) Número de recipientes com X acidentes: o 123456 1.448 805 206 34 4 2 1 Os dados acima fundamentam a 'suposição de que X tenha uma distribuição de Poisson? . . Exemplo 15.6. Suponha-se que 20 amostras de · um · particul~r tipo de fio foram obtidas e as resistências (ohms) fotam meilid~\ 386 I PROBABULIDADE Os seguintes valores foram registrados: 9,8; 14,5; 13,7; 7,6; 10,5; 9,3; 11,1; 10,1; 12,7; 9,9; . . 10,4; 8,3; 11,5; 10,0; 9, 1; 13,8; 12,9; 10,6; 8,9; 9,5. Se R for a variável aleatória da qual a amostra acima foi obtida, teremos razão para supor que R seja normalmente distribuída? Exemplo 15.7. Vjnte válvulas eletrônicas foram ensaiadas e as seguintes durações de vida (horas) foram registradas: 7,2; 37,$; 49,6; 21,4; 67,2; 41,1; 3,8; 8,1; 23,2; 72,1; 11,4; 17,5; 29,8; 57,8; 84,6; 12,8; 2,9; 42;7; 7,4; 33,4. Serão os dados acima consistentes com a hipótese de que T, a variável aleatória amostrada, seja exponencialmente distribuída.~ Os exemplos acima são típicos de uma grande Classe de problemas que surgem freqüentemente nas aplicações. Há algumas técnicas estat.fsticas pelas quais tais problemas podem ser analisados, e nós, a seguir, estudaremos uma delas. O problema de testar a hipótese de que uma variável aleatória tenhn. uma certa distribuição especificada pode ser considerado como um caso especial do seguinte problema geral: Considere-se novamente a situação que deu origem à distribuição multinomial (Seç. 8.7). Um. experimento 8 é realizado n vezes. Cada repetição de 8 dá como resultado um e somente um dos eventos A;, i = 1, 2, . .. , k. Suponha-se que P(A.;) = p;. Seja n; o número de vezes que A.; ocorra dentre as n repetições de 8, n1 n2 + + + nk = n . + Nós desejamos testar a hipótese H o : p; = Pio, i = 1, . .. , k, onde Pio é . um valor especificado. Karl Pearson (1900) apresentou o seguinte teste de "aderência" para testar a hipótese acima: Rejeitar H o sempre que D 2 = t (n; -. np;.) i=l np;o 2 > c, (15.4) onde C é uma constante a ser determinada. Comentários: (a) Desde que E(n;) = np;o se p; = p;a, o critério do teste acima apresenta considerável base intuitivà. Porque ele requer que rejeitemos Ho sempre que o desvio entre os valores observados n; e os valores esperados np;0 ~eja. "muito grande". A estatística acima D 2 é, algumas vezes, sugestivamente escrita sob a forma 2:~=l (o;- e;f/e;, onde o; e e; se referem aos valores observado;;· e esperados de n;, respectivamente. I TESTES DE HIPÓTESES I 381- 1 . (b) . :É importante compreender que D 2 é _Jma estatística (isto é, uma. função I . dos valores observados n 11 . .. , nk) e, portanto, é uma variável aleatória. ·De fato, D 2 é uma variável aleatória discreta que {fma um grande número, finito, de valores. A distribUição verdadeira de D 2 é muito complicada. Felizmente, existe uma aproximação para a distribuição de D2, ~álida se n for grande, Íorn~ndo o procedimento apresentado aci~a. muito utilizáv~l. ;;i..'' . -...F Teorema 15.1 Se n for suficiente~ente grande, e se p; == p;., a distribuição de D 2 tem, aproximadamente, a distribuição de · qui-quadrado, com (k - 1) graus de liberdade . Demonstração: O seguínte raciocinib não constitui uma demonstração rigorosa. Repr~sent~ somente uk esforço para tornar o resultado plausível. 1 Considere-se um caso particular, a saber k = 2. Então, .. D 2 = (nt - npto) 2 + (n!2 np1o l,evando em conta o fato de que n1 poderemos escrever i np2o)~ np2o +/n2 = n e que P1o + P2o = 1, se A1 ocorrer na j-ésima repetição; I para qualquer outra o<;orrência. Assim, n 1 pode ser expresso como a sÓma de n variáveis aleatórias independentes e, dé acordo com o Teorema do Limite Central, tem aproximadamente uma distribuiçao nobal se n for grande. Além disso, E(nt) = npto e V(nr) = np1o (1 - Pto) se P1• for o verdadeiro , valor de Pl· Conseqüentemente, se p ~ = P1o 1 então para n grande, a variável ,aleatória (n 1 - np 1 o)/Vnp~o (1 - Plo) terá, ap~oximada­ mente, a distribuição N(O, 1). Deste modo, de acordo com o'l'eor.10.8 para n grande, a variável aleatória . . 1 ·[ n1 _- npto l ] V np1o (1 .:__ Pio) I 2 . terá aproximadamente a distribuição de X12 • 38!3 I PROBABDUDADIE Mo~tramos que se n for suficientemente grande, D 2 (com k = 2) tem aproximadamente a distribuição de XI 2 • isto é, precisamente, o que afirmàmcis no teorema. A demonstração para k genéll'ioo segue as mesm&c3 . linhas: Deveremos mostrar que D2 pode ser exp~ como a soma de quadrados de (k ~ · 1) variáveis aleatórias iindependentes, cada uma delas com distribuição N(O, 1), se n for grnnde e se p; = p;o, e recorrendo-.se ao Teor. 10.8, encontraremos qu<B 11\eSultará ·o que se afirmou ac~ma. Mas Kt-l(x) ~ 0,05 ~ x2k-1;0,9.5 Fig. 15.9 Podemos empregar o resultado que acabamos de estabeleceF para respondermos ã questão de "quão grande" D2 deveria ser a fim de que rejeitássemos a hipótese H o :Pi =Pio. Suponha-se que desejemos obter uma probabilidade ·do erro' tipo 1 (isto é, d<;> nível de significância) igual a 0,05. Isto significa que . esperamos rejeitar H 0 cerca de 5 por cento das vezes, quando de fato H o for verdadeira. Por isso, escolheremos C que satisfaça P(D 2 > C jpi =Pio) = 0,05. Já que D 2 tem distribuição de xL1 se Pi = Pio, poderemos obter o valor de C das tábuas da distribuição de qui-quadrado, i~:;to é, C = X~-1; o,95; aqui, xLI; o.95 é definido pela relação } r; [!le-I (x) dx = 0,05, . Xk-1; 0,95 onde [[Jc-I (x) é a fdp da variável aleatória com distribuição de X~-1· (Veja a Fig. 15.9.) Vamos empregar as idéias desenvolvidas acima para respondermos a algumas das questões colocadas no início desta seção: Como poderemos encontrar um teste para decidir aceitar ou rejeitar a hipótese de que uma particular amostra tenha sido extraída de uma variável aleatória com uma distribuição especificada? l"IES'TriES DIE HBi>Ó'TrESIES I 389 Neste ponto, deveremos faze r uma distinção entre dois tipos . de problemas. Poderemos simplesmente colocar a hipótese de que a variável que está sendo amostrada tenha alguma distribuiç1í,o no:rma1, sem especificarmos .os parâmetros correspondentes. Ou :pode-' remos ser mais específicos e colocar ~ hipótese de que a variâv~l em estudo tenha uma distribuição normal com média e variância espE!cificadas. Os dois problemas podem ser tratadps de maneira seme.:: lhante, mas o últ.iino (quando especificamos a hipotética distribuição completamente) é um tanto mais simples e o examinaremos em primeiro lugar. Caso 1. ficada. Teste para uma . distribuição completamente especi- Exemplo... 15.8. Suponha~se que acreditemos que a duração da vida T;- de lâmpadas elétricas, seja exponencialmente _distribuída com parâmetro {3 = 0,005. (Isto é, a duração até falhar esperada é 200 horas.) Obtemos uma amostra de 150 lâmpadas, ensaiamo-las, e registramos sua duração até queimar, Tt, ... , Ttóo· Considerem-se os seguintes quatro 'eventos mutuamente excludentes: A1 :0::; T < 100; < 300; . Aa :200::; T A2 : 100 ::; T < 200; A4: T.'?:. 300 . Suponha-se que registremos n;, o número .de vezes (dentre as 150 durações até falhar) que o evento A; tenha ocorrido, e encontremos o seguinte: n1 = 47, n2 = 40, na = 35 e n4 = 28. A fim de calcular a estatística D 2 , deveremos calcular p;, i = 1, 2, 3, 4. ·Ora, p1 p2 =P(T ::; 100) = 1 = Pn = P4 = e- 0•005 (tooJ = 1 - e-o.s = 0,39, P(lOO ::; T < 200) = 1 - . e- 0•005 <2ool - 0,39 = 0,24, P(200 ::; T < 300) ~ 1- e-:-o.oo5(aoo) _ (1- e-o,oo5(2ool) P(T > 300) = e-o,o o5(3ool. = 0,22. = 0, 15, Agora podemos calcular D2 = :Ê (n.. i=l = np,-.)2 = np;. (47- 58,5)2 .58,5 + (40 - 36t~ 36 + (28- 3~)2 (35- 22,5)2 22;5 + 33 = 11,56. Da.s tábuas da distribuição de qui-q1,1adrado, encontramos que P(D 2 > 11,56) < 0,01, onde D~ terá aproximadamente (!. distribuiÇã.9 de qui-quadrado com 4 - l = 3 graus de liberdade. Coi.íseqü~~:. ., ~ ~: 390 I PROBABiUe:>ADE ~!, f( 'I' ~,! u![ ~! ~ii~ r'li"l r I[;ii ~fi l''ihli 'i! \ .11 li 1,: H li ·i' I - temente, rejeital1amos a hipótese de que os. dados representem uma amostra de uma distribuição exponencial com parâmetro {3 = 0,005. O exemplo a.cima ilustra o procedimento geral que empregaremos para testar a hip.ótese de que x;, ... , Xn represente uma amostra de uma variável aleatória com uma distribuição completamente especificada: (a) Divida!POS a reta real em k intervalos mutuamente excludentes, A1, ... , A!<· (b) :Façamo~ igual a n; o número de valores amostrais que caiam dentro de A;, i= 1, 2, . . . , k. (c) Façamo~ p;o = P(A;). Esses valores podem ser calculados já que a hipótese especifica completamente a distribuição. (d) Calcule!1los D 2 e rejeitemos a hipótese se D 2 > C, onde C é obtido das tábvas da distribuição de qui-quadrado. Se um nível de significância a for desejado, C = X~-1; 1-a. Comentário: Nã.O examinaremos a questão de como os intervalos A;, acima, devam ser escolhidos .ou quantos deles devam ser escolhidos. Vamos somente enunciar a seguinte regra: Se np;. < 5 para qualquer A;, reúna os dados com A;+ 1 ou A;-1 • Isto é, nã.o desejaremos subdividir·o espaço amostral da variável aleatória em partes tão peque1.1as que o número esperado de ocorrência.s em qualquer particular subdivisão seja menor do que 5. [Uma exposição compreensível deste problema pode ser enco~trada em um trabalho de W. G. Cochran, intitulado "The x2-Test -of Goodness af Fit", (traduzindo, "0 Teste de Qui-quadrado de Aderên: cia"), publicado nos fi.nn. M alh. Stat. 23, 315-345 (1952).] .. ) Caso 2. Teste para uma distribuição cujos parâmetros devam ser estimados. Em muitos problemas, temos somente motivos para supor que a variável aleatória que está sendo amostrada tenha urna distribuição de um certo tipo, sem sermos capazes de especificar os parâmetros. Por exemplo, sabeplOS que certas hipóteses que fizemos poderiam nos conduzir a uma di~tribuição de Poisson, a uma distribuição exponen· cial etc. A fim de aplicarmos a técnica sugerida na seção anterior, deveremos conhecer os valores dos parâmetros da distribuição. Se não conhec;ermos esses valores, o caminho óbvio será primeiro estimar os parâmetros conhecidos, :e, depois, utilizar ess~ estimativascom a finalidade de avaliar as probabilidades P•· Duas questões surgem: (a) Como deveriam ser estimados os parâmetros? p; (b) Se (isto é, o parâmetro estimado) for empregado no lugar de p;0 , na expressão de D~, como isso influenciará a diStribuição de D 2 ? (O fato de que isso alterará a distribui!;ão fica evidenciado quandO> ,- TESTES DE HIPOTESES I 3St oompreen.~ que, origimJ,lmente, oo ;p;., limlm ~Con.stmn.tea, . enqu111n.ta :a,gora. os próprios são variánm rueat6~, 'desB® m.Odo . darido m ~vel. aleatória D 8 uma estrutura muito xrui!.is compliCada;) ' I ,. .. .· En®ciaremoo (sem . demoJMtmçio) ai~ respostms às '""lll:m1 . I 'li Wes &eima: . ' P• (a) As estimativas gemlmen4 empregadas pmm os pa.râmetll'OO alio aquelas obtidas pelo método da múima verossilnilhança. . Se o número de parâ.met~s a seir estimado for igual a (b) tem r< k, então, para n grande, a variável aleatória D 2 ~ambém uma..dis,. tribuição de qul-qua<l.rado, desta. v~z .com n - k - r graus de Jiber.dade. . I Ctm1.tl!tdrio: Esta último fato é bastante notável. Ele significa que J)2 rem 11. mesma distribuição de qui-qUadrado b~ci!. que anteriormente; a t!.nica diferenÇ& sendo que e ~rdenlí .u m fÇ'IllU de liberdade pam cada parlimetro que se tiver de • . I I. eBtpm\r. Exemplo 15;9. .Considerem.-oo 1 os dados para o conteúdo de cinzas no carVão, apresentados no f Ex. 14.6. 'Suponha-ae que desejemoo testar .a hipótese de que aqqeles dadoa tenham sido obtidos de variável aleat6ria distribuída normalmente. Deveremos iniI . cialmente 'estimmr o8 parâmetros ç~rrespon.dentes JL e 0" 2• Anterior~ 2 = 7,1. mente já haVíamos obtido as estimativas de MV; ;;. = 1710 Va,xn.OO -Bubdiv:idir .os valores possiv~is .de X nas .cinco seguintes cateJlliil!la . e·u ~: ' .Ah: X . < ! 12; A~:. 12 ·:$ X I<15; A~: 1'8 :$X< 21; : A..a: 15 ·::::; X < lS; A~: X;:::: 21. sS• .'Iil\;l ®~ . de veze~~ .que A,; .ooolf'll'l!l.. Enoon.tmremns IQ!U.e . . I • '111n= :'ã; fl>J-= 49; 'ftu == lOO; n;, = 61; n5 = 18. S~0 .~remoo ·Jk ~ . 4mlmili!ir Pó ~ P(A.,;),. eXI!q>N:gM.OO ;,.-e qll l[)btidos ~!ma. p(·X os "v.a.llOlNI:!ll 1eremoo I I ~' -1'1 . .r oe\ <Roí&! ... i V""·< .1L~, =' 2,'1 I < 122,7 17)·= .&( ~ - ·.~~.,Oili,='<IIJ!Jiól>~ Pll ""'P{l::ll :S X< 15) ·= ~(--p/14) - . <9P(-1,85) = Q;W, . . .' /lJifV . ps,·=.P(15:S X< lU~)= I I . . w(O,f1)- ~(--0.74:)~ 0,4~ = ~(~) - ·i!fi(0,37) = p~ '= P(l8 .~ X < 21) ;p~ ;,.. P(l'2: .21) = l.;.. ~{1,4S),; 0,()1. 0,291 392 I H"ROBABDUDADIE Agora poderemos calcular i = D2 i-1 (n; - 2~0p;)2 250p, + = (7 - 7,5)2 (49 - 50) 2 50 7,5 . + (67 - 72,5)2 72,5 = 0,82. + + (109 - 102,5)2 102,5 . + (18 - 17,5)2 17,5 Já que D 2 tem 5 - 1 - 2 = 2 graus de liberdade, encontrare- mos nas tábuas da distribuição de qui-quadrado que P(D 2 ~ 0,82) ;._, ~ 0,65 e, conseqüentemente, deveremos aceitar a hipótese de normalidade. Exemplo 15.10. Vamos considerar os dados apresentados no Ex. 15.5. Terá a variável aleatória X = número de acidentes durante o periodo especificado de 400 dias, uma distribuição de Poisson? Vamos inicialmente estimar o parâmetro À da distribuição. No Cap. 14, vimos que a estimativa de MV de À é dada pela média aritmética. Desse modo, ~ = o (1.448) + 1(805) + 2(206) + 3(34) + 4(4) + 5(2) + 6(1) 1.448 + 805 + 206 + 34 + 4 + 2 + 1 = 1.351 = o 543 2.500 ' o Façamos A 1 : X = O; A2: X = 1; A3: X= 2; A4: X= 3; A&: X~ 4. Então, n 1 = 1.448; n2 = 805 ; na = 206; n~ = 34; n6 = 7, e obteremos P1 = P (X = O) = e-( 0 • 543 >= 0 ,58 e P2 = P (X = 1) = e- 0• 543 (0,543) = 0,31 3 P (X = 2) = e-M 43 (O,s; )2 =0,08 np2 = 775, e npa = 200, Pa = nP1 = 1.450, e p~ " = P (X = 3) = e-M 4a - e np~ P6 = P(X ~ 4) e np5 =50. = (0,543)8 - - = 0,01 6 1 - P(X < 4) = 0,02 = 25, Poderemos agora calcular D2 = 5 :E (n; ,; =1 + A "'np;)2 np; (206 - 200) 200 2 2 = (1.448 - 1.450) 1.450 + (34- 25) 2 25 . + + (805 - 775)2 + 775 (7 - 50)2 50 = 42 ' 2" TIESTIES DIE HRPÓTESIES I . ~913 Porque existem cinco· categorias e estimamos . um pal!"âmetro, a variável aleatória D 2 terá a distribuição aproximada de . X32 • Da.S tábuas da distribuição de qui-quadrado, encontraremo~ que P (D2 :2: 42,2) ~ 0 e, conseqüentemente, deveremos rejeitar a hipótese. · ' .· .15.1. Suponha-se que X tenha distribuição N(J.t, u 2 ) com u 2 cqnhecido. Para testar H o : J.t = J.lo contra H 1 : J.t < J.lo propõe-se o seguinte procedimento: Obter uma amostra de tamanho n e rejeitar H osempre que a média amostrai]:'< C, onde C é uma constante a ser determinada. (a) Obtenha uma expressão para L(p), a função CO, em termos da distribuição normal tabulada. (b) Quando o nível de significância dos testes for a = 0,01 1 obtenha üma expressão para C. Suponha que u 2 = 4 e admita que estejamos testando H o : f' = 30 contra lh : fJ. < 30. Determine o tamanho da amostra n e a co·nstante C, a fim de sati.s fazer às condições: L(30) = 0,98 e L(27) · = 0,01. (c) (d) Suponha que os seguintes valores amostrais de X .tenham sido obtidos: 27;1; 29,3; 31,5; 33,0; 30,1; 30,9; 28,4; 32,4; 31,6; 28,9; 27,3; 29,1. Você rejeitaria Ho (contra H 1 ), tal como enunciada em· (c), no nível de significân.cia de 5 por cento ? 15.2. Considere a situaçãÓ apresentada no Probl. 15.1, excetil que a hipótese alternativa é, . agora, da forma H 1 : J.t ,6 J.lo. Portanto, rejeitaremos H o ·sempre que I X- J.tol > c. Responda às questões (a) e Cb), acima. 15.3. Suponha que X tenha uma distribuição de Poisson com parâmetro À. Para testar H o: h = Ào contra H 1 : À > Ào, o seguinte teste é proposto: Obtenha uma amostra de tamanho n, calcule a média X, e rejeite Ho sempre que X> C, onde C é llil1lA constante a ser determinada. (a) Obtenha uma expressão para a função CO do teste acima, a saber L(A). {Suges~·= Empregue a propriedade reprodutiva da distribuição de lPoisson.] (b) Esboee o gráfico da função CO. (c) Suponha ·que estejamos testando H o: h = 0,2 contra H1 :h > 0,2. Uma amostra de tamanho rf= lO é obtida, e rejeitaremos H o se X> 0,25. Qua~ será o nível de significância deste teste? 1!5.4. Estabeleça as propriedades da Eq. (15.1) para a função CO:..L(!L) = = qp [(C - p.) v'~u]. 15.5. Verifique as propriedades da função CO: L(p}, tal como foram definidas pela Eq. (15-2). 15.5. Verifique a5 propriedades da · função CO: R(p), tal como. foram :def!.i '• nidas peJa Eq. (15.3). I i' í~ li iii 394 I PROBABILIDADE 15.7. Saba-se que uma grande pll!.rtida de voltímetros contém uma certa proporção de defeituosos, digamos p. Para testar H.o: p = 0,2 contra H1: p > 0,2, o seguinte procedimento é empregado. Uma amostra de ~nho·5 é obtida e X, o número de volt!metros defeitu<>sOO, é contado. Se X .:SI, aceita-se Ho; se X > 4, rejeita-se H 0 ; e se X= 2, 3 ou 4, tira-se uma segunda amostra de tamanho 5. Seja Y o número de voltímetros defeituosos na se~nda amostra. Seja Y o número de volt!met.ros defeituosos ne. segunda amostra. Rejeite-se Ho se Y ;:::. 2, e aceite-se em caso contrário. (Suponha que a partida que está sendo amostrada seja suficientemente grande, de modo que X e Y possam ser supostas variáveis aleatórias independentes e bin<iniialinente distribuídas.) (a) Obtenha uma expressao para L(p), a função CO do teste acima, e esboce o seu gráfico. (b) Determine a amplitude do teste acima. (c) Qual é a probabilidade do erro tipo 2, quando p = 0,5? 15.8. Se n = 4 e k = 3, quantos valores possíveis poderá tomar a vli!.I"iável aleatória D2, tal como foi definida na Eq. (15.4)? 15.9. (a) Calcule o valor esperado da variável aleatória D 2 , . tal como foi definida na Eq. (15.4). (b) Como esse valor se compara com o valor esperado (assintótico) de D~ obtido da distribuição de qui-quadrado, a qual pode ser empregada para aproximar a distribuição de D\ quando n for grande? 15.1 O. Três espécies de lubrificantes estão sendo preparados por um novo processo. Cada lubrificante é testado em certo número de · máquinas, e o resultado é, depois, classificado como aceitável ou inaceitável. Os dados da Tab. 15.1 representam o resultado desse experimento. Teste a hipótese de que a probabilidade p de que um lubrificante apresente um resultado aceitável seja a mesma para todos três lubrificantes. . (Su.gesUto: Inicialmente, calcule p a partir da amostra). 1'ab. 15.1 Lubrificante 1 Aceitável Inaceitável Total 144 I Lubrificante 21 I 152 I 56 I 48 200 I 200 ' I I Lubrificante 3 ,l 140 60 ., 200 15.11. Ao empregarmos várias leis de falhas, verificamos que & distribuição exponencial desempenha um pf!.pel particularmente importante, e, conseqüentemente, é importante ser capaz de decidir se uma particular mostra de duraç&s até falhar se originam de uma distribuição exponencial básica. Suponha que ~ ~ Umpod- ~oham ~·. IBi .\í'L: 0 -.o - . d u • o vid& (eJ,n horas), esteja disponível: Duração d& vida (horas) o~ T < 100 ~:·::. :H:~::: ~ i < 200 2qo~ T < 300 100~ T V~t ------1------1-------1-i----'""'. f~,' ~J. §.'· Nd.mero de ampadas I 71 82 39 < 4100 300~ T T~ 62 68 52 A partir das reais durações até falh!\r, que reiatamoa, encontrou-l!e que ·T, a média ainoat~, é igual a 123,5 horas. Empregan~o esta informaçii.~, teste a hipótese de .que T, a duração até falh&r seja exponencialmente distribuída. . I . 15.12. Suponh& que a v&riável ale&tória X tenha a seguinte fdp: a coa ax O< x = sen (r/2) a' f(x) < ~/2, onde O < a < 1. . I Pat:a testar H o: a =ao, o seguinte teste é !proposto: Obtenha uma de X~ digamos X1, e rejeite Ho se .X:1 > 1. I observ~ (a) Obtenha uma expreBB!i.o .P&ra a funÇão CO deste teste, digamos L{a), e ~ seu gráfico. · · · (b) Qual será a amplitude deste teste se ao = 1r/4'f . . . . . ! 15.13. . Em uma malha de 165 células, o número de gril.oa de grafita em cada célula foi contado. Os dados da Tab. 15.2 !foram obtidos. Teste a i hipótese de que .o núxm:ro de gri!.os em cada célula seja u~a variável 'aleatória com uma distri1 buição .de Poiseon. (SugesUto: Reúna as ·1observações ~ 2 e, também, aquelas ~ 10.) . . I Ta~b. 15!2 Observados Npmero de Pios iie grafite. em 1 uma célula Observadoo o 1 7 1 g 17 li. 2 3 5 7 20 34 00 9 N dmero de grãos clls gr&fita em UIJUI, cQula 4 5 6 I. 22 10 21 41 12 11. u 400 2 • I !{~ ':tt} ;:.;'· ~:t. ·~{~ ~) ~fi i'i' i:t :';!i{ :~ :w l'í :i} V ' ·~~~ t·~ ·.~} ~;: :j\' i~'; ,~ ' ,r:: ltL ilj t 'i:.:l !ii : lt: 11[1 ft, jj,, ~~l= !ii 'N 11,: f!ll' ~i!IZ .}::'1 !l1!;i !li; !jt I!I: ii itil !l \·. GDl 398 I I"ROBABDUDADE q.(z) ll -3,0 ,, r, ~~ i . !i I I ~ i' Jt li -2,9 -2,8 - 2,7 -2,6 -2,5 -2,4 -2,3 -2,2 -2,1 -2,0 -1,9 - 1,8 -1,7 -1,6 -1,5 - 1,4 -1,3 -~.~ -1,1 -1,0 -0,9 -0,8 . -0,7 -0,6· - .0,5 -0,4 - 0,3 -0,2 -0,1 -0,0 o 1 = 2 j_ . 1 -=.e-u'fdu = P(Z -~v'z,. 3 4. 5 S z) 6 7 8 0,0013 0,001 o 0,0007 0,000 5 0,0003 0,0002 0,0002 0,0001 0,0001 0,0019 0,002 6 0,003 5 0,004 7 0,006 2 0,008 2 0,010 7 0,013 9 0,017 9 0,022 8 0,028' 7 0,035 9 0,044 6 0,054 8 . 0,066 8 0,080 8 0,096 8 0,]151 0,1;15 7 0,0018 0,002 5 0,003 4 0,004 5 0,006 o 0,008 o 0,010 4 0,013 6 0,017 4 0,022 2 0,0281 0,035 2 0,043 6 0,053 7 0,065 5 0,079 3 0,0951 0,0017 0,002 4 0,003 3 0,0044 0,005 9 0,007 8 0,0102 0,013 2 0,017 o 0,021 í 0,027 4 0,034 4 0,042 7 0,052 6 0,064 3 0,077 8 0,093 4 0,0017 0,0016. 0,001 6 0,002 3 0,002 3 0,002 2 0,003 2 0,0031 0,003 o 0,004 3 0,0041 0,004 o 0,005 7 0,005 5 0,005 4 0,007 5 0,007 3 0,0071 0,009 9 0,009 6 0,009 4 0,0129 0,012 6 0,012 2 0,016 6 0,016 2 0,015 8 0,0212 0,020 7 0,020 2 0,026 8 0,0262 0,025 6 0,033 6 0,032 9 0,032 2 0,0418 0,040 9 0,0401 0,0516 0,050 5 0,049 5 0,063 o 0,0618 0,060 6 0,076 4 0,074 9 0,073 5 0,091 ~090 1 0,088 5 o,n3-±-tl;ttl-~o;Tmra o,Iõr5-o,.105. 6 0,133 5 0,1314 0,129 2 0,127 1 0,1251 ~ 0,1562 0,153 9 0,1515 0,149 2 0,146 9 0,1841 0,1814 0,178 8 0,176 2 0,173 6 0,1711 0,211 9 ' 0,209 o 0,206 1 0,203 3 0,200 5 0,197 7 0,242 o 0,238 9 0,235 8 0,232 7 0,229 7 0,226 6 0,274 3 0,270 9 0,2676 0,264 3 0,2611 0,257 8 ~0,3050 0,3015 0,2981 0,294 6 0,2912 0,344 6 0,340 9 0,337 2 . 0,333 6 0,330 o 0,326 4 0,382 1 0,378 3 0,374 5 0,3707 0,366 9 0,363 2 0,420 7 0,416 8 0,4i2 9 0,409 o 0,405 2 0,4013 0,460 2 0,456 2 0,452 2 0,448 3 0,444 3 0,440 4 0,500 o 0,496 o 0,492 o '0,488 o 0,4840 0,4801 0,0015 0,0021 0,002 9 0,003 9 0,005 2 0,006 9 0,0091 0,0119 0,015 4 0,019 7 0,025 o 0,0314 0,039 2 0,048 5 0,059 4 0,072 2 0,086 9 0,103 8 0,123 o 0,144 6 0,168 5 0,194 9 0,223 6 0,254 6 0,287 7 0,322 8 0,359 4 0,397 4 0,436 4 0,476 1 0,001 5 0,002 1 0,002 8 0,003 8 0,005 1 0,006 8 0,008 9 0,0116 0,015 o 0,019 2 0,024 4 0,030 7 0,038 4 0,047 5 0,058 2 0,070 8 0,085 3 0,102 o 0,121 o 0,142 3 0,166 o 0,192 2 0,220 6 0,2514 0;284 3 0,319 2 0,355 7 0,393 6 0,432 5 0,4721 '" B. W. Lindgren, Statistical Theory, The Macmillan Company, 1960. . ·l ..) 0,()(11 4 0,002 o 0,002 7 0,003 7 0,0049 0,0066 0,008 7 0,0113 0,014 6 0,018 8 0,023 8 0,030 o 0,037 5 0,046 5 0,057 o 0,069 4 0,083 8 0,100 3 0,119 o 0,1401 0,163 5 0,189 4 0,217 7 0,248 3 0,281 o 0,315 6 0,352 o 0;389 7 0,428 6 0,468 1 o j )10 1 2 4 3 01500 O 01504 O 01508 O 01512 O 011 01539 8 01543 8 ol547 8 g~5~~ ,0 12 <' 0157-9-3----{l,.ã~l:""'"' 15 013 01617' 9 01621 7 01625 5 01629 3 :o4 01655 4 01659 1 0,662 8 0,666 4 o:5 0,6915 0,695 o 0,698 5 017019 0,6 0,725 7 01729 1 0,732 4 0,735 7 ·O7 0,758 O 0,7611 0,764 2 0,767 3 i o:8 o,7881 o,7910 ol793 9 o,796 7 o,9 , ~o 81 9 · 0,818 6 . 0,821 2 o,823 8 1~0 ·- . '· , 8'41 3 0,843 8 0,846 1 0,848 5 1,1 ,,864 3 0,866 5 0,868 6 0,870 8 1,2 0;884 9 a,-oo , , 1,3 0,903 2 0,904 9 0,906 6 0,908 2 1,4 · 0,919 2 0,920 7 {),922 2 . 0,923 6 1;5 0,933 2 0,934 5 0,935 7 0,937 o 0,945 2 01946 3 0,947 4 0,948 4 1,6 0,955 4 0,956 4 0,957 3 o,958 2 1,7 118 0;964 1 01964 8 ·01965 6 01966 4 119 0,971 3 01971 9 0,972 6 0,973 2 2,0 0;'97'7 2 0,9'77 8 0,978 3 0,978 8 2,1 0,9821 0,982 6 0,983 o 0,9834 2,2 0,986 1 0,986 4 0,98'6 8 0,987.1 0,989 3 0,989 6 0,989 8 0,990 1 2,3 0,9918 0,992 o 0,992 2 0,992 5 2,4 25' 0,9938 0,9940 ·0,9941 0,9943 2:6 0,995 3 0,995 5 0,995 6 0,995 7 2,1 0,996.5 . 0,996 6 0,996 7 o,996 8 2,8 0,997 4 0,997 5 0,997 6 0,997 7 2,9 .0,998 1 01998 2 0;998 2 0,998 3 3,0 5 6 7 8 0 516 O 0 519 9 0 523 9 01527 9 o 531 9 01535 9 01 /i67 5 0,571 4 0,575 3 0,606 4 0,610 3 0,614 1 1 . 1 .98J~I602 0,633 1 01636 8 0,640 6 0,644 3' 0,648 o 0,6517 0,670 o 0,673 6 0,677 2. 0,680'8 fj,684 4 O,!j'879 0,705 4 ()17088_ 0,712 3 0,715 7 0,719 o 01722 4 0,738 9 0,742 2 0,745 4 0,748 6· 0,7517 0,754 9 0,770 3 0,773 4 0,776 4 0,779 4 0,782 3 0,785 2 o,799 5 o;so2 3 o;so5 1 0,807 8 ~810 6 0,813 3 o,826 4 0,828'9 0,831 5 0,834 o u,836 5 0,838 9 0,850 8 0,853 1 0,855 4 0,857 7 0,859 9 0,862 1 0,872 9 0,874 9 0,877 o 0,879 o 0,8810 01883 o , . , . 4 0,896 2 0,898 o 0,899 7 0,901 5 0,909 9 \),911 5 0,9131 0,914 7 0,916_2 0,9177 0,9251 p,926 5 0,927 8 0,929 2 0,930 6 0,931 9 0,938 2 0,939 4 0,940 6 0,941 8 0,943 o 0,944 1 0,949 5 0,950 5 0,951 5 0,952 5 0,953 5 0,954 5 ·o,959 1 0 1959 9 01960 8· 0,961 6 0,962 5 . 0,963 3 0,967 1 '0,967 8 01968 6 0,969 3 0,970 o 0,970 6 0,973 8 pl974 4 0,975 o 0,975 6 0,976 2 . 0,976 7 0,979 3 ,0,979 8 0,980 3 0,980 8 0,981 2 0,981 7 0,9838 ' ,0,984 2 0,984 6 0,985 o 0,985 4 0,985 7 0,987 4 ,0,987 8 ; 0,988 1 0,988 4 0,988 7 0,989 o 0,990 4 i0,990 6 0,990 9 0,991 1 ·0,9913 0,991 6 0;992 7 i0,992 9 ·. 0,9931 0,993 2 0,99~ 4 0,993 6 0,9945 j0 ,9946 0,9948 0,994 9 0;995 1 0,995 2 0,995 9 ;0,996 o 0,996 1 0;996 2 0,996 3 0,996 4 o;996 9 10,997 o 0,997 1 01997 2 0,997 3 0,997 4 0,997 7 j0;997 8 0,997 9 o,997 9 · o;998 o 0,998 1 0,998 4 10,998 4 0,998 5 0,998 5 0,998 6: 0,998 6 1 1 1 z ~~~; ,..~S9-!l ol563 6 6 li 0,998 7 0,999 o 0,999 3 0,9995 0,999 7 ,01999 8 01999 8 01999 9 01999 9 1,000 o ·, ,, 400 I I'ROBAB!UOAOE r =n . 1- F(z- 1) = .L(~)prqn:-r r=z n = n z 10 z =· lO 0,000000 o .0,000 000 o 0,000000 o 0,000 000 0 0,000 000 o 0,000000 o 0,000 000 o 0,000000 0,000000 o 0,000 000 o 0,000 000 o 0,0000000 0,000 0000 0,000 0000 0,0000000 . O,OQO 000 O 0,000 ooo o 0,000000 o 0,000 000 1 0,000 0001 0,000000 2 ·0,000 000 .3 0,000000 4 0,000000 6 0,000001 o 0,0000014 0,0000021 0,000 003 o 0,000004 2 .0,000005 9 0,000008 2 0,000 0113 0,000015 3 0,000020 6 0,000027 6 0,000036 6 0,000 0481 . 0,000 062 8 0,000 0814 o;ooo 1049 0,0001342 Q,OOO 170 8 0,0002161 0,000272 o 0,000340 5 0,0004242 0,000526 o 0,000649 3 0,000 7979 0,000976 6 o 0,00(}000 o 0,0000000 0,000000 o 0,0000000 0,000 000 o 0,000 0000 0,0000000 0,000 000 o 0,000000 o 0,000 000 o o;ooo ooo o 0,0000000 o,ooo 000 1 0,000 0002 0,000 0003. 0,000 000 6 0,000 001 o 0,000 0017 0,000002 7 0,000 0042 0,000 0064 0,000 009 7 0,000 0143 0,000020_7 0,000 029 6 0,000 0416 0,0000577 0,000 079 1 0,000107 2 0,000143 7 0,0001906. 0,000250 5 0,000 326 3 0,0004214 0,000 539 9 0,000 686 5 0,000 866 8 0,0010871 0,001 S54 6 0,001677 7 0,002 065 8 0,002 529 5 0,003 0809 0,003 733 5 0,004 5022 0,005404 o 0,006457 4 0,007 682 8 0,009102 8 0,010 742 2 = = 10 8 n = 10 z·= 7 o,ooo oooo· 0,000 oooo 0,000 000 o 0,000 000 o 0,000 000 o 0,000 000 o ·o,ooo ooo 1 o,ooo 000 3 0,000 0000 0,000 000 1 0,0000002 0,0000004 0,000 0008 0,0000015 0,000 002 9 0,000 0051 0,000 008 7 0,000 014 2 . 0,000 022 6 0,000035 o 0,000 052 8 0,000 077 9 0,000112 7 0,000159 9 0,000223 2 0,000306 8 0,000 415 8 0,000 536 2 0,000 735 o 0,000 960 5 0,001242 o 0,001590 4 0,002 017 9 0,002 538 4 0,003 167 3 0,003 9219 .0,004 821 3 0,005 886 4 0,007: 140 3 0,008 607 9 0,010 316 3 Q,Ol2 294 6 0,014 573 8 0,017 187 1 0,020 169 6 0,023 558 3 0,027 3918 0,031710 5 0,036 556 o 0,0419713 0,048 000 3 0,054 6875 0,000 004 5 0,0000091 0,000 017 3 0,000 030 8 0,000052 5 0,000085 6 0,000134 6 0,0002051 0,000304 2 . 0,0004401 0,000622 9 0,0008644 0,0011783 0,001580 4 0,002 088 5 0,002722 8 0,003 505.7 0,004 46.18 0,005 6181 0,007 0039 0,008 6507 0,010 5921 0,012 863 7 0,015 502 9 0,018 548 9 0,022 042 2 0,026 024 3 0,030 537 6 0,03_5 625 2 0,041330 1 0,047 694 9 0,054 761 9 0,062 5719 0,071164 3 0,080 576 3 0,090 842 7 0,101 994 9 0,114 061 2 0,127 065 5 0,141 027 2 0,1551)60 -7 0,171 875 o 0,0000000 0,0000000 0,000 000 o 0,000 000 o o,ooo ooo s 0,000002 o p ·o,o1 0,02 0,03 0,04 0,05 0,06 . 0,07 0,08 0,09 0,10 0,11 0,12 0,13 0,14 0,15 0,16 0,17 0,18 0,19 0,20 0,21 0,22 0,23 0,24 0,25 0,26 0,27 0,28 0,29 0,30 0,31 0;32 0,33 0,34 0,35 0,36 0,37 0,38 0,39 0,40 0,41 0,42 0,43 ..0,44 0,45 0,46 0,47 0,48 0,49 0,50 (Conit i ilY a!!i~O) Tab. 2. AIP'IÊN DBCIE I 401 r=n 1 - F(x- 1) = L C~p"qn-r r=z n = 10 · - X= 6 0,000 000 o 0,000 000 o 0,000 000 1 0,000000 7 0,000 002 8 0,000 007 9 0,000 019 3 0,000 0415 0,000081 o 0,000146 9 0,000250 7 0,000406 9 o,ooo 633 2 0,000 950 5 0,001383 2 0,001959 3 0,002 709 8 0,003 669 4 0,004 875 7 0,006369 4 0,008 193 5 0,010 393 6 0,013 016 7 0,0113 Hl 6 0,019 727 7 _0,023.!)i4 8 0,028722 4 0,034199 4 ·0,040393 2 0,04'7349 o 0,055 109 7. 0,063 714 9 0,073 200 5 0,083 597 9 0,094 9341 0,107 2304 0,120 502 6 0,134 760 6 0,150 006 8 0,166 238 6 0,183 445 2 0,201609 2 0,220705 8 0,240703 3 0,261562 7 0,283 .238 .2 0,305 6772 0,328 820 5 0,352 602 8 0,376 953 1 n = 10 5 .X= 0,000 000 o 0,000 000 7 0,000 005 4 0,000 0218 0,000 063 7 0,000 151 7 0,000 313 9 0,000 585 7 0,001 009 6 0,001634 9 0,002 517 o 0,003'WU 0,005 29ô 7 0,007 326 3 0,009 8741 0,013 0101 0,016 803 8 0,021322 9 0,026 632 5 0,032 793 5 0,039 862 _4 0,047 889 7 0,056 919 6 0,066 989 o -0,078 126 9 I j n = io x=4 0,000 002 o 0,0000305 0,000 147 1 0,000442 6 0,001028 5 0,002 029 3 0,003 5761 0,005 8013 0,008 833 8 0,012 795 2 0,017 797 2 . 0,023 938 8 0,031 304 8 0,039 964 2 0,049 969 8 0,061357 7 . 0,074147 2 0,088 3411 0,103 9261 0,120 873 9 0,139 1418 0,158 6739 0,179 402 4 . 0,201248 7 0,224124 9 0,090354~ 0,247 934 9 0,103 683 1 0,272 5761 0,118 117 1 I 0,297 940 5 0,133 650 3 0,323 9164 0,150 268 3 0,350 389 3 0,167 947 5 0,377 243 3 0,186 6.?5 4 0,404362 6 0,206 3514 0,431 63_2 o 0,226 986 6 0,458 938 8 0,248504 5 0,486173 o 0,270 8415 0,513 228 4 0,293 927 7 0,540 003 8 0,317 687.0 0,566 403 o 0,342 Q38 5 0,592 336 i 0,366 896 7 0,617 719 4 0,392172 8 0,642 476 2 0,417 774 9 0,666 5372 0,443 6094 0,689 8401 0,469 5813 0,712 3307 0,495 595 4 0,733 9621 0,5215571 . 0,754 6952 0,547 373 o 0,774 498 5 0,572 951 7 0,793 348 o 0,598 204 7. 0,811 226 8 0,623 046 9 o,828 125 o n = 10 x=3 I n = 10 x=2 0,000 113 8 0,004 2662 0,000 863 9 0,016177 6 0,002 765 o 0,034 5066 0,006 213 7 0,058153 8 0,011 503 6 0,086138 4 0,018 837 8 0,117 588 o 0,028 342 1 0,151 729 9 0,040 075 4 0,187 882 5 0,054 040 o '0,225 4471 0,070 190 8 0,263 9011 o;o88 443 s 0,302790 8 0,108 681 8 0,341725 o 0,130 7642 ·0,380 369 2 0,154 529 8 0,4184400 0,179 803 5 0,455 7002 .0;206 400 5 0,491953 6 0,234130 5 0,527 0412 0,262 801 o 0;560836 8 0,292 220 4 0,593243 5 0;322 200 5 0,6241904 0,352 558 6 0,653 628.9 0,383 119 7 0,681.5306 0,413 717 3 0,7078843 0;444194 9 0,732_693 6 0,474407 2 0,7559748 0,504 220 o 0,7777550 0,533 5112 0,798.070 5 0,562171 o 0,816.9646 0,590 1015 0,834486 9. 0,617 217 2 0,8506917 0,643 444 5 0,8656366 0,668 721.2 0,8793821 0,692 996 6 0,8919901 0,716 230 4 0,903523 5 0,738 392 6 0,9140456 0,759 462 7 0,923 619 o 0,779 429 2 0,932305 6 0,798 288 7 0,9401661 0,816 045 a· 0,947259 4 0;832 710 2 0,953 642 6 0,848 300 7 0,9593705 0,862 839 3 0,964495 8 0,876 353 8 0,969 0684 0,888 875 7 0,9731358 0,900440 3 0,976 742 9 0,911 085 9 0,9799319 0,920 853 o 0,9827422 0,929 783 9 0,9852109 0,937 922 2 0,987372 2 o,945 a12 s 0,989 357 8 I n =lO :r;= 1 I·P 0,095 617 9 0,01 0,182 927 2 0,02 0,262 575 9 0,03 0,335 167 4 0,04 0,401263 1 0,05 0,461 384 9 0,0& 0,516 017 7. 0,07 0,565 6115 0,08 0,610 583 9 0,09 0,6513216 0,10 0,688182 8 0,11 0,721'499 o 0,12 0,751 57{! 6 0,13 0,778 698 4 0,14 0,803 125 6 0,15 0,825 0988 0,16 0,844 839 6 0,17 0,862 552 o 0,18 0,878 423 3 .0,19 (),892 625 8 0,20 0;905-3172 0,21 0,916 6422 0,22 0,926 7332 0,23 0,935 7111 0,24 0,943 686 5 0,25 (),950760 1 0,26 . 0,957 023 7 0,27 .0,962 560 9. 0,28 0,967 447 6 0,29 0,971752 5 0;30 0,975 5381 .0,31 · 0,978 860 8 0,32 0,981 7716 0,33 0,984 316 6 0,34 0,986 537 3 0,35 ,0,988 4708 0,36 0,990 150 7 0,37 0,991607 o 0,38 0,992 866 6 0,39 0,993 9534 .0,40 0,994 888 8 0,41 0,995 692 o 0,42 0,996 379 7 0,43 0;996 966 9 0,44 0,997467 ó 0,45 0,997 891 7 0,46 0,99& 2511 0,47 0,998554 4 0,48 0,998 809 6 0,49 0,999 023 4 0,50 / 402 l PROBABILIDADE Tab. 3. Função de Distribuição de 1 - F(x - 1) = ·=~ L e-<lar r-"' X Poisson~ a= 0,3 a= 0,4 :ri : o 1 2 3 4. 1,000 ooó o 1,1812{)9 2 1,017 523 1 , 1,001148 5 1,000056 8 1,000 000 o ,1,259 181 8 1,036 936 3 1,003 599 5 1,000265 8 l,OOOOoo O· 1,329 680 o 1,0615519 1,007 926 3 1,000 776 3 . 1,000 000 o 1,393 4~.9 1,090204 1,014388 1,001 752 1,000 000 o 1,451188 1,121 901 1,023 111\ 1,<Y03 358 5 6 7 ;1.,000 002 3 1,000 000 1 ·1,000 015 8 1,000 000 8 1,000 061.2 1,000 01)4 o 1,000 000 2 1,000 .172 1,000 014 1,000 001 1,000394 1,000 039 1,000 003 x o 1 2 3 4 • 5 6 7 . 8 9 .I a c=. 1,0 1,000000 o ' 1,000 000 o 1,503 415 i,550 671 1,155.805 1,191208 1,034142 i,047 423 1,005 753 1,009 080 1,000 000 o 1,593 430 1,227 518 1,062 857 1,013 459 1,000 000 o 1,632 121 1,264 241 1,080 301 1,018 988 1,000 786 1,000 090 1,000 009 1,000 001 1,002 344 1;000 343 1,000 043 1,000 005 1,003 660 1,000 594 1,000 083 ' 1,000 010 1,000 001 10 X I a= 0,9 a = O, 7 a = 1;4 . a = 0,8 1,001411 1,000 184 1,000021 1,000 002 I a c= 1,6 . a= 1,8 a = 1,9 I a =1,2 1,000000 o 1,,698806 1,337 373 1,120 513 1,033 769 1,007 746 ·- 1,001500 1,000 251 1,000 031 1,000 005 1,000 001 a= 2,0 o 1 2 3 4 1,000 000 ' 1,753 403 1,408167 1,166 502 1,053 725 1,000 000 1;798103 1,475 069 1,216 642 1,078 813 1,000 000 ' 1,834 701 1,537163 1,269 379 . 1,108 708 1,000 000 ' '1,850 431' 1,566 251 1,296 280 1,125 298. 1,000 000 . 1,864 665 1,593 9,94 1,323 324 1,142 877 5 6 7 8 9 1,014 25'3 1,003 201' 1,0.00 622_ 1,000107 1,000 016 1,023 682 1,006 040 1,001336 1,002 60 1,000 045 1,036 407 1,010 378' 1,002 569 1,000 562 1,001110 1,044 081 1,013 219 1,003 446' 1,'000 7.93 1;000 163 ' 1,052 653 1,016 564 1,004 534 1,001•097 1,000 237. 10 11 1,000 002 l,Ooo oo7 í,OOO 001 1,000.019 1,ooo oo3 1,000 030 1;ooo oo5 1,000 046 1,000 008 '"E.- C. 'Molina, Poi$son's Expcnumtial Binomial Jdmit; D. Van Nostrand, Inc. 1947. APIÊNDBCIE I 403 . . I. . Tab. 3. (Conthnaação) i r=; cu 1- F(x - 1) = Í: e-<>ar r']'" r! a= 2._5 o I a = 3,0 I a = 3,5 I!a = 4,0 ,.a ~ 4,5 ·' 1,000 000 1,950 213 1,800 852 1,576 810 1,352 768. 1,000 000 11,000 000 1,969 803 11,981 684 1,864 112 . 1,908 422 1,679153 1,761 897 1,463 367 1,566 530 1,000 000 1,988 891 1,938 901 ' 1,826 422 1,657 704 1,000 000 11,993 262 '1,959 572 1,875 348 '1,734 974 1,559 507 1,384 039 1,237 817 . 1;133 372 · 1,068 094 1,031 828 1,013 695 ' 1,005 453 ! 1,002 019 ' 1,000 698 1 2 3 4 1,000 000 1,917 915 1,712 703' 1,456 187 1,242 424 5 6 7 8 9 1,108 822 1,184 737 1,~ 021 .1,083 918 1,014 187 1,033 509 1,004 247 1,011 905 1,001140 1,003 803 1,274 555 1,142 386 1,065 288 1,026 739 1,009 874 1,371163 1,214 870 1,110 '674 1,021363 1,467 896 1,297 070 1,Í68 949 1,086 586 1,040 257 10 1,000 277 . 1,001102 1,000 062 1,000 292 1,000 013 1,000 071 1,000 002 . 1;000 016 1,000 003 1,003 315. 1,001 019 1,000289 1~000 076 1;ooo 019 1,008 132 1,002 840 1,000 915 1,000 274 ' 1,000 '076 1,017 093 1,006 669. 1',002 404 1,000 805 1,000 252 1,000 004 1,000 001 1,000 .020 1,000 005 1,000 001 11 12 13 14 15 16 17 18 19 a-= 5,0 1,000 001 ~,051134 1 1 , 1,000 074 1,000 226 1,000 020 1,000 069 1,000 005 ' 1,000.020 1,000 001 · 1,000 005 ' 1,000 001 i ..... : :- ~ 404 I PROBABiUPADIE Tab. 4. Valores Críticos da !DistribuiÇão de 11; de Student* Pr {t de Student ~ valor tabelado}. = 'Y , 1 0,75 1,000 o 0,816 5 0,764 9. 0,740 7 0,90 0,95 . , . 0,975 0,99 0;726? 0,71'7'6 0,7111 0,706 4 0,702 7 0,699 8 1,439 8 1,4i4 9 1,3968 1,383 o 1,372 2 1,943 2 1,894 6 1,859 5 1,833 1 1,812 5 2,446 9 . 2,364 6 2,306 o 2,262 2 2,2281 3,142 7 2,998 o 2,896 5 2,8214 2,763 8 3,7074· 3,499 5 3,355 4 3,249 8 3,169 a. 15 0,697 4 0,695 5 0,693 8 0,6924 0,6912 1,363 4 1,356 2 1,350 2 1,345 o 1,340 6 1,795 9 1,782 3 1,770 9 1,_7 613 1,7531 2,201 o 2, 178 8 2,160 4 2,144 8 2,'131 5 2,718 i 2,681 o 2,6503 2,624 5 2,602 5 3,105 3· 3,054 5 3,012 3 2,976 8 2,946 7 16 17 18 19 20 0,6901 0,689 2 0,688 4 0,687 6 0,687'() 1,336 8 1,333 4 1,3304 1,327 7 1,325 3 1,745 9 . 1,739 6 1,734 1 1,729 1 1,72!17 2,119 9 .2,109 8 2,100 9 2;0930 2,086 o 2,583 5 2,566 9 2,552 4 · 2,539 5 2,528 o 2,920 8 2,898 2 2,878 4 2,860 9 2,845 3 21 22 23 24 25 0,686 4 0,685 8 0,685 g 0,684 8 0,684 4 . 1;323 2 1,3212 1,319 5 1,317 8 1,316 3 1,720 7 . 1,717 1 1,713 9 1,710 9 1,708 1 2,079 2,073 2,068 2,063 .2,059 6 9 7 9 5 2,517 7 2,508 3 ·2,499 9 2,492 2 2,4851 2,831 4 2,8I8 8 2,807 3 2,796 9 2,787 4 26 27 28 29 30 0,684 o 0,683 7 0,683 4 0,683 o 0,682 8 1,315 o 1,313 7 1,312 5 1,3114 1;310 4 1,705 6 1,703 3 1,701 1 1,6991 1,697 3 2,055 5 2,0518 2,048 4 2,045 2 2,042 3 2,478 6 2,472 7 2,467 1 2,462 o '2,4573 2.,778 7 2,770 7 2,763 3 2,756 4 2,750 o 31 32 33 34 35 -. 0,682 5 0,682 2 0,682 o 0,6818 0,6816 1,309 5 1,308 6 1,307 7 1,30_1 o 1,306 2 1,695 5 1,693 9 1,692 4 1,6909 1,689 6 2,039 5 2,036 9 2,034 5 2,032 2 2,03\J 1 2,452 8 2,448 7 2,444 8 . 2,441 1 2,437 7 2,744 o 2,738 5 2,733 3 2,728 4 2,723 8 36 37 38 39 40 0,681 4 0,681 2 0,681;0 '0,680 8 0,680 7 1,305 5 1,3049 1,304 2 1,303 6 1,303 1 1,6,88 3 1,,687 1 ' 1,686 o 1,684 9 1,683 9 2,028 1 2,026 2 2,024 4. 2,022 7 2,0211 2,434 5 2,4314 2,428 6 2,425 8 2,423 3 2,719 5 ' 2.,715 4 2,71 1 6 2,707 9 2,704 5- 41 42 43 44 45 0,680 5 0,680 4 0,680 2 0,6801 0,680 o 1,302 5 1,302 o 1,3 016 1,3011 1,300-6 1,682 9 1,682 o 1,68Í 1 1,6SO 2 1,679:4 2,019 5 .2,018 1 2,016 7 2,015 4 2,0141 2,420.8 2,418 5 2,416 3 2,414 1 2,412 1 2,7012 2,698 1 2,6951 2,692 3 2,689 6 6 7 8 9 10 u· 12 13 14 ;. . 12,706 2 4,302 7 3,182 4 2,776 4 2,570 6 31,820 7 6,964 6 4,540 7 .3,746 9 3,364 9 63,657 4 9,924 8 5,840 9 4,6041 4;032 2 3,077 7 1,885 6 . 1,637 7 1,533 2 1,475 9 1 2 3 4 5.' 6,313 8 2,920 o 2,353 4 2,1318 2,015 o . 0,995 -~ *D. B. Owen, Handbook of S !a!is!>:cal Tables, Addison-Wesley Publishing Co., i962. (Cortesia de Atomic Energy Commission, Washington, D .C.) A~lí!Nibil~~~ I 405 Tmb. 4. (Coi'lil:im.aação) Pr {t de Student ~ valor tabelado) =')' j 0,75 0,90 0,95 0,975 0,99 0,995 46 47 48 49 50 o;679 9 0,679 7 0,679 6 0,679 5 0,679.4 1,3002 1,299 g 1,299 4 1,299 1 1,298 7 1,678 7 1,677 9 1,677 2 1,676 6 1,675 9 2,012 9 2,0117 2,0106 2,009 6 2,008 6 2,4102 2,.408 3 2,4066 2,404 9 2,403 3 2,687 o 2,684 6 2,6822 2,680 o 2,677.8 51 52 53 54 55 0,679 3 0,679 2 0,6791 0,679 1 0,679 o 1,298 4 1,298 o 1,297 7 1,297 4 1,297 1 1,675 3 1,674 7 1,6741 1,673 6 1,673 o 2,0Ó7 6 2,006 6 z,o:o5 7 2,004 9 2,004 o 2,4017 2,400 2 2,3988 2,397 4 2,3961 2,675 7 2,673 7 2,6718 2,670 o 2,668 2 56 57 58 59 60 0,678 9 0,678 8 0,678 7 0,678 7 0,678 6 1,2969 1,296 6 1,296 3 1,2961 1,295 8 1,672 5 1,672 o 1,6716 1,6711 1,670 6 2,003 2 2,002 5 2,0017 2,001 o 2,0003 2,394 8 2)393·6 2;3924 2,3912 2,3901 2,666 5. 2,664 9 2;663 3 2,6618 2,660 3 61 62 63 64 65 0,678 5 0,678 5 0,678 4 0,678 3 0,678 3 1,291') 6 1,295 4 1,2951 1,294 9 1,29,t 7 1,670 2 1,6698 1,669 4 1,669 o 1,668 6 1,999 6 1,999 o 1,998 3 1,997 7 1,9971 2,389 o 2,388 o 2,387 o 2,386 o 2,3851 2,658 9 2,657 5 2,6561 2,654 9 2,653 6 66 67 68 69 70 0,6782. 0,678 2 0,678 1 0,6781 0,678 o 1,294 5 1,294 3 1,2941 1,293 9 1,293 8 1,668 3 1,667 9 1,667 6 1,667 2 1,666 9 1,996 6 1,996 o 1,995 5 1,994 9 1,994 4• 2,384 2 2,383 3 2,382 4 2,381 6 2,380 8 2,652 4 2,6512 2,6501 2,649 o 2,647 9 J d 71 72 73 74 75 0,678 o 0,677 9 0,677 9 0,677 8 0,6778 1,293 6 1,293 4 1,293 3 1,293 1 1,292 9 1,666 6 1,666 3 1,666 o 1,665 7 1,665 4 1,993 9 1,99tl5 1,993 o 1,992 5 1,992 1 2,380 o 2,379 3 2,378 5 2,377 8 2,3771 2,646 9 2,645 9 2,644 9 2,643 9 2,643 o 76 77 78 79 80 0,677 0,677 0,677 0,677 0,677 7 7 6 6 6 1,292 8 1,292 6 1,292 5 1,292 4 1,292 2 1,665 2 1,6649 1,664 61,664 4 1,6641 1,991 7 1,9913 1,990 8 1,990 5 1,990 1 2,376 4 2,375 8 2,375 1 2,374 5 2,373 9 2,6421 2,6412 2,6403 2,639 5 2,638 7 81 82 83 84 85 0,677 5 0,677 5 0,677 5 0,677 4 0,677 4 1,292 1 1,292 o 1,291 8 1;291 7 1,291 6 1,663 9 1,663 6 1,663 4 1,663 2 1,663 o 1,989 7 1,989 3 1,989 o 1,988 6 1,9883 2,373 3 2,3727 2,3721 2,3716 2,371 o 2,6379 2,637-1 2,636 4 2,6356 2,634.9 86 . 87 88 89 90 0,677 4 0,677 3 0,677 3 0,677 3 .0,677 2 1,291 5 1,2914 1,2912 1,291 1 1,291 o 1,662 8 1,662 6 1,662 4 1,662 2 1,662 o 1,987 9 1,987 6 1,9873· 1,9870 1,986. 7 I ;li ,,1 i:l ii 'I '·' 406 I .lf>ROBAIBiliDADIE 'iimf!ll. 5. \?aio~ Crftie~ ~a~ Dis'i:rill:nliçlilo llle Qui-Quadrall:!lo" lP'II' ( x2 com f graus de liberdade ~ valor tabelado , l 2 3 4 5 1 o,oo5 - 0,010 o;o72 ·0,207 0,412 . 1 0,01 0,020 0,115 0;297.: 0,554 . 1 o,oo5 l = 'Y o,o5 0,10 0,25 0,001 0,051 0,216 0,484 0,831 0,004 0,103 0,352 0;711 1,145 .0,016 0,211 . 0,584 1,610 · 0,102 0,575 1,213 1,923 2,675 1,237 I 1,690 2,180 2,7p0 3,247 . 1,635 2,167 2,733 3;325 3,940 2,204 2,833 3,490 4,168. 4,865 3,455 4,255 5,071 5,899 6,737 5,578 . 6,304 7,042 7,7QO 8,547 7,584 8,438 9,299 10,165 11,037 1 1,064 6 7 8 9 10 0,676 0,989 1,344 . 1,735 2,156 ·o,872 • 1,239 1,646· 2,088 2,558 11 12 13 14 15 2,603 3,074 3,565 4,075 4,601 3,053 . 3,571 4,107 4,660 5,229 3,816 ·4;404 5,009 5,629 6,262. 4,575 5,226 5;892 6,571 7,261 16 i7 18 19 20 5,142 5,697 6,265 6,844 7,434 5,812 6,408 7,015 7,633 8,260 6,908 7,564 8,231 8.907 9,591 7,962 8,672 9,390 10,117 10,851 9,312 10,0_85 10,865 11;651 12,443 11,912 12,792 13,675 14,562 15,452 21 22 23 24 25 8,034 8,643 .9,260 9,886 10,520 8,897 9,542 10,196 10,856 11,524 10,283 10,982 11,689 12,401 13,120 11,591 12,338 13,091 13,848. i4,611 13,240 14,042 14,848 15,659 16,473 16,344 17,240 18,137 19,037 19,939 26 27 28 29 30 11,160 11,808 12,461 13,121 13,787 12,198 12,879 13,565 14,257 14,954 13,844 14,573 15,308 16,047 16,791 15,379 16,151 16,928 17,708 18,493 17,292 18,11.4 18,939 19;768 20,599 20,843 21,749 22,657 23,567 24,478 .31 32 33 34 35 14,458 15,134 15,815 16,501 17,192 15,655 Hi,362 17,074 17,789 18,509 17,539 18,291 19,047 19,806 20,569 19,281 20,072 20,867 21,'664 22,465 21,434 22,271 23,110 23,952 24,797 26,304 27,2Hl 2R,136 29,054 36 37 38 39 40 17,887 18,586 19;289 19,996 20,707 19,233 19,960 20,691 21,426· 22,164 21,336 22,106 22,878 23,654 24,4i_l3 23,269 24,075 24,884 25,695 · 26,509 25,643 26,492 27,343 28,196 29,051 29,973 30,893 3l,R11i 32,737 33,660 41 42 43 44 45 21,421 22,138 22,859 23,584 24,311 22,906 23,650 24,398 25,148 25,901 25,215 . 25,999 26.,785 27,575 28,366 27,326 28,144 28,965 29,787 29,907 30,765 31,625 32,487 33,350 34,585 35,510 36,436 37,363 38,291 30,6~2 25,3~0 '"D. B. Owen, Ham.dbook oj Statzstical Tables, Addison-Wesley Publishing Co., (Cortesia de Atomjc Energy Commission, Washington,D. C.) 1962. Tab. s. Pr ( x2 com j graus de j I cconr nuação) liberda~e ~ 0,95 : 1 0,75 valor tabelado} - = 'Y .· 0,975 1 0,995 0,99 5,024 7,378 9,348 I 11,143 12,833 ' 6,635 ' 9,21() . 11,345 13,277 15,086 14,860 16,750 12,592! 14,0671 15,507, 16,919, '18,307 14,449 16,013 17,535 19,023 20,483 ·16,812 18,475 20,090 21,666 23,209 18,548 .20;278 21,955 23,589 25,188 _1 2 3 4 5 1,323 2,773 4,108 5,385 6,626 2,706 4,605 6;251 7,779 9,236 3,8411 5,99lj 7;815, 9,488. 11,0711 6 7 8 9 10 7,841 9,037 10,219 11,389 12,549 10,645 12,017 13,362 14,684 15,987 I 7;879 10,597 . 12,~8 -·· ·- 11 12 13 14 15 13,701 14,845 15,984 17,117 18,245 17,275 18,549 19,812 21,0(/4 22,307 ·19,675 21,026 22,362 23,685 24,996 21,920 23,337 24,736 26,119 27,488 24,725 ' 26,21'7 27,688 '. 2_9,141 : 30,578 26,'757 28,299 29,819 31;319 32,801 16 17 18 19 20 19,369 20,489 21,605 22,718 . 23,828 23,542 24,769 25,989 27,204 28,412 26,296 27,587 . 31,410 28,845 30,191 31,526 32,852 34,170 32,000 1 33,409 ' 34,805 . 36,191 I 37,566 I . 34,267 35,71& 37,156 38,582 39,9?7 . 21 22 23 24 25 24,935 26,039 27,141 28,241 29,339 . 29,615 30,813 32,007 33,196 34,382 32,671 33,924 35,1721 36,4151 37,652 35,479 36,781 38,076 39,364 40,646 38,932 ' 40,289 41,638 42,980 ' 44,314 I 41,401 42,J96 44,181 45,559 46,928 26 27 28 29 30 30,435 31,528· 32,620 33,711 34,800 35,563 36,741 . 37,916 39,087 40,256 38,8851 40,113 41,337 1 42,557 1 43,773 41,923 43,194 44,461 45,722 46,979 45,642 : 46,963 . 48,278 49,588 . 50,892 48,290 49,645 50,993 52,336 53,672 31 32 33 34 35 35,887 36;973 38,058 . '39,141 40,223 41,422 42,,'i85 43,745 44,903 46,059 44,985 1 46,194 1 47,400 1 48,602 1 49,802 48,232 49,480 50,725 51,966 53,203 52,191 53,486 54,776 56,061 57,342 36 37 38 39 40 41,304 42,383 43,462 44,539 45,616 47,212 48,363 49,513 50,660 . 51,805. 54,437 55,668 56,896 58,120 59,342 58,619 59,892 . 61,162 I 62,428 63,691 41 42 43 46,692 ·47,766 48,840 49,913 . 50,985· 52,949 54,090 55,230 56,369_ 57,505. 50,998 1 52,19253,384Í 54;572 ! 55,758 ! I 56,942 1 . ~g:~~i I 44 45 58,124 ~ 59',3041 60,481 1 61,656 1. I 60,561 61,777 62,990 _64,201 65,410 . . 64,950 66,206 67,459 - 68,710 69,957 , 55,003 56,328 57,648 58,964 60,275 1 61,581 62,883 64,181 65,476 66,766 , . ' i I . . 68;053 . 69,33() ,· . 70,616 .:L .· 71,893\, '-- 73166 ;.: • '} ,1 •• ,. " ••• '~ 1, ,. .,I ' , 408 I i"ROBABHUDADE Talb!. @. INJt(im®r.Ciôl Aiearfl:6riosQ 07018 52444 72161 17918 13623 31172 65625 57299 7507:1. 76165 12572 97918 87521 91057 4319,5 23968 46794 44351 46829 50205 55216 62370 99981 47992 75736 85366 59344 .55008 26797 77473 56223 20149 93371 64423 07268 94564 51669 66662 91676 ~1330 07337 18172 47429 27036 71Ü27 55901 . 27426 96039 68282 54262 66290 97534 21338 98888 21477 27544 89707 88169 25545 33097 72780 97453 69530 69406 48125 91384 90836 53300 29470 92982 47296 78967 29895 46476 98382 54892 00704 71507 54562 11265 59168 85734 28517 79373 25366 83951 21776 77761 72993 06636 9i075 85764 17244 98998 25349 04724 53348 34482 99268 95342 38556 39044 42758 98715 97178 60373 04072 62210 48436 07545 27317 10401 31615 77935 64608 01209. 30254 52459 95784. 28949 43999 50029 75366 77026 94764 54952 19016 43688 33087 45312 68699 31912 56837~ 05206· 27460 65145 65961 10056 71171 . 15400 09317 33851 65429 72834 72182 39159 41786 95627 98738 75214 04795 18169 30768 15548 61575 51163 96649 30607 42263 27805 84475 92406 89023 79489 21930 60722 42773 60730 85118 94726 35268 23672 31519 97073 39454 . 05044 37333 53462 01574 19616 56420 85734 90489 57310 72239 39214 99886 81693 59375 93791 89822 81200 17849 22610 73904 33329 66364 68349 19193 89123 08896 94799 16984 99621 19271 94662 62211 86532 66899 15792 05781 37539 96186 12351 72675 59187 80172 53893 72438 62175 53284 .43269 48268 99839 48746 28024 91133 82821 24228 . 56084 45421 05562 19526 32079 54029 37956 82385 63257 53517 22296 14252 91760 14288 18558 49017 76941 55430 33023 87337 23489 77008 25875 26895 74487 19172 27646 26446 65304 83196 80439 82072 25738 34978 61939 76263 28048 32962 43053 05045 98918 4f589 24266 28951 20405 59330 70883 26814 22676 69324 20121 72035 01194 05303 80823 89779 81800 48587 39725 20905 - 58862 50296 93319 60054 68727 81773 74279 34968 99696 55282 36773 85087 76028 78454 6105L 21247 94186 54285 21700 .97260 54735 67793 9Ó845 12301 89829 68996 18178 35464 88832 69121 16937 82224 68076 96796 86547 18134 17069 15868 59341 62195 51873 87880 70063 16136 72492 10973 54945 26794 01803 33536 77090 73489 81386 17.537 60137 31337 83886 72886 94128 97990 58609 .00511 48241 49521 69981 03469 56128 23701 56612 8,6307 42598 20002 64568 80405 02364 05464 76530 69459 97485 88677 88071 81981 95079 88251 17192 ·92209 30999 42588 76708 23082 50728 50147 98590 .09558 00728 67442 93941 12829 86759 78660 47529 80754 64366 15065 74196 0!1237 11007 60622 79973 71080 24607 4S461 78444 43668 71367 12817 24725 39582 19599 23485 98120 02877 91930 30021 82364 30937 74667 97948 68572 30321 70666 18427 13221 318i6 42982 76059 45658 ·99234 63033 74427 44446 94188 40044 59484 99629 22430 14597 28953 25625 74309 14060 59966 49247 21162 15855 09923 153094 Jl9800 117295 59338 26729 72826 42212 74244 27190 ?'4573 65558 41268 43088 99302 16583 22616 84923 27056 84020 37689 33472 21002 86338: 15425 00703 67515 30588 47331 21846 75585 40676 09737 " 98578 19747 31154 84058 25447 08865 83133 12382 ~0128 09300 17596 60620 42379 78329 90005 94961 83735 ll4748 ~380 99376 54~17 30496 84523 "'The Rand Corporation, A Millioo. Random Digite 'llli!A UJO,OOô N MfYIQ, l Dwiak:J, The Fr01:1 Jl>rsoo, 1955. · p.fill~i\!!:))~C~ c· .. irõll!il. ®. I -~og (te@i'!\l:iii'IM~ál@) 96124 31283 49988 82790 5i473 73355 54371 48558 45529 13821 01925 20985 20397 48792 75776 17211} 00299 60384 31384 24401 81719 71681 24574 55649 00445 74603 22496 14852 . 08779 <51570 07785 16624 287'18 33373 36535 02854 68335 92405 90330 48606 91971 46052 07123 67545 11139 63537 07442 22008 74667 82646 84671 41667 83082 20398 03517 62897 28526 58239 ll8600 47408 ·56i29 35459 61955 85374 62155 36513 10460 55992 69791 47467 41292 33925 .36.520 18857 14Sl3 .82142 75946 08005 92948 15556 75454 27582 89658 57194 39555 90681 90856 47708 77203 09325 73339 04254 01691 26072 16717 08810 23715 . 22284 92538 64219 53166 58112 14548 21251 53416 78592 88451: 36314 15618 03811 80640 22892 05831 40764 30953 12764 72393 11031 91948 63369 79194 7i563 40757 69586 18537 66885 9'6177 37321 77905 .30305 29383 . 69753 71241 35347 37285 26414 10767 <50334 94194 6::2843 11182 80687 3945-1. 0'7628 6U56 · 02028 .36911 49766 94806 53~8 28914 40326 49117 22772 70267 48762 75187 96627 . 34500 74970 76952 36639 38470 34392 35100 96837 21396. 78905 92989 01291 . 56684 13717 26708 48783 90933 . 56681 49966 63004 08773 90290 31779 35367 89286 45424 97232 30441 43255 24880 44359 61348 U9883 06993 38838 . 25248 22204 'l.7044 17418 76022 75881 4344(ll 74724 89716 00086 50446 85097 79343 99234 12164 05451 58178 26313 36613 16943 68947 46391 39585 43440 62009 34932 58980 56285 60269 ' 32132 81628 12207 22525 00899 93031 22716 94901 11439 58248 29765 01921 99303 80876 68818 20908 97159 38995 38314 78915 49267 55540 97879 7707S 57288 18968 00867 98178 85171 85310 39165 84294 03701 06316 43287 03332 54653 70069 29523 89223 94932 81281 8Ó463 05445 36992 42596 10904 45045 20240 74905 87366 22385 67557 35362 85867 80039 39813 86629 82072 18672 75647 63111 67943 29280 28716 66121 33237 . 23405 72468 17995 17083 95008 86552 94845 63510 {}7327 09057 17393 97004 67901 39209 .50820 24221 07384 11985 71237 96867 69703 13059 38553 08744 64979 77702 47389 97029 38483 89159 ·90176 97265 . 88433 16602 33269 04883 11379 78988 . 94343 06367 84487 24426 88864 18593 09234 88688 09528 03876 84747 .77201 09360 36035 48791 57469 92195 42803 02501 72613 08334 89547 88379 53814 16963 87558 84269 94907 14560 3732,0 58885 55068 08019 43698 40740 65475 10532 05159 86631 79330 25295 43324 64613 87561 04318 59946 39407 26962 90731 56078 47877 65004 30688 59632 23196 81764 35041 51677 52672 49668 85986 20714 05111 24519 80418 61687 20880 51215 10966 73842 04373 :1.9385 53285 45735 11755 51242 00281 12233 14319 40589 05075 25893 65661 78439 83489 80028 94848 10625 18033 95820 35144 74342 93343 72250 70913 70599 45848 21834 87674 87328 92270 10404 95563 6740.5 04636 62912 28635 15070 94163 42466 08859 92136 99901 16622 68427 87405 42852 09382 . 54994 79135 ·08266 40812 01498 88817 75548 42860 71208 44319 57827 53699 40656 72822 22313 02940 90888 33282 17662· 89649 66788 94921 45677 50330 47415 7?246 04949 06003 32576 .21065 85094 80725 46597 95030 42846 44885 72120 67666 87874 78055 72542 80838 70858 25965 6477{} 31695 38409 41314 05261 64993' 83843 72270 71100 95727 48051 .. i.: ·: .'j .: :i: ' I,; ',,,li .I''.' .!. ..1 . ·· i,'! lr :;l. I : !! . I! r i ;:;·1 . AI"IÊNÓICE I 411 ' I Tah. 7. (Continuaçã1) I 10 11 12 13 14 115 16 17 00 01 02 03 04 os 06 07 08 09 -0,73 -0,87 1,18 -2,09 -0,32 0,90 -0,16 0,15 - 1,87 0,87 0,25 -0,74 0,05 1,13 1,06 - 0,86 -0,22 - 1,12 · 0,72 0,95 -2,08 1,44 0,10 - 0,50 1,14 0,63 - 0,17 0,80 -1,17 0,05 0,17 - 0,79 -0,15 0,37 - 0,23 -1,62 -0,81 -0,30 -0,36 0,46 -1,04 -0,76 0,05 -0,18 0,49 -0,52 0,49 - 0,77 - 1,42 - 0,01 - o l23 -0!42 0,74 1,93 0,82 -1,85 -0,27 0,78 0,53 · o,oo -0,58 1,19 0,23 0,88 ; 0,90 -0,90 -0,64 -0,54 1,73 I 0,94 • 0,03 -'- 1,61 0,70 0,80 - 1,38 1,32 0,47 -0,29 0,14 -1,16 2,08 -0,10 . -0,79 -0,53 0,51 -0,83 10 0,52 -1,39 -'. 0,94 -0,51 - 1,50 -0,48 0,89 0,38 - 0,53 0,15 0,12 - 1,18 : -0,46 0,04 -0,21 1,54 -0,23 1,52 0,37 0,62 -1,04 1,67 -0,85 -0,44 -0;89 1,88 0,57 -1,32 0,19 -1,29 -0,56 2,88 - 0,29 -1,87 o;43 0,66 0,23 2,13 - 2,41 . 1,84 -0,91 -2,06 0,54 -1,06 -1,81 -0,62 1,81 -0,14 0,16 0,80 -0\13 OllO 01'71 1,18 0,17 0,05 0,90 -0,39 -0,66 -0,34 0,33 -0,46 -0,15 10,72 1,17 .,.o,s5 ' -0,42 0,22 -0,02 . 2,42 1,23 0,25 0,14 1 1,1? . -1,24 0,74 -1,30 -0,55 1,77 -1,65 1,31 0,65 -0,15 0,07 -0,84 0,33 0,50 -0,54 -1,54 2,06 0,06 . · 1,i8 -0,73 0,46 ~o.81 - ·0,22 2,51 - 0,48 0,75 1,37 0,04 I' - 1,53 - 0,44 0,45 1,34 1,16 - 2,17 -0,43 -0,35 0,68 - 1,73 0,59 .,. 0,20 0,27 1,50 1,09 0,49 -2,08 2,10 0,00 0,25 - 0,15 - 2,05 0,67 0,57 -0,73 -1,24 0,75 - 0,70 1,87 • 0,26 _ . 0,15 - 0,27 - 0,74 - 1,78 - 0,15 o;87 0,97 1,78 0,94 0,77 - 0,77 0,68 - 0,2'1 - 1,11 0,95 .:. 0,88 0,92 0,37 0,85 - 1,16 0,89 0,18 - 0,42 0,83 - 1,18 0,38 -0,04 '0,18 -1,87 0,89 -0,73 -0,92 - 1,51 0 ,49 - 1,41 0,71 1,18 0,44 0,74 0,18 0,43 1,82 1,62 1,46 1,48 0,28 0,11 - 0,41 - 0,44 0,48 - 1,53 - 0,71 - 0,88 - 0,31 1,02 - 0,39 0,62 - 1,32 j,67 - 0,26 - 6,76 - 1,76 0,03 - 0,76 0,51 2;35 0;48 0,82 - Oi58 - 1;26 - 1,03 -0,14 0,76 0,76 1,25 -0,43 - 1,08. -0,24 0,37 . 2,22 -0,01 - 0,26 0,55 - 1,36 - 0,66 - 2,08 0,30 - 0,99 1,56 0,11 -0,28 0,15 -0,60 - 0,60 0,83 0,32 - 0,21 1,76 - 0,95 - 0,72 - 0,37 - 0,10 - p,74 - 1,76 Q,37 - 9.42 - 0,70 - 0,07 1,44 0,96 0,69 0,90 - .0,11 - 0,02 1,40 0,34 0,14 -1,11 -0,58 0,79 - . 0,03 0,85 -0,58 -0,73 1,61 - 1,08 11 ' 12 13 14 15 16 17 18 19 20 . 21 22 23 24 25 26 . 27 28 29 -1 ,6 1 0,26 - 0,32 - 1,00 0,66 - 0,20 1,01 - 1,81 - 0,40 30 31 32 33 34 35 36 37 38 39 - 0,01 0,23 1,27 1,72 0,78 1,86 - 0,50 1,02 - 1,57 2,27 0,15 - 0,19 0 ,13 1,70 1,55 1,12 - 0,93 - 0,81 0,10 - 0,61 - 1,83 1,08 0,17 0,61 0,19 2,09 0,68 0,62 0,11 0,61 40 41 42 43 44 45 46 47 48 49 - 2,17 0,05 - 0,38 0,40 0,39 - .0,12 1,20 - 1,04 - 0,32 1,08 - 0,69 - 1,71 1,75 - 1,50 0,66 1,18 - 0,91 1,28 0,56 0',56 1,33 0,21 0,93 0,24 0,19 - 0,08 - 1,08 2,50 - 1.03 0,34 - .- 1:06 -0,16 11,1o -1!sS 01,96 -0 \91 -0\46 0\85 -o;o1 ~.28 1,02 o;,2a 0,36 - ~,65 ~.16 f,59 t29 - q,l4 ~.46 - q,11 - q.so - 0,17 ,,08 q,o5 - - Q,3T f.35 - Q.45 I 9.45 - p,8o. - /.02 p,53 0,46 . .- 1,86 . 0,14 0,07 0,12 0,83 0,20 0,27 0,08 0,27 0,89 0,78 0,90 1,10 0,35 0,53 1,84 0,51 0,45 - 0,27 0,03 l 0,15 ; - - ' - 0,55 0,20 0,12 1,67 0,14 0,45 0,13 0,69 0,42 0,65 0,99 2,83 0,46 0,38 0,23 0,59 1,22 1,43 0,64 2,52 0,42 ,0,16 0,92 0,26 0,25 - 1,90 - 0,17 - 1,13 18 ' - o;21 19 - o,os 0,19 1,21 0,44 1,11 -0,87 I I I i' ., o:·.> .. ... .... ,( - Respostas a Problemas Selecionados Capitulo U. ~ (a) !SI; ' (b) ti, 3, 4, 5, 6, 7, 8, 9, 10}, (c) 12, 3, 4, 5.}, (e) 2, 5, 6, 7, 8, 9, IO}. . (d) I1, 5, 6; 7, 8, 9, lO), (a) ~:r)O~x<jfu{xl~~x~2f, (b) ~x)O~x<!fu~xl~ <x~1~U{-xl1~x~2f, (c) {xlO~x~ ~f (d) jx.lt~x~ifu~xll<x <~f· 1.3. (a) Verdadeira, (õ) Verdadeira, .(c) Falsa, (d} Flrlsa, (e) .Verdadeira. Vt (a) A = 1(0, 0), (1, O), (2, O), (0, 1), (1, l), (2, 1), 1.2. (b) B = { (0, (3, (4, (3, 3), (4, (4, '5)~ (5, .y, 0), 1), 3), 5), II, U J x/1 <x~2f, (i, 0), (2, 0), (3, O), (5, 1), (6, 1), (2, 2), (5; 3), (6, 3), (2, 4), (6, 5), (3, 6),_' (4,,. 6), (.0, 2), (1; 2)}, (4, 0), (5, 0), (6, 0), (1, 1), (2, 1)~ (3; 2); (4, 2), (5, 2), (6, 2), (2, 3), (3, 4), (4, 4), -(5, 4), (6, 4), (.3; 5), {5, 6), (6, 6)J. ::-.· 1.6. -.fl?Ii>;·N._tJJJ;"7JNIJD,'I>NDN, DNinJ, DNNN, NDND, NDNN, . NNDD, NNDN; NNNp, NNNNI. · 1.10. (a) Í(x; y))O~x < y~24). U'l. (a) AVBUC, (b) {A(')B(')C]U[A(')Br'\ClU1A(')B(')C], (<J) A(')B(')C. 1.~5. 1 4 8 13' !3' 13 2..1. 113 1\ (a)'ilg' .(li)-,;. " .. . . 1.16. (a) 1- z, (b) y- z. 'i1.17. Jl 2.2. (a)-, 12 1 20 (b)-. 5 g' . K 2 2.3. (a)-, .a 5 (b)- • 8 RESPOSTAS A PROBLEMAS SELECIONADOS I 4 13 2.4. ( ~~0)(-\i~) 2.8. 1 [( 4~)( 12~~) + ( ~)( \~~)J - ( 1.500 ) ..200 J 4 45. 2.5. 2.7. ' (b) ( 1.500) 200 (a) (a)~. 2.6. 3 (a) --, 8 120. (b) 1~0, (c) 7 j'' 7 8 . ~' (e) .1'' 2.9. 720. (d) 2.10. 455. • -~ (b) - , 8 91 (j) 120' 2.11. (a) 120, (b) 4 . 37, .(D -, 2.12. (a) (cj 70, !. (c) 4 ~ (g) 1 gó (b) 2.970. (à) 336. 2.13. (N - 1)!/(N - n)!N.....1• 't.: '_.p, a+ b. 2.14. (a) 360, (b) 1.296. . 2.15. 2.16. (a) . 2/n; (b) 2(n - l )/n2 • 2.111. 0,24. i'- 2.20. 120. 1 n- k + 1 10! 2.22.----- 10' (10- r)! ;: • Capítulo 3 31 • • '( X ~y) 1 (b) 3.2. (a) 6' 3.4. (a) ios r 3.7. a· 3.12. (a) 3.15. ( z 2 ~ ~ ~ 1 ) · + (X ~ y ) 1 .!., 3.3. (c)-. 2 3 ·' (b)2. 5 2 .!_, (b) 4 .!. Z +: +1 ) 5 9 3.6. (a)~, 3.9, 0,362r 0,406r 95 . !1. 5 + 2p3 - 5pl + 2p5, 2_+ (2p - .r~·- <a>, ; 0,65;· \ '·--;.:/ (b) P + 3p2 - (c) 48 . 95 0,2~2. l)n (ll - t) (b) 0,22 (b) 0,145 . . 4ps - P4 3.25. · (a) 0,50, 16' 3.34. f3n = .!! 95 r (b) . ••. · -... ... J:1 7. ~) ,0,995; 16' . 3.13. 1 - (1- p)" . 4. 3.20. (a) 2p2 3 3.23. 3.35. ( + 3p~ _:_ pa. , (b) 0,05 . . (c) 8/35 ·: =-'.- 414 I PROBABILIDADE .. ) a i3 3.37. Pn = - - + a+ I' (a+ 13) (a+ i3 + l)n - 1 3.39. (n - 1) p 2 /(1 - 2p + np 2 ) Capítulo 4 4.1. P(X = O) = 4.2. (a) 4.3. (a) .!. , P(X = 64 1) = r r-z. ~, P(X = 2) = ~-, P(X = ô4 64 (!) (t (f 1 (b) 3' 1 16' ~ .' M G) (/~ ~) /rf) . (o) 1 4.~~ 7. (c) 3) ""' . ·I 27 64' .<1,.10. e- e-1'. 4.11. P(X > biX < b/2) = - W!(OD + 8). 4.13. (a) a= (2/b)- b. 1 4.15. (a) a= 2' 4.17. (a) j(z) = g' .!. , O < x < 5, (b)j(x) 5 (c) j(x) = 3é", x 4.23. (b) P(X = k) 4.16. (b) F(z) = 3z2 - 4t5• 2x 8• = (1/rr)(x - z 2)-112, O < x < 1. .§_. 4 = (~O) (0,09)k(0,91) 1o.-!:. .!. . 3 5' 4.28. 4 4.29. (a) k = !3, = 5t0 c;: < O. (b) a = 4.20. (a) a = .3, 4.25. (a) 3 (c) 4.14. (a) F(t) (b) r= 1. Capítulo 5 = ~ (4- P, y)-1 3 < < 4. 5.1. g(y) 5.2. (a) g(y) = 1 '6, 7 < y < 13, 5.3. (a) . g(y) = ~ y-2f3cvlf3, Y > O. 5.6. (a) g(y) (b) h(z) y (b) h(z) = 1j2z, e y 2)-1f2, -1 < y < 1, (2/,.)(1- a:2)-1f2, O< z < 1, (c)j(w) < z < ev. = (1/,-)(1 - = = 1; O.< w < !. RESPOSTAS A !PROBLEMAS SE LECIQi\i ADOS I 415 , 5.7. 5.8. (3j2,-)[(3vj4,-)-1i 3 (a) g(v) = ~ I < v < 4vj3, O < s < 4,.. 1], O (b) h(a) = (3/4,-)[1 - (a/4,-)}11], g(p) = _!__ (2/p) 1f2, < p < 242. 8 162 I = 1; g(y) = O, 5.1 0. (a)_ g(O) y l O. < yo((k - a)/(xo- a)], a)fkyo, O < y < yo; g(yo) = 1 - xefk. (b) g(O) = ajk; g(y) = (xo 1 a)jkyo, O < y (c) g(O)- = a/k; g(y) = (xo - I 5.13. 0,71.- Capitulo~ s·/__.--· i 6.2. = S, (a) k (b) h(x) 1 Z~: O < x ~.,.....-'[' ..... .. ·-. =; 1 < 2, "'"r! ~ v/4(;.''/"'"""k~~' y Jli';~: ~ y:52 . ~~. 8 (c) ' ' g(y) = < '~ / li~ y~4 t_-~~41~~~--~7 ~ y ~o. 6.3. (a) ~, 6.6. (Cll) k,;,t, (b)h(x)=l! -lxl,-l< x<I, (c) u<vL = IY I, - h(z) = UI. = 6.11. g(h) (b) !._, = 1 - k = 1/(1 - e-1) 2• 6.5. 32 l l/2z\ z ~ 1. 1/2, o < z < 1. (1.600 - .É... (c) 24!_ 6 < v < 1. _ 9h~)/80h\ I I s:< h < ~ =_!__ ~<h~B 5' 3 = (5h!- 80)/16112, 4 l!i>.12. h( i) = e-(2/i)IJ![ - ~h~~ . (2/l) :_;__ 2(2ti) 1f2 - 2] + e-< 1/•> 1(-![(1/i) + 2(1/i) 111 + 2], i> O. ®.13. h(w) = 6 +6w- 12w 112, O !< w <I. 6.14. (a} g(x) =e-%, x >O, (b} 1 h(y) = ye-v, y >O. 7.3. 3,<1.. 7.4. _!_(2C3 7.6. US~0,03. 7.8. 715 3[ '2 + C2- 3CJ). ·..,: -, I' 416 I PROBABIUDADE 7.9. US$50. 7.10. (a) C= _!_ 6 (b) E(D) = ~. 9 7.13. (b) E(IV) = ~. . 3 7.12. (b) E(Z) = i_. 3 7.14. 154. 7.15. E(Y) = 10, V(Y) = 3, E(Z) = (e{i)(e2 - V (Z) I), = (e~{i)(t?- I ). 7.11!. E(Y) = O, 1-"( Y ) =f, E (Z) = 2/v, V (Z) = (.-1- 8)f2,:Z, E (W) =+, . 1 V(W) = - . 12 7.20. c~ 7.:!4. lll = 2 2: E(Y) = (yaf2k)(T.J)- a), V(Y)= (xo -ka)yo [ f, b = 2. 7.25. (a) E( V) 7.26. V (X) = ~~ 3 7.2.7. E(S) = 7.30. (a) g(x) = x{i, O < x (b) 7.31. V(X) = E(Z):::: !'z/JJy < 2; . = +- xo,~ l IB f, (b) E(P) = : . ~. 6 h(y) = l{i - y/8, O < y < 4, ~. 9' + 2(Jl.:</)ly 3)o-v 2 ; V(Z):::: (1/p.1/)u, 2 + (JJ.i/p.y~)1Jv • 2 7.32. E(Z):::: ~ ; V (Z) ~ ~. 27 7.35. 1 "4; 27 7.46. 48 65 O. 7 .48. P(Xi=l)=p(rjn)+q[(n-r)/n]. Capítulo 8 11.1 .. 0,219. ll.3. (a) 0,145, (b) 4, (c) 2, (d) l ou 2. (e) 1,185, 1!.4. 0,375 8(binomial); 0,405 (Poisson). 8.5. 0,067. 3.6. P(X 1!.7. E(P) = US$45,74. 3.9. (b) = O) = 0,264. 0,027. 3.12. (a) (0,735) 7, (b) 1 - (0,265) 7 • 11.10. 0,21<,. 1!.16. (a) (1 - Ptl( 1 - P2)(1- pa)(l- p4), 8.17. (a) 0,064. 8.20. (2- ln 3)/3. (b) 0,13. 3.24o (a) 0,226 6, (b) 0,:290 2. 9.2. (c) 0,096 4. US$19.125. Capitulo 9 9.1. (J) 0,2 15. 0,308 5. .j. ~ RESPOSTAS A PROBLEMAS SELECiONADOS I 417 9.3_. ' /~ ) ~' 1o,21. 9.5.:.,___ (a) D 2, 1 9.6. E(.Y-J-= 2 12f,r, V(Y) = (.- - 2)/,.-. 9. fo. c= + Jl- 0,433u 9. ~2. E( L) 9.13. (a) 9.11. j < o, 7745 US$0,528. = +; 0,044 5, J..; 0,049. _!_; 0,069, (c) (b) 4 9.15. US$23,40. 9.24. 0,10; p,. (b) - 4 9.17. (a) US$0,077. 0,80. 9.25. E(Y) ~ln JA - (1/2JJ. 2 )u 2 ; V(Y) ~ (1/JJ.')o-2 • E(X) = np[(1 - p,._ 1)/(l - p")]. 9.28. (b) 9.32. 0,15. F i r· Capítulo 10 10.1. M,(t) = (2jt 2 )[el(t- 1)+1]. (a) (b) E(X) = .!, V(X) = 3 Xetaj(À- t), 10.3. (a) M,.(t) = 10.4. ·(a) M:. (t) . = 1 0.6. (a) (1 - t')- 1• 10.8. 10,9. (a) 0,8686. 10.12. 0,30; (b) E(X) = (aÀ 6 V(X) = l/À2 • i . E( X) = 3,2. (b) 10.14. 0,579 • 1 10.19. {e 3l - l)/3tet. 3 1'1.1. ll3,55·hor:~s; ~ 1.2. 48,6 hore,s. n.:il. j(t) = 81,77 horas; 78,35 horas. Co exp [ - Cot], O~ t ~ 41 C,(to - t1)], = C, exp [- Coto + t > to. 11.41. (a) j(t) = Ce-C<t-Al, t ~A. 11.5. (b) R(t) 11.7. (a) Aproximadamente (0,5) 6 • 11.9. 0,007. H.10. R(t) = 2e-0,06t- e-0,091, 11.1~. (a) m =ln 11.13. R(t) 18 + 1)/À., J..cet + t? 1 + e31 + ét. + tft + e6t). 10.13. 0,75. . 10.11Jl. ..!._, ('VZ), = [A/(A +t)]r+l. 11.11. (a) 0,014. (b) m = 0,01, exp(-Cot), O< t <to. = exp [t(C,to - C0 ) (CJ!2)(t2 (c)+ "'· = 1'1.14. (a) R(t) = e - f3,t + to2)], t > to. + e - f3,t + e-f3,t- e-@,+{3,)1- e-<f1,+f3ilt e-{/3,+f3,)t + e-@,+f3,+f3alt. I - 11.15. (a) Rs = 1- (1- R")k. 11.18. (a) 0,999 926, (b) 0,99, · 11.16. (a) Rs = [1- (1-'- R)k]". (c) 0,68. ·.•, ,. 418 I PROBABiliDADE = [1- (1- RA) (1- RB)(1- Rc)][1- (1- RA•)(1- RB·)~. Rs = 1 - Rc(l - RA•)(l - RB•) - (1 - Rc)(l - RARA·)(l - RBRB•) . . 11.19. (a) Rs (b) 11.22, Mx(!) = 2À[I/(t- À)- )f(t- 2À)]. - ,. ) Capítuto 12 •. n = 392, (b)n = 5.000. 12.2. (a) 0,083. 12.1. (a) 12.3. (a) 0,966 2, (b) n = 24. 12.4. 0,1814. 12.5. (a) 0,180 2, (b) n = 374. 12.6. (a) 12.7. g(r) = (15.000)- 1(r 3 = 12.9.. (a) g(s) ''= 50[1 - e-0,2(s+O.OI)], se -0,01 = 12.12. j(s) +[ PIP2(1 - PI) /o--1 P2- PI 12.13. (a) ~ 8 ~ 50[e-0,2(a-O,Ol) - e-0,2(s+O.Ol)], se <J? ( s--; 99) _ <J? = 0,1112, (b) 0;191 5. + 600r), O ,.;; r,.;; 10 r3 + 60r2 - 1.200r + 8.000), 10 ~ r .~ 20. __:_ 60r2 (15.000)-1( - [ 1- ( 8 0,01 > 0,01. · (a - 101)]. 2 I - P2 1- PI )k-1] ' (b) 0,055. Capítulo 13 13.3. P(M = m) = [1 - (1 - p)"')" - [I - (I - p)m-1]n. 13.4. (a) 0,13, 13.6. (b) 0,58. 0,89. 13.5. (a) 0,018, 13.8. (a) (b) 0,77. (I - 21)-1• Capítul© 14 14.1. V(~) V(L:) 14.3. I6,1. 14.6. (a) 14.9. (a) + V(L:z) 1/(T- to). k/'1;7 = 1 fli. C = l/2(n - 1). 14.4. - 1 - nf-:í;~-l ln X;. 14.7. (a ) ' 1)(·) --- n · . To- 41 " 14.13. 0,034. 14.15. 14.14. -0,52. 14.16. nt1:-~m 1 14.2. r/X. x,a. 14.29. Distribuição de F, com (1, 1) graUB de liberdade. 14.31. (-4/5). 14.32. 8,6. --. n- k i RESPOST . A1 APROBLEMAS SELECiONADOS I 419 I Ca~pítuio 15.1. I 15 C:!' vn), c= Vn <P [c + ':- iv;;] + <!>r- c+:o - ~-~ .v;;J (b) (a) l-ei>( -2,33~+JJ. I .15.2. (a) 1 _ I' I (b) C=2,575un-1fJ. [ nC] e-nX(nÀ)k ~ 15.3. (a) 15.7. (a) (1- p) 4 (5p k~O k! . + ssp• o15.8. 15. 15.9. (a) (k - 1), , onde . . [nC] =.maior inteiro~ nC, (c) 0,323 3. + (1 + 2!5 p 5 ) (1- p) + p) 2 + 60p 3 (1- p) 3 + 10p 2 Cl- p) 3 J. i (b) Iguais. .15.12. (a) sena I sen ( f a) . ·I .i .. Indicações Bibliográficas As seguintes indicações bibliográficas, que de modo algum constituem um& lista completa, darão ao leitor interessado a oportunidade de encontrar umà. grande quantidade de leitur!l8 suplementares e complementares de mllitos dos assuntos que foram examinados no livro. . Além de encontrar alguns a.Ssunto~ exphmlldos, os quais não foram incluídos nesta exposição, o leitor encontrará certos temas estudados ou em maior detalhe ou de um ângulo um tanto diferente. Além de registrar os manuais arrolados abaixo, o leitor deverá. também conhecer determinadas revistas especializadas, nas quais são feitas contribuições importantes. Muitas dessas revistas são, naturalm~nte, escritas para pessoas que tenham base bastante maior e um conhecimento deste domínio além daquele que pode ser alcançado com o estudo de um semestre. No entanto, há algumas revistas que ocasiqnalmente contêm artigos muito claros, ·que estão ao calcance de um estudante que tenha . dominado o assunto deste livro. Dentre essas estão o Journal oj lhe American Statislical Asso~ialicm e a Technomelrics. A última apresenta, na verdade, o subtítulo "A Journal of Statistics for the Physical, Cbemical and Engineering Sciences", e, por isso, deve ser de particular interesse pars. o estudante a quem este livro é principalmente destinado. Muitos dos livros relacionados contêm explana~ões da maioria dos assuntos tratados neste livro. Contudo, algumas indicações são um pouco mais especializadas e são particularmente pertinentes a. alguns capítulos apenas. Nesse caso, os capítulos específicos estão mencionados após a indicação da obra. BAZOVSKY, I. Reliability theory and practice, Englewood Cliffs, New Jersey, Prentice-Hall, Inc., 1961 (11). BERMAN, Simeon M. The elements ofprobability. Reading, Mass., AddisonWesley Publishing Co., Inc., 1969. BOWKER, A. H. e LIEBERMAN, G. J. Engineering statistics. Englewood Cliffs, New Jersey, Prentice-Hall, Inc., 1959. DERMAN, C. e KLEIN, M. Probability and statistica/ inference for engineers. New York, Oxford University Press, 1959. · EHRENFELD, S. e LITIAUER, S. B. lntroduction to statistical method. New York, McGraw-Hill Book Company, 1964. UNDBCAÇÕES BDBliOGRÁfiCAS I .1321 FELLER, W. An introduction to probability theory and }ts applications. 3 ed. New York, John Wiley and Sons, Inc., 1968 (1, 2, 3). FREUND, J. E. Mathematical statistics. Englewood Cliffs, New Jersey, Prentice-Hall, lnc., 1962. · FRY, T . C. Probability and its engineering uses. 2 ed. New Jersey, D. Van Nostrand, Princeton, 1964. GNEDENKO, B. V. The theory of probability. (Tradução do russo.) New York, Chelsea Publishing Company, ln c., 1962. GUTTMAN, .I. e WILKS, S. S. Jntroductory engineering statistics.,New . York, John Wiley and Sons, Inc.,1965. " LINDGREN, B. W. Statistical theory. 2 ed. New York, The Macmillan Company, 1968. · LINDGREN, B. W. e McELRATH, G. W. Jntroduction to probability and statistics.·3 ed. New York, The Macmillan Company, 1969 (13,14, 15). LLOYD , D. K. e LIPOW, M. Reliability: managerrient, methods, and mathematics. Englewood Cliffs, New Jersey, Prentice-Hall, Inc., 1962 (11). McCORD, J. R., III e MORONEY, Jr., R. M. Introduction to probability theory. New York, The Macmillan Company, 1964. MILLER, I. e FREUND, J. E, Probability and statistics for engineers. New Jersey, Prentice-Hall, Inc., Englewood Cliffs, 1965 ~ MOOD, A. M. e GRAYBILL, F. A.Jntroduction to the theoryofstatistics. 2 ed., New York, McGraw-Hill Book Company,1963. PARZEN, E. Modem probability theory and its applications. New John Wiley and Sons, lnc., 1960. ~ork, WADSWORTH, B. P. e BRYAN, J. G. Jntroduction to probability and random variables. New York, McGraw-Hill Book Company, Inc.,1960. . .1 " lndice Alfabético Aderência, Testes de, 385 Amostra, 308 aleatória de uma variável aleatória, 310 gerando uma amostra aleatória, . 322, 327 amplitude de uma, 314 máximo de uma, 314 média. de uma, .314 mínimo de uma, 3.14 variância de urna:, 314, 319 Amplitude amostral, 320 Amplitude de um teste, 374 Analogias mecânicas, 74, 84, 142, 157, 160 Bayes, Teorema de, 49 Binomial, Coeficiente, distribuição, 77 teorema, 77 Boolé, DesigUaldade de, 25 · · Cauchy; Distribuição de, 239 Coeficiente binomial, 33 de confiança, 356 de correlação amostral, 355 Confíabilidade, 263 de sistemas, 274 e duração da vida esperada, 264 .e função de distribuição (acumulada), 264 e taxa de falhas, 265 Conjunto,4 complemento de um, 6 fundamental, 4 identidades referentes a, 7 interseção, 6 número de elementos de um, 7 subconjunto," 5 união, 5 vazio, 5 Contradomínio, 67 Convergência em pro habilidade, 28 7 Correlação amostral, 354 coeficiente de, 16 7 cálculo do, 167 interpretação do, 169,170,171 propriedades do, 167 Covariância, 167 · .. ) Desigualdade de Boole, 25 de Tchebycheff, 165 De Moivre-Laplace, Aproximação de à distribuição binomial, 290 Desvio-padrão de uma · variável ·aleatória, 157 Distribuição, binomial, 77 aproximaÇão n'cirmal da, 288 aproximação de DeMoivre-Laplace à, 290 ·propriedades da, 92, 93 valor esperado da, 141, 15 5 variância da, 160 de Cauchy, 239 de Maxwell, 25 8 de Pascal, 20 3 expectância da, 204 variância da, 204 .. de Poisson, 186 e a distribuição binomial, 187 e a distribuição multinomial, 262 .propriedade reprodutiva da, 256 valor esperado da, 186 variância da, 186 de quí-quadrado, 230 fNDICIE AlFABÉTICO I 423 e distribuição gama, 230 e distribuição normal, 231, 257 para número grande de graus de liberdade, 233 propriedade aditiva, 25 7 valor esperado da, 232 variância da, 232 de Bayleigh, 258 de Weibull, 273 exponencial, 223 · F de Snedecor, 368 gama, 228 geométrica, 200 hipergeornétrica, 38, 205 lognorrnal, 239 rnultinornial, 206 e a distribuição de Poisson, 262 valor esp.erado da, 141, 155 variância da, 160 normal, 214 aproximação da distribuição miai pela, 288 bidimensional, 233, 234 função linear de, 219 propriedade reprodutiva, 255 i:eduzida, 219 sorna de variáveis aleatórias inde~ I pendentes, 255 i tabulação da, 220 truncada, 234 valor esperado da, 218 variância çla, 218 t de Student, 358 propriedades da, 357 truncada, 233 · uniforme, 90, 118 bidimensional, 117 unidirnensional, 90, 91 valor esperado da, 14 3 variância da, 161 Distribuições mistas, 89 Enumeração, Métodos de, 29 combinações, 32 · permutações, 31, 37 regra da adição, 31 regra da multiplicação, 30 Erro tipo 1 e erro tipo 2, 372 Escolha de objetos ao acaso,29,"38, 4~ Escolha de um ponto ao acaso em UI!) intervalo, 90 Espaço amostral, 11 e resultados igualmente verossírneis, 28 exemplos de, 10, 11 finito, 26 partição de um, 47 Espaço contradomínio, 313 Estatística, 312 Estimação de parâmetros, 329 Estimativa, coerente, 333 linear Ótima, 333 não-tendenciosa, 332 de variância mínima, 332 inexistência de, 369 de mínimos quadrados, 350 de máxima verossirn'ilhança, 3 39 Estimativas de máxima verossimilhan1 ça, 339 do parâmetro de uma distribuição exponencial, 340, 345 do parâmetro de uma distribuição gama, 346 do parâmetro de uma distribuição normal, 343, 344 do parâmetro de uma distribuição uniforme, 343 equação das, 341 propriedades das, 341 propriedades assintóticas das, 348 Eventos, .13 complementares, 14 equivalentes, 70, 98 independentes, 50, 52, 53 mutuamente excludentes, 15 Expectância, condicionada, 17 2 Experimento, aleatório, 8 determinístico, 7, 8 não-determinístico, 8 Exponencial, Distribuição; 223 e distribuição gama, 228, 259 farni1ia de, com dois parâmetros, 260 propriedades da, 223 valor esperado da, 223 variância da, 224 Fatorial, 32 Fórmula de Stirling, ·289 Freqüência relativa, 15 Função característica de operação de um teste, 372 e escolha do tamanho dà amostra, 3 77 para o teste da média de uma distribuição normal com variância conhecida, 372, 375 para o teste da média de uma distribuição normal com variância desconhecida, 384 · para o parâmetro p de uma variável aleatória binomialmeilte distribuída, 383 Função de distribuição (acumulada), 85,116 conjunta, 116 e função densidade de probabilidade, 88, 116 gráfico da, 86, 87 propriedades da, 87 88 Função de regressão, 175 aproximação de mínimos quadrados da, 179 linear, 176 Função densidade de probabilidade, 81 condicionada, 116 conjunta, 116 da amplitude amostral, 320 da soma de variáveis aleatórias independentes, 297 do máximo de uma amostra, 316 do mínimo de uma amostra, 316 . do produto de variáveis aleatórias independentes, 128 do quociente de· variáveis aleatórias independentes, 130 marginal, 11 7 Função gama, 227 Função geratriz de momentos, 266 e momentos, 251 para uma distribuição binomial, 248 de Poisson, 248 de qui-quadrado, 249 exponencial, 249 gama, 249 geométrica, 252 normal, 249 uniforme,248 para uma função linear de variável aleatória, 254 seqüências de variáveis aleat6rias, 259 somas de variáveis aleatórias independentes, 255 propriedade da unicidade da, 254 Funções de variáveis aleatóri.as, 97 caso bidimensional, 124, 125 caso contínuo, 101, 102 caso discreto, 99 monótonas, 104 valor esperado de, 145, 149 variância de, 15 6 Gauss, Distribuição de, 353 Gauss-Markoff, Teorema de, 353 Gama, Distribuição, 228 e a distribuição de Poisson, 229 e a distribuição exponencia~ 229,259 valor esperado da; 229 variância da, 230 Geométrica distribuição, 201 propriedades, 203 valor esperado, 202 variância, 202 série, 7 5 . Grandes Números, Lei dos, 284 Hipótese básica, 264 alternativa, 3 7 O de nulidade, 379 Hipergeométrica, Distribuição, 37, 205 e a distribuição binomial, 206 valor esperado da, 205 · variância da, 205 Independentes, Variáveis aleatórias, 198 critério para, 122 Integral de convolução, 298 Intervalo de confiança, 355 . da média de uma distribuição normal variância conhecida, 3'55 variância desconhecida, 359 do parâmetro de uma distribuição binomia:J, 362 da variância de uma distribuição normal, 361 Bi\!DliCIE AlFABÚICO I 425 Jacobiano de uma transformação, 126 . Lei de falhas exponencial, 268 e distribuição de Poisson, 271 gama, 273 normal, 267 Lei dos Grandes Números, 284 Limite Central, Teorema do, 292 Lognonnal, Distribuição, 239 Máxima verossimilhança, estimativas de, 3 39 equação para, 34l propriedades assintóricas das, 348 Máximo de uma amostra, 314, 316 Média de uma amostra (ou Média amostral), 314 Mínimo de uma amostra, 314, 316 e a distribuição exponencial, 319 Modelos matemáticos, 1 Momento de uma variável aleatória em relação à sua expectância, 157 Mutuamente excludentes, Eventos, 15 Nível de significância de um teste, 3 74 Normal, Distribuição, 214 Números aleatórios, 322 Pascal, Distribuição de, 206 Parâmetros de uma distribuição, 137 Partição de um espaço amostral, 47 Poisson, Distribuição de, 186 Ponto amostral, 312 Probabilidade, 17 axionas da, 18 condicionada, 42, 44 função densidade de, 119 induzida, 72, 100 marginal, 117 teoremas fundamentais da, 19, 20 total, 48 Processo de Poisson, 194 aplicações do, 198, 199 hipóteses para o, 195 Propriedade aditiva (ou reprodutiva), 255 da distribuição de Poisson, 256 de qui-quadrado, 257 normal, 256 c· Rayleigh, Distribuição de, 256 Região crítica de um teste, 381 Regularidade estatística, 17 Resultados igualmente verossímeis, 2 7, 28 Série geométrica, 7 5 Snedecor, Distribuição de F de, 368 Soma de variáveis aleatórias independentes, 29.8, 305 Stirlíng, Fórmula de, 289 · · Student, Distribuição de t de, 358. propriedades da, 357 Taxa de falhas, 264 Tchebycheff, Desigualdade de, 165 Teorema, binomial, 34 da multiplicação de probabilidade, 45 generalização do, 65 de Gauss-Markoff, 353 do Limite Central, 292 Teste de hipótese, 370 da média de uma variável aleatória normalmente distribuída, 375 nível de significância de um, 376 região crítica de um, 381 Testes amplitude de, 374 de aderência, 385 de uma distribuição especificada, 388, 389 distribuição assintótica de um, 387 Transformação integral, 321 Truncada, distribuição, 234 Valor esperado, de uma variável aleatória, 137, 139, 142 aproximação do, 162 condicionado, 172 · de uma função de variável aleatória, 145, 149 de uma função linear, 151 de um produto de variáveis aleatórias independentes, 154 de uma soma de variáveis aleatórias, 154 propriedades do, 150 ri • ~ 426 I fNDiCE ALFABÉTICO f Valor médio de uma variável aleatória, I r f I ' i i i I l não-correlacionadas; 108 .n-dimensionais, 131 seqüências de, 259 Variância, amostral, 318 de uma variável aleatória; 316 aproximação da, 162 çálculo da, 157 propriedades da, 156 _ da soma de variáveis aleatórias independentes, 156 Venn, Diagrama de, 6 137 Variávél aleatória, 66 contíima, 81 discreta, 72, 73 distribuição de probabilidade de uma, 73 espaço amostral de, 67 independente, 121, 122 valor médio de uma; 137 variância de uma, 156 Variáveis aleatórias, bidimensionais, 11 O contínuas, 111 discretas, 111 normais, ·233 independentes, 121, 122 critério para, 122 Weibull, Distribuição de, 273 aplicações da, 273 expectância da, 274 · variância da, 27 4 .) . Serviços de impressão e acabamento executados, ·a partir de filmes fornecidos, nas oficinas gráficas da EDITORA SANTUÁRIO Fone: (OXX12) 3104-2000- Fax (OXX12) 3104-2016 · http:l/www.editorasantuario.com.br - Aparecida-SP 10 11 12 13 14 15 16 17. I . . A;_· .