Jacek Jakubowski, Rafał Sztencel Wstęp do teorii prawdopodobieństwa Wydanie II SCRIPT Warszawa 2001 4 © Copyright by Jacek Jakubowski and Rafał Sztencel, Warszawa 2001 Podręcznik zawiera wykład teorii prawdopodobieństwa, obejmujący rów­ nież wstęp do teorii martyngałów z czasem dyskretnym, łańcuchy Markowa i podstawowe wiadomości o procesie Wienera. Jest przeznaczony dla studen­ tów i pracowników naukowych wydziałów matematyki oraz innych wydzia­ łów, gdzie wykładany jest rachunek prawdopodobieństwa. Może być także użyteczny dla osób, korzystających z metod probabilistycznych w swojej pracy. Teorię ilustrują liczne przykłady i ponad 500 zadań o różnym stopniu trud­ ności. Do prawie wszystkich zadań podano wskazówki, rozwiązania lub od­ powiedzi. Projekt okładki Rafał Sztencel Rysunki na okładce Zofia Zawada Recenzenci prof. dr hab. Stanisław Kwapień dr Katarzyna Pietruska-Pałuba dr Tomasz Żak W ydanie II, poprawione i rozszerzone (dodruk) I S B N 8 3 -9 0 4 5 6 4 -5 -1 Skład i łamanie SC R IP T, 02-777 Warszawa, ul. Teligi 6 /2 2 teł. (0-22) 641-47-70 www.script.com.pl e-mail: script@script.com.pl Druk i oprawa Paper & Tinta, Warszawa, uł. Bardowskiego 4 w - osia l Przedmowa Niniejsza książka powstała na podstawie wykładów i ćwiczeń z teorii praw­ dopodobieństwa, które prowadzimy od przeszło 20 lat na Wydziale Mate­ matyki Uniwersytetu Warszawskiego. Napisaliśmy ją z myślą o tych studentach, którzy chcą usystematyzować i utrwalić wiadomości wyniesione z wykładów i ćwiczeń, a także o tych, którzy pragną pogłębić i rozszerzyć swoją wiedzę. Książka jest skierowana również do osób, które korzystają z metod probabilistycznych w swojej pracy. Chociaż skoncentrowaliśmy się na najważniejszych działach teorii, podręcz­ nik obejmuje materiał obszerniejszy od standardowego rocznego wykładu i pozostawia prowadzącemu zajęcia pewną swobodę manewru. Rozdziały umieszczone po centralnym twierdzeniu granicznym, poświęcone martyngałom, łańcuchom Markowa i procesowi Wienera są dość rozbudowane, wobec tego wykładowca może dokonać wyboru spośród przedstawionych zagadnień. Dołożyliśmy wszelkich starań, aby Czytelnik w trakcie lektury nie musiał sięgać do innych źródeł. Zakładamy jednak znajomość podstawowych pojęć i twierdzeń analizy. Najważniejsze narzędzia analityczne, z których korzy­ stamy (w tym własności funkcji gamma i beta), zamieszczamy w dodatku A . W dodatku C zamieściliśmy bardzo zwięzły wstęp do ogólnej teorii miary i całki, ograniczony do miar probabilistycznych. Dodatek D zawiera podsta­ wowe wiadomości o funkcjach analitycznych, niezbędne do obliczania całek metodą residuów. Integralną część wykładu stanowią ilustrujące teorię przykłady, a także zadania. Tych ostatnich jest ponad 500; trudniejsze oznaczono gwiazdką, a jeszcze trudniejsze — symbolem f (pochodzą one na ogół od prof. Stani­ sława Kwapienia). Do większości zadań podajemy rozwiązania lub wskazówki, a do prawie wszystkich — odpowiedzi. Zadania nie są uporządkowane według stop­ nia trudności. Dobraliśmy je tak, by pomóc Czytelnikowi zrozumieć teorię i sprawdzić stopień opanowania materiału. Ponadto wiele istotnych wyni­ ków (np. nierówność Kołmogorowa) proponujemy jako zadania, dlatego też uważamy za pożyteczne rozwiązanie większości z nich. 5 Przedmowa 6 Twierdzenia, lematy, uwagi i przykłady są numerowane kolejno w ramach bieżącego paragrafu. Jeśli wewnątrz paragrafu 7.2 odwołujemy się do przy­ kładu 4, to poza nim — do przykładu 7.2.4. Uwagi historyczne nie m ają systematycznego charakteru. Czytelnik zainte­ resowany historią teorii prawdopodobieństwa znajdzie wykaz źródeł w nocie bibliograficznej. N a zakończenie serdecznie dziękujemy osobom, które zachęcały nas do na­ pisania niniejszego podręcznika. W szczególności .prof. dr hab. Stanisław Kwapień, dr hab. Jolanta Misiewicz i dr Tomasz Żak komunikowali nam interesujące zadania, udostępniali fragmenty notatek ze swoich wykładów i czytali fragmenty książki w trakcie jej powstawania. Dziękujemy recenzentom: prof. dr. hab. Stanisławowi Kwapieniowi, dr Ka­ tarzynie Pietruskiej-Pałuble i dr. Tomaszowi Żakowi za wnikliwe uwagi, które ustrzegły nas od wielu błędów i wpłynęły na uproszczenie niektórych dowodów. Specjalne podziękowanie' kierujemy do naszych nauczycieli rachunku praw­ dopodobieństwa. Są to (w porządku chronologicznym) dr Edward Stachowski, prof. dr hab. Tomasz Bojdecki i prof. dr hab. Stanisław Kwapień. Będziemy wdzięczni za wszelkiego rodzaju uwagi dotyczące zawartości pod­ ręcznika. Można je kierować na podane niżej adresy elektroniczne lub na adres wydawnictwa. Jacek Jakubowski jakub @mimuw. edu.pl Rafał Sztencel rafalsz@mimuw. edu.pl Internet: www.mimuw.edu.pl/~rafalsz Warszawa, maj 2000. Nota do wydania drugiego Drugie wydanie zostało rozszerzone o dwa dodatki, poświęcone funkcjom tworzącym momenty i zagadnieniu optymalnego stopowania. Ponadto prze­ redagowano pewne partie tekstu, a także poprawiono nieścisłości i omyłki wydania pierwszego. Ich wykrycie zawdzięczamy w dużej mierze życzliwej, choć krytycznej lekturze naszych kolegów. W szczególności serdecznie dzię­ kujemy prof. Adamowi Jakubowskiemu, prof. Karolowi Krzyżewskiemu, prof. Stanisławowi Kwapieniowi, dr. Rafałowi Latale, dr hab. Jolancie Mi­ siewicz, dr. Krzysztofowi Oleszkiewiczowi i dr. Tomaszowi Żakowi. Dzięku­ jem y również naszym studentom; m. in. pan Radosław Bojanowski zdając egzamin odkrył źle wyliczoną dystrybuantę, a pani Zofia Jankowska wy­ kryła błędy w odpowiedziach do zadań kombinatorycznych. Warszawa, marzec 2001. Rozdział 1 Opis doświadczenia losowego §1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa Teoria prawdopodobieństwa zajmuje się zdarzeniami, pojawiającymi się przy wykonywaniu doświadczeń losowych, czyli takich, których wyniku nie da się z góry przewidzieć, a jednocześnie dających się powtarzać w tych samych warunkach. Dobrymi przykładami tego rodzaju doświadczeń są gry hazardowe, których analiza dała w X V II w. początek teorii prawdopodo­ bieństwa. Ale drugim, równie ważnym impulsem do powstania teorii były tak zwane zjawiska masowe, w szczególności statystyki urodzeń i zgonów. Prowadzone od wielu lat obserwacje pokazują, że dziewczynki stanowią 48,3% noworodków w Polsce. Kobieta, która spodziewa się dziecka, tak właśnie będzie oceniać swoje szanse na urodzenie dziewczynki, choć ciężko tu mówić o wielokrot­ nym powtarzaniu tego samego eksperymentu. Liczba 0,483 ma dla kobiety raczej sens psychologiczny i sprowadza się do stwier­ dzenia „mam mniej więcej takie same szanse na dziewczynkę, jak na chłopca” . Z drugiej strony ma ona całkiem wymierne konsekwencje dla demografa pracu­ jącego nad prognozą liczby ludności: jemu nie jest wszystko jedno, czy rodzi się 48,3%, czy np. 49% dziewczynek. Dlaczego teoria prawdopodobieństwa stosuje się do zjawisk masowych, gdzie nie powtarza się tego samego doświadczenia, ale mniej więcej takie samo doświad­ czenie? Może dlatego, że jej twierdzenia są dość odporne na osłabianie założeń? W dalszej części tego rozdziału sprecyzujemy pojęcie doświadczenia loso­ wego i powiemy, jak skonstruować jego model matematyczny. Najpierw jed­ nak przeanalizujemy kilka typowych przykładów. Nie da się chyba ominąć najprostszego doświadczenia — rzutu monetą. P r z y k ła d 1. Rzucamy jeden raz monetą. Możliwe wyniki to orzeł (O) i reszka (R ). Zwróćmy uwagę, że doświadcze­ nie można powtarzać wielokrotnie w tych samych warunkach i jeśli moneta 7 8 Rozdział 1. Opis doświadczenia losowego jest symetryczna, to w długiej serii rzutów orzeł pojawi się w około poło­ wie przypadków; innymi słowy częstość pojawiania się orła wyniesie około 1 /2 . Jeśli w długiej serii nastąpi znaczące odchylenie liczby orłów od po­ łowy liczby doświadczeń, zaczniemy raczej podejrzewać, że moneta nie jest Częstość jest liczbą wystąpień symetryczna. ■ zdarzenia podzieloną przez P r z y k ła d 2 . Rzucamy jeden raz kostką. liczbę wszystkich , .. doświadczeń. Teraz możliwe wyniki to elementy zbioru { 1 ,2 ,3 ,4 , 5 ,6 } . Tak jak poprzed­ nio, doświadczenie jest powtarzalne, i jak poprzednio, możemy zastana­ wiać się nad symetrią kostki. Ponieważ możliwych wyników jest więcej, pojawia się w naturalny sposób wiele zdarzeń, dających się opisać sło­ wami na przykład tak: „wypadła parzysta liczba oczek” , „wypadła liczba oczek mniejsza niż 4” , „wypadła jedynka” . Każdemu takiemu zdarzeniu odpowiada podzbiór zbioru możliwych wyników, odpowiednio: { 2 , 4 , 6 } , { 1 , 2 , 3 } , { 1 } . Zdarzeniom będziemy przypisywali pewną liczbę: prawdopo­ dobieństwo ich zajścia. Jeśli kostka jest symetryczna, pewnie bez wahania przypiszemy prawdopodobieństwo k/ 6 zdarzeniu, reprezentowanemu przez podzbiór A;-elementowy. A jeśli nie jest symetryczna? Zastanowimy się nad tym nieco później. ■ [P rz y k ła d 3 . Z talii 52 kart wybieramy losowo 5. Jaka jest szansa, że wszystkie karty będą czerwone? Tu możliwych wyników jest bardzo dużo — są one 5-elementowymi pod­ zbiorami zbioru 52-elementowego. Natomiast zdarzenie, którego prawdopo­ dobieństwo mamy obliczyć, składa się z 5-elementowych podzbiorów 26-elementowego zbioru czerwonych kart. Jeśli uznamy, że wszystkie możliwe wyniki są jednakowo prawdopodobne, to szansa otrzymania samych czer­ wonych kart wyniesie (256) / ( 552) (patrz §2 .1 ). ■ P r z y k ła d 4 . Rzucamy symetryczną monetą aż do chwili pojawienia się orła. Możliwych wyników jest teraz nieskończenie wiele, bo przed pojawieniem się orła może wypaść dowolna liczba reszek. Na szczęście jednak wyniki dadzą się ustawić w ciąg: jest ich przeliczalnie wiele. Jak przypisać im sen­ sownie prawdopodobieństwa? Jeśli moneta jest symetryczna, to szansa po­ jawienia się pierwszego orła za n-tym razem wynosi l / 2 n. Istotnie, wszyst­ kich n-elementowych ciągów orłów i reszek jest 2 " , natomiast tylko jeden z nich ma pierwszego orła na n-tym miejscu. Przypadek niesymetrycznej I Alternatywa moriety rozpatrzymy później. Zauważmy jeszcze, że zdarzenie „orzeł pozdarzeń jawi się wcześniej czy później” da się przedstawić w postaci przeliczalnej odpowiada sumie alternatywy zdarzeń: „orzeł pojawi się za pierwszym razem” , „orzeł po- zbiorów j aw- g-ę za (jrugjm razem” , „orzeł pojawi się za trzecim razem” , etc. ■ W każdym z rozpatrywanych doświadczeń pojawiał się zbiór możliwych wyników, przy czym wynik doświadczenia stanowił pełny opis tego, co za- §1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa 9 szło: „wypadła jedynka” , „wypadł orzeł” , „otrzymano asa kier, dwójkę karo oraz waleta, damę i asa pik” , „orzeł pojawił się po raz pierwszy w siódmym rzucie” . Jeśli powiemy: „wypadła parzysta liczba oczek", to jeszcze nie wia­ domo, co się faktycznie zdarzyło. Inaczej mówiąc, powinniśmy na ogół dbać 0 to, by możliwe wyniki doświadczenia były „elementarne” w tym sensie, że nie da się ich już rozłożyć na prostsze. Zbiór wszystkich możliwych wyników doświadczenia nazywamy zbiorem zdarzeń elementarnych i zazwyczaj oznaczamy literą ii. Należy jednak pamiętać, że przy wyborze zbioru zdarzeń elementarnych możliwa jest pewna dowolność. Rzucając monetą nie spodziewamy się, że upadnie ona na „kant” , więc w pierwszym przykładzie ii = { 0 , R } . Ale jeśli moneta jest gruba, to kto wie? W przykładzie 3 nie interesuje nas kolej­ ność otrzymywania kart. Gdybyśmy jednak chcieli rozpatrywać zdarzenia typu: „wszystkie karty czarne pojawiły się przed czerwonymi” , kolejność stałaby się istotna i naturalnym wyborem zbioru zdarzeń elementarnych byłby zbiór 5-elementowych ciągów o wyrazach ze zbioru 52-elementowego. Zajmijmy się teraz wszystkimi możliwymi zdarzeniami — czyli podzbiorami — na razie przeliczalnego — zbioru ii. W rozpatrywanych dotąd przykła­ dach nie ma przeszkód, by prawdopodobieństwo przypisać wszystkim pod­ zbiorom zbioru zdarzeń elementarnych. Jak niedługo zobaczymy, nie zawsze tak będzie. Ale można sformułować pewne minimalne rozsądne wymagania co do klasy zdarzeń J-, którym będziemy przypisywać prawdopodobień­ stwo. Jeśli rozpatrujemy zdarzenie A C ii, to automatycznie dopuszczamy możliwość, że A nie zajdzie. Nietrudno się domyślić, że zdarzenie „nie-A" to A ' = fi \ A , czyli dopełnienie A. Dalej, w przykładzie 4 widzieliśmy nieskończoną alternatywę zdarzeń, czemu odpowiada branie nieskończonej sumy zbiorów. I w końcu rozpatrywany model powinien zawierać co naj­ mniej jedno zdarzenie. Warto w tym miejscu podkreślić, że zdarzeniami nazywamy wyłącznie pod­ zbiory ii, które należą do T . Nie należy także mylić zdarzenia elementarnego ui ze zbiorem {w }. Ten ostatni nie musi być nawet zdarzeniem. Wracamy do T\ klasa zdarzeń powinna spełniać następujące warunki: 1. ^ # 0 ; 2. Jeśli A e T , to A 1 e 3. Jeśli Ai dla i = 1 , 2 , . . . , to U £ i Ai £ ?■ Klasa zdarzeń T powinna więc być ff-ciałem podzbiorów zbioru ii. Z po­ danych warunków wynika natychmiast, że ii = A U A ! 6 T , jeśli A € T , wobec tego 0 = Si' € T . Są to szczególne zdarzenia: ii zachodzi zawsze 1 nazywa się zdarzeniem pewnym, natomiast 0 to zdarzenie niemożliwe. Rozdział 1. Opis doświadczenia losowego 10 Jesteśmy teraz gotowi do zajęcia się minimalnymi rozsądnymi wymaga­ niami, dotyczącymi prawdopodobieństwa. Jest ich naprawdę niewiele. Po­ nieważ prawdopodobieństwo ma służyć do oceny szans zajścia rozmaitych zdarzeń, powinno zachowywać się podobnie do częstości występowania zda­ rzenia przy powtarzaniu doświadczenia. Dlatego prawdopodobieństwem bę­ dziemy nazywać dowolną funkcję P , określoną na a-ciele zdarzeń f C 2ft, spełniającą warunki: A l. P \ T R +; A 2 . P (fi) = 1; A3. Jeśli Ai e T , i = 1 , 2 , . . . oraz A i n A j — 0 dla i ^ j , to Warunek A l stwierdza, że prawdopodobieństwo każdego zdarzenia jest nieujemne: taką własność ma także częstość. Warunek A 2 wziął się stąd, że częstość zdarzenia pewnego wynosi 1. Co do warunku A 3 , mówi on, że dla zdarzeń wykluczających się, czemu odpowiadają zbiory rozłączne, prawdo­ podobieństwo sumy równa się sumie prawdopodobieństw. Częstość spełnia taki warunek. Widzieliśmy już, że nieskończone sumy pojawiają się w teorii w naturalny sposób i dlatego warunek A 3 formułujemy dla sum nieskoń­ czonych. Nazywamy go przeliczalną addytywnością prawdopodobieństwa. Powyższe warunki zostały sformułowane po raz pierwszy przez Kołmogorowa w roku 1933 jako aksjomaty teorii prawdopodobieństwa. Mówiąc krótko, matematyczny model doświadczenia losowego to trójka ( f t ,./r, P ), gdzie P jest przeliczalnie addytywną i nieujemną miarą unor­ mowaną, określoną na pewnym a-ciele podzbiorów zbioru zdarzeń elemen­ tarnych Q. Tę trójkę nazywamy przestrzenią probabilistyczną. Podstawowe własności prawdopodobieństwa podamy w postaci twierdzenia. T w ie rd z e n ie 5 . Jeśli (fi, T , P ) jest przestrzenią probabilistyczną i A , B , A i , A 2 , . . . , A n e T , to: ( W l ) P (0 ) = 0. (W 2 ) Jeśli A i , A 2 , . . . , A n wykluczają się wzajemnie, tj. A{ n A j = 0 dla i j , to P (U IL i A i) = J27= 1 P (A i) (skończona addytywność). (W 3 ) P (A ') = l - P ( A ) . (W 4 ) Jeśli A c B , to P ( B \ A ) = P (B ) - P (A ). (W 5)- Jeśli A c B , to P (A ) < P {B ). §1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa 11 (W 6 ) P {A ) < 1. (W 7 ) P (A U B ) = P (A ) + P (B ) - P (A n B ). D o w ó d . ( W l ) Niech A] = 0 , P (fi) = P (fl) + Y a L í — 0 dla i — 2 ,3 , ___Z aksjomatu 3 mamy a ponieważ P jest funkcją nieujemną (aksjomat 1) i P ( 0 ) = 1 (aksjomat 2), to P (0) = 0. (W 2) wynika z aksjomatu 3 i ( W l) , gdy weźmiemy A k = % dla k > n. (W 3) 1 = P (Q ) = P (A U A') = P (A ) + P (A '). (W 4) Jeśli A C B , to B — A\J (B \ A ), a ponieważ składniki tej sumy są rozłączne, z (W 2) mamy P (B ) = P (A ) + P ( B \ A ). (W 5 ) Na mocy poprzedniej własności P {B ) — P (A ) = P ( B \ A ) > 0 z ak­ sjomatu 1. (W 6) Wystarczy zastosować (W 5) dla B = O. (W 7) A U B = [A \ (A n B)\ U (A n B ) U [B \ (A n B)\. Wszystkie trzy zdarzenia wykluczają się wzajemnie, więc skończona addytywność i (W 4) dają P {A U B ) = P {A ) - P (A n B ) + P (A n B) + P {B ) - P {A n B ), z czego natychmiast wynika żądana równość. ■ Własność (W 7) daje się uogólnić na dowolną liczbę zdarzeń. Otrzymujemy wtedy tzw. wzór włączeń i wyłączeń. Nazwa pochodzi stąd, że poszczególne rozłączne składowe sumy A U B U C są na przemian włączane i wyłączane, ale ostatecznie każda składowa jest liczona dokładnie raz. Rysunki ilustrują to dla dwóch i trzech zbiorów. W ogólnymi przypadku składowe sumy A j U .. .UA n są postaci A f1f i . . .fiA^n, gdzie £j € { 0 ,1 } i przyjmujemy konwencję, że A ° = A , zaś A 1 — A'. W każdej składowej sumy co najmniej jeden symbol £i jest równy 0. Rozdział 1. Opis doświadczenia losowego 12 T w ie rd zen ie 6 ( W z ó r w łą c ze ń i w y łą c z e ń ). P{A\ U . . . U A n) = p (A i ) ~ P ( A h C\ A h ) + . . . ^.n + ( - i ) n+1P ( A 1 n . . . n A n). D o w ó d . Istnieje prosty dowód indukcyjny, ale wymaga on raczej kartki w formacie A3. M y udowodnimy wzór licząc, ile razy włączono i wyłączono każdą składową. Taka składowa (po odpowiednim przenumerowaniu zbio­ rów, co nie zmniejsza ogólności) da się przedstawić w postaci A i f i . . . D Af-D nA'k+1n . . .CAn, gdzie k > 1. W pierwszym składniku wzoru, czyli P {A i), każda składowa zostanie włączona k razy, w drugim, czyli ^ 2 P ( A i t O A i2), wyłączona (*) razy, itd. Ostatecznie liczba włączeń wyniesie D - ^ C ? ) - 0i=0 Dlaczego? Przypomnijmy, że rodzinę zdarzeń (A i) nazywamy wstępującą, jeśli A t c A 2 C . . . C A n c A n+ 1 i zstępującą, jeśli A i D A 2 D . . . D A n D A n+1. . . . T w ie rd zen i e ^ (O c ią g ło ści). Niech (Í2, T , P ) będzie przestrzenią pro­ babilistyczną. (i) Jeśli ( A n ) ^ ! jest wstępującą rodziną zdarzeń i P (A ) = A n = A , to lim P ( A n). Tl— ►CXD (ii) Jeśli (A „)^ L 1 jest zstępującą rodziną zdarzeń i P (A ) = A n = A , to lim P ( A n). Tl— »OO D o w ó d , (i) Niech B\ = A i, B 2 = A 2 \ A i i ogólnie: B n = A n \ A „ ^ j . W ted y zdarzenia Bi wykluczają się, U ”= i B i = U "= i M U S i Bi — A. Ti przeliczalnej addytywności wynika, że / oo \ oo *) ( r c . * ) ' = H m ^P (Ą ) = ¿=1 Hm P ( A n). (ii) Rozpatrzmy rodzinę wstępującą (Cn)^= li gdzie C n = A'n. W tedy OO OO u c » = ik = n=l n= 1 i wystarczy skorzystać z (i). ■ = r c ,4 - A n. a także n P (A ) = P ( ( J Bi = £ p ( Ą ) = \i=l / 1 Warto znać prawa de Morgana: - r OO n*. •71=1 *i / =a' §1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa 13 T w ie rd ze n ie 8 (O przedłużaniu m ia r y ). Jeśli P jest skończenie addytywną i nieujemną funkcją na pewnym, ciele A podzbiorów fi, przy czym Jeśli A jest P ( fi) = 1 i spełniony jest warunek (i) z poprzedniego twierdzenia lub waru­ dowolną rodziną nek (ii) dla A = 0, to P przedłuża się jednoznacznie do prawdopodobieństwa zbiorów, cr(A) jest na a ( A ) , czyli a-ciele generowanym przez A . £_P_p_sŁÓ.d tego twierdzenia znajduje się w dodatku C. Z teorii miary dobrze wiadomo, że na ogół T nie może być a-ciałem wszyst­ najmniejszym <7-ciałem zawierającym A , tj. częścią wspólną wszystkich cr-ciał zawierających A . kich podzbiorów fi. Oto kolejny przykład. P r z y k ła d 9. Z odcinka [0,1] wybieramy losowo punkt. „Losowo” nie znaczy tu na razie nic. Jeśli umówimy się, że prawdopodo­ bieństwo jest rozłożone „równo” na odcinku, czyli że szansa trafienia w od­ cinek [a, b] jest równa jego długości, a szansa trafienia w zbiór A i A + 1 jest taka sama, o ile A , A + t C [0,1], to wtedy fi jest odcinkiem [0,1], P jest miarą Lebesgue’a, zaś T jest u-ciałem podzbiorów mierzalnych. Ist­ nieją niemierzalne podzbiory odcinka, czyli takie, którym żadnej sensownej miary przypisać się nie da (patrz zadania 10-13). ■ P r z y k ła d 10. Czekamy na autobus. Zastanawiamy się, jaka jest szansa, że czas oczekiwania przekroczy 20 minut. A może jednak i2 = [0,T] dla jakiegoś dużego [0, oo), jest też intuicyjnie jasne, że autobus w normalnych warunkach T? Wynikiem doświadczenia jest czas oczekiwania t G [0, oo), zatem fi = = raczej pojawi się w ciągu kilkunastu minut. Ale w przeciwieństwie do po­ przedniego przykładu nie ma powodu, by prawdopodobieństwo było „równo rozłożone” . Jeśli chcemy formułować jakieś przewidywania dotyczące czasu oczekiwania, powinniśmy wykonać badania statystyczne, których wyniki mogą wyglądać tak, jak na rysunku po lewej, i które w zwartej formie można przedstawić tak, jak na rysunku po prawej. Zatem w rozsądnym modelu mamy p (A )= f f(x )d x , JA A e r . Rozdział 1. Opis doświadczenia losowego 14 Podobnie, jak w przykładzie 9, T jest cr-ciałem mierzalnych podzbiorów przedziału [0, oo), zaś nieujemną funkcję / , taką że f ( x ) dx = 1, na­ zwiemy gęstością rozkładu prawdopodobieństwa, bo pokazuje ona, jak praw­ dopodobieństwo jest rozłożone na R . ■ P r z y k ła d 11 . Jaka jest szansa, że kurs akcji spółki X przekroczy na ju­ trzejszej sesji 107 zł? M ożna oczywiście formułować przewidywania na podstawie wyników po­ przednich sesji, co doprowadziłoby do modelu z gęstością - jak w przykła­ dzie 10. Ale takie przewidywanie nie bierze pod uwagę zmieniających się warunków. Jeśli np. prezes spółki złamie nogę, kurs akcji może gwałtownie spaść. Jeśli okaże się, że w nadchodzących wyborach duże szanse m a partia Z, zachwianie kursu może być jeszcze poważniejsze. Choć nie m a możli­ wości powtarzania tego doświadczenia w takich samych warunkach, model z przykładu 10, z braku lepszej metody, może się przydać — szczególnie w spokojnych czasach. ■ Na zakończenie tego podrozdziału podajemy terminy teorii zbiorów i od­ powiadające im terminy teorii prawdopodobieństwa, zebrane w tabelce. Nawet najbardziej pedantyczny wykładowca nie używa wyłącznie terminów z prawej kolumny. zbiór A e T uj e A zdarzenie A (A ^ T nie jest zdarzeniem) zdarzenie elementarne u> sprzyja zdarzeniu A A cB zdarzenie A pociąga za sobą B 0 n AnB = 0 zdarzenie niemożliwe A! AU B AnB zdarzenie pewne A i B wykluczają się nie-A, zdarzenie przeciwne do A alternatywa zdarzeń A i B koniunkcja zdarzeń A i B Zadania 1. Niech A ,B ,C będą zdarzeniami. Zapisać za pomocą działań na zbiorach następujące zdarzenia: a) zachodzi dokładnie jedno ze zdarzeń A , B , C; b) zachodzą dokładnie dwa spośród zdarzeń A, B, C; c) zachodzą co najmniej dwa spośród zdarzeń A , B, C. 2. Udowodnić, że P (A i U . . . U A„) ^ P {A i) + . . . 4- P (A „). Przenieść wynik na przeliczalnie wiele składników. 3. Udowodnić, że P (A fi B) ^ P{A) + P (B ) — 1. 4. Dane są P {A') = i P ( B \ A ). P (A n B ) = \ iP {A u B ) = §. Obliczyć P (B '), P {A n B ') §1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa 15 5. Dane są P (A U B) = | i P (A f l £ ) = J, ponadto P (A \ B ) = P ( B \ A). Obliczyć P(A) i P (B \ A). 6. Dane są P (A 'n B ') = 1, P (A ') = |, ponadto P (A n B ) = 1. Obliczyć P (B ) i P ( A 'n B ) . 7. Dane są P(A) = P (B ) = P ( A 'U B )i P ( A U B '). A n B = 0. Uporządkować rosnąco P (A u B ), 8. Niech A U B U C = fi, P(B) = 2P(A), P (C ) = 3P(A), P(A n B) = P (A n C ) = P (B n C ). Pokazać, że | SC P (A ) ii j , przy czym oba ograniczenia są osiągane. Po co jest przeliczalna addytywność? Rzucamy monetą do chwili otrzymania pierwszej reszki. Zdarzeniami elementarnymi są skończone ciągi orłów zakończone reszką i jeden nieskończony ciąg orłów, fi jest przeliczalna. Rozpatrzmy ciało Q podzbiorów fi, złożone ze zbiorów, które są skończone albo mają skończone dopełnienia. Niech P ( A \ - S ° d la # A < o o , 1 ~~ 1 1 dla # A ' < oo. 9. Udowodnić, że P jest skończenie addytywna i nie jest przeliczalnie addytywna. Znaleźć prawdopodobieństwo, że reszka pojawi się najpóźniej w n-tym rzucie. Znaleźć prawdopodobieństwo, że reszka pojawi się w skończonej licz­ bie rzutów. Dlaczego ocena szans za pomocą P jest sprzeczna ze zdrowym rozsądkiem? oznacza liczbę elementów zbioru A. Zbiór niemierzalny. Przypuśćmy, że miara fi, określona na u-ciele T podzbio­ rów R ma dwie naturalne własności: jest przesuwalna, czyli /¿(A + x j = lĄA.) dla każdego A 6 T i i € R , a ponadto miara przedziału jest równa jego długości. Okazuje się, że istnieje wtedy podzbiór,-'któremu nie da się sensownie przypisać A + x = miary — zbiór niemierzalny. Dowód zawiera się w poniższych zadaniach. = {a + x: a € A } 10. Relacja ~ jest zdefiniowana w następujący sposób: x ~ y = x — y e Q . Udowodnić, że relacja ta jest zwrotna, symetryczna i przechodnia. W takim razie relacja ~ dzieli zbiór liczb rzeczywistych na klasy abstrakcji. Niech U będzie takim podzbiorem odcinka [0,1], do którego należy dokładnie jeden element z każdej klasy abstrakcji [x], gdzie x £ [0,1]. Istnienie zbioru U wynika z aksjomatu wyboru. 11. Udowodnić, że jeśli u, w € Q i u ^ v, to (U + u) fi ((7 + w) — 0. 12. Niech ciąg (« j¡) íS i zawiera wszystkie liczby wymierne z odcinka [—1, lj. Udo­ wodnić, że Q ( t f + «* ):> [0,1]. ¿=1 1 3 . U dow odn ić, że zbiór U jest niemierzalny. P ow y ższe rozważania stają się bardziej eleganckie, jeśli rozp atryw a ć m iarę na okręgu, niezm ienniczą ze w zględu na obroty. Sugerujemy C zytelnikow i od pow ied ­ n ią a d ap ta cję zadań 10-13. \ Rozdział 1. Opis doświadczenia losowego 16 § 1.2. Przeliczalny zbiór zdarzeń elementarnych Jeśli zbiór zdarzeń elementarnych jest przeliczalny, można podać prosty, kompletny i zdroworozsądkowy opis wszystkich możliwych prawdopodo­ bieństw. T w ie rd ze n ie 1. Jeśli fi = ■■■}, dla każdego i zbiór {(¿¿} £ T , P jest prawdopodobieństwem, to dla każdego A C O mamy P (A ) = /L Pi' ę A} gdzie pi = P ({w i}). D o w ó d . Wystarczy przedstawić zbiór A w postaci sumy (przeliczalnej) zdarzeń jednopunktowych (zwróćmy uwagę, że T = 2n ) i skorzystać z prze­ liczalnej addytywności P . m To twierdzenie mówi, że w tym szczególnym przypadku prawdopodobień­ stwo jest jednoznacznie wyznaczone przez prawdopodobieństwa zdarzeń ele­ mentarnych. Dlatego też każdy ciąg (pi) liczb nieujemnych, dla którego Y liliP i = wyznacza prawdopodobieństwo na fi. Warto zwrócić uwagę, że na zbiorze przeliczalnym i nieskończonym prawdo­ podobieństwo nie może być rozłożone „równo” . Z drugiej strony, jeśli zbiór zdarzeń elementarnych jest skończony, to bardzo często tak bywa. W tedy trzeba umiejętnie określać liczebność zdarzeń, do czego służą metody kombinatoryczne. Będzie o tym mowa w następnym rozdziale. Zadania 1. Rzucamy symetryczną monetą do chwili wyrzucenia orła. Skonstruować zbiór zdarzeń elementarnych i wybrać odpowiednie prawdopodobieństwo. Jaka jest szansa, że liczba rzutów będzie parzysta? podzielna przez 3? podziełna przez m? 2. Paradoks losowych liczb naturalnych. Adam i Bolek grają w następu­ jącą grę: automat generuje losowo pary sąsiednich liczb naturalnych i przy­ znaje losowo jedną Adamowi, a drugą Bolkowi. Adam zna liczbą przypisaną Bolkowi, a Bolek zna liczbę przypisaną Adamowi, ale żaden z nich nie zna swojej liczby. Osoba z mniejszą liczbą płaci drugiej tyle złotych, ile wynosi liczba jej przypisana. Każdy z graczy może uznać, że nie warto grać w da­ nym momencie, i poprosić o nową parę liczb. Ale żaden z nich nie skorzysta z prawa veta, bowiem rozumuje tak: „Gdy widzę, że przeciwnik ma liczbę k, to ja mam A; — 1 lub k + 1. Każda z nich jest jednakowo prawdopodobna. Gdy wygram, zyskuję k zł, a gdy przegram, tracę fc — 1 zł, zatem średnio wygrywam 50 gr” . 17 § 1.3. Prawdopodobieństwo geometryczne Drugi gracz rozumuje analogicznie, więc gra jest korzystna dla obu. Jest to niemożliwe. Gdzie tkwi błąd? 3. Prawdopodobieństwo asymptotyczne. Ponieważ na zbiorze liczb natu­ ralnych nie można określić rozkładu „równomiernego” , to pewne nadzieje wiązano z tzw. prawdopodobieństwem asymptotycznym, ale nie jest ono jed­ nak dobrym substytutem. Gdy A C N , to prawdopodobieństwem asymptotycznym zbioru A nazywamy liczbę Poc(A) = lim n i -1’ 2’ n}) , n—*oo Tl o ile ta granica istnieje. Inaczej mówiąc, jeśli p „ jest prawdopodobieństwem, że liczba, losowo wybrana ze zbioru { 1 ,2 ,... n } z rozkładem równomiernym należy do A, to Pm (A ) = lirrin-.co p „, gdy ta granica istnieje. _ i Jeśli na przykład B jest zbiorem liczb parzystych, to Poo(-B) 2' Niech G = { A C N : P 0 0 (A ) istnieje}. Udowodnić, że Q nie jest nawet ciałem. 4. 5. *6. |7. Rozkład, równomierny na zbiorze skończonym to taki, który wszystkim Opisać wszystkie cr-ciała w przypadku przeliczalnego zbioru fi. elementom Czy istnieje u-ciało nieskończone przeliczalne? przypisuje równe Ile jest wszystkich możliwych cr-ciał, jeśli fi ma n elementów? prawdopodobień­ Niech A k będzie zbiorem liczb naturalnych podzielnych przez k. Wykazać, że stwa. na N nie istnieje takie prawdopodobieństwo P , że P (A k ) = i/k dla k ^ 1. § 1.3. Prawdopodobieństwo geometryczne Dość często fi jest podzbiorem R n, na którym istnieje naturalna miara (na przykład miara Lebesgue’a lub miara na sferze, niezmiennicza ze względu na obroty), przy czym fi ma miarę skończoną. Mówimy wtedy o „praw­ dopodobieństwie geometrycznym” , a rozwiązanie zadania sprowadza się do znalezienia miary (pola, objętości) podzbioru R n. P r z y k ła d 1. Ania i Bożena umówiły się między 16.00 a 17.00 w centrum miasta. Komunikacja w godzinach szczytu działa, jak działa. Osoba, która przyjdzie pierwsza, czeka na drugą 20 minut. Jaka jest szansa, że dojdzie do spotkania? Żeby opisać, co się zdarzyło, wystarczy podać czasy przybycia obu koleża­ nek — na przykład mierzone w godzinach, od 16.00. Można zatem przyjąć, że fi = [0,1] x [0,1], a wtedy w = gdzie i i , i 2 € [0,1]- Pozostaje wybrać prawdopodobieństwo: przyjmując P (A ) = A(A), gdzie A jest miarą Lebesgue’a, otrzymamy dość rozsądny model, w którym szansa, że Ania pojawi się w przedziale czasu [i, s] będzie równa długości tego przedziału. To samo dotyczy Bożeny. Mało tego: okazuje się, że jeśli zdarzenie A polega na tym, że Ania poja­ wia się w przedziale czasu [a, 6], a B — że Bożena pojawia się w przedziale [c, Ą , to P ( A n B ) = P (A ) - P (B ). ~°<Í\ ¡ 5 BIBLIOTEKĄ GŁÓwOa •v*> (1) 18 Rozdział 1. Opis doświadczenia losowego Warto narysować oba zdarzenia i przekonać się, że powyższy wzór wynika natychmiast ze wzoru na pole prostokąta. Nieco później okaże się, że jest to definicja niezależności zdarzeń. Na razie, przy intuicyjnym rozumieniu niezależności, nietrudno zgodzić się, że czasy przybycia koleżanek powinny być niezależne. W łaściwie to już Jakie są szanse, że dojdzie do spotkania? Takie, jak pole zacienionego ob­ tu pojaw ia się szaru na rysunku (jest to zbiór punktów (ii, i2) € [0,1] x [0,1] spełniających niezależność warunek |ii — t2\ < |), czyli 1 — (| )2 = § . ■ zmiennych losowych! Rzut monetą też może prowadzić do zadania typu „prawdopodobieństwo geometryczne” . P r z y k ła d 2 ' ( G r u b a m o n e ta ). Jaką grubość powinna mieć moneta, żeby prawdopodobieństwo upadnięcia na kant wynosiło |? John von Neumann podobno rozwiązał to zadanie w 15 sekund. Model, który tu proponujemy, jest skrajnym uproszczeniem tego, co w-rze­ czywistości dzieje się przy rzucie monetą. Otóż wiadomo, że bryła umiesz­ czona na płaskiej powierzchni nie przewraca się, jeśli rzut środka ciężkości znajduje, się wewnątrz powłoki wypukłej rzutu podstawy. Jeśli zatem wek-tor siły ciężkości przebije pobocznicę walca (monety), to przyjmiemy, że moneta nie przewróci się i upadnie na kant. Zbiorem zdarzeń elementarnych może być sfera, opisana na walcu. Jeśli wektor o początku O i końcu w punkcie A , losowo wybranym ze sfery, prze­ bija pobocznicę walca, to moneta pada na kant. Wym iary monety muszą §1.3. Prawdopodobieństwo geometryczne 19 więc być takie, by pas wycięty ze sfery przez pobocznicę walca miał pole równe § pola całej sfery, co oznacza, że jego szerokość d musi być równa | promienia sfery. Przy oznaczeniach z rysunku (?----- promień monety) mamy skąd 2 = V 2. m Pas wycięty ze sfery ma pole proporcjonalne szerokości. Tak dzieje Dość często osoby rozwiązujące to zadanie proponują jeszcze prostszy model, mianowicie zbiorem zdarzeń elementarnych miałby być zamiast sfery wymiarach, okrąg, bowiem sytuacja jest niezmiennicza ze względu na obroty wokół osi monety. Moneta zostaje zatem zredukowana do prostokąta, sfera zaś do okręgu. W tedy jednak otrzymuje się inną odpowiedź. Warto się zastanowić, dlaczego (być może po lekturze rozdziału 6). W następnym przykładzie (paradoksie Bertranda) i zadaniu 7 (o igle Buffona) robimy podobne uproszczenia — ale tym razem nie ma to wpływu na odpowiedź. . P r zy k ła d 3 (P aradoks B e r tra n d a ). Z okręgu o promieniu 1 wybrano losowo cięciwę A B . Jaka jest szansa, że będzie ona dłuższa niż bok trójkąta równobocznego, wpisanego w okrąg? 1. Jeśli umieścimy trójkąt tak, by jednym z wierzchołków był punkt A , to — jak widać z rysunku — warunek zadania będzie spełniony, jeśli B wpadnie do pogrubionego łuku, czyli jeśli kąt środkowy, oparty na cięciwie, będzie większy niż 27r/3. Prawdopodobieństwo tego zdarze­ nia wynosi 2. Można wybrać odległość środka cięciwy M od środka okręgu. Rysunek sugeruje, że szukane prawdopodobieństwo wynosi Rozdział 1. Opis doświadczenia losowego 20 3. Może jednak należałoby wziąć pod uwagę kierunek promienia? W y ­ bierzmy punkt M i dorysujmy do niego promień i cięciwę. Teraz wy­ gląda na to, że szukane prawdopodobieństwo wynosi Jakie jest źródło paradoksu? W e wszystkich trzech przypadkach ogólny schemat jest ten sam: losujemy zdarzenie elementarne w G il, a długość cięciwy jest pewną funkcją f(u>). Za każdym razem jednak mamy do czy­ nienia z inną przestrzenią fi i inną funkcją: 1. fi = [0, 27t), f(ui) = 2 sin 2. fi = [0,1], / ( w ) = 2 > /l - w2; 3. fi jest kołem o promieniu 1, wobec tego w = (wi, W2 ) i /(w ) = + wf). Prawdopodobieństwo jest zawsze rozłożone „równo” na odpowiednim zbio­ rze. Mamy tu do czynienia z trzema różnymi zadaniami, stąd trzy różne wyniki. ■ Należy zwrócić uwagę, że termin „losowo” nie znaczy nic, dopóki nie po­ damy modelu doświadczenia, czyli przestrzeni probabilistycznej. Jaką m etodą Paradoks Bertranda jest dobrą ilustracją faktu, że rozwiązanie problemu wybierzemy następuje dopiero po wybraniu przestrzeni probabilistycznej. Jednak sam m etodę rachunek prawdopodobieństwa nie rozstrzyga, jaką przestrzeń probabili­ glosowania? Fragment dialogu styczną, czyli jaki model doświadczenia należy wybrać. Rachunek prawdo­ z filmu „ R e js ” podobieństwa pozwala jedynie obliczać prawdopodobieństwa pewnych zda­ rzeń, jeśli znane są prawdopodobieństwa innych zdarzeń. Tylko tyle i aż tyle. Zadania 1. Z kwadratu jednostkowego wybrano losowo punkt o współrzędnych (x , y ). Wyznaczyć funkcje: a) /(a ) = P(min(a:, f ) < a), b) g{a) = P (m a x(x, |) < a), I c) h(a) = P (m in (x ,y ) < a), d) fc(a) = P (m a x (x ,y ) < a). 2 .: Na odcinku [0,1] umieszczono losowo punkty L i M . a) jaka jest szansa, że środek odcinka L M należy do [0,1/3]? b) jaka jest szansa, że z L jest bliżej do M niż do zera? 3. 'Na odcinku [0,1] umieszczono losowo punkty A i, A 2 , A 3 . Jaka jest szansa, że A\ ^ A 2 ^ A 3 ? § 1.3. Prawdopodobieństwo geometryczne 21 Z przedziału [0,1] wybrano losowo dwa punkty, które podzieliły go na trzy odcinki. Jaka jest szansa, że z tych odcinków da się skonstruować trójkąt? 5i W czasach, gdy autorzy tej książki chodzili do szkoły, na strzelnicach można było grać w następującą grę: na duży stół, na którym namalowano dość grubymi liniami kratę, rzucało się monetę. Jeśli moneta przecięła linię, zo­ stawała na stole. W przeciwnym razie gracz zabierał wszystkie leżące na stole monety, oprócz jednej. Przypuśćmy teraz, że moneta ma promień d, a linie o grubości c umieszczone są w odległości a (dokładniej, a jest odległością między środkami linii). Jaka jest szansa, że moneta nie przetnie linii? ¿6.'¡Abstrakcyjny wariant poprzedniego zadania. Na nieskończoną szachownicę o boku a rzuca się monetę o średnicy 2r < a. Jaka jest szansa, że a) moneta znajdzie się całkowicie we wnętrzu jednego z pól; b) przetnie się z co najwyżej jednym bokiem szachownicy? :f x (Igła Buffona1. Igłę o długości l rzucono na podłogę z desek o szerokości a (l a). Jaka jest szansa, że igła przetnie krawędź deski? 8. Rozwiązać zadanie 7, gdy l > a (dla tych, którzy nie boją się rachunków). Autorom wygodniej uznać, * 9 . Uogólnienie zadania o igle Buffona. Na płaszczyznę, podzieloną pro­ że się boją stymi równoległymi na pasy o szerokości równej 1, rzucono losowo wielokąt wypukły o średnicy mniejszej niż I. Znaleźć prawdopodobieństwo, że prze­ tnie on jakąś prostą. „Losowo” oznacza, że wybieramy pewien odcinek, sztywno związany z wielo­ kątem, i rzucamy go losowo w sensie poprzedniego zadania. Tak zdefiniowana „losowość” nie zależy od wyboru odcinka. ■i O.' Na płaszczyźnie jest nieskończenie wiele prostych równoległych, w odległo­ ściach na przemian 2 i 10 cm. Na płaszczyznę rzucono okrąg o promieniu 3 cm. Jaka jest szansa, że nie przetnie on żadnej prostej? * 1 1 . Z przedziału [0,1] wybrano losowo przeliczalnie wiele punktów. Udowodnić, że zdarzenie A, polegające na tym, że każdy podprzedział zawiera co najmniej jeden z wylosowanych punktów, ma prawdopodobieństwo 1. 12. Z przedziału [0,1] wybrano losowo liczbę x. Jakie jest prawdopodobieństwo, że jest to liczba wymierna? Niewymierna? G ru ba moneta jeszcze raz. Oto dane z próby weryfikacji modelu zapropono­ wanego w przykładzie 2: w serii 500 rzutów monetą (sklejoną z pięciu pięciogroszówek) o średnicy 19,4 mm i grubości 6,7 mm wypadło 176 orłów (35,2%), 170 reszek (34,0%) i 154 „kanty” (30,8%). Monetę rzucano na wykładzinę dywanową z wysokości 10-20 cm. Okazało się, że przy rzutach na podłogę drewnianą „kant” wypada bardzo rzadko ze względu na odbicia sprężyste8. Model przewiduje szansę upadku na „kant” równą 32,64%, zgodność jest więc bardzo dobra. Dokładniej, szansa uzyskania gorszego dopasowania do częstości teoretycznych wynosi ok. 60%. Taką wartość otrzymuje się z testu x 2 (którego nie znajdziemy w tej książce). Zamiast niego Czytelnik może spróbować zastosować twierdzenie de Moivre’a-Laplace’a z rozdziału 7. 1Georges Louis Leclerc de BufFon opublikował wzmiankę o tym doświadczeniu w 1735 roku, chcąc zademonstrować „przewagę geometrii nad analizą” w teorii prawdopodobień­ stwa. Laplace zauważył, że można w ten sposób wyznaczać doświadczalnie liczbę 7r. 2Doświadczenie wykonał Filip Świtała (student W ydz. Ekonomii U W ). Rozdział 2 Klasyczna definicja prawdopodobieństwa Dwa znaki budują dwa domy, trzy budują sześć domów, cztery budują dwadzieścia cztery domy; pięć buduje sto dwadzieścia domów. Od tego wyjdź i rozważaj dalej to, czego usta nie mogą wymówić i ucho nie może usłyszeć. S efer Jecira - K sięga stw orzenia W tym rozdziale zajmiemy się szczególnym przypadkiem sytuacji, opisanej w twierdzeniu 1.2.1: skończony zbiór 0 jednakowo prawdopodobnych zda­ rzeń elementarnych. Z twierdzenia 1.2.1 wynika natychmiast, że dla każdego ACS> #A Taki model pasuje do wielu zadań, gdzie występują karty, symetryczne kostki i monety, losy na loterię itp. Powyższy wzór tradycyjnie nazywa się „klasyczną definicją prawdopodobieństwa” . Otóż w początkach rozwoju teorii definiowano prawdopodobieństwo zdarzenia jako stosunek liczby przy­ padków sprzyjających do liczby wszystkich możliwych, przy (milczącym) założeniu, że wszystkie przypadki są jednakowo prawdopodobne. Definicja ta nie jest formalnie poprawna, ale dawało się z nią pracować1. §2.1. Podstawowe schematy kombinatoryczne P r z y k ła d 1. Tablica rejestracyjna zawiera trzy litery alfabetu łacińskiego i cztery cyfry. Ile jest różnych tablic? 1 Łatwo było o pozorne paradoksy, a raczej błędy, takie jak stwierdzenie d ’Alemberta w artykule „Orzeł i reszka” ( Croix et pile), w IV tomie Encyklopedii (1754). Szansa pojawienia się dwóch orłów pod rząd w dwóch rzutach monetą miałaby wynosić 1/3, bowiem jeśli w pierwszym rzucie wypadła reszka, nie ma sensu rzucać dalej, możliwe są zatem wyniki R, 0 0 i OR. 22 §2.1. Podstawowe schematy kombinatoryczne 23 Wszystkie tablice rejestracyjne można otrzymać tak: pierwszą literę wybie­ ramy na 26 sposobów, drugą i trzecią też na 26 sposobów. Część literową Czy ktoś widział można zatem wybrać na 263 = 17576 sposobów. Podobnie stwierdzamy, tablicę z cyframi choć może się to akurat w tym przypadku wydać sztuczne, że możliwych 0000? układów cyfr jest 104. W rezultacie mamy 175 760 000 możliwych tablic rejestracyjnych. ■ Z tego rodzaju rozumowaniem spotykamy się w prawie każdym zadaniu kombinatorycznym. Żądany zbiór konstruujemy za pomocą pewnej proce­ dury, podejmując na każdym etapie decyzję — jest to wybór jednej z wielu możliwości. Na zakończenie mnożymy liczby możliwości wyboru w poszcze­ gólnych etapach. Rozumowanie to opiera się na następującym twierdzeniu: T w ie rd ze n ie 2 (O m n ożen iu ). Jeśli # A i = dla i = 1 , 2 , . . . k, to # ( A i * . . . x A k) = n i - n 2 - . . . - n k. D o w ó d . Mamy = n j, zatem dla dowodu indukcyjnego wystarczy po­ kazać, że # (Ax x . . . x A m+i ) = nm+1 - # (j4i x . . . x A m). To jest jednak Sugestywny oczywiste, bo każdy ciąg (aj.,. . . , a m+1) 6 A i x . . . x A m +1 można otrzy­ dowód twierdzenia mać dołączając na nm+1 sposobów wyraz am+i do ciągu (<n, . . . ,a m) € 0 mnożeniu dla k = 2 znajduje się € A-i x . . . x A m. m w podręczniku do Omówimy teraz cztery podstawowe schematy kombinatoryczne. Oto nie­ 1 klasy szkoły podstawowej, zbędne definicje i oznaczenia. używanym w latach 60-tych. D e fin ic ja 3. k-wyrazową wariacją z powtórzeniami zbioru Y nazywamy Jest to rysunek każdą funkcję f : { 1 , 2 , . . . , k} —> Y . ■ oddziału ustawionego Liczbę ¿-elementowych wariacji z powtórzeniami zbioru n-elementowego w czworobok, który jest także będziemy oznaczać symbolem dowodem D efin ic ja 4 . k-wyrazową wariacją bez powtórzeń zbioru Y złożonego z n przemienności elementów, gdzie 0 < fc < n, nazywamy każdą funkcję różnowartościową f:{l,2,...,k}->Y.m Liczbę fc-elementowych wariacji bez powtórzeń zbioru n-elementowego bę­ dziemy oznaczać symbolem V *. D e fin ic ja 5 . Permutacją n-elementowego zbioru Y nazywamy każdą funk­ cję f i odwzorowującą zbiór { 1 , 2 , . . . , n } na zbiór Y . u Liczbę permutacji zbioru n-elementowego będziemy oznaczać symbolem Pn. Każda funkcja / określona na zbiorze { 1 , 2 , . . . , k} wyznacza jednoznacznie ciąg o wyrazach /( ¿ ) , 1 < i < k. Odwrotnie: każdy ¿-wyrazowy ciąg ele­ mentów zbioru Y wyznacza funkcję / : { 1 , 2 , . . . , k} -> Y . Zamiast o funk­ cjach można więc w powyższych trzech definicjach mówić o ciągach, co wykorzystamy w dowodach. mnożenia. Rozdział 2. Klasyczna definicja prawdopodobieństwa 24 D e fin ic ja 6. k-elementową kombinacją zbioru Y , złożonego z n elemen­ tów, gdzie 0 ^ k < n ? nazywamy każdy k-elementowy podzbiór zbioru Y . m Liczbę ¿¡-elementowych kombinacji zbioru n-elementowego będziemy ozna­ czać symbolem C. T w ie rd ze n ie 7. Ak n = n k, (1) n ^h k^O , V£ = n(n - 1) •. ■. • (n - k + 1) = Pn = n\, g* , o '<fc<n , (2) n ^ 0, (3) = W Wyniki te znali już matematycy szesnastowieczni (Tartaglia) i siedemnasto­ wieczni (Pascal). Jak się wydaje, podstawowe twierdzenia kombinatoryczne, tj. postać iloczynową C k, indukcyjny dowód wzoru na liczbę permutacji, a także wzór na liczbę wariacji bez powtórzeń podał pierwszy w napisanej po hebrajsku arytmetyce (1321) matematyk prowansalski Lewi ben Gerson (Leon Gersonides, 1288-1344). Prace Lewi ben Gersona były jednak mało Na hebrajski tłum aczono wiele arabskich traktatów matematycznych, które z koiei były często tłumaczeniami z greckiego. znane. D o w ó d . (1) w ariacje z p o w tó rz e n ia m i, fc-elementowe wariacje z po­ wtórzeniami to inaczej fe-elementowe ciągi o wyrazach z n-elementowego zbioru Y . Wystarczy więc skorzystać z twierdzenia o mnożeniu dla A i = = ... = Ak = Y. (2) w ariacje b e z p o w tó rz e ń . Teraz mamy do czynienia z fc-elementowymi ciągami o różnych wyrazach z n-elementowego zbioru Y . Oczywiście V ° = = 1, a dalej — V k+1 = (n — k )V k, bo po wybraniu /¡-elementowego ciągu następny element można wybrać na n — k sposobów, o ile k + 1 < n. Stąd V * = n(n - 1) • . . . ■ (n - * + 1) = - (3) p e rm u ta c je . Jest to szczególny przypadek wariacji bez powtórzeń: Pn = Vnn = n! (4) k o m b in a c je. Ponieważ V ” = C kPn (każdy ciąg fc-elementowy można otrzymać, wybierając podzbiór i ustawiając jego elementy w ciąg), to c k = vPn nl (n - k)\k\ (n \k P r z y k ła d 8 . W indą jedzie 7 osób, a pięter w budynku jest 10. Jaka jest szansa, że wszyscy wysiądą na różnych piętrach? 2.1. Podstawowe schematy kombinatoryczne 25 Zdarzeniami elementarnymi będą tu wszystkie 7-elementowe ciągi o wyra­ zach ze zbioru 10-elementowego. Zdarzenia sprzyjające to ciągi o różnych wyrazach. W takim razie szukane prawdopodobieństwo wynosi V70 10 •9 •8 ■7 •6 •5 ■4 # = -------------w ?------------ = 0 , 0 6 0 4 8 . . Mówiąc krótko i ludzkim cie Warszawskim liczy dwadzieścia kilka osób. Czy często będzie się zdarzać, językiem: trzeba że w grupie są dwie osoby obchodzące urodziny tego samego dnia? A do­ podać informację, kładniej: ile powinno być osób w grupie, żeby szanse takiego zdarzenia były gdzie kto wysiadł. P r z y k ła d 9 (D n i u rod zin ). Typowa grupa ćwiczeniowa na Uniwersyte­ większe niż 1 /2 ? Jeśli zignorujemy lata przestępne, zadanie sprowadzi się do poprzedniego: k osób w windzie i 365 pięter. Niech pk oznacza prawdopodobieństwo zda­ rzenia przeciwnego do opisanego wyżej, czyli różnych dat urodzin. W tedy 365 • . . . • ( 3 6 5 - A:+ 1 ) 365* Pk ~ / ~ \ 1 \ 365 J k - 1\ f, ' " '' V 365 ) ' Prawą stronę można oszacować, korzystając z nierówności 1 + x < ex: 1 fc-l Pk < e 365 • . . . •e l+2+...-Hfc —1) 365 = e 365 Jak kto wołi, 1 — x ^ e“ *. k (k -l) = e 730 . Na to, by pk < 1 /2 wystarcza, by k(k - 1) > 730 log 2 w 505,9974, czyli k < 23. Dokładniejsze rachunki pokazują, że P23 ~ 0,493. Pouczający jest rzut oka na poniższą tabelę prawdopodobieństw różnych dat urodzin: n Pu 4 0,984 16 22 23 40- 64 0,716 0,524 0,493 0,107 0,003 Po zapoznaniu się z tymi wynikami można wygrywać bez trudu zakłady, bo­ wiem gdy pytanie, sformułowane na początku tego przykładu, stawiano stu­ To jest absurd! dentom kierunków uniwersyteckich2, średnia z odpowiedzi wyniosła 385. ■ A jest. P r z y k ła d 10 . Na ile sposobów można rozdać n pączków k osobom? Pączki śmiało można uznać za nierozróżnialne. Może się zdarzyć, że ktoś nie do­ stanie pączka. To samo pytanie można sformułować w terminach kul nierozróżnialnych: na ile sposobów można n nierozróżnialnych kul (pączki) wrzucić do k komórek (osoby)? Jeśli r; oznacza liczbę kul w ¿-tej komórce, to pytamy, ile jest róż­ nych ciągów liczb całkowitych nieujemnych (ł’1, r 2, . . . , r/c), spełniających warunek n + . . . + rk = n. 2W USA. Por. łan Stewart, Co za traf!, Świat Nauki 8/1998, ss. 74—75. (5) Rozdział 2. Klasyczna definicja prawdopodobieństwa 26 Takie rozmieszczenia nazywamy kombinacjami z powtórzeniami. Innymi słowy, pytamy, ile jest rozwiązań w liczbach całkowitych nieujemnych równania (5). Dwa rozwiązania uznajemy za różne, jeśli różne są ciągi ( n , . . . r k). Oznaczmy kule gwiazdkami, a przegródki między komórkami — pionowymi kreskami. Na przykład ciąg | * || * | * *|| reprezentuje układ 4 kul w 5 komórkach (są 4 przegródki; dodatkowo mamy po jednej kresce na początku i na końcu). Ciągów złożonych z n gwiazdek i k — 1 przegródek jest f n + k — 1\ ( * -1 H / n + k — 1\ n I ' Pytania o rozmieszczenie kul w komórkach są ciekawe z różnych względów, między innymi z punktu widzenia mechaniki statystycznej. Bada się tam układy n cząstek w przestrzeni fazowej, którą można podzielić na wiele W przestrzeni fazowej współrzędnymi mogą być np. położenie i pęd. niedużych obszarów (komórek). Stan układu opisuje się w terminach loso­ wego rozmieszczenia n cząstek w k komórkach. W yd aje się, że cząstki mogą zachowywać się dwojako: jak kule rozróżnialne i nierozróżnialne. Zapropo­ nowano trzy podstawowe modele zachowania się cząstek: a) statystyka Maxwella-Boltzmanna. Cząstki zachowują się jak kule roz­ różnialne i wszystkie kn rozmieszczeń ma jednakowe prawdopodobieństwo. Okazało się jednak, że statystyka ta nie stosuje się do żadnych znanych cząstek elementarnych. b) statystyka Fermiego-Diraca. Cząstki zachowują się jak kule nierozróż­ nialne, przy czym (i) dwie cząstki nie mogą przebywać w tej samej komórce, (ii) wszystkie rozmieszczenia spełniające (i) m ają jednakowe prawdopo­ dobieństwo. Z (i) wynika, że k > n. Rozmieszczenie jest wyznaczone przez podanie ko­ mórek zajętych, wobec tego prawdopodobieństwo otrzymania konkretnego rozmieszczenia jest równe 1 / (*). Okazuje się, że zgodnie z tą statystyką zachowują się elektrony, protony i neutrony. c) statystyka Bosego-Einsteina. Cząstki zachowują się jak kule nierozróż­ nialne. Rozpatrujemy wszystkie rozróżnialne rozmieszczenia, uznając je za jednakowo prawdopodobne. Dlatego prawdopodobieństwo ustalonego roz­ mieszczenia jest równe l / ( n+^- 1 ) . Zgodnie z tą statystyką zachowują się fotony. P r z y k ła d 11 (P o d z ia ły p o p u la c ji). Na ile sposobów można podzielić n-elementową populację na k części zawierających odpowiednio r1 ; . . . elementów, gdzie j*i + . . . + rk = re? §2.1. Podstawowe schematy kombinatoryczne 27 Rozwiązanie (jakie?) jest dobrze znane dla k = 2. Nietrudno domyślić się, jak wygląda ogólny wzór. Wybieramy ri elementów do pierwszej części na sposobów, potem r2 elementów do drugiej części na (n~^1) sposobów, itd. W rezultacie mamy ^ « - ( n + . . . + rfc_ 1)^ sposobów. Wyrażenie to łatwo uprościć do postaci n! r1!r2! . . . r * :r W języku kul nierozróżnialnych zadanie to sprowadza się do pytania, na ile sposobów można ustawić w ciąg n różnokolorowych kul, wśród których jest Ti kul i-tego koloru, i = 1 , 2 , . . . , k, rt + r% + . . . + r*, = n. Takie ustawienia nazywamy permutacjami z powtórzeniami. Możemy teraz rozwiązywać zadania w stylu: jaka jest szansa, że daty uro­ dzin 34 osób rozkładają się na poszczególne miesiące tak: 6 miesięcy po 3 osoby, 2 miesiące po 4 osoby i 4 miesiące po 2 osoby. Odpowiedź brzmi: ™______ b 6!2!4! (3!)6(4!)2(2!)4 P r z y k ła d 12 (P o k e r ). Z 24 kart wybieramy 5. Jaka jest szansa, że otrzy­ mamy dwie pary? Chodzi tu o dokładnie dwie pary, nie o fulla ani karetę. O to procedura, generująca wszystkie takie układy kart: 1. Wybieramy dwie wartości kart spośród sześciu (np. as i walet). Można to zrobić na (®) sposobów. 2. Z czterech kart o danej wartości wybieramy dwie; robimy to dwu­ krotnie (w ten sposób wybieramy konkretne asy i walety: np. A 4 , A 9 i JO, JA)- Można to zrobić na (4) sposobów. 3. Piątą kartę możemy wybrać dowolnie z 16 kart: wykluczamy 8 kart (tu: asy i walety), żeby nie otrzymać przypadkiem karety ani fulla. W efekcie dwie pary można otrzymać na ( j ) ^ ) 2 ‘ 16 sposobów. Szukane prawdopodobieństwo wynosi (®) ( j ) 2 •1 6 /(2S4) = 8640/42504 f» 0,2033. ■ S y m e tria . W wielu zadaniach można się obejść bez obliczeń, jeśli umiejęt­ nie skorzystać z symetrii. Rzecz ilustrują dwa przykłady poniżej. P r z y k ła d 13 . Rzucamy symetryczną monetą 1999 razy. Jaka jest szansa otrzymania parzystej liczby orłów? A gdyby rzucać 2000 rasy? Rozdział 2. Klasyczna definicja prawdopodobieństwa 28 Taka sama, jak parzystej liczby reszek: zamiana orła na reszkę nie zmienia prawdopodobieństwa zdarzenia. Zatem P(parzysta liczba orłów) = P (parzysta liczba reszek) = = P(nieparzysta liczba orłów) = —. ■ P r z y k ła d 14 . Na loterii 10 losów wygrywa, 100 przegrywa, a 1000 upraw­ nia do ponownego losowania. Jaka jest szansa wygranej, jeśli wyciągamy jeden los i gramy, dopóki się da, czyli dopóki nie trafimy na los wygrywa­ jący lub przegrywający? Jeżeli za zdarzenia elementarne uznamy ciągi złożone z k losów, uprawnia­ jących do ponownego losowania (0 < k ^ 1000), i jednego losu rozstrzy­ gającego, to wpadniemy w kłopoty, bo takie zdarzenia elementarne trudno uważać za jednakowo prawdopodobne. Niemniej jednak, w każdym rozsąd­ nym modelu, zdarzenia A n, polegające na tym, że na końcu pojawił się los rozstrzygający o numerze n (1 < n ^ 110), powinny mieć jednakowe prawdopodobieństwa. Rzeczywiście, istnieje wzajemnie jednoznaczna odpowiedniość między zdarzeniami elementarnymi, składającymi się na A n i A m (jaka?). W ynika stąd, że szansa wygranej wynosi . Losy uprawniające do dalszego losowania są, jak widać, nieistotne. ■ § 2.2. Typowe błędy Nie podaliśmy dowodu poprawności procedury, opisanej w przykładzie o pokerze (2.1.12). Pełna formalizacja byłaby może niecelowa, warto jednak sprawdzić dwie rzeczy: Zawsze warto sprawdzić, czy zdarzenia elementarne są. jednakowo prawdopodobne. 1. Czy faktycznie otrzymujemy wszystkie żądane układy kart? 2. Czy przypadkiem dwie z pozoru różne drogi nie prowadzą do tego samego układu kart? Innymi słowy, należy sprawdzić, czy istnieje wzajemnie jednoznaczna odpowiedniość między sposobami realizacji procedury, a generowanymi przez te sposoby zdarzeniami elementarnymi. Czytelnik zechce to zrobić dla przy­ kładu 2.1.12 i zastanowić się nad kolejnym przykładem. P r z y k ła d 1. n rozróżnialnych kul umieszczono losowo w n komórkach. Jaka jest szansa, że dokładnie jedna komórka jest pusta? To proste: Pustą komórkę wybieramy na n sposobów, odkładamy jedną kulę (można ją wybrać na n sposobów), a w pozostałych n — 1 komórkach rozmieszczamy n — 1 kul na (n — 1)! sposobów. Na zakończenie odłożoną § 2.2. Typowe błędy 29 kulę umieszczamy w jednej z n — 1 zajętych komórek. Zatem odpowiedź brzmi n ■n ■ (n — 1)! •(n - 1) _ n(n — 1)n! nn nn Czy na pewno? Dla n = 2 otrzymujemy prawdopodobieństwo równe 1. Łatwo sprawdzić, że wynosi ono w tym przypadku i wygląda na to, że sprzyjających ustawień kul w komórkach jest dwa razy za dużo. Rzeczy­ wiście, np. przy trzech kulach i trzech komórkach konfigurację | — |3|1,2| otrzymujemy dwukrotnie. Po raz pierwszy tak: odkładając kulę 1, wstawia­ jąc do drugiej i trzeciej komórki kule 3 i 2, i na zakończenie umieszczając kulę 1 w trzeciej komórce. Zamiana kul 1 i 2 daje drugi — z pozoru inny — sposób. Wyróżniając kulę odkładaną na bok, popełniamy błąd. Prawidłowe rozwiązanie jest następujące: 1. Wybieramy dwie kule na ( j ) sposobów. 2. Wrzucamy je do wybranej na n sposobów komórki. 3. Z pozostałych komórek wybieramy pustą na n — 1 sposobów. 4. Umieszczamy pozostałe n — 2 kul w n — 2 komórkach na (n — 2)! sposobów. Sprzyjających konfiguracji jest więc Q ) •n(n - l ) ( n - 2)! = n l(£). ■ P r z y k ła d 2. Nie bez powodu motto tego rozdziału pochodzi z „Sefer Jecira” (Księga stworzenia). Traktat ten powstał przypuszczalnie na przeło­ mie II i III w. po Chrystusie, w Aleksandrii. Kombinatoryka odgrywa w nim kluczową rolę. Trzydziestoma dwiema cudownymi ścieżkami mądrości Jah, Jahwe Zastę­ pów [...] wyrył i stworzył swój świat przez trzy: przez liczbę, słowo i pismo. Dziesięć sefir nicości oraz dwadzieścia dwa podstawowe znaki: trzy matryce, siedem podwójnych i dwanaście prostych3. Owe dwadzieścia dwa znaki to litery alfabetu hebrajskiego. Stanowią one M otyw obracających się kół, Dwadzieścia dwa podstawowe znaki wprawione w koło. Przez 231 bram ob­ produkujących racane jest to koło tam i z powrotem — oto znak słowa. [...] Formując kombinacje wyważał i mieszał je: alef ze wszystkimi i wszystkie z alef; bet ze wszyst­ podstawowych substancji, kimi i wszystkie z bet i przez obrót dookoła zostało znalezione wszystko, co występuje już wymówione, a co wychodzi z jednego imienia. w Timajosie Platona. ^Przekład W . Brojer, J. Doktór, B. Kos, Tikkun, Warszawa 1995. podstawowe tworzywo świata: Rozdział 2. Klasyczna definicja prawdopodobieństwa 30 „K o ło o 231 bramach” m a związek z liczbą dwuelementowych ciągów (róż­ nych) liter alfabetu hebrajskiego. Miesza się „alef ze wszystkimi i wszyst­ kie z alef” , co sugeruje, że porządek jest istotny — przecież z liter two­ rzy się słowa. Dwuliterowych ciągów uporządkowanych jest jednak nie 231, a 22 •21 = 462, zatem ktoś się tu pomylił. ■ Zadania 1. Ile jest permutacji 22 liter alfabetu hebrajskiego? Czy rzeczywiście tej liczby „usta nie mogą wymówić i ucho nie może usłyszeć” ? 2. Cyfry 0, 1, 2, . . . 9 ustawiono losowo. Jakie jest prawdopodobieństwo, że a) między 0 i 1 znajdą się dokładnie cztery cyfry? b) 7, 8 i 9 będą stały obok siebie? 3. W pudełku jest 6 śrubek dobrych i 2 złe. Jaka jest szansa, że przy wyborze 4 śrubek wybierze się 3 dobre i 1 złą? 4. W urnie są 2 kule białe i 4 czarne. Losujemy 2 kule bez zwracania. Co jest bardziej prawdopodobne, wyciągnięcie kul a) tego samego koloru; b) różnych kolorów? 5. Z 52 kart wylosowano 6. Jaka jest szansa, że wśród wylosowanych kart będą karty czerwone i czarne? 6. Z 52 kart wylosowano 13. Jaka jest szansa, że wśród wylosowanych kart będą reprezentowane wszystkie wartości? 7. Z 52 kart wybrano 13. Jakie są szanse otrzymania: a) 5 pików, 4 kierów, 3 trefli, 1 kara? b) układu 5-4-3-1? c) układu 5-3-3-2? d) układu 4-4-4-1? 8. Przy okrągłym stole usiadło dziesięć dziewcząt i dziesięciu chłopców. Jaka jest szansa, że osoby tej samej płci nie siedzą obok siebie? 9. Ile jest różnych wyników rzutu n nierozróżnialnych kości? 10. Na ile sposobów można podzielić 12 pączków między 4 osoby, tak by każda dostała a) przynajmniej jeden; b) przynajmniej dwa? (pączki uważamy za nierozróżnialne). 11. Ile różnych pochodnych cząstkowych rzędu r ma funkcja analityczna n zmien­ nych? 12. Ile jest różnych rozwiązań równania xi + x 2 + 1 3 + — 25 a) w zbiorze liczb całkowitych nieujemnych; b) w zbiorze liczb naturalnych. 13. Z jeziora wyłowiono 200 ryb, oznakowano je i wpuszczono do wody. Po pew­ nym czasie wyłowiono 100 ryb, a wśród nich było 8 oznakowanych. Za roz­ sądną ocenę liczby ryb w jeziorze można uznać liczbę ryb, dla której zreali­ zowało się zdarzenie o największym prawdopodobieństwie. Jaka to liczba? § 2.2. Typowe błędy 31 14. Rozdano 52 karty czterem graczom, po 13 kart każdemu. Jaka jest szansa, że a) każdy ma asa? b) każdy ma jakiegoś pika? c) każdy ma jakąś figurę (A, K, D lub W)? 15. Z 24 kart wybieramy 5. Obliczyć szanse otrzymania następujących, układów: para, dwie pary (jeśli ktoś nie czytał przykładu), straight (karty tworzą sekwens, kolory dowolne, byle niejednakowe), trójka, fuli (trójka i para), kareta (cztery karty tej samej wartości), kolor (wszystkie karty w tym samym kolo­ rze, ale nie poker) i poker (sekwens, w tym samym kolorze). 16. W Totolotku losuje się 6 liczb z 49. Jaka jest szansa, że żadne dwie nie będą kolejnymi? 17. W in d a raz jeszcze. Windą jedzie 7 osób, a każda może wysiąść na jednym z dziesięciu pięter. Jaka jest szansa, że na pewnym piętrze wysiądą 3 osoby, na innym 2, i na dwóch piętrach po jednej? Taką konfigurację można zapisać krótko jako 3,2,1,1,0,0,0,0,0,0. Ile jest takich konfiguracji i jakie są szanse pojawienia się każdej z nich? 18. Paradoks kawalera de Mere. Co jest bardziej prawdopodobne: otrzyma­ nie co najmniej jednej jedynki przy rzucie 4 kostek, czy co najmniej raz dwóch jedynek na obu kostkach przy 24 rzutach obu kostek? 19. Zadanie Samuela Pepysa4. Co jest bardziej prawdopodobne: uzyskanie co najmniej jednej szóstki w 6 rzutach, co najmniej dwu szóstek w 12 rzutach, czy co najmniej trzech w 18? 20. Paradoks kawalera de Mere. Jest to przykład wyboru właściwego modelu dla opisu zjawiska. Przy rzucie trzema kostkami sumę 11 i 12 oczek można otrzymać na tyle samo sposobów. Dlaczego częściej wypada suma 11 oczek? 21. Jaka jest szansa, że spotkam na przyjęciu osobę, obchodzącą urodziny tego samego dnia, co ja? Ile osób powinno być na przyjęciu, żeby ta szansa prze­ kroczyła 1/2? 22. Koincydencje. Na imprezie mikołajkowej wszystkie n prezentów pozba­ wiono karteczek z imieniem adresata, losowo wymieszano i rozdano uczestni­ kom. Niech pk oznacza szansę, że dokładnie fc osób dostanie własny prezent. Wyznaczyć pk, k = 0 , 1 ,2 ,. .. , n, a także granice tych prawdopodobieństw, gdy n —> oo. De Mere uważał, że te prawdopodo­ bieństwa powinny być równe, a podobno stwierdził eksperymentalnie, że tak nie jest (por. zad. 10.2.7). Zadanie można kontynuować: 3 kości i 144 rzuty, 4 kości i 6 ■144 = 876 rzutów. 23 . Z 52 kart wybrano 13. Jaka jest szansa otrzymania a) dokładnie siedmiu kart jednego koloru; b) dokładnie sześciu kart jednego koloru? 24. U rny z łóżeczkami. W małym schronisku są 3 pokoje: czteroosobowy, trzyosobowy i dwuosobowy. Dziwnym trafem schronisko jest puste, gdy po­ Ten tytuł to jawia się grupa 6 turystów i natychmiast zajmuje miejsca całkowicie losowo. makabra! Jaka jest szansa, że jeden pokój pozostanie wolny? 25. Pokazać, że dla n > 1 4Samuel Pepys (1633-1703), autor słynnych dzienników, sekretarz Royal Society; py­ tanie zostało postawione Newtonowi. 32 Rozdział 2. Klasyczna definicja prawdopodobieństwa 2 6 . Zn aleźć w zór na: 1( i j + 2W 27. Znaleźć wzór na + 3W + --'+ilW (1) Rozdział 3 Prawdopodobieństwo warunkowe § 3.1. Definicja i przykłady W tym rozdziale wprowadzimy podstawowe pojęcie teorii prawdopodobień­ stwa — prawdopodobieństwo warunkowe. W zasadzie każde zadanie z ra­ chunku prawdopodobieństwa da się sformułować przy użyciu prawdopodo­ bieństwa warunkowego. Jeśli zastanawiam się, jakie są moje szanse dożycia do następnego roku, odpowiedź zależy od mojego wieku, płci, trybu życia, przebytych chorób, itd. Wszelkie tego rodzaju informacje mogą mieć zasad­ 31 grudnia nicze znaczenie. Wiedzą o tym doskonale firmy ubezpieczeniowe: standar­ o godzinie 23:59 dowy kwestionariusz zawiera wiele szczegółowych pytań, a składka zależy te szanse są dość duże. od udzielonych odpowiedzi. W poniższym — dość skrajnym — przykładzie widać, że zajście jakiegoś zdarzenia może zmienić prawdopodobieństwo zajścia innego zdarzenia. P r z y k ła d 1. W jednej urnie są same białe kule, w drugiej same czarne. Wybieramy losowo urnę i wyciągamy z niej kolejno dwie kule. Niech A (odp. B ) oznacza zdarzenie, że pierwsza (odp. druga) wylosowana kula jest biała. P (B ) = 1/ 2, gdyż wybór urny determinuje wybór koloru kuli. Jeśli wiemy, że zaszło zdarzenie A , to druga wylosowana kula będzie biała, więc prawdopodobieństwo zajścia zdarzenia B , gdy wiemy, że zaszło zdarzenie A , oznaczane przez P (B\A), jest równe 1. ■ Oczywiście nie zawsze tak jest, na przykład przy dwukrotnym rzucie sy­ metryczną monetą wypadnięcie orła w pierwszym rzucie nie m a wpływu na prawdopodobieństwo wypadnięcia orła w drugim rzucie. Jeśli wiemy, że zaszło zdarzenie B , to ograniczamy się do zdarzeń elementarnych sprzyjają­ cych B , intuicja podpowiada więc, że dla prawdopodobieństwa klasycznego P (A | 5 ) jest równe liczbie zdarzeń elementarnych sprzyjających A i za­ wartych w B , podzielonej przez liczbę wszystkich zdarzeń elementarnych 33 Rozdział 3. Prawdopodobieństwo warunkowe 34 tworzących B , czyli Prowadzi to do definicji w ogólnym przypadku. D efin ic ja 2 . Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem zajścia zdarzenia B , gdzie P ( B ) > 0, nazywamy liczbę Łatwo sprawdżić, że przy ustalonym B prawdopodobieństwo warunkowe P (A \B ) jest zwykłym prawdopodobieństwem na (ii, T ) , a także na (B , T b ) gdzie T b = {-A H B : A € T } (zadanie 1). P r z y k ła d 3 . Wybieramy jedną rodzinę spośród rodzin z dwojgiem dzieci. Obliczyć prawdopodobieństwo zdarzenia, że wybierzemy rodzinę z dwoma chłopcami, jeśli wiemy, że w tej rodzinie: A jeśli np. a) starsze dziecko jest chłopcem, w iadom o, źe b) jest co najmniej jeden chłopiec. dziecko m a na drugie imię R o z w i ą z a n i e , f2 jest zbiorem jednakowo prawdopodobnych par Franek? Patrz zad. 5. { (c ,c ) ,(c ,d ),{d , c), (d, d )}, gdzie pierwszy element oznacza płeć młodszego dziecka, drugi — starszego. W punkcie a) spodziewamy się odpowiedzi 1 /2 i rzeczywiście x _ 1 P ( { ( c, c)}| {(c ,c), (d, c )}) = f = 2 2 Natomiast odpowiedź do punktu b) może być niespodzianką: ■P({(c>c)}|{(c,c),(a!,c),(c,<i)}) = 1/ 3. ■ Już z tego przykładu widać, że prawdopodobieństwo warunkowe m a wła­ sności, które są dla wielu osób zaskakujące. Niezdawanie sobie z nich sprawy prowadzi do błędnych rozumowań. Pokażemy tu przykład takiej zaskaku­ jącej własności (patrz też zadanie 3). P r z y k ła d 4. P{A \B ) > P {A ) P(B\A) > P ( B ) , gdyż obie strony są równoważne nierówności P ( A fi B ) > P ( B ) P { A ) . (1) §3.1. Definicja i przykłady 35 Jeśli nierówność P(A\B) > P ( A ) będziemy interpretowali w ten sposób, że zajście zdarzenia B zwiększa szansę zajścia zdarzenia A , to (1) oznacza, że zajście zdarzenia B zwiększa szansę zajścia zdarzenia A wtedy i tylko wtedy gdy zajście zdarzenia A zwiększa szansę zajścia zdarzenia B . Jest to sprzeczne z intuicją wielu osób, którym wydaje się, że jeśli B zwiększa szansę zajścia A , to A zmniejsza szansę zajścia B . m Korzystając z (1) widzimy bez obliczeń, że prawdopodobieństwo, iż bry­ dżysta ma asa pik (zdarzenie A ), jeśli wiemy, że ma co najmniej jednego asa (zdarzenie B ) jest większe od bezwarunkowego prawdopodobieństwa, że ma asa pik: mamy P(B|A) = 1 i korzystamy z (1). Jako natychmiastową konsekwencję definicji prawdopodobieństwa warun­ kowego otrzymujemy twierdzenie o mnożeniu, które mówi, jak obliczyć prawdopodobieństwo danego zdarzenia, gdy znamy prawdopodobieństwa warunkowe. T w ie rd zen ie 5. Jeśli zdarzenia A i, A 2 , . . . , A n spełniają warunek p { A l n A 2 r \ ...r \ A n_ i ) > o, to P ( A 1 n J42 n . . . n . A n) = p ^ p ^ I ^ ) P (A „| A i n a 2 n . . . n i n. , ) . D o w ó d . Założenie zapewnia, że wszystkie prawdopodobieństwa warun­ kowe, występujące we wzorze, są dobrze określone. Korzystając z definicji prawdopodobieństwa warunkowego, piszemy prawą stronę równości. Czyn­ niki się skracają i otrzymujemy stronę lewą. ■ Twierdzenie to uzasadnia metodę drzewek stosowaną przy rozwiązywaniu wielu zadań (liczby przypisywane gałęziom to są prawdopodobieństwa wa­ runkowe, a gdy poruszamy się wzdłuż gałęzi, to mnożymy te liczby). Zadania 1. Niech P (B ) > 0. Udowodnić, że P(A\B) jako funkcja A , przy ustalonym B, jest prawdopodobieństwem. 2. Rzucamy trzema kostkami. Jakie jest prawdopodobieństwo, że na żadnej ko­ stce nie wypadła szóstka, jeśli na każdej kostce wypadła inna liczba oczek? 3. Pokazać, że jeśli D zwiększa szansę zajścia A i D zwiększa szansę zajścia B, to wcale z tego nie wynika, że D zwiększa szansę zajścia A fi B. 4. Pokazać, że jeśli C C A n B i P (B — A ) > 0, to P(C|j4) > P{C\A U B ). W szczególności, gdy wiemy, że zaszło A, to prawdopodobieństwo warunkowe, że zaszło A n B jest większe niż gdy wiemy, że zaszło A lub zaszło B lub zaszły oba naraz. 36 Rozdział 3. Prawdopodobieństwo warunkowe Korzystając z tego, widzimy bez obliczeń, że w brydżu prawdopodobieństwo zda­ rzenia, że gracz A ma 4 asy, jeśli wiemy, że ma asa pik, jest większe od praw­ dopodobieństwa, że gracz A ma 4 asy, jeśli wiemy, że ma co najmniej jednego asa. 5. Wybrano losowo rodzinę z dwojgiem dzieci i okazało się, że jedno z dzieci ma na drugie imię Franek. Jaka jest szansa, że drugie dziecko jest chłopcem (nie wykluczamy, że też ma na drugie imię FVanek)? 6. Wiadomo, że P(A\B) = P(B\A), P (A a mamy zawsze P(A) > a! U B) = 1 i P {A n B) > 0. Dla jakich 7. Z talii 8 kart — czterech króli i czterech asów — wybieramy losowo dwie karty. Obliczyć prawdopodobieństwo zdarzenia, że wybrano 2 króle, jeśli wiemy, że: a) wybrano co najmniej jednego króla, b) wśród wybranych kart jest czarny król, c) wśród wybranych kart jest król pik. 8. Z talii 32 kart wyciągamy 5. Niech A — zdarzenie polegające na wyciągnięciu dokładnie trzech króli, B — zdarzenie polegające na wyciągnięciu co najmniej jednego króla, C — zdarzenie polegające na wyciągnięciu króla czarnego, D — zdarzenie polegające na wyciągnięciu króla pik. Znaleźć prawdopodobieństwa P(A\B), P(A\C), P(A\D). 9. Gracz dostał 13 kart z 52, obejrzał 8 z nich i stwierdził, że nie ma asa. Jaka jest szansa, że w ogóle nie ma asa? 10. a) W partii brydża przed licytacją gracz E widzi, że nie ma asa. Jaka jest szansa, że jego partner ma 2 asy? b) Gracz E widzi, że ma 8 pików. Jaka jest szansa, że jego partner nie ma pików? 11. Czterej gracze dostali po 13 kart. Jeden z nich zobaczył przypadkowo u są­ siada a) asa pik; b) jakiegoś asa czarnego koloru; c) jakiegoś asa. Jaka jest szansa, że ten gracz nie ma asa? 1 2 . Jaka jest szansa, że każdy z graczy S, E i W ma co najmniej jednego asa, jeśli wiadomo, że N nie ma żadnego? 13. D ylem at więźnia. Naczelnik więzienia postanowił uwolnić jednego z trzech więźniów, o czym dowiedzieli się zainteresowani, ale nie dowiedzieli się, który z nich będzie wolny. Więzień A ma wśród strażników znajomego, który to wie. Chce go zapytać, ale krępuje się pytać o siebie. Pyta więc o imię jednego z więźniów (różnego od niego), który ma pozostać w więzieniu. Przed zada­ niem pytania ocenia, że każdy z nich ma szanse wyjścia równą 1/3. Myśli, że jeśli strażnik powie na przykład, że zostaje B, to jego szanse rosną do 1/2 (bo zostanie uwolniony A lub C ). Czy popełnia błąd? § 3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa § 3.2. 37 Wzór na prawdopodobieństwo całkowite i wzór Bayesa Jednym z najbardziej użytecznych wzorów związanych z prawdopodobień­ stwem warunkowym jest wzór na prawdopodobieństwo całkowite. Pozwala on obliczać prawdopodobieństwa zdarzeń, które mogą zajść w wyniku re­ alizacji innych zdarzeń, na przykład w doświadczeniach wieloetapowych. Żeby móc zapisywać zwięźle założenia tego i pokrewnych twierdzeń, wpro­ wadzimy pojęcie rozbicia zbioru 0 . D e fin ic ja 1. Rozbiciem przestrzeni ił nazywamy rodzinę zdarzeń które wzajemnie się wykluczają, zaś ich suma jest równa 0 . H ie n Rozbicie nazwiemy przeliczalnym, jeśli zbiór wskaźników I jest przeliczalny; skończonym, jeśli jest skończony. Zbiór przeliczalny może być skończony lub nie. T w ie rd zen ie 2 ( W z ó r na praw dopodobień stw o c a łk o w ite ). Jeżeli { B i , B 2 , ■■■, B n} jest rozbiciem 0, na zdarzenia o dodatnim prawdopodo­ bieństwie, to dla dowolnego zdarzenia A p ía )= ¿P im jP iB i). 2=1 Dowód. n P (A ) = P ( | J ( ¿ n n n Bi)) = ^ P ( A i= 1 n Bi) = i= l J 2 p (A lBi)P(Bi)- ■ ¡= 1 U w a g a 3. Twierdzenie jest prawdziwe i dla rozbicia fi na przeliczalną liczbę zdarzeń B i, i = 1 , 2 , . . . (dowód wymaga zmiany dokładnie trzech znaków drukarskich w podanym rozumowaniu). P r z y k ła d 4. Mamy w urnie b kul białych i c czarnych. Wyciągamy jedną kulę i natychmiast ją wyrzucamy, nie sprawdzając koloru. Jaka jest szansa wyciągnięcia za drugim razem kuli białej? R o z w i ą z a n i e . Niech B i (B2) będzie zdarzeniem polegającym na wy­ ciągnięciu za pierwszym (odp. drugim) razem kuli białej. Analogicznie, niech Ci (C2) będą zdarzeniami polegającymi na wyciągnięciu za pierw­ szym (odp. drugim) razem kuli czarnej. P ( B 2) = P ( B 2\B1)P ( B i ) + P i B ^ P i C ! ) = = 6~ 1 6 c + b c + b -1 , b c = j L = P (B ) m c + b c + b -l c+ b v lh Zdarzenia Bi nazywa się czasem hipotezami. Rozdział 3. Prawdopodobieństwo warunkowe 38 Jest to doskonała ilustracja faktu, że na prawdopodobieństwo nie ma wpły­ wu zajście materialnego zdarzenia, ale tylko wiedza, którą możemy mieć, biorąc pod uwagę jego zajście. W naszym przykładzie na szanse zajścia zda­ rzenia nie miały wpływu poprzednie ciągnienia tak długo, jak nie znaliśmy ich wyniku. P r z y k ła d 5 . W loterii fantowej zorganizowanej na balu szansa wygranej P odobny przykład jest równa p, przegranej — q, a z prawdopodobieństwem r wyciągamy los pojaw ił się już „graj dalej” . Los „graj dalej” wrzucamy z powrotem do urny i dokonujemy wcześniej. ponownego losowania. Jakie jest prawdopodobieństwo wygranej? R o z w i ą z a n i e . Niech A (B , C ) będzie zdarzeniem polegającym na wy­ ciągnięciu losu wygrywającego (odp. przegrywającego, graj dalej), a W — zdarzeniem, polegającym na tym, że wygraliśmy na loterii. P ( W ) = P {W \ A )P {A ) + P ( W \ B )P (B ) + P {W \ C )P {C ) = = 1 •p + 0 •q + P ( W ) • r. Stąd P (W ) = P 1 —r p+ q Pokażemy teraz bardziej wyrafinowaną wersję wzoru na prawdopodobień­ stwo całkowite. T w ie r d z e n ie 6. Niech będzie rozbiciem fi na zdarzenia o dodat­ nim prawdopodobieństwie. Gdy P {B ) > 0, to P (A \ B )= Y , P iA l B D H J P i H il B ) . { i :P { B n H i ) > 0 } D o w ó d . Można przekształcić prawą stronę równości korzystając z definicji prawdopodobieństwa warunkowego i otrzymać stronę lewą. Można też ina­ czej. Przecież P(-\B) = P b(-) jest prawdopodobieństwem. Jest więc sens mówić o P b (A\C) — prawdopodobieństwie zajścia zdarzenia A pod wa­ runkiem zajścia zdarzenia C , gdy wiemy, że zaszło zdarzenie B . Zachodzi p P b {A\h ) - p ^ A n H ) = P { A r i H n B ) /P { B ) p ( H n B ) /P { B ) p(AlHnR) {A\h n B ). p ) Twierdzenie jest wzorem na prawdopodobieństwo całkowite dla prawdopo­ dobieństwa P b (-). ■ P r z y k ła d 7. Grześ i Jaś rzucają na przemian monetą. Jaś wygrywa, gdy Jak m ogłoby pojawią się kolejno O O R , Grześ — gdy R O R . Jakie są prawdopodobieństwa wyglądać ogólne wygranej dla obu chłopców? twierdzenie? 3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa 39 R o z w i ą z a n i e . Zbiór fl tworzą skończone ciągi oriów i reszek, kończące się na O O R lub ROR, oraz ciągi nieskończone (odpowiada to przypadkowi, że gra się nigdy nie skończy). Niech W i (W 2) będzie zdarzeniem, że wygra Jaś (odp. Grześ). Ok (Rk) k = 1, 2, 3, zdarzeniem, że w fc-tym rzucie wypadł orzeł (reszka). Niech x = p ( w 1\o1 n o 3), y = P(W i|0'i n z = r 2), P{wl\R1n o a), w = p ( w 1|E1 n i?2). Korzystając z twiedzenia 6, otrzymujemy układ równań y = P { W 1\ol n R 2 n 0 3) P ( 0 3\01 n r 2) + + P (W i| 0 ! n i i 2 n R 3)P {R 3\o1 n r 2) = — i i 2 2 i analogicznie 1 1 , 1 x = - x + - - l , z = - 2 + 0, w = - w 1 1 + -z . Stąd x = 1, z = w = y = 1 /2 i ze wzoru na prawdopodobieństwo całkowite mamy P {W i) = 5/ 8. Podobne rozumowanie pokazuje, że P { W 2) = 3 /8 . Dlaczego nie 1/2? Wynika stąd, że z prawdopodobieństwem 1 gra zakończy się wygraną jed­ nego z chłopców. ■ Często znamy wynik doświadczenia i pytamy o jego przebieg. Na to pytanie odpowiada wzór (reguła) Bayesa1. T w ie rd ze n ie 8 (W z ó r B ay esa ). Jeśli jest przeliczalnym rozbi­ ciem fi na zdarzenia o dodatnim prawdopodobieństwie i P (A ) > 0, to dla Założenia tego dowolnego j e I mamy twierdzenia są m n )= .. E ie iP iA m P iH iY D o w ó d . Z definicji prawdopodobieństwa warunkowego i wzoru na praw­ dopodobieństwo całkowite mamy P{Hj\A) = P jA n H j) P (A \H j)P (H j) P (A ) Y^iei P{A\H i)P{H i) 1Thomas Bayes (1702-1761) byl pastorem w Turnbridge Wells pod Londynem. Dzięki zainteresowaniom matematycznym został w 1742 roku członkiem Royal Society. Jego „Essay toward solving a Problem in the Doctrine o f Chances” ukazał się dopiero w roku 1763. W zór Bayesa nie został sformułowany przez Bayesa. Taką nazwę nadał mu LapLace. W zadaniu 1 zamieszczamy problem, rozważany w cytowanej pracy. prawie takie same, jak wzoru na prawdopodo­ bieństwo całkowite. Rozdział 3. Prawdopodobieństwo warunkowe 40 W statystyce prawdopodobieństwa hipotez P {H i) nazywamy prawdopodobieństwami a priori (przed doświadczeniem), P(H i\A) prawdopodobień­ stwami a posteriori (po doświadczeniu). Rodzina zdarzeń { H i } i e i zwana jest także zupełnym układem zdarzeń. P r z y k ła d 9 . W zbiorze 100 monet jedna ma po obu stronach orły, pozo­ stałe są prawidłowe. W wyniku 10 rzutów losowo wybraną monetą otrzyma­ liśmy 10 orłów. Obliczyć prawdopodobieństwo, że była to moneta z orłami po obu stronach. A jak zmieni się R o z w i ą z a n i e . Mogliśmy wybrać monetę prawidłową (zdarzenie H\) lub odpowiedź przy z dwoma orłami (zdarzenie H 2 ). Po wykonaniu doświadczenia otrzymaliśmy 100 rzutach i 100 orłach? 10 orłów (zdarzenie A ). Należy obliczyć P ( H 2 \A), co robimy za pomocą wzoru Bayesa: P{H2\A) = t - i ' j 5, ....t ___ ________ l 1 . J L 210 100 ^ 1 100 1193 * 0,91. . Zadania 1. Problem z pracy Bayesa. Liczba p jest szansą sukcesu w schemacie Bernoulliego (patrz 4.2) i została wybrana losowo z przedziału [0,1] (czyli zgodnie z rozkładem jednostajnym; miało to wyrażać „całkowitą niewiedzę” ). Znaleźć P(p € [a, 6] | zaszło m sukcesów w n próbach ). 2. Znaleźć prawdopodobieństwo wybrania przedmiotu I gatunku, jeśli jest 5% braków, a 80% przedmiotów dobrych jest I gatunku. 3. W pierwszej urnie są 3 kule białe i 2 czarne, a w drugiej urnie są 4 czarne i 1 biała. Rzucamy kostką. Jeżeli wypadnie mniej niż 5 oczek, to losujemy kulę z pierwszej urny, jeżeli wypadnie 5 lub 6 oczek, to losujemy kulę z drugiej urny. Jakie jest prawdopodobieństwo wylosowania kuli białej? 4. W urnie są trzy kule białe i dwie czarne. Wyciągnięto jedną kulę z urny i wyrzucono bez oglądania, a potem wyciągnięto następną. Jaka jest szansa, że za drugim razem wyciągnięto kulę białą? 5. Jest n monet, ale k z nich jest asymetrycznych i orzeł wypada na nich z praw­ dopodobieństwem 1/3. Wybrano losowo monetę i w wyniku rzutu wypadł orzeł. Jaka jest szansa, że moneta jest asymetryczna? 6. Wśród 65 monet jest jedna z dwoma orłami. Na wybranej losowo monecie wypadł orzeł 6 razy z rzędu. Jaka jest szansa, że była to moneta z dwoma orłami? 7. W jednej urnie są 2 kule białe i 8 czarnych, w drugiej 3 kule białe i 7 czar­ nych. Która urna jest która, nie wiadomo. Należy wylosować (bez zwracania) po kolei dwie kule tak, by szansa otrzymania dwóch kul białych była naj­ większa. Jaka powinna być procedura losowania? Przedyskutować rozwiąza­ nie w przypadku dowolnych składów urn (fc, białych kul, rii czarnych kul, i = 1,2). § 3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa 41 8. W urnie jest n kul, przy czym n może być równe 2, 3, 4, 5 z jednakowym prawdopodobieństwem. Kule są ponumerowane liczbami od 1 do n. Losujemy kolejno dwie kule bez zwracania i zapisujemy cyfry z tych kul w kolejności wylosowania. Zapisana liczba okazała się być mniejsza od 44. Jakie jest praw­ dopodobieństwo, że n było równe 3? 9. Podczas klasówki z historii Jan i Paweł siedzieli obok siebie. Między innymi mieli napisać dwie daty. Jan je pamiętał, ale nie wiedział jak je przyporządko­ wać. Zapytał Pawła, wiedząc że w 3 przypadkach na 4 Paweł zna prawidłową odpowiedź, chociaż faweł uważał, że zawsze wie dobrze. Jednak Paweł w 1 przypadku na 4 oszukuje Jana. Co jest lepsze dla Jana: posłuchać Pawła, czy odpowiedzieć losowo? 10. W komodach A, B i C są po dwie szuflady. W każdej szufladzie jest jedna moneta, przy czym w komodzie A są monety złote, w C — srebrne, a w B jest jedna moneta złota i jedna moneta srebrna. Wylosowano komodę, na­ stępnie szufladę, i znaleziono tam monetę złotą. Jaka jest szansa, że w drugiej szufladzie jest też moneta złota? 11. Paradoks Simpsona. (To zadanie pokazuje, z jak wielką uwagą i ostroż­ nością powinniśmy stosować wnioskowanie, oparte na prawdopodobieństwie warunkowym). Podać przykład zdarzeń A, B i C, dla których: P{A\B) < P(A\B') (1) i jednocześnie P (A \B n C ) > P (A \B 'n C ), P(A\B n C') > P(A\B‘ n C') (2) Słownie można sformułować paradoks w następujący sposób: Może się zdarzyć sytuacja, że w mieście X jest większa umieralność chorych na gruźlicę niż w mieście Y, a mimo to większa umieralność chorych kobiet jest w mieście Y , a także większa umieralność chorych mężczyzn jest w mieście Y. 12. Mamy w urnie b kul białych i c czarnych. Wyciągamy kolejno kule i odkła­ damy je, nie sprawdzając koloru. Niech C „ będzie zdarzeniem, polegającym na wyciągnięciu za ri-tym razem kuli czarnej. Pokazać, że P (C n) = jeśli n Ą b + c. 13. Schemat Pólya. Mamy w urnie b kul białych i c czarnych. Po wyciągnięciu kuli z urny wrzucamy ją z powrotem i dokładamy jeszcze d kul tego samego koloru. Jakie jest prawdopodobieństwo pk,n wyciągnięcia k kul czarnych w n losowaniach? Zadania 14-15a poświęcone są zadaniu o ruinie gracza. Gracze A i B grają w „orla i reszkę” , rzucając (niekoniecznie symetryczną) monetą. W pojedynczej kolejce gracz wygrywa 1 zł z prawdopodobieństwem p lub przegrywa 1 zł z praw­ dopodobieństwem 1 — p. Gracze mają kapitały początkowe a i 6, o + b = z. Zasadniczo gra kończy się, gdy jeden z graczy zostanie zrujnowany. Gracze mogą jednak umówić się inaczej (np. wycofywać się z gry w dogodnym dla siebie momen­ cie). Wyniki poszczególnych kolejek są niezależne, i choć pojęcie niezależności nie 42 Rozdział 3. Prawdopodobieństwo warunkowe zostało formalnie wprowadzone, nie jest trudno intuicyjnie umotywować sposób zastosowania wzoru na prawdopodobieństwo całkowite do rozwiązania zadania. Roboczo przyjmiemy, że zdarzenia A i B są. niezależne, gdy P(A \B ) = P (A ), albo (nieco ogólniej) gdy P ( A n B ) = P ( A ) ■P (B ). 14. Znaleźć prawdopodobieństwo qa ruiny gracza A, który zaczyna grę z kapi­ tałem a zł, a kończy gdy wszystko straci (ruina) lub gdy będzie miał c zł (a Sj c). 15. Zadanie o ruinie dla gracza o nieograniczonym kapitale. Gracz A ma nieograniczony kapitał i gra aż do momentu w którym wygra b zł. Znaleźć prawdopodobieństwo wygranej gracza. A. 15a. Pijak (i to pijany) znajduje się 3 kroki od przepaści. Szansa wykonania kroku w kierunku przepaści wynosi 1/3, w przeciwnym — 2 /3 , kroki są nieza­ leżne. Jaka jest szansa ocalenia? Zakładamy, że pijak spada, gdy znajdzie się na krawędzi przepaści. 16. Król Artur urządza turniej rycerski, w którym rycerze spotykają się (jakże by inaczej?) systemem turniejowym. Obaj uczestnicy każdego pojedynku mają równe szanse na zwycięstwo. Wśród 2” uczestników jest dwu braci. Jakie jest prawdopodobieństwo, że się spotkają w pojedynku? 17. Jest n osób: A i , A 2 , - •., A n. Osoba A¡ dostaje kartkę ze znakiem + . Z praw­ dopodobieństwem p, 0 < p < 1, zmienia znak na przeciwny i podaje kartkę osobie A 2 , która z prawdopodobieństwem p zmienia znak na przeciwny i po­ daje kartkę osobie A 3 , itd. Na zakończenie, po oddaniu kartki przez osobę A n, zaobserwowano znak + . Jakie jest prawdopodobieństwo, że osoba A i nie zmieniła znaku? Jest to wersja zadania o kłamcach: Każda, z 4 osób A , B, C, D mówi prawdę z prawdopodobieństwem 1/3. Osoba A wypowiedziała pewne stwierdzenie, a następnie B powtórzyła je C, C powtó­ rzyła je D, a D powiedziała, że A mówi prawdę. Jakie jest prawdopodobieństwo, że osoba A rzeczywiście wypowiedziała zdanie prawdziwe? Na dwóch następnych zadaniach można wypróbować swoją intuicję, udzielając odpowiedzi bez rachunków. 18. W mieście działają dwa przedsiębiorstwa taksówkowe: Zielone Taxi (85% samochodów) i Niebieskie Taxi (15%). Świadek nocnego wypadku zakończo­ nego ucieczką kierowcy twierdzi, że samochód był niebieski. Eksperymenty wykazały, że świadek rozpoznaje kolor poprawnie w 80% przypadków, a myli się w 20% przypadków. Jaka jest szansa, że w wypadku uczestniczyła niebie­ ska taksówka? 19. Test na rzadką chorobę, którą dotknięta jest średnio jedna osoba na tysiąc, daje fałszywą pozytywną odpowiedź w 5% przypadków (u osoby chorej daje zawsze odpowiedź pozytywną). Jaka jest szansa, że osoba, u której test dał odpowiedź pozytywną, jest faktycznie chora? Zakładamy, że nic nie wiemy o innych możliwych objawach u badanej osoby2. 2Zad. 18 i 19 na podstawie: Deborah J. Bennett, Randomness, Harvard Univ. Press, 1998. Rozdział 4 Niezależność zdarzeń §4.1. Definicja i przykłady Niezależność jest kluczowym pojęciem, odróżniającym rachunek prawdo­ podobieństwa od innych działów matematyki, badających własności prze­ strzeni mierzalnych. Gdy A i B są zdarzeniami, to jest naturalne powiedzieć, że zdarzenie B nie zależy od zdarzenia A , gdy wiedza o tym, że zaszło A nie ma wpływu na prawdopodobieństwo zajścia B . Przy założeniu P {A ) > 0 oznacza to, że P(B\A) = P (B ), czyli P (A f) B ) = P (A )P (B ). Analogicznie, A nie zależy od B , gdy P(A\B) = P (A ), czyli znów P(AC\B) = P (A )P (B ). Stąd definicja: D efin icja 1. Zdarzenia A i B nazywamy niezależnymi (statystycznie nie­ zależnymi), gdy P (A fi B ) = P (A )P (B ). U w a g a 2. Zdarzenia rozłączne A i B są niezależne wtedy i tylko wtedy, gdy P {A ) = 0 lub P (B ) = 0. Zdarzenia niezależne są na egzaminach często Relacja niezależności jest relacją symetryczną (używane w języku potocz­ mylone nym pojęcie niezależności nie ma tej własności, np. mój termin powrotu z rozłącznymi. z wycieczki w wysokie góry zależy od pogody, natomiast pogoda jest nie­ I zawsze powoduje to ocenę zależna od terminu powrotu). Probabilistyczne „nie zależy” nie jest równo­ niedostateczną. ważne intuicyjnemu „nie ma wpływu na wynik” . Nie zawsze na podstawie opisu słownego zdarzenia można się zorientować, czy zależność istnieje, czy nie. Oto przykład: P r z y k ła d 3. Wybieramy jedną rodzinę spośród rodzin, mających n dzieci. Niech zdarzenie A polega na tym, że w losowo wybranej rodzinie jest co najwyżej jedna dziewczynka, B — w rodzinie są dziewczynki i chłopcy. Czy zdarzenia A i B są niezależne? 43 Rozdział 4. Niezależność zdarzeń 44 R o z w i ą z a n i e . Przestrzeń probabilistyczną tworzą ciągi n-elementowe — uporządkowane według starszeństwa ciągi dzieci. W ted y wszystkie zdarze­ nia elementarne są jednakowo prawdopodobne i mamy = 1 + n, = 2n, # A = = 2 n — 1 — l i # ( A n B ) = r* (dokładnie jedna dziewczynka). Zatem P (A n B) = P (A )P (B ) ^ . ? L z ł = 2 . & i + n = 2 n_1 ^ n = 3 Jak widać, zdarzenia mające identyczny opis słowny są raz zależne, a raz nie. ■ Definicja niezależności n zdarzeń musi być, niestety, bardziej skompliko­ wana, co ilustrują dwa przykłady zamieszczone po definicji. D efin ic ja 4 . Zdarzenia A i , . . . , A n nazywamy niezależnymi, gdy P ( A h n A i2 n . . . n A ik) = p { A h ) . . . p ( A ik). dla 1 < ¿x < ¿2 < ••• < ik ^ n, k = 2 , 3 , . . . , n. P r z y k ła d 5. D la n ^ 3 z niezależności zdarzeń parami nie wynika ich niezależność. Niech Q = { w j , . . . , 0)4 } , P(wj) = = 1 , 2, 3. W ted y P (A i) = |, A j = P( A* n A j) = P (u 1 ) = | dla i / i= j , więc Czasem, dla podkreślenia, że zdarzenia są parami niezależne. Ale nie chodzi o niezależność P {A x n A 2 n Aa) = P ( W1) = i ^ i = P ( A ! ) P ( A 2)P ( A 3). parami, mówi się o wzajemnej niezależności W wersji mniej abstrakcyjnej da się to opowiedzieć tak: w urnie są cztery zdarzeń. kule — niebieska, zielona, czerwona i pstrokata (niebiesko-zielono-czerwo- na). Szansa wyciągnięcia kuli z kolorem niebieskim (a także z zielonym lub czerwonym) wynosi 1/ 2. Prawdopodobieństwo zajścia każdej pary zdarzeń wynosi 1 /4 i jest takie samo, jak szansa zajścia wszystkich trzech naraz. ■ P r z y k ła d 6 . Z tego, że pewne zdarzenia A , B , C spełniają warunek P ( A f ) B n C ) = P (A )P (B )P (C ) wcale nie wynika ich niezależność parami. Niech na przykład fi = [0, l ] 2, T — S([0, l]2), P = A. Jak łatwo zauważyć, zdarzenia A jeęt miarą Lebesgue’a. A = B = { ( z , y): x > y } D [0, l]2, C = {( x , y ) : x < \ ] n [0, l ] 2 spełniają żądaną równość, a żadne dwa nie są niezależne. ■ Żeby skorzystać z definicji niezależności, należy sprawdzić 2n — n — 1 rów­ ności, ale na szczęście można to na ogół zrobić przy pomocy jednego rozu­ mowania, jak pokazuje następny przykład. §4.1. Definicja i przykłady 45 P r z y k ła d 7 (n zd arzeń n iezależnych). Rozpatrzmy n-krotny rzut mo­ netą. Niech zdarzenie A k polega na tym, że w fc-tym rzucie wypadł orzeł. Zdarzenia A\, A 2 , ■■■, A n są niezależne. W tym doświadczeniu Q = {w = ■. , u n):LJi e { 0 , R } } , Zatem P ( A k) = - = P (u ) = i , A k = {u>:uik = O }. A. Ponieważ A {1 o A {2 n . . . n A{k — ^12 to dla dowolnego k i dowolnych 1 < ii < i2 < . . . < i k P ( A h n A h n . . . n A ik) = ~ — O}? n mamy: = ± : = P (A h ) P (A i2) . . . P (A in), wobec tego zdarzenia A i, A 2, ■■■, A n są niezależne. ■ Jeśli zdarzenia A \ ,. . . , A n są niezależne, to po zamianie niektórych z nich na zdarzenia przeciwne niezależność zachowa się. Rozwijając tę obserwację otrzymujemy stwierdzenie, które pozwoli na uproszczenie dowodu niezależ­ ności z przykładu 7. Przyjmiemy konwencję użytą do zapisu składowych we wzorze włączeń i wyłączeń: A ° = A , A 1 = A'. S tw ierd zen ie 8 . Następujące warunki są równoważne: (i) Zdarzenia A i , . . . ,A n są niezależne, (ii) Dla każdego ciągu £ 1 , . . ■£n, gdzie B i = A j 1, . . . , B n — A s ą € { 0 , 1 } , i = 1, 2 , . . . n, zdarzenia niezależne, (iii) Dla każdego ciągu £ i , . . . e n, gdzie e* e { 0 , 1 } , i = 1 , 2 , . . . n, zachodzi równość P (A \■ n . . . n 4 ' ») = P (A \l ) • . . . •P ( A ^ ) . (i ) D o w ó d , (i) => (ii). Skorzystamy z zasady indukcji. Dla n = 2 mamy P ( A i n A '2) = P ( A i \ A 1 n A 2) = = P ( A i) - P (A i n A 2) = P (A i)[l - P ( A 2)] = P (A i)P (A '2), więc A i, A!2 są niezależne. Na mocy symetrii także A [, A 2 są niezależne. Stosując jeszcze raz powyższe rozumowanie do A [ i A 2, otrzymujemy nie­ zależność A i, A 2. Teraz zakładamy, że stwierdzenie jest prawdziwe dla n i dowodzimy je dla n + 1 , stosując jeszcze raz indukcję, tym razem ze względu na k — liczbę zdarzeń zamienionych na przeciwne. Rachunki są podobne do pokazanych powyżej — zachęcamy do samodzielnego ich przeprowadzenia. Rozdział 4. Niezależność zdarzeń 46 (ii) => (iii). Oczywiste, (iii) => (i). Wykażemy, że równość (1) jest speł­ niona przez (n — 1) zdarzeń: A f 1, . . . , A ^ S i - Otóż P (A \ 1 n = A e¿ ~ ¡ ) = ... n p(A\1 n . . . n A^Xi n A ° ) + p(A\i n . . . n A ^ 1 n A1) = = P ( A f ‘ ) • . . . •P ( A ^ ) ■P (A °) + P ( A \‘ ) . . . . . P ( A e n- ' ) ■P ( A ') = = P (A \ i) ■ ... ■P ( A e nn S l). Argument indukcyjny i odpowiednie przenumerowanie zbiorów pokazują, że (1) zachodzi dla dowolnych k zdarzeń A ¿in , . . . , A ^ , 1 < i\ < . . . < ik < n, skąd już wynika (i), m Stwierdzenie 8 można w oczywisty sposób nieco wzmocnić: mianowicie każde ze zdarzeń B¿ z warunku (ü ) może być także równe 0 lub fi, czyli po prostu B i 6 cr(Ai) = { A j, A ¿, 0, fi } . Moglibyśmy zatem powiedzieć, że cr-ciała generowane przez niezależne zdarzenia A j są także niezależne. O to formalna definicja cr-ciał niezależnych w przestrzeni (fi, T , P ): D e fin ic ja 9 . a-ciala ■■■ , ( T j C T dla każdego j ) są niezależne wtedy i tylko wtedy, gdy dla dowolnych A j € T j , j = 1 , . . . , n jest P(Ai n . . . n A n) = p(Ai) •... • p(An). Stwierdzenie 8 można wyrazić w tym języku, a mianowicie S tw ie rd z e n ie 10 . Zdarzenia A i , A 2 , . . . , A n są niezależne wtedy i tylko wtedy, gdy cr(Ai), . . . , a ( A n) są niezależne, gdzie a(A i) = { Aj , A'it 0, fi} są a-ciałami generowanymi przez A ¡. Prawdopodobieństwo sumy zdarzeń P(U™_i A¿) obliczamy na ogół ze wzoru włączeń i wyłączeń (twierdzenie 1.1.6). Dla zdarzeń niezależnych można to zrobić prościej, korzystając z praw de Morgana i stwierdzenia 8: S tw ie rd z e n ie 1 1 . Gdy A i , . . . , A „ są zdarzeniami niezależnymi, to P ( [ j A t) = l - p ( ( \ A ! ^ l ~ f [ ( l - P ( A i)). \=i ' \=i ' »=i Rozważa się też nieskończone ciągi zdarzeń niezależnych. D e fin ic ja 1 2 . Zdarzenia A i , A 2 , . . . nazywamy niezależnymi, gdy dla każ­ dego n zdarzenia A i , A 2 , . •■, A n są niezależne. §4.1. Definicja i przykłady 47 P r z y k ła d 13 (N iesk oń czon y ciąg zd arzeń niezależn ych). Niech (Q ,T , P) = ([0,1], £([0, 1]), A). Dla każdej liczby x € [0,1] określmy jej rozwinięcie dwójkowe: x = = 0 ,d i( x ) ,d 2(x) , . . . n= 1 Dla liczb x mających dwa różne rozwinięcia bierzemy z definicji rozwinięcie nieskończone (tj. zawierające nieskończenie wiele jedynek), więc na przy­ kład | = 0 , 0 111 1. . . (a nie 0, 1000. . . ). Niech A n = { x e [0,1]: dn(x) = 0 }, n = 1, 2, — W tedy P { A n) = |. Zbiory A i i A 2. Ponieważ Ai n a 2 n . . . n A n = {x e [o, 1]: <¿¿(2:) = o, i = 1 , 2 , . . . , « } = 2n to P (A x n A 2 f i . . . fi A n) = ^ . Ogólniej, [0,!]:*(*) = £i)i = 1,2,.. . , n } = f £ g 2* , x :' g 2l + ^ ¿= 1 ¿=1 gdzie Ei = 0 lub £i = 1 (przedział jest z jednej strony domknięty, bo roz­ winięcie jest nieskończone). Wobec tego P (B i fi B 2 f i . . . fi B n) = ^ , gdzie Bi = A i lub B, = A\. Niezależność zdarzeń A i, A 2, . . A n wynika teraz ze stwierdzenia 8, bowiem jest spełniony warunek (ii). W efekcie ciąg jest ciągiem zdarzeń niezależnych. ■ Zadania 1. Pokazać, że wylosowanie z talii 52 kart asa i wylosowanie karty czerwonej (kara lub kiera) są zdarzeniami niezależnymi. 2. A, B są niezależne i A U B = fi. Wykazać, że P (A ) — 1 lub P (B ) = 1. 3. Czy z tego, że A, B, C są parami niezależne wynika, że a) A<~\B i C, b) A u B i C są niezależne? 4. Zdarzenia A i, A 2 , . . . A 10 są niezależne i mają jednakowe prawdopodobień­ stwo p. Jaka jest szansa, że zajdzie dokładnie jedno? Rozdział 4. Niezależność zdarzeń 5. Zdarzenia A i , .. ■, A n są niezależne i mają jednakowe prawdopodobieństwo p. Jaka jest szansa, że a) zajdą wszystkie naraz? b) nie zajdzie żadne z nich? c) zajdzie dokładnie jedno? 6. Adam, Bolek i Czesio rzucają po kolei monetą. Wygrywa ten, który pierwszy wyrzuci orła. Znaleźć szanse wygranej dla każdego z graczy. 7. Tenisista musi wygrać dwa mecze pod rząd z trzech. Może grać a) z lepszym od siebie, ze słabszym i znów z lepszym, b) ze słabszym, z lepszym i znów ze słabszym. Który wybór daje większe szanse, jeśli wyniki kolejnych meczów są niezależne? 8. W meczu piłki nożnej z prawdopodobieństwem A wygrają goście, | gospo­ darze, a z prawdopodobieństwem | będzie remis. Obliczyć prawdopodobień­ stwo, że w 14 meczach będzie 7 zwycięstw gospodarzy i 3 remisy. 9. Na rysunku poniżej widać dwa systemy niezależnie działających bezpieczni­ ków. Prawdopodobieństwo przepalenia się bezpiecznika przed upływem czasu T jest równe p. Obliczyć prawdopodobieństwo ciągłego przepływu prądu a) z A do B, b) z C do D w czasie T. 10. Niech on = min(p„, 1 —pn), gdzie pn 6 [0,1]. Wykazać, że jeśli a’>Jest rozbieżny, to nie istnieje przestrzeń probabilistyczna dyskretna, zawierająca niezależne zdarzenia A i , A 2, . ■■ takie, że P ( A „ ) = pn. U waga. Z tego zadania wynika, że przestrzeń dyskretna nie może być modelem dla nieskończonego ciągu rzutów monetą. 11. Owad składa k jajeczek z prawdopodobieństwem ^ e ~ A, A > 0. Potomek wylęga się z jaja z prawdopodobieństwem p, niezależnie od innych. Znaleźć prawdopodobieństwo, że liczba potomków będzie równa l. 12. Adam, Barnaba i Czesław strzelają do tarczy; szansa trafienia wynosi p. Wia­ domo, że dwóch trafiło. Wybrać właściwą odpowiedź: a) jest większa szansa, że Czesław trafił; b) jest większa szansa, że Czesław nie trafił; c) szanse są równe. 13. Następstw a pozorne. Towarzystwo ubezpieczeniowe ma stałych klientów, którzy powodują — w ciągu roku — wypadek z prawdopodobieństwem 0,01 §4.2. Schemat Bernoulliego 49 i 15% nowych klientów, powodujących wypadek z prawdopodobieństwem 0,4. Prawdopodobieństwo, że dany klient będzie miał w ciągu roku wypadek jest dla niego niezmiernie, niezależnie od tego czy miał wypadek poprzednio czy nie. Zatem prawdopodobieństwo, że wybrany losowo klient będzie miał wy­ padek jest równe 0,0685, a prawdopodobieństwo, że będzie miał drugi, jeśli wiemy, że miał pierwszy, jest równe 0,3516 (warto to obliczyć). Model za­ kłada, że nie ma następstw, a pomimo to spowodowanie wypadku zwiększa szanse powtórnego wypadku. Wyjaśnić to. 14. W ariant poprzedniego zadania. Kierowcy dzielą się na ostrożnych (jest ich 95%, i taki kierowca powoduje w ciągu roku wypadek z prawdopodobień­ stwem 0,01) i piratów (jest ich 5%, szansa na wypadek w ciągu roku — 0,5). Wybrany losowo kierowca nie spowodował wypadku w roku 1998 ani 1999. Jaka jest szansa, że spowoduje wypadek w roku 2000? §4.2. Schemat Bernoulliego Jak wygląda przestrzeń probabilistyczna dla n doświadczeń, wykonywanych niezależnie, gdzie z j-ty m doświadczeniem związana jest przestrzeń proba­ bilistyczna Wynikiem n doświadczeń będzie ciąg ( w i , . . . , u n), gdzie ojj jest wynikiem j-teg o doświadczenia. Zatem fl = Oi x Q2 x . . . x On. Jasne, że T = T\ ® ® T n. Prawdopodobieństwo P powinno być takie, że prawdopodobieństwo zajścia zdarzenia A j € T j jest równe P j(A j), tzn. P ( A i x A 2 x . . . x A n) = P (A i x i l 2 x . . . x Qn) x . . . . . . x P (Q 1 x . . . x A n) = = P i(A 1) - P 2(A 2) - . . . - P n(A n). Jak wiadomo z analizy matematycznej, istnieje dokładnie jedno takie praw­ dopodobieństwo: jest ono produktem miar P\ , . . . , Pn, tzn. P = Pi ® P2 ® ® Pn- Szczególnie ważnym przykładem takiej sytuacji jest schemat Bernoulliego. Schematem Bernoulliego będziemy nazywać ciąg niezależnych powtórzeń tego samego doświadczenia o dwu możliwych wynikach, nazywanych umow­ nie sukcesem i porażką. Poszczególne doświadczenia będziemy nazywać pró­ bami Bernoulliego. T w ie rd zen ie 1. Prawdopodobieństwo zajścia dokładnie k sukcesów w sche­ macie Bernoulliego n prób z prawdopodobieństwem sukcesu w pojedynczej próbie równym p wynosi (£)pfc( l —p)n~k. D o w ó d . Umówmy się, że 1 oznacza sukces, 0 — porażkę. W tedy n = { 0 ,1F , P ( { ( 0 l , . . . , o»)}) = p“ > + - + « - ( 1 - p ) » - ( « i + ~ + « »). R ozdział 4. Niezależność zdarzeń 50 Jeśli Ak jest zdarzeniem, polegającym na zajściu k sukcesów, to £ P {A k) = P ( ( a 1, . . . , a n) ) = ( f \ p k( l - p r ~ k.m (a1,...,a„):ai+...+a„=/c Pojawiają, się naturalne pytania: jak skonstruować przestrzeń probabili­ styczną dla schematu Bernoulliego o nieskończonej ilości prób? W szcze­ gólności, jak zbudować ii dla nieskończonego ciągu rzutów monety syme­ trycznej? Zdarzeniem elementarnym jest ciąg (w j)?^ , gdzie Wj = 0 lub 1. Zatem zdarzeń elementarnych jest nieprzeliczalnie wiele. Koncepcja przeli­ czalnego zbioru zdarzeń elementarnych już nie wystarczy (patrz też zadanie 10 z poprzedniego paragrafu). P r z y k ła d 2. Podamy konstrukcję modelu nieskończonego ciągu niezależ­ nych prób Bernoulliego na przestrzeni probabilistycznej ((0,1], B ((0,1]), A). Unikamy w ten Musimy określić dla każdego x € (0,1], czy zaszedł sukces czy porażka sposób rozważania w ra-tym doświadczeniu, n = 1 , 2 . . . i tak, by to była realizacja doświad­ nieskończonych czeń niezależnych. Zrobimy to indukcyjnie. Będziemy dzielić odcinek (0,1] produktów miar — por. uwaga 5. na odcinki lewostronnie otwarte i prawostronnie domknięte. W celu okre­ ślenia wyniku pierwszego doświadczenia podzielimy odcinek (0,1] na dwa przedziały: / j 1^, pierwszy o długości p, drugi o długości 1 — p ( gdy x e j ^ , to uznajemy, że w pierwszym doświadczeniu zaszedł sukces, gdy x e Ą 1^, to porażka). Następnie (patrz rysunek) każdy z nich znowu dzielimy na dwa przedziały: l [ 2l , Ą 2l oraz o długościach odpowiedniop2 i p ( l —p) oraz (1 —p)p i (l-p )(l-p ). 1— h Kontynuujemy konstrukcję indukcyjnie. Zakładamy, że mamy podział (0,1] na 2n przedziałów e ° długościach > \ 1 4 1 , .. ., J = - p ) - £ L > . (1) Dzielimy teraz każdy z nich na dwa przedziały, a mianowicie 4 ^ 2 , - . ¡„ dzielimy na dwa przedziały ;„,i i •p oraz i 4 " L . . , d • t1 - ?)• o 0 długościach odpowiednio §4.2. Schemat Bernoulliego 51 W wyniku konstrukcji otrzymujemy ciąg podziałów odcinka (0,1] G { 0 , 1 } } , « = 1,2,... taki, że zachodzi (1) i każdy następny podział jest drobniejszy od poprzed­ niego. Każdy punkt x 6 (0,1] wyznacza jednoznacznie nieskończony ciąg zer i je­ dynek: ( x i ,x 2 , . . . ) taki, ze x n = k, gdy x € 4 "? .. * h (x n jest dobrze określone, bo odcinki otrzymane w n-tym kroku są rozłączne i ich suma jest Patrz zad. 10 całym odcinkiem (0,1]). Taki ciąg odpowiada realizacji schematu Bernoul­ liego nieskończenie wielu doświadczeń, gdzie x n = 1 informuje, że w n-tym doświadczaniu zaszedł sukces, zaś x n = 0 — że zaszła porażka. Niech Ak = {x :x k = 1} = 4 ^ .... ifcl)1 Trzeba pokazać, że: 1. P(Afc) = |Afc| = p dla każdego fc > 1. 2. Doświadczenia są niezależne. Ad. 1. Zobaczmy, jak powstaje zbiór Ak\po dokonaniu (k —l)-szego po­ działu odcinka (0,1] każdy odcinek z tego podziału dzielimy w proporcji p : 1 — p i wybieramy wszystkie lewe odcinki powstałego fc-tego podziału. Jeśli ktoś woli rachunki: p (A fc) = p ( u lifL-fc-Li) = Ad. 2. Na mocy definicji wystarczy pokazać, że wyniki doświadczeń od 1 do n-tego są niezależne. W tym celu sprawdzimy, że jest spełniony warunek (iii) ze stwierdzenia 4.1.8. Z (1) wynika, że dla dowolnego ciągu e l t . . . e n, gdzie £i e { 0 , 1 } , 1 < i < n, jest: p (A \ i n . . . n A e nn) = P ({ x : x i = l - e i , . . . , x n = i - £„ } ) = = P (A ?)-...-P (^ ). Krótko mówiąc, zdarzenie A j 1 fi . . . fi A£" jest pojedynczym odcinkiem z n-tego podziału, który ma długość „taką, jak trzeba” . Udowodniliśmy zatem, że ((0, lj, B (( 0 ,1]), A)-może być przestrzenią proba­ bilistyczną dla nieskończonego ciągu prób Bernoulliego. Rozdział 4. Niezależność zdarzeń 52 Dla przykładu obliczmy w tej przestrzeni prawdopodobieństwo, że w n pierwszych próbach zajdzie dokładnie k sukcesów. P(zaszło dokładnie k zdarzeń spośród A i, A 2 , .. ., A n) = = ( ^ p ( A 1 n A 2 n . . . n A k n Ą + 1 n . . . n A ,n) = ( ^ j p k( i - p T - k. Przedstawiona tu konstrukcja jest co prawda żmudna, ale za to niezależ­ ność odpowiednich zdarzeń jest bezpośrednio widoczna (z innym podej­ ściem można się zapoznać w zad. 11 i 12). Drobną wadę tej konstrukcji widać, gdy rozpatrzymy zdarzenia „wszyst­ kie próby zakończyły się sukcesami” i „wszystkie próby zakończyły się po­ rażkami” . Czytelnik zechce samodzielnie obliczyć ich prawdopodobieństwa i zapoznać się z zadaniem 10. ■ U w a g a 3. Przypadek szczególny: p = \ odpowiada przestrzeni probabi­ listycznej dla nieskończonego ciągu rzutów symetryczną monetą. W ted y w konstrukcji w (n + l)-szym kroku dzielimy przedziały z n-tego podziału na połowy. Mogłoby się wydawać, że przy rzutach symetryczną monetą liczba orłów i liczba reszek nie powinna różnić się znacząco, że powinna być mniejsza od pewnej ustalonej liczby, np. 1 miliona. Ale tak nie jest, co pokazuje poniższy przykład. P r z y k ła d 4 . Rzucamy 2n razy symetryczną monetą. Niech 0 2n (odpo­ wiednio R 2n) oznacza liczbę orłów (odpowiednio reszek). Dla ustalonego k obliczyć łimn_*oo P(\02n - R2n\ < 2 k). R o z w i ą z a n i e . Ponieważ 0 2n + R 2n = 2n, to n+k P( \ 0 2 n - R 2 n \ < 2 k ) = P ( \ 0 2 n - n \ < k ) = J2 P ( 0 2n = l) = l = n —k m ~ —k \ x / N ' Korzystając ze wzoru Stirlinga, mamy an w ^ = A i granica prawdopodo- wzór Stirlinga: bieństw jest równa zeru. ■ U w a g a 5. Analogicznie jak w przypadku skończonej liczby doświadczeń można pokazać, że dla nieskończonego ciągu niezależnych doświadczeń prze­ strzeń probabilistyczna jest równa fi = iii x O 2 x . . . , J7 jest cr-ciałem ge­ nerowanym przez cylindry, tzn. przez zbiory postaci A i x Ą x . . . , gdzie §4.2. Schemat Bernoulliego 53 A i € T i oraz A i = poza skończoną liczbą wskaźników i, natomiast P określone na cylindrach wzorem oa P ( A i x j4.2 x . . . ) = JJ P ( A i ) i= i (dobrze określone, bo P ( A i ) = 1 poza skończoną liczbą indeksów) rozszerza się na T (tutaj trzeba skorzystać z twierdzenia z analizy o nieskończonym produkcie miar). Zadania 1. Rzucono 10 razy kostką. Jaka jest szansa otrzymania a) 6 oczek co najmniej raz? b) 5 oczek dokładnie 3 razy? 2. Dwie osoby rzucają po n razy symetryczną monetą. Jakie jest prawdopodo­ bieństwo, że każda z nich otrzyma tę samą liczbę orłów? 3. Rzucono 10 razy symetryczną kostką. Jakie jest prawdopodobieństwo, że w pierwszym rzucie otrzymano szóstkę, jeśli wiadomo, że a) otrzymano 3 szóstki, b) w następnych 9-ciu rzutach otrzymano szóstki? 4. Obliczyć prawdopodobieństwo otrzymania parzystej liczby sukcesów w ciągu n prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p. *Ek) Jakie jest prawdopodobieństwo, że liczba sukcesów w schemacie Bernoulliego n prób z p = i będzie podzielna a) przez 3? b) przez 4? Czy można znaleźć granice tych prawdopodobieństw, gdy n —> oo? 6. Zadanie Banacha o zapałkach. Pewien matematyk nosi w kieszeniach (lewej i prawej) po jednym pudełku zapałek. Ilekroć chce zapalić papie­ rosa, sięga do losowo wybranej kieszeni. Jaka jest szansa, że gdy po raz pierw­ szy wyciągnie puste pudełko, w drugim będzie k zapałek? (k = 0, 1, 2 . . . ,m , gdzie m jest liczbą zapałek w pełnym pudełku; zakładamy, że w chwili po­ czątkowej matematyk ma dwa pełne pudełka). 7^) Zadanie o podziale stawki1. Szansa wygrania pojedynczej partii gry przez - gracza A wynosi p, i do zakończenia całej gry brakuje mu o wygranych partii; jego przeciwnikowi brakuje b wygranych partii. Niestety, pojedynek musi zostać przerwany. Jak sprawiedliwie podzielić stawkę? 8. Student musi poprawić oceny niedostateczne z dwóch przedmiotów. Szansa poprawienia oceny z pierwszego przedmiotu w jednej próbie wynosi p, a dru­ giego — q. Żeby móc poprawiać drugą ocenę, trzeba najpierw poprawić pierwszą. Poszczególne próby poprawiania są niezależne. Wiadomo, ze po piętnastu próbach poprawienia oceny student jeszcze nie poprawił oceny 1 Zadanie to w wersji symetrycznej byio przedmiotem korespondencji Pascala z Fermatem w roku 1654 i uznawane jest za początek teorii prawdopodobieństwa. Rozdział 4. Niezależność zdarzeń 54 z drugiego przedmiotu. Jaka jest szansa — pod tym warunkiem — że nie poprawił jeszcze oceny z pierwszego przedmiotu? 9. Jakie jest prawdopodobieństwo, że przy wielokrotnym rzucaniu parą kostek sześciennych suma oczek 8 wypadnie przed sumą oczek 7? 10. Czy w modelu z przykładu 2 każdemu nieskończonemu ciągowi prób Bernoulliego odpowiada liczba z przedziału (0,1]? Udowodnić, że tak nie jest. Scharakteryzować takie ciągi prób i wykazać, że nie prowadzi to do istotnych trudności, bo prawdopodobieństwa wszystkich zdarzeń są takie, jak trzeba. Inny opis konstrukcji z przykładu 2. Niech przekształcenie T : [0,1] —►[0,1] będzie dane wzorem ( dla 0 < x ^ p r W = { f e dJap<,<l. Oznaczmy T n = T o T o . . . o T. Niech V1 "V n razy . _ f I ■'W ~ \ 0 dla 0 < x < p dlap<a:<l. *1 1 . Wykazać, że zdarzenia A n = { u e [0, 1]: / o T n(u ) = 1}, n = 1, 2, . . . są niezależne. Jeśli Czytelnik już wie, co to jest zmienna losowa, może rozwiązać następujące zadanie: *1 2 . Niech / , T będą jak w poprzednim zadaniu. Udowodnić, że ( / o T n) jest ciągiem niezależnych zmiennych losowych, przy czym dla każdego n £ N P { f o r = 1) = p, P ( f o T n = 0) = 1 —p. § 4.3. Lemat Borela-Cantelliego Lemat Borela-Cantelliego jest narzędziem pomocniczym, z którego będzie­ my w dalszym ciągu wielokrotnie korzystać przy badaniu własności zacho­ dzących z prawdopodobieństwem 1. Dostarcza on informacji o prawdopo­ dobieństwach zdarzeń typu „zaszło nieskończenie wiele zdarzeń A n” . Zaczniemy od definicji granicy górnej i dolnej ciągu zdarzeń (A n)™= 1. D e fin ic ja 1. Granicą górną i odp. dolną ciągu zdarzeń (A n) nazywamy zdarzenia lim sup A n = OO OO P| (J A n, m —1 n = m lim inf A n = OO co (J Q m =1 n=m A n. §4.3. Lemat Boreła-Cantelliego 55 U w a g a 2. a) u> e limsupj4n wtedy i tylko wtedy, gdy ui należy do nie­ skończenie wielu wyrazów ciągu (A n)£Lib) w £ lim inf A n wtedy i tylko wtedy, gdy w należy do wszystkich wyrazów ciągu (j4„)^L1, poczynając od pewnego miejsca. c) (lim inf A„ ) ' = lim sup AJ,. d) (lim sup A n)' = lim inf A'n. D o w ó d , a) Dla granicy górnej mamy: CO u> € lim sup A n <ś>Vm ui £ (J A n & n=m ^ 3(nk) ^ | O O Ul (z A ni_, co m a miejsce wtedy i tylko wtedy, gdy u> należy do nieskończenie wielu A n (oznaczenie: { A n n .c.}, czyli A n zachodzi nieskończenie często). b) D la granicy dolnej mamy: OO ui € lim inf A n 3m = m(ui) w € P| A n <4- u € A n dla n ^ m. n=m c) Z praw de Morgana: OO lim sup A!n = P) OO CO m = ln = m OO = ii\ / OO ( J J4 ^ = P | i a \ P | J4 m =l ' n=m OO U n An= ^\ liminf m=l n=m d) Oczywiste z punktu c. ■ T w ie rd ze n ie 3 (L e m a t B o r e la -G a n te llie g o ). (i) Jeśli J2n=ip (A n) < oo, to P(lim sup.An) = 0. (ii) Jeśli zdarzenia A i, A%, . . . są niezależne i P ( A n) = oo, to P (lim sup A n) = 1. U w a g a 4 . a) Z uwagi 2c wynika, że l i m s u p = (liminf A'n)', zatem P (łim su p A n) = P((lim inf A'n)') = 1 — P (lim inf A'n). Stąd tezę punktu (i) twierdzenia można sformułować w następujący sposób: P (lim inf A!n) = 1, tzn. P(zachodzi skończona liczba zdarzeń A n) = 1. Rozdział 4. Niezależność zdarzeń 56 b) Warunek niezależności w punkcie (ii) można osłabiać na różne sposoby, ale coś jednak trzeba założyć, bowiem jeśli A n = A i 0 < P ( A ) < 1, to Z P ( A n ) = oo i lim su p A n = A. D o w ó d twierdzenia. (i) Korzystając z tw. 1.7 o ciągłości oraz z subaddytywności, otrzymujemy OO p ( •n 1 OO OO u v/ = m = l n=m oo mHm —*oo p ( u v*-/ < n —m mnm —*oo e ' p (A « ) = n=m jako reszta szeregu zbieżnego. (ii) Pokażemy, że P (lim in f A!n) = O, tzn. - P O X U f X L m -¿ń) = 0. W y ­ starczy pokazać, że dła każdego m mamy P ((~)^=m A'n) = 0. Korzystając z twierdzenia o ciągłości, niezależności i oszacowania 1 + x < ex , otrzymu­ jemy 00 N N p( 1 n I K ) = yy— nm n -*• p ( A n) = N— um ^oq -Ł >00 n n=m n —m (! - < n=m N < Jim N ~*oo bo £n = m P (A n) = N J I exp(—P ( A n)) = A lim e x p ( - V N~-*oo n~m P ( A n)) = 0, n —m OO- ■ P r z y k ła d 5. W nieskończonym ciągu prób Bernoulliego z prawdopodo­ bieństwem sukcesu p e (0, 1) w pojedynczej próbie, ciąg PSSSP powtó­ rzy się z prawdopodobieństwem 1 nieskończenie wiele razy. Niech A n oznacza zdarzenie, że w próbach o numerach n, n + 1, n + 2, ra+3, n 4- 4 otrzymaliśmy PSSSP. Oczywiście P ( A n) = p 3( 1 — p )2. Nie możemy jednak zastosować lematu Borela-Cantelliego bezpośrednio do zdarzeń A n, gdyż nie są one niezależne. Żeby obejść tę trudność, rozpatrujemy zda­ rzenia opisane przez rozłączne ciągi prób: zdarzenia A 5n, n = 1 , 2 , . . . są już niezależne i p iA 5 n) — Y ^ = i P3( 1 ~~ P)2 = wi?c 2 lematu Borela-Cantelliego z prawdopodobieństwem 1 zajdzie nieskończenie wiele spośród zdarzeń (A^n), więc tym bardziej spośród (An). m P r z y k ła d 6. Rzucamy nieskończenie wiele razy niesymetryczną monetą. Niech A n oznacza zdarzenie, że w pierwszych n rzutach było tyle samo or­ łów, co reszek. W tedy z prawdopodobieństwem 1 zachodzi skończona liczba zdarzeń A nIstotnie, P ( A 2n- i ) = 0, P ( A 2n) = (2” )pn( 1 - p )n « wzoru Stirlinga. Wobec tego £ P ( A n) < z lematu Borela-Cantelliego. ■ oo (bo p na mocy |) i teza wynika §4.3. Lemat Borela-Cantelliego 57 Zadania 1. Zdarzenia A i , . . . , A n, . . . są niezależne i mają równe prawdopodobieństwa. Jaka jest szansa, że zajdzie skończenie wiele zdarzeń A „ ? * 2 . Rzucamy nieskończenie wiele razy symetryczną monetą. Niech A n oznacza zdarzenie, że w pierwszych n rzutach było tyle samo orłów i reszek. Wykazać, Por. przykład 6 że z prawdopodobieństwem 1 zachodzi nieskończenie wiele zdarzeń A n . U waga. Zadanie staje się łatwe, gdy skorzystamy z teorii łańcuchów Markowa. 3. W nieskończonym ciągu prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p 6 (0 , 1) niech zdarzenie A n polega na tym, że w próbach o numerach 2 ” , 2 ” + 1 , . . . 2n+1 —1 zajdzie kolejno n sukcesów. Udowodnić, że jeśli p < 5 , to z prawdopodobieństwem 1 zajdzie skończe­ nie wiele zdarzeń A n, a gdy p ^ to z prawdopodobieństwem 1 zajdzie nieskończenie wiele zdarzeń An. 4. Niech A n będą zdarzeniami niezależnymi, przy czym P (A n) = pn € (0,1). Wykazać, że zachodzi co najmniej jedno ze zdarzeń A „ wtedy i tylko wtedy, gdy z prawdopodobieństwem 1 zachodzi nieskończenie wiele zdarzeń A n. Rozdział 5 Zmienne losowe § 5.1. Definicja; rozkład zmiennej losowej Bardzo często z wynikiem doświadczenia losowego wiąże się w naturalny sposób pewną liczbę albo ciąg liczb. Mamy wtedy do czynienia ze zmienną losową. Może to być liczba oczek przy rzucie kostką, suma oczek wyrzuconych w kilku rzutach kostką, czas oczekiwania na autobus, itd. Właściwie wszyst­ kie omówione wcześniej przykłady po niewielkiej adaptacji mogłyby się znaleźć na tej liście, wraz ze wszystkimi znanymi Czytelnikowi grami lo­ sowymi (ruletka, Toto-Lotek, trzy karty, bingo...). Zmienną losową byłaby wypłata. Z kolei każda sesja warszawskiej giełdy produkuje cały ciąg liczb. Są to kursy wszystkich (powiedzmy, prawie wszystkich) notowanych spółek. A jeśli w grę wchodzą notowania ciągłe? Teraz kursy mogą się zmieniać w dowolnej chwili, i jeśli nasze doświadczenie losowe polega na obserwacji kursu ustalonej spółki przez pewien czas, to jego wynikiem jest pewna funk­ cja. Wobec tego naturalnym zbiorem wartości zmiennej losowej może być na przykład przestrzeń funkcji ciągłych (albo schodkowych) na odcinku. Ogólniej, można rozpatrywać zmienne losowe o wartościach w praktycznie dowolnej przestrzeni, a nie tylko w R czy też R n. Jak się niebawem okaże, pewne proste charakterystyki liczbowe zmiennych losowych pozwalają szybko ocenić opłacalność gier losowych; warto zatem zapoznać się z dalszą częścią tego rozdziału. Kojarzenie doświadczeń z liczbami zależy od subiektywnych ocen i potrzeb, dlatego w jednym doświadczeniu losowym mogą pojawić się różne odwzo­ i rowania X : fi —> R , przypisujące każdemu wynikowi doświadczenia u> e fi liczbę rzeczywistą. Na przykład: wiele osób obserwuje kursy akcji na gieł­ Gracz giełdowy ma portfel akcji. dzie. Każdy z graczy ma inny zestaw akcji, więc zysk (na papierze) każdego z nich będzie inny. Mamy tu wiele różnych zmiennych losowych określonych na tej samej przestrzeni fi, co w naturalny sposób prowadzi do odwzorowa­ nia X : fi —> R n , gdzie n jest liczbą graczy. 58 §5.1. Definicja; rozkład zmiennej losowej 59 Zdefiniujemy teraz zmienną losową o wartościach w R n , którą będziemy nazywali także wektorem, losowym, n-wymiarową zmienną losową albo po prostu zmienną losową. Tej ostatniej nazwy będziemy jednak najczęściej używać w stosunku do zmiennej losowej o wartościach w R . D efin icja 1. Odwzorowanie X : fi —> R n nazywamy zmienną losową o war­ tościach w R n, jeśli dla każdego A € B (R n) zbiór X _ 1 (j4) £ T . Przyjęło się określenie Krótko mówiąc, X jest zmienną losową, jeśli jest odwzorowaniem mierzal­ „zmienna losowa” , choć niektórzy nym (fi,T ) w ( R " , S ( R n)). twierdzą, że Definicja zmiennej losowej gwarantuje, że prawdopodobieństwa wszystkich należałoby mówić zdarzeń związanych ze zmienną losową, czyli zdarzeń postaci X ~ 1(A ), gdzie o funkcjach losowych. A e Z3(Rn), będą dobrze określone. Jeśli zbiór fi jest przeliczalny i T = 2n , to każde odwzorowanie X : fi —> R n jest zmienną losową. Taką definicję zmiennej losowej, gdzie n = 1, można spotkać w szkolnych podręcznikach rachunku prawdopodobieństwa. Dla wektorów losowych można sformułować pozornie słabszy warunek mierzalności. Stw ierd zen ie 2. Jeśli odwzorowanie X : fi —> R n spełnia następujący wa­ runek: dla każdego układu liczb t 2 , ■. . , i„ e R zbiór X _ 1(( -oo, i! ] X ... X ( - o o , f n]) należy do T , to X jest wektorem losowym (czyli zmienną losową o warto­ ściach w R n). ■ D o w ó d . Wystarczy zauważyć, że rodzina zbiorów { A c R " : X - 1(. A)e. 7r} jest cr-ciałem zawierającym wszystkie zbiory postaci ( —oo, ii] x . . . (—oo, tn], a więc wszystkie zbiory boręlowskie. ■ Funkcją borelowską nazwiemy taką funkcję ip: R n —» R m, że przeciwobrazy zbiorów borelowskich w R "? są zbiorami borelowskimi w R n. Złożenie wektora losowegci z taką funkcją jest dalej wektorem losowym: Stw ierd zen ie 3. N ieci, X będzie zmienną losową o wartościach w R n, a <p: R ” —►R m funkcją borelowską. Wtedy p (X ) jest zmienną losową o war­ tościach w R m. D o w ó d . Jeśli B € B{R m), to y>~l (B ) e B (R U), a ponieważ X jest zmienną losową, to (< p {X )r 1{B) = X - \ < p- \ B ) ) e f . » 60 Rozdział 5. Zmienne losowe Dlatego, na przykład, jeśli X jest zmienną losową, to Y = |X| i Z = e * są zmiennymi losowymi. Na zmiennych losowych można wykonywać wszystkie operacje, które są wy­ konywalne na funkcjach mierzalnych, i dalej pozostawać w klasie zmiennych losowych. Zmienne losowe o wartościach w R są zwykłymi funkcjami mierzalnymi, na których można wykonywać zwykłe operacje algebraiczne: dodawanie i mno­ żenie, co ma zresztą naturalną interpretację — chociażby zyski graczy gieł­ dowych, o których była wcześniej mowa, można dodawać. Sam zysk gracza jest wynikiem prostych operacji na innych zmiennych losowych. Ogólniej: każda funkcja Y : fi —> R fc, która da się zdefiniować za pomocą funkcji elementarnych i działań przeliczalnych (w tym lim, limsup, lim inf, sup, inf) na wektorach losowych X i , X 2, . . . jest ^-wymiarową zmienną lo­ sową (ostrzeżenie: patrz zad. 1). W a ż n a u m o w a . Zmienne losowe X i Y równe z prawdopodobieństwem 1 są nieodróżnialne z punktu widzenia teorii, bowiem szanse przyjęcia warto­ ści ze zbioru borelowskiego A są dla obu zmiennych równe, co zapisujemy: P ( X 6 l ) = P ( Y € A ) dla wszystkich A 6 # ( R " ) . Dlatego przyjmiemy umowę, że napis X = Y oznacza równość z prawdopodobieństwem 1 (ina­ czej: prawie na pewno), czyli P ( X = Y ) = 1. W paru przypadkach, w któ­ rych potrzebna będzie równość wszędzie, zostanie to jawnie powiedziane. Z drugiej strony, czasem będziemy chcieli podkreślić, że X = Y p.n. Ze zmienną losową wiążą się w naturalny sposób dwa obiekty: generowane przez nią a-ciało zdarzeń oraz jej rozkład, prawdopodobieństwa. D e fin ic ja 4 . a-ciałem generowanym przez zmienną losową X o warto­ ściach w R n nazywamy najmniejsze a-ciało podzbiorów fi, względem którego X jest mierzalna. „Najmniejsze” c-ciało, o którym tu mowa, to część wspólna wszystkich cr-ciał, względem których X jest mierzalna. Będziemy je oznaczać przez dalej cr-ciałem. a ( X ) . Oczywiście cr(X) C T . Można podać dokładną charakteryzację zda­ Część wspólna rodziny cr-cial jest rzeń, należących do cr(X). S tw ierd zen ie 5 . a ( X ) = { ^ ( B ) : B 6 B (R n) } . D o w ó d . Oznaczmy T x = { X ^ 1( B ) :B e i ? ( R ") } . Z własności przeciwo( brązów wynika natychmiast, że ta rodzina zbiorów jest cr-ciałem. Z definicji cr(X ) wynika, że a ( X ) C T x , ponieważ X jest mierzalna względem T x Żeby udowodnić zawieranie przeciwne, weźmy dowolny zbiór należący do T x ■ Jest on postaci X ~ 1(A ), gdzie A € B (R n), zatem musi należeć do każdego cr-ciała, względem którego X jest mierzalna. A to właśnie oznacza, że T x C cr(X). ■ '61 §5.1. Definicja; rozkład zmiennej losowej Teraz zdefiniujemy rozkład prawdopodobieństwa zmiennej losowej. Odwzo­ rowanie X : (il,P ) —> (R n,B (R n)) umożliwia naturalny „transport" praw­ dopodobieństwa P do przestrzeni R n. D e fin ic ja 6. Rozkładem prawdopodobieństwa na R n nazywamy każdą mia­ rę probabilistyczną fj, na ¿3(Rn). D e fin ic ja 7. Rozkładem prawdopodobieństwa zmiennej losowej X o war­ tościach w R n nazywamy rozkład prawdopodobieństwa fi x , określony na B ( R n) zależnością V x {B ) = P ( X - \ B ) ) , B e B(R n). Zdefiniowana w ten sposób miara zawiera wszelkie interesujące z punktu widzenia probabilistycznego informacje o zmiennej losowej X : o jej zbiorze wartości i tym, jak prawdopodobieństwo jest na tym zbiorze rozłożone. Do­ kładniej, otrzymaliśmy nową przestrzeń probabilistyczną: (R n, B (R n), ¡xx)- Dodatkowy zysk: W arto jeszcze raz podkreślić, ze rozkład prawdopodobieństwa nie musi być zamiast kojarzony z konkretną zmienną losową: rozkładem prawdopodobieństwa na- abstrakcyjnej zwaliśmy dowolną unormowaną miarę fi na B (R n). Czytelnik zechce się zastanowić, jak wtedy skonstruować zmienną losową, dla której fi jest roz- pracujemy kładem prawdopodobieństwa (albo krótko: rozkładem). w konkretnej I uwaga dotycząca oznaczeń. P ( X ~ 1(B )) można zapisywać tak: ^ r ^ r T / I yT. P ( X _ 1 (B) ) = P ({w 6 Q :X ( u ) € B } ) = P ( X e B ). Ostatniej, skrótowej notacji będziemy używać najczęściej. Fakt, że zmienna losowa X ma rozkład prawdopodobieństwa ft, będziemy zapisywać krótko: X ~/z. Przypomnijmy sobie teraz przykład 1.1.10. Była tam mowa o czasie oczeki­ wania na autobus. Ustaliliśmy, że O = [0,oo) i P {A ) = f A f ( x ) dx, A £ T . Przyjmując JF = B{R ) otrzymamy sensowny model, jeśli tylko / jest mie­ rzalna względem B(R ). Zmienną losową X będzie sam czas oczekiwania, zatem I ( u ) = u , w 6 [0,oo). W takim razie Powyższa zależność definiuje gęstość rozkładu prawdopodobieństwa (albo krócej — gęstość prawdopodobieństwa). Ponieważ umiemy całkować wzglę­ dem miary Lebesgue’a po R n, warto przyjąć definicję ogólniejszą: D e fin ic ja 8. Jeśli fi jest rozkładem prawdopodobieństwa na R n i dla pew­ nej funkcji f : R n —> R całkowalnej w sensie Lebesgue’a mamy (1) to f nazywamy gęstością rozkładu fi. Rozdział 5. Zmienne losowe 62 Funkcję / przyjęto nazywać gęstością, gdyż jest ona odpowiednikiem gę­ stości masy w fizyce. Jeśli / : R —> R , to w punktach ciągłości funkcji / mamy [ x+h f ( s ) ds — [ x f ( x ) = lim J~ °° ; Jv ' n-*0 h f(s )d s a(\x x + h)) ..- = iim h-*0 h Rozkład, który ma gęstość, będziemy nazywać rozkładem ciągłym. A oto podstawowe własności gęstości: T w ie r d z e n ie 9. Niech f będzie gęstością rozkładu prawdopodobieństwa fj, na R n . Wtedy W ł aściwie powinno się mówić 0 rozkładach absolutnie ciągłych względem miary Lebesgue’a. (i) f Rn f ( x ) dx = p ( R ” ) = 1. (H) / > 0 P-w- (czyli poza zbiorem o mierze Lebesgue a zero). (Hi) Gęstość jest wyznaczona jednoznacznie z dokładnością do zbiorów miary Lebesgue ’a zero. Ponadto każda funkcja f : R " —» R spełniająca warunki (i) i (ii) jest gęsto­ ścią. ujem n°Zgęstości U w a g a 1 0 . Z twierdzenia 9 wynika, że funkcja / : R n —> R jest gęstością 1 tak będą się pewnego rozkładu prawdopodobieństwa wtedy i tylko wtedy, gdy / pojawiać p.w. względem miary Lebesgue’a i f Rn f ( x ) d x = 1. w najmniej stosownych momentach, czyli D o w o d . (żi) Istotnie, niech, na egzaminach. A k = { x e R n: } ( x ) < - 1 / f c } , A = { x e R n: f( x ) < 0 }. > 0 W ted y 0 < n (A k) = [ f ( x ) dx < (A k), JA k gdzie A(Afc) oznacza miarę Lebesgue’a zbioru A k. Stąd A(ylfc) = 0, zatem i A( A) = A((J” i A k) = 0. (iii) W ystarczy zauważyć, że jeśli f i i f i są gęstościami rozkładu ¡jl, a B k = { x £ R » : h ( x ) - f 2(x) < - l / k } , i to 0 = [ ( f i ( x ) - f 2 ( x ) ) d x < ~ X ( B k), JB k skąd A (Bk) = 0, i podobnie jak w poprzednim punkcie, A ({x € R n: fi (x ) - f 2(x) < 0 }) = 0. §5.1. Definicja; rozkład zmiennej losowej 63 Teraz ze względu na symetrię A ( { i e R " : / 2( i ) - / 1( i ) < 0 } ) = 0 . W takim razie f i = wszędzie, poza zbiorem miary zero. Na zakończenie, jeśli / spełnia warunki (i) i (ii), to jest gęstością rozkładu zdefiniowanego przez równość (1). ■ Zajmiemy się teraz rozkładami z przeciwnego bieguna: rozkładami dyskret­ nymi. .Niech X będzie wynikiem rzutu symetryczną kostką. W tedy V x ( { i } ) = P ( X = i) = Rozkład gdy i = 1 , 2 , . . . , 6 . jest skupiony na zbiorze { 1 , 2 , . . . , 6 }, czyli 6 1 H x(A ) = ¡ix ( A fi { 1 , 2 , . . . , 6}) = ^ 2 gl A( i ) . ¿=1 Ogólniej, będziemy rozpatrywać rozkłady skupione na zbiorze przeliczal­ nym (skończonym lub nieskończonym). Rozkłady D e fin ic ja 11 . Rozkład ¡i na R n nazywamy dyskretnym, jeśli istn ieje zbiór dyskretne przelicza ln y S C R " , dla którego fi(S) = 1. nazywa się czasem skokowymi. Rozkład dyskretny daje się opisać bardzo prosto, podobnie jak rozkład liczby oczek przy rzucie kostką, wystarczy bowiem podać zbiór S i miary, przypisane jego jednopunktowym podzbiorom. Niech S = {s ;: i 6 I } , pi = = /x ({sj}) dla i £ J, gdzie I jest przeliczalnym zbiorem wskaźników, użytym do ponumerowania elementów zbioru S. W tedy /i(A) = /i(A n S) = ^ j 3 i l A(si), ie i zatem podanie zbioru par {(si,P i):i £ 1 } jest równoważne zdefiniowaniu rozkładu /i. Dlatego w podręcznikach szkolnych rozkładem zmiennej losowej nazywa się zbiór par {(s i,p i):i £ I } , gdzie Pi > 0, £ ieiPi = 1Jak się niedługo przekonamy (zad. 8), istnieją rozkłady, które nie są ani ciągłe, ani dyskretne. D la rozkładów prawdopodobieństwa na R n można zdefiniować dystrybuantę: funkcję rzeczywistą, która jednoznacznie wyznacza rozkład (czyli za­ wiera pełną informację o nim), a jednocześnie jest obiektem prostszym do badania niż rozkład. D e fin ic ja 12 . D ystrybuantą rozkładu prawdopodobieństwa ¡j, na R n nazy­ w am y fu n k cję F^: R n —> R , określoną zależnością F p i(tl,---,tn ) = *i((-o o ,ti] x . . . x ( - 00 , tn]). Rozdział 5. Zmienne losowe 64 U w aga 13. Jeśli n x jest rozkładem zmiennej losowej X o wartościach w R n, dystrybuantę Fpx będziemy też nazywać dystrybuantą zmiennej losowej X i oznaczać przez Fx- Wtedy Są dwa style definiowania dystrybuanty: rosyjski — z nierównościami ostrymi w (2) — i amerykański — z nieostrymi. Ten styl amerykański to właściwie atlantycki. Zresztą, jak donoszą, sytuacja jest na niektórych obszarach płynna. F x(t i, ■••, in) = P (X i ś t i , . . . , X n ś t n). ( 2) Na początku tego paragrafu wspomnieliśmy, że można rozpatrywać zmienne lo­ sowe o wartościach w prawie dowolnej przestrzeni. Rozsądny stopień ogólności uzyskuje się dla zmiennych losowych o wartościach w przestrzeni metrycznej, ośrodkowej i zupełnej (zwanej często przestrzenią polską). Pozwala to w szczegól­ ności badać zmienne losowe o wartościach w przestrzeniach Hilberta i Banacha. Na przykład proces Wienera, o którym jest mowa w rozdziale 13, jest zmienną losową o wartościach w przestrzeni funkcji ciągłych na odcinku [0, 1], W przestrzeni metrycznej E ma sens pojęcie zbioru otwartego i naturalnym (j-ciałem jest rodzina zbiorów borelowskich B(E ): najmniejsze c-ciało, zawiera­ jące zbiory otwarte. Zmienne losowe są w tym przypadku odwzorowaniami mie­ rzalnymi (n,:F) w (E ,B (E )). Definicję i podstawowe twierdzenia o zmiennych losowych o wartościach w prze­ strzeni polskiej E uzyskuje się bardzo prosto: z niniejszego paragrafu należy usu­ nąć wszystko, co dotyczy dystrybuant i gęstości, a następnie napis „R n” zastąpić napisem „E ". Zwróćmy uwagę, że tę operację przetrwa definicja rozkładu dys­ kretnego. Zadania 1. Wykazać, że jeśli (X a ) a e A są zmiennymi losowymi, A czalnym, to supagj4X a nie musi być zmienną losową. — zbiorem nieprzeli­ 2. Wykazać, że jeśli X jest zmienną losową, ip: R —> R jest funkcją mierzalną względem ir-ciała zbiorów mierzalnych w sensie Lebesgue’a, to <p(X) nie musi być zmienną losową. 3. Udowodnić, że X = ( X i , . . . , X n) jest wektorem losowym wtedy i tylko wtedy, gdy X i jest zmienną losową dla każdego i ^ n. 4. Znaleźć c-ciało generowane przez zmienną losową X , gdy: a) Rzucamy symetryczną kostką. X przyjmuje wartość 1, gdy wypadła pa­ rzysta liczba oczek, 2 — jeśli nieparzysta. b) Losujemy punkt z koła K(a, 1), X (w ) = \w —o|. 5. Rozkład geometryczny. Wykonujemy doświadczenia Bernoulliego aż do chwili otrzymania pierwszego sukcesu. Niech X oznacza liczbę wykonanych doświadczeń, Y — czas oczekiwania na pierwszy sukces. Wyznaczyć rozkłady zmiennych losowych X i Y . 6 . Rozkład wykładniczy. Przypuśćmy, że doświadczenia opisane w zadaniu 5 wykonuje się n razy na sekundę, zaś prawdopodobieństwo sukcesu wynosi A/n, gdzie A > 0, a czas oczekiwania na pierwszy sukces, X n, mierzy się w sekundach. Wyznaczyć dystrybuantę zmiennej losowej X n i zbadać jej zachowanie przy n —> oo. §5.1. Definicja; rozkład zmiennej losowej 65 7. Punkt x nazywamy punktem skokowym rozkładu p, gdy p ({x }) > 0. Poka­ zać, że rozkład prawdopodobieństwa fi może mieć co najwyżej przeliczalną liczbę punktów skokowych. 8. Niech pi będzie rozkładem ciągłym z gęstością f ( x ) = l ( 0ji)(:r), a p 2 roz­ kładem jednopunktowym skupionym w zerze: M2( { 0} ) = 1. Pokazać, że p, = = |(pi + Pi) nie ma ani rozkładu dyskretnego, ani ciągłego. 9. a) Wykazać, że jeśli p, jest rozkładem prawdopodobieństwa na R " , to Pj{B ) = /i(R x . .. x R x x R x ...x R ), j? — te m iejsce Konia z rzędem temu, kto wymyśli i upowszechni bardziej poręczny zapis. gdzie B e £S(R), jest rozkładem prawdopodobieństwa (nazywamy go (jedno­ wymiarowym) rozkładem brzegowym rozkładu p). b) Zdefiniować rozkład brzegowy wielowymiarowy. Zadanie 9b 10. Udowodnić, że rozkład p. na R n jest dyskretny wtedy i tylko wtedy, gdy dla najlepiej każdego j ^ n rozkład brzegowy pj jest dyskretny. rozwiązać 11. Udowodnić, że jeśli rozkład p. jest ciągły, to wszystkie rozkłady brzegowe są ciągłe. 12. Podać przykład, że implikacja odwrotna w zadaniu 11 nie zachodzi. 13. Podać przykład, że znajomość rozkładów brzegowych nie wystarcza do od­ tworzenia pierwotnego rozkładu. 14. Wektor losowy U = (X,Y,Z) ma następującą własność: zmienna losowa aX + bY + cZ ma rozkład jednostajny na [—1,1] (rozkładem jednostajnym na odcinku nazywamy rozkład o stałej gęstości na tymże odcinku), jeśli tylko a2 + b2 + c2 = 1. Jaki rozkład ma £/? 15. Wykazać, że jeśli X ma rozkład dyskretny X ~ {(x i, P i)is /}, aip jest funkcją borelowską, t o K = y (X ) ma rozkład dyskretny: P(Y = y )= Y, Pi- 16. Wykazać, że rozkłady: geometryczny (w jednej z podanych wersji) i wy­ kładniczy mają następującą własność braku pamięci zwaną też własnością Markowa: jeśli X jest zmienną losową o danym rozkładzie, to P(X > t + s\X>t) = P ( X > s), gdzie w przypadku rozkładu ciągłego t,s & R + , a dyskretnego t,s € N. Wykazać, że jedynym rozkładem ciągłym na [0,00) z własnością braku pa­ mięci jest wykładniczy, a jedynym skupionym na liczbach naturalnych — geometryczny. 17. R ozk ład pierw szej cyfry znaczącej. Wylosować ok. 100 liczb z rocznika statystycznego i sprawdzić, ile z nich ma pierwszą cyfrę znaczącą 1, 2, . . . , 9. Wyjaśnić wyniki. w pamięci. Rozdział 5. Zmienne losowe 66 R ozk ła d w yk ła dn iczy w dem ografii. Zmienna losowa o rozkładzie wykład­ niczym jest dobrym modelem czasu oczekiwania na rozpad promieniotwórczy cząstki. Nieco trudniej uwierzyć, że był to kiedyś akceptowany model czasu życia człowieka. W dzisiejszych warunkach postulat braku pamięci (który można także sformułować jako brak starzenia się układu) wydaje się absurdalny w świetle ogólnie dostępnych statystyk. Jeśli nieujemna zmienna losowa X interpretowana jako czas życia ma własność braku pamięci, to przeciętne dalsze trwanie życia nie powinno zależeć od wieku. Przeciętne dalsze trwanie życia w chwili t można zdefiniować formalnie jako śred­ nią wartość X na zbiorze { X > i } minus t: < > 0 - Wybiegliśmy tu nieco w przyszłość, bowiem tego rodzaju średnimi będziemy zaj­ mować się dopiero w rozdziale 6. Otóż własność braku pamięci jest równoważna z tym, że przeciętne dalsze trwanie życia jest stale (odpowiednie twierdzenie — patrz zad. 6.2.5). T abela 1. Przeciętne dalsze trwanie życia w Polsce w 1997 roku1. 0 68,5 77,0 Wiek Mężczyźni Kobiety 30 40,4 48,2 15 54,5 62,9 60 16,1 20,8 45 27,1 33,9 Gdyby czas życia mieszkańca Polski miał rozkład wykładniczy, 60-letnia emerytka miałaby przed sobą średnio nie 21, a 77 lat (bo taki jest średni czas życia). Z tabeli 1 widać jeszcze coś: o ile noworodek płci żeńskiej średnio dożywa 77 lat, to kobieta 30-letnia — 78,2 lat, a 60-letnia — 80,8 roku. Pierwsze znane tabele śmiertelności zostały opublikowane przez Johna Graunta w 1662 roku. Opierały się one na tygodniowych zestawieniach chrztów i pogrze­ bów, prowadzonych przez londyńskie parafie od 1603 roku. T abela 2 . Liczba osób dożywających do danego wieku wg. Graunta2 (1662). Wiek Liczba osób 0 100 6 64 16 40 26 25 36 16 46 10 56 6 66 3 76 1 Można przypuszczać (jak zauważa Hacking), że tabela powstała w prosty spo­ sób: Graunt założył, że począwszy od wieku 6 lat szansa przeżycia następnych 10 lat jest stale równa 5/8 (to jest równoważne założeniu o braku pamięci) i za­ okrągli! wyniki do liczb całkowitych. Nie jest jasne, jak dalece te dane odbiegały od stanu faktycznego. Wiadomo, że następne znane tabele śmiertelności, ułożone 1Zródlo: M ały rocznik statystyczny , GUS, Warszawa 1999. 2I. Hacking, The Emergence o f Probability, Cambridge University Press, 1975. Tabelę cytujemy za fSNE], s. 229. § 5.2. Wiasności dystrybuanty rozkładu na R 67 przez Halleya3 różniły się od tabel Graunta. Wolno jednak podejrzewać, że w cza­ sach, gdy jedna epidemia dżumy pochłaniała 30% ludności, a ocalała reszta była dziesiątkowana przez wojny, wykładniczy model czasu życia był bliski prawdy4. Warto jeszcze wspomnieć, że Graunt oszacował trzema niezależnymi metodami liczbę mieszkańców Londynu5 na 384 000. Było to efektowne osiągnięcie, zwa­ żywszy, że szacunki wahały się od 200 000 do 6-7 milionów. Graunt ustalił też, że dziewczynki stanowią 13/27, czyli 48,15% noworodków. Tabele śmiertelności służyły do wyceny rent dożywotnich. Prace Huygensa na te­ mat wartości oczekiwanej (o czym dalej), a także Graunta i Halleya są przykła­ dami zastosowań rachunku prawdopodobieństwa wykraczających poza gry hazar­ dowe. Jest to już poważna matematyka finansowa, bowiem przy jej nieumiejętnym stosowaniu można ponieść poważne straty: Kasa Lafarge’a, tak dobrze znana paryżanom, na pewno prosperowałaby lepiej, gdyby jej założyciele wzięli w swoich rachubach pod uwagę prawdy doktora Villermeta. Obliczali oni śmiertelność według tablic Buffona, Parcieu i innych, które ustalono przy wzięciu pod uwagę wszystkich warstw ludności w każdym wieku. Ale ponie­ waż ci, co lokują kapitały, żeby mieć zapewnioną przyszłość, na ogół nie zaznali niebezpieczeństw wieku dziecięcego, a przywykli jadać regularnie, dobrze i niekiedy obficie, śmierć nie nastąpiła, nadzieje rozwiały się i spekulacje upadły6. § 5.2. Własności dystrybuanty rozkładu na R Twierdzenie 1. Dystrybuanta ma następujące własności: rozkładu prawdopodobieństwa p, na R (i) Ffj, jest- niemalejąca. (ii) luni—>oo F^{t) — I? lim^—ł—oo F^ (iii) —0 . jest prawostronnie ciągła. D ow ód . Zaczniemy od ogólnej uwagi o granicach: jeśli chcemy wykazać, że limt_).£+ f(t) = g, wystarczy udowodnić, że dla każdego ciągu (tn) monotonicznego i zbieżnego do tQ-od strony dodatniej (tj. tn | to) mamy f ( t n) ^ g. 3E. Hailey, A n Estimate o f the Degrees o f Mortality o f Mankind Drawn from the Curious Tables o f Births and Funerals o f the City o f Breslau, Phil. Trans. Royal Soc., vol. 17 (1693), ss. 596-610, 654-656. Rejestry pogrzebów, uwzględniające wiek, prowadzono we Wrocławiu od 1584 roku (patrz [HJ], tamże tablice Halleya). 4Nie każdy oczywiście miał tak samo źle. Z danych Williama Petty’ego wynika, że w ciągu roku w Londynie umierał 1 człowiek na 30, na wsi — 1 na 37, w Rzymie — 1 na 40, a wśród członków parlamentu — 1 na 50 (por. [MAJ-2], s. 71). 5J. Graunt, Natural and Political Observations upon the Bills o f Mortality, London 1662, patrz też [MAJ-2], s. 71. 6Anthelme Brillat-Savarin, Physiologie du gout ou meditations de gastronomie transcendante , 1825, przekł. poi. Joanny Guze: Fizjologia smaku, wyd. III, PIW, Warszawa 1996, ss. 123-124. Oczywiście dystrybuanta a la russe jest lewostronnie ciągła. Rozdział 5. Zmienne losowe 68 Gdyby tak nie było, istniałaby liczba e > 0 i ciąg sn —>t taki, że sn > t oraz dla dostatecznie dużych n byłoby |/(sn) —9\> £', wtedy jednak bez trudu można by było wybrać podciąg monotoniczny snk o tej samej własności. Analogiczna uwaga pozostaje w mocy, gdy t —>±oo. (¿) Oczywiste, bo jeśli t < s, to (-o o , t] C ( - 00 , s]. (ii) Na mocy poprzedniej uwagi wystarczy wziąć tn T 00 . Wtedy R jest sumą wstępującej rodziny przedziałów (—00 , tn] i z twierdzenia 1.1.7 o cią­ głości mamy OO lim F^(tn) = lim //((-o o , tn}) = /¿( I J ( - 00 , tn]) = //(R ) = 1. n —>oo n —»00 — ...... n=l Podobnie w przypadku granicy w —00 : niech tn J. —00 . Rozpatrujemy zstę­ pującą rodzinę przedziałów (—00 , in], których część wspólna jest zbiorem pustym i jeszcze raz korzystamy z twierdzenia o ciągłości. (iii) Teraz tn J, t i co,fn] = (—00 , i]; korzystamy z twierdzenia o ciągłości, podobnie jak w poprzednim punkcie. ■ Tw ierdzenie 2. Jeśli funkcja F :R —> R spełnia warunki (i), (ii) i (iii), to jest dystrybuantą pewnego rozkładu. Dowód jest rutynowym zadaniem z teorii miary (zad. 1). Zmienną losową, dla której F jest dystrybuantą, można otrzymać na dwa sposoby. Jeżeli n jest rozkładem prawdopodobieństwa o dystrybuancie F otrzymanym z tw. 2 , to zmienna losowa określona na przestrzeni probabi­ listycznej O = R, T = # (R ), P = h wzorem X(u;) = ma dystrybuantę FX = F. Drugi sposób nie odwołuje się do twierdzenia 2, a co więcej, daje jego al­ ternatywny dowód. Jeśli F jest ciągła i ściśle rosnąca, konstrukcję łatwo wymyślić. Niech X ma rozkład jednostajny na [0,1]. Znajdziemy funkcję / , dla której p ( n x ) < t) = p ( x ^ r ^ t ) ) = r \ t ) = F(t). Wystarczy przyjąć / = F ~l , i wtedy wszystkie przejścia są poprawne. Zmienną losową o rozkładzie jednostajnym może być np. funkcja h(x) = x na odcinku (0 , 1), który jest tu zbiorem zdarzeń elementarnych, a praw­ dopodobieństwem jest miara Lebesgue’a, obcięta do tego odcinka. Widać teraz, że rozwiązanie można opisać prościej: wystarczy wziąć funkcję F ~ x na odcinku (0,1) z miarą Lebesgue’a. W ogólnym przypadku można znaleźć namiastkę funkcji odwrotnej do dystrybuanty (zad. 2 ). §5.3. Własności dystrybuanty rozkładu na R ” 69 Zadania 1. Udowodnić, że jeśli funkcja F :R —> R ma własności 1, 2 i 3 dystrybuanty, to jest dystrybuantą miary, która na ciele A, składającym się ze zbioru pu­ stego i zbiorów postaci (JiLi(a*>&*]> —00 ^ ^ oo, gdzie odcinki występujące w sumie mają rozłączne domknięcia, jest określona równością Niestety, zbiór n n z=i i=i pusty nie jest takiej postaci. gdzie przyjmujemy F (—oo) = 0, F( oo) = 1. 2. Udowodnić, że jeśli F ma własności 1, 2 i 3 dystrybuanty, to funkcja Funkcja / wyraża się także wzorem f ( s ) = jest dobrze określona na Cl = (0,1); jeśli za prawdopodobieństwo na Cl przyj­ = inf{u: F (u ) ^ s f{s) = sup{«: F(u) < s} miemy miarę Lebesgue’a, to / będzie zmienną losową o dystrybuancie F. 3. Niech Fu będzie dystrybuantą rozkładu fi. Udowodnić, że /¿ ((-o o ,* )) = F „ (z -) , / i ( { i } ) = F»(x) - Fm( s - ) . 4. Dystrybuanta rozkładu prawdopodobieństwa ¡i dana jest wzorem ! 0 dla x < 0, 0,1 + a; dla 0 ^ i < 0,5, 0,4 + i 1 Wyznaczyć dla 0,5 $ x < 0,55, dla x ^ 0,55. fi([0 ,| ]),n ((0 ,0 ,5 5)). 5. Niech /i będzie rozkładem prawdopodobieństwa na R . Wykazać, że xo jest punktem skokowym ¡x wtedy i tylko wtedy, gdy dystrybuanta Ff, jest niecią­ gła w X q . 6 . Wyznaczyć rozkład zmiennej losowej Y = 3X — 5, jeżeli X ma rozkład wy­ kładniczy z parametrem a. 7. Podać przykład dystrybuanty, której zbiór punktów nieciągłości jest gęsty w R. 8 . Zmienna losowa X ma rozkład jednostajny na odcinku [0,2] (czyli rozkład o gęstości / ( i ) = 5 l[o,2](f))- Znaleźć rozkłady zmiennych losowych Y — = min(X, X 2) i Z = max(l, X). § 5.3. Własności dystrybuanty rozkładu na R” W tym rozdziale wykażemy, że dystrybuanta wyznacza rozkład prawdopo­ dobieństwa jednoznacznie. Zaczniemy od zbadania własności dystrybuanty rozkładu na R ", które będą,, jak się należało spodziewać, podobne do wła­ sności dystrybuanty rozkładu na R. Rozdział 5. Zmienne losowe 70 Tw ierdzenie 1. Dystrybuanta F ^ rozkładu prawdopodobieństwa fj, na R n ma następujące własności: (i) jest niemalejąca względem każdego argumentu, (ii) F p (x i , . . . , x n) —* 0, jeśli infj xi —►—o o (czyli xi —> —o o dla przynaj­ m niej jednego argumentu), Ftx( x i , . . . , x n) —> 1, jeśli infj Xi —> co. (iii) F/j, jest prawostronnie ciągła. (iv) Jeśli Xk < yk dla k = 1, . . .■■,n, to Pojawiają się tu wartości dystrybuanty w wierzchołkach kostki n~wymiarowej. (żv) ma prostą interpretację: miara kostki ma być nieujemna. ^ ( - l ) E fc=ie*Fłl(u (e i,...,e Il)) > 0 , ( 1) gdzie u(£l, . . . ,£n) = (ei^l + (1 - £l)2/l,.•.,EA + (1 - £ n ) y n), zaś sumowanie przebiega po zbiorze { ( e i , . . . , £ n )'-£i G { 0 , 1 } } . D o w ó d . Własności (i)-(iii) dowodzimy tak samo, jak dla rozkładu fi na R (twierdzenie 5.2.1). Aby udowodnić (¿1;) zauważmy, że dla Ak = { ( i i , ... ,tn) :t k < a;*}, Bk = = {(¿i, ■••, tn): tk < yk}, A = U L i A k, B - f ) L i mamy 0 < P (B n A') n = P(B ) - P ( (J (Ak n B)), k= 1 co na mocy wzoru włączeń i wyłączeń daje lewą stronę wzoru ( 1). ■ Wprowadzając oznaczenie •••,£«) = —F 1, . . . , x k—i, x k + /i, :Efc-}-i,. . . , xn) Fpfai, . . . , 2-71)5 możemy (1) zapisać w następującej formie: jeśli hk > 0,a:fc £ R , 1 < k < n, to ... Operatory A są przemienne, co łatwo udowodnić indukcyjnie. Uwaga 2. a) Warunek (¿) wynika z warunku (w). b) Dla n = 1 warunek (iw) wynika z warunku (i), ale.dla n > 1 nie jest to prawdą (zad. 2 ). §5.3. Własności dystrybuanty rozkładu na R n 71 Udowodnimy teraz, że dystrybuanta wyznacza jednoznacznie rozkład. Sko­ rzystamy z tak zwanego lematu o n- i A-układach7. Będziemy rozpatrywać rodziny podzbiorów ustalonej przestrzeni Û. Definicja 3. Rodzina zbiorów U jest ir-ukladem, jeśli A ,B £ U A n B £U. Definicja 4. Rodzina zbiorów C jest \-ukladem, jeśli W literaturze można także spotkać nieco inne określenia A-układów. (i) O £ £. (ii) Jeśli A ,B £ £ i B C A, to A \ B £ £. (iii) Jeśli Ai £ £ dla i = 1 , 2 , . . . oraz Ą U S t A i£ C . C Ą C . . . C An c . .. , to Uwaga 5. Jeśli rodzina zbiorów jest jednocześnie rr- i A-układem, to jest (j-cialem. Czytelnik zechce potraktować dowód powyższego jako zadanie (zad. 3). Lemat 6 (O w- i A-układach). Jeśli \-uklad £ zawiera n-układ U, to £ zawiera cr(U), czyli o-cialo generowane przez U. D o w ó d . Niech £o = £(JJ) będzie najmniejszym A-układem zawierającym Tego rodzaju lematy występują U. Udowodnimy, że £$ jest 7r-układem. W tym celu rozpatrzmy najpierw rodzinę C = {A: A fi B 6 Co dla każdego B e U}. Jasne jest, że U C C, bo U jest 7r-układem. Ponadto rodzina C jest A-układem. Sprawdzenie trzech warunków jest proste: (i) Q £ C, bo U C £ 0; (ii) Niech t / , V e C i V c U . W tedy V n B c U C B i (U \ V) n B = (U n B) \ ( v n B) e £ 0. 7Lemat ten pojawił się po raz pierwszy w pracy W. Sierpińskiego Un théorème générale sur les familles d ’ensemble , Fundamenta Mathematicæ 12 (1928), ss. 206-210. Dla potrzeb rachunku prawdopodobieństwa odkrył go ponownie E. B. Dynkin. również pod nazwą lematów o klasach monotonicznych. Rozdział 5. Zmienne losowe 72 (iii) Sprawdzamy, że można wykonać monotoniczne przejście do granicy. Niech (Aj) będzie wstępującą rodziną zbiorów z C, co oznacza, że AiCiB e Co dla każdego B £ U oraz ¿ = 1 ,2 ,__ Wobec tego ( OO V co (jA i)n B = jJ (A ins) ¿= 1 ' i= l należy do A-ukladu CoWiemy teraz, że jeśli A £ Co i B € U, to A fi B <£ Co. Drugi krok dowodu jest w pełni analogiczny do pierwszego. Trzeba wykazać, że jako B da się wstawiać zbiory z Co, zachowując powyższą implikację. W tym celu rozpatrujemy C = {B : A fi B € Co dla każdego A £ Co}. i jak poprzednio, dowodzimy że C jest A-układem zawierającym U, więc i Co- Ostatecznie, jeśli A £ £o i B £ Co, to A n B £ Co, zatem Co jako Ai 7r-układ jest cr-ciałem (uwaga 5), co kończy dowód. ■ Twierdzenie 7. Jeśli fi i v są rozkładami prawdopodobieństwa na R 71 i F^ = Fu, to fi(A) = v(A) dla A £ S (R n). Do wó d . Z definicji dystrybuanty wynika, że fi(A) = ¿'(A) dla zbiorów A postaci (—oo,ti] x ... x (—oo,tn]. Oznaczmy rodzinę tego typu zbiorów przez U. Jest ona 7r-układem. Dalej, niech C = {A e B(R n): fi(A) = v(A )}. C jest A-układem, co wynika z elementarnych własności prawdopodobień­ stwa; dla przykładu sprawdźmy warunek 2: jeśli A, B € C i A C B, to fi(B \ A) = fi(B) - fi(A) = v(B) - j/(A) = v(B \ A). W takim razie C zawiera o(U) — B(R 71). ■ Lemat o 7r- i A-układach przyda się jeszcze, a za każdym razem schemat dowodu, korzystającego z tego lematu, będzie ten sam: pewna równość z natury rzeczy będzie spełniona dla rodziny zbiorów tworzącej A-układ, a ponadto nietrudno będzie ją sprawdzić dla prostych zbiorów, tworzących 7r-układ (por. zad. 1). Okazuje się, że funkcja o własnościach takich jak dystrybuanta jest już dystrybuantą pewnego rozkładu (i jak wiemy z tw. 7, dokładnie jednego). Twierdzenie 8 . Niech F spełnia warunki (i)-{iv) twierdzenia 1. Wtedy istnieje taki rozkład prawdopodobieństwa fj, na R ” , że F = F^. 5.4. Dystrybuanta a gęstość 73 D o w ó d . Definiujemy fi na [x,y] wzorem J/]) = A i? •••^ h lF {x i , . . . , x n), gdzie hi = yi — Xi > 0. Warunek 4 zapewnia, że /¿((¡r, y]) > 0. Dalej postępujemy analogicznie jak dla n = 1 (patrz zad. 5.2.1). ■ Uwaga 9. W twierdzeniu 7 udowodniliśmy w istocie, że jeśli dwa roz­ kłady prawdopodobieństwa są równe na elementach 7r-układu generującego a-ciało F, to są równe na całym T. Z a d a n ia 1. Niech F będzie dystrybuantą pewnego rozkładu fi i niech F ( t ) = dla pewnej funkcji g. Wykazać, że g jest gęstością rozkładu fi. 9 (x ) dx 2. Udowodnić uwagę 2b. 3 . Udowodnić uwagę 5. § 5.4. Dystrybuanta a gęstość Jeśli istnieje gęstość g rozkładu fi na R, to oczywiście W praktyce często dana jest dystrybuanta i należy na jej podstawie odtwo­ rzyć gęstość. Z powyższego wzoru wynika, że F' = g p.w., nie jest jednak prawdą, że w ogólnym przypadku całkując F' odtworzymy F. Będzie tak dla funkcji F absolutnie ciągłych (por. np. [RUD-1], tw. 8.17). Zajmiemy się uzasadnieniem praktycznej — i pewnie zgodnej z pierwszym odruchem — następującej recepty na g: należy zróżniczkować F gdzie się da (a da się prawie wszędzie, bowiem F jest monofoniczna) i jeśli otrzymana funkcja ma całkę po (—00, 00) równą 1, to jest gęstością (por. zad. 5.9.11 o dystrybuancie Cantora). Oto odpowiednie twierdzenia: Lemat 1. Niech F: R —>R będzie niemalejąca i prawostronnie ciągła. Je­ śli F 1 istnieje prawie wszędzie, to dla dowolnych a < b Istnienie F 1 p.w. udowodnimy w zad. 11.6.1. D o w ó d . Niech G(x) = f* F(s)ds, x € R. Ponieważ F jest niemalejąca, ilorazy różnicowe poniżej są nieujemne i żądana nierówność wynika z lematu Rozdział 5. Zmienne losowe 74 Fatou oraz prawostronnej ciągłości funkcji F: = lim liminfn inf n rb+ i ra+i / F (s )d s — / F(s) ds = F(b) —F(a) Jb Prawostronna ciągłość funkcji F została użyta w ostatniej równości. Dla małych h > 0 wartości funkcji podcałkowej na przedziale [b, b + h] (odp. [a, a+h ]) są bliskie F(b) (odp. F(a)). To samo stosuje się zatem do średnich po obu przedziałach. ■ Z lematu wynika natychmiast W niosek 2. Jeśli F spełnia założenia poprzedniego lematu, a ponadto lim F(t) = 1, t—*00 lim F (t) = 0, t —►— oo to Twierdzenie 3. Jeśli F jest dystrybuantą, F' istnieje prawie wszędzie, oraz F'(s) ds = 1, to F' jest gęstością rozkładu o dystrybuancie F. Do wó d . W świetle wniosku 2 wystarczy wykazać, że co wynika natychmiast stąd, że oraz § 5.5. Gęstość a odwzorowania gładkie 75 Zadania 1. Ciągła dystrybuanta F ma ciągłą pochodną g a) wszędzie, b) poza zbiorem Z bez punktów skupienia. Wykazać, że g jest gęstością dla dystrybuanty F . 2. Rozwiązać zad. 1 bez założenia o ciągłości g. 3. X ma rozkład M (0,1) (definicja w § 5.10). Wyznaczyć dystrybuanty i (jeśli istnieją) gęstości dla a) Y = e * , b) Y = X 2. 4 . Czy zmienne losowe z zad. 5.2.8 mają gęstość? §5.5. Gęstość a odwzorowania gładkie Jeśli zmienna losowa X ma rozkład ciągły, to Y = <p(X) może, choć nie musi, być typu ciągłego (zad. 1). Zajmiemy się przypadkiem, gdy ip jest od­ wzorowaniem gładkim i znajdziemy zależność między gęstościami X i <p(X). Jest to szczególny przypadek zadania, polegającego na wyznaczeniu roz­ kładu <p(X), gdy znamy rozkład X . Często zadanie to wygodniej jest roz­ wiązywać za pomocą dystrybuant, jak w poprzednim paragrafie. Stwierdzenie 1. Jeśli zmienna losowa X ma rozkład ciągły o gęstości f i X(Q ) c (a,b), funkcja <p:(a,b) —> R jest klasy C 1 oraz <p'(x) ^ 0 dla x € (a, b), to zmienna losowa Y — tp(X) ma rozkład ciągły o gęstości g(y) = f{h{y))\h'{y)\i^i){y), gdzie h(s) = ip 1(s), I = (a,b). D o w ó d . Załóżmy, że ip jest rosnąca. Wtedy, korzystając z twierdzenia o całkowaniu przez podstawienie, mamy dla y e <p(I)'- Podobnie postępujemy, gdy ip jest ściśle malejąca. ■ Przykład 2. Ze stwierdzenia 1 otrzymujemy wniosek, że liniowa trans­ formata zmiennej losowej o rozkładzie normalnym ma rozkład normalny. W szczególności gdy X ~ N (m, cr2) , to Z = (X —m)/a ~ M (0,1). D o w ó d . Niech Y = aX + i i , d / 0 . Wtedy ip(x) = ax + b i ę —(u—b—am)2/2<r2a2 = -yJ :---- e~(U ~b V2wa\a\ zatem Y ~ N (b + am, a2a2) . u Rozdział 5. Zmienne losowe 76 Przy okazji udowodniliśmy, że jeśli zmienna losowa X ma gęstość, to aX + b ma rozkład ciągły o gęstości /«*+ *(«) Jeśli funkcja <p nie jest rosnąca ani malejąca, to wzoru ze stw. 1 nie można zastosować. Ale często wystarczy następujące uogólnienie: Stwierdzenie 3. Niech zmienna losowa X ma rozkład ciągły z gęstością f . Niech n X ( d ) c i = ( J [a*, 6*], fc=l gdzie, oznaczając Ik = [ak,bk], mamy Int/*, flin t/; = 0 dla l ^ k. Niech ip\I —» R będzie klasy C 1 na zbiorach IntĄ, przy czym <p'(x) x 6 Int Ik . Niech hk będzie funkcją odwrotną do ip na Int Ik ■ 0 dla Wtedy Y = <p(X) ma rozkład ciągły z gęstością g: n 9(v) = k= 1 gdzie Dk = ¥>(Int/jt) jest dziedziną funkcji hk. Dowód tego stwierdzenia pozostawiamy Czytelnikowi jako zadanie. Przykład 4. Chcemy znaleźć rozkład Y = ^/\X\, gdy X ~ N (0,1). Funk­ cja <p(x) = -\/\x\, ‘P- R —*■R+ jest monofoniczna na przedziałach h = (-o o , 0], I2 = [0 ,00). Mamy hi(y) = - V2, D i = [0 ,00), h2(y) = y 2, D2 = (0 ,00). Zatem g(y) = /( - 2 / 2 )2yl(0,oo)(y) + / ( 2/2 ) 2 t/l( 0,oo)0 /) = - ^ e - 3^ l (0lOo)(j/). ■ Stwierdzenie 1 można uogólnić na wektory losowe (patrz zad. 5, 6 ). §5.6. Parametry rozkładów 77 Zadania 1. Podać przykład zmiennej losowej X o rozkładzie ciągłym i funkcji dla której <p ( X ) ma rozkład skokowy. <p: R —>R, 2 . Udowodnić, że jeżeli rozkład jest ciągły, to dystrybuanta jest funkcją ciągłą. 3 . X ma rozkład wykładniczy o parametrze a. Znaleźć rozkład Y= 1/X. 4. Udowodnić stwierdzenie 3. 5. Udowodnić, że jeśli wektor losowy X o wartościach w R n ma rozkład ciągły z gęstością / , S jest otwartym podzbiorem R " , takim że P { X € S) — 1, <p: S —> R n jest wzajemnie jednoznacznym odwzorowaniem klasy C 1, J,P ^ 0, to gęstość zmiennej losowej Y = <p ( X ) ma postać g(y) = f(v 1(y))\Jv-i(y)\, 6 . Znaleźć rozkład łączny Yi y€<p(S). = (X\ + X 2)/\ /2 , Y2 = {X\ — X2)/V2, jeśli a) ( X i , X 2) ~ A T ( 0 , (J ° ) ) , b) (XUX 2 )~ M (o, Q ) . § 5.6. Parametry rozkładów Zaczniemy od przykładu, w którym trzeba ocenić opłacalność pewnej gry. Przykład 1. Ktoś proponuje nam udział w następującej grze: rzuca się symetryczną kostką. Jeśli wypadnie 1, wygrywamy 2 zł; jeśli wypadnie 2, płacimy 1 zł; za 3 wygrywamy 4 zl; za 4 płacimy 5 zł; za 5 wygrywamy 3 zł i wreszcie za 6 płacimy 4 zł. Czy warto brać udział w tej grze? Czy na dłuższą metę opłaca się grać ? Opłacalność takiej gry na dłuższą metę łatwo ocenić. Jeśli rozegramy n partii, to każdy z wyników pojawi się średnio w n j 6 przypadków (oczywiście są możliwe losowe odchylenia). Łączna wygrana wyniesie około a średnią wygraną przypadająca na jedną grę obliczamy, dzieląc po prostu łączną wygraną przez liczbę partii, co daje W takim razie gra nie jest opłacalna na dłuższą metę, nie warto też chyba rozgrywać jednej partii. H Definicja wielowymiarowego rozkładu normalnego w § 5.10. Rozdział 5. Zmienne losowe 78 Wymagający (płacę i wymagam) studenci z USA żądają od wykładowcy reguł wyboru reguł, pozwalających rozwiązać zadanie. Zwróćmy uwagę, że możemy wymyślać rozmaite reguły oceny opłacalności gry, nie ma jednak reguły każącej przyjmować taką, a nie inną regułę oceny opłacalności. Jeśli w podobnej grze z prawdopodobieństwem 1/1000 wy­ grywamy 10000 zł, a z prawdopodobieństwem 999/1000 przegrywamy 20 zł, to może warto zaryzykować? Średnia wygrana na jedną grę, obliczona tak jak poprzednio, jest ujemna, ale strata 20 zł nie jest bolesna, a zyskujemy chwilę emocji i możliwość wygrania znaczącej sumy. Doskonale wiedzą o tym organizatorzy wszelkich loterii, gier liczbowych i konkursów audiotele. Po­ dobnie rozumują ci, którzy decydują się na ubezpieczenie, choć strata jest tu gwarantowana: płacimy składkę, a gdy utracimy ubezpieczony obiekt, odszkodowanie nigdy nie pokrywa jego pełnej wartości. Interesujący z wielu względów przykład gry losowej, uprawianej w XVII wieku (i zapewne znacznie wcześniej) w karczmach, można znaleźć w „Wy­ kładach z historii matematyki” Marka Kordosa8. Grano za pomocą tablicy, która przewidywała każdy wynik rzutu trzema nierozróżnialnymi kośćmi. Grający otrzymywał od bankiera, czyli właściciela tablicy, lub wpłacał mu wielokrotność stawki, zależną od wyniku. W pewnych przypadkach gracz był wykluczany z dalszej rozgrywki, w innych — mógł także otrzymać cały bank. Obliczenie średniej wygranej przypadającej na jedną partię jest nie tyle trudne, co żmudne. Sam autor przyznaje, że nie miał dość cierpliwo­ ści, by to zrobić. Rozegrał jednak wiele partii i stwierdził doświadczalnie, że gra jest minimalnie korzystna dla bankiera. Faktycznie bankier wygrywa w jednej partii średnio 0,46% swojej początkowej stawki9. Jak pisze Kordos: Gra była „sprawiedliwa”, bo warunki były dla wszystkich jednakowe i od początku znane, więc chętnych do gry było wielu. Gdyby jednak w widoczny sposób ograbiała ona grających na rzecz prowadzącego grę właściciela, to zginąłby on prędko z nożem w plecach (regulaminy typu totolotek są moż­ liwe tylko w dwudziestowiecznych społeczeństwach). Gdyby z kolei nie przy­ nosiła jakiegoś zysku, to zginąłby z głodu. Tablica ta powstała jak gatunki w przyrodzie — drogą ewolucji! Z kolei średnia wygrana przypadająca na jedną grę w ruletce wynosi Zagadka: dlaczego ostatnio lansuje się formę „teleaudio” ? P~ ~ 0’027 = ~ 2J% 35 ' i? ~ 1 ■ W Toto-Lotku na wygrane przeznacza się 50% wpływów, zatem średnio tracimy połowę stawki. Z kolei w konkursach audiotele na wygrane idzie zaledwie 3-5% wpływów. Miraż głównej wygranej wartości rzędu 50000 zł (na ogół jest to samochód) działa, dzięki telewizji, nadzwyczaj skutecznie10. 8[KOR], ss. 168-169. 9Bożenna Rusiniak, Analiza wybranych „ nieuczciwych” gier losowych , praca magi­ sterska WMIM UW, Warszawa 1996. 10W konkursach audiotele bierze udział czasem nawet 200 tysięcy osób. Koszt jednej rozmowy wynosi 12-20 zł (3-5 min.). Wpływy dla wszystkich telewizji z tego źródła szacuje się na 300 min zł rocznie. §5.6. Parametry rozkładów 79 Powróćmy teraz do wzoru (1). Pojawiły się tam wartości zmiennej loso­ wej (wygranej) i prawdopodobieństwa ich wystąpienia. Sugeruje to, że jeśli zmienna losowa X przyjmuje wartości Xi z prawdopodobieństwami Pi, czyli ma rozkład dyskretny {(£i,Pi)ie/}, to warto badać wyrażenie SX — ^ ' XjPi. i£l (sumowanie może odbywać się po nieskończonym, byle przeliczalnym zbio­ rze wskaźników I). Jest to średnia ważona liczb z wagami pt. W odniesie­ niu do zmiennej losowej będziemy mówić o wartości średniej lub wartości oczekiwanej. Kiedyś używano też wdzięcznego terminu nadzieja matema­ Jeśli rzucasz tyczna (fr. esperance, czego ślad pozostał w symbolu £X). kostką, nie oczekuj wyniku Wartość oczekiwaną zdefiniował Christian Huygens w pracy z 1658 roku równego wartości De ratiociniis in ludo aleae, czyli „O rachubach w grze w kości” . oczekiwanej, Na razie doszliśmy do szkolnej definicji wartości oczekiwanej, chcielibyśmy wynoszącej 3,5 oczka. jednak mieć definicję ogólną, niezależną od typu rozkładu. Otrzymamy ją, korzystając z teorii całki. Otóż jeśli X ma rozkład dyskretny i przyjmuje skończenie wiele wartości, to £ X = Y ,X ip (x = Xi), ie i a to jest nic innego, jak całka z funkcji prostej, przyjmującej wartości Xi na zbiorach Aj = { uj £ H: X(cj) = #j}, względem miary P. W takim razie sensowne są następujące definicje: Definicja 2. Powiemy, że zmienna losowa X o wartościach w R ma war­ tość średnią (wartość oczekiwaną), jeżeli jest całkowalna, czyli jeżeli [ \X\dP<oo. Ja Wtedy wartością średnią (wartością oczekiwaną) zmiennej losowej X na­ zwiemy liczbę £X= f X dP , Ja W przeciwnym razie powiemy, że zmienna losowa nie ma wartości średniej (oczekiwanej). W kasynach wygrane to 74% przychodów, przy automatach do gry - 62%, w Totali­ zatorze Sportowym — 50%, w audiotele — 3-5%. Rencista z zielonogórskiego i jego bezrobotna żona w lutym ’98 łączyli się z audiotele 480 razy, za ponad 10000 zł. (Wojciech Markiewicz, Polityka , 36 (2157) 5 września 1998) Trzy telefonistki z Akademii Medycznej w Gdańsku wydzwoniły od stycznia 1997 do stycznia 1998 sumę 643 000 zl. W wyniku procesu zostały uniewinnione, ponieważ według sądu nie było to ani wyłudzenie, ani oszustwo, ani przywłaszczenie. Wygrywały pieniądze, dezodoranty, bieliznę, złote łańcuszki i lokówki do włosów, warte w sumie ok. 45000 zł. ( Gazeta Wyborcza , 30 września 1999). Rozdział 5. Zmienne losowe 80 Będziemy też mówić o „zmiennej losowej całkowalnej” w odniesieniu do zmiennej losowej, której wartość oczekiwana istnieje. Podobnie jak w teorii całki napis £ X < oo będzie oznaczać, że zmienna losowa X jest całkowalna; £X = oo będzie oznaczać, że X jest nieujemna i niecałkowalna. W ostatnim przypadku powiemy, że wartość średnia jest nieskończona. Definicja 3. Wartością średnią (wartością oczekiwaną) zmiennej losowej X = (X \,... X n) o wartościach w R n nazywamy wektor £ X = (£X 1, . . . , £ X n), o ile wszystkie współrzędne mają wartość średnią. Wartość średnia dziedziczy po całce podstawowe własności, na przykład liniowość i zachowanie przy przejściach granicznych. Najważniejsze z nich podajemy poniżej, a dowody zamieszczamy w dodatku C. Twierdzenie 4 (W łasności wartości średniej). Załóżmy, że wartości średnie £ X i £Y istnieją. Wtedy (i) Jeśli X > 0, to £ X ^ 0. (ii) \£X\ sj £\X\. (iii) Dla a, b £ R istnieje wartość średnia aX + bY i £(aX + bY) = a£X + b£Y. Ponadto (iv) Jeśli X n ^ 0, to £(lim infXn) ^ lim inf£X n n -+ o o n —>oo (lemat Fatou). (v) Jeśli (X n) jest niemalejącym ciągiem nieujemnych zmiennych loso­ wych, to £ limn._>00 X n = limn^ooi^n (twierdzenie Lebesgue’a-Beppo Leviego o zbieżności monotonicznej). (vi) Jeśli (X n) jest takim ciągiem zmiennych losowych, że |Xn| < Z dla pewnej całkowalnej zmiennej losowej Z, to £ lim X n = lim £ X n n~*oo n—*oo (twierdzenie Lebesgue’a o zbieżności zmajoryzowanej). § 5.6. Parametry rozkładów 81 Punkt (iii) twierdzenia 4 uogólnia się na skończoną liczbę zmiennych loso­ wych, mianowicie £(X i + X 2 + ... + X n) = £X\ + ... + £X n, (2) gdy wartości oczekiwane £ X i,i — 1 , . . . , n istnieją. Jest to fakt oczywisty, ale bardzo pożyteczny, gdyż pozwala znacznie uprościć obliczanie warto­ ści oczekiwanej takich zmiennych losowych, które dadzą się przedstawić w postaci sumy prostszych zmiennych losowych, o łatwych do obliczenia wartościach oczekiwanych. Zilustrujemy to przykładami. Przykład 5. Chcemy obliczyć £X, gdzie X jest sumą wyrzuconych oczek przy stukrotnym rzucie kostką. Gdybyśmy obliczali £ X z definicji, to mu­ sielibyśmy znaleźć rozkład X , co jest bardzo pracochłonne. Zastosujemy wzór (2). Gdy X ; jest wynikiem ¿-tego rzutu, to X = X\ + X 2 + ... + Xioo i £ X = £ X x + £X 2 + ... + £ X 100 = 350. ■ Następny przykład ilustruje jedną z metod dowodzenia różnych wzorów z kombinatoryki za pomocą rozważań probabilistycznych. Przykład 6 . Kupujemy k losów na loterii, w której jest M losów przegry­ wających i N wygrywających. Niech X będzie liczbą losów wygrywających wśród tych, które kupujemy. Chcemy znaleźć wartość średnią X . Niech Xi informuje, czy ¿-ty los wygrywa, tzn. Xi = 1, gdy i-ty los jest wygrywający i X { = 0, gdy jest przegrywający. Mamy P (X t = 1) = = N/(M + N ), X = X\ + ... + Xk- Zatem na mocy (2) £ X = k - — ^-1M+N Obliczając £X bezpośrednio z definicji, mamy: k (N\ ( M \ \ l 1 \k—l) 2^ (N +M \ ¡=0 \ k ■ / Stąd, jako produkt uboczny, otrzymujemy tożsamość: f(=0 ' kN (N+M) ~ ~ M +N V fc / W obu przykładach zmienne losowe Xi miały jednakowy rozkład, ale nie zawsze musi tak być (patrz np. zad. 10 ). Zobaczymy teraz, jak obliczać wartości średnie funkcji zmiennych losowych wyłącznie na podstawie znajomości rozkładu zmiennej losowej. Warto so­ bie uświadomić, że wszystkie charakterystyki liczbowe zmiennych losowych omawiane w tym rozdziale zależą wyłącznie od rozkładu. Sformułujemy twierdzenie nieco ogólniej, by móc w przyszłości obliczać wszelkie takie charakterystyki. Rozdział 5. Zmienne losowe 82 Twierdzenie 7. Niech ip: R n —>R będzie funkcją borelowską, a X zmien­ ną losową o wartościach w R n. Wtedy przy czym równość należy rozumieć tak: jeśli całka po jednej stronie istnieje, to istnieje także całka po drugiej stronie i są one równe. D o w ó d . Ze stwierdzenia 5.1.3 wynika, że <p(X) jest zmienną losową. Za­ stosujemy standardową metodę stopniowego komplikowania funkcji ip. 1. Niech ip = 1 ,4 , gdzie A jest zbiorem borelowskim w R ". £<p(X) = 1 •P (X £ i ) + 0- P (X <£ A) = Hx{A) = / l-/j.x ( d x ) - / Ja JR tp(x)nx{dx). " 2. Niech ip będzie funkcją prostą, tzn. ip = Y^=i x i^Ai ■Z liniowości całki (rozpatrujemy tu z jednej strony całkę po przestrzeni fi, z drugiej — po R n) i z punktu 1 wynika natychmiast żądana równość dla funkcji prostych. 3. Jeśli <p jest dowolną nieujemną funkcją borelowską, to jest granicą monotonicznego ciągu nieujemnych funkcji prostych. Zastosowanie twierdzenia Lebesgue’a-Leviego o zbieżności monotonicznej do wy­ niku z punktu 2 daje żądaną równość dla nieujemnych funkcji borelowskich (istnienie całki po jednej stronie implikuje istnienie całki po drugiej stronie i równość obu całek). 4. Jeśli <pjest dowolną funkcją borelowską, to ip = <p+ —<p~, a jeśli £<p{X) ma sens, to całkowalne są także nieujemne zmienne losowe [tp(X)]+ = = ip+ (X ) oraz [i/>(X)]"" = tp~(X). Po zastosowaniu wyniku z po­ przedniego punktu wnioskujemy, że istnieją całki oraz że zachodzi żądana równość. I odwrotnie, jeśli dwie ostatnie całki istnieją, to £ip{X) ma sens i jest równa ich różnicy. ■ W szczególnych przypadkach — rozkładów ciągłych i dyskretnych — udo­ wodniony wzór daje się zapisać następująco: W niosek 8 . Jeśli zmienna losowa X ma rozkład dyskretny {(a'H,Pi)i£i}, to wartość oczekiwana istnieje wtedy i tylko wtedy, gdy zbieżny jest szereg \<p{xi)\pi, i wyraża się wzorem § 5.6. Parametry rozkładów 83 Bezwzględna zbieżność szeregu wyraża całkowalność zmien­ nej losowej <p(X). Wobec tego, jeśli np. X przyjmuje wartości rzeczywiste, to do istnienia £(X ) nie wystarcza zwykła zbieżność szeregu J2xiPi i musi on być zbieżny bezwzględnie. Warto sobie uświadomić, że jeśli szereg jest zbieżny tylko warunkowo, to przez odpowiednią zmianę kolejności sumowa­ nia można otrzymać dowolną sumę (w tym ± 00; jest to twierdzenie Riemanna, patrz [RUD-2], tw. 3.55), więc próby „osłabiania” definicji wartości oczekiwanej raczej nie dałyby rozsądnych wyników. W niosek 9. Jeśli zmienna losowa X o wartościach w R n ma rozkład, cią­ gły o gęstości g, a funkcja <p: R n —>R jest borelowska, to £tp(X) = I JRn ip(x)g(x) dx, przy czym całkowalność jednej ze stron implikuje całkowalność drugiej i rów­ ność całek. D o w ó d wymaga powtórzenia kroków dowodowych poprzedniego twierdze­ nia z oczywistymi zmianami. Można też zauważyć, że dla każdej mierzalnej funkcji f [ JR " f (s )K ds) = [ JR n f ( s)g(s) ds, jeśli tylko jedna z całek ma sens. Dowód tego faktu także łudząco przypo­ mina dowód poprzedniego twierdzenia. ■ Przykład 10. Znaleźć wartość oczekiwaną pola prostokąta, którego ob­ wód jest równy 20, a jeden bok jest zmienną losową X o rozkładzie jedno­ stajnym na [1,10]. R o z w i ą z a n i e . Pole prostokąta jest równe X-(10—X ), a gęstość rozkładu jednostajnego g(s) = gl[i,i 0](s), stąd / co /*10 s (10 - s)g(s) d s= ■00 1 - s (10 - s) ds = 18. ■ J 1 9 Ponieważ dystrybuanta wyznacza jednoznacznie rozkład, to powinno być możliwe obliczenie wartości oczekiwanej na podstawie znajomości dystrybuanty. Zaczniemy od najprostszego wzoru tego typu: Stwierdzenie 11. Jeśli X ^ 0, to /*00 £X= Jo (1 —Fx (t)) dt = / /’OO P ( X > t )d t , Jo przy czym istnienie jednej strony implikuje istnienie drugiej i ich równość. Rozdział 5. Zmienne losowe 84 D o wó d . Skorzystamy z twierdzenia Fubiniego. Miarą produktową będzie produkt rozkładu zmiennej losowej X i miary Lebesgue’a. Inne tego rodzaju wzory można znaleźć w zad. 2-4. Kolejnym ważnym parametrem rozkładu jest wariancja. Jest ona miarą rozrzutu rozkładu wokół wartości średniej. Definicja 12. Jeśli £ (X —£ X )2 < oo, to tę liczbę nazywamy wariancją zmiennej losowej X o wartościach rzeczywistych i oznaczamy: V 2X = £ (X - £ X )2. Jest to po prostu średni kwadrat odchylenia od średniej. Wariancję można obliczać również w inny, często wygodniejszy, sposób: V 2X = £ X 2 - (£ X )2. Dowód . V 2X = £(X - £ X )2 = £ (X 2 - 2X £X + ( £ X )2 ) = £ X 2 - ( £ X ) 2. u Twierdzenie 13 (W łasności wariancji). Jeśli X jest zmienną losową, dla której £ X 2 < oo, to istnieje V 2X oraz: (i) V 2X > 0. (ii) V 2(cX) = c2V 2X (iii) V 2(X + a ) = V 2X (iv) T>2X = 0 wtedy i tylko wtedy, gdy zmienna losowa X jest z prawdo­ podobieństwem 1 stała. Do wó d . Jeśli £ X 2 < oo, to z nierówności |i| < |i|2 + 1 wynika istnienie £ X i wtedy £ X 2 — (£ X )2 < oo. Dowody własności (i)-(iv) pozostawiamy jako ćwiczenie. ■ § 5.6. Parametry rozkładów 85 Zwróćmy uwagę, że funkcja f ( t ) = £ ( X —t)2 przyjmuje minimum — równe wariancji — dla i = £ X (por. zad. 6). Pierwiastek z wariancji nazywamy odchyleniem standardowym: o x = V v 2x . Udowodnione wcześniej wzory na S<p(X) pozwalają obliczać wariancję za pomocą rozkładu fj,x, jeśli przyjmiemy <p(t) = t2 lub ip(t) = (i —m)2, gdzie m = £X . Mamy więc dla zmiennych losowych o rozkładzie dyskretnym oo oo V 2X = ^ ( X i - rnfpi = Y ^ xh i - ™2. 1=1 2—1 a dla zmiennych losowych o rozkładzie ciągłym z gęstością g(x): / OO p oo (x —m)2g(x) d x = •oo x 2g{x) dx —m2, J —oo przy założeniu zbieżności odpowiedniego szeregu/całki. Wartość oczekiwana i wariancja są szczególnymi przypadkami tak zwanych momentów. Momentem absolutnym rzędu r > 0 nazywamy liczbę £\X —a|r, a zwykłym — £ (X —a)r. Ostatnie wyrażenie ma zawsze sens dla r naturalnych. Jeśli a = £ X , to moment nazywamy centralnym. Nazewnictwo powinno się kojarzyć z mechaniką. Faktycznie, jeśli zamiast rozkładów prawdopodobieństwa wyobrazimy sobie rozkłady masy (gęstość rozkładu ma naturalną interpretację — jest to zwykła gęstość), to okaże się, że wartość średnia jest położeniem środka masy, a wariancja jest momentem bezwładności względem środka masy (por. zad. 1). Momenty wyższych rzędów wykorzystuje się w statystyce do mierzenia asy­ metrii (statystycy używają tu słowa „skośność” ) rozkładów i stopnia kon­ centracji wokół wartości średniej. Współczynnik asymetrii (skośności) jest zdefiniowany wzorem “3_ £ (X - £ X f {V 2X f / 2 ' Dzięki wyrażeniu w mianowniku współczynnik asymetrii nie zmienia się przy pomnożeniu zmiennej losowej X przez stałą. Tak samo jest dla kurtozy, zwanej także współczynnikiem spłaszczenia i zdefiniowanej jako 4 £ {X -£ X f (V2X ) 2 Kurtoza mierzy stopień koncentracji rozkładu wokół średniej (patrz zad. 15). Rozdział 5. Zmienne losowe 86 Omówimy teraz parametr charakteryzujący związek między dwiema zmien­ nymi losowymi. Można go uważać za parametr rozkładu dwuwymiarowego, czyli łącznego rozkładu pary zmiennych (X ,Y ). Definicja 14. Kowariancją całkowalnych zmiennych losowych X iY , speł­ niających warunek £|Xy| < oo, nazywamy wielkość cov{X, Y ) = £ [(X - £ X )(Y - £ Y )]. Uwaga 15. cov(X ,Y ) = £ {X Y ) - £ X £ Y . Jeśli cav(X, Y) — 0, to zmienne losowe X i Y nazywamy nieskorelowanymi. Na mocy nierówności Schwarza dla całek (patrz tw. 5.7.1) mamy |cav(X, Y) |^ V V 2X V 2Y, przy czym równość zachodzi wtedy i tylko wtedy, gdy zmienne losowe X i Y są związane liniową zależnością (typu aX + bY = c, gdzie a2 + b2 >0). Wynika stąd także, że kowariancja istnieje, gdy istnieją odpowiednie wa­ riancje. Jeśli zdefiniujemy współczynnik korelacji wzorem c o v ( x ,y ) V v 2x v 2y ’ to z powiedzianego wyżej wynika, że |p| < 1 , a |p| = 1 tylko w przypadku li­ niowej zależności między zmiennymi. Związek współczynnika korelacji z nie­ zależnością zmiennych losowych przedyskutujemy, gdy wprowadzimy to po­ jęcie. Odnotujmy jeszcze ważny fakt: Twierdzenie 16. Jeśli zmienne losowe X \,. . . , X n mają wariancję, to ist­ nieje wariancja sumy i TL V 2( X 1 + ... + X n) = Y JV 2X i + 2 ¿=1 c ov{Xi, X j ). l ^ i < ,7 ^ n Dowód. V 2(X 1 + ... + X n) = £ {X x + ... + X n)2 - (£ X t + ... + £ X n)2 = = X > X 2 - (£X i)2] + ¿=1 + 2 ( £ X iX j - £ X i£ X j ) = n = ^ D 2X l + 2 i= 1 J2 cav(Xi,X j ).m (3) § 5.6. Parametry rozkładów 87 W niosek 17. Jeśli zmienne losowe X i ,... X n mają wariancję i są parami nieskorelowane, to n V 2(X 1 + . . . + X n) = Y , T>2xi¿=1 Przykład 18. Wkładamy losowo n listów do różnych adresatów do n ko­ pert. Znaleźć wartość średnią i wariancję liczby listów włożonych prawi­ dłowo. R o z w i ą z a n i e . Niech X będzie liczbą Mstów włożonych prawidłowo, a X r, i = 1 , 2 , . . . , n, będzie zmienną losową mówiącą, czy i-ty list został dobrze włożony, czyli X t = 1, jeśli i-ty list został włożony prawidłowo, i X z = 0 w przeciwnym razie. Ponieważ P (X l = 1) = l/n , to £ X = 1. Nietrudno zobaczyć, że £(X iX j) = P (X iX j = 1) = 1/n(n — 1) dla i ^ j , więc korzystając ze wzoru (3) otrzymujemy T>2X = 1. ■ Dla wektora losowego X = (X i , ...,X n) odpowiednikiem wariancji jest macierz kowariancji. Definicja 19. Jeśli T>2Xj < oo dla każdego j = 1,2,. . . , n, to macierz Qx = [cy]ij=i,...,nj gdzie Cij = cov(X i,X j) nazywamy macierzą kowarian­ cji wektora losowego X = (X i,.. .X n). Twierdzenie 20. Macierz kowariancji ma następujące własności: (i) jest symetryczna; (ii) jest nieujemnie określona, tzn. dla każdego skończonego ciągu liczb rzeczywistych ii, *.., tji TYiamy j i j ^ 0, jest (iii) Jeśli rank(Qx) = k < n, to istnieje (n — k) równań liniowych wią­ rank(>l) rzędem macierzy żących zmienne losowe X \ ,X i,... ,X n, więc (X \ ,... ,X n) przyjmuje A. wartości z pewnej k-wymiarowej hiperplaszczyzny. D o wó d , (i) jest oczywiste. (ii) Rozważmy zmienną losową Y = UXi. Jeśli £Xi = m^, to n £Y = y > m ź Ż= 1 oraz 0 < V 2(Y) = £ ( y , U ( X l - mi)") = Y , titj cov (X u X/). \ i= l ) i,j Rozdział 5. Zmienne losowe 88 (iii) Rozpatrzmy formę kwadratową n Qx(&) — ^ ^ Cijdidj, d (&1, . . . ,(2n)- i,j= l Ponieważ rank(Qx) = k < n, to istnieje n —k liniowo niezależnych wekto­ rów a W , ... ,a(n k\ takich że Q x {a ^ ) = 0 dla l = 1,2,... ,n —k. Ale co otrzymaliśmy w dowodzie punktu 2 , więc dla l = 1, . . . , n — k mamy Zadania 1. Na nieważkim pręcie umieszczono masy pi w punktach o współrzędnych x,, i = 1,2,__ Wyznaczyć środek ciężkości układu i moment bezwładności względem środka ciężkości. Przyjąć, że Pi ~ 2. Udowodnić, że jeśli X ^ 0 to: 'OO P(X > i) dt, (4) OO OO Uwaga. Z nierówności (5) wynika, że nieujemna zmienna losowa X jest całkowalna wtedy i tylko wtedy, gdy OO 71= 1 Kryterium to przyda się jeszcze w dowodzie prawa wielkich liczb. 3. Udowodnić, że jeśli X ^ 0, r > 0, to 4. Udowodnić, że jeśli X ^ 0, <pjest rosnąca i różniczkowalna, <p(0) = 0, to 5. W tabeli podano pola powierzchni, zamknięte przez wybrane poziomice. Po­ ziomica zerowa jest brzegiem jeziora, którego maksymalna głębokość wynosi 54 m. Oszacować objętość jeziora, posługując się wzorem analogicznym do wzoru ze stw. 11. §5.6. Parametry rozkładów 89 głębokość (m) 0 -1 0 -2 0 -30 -40 -50 powierzchnia (km2) 55,2 45,8 39,1 27,2 13,0 4,9 6 . Znaleźć minimum funkcji < p(t) = £(X —i)2, gdzie X jest zmienną losową mającą wariancję. Na ostatnich sesjach WIG wahał się bez jednoznacznej tendencji. Na wykresie tygodniowym pojawiła się świeca z małym czarnym korpusem i stosunkowo długim knotem na dole. Na wysokim poziomie cen świece tego typu na ogół interpretuje się jako negatywną formację wisielca. Parkiet, pierwsza połowa 2000 r. Formacje młota, wisielca i spadającej gwiazdy jak widać do dziś pobudzają wy­ obraźnię spekulantów, pragnących zostać „straszliwymi demonami rynku” — ta­ kie bowiem poetyczne terminy stosowali Japończycy na terminowym rynku ryżu w Edo (obecnie Tokio) w XVII wieku. Jak się wydaje, byli oni pionierami kon­ traktów terminowych i analizy technicznej. My natomiast zajmiemy się trywialnym w gruncie rzeczy zastosowaniem wartości oczekiwanej, wariancji i współczynnika korelacji. Zagadnienie portfela inwestycyjnego. Dla papierów wartościowych notowa­ nych na rynku kapitałowym można zdefiniować dwie ważne charakterystyki: stopę zwrotu i ryzyko. Obie są mierzone w procentach. Stopa zwrotu jest (oczywiście) zmienną losową, ryzyko — odchyleniem standardowym tej zmiennej losowej. Jeśli stopa zwrotu (np. w stosunku rocznym) wynosi 7%, a ryzyko — 4%, oznacza to, że średni zwrot z kapitału 1000 zł będzie równy 70 zł. Możliwe są jednak losowe odchylenia i ich typowe wartości są rzędu 40 zi. Zatem stopa zwrotu od 30 do 110 zł nie będzie niczym dziwnym. Zmienne losowe odpowiadające poszczegól­ nym papierom wartościowym mogą być skorelowane dodatnio (np. akcje dwóch firm budowlanych), ujemnie (np. akcje kompanii naftowej i linii lotniczych), albo nieskorelowane (tu ciężko o dobry przykład). Inwestorzy nie lubią ryzyka i konstruują portfele inwestycyjne tak, by przy danej stopie zwrotu ryzyko było najmniejsze. Z drugiej strony, wysoka stopa zwrotu może skłonić do akceptacji podwyższonego ryzyka. Poniższe proste zadanie ilustruje problem w przypadku dwóch rodzajów papierów wartościowych. 7. Zmienne losowe X0 i Xi mają dane wartości oczekiwane, wariancje i współ­ czynnik korelacji: £X0 = 0,05, \/V2X0 = 0,02, £X x = 0,07, = 0,03, p(Xo,Xi) = 0,5. Niech Xt = tX0+ {l-t)X i, t e [0,1]. Dla jakiego t warian­ cja jest minimalna? Przedyskutować związek tego zadania z zagadnieniem portfela inwestycyjnego. 90 Rozdział 5. Zmienne losowe 8 . Udowodnić, że jeśli X jest zmienną losową przyjmującą wartości całkowite nieujemne, to £X — P(X ^ n)9. Obliczyć, korzystając z zadania 8 , wartość oczekiwaną zmiennej losowej X o rozkładzie geometrycznym (przyjmującej wartości 1, 2,...). 10. Rzucamy kostką tak długo, aż wyrzucimy wszystkie oczka. Znaleźć wartość średnią liczby rzutów. 11. X ,Y mają jednakowy rozkład. Czy jest prawdą, że S 12. Niech X będzie wektorem losowym n-wymiarowym, A — macierzą p x n, B — macierzą p X m . Udowodnić, że: a) jeśli £X istnieje, to £ (AX'*) = A£ (X ? , £.(AY‘ B) = AS (X )4 B; b) jeśli macierz kowariancji Qx istnieje, to Q a x = A QxAt. 13. Jak możliwie najdokładniej zmierzyć długości dwóch prętów za pomocą zwy­ kłej miarki, jeśli wolno mierzyć tylko dwa razy? Błąd pomiaru jest zmienną losową o zerowej średniej i wariancji a2. Błędy poszczególnych pomiarów są niezależne. 14. Wyznaczyć współczynnik asymetrii dla rozkładu wykładniczego. 15. Wyznaczyć kurtozę dla rozkładu: a) jednostajnego, b) normalnego, c) wy­ kładniczego. Zagadnienie regresji liniowej. Jeśli X i Y są zmiennymi losowymi, można zastanawiać się nad znalezieniem funkcji liniowej jednej z tych zmiennych, która najlepiej — w jakimś sensie — przybliża drugą. Zadanie to ma oczywiste zasto­ sowania. Kiedyś popularna była regułka „prawidłowa waga (mężczyzny) w kilo­ gramach to wzrost w centymetrach minus 100” , która nie mogła być rzecz jasna spełniona dokładnie, ale jej zaletą była prostota (modny obecnie body mass index wymaga podnoszenia wzrostu do kwadratu). Często na podstawie wartości zmien­ nej losowej X, którą możemy obserwować, chcemy oszacować albo prognozować wartość drugiej zmiennej losowej Y. Oto możliwe pary zmiennych losowych: liczba klientów — obroty, przebieg samochodu — zużycie paliwa, wielkość produkcji — zużycie energii, indeks giełdy w Nowym Jorku dziś — WIG jutro. W następnym zadaniu proponujemy rozwiązanie zagadnienia regresji liniowej. Kryterium jakości przybliżenia jest średni kwadrat błędu. 16. Niech X i Y będą zmiennymi losowymi o skończonej wariancji, V2X ^ 0. Wyznaczyć takie liczby a, b, żeby S (Y —aX —b)2 była minimalna. Prostą o równaniu y = -V ^ k x -S X )+ E Y (6 ) nazywamy prostą regresji (albo krzywą regesji liniowej) Y względem X. Jak wygląda rzecz w praktyce? Jeśli zbierzemy dane o zmiennych losowych X i Y, otrzymamy n par (Xi, yi). Przyjmujemy teraz, że każda taka para ma szanse pojawienia się l/n , obliczamy wariancje oraz kowariancję, uznajemy je za fak­ tyczne parametry rozkładów zmiennych losowych X i V, a następnie wstawiamy do wzoru (6 ). Statystycy nazywają obliczone tak wielkości wariancją z próby i ko­ wariancją z próby. W terminologii statystycznej są one estymatorami wariancji i kowariancji. § 5.7. Nierówności związane z momentami 91 17. Wykazać, że współczynnik korelacji jest symetryczny, tj. p(X, Y) = p(Y,X), i p(aX 4-b,Y) = sgna •p(X,Y), o ile a ^ 0, czyli jego moduł nie zmienia się Obrażasz moją przy przekształceniach liniowych. inteligencję. Mario Puzo, 18. Na podstawie samodzielnie zebranych danych statystycznych rozwiązać za­ „O jciec gadnienie regresji liniowej. chrzestny” 19. Losowe sumy i reakcja łańcuchowa. W chwili t ,t = 2, 3,. . . cząstka albo znika z prawdopodobieństwem q, albo przekształca się w m takich samych cząstek z prawdopodobieństwem p = 1 —q. Jaka jest średnia liczba cząstek w n-tym pokoleniu? §5.7. Nierówności związane z momentami W tym paragrafie udowodnimy kilka znanych z analizy i bardzo pożytecz­ nych nierówności związanych z momentami zmiennych losowych. Pierwsza z nich ma co najmniej trzech autorów: Cauchy’ego, Buniakowskiego i Schwa­ rza. W dalszym ciągu będziemy się do niej odwoływać jako do nierówności Schwarza. Twierdzenie 1 (Nierówność Schwarza). Jeśli £ X 2 < oo, £ Y 2 < oo, to (£\XY\)2 < £ X 2£ Y 2. (1) Do wó d . Można założyć, że £ X 2 > 0 i £ Y 2 > 0 (w przeciwnym przypadku nierówność jest oczywista, patrz zad. 1). Ponieważ 2 |a6|< a2 + b2 dla a,b e R, to kładąc a = X = X/{£X2)i i b = Y = Y/(£Y2) i, a następ­ nie biorąc wartość oczekiwaną, otrzymujemy 2£\XY\ < £ X 2 + £Y 2 = 2, czyli £|XK| < 1. ■ Twierdzenie 2 (Nierówność Jensena). Niech £\X\ < oo i niech g bę­ dzie taką funkcją wypukłą, że £\g(X)[ < oo. Wtedy g( £ X) < £g(X). (2) Do wó d . Ponieważ g jest wypukła, to dla każdego punktu xo istnieje stała A(*o) taka, że dla każdego y € R g{y) > g(x o) + { y - x 0)x(x0). Powyższa nierówność wyraża fakt, że wykres funkcji wypukłej ma w każdym punkcie prostą podpierającą. Rozdział 5. Zmienne losowe 92 Biorąc x 0 = y = X (u ) otrzymujemy g(X ) > g(£X ) + (X -S X )X {£ X ) prawie na pewno. Po wzięciu wartości oczekiwanej obu stron otrzymujemy tezę. ■ Teraz podamy uogólnienie nierówności Cauchy’ego-Buniakowskiego-Schwarza. Twierdzenie 3 (Nierówność H oldera). Niech p > 1, q > 1 spełniają równość i + ^ = 1. Jeśli £\X\P < oo, £\Y\q < oo, to £\XY\ < oo i £ ix y u (5 | x n p (5 | y n i (3) D o w ó d . Funkcja log a: jest wklęsła na (0, oo), więc dla dowolnych dodat­ nich a, b, x, y, a + b = 1 , mamy log(oa; + by) > a log x + b log y = log x ayb. Stąd ax + by ^ x ayb. Biorąc a = jj, b = A, x = wp, y = z9, w > 0, z > 0, otrzymujemy nierówność Younga wz sC - w p + ~zq. p q (4) Niech X = \X\/{£\Xf)v, Y = \Y\/{£\Y\i)k (znowu, gdy £\X\P = 0 lub £\Y\q = 0, to nierówność (4) jest oczywista). Gdy wstawimy do (4) X zamiast w, Y zamiast z i weźmiemy wartość oczekiwaną, to otrzymamy tezę. ■ Udowodnimy prostą, ale niezwykle użyteczną w rachunku prawdopodobień­ stwa nierówność. Niektóre źródła przypisują tę Twierdzenie 4 (Nierówność Czebyszewa). Niech X będzie nieujemną nierówność zmienną losową. Wtedy dla każdego e > 0, Markowowi. P (X > e) ^ Ź j-. D o w ó d . eP (X ^ e) ^ Ą x^e} X ^ £%• ■ Przedstawimy teraz kilka wariantów nierówności Czebyszewa. Przypominamy, że ess sup X oznacza supremum istotne X , czyli §5.7. Nierówności związane z momentami 93 Jeśli Czytelnik nie rozumie powyższego napisu, jest całkowicie usprawiedli­ wiony. Użycie dystrybuanty prowadzi do znacznie prostszej definicji: ess supX = inf{i € R: Fx(t) = 1}. Twierdzenie 5 (Uogólniona nierówność Czebyszewa). Niech funkc­ ja g: R —>R będzie borelowska i dodatnia. (a) Jeśli g jest niemalejąca, to dla dowolnego a € R w n - M <P(x>a)<* m ' esssup^(A) g[a) . (5) ( 6) Jesii g jest parzysta i niemalejąca na [0, oo), to dla e > 0 esssupg(X) g(e) D o w ó d , (a) Postępując analogicznie jak w dowodzie twierdzenia 4 mamy g(a)P(X > a ) < f J{X>a} g{X) dP < Sg{X) < < ess sup^(X) •P (X > a) + g(a), skąd wynika (5). Punkt (b) dowodzi się analogicznie. ■ Z uogólnionej nierówności Czebyszewa otrzymujemy jako wniosek, dobiera­ jąc specjalną postać g, szereg oszacowań. W niosek 6 . (a) Nierówność Markowa. Niech p > 0. Wtedy P {\ X \ > e)< ^ (7) dla dowolnego e > 0 . (b) Nierówność Czebyszewa-Bienayme. 7)2X P (\ X -£ X \ > e )< ^ r (8 ) dla dowolnego e > 0 . (c) W ykładnicza nierówność Czebyszewa. Jeśli £epX < oo dla pew­ nego p > 0, to dla X € [0,p] c \x P {X > e )* i^ r dla dowolnego e. (9) Rozdział 5. Zmienne losowe 94 Nierówność Czebyszewa ma interesujące zastosowanie w analizie. Przykład 7 (Twierdzenie Bernsteina). Każdą funkcję ciągłą / na od­ cinku [0,1] można jednostajnie przybliżać ciągiem wielomianów Bernsteina D o w ó d . Niech m (f,6 ) będzie modułem ciągłości funkcji / , czyli m (f,6) = SUP \f(x) - f ( y ) l S> ° x,y£[0,l] \x-y\<6 oraz M = supie [0jl] |/(z)| < oo, bo / jest ograniczona. Ustalmy x 6 [0,1]. Niech Sn będzie zmienną losową o rozkładzie Bernoulliego z parametrami n, x. Wtedy £ f(S n/n) = Bn(x) i z nierówności Czebyszewa ( 8 ) mamy 1 4ni Stąd 1/ ( * ) - Bn{x)\ ^ /(») - / x k{\ - x )n~k + i} < m (f,n i) + 2 M p ( Sn / —i \ M. < m ( / , n i) + — ¡-, 2n5 gdzie prawa strona nie zależy od x. Ponieważ / jest ciągła na odcinku [0,1], więc jest jednostajnie ciągła i lim,5_,o , S) = 0. Zatem lim sup |f(x ) - Bn(x)| = 0. ■ n->ooi:e[0,l] Zadania 1. Udowodnić nierówność (1), gdy £X 2 = 0. 2. Udowodnić, że w nierówności Holdera (3) zachodzi równość wtedy i tylko XIi p.n. wtedy, gdy §5.8. Niezależne zmienne losowe 95 3. Pokazać, że jeśli 0 < p < g, to 4. Pokazać, że jeśli £ X ^ 0, 0 < £ X 2 < oo, A £ [0,1], to P (X > X£X) > (1 - A)2^ | | f , a w szczególności P {X > 0 )^ -| f ? . 5. Udowodnić nierówności (7), (8) i (9). 6 . Wykazać, że jeśli X > 0 i £ X > 0, to 7. Udowodnić regułę 3-a (trzech sigm): jeśli V 2X = a 2 < oo, to P (| X -i :A :| > 3 c r ) < i. 8. Udowodnić nierówność Minkowskiego: jeśli p ^ 1, to (£\X + Y\p)llp § 5.8. (£\X\pf h + (£ \Y\vf lp. Niezależne zmienne losowe Definicja niezależności zmiennych losowych jest naturalna: zdarzenia, gene­ rowane przez poszczególne zmienne losowe powinny być niezależne. Definicja 1. Zmienne losowe X%,X2 , . . . , X n o wartościach w R, okre­ ślone na (fi, T, P) nazywamy niezależnymi, gdy dla każdego ciągu zbiorów borelowskich Bi, B2 , Bn zachodzi równość P {X f € B u X 2 e B 2, . . . , X n e B n) = P {X l e B1) •... •P (X n e B „).(l) Z (1) widać, że rozkład łączny niezależnych zmiennych losowych X i, X 2 , ..., X n jest wyznaczony przez rozkłady brzegowe, a dokładniej — przez rozkłady zmiennych losowych X l. Definicję 1 można także wypowiedzieć krótko: zmienne losowe są niezależne wtedy i tylko wtedy, gdy niezależne są cr-ciała, generowane przez te zmienne Niezależność losowe. Istotnie, po prawej stronie równości (1) występują zdarzenia postaci (j-cial zdefiniowaliśmy w X ~ 1(Bi), gdzie Bi € S(R ), czyli wszystkie elementy cr-ciał <j(Xi). 4.1.9, w def. 11 zdefiniujemy pojęcie ogólniejsze — niezależność klas zdarzeń. Rozdział 5. Zmienne losowe 96 Przykład 2. Nietrudno wymyślać intuicyjnie oczywiste przykłady nieza­ leżnych. zmiennych losowych. Oto dwa: a) Rzucamy dwa razy kostką, X* jest wynikiem ¿-tego rzutu, i — 1,2. Wtedy zmienne losowe X i, X 2 są niezależne. b) Z talii 52 kart wyciągamy jedną. Niech X będzie jej wartością, a Y jej kolorem (kolory numerujemy od 1 do 4). Wtedy X , Y są niezależne. ■ Dowodzenie czegokolwiek dla dowolnego ciągu zbiorów borelowskich może przestraszyć początkującego. Ale sprawdzanie niezależności da się znacz­ nie uprościć, a głównym narzędziem w dowodach odpowiednich twierdzeń będzie lemat o ir- i A-układach. Oto pierwsze twierdzenie z tej serii: V yT w ierdzen ie 3. Dla zmiennych losowych X i , X 2, . . . , X n o wartościach w R następujące warunki są równoważne: (i) zmienne losowe są niezależne, {ii) P-(xltx 2,...,xn) = <8> Mx2 ® ■••® M x„, (iii) dla wszystkich t j , . . . , tn e R F(xu...,xn)(t 1, •••,tn) = FXl{ti)F x2(t2) ■..F Xn(tn). Dowód. Dowód tego (¿^ (¿¿). Dla dowolnych € B(R), korzystając z niezależności ’ definicji miary produktowej mamy wynikania jest właściwie ^ 1 X . . . X i? n ) _ . P [ X i E By-, ■ * •yX n G B n ) = = p ( Xl 6 Bj) •.. . ■P (X n € Bn) = niepotrzebny, ale warto zobaczyć równoważność = MXi (B i)f/ ,x 2 { B 2) ■. . . •fJ-xn ( B n ) (i)<$(ii). tzn. obie miary są równe na 7r-układzie generującym cr-ciało # (R n), więc są równe na mocy uwagi 5.3.9. (¿¿)=> (¿). Odwracamy rozumowanie. (¿)=i* (¿¿¿). Bierzemy Bi = (—00 , t»] dla i = 1 , 2. .. , n. (iii)=> (ii). Niech F będzie dystrybuantą rozkładu fj,Xl ® ® ■Wtedy F ( t i , . . . , t n) =p.Xl ® V x2 ®- -- ®Ai xn((-oo,£1] x ... x ( - 00 , in]) = \ = M xt ( ( —o o , t i ] ) •. . . ■^ x „ ( ( - o o , t n]) = ' = Fx 1(ii) •... •Fx„ (tn), co z założenia jest równe F^x1,...,xn)(hi •••, tn). Zatem MXi ® MX2 ® ® = /i(X i,...,X „), bo oba rozkłady mają identyczną dystrybuantę. ■ § 5.8. Niezależne zmienne losowe 97 Przykład 4. Niech X lt X 2, . . . , X n będą niezależnymi zmiennymi losowy­ mi. Znaleźć rozkład Y = ma.x(Xi,X2, .. . ,X n), Z = m m (X i,X 2, .. .,X „). R o z w i ą z a n i e . Wyznaczymy dystrybuanty: F y (x ) = P (Y < x) = P(ma,x(X1,X 2, .. . ,X n) ^ x ) — = P (X i < x , . . X n ^ x) = F1(x)F2( x ) . ,.F n(x), Fz (x) = P (Z < x) = 1 - P (Z > x) = 1 - P (X i > * ) • . . . • P (X n > z) = n = i - n i 1 - ^(*m2= 1 W przypadku szczególnym, gdy Xi mają rozkłady jednostajne na [0,1] (co zapiszemy w skrócie: Xi ~ U{0,1]), i = 1,2,... n, mamy f0 dla x < 0 , Fy(x) = < dla 0 ^ x < 1, l 1 dla x > 1. f0 dla x < 0 , Fz{x) = < 1 - (1 - x )n dla 0 < x < 1, V.1 dla x > 1. ■ Gdy zmienne losowe mają taki sam typ rozkładu, to można podać prostsze charakteryzacje niezależności. Zaczniemy od rozkładów dyskretnych. Niech skokowych rozkładu n x , - Sx, będzie zbiorem punktów Tw ierdzenie 5. Zmienne losowe X\,X2, . . . , X n o rozkładach dyskretnych są niezależne wtedy i tylko wtedy, gdy dla każdego ciągu xi, x 2, ■■■, x n, gdzie Xi £ ^Xij i 1-j 2 , •••¡n, P (X ! = XU . . . , X n = X n) = P(X i = X1)P (X 2 = X 2) . . . P {X n = Xn). D o w ó d . => Wprost z definicji niezależności, wystarczy wziąć Bi = {a;;}. <= Sprawdzamy, że jest spełniony warunek (iii) z twierdzenia 3. F(xi,...,xn)(ti> •- ■j tn) ^ ] P{Xi = y i, . . . , X n = yn) = y><ii Vi€SXi = J 2 P (X 1 = Vl)P (X 2 = y2) ■... •P (X n = yn) = = J 2 p (x ^ = vi) £ P{X2 = y i ) x . . . VlKH 2/2^2 yitSxx V2^śx2 ... X Y , P (X n = Vn) = yn^tn yn€Sxn = F X l ( t i ) F x 2( t 2 ) . - . F x n ( t n ). Rozdział 5. Zmienne losowe 98 Operacje na nieskończonych sumach są uprawnione ze względu na dodatniość składników. ■ Przykład 6. Rozpatrzmy schemat Bernoulliego n doświadczeń. Wtedy fi = { 0 , l } n. Niech Xi(u>) = będzie wynikiem i-tego doświadczenia. Zmienne losowe X\, X 2, ■■■, X n są niezależne. Istotnie, niech dj e Sxt = {0,1}, i = 1,2, ..., n. Wtedy -P(-X^ = iii, . . . , Xn On) ^ ( ( ^ 1 , * * * )^ n ) ) = = p £ i = l a * ( 1 — p ) n ~ 5 D i= i a * = n = J [ P ( X i = o i).m i= 1 Teraz zajmiemy się zmiennymi losowymi o rozkładzie ciągłym. Tw ierdzenie 7. Jes/i X i , X 2, ■■■ , X n są zmiennymi losowymi o rozkła­ dach ciągłych z gęstościami odpowiednio gi,g2, •■•, <?n, to zmienne te są niezależne wtedy i tylko wtedy, gdy M(xi,x2,...,x„) jest rozkładem ciągłym z gęstością g( x i ,x 2, . . . , x n) = gx(x1)g2 (x2) . ,.g n(xn). Dowód. Skorzystamy z twierdzenia 3 i twierdzenia Fubiniego. F ( X i , . . . , X n ) ( i l ) •• •i t n ) = F x 1{ t i ) ■ ■ ■ F x n ( t n ) = g i{x i)d x i... gn(xn)dxn = J—OO I gi(xi)g2(x2) . ..g n(xn)d x i. ..d x n, —OO zatem g\g2 ■... ■gn jest gęstością. <= Odwracamy rozumowanie. ■ Przykład 8. a) Niech zmienne losowe X j mają rozkłady jednostajne na [a^, bj], j = 1,2, .. . , n. Są one niezależne wtedy i tylko wtedy, gdy wektor losowy ( X i , X 2, ■■■, X n) ma rozkład jednostajny na [aj, b\] x ... x [an, 6n], Istotnie, n l[a i,6 i] ( X i ) x ... x [an ,6n] *^2; • • •i X n ) i= 1 i korzystamy z twierdzenia 7. b) Wektor losowy (X, Y) ma rozkład jednostajny na okręgu o środku (0,0) i promieniu 1. Zmienne losowe X i Y nie są niezależne. Czytelnik zechce się § 5.8- Niezależne zmienne losowe 99 zastanowić, jak to sprawdzić najmniejszym kosztem (chyba nie warto obli­ czać dystrybuant). Intuicyjny argument jest taki: jeśli X = 1, to Y = 0 — zatem informacja o wartości X daje nową informację o wartości Y. c) Niech Xj ma rozkład N {pij, o f) , j = 1,2,..., n. Współrzędne X lt X 2, . . X n są niezależne wtedy i tylko wtedy, gdy wektor (X i,X 2, ■■. , X n) ma rozkład normalny z wektorem wartości oczekiwanej (m i,m 2, ... ,mn) i diagonalną macierzą kowariancji ' <A 0 ] czyli wtedy i tylko wtedy, gdy (X\, X 2, ■■■, X n) ma rozkład normalny i pa­ rami nieskorelowane współrzędne. To wynika z twierdzenia 7, gdyż = _____:_____e “^ i=1 i=i 1 ( V 2 n ) n crl .. .< J n Można znaleźć przykład dwóch nieskorelowanych zmiennych losowych X i Y o rozkładzie M (0,1), które nie są niezależne (zad. 20). Oczywiście wtedy rozkład łączny H(x,Y) nie może być normalny. ■ Teraz zajmiemy się rodzinami niezależnych zmiennych losowych. Definicja 9. Zmienne losowe (X a)aeA określone na tej samej przestrzeni probabilistycznej nazywamy niezależnymi, gdy dla każdego skończonego cią­ gu indeksów ¿i,*2, •■-,*n £ A, n € N, zmienne losowe X i1, . . . , są niezależne. Przykład 10. W przykładzie 4.2.2 skonstruowaliśmy przestrzeń probabili­ styczną dla nieskończonego ciągu prób Bernoulliego. Niech (Jfn)^!^ będzie takim ciągiem zmiennych losowych na tej przestrzeni, że Xi jest równe 1 (odpowiednio 0 ), jeśli w ¿-tym doświadczeniu zdarzył się sukces (odpowied­ nio porażka). Zmienne losowe X n, n = 1,2,... są niezależne. ■ Jeśli szansa sukcesu w schemacie Bernoulliego jest równa 1/2, to ciąg zmien­ nych losowych (Un), gdzie Un = 2Xn —\ dian = 1,2,..., będziemy nazywać ciągiem Bernoulliego. Zmienne losowe Un są niezależne i przyjmują z rów­ nymi prawdopodobieństwami wartości 1 i —1. Na początku tego paragrafu powiedzieliśmy, że zmienne losowe (Xa)aeA są niezależne wtedy i tylko wtedy, gdy a-ciała ( < x ( X a ) ) a e A są niezależne. De­ finicja 11 poniżej nadaje tej wypowiedzi ścisły sens. Okazuje się, że patrząc Podobne twierdzenie: jeśli dwie nieskorelowane zmienne losowe mają rozkłady dwupunktowe, to są niezależne. Rozdział 5. Zmienne losowe 100 na niezależność w ten sposób, można łatwo otrzymać następujące twier­ dzenie: Zmienne losowe X i ,X 2,■■■ są niezależne. Dzielimy ciąg na bloki dowolnej długości i rozpatrujemy zmienne losowe ••- X mi), . . . X rn2), . . . , gdzie (fi są funkcjami borelowskimi. Okazuje się, ze nowe zmienne losowe są w dalszym ciągu niezależne. Zdefiniujemy zatem niezależność dla rodzin zdarzeń. Definicja 11. Niech {Hj.-i e / } będzie rodziną zbiorów zdarzeń. 3 ź są nie­ zależne wtedy i tylko wtedy, gdy dla każdego zbioru skończonego J-.J c I, dla wszystkich Aj € Sj, j € J zachodzi P ( f ] A j ) = ' [ [ P ( A j ). ŻQJ Twierdzenie 12 (O niezależnych 7r-układach). Niech {E,z:i 6 1} bę­ dzie rodziną -n-układów. Wtedy warunkiem dostatecznym (i koniecznym) niezależności a-ciał {cr(Sj):i 6 1} jest niezależność {S ;:ż G / } . Czy 5 i koniecznie muszą być 7r-układami? Tak, Minimalny kontrprzyklad składa, się z trzech zbiorów, tworzących dwie rodziny (zad. 21). D o wó d . Na mocy definicji niezależności wystarczy rozpatrzyć przypa­ dek, gdy I jest zbiorem skończonym. Dla wygody przyjmijmy, że I = = { 1,2,.. ., n}. Na początek oznaczmy przez Ai klasę zdarzeń B x takich, że n P (£ i n A 2 n ... n A n) = p ( b {) 2 dla wszystkich Aj 6 Ej, j = 2,... ,n. Wystarczy wykazać, że <7(5 ;!) C Ai, wtedy bowiem rodziny cr(Si), Sj, j = 2 , . . . , n są niezależne. Otóż, jak łatwo sprawdzić, Ai jest A-układem, Si C A z założenia. Ponieważ Si jest 7r-układem, z lematu 5.3.6 o ir- i A układach mamy c(Si) C Ai. Przypuśćmy teraz, że udowodniliśmy, iż równość fc p (B i n . . . n ą n A k+i n . . . n A n) = n m i —1 n ) n j= k + 1 zachodzi dla pewnego k < n, o ile Bj g ff(Sj), j = 1 ,. . . , k i Aj £ Sj, j = fc + 1,. . . , n. Rozumowanie podobne do przeprowadzonego powyżej pozwala stwierdzić, że równość ta ma miejsce dla k + 1 , jeśli tylko k + 1 ^ n. W takim razie równość zachodzi dla k = n. m Twierdzenie 13. Niech {F t-t G T }, Tt C T będzie rodziną niezależnych a-ciał i niech zbiór T będzie sumą parami rozłącznych zbiorów Tit i e I. Wtedy niezależna jest rodzina a-ciał G i-a ( U teTi e I- §5.8. Niezależne zmienne losowe 101 Do wó d. Dla każdego i określamy klasę S, wszystkich skończonych iloczy­ nów postaci Btl n . . . n Btn, €T{, Btm G Ttm. S, jest 7r-układem oraz <r(Ej) = G%- Z założenia wynika, że 3* są niezależne (zad. 5), więc z twierdzenia 12 {<r(Ej): i € 1} są niezależne. ■ To twierdzenie pozwoli nam uzyskać zapowiadany już i bardzo ważny fakt, że funkcje borelowskie od niezależnych zmiennych losowych są dalej nieza­ leżnymi zmiennymi losowymi. Twierdzenie 14. Załóżmy, że zmienne losowe ' /' X i,i,X it2, ■■■,Xi!k1,X2)i, ■■■X 2tk25 Xjitl , . - • ,X 7li}Zn są niezależne. Wówczas zmienne losowe = lP j ( X j , i , ••■,X j tf-j), j = 1, 2,..., n, gdzie — funkcje borelowskie takie, że Yj są dobrze zdefiniowane, są nie­ zależne. D o wó d . Wektory Zi = (Xiti , ... , Xitki) są niezależne, bo na mocy twier^ dzenia 13 cr-ciała cr(Zi) = <r((r(Xiti ) ,.. .,a (X itki)), i = l,...,n są niezależne. Ponieważ dla dowolnego zbioru borelowskiego B € 6 (R) {Yj e B } = {Zj e <pj\B)} e a(Zó), to Yi, Y2, . . . , Yn są niezależne. ■ Dlatego na przykład, gdy X i, X 2, ■■■, Xio są niezależne, to X i + X 2 + X 3, X ą —X s, X gX jX$, Xg, eXl° są niezależne. Niezależność zmiennych losowych pomaga w obliczaniu wartości oczekiwa­ nych. Istotnie, zachodzi Twierdzenie 15. Niech X \ ,...,X n będą niezależnymi zmiennymi ¿oso- '/ wymi, które mają wartość oczekiwaną. Wtedy istnieje wartość oczekiwana iloczynu X iX 2 ■... ■X n i S(X 1X 2 -...■ X n) = £ X 1 -£ X 2 - . . . - £ X n. D o w ó d . Niech funkcja ip: R " —>R będzie dana wzorem <p(xi , x2, . . . , xn) = x±x2 *... xn. Rozdział 5. Zmienne losowe 102 Wtedy .., X n) = £{X i ■ X „) istnieje, jeśli tylko \ip(xx, . . . , x n)\p1(Xlt...tx „){d x 1 ...d x n) < oo. Korzystając z założeń i twierdzenia Fubiniego, otrzymujemy \X1 X2 ■■■Xn\ll(Xu...,Xn){dxi •••dxn) ~ \xiX2 -..X n\lJ,xi (dxl)---lJ'Xn(dXn) = n \xi\fjxi(dxi) < oo. Zatem wartość oczekiwana istnieje i wtedy £ (X i •... ■X n) - / xi ■... ■x n/j,{Xu,„<Xn){dxi -.. dxn) = = £ X 1 -£ X 2 - . . . - £ X n. m Uwagi, a) To twierdzenie nie jest prawdziwe dla nieskończonego ciągu zmiennych losowych X i ,X 2 , ■■■(patrz przykł. 11.2.5). b) Z twierdzenia wynika, że jeśli X i i X 2 są niezależne i mają wartość oczekiwaną, to są nieskorelowane (patrz także zad. 6 ). c) Twierdzenie można sformułować nieco inaczej: jeśli jedna ze stron jest całkowalna, to całkowalna jest druga i zachodzi równość. Wystarczy w tym celu zauważyć, że istnienie £ (X\X 2 ■... ■X n) jest równoważne z istnieniem £ (|Xi| •|X2 |•... •\Xn\), skąd — po zastosowaniu twierdzenia Fubiniego dla funkcji nieujemnych — otrzymujemy całkowalność £Xi, i = 1, 2, . . . , n. Tw ierdzenie 16. Jeżeli X i,X 2 , ■.., X n są niezależnymi zmiennymi loso­ wymi, mającymi wariancję, to istnieje wariancja sumy i D o w ó d . Twierdzenie wynika z tw. 5.6.16 i stąd, że niezależne zmienne losowe mające wariancję są nieskorelowane. ■ P rzykład 17. Obliczymy wariancję liczby sukcesów Sn w schemacie Bernoulliego n prób. Ponieważ Sn = X\ + ... + X n, gdzie X{ mówi nam, czy zaszedł sukces w ¿-tym doświadczeniu (wtedy Xi = 1), czy nie (Xi = 0 ) oraz X i , . . . , X n są niezależne (patrz przykład 6 ), to n i— 1 = «*»(!■ - p)- ■ § 5.8. Niezależne zmienne losowe 103 Zajmiemy się teraz rozkładem sumy niezależnych zmiennych losowych. Na początek, niech X i,X 2 będą niezależne, B 6 B(R). Wtedy z niezależności i twierdzenia Fubiniego mamy: f t I+xJ(B) = P ( I 1 + X 2 € B ) = = P ((X UX 2) e { ( x , y ) e R 2:x + y e B }) = = / 1 {x+yeB}{x,y)n{Xl,x2)(dx,dy) = JE2 = / JR2 / l{*+!,6 B } ( x , y ) f i x l ( d x ) n x 2 ( d y ) = r po oo l B- v(x)fiX l(dx) Vx2(dy) = -oo L*» —c oo / #OCi(£ - y)vx2(dy) = (mXi * Mx2)(B). -oo W ostatnim wyrażeniu pojawiła się miara (probabilistyczna), którą nazy­ wamy splotem rozkładów. Jest jasne, że MXi * Px2 = Px2 * l*xi ■ Wykazaliśmy, że rozkład sumy niezależnych zmiennych losowych jest splo­ tem rozkładów tych zmiennych losowych. Gdy założymy dodatkowo, że X\ i X 2 mają rozkłady ciągłe z gęstościami 9it 92 j to korzystając z twierdzenia 5.8.7 otrzymujemy: HX1+X2(B) = (/*Xi * Px 2)(B) = / J R2 = / J—oo = / / / J 13 J —00 5 2 ( 2/ ) d y = S i («)< * « LJ B —y MXi(B - y)fiX2(dy) = J gi(u - y)g2(y) dydu = / (gi *g 2)(u)du, JB gdzie (fl! * S2)(m) = - y)g2 (y)dy jest splotem funkcji znanym z analizy. Zatem udowodniliśmy A gdyby spleść Stwierdzenie 18. Rozkład sumy niezależnych zmiennych losowych o roz­ gęstość z dowolną kładach ciągłych jest zmienną losową o rozkładzie ciągłym z gęstością będącą miarą? splotem gęstości. Przykład 19. Niech X i, będą niezależnymi zmiennymi losowymi o roz­ kładzie ¿/[0,1]. Wtedy X\ + X% ma rozkład (zwany trójkątnym) o gęstości Też można, patrz zad. 12. Rozdział 5. Zmienne losowe 104 Pouczające jest obliczenie splotu trzech (zad. 11) i więcej gęstości jedno­ stajnych. Wykresy stają się wtedy coraz bardziej podobne (dlaczego?) do gęstości rozkładu normalnego. Innym przykładem zastosowania splotu jest Twierdzenie 20. Niech X\, X 2, ■■■, X n będą niezależnymi zmiennymi lo­ sowymi o rozkładzie wykładniczym z parametrem A. Wtedy suma X i + X 2 + ... + X n ma rozkład o gęstości gn i dystrybuancie Gn danych wzorami Jest to rozkład Erlanga. 9n(x) - Ł' Te " Agl <0,M)(3T), 0 n W _ , - . - * ( 1+ £ ( 2) + ...+ £ ! & ) , I>0. (3) Dowód twierdzenia pozostawiamy jako zadanie (zad. 7). Badanie zjawisk losowych przebiegających w czasie prowadzi w naturalny sposób do badania rodzin zmiennych losowych, indeksowanych parametrem interpretowanym jako czas. Oto przykład. Przykład 21 (P roces Poissona). Zdefiniujemy teraz rodzinę zmiennych losowych N (t),t € R + . Taką rodzinę nazywamy ¡procesem stochastycznym, \ a t interpretujemy jako czas. Funkcję N (-,u ), gdzie w jest ustalone, na­ zywamy realizacją (albo trajektorią) procesu stochastycznego. Funkcja ta wyobraża przebieg zjawiska odpowiadający jednej, konkretnie wybranej sy­ Dalej będzie wygodniej pisać tuacji (w) spośród wszystkich możliwych. Nt zamiast N (t). Rozpatrzmy zdarzenia losowe takie, jak pojawianie się cząsteczek promie­ niowania kosmicznego, rozpad radioaktywny, wezwania telefoniczne. Przy­ puśćmy, że przeszłość n.ie ma wpływu na przyszłość. Zatem można przy­ puszczać (nie jest to bowiem formalny argument), że czas oczekiwania na pierwszy sukces (sygnał) będzie zmienną losową z własnością braku pa­ mięci, czyli zmienną losową o rozkładzie wykładniczym (patrz zad. 5.1.16). Po każdym sukcesie wszystko zaczyna się od nowa. Zatem kolejne czasy oczekiwania X k są niezależnymi zmiennymi losowymi i mają ten sam roz­ kład wykładniczy. Zdefiniujmy teraz zmienną losową, liczącą sygnały, które pojawiły się do momentu t: „ df f 0 1 ~ [ sup{n: X i + ... + X n < t} dla X i > t, dla X\ ^ t. Rodzinę Nt, t > 0 nazywa się procesem Poissona. Wyznaczymy teraz rozkład zmiennej losowej Nt. Niech Sn = X i + . . . + X n. Jest to moment pojawienia się n-tego sygnału. Z tw. 20 wynika, że Sn ma 5.8. Niezależne zmienne losowe 105 dystrybuantę Gn daną wzorem (3). Zmienna losowa Nt przyjmuje wartości całkowite nieujemne, czyli wystarczy znaleźć P(Nt = fc) dla fc = 0,1,2,.... P(N t = k) = P{Sk < t, Sk+i > t) = = P(Sk < t) + P(Sk+1 > t) - P ({S k < t } U {Sk+i > i}) = = Gk(t) + (1 - G*+1(t)) - 1 = e“ AiM k\ dla fc > 1, oraz P(Nt = 0) = P (X t > t) = e-Ai. Zatem Nt, ma rozkład Poissona z parametrem Ai. Rozkład ten otrzymamy jeszcze raz w rozdz. 7 jako rozkład graniczny ciągu rozkładów Bernoulliego. Łatwo widać, że P(N q — 0) = 1 i proces ma prawostronnie ciągłe trajek­ torie. Proces Poissona jest procesem o przyrostach niezależnych, czyli dla dowolnych 0 < t0 < ti < ... < tn zmienne losowe są niezależne. Ponadto Nt —Ns ma rozkład Poissona z parametrem A(i —s) (dowody obu stwierdzeń — patrz zad. 9.4.2). ■ Zadania 1. Zmienne losowe X, Y są niezależne i mają gęstości odp. fi i f 2 - Udowodnić, że Z = X/Y ma gęstość g(u) = lylfi(yu)f2(y) dy. 2. Xi, i — 1,2 jest wektorem losowym ¿¡-wymiarowym z gęstością Jeśli X UX2 są niezależne, to (Xi, X 2 ) jest wektorem (di +c!2)-wymiarowym o roz­ kładzie ciągłym z gęstością f (XliX2){z,w) = }x(z)f2{w). 3. Momenty przybycia autobusów A i B są niezależnymi zmiennymi losowymi X ,Y o rozkładzie wykładniczym z parametrami a i ¡x. a) Znaleźć rozkład momentu przybycia pierwszego autobusu. b) Obliczyć prawdopodobieństwo, że autobus A przyjedzie pierwszy. 4. Dowód stw. 4.1.10. Niech {Ai}n=i będzie rodziną zdarzeń niezależnych. Wykazać, że {a(Ai)}n=i jest rodziną <r-ciał niezależnych. 5. Wykazać, że ir-układy H; z dowodu twierdzenia 13 są niezależne. 6 . Podać przykład a) zmiennych losowych X\,Xi zależnych i nieskorelowanych; b) zmiennej losowej X i takich funkcji / , g, że zmienne losowe f(X ) i g(Y) są niezależne. 7. Udowodnić twierdzenie 20. 8 . Niech X, Y będą niezależnymi wektorami losowymi. Wykazać, że P ( X e A, (X , Y ) e B ) = P ((u , Y ) 6 B )tix(du ). / A Rozdział 5. Zmienne losowe 106 9. Niech Z = E iT = i2 gdzie (Un) jest ciągiem Bernoułliego. Wykazać, że Z ma rozkład jednostajny na odcinku [—1,1]. 10. Wykazać, że dla dowolnego ciągu (fin) rozkładów prawdopodobieństwa ist­ nieje taki ciąg niezależnych zmiennych losowych (X „), że X n ~ fin11. Wyznaczyć rozkład sumy trzech niezależnych zmiennych losowych o rozkła­ dzie W[0, 1]. 12. Wykazać, że suma niezależnych zmiennych losowych ma rozkład ciągły, jeśli jeden ze składników ma rozkład ciągły. *13. Udowodnić, że Z = Unjn, gdzie (Un)n jest ciągiem Bernoułliego, ma rozkład ciągły (zbieżność z prawdopodobieństwem 1 tego szeregu można otrzymać z tw. 7.3.2). 14. Dwustronny rozkład wykładniczy. Zmienne losowe X i Y są niezależne i mają ten sam rozkład wykładniczy. Wyznaczyć rozkład X — Y. 15. Niech U = min(X, Y), V = max(X, Y) —min(X, Y), gdzie X, Y są niezależne i mają ten sam rozkład wykładniczy z parametrem A. Wykazać, że U i V są niezależne. Statystyki pozycyjne a proces Poissona. Jeśli X i , . - ■, X n są niezależnymi zmiennymi losowymi o tym samym rozkładzie, to fc-tą statystyką pozycyjną nazy­ wamy fc-ty z kolei wyraz uporządkowanego w sposób rosnący ciągu ( X j , . . . , X n); oznaczamy ją symbolem X(k)W szczególności X (i) = m in(Xi, . . . , X „ ), X (n) = m a x ( X i , . . . , X n). 16. Niech U = U(n)) będzie zbiorem statystyk pozycyjnych dla roz­ kładu jednostajnego na [0,1]. Wykazać, że U ma rozkład jednostajny na zbiorze Are = {(x i, ■■- , x n) £ R " : 0 $ xi ^ X2 ■■■ ^ x n ^ 1}. Wyznaczyć £X(k) dla k = 1 , 2 , . . . , n. Na rynku w Grybowie stoją taksówki o numerach 27, 11 i 3. Jeden z uczestników konferencji probabilistycznej twierdzi, że naj­ prawdopodobniej w miasteczku jest 36 taksówek. Dlacsjego? Patrz odp. fdo zad. 16. Sygnały pojawiające się w procesie Poissona realizują intuicję losowego układu punktów, co ściślej można wypowiedzieć tak: jeśli obserwujemy proces do chwili t (albo do chwili pojawienia się n-tego sygnału), to zaobserwowane sygnały mają taki rozkład na odcinku [0, t] (lub [0, Sn]), jak statystyki pozycyjne dla rozkładu jednostajnego na odpowiednim odcinku. 17. Niech (Sn)%Li będzie ciągiem sygnałów w procesie Poissona. Wykazać, że wektor (Si/S„+i, ■••, Sn/Sn+ 1) ma ten sam rozkład, co U z zad. 16. 18. Wykazać, że w procesie Poissona P((SU ..., Sn) £ A \Nt = n) —P(tU € A), A c An, gdzie U jest wektorem statystyk pozycyjnych z zad. 16. Innymi słowy, jeśli wiadomo, że na odcinku [0, i] pojawiło się n sygnałów, to ich wspólny rozkład jest taki, jak statystyk pozycyjnych dla rozkładu jednostajnego na [0, t]. § 5.8. Niezależne zmienne losowe 107 Paradoks czasu oczekiwania. Załóżmy, że odstępy czasu pomiędzy przyjaz­ dami kolejnych autobusów są niezależne i mają ten sam rozkład wykładniczy z parametrem A, tak że przyjazdy są sygnałami z procesu Poissona (przykład 21). Średni czas oczekiwania na autobus można obliczać na dwa sposoby. Po pierwsze, własność braku pamięci dla rozkładu wykładniczego powoduje, że niezależnie od tego, ile czasu upłynęło od przyjazdu ostatniego autobusu, średni czas oczekiwania jest stale równy 1/ A. Po drugie, na przystanek przychodzimy w chwili to pomiędzy przyjazdami au­ tobusów. Jeśli uznamy tę chwilę za wybraną losowo w odpowiednim przedziale, to średni czas oczekiwania powinien być równy połowie średniego odstępu, czyli 1/2A. Może ta argumentacja jest podejrzana, ale każdym razie średni czas ocze­ kiwania powinien być wyraźnie krótszy niż 1/A. Wyjaśnienie kryje się w fakcie, że przedział zawierający chwilę io jest średnio dłuższy niż 1/A. 19. Wykazać, że średni czas, jaki upłynął od przyjazdu ostatniego autobusu jest równy (1 —e” ^°)/A . Tak więc dla dużych to średni czas od przyjazdu ostatniego autobusu jest prak­ tycznie równy 1/A, taki sam jest czas oczekiwania na najbliższy autobus. Prze­ dział zawierający chwilę io ma średnią długość bliską 2/A, my przychodzimy mniej więcej w jego połowie i paradoks znika. 20. Podać przykład nieskorelowanych zmiennych losowych o rozkładzie N (0,1), które nie są niezależne. 21. Podać kontrprzykład, pokazujący, że tw. 5.8.12 nie jest prawdziwe dla do­ wolnych rodzin zdarzeń. *22. Sym etryczna nierówność Bernsteina. Niech (UTl) będzie ciągiem Bernoulliego, oznaczmy S„ = Ui + . .. + Wykazać, że To symetryczny przypadek nierówności 7.4.2. *23. N ierów ność H ardy’ ego—Littlew ooda. Wywnioskować z zadania 22, że nmsuP _ 7 s Ą = ^ 1 » V2nl°g n P n- lim inf n v 2n logn p.n. Uwaga. Równie dobrze —I f24. Podać przykład dwóch funkcji ciągłych, różnych od stałej, określonych na przedziale [0, 1], które potraktowane jako zmienne losowe (prawdopodobień­ stwem jest miara Lebesgue’a na [0,1]) są niezależne. Czy takie funkcje mogą być klasy C 1? Czy mogą mieć wahanie skończone? 25. Wylosowano niezależnie i zgodnie z tym samym rozkładem o ciągłej dystrybuancie dwie liczby rzeczywiste; pokazano nam jedną z nich. Jeśli prawidłowo odgadniemy, czy jest ona mniejsza czy większa od drugiej, wygramy 106 USD. Co robić? Rozdział 5. Zmienne losowe 108 § 5.9. Różne rodzaje zbieżności zmiennych losowych Definicja 1. Ciąg zmiennych losowych (X n losowej X : jest zbieżny do zmiennej (a) prawie na pewno, jeśli P({w:limJrn(w) = A-(w)}) = l, TL co oznaczamy X n >X ; (b) według prawdopodobieństwa, jeśli dla każdego e > 0 \imP(\Xn - X \ > e ) = 0, n p co oznaczamy X n — >X ; Definicja przestrzeni £ P(Í2, F , P ) ^ we([fug p-tego momentu (w LP), 0 < p < oo, jeśli £\X\P < oo, n £|*^n| , ^ 0 0 d l a Tl = 1 , 2 , . . . % znajduje się w dodatku C. lim £| X n — X \ p = 0, n V n — L P >X V . co oznaczamy X Każda z tych zbieżności ma swój odpowiednik w analizie (są to odpowiednio zbieżności prawie wszędzie, według miary i w LP). W przyszłości pojawi się jeszcze jeden rodzaj zbieżności, najważniejszy z punktu widzenia rachunku prawdopodobieństwa: zbieżność według rozkładu (patrz rozdział 8). Zajmiemy się teraz zbieżnością prawie na pewno. Bezpośrednio z definicji wynika następujące stwierdzenie: Stwierdzenie 2. Jeśli X n + X , Yn Y , to (a) dla dowolnych a, b € R jest aXn + bYn aX + bY; (b) X n -Yn ^ X - Y ; (c) jeśli P (X ± 0) = 1, to 1{X^ 0} j t ^ i' i Mamy też charakteryzację zbieżności prawie na pewno: Twierdzenie 3. Następujące warunki są równoważne: § 5.9. Różne rodzaje zbieżności zmiennych losowych 109 ( 6) dla każdego e > 0 limw-»oo -P(fl^=Ar{|Xn - X\ < e}) = 1; (c) dla każdego e > 0 limjv-,oo -P(U^Lw{|X„ ~ X \ > e}) = 0 . Do wó d . Równoważność (b) i (c) jest oczywista, (a) i ( 6) są równoważne, bowiem oo oo X n ^ X ^ V e > 0 P ( l J f| {\Xn - X\ < e}) = 1, (1) N=ln=N a ponieważ zdarzenia B n = fl^Aril^n —X| < e} tworzą rodzinę wstępu­ jącą, to z twierdzenia 1.1.7 o ciągłości prawa strona (1) jest równoważna warunkowi OO lim P ( f | { | X n - Z | < £}) = l . H N—»oo 1 ' n—N W niosek 4. Jeśli dla każdego e > 0 mamy to X n ^ X . P{\Xn ~ X\ > e) < oa, Do wó d . Jest spełniony warunek (c) twierdzenia 3, gdyż OO OO P( IJ |*n - X | > £) < £ P ( | X „ - X | > £) ------ >0 \r »r n=N N — »OO n—N jako reszta szeregu zbieżnego. ■ Zbieżność prawie na pewno pociąga za sobą zbieżność według prawdopo­ dobieństwa. W niosek 5. Jeśli X n ^ X , to ___ Dowód pozostawiamy jako zadanie (zad. 4). Z nierówności Markowa wynika, że zbieżność według p-tego momentu pociąga zbieżność według prawdopo­ dobieństwa. • Lp P Twierdzenie 6 . Jeśli X n — ►X , to X n — ►X . Gdy dodatkowo ess sup^ęj^ X n ^ K, p to zbieżność według prawdopodobieństwa, X n — >X , pociąga zbieżność we-------------------------------------------------------- ------------ jTP dług p-tego momentu, X n -~^~XT. _________ .... . ... D o wó d . Stosujemy uogólnioną nierówność Czebyszewa do funkcji g(x) = = |xp i X n - X . » Jak pokazuje poniższy przykład, inne ogólne zależności między zbieżno­ ściami nie mają miejsca. Rozdział 5. Zmienne losowe 110 P rzykład 7, a) Niech (An)n będzie ciągiem zdarzeń niezależnych takim, że ¿ n P(An) = °°> ale iimn-.oo P{A n) = 0. Wtedy X n = l An jest zbieżny do X s 0 według prawdopodobieństwa i według p-tego momentu dla do­ wolnego p > 0, ale nie jest zbieżny prawie na pewno. Istotnie, dla dowolnego e > 0, mamy P(\Xn\ > e) ^ P(A n) —> 0, £\Xn\p = P (A n) —►0. Z dru­ giej strony, na mocy lematu Borela-Cantelłiego zachodzi nieskończenie wiele zdarzeń An, zatem prawie na pewno X n(cj) = 1 dla nieskończenie wielu n, czyli X n nie jest zbieżny prawie na pewno do X = 0. b) Niech fi = (0,1], A n = (0, £] oraz X n = 2nl An. Wtedy X n(u) = 0 dla n takich, że A < ui. Zatem X n 0 (a więc także X n 0). Ponieważ £\Xn\p = 2np •i ------ > oo dla każdego p, więc X n nie jest zbieżny według n —»oo p-tego momentu dla żadnego p. ■ Zajmiemy się teraz dokładniej zbieżnością według prawdopodobieństwa. Okazuje się, że z ciągu zbieżnego według prawdopodobieństwa można wy­ brać podciąg zbieżny prawie na pewno. P Tw ierdzenie 8 (Riesza). Jeśli X n — * X , to istnieje podciąg (X nk) taki, że X nk ^ X. " D o w ó d . Z definicji zbieżności według prawdopodobieństwa, dla dowolnego k istnieje nk, że P(\Xn - X\ > 2~k) < 2~k dla n ^ rifc. Wybierzmy ciąg (nk) tak, by był rosnący. Rozważmy podciąg {X nk). Ponieważ E f c L i ~ -XI > 2~k) < oo, to z lematu Borela-Cantelliego zachodzi skończona liczba zdarzeń {\Xnk- X \ > 2 ~ k}, zatem \Xnk(u>) - X(w)| < 2~k dla k > k(u>), prawie na pewno, czyli X nk ^ X. m Do badania zbieżności według prawdopodobieństwa bardzo przydatne jest następujące twierdzenie: /■ h.. v . v' "r / <-vr\ ' 'ł ' Tw ierdzenie 9. Ciąg (X n)n jest zbieżny według prawdopodobieństwa do X wtedy- i tylko wtedy, gdy każdy jego podciąg (X nii)k zawiera podciąg (X nki )i zbieżny do X prawie na pewno. D o w ó d . =>• (X n)n jest zbieżny według prawdopodobieństwa do X , więc podciąg (X nk)k też, i korzystając z twierdzenia 8 otrzymujemy istnienie podciągu (X nkl)i zbieżnego prawie na pewno do X. §5.9. Różne rodzaje zbieżności zmiennych losowych 111 4= Nie wprost. Gdy (X n)„ nie jest zbieżny według prawdopodobieństwa, to istnieje e > 0 i podciąg nk T oo taki, że P(\Xnk- X \ > e ) > e . (2) Z założenia z podciągu (Xnk)k można wybrać dalszy podciąg (X nkl )i zbież­ ny do X prawie na pewno, ale (X nk[)i spełnia (2). Sprzeczność. ■ p W niosek 10. Jeśli X n — > X , f jest funkcją ciągłą na zbiorze A oraz P {X e A ) = l, to f ( X n) - A f(X ). D o w ó d . Korzystając z twierdzenia 9, wystarczy pokazać, że z każdego ciągu rosnącego liczb naturalnych (nk)k można wybrać podciąg ); taki, że f ( X nkl) f(X ). Ponieważ X n — > X , to z (Xni) można wybrać podciąg (X nk) taki, że X nk X (znowu z twierdzenia 9), a ponieważ P (X € A) = 1 i / jest ciągła na A, to f ( X nki) ^ f(x ). m Wynika stąd wniosek, odpowiednik stwierdzenia 2 dla zbieżności prawie na pewno, którego dowód z definicji byłby dosyć żmudny. W niosek 11. Jeśli X n X , Yn — >Y, to p (a) dla dowolnych a, b € R mamy aXn + bYn — >aX + bY, (b) X nYn - A X Y , (c) jeśli P {X ^ 0) = 1, to ■ D o w ó d . Oczywisty, gdy zastosujemy wniosek 10 dla (X n,Yn) i'funkcji f (x ,y ) — x + y, f(x ,y ) = xy i f(x) = l {a.-£0} i - ■ Twierdzenie 12. Następujące warunki są równoważne: (i) X n - A X ; (ii) dlS każdego p > 0 (iii) dla pewnego p > 0 Rozdział 5. Zmienne losowe 112 Do wó d . Stosujemy nierówność 5.7.6 do funkcji g(x) = nych X n —X . n oraz zmien­ Łatwo teraz zauważyć, że na przestrzeni zmiennych losowych (utożsamiamy zmienne losowe równe prawie na pewno) można wprowadzić metrykę, przy której przestrzeń ta staje się przestrzenią metryczną zupełną, zaś zbieżność w tej metryce jest równoważna ze zbieżnością według prawdopodobieństwa (patrz zadania 8 , 9, 10). Zadania 1. Wykazać, że zbiór (w £ Cl: limn X n(u ) = X(o>)} jest zdarzeniem. 2. Wykazać, że Xn X -í=> Ve > 0 lim P ( N ~ * oo fi I 1 \Xn - X m|< e) = 1. n ,m ^ N Jest to warunek Cauchy’ego. 3. Wykazać, że jeśli dla pewnego ciągu o wyrazach dodatnich (£„.), takiego, że e „ 1 0 mamy OO J ] P ( | X n - X| > £„) < OO, 71= 1 to Xn ^ X. 4. Udowodnić wniosek 5. 5. Pokazać, że granica według prawdopodobieństwa jest wyznaczona jedno­ znacznie. 6. Ciąg (X n) jest zbieżny według prawdopodobieństwa do pewnej zmiennej losowej X wtedy i tylko wtedy, gdy Ver > Olim™,™-,,*) P(\Xn —X m|> e ) = 0 (warunek Cauchy’ego). 7. Udowodnić wniosek 11. 8. Niech L° = L °(n ,^ r, P ) oznacza przestrzeń wszystkich zmiennych losowych na (ÍÍ,JF, F), przy utożsamieniu zmiennych losowych równych prawie na pewno. Pokazać, że f>(X, Y ) = £ ^ ^ x - Y f ) j es* metryką na L°, (L °,g ) p jest przestrzenią metryczną zupełną i X n — ►X limn^co f>(X„, X ) = 0. 9. Niech (fi, F , P) będzie przestrzenią probabilistyczną taką, że zbieżność we­ dług prawdopodobieństwa nie pociąga zbieżności prawie na pewno. Pokazać, ze na L° nie istnieje metryka g taka, że X n X <£■ lim„ g(X n, X ) = 0. 10. Pokazać, że jeśli P jest rozkładem dyskretnym, to dla zmiennych losowych określonych na przestrzeni probabilistycznej ( fi,^ , P ) zachodzi równoważ­ ność: X„ ^ X Xn X. Uwaga. Implikacja przeciwna też jest prawdziwa: jeśli zbieżność według prawdopodobieństwa jest równoważna ze zbieżnością prawie na pewno, to P jest rozkładem dyskretnym. § 5.9. Różne rodzaje zbieżności zmiennych losowych 113 11. Dystrybuanta Cantora. Rzucamy monetą nieskończenie wiele razy i jeśli w n-tym rzucie wypadnie orze!, to wygrywamy 2 •3- " złotych. Niech X oznacza łączną wygraną. Wyznaczyć dystrybuantę X i pokazać, że gęstość nie istnieje. Jaki jest związek dystrybuanty ze zbiorem Cantora? Jaka jest wartość oczekiwana i wariancja wygranej? 12. Udowodnić Twierdzenie 13 (Pratta). Jeśli Xn,Yn,Zn,X ,Y ,Z są takimi zmiennymi P P P losowymi, że Xn — ►X, Yn — > Y i Zn — * Z oraz Xn 4 Yn Zn p.n. dla wszystkich n, £Xn -* £X, £Zn —t £Z, £Z,£X są skończone. Wtedy £Yn —>£Y i £Y jest skończona. 13. Udowodnić, że jeśli ciąg zmiennych losowych (V~Xn) jest zbieżny w L2, to ciąg (Xn) jest zbieżny w L1. 14. Niech Xn będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie, niech istnieje £Xi. Udowodnić, że £ maxi^n \Xi\ — >0. Jednostajna całkowalność. Wprowadzimy teraz bardzo przydatne pojęcie: Właściwie Definicja 14. Mówimy, że rodzina zmiennych losowych {X t‘. t € 1} jest jedno­ jednostajna stajnie całkowalna, gdy całkowalność nie potrzebuje reklamy. lim s u p f (|Xt|l{ |Xt|>c}) = 0. G —>oo t ę / Na początku podamy kilka przykładów i kryteria na jednostajną całkowalność. 15. Udowodnić, że jeśli \Xt\< Y dla i € I, £Y < oo, to {X f.t € 1} jest jedno­ stajnie całkowalna. W szczególności skończona rodzina zmiennych losowych całkowalnych jest jednostajnie całkowalna. Podamy kryterium, z którego w szczególności wynika, że rodzina zmiennych lo­ sowych ograniczona w Lp, p > 1, jest jednostajnie całkowalna. 16. Niech G będzie funkcją rosnącą nieujemną taką, że limt_oo = oo. Jeśli {Xt'.t € 1} są całkowalne, M = supt £G(|-Xi[) < oo, to rodzina zmiennych losowych {X t-.t e ł ] jest jednostajnie całkowalna. 17. Udowodnić, że zmienne losowe {Xt: t S 1} są jednostajnie całkowalne wtedy i tylko wtedy, gdy spełnione są następujące warunki: (i) sup4f|Xi| < oo, (ii) V e > 0 3 5 > 0 P(A) < S =3- sup4f A |Xi| dP e. Sens pojęcia jednostajnej całkowalności widać z następującego twierdzenia: 18. Ciąg zmiennych losowych ( ! „ ) „ jest zbieżny w Lp, p wtedy, gdy 1, wtedy i tylko (i) Ciąg zmiennych losowych ( X „)n jest zbieżny według prawdopodobień­ stwa, (ii) (|Xn|I')„ są jednostajnie całkowalne. Rozdział 5. Zmienne losowe 114 § 5.10. Przegląd ważniejszych rozkładów Poniżej zamieszczamy przegląd najważniejszych rozkładów prawdopodo­ bieństwa. Niektóre z nich pojawiły się już w przykładach i zadaniach, po­ zostałe pojawią się później. Za każdym razem podajemy definicję, ozna­ czenie i krótką charakterystykę, a na zakończenie — wartość oczekiwaną i wariancję (jeśli istnieją). R ozkład jednopunktow y Jeśli P (X = a) = 1, to zmienna losowa X ma rozkład jednopunktowy, oznaczany Sa. Jest to najprostszy rozkład prawdopodobieństwa, więc trudno o nim nie wspomnieć. Fizycy nazywają go deltą Diraca — stąd oznaczenie. Parametr: a € R. Momenty: £ X = a, V 2X = 0. R ozkład dwupunktowy Jeśli P (X = a) = p i P (X = b) = 1 —p = q, p e (0,1), to zmienna losowa X ma rozkład dwupunktowy. Rozkład ten pojawia się przy opisie doświadczenia losowego o dwu możli­ wych wynikach, z którymi możemy skojarzyć wartości liczbowe. Parametry: a, b £ R, a ^ b, p £ (0,1). Momenty: £ X = pa + qb, V 2X = pq(a —b)2. R ozkład Bernoulliego (dwumianowy)^__„ Jeśli P (X = k) = B (k ,n ,p )= ( ^ j p k( l - p ) n~k, k = 0,1, .. . , n, pe[0,l], to zmienna losowa X ma rozkład Bernoulliego (dwumianowy) B(n,p). Jest to rozkład łącznej liczby sukcesów w n doświadczeniach Bernoulliego, gdy szansa sukcesu w pojedynczym doświadczeniu wynosi p. Nieco inaczej, jest to rozkład sumy X i + ... + X n, gdzie; zmienne losowe Xi są niezależne i mają ten sam rozkład dwupunktowy: P(X i = 1) = p, P(X i — 0) = 1 —p, i = 1, 2 , . . . n. Parametry: n 6 N, p e [0,1], Momenty: £ X = np, T>2X = npq. § 5.10. Przegląd ważniejszych rozkładów 115 Rozkład Poissona Jeśli P (X = k) = — e~\ KI k = 0,1,2,..., A > 0, to zmienna losowa X ma rozkład Poissona Pois(A). Jest to rozkład graniczny dla ciągu rozkładów Bernoulliego B(n,pn), gdy n —►oo, pn —» 0 i npn —t A. W związku z tym pojawia się jako rozkład zdarzeń „rzadkich” (wypadki drogowe, pożary, wygrane w „Toto-Lotka” ). Parametr: A € (0, oo). Momenty: £X = A, V 2X = A. Rozkład geometryczny Jeśli P (X = k) = { l - p ) k~1p, p 6(0,1), * = 1, 2 , . . . , to zmienna losowa ma rozkład geometryczny z parametrem p. Jest to rozkład czasu oczekiwania na pierwszy sukces w ciągu doświadczeń Bernoulliego, rozumianego jako liczba doświadczeń, które należy wykonać, by doczekać się sukcesu. Niekiedy rozumie się czas oczekiwania dosłow­ nie, jako liczbę doświadczeń wykonanych przed otrzymaniem pierwszego sukcesu. Wtedy otrzymujemy zmienną losową Y = X — 1, przyjmującą wartości k — 0,1,2,...; wtedy P (X = k) = (1 —p)kp. Rozkład zmiennej losowej Y także nazywamy geometrycznym (£Y = £ X —1, V 2Y = T>2X ). Ma własność „braku pamięci” (zad. 5.1.16). Jego ciągłym odpowiednikiem Momenty rozkładu jest rozkład wykładniczy. geometrycznego najwygodniej obliczać za pomocą funkcji tworzących (dodatek B). Parametr: p € (0,1). Momenty: £ X = l/p, V 2X = (1 —p)jp2. Rozkład wielomianowy Jest uogólnieniem rozkładu dwumianowego i opisuje rozkład wyników przy n-krotnym powtórzeniu doświadczenia o k możliwych rezultatach. Jeśli X, oznacza liczbę wyników i-tego typu w serii, to P (X 1 = m , ... X fc = nk) = - nl 7lj. . . . 71^. p ? ...p l \ gdzie pi 6 [0 , 1],. i = 1, 2, . . . fc, pj + ... + pk = 1, m + ... + nk = n. Zmienna losowa X; ma rozkład B(n,pi), cov(X;, X,-) = -pipj, gdy i j. Rozdział 5. Zmienne losowe 116 R ozkład ujem ny dwumianowy Jeśli P (X = fc) = ( 0 + * ^ (l-p )*?“ , fc = 0 , l , 2 , . . . , p e ( 0 , l ) , a > 0 , to zmienna losowa ma ujemny rozkład dwumianowy z parametrami a, p. Jeśli parametr a jest całkowity, mamy do czynienia z czasem oczekiwa­ nia na a-ty sukces w ciągu prób Bernoulliego, tzw. rozkładem Pascala. X interpretuje się jako liczbę porażek poprzedzających a-ty sukces. Nazwa rozkładu bierze się stąd, że gdzie /— a (a — 1) ■... ■(a —k + 1) \k ) ~ k\ ' Dla a = 1 otrzymujemy rozkład geometryczny. Niecałkowite wartości a od­ powiadają rozkładom granicznym dla rozkładów Pólya. Przy oznaczeniach z zad. 3.2.13 niech p = b/(b + c), 7 = d/(b + c). Jeśli n —>00 , p —>0, 7 • —>0, np —» A, wy —►p-1 , to Parametry: a € (0, 00 ), p e (0,1). Momenty: £ X = a (l —p)/p, V 2X — a (l —p)/p 2. Rozkład hipergeom etryczny Jeśli /n\ /m—n\ P (X = k) = k , max(0,n + r - m) < k < min(n,r), \r / to zmienna losowa X ma rozkład hipergeometryczny z parametrami m, n i r. Zmienną losową X można interpretować jako liczbę wyróżnionych ele­ mentów w r-elementowej próbce, jeśli cała ro-elementowa populacja zawiera n elementów wyróżnionych. Parametry: m ,n,r. Momenty: £ X = nr/m, V 2X = [nr(m —r)(m —n)]/[m2(m — 1)]. Przechodzim y teraz do rozkładów ciągłych. §5.10. Przegląd ważniejszych rozkładów 117 Rozkład jednostajny na A c R n Niech A będzie borelowskim podzbiorem R n o dodatniej i skończonej mierze Lebesgue’a A. Rozkład o gęstości g(x) = \(A)~11a (x ), x e R n. Wiąże się z intuicją „losowego” wyboru punktu ze zbioru A. Najczęściej spo­ tyka się rozkład jednostajny na przedziale [a, 6], którego gęstość wyraża się wzorem xeRBędziemy go oznaczać U[a, 6]. Czasem wygodnie jest rozumieć pojęcie rozkładu jednostajnego nieco sze­ rzej, jeśli tylko mamy do dyspozycji rozsądną namiastkę miary Lebesgue’a. Na przykład: rozkład jednostajny na sferze (nie na kuli), na brzegu kwa­ dratu. Momenty zmiennej losowej X o rozkładzie U[a,b}\ R ozkład wykładniczy Ma gęstość g(x) = Ae~Aa:l (ot00)(:n). Jest ciągłym odpowiednikiem rozkładu geometrycznego i ma, tak jak on, własność braku pamięci. Parametr: A € (0, oo). Momenty: £ X = 1/A, V 2X = 1/A2. Rozkład gamma Rozkład o gęstości 7o’6^ = f (a ) X a a >6 > °- Jeśli a jest liczbą naturalną, jest to rozkład sumy a niezależnych zmiennych losowych o rozkładzie wykładniczym z parametrem b. W związku z tym można się spodziewać własności 7 ai,b * 0^02,b Tai+a2,6) która zresztą ma miejsce dla dowolnych ai,a2 (por. zad. 1). Parametry: a,b 6 (0, oo) (a jest parametrem kształtu, b — skali). Momenty: £ X = a/b, V 2X = a/b2. (-0 Rozdział 5. Zmienne losowe 118 R ozkład beta Rozkład o gęstości Pa,b{x) = 1 (1 ~ a;) b l l [o,i](a:). a,b > 0. Wiele rozkładów unimodalnych (takich, że gęstość ma jedno ekstremum) jest tej postaci. Na przykład dla a = b = 1/2 otrzymujemy rozkład arcusa sinusa — czyli czasu pobytu po stronie dodatniej w procesie Wienera na odcinku [0,1] (patrz rozdz. 13). Parametry: a, b € (0,oo). Momenty: £ X = a/(a + b), V 2X = ab/[(a + b)z(a + b + 1)]. R ozkład Cauchy’ego Ma gęstość ^ w((x —m)2 + h2) ’ h>0. Najczęściej spotyka się standardową postać, gdzie m = 0 i h = 1. Jeśli X n są niezależnymi zmiennymi losowymi o standardowym rozkładzie Cauchy’ego, to nX\ ma ten sam rozkład, co X 2 + .X n. Parametry: m € R , h £ (0,oo). Momenty: wartość oczekiwana nie istnieje (zad. 5). R ozkład normalny (Gaussa) Jednow ym iarow y standardowy rozkład normalny, AA (0,1), ma gę­ stość Jeśli zmienna losowa X ma rozkład A/”(0,1), to zmienna losowa aX + m, gdzie a > 0, ma rozkład Af (m, a2) o gęstości e- 0 -m)2/ 2o-2 Na rysunku pokazano gęstość standardowego rozkładu normalnego. Należy zwrócić uwagę, że skale na obu osiach są różne, w przeciwnym razie rysunek mógłby być mało czytelny. Faktycznie gęstość jest bardziej spłaszczona. Być może warto zapamiętać podane na rysunku liczby: prawdopodobieństwo, że zmienna losowa o rozkładzie hi (0 , 1) przyjmie wartość z przedziału [—1, 1] wynosi ok. 0,683; dla przedziału [—2,2] jest to już 0,956 i wreszcie dla przedziału [—3,3] mamy 0,997. Ta ostatnia zależność znana jest jako „reguła §5-10. Przegląd ważniejszych rozkładów 119 trzech sigm” : szansa wyjścia zmiennej losowej o rozkładzie N (0 , cr2) poza przedział [—3cr, 3<x] jest praktycznie zerowa, bowiem wynosi ok. 0,003. ■4 ► g g ^ Dystrybuantę rozkładu N (0,1) oznaczamy przez $(a). Pożyteczne jest oszacowanie ogona rozkładu normalnego: - j = e ~ l2/'2 X- 1 + 32 < 1 - $(*) < —l= e~ x2/2- , y/zOx x>0. (2) vJ (patrz zad. 3). Parametry: m € R, a e (0, oo). Momenty: £ X —m, T>2X = o2. W ielowym iarowy rozkład normalny. Ogólną postać wielowymiarowego rozkładu normalnego otrzymuje się ze standardowej postaci przez prze­ kształcenie afiniczne, analogicznie jak w przypadku jednowymiarowym. Rozpatrzmy zmienną losową X = ( X i , . . . , X n) o gęstości g ( x i ,...,x n) = -J (V ¿7r)n x = (x1, . . . , x n) e R ". Ma ona standardowy rozkład normalny w R ", oznaczany przez N (0,/), gdzie I jest macierzą jednostkową. Niech T: R n —> R " będzie nieosobliwym przekształceniem liniowym, tj. detT / 0 i niech (•, -) oznacza iloczyn skalarny. Znajdziemy gęstość zmien­ Przekształcenie nej losowej Z = TX. Dla A € Z?(Rn) mamy: liniowe P (T X e A ) = P {X e T ^ A ) = f J T~ l A g{x) d x = f g(T~lu)\det T~l \du, utożsamiamy z jego macierzą. ja Szukana gęstość to h{s) = g(T -'s)\ d etT -'\ = (V27r)n |detr ‘ 1 - ł ( ( T - 1i‘ r - 15.i) _ VdetQ T* jest transpozycją T (albo przekształceniem sprzężonym do T). Rozdział 5. Zmienne losowe 120 gdzie Q = j est macierzą dodatnio określoną. Okazuje się, że Q jest macierzą odw rotną do macierzy kowariancji zmiennej losowej Z, zdefi­ niowanej jako Cij = cov(Zi, Zj). Żeby to zobaczyć, zauważmy najpierw, że dla standardowej gęstości gaussowskiej g mamy: (x, u)(x, v)g(x) dx / = (u,v). JR " W takim razie = [ { Tx , e i ) ( Tx , e j ) g ( x ) dx JR" = f (x, Ttei) ( x , T te j ) g { x ) dx = (Ttei<Ttej) = {TTte u e j ) = Q7K Jnn Stąd oznaczenie dla ogólnej postaci rozkładu normalnego: Af (m ,Q ), gdzie m jest wektorem wartości średnich, zaś Q — macierzą odw rotną do macie­ rzy kowariancji. Gęstość wyraża się wzorem g( x) = e -{Q (x-m ),x-m ) | x e R n (V27r)n Czasem wygodnie jest nazwać miarą gaussowską miarę skupioną na pewnej właściwej podprzestrzeni liniowej R " . W ted y nie ma ona gęstości wzglę­ dem miary Lebesgue’ a w R n . Ale z rozszerzeniem definicji poczekamy do rozdziału o funkcjach charakterystycznych. R o z k ł a d X2(n ) Rozkład zmiennej losowej X l + . . . 4- X 2, gdzie X i, i = 1 , 2 , . . . n są nie­ ci teście 2 zależny mi zmiennymi losowymi o rozkładzie Ai (0, 1) nazywamy rozkładem siyszal chyba X2 ° n stopniach sw obody; oznaczamy go x 2(n )- Jest najbardziej znanym każdy, rozkładem występującym w statystyce. Gęstość rozkładu x2(n) Jest gęstością 7n/ 2,i / 2- Zadania 1. Wykazać, że rozkład x 2 0 n stopniach swobody ma gęstość 7n/2,i/2- 2. Niezależne zmienne losowe X i , . . . X n mają rozkład M (0,1). Wykazać, że wariancja z próby, zdefiniowana wzorem fc=i gdzie średnia z próby jest określona jako _ x = + ... + X n n ---------------------------- 5.10. Przegląd ważniejszych rozkładów 121 ma — z dokładnością do parametru skali — rozkład x 2 o n - 1 stopniach swobody, a ponadto x i s l są niezależne (tw. Fishera). 3. Udowodnić oszacowanie (2) ogona rozkładu normalnego. 4. Wykaizać, że jeśli X i Y są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na (0,1), to U = ^ /—21ogX cos (27tY) i V = —21ogX sin (27ry) są niezależne i mają rozkład M (0,1). Zadanie to zostało zainspirowane instrukcją obsługi kalkulatora programowal­ nego, z której wynikało, że taki jest algorytm generacji liczb losowych o rozkła­ dzie normalnym (Box-Müller, 1958). Liczby losowe o rozkładzie jednostajnym generuje się bowiem stosunkowo prosto. Więcej informacji o generowaniu liczb losowych o zadanym rozkładzie można znaleźć w § 7.4. 5. Udowodnić, że zmienna losowa o rozkładzie Cauchy’ego nie ma wartości ocze­ kiwanej. Rozdział 6 Warunkowa wartość oczekiwana §6.1. Wprowadzenie W tym rozdziale uogólnimy pojęcie wartości oczekiwanej. Zanim jednak wprowadzimy formalną definicję warunkowej wartości oczekiwanej, która to definicja może na pierwszy rzut oka wydawać się niezrozumiała, zaj­ miemy się zdroworozsądkowymi procedurami uśredniania funkcji (czy też zmiennych losowych), postępując podobnie jak przy definiowaniu prawdo­ podobieństwa warunkowego. Otrzymamy coś w rodzaju „warunkowej war­ tości oczekiwanej dla opornych” . Ma ona niestety wadę, odziedziczoną po prawdopodobieństwie warunkowym: traci sens, gdy warunek ma zerowe prawdopodobieństwo. I dopiero wersja „turbo” warunkowej wartości ocze­ kiwanej nie ma tej wady i pozwala na przykład uzasadnić formalnie takie oto rozumowanie: Przykład 1. Z odcinka [0,1] wybrano losowo (czyli zgodnie z rozkładem jednostajnym) punkt U, a następnie z odcinka [0 , U] — również losowo — punkt V. Jaka jest średnia długość odcinka [0, V]? x 122 § 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego ^23 To całkiem proste: jeśli znamy U, to średnio V = \U. A ponieważ £U = |, to £V = ¡£U = i. W pełni formalne rozwiązanie wymagałoby konstrukcji modelu. Jeśli przy­ jąć il = {(x, y) € [0 , l]2: j/ ^ x}, to należałoby podać taką gęstość g(x, y) na Cl, przy której U(x, y) = x ma rozkład jednostajny na [0,1], a V (x,y) = y — rozkład jednostajny na odcinku [O,®] przy ustalonym x. W takim ra­ zie przy ustalonym x gęstość powinna być stała, gdy 0 ^ y ^ x, czyli g(x,y) = a ponadto dla dowolnego t € [0 , lj t = P(U ^ i) = f f Jo L/o g(x,y)dy dx — i i h(x)dy dx = Jo uo = I xh(x) dx, Jo i różniczkując obie strony tej równości otrzymujemy th(t) = 1, czyli h(x) = = l/x. Teraz £V = t Jo f Xy - d y ] d x = i ' - - .Jo x . Jo X Warto zdać sobie sprawę, że przydługie rozważania prowadzące do kon­ strukcji modelu nie należą do teorii (z teorią mamy do czynienia dopiero wtedy, gdy skonstruujemy model). W istocie, pojawiające się w zadaniach probabilistycznych rekwizyty: kostki, monety, odcinki, z których (nie wia­ domo jak) wybiera się losowo punkt, służą tylko ubarwieniu teorii i pod­ kreśleniu jej związku z zagadnieniami „z życia” . Jak wobec tego ściśle sfor­ mułować powyższy przykład? Stanie się to jasne pod koniec tego rozdziału. § 6.2. Warunkowa wartość oczekiwana względem roz­ bicia przeliczalnego Aż do końca tego rozdziału zakładamy, że ustaloną przestrzenią probabi­ listyczną jest (ii, M , P). Zakładamy ponadto, że wszystkie rozpatrywane cr-ciała zawierają się w M . Jak wiadomo, funkcja P(-|A) = Pa{ ) dla ustalonego zdarzenia A o dodat­ nim prawdopodobieństwie jest rozkładem prawdopodobieństwa na il. Zatem możemy zdefiniować warunkową wartość oczekiwaną dla zmiennej losowej X , jeśli wiemy że zaszło zdarzenie A. Oznaczymy ją £ (X |A). Definicja 1 . Niech X będzie zmienną losową o skończonej wartości ocze­ kiwanej. Wtedy £{X\ A) [ X dPAJn Rozdział 6.. Warunkowa wartość oczekiwana 124 Twierdzenie 2. Niech P(A) > 0 i niech X będzie zmienną losową o skoń­ czonej wartości oczekiwanej. Wtedy (1) Inaczej mówiąc, £ (X |A) jest średnią wartością zmiennej losowej X na zbiorze A. Dowó d. Komplikujemy postać X : 1. Niech X = I b , B e T. Wtedy £ (1 B \A) = J Ib dPA = P(B\A) = 2. Obie strony są liniowe, więc równość (1) jest prawdziwa dla skończo­ nych kombinacji: n ( 2) 3. Niech X > 0 będzie zmienną losową całkowalną. Wtedy X jest granicą p.n. i w L1 skończonych kombinacji X n postaci (2). Żeby otrzymać tezę, wystarczy przejść do granicy z n —* oo i skorzystać z twierdzenia Lebesgue’a. 4. Jeśli X jest dowolną zmienną losową całkowalną, to X = X + —X ~ . Obie zmienne losowe po prawej stronie są nieujemne i całkowalne, więc teza twierdzenia wynika z punktu 3 i liniowości całki. ■ Następne twierdzenie jest odpowiednikiem wzoru na prawdopodobieństwo całkowite. Twierdzenie 3. Niech zdarzenia A{, i € I stanowią przeliczalne rozbicie przestrzeni na zdarzenia o dodatnim prawdopodobieństwie. Jeśli zmienna losowa X jest całkowalna, to (3) Dowó d. XdP = = Y i £ ( X \ Ai)P (A i)-* § 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego 125 Wzór (3) ma wiele zastosowań. Oto przykład (patrz także zadania 3 i 4). Przykład 4. Obliczymy wartość oczekiwaną liczby rzutów monetą aż do otrzymania n orłów pod rząd. Orzeł w pojedynczym rzucie wypada z praw­ dopodobieństwem 0 < p < 1. Niech X oznacza wymaganą liczbę rzutów, niech Yi — 1 (odp. K; = 0), gdy w i-tym rzucie wypadł orzeł (odp. reszka). Wtedy X = min{fc > n: Yk^n+1 = 1 , . . . , Yk = 1}. Aby skorzystać ze wzoru (3), musimy wykazać, że £ X < oo. Niech Z = min{fc: Yfc_n+i = 1,..., Yk = 1, fc = n •l, l G N }. Innymi słowy, dzielimy serię rzutów na bloki o długości n i przyjmujemy, że Z = nl, gdy l-ty blok jest pierwszym blokiem, złożonym z n orłów. Jasne jest, że X < Z i dalej OO OO £ X < SZ = J 2 nlP(Z = nl) = i=i - p")'“ V < oo. 1=1 Zdefiniujemy teraz zdarzenia Ak = {Y1 = ł r2 = . . . = K fc = l , y fc+1 = 0 }, fc = 0 , 1, . . . ,ra — 1, oraz ^ = { ^ = . . . = ^ = 1} (zdarzenie Ak dla 0 < k < n — 1 polega na tym, że pierwsza reszka poja­ wiła się w fc + 1-szym rzucie; An — że po ra-tym). Stanowią one rozbicie przestrzeni fi i mamy równanie n —1 n £X = (X I 4 ) P (A^ = £ ( * + ż=0 ~P ) + nPn■ i-0 Rozwiązując je, otrzymujemy £X = ~ + \ + . p pi pn Dla p — \ (moneta symetryczna) mamy £ X = 2n+1 —2. ■ Jeśli wiemy, że zaszło zdarzenie A, to warunkowa wartość oczekiwana X jest równa £ (X \A), a gdy zaszło A', to jest równa £ (X |A'), można zatem zdefiniować zmienną losową £(X\ F), gdzie T — cr(A): f (x l (i — i ^^ I 1 w a A, Oznaczenie po lewej sugeruje, że tak zdefiniowaną zmienną losową będziemy uważać za warunkową wartość oczekiwaną pod warunkiem cr-ciała T . Należy zapamiętać, że warunkowa wartość oczekiwana jest zmienną losową. Rozdział 6. Warunkowa wartość oczekiwana 126 Przykład 5. Niech X będzie liczbą orłów otrzymaną przy dwukrotnym rzucie monetą, A — zdarzeniem polegającym na wypadnięciu orła w pierw­ szym rzucie. Wtedy £ { X \ A) = ■4 + 2- j] = f , £ ( X J A') = 1. Zatem £ ( X |F ) = ( 1 ' [ 1/ 2 , W e A.) w e 4 '.i Poniższa definicja warunkowej wartości oczekiwanej względem cr-ciała ge­ nerowanego przez co najwyżej przeliczalną liczbę zdarzeń realizuje pomysł zawarty w przykładzie 5. Definicja 6. Niech Q — U ie/ Ai, gdzie zdarzenia Ai o dodatnim prawdopo­ dobieństwie stanowią rozbicie przestrzeni Cl, niech T = a(Ai , i 6 I), i niech X będzie zmienną losową mającą wartość oczekiwaną. Warunkową wartością oczekiwaną X pod warunkiem a-ciała T będziemy nazywać zmienną losową £ (X \!F) (w) równą £ (X |Aj), gdy u & Aj, czyli £ ( X | ^ ) H Ł f ^ £ ( X | A . ) i A .(w). jer Mówiąc językiem bardziej potocznym, jest to średnia wartość X , jeśli wia­ domo, które ze zdarzeń Ai zaszło. Dla tak zdefiniowanej zmiennej losowej zachodzi Twierdzenie 7. Warunkowa wartość oczekiwana £ (X |T ) spełnia nastę­ pujące warunki: (a) £ (X |T ) jest mierzalna względem T ■ (b) Jeśli B e J 7, to JB X d P = JB £ { X I T) dP. D o w ó d . Punkt (a) twierdzenia wynika natychmiast z definicji. Żeby udowodnić ( 6), zauważmy, że jeśli B £ T, to B = jest skończona lub przeliczalna. Wtedy / XdP = W ■>B k = £ j A ik / k j A ik A j k, gdzie suma X d P = Y , £ ( X \ Ajk) P ( A j k) k £ { X \ A jk) d P = [ Y , t ( X \ A jk) l AjkdP=: k = [ £ ( X I f ) dP. ■ Jb § 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego 127 P rzyk ła d 8 . Rozpatrzmy schemat Bemoulliego n prób z prawdopodobień­ stwem sukcesu równym p. Jaka jest średnia liczba sukcesów w pierwszej próbie, jeżeli wiemy, ile zaszło sukcesów w całej serii? R o z w i ą z a n i e . Niech Sn oznacza łączną liczbę sukcesów, zaś Y liczbę sukcesów w pierwszym doświadczeniu. Mamy obliczyć £ (Y |a(Sn)). Otóż a(Sn) = a(A 0 , . . . , A n), gdzie A k = {5 „ = k}. Z definicji £ (Y |a(Sn)) (u>) = £ (Y |A k) ( u j ) dla u £ Ak, więc wystarczy obliczyć £ (Y |A^). Niech Bk = A^ fi { F = 1}. Wtedy £(r|X*) - n ś ) / * / ‘, p = ż w 5 n " )p(" ) - = _ L _ v Piu* = W - = p^ J e Bk p^ __ = it )pkqn~k (£i) ^ * © Ale Sn{u j ) = k dla w e Ak, więc £ (Y j #(Sn)) = Przykład 9. Definicja 1 jest w wielu przypadkach niezadowalająca: niech Sn będzie liczbą orłów, gdy rzucamy n razy monetą, dla której prawdopodo­ bieństwo wypadnięcia orła jest zmienną losową U o rozkładzie jednostajnym na [0,1], Czemu jest równe prawdopodobieństwo P(Sn = k\U = x)? Otóż P(Sn = k\U = x) = S ( l {s„= fc} |U = x ) , ale P ( U = x) = 0, więc warunkowa wartość oczekiwana nie da się zdefi­ niować w wyżej opisany sposób, choć intuicyjnie jest jasne, że powinna być równa (^)xk(\ —x) n~k. ■ Zadania 1. Łączny rozkład zmiennych losowych X i Y dany jest tabelką: Y = 0 Y = 2 X = 1 X = 3 0,2 0,3 0,4 Uzupełnić tabelkę, znaleźć £ (X \o(Y )) i £X . 2. Niech fi = [0,1], P — miara Lebesgue’a na [0,1]. Znaleźć £ ( / |F ), jeśli a) f i x ) = y/%1 Jest ^-ciałem generowanym przez zbiory [0, |), [|, 1]. b) f ( x ) — ~ x , ? u-ciałem generowanym przez zbiory [0, |), [5 , 1]. Rozdział 6. Warunkowa wartość oczekiwana 128 3. Obliczyć wartość oczekiwaną liczby prób w schemacie Bernoulliego przepro­ wadzanych aż do momentu uzyskania kolejno: a) sukcesu i porażki, b) dwu sukcesów i porażki. 4. Mamy n osiedli położonych wzdłuż drogi w odległości 1 km od siebie. Osiedla obsługuje jedna karetka pogotowia. Każde kolejne wezwanie z jednakowym prawdopodobieństwem pochodzi z dowolnego punktu i zostaje natychmiast przekazane do karetki, która oczekuje na nie w osiedlu, w którym znajduje się ostatni chory. Jaka jest średnia odległość przejeżdżana przez karetkę w czasie jednego kursu? 5. Przeciętne dalsze trwanie życia. W rozważaniach demograficznych z § 5.1 zdefiniowaliśmy przeciętne dalsze trwanie życia. Warunek stałości przecięt­ nego dalszego trwania życia można wyrazić tak: jeśli zmienna losowa X ^ 0 jest czasem życia, to dla pewnej stałej c > 0 £ (X |X > t) = c + i, t ź 0. Wykazać, że nieujemna zmienna losowa o ciągłej dystrybuancie spełnia ten warunek wtedy i tylko wtedy, gdy ma własność braku pamięci. § 6.3. Definicja ogólna Własności warunkowej wartości oczekiwanej względem przeliczalnego roz­ bicia, podane w twierdzeniu 6 .2 .6 , sugerują poniższą definicję. D efin icja 1. Niech T C M będzie a-ciałem, a X zmienną losową całko­ walną. Warunkową wartością oczekiwaną X pod warunkiem T nazywamy zmienną losową £ (X \T ), spełniającą warunki (i) £ (X |F ) jest F-mierzalna; (ii) dla każdego A E !F W poprzednim paragrafie wykazaliśmy istnienie warunkowej wartości ocze­ kiwanej dla er-ciała przeliczalnie generowanego, a ponieważ £ (X |T ) jest wyznaczona jednoznacznie z dokładnością do zdarzeń o prawdopodobień­ stwie zero (co za chwilę udowodnimy), to wiemy, jak warunkowa wartość oczekiwana wygląda w tym przypadku. P rz y k ła d 2. Jeśli O = U S i prawdopodobieństwa, to n 4# = ® i niektóre Ai mają zerowe w € Aj, P( A j ) > 0, w e Aj: P( A j ) = 0, § 6.3- Definicja ogólna 129 gdzie aj są dowolnie ustalonymi liczbami, jest zmienną losową spełniającą warunki («) i (ii) z definicji 1. ■ Tu wybór liczb aj był dowolny. A więc przykład 2 dobrze ilustruje fakt, że mówiąc o £ (X |!F), myślimy o jednej konkretnej wersji (inne są jej równe p.n.). W dalszym ciągu, mówiąc o warunkowej wartości oczekiwanej, bę­ dziemy identyfikować różne wersje; nie należy jednak zapominać, że warun­ kowa wartość oczekiwana jest zmienną losową, wyznaczoną z dokładnością do zdarzeń o zerowym prawdopodobieństwie. T w ierdzen ie 3. Dla dowolnego o-ciała T C JA i całkowalnej zmiennej losowej X istnieje warunkowa wartość oczekiwana. Jest ona wyznaczona jednoznacznie z dokładnością do zdarzeń o prawdopodobieństwie zero, tj. jeśli Yi,Y 2 spełniają warunki definicji 1, to P(Y i ^ Y2) = 0. D o w ó d . Najpierw udowodnimy jednoznaczność. Załóżmy, że Y\ i Y2 speł­ niają (i) i (ii). Ten argument pojawia się już Zdarzenie {F i > Y2} G T , bo Yi,Y 2 są T mierzalne. chyba trzeci raz! [ Y\dP = f XdP= [ J { y 1> y2} 7 {y i> y 2} Y2 dP. J {Y i> Y 2} Stąd [ (Y1 - Y 2) d P = 0, zatem P{Yi > Y2) = 0. To samo rozumowanie zastosowane do zdarzenia {Y 2 > Y i} pokazuje, że P(Yi ^ Y2) = 0. Jednoznaczność została udowod­ niona. Podamy teraz dwa dowody istnienia. Pierwszy jest krótki, ale wymaga zna­ jomości twierdzenia Radona-Nikodyma. Natomiast drugi daje wyobrażenie o tym, czym właściwie jest warunkowa wartość oczekiwana. P ierw szy d o w ó d istnienia. Rozważmy funkcję zbioru v na T , zadaną wzorem u(A) = J XdP. Jest to miara ze znakiem. Gdy P(A) = 0, to v(A) = 0, więc u jest absolutnie ciągła względem P i na mocy twierdzenia Radona-Nikodyma 11.6.1 istnieje gęstość g = dv/dP, którą przyjmujemy za wersję £ ( X \T ), ponieważ speł­ nia warunki (i) i (ii) z definicji 1. Istotnie, gęstość g jest ^-mierzalna i dla Ag T f gd P = v(A) = [ X dP. Ja Ja Dowód pierwszą metodą został zakończony. Ale nieco inaczej sformułowany. Rozdział 6. Warunkowa wartość oczekiwana 130 D ru gi d o w ó d istnienia. I. Najpierw udowodnimy istnienie warunkowej wartości oczekiwanej dla X 6 L 2 ( Q. , M, P) . Skorzystamy w tym celu z twierdzenia o rzucie ortogo­ nalnym w przestrzeni Hilberta (patrz dodatek C). Niech H = L 2 ( Q , M , P ). W tedy H 0 = L 2 (il,T, P) jest domkniętą podprzestrzenią H. Niech X € H i niech Xo będzie rzutem X na Ho- Wtedy oczywiście Xq jest ^-mierzalna. Dalej, z samej definicji rzutu ortogonalnego, dla dowolnego Y £ £ 2(fi, T, P ) mamy czyli Biorąc Y = 1a , A € T otrzymujemy [ X dP = f X q dP. Ja Ja Zatem X q jest warunkową wartością oczekiwaną X względem T . II. Własności £ (X |T ) dla X e L 2 (Q, M , P ). 1. V a ,/3 e R V X i ,X 2 e L2( Q , M , P ) £ { a X l + f 3 X 2 \ F ) = a £ ( X 1 \T) +/3£ { X 2 \ F ) . D o w ó d . Rzut jest odwzorowaniem liniowym. Jeśli zatem X i to i X 2to są rzutami X\ i X 2 na podprzestrzeń Ho, to a.X^o+(3X2fi jest rzutem a X i + ¡3 X 2 - Oto bezpośrednie sprawdzenie: gdy Y € Ho, to ( a X lfi + l3X2to - (a X 1 + 0 X 2), Y) = = a { X lfi - X U Y ) + p ( X 2t0 - X 2, Y) = 0, co kończy dowód punktu 1. 2. Jeśli X > 0, to £ ( X |F ) > 0 p.n. D o w ó d . { £ ( X |F ) < 0 } jest zdarzeniem z F. Ponieważ 0< / XdP= {£(X\F)<0} £{X \F)dP<0, {£(X\F)<0} J{£(X\F)<0} Zatem P ( £ ( X \F ) < 0) = 0, czyli £ (X |F ) > 0 p.n. §6.3. Definicja ogólna 131 3. Jeśli Xi > X 2, to £ ( X l \ F ) > £ ( X 2 |F ) p.n. Wynika to natychmiast z 1 i 2. III. Istnienie dla X € L 1(i2,.A4,P), X J* 0. Istnieją zmienne losowe X n G L 2 ( Q , M , P ) takie, że dla każdego ui £ Q mamy X n(tS) T X(w) (np. X n = min(X, n)); £ (X n |F ) istnieje na mocy punktu I. Z własności II.3 wynika, że zmienne losowe £ (X n \F ) tworzą ciąg niemalejący. Niech X 0 = limn £ (X n |T). Wtedy dla dowolnego A e F mamy, korzystając z twierdzenia Lebesgue’a-Leviego o zbieżności monotonicznej: f X dP = lim f X n dP = lim f £ ( X n \F) dP = i X 0 dP. Ja 71 Ja n Ja Ja W szczególności X q jest skończona prawie na pewno; jest także mierzalna względem F, jako granica funkcji ^"-mierzalnych. Zatem £ ( X |F ) = X 0. IV . Istnienie dla dowolnej zmiennej losowej X e L 1(fl , M , P ) . Otóż Y = £ (X + |T ) —£ (X ~ |T ) jest dobrze określoną, ^-mierzalną i cał­ kowalną zmienną losową. Dla dowolnego A € F mamy f Ja XdP= f [ X+dP- Ja X~dP = Ja = [ £ ( X + \ F ) d P - [ £ { X ~ \ F ) d P = [ YdP, Ja Ja Ja zatem £ ( X |F ) = Y, bo Y spełnia warunki (i) i (ii) z definicji 1, co kończy dowód twierdzenia 3. ■ Najważniejsze własności warunkowej wartości oczekiwanej zbierzemy w po­ niższym twierdzeniu (inne własności — patrz zad. 1- 6 ): T w ierdzen ie 4. Niech X , X \ , X 2, będą zmiennymi losowymi o skończonej wartości oczekiwanej, niech J- C M będzie danym a-cialem. Wtedy (a) Jeśli X jest T-mierzalna, to £ ( X \ Jr) = X p.n., (b) Jeśli X > 0, to £ (X |T ) > 0 p.n., (c) \S{X\F) \<S{\X\\F)p. n. , (d) £ ( a X 1 +/3X 2 \F) = o £ ( X 1 \F) + 0 £ { X 2 \F) p.n. dla a , ¡3 e R (e) Jeśli X n ] X , to £ (X n \f ) T £ [X \F ) p.n., ( / ) Jeśli F i <ZF2 C M , to £ { X \ F 1) = £ { £ ( X \ F 2 ) \ F i ) = £ { £ ( X \ F 1 ) \ F 2) ( wszystkie równości p.n.), Rozdział 6. Warunkowa wartość oczekiwana 132 (g) £ X = £ { £ { X \ T ) ) p.n., (h) Jeśli T i a ( X ) są niezależne ( czyli zmienna losowa X jest niezależna od a-ciala T ), to £ (X \T ) = £ X p.n., (i) Jeśli Y jest ograniczoną zmienną losową T-mierzalną, to £ (X Y \ T ) = Y £ { X \ T ) . D o w ó d . Korzystając z definicji i własności całki, otrzymujemy natych­ miast punkty (a), ( 6), (c), (d), (e). ( / ) £ ( X |Ti ) jest T\-mierzalna oraz dla dowolnego A e f i C i i mamy [ £ ( X IJF2) dP = [ X d P = [ £ ( X \ T l )dP, Ja Ja Ja zatem £ (£ ( X \T%) \T\) = £ ( X |T{), a ponieważ £ ( X \T\) jest ^ -m ie ­ rzalna (J7! C T 2), to z punktu a) otrzymujemy £ ( £ ( X \ T 1 ) \ T 2 ) = £ ( X \ T 1), co kończy dowód ( / ) . (g) Jest to uogólnienie wzoru na prawdopodobieństwo całkowite. Biorąc T\ = { 0 , 0 } , T 2 — T i stosując ( / ) otrzymujemy £ X = £ { X \ F 1) = £ { £ { X \ T ) \ T l ) = £ { £ { X \ T ) ) , bowiem jedyne funkcje ^-m ierzalne są to stałe, zatem £ (Y j T{ ) = £ Y dla Y całkowalnej. (h) £ X jest stałą, więc jest J^-mierzalna. Niech A G T. Z założenia X i 1A są niezależnymi zmiennymi losowymi, więc f £ X d P = £ X - £ 1a = £ { X - 1 a ) = f X d P , Ja Ja więc z jednoznaczności £ ( X |T ) = £ X . (i) standardowy dowód — komplikację postaci Y — zostawiamy czytelni­ kowi jako zadanie. ■ P rz y k ła d 5. Owad składa X jajeczek zgodnie z rozkładem Poissona z pa­ rametrem A, a owad z jajeczka wylęga się z prawdopodobieństwem p, nie­ zależnie od innych. Znaleźć średnią liczbę potomków. R o z w i ą z a n i e . Niech Y będzie liczbą potomków owada. Można to zada­ nie rozwiązać wyliczając rozkład Y (patrz zad. 4.1.11). My skorzystamy z warunkowej wartości oczekiwanej. § 6.3. Definicja ogólna 133 Wprowadźmy następujące oznaczenie: jeśli X jest zmienną losową całko­ walną, Y — zmienną losową o wartościach w R n, to £ {X \ Y ) = £{X\a{Y )). Jest X jajeczek, czyli X niezależnych prób Bernoulliego z prawdopodobień­ stwem sukcesu p, więc £ (Y |X ) — Xp. Stąd £ Y = £ (£ {Y |X)) = £ (Xp ) = Ap. Ten przykład pokazuje, jak można obliczać wartość oczekiwaną, korzystając z warunkowej wartości oczekiwanej. Właściwy wybór zmiennej losowej X często bardzo upraszcza rachunki. ■ Stwierdzenie 6 (Nierówność Jensena). Jeśli funkcja <p:R —> R jest wypukła, a zmienne losowe X i <p(X) należą do ¿ ^ (f i,M , P ) , to <p(£(X\T))^£(<p(X)\T) p.n. dla dowolnego a-ciała T C M D o w ó d . Skorzystamy z faktu, znanego z analizy: Fakt. Jeśli y> jest funkcją wypukłą w R, to istnieją ciągi liczb (an)%Li i {Pn)n=u takie, że dla każdego x € R <p(x) = sup(ans + ¡3). 71 Stąd mamy ip(X) > a nX+l3n, n € N, więc £ (ip( X) |T ) > a n£ { X \Jr)+ fin dla każdego ustalonego n. Stąd (jest przeliczalna liczba nierówności p.n.) £ (<p(X) |T ) > sup[a„£ ( X \T ) + pn\= V{£ ( X \? ) ) p.n. ■ n Twierdzenie 7. Jeśli X jest zmienną losową, £\X\ < oo, Y jest zmienną losową o wartościach w R ", to istnieje funkcja borelowska h: R n —>R taka, że £ ( X \ Y ) = h(Y). Dowód wynika natychmiast z następującego lematu: Lemat 8. Niech Y będzie zmienną losową o wartościach w R n, X — zmienną losową mierzalną względem c ( Y ) . Wówczas istnieje funkcja bo­ relowska h : R n —>R taka, że X = h(Y). Rozdział 6. Warunkowa wartość oczekiwana 134 D o w ó d . Zastosujemy metodę komplikacji zmiennej losowej X . 1. Jeśli X — 1 a, gdzie A 6 cr(Y), to istnieje zbiór borelowski B taki, że A = {oj G il: Y { u ) G B} . Wtedy X ( w) = lyi(w) = l B(y(w)) = h{Y{w)), gdzie h = I b 2. Jeśli X jest funkcją prostą, czyli X = 1 mamy l Ai = fi (Y) i h = CilAi, to na mocy punktu 3. Jeśli X jest dowolną zmienną losową cr(F)-mierzalną, to istnieje ciąg (X n) zmiennych losowych prostych i o-(F)-mierzalnych, dla którego X n(oj) —» X(uf), ii> e ii. Na mocy punktu 2 istnieją funkcje borelowskie tpn takie, że X n(u) = ipn(Y(u)), zatem <pn( Y(u)) -------> X ( u ) , 71— »OO co G ii. Zbiór B = { i 6 R n:limn <fin{x) istnieje} jest zbiorem borelowskim. Dlatego funkcja jest borelowska. Ale oczywiście X(u>) = limre <pn{ Y( w)) = <p(Y(w)), w G fi. ■ Korzystając z twierdzenia 7, możemy zdefiniować warunkową wartość ocze­ kiwaną względem { Y = y) nawet wtedy, gdy to zdarzenie ma zerowe praw­ dopodobieństwo. D efin icja 9. Warunkową wartością oczekiwaną zmiennej losowej X pod warunkiem { Y = y }, którą oznaczamy £ (X |Y = y), nazywamy liczbę h(y), gdzie h jest funkcją otrzymaną w twierdzeniu 7. Jeżeli zmienna losowa Y ma rozkład dyskretny i P (Y = y) > 0, to z tw. 6 .2.2 wynika równość Obliczmy tę wielkość, korzystając z definicji 9. Dla u> G {Y = y ) mamy £(zir»“) = i r a L IiS więc czyli definicja 9 daje ten sam rezultat, co poprzednio. § 6.3. Definicja ogólna 135 Gdy mamy funkcję h(y) = £ ( X |Y = y), to g(u) = h(Y(tv)) jest równe £ ( X [ Y), tzn. £ ( X |Y) = h(Y). Na przykład, jeśli £ ( X |Y = x) = x 3, to £ ( X |Y) = Y 3. Zastosujemy teraz warunkową wartość oczekiwaną do rozwiązania następu­ jącego zagadnienia prognozy: Dany jest wektor losowy (X , Y), gdzie zmienna losowa X jest obserwowalna, a zmiennej losowej Y nie możemy obserwować. Jak na podstawie obserwacji X ocenić (prognozować) Y? Problem ten przypomina nieco zagadnienie regresji liniowej, o którym wspo­ mnieliśmy w poprzednim rozdziale, i właściwie można by go określić jako zagadnienie regresji, tyle że krzywoliniowej. Zmienną losową <p(X), gdzie ip jest funkcją borelowską, nazywamy pro­ gnozą Y przy pomocy X , a £ [Y —<p{X)f — błędem średniokwadratowym ip* określa krzywą prognozy, który oznaczamy A ip. <p*(X) jest prognozą optymalną (w sensie regresji. średniokwadratowym), jeśli £ [ Y - i p * ( X )}2 = m i £ [ Y - i p ( X ) ] 2 , gdzie kres dolny jest brany po wszystkich funkcjach ip borelowskich. T w ierdzen ie 10. Niech £ Y 2 < oo. Wtedy prognoza optymalna istnieje i jako ip* (x ) można wziąć <p*(x) — £ (Y |X = x ) . D o w ó d . Można ograniczyć się do <p takiego, że £ip2( X ) < oo (w przeciw­ nym razie Aip = oo). Niech ip {X ) = £ (Y |X ). Wtedy £ [Y - ip{X) ] 2 = £ [Y —V*(X) + ip*(X) - i p{X)f = = £ [Y - v * { X ) f + £ \V*{X ) - ip{X ) ) 2 + + 2 £ \ ( Y - v * ( X ) ) ( i p * ( X ) - <p ( X) ) \ . Drugi wyraz jest nieujemny, a trzeci jest równy zeru, ponieważ £ [ ( Y - < p * { X ) ) { < p * { X ) - V(X))} = = £ { £ {[(Y - <p*(X))(<p*(X) - V(X))] |X } ) = = £ (ip*(X) - <p(X)) ■£ (Y - V*(X) |X ) = 0. Zatem A<p > £ { Y - <p*{X)]2 . u Jeśli ktoś pamięta, że warunkowa wartość oczekiwana zmiennej losowej Y € L 2 względem cr-ciała T jest rzutem ortogonalnym na L 2 ( Q, T, P) , łatwo się domyśli, że najlepszą średniokwadratową ^-mierzalną prognozą Y jest £ (Y |T). Żeby otrzymać twierdzenie 10, wystarczy wziąć T = a{X). Rozdział 6. Warunkowa wartość oczekiwana 136 Zadania 1. Warunkowa wersja lematu Fatou. Jeśli X n ^ 0, to £ (lim inf X n \F) ^ lim inf £ (X n \J7) p.n. 2. Warunkowa wersja twierdzenia o zbieżności zmajoryzowanej. Jeśli |X.H| ^ V(w),n = 1,2,... ,£Y < oo oraz X n —» X p.n., to lim£(Xn \F) = £ ( X \ F ) n p.n. 3. Udowodnić 6.3.4(i). 4. Pokazać, że 6.3.4(i) jest prawdziwe przy założeniu, że Z jest ^-mierzalna oraz (i) X, Y są dodatnie, £ X < oo, £ (XZ) < oo lub {ii) X € L p, Y e L ' 1, p > l , p - 1 + q - 1 = l. 5. Wykazać, że jeśli X jest zmienną losową całkowalną, a-ciało G jest niezależne od a(a(X),F), to £ ( X |<r{Q,F)) = £{X\ F). Uwaga. Biorąc T = {fi, 0}, a więc cr-ciało nie niosące żadnej informacji, otrzymujemy 6.3.4(/i). 6 . X i Y są niezależnymi zmiennymi losowymi, / — ograniczoną funkcją borelowską. Wykazać, że £(f(X,Y)\Y = t)=£f(X,t). 7. Rzucamy 10 razy symetryczną monetą. Niech X oznacza łączną liczbę orłów, zaś Y liczbę orłów w pierwszych czterech rzutach. Znaleźć £ ( X \Y). 8 . Gdy £ X 2 < oo, to możemy zdefiniować warunkową wariancję: V 2 {X\f) = £ ((X - £ {X |F ) ) 2 |F) . Wykazać, że V 2X = £ (V 2 (X\f)) + V 2{£ (X \F)). 9. X i Y są niezależnymi zmiennymi losowymi o tym samym rozkładzie i skoń­ czonej wartości oczekiwanej. Wyznaczyć £{X\ X + Y). 10. Uogólnić wynik poprzedniego zadania na n zmiennych losowych. 11. Niech X i Y będą niezależne, o tym samym rozkładzie fi. Wyznaczyć I zadbać o to, żeby nie wplątać się w rachunki. £ ( X |X 2 + Y 2) dla dwóch różnych rozkładów im. ■12. Niech ii = [0,1] x [0,1], P — miara Lebesgue’a na [0,1] x [0,1]. Znaleźć £ ( f \ T ) , jeśli a) f(x,y) = x , T jest <r-ciałem generowanym przez y. b) f(x) —x —y , T jest c-ciałem generowanym przez x + y. c) f(x) = x 2y, T jest cr-ciałem generowanym przez y. 13. Niech X\, Xi , ... będą niezależnymi zmiennymi losowymi o tym samym roz­ kładzie, £\Xl\ < O O , Sn = X l + . . . + X n, Fn = a{Sn , Sn+ 1 , £>„+2, • ■•)• Wyznaczyć £ (X i |Tn) i £ (X)”=i I ? n) ’ ®dzie S " = i a' ~ § 6.4. Prawdopodobieństwo warunkowe — uogólnienie § 6.4. 137 Prawdopodobieństwo warunkowe — uogólnienie Korzystając z pojęcia warunkowej wartości oczekiwanej, uogólnimy teraz pojęcie prawdopodobieństwa warunkowego zdarzenia. D efin icja 1. Prawdopodobieństwem warunkowym zdarzenia A e M pod warunkiem Y = y, które oznaczymy przez P{A\Y = y), będziemy nazywać wielkość £ { U \ Y = y). Ponieważ ma sens wyrażenie P (X £ A\Y = y), możemy także mówić o roz­ kładzie warunkowym zmiennej losowej X pod warunkiem Y = y. W następ­ nym przykładzie dane są, rozkłady warunkowe, z których tworzy się rozkład zmiennej losowej. P rzyk ła d 2. Niech Y ~ U[0, lj. Jeśli Y = x, to rzucamy n razy monetą, dla której prawdopodobieństwo wypadnięcia orła jest równe x. Niech S„ oznacza liczbę orłów. Znaleźć P (S n = k), k = 1 , 2 , . . . , n (por. z przykładem 6.2.9). R o z w i ą z a n i e . Jest jasne, że P(Sn = k\Y = x) = h(x) = - x )n~k. Dlatego P (S n = k ) = £ { £ (1{Sb=4} |Y ) ) = S (h ( Y )) = = f P(Sn = k\Y = x)fiY(dx) = Jo = J ^ j x k(l —x )n~k dx = _ / n\ T(k + l)r(n - k + 1) ~ VfeJ r(fe + l + n - f c + l) " + l , n — k + 1) = /n \ k\{n - k)\ _ 1 (n + l) ! ~ n + 1 ’ dla k = 0 ,1 , . . . , n. Skorzystaliśmy tu z własności funkcji beta udowodnio­ nych w dodatku A. ■ W tym przykładzie obserwacje Sn i Y są obserwacjami z eksperymentu dwuetapowego. Rozkład Sn w drugim etapie zależy od wyniku Y pierwszego etapu. Następne twierdzenie pokazuje metodę obliczania £ (X |Y — x ), gdy łączny rozkład zmiennych losowych (X , Y ) jest ciągły. Rozdział 6. Warunkowa wartość oczekiwana 138 T w ierd zen ie 3. Jeśli (X , Y ) ma rozkład ciągły z gęstością g, to P (X 6 B\Y) = k ~ -X r Yl ? d -, J -00g ( x , Y ) d x (1) y ) J Z, V’ ( x ) g ( x , Y ) d x S W X )\ Y ), (2) dla takich funkcji borelowskich <p, że £\tp(X)\ < co. Gdy dla pewnego zda­ rzenia elementarnego cu i J g(x, Y(ui))dx = 0 , —C to kładziemy w obu wzorach z prawej strony wartość 0 . U w a ga 4. Z tego twierdzenia wynika, że funkcję V0 w p.p. można nazwać warunkową gęstością X pod warunkiem Y , bowiem Prawa strona (2) jest postaci h(Y), więc podstawiamy / Y = y. U w aga 5. Niech N y = jw € fi: J^ P ( N y ) = nY ( \ y : f \ (. = J>{Vi{ y . f ° ° OO <p(x)fxiY(x\y) dx. •OO g(x, y(u>)) dx = 0 j . W tedy g { x , y ) d x = 01 ) = / J —oo )/ r g ( x ,y) , y ) d x = 0 } L/ - 0 0 9(x ^ J{y: f ,y)dx dy = dx= o} fy{y)dy- g( x, y) d x = 0 } 0. Zatem prawe strony wzorów (l)-(2 ) w tw. 3 są dobrze określone poza zbio­ rem N y miary zero: tam możemy je określić dowolnie, więc kładziemy zero. D o w ó d twierdzenia 3. Udowodnimy tylko wzór ( 2), bowiem biorąc ip = I g , otrzymamy (1). Weźmy dowolny element B z a(Y). Jest on postaci Y ~ l (A), gdzie A £ B (R ). Mamy f £ {<p(X) |Y ) d P = i Jb <p{X) d P = J y ~ 1{ A) / f <p(X)1a(Y) Ja. OO pOO / i f ( x ) l A(y)g(x, y) dx dy = ■oo J —OO § 6.4. Prawdopodobieństwo warunkowe — uogólnienie 139 Jeśli J^°oog {x ,y )d x = 0, to g(-,y) = 0 p.w. (bo g > 0) i bierzemy wer­ sję gęstości g(x,y) = 0 (dla każdego x). Wtedy dla każdego x mamy if{x)g{x,y) = 0. Niech ę( y) = ( dl a H o w p.p. 1.0 Wtedy, ponieważ / =? / £(y) Ja / p(ar, y) OO jest gęstością Y, to -1 /*CO /»OO g{x,y)dx\dy= J •00 ?/)d* > 0 . l A{y)<p(y) J —00 / g ( x , y ) dx LJ —00 = f l A( Y ) ę ( Y ) d P = [ ę ( Y ) d P = [ ę { Y ) dP. Jn J y ->(a) Jb Zatem dla każdego B e er(Y) mamy / £ ( lp ( X ) \ Y ) d P = [ ę ( Y ) d P , Jb Jb ponadto <p(Y) jest a(Y)-mierzalna, więc z jednoznaczności warunkowej war­ tości oczekiwanej wynika, że: £{ i p( X) \Y) = <p{Y)-= f i p { x ) - ~ — ~ - - — dx J-oo J_oog ( x , Y) d x P-p.w. ■ P rzyk ła d 6 . Jeśli wektor losowy (X, Y) ma rozkład normalny, to regresja jest liniowa. Niech (X, Y) ~ N ((mi, ^ 2) , ^ ) - Wtedy f (X |Y) = + P(X, Y ) ? * ( Y - H2 ). (ty Wziąć dwa funty cielęciny, wstrząsnąć, obrać, U w aga 7. Jeśli rozkład (X , Y ) ma ciągłą gęstość / , to dla dowolnego zaprawić i zrobić eskalop. R o z w i ą z a n i e . Znajdujemy postać f X\y i obliczamy £ (X j Y ). ■ zbioru B € B(R ) lim P (X £ B\z < Y < z + ft) = I fx\Y{x \z ) dx = h »0 Jg = lim P (X G S||Y — z| < /i), h— 40 co daje intuicyjną interpretację warunkowej gęstości X pod warunkiem Y. P rzyk ła d 8 . Przy obliczaniu gęstości warunkowych trzeba jednak zacho­ wać ostrożność. Jeśli wektor losowy {X , Y ) ma łączny rozkład ciągły i wy­ znaczamy gęstość warunkową pod warunkiem { X = Y }, to przedstawiając to zdarzenie w postaci X —Y = 0 i X /Y = 1 otrzymamy różne wyniki. A. Słonimski, J. Tuwim „W oparach absurdu” Rozdział 6. Warunkowa wartość oczekiwana 140 Żeby to zobaczyć, weźmy niezależne zmienne losowe X , Y o rozkładzie wykładniczym i niech Z\ = X + Y , Z 2 = X — Y , Z 3 = X / Y . W tedy f z l \z2(x \®) = Zdarzenie { X — Y } przybliżyliśmy przez {0 < \X — Y\ < h}). Ale: f z ^ z ^ l ) = f Z l (x ) = X2x e ~ ^ l {x>0}. Zdarzenie { X = Y } przybliżyliśmy teraz przez {|(X/Y) - 1| < h } = {|X - Y \ < hY} . • Na zakończenie powiemy, jak sformułować ściśle zadanie z przykładu 6.1.1, posługując się rozkładami warunkowymi: zmienna losowa U ma rozkład jed­ nostajny na [0,1], a zmienna losowa V ma rozkład warunkowy jednostajny na [0, i], jeśli wiadomo, że U = t. Wyznaczyć £ V . A jak wygląda formalne rozwiązanie tego zadania? Można wykorzystać roz­ ważania prowadzące w przykładzie 6 . 1.1 do konstrukcji modelu, można też obyć się bez konstrukcji i skorzystać ze wzoru 6.3.4(p). Zadania 1. Znaleźć rozkład warunkowy X pod warunkiem X + Y = t, jeśli X i Y są niezależnymi zmiennymi losowymi o tym samym rozkładzie a) Ai (o, A2); b) wykładniczym z parametrem A; c) Poissona z par. A. Obliczyć w punkcie b: d) P ( X < t\min(X, Y ) ą t ) ; e) P ( X > t\max(X, Y) ^ 24). f-h) Uogólnić wyniki a-c na przypadek, gdy parametry A i /i obu rozkładów są różne. 2. Niech (X , Y ) ma rozkład o gęstości f ( x, y) = 8®j/l{l>o,!,>o,*2+y=<i}(3>i0Znaleźć £ (Y j X = . 3. Odcinek [0,1] łamiemy losowo na dwie części, następnie większą część znowu łamiemy losowo na dwie. Punkty łamania mają rozkład jednostajny. Jaka jest szansa, że z otrzymanych odcinków można zbudować trójkąt? 4. Niech X, Y będą niezależnymi zmiennymi losowymi o rozkładzie jednostaj­ nym na [0, 1], U = min(X, y ), V = max(X, Y). Znaleźć: a) £ (U |V) i £ (V |U); b) £ (sin(VU) \U). 5. Udowodnić (najlepiej nie korzystając z gęstości warunkowych), że jeśli (X , Y) ma rozkład normalny o średniej zero, to § 6.4. Prawdopodobieństwo warunkowe — uogólnienie 141 Piraci drogowi jeszcze raz. Towarzystwa ubezpieczeniowe stosują do pro­ gnozowania liczby szkód metody subtelniejsze niż te przedstawione w zadaniach 4.1.14-15 o następstwach pozornych. Zamiast dzielić klientów na ostrożnych i pi­ ratów przyjmuje się, że zmienna losowa X — liczba szkód zgłoszonych przez klienta w ciągu roku — ma rozkład Poissona z parametrem A. Ale sam parametr A jest traktowany jak zmienna losowa (bowiem zależy od klienta); przyjmuje się, że ma rozkład gamma z parametrami a i 6. 6 . Wyznaczyć rozkład liczby szkód dla losowo wybranego klienta. Jeśli klient zgłosił n szkód w ubiegłym roku, można podjąć próbę oszacowania pa­ rametru A, wyznaczając jego rozkład warunkowy pod warunkiem X = n. Wtedy £ (A |X = n) można przyjąć za prognozę liczby szkód w bieżącym roku. 7. Wyznaczyć rozkład warunkowy A pod warunkiem X = n oraz £ (A |X = n). Prognoza wysokości roszczeń. Załóżmy, że klient towarzystwa ubezpiecze­ niowego zgłaszał w poprzednich n latach roszczenia o wysokościach X lt. .. ,XnNależy na tej podstawie oszacować X „+ i — wysokość roszczeń, jakie zgłosi w bie­ żącym roku. Zakładamy, że Xi = m + U + Vi dla i = 1 , 2 , . . . , n + 1, gdzie CU = 0, V 2U = u2, £Vi = 0, T>2Vi = n2, m = £X-l. Załóżmy ponadto, że zmienne losowe U i Vi są nieskorelowane. Zmienną losową U można interpretować jako losowe odchylenia dla poszczegól­ nych klientów, zmienne V{ — jako losowe różnice pomiędzy kolejnymi latami1. 8 . Rozwiązać zagadnienie regresji liniowej dla zmiennych losowych X n+i i Sn = = X i + ... + X„. 9. Założyć dodatkowo, że zmienne losowe U i Vi mają łączny rozkład normalny i rozwiązać zagadnienie prognozy dla X n+i i Sn = X i + . . . + X n. Uogólnienia wzoru Bayesa. Mają one liczne zastosowania, m. in. w statystyce i matematyce finansowej. Oznaczmy P(A\G) = £ (1.4 |G) (por. def. 6.5.1). Stwierdzenie 9. Jeśli Q jest a-ciałem, G C F, B e G, A e F i P(A ) > 0, to f B P(A\G)dP P(B\A) = : Jn P(A\G)dpDowód. Dla każdego zbioru B € G mamy, warunkowej wartości amy, na mocy definicji de: oczekiwanej: / P(A\G)dP = [ 1AdP = P(A n B). Jb Jb Wobec tego P(BIA) = p ( A n B > = P(AnB) K 1 ' P(A) P(AnB) + P(ADB’) ! BP(A\G)dP f B P(A\G)dP JB P(A\G)dP + f B, P(A\G)dP f n P(A\G)dP' ŁNa przykład ten zwrócił nam uwagę Wojciech Niemiro. Patrz też W. Niemiro, Ra­ chunek prawdopodobieństwa i statystyka matematyczna, Szkoła Nauk Ścisłych, Warszawa 1999, roz. 6. Rozdział 6. Warunkowa wartość oczekiwana 142 10. Niech { A i , . . . , A n} będzie rozbiciem zbioru fi, niech B e M , P (B ) > 0, X = £)"=i >9; ~ U d o w o d n i ć , że - f m l ^ IZ o ' 9 (*)P(B\X = g (g (J Q lB) J ^ o P(B|X = a)/iX(da) £1 b *11. Niech X , K będą zmiennymi losowymi spełniającymi warunek P (X € A|Y = 1/) = gdzie h: R zać, że X J h (x,y)v(d y), R —>R jest funkcją borelowską, a u miarą <r-skończoną. Wyka­ P (Y e B|X = x) _ SB h(x ,y)iJ-Y{dy) JToah{x,y)iJ.Y(.dy)' a jeśli ip: R —» R jest taką funkcją borelowską, że £\ip{Y)\ < oo, to £ (<p{Y) I X = x) = f i -00 Ifiiy) 755—¿7^’- ^- 7 7 i^ h & y ^ Y id y ) W • Gdy wektor losowy (X , Y ) ma rozkład dyskretny, otrzymujemy wzór z zadania 10; jeśli ma rozkład ciągły, to znamy h (patrz uwaga 4) i ma miejsce zależność „ , v I Z o v(y)fx\Y{x\y)fY (y) dy £ {^ (Y ) ) X — x) — „oo J-oo / x | y ( ® | y ) / y ( y ) dy 12. Niech P, Q będą miarami probabilistycznymi na (ii, JP), dla których istnieje gęstość dQ/dP — Z > 0 P-p.n. Niech Q C T i niech X będzie zmienną losową Q-całkowalną. Wtedy £p{xz\g) , Q( § 6.5. *^ £p (Z ¡g ) ' Regularne rozkłady warunkowe W ostatniej części tego rozdziału zajm iem y się kwestią istnienia regularnych rozkładów warunkowych, które umożliwiają obliczanie warunkowej wartości oczekiwanej jako całki ze zmiennej losowej względem odpowiedniej miary. D e fin ic ja 1. Prawdopodobieństwem warunkowym zbioru B pod warunkiem o-cia ła T nazywamy wersję warunkowej wartości oczekiwanej P(B\F) = £ (I b I F ) ■ Należy podkreślić, że P(B\T) jest zmienną losową. §6.5. Regularne rozkłady warunkowe 143 U w aga 2. Gdy T jest generowane przez przeliczalne rozbicie { A i: i £ / } , gdzie P(Ai) > 0 dla i e I, to P(B\T) — P(B\Ai), gdy c j e A . Istotnie, Jest to prawdopodobieństwo zajścia zdarzenia B, gdy wiemy, do którego zbioru Ai należy w, czyli gdy mamy dodatkowo częściową informację o zda­ rzeniu elementarnym w. T w ierdzen ie 3. Prawdopodobieństwo warunkowe P(B\T) ma następujące własności: (i) Jest zmienną losową T-mierzalną. (ii) Dla każdego A € T P ( A D B ) = f 1 B d P = f £ { l B \ F ) d P = f P(B\T)dP. Ja Ja Ja (iii) 0 < P(B\T) < 1. (■iv) Jeśli Bn są rozłączne parami, to OO OO P ((J J U n = X > (£ » l^ n—1 p.n., n= 1 bo dla każdego A 6 T Trzeba podkreślić, że ta równość jest spełniona prawie na pewno i wa­ runkowego prawdopodobieństwa P(B\T)(oj) nie można, przy ustalonym oj, uważać za miarę (względem B). Można by sądzić, że po wyrzuceniu zbioru N miary zero P(-\J-)(u) dla u) £ il \ N będzie już miarą. Ale tak nie jest. Jeśli N ( B i , B 2, .. ■) jest zbiorem tych u, że dla ustalonych zbiorów rozłącznych Bi, B 2, B3, ... nie jest spełniony warunek przeliczalnej addytywności, to trzeba by wykluczyć cały zbiór N = (JjV(f?i, B2, ■■•), gdzie sumowanie odbywa się po wszystkich parami rozłącznych zbiorach Bi, B2, ... £ M . Suma ta jest nieprzeliczalna, więc może być P ( N ) > 0. Rozdział 6. Warunkowa wartość oczekiwana 144 D efin icja 4. Regularnym rozkładem warunkowym względem T nazywamy funkcję ■)'■M x ii —> [0 , 1], spełniającą następujące warunki: (i) dla B e M , Pj={B, ■) jest wersją £ ( I b |F ), (ii) dla każdego to € ii P^(-,ui) jest rozkładem prawdopodobieństwa na M. Istnienie regularnego rozkładu warunkowego upraszcza wiele obliczeń dzięki poniższemu twierdzeniu. T w ierd zen ie 5. Niech X będzie zmienną łosową całkowalną, a Pp(-, ■) re­ gularnym rozkładem warunkowym względem T . Wtedy £ ( X \ T ) ( u i ) = [ X(u>)Pjs(cB,u) Jn p.n. (1) D o w ó d . Dla X = I b , B € M , równość wynika z definicji, dlatego rów­ ność (1) jest prawdziwa dla funkcji schodkowych. Gdy X > 0, to istnieją zmienne losowe schodkowe X n takie, że X n f X . W tedy z twierdzenia 6.3.4(e) £ ( X \ J r) = lim ^ f ( X n |JF) p.n. Ponieważ Pp(-, u) jest miarą dla każdego w, to korzystając z (1) dla zmiennych losowych schodkowych X n otrzymujemy lim f n (X n |T ) = lim [ X n(ij)P^(du),u .>) = f X(Co)Pr(dCb,Lj), n Ja Ja zatem (1) zachodzi, gdy X > 0. Stąd, ponieważ X = X + — X ~ , otrzymu­ jemy tezę. ■ Regularny rozkład warunkowy względem T nie zawsze istnieje (zad. 2), ale można wykazać (zad. 1), że prawdziwe jest T w ierd zen ie 6 . Dla dowolnej zmiennej losowej X i dowolnego T C M istnieje regularny rozkład warunkowy X pod warunkiem T , tzn. funkcja ') określona na B (R ) x ii i taka, że (i) Dla każdego B £ ¿B(R) Px ,AB,u>) = P( XeB\T) ( u>) ; (ii) Dla każdego ui € il, Px \f {', w) jest rozkładem prawdopodobieństwa na B( R ). To twierdzenie jest prawdziwe także dla zmiennych losowych o wartościach w przestrzeni polskiej, w szczególności — o wartościach w R n. Na zakończenie podamy przykład często spotykanej sytuacji, gdzie regu­ larny rozkład warunkowy istnieje i ma taką postać, jakiej należałoby ocze­ kiwać (por. uwaga 6.4.4). §6.5. Regularne rozkłady warunkowe 145 P rzy k ła d 7. Wektor losowy (X , Y ) ma gęstość f ( x, y). Definiujemy funk­ cję ^ U fa ) Tu, w przeciwieństwie do tw. 6-4.3, musimy wstawić jakąkolwiek gęstość. W * ) = H o /(*.*)<**> °> dla f x ( x ) = 0 , gdzie g jest dowolną gęstością, i K B , x ) = [ h(x,y)dy, B e B(R ). Jb Wtedy Py\<T(x) (B, U l) = n(B, X( u) ) . Istotnie, dla ustalonego B funkcja fi(B,X(uj)) jest cr(X)-mierzalna, zaś fj,(-,X(uj)) jest dla ustalonego w miarą. Trzeba jeszcze wykazać, że faktycz­ nie otrzymaliśmy wersję P ( Y e B\X) dla B £ fi(R ), czyli że dla A e B {R ) zachodzi równość [ P (Y 6 B\X)(ui)P(dui) = f n ( B , X( u ) ) P ( d v ) . J{xeA} J{xeA] (2) Żeby ją udowodnić, zauważmy, że lewa strona jest równa / l { Y e B } dP = P ( X e A , Y e B ) , J{xeA} prawa zaś jest równa L ',(B' =L [/«iM ds\Mx>* ■ = [ f ( x, y) dxdy — P ( X e A, Y £ B ). J a *. b Tym samym udowodniliśmy równość (2). Zwróćmy uwagę, że gdy f ( x , z)dz = 0, to //(-, z ) jest rozkładem o gę­ stości g, można tu jednak wziąć dowolny rozkład prawdopodobieństwa. ■ Zadania *1. Udowodnić twierdzenie 6. * 2 . Wykazać, że regularny rozkład warunkowy względem danego cr-ciała nie za­ wsze istnieje. Rozdział 7 Sumy niezależnych zmiennych losowych §7.1. Wprowadzenie Prawo wielkich liczb i centralne twierdzenie graniczne, udowodnione jesz­ cze w X VII i XVIII wieku, zajmują w teorii prawdopodobieństwa pozycję szczególną. Obecnie znane są niezliczone warianty tych twierdzeń, których wspólną cechą jest asymptotyczne zachowanie się wyrażeń postaci X i + X 2 + . •. + X n — an gdzie (X „ ) jest ciągiem niezależnych zmiennych losowych, zaś (an) i (bn) — ciągami liczbowymi. Do badania tego rodzaju unormowanych sum zmien­ nych losowych przydają się z kolei kryteria zbieżności szeregów niezależnych zmiennych losowych. Interesujące, że taki szereg może być zbieżny wyłącz­ nie z prawdopodobieństwem 0 lub 1 — prawie wszędzie lub prawie nigdzie. I od twierdzeń tego typu, czyli praw zero-jedynkowych, zaczniemy. § 7.2. Prawo zero-jedynkowe Kołmogorowa Rozpatrzmy ciąg cr-ciał T n C T . Jeśli wyobrazimy sobie, że T n jest u-ciałem generowanym przez zmienną losową X n, będziemy mogli interpretować jako zasób wiedzy o doświadczeniu (ii, T , P ) otrzymany w chwili n, gdy dokonujemy kolejnych obserwacji w chwilach 1,2, 3,. .. . Wówczas cr-cialo reprezentuje całą wiedzę o przyszłości od chwili n. Definiujemy cr-ciało, zwane ogonowym albo resztkowym: OO (1) 146 7.2. Prawo zero-jedynkowe Kołmogorowa 147 Ponieważ Tn,oo T,+1,00) ciąg (Tn,<x)n jest zstępujący. Dla stwierdzenia, czy A £ Too, wystarczy wiedza o przyszłości od dowolnie dalekiego mo­ mentu czasu. Wiedza o T jest zawarta w nieskończenie odległej przyszło­ ści. Gdy ciąg (T n) jest ciągiem a-ciał niezależnych, to ciąg ten nie powinien przechowywać do nieskończoności żadnej istotnej informacji. T w ierdzen ie 1 (P raw o 0 -1 K ołm ogorow a). Jeśli u-cmla T n są nie­ zależne, to dla każdego zdarzenia A 6 Tx mamy P(A) = O albo P(A) = 1. D o w ó d . Dla dowolnego n niezależne są cr-ciała Gn = a (T i,T 2 , . . . , T n) i T „+ i,oo- Ponieważ A 6 Ta0, to A € ^Vi+il0o- Stąd dla każdego n zdarzenie A jest niezależne od Gn, zatem A jest niezależne od cr{Gi, G2 , ■- •) = ^ 1,00 (na mocy lematu 5.8.12 o niezależnych 7r-układach). Ponieważ A € T it0a, to A jest niezależne samo od siebie, czyli P(A) = = P (A fi A) = P (A )2 i ostatecznie P(A) = O lub P(A) = 1. ■ W n iosek 2. Jeśli (X n) jest ciągiem niezależnych zmiennych losowych, to szereg XmL^i i est zbieżny z prawdopodobieństwem O lub 1 . D o w ó d . Niech Tn = a { X n). Wtedy (Tn) jest ciągiem cr-ciał niezależnych i dla każdego k X n zbieżny > ^ X n zbieżny > £ T k, 0 0 ) n=k ) wobec tego wystarczy skorzystać z twierdzenia 1. ■ Podobnie postępujemy w wielu innych przypadkach, np. dowodzimy, że dla niezależnych zmiennych losowych zdarzenia { istnieje skończona granica lim X n}, TL—* OO {lim supX n = 00 }, r i-Xi + .. . + X n x ■I lim --------------------< 0 } 71—»OO 71 należą do T ^ (zad. 1), zatem prawdopodobieństwo ich zajścia jest równe O lub 1. Ale na przykład zdarzenie (sup X n < 5} nie należy do cr-ciała ogonowego. Hewitt i Savage uogólnili wynik Kołmogorowa na zdarzenia permutowalne (patrz zad. 7). Rozdział 7. Sumy niezależnych zmiennych losowych 148 Zadania 1. Udowodnić, że zdarzenia { istnieje skończona granica lim J „ ) , n—+oo (limsupXn = oo}, { lim — Tl—* 0 0 a} Tl należą do Foo • 2. Niech X będzie zmienną losową mierzalną względem Tao zdefiniowanego wzo­ rem (1). Pokazać, że X = const p.n. 3. Udowodnić, że jeśli X n są niezależnymi zmiennymi losowymi, to promień zbieżności szeregu potęgowego YIT-i XkZk, z G C, jest stały p.n. Twierdzenie Hewitta-Savage’a. Funkcję wzajemnie jednoznaczną 7r: N —>N, tc = (jti, 1x2 , •. ■), nazwiemy permutacją skończoną, jeśli 7Tn = n dla wszystkich n z wyjątkiem skończonej ich liczby. Coś nowego: Jeśli X = ( X i , X 2,...), to tt(X) = {Xlri, X %2,...). Jeśli A = { X 6 B}, gdzie 5(R°°) B G S(R°°), to 7r(A) = {■,k ( x ) g B }. Zdarzenie A = {X G B }, B £ S(R °°) nazwiemy zdarzeniem permutowalnym, jeśli dla dowolnej permutacji skończonej ir mamy tc(A) = A. Przestrzeń R°°, która się tu pojawiła, jest przeliczalnym produktem R z metryką X R X ... 1 + E i=1 lxi - 2 / 4 (R°°, d) jest przestrzenią metryczną, ośrodkową i zupełną. 4. Wykazać, że są permutowalne następujące zdarzenia a) limsup{5n G B}, gdzie Sn = J2k=iXk’ B e ®(R )> b) limsup{5n > a „} dla dowolnego ciągu (an). 5. Pokazać, że jeśli A € -Fco, to A jest zdarzeniem permutowalnym (implikacja w drugą stronę nie jest prawdziwa). 6 . Udowodnić AAB = (A \ B )U (B \ A ), Lemat 3. Niech Gi,G2 ,--- będą dowolnymi u-ciałami zawartymi w cr-ciele T, Q = cr(Gi,G2 , ■■■)■ Wtedy dla każdego A G G istnieje ciąg (Ak)kLi, gdzie Ak G cr(Qi, 02, ...Gk) taki, że l i m ^ « P(A A Ak) = 0. 7*. Udowodnić Twierdzenie 4 (Hewitta—Savage’a) . Niech X\,X 2 ,. .. będą niezależny­ mi zmiennymi losowymi o jednakowym rozkładzie. Niech ) A = { ( X i , X 2, ...) G B } , B e B(R°°), będzie zdarzeniem permutowalnym. Wtedy P (A) = 0 lub P(A) — 1. 8. Wykazać, że funkcja g(A,B) = P(A A B), A, B G T, jest pseudometryką. Pseudometryka jest nieujemna, symetryczna i spełnia warunek trójkąta. Wykazać, że odwzorowania: A —>f A Y dP, gdzie Y G —* A n B, A U B, A \ B są ciągłe w tej pseudometryce. F, P), (A, B) —» § 7.3. Zbieżność szeregów niezależnych zmiennych losowych § 7.3. 149 Zbieżność szeregów niezależnych zmiennych lo­ sowych Na mocy wniosku 7.2.2 szereg niezależnych zmiennych losowych Xn może być zbieżny z prawdopodobieństwem 1 lub rozbieżny z prawdopodo­ bieństwem 1. W tym paragrafie zajmiemy się problemem zbieżności szeregu. Zaczniemy od nierówności maksymalnej, gdzie jak zwykle Sn = oznacza n-tą sumę częściową. Sformułowanie ze T w ierdzen ie 1 (N ierów ność L e v y ’e g o -O tta v ia n ie g o ). Jeśli X i, X 2, stałą 3 i dowód pochodzą od . . . , X n są niezależnymi zmiennymi losowymi, to dla każdego e > 0 P(max|5j| > e) < 3m axP(|Ą| > -|e). i^ n i^ n (1) ° Gdy ponadto wszystkie Xi mają rozkłady symetryczne, to P(max|Si| > e) ^ 2P(|Sn|> e). (2) D o w ó d . Ustalmy s ,t > 0. Dla i = 1 , . . . ,n niech Ai = {|5^| ^ t + s dla j < i, |Si| > t + s}. Wtedy Ai są parami rozłączne oraz IJILi Ai = {maXj^n |Sj| > t + s}. Ponieważ Ai n {|Sn - 5j| < s} C Ai n {|S„| > i} (z nierówności trójkąta), to z rozłączności Aj oraz niezależności zdarzeń Ai i (I«?™ —5i| ^ s} mamy % -P(|S„| > t ) z ¿ P i A i n {|5n - Sil ^ *}) = ¿ P ( A i )P(|5n i= 1 ¿=1 s) z n Z mmP( \Sn - S i \ ^ s ) - J 2 P(Ai) = "" ¿=1 = (1 - maxP(|S„ - 5ś| > s))P(max|Ą| > t + s). i^n i^n Stąd P(mąx|a| > . + , ) < Gdy maxj^„ P(|Si| > |i) < otrzymamy P(ma*|S£|> t) 4 > ‘j s — to biorąc Ty zamiast t oraz § 1 zamiast s, -----------------------------------------------<3? T Stanisława Kwapienia. Inne tego typu nierówności — patrz [KWA] Rozdział 7. Sumy niezależnych zmiennych losowych 150 Oszacujemy teraz I. Ponieważ P(|S„ - Si| > §t) < 2maxP(|Si| > ¿i) i^n oraz x/(l — 2 s ) < 3x dla x G [0 , |], to m a x ^ n P(|Si| > |i) ^ 3 ' 1 - 2m axi^n P(|Si| > 5 i) < 3maxP(|Sf| > \t). ¿<n Gdy ma^j^nP(|Si| > |i) > |, to nierówność (1) jest spełniona automa­ tycznie. Teraz udowodnimy (2). Niech A t = {|Sj| < t, j = 1 , 2 , . . . ,i — 1, |Sj| > t}, i = 1, 2 , . . . ,n. Wtedy Ai C (Ai n {\Sn\ > t}) U (Ai n {|2Si - Sn|> t}). Ponieważ Si i Sn — Si są niezależne i mają rozkłady symetryczne, zmienne losowe Sn = Si + (Sn - Si) i 2Si - Sn = Si - (Sn - Si) mają ten sam rozkład. W konsekwencji otrzymujemy p(Ai ) < P(Ain{|S„| > i } ) + i 5(^ n {| 2 S i - S n|> t}) = 2 P(A in{|Sn|> i}), skąd n P(max|Si| > t) = P(Ai) < 2P(max|Si| > t, |Sn|> i) < i^n X—/ i^n i—1 < 2P(|Sn|> t). ■ T w ierdzen ie 2 (O d w óch szerega ch ). Niech (X n) będzie ciągiem nie­ zależnych zmiennych losowych. Jeśli szeregi oo oo $ > 2x „ 71=1 są zbieżne, to szereg 71=1 jest zbieżny p.n. D o w ó d . Niech Yn = X n —£ X n, n = 1,2,.... Ponieważ szereg Yln=\ £ X n jest zbieżny, to szereg Y^=\ x n jest zbieżny p.n. wtedy i tylko wtedy, gdy £ n = i Yn jest zbieżny p.n. Ponieważ £ Y 2 = V 2X n, więc X£ Y 2 < oo. Niech S „ = T 2 = i YkSprawdzimy warunek Cauchy’ego, korzystając po kolei: z oszacowania sup |Sfc - Si| = sup |Sfc - Sn + Sn - S(| < 2sup |Sfc - S„|, k,l^n k^n z nierówności (1), z nieró\irności Czebyszewa i niezależności Yn. Ustalmy e > 0. Wtedy: § 7.3. Zbieżność szeregów niezależnych zmiennych losowych 151 P { sup |Sfe - Si\ > e) < P(sup \Sk - S„| > e / 2 ) = = lim P ( sup \Sk - Sn\> e/2) < m^ °° n^k^m < lim 3 sup PflSk - S„| > e / 6 ) < m_*°° n^k^m Prawa strona tej nierówności zmierza do zera, gdy n —> oo jako reszta szeregu zbieżnego. Zatem ciąg Sn jest zbieżny p.n. ■ P rzy k ła d 3. Rozważmy szereg harmoniczny z losowym wyborem znaku plus lub minus, czyli szereg n^n, gdzie (Un) jest ciągiem Bernoulliego. Wtedy £Un = 0 oraz OO OO 1 £ ^ 2( t V " ) = E i ^ < “ ’ n=l n = il więc szereg £ AUn jest zbieżny p.n., czyli jest zbieżny dla prawie każdego wyboru znaków (patrz też zadania 3 i 9). ■ Podamy teraz warunki konieczne i dostateczne zbieżności szeregu niezależ­ nych zmiennych losowych. Niech oznacza obcięcie zmiennej losowej X na poziomie c, tj. x (c) _ f X dla |X| < c, {0 dla \X\ > c. T w ierdzen ie 4 (K ołm og orow a o trzech szeregach). Warunkiem ko­ niecznym zbieżności prawie na pewno szeregu niezależnych zmiennych loso­ wych X n jest zbieżność dla każdego c > 0 szeregów OO OO oo X > 2 x "c)’ E n=l n—1 n=l p (ix ^ > c )> a warunkiem dostatecznym jest zbieżność tych szeregów przy pewnym c > 0 . D o w ó d . Dostateczność: na mocy tw. 2 szereg Xn^ jest zbieżny p.n. Z lematu Borela-Cantelliego i warunku £ P(\Xn\ > c) < oo wynika, że X n(u) — Xn\u>) dla n > n(ui), zatem X n jest zbieżny p.n. Dowód konieczności — patrz zad. 8 . ■ Okazuje się, że dla szeregów niezależnych zmiennych losowych zbieżność prawie na pewno jest równoważna ze zbieżnością według prawdopodobień­ stwa. Rozdział 7. Sumy niezależnych zmiennych losowych 152 T w ierdzen ie 5 (L é v y ’e g o ). Szereg Y2n X n niezależnych zmiennych loso­ wych jest zbieżny p.n. wtedy i tylko wtedy, gdy jest zbieżny według prawdo­ podobieństwa. D o w ó d . Ze zbieżności p.n. wynika zbieżność według prawdopodobieństwa (wniosek 5.9.5). Udowodnimy implikację w drugą stronę, a mianowicie wy­ każemy, że ze zbieżności szeregu X n według prawdopodobieństwa wynika, że zdarzenie OO A = { X n nie spełnia warunku Cauchy’ego } 71= 1 ma zerowe prawdopodobieństwo, zatem szereg 5.9.2). Otóż OO X n jest zbieżny p.n. (zad. OO OO P { A) = P (1 J f ) {sup |Xn + X n + 1 + . . . + X n+k\> l / i } ) < ¿ 2 P{A¡), l= ln = l k 1=1 gdzie Ai = p|{sup \Xn + . . . + X n+k\ > l/l}, n k l = 1 , 2 , . . . Pokażemy, że P{A¡) = 0, na co wystarcza, by dla dowolnego a > 0, P(A¡) < a. Dla ustalonego n mamy P{Ai) ^ P(sup |Xn + . •. + X n+k\ > 1 /0 = k = lim P(sup \Xn + . . . + X n+k\> 1 /0 ^ Hm < lim 3maxP(|Xn f . . . + X n+k\> 1 /(3 0 ), m—+00 gdzie w ostatniej nierówności skorzystaliśmy z (1). Szereg '£ ^ = 1 X n jest zbieżny według prawdopodobieństwa, więc dla dostatecznie dużych n i do­ wolnych k P(\Xn + ... + X n+k\> 1/(3/)) < a/3. Zatem P(Ai) ^ a. ■ Z a d a n ia We wszystkich zadaniach (Xn) jest ciągiem niezależnych zmiennych losowych. 1. Zbadać zbieżność szeregu £ X n, gdy: a) P(Xn = 2 “ ") = P(Xn = 0) = b) P( X n = 1) = 1 —P(Xn = 0) = A. § 7.3. Zbieżność szeregów niezależnych zmiennych losowych 153 2 . Wykazać, że jeśli zmienne losowe X n mają ten sam rozkład, P(Xn ^ 0) > 0, to szereg J2 X n jest rozbieżny p.n. 3. Niech (X,,) mają ten sam rozkład: P(Xn = 1) = P (X „ = -1 ) = f. Udo­ wodnić, że jeśli Y1 T=i < 00>*° X ^ i anXn jest zbieżny p.n. 4. Niech P (X „ = n) = ~s = P( X n = -n ), P(Xn = 0) = 1 Wykazać, że YZ?=i X n jest zbieżny p.n., chociaż V 2 X n = oo. Twierdzenie 2 można też udowodnić, korzystając z bardzo pożytecznej nierówno­ ści Kołmogorowa. 5. Udowodnić Twierdzenie 6 (Nierówność Kołmogorowa). Jeśli X i , ... , X n są nie­ zależnymi zmiennymi losowymi, £Xi = 0, £ X f < oo, i = 1,2,. . . , n, to dla każdego e > 0 fo l P(max|5fe|^ e ) ^ fc^n £ Ponadto, jeśli istnieje takie C > 0, że P(|X;| ^ C) = 1 dla i = 1,2,..., n, oraz £S 2 > 0 , to dla każdego e > 0 P(max\Sk\ ^ e ) ^ l - ^ ^ - 6 . Pokazać, że gdy zmienne losowe X„ są wspólnie ograniczone przez C (tzn. istnieje takie C > 0, że P(|Xn| ^ C) = 1), £ X n = 0, n = 1,2..., to ze zbieżności Xn p.n. wynika, że < co. 7. Pokazać, że w zadaniu 6 można opuścić założenie, że £ Xn = 0. Dokład­ niej: pokazać, że gdy X n są wspólnie ograniczone (przez C), to ze zbieżności X n p.n. wynika zbieżność szeregów Y ^ = i 'D1X n. 8 . Udowodnić warunek konieczny zbieżności P n- z *w- ^ (° trzech szeregach). 9. Niech (Xn)n będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie: P (X „ = 1) = P (X „ = -1 ) = Dla jakich 6 € [0,1], szereg 52“ =1(X „/n 9) jest zbieżny p.n.? 10. Zmienne losowe X n są wspólnie ograniczone. Pokazać, że jeśli a”-Xn jest zbieżny p.n. oraz |a„| ^ C, n = 1,2,..., to a» < °°11. Udowodnić Twierdzenie 7 (Nierówność Hoffmanna-J 0 rgensena). Jeżeli X i, . . . , X n są niezależnymi zmiennymi losowymi, Sk = X i -1- . . . + Xk, to dla wszyst­ kich s,t,r € [0 , oo) jest P(max|5fc|> s + i + r) ^ P(max|Xfc| > s) + fc<n -t-P(max|Si| > t)P (max \Sk —Ą| > r) k^n k,j^n ^ P(max|Xjc| > s) + k^n + 2P(max|S*:| > i)P(max|5„ - Sjt| > r/2). k^n k^n _ 51 f l 2 . Niech S oznacza sumę szeregu z przykładu 3. Wykazać, że P (S > t) ^ e . Rozdział 7. Sumy niezależnych zmiennych losowych 154 § 7.4. Prawa wielkich liczb Już dawno zauważono, że gdy rzucamy wielokrotnie symetryczną monetą, to częstość wypadnięcia orła w końcu stabilizuje się w pobliżu Jakub Bernoulli pod koniec X V II w. udowodnił Podobny nowa T w jer{jzen }e j ( p raWo w ielkich liczb B e rn o u llie g o ). Jeśli :Sn oznajednocentowa cza liczbę sukcesów w schemacie Bernoulliego n prób z prawdopodobieńtylko w 10% stwem sukcesu w pojedynczej próbie równym p, to dla każdego e > 0 przypadków upada twarzą Lincolna do góry. lim P I ------- P < e n n —*oo = 1. Obecnie, gdy znamy nierówność Czebyszewa, dowód tego faktu jest try­ wialny (zad. 1). Możemy udowodnić znacznie więcej, a mianowicie zbieżność częstości Sn/n do p prawie na pewno. W tym celu skorzystamy z lematu Borela-Cantelliego i z następującej nierówności Bernsteina: T w ierd zen ie 2 (N ie ró w n o ść B ern stein a ). Jeśli Sn jest liczbą sukce­ sów w schemacie n prób Bernoulliego z prawdopodobieństwem sukcesu p, to dla każdego e > 0 Sn -------P 71 D o w ó d . Mamy V ' k ^ n (p + e ) V ' < fc^n(p-f-e) e - A((p+e)n~A)( n' ) p V - *: < i/c k=0 -\ n e (peXg + qe~Xp) n < e - An£(peA V + geA V ) n < e -X n s , eA n W przedostatniej nierówności skorzystaliśmy z nierówności ex < x + e x2 (dowód — patrz A. l . l ) . Wybieramy teraz A minimalizujące prawą stronę, czyli A = § i otrzymujemy: p (^ ~ > P + £S J < _ ^2 Analogicznie P(S n/n < p —e) < e n * . ■ dla e > 0 . § 7.4. Prawa wielkich liczb 155 T w ierdzenie 3 (M o cn e praw o w ielkich liczb B ern ou lliego). Sn P'n- n (przy oznaczeniach z tw. 1). D o w ó d — patrz zad. 2 . Na przykładzie schematu Bernoulliego pokazaliśmy ogólną regułę dotyczącą sum zmiennych losowych. Zajmiemy się nią dokładniej. Niech X l t X 2, . ■■ będzie ciągiem zmiennych losowych mających wartość oczekiwaną i niech Sn — X i + X 2 + ... + X n. D efinicja 4. Mówimy, że ciąg (X n)n spełnia mocne prawo wielkich liczb (MPWL), jeżeli Sn ~ £Sn ---------------------->0 p.n., 71 n~~*oo a słabe prawo wielkich liczb (SPWL), gdy ma miejsce zbieżność według prawdopodobieństwa. Podamy warunki, kiedy zachodzi MPWL i SPWL. Jak wspomnieliśmy na początku rozdziału, oba prawa wielkich liczb są szczególnymi przypadkami problemu zbieżności ciągu bn ’ gdzie (an)n jest ciągiem liczb rzeczywistych, a (bn)n ciągiem liczb dodatnich rozbieżnym do oo. Historycznie rzecz biorąc, pierwszym słabym prawem wielkich liczb było PWL Bernoulliego (twierdzenie 1). Z nierówności Czebyszewa wynika (zad. 4) następujące Tw ierdzenie 5 (S P W L ). Niech (X n)n będzie ciągiem zmiennych loso­ wych takich, że (a) lim n—.oo lub T) 2 = 0 (b) X n są parami nieskorelowane i mają wspólnie ograniczony drugi mo­ ment. Wtedy (X n)n spełnia SPWL. 156 Rozdział 7. Sumy niezależnych zmiennych losowych Teraz przejdziemy do M PW L dla niezależnych zmiennych losowych. Za­ czniemy od dwu lematów z analizy, dowody których przytoczymy dla kom­ pletności wywodu. Wiadomo, że jeśli ciąg jest zbieżny, to ciąg średnich aryt­ metycznych też zmierza do tej samej granicy. Następujący lemat uogólnia ten fakt na średnie ważone. Lem at 6 (T o e p litza ). Niech (an)n będzie ciągiem liczb nieujemnych, niech bn = J2 j= i ai> > 0 dla wszystkich n > 1, bn f oo. Jeśli (x n)n jest ciągiem liczbowym takim, że limn_ 00 x n — x, to D o w ó d . Ustalmy dowolne e > 0 i wybierzmy takie no = n 0 (e), żeby dla n > no zachodziła nierówność \xn —x\ < |e. Ponieważ bn T oo, to istnieje takie ni > no, że Wtedy dla n > ni mamy Lem at 7 (K ron eck era ). Niech (bn)n będzie ciągiem rosnącym liczb do­ datnich rozbieżnym do oo, a ( xn)n ciągiem liczb rzeczywistych takim, że Y ^ = i x n 3 est zbieżny. Wtedy W szczególności dla bn — n, x „ = yn/n zachodzi wynikanie: Jeśli szereg OO jest zbieżny, to § 7.4. Prawa wielkich liczb 157 D o w ó d . Niech 60 = 0, so = 0, sn = n x n•Wtedy n n 'y ^bj%j 'y ^bj{sj — Sj—i) = bnsn — boso — 'y ^S j^i(bj — bj—i). j= i j-1 j= i Stąd i z lematu 6 (istnieje lim ^po sn = s) otrzymujemy 1 'J1 a 1 On £ T- f b3x i J= 1 . n ^ ---> °-■ “6 j-i) n— *co =s" -r On E J= 1 Teraz możemy udowodnić T w ierdzenie 8 (K ołm og orow a ). Niech ( X n)n będzie ciągiem niezależ­ nych zmiennych losowych takich, że V 2X n < oo, n — 1 , 2 , . . . i niech (bn)n będzie ciągiem rosnącym liczb dodatnich, takim, że lim^-K*, bn = oo oraz E ” 1 n t < oo- Sn- s s n n lim -------------= 0 7 l-> 0 0 W szczególności, jeśli p.n. 0n —¿s” < oo, to (X n)n spełnia MPWL. D o w ó d . Ponieważ i A . Xj - exj sn- £ s n ¿=1 J to z lematu 7 wystarczy pokazać, że ~ .X n -EXn £ ' ^ jest zbieżny p.n., co wynika z twierdzenia 7.3.2 o dwu szeregach. ■ P rzyk ład 9. Niech ( X n)n będzie ciągiem niezależnych zmiennych loso­ wych o jednakowym rozkładzie, £ X i = 0, V 2X i < oo. W tedy dla każdego e > 0 mamy Sn Przypadek e = 0 lim —j---------- 1— = 0 p.n., n -too n 2 (Jog n ) 2 + e bowiem £ “ 2 - (Iog < oo. ■ Gdy zmienne losowe X n mają jednakowy rozkład, nie trzeba zakładać ist­ nienia wariancji, by zachodziło MPWL. Wystarczy istnienie wartości ocze­ kiwanej. obejmuje nierówność Hardy’ego-Littlewooda z zad. 5.8.23. Rozdział 7. Sumy niezależnych zmiennych losowych 158 T w ierd zen ie 10 (M P W L K o łm o g o r o w a ). Jeśli ( l n) “ =1 jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, £\X\\ < co, to (.X n)n spełnia MPWL, czyli lim — = £ X j p.n. n —»oo n Przypomnijmy, że na mocy wyniku z zad. 5.6.1, jeśli X jest nieujemną zmienną losową, to OO OO P (X > n) < £ X < 1 + E n —1 P(X>n), 7i=l skąd natychmiast wynika, że zmienna losowa X > 0 jest całkowalna wtedy i tylko wtedy, gdy ¿ S = i P(|X| > n) < oo. D o w ó d twierdzenia 10. Niech Yn = tzn. Yn jest obcięciem X n na poziomie n. Korzystając z tego, że X n mają jednakowy rozkład i z wyniku zad. 5.6.1, otrzymujemy oo oo OO Y , P ( X n i Yn) = ] T p ( | X n | > n) = X > ( l * i l > « ) < £\Xi\ < °°n —1 n=l n=l Zatem z lematu Borela-Cantelliego limn = £ X 1 p.n. wtedy i tylko wtedy, gdy lim _ £ x 1 p.n. Dalej, limn £Yn = £X\ pociąga za sobą, że limn £ i = £ X u a zatem wystarczy pokazać, że (Y 1 - £ Y 1) + . . . + {Yn - £ Y n) n l i m--------------------------- ~------------- - = 0 p.n., n n a na mocy twierdzenia 8 wystarczy tylko dowieść, że ^V *Y n n=l Podobnie jak w zadaniu 5.6.1 przedstawimy wartość oczekiwaną Y% w p o­ staci sumy wartości oczekiwanych pewnych zmiennych losowych i zamie­ nimy kolejność sumowania. A T>2 Yn A 1 Au n ^2 < 2 _ ;, n n=l r i A -,2 LX » 1 {|Jf„|<n}J - £ 2 - , ------------------------- 0 0 - 7 1 =£ n=1 OO (X l 1{fe-K|Xi|<fc}) = fc=l OO 1 § 7.4. Prawa wielkich liczb 159 fc=i = 2£\Xi \< oo, fc=i co kończy dowód. ■ U w aga 11. Zachodzi twierdzenie w pewnym sensie odwrotne: Niech (X n) będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie. Jeśli istnieje stała C taka, że P(limre = C) > O, to £ |Xi| < oo i C = £ Xi . D o w ó d . Z prawa 0-1 Kołmogorowa (tw. 7.2.1) wynika, że P(li mX l + - " + X " = C ) = l. n n Stąd x n sn (n - 1) Sn- i ---- = ---------------------------- - ------ >O p.n., n n n n — 1 n~>oo wobec tego szansa, że zajdzie nieskończenie wiele zdarzeń {|Xn|> n } jest równa zeru. Zatem z lematu Borela-Cantelliego szereg -P(iXrij > n) jest zbieżny, stąd P{\X\\ > n) < oo, co daje £\Xi\ < oo (znów zad. 5.6.1) i z MPWL (tw. 10) C = £Xi. m U w aga 1 2 . Jeśli £ |Xi| = oo, to limsupn^ co 1^1 = oo. D o w ó d — patrz zad. 12. Przejdźmy teraz do wniosków z MPWL. W n iosek 13. Definicja częstościowa prawdopodobieństwa jest uzasadnio­ na. Jeśli w wyniku powtórzenia niezależnie n razy doświadczenia otrzyma­ liśmy ui — (cl>i, . . . , wn), to częstość pojawiania się zdarzenia A jest równa n Z MPWL limn f n(A) = £1 a = P{A) p.n. Widać, że prawdopodobieństwo jest odpowiednikiem teoretycznym często­ ści (od czego rozpoczęliśmy wykład teorii). Innymi słowy, definicja często­ ściowa prawdopodobieństwa dałaby takie same wyniki, jak definicja Kołmogorowa. Definicję częstościową prawdopodobieństwa propagował von Mises: praw­ dopodobieństwo zajścia zdarzenia A miałoby być równe granicy częstości Należy koniecznie rozwiązać zadanie 5.6.1. 160 Rozdział 7. Sumy niezależnych zmiennych losowych jego występowania. Zasadniczą wadą tego pomysłu była nieskończona liczba prób, potrzebna do obliczenia prawdopodobieństwa. Gdybyśmy jednak mo­ gli wykonać nieskończenie wiele doświadczeń, otrzymalibyśmy prawdopo­ dobieństwo zdarzenia „takie jak trzeba” . Mocne prawo wielkich liczb mówi także, jak należy interpretować wartość oczekiwaną. W n io se k 14. Wartość średnia teoretyczna pokrywa się z intuicyjną. Niech X i, X i, ■■■będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie i skończonej wartości średniej EX\ = m. Wtedy wartość średnia intuicyjna, czyli limn lci+- ^ Xr'-, jest równa m — wartości średniej teoretycznej. MPWL jest bardzo ważne z punktu widzenia zastosowań. Omówimy tu kilka z nich: A . W eryfikacja w y b o r u p rzestrzen i p rob a b ilisty czn ej op isu ją cej zjaw isko. Czasem trudno jest wybrać właściwy model dla opisu zjawiska. Często kryteria „zdrowego rozsądku” zawodzą i jedynym sposobem weryfi­ kacji wyboru jest badanie częstości. Jak wiemy z MPWL, częstość zajścia zdarzenia zmierza do jego prawdopodobieństwa. Zatem należy wybrać zda­ rzenie, które ma istotnie różne prawdopodobieństwa w postulowanych przez nas modelach i zbadać jego częstość. Dobrym przykładem problemu wyboru właściwego modelu jest paradoks kawalera de Mere (patrz zad. 2.2.20; do weryfikacji modelu wybieramy np. zdarzenie, że wypadły same czwórki, albo trzy jednakowe wyniki). B . M e to d a M o n te C a rlo o b licza n ia ca łek . Jest to przykład zastoso­ wania probabilistyki do problemów deterministycznych, dość zresztą efek­ towny, ponieważ metody tej po raz pierwszy użył Stanisław Ułam do obli­ czeń związanych z bombą atomową. Metoda jest przydatna zwłaszcza do obliczania całek wielokrotnych. Przed­ stawimy ją na przykładzie całki f * f ( x ) dx, której nie potrafimy obliczyć teoretycznie, ale wiemy, że istnieje. Niech Xi będą niezależnymi zmiennymi losowymi o wartościach w (0,1) i o gęstości g. Wtedy z MPWL p.n. Zatem obliczając Sn, aproksymujemy całkę (na pytanie, jak duże po­ winniśmy brać n odpowiemy później korzystając z centralnego twierdzenia granicznego). W szczególności, gdy X{ mają rozkład jednostajny na (0,1), to § 7.4. Prawa wielkich liczb 161 Ale gdy można tak dobrać gęstość g, by iloraz f/g wahał się mniej niż / , to S„ ma mniejszą wariancję niż Zn. Istotnie, możemy dobrać gęstość g tak, by /„ dz < f 2 (z) dz, a to oznacza, że £ < £ f 2 (Xi), zatem 2?25n < V 2 Zn. Można by wysunąć zastrzeżenie, że równie dobra, jeśli nie lepsza, jest kla­ syczna metoda Simpsona, opierająca się na podziale przedziału całkowania na równe części. To prawda — w przypadku funkcji zmieniających się regu­ larnie. Jeśli funkcja zmienia się bardzo nieregularnie, próbkowanie w losowo wybieranych punktach pozwala wychwycić wkład takich nieregularności do całki. Ważny jest także wymiar przestrzeni: w wielu wymiarach metody probabilistyczne Metody Monte Carlo stosuje się także do rozwiązywania równań całkowych są lepsze. i równań różniczkowych cząstkowych. Ich stosowanie wymaga otrzymywania realizacji ciągu niezależnych zmien­ nych losowych o zadanym z góry rozkładzie. Wiele standardowych pakie­ tów oprogramowania zawiera generatory rozkładu jednostajnego na (0 , 1) i z nich otrzymujemy generatory innych rozkładów. A mianowicie, gdy X\, . . . , X n są niezależnymi zmiennymi losowymi o rozkładzie jednostaj­ nym na (0,1), a dystrybuanta F rozkładu prawdopodobieństwa jest od­ wracalna, to F ~ 1 ( X i ) , . . . , F ~ l ( X n) są niezależne i mają rozkład o dystrybuancie F (patrz §5.2): Gdy funkcja odwrotna do F nie istnieje, to w zasadzie moglibyśmy brać F -1 zdefiniowane w zadaniu 5.2.2, ale zwy­ kle jest to kosztowne rachunkowo. Dlatego często szuka się innych metod, na przykład zmienną losową o zadanym rozkładzie staramy się przedstawić jako funkcję zmiennych losowych X i , X i , X n, które łatwo generować, tzn. Y = H ( X i , X 2, . . . , X n) (patrz zad. 5.10.4) i realizację Y otrzymujemy jako funkcję realizacji X . Inną metodą jest metoda obcinania (patrz zad. 16 i 17). C. D ystrybu an ta em piryczna. Powtarzamy pewne doświadczenie nie­ zależnie n razy. W wyniku tego otrzymujemy ciąg X i , X 2, . . . , X n niezależ­ nych zmiennych losowych (próbkę) o nieznanej dystrybuancie F. Chcemy odtworzyć F . W tym celu dla każdego i £ E definiujemy n 2 F„(X) = - l{ X 4<a} i=l Dla ustalonego x jest to częstość zdarzenia „wynik nie przekracza x ” dla próbki X i , Xz, . . . , X n, czyli zmienna losowa. Natomiast dla ustalonej u e fi funkcja F „: R —> [0,1] jest dystrybuantą i nazywa się dystrybuantą empiryczną obliczoną z próbki n-elementowej. T w ierdzen ie 15. Dla każdego x € R P(F„(a:) - » F( x) ) = 1. Rozdział 7. Sumy niezależnych zmiennych losowych 162 D o w ó d . Ustalmy i £ R . W tedy l{ x¡ ^ x } jest ciągiem niezależnych zmien­ nych losowych o tym samym rozkładzie i o wartości oczekiwanej £ [!{* !< * }] = p ix i < x ) = F (*)• Zatem z MPWL 1 \r—\ Fn{x) = - Tl *—“ l ^ s ; * } -------> F(x). m n —voo i=l Analogicznie otrzymujemy, że P(lim n Fn(x —) = F ( x —)) = 1 dla dowol­ nego x € R . Oba te fakty pokazują, że wraz ze wzrostem n dystrybuanty empiryczne coraz bardziej upodabniają się do dystrybuanty F. Wykaza­ liśmy zbieżność dla każdego punktu x z osobna, ale faktycznie zbieżność jest jednostajna (to podstawowe twierdzenie statystyki matematycznej — twierdzenie Gliwenki-Cantelliego). D . Z a stosow anie d o te o rii liczb . Pewne twierdzenia tej teorii można dowodzić metodami rachunku prawdopodobieństwa. Oto przykład. D e fin icja 16. Liczbę a € [0,1] nazywamy normalną przy podstawie d, gdzie d e N , d > 2 , jeżeli ma ona przedstawienie OO W rozwinięciu liczby normalnej a = lL ^fi’ wszystkie cyfry n—1 występują spełniające warunek: jednakowo często. l i m# i n ! L £ ° < £n < d - 1, i Tl = i f c 6 { 0 ) 1 ) _ ) d _ 1}_ ■ CL T w ie rd ze n ie 17 (B o re la ). Prawie wszystkie (w sensie miary Lebesgue’a) liczby z przedziału [0 , 1] są normalne względem każdej podstawy. D o w ó d . Niech Aa ~ { x G [0,1] :x normalne przy podstawie d}. Wtedy zbiór A liczb normalnych przy każdej podstawie jest równy DSU ^ d■W y­ starczy zatem wykazać, że P { A ¿ ) = 1, d — 2 , 3 , . . . Każdą liczbę x £ [0,1] można zapisać w postaci °o , i T £n^ x - 2s d» ’ 71= 1 gdzie £n (x) g { 0 , 1, . . . d — 1}; funkcje en(x) są niezależnymi zmiennymi losowymi o jednakowym rozkładzie (rozumujemy jak w przykładzie 4.1.13, gdzie wykazano istnienie nieskończonego ciągu zdarzeń niezależnych). Usta­ lamy dowolne k e { 0 , l , . . . , d — 1}. Niech e* = l { En=fc}. W tedy (e*)„ są niezależnymi zmiennymi losowymi o jednakowym rozkładzie i z MPWL n Stąd P(Ad) = 1- ■ aj § 7.4. Prawa wielkich liczb 163 £• Istnienie zmiennych losowych o rozkładzie singularnym. D efinicja 18. Zmienna losowa Y ma rozkład singularny (osobliwy), jeśli je j dystrybuanta jest ciągła i istnieje taki zbiór A c R , że A(A) = 0, ale P (Y £ A) = 1. P rzy kła d 19. Niech X i , X 2, . . . będą niezależnymi zmiennymi losowymi takimi, że P ( X n = 1) = p 1, P ( X n = 0) = 1 - p. Wtedy Y = f? ma rozkład singularny. Istotnie, dla dowolnego a 6 [0,1], P ( Y = a) = 0, więc dystrybuanta jest funkcją ciągłą. Ponieważ P(limn = p) = \ oraz p ^ §, to Y przyjmuje wartości z dopełnienia zbioru liczb normalnych przy podstawie 2, a więc ze zbioru o zerowej mierze Lebesgue’a. ■ F. Zastosowanie w analizie matematycznej. P rzykład 20. Znaleźć granicę Urn / ‘ . . . / ' 2 1 ± A n^°° Jo Jo x i + + - - l ± Xn d x i . . . dXn x 2 + . . . + Xn Rozw. Niech X \ , X 2,. ■■będą niezależnymi zmiennymi losowymi o rozkła­ dzie jednostajnym na (0,1). Wtedy f1 f 1 x\ + •••+ xl = £ l x* + ... + x* / ... — ------------- dx i . . . dxn KX i + . . . + X n Jo Jo ®1 + . . . + ®n Z MPWL, xf +... +X I _ X i + .. . + X „ jj^3 i 1s x f _ 1 ^ zXx 2' i j^-3 A ponieważ 0 < Xi+ +x^ < 1> to z twierdzenia Lebesgu zmajoryzowanej wynika, że szukana granica jest równa |. Zadania 1. Udowodnić PWL Bernoulliego. 2 . Korzystając z nierówności Bernsteina (tw. 2), udowodnić, że w schemacie Bernoulliego ^ ------ » p p.n. TŁ—*00 3. Wykazać MPWL dla schematu Bernoulliego, korzystając z twierdzenia o dwu szeregach. 4. Udowodnić twierdzenie 4. 5. Jeśli T>2 X n ^ C < oo, n = 1, 2, . . . oraz X n zależy jedynie od X „ - i i X n+i, a nie zależy od innych X j, to (X „ )n spełnia SPWL. Rozdział 7. Sumy niezależnych zmiennych losowych 164 6. T w ierdzenie Bernsteina. Jeśli V 2X n ^ C < oo, n = 1, 2, . . . oraz współ­ czynnik korelacji g(Xi, X j) —►0, gdy |i —j\ oo, to (X n)n spełnia SPWL. 7. T w ierdzenie C hinczyna. Udowodnić, że jeśli (X n)n jest ciągiem zmien­ nych losowych parami niezależnych o jednakowym rozkładzie i skończonej wartości oczekiwanej, to dla (X n)n zachodzi SPWL. 8. Znaleźć przykład pokazujący, że warunek w twierdzeniu 7 (Kołmogorowa) nie jest warunkiem koniecznym. 9. Niech X n, n = 1, 2, . . . będą niezależnymi zmiennymi losowymi, P (X n = = 1) = P (X n = —1) = p,i, P (X n = 0) = 1—2pn. Znaleźć warunek konieczny i dostateczny, by ciąg (X „ ) n spełniał MPWL. 10. Niech X n, n = 1, 2,. . . będą niezależnymi zmiennymi losowymi, dla których P (X n = n + l) = P {X n = - ( n + l ) ) = 1 2 (n + 1) log (n + 1) ’ Udowodnić, że {X n) spełnia SPWL, a nie spełnia MPWL. 11. Rozważmy błądzenie losowe niesymetryczne. Udowodnić, że dla y > \ jest P(lim Sn = oo) = 1, a dla p < | jest P(limSn = —oo) = 1. 12. Wykazać, że jeśli (X n)n jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, £ X < oo, £ X + = oo, to P(lim n ^ = oo) = 1. 13. Dany jest ciąg (X n)n niezależnych zmiennych losowych o tym samym roz­ kładzie, £X\ = 0, £Xx = c. Wykazać elementarnie, czyli nie korzysta­ jąc z tw. Kołmogorowa, a korzystając z nierówności Czebyszewa i lematu Borela-Cantelliego, że ciąg (X n)n spełnia MPWL. *14. Twierdzenie Marcinkiewicza. Załóżmy, że Jfi, X i , ... są niezależne i jed­ nakowo rozłożone. Udowodnić, że jeśli £\Xi\p < oo dla pewnego p £ (0, 2), to P(limn(Sn - m i)/n 1/ p = 0) = 1, gdzie _ f 0 dlap e (0, 1), dla p e [1, 2). 15. Niech / : [0,1] —> R będzie funkcją ciągłą. Obliczyć granice: a) limn_oo fg y/xl + --- + xn dx i ... dxn; b) lim »-.«, £ . . . £ / ( ?»*■ ■;+**) dX l... dxn-, c) lim n-oo /p1 •••/ „ / ( y x \ x 2 . . . I n ) dxi . . . (fen. W następnym zadaniu jest mowa o generatorach liczb losowych. Obecnie ta­ kie generatory dostępne są w wielu kalkulatorach i prawie wszystkich pakietach oprogramowania. Generowanie liczb losowych o zadanym rozkładzie może być kosztowne numerycznie, stąd zadanie. 16. Niech zmienna losowa X (odpowiednio Y ) ma rozkład ciągły z gęstością / (odp. g) i niech istnieje stała C ^ 1 taka, że / Cg. Udowodnić, że m § 7.4. Prawa wielkich liczb 165 generowanie zmiennej losowej X, gdy umiemy generować zmienną losową Y, jest możliwe przy użyciu następującego schematu (metody obcinania): a) Generujemy Y i niezależną od niej zmienną losową U o rozkładzie jedno­ stajnym na (0, 1). b) Gdy U ^ f(Y)/Cg(Y), to przyjmujemy X = Y, w przeciwnym przypadku wracamy do kroku 1. 17. Czy metodę z poprzedniego zadania można zastosować do zmiennej losowej X o gęstości f(x) = 20x(l - a;)3l( 0,i)(a:)? Jest to gęstość rozkładu beta z parametrami 2, 4. 18, Załóżmy, że mamy bardzo długą listę elementów. Niech n będzie długością tej listy, a m(i) będzie liczbą mówiącą, ile razy element z ¿-tego miejsca po­ jawia się na liście. Dana jest funkcja / przyporządkowująca elementom listy pewne wartości. Niech X i , X 2,. .. będą niezależnymi zmiennymi losowymi o rozkładzie równomiernym na zbiorze {1,2,..., n}. Pokazać, że gdzie liczba w jest sumą wartości dla (wszystkich) różnych elementów z tej listy (gdy f(x) = 1 dla każdego x, będzie to liczba różnych elementów listy). Ten wzór pozwala znaleźć przybliżenie liczby w bez przeglądania wszystkich elementów listy. 19. Niech X i ,Yi , X2, Y2,... będą niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na (0,1). Niech / : [0,1] —>[0,1] będzie funkcją mierzalną, Zi = — l { / ( x i)>yi}- Udowodnić, że 20. Niech (X„) będzie ciągiem niezależnych zmiennych losowych, i P ( X n = 1) = = P( Xn = 0) = 5 , n = 1,2, — Udowodnić, że zmienna losowa gdzie d 6 N, d > 2, ma rozkład singularny. * 21 . Udowodnić Twierdzenie 21 (Etemadiego). Jeśli X n, n = 1,2,... są zmiennymi lo­ sowymi parami niezależnymi o jednakowym rozkładzie, £\Xi\ < oo, to lim— = £ X i n n p.n. * 22 . Podać przykład ciągu niezależnych zmiennych losowych o tym samym rozkładzie, dla którego ciąg średnich Sn/n 0, ale nie ma zbieżności p.n. Rozdział 7. Sumy niezależnych zmiennych losowych 166 § 7.5. Twierdzenie Poissona Jeśli liczba doświadczeń n w schemacie Bernoulliego jest duża, obliczanie prawdopodobieństwa danej liczby sukcesów staje się kłopotliwe. Klasyczne twierdzenie Poissona1 dostarcza prostego przybliżenia, które ma rozsądną dokładność w przypadku, gdy prawdopodobieństwo sukcesu p jest małe, a iloczyn np — umiarkowany. T w ierd zen ie 1 (P oisson a). Jeśli n —* oo, pn —>0, npn —> A > 0, to D o w ó d . Oznaczmy \n = npn. W tedy \n —> A, a lewa strona powyższego wzoru da się zapisać w postaci n- 1 n -k + 1 n n (npn)k A _ A„ k\ \ n ^ _ A^\ n J k ____ ^ n->oo k\ Istotnie, jeśli An —►A, to ( l — ^ ) n —>e- A, co wynika np. z dwustronnego oszacowania log (l + s ) (A.1.2a). ■ Tak prosty dowód nie daje jednak natychmiastowej informacji o błędzie przybliżenia. Oszacowanie błędu jest zawarte w następnym twierdzeniu, które sformułujemy w języku niezależnych zmiennych losowych. T w ierd zen ie 2. Niech X i, X 2, .. ., X n będą niezależnymi zmiennymi lo­ sowymi o tym samym rozkładzie: P ( X i = 1) = p = 1 — P( X i = 0 ), i = 1 , 2 , . . . , n. Oznaczmy X = np, jt* = = X\ + X 2 + . . . + X n. dla k = 0, 1, 2, . . . , Sn = Wtedy dla każdego zbioru borelowskiego B C R mamy Wynika stąd oczywiście twierdzenie Poissona (wystarczy wziąć B = {fc}), a nawet więcej: zbieżność zachodzi, gdy npn —> oo, ale np\ —>0. Widać też, że uzasadniona jest zdroworozsądkowa reguła mówiąca, kiedy przybliżenie jest dobre: n ma być duże, p — małe, np — średnie. D o w ó d twierdzenia 2. Ponieważ prawdopodobieństwa wszelkich zdarzeń zdefiniowanych za pomocą zmiennych losowych X k są jednoznacznie wy­ znaczone przez rozkład wektora losowego ( X i , . . . , X n), który jest z kolei 1SiméonD. Poisson, Recherches sur la probabilité des jugements en matière criminelle et en matière civile, précédée des règles générales du calcul des probabilités, 1837. §7.5. Twierdzenie Poissona 167 n-krotnym produktem rozkładu np. X i, można założyć bez straty ogólności, że zmienne losowe X i , ... , X n są określone na przestrzeni probabilistycz­ nej gdzie fi = [0, l]n, T jest cr-cialem podzbiorów borelowskich [0,1]", wreszcie P jest n-wymiarową miarą Lebesgue’a. Jeśli określimy v r \ v ( -i f 0 dla < 1 - p, to zmienne losowe X k będą niezależne. Dalej, niech k{ >) = / 0 dla Wk < 6_P’ dla uik € [ak- i , a k), gdzie afc = E m =o^m- Wtedy 5* = X f + .. . + X * ma rozkład Poissona z parametrem np. W takim razie P{ S n e B) - £ ** < \P{Sn e B) - P{S*n e B )|< P( Sn # 5 ;), fcefinN co wynika z elementarnej nierówności: |-P(j4) — P(C)\ < P ( A A C) i stąd, że zdarzenie { Sn £ B } A {5* 6 B}, polegające na tym, że jeśli Sn G B, to S* $ B i odwrotnie, w oczywisty sposób pociąga za sobą, że Sn ^ S*. Teraz P (S n ź S*n) < P ( U {X fc ^ X £ } ) < J 2 P (Xk * X Dk= 1 fc=l Zmienne losowe _Xfc i X£ różnią się na dwóch zbiorach: {w: ojk € [1 —p, e_p)} (tu = 0, X I = 1) oraz {w:iuk € [e~p 4- pe~p, 1]} (tu X k = 1 i Xj; > 1), których łączna miara nie przekracza p2. Istotnie, mamy e~p — (1 —p) + 1 —e_p —pe~p = p( 1 —e_p) < p2. Ostatecznie P (S n ^ S*) < np2 — ■ P rzy k ła d 3. Prawdopodobieństwo p trafienia „szóstki” w Toto-Lotku jest równe l / ( 4g) = 1/13983816 ~ 7 ■10- 8 . Ilu „szóstek” można się spodziewać w każdym tygodniu, jeśli grający wypełniają kupony całkowicie losowo i nie­ zależnie od siebie, a kuponów jest2 2Nie wiemy, ile kuponów wypełnia się co tydzień w Polsce, ale można to bez trudu oszacować na podstawie statystyki głównych wygranych. Wiemy natomiast, że gdy w węgierskiej wersji totalizatora można było wygrać 975 min forintów (ok. 4,25 min USD), ponieważ przez ostatnie 21 tygodni nikt nie trafił głównej wygranej, Węgrzy kupili 10 min kuponów, czyli średnio jeden na jednego mieszkańca. I znów nikt nie wygrał. Zwróćmy uwagę, że średnia wygrana przypadająca na jeden kupon wyniosła 42,5 centa ( Gazeta Wyborcza , 18/19 września 1999). 168 Rozdział 7. Sumy niezależnych zmiennych losowych Zgodnie z tw. 1 należy się spodziewać, że liczba „szóstek” ma rozkład zbliżony do rozkładu Poissona z parametrem A = np ^ 0,7151. Wtedy szanse pojawienia się 0, 1 i 2 „szóstek” wynoszą odpowiednio ok. 0,4891, 0,3498 i 0,1251. Z twierdzenia 2 wynika, że błąd przybliżenia nie przekracza A2/n < 0,5 •10- 7 . Wygląda na to, że dokładność jest aż za duża. ■ Czasem rozkład Poissona nazywa się „rozkładem zdarzeń rzadkich” albo „prawem małych liczb” . Mogą to być pożary, wypadki czy też — jak wi­ dzieliśmy — główne nagrody w grach losowych. Występowanie rozkładu Po­ issona w tego rodzaju sytuacjach badał Bortkiewicz w pracy z roku 18953. Była tam mowa o zgonach na skutek kopnięcia przez konia w armii pruskiej. Wiele przykładów obserwacji zgodnych z rozkładem Poissona, a w szczegól­ ności opis doświadczenia Rutherforda, w którym liczono rozpady atomów, można znaleźć w [FEL], t. I, VI.7. Zadania 1. Grający w Toto-Lotka wcale nie wypełniają kuponów losowo. Mało kto na przykład odważy się skreślić po kolei 1, 2, 3, 4, 5 i 6 . Zjawisko to badał m.in. Steinhaus4. Wymyślić i przedyskutować test losowości, nie wymagający szczegółowego badania kuponów. Liczba błędów w książce po kolejnych korektach tworzy malejący i nieskończony ciąg liczb naturalnych. 2. Tekst broszury zawiera n = 100000 znaków. W trakcie pisania (na kompute­ rze) każdy znak może zostać błędnie wprowadzony z prawdopodobieństwem 0,001. Z kolei redaktor znajduje każdy z błędów z prawdopodobieństwem 0,9, po czym tekst wraca do autora, który znajduje każdy z pozostałych błędów z prawdopodobieństwem 0,5. Jaka jest szansa, że po obu korektach broszura będzie zawierała nie więcej niż 3 błędy? 3. Dwóch korektorów przeczytało książkę. Pierwszy znalazł 91 błędów, drugi 53, przy czym błędów zauważonych przez obu było 39. Następnie korektorzy zostali zwolnieni z pracy. Dlaczego? 4. Ile średnio rodzynków powinno zawierać ciastko, żeby z prawdopodobień­ stwem 0,99 dane ciastko zawierało przynajmniej jeden rodzynek? 5. W Warszawie na Ursynowie ginie średnio 7 samochodów tygodniowo. Jaka jest szansa, że jutro będzie „dzień bez kradzieży” , przy założeniu stałej in­ Faktycznie jest to 20—40 tensywności działania złodziei? samochodów miesięcznie 3L. von Bortkiewicz, Das Gesetz der kleinen Zahlen. Władysław Bortkiewicz był ) (Pasmo, mai profesorem uniwersytetu w Berlinie. Jego prace miały znaczny wpływ na rozwój teorii f 2000). prawdopodobieństwa w Rosji. W [MAJ-2] występuje jako statystyk polski, w Wielkiej Encyklopedii Powszechnej — jako niemiecki pochodzenia polskiego. Stąd warianty pi­ sowni imienia. 4Por. H. Steinhaus, Kalejdoskop matematyczny , wyd. IV, WSiP, Warszawa 1989, oraz B. Gleichgewicht, J. Kucharczyk i H. Steinhaus, Uwagi o grach losowych, Zastos. Mat. V (1960), ss. 21-33. W tej ostatniej pracy autorzy zbadali preferencje graczy przy skreślaniu liczb we wrocławskiej „Liczyrzepce” (materiał zawierał kilkadziesiąt tysięcy kuponów). §7.6. Twierdzenie de Moivre’a-Laplace’a § 7.6. 169 Twierdzenie de Moiyre^-Laplace^ Na rysunku poniżej widzimy reprezentację graficzną dwóch rozkładów Bernoulliego: po lewej dla n = 10, p = 0,5, po prawej dla n — 12, p = 0,2. 0,3 0 2 4 6 0 10 0 2 4 6 » 10 12 Zobaczmy teraz, jak wyglądają oba rozkłady odpowiednio unormowane. „Odpowiednio’’ oznacza tyle, że średnia ma być równa zeru, a wariancja równa 1, czyli zamiast liczby sukcesów Sn rozpatrujemy teraz q* n = Sn ~ n p ' Na kolejnym rysunku dokonano zgodnej z powyższym zmiany skali na osi x i takiej zmiany skali na osi y, by nie zmieniły się pola słupków. Lewy i prawy rysunek upodobniły się do siebie, a wykres gęstości rozkładu M (0 , 1) suge­ ruje, że rozkłady zmiennych losowych S* są podobne do rozkładu normal­ nego. Udowodnimy dwa twierdzenia de Moivre’a-Laplace’a, które ściśle wyrażają te intuicje. Przypadek symetryczny (p = 1/2) został udowodniony w pracy 170 Rozdział 7. Sumy niezależnych zmiennych losowych de Moivre’a5, niesymetryczny zaś — w opublikowanym trzy lata później dodatku. Przypadek ogólny twierdzenia udowodnił ponownie Laplace6, który nie miał zwyczaju powoływać się na poprzedników, dlatego też wyniki de Moivre’a pozostały szerzej nieznane do końca XIX wieku7. W dalszym ciągu będziemy używać następujących oznaczeń: B( k , n, p ) = P (S n = k) = (n k) p kqn- k, q= l-p h = l/y/npq — szerokość słupka na dolnym rysunku z poprzedniej strony. Sk = k — np — odchylenie liczby sukcesów od średniej. x k = Sk/^/npq — unormowane odchylenie liczby sukcesów od średniej. Symbolu x k wygodnie będzie używać także wtedy, gdy k nie jest naturalne. 5Miscellanea analytica de seriebus et quadraturis, Londyn 1730. ®Théorie analytique des probabilités, Paryż 1812. 7Abraham de Moivre urodził się 26 maja 1667 w Vitry, zmarł 27 listopada 1754 roku w Londynie. Koleje jego losu mogą się wydać dziwnie typowe. Po pięciu latach spędzonych w protestanckiej akademii w Sedanie, w latach 1682-1684 studiował logikę w Saumur. Kontynuował studia w Collège de Harcourt w Paryżu. Jako protestant, po odwołaniu edyktu nantejskiego (1685) był zmuszony do emigra­ cji. Około 1688 roku znalazł się w Londynie. Zarabiał na życie prywatnymi lekcjami matematyki, ponieważ otrzymanie katedry było dla cudzoziemca trudne. Został jednak wybrany członkiem Royal Society w 1697 roku. W 1710 roku brał udział w pracach komisji Royal Society, która miała rozstrzygnąć spór Newtona i Leibniza o pierwszeństwo w odkryciu rachunku różniczkowego i cał­ kowego. Royal Society dobrze wiedziało, co robi, bowiem de Moivre był przyjacielem Newtona, którego poznał, obliczając w kawiarni szanse w zakładach. Zadedykował mu książkę The Doctrine o f Chances or a Method o f Calculating the Probabilities of Events in Play (1718), zawierającą rozmaite zadania o grach losowych, a także definicję niezależ­ ności zdarzeń. Wyniki zawarte w tej książce nie były pewnie szerzej znane poza Anglią, bowiem językiem dominującym w Europie był francuski. W Miscellanea Analytica (1730) pojawia się wzór — znany obecnie jako wzór Stirlinga — w postaci n!~C-ran+ ie - " , (1) gdzie log C — \ ---- — H— ---------- — + — 6 12. 360 1260 1680 Otóż Stirling jedynie zauważył, że C = \/27r, o czym wspomina de Moivre w drugim wydaniu Miscellanea (1738). Wzór (1) posłużył do wyprowadzenia lokalnego i integralnego twierdzenia granicznego. Przypadek niesymetryczny został udowodniony w dodatku nr 2 do Miscellanea (1733). De Moivre był pionierem na polu geometrii analitycznej; otrzymał w 1707 roku wzór (cos x -f i sin x ) n = cos n x -\-i sin nx. Zajmował się statystykami śmiertelności, zagadnieniem renty dożywotniej, czyli, jakby­ śmy dziś powiedzieli, matematyką ubezpieczeniową i finansową. Od niego pochodzi po­ jęcie funkcji tworzącej. Jednak ten wybitny matematyk, posiadający wpływowych przy­ jaciół, nie otrzymał nigdy płatnego stanowiska i do końca życia utrzymywał się z lekcji matematyki oraz konsultacji; zmarł w nędzy. Przewidział datę własnej śmierci, zauwa­ żywszy, że każdej nocy śpi o 15 minut dłużej, zatem umrze w dniu, w którym będzie spał 24 godziny. §7.6. Twierdzenie de Moivre’a-Laplace’a 171 Zauważmy, że k = np + 6 k, n ~ k = n q - 6 k, ~ = 1 + x kqh, Z dokładniejszej analizy rysunków wynika, że B(k,n,p) = 1 - x kph. h<p(xk), gdzie jest gęstością rozkładu M ( 0 , 1). A dokładniej, mamy T w ierd zen ie 1 (d e M oiv re ’a—L aplace’a, lokalne). Jeśli /ilzfclmajc^ę) < 1/2, to B(k, n,p) = - 7= L = e - * ^ 2 •efi(n'fc\ y/ZTTnpq przy czym |ii(n,fc)| sj ^\xk\h+ ^|xfc|3/i + 4 o on W szczególności, jeśli n —>oo i k —>oo tak, że hx\ —» 0, to R(n, k ) ------->0. Ti— ►OO D o w ó d . Ze wzoru Stirlinga w postaci nl = \[2Tmnne~n+Sn/12n, 0 < 0n < 1 wynika, że y ^ O ___ i___Xv— i - ____ - iii u gdzie 0 < 01, 91 , 6 " < 1, ¿ = 1, 2 , . .. . Oszacujemy, teraz po kolei wyrażenia I, II i III. Każde z nich przedstawimy w postaci Ai(n, k) ■eRi(n’k\ gdzie Ai będzie równe e ~ x ^ 2 lub 1 odpowiednio dla i = 1,2,3, zaś Rą będzie zawierać informację o błędzie przybliżenia. I. Mamy ] j 2kw{n —k) = ' (1 + Xkqh)~ 1/2{1 ~ Xkph)~1/2' (3 ) czyli QRi(n’k') = (1 + Xfcgft)-1 ^2( 1 —x kph)~1/2. Oszacujemy teraz błąd przybliżenia z nierówności A.1.3: Ri{n,k) = - i [ l o g ( l + x kqh) + log(l - x kph)] = ~ x k(q - p)h + !7i(n,/c), gdzie |i7i(n,k)\ < \{q2 + p2 )x\h2 < \\xk\h, jeśli /i|a;fc|max(p,g) ^ 1/2. Ostatecznie Rozdział 7. Sumy niezależnych zmiennych losowych 172 II. Zbadamy logarytm wyrażenia II, które najpierw zapiszemy w postaci ________________ 1________________ (1 + Xkqh)nP(1+Xki h') ■(1 - x kph)n'i(i-xkPh) ' Po wzięciu logarytmu i skorzystaniu z oszacowania udowodnionego w do­ datku A: dla \x\ < | mamy (1+a;) log(l+®) = x + ^ x 2 +S, gdzie [<5| ^ §|a:|3, otrzymujemy ~[np( 1 + x kqh) log(l + x kqh) + nq(l - x kph) log(l - x kph)\ = (5) = ~ ^ - + R 2 (n 1 k), (6 ) gdzie jĄ j(r » ,* )| < ( 7) |A |a r * |3 , jeśli tylko h\xk\max(p, q) ^ 1/ 2 . III. Wyrażenie III jest po prostu równe eR^ n’kK Mamy " (m + 12 ( n - f c ) ) < R s ( -n ’ k ^ < 12^' Stąd + x kqh)~1( 1 + x kph )~ 1 < R 3 (n, k) < Jeśli h\xk\max(p, q) < 1/2, to - Ł w < R s Udowodnione oszacowania (4), ( 6 ) i (7) na Ri dają natychmiast pierwszą część tezy. Żeby otrzymać drugą część tezy, zauważmy, że gdy hx\ —> 0 , to h\xk\ ^ Sj ftmax(|iCfc|3, 1) —> 0 . ■ Zobaczmy teraz, jaka jest dokładność przybliżenia z tw. 1 w przypadkach, omawianych na początku tego paragrafu. Tabela 1. Przybliżenie de Moivre’a-Laplace’a dla n = 10 i p = 1/2. k 0 1 2 3 4 5 B(k, n,p) 0,000977 0,009766 0,043945 0,117188 0,205078 0,246094 h(p{xk) 0,001700 0,010285 0,041707 0,113372 0,206577 0,252313 błąd względny 74,09% 5,32% -5,09% -3,26% 0,73% 2,53% błąd bezwzględny 0,000724 0,000519 -0,002238 -0,003816 0,001498 0,006220 § 7.6. Twierdzenie de Moivre’a-Laplace’a 173 Tabela 2. Przybliżenie de Moivre’a~Laplace’a dla n = 12 i p = 1/5. - k 0 1 2 3 4 5 6 7 8 9 10 11 12 B(k,n,p) 0,068719477 0,206158430 0,283467842 0,236223201 0,132875551 0,053150220 0,015502148 0,003321889 0,000519045 0,000057672 0,000004325 0,000000197 0,000000004 hip{xk) 0,062323704 0,167657830 0,267916449 0,254319625 0,143405341 0,048034772 0,009557650 0,001129670 0,000079315 0,000003308 0,000000082 0,000000001 0,000000000 błąd względny -9,31% -18,68% -5,49% 7,66% 7,92% -9,62% -38,35% -65,99% -84,72% -94,26% -98,11% -99,39% -99,74% błąd bezwzględny -0,006395772 -0,038500600 -0,015551392 0,018096424 0,010529791 -0,005115448 -0,005944498 -0,002192219 -0,000439730 -0,000054364 -0,000004243 -0,000000195 -0,000000004 Podamy jeszcze wyniki dla n = 20 i p = 1/2, które można porównać z danymi z tabeli 1. Tabela 3. Przybliżenie de Moivre’a-Laplace’a dla n = 20 i p = 1/2. błąd bezwzględny błąd względny k B(k, n,p) htp(xk) 0,000007 749,34% 0,000001 0,000008 0 0,000035 183,93% 1 0,000019 0,000054 0,000115 63,60% 2 0,000181 0,000296 0,000241 22,20% 0,001087 0,001329 3 0,000254 0,004621 5,50% 4 0,004875 -0,000141 -0,95% 0,014645 5 0,014786 -0,000944 -2,55% 0,036964 0,036021 6 -0,001392 - 1,88% 0,073929 0,072537 7 -0,000541 -0,45% 8 0,120134 0,119593 0,001255 0,161434 0,78% 0,160179 9 0,002215 1,26% 0,178412 10 0,176197 Z lokalnego twierdzenia de Moivre’a-Laplace’a wynika tak zwane twier­ dzenie integralne, które daje oszacowanie prawdopodobieństwa, że liczba sukcesów zawiera się w danym przedziale. Przy założeniach tw. 1 mamy bowiem l B(k,n,p) ~ / y>(i) di. Jxk- \ h Sumując względem k € [a, 6], otrzymamy * a+i = X a + k h- Twierdzenie 2 (de M oivre’a-L aplace’a, integralne). Jeśli ftmax(|a:a|,|x6|)m ax(p, 5 ) < 1 /2 , to $ jest P(a < < 6) = [$(zH i ) - * ( s 0- i )]ez,(" ,“ -Ł), (9) dystrybuantą rozkładu J f (0,1). Rozdział 7. Sumy niezależnych zmiennych losowych 174 gdzie \D(n,a,b)\ m a ^ [-\ x k\h+ -\ xk\3 h} + — + - h2. szczególności, jeśli n —> oo i a, 6 zmieniają się tak, że hx® - * 0 i to £>(«, a, 6) ------- > 0 i wtedy —> 0 , n —»co P (a < S» < 6) ~ $ ( a : fc+4) - * ( * „ _ * ) , P (a S„ < 6) (10) -* (* »)■ (U ) Ostatnie przybliżenie jest mniej dokładne, ale jest prostsze i chyba częściej stosowane. D o w ó d . Porównamy h<p(xk) z całką / <p(t)dt = $ ( x k + i ) - $ ( x k_ i ) . J Xk —%h Z twierdzenia o wartości średniej wynika, że H x k+ i ) przy czym ) = M 6 >)> 6 ( x k - \,Xk + f ) , czyli M ® fc) = “ $ (®fc-^)]> a ponieważ |£| - x\\ = |& - x k\• +a:/t| ^ \h(2 \xk\+ \h) = h\xk\+ \h2, h<p{xk) = erfc[$(a:fc+i ) - $(®fc_ i ) ] , gdzie (r-fc) ^ \h\xk \+ \h2. Łącząc tę zależność z lokalnym twierdzeniem granicznym, otrzymujemy B( k , n, p ) = e ^ + ^ p f o + j ) - S f o . j ) ] , i oznaczając d = maxjt€{a,a+x,...,6} \^k -b R{ n, k)| otrzymujemy dwustronne oszacowanie e - ^ t e f c + l ) - $(®k-*)] < B { k , n , p ) < ed[$( xfc+i ) - $ ( x fc_^)]. Wystarczy teraz zsumować powyższe nierówności po k € {a, a + 1, •••, &}, żeby otrzymać (9). ■ Najczęściej stosuje się następujący wniosek z twierdzenia 2: W n io se k 3. Jeśli x a i xt, są stałe, to P ^Xa ^ ^ ~ +^ ~~^ § 7.6. Twierdzenie de Moivre’a-Laplace’a 175 W związku z integralnym twierdzeniem de Moivre’a-Laplace’a należy się spodzie­ wać, że reguła trzech sigm sformułowana w §5.10 dla rozkładu normalnego ma miejsce również dla schematu Bernoulliego. Oto jedna z wersji tej reguły8: P [S „ e (np - 3^/npg, np + 3y/npq)) ^ 0,997, jeśli np - 3^/npg > 0 i np + 3y/npq < n. Warunki na n dadzą się zapisać krótko w postaci n > 9 max(q/p,p/g). Dla przy­ padku symetrycznego oznacza to, że n ^ 10. Gdy n ~ 10, prawdopodobieństwo po lewej stronie wzoru wynosi 1022/1024, czyli około 0,99805, więc reguła rzeczywi­ ście działa już dla niedużych n. Liczba 0,997 po prawej stronie została wybrana zapewne dlatego, że <¡>(3) — $ ( —3) = 0,9973..., co w stosunku do „idealnego” rozkładu normalnego daje pewien zapas. Stąd jednak jeszcze daleko do dowodu (cytowani autorzy nie podają go). Znane twierdzenia dają zbyt małą dokładność, gdy n jest małe. Czytelnik może spró­ bować swych sił, dowodząc regułę trzech sigm z prawdopodobieństwem po pra­ wej mniejszym niż 0,997, korzystając ze ścisłych wyników tego typu: nierówności Bernsteina (tw. 7.4.2), a także jej wzmocnienia9: T w ierdzenie 4 (N ierów ność Bernsteina). Jeśli X i , . . . , X n są niezależnymi zmiennymi losowymi o tym samym rozkładzie, \Xi\ K , £X i = 0, £ X f = a2, i = 1, 2, . . . n, Sn = X i 4- . . . + X n, to Na zakończenie podamy bez dowodu łatwe do zapamiętania oszacowanie dokład­ ności przybliżenia w twierdzeniu de Moivre’a-Laplace’a: Jest to wniosek z (12) tw. 10.1.2 Rzędu tego oszacowania nie można poprawić. Dlatego dla p bliskich zera nie jest ono zbyt dobre, wtedy jednak można zastosować przybliżenie Poissona z tw. 7.5.2. Do kwestii dokładności przybliżenia w twierdzeniach tego typu powrócimy w roz­ dziale 10 (tw. Berry-Esseena 10.1.2). Zadania 1. Udowodnić, że jeśli a jest ustalone, to przy n —> oo P(Sń > a) ~ 1 - $(a), P(S* ^ a) ~ $(a). 8M. Zakrzewski, T. Żak, KombinaŁoryka, prawdopodobieństwo i zdrowy rozsądek, Qu­ adrivium, Wrocław 1993, s. 121. Regułę zaczerpnięto z: E. S. Wentzel, L. A. Owczarow, Teoria wierojatnostiej i je jo inżenierskije priłożenija , Nauka, Moskwa 1988. 9S. N. Bernstein, Teorija Wierojatnostiej, wyd. 4, Moskwa-Leningrad 1946. Można tam znaleźć znacznie ogólniejszą nierówność. Patrz także Matematiczeskaja Enciklopedija, Moskwa 1977, t. I, s. 430. _ S n -n p 176 Rozdział 7. Sumy niezależnych zmiennych losowych 2. Wydział Matematyki pragnąłby przyjąć nie więcej niż 120 kandydatów. Zda­ jących jest 250, a szansa zaliczenia testu wynosi 0,4. Jakie jest prawdopodo­ bieństwo, że Wydział będzie miał kłopot z nadmiarem kandydatów? 3. Zadanie o konkurencji. Na campusie uniwersyteckim są dwie restauracje, po 120 miejsc każda. Wiadomo, że codziennie 200 osób będzie chciało zjeść obiad, a wyboru restauracji dokonują losowo — powiedzmy, rzucając syme­ tryczną monetą. Jaka jest szansa, że w którejś restauracji zabraknie miejsc? Ile miejsc należy przygotować w każdej restauracji, by powyższe prawdopo­ dobieństwo było mniejsze od 0,001? 4. Bolek rzucił 100 razy monetą i otrzymał 77 orłów. Adaś chce powtórzyć ten wyczyn (tj. otrzymać 77 lub więcej orłów) i zamierza rzucać monetą aż do skutku. Ile średnio serii po 100 rzutów potrzeba, aby się doczekać 77 lub. więcej orłów? 5. Wyznaczyć przybliżenia prawdopodobieństw otrzymania w n rzutach syme­ tryczną monetą co najmniej 60% orłów dla n = 10, 100 i 1000. 6 . Na Wydziale Matematyki jest 320 użytkowników poczty elektronicznej i każ­ dy korzysta z niej średnio przez 9 minut w ciągu doby. Ile powinno być połą­ czeń telefonicznych, żeby szansa dodzwonienia się do komputera pocztowego wynosiła co najmniej 0,95? Podać przybliżenie wynikające a) z twierdzenia Poissona; b) z twierdzenia de Moivre’a-Laplace’a. 7. Na Wydziale Matematyki jest n — 200 użytkowników poczty elektronicznej i dwa połączenia telefoniczne z komputerem pocztowym. Szansa dodzwo­ nienia się do komputera pocztowego wynosi 0,75. Ile minut w ciągu doby średnio użytkownik korzysta z połączenia? Podać przybliżenie wynikające a) z twierdzenia Poissona; b) z twierdzenia de Moivre’a-Laplace’a. 8 . Na podstawie losowej próby szacujemy procent chorych na rzadką chorobę Gulgenstierny-Gjellerupa. Wiadomo na pewno, że liczba chorych nie przekra­ cza 0,5% populacji, a błąd ma być mniejszy od 0,001 z prawdopodobieństwem 0,95. Ile osób musi liczyć próba? 9. Na podstawie losowej próby szacujemy procent dorosłych osób, które umieją czytać i pisać. Wiadomo na pewno, że jest to ponad 90% (dorosłej) populacji, a błąd ma być mniejszy od 0,01 z prawdopodobieństwem 0,9. He osób musi liczyć próba? 10. Prawdopodobieństwo urodzenia chłopca wynosi 0,517. Jakie jest prawdopo­ dobieństwo, że wśród n = 10000 noworodków liczba chłopców nie przewyższy liczby dziewcząt? Rozdział 8 Zbieżność rozkładów ¡8.1. Przykłady i definicja Ze zbieżnością rozkładów mieliśmy już do czynienia, ale nie wiedzieliśmy o tym. W twierdzeniach Poissona (tw. 7.5.1) i de Moivre’a-Laplace’a (tw. Ja wiedziałem, ale 7.6.2) występują ciągi rozkładów Bernoulliego (w tw. 7.6.2 odpowiednio nie informowałem. przeskalowane), które stają się coraz bardziej podobne do rozkładu granicz­ JJ nego: Poissona lub normalnego. Ponadto widać, że ma miejsce punktowa zbieżność odpowiednich dystrybuant. Przeanalizujemy teraz kilka przykła­ dów i zobaczymy, czego można oczekiwać od zbieżności dystrybuant. P rzy k ła d 1. Rozpatrzmy ciąg rozkładów jednopunktowych (San), gdzie an —> a. Niech Fn będzie dystrybuantą San. Łatwo sprawdzić, że dla i ^ o mamy linin-n*, Fn(t) = F( t ), gdzie F jest dystrybuantą rozkładu 6 a■Jednak dla t = a mogą być kłopoty — jak widać z rysunku. Gdy « n I « okazuje się, że Fn(a) = 0 / 1 = F(a). u P rzy k ła d 2. Niech F będzie dowolną dystrybuantą. Zdefiniujemy dystrybuanty Fn(t) = F (t - £ ), n = 1 ,2 ,__ Mamy znów Fn(t) -------- > F ( t —). Ta granica lewostronna równa się F(t) tylko wtedy, gdy t jest punktem ciągłości F. u P rzyk ła d 3. Niech ¡in = ]Cfc=o n^k/n- Dystrybuanta F.a rozkładu funkcją schodkową (rysunek na następnej stronie). 177 jest Rozdział 8. Zbieżność rozkładów 178 -t-t—I- -i—I- Gdy n - i co, ciąg (Fn) jest zbieżny punktowo do dystrybuanty rozkładu jednostajnego na [0,1]. Zachodzi jeszcze jedno interesujące zjawisko: dla dowolnej funkcji / ciągłej i ograniczonej /d/in = n -------> f f { x ) d x . \ n j n—*oo Jo Rozpoznajemy tu sumy riemannowskie funkcji / . Po prawej stronie poja­ wia się całka z funkcji / względem rozkładu jednostajnego na [0 , 1], czyli naturalnego kandydata na rozkład graniczny. ■ Można sprawdzić, że i w poprzednich przykładach f f dixn —> J f dfi, gdzie H jest w rozsądnym sensie rozkładem granicznym, a / — ciągła i ograni­ czona. Z przykładu 1 widać, że warunek ciągłości / jest istotny. Ograni­ czoność gwarantuje natomiast istnienie odpowiednich całek. W następnym przykładzie, odwołującym się do twierdzenia Poissona, sprawdzenie zbież­ ności całek nie będzie już takie proste. P rz y k ła d 4 (R o z k ła d y B ern ou lliego i P oisson a ). Niech ijin) będzie ciągiem rozkładów Bernoulliego o parametrach (n ,pn), przy czym npn —* A. W świetle twierdzenia Poissona (tw. 7.5.1) można się spodziewać, że rozkła­ dem granicznym będzie rozkład Poissona z parametrem A. Istotnie, niech pn k oznacza prawdopodobieństwo otrzymania k sukcesów w n-tym schema­ cie Bernoulliego, i niech pk = dystrybuanty, mamy Fn(t) = Oznaczając przez Fn i F odpowiednie V ] Pn,k ------> £ 71—»OO Z““' Pk = F(t). Zbieżność wynika z twierdzenia Poissona i stąd, że sumy w powyższym wzorze mają ustaloną, skończoną liczbę składników. Nieco trudniej udo­ wodnić, że dla każdej funkcji ciągłej i ograniczonej / ma miejsce zbieżność odpowiednich całek. Istotnie, jeśli |/| ^ M , to / OO fO fdy. n - -co / J —c oo fdfj. < £ k= 0 CO \f(k)\\Pn,k |P n tk - Pk\- (1) k= 0 Kłopot polega na tym, że choć pn —> pk dla ustalonego k i n —> oo, to nic stąd nie wynika, bo suma zawiera nieskończenie wiele składników. § 8.1. Przykłady i definicja 179 Można sobie z tym poradzić na przykład tak (por. też zad. 7): zauważmy, że dla dostatecznie dużych m suma J2kLm \Pn,k ~ Pk\ może być dowolnie mała. Wynika to z nierówności Czebyszewa i stąd, że wartości oczekiwane rozważanych rozkładów są wspólnie ograniczone. Jeśli oznaczymy przez X n zmienną losową o rozkładzie Bernoulliego z parametrami (n,pn), a przez X — zmienną losową o rozkładzie Poissona z parametrem A, to ponieważ npn dla pewnego K jest npn < K , i mamy: Di( Xv n ^ m)\ ^ ^ P m ^ npn m P(X ^m ) ^ — m K — m m W takim razie dla ustalonego e > 0 istnieje takie m, że dla każdego n: 00 00 K 00 £ IPn,k - P k l ^ Y l li»«.*I + £ M k~m k=m k=m ^ 4- m X < e Natomiast dla dostatecznie dużych n mamy X)fcLi \Pn,k —PkI < £, z czego wynika, że prawa strona wzoru ( 1) jest dla dostatecznie dużych n mniejsza niż 2s. ■ W dalszym ciągu tego rozdziału (E , q) będzie oznaczać przestrzeń me­ tryczną, ośrodkową i zupełną. Będziemy mieć do czynienia z miarami na (E , B(E)). Tylko wyniki dotyczące dystrybuant z natury rzeczy będą for­ mułowane dla E = R lub E = R n. Warto zwrócić uwagę na własność rodziny rozkładów (fin), która pojawiła się w poprzednim przykładzie. Zostało tam udowodnione, że dla każdego e > 0 istnieje taki przedział ograniczony I, że > 1 —e dla każdego n. Intuicyjnie rzecz biorąc, dzięki tej własności nie ma szans na ucieczkę miar do nieskończoności. Stąd definicja: Konkurencyjny D efin icja 5. Rodzinę ((it)ter rozkładów prawdopodobieństwa na ( E, B(E)) termin to ciasna. Ale po angielsku nazywamy jędrną, jeśli dla każdego e > 0 istnieje taki zbiór zwarty K , że mamy tight. Ht(K) > 1- s dla wszystkich t e T. W przypadku rozkładów na R (odp. na R " ) wystarczy w definicji zastąpić zbiór zwarty przedziałem domkniętym i ograniczonym. P rzy k ła d 6 . Niech { X a: a € A } będzie rodziną zmiennych losowych dla której istnieje 6 > 0 taka, że supa £|Xa |^ — M < co. Wtedy rodzina € A } jest jędrna. Rozdział 8. Zbieżność rozkładów 180 Istotnie, weźmy dowolne e > 0. W tedy dla każdego a e A mamy: P(\Xa \> n) = P(\Xa \s > ns) < L W I ) < E < e n° n° dla dostatecznie dużych n. a Podane przykłady miały umotywować następującą definicję: będzie ciągiem rozkładów prawdopodobieństwa D efin icja 7. Niech na (E , B ( E )). Powiemy, żejes t on słabo zbieżny do rozkładu p, (co będziemy sł oznaczać \in — >fj,), jeśli dla każdej funkcji ciągłej i ograniczonej f : E —>Tl mamy [ lim f dun = fdn. JR n~4°° Je Należy jeszcze wyjaśnić, skąd się wzięło słowo „słaba” określające zbież­ ność. Jest to konwencja zaczerpnięta z analizy funkcjonalnej. Funkcja / wyznacza funkcjonał ciągły na przestrzeni miar. W definicji żąda się, by ciąg wartości funkcjonału był — dla każdego funkcjonału — zbieżny. Tego rodzaju zbieżność nazywa się słabą, żeby odróżnić ją od mocnej zbieżności, wyznaczonej przez normę. Tak naprawdę, jest to zbieżność Natomiast w odniesieniu do zmiennych losowych będziemy mówić o zbież­ „słaba ności według rozkładu: z gwiazdką” D efin icja 8 . Jeśli X , X x , X 2 , ■■■ są zmiennymi losowymi, a ¡i, ni, ¿¿2, ... ich rozkładami, to powiemy, że ciąg (X n) jest zbieżny według rozkładu do X , jeśli fj,n — > Piszemy wtedy X n X. U w aga 9. Ponieważ f E f dfix — £ f ( X ) , to X n -2-* X wtedy i tylko wtedy, gdy £ } ( X n) —>£ f ( X ) dla każdej funkcji / ciągłej i ograniczonej. Jeśli rozkładem granicznym jest na przykład standardowy normalny, mo­ żemy z lekka nadużyć języka, pisząc X n N (0,1). Zakończymy ten paragraf uwagą techniczną, która będzie wielokrotnie wy­ korzystywana w dalszym ciągu. U w aga 10. Jeśli zbiór F jest domknięty, to dla każdego e > 0 istnieje jednostajnie ciągła i ograniczona funkcja / , taka że 1 p < / < 1 f c , gdzie Fe = { x € E: q (x , F) < e } (zbiór Fe nazywamy e-otoczką zbioru F). D o w ó d . Wystarczy zdefiniować f ( x ) = ( 1 <p(t) = < 1 - t l0 <p ( \ q ( x , dla t < 0 , dla 0 < t < 1, dla t > 1. F)), gdzie (2 ) ■ §8.1- Przykłady i definicja 181 Zadania 1 . Wykazać, że jeśli X, Xi, Xz,... są zmiennymi losowymi o wartościach w prze­ strzeni metrycznej (E , g) i X n X , to X n X. 2 . Podać przykład ciągu zmiennych losowych określonych na tej samej prze­ strzeni fi, zbieżnego według rozkładu, który nie jest zbieżny według prawdo­ podobieństwa. 3. Wykazać, że jeśli X, X i , X i ,... są zmiennymi losowymi o wartościach w prze­ strzeni metrycznej (E, q) i X n -^+ X, gdzie P(X = c) = 1, c e E, to X n ^>c. 4. Udowodnić, że jeśli X n X, a,b e R, to aXn + 6 a X + b. 5. Podać przykład ciągu dystrybuant, który jest punktowo zbieżny, ale odpo­ wiednie gęstości nie są zbieżne. 6 . Niech n, pi, ¡12 , ■będą miarami skupionymi na zbiorze liczb całkowitych nieujemnych. Wykazać, że Hn * fi ^ ^&sNu{o} MnfW) 7. Twierdzenie Scheffe’go. Niech fi będzie miarą cr-skończoną, / n, / — funk­ cjami nieujemnymi i takimi, że miary ^n(A) = f A f n dfi, v{A) = f A f dfi są miarami probabilistycznymi. Niech f n że f względem miary fi. Udowodnić, sup\v(A) - Vn(A)l < I 1/ - f n\dfi —►0. -4 Ja 8 . Niech /j, fin będą rozkładami ciągłymi o gęstościach / , f n odpowiednio. Jeśli fn~* f P-n. względem miary Lebesgue’a, to fin — >fi. 9. Uogólnienie zad. 6 . Niech fi,fii,fi2 ,. . . będą miarami probabilistycznymi skupionymi na zbiorze przeliczalnym S C E. Udowodnić, że a) jeśli Vx & S ¿in({a;}) -> #¿({2 }), to fin -^+ b) jeśli każdy punkt S jest izolowany, fi, to e S fin({x}) —» ¿¿({a;}). Wykazać, że punkt b) nie jest prawdziwy bez założenia, że każdy punkt S jest izolowany. 10. Niech Pa = M (rna,a'i)- Udowodnić, że rodzina {Pa: a 6 A} jest jędrna wtedy i tylko wtedy, gdy istnieje takie K > 0, że dla wszystkich a € A jest \ma\< K, \al\ ^ K. 11. Udowodnić, że jeśli (X „ ) jest ciągiem zmiennych losowych o wartościach a) w R, b) w R n i X n X , to rodzina {fixn)n jest jędrna. 12. Rozkład jednostajny na kuli a rozkład normalny. Niech X n będzie pierwszą współrzędną zmiennej losowej o rozkładzie jednostajnym na kuli jednostkowej w R n. Wykazać, że y/nXn - ^ t f ( 0 , l ) . Jak zmieni się odpowiedź, gdy rozpatrzymy rozkłady jednostajne na sferach jednostkowych w R n? Rozdział 8. Zbieżność rozkładów 182 § 8.2. Charakteryzacje słabej zbieżności rozkładów Poniższe twierdzenie znacznie upraszcza badanie słabej zbieżności rozkła­ dów. T w ierd zen ie 1. Niech będą rozkładami prawdopodobieństwa na ( E, B(E)). Następujące warunki są równoważne-. (i) fj.n im. (ii) limn^oo JB f dfj,n = nostajnie ciągłych. dla funkcji f : E —* H ograniczonych i jed­ (iii) limsupn_ftJOHn(F) < fJ-(F) dla zbiorów F domkniętych. (iv) liminfn -,00 (¿n(G) > n(G) dla zbiorów G otwartych. dA = X\Int A. („) l i m „ _ o o Mn (A ) = (i(A), o ile fi( 8 A) = 0. D o w ó d . Oto jego schemat: najpierw udowodnimy wynikania (i)=> (ii)=> (iii), (iv)=>(i), a następnie równoważność (iii)-& (iv) i wynikania («>)=>■ (v)=> (iii). (i) =>(w). Oczywiste. (ii)=> (iii). Niech F będzie zbiorem domkniętym. Ustalmy S > 0. Wtedy dla dostatecznie małych e > 0 dla zbioru Fe — {x e E: g(x, F) < e } zachodzi nierówność » ( F e) < i x ( F ) + 6 . Istotnie, dla domkniętych F mamy Hn=i F\jn = F . Korzystając z twier­ dzenia 1.1.7 o ciągłości, wybierzmy takie e > 0, by nierówność zachodziła i rozpatrzmy (uwaga 8 . 1. 10) jednostajnie ciągłą funkcję / , spełniającą wa­ runek 1 f < / < 1 •Wtedy limsup iin( F) < limsup n n / dfin = f d p ^ n(Fe) < fi(F) + 5. Ponieważ liczba ó > 0 może być dowolna, dowód został zakończony. (ui)=>(i). Niech / będzie ciągła i ograniczona. Załóżmy na razie, że / > 0. Wtedy, przepisując wzór ze stw. 5.6.11 w postaci całek, otrzymujemy Zbiory { x : f ( x ) > t } są otwarte, zatem /*oo J 0 §8.2. Charakteryzacje słabej zbieżności rozkładów 183 roo > / Jo liminf ¡in({x- f ( x ) > i} ) dt n (2) rOO > / v({x'-f(x) > i}) d t = f f dfj.. JO Je (3) Nierówność (2) jest wnioskiem z lematu Fatou, zastosowanego do nieujemnej funkcji fj,n({x: f ( x ) > i}), natomiast (3) wynika wprost z założenia. Jeśli lewa strona (1) jest nie mniejsza niż prawa strona (3) dla funkcji / , to liminf(—an ) = jest tak również dla / + c, gdzie c jest dowolną stałą, czyli dla każdej funkcji = —lim sup anciągłej i ograniczonej. Stosując otrzymane oszacowanie do —/ , otrzymujemy warunek (i). (iii)<$-(iv) — natychmiastowy dowód przez przejście do dopełnień. (iii) i (iv)=>(v) Mamy fiClntA) < liminf ftn(IntA) < liminf^in(yl) < n n < lim s u p ( A ) < limsup/^n(j4) < n(A). n n Jeśli fj,(dA) = 0, to skrajne wyrazy są równe, co kończy dowód. (v)=>(iii) Po pierwsze, d{x: q(x, F) < ¿ } C { x : g ( x , F ) = ¿ }. Te ostatnie zbiory są rozłączne dla różnych 5, zatem tylko przeliczalnie wiele z nich ma miarę ¡i dodatnią. Pozwala to ominąć trudność, związaną z brzegiem dodatniej miary: wybierzmy 8 k 1 0 tak, by odpowiednie zbiory Fk = {x: g(x,F) < 4 } miały zerowe brzegi. Teraz dla każdego k limsup fj,n(F) < łimsup/in(Ffc) = fi(Fk). n n Biorąc k —>oo, otrzymujemy (3). ■ Prostym wnioskiem z udowodnionego twierdzenia jest T w ierdzen ie 2. Jeśli fj, i v są rozkładami prawdopodobieństwa na prze­ strzeni ( E, B(E)) i dla każdej funkcji ciągłej i ograniczonej f f f dfj,= [ fdu, Je Je to ¡¿(A) — v(A) dla A £ B(E). D o w ó d . Ponieważ zbiory domknięte generują a-ciało zbiorów borelowskich i tworzą 7r-układ, to na mocy lematu o 7r- i A-układach wystarczy udowodnić tezę twierdzenia tylko dla zbiorów domkniętych. Rozdział 8. Zbieżność rozkładów 184 Niech (nn) będzie ciągiem stałym, o wszystkich wyrazach równych ¡i. Z za­ łożenia jest on słabo zbieżny do v, i z warunku (iii) twierdzenia 1 otrzy­ mujemy n(F) = limsupn Hn(F) ^ V{F). Symetria daje nierówność prze­ ciwną. ■ Oczywisty jest W n io se k 3. Granica słabo zbieżnego ciągu rozkładów jest wyznaczona jed­ noznacznie. Jeśli h jest odwzorowaniem ciągłym z E w przestrzeń metryczną E\, to z Xn X wynika natychmiast h ( X n) h(X). Można to stwierdzenie znacznie osłabić. Niech Dh będzie zbiorem punktów nieciągłości funkcji h. T w ierd zen ie 4. Jeśli odwzorowanie h :E —> Ei jest mierzalne, X n X, Hx ( Dh) = Q t o h ( X n) - ^ h ( X ) . D o w ó d . Udowodnimy, że zachodzi warunek (iii) twierdzenia 1. Niech F będzie zbiorem domkniętym. Wtedy lim supfJ.hix n){ F) = limsnpfj,Xn(h^ 1 ( F) ) s$ limsnp fj.xn(h~ 1 ( F)) ^ n n n bo X n — ►X. A ponieważ h~ 1 ( F) C h~ 1 ( F) U Dh, n x{ Dh ) = 0, to V x { h - ' ( F ) ) = lMx(h-\F)) = fłh(x)(F). m W zadaniu 8 podane jest uogólnienie tego faktu. Następne twierdzenie jest sformułowane w duchu znanego z analizy kryte­ rium zbieżności ciągu, i przyda się w dowodzie twierdzenia Levy’ego. Warto udowodnić odpowiednik tego twierdzenia dla ciągów w przestrzeni metrycznej i zastanowić się, ) czy istnieje } metryka w przestrzeni rozkładów równoważna słabej zbieżności (zad. 8.3.4). sł T w ierd zen ie 5. — > fi wtedy i tylko wtedy, gdy każdy podciąg (tink) zawiera podciąg (fJ-nk,) słabo zbieżny do ¡i. D o w ó d . Konieczność jest oczywista: jeśli dla każdej funkcji ciągłej i ogra­ niczonej / ma miejsce zbieżność całek: f f d[in —> f f d/i, to samo odnosi się do dowolnego podciągu. Dostateczność: przypuśćmy, że fj,n f~ * /¿. Wtedy dla pewnej funkcji ciągłej ograniczonej / i pewnego podciągu (nk) mamy |/ / dfj.nk - f f dfj,\ > 6 > 0 , i z tego podciągu nie da się już wybrać żadnego, dla którego zachodziłaby zbieżność całek. Sprzeczność z założeniem kończy dowód. ■ §8.3. Zbieżność rozkładów, a zbieżność dystrybuant 185 Zadania 1 . Pokazać, że nie jest prawdziwe stwierdzenie: jeśli fin B € 23(11) mamy ¡j.n(B ) —>fi(B). fi, to dla każdego 2. Udowodnić, że jeśli X n X , Yn X. 3 . Udowodnić, że jeśli X n X , Yn - Ł c, to X n + Yn -2-» X + c. 0, to X n ■+- Yn 4. Podać przykład zmiennych losowych X n,Yn,X, Y takich, że X n — > X, Yn — Y, ale nieprawda, że X n + Yn X + Y. 5 . Udowodnić, że jeśli X n X, Yn 6 . Udowodnić, że jeśli X n X, Yn -5-> a, to X nYn 7. Udowodnić, że jeśli X nYn w zerze, to X „ ( / ( K ) - /(O)) 0, to X nY„ 0. a X. X , K« — » 0, / jest funkcją różniczkowalną /'(0 )X . * 8 . Niech X, X i , X 2 , ■.. będą zmiennymi losowymi o wartościach w przestrzeni metrycznej (E, @) i niech X u » X. Udowodnić, że gdy h, hi, h2, F są odwzorowaniami mierzalnymi (F — przestrzeń metryczna), a zbiór A jest taki, że P( X 6 A) = 1, i wreszcie dla e € A mamy hn(e„) —> h(e) gdy g(e„,e) -> 0, to hn(Xn) h(X). 9. Owad i mrówki. Owad składa jaja zgodnie z rozkładem Poissona z parame­ trem a. W nocy mrówki kradną mu jaja: szansa, że dane jajo zostanie ukra­ dzione, wynosi q. Następnego dnia historia się powtarza (liczba złożonych jaj ma ten sam rozkład, co poprzedniego dnia i jest niezależna od przeszłości), itd. Jaki jest rozkład graniczny liczby jaj ocalonych przed mrówkami? § 8.3. Zbieżność rozkładów, a zbieżność dystrybuant Jak sugerowały przykłady podane na początku rozdziału, zbieżność roz­ kładów wiąże się ze zbieżnością odpowiednich dystrybuant, ale na ogół nie wszędzie — jedynie w punktach ciągłości dystrybuanty granicznej. Taką sł y_i zbieżność dystrybuant nazwiemy słabą i zachowamy oznaczenie Fn — >F. Oto oczekiwana charakteryzacja słabej zbieżności dystrybuant rozkładów na R . T w ierdzen ie 1 . Niech ft,/ii,/X2, ■•• będą rozkładami prawdopodobieństwa na (R, i niech F, F i ,F2, . . . będą ich dystrybuantami. sł Wtedy zbieżność fin — > fi jest równoważna temu, że Fn(t) —> F(t) dla każdego punktu ciągłości t dystrybuanty granicznej F. D o w ó d . Najpierw udowodnimy, że z warunku (ii) twierdzenia 8.2.1 wynika słaba zbieżność dystrybuant. Niech t będzie punktem ciągłości F . Rozpa­ Początek dowodu znany jest jako trzmy jednostajnie ciągłe funkcje f £, ge spełniające warunki 1 ( —oo,i—e] ^ f e ^ 1 ( —oo,i] ^ 9 e ^ 1 ( —oo,i+ e]- lemat o wieszaku; tak naprawdę jest tu pół wieszaka. Rozdział 8. Zbieżność rozkładów 186 Po scałkowaniu względem miary nn i wzięciu granicy dolnej pierwsza i druga nierówność dają Można użyć warunku 8.2.1(v), ale jak ktoś nie doczytał... / OO pO O fe dfi = lim inf / 71 -00 f e d/iji < liminf Fn(t). J —c o 71 Po wykorzystaniu w analogiczny sposób ostatnich dwóch nierówności otrzymujemy następujący łańcuszek: / OO f e d/j,n < lim inf Fn(t) < -00 / OO ge dfin < F (t + e), •OO Żeby zakończyć dowód, wystarczy wziąć e —> 0 . Przypuśćmy teraz, że ma miejsce słaba zbieżność dystrybuant. Wyprowa­ dzimy stąd warunek (iv ) z tw. 8 .2 .1 . Niech G będzie dowolnym zbiorem otwartym w R . Wtedy G = U*Li Ik, gdzie Ifc są rozłącznymi przedziałami otwartymi (być może nieograniczo­ (a'k,brk] C (ofc,bfc) nymi). Niech I k = (ak,bk). Zawsze można wybrać takie punkty ciągłości dystrybuanty granicznej a'k,b'k £ (ak,bk), a'k < b'k, żeby dla ustalonego Zbiór punktów £ > 0 nieciągłości funkcji monotonicznej jest przeliczalny. F{b'k) - F( a k) = / , ( « , b'k]) > K h ) - £ •2"*. (1) Wtedy OO liminf nn(G) > £ [ F ( 6'fc) - F(a'fe)] > fi{G) - e. fc=i Pierwszą nierówność otrzymujemy, rozpatrując najpierw sumę skończoną Sfe=i[^n(&fc) — Fn(a!k)\ i przechodząc z m do nieskończoności po wzięciu granicy dolnej względem n. Drugą nierówność otrzymuje się, dodając stro­ nami nierówności ( 1) dla k = 1, 2 , . . . Żeby zakończyć dowód, wystarczy wziąć £ —*■0 i skorzystać z tw. 8 .2 . 1. ■ Będziemy teraz zmierzać w kierunku twierdzenia Prochorowa: jędrność ro­ dziny rozkładów jest równoważna z tym, że z każdego ciągu da się wybrać podciąg słabo zbieżny. Innymi słowy, jędrność jest równoważna z warun­ kową zwartością. L em at 2. Niech (Fn) będzie ciągiem dystrybuant, a D — zbiorem gęstym w R . Jeśli Fn(t) —>F(t) dla wszystkich t G D , to Fn(t) —>F(t) we wszystkich punktach ciągłości F . Masa może uciec Funkcja graniczna F nie musi być dystrybuantą; może być dystrybuantą do ułomną, ma bowiem wszystkie własności dystrybuanty oprócz jednej: nieskończoności limt_łoo F(t) - limt^-oo F(t) = p < 1 , i być może p < 1. § 8.3. Zbieżność rozkładów, a zbieżność dystrybuant 187 D o w ó d . Jeśli x jest punktem ciągłości F, x ',x " € D i x' < x < i " , to Fn(x') < Fn(x) < F(x"), zatem liminf Fn(x') < liminfFn(x) < lim supF„(x) < limsupFn(a:"), cz3rli F(x') < liminf Fn(x) < lim supF„(z) < F(x"). Jeśli teraz x ',x " —>x, to otrzymamy limFn(x) = F.(x). ■ L em at 3. Każdy ciąg dystrybuant zawiera podciąg słabo zbieżny do dystry­ buanty ułomnej. D o w ó d . Wystarczy wykazać zbieżność na zbiorze gęstym i przedłużyć F w naturalny sposób do funkcji prawostronnie ciągłej. Niech toi, w2, . . . będzie ciągiem zawierającym wszystkie liczby wymierne. Ponieważ (Fn(wi)) jest ciągiem ograniczonym, można z niego wybrać pod­ ciąg zbieżny o wyrazach rin,Bi2, . . . Z tego podciągu wybieramy taki pod­ ciąg o wyrazach n21, n 22, •• żeby {Fn2k(w2)) był zbieżny, itd. Z otrzymanej tablicy wskaźników wybieramy przekątną i otrzymujemy ciąg funkcji (Frikk) zbieżny w każdym punkcie wymiernym do funkcji Fo: Q —>R . Teraz wystarczy zdefiniować F(t) = inf{.Fo(ui): w > i}, żeby otrzymać żądaną funkcję graniczną. ■ L em at 4. Każdy jędrny ciąg rozkładów prawdopodobieństwa na (R , B(R)) zawiera podciąg słabo zbieżny. D o w ó d . Niech (Fn) będzie ciągiem dystrybuant. Wybieramy podciąg Frik słabo zbieżny do pewnej dystrybuanty ułomnej F (lemat 3). Na mocy jędmości dla każdego e > 0 istnieje takie M , że —M i M są punktami ciągłości F, oraz Fnk{ M ) - F nk( - M ) > l - e , a stąd, biorąc k —>00, otrzymujemy F ( M) - F ( - M ) > 1 - e, zatem F jest dystrybuantą pewnego rozkładu prawdopodobieństwa Możemy teraz udowodnić ■ Rozdział 8. Zbieżność rozkładów 188 T w ierd zen ie 5 (P r o c h o r o w a ). Rodzina rozkładów prawdopodobieństwa A = { fj,a: a e / } na (R , B( R )) jest jędrna wtedy i tylko wtedy, gdy z każdego ciągu elementów tej rodziny da się wybrać podciąg słabo zbieżny do pewnego rozkładu prawdopodobieństwa. D o w ó d . Konieczność została udowodniona w lemacie 4. Dostateczność: przypuśćmy, że rodzina rozkładów nie jest jędrna. W tedy istnieje takie e > 0, że dla każdego zbioru zwartego K istnieje taka miara fi € A, że n (K ) < 1 — s. Przyjmując za K kolejno przedziały [—n, n] otrzymujemy ciąg miar fin G A, n = 1 ,2 ,..., dla których ¿in([—n, ra]) < 1 —e. Otóż ciąg (pn) nie może zawierać podciągu zbieżnego do pewnego rozkładu prawdo­ podobieństwa. sł Przypuśćmy bowiem, że ¡i1lk — > /i. Wybierzmy taki zbiór zwarty K , żeby fJt(K) > 1 —e. Jeśli K s jest ¿-otoczką zbioru K , to dla dostatecznie dużych n mamy K$ C [—n ,n ], i na mocy otwartości zbioru K $ i warunku (iv ) tw. 8 .2.1 otrzymujemy 1 - e < p ( K s ) < liminf fink (K s) < liminf /J.nk( [ - n k,nk]) < 1 - £■ Sprzeczność kończy dowód. ■ Zadania 1 . Niech X „ X , limn an = a, a — punkt ciągłości dystrybuanty F x - Udo­ wodnić, że limn Fx„(an) = F(a). 2. Twierdzenie Diniego. Wykazać, że jeśli ciąg dystrybuant (Fn) jest zbieżny punktowo do dystrybuanty ciągłej F , to zbieżność jest jednostajna. 3. Metryka Levy’ego. Określamy odległość d między dystrybuantami F i G w następujący sposób: W arto wykonać rysunek ilustrujący tę definicję d(F, G) = inf{e: V*eR G{x - e) - e Ą F (x ) s: G (x + e) + e}. sl Wykazać, że Fn — >F wtedy i tylko wtedy, gdy d(Fn, F) —>0. Wykazać, że d jest faktycznie odległością i że zbiór miar probabilistycznych na (R, S (R )) z metryką d jest przestrzenią metryczną, ośrodkową i zupełną. *4. Określić odległość między rozkładami na ( E , B (E)), uogólniając pomysł z za­ dania 3 i udowodnić odpowiedniki sformułowanych tam twierdzeń. *5. Twierdzenie Skorochoda. Wykazać, że jeśli fi, fti, fi2, ... są rozkładami prawdopodobieństwa na (R, B(R)) i fi„ ¡i, to istnieją zmienne losowe X , X i , X 2, ... o rozkładach odp. fi, fu, ¿t2, ... określone na przedziale (0 , 1) i takie, że X n(w) —>X(u>) dla każdego u € (0,1). 6 . Wykazać, że jeśli X n — > X , to €\X\ 7. liminf„ £\Xn\. Udowodnić, że jeśli X 7l X i X n są jednostajnie całkowalne, to X ma wartość oczekiwaną i lim„ £ X n = £ X . §8.3. Zbieżność rozkładów, a zbieżność dystrybuant 189 8 . Niech rozkład zmiennej losowej X będzie określony przez wszystkie momenty i niech X n , n = 1,2,... mają wszystkie momenty, £ X £ —* £ X T dla r = = 1,2,__ Udowodnić, że X n X. 9. Udowodnić, że jeśli X n -?—> X i supn £\Xn\p+e < oo, p > 0,e > 0, to £\X\P < oo i lim„ £\Xn\p = £\X\P oraz limn £ X P = £ X P. *10- Udowodnić odpowiedniki twierdzenia 1 oraz lematów 2, 3 i 4 dla rozkładów prawdopodobieństwa w (R k,B (R k)). *11. Udowodnić twierdzenie Prochorowa a) w R n, b) w R°°, c) w dowolnej przestrzeni metrycznej, ośrodkowej i zupełnej. 12. Niech (X „) będzie ciągiem niezależnych zmiennych losowych o rozkładzie U[0,1], Y„ = n ■m in(Xi,. ••, X n). Czy istnieje taka zmienna losowa Y, że Yn y? Lemat o małżeństwach i miara Haara. Twierdzenie o istnieniu miary Haara na grupie zwartej można otrzymać z tw. Prochorowa i kombinatorycznego lematu Halła o systemach reprezentantów1 (inaczej: o małżeństwach). Kolejne kroki dowodu wynikają z zadań: * 12 . Niech A i ,. . . A n będą podzbiorami zbioru skończonego X . Wykazać, że wa­ runkiem koniecznym i dostatecznym na to, by z każdego zbioru Ai można było wybrać reprezentanta ai tak, by O; ^ aj dia i j jest: V J c { l ,...,n j # i(jA i)ź # J . \eJ ' Podzbiór K e przestrzeni metrycznej (E, p) nazywamy £-siecią, gdy dla każdego x 6 B istnieje takie u 6 K e, że p(x,u) ^ e. Skończoną £-sieć nazywamy mini­ malną, gdy nie istnieje e-sieć o mniejszej liczbie elementów. 13. Niech { z i , .. ., a:„} i { y i , ■■■,y n} będą minimalnymi e-sieciami w przestrzeni metrycznej (E, p). Wykazać, że istnieje taka permutacja ir: {1 , . . . , n } —> —» { 1, . . . , n}, że p(xj,yn(j)) ^ 2e dla każdego j ^ n. 14. Niech E będzie przestrzenią metryczną zwartą, a K n = {x^ l}. . . ■Xml,} — minimalną —siecią w E . Niech Pn będzie rozkładem równomiernym na K „ (tj. Pn({a!jn)}) = l/m n). Wykazać, że ciąg (P„) zawiera podciąg (Pnk) słabo zbieżny do pewnego rozkładu prawdopodobieństwa p na (E, B(E)). 15. Twierdzenie o istnieniu miary Haara. Niech G będzie grupą izometrii przestrzeni metrycznej zwartej E . Wykazać, że miara p otrzymana w poprzednim zadaniu jest niezmiennicza ze względu na G, czyli pg = p dla każdego g e G , gdzie pg(A) = p(g~lA) dla A e B(E). Wsk. f E fdpg = limfc^ m~l f(gx^k)- 1W itold Lipski, Wiktor Marek, Analiza kombinatoryczna, P W N , Warszawa 1986, s. 192. — { g x : x 6 A }. Rozdział 9 Funkcje charakterystyczne §9.1. Definicja i przykłady Z punktu widzenia analityka funkcja charakterystyczna jest w zasadzie transformatą Fouriera miary. Dla probabilisty liczy się fakt, że pewne wła­ sności rozkładów i relacje między rozkładami tłumaczą się prosto na język funkcji charakterystycznych, a wygodniej jest operować zwykłymi funk­ cjami niż miarami. Funkcje charakterystyczne posłużą nam do dowodu centralnego twierdzenia granicznego (rozdział 10). Głównym wynikiem tego rozdziału jest twierdze­ nie Lévy’ego-Craméra „o ciągłości” : punktowa zbieżność funkcji charakte­ rystycznych do funkcji ciągłej w zerze pociąga za sobą zbieżność odpowied­ nich rozkładów do rozkładu, którego funkcją charakterystyczną jest funkcja graniczna. D efin icja 1. Funkcją charakterystyczną zmiennej losowej X : ù —►R na­ zywamy funkcję <px'- R- —* C , daną wzorem V x it) = £ e l t x , t e R. (1 ) Pojawiła się tu — wcześniej formalnie nie zdefiniowana — wartość oczeki­ wana zmiennej losowej o wartościach zespolonych. Podstawowe (i oczywiste) jej własności podajemy w zadaniu 1. W szczególności, ponieważ |e!iX j = 1, zmienna losowa po prawej stronie ( 1) jest zawsze całkowalna, wobec tego funkcja charakterystyczna jest dobrze określona dla każdej zmiennej loso­ wej. Oczywiście mamy gdzie n x jest rozkładem zmiennej losowej X . Wobec tego równie dobrze można mówić o funkcji charakterystycznej dowolnego rozkładu. 190 191 §9.1- Definicja i przykłady P rzy k ła d 2. Obliczymy funkcję charakterystyczną zmiennej losowej X o rozkładzie N (0,1) (lub, co na jedno wychodzi, rozkładu M (0,1)). Mamy 1 r°° eite-<x2/2) dx = <Px(t) = £ e itx = - 4 = V ^ 7 -o o bowiem ostatnia całka jest równa \/27r, niezależnie od t. Żeby to zobaczyć, należy obliczyć całkę z funkcji e~ z / 2 po brzegu przedstawionego na rysunku prostokąta i wziąć R —►oo. f?+/t > Ponieważ całkowana funkcja jest analityczna, całka po brzegu prostokąta jest równa zeru (patrz tw. D.2.4). Całki po pionowych bokach zmierzają do zera, gdy U —>oo. Wobec tego Z teorii funkcji analitycznych będziemy korzystać jeszcze kilka razy. Doda­ tek D zawiera niezbędne wiadomości i opis techniki liczenia całek metodą residuów. Można jednak w tym przypadku (i w innych) obejść się bez funk­ cji analitycznych (patrz zad. 7). ■ Oto podstawowe własności funkcji charakterystycznych: T w ierd zen ie 3. Niech <px będzie funkcją charakterystyczną zmiennej lo­ sowej X . Wtedy (i) <Px(0) = I[ii) \<px(t)\ sg 1 . (iii) ipx (t) = <p x{-t). (iv ) ipx:(t) jest jednostajnie ciągła. 192 Rozdział 9. Funkcje charakterystyczne D o w ó d , (i) <px{0) = £e° = 1; (ii) \v x {t) |= |£e"x |< £|e«*| = 1 ; (iii) <px{t) = £ e ltx = £ e ~ ltx = <px(—t)(iv) |<px(t + h) - <px(t)\ - \£ (elhx - l ) el t x \ ^ £\elhx - 1 |= 6(h), gdzie na mocy twierdzenia Lebesgue’a o zbieżności zmajoryzowanej S(h) —* 0 dla h —> 0 , a to oznacza jednostajną ciągłość. ■ Powiemy, że zmienna losowa jest symetryczna , gdy X i —X mają ten sam rozkład. Sam rozkład nazwiemy wtedy symetrycznym. Rozkład ^ jest sy ­ metryczny wtedy i tylko wtedy, gdy ft(A) = ¡jl( - A ) dla A e B ( R ). U w aga 4. Funkcja charakterystyczna rozkładu /i jest rzeczywista wtedy i tylko wtedy, gdy rozkład jest symetryczny. D o w ó d . Jeśli rozkład jest symetryczny, na mocy (iii) mamy ifx (t) = = V x ( —t)i a jednocześnie na mocy symetrii <px(t) = <p~x { t ) = <px{~t). Dlatego funkcja charakterystyczna jest rzeczywista. Odwrócenie tego rozu­ mowania jest prawie oczywiste, wymaga jednak twierdzenia o jednoznacz­ ności: różne rozkłady mają różne funkcje charakterystyczne (tw. 10). ■ Istnieje wiele kryteriów na to, by dana funkcja była funkcją charaktery­ styczną. Przytoczymy tu jedno z nich. D efin icja 5. Funkcję <p: R —> C nazywamy dodatnio określoną wtedy i tyl­ ko wtedy, gdy dla każdego naturalnego n, dla każdego ciągu t \ , . . . t n liczb rzeczywistych i zespolonych Z i,. . . zn mamy T : <p(tk - ti)zkzi ^ o. k,l^n T w ierdzen ie 6 (B o ch n e ra ). Funkcja ip jest funkcją charakterystyczną pewnego rozkładu prawdopodobieństwa wtedy i tylko wtedy, gdy jest ciągła, dodatnio określona i <p(0 ) = 1 . D o w ó d . Łatwo udowodnić konieczność warunku. Jeśli <p jest funkcją cha­ rakterystyczną zmiennej losowej X , to mamy 2 £ <p(tk - ti)zkzi = £ £<łtkXe it,x zkzi = £ £ eitkXzk >o. k<n Dowód dostateczności odłożymy na koniec rozdziału (par. 9.3). ■ Zajmiemy się teraz kwestią istnienia pochodnych funkcji charakterystycz­ nych, co umożliwi następnie operowanie wzorem Taylora. § 9.1. Definicja i przykłady 193 T w ierdzen ie 7. Jeśli £|X)n < oo, n £ N , to n-ta pochodna funkcji cha(n) rakterystycznej ipK x istnieje i jest jednostajnie ciągła, a ponadto <pP( 0) = in£ X n. D o w ó d . Pokażemy, że OO / (is)nelts ¡ix {ds ), •OO co natychmiast daje <¿>^(0) = in£ X n. Istotnie, dla n = 0 otrzymujemy definicję funkcji charakterystycznej. Przy­ puśćmy teraz, że powyższy wzór jest prawdziwy dla n = k. Udowodnimy jego prawdziwość dla n = k + 1. Niech £|.X'|*:+1 < oo (wtedy również £ 1X 1* < oo): (fc -i-i)/_ ,. <P x \ t + h) W - lim - <px oo / / <Px\t) — __pplis its ti(t+ h ,)s _ J ia)*-------- h-------- ^x (d s) oo ihs _ 1 (is) e,is-----------n x(d s) -cc = Jf —C. / . h (•is)kzits lim eh—*0 -- h p.x{ds) OO {ia)k+1^ u fiX {d8) •oo Wejście z granicą pod znak całki jest poprawne, bo na mocy elementarnej nierówności: |eJt —1 |^ |i| funkcje podcałkowe są wspólnie ograniczone przez funkcję |.s|fc+1, całkowalną z założenia. Jednostajną ciągłość pochodnych udowodnimy podobnie, jak jednostajną ciągłość samej funkcji w tw. 3 (iv): | + h ) ~ V^ (t)| = |£[(tX)»(e<fc* - l)e «* H ^ £ (| X P \eihX - 1 |) = = S(h), gdzie S(h) —>0 dla h —>0. ■ Żeby sformułować krótko wniosek z twierdzenia 7, wprowadzimy następu­ jące oznaczenia: o(x) będzie oznaczać dowolną funkcję zmiennej x , dla któ­ rej lim ^ o (o (x )/x ) = 0 ; z kolei 0 ( x ) będzie oznaczać taką funkcję, dla której ułamek 0 ( x ) j x jest ograniczony w pewnym otoczeniu zera. Jak zauważył Littlewood, sina; = 0 ( x ), niekoniecznie 0(a:) = sin®. Rozdział 9. Funkcje charakterystyczne 194 W n io s e k 8 . Jeśli £\X\n < co, to v x ( t ) = Y / £ x k - {^ f + ° ( n k~0 D o w ó d . Wystarczy przedstawić resztę w rozwinięciu Taylora funkcji <fx w otoczeniu zera jako [ip^ {tet) ~ v P m ~ + ^ ) (0 )2 > gdzie 0 < 8t < 1- Z ciągłości n-tej pochodnej wynika, że pierwszy wyraz da się zapisać jako o(tn). m Jeśli na przykład £ X = 0 i X>2X = 1, to funkcja charakterystyczna zmiennej losowej X daje się zapisać w otoczeniu zera jako 1 — 1 t2 + o(t2). Wykorzy­ stamy ten fakt później, w dowodzie centralnego twierdzenia granicznego. Zajmiemy się teraz zachowaniem funkcji charakterystycznych przy prostych operacjach na zmiennych losowych. Po pierwsze, mamy Ten wzór nie jest opatrzony tytułem T w ie r d z e n ie , więc na pewno zostanie zignorowany. <fiaX+b{t) = elłb<px(at)- (2) Jest to bezpośredni wniosek z definicji funkcji charakterystycznej. Po drugie — i jest to kluczowa własność funkcji charakterystycznych — zachodzi: T w ierd zen ie 9. Jeśli X , Y są niezależnymi zmiennymi losowymi, to <Px+y{t) = <Px(t)<pY (t). D o w ó d , ip x + y ( t ) = £eIt(x+y) = £ e u x zltY — £ e ltx £ e ltY = <px {t)ipY{t)Przedostatnia równość wynika stąd, że dla niezależnych zmiennych loso­ wych U — eztX i V — eltY mamy £ U V = £ U £ V (por. zad. Ib). ■ Nie należy jednak sądzić, że jeśli funkcja charakterystyczna sumy zmien­ nych losowych jest równa iloczynowi ich funkcji charakterystycznych, to zmienne losowe są niezależne. Odpowiedni przykład zawiera zad. 8 . Żeby otrzymać kryterium niezależności, trzeba użyć wielowymiarowych funkcji charakterystycznych, o których będzie mowa dalej. Jest jasne, że słaba zbieżność rozkładów pociąga za sobą zbieżność punk­ tową odpowiednich funkcji charakterystycznych: część rzeczywista i urojona funkcji f t (x) = eltx są przecież dla każdego t ciągłe i ograniczone. Odwró­ cenie tego twierdzenia — twierdzenie Lévy’ego-Craméra o ciągłości — jest także prawdziwe, ale dowód zajmie nam resztę tego rozdziału. F §9.1. Definicja i przykłady 195 Bez kłopotu da się natomiast zobaczyć, że funkcja charakterystyczna wy­ znacza jednoznacznie rozkład. Nietrudno to zrozumieć intuicyjnie: jeśli dla każdego i e R OO pOO eUx n(dx) = . e!te v(dx) = / •oo J —OO to dla wielomianów trygonometrycznych postaci w(x) = mamy OO />oo w(x) ¡i(dx) = / w (x)v (d x ). / -oo cn^mx «/ —OO Jak wiadomo ze znanego z analizy twierdzenia Stone’a-Weierstrassa, ta­ kimi wielomianami można przybliżać jednostajnie wszystkie funkcje ciągłe / o okresie 27t. Zamiana zmiennych daje to samo dla okresu 2K , co już wystarczy. Zatem T w ierdzen ie 10. Jeśli rozkłady prawdopodobieństwa fi i u na (R , S (R )) mają równe funkcje charakterystyczne, czyli ip^t) = dła wszystkich t e R , to /j. = v. D o w ó d . Jeśli teza nie zachodzi, to zgodnie z tw. 8.2.2 dla pewnej funkcji ciągłej i ograniczonej / mamy | / ^ f dp, - f dv\ > 5 > 0. Z drugiej strony, dla każdego K > 1 istnieje funkcja //<■ o następujących własnościach (patrz rysunek): 1- f ( x ) = f K {x) dla * e [ - K + 1, K - 1], 2. f K ( ~ K ) = f K (K ) = 0. 3. Na przedziałach [—ii, —K + 1] i [K — 1, K ] funkcja f u jest liniowa. 4. f x jest okresowa, o okresie 2K . Jasne jest, że przy K —>oo mamy zbieżność punktową f x do / , a ponieważ supx6R \fK(x)\ < M = sup^ft j/(a:)|, z twierdzenia Lebesgue’a o zbieżno­ ści zmajoryzowanej dla dostatecznie dużych /‘CO /«o i / J —OO fa d fiJ —c Rozdział 9. Funkcje charakterystyczne 196 Ostatnia nierówność nie może jednak zachodzić, bo istnieje wielomian try­ gonometryczny w, dla którego / oo /»oo ftcdfj, — -OO £ wdfj, < - I p oo i / ^ J — OO ęo o /tid is ~ \J—OO w di/ J —o o a jak wiemy, / OO /*' wd/j, = -OO Zadania I wdu. ■ J— X. a) Gdy i? jest zmienną losową o wartościach zespolonych, to £Z= j ZdP, Ja gdy Z jest całkowalne, tzn. gdy f n \Z\ dP < oo. Udowodnić, że gdy Z = = X + i Y , gdzie X , Y są zmiennymi losowymi o wartościach rzeczywistych, to SZ istnieje wtedy i tylko wtedy, gdy £ X i £ Y istnieją; w takim przypadku £ Z = £ X + i£Y . b) W dowodzie twierdzenia 9 prześliznęliśmy się gładko nad faktem, że zmienne losowe U i V mają wartości zespolone. Wypełnić lukę i wykazać, że £U V = £U £V . 2. Zmienne losowe X , Y , XJ, V są niezależne i mają rozkład Af (0 , 1). Obliczyć funkcje charakterystyczne zmiennych losowych: a) X Y ; b) X 2; c) X/Y\ d) ± ( X 2 - Y 2); e) X Y + UV, 3. Obliczyć funkcję charakterystyczną rozkładu x 2(ra)• Funkcje charakterystyczne rozkładów arytmetycznych. W tabeli 1 poda­ jemy funkcje charakterystyczne poznanych dotąd rozkładów dyskretnych. Mają one pewną wspólną cechę — patrz zadania. Tabela 1. Funkcje charakterystyczne rozkładów dyskretnych. Rozkład Jednopunktowy (Sa) Funkcja charakterystyczna e«o Dwupunktowy (p6a + qSb, p 4- q = 1, p, q ^ 0) Geometryczny Bernoulliego (z parametrami n, p; q = 1 —p) Poissona (z parametrem A) 4. Obliczyć funkcje charakterystyczne podane w tabeli. p e ita + q e itb P°U 1-q e “ (peu + g ) n 9.1. Definicja i przykłady 197 Zwróćmy uwagę, że wszystkie podane tu funkcje są okresowe, a ponadto dla każ­ dej z nich istnieje takie s ^ 0, że |i/5(s)| = 1. Nie jest to przypadek. Rozkłady: geometryczny, Bernoulliego i Poissona są rozkładami arytmetycznymi, czyli skon­ centrowanymi na zbiorze punktów postaci kh, gdzie k jest całkowite. Rozkład jednopunktowy i dwupunktowy są przesuniętymi rozkładami tego typu. 5. Udowodnić, że dla funkcji charakterystycznej <p lozkładu fi następujące wa­ runki są równoważne: (i) <p(s) = 1 dla pewnego s ^ 0; (ii) ip ma okres s; (iii) rozkład fi jest skupiony na zbiorze punktów postaci 2irk/s, k 6 Z. 6 . Udowodnić, że jeśli ip jest funkcją charakterystyczną rozkładu fi, to zachodzi jedna z trzech możliwości: (i) \if>(t)\ < 1 dla wszystkich t / 0; (ii) |^(s)| = 1 i |<^(i)| < 1 dla wszystkich t 6 (0,s). Wtedy \<p\ ma okres s, i rozkład fi jest skupiony na zbiorze punktów postaci b + 2irk /s, k 6 Z. (iii) \<p(t)\ = 1 dla wszystkich i 6 R. Wtedy ip(t) = e‘tb i ¡i jest skupiony w punkcie b. Funkcje charakterystyczne rozkładów ciągłych. Interesujące, że gęstość i funkcja charakterystyczna zmiennej losowej o rozkładzie A/"(0,1) różnią się tylko czynnikiem stałym. Jest jeszcze druga podobna para, gdzie gęstość i funkcja cha­ rakterystyczna różnią się parametrem skali. Tabela 2. Funkcje charakterystyczne rozkładów ciągłych. Rozkład Normalny, M Gęstość Funkcja charakterystyczna { 0 ,1 ) Jednostajny U ( 0 , a ) Jednostajny U ( —a , a ) Trójkątny ^ ' l[-a .,a }(x ) ¿ ( l - ^ l l - a ,^ ) 1 1—cosax 7r Wykładniczy z par. A > 0 (1 - ^ )l[-a ,a ]W A A—it łp-l*l 1 l+ F 7 2 i . 1„ 7T l+®2 Cauchy’ego Cosinus hiperboliczny ax'z Xe~Xxl [0lOO)(x) Dwustronny wykładniczy Gamma eia t- l iat sin at at O1—cos ot a2t2 "' S • l[o,<.l(®) e -l‘ l ba „a—1_—bx-| ffa j^ e 1 7TCOsłkX MO-*,) (1 - $ ) 1 coshi7ri/2) 7. a) Obliczyć funkcje charakterystyczne rozkładów wymienionych w tabeli. W przypadku rozkładów Cauchy’ego i cosinusa hiperbolicznego można to zrobić techniką residuów (rozwiązania w dodatku D). Funkcję charaktery­ styczną rozkładu normalnego można obliczyć inaczej niż w przykładzie 2. b) Wyznaczyć funkcję charakterystyczną rozkładu jV (m, er2) . Rozdział 9. Funkcje charakterystyczne 198 8 . Gęstość rozkładu wektora losowego (X , V ) dana jest wzorem g!x y \ = / j ( l + xy(x 2 — y2)) 1^0 dla |i| < 1, \y\ < 1, w p.p. Wykazać, że X i Y są zależne, a mimo to ipx+Y = <Px -<Py - W razie kłopotów rachunkowych — znaleźć prostszy przykład takiego zjawiska. 9. Zbadać, czy następujące funkcje są funkcjami charakterystycznymi i jeśli tak, wyznaczyć odpowiedni rozkład: a) cos i; b) cos2 i; c) i ( l + eił)2; d) ± ± fŁ i; e) (2 - e “ ) - 1. 10. Wykazać, że jeśli <p\, ..., ipn są funkcjami charakterystycznymi, a = 1, Pi > 0, i — 1, 2, ... n, to również kombinacja wypukła ^ p u p i jest funkcją charakterystyczną. Umowa: n — 0- Zmienne losowe X\, X i , . .. X n, . . . są niezależne i mają tę samą funkcję charakterystyczną (p. Zmienna losowa N jest od nich niezależna i ma rozkład Poissona. Wyznaczyć funkcję charakterystyczną losowej sumy ")Zi<i<N Xi. 12. Wiadomo, że 1p jest funkcją charakterystyczną pewnej zmiennej losowej X o rozkładzie fi. Czy funkcjami charakterystycznymi są: a) <p2\b) Rey>; c) \<p\2-, d) \ip\. 13. Udowodnić, że jeśli funkcja charakterystyczna zmiennej losowej X ma drugą pochodną w zerze, to £ X 2 < 00. Jest to częściowe odwrócenie twierdzenia 4. Można udowodnić, że istnienie po­ chodnej rzędu 2k w zerze pociąga za sobą istnienie momentu rzędu 2k. Dla po­ chodnych rzędu nieparzystego już tak nie jest (por. zad. 14). 14. Wykazać, że rozkład o gęstości f(x ) = ( 1+ ł^)i^g(e+xż) nie ma wartości ocze­ kiwanej, ale jego funkcja charakterystyczna jest różniczkowalna w zerze. 15. Niech X przyjmuje wartości całkowite. Udowodnić, że i /■* / e~ lktipx(t)dt, 27r 1 P {X = k) = — k e Z. 16. T w ierdzenie R iem anna—Lebesgu e’ a. Udowodnić, że gdy X jest zmienną losową o rozkładzie ciągłym, to <px(t) -* 0, gdy |i| —> 00. § 9.2. Twierdzenie Levy’ego-Cramera o ciągłości Zaczniemy od związku pomiędzy jędrnością ciągu rozkładów a zachowaniem się ciągu funkcji charakterystycznych. L em at 1. Jeśli fj. jest rozkładem prawdopodobieństwa z funkcją charakte­ rystyczną ip, to dla każdego u > 0 zachodzi M([—2 /w, 2 /w]) > 1 - i f (1 -ip ( s ) ) d s . U J —U ( ( 1) 199 §9.2. Twierdzenie Levy’ego-Cramera o ciągłości D o w ó d . Mamy -i 1 p il — / pOO (1 — <p(s)) ds = - u J —u pu / / (1 — elsx) dsn(dx) = u J —oo J —u ( >2 i J sinwaA l Kdx) + 2 f ( —oo, —2 /u ) " J (2 / u ,oo) l Kdx) = " = n ( ( -o o , —2 /u ) U (2 /«, oo)), skąd natychmiast wynika ( 1). ■ T w ierdzen ie 2. Niech (fin) będzie ciągiem rozkładów prawdopodobieństwa na (R ,S (R ). Jeśli ciąg ( ipn) funkcji charakterystycznych tych rozkładów jest zbieżny punktowo do funkcji <p, ciągłej w zerze, to ciąg (fj,n) jest jędrny. D o w ó d . Ustalmy e > 0 i wybierzmy u, dla którego ljjl-< P (°))d s ś l. Istnienie takiego u wynika z ciągłości funkcji (p w zerze: w dostatecznie małym otoczeniu zera wszystkie wartości funkcji podcałkowej będą bliskie zeru, a zatem i ich średnia. Teraz dla dostatecznie dużych n z założenia i z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej mamy 1 ~ w fu (1 “ <Pn{s))ds ^ e, J -u wobec tego dla dostatecznie dużych n na mocy lematu 1 Hn( [ - 2 /u ,2 /u ] ^ 1 - e, co kończy dowód twierdzenia. ■ Ukoronowaniem tego rozdziału jest T w ierdzen ie 3 (L evy ’ego—C ram era). Niech (/.tn) będzie ciągiem roz­ kładów prawdopodobieństwa na (R, B (R )) i niech ( ipn) będzie ciągiem ich funkcji charakterystycznych. Jeśli p n(t ) —>ip(t) dla wszystkich t e R i funk­ cja (p jest ciągła w zerze, to ip jest funkcją charakterystyczną pewnego roz­ kładu p, i Hn fi. D o w ó d . Składa się z następujących kroków: Rozdział 9. Funkcje charakterystyczne 200 1. Funkcja ip jest ciągła w zerze, rodzina rozkładów (/in) jest zatem jędrna (tw. 9.2.2) i zawiera podciąg (/i nk) słabo zbieżny do pewnego rozkładu /i (tw. 8.3.5). Jest to kandydat na rozkład graniczny. 2. Teraz tpnk —■• — funkcji charakterystycznej rozkładu /x; ale z za­ łożenia ipp — ip. sł 3. Pozostaje wykazać, że cały ciąg fj,n — > ¡i. W tym celu wybierzmy dowolny podciąg (pnk)- Jak poprzednio, z jędrności wynika istnie­ nie podciągu zbieżnego (finkl). Ale ciąg funkcji charakterystycznych (Vnkl) jest zbieżny do ip = ip^, a ponieważ funkcja charakterystyczna wyznacza jednoznacznie rozkład (tw. 9.1.10), rozkładem granicznym tego podciągu jest fi. Na mocy twierdzenia 8.2.5 cały ciąg jest słabo zbieżny do fi. m Zadania 1. Udowodnić, że jeśli X n mają rozkład Poissona z parametrem An, An —>A > 0, to X n — > X , gdzie X ma rozkład Poissona z parametrem A. 2 . Udowodnić, że jeśli X n X , an —>a, bn —» 6, to anX n + bn a X + b. 3. Wykazać, że jeśli X n Xo, Yn Yo, X n, Yn są niezależne, n — 0 ,1 ,2 ,..., to X n + Yn — * Xo + Yo. Czy założenie o niezależności jest istotne? 4. P (X n = k/n) — l/n 2, k = 1 ,2 ,...,n2. Udowodnić, że nie istnieje zmienna losowa X taka, że X n X. Problem Haara. Wiadomo, że X — Un/ 2 n, gdzie ([/„)„ jest ciągiem Bernoulliego (patrz 5.8.10 i zad. 5.8.9), ma rozkład jednostajny. Natomiast pełne rozwiązanie poniższego zadania dość długo nie było znane. f5. Zbadać, dla jakich a 6 (0,1) zmienna losowa X a = anUn ma rozkład ciągły. 6 . Rzucamy monetą, dla której prawdopodobieństwo wypadnięcia orła jest rów­ ne p. Niech X będzie liczbą rzutów potrzebnych do uzyskania n orłów. Zna­ leźć rozkład graniczny zmiennych losowych 2X p, gdy p —>0. *7. Korzystając z tego, że / OO V=i \ / OO ' V=i \ ' udowodnić, że splot dwu rozkładów singularnych może być rozkładem cią­ głym. Charakteryzacja rozkładu normalnego. Poniższy lemat wymaga zaawan­ sowanej teorii funkcji analitycznych1. Przypomnijmy, że funkcją całkowitą nazy­ wamy funkcję analityczną określoną na całej płaszczyźnie zespolonej. Dla prostoty 1Niezbędne informacje, w tym twierdzenie Hadamarda o faktoryzacji, można znaleźć np. w: F. Leja, Teoria funkcji analitycznych, Warszawa 1957. §9.2. Twierdzenie Levy’ego-Cramera o ciągłości 201 sformułowań umówmy się, że rozkład jednopunktowy zaliczamy do normalnych (co do rozszerzenia definicji patrz §9.4). Lem at 4. Jeśli dla pewnego a > 0 jest £eaX < oo, to funkcja charakterystyczna zmiennej losowej X , <px, jest całkowita. Jeśli ponadto tpx (z) ^ 0 dla wszystkich z e C, to X ma rozkład normalny. D o w ó d . Z nierówności \zx\ ^ a2 x 2 + a~ 2 \z\2 , z e C ,a ,iE R , wynika, że £el*x jest dobrze określona dla wszystkich z e C. Ponadto \<fx{z)\ ^ e“ 2|*|2/(a ), co oznacza, że ipx jest funkcją całkowitą rzędu ^ 2; jeśli nie ma zer, musi być postaci e~az /2+'bzt gdzie a,b 6 C. Ale <px jest funkcją charakterystyczną, więc na mocy tw. 9.1.7 itp'x (0) = £ X , -¡p'x(0) = V 2X , zatem b e R i a > 0, a to oznacza, że X ma rozkład normalny. ■ Z tego lematu wynika, że zmienna losowa o rozkładzie normalnym nie daje się rozłożyć na sumę niezależnych składników inaczej, niż w trywialny sposób. *8 . Tw ierdzenie Cram era. Wykazać, że jeśli zmienna losowa X o rozkładzie normalnym jest sumą dwóch niezależnych zmiennych losowych Y i Z, to obie te zmienne mają rozkłady normalne. 9. Udowodnić, że funkcja ip(x) = nie jest funkcją charakterystyczną. D ru g a charakteryzacja rozkładu norm alnego. Podamy bez dowodu2 nastę­ pujące T w ierdzenie 5. Niech zmienne losowe X , Y będą niezależne i niech XJ = a X + bY, V = cX + dY. Jeśli U i V są niezależne, to wszystkie cztery zmienne mają rozkład normalny, chyba że przekształcenie definiujące U i V jest trywialne, tj. albo U = aX , V = = dY, albo U = bY, V = cX. Twierdzenie to stanowi punkt wyjścia do definicji zmiennej losowej gaussowskiej tam, gdzie nie da się zdefiniować gęstości względem naturalnej miary, na przykład w przestrzeniach Banacha o wymiarze nieskończonym albo na grupach. Jeśli X jest zmienną losową, a X i, X 2 — jej niezależnymi kopiami, to X jest gaussowska wtedy i tylko wtedy, gdy X i + X 2 i X\ —X 2 są niezależne. Żeby taka definicja miała sens, wystarczy samo dodawanie! 2[FEL], t. XI, tw. XV.8.2. Rozdział 9. Funkcje charakterystyczne 202 R o zk ła d y stabilne. Z podstawowych własności funkcji charakterystycznych wy­ nika, że jeśli X , X i, X 2, . .. są niezależnymi zmiennymi losowymi o tym samym rozkładzie Cauchy’ego (z funkcją charakterystyczną e- ^ ), to X i + X 2 + ... + ~ nX, (2) czyli rozkład sumy różni się od rozkładu pojedynczego składnika tylko parame­ trem skali. Innym znanym rozkładem o tej własności jest A/"(0,1). Wtedy X i + X 2 + . . . + X n ~ nl/2 X. (3) W rozdziale 13, poświęconym procesowi Wienera, można znaleźć jeszcze inny przykład: dodatnia zmienna losowa o dystrybuancie 2(1 — $ ( 1 /t/x)) dla x ^ 0, gdzie $ jest dystrybuantą rozkładu A f (0,1). We wzorach (2) i (3) pojawia się wtedy czynnik n2. Są to przykłady rozkładów stabilnych. Rzut oka na funkcje charakterystyczne rozkładu Cauchy’ego i rozkładu Af (0,1) może podsunąć pomysł, że gdyby dało się udowodnić, że e- ^ jest funkcją charakterystyczną (powiedzmy, dla a ^ 0), mielibyśmy całą klasę symetrycznych rozkładów stabilnych, przy czym we wzorze (3) pojawiłaby się stała n1/r“ . Aż tak dobrze nie jest. Oto zadanie na ten temat. 10. Udowodnić, że ip(t) — e- ^' nie jest funkcją charakterystyczną dla a > 2. Nietrudno wykazać, że <p(t) = e - ^ jest funkcją charakterystyczną dla 0 < a ^ 1: 11. Udowodnić, że każda funkcja <p parzysta, przedziałami liniowa, wypukła na [0, oo) i taka, że <¿>(0) = 1 jest funkcją charakterystyczną. 12. K ry teriu m P ólya. Udowodnić, że każda funkcja tp parzysta, wypukła na [0, oo) i taka, że <p(0) = 1 jest funkcją charakterystyczną. Wykazać, że w szczególności ip(t) = e- ^ jest funkcją charakterystyczną dla 0 < a ^ 1. 13. Podać przykład dwu różnych funkcji charakterystycznych, równych na pew­ nym przedziale. Nieco trudniej udowodnić, że <p(t) = e ~ ^ jest funkcją charakterystyczną dla wszystkich a € (0,2). Poniżej przedstawiamy argument wzięty z rozważań astro­ nomicznych, ale zredukowany do sytuacji jednowymiarowej. Załóżmy, że uogól­ niona siła grawitacji jest odwrotnie proporcjonalna do odległości w potędze /3, 0 > 0. 14. Na odcinek [—n, n] rzucono losowo (zgodnie z rozkładem jednostajnym) n gwiazd o jednostkowych masach. Wyznaczyć funkcję charakterystyczną gra­ nicznego rozkładu siły grawitacji w punkcie 0. Dla jakich ¡3 rozkład graniczny istnieje? Podamy teraz ogólną definicję rozkładu stabilnego. D efinicja 6 . Niech X ,X \ ,X 2, ■■■ będą niezależnymi zmiennymi losowymi o tym samym rozkładzie \l. Rozkład ¡i nazywamy stabilnym, gdy dla każdego n istnieją stałe an > 0 i bn, dla których X i H- X 2 - { - . . . + X n ^ anX + bn. §9.3. Twierdzenie Bochnera i wzory na odwrócenie 203 Jeśli b„ = 0 dla każdego n, to rozkład nazywamy ściśle stabilnym. Jeśli rozkład stabilny jest symetryczny, to jest ściśle stabilny, ale nie na odwrót (por. trzeci z przytoczonych tu przykładów). Okazuje się, że dla danego rozkładu stabilnego stałe an są postaci n1/a, gdzie a 6 (0,2]. Wtedy rozkład nazywamy a-stabilnym. Po co badać rozkłady stabilne? One i tylko one mogą się pojawiać jako rozkłady graniczne unormowanych sum niezależnych zmiennych losowych o tym samym rozkładzie, czyli wyrażeń postaci X\ -f- . .. + X n —bn an Z takimi sumami mieliśmy już do czynienia w prawach wielkich liczb, gdzie jed­ nak rozkład graniczny jest trywialny. Z nietrywialnym rozkładem granicznym będziemy mieli do czynienia wkrótce. Teoria rozkładów stabilnych została zapoczątkowana przez Paula Levy’ego (1924) i istotnie rozwinięta przez Aleksandra Chinczyna i W. Doeblina3 (1939). R o z k ła d y graniczne unorm owanych sum. Za pomocą funkcji charaktery­ stycznych można otrzymać prosty dowód jednej z wersji prawa wielkich liczb i centralnego twierdzenia granicznego (w całej ogólności udowodnimy je w na­ stępnym rozdziale). 15. P ra w o wielkich liczb Chinczyna. Udowodnić T w ierdzenie 7. Niech X ,X \ ,X 2, ... będą niezależnymi zmiennymi loso­ wymi o tym samym rozkładzie i niech EX = 0. Wtedy + ... + Xn n p^ 16. C en tralne tw ierdzenie graniczne. Udowodnić T w ierdzen ie 8. Niech X ,X i , X 2, ... będą niezależnymi zmiennymi loso­ wymi o tym samym, rozkładzie, niech £ X = 0 i T>2X — 1. Wtedy x 1+ . + X n ^ ( 0^ y/Tl 17. Korzystając z twierdzenia 8 udowodnić twierdzenie de Moivre’a-Laplace’a. § 9.3. Twierdzenie Bochnera i wzory na odwrócenie Widzieliśmy już, że z funkcji charakterystycznej można odczytać momenty rozkładu, więc łatwo uwierzyć, że dałoby się odczytać dystrybuantę (i gę­ stość, jeśli istnieje). Do tego cełu służą wzory na odwrócenie. Za ich pomocą dokończymy dowód twierdzenia Bochnera (9.1.6). 3Matematyk belgijski, zginął młodo w czasie II W ojny Światowej. Rozdział 9. Funkcje charakterystyczne 204 T w ierdzen ie 1 (T ożsa m ość P arsevala). Niech tp i ip będą funkcjami To nie jest tytuł powieści Ludluma. charakterystycznymi rozkładów prawdopodobieństwa fi i v . Wtedy / oo r oo / e ~ i3t<p(s)v(ds) = ( 1) ip(x — t) fi(dx). J —oo •oo D o w ó d . Wystarczy scałkować obie strony oczywistej równości / OO -OO względem miary u i zamienić kolejność całkowania po prawej stronie. ■ Wyznaczymy teraz dystrybuantę za pom ocą funkcji charakterystycznej. T w ierdzen ie 2. Jeśli u jest punktem ciągłości dystrybuanty F o funkcji charakterystycznej ip, to F (u) = lim i" U - ( X e - isV (s )e - s2/2“ 2 ds “- “ 7-00 L2ir 7-oo dt. D o w ó d . Niech fi będzie rozkładem prawdopodobieństwa z dystrybuantą F i funkcją charakterystyczną ip. Dalej, oznaczmy przez 7 a, a > O, gęstość rozkładu M (O, a2) , a przez ipa — jego funkcję charakterystyczną. Mamy $ a (t) 7o ( * ) = ~ 7 i ( - ) . a \a / y/2n = ■71 {at). ( 2) Tożsamość Parsevala (1) przybiera postać / poo oo e~isi<p(s)ya(s) ds = / (3) ipa( x - t ) f i ( d x ) , J —o o -oo co po uwzględnieniu zależności ( 2 ) daje / °° 1 /s\ f°° ^ 'tt/ J —OO e ~ zstip(s)~ 7 i ( - ) ds = V 2 tt / -C O 71 (a(x - i)) fi(dx), (4) czyli 1 — r°° / •? r°° e~lsV (s )e _s2/2a d s = / J —00 (5) 7 1/a(x - 1) fi(dx). —00 Po prawej stronie rozpoznajemy gęstość splotu fi * 7 i / a, zatem lewa strona także jest gęstością tego rozkładu. Oznaczmy jego dystrybuantę przez F a. sł • Oczywiście przy a —» 00 mamy fi * 71 / a — >fi, zatem w punktach ciągłości dystrybuanty F jest U P i /'O O / -00 / L27T e - isV ( s ) e - s2/ 2a2 ds dt. (6 ) § 9.3. Twierdzenie Bochnera i wzory na odwrócenie 205 Wyznaczyliśmy zatem F za pomocą funkcji charakterystycznej tp. ■ Otrzymujemy natychmiast znany już wniosek: funkcja charakterystyczna wyznacza jednoznacznie rozkład. Twierdzenie 3 (O odwrotnym przekształceniu Fouriera). Rozkład prawdopodobieństwa /i, który ma całkowalną funkcję charakterystyczną <p, ma także ograniczoną i ciągłą gęstość f , daną wzorem f(x)=2nj 1 SXV >(s)ds- r°° 61 (7) D o w ó d . Ponieważ funkcje podcałkowe we wzorze (6 ) są wspólnie ograni­ czone (co do modułu) przez całkowalną funkcję \<p\, można wejść z granicą pod znak całki. Widać wtedy, że / jest gęstością rozkładu prawdopodobień­ stwa fJ,. Ciągłość i ograniczoność funkcji / są oczywiste (por. tw. 9.1.3). * W niosek 4. Nieujemna funkcja charakterystyczna tp jest całkowalna wtedy i tylko wtedy, gdy gęstość f jest ograniczona. D o w ó d . Konieczność warunku została już udowodniona w poprzednim twierdzeniu. Załóżmy więc, że / ^ M . Ze wzoru (5) po podstawieniu t = 0 otrzymujemy 1 — Z*00 J g <p(s)e~s2/2a ds = j /*00 7 l/a (ar)/(ar)dar < M. Funkcja podcałkowa po lewej stronie jest nieujemna, i gdyby tp nie była całkowalna, lewa strona zmierzałaby do nieskończoności przy o —» o o . ■ Twierdzenie 5 (Tożsamość Plancherela). Jeżeli rozkład prawdopodo­ bieństwa ¡i ma gęstość f i funkcję charakterystyczną tp, to \<p\2 jest całko­ walna wtedy i tylko ¡wtedy, gdy f 2 jest całkowalna. W tym przypadku / OO -i fO O f 2( y ) d y = — J \<p{t)\2 dt. ( 8) D o w ó d . Zauważmy, że \tp\2 jest funkcją charakterystyczną symetryzacji rozkładu /1, tj. rozkładu [¿*¡1, gdzie p.{A) = n {—A ) dla A € B ( R ). Gęstością tego rozkładu jest splot h — f * f , gdzie f (x ) = / ( —ar): / OO f ( y - x ) f (y ) dy. (9) -oo Jeśli funkcja \tp\2 jest całkowalna, to h jest na mocy tw. 3 ciągła i ograni­ czona, zaś wzór (7) po podstawieniu ar = 0 daje (8 ). Rozdział 9. Funkcje charakterystyczne 206 Na odwrót, jeśli f 2 jest całkowalna, to z nierówności Schwarza zastosowanej do (9) wynika, że h jest ograniczona. W tedy na mocy wniosku 4 funkcja \ip\2 jest całkowalna. ■ W n iosek 6 . Jeśli f i g są gęstościami, a ip i tp — ich funkcjami charakte­ rystycznymi, to f 2 i g 2 są całkowalne wtedy i tylko wtedy, gdy są całkowalne |ip|2 i |^|2. W takim przypadku mamy / OO -i rO O }{y)g{y)dy = ^ J ________ (10) <p(t)f(t) dt. D o w ó d . Wystarczy zastosować twierdzenie 5 do gęstości ( / + g ) / 2. ■ Możemy teraz podać dowód dostateczności w twierdzeniu Bochnera (tw. 9.1.6). D o w ó d . Z ciągłości ip wynika istnienie, a z dodatniej określoności — nieujemność poniższych całek: fn {x) = f [ 2nn J0 Jo e~ łX(u~ v)cp(u - v) dvdu ^ 0 . Zamieniając zmienne na u, t = u — v, otrzymujemy f n(x) = ± e~itx ( l - M ) dt. (U) Pokażemy, że f n jest gęstością rozkładu prawdopodobieństwa pewnej zmien­ nej losowej (oznaczmy ją X n) o funkcji charakterystycznej <Pn{t) = ^1 - ^ < p ( i ) l [ _ nin](i). W tym celu wykorzystamy funkcje $ «(*) = £ ( l - ^ ) ![-« ,.] (*), czyli gęstości rozkładów prawdopodobieństwa o funkcjach charakterystycz­ nych f a{t) = (tabela 2 , §9.1). Pomnożymy teraz obie strony równości (11) przez if)a(x)ezux i po scałkowaniu względem x otrzymamy 207 § 9.3. Twierdzenie Bochnera i wzory na odwrócenie Wzór na odwrócenie (7) zastosowany do prawej strony (12) dla pary funkcji 9a, i>a daje / CO /»CO / fn(x)tpa(x)e‘ux dx = ga(t - u)ipn(t) dt. (13) J —oo -co Jeśli podstawimy w (13) u = 0 i weźmiemy a —>0, otrzymamy f J —C f n{x)d x = <£n(0 ) = 1 , zatem f n jest gęstością. Jeśli a —>0, lewa strona (13) zmierza (na mocy tw. Lebesgue’a o zbieżności zmajoryzowanej) do funkcji charakterystycznej rozkładu prawdopodobień­ stwa o gęstości f n. Prawa strona jest wartością oczekiwaną <pn względem rozkładu prawdopodobieństwa o gęstości ga(t — u). Ponieważ rozkładem granicznym jest Sn, wprost z definicji słabej zbieżności wynika, że prawa strona zmierza do (pn(u )■ Zatem ipn jest funkcją charakterystyczną odpo­ wiadającą f n. Udowodnimy teraz jędrność ciągu rozkładów o gęstościach f n. Z tożsamości Plancherela (10) mamy / OO 2 9 a {x )fn {x )d x - — fO O / dt, ^ J — oo -OO czyli Ponieważ i r°° i / il>a( t ) d t = 27T J _ co Oj — (tw. 3 o odwrotnym przekształceniu Fouriera dla x = 0), to dla ustalonego h > O z postaci ipa(t) mamy ^ J ^ > h '4’a{t) dt —» 0 , gdy a —> oo (z twier­ dzenia Lebesgue’a) i ^ J ^ < h ipa(t) dt —> 1. Zatem gdy a —> oo, to prawa strona (14) zmierza do 1 (jednostajnie względem n). Stąd dla dowolnego e > 0, P {\X n\ sj K ) = j f n( x ) d x > J ^ ( l - ^ f n{ x ) d x > l - £ dla dostatecznie dużych K . Wobec tego (X n)n jest rodziną jędrną, można zatem wybrać podciąg X nk zbieżny do pewnej zmiennej losowej X , dlatego te M = ^71 f\ 1 ~ — ')^ ’(i ) 1[-n,n](i) = <p(t) Tl j jest funkcją charakterystyczną. ■ Rozdział 9. Funkcje charakterystyczne 208 Zadania 1. Wykazać, że dla rozkładu prawdopodobieństwa f.t o funkcji charakterystycz­ nej <f zachodzi wzór fi({c}) = f lim a —i-oo Zd I e~2CS<p(s)ds. j —a 2. Wyznaczyć lim 57 I/ a —»oo Z a Rozkład bezatomowy to inaczej rozkład o ciągłej dystrybuancie. |¥>(s)|2 c£s, J —a gdzie ip jest funkcją charakterystyczną rozkładu ¡x. 3. Wykazać, że rozkład prawdopodobieństwa p, o funkcji charakterystycznej ip jest bezatomowy wtedy i tylko wtedy, gdy im 2a J/ —a |<^(s)|2 ds = 0 . f4. Twierdzenie Sheppa. X i Y są niezależnymi zmiennymi losowymi o tym samym rozkładzie i zerowej średniej. Wykazać, że £\X + Y\ > £ \ X - Y \ . § 9.4. Wielowymiarowe funkcje charakterystyczne Jeśli X jest wektorem losowym, zdefiniujemy funkcję charakterystyczną i Nie chce mi się p x ■R n —> C wzorem tego pisać. B. Linda <px(t) = £ e ^ ’x \ t e R n. Odpowiednie twierdzenia dowodzi się metodami takimi, jak w przypadku jednowymiarowym. Pozostawiamy to Czytelnikowi jako ćwiczenie. Zwróćmy uwagę, że jeśli X = ( X x , . . . X n) i t = (ij, O,. . . 0), to <px(t) = ip x ^ h ). Z wielowymiarowej funkcji charakterystycznej można zatem bez trudu od­ czytać informacje o rozkładach brzegowych jedno- i wielowymiarowych. Z definicji widać także, że funkcja charakterystyczna wektora losowego X jest wyznaczona jednoznacznie przez rozkłady zmiennych losowych ( t ,X ) , gdzie t € R n. Wraz z twierdzeniem o jednoznaczności daje to godny uwagi wynik, nie do uzyskania — o ile nam wiadomo — bez transformacji Fo­ uriera: miara probabilistyczna na R n jest wyznaczona jednoznacznie przez miary półprzestrzeni. Odpowiednik wzoru (9.1.2) przybiera postać <PAX+b(.s) = el(s'b^ipx (A ts), gdzie b € R n, zaś A :R " —> R n jest odwzorowaniem liniowym. Wykorzy­ stamy ten wzór w poniższym przykładzie. § 9.4. Wielowymiarowe funkcje charakterystyczne ; 209 P rz y k ła d 1. Obliczymy funkcję charakterystyczną n-wymiarowego roz­ kładu normalnego. Zaczniemy od zmiennej losowej Y = (Y i,. . . Yn) o standardowym rozkładzie N (0 , 1). Mamy V Y (t) = £ e i^ + - +t^ = e -4 £ * ? = e-i<*-‘ >. Jeśli X = A Y , gdzie A : R " —> R n jest odwzorowaniem liniowym, to <px(s) = e” ^ '4<s,Als) = e ~ i ( AA‘ 3,s) = e ~ i( Qs's\ gdzie Q jest macierzą kowariancji (por. §5.6 i §5.10). | Wreszcie dla najogólniejszego rozkładu normalnego, czyli rozkładu zmien­ nej losowej X = A Y + m , m € R ", mamy (1) ipx(t) = ei<m’t)e - ^ Qi’tK Postać tego wyrażenia można było zresztą przewidzieć na podstawie zna­ jomości jednowymiarowej funkcji charakterystycznej. ■ i | i Postać funkcji charakterystycznej wielowymiarowego rozkładu normalnego sugeruje naturalną modyfikację jego definicji. Na razie macierz Q musi być dodatnio określona. Zauważmy jednak, że jeśli Q jest nieujemnie określona, : Q e = Q + e l , to macierze Q e są dodatnio określone dla s > 0. Z kolei bio­ | i S | | rąc £ —> 0 widzimy, że rozkład o funkcji charakterystycznej danej wzorem (1) jest granicą rozkładów normalnych. Jeśli macierz Q nie jest dodatnio określona, taki rozkład jest skupiony na podprzestrzeni niższego wymiaru i rozpatrywany na tej podprzestrzeni ma tam gęstość gaussowską (z wyjątkiem skrajnego przypadku rozkładu jednopunktowego). Od tej chwili więc rozkład normalny definiujemy jako rozkład o funkcji charakterystycznej danej wzorem (1), gdzie macierz Q jest nieujemnie określona. i I Sformułujemy teraz kryterium niezależności zmiennych losowych. ; i T w ierd zen ie 2. Zmienne losowe X i , . . . X n są niezależne wtedy i tylko jest normalny! wtedy, gdy [ <P(X1,...,Xn) { t l , • • - , t n ) = < P X i ( t l ) ■ ■■■■ <PXn { t n ) - i D o w ó d . Warunek jest oczywiście konieczny, dostateczność wynika z twier­ dzenia o jednoznaczności, bowiem produkt rozkładów jiXl , ■ ■ ■ , ma funkcję charakterystyczną .. . tn) = ■■■■■ V x n{tn)- ! \ Poniższe twierdzenie pozwala sprowadzać badanie zbieżności w R* do ba­ dania zbieżności w przypadku jednowymiarowym. T w ierd zen ie 3 (C ram era—W old a ). Jeżeli X , X \ , X 2 , ■■■ są wektorami \ losowymi o wartościach w H k, to X n ; { t ,X n} i i (t , X } dla każdego t e R fc. X wtedy i tylko wtedy, gdy Teraz rozkład jednopunktowy Rozdział 9. Funkcje charakterystyczne 210 D o w ó d . Konieczność jest oczywista, bo funkcje cos (i, •), sin (i, •) są ciągłe i ograniczone. Dostateczność. Gdy ( t ,X n) -^+ ( t ,X ) , to z definicji słabej zbieżności £et m ^ £ e i(t,x)t czyli dla każdego t mamy <pxn{t) —*■'<Px{t), zatem z tw. Levy’ego-Cramera Xn ^ X .m Zadania 1. Twierdzenie Kaca. Wykazać, że jeśli X , Y są ograniczonymi zmiennymi losowymi spełniającymi warunek £ ( X kY l) = £ X k£ Y l dla k,l całkowitych nieujemnych, to X i Y są niezależne. Uwaga. W świetle tw. 2 jest oczywiste, że zmienne losowe X i Y są nieza­ leżne wtedy i tylko wtedy, gdy £ (<p(X)ip(Y)) = £<p(X)£i/>(Y) dla wszystkich funkcji ciągłych i ograniczonych ip, ij) (wynik ten daje się oczywiście otrzymać i bez funkcji charakterystycznych). Twierdzenie Kaca pozwala na zawężenie rozpatrywanej klasy funkcji. Jeśli Y = 1a , kryterium niezależności jest jesz­ cze prostsze: wystarczy, by £ (<£>(X)1a) = £<p(X) ■P(A). Wykorzystamy to w dowodzie tw. Dynkina-Hunta (13.4.1). Pożytki z funkcji charakterystycznych doskonale ilustruje następne zadanie, za­ wierające stosunkowo prosty dowód niezależności przyrostów procesu Poissona. *2. Udowodnić, korzystając z twierdzenia 2, że proces Poissona (patrz przykład 5.8.21) jest procesem o przyrostach niezależnych i że Nt —N 3 ma rozkład Poissona z parametrem A(t —s). Wsk. Udowodnić Lemat 4. Niech h: R-|_ —>C będzie funkcją mierzalną, |/i| ^ 1, i taką, że h — 1 ma nośnik ograniczony. Wówczas Y — określoną, całkowalną i h(Sk) jest zmienną losową dobrze £ Y = eXJ r (h<-u)- 1)du Wiemy, że Nt = l[o,t)(Sfc)- Niech dla B e B( R) CO 1B ( S k ) = # { k > 1: Sk £ B } . N (B ) = k=l Wykazać |■|oznacza tu miarę Lebesgue’a. Stwierdzenie 5. Jeśli B i ,B 2, . . . , B „ 6 £5(R+) są rozłącznymi zbiorami ogra­ niczonymi, takimi, że \Bj\ > 0, to N ( B i ) , . . . , N ( B n) są niezależne i zmienne losowe N ( B i) mają rozkład Pois(A|Si|). Rozdział 10 Centralne twierdzenie graniczne §10.1. W prowadzenie W zadaniu 9.2.16 udowodniliśmy najprostszą wersję centralnego twierdze­ nia granicznego dla niezależnych zmiennych losowych o tym samym rozkła­ dzie. Teraz udowodnimy znacznie ogólniejsze twierdzenie tego typu. Mówi ono mniej więcej tyle, że suma dużej liczby niezależnych składników o skoń­ czonej wariancji, gdzie żaden składnik nie dominuje, ma w przybliżeniu rozkład normalny. Tłumaczyłoby to wszechobecność rozkładu normalnego w zadaniach „z ży­ cia” . Można rozsądnie argumentować, że wzrost, waga, iloraz inteligencji i inne mierzalne cechy osobnicze, zależne od wielu czynników genetycznych i środowiskowych, powinny mieć rozkład zbliżony do normalnego1. Argu­ menty takie są jednak często nadużywane2. W dalszym ciągu będziemy rozpatrywać tablice zmiennych losowych po­ staci ( X ntkn), gdzie kn —* oo, n = 1 ,2 ,__ Założymy, że zmienne losowe w każdym wierszu, czyli X n<i, X n,i , ••., X n^ n są niezależne. Taką tablicę nazwiemy schematem serii. Dla wygody przyjmiemy kn = n. Wszystkie twierdzenia i rozumowania z tego rozdziału pozostają w mocy dla ogólniej­ szych schematów serii po oczywistych modyfikacjach. Znaną już wersję centralnego twierdzenia granicznego można sformułować w języku schematów serii. Jeśli ( X n) jest ciągiem niezależnych zmiennych loso­ wych o tym samym rozkładzie i wariancji a2, definiujemy X H)k = X k /a y /n dla k ^ n. Mamy wtedy £ X n^ = 0, Y?k=i ^ a ponadto wszystkie 1Albo do logarytmicznie-normalnego. Zmienna losowa X ma taki rozkład, gdy log X ma rozkład normalny. Czasami bowiem wpływ niezależnych czynników na daną cechę może mieć charakter multiplikatywny, nie addytywny. 2Jak zauważył Stanisław Kwapień, w zastosowaniach statystycznych zarówno śred­ nica jabłka, jak i jego waga miewają rozkład normalny. Co mógłby odpowiedzieć na to statystyk? 211 Nieujemna zmienna losowa nie może mieć rozkładu normalnego. 212 Rozdział 10. Centralne twierdzenie graniczne zmienne losowe w wierszu mają ten sam rozkład (a więc żaden składnik nie dominuje; por. zad. 2). W tedy rozkładem granicznym dla sum elementów wierszy jest rozkład normalny. Postulat, by żaden składnik nie dominował, będzie wyrażony za pomocą następującego warunku: Powiemy, że schemat serii { X ntk) spełnia warunek Lindeberga, jeśli dla każdego r > 0 1 L n {r ) = ~2 n sn fc=i { ( X n ,k ~ £ X n<k) l { | X „ ifc- £ X „ ii | > r s „ } ) > 0, gdzie s 2 = £]fc=i V 2( X n<k)- Zastępując zmienne losowe X n>k przez Xn,k Sji } widzimy, że bez straty ogólności możemy zakładać, iż £ X nj c = 0 , s* = 1 . Taki schemat serii nazwiemy znormalizowanym. U w aga 1 . Gdy znormalizowany schemat serii spełnia warunek Lindeberga, to a) na wariancję sumy wiersza mają wpływ wszystkie wariancje składników: maxfc^n - » 0 , gdy n - * oo. Istotnie, o * tk < r 2 + £ [ x l k l{|x„,fc|>r}) < r 2 + Ln(r); b) X 7l)ic są asymptotycznie małe, czyli dla dowolnego r > 0 m a xP (\ X ntk\ > r ) -------►0 . k^n n—*oo Na zakończenie warto zwrócić uwagę, że nie zakładamy nic o związkach po­ między poszczególnymi wierszami: zmienne losowe z każdego wiersza mogą być określone na osobnej przestrzeni probabilistycznej. Następujące twierdzenie rozstrzyga kwestię dokładności przybliżenia w central­ nym twierdzeniu granicznym, o ile założymy istnienie trzeciego momentu. Twierdzenie 2 (Berry—Esseen). Jeśli (X n) jest ciągiem niezależnych zmien­ nych losowych o tym samym rozkładzie i £\Xi\3 < oo, Sn = X L + ... + X n, sup igR * (1) a = V V TX ł, 1/V % k sj C < 0,8. Bez dodatkowych założeń o zmiennych losowych rzędu oszacowania nie można po­ prawić. Dla schematu Bernoulliego prawa strona (1) jest równa C(p2 + q2)/ ^/npq, z czego wynika tw. 7.6.12. Prosty przykład (oparty na podobnym ciągu zmiennych losowych) pokazuje, że C ^ l /\ /2 i i rząd oszacowania 1/y /n nie da się polepszyć. § 10.2. Twierdzenie Lindeberga-Levy’ego 213 Przykład 3. Niech ([/„) będzie ciągiem Bernoulliego. Wtedy z symetrii wynika, że p[Y^Uk<0)+p[YlUh=0)= 2 1’ zatem I. 2 = 2n 2 y /m i ____ L y /2 n y /n ' Zadania 1 . Udowodnić uwagę 1 b). 2 . Sprawdzić, że jeśli Ji, X 2, ... są niezależnymi zmiennymi losowymi o tym samym rozkładzie, £ X = 0 , V ‘2X = 1, i X n,k = Xk/y/n, to schemat serii (X nth) spełnia warunek Lindeberga. 3. Udowodnić, że warunek Lagunowa: dla wszystkich n, k naturalnych i dla pewnego 5 > 0 jest £ |X„,fc|2+i < oo oraz n lim n— »oo -st,L Y n £ \X " * - £ X *,k\2+S = 0 , k=1 pociąga za sobą warunek Lindeberga. 4. Udowodnić, że gdy X i, X 2, ... są niezależnymi zmiennymi losowymi takimi, że \Xn\ ^ K < oo, n — 1,2,... oraz s2 = X)ł=i ~> °°> to (-^n) spełnia warunek Lindeberga (oznacza to, że warunek ten jest spełniony dla schematu serii (X n,k), gdzie X nik = Xh dla fc ^ n). § 10.2. Twierdzenie Lindeberga-Levy’ego Poniższe twierdzenie zostało udowodnione przez J. W . Lindeberga w 1922 roku, jako uogólnienie wielu częściowych wyników. T w ierd zen ie 1 . Niech (X n,fc) będzie znormalizowanym schematem serii. Jeśli spełnia on warunek Lindeberga, czyli dla każdego r > 0 n n1™ o E f X n,fcl{|X„,fc| > r}= 0. k- 1 to ¿ X n,fc- ^ j V ( 0 , l ) . k= 1 P(Un = ±1) = 1/ 2 . Rozdział 10. Centralne twierdzenie graniczne 214 W dowodzie skorzystamy z dwóch nierówności. Pierwsza jest oczywista: le1 - 1 - x | < x2, a : e [- |,|]. (1) Oto druga (łatwy dowód indukcyjny pomijamy): niech a x, . . . , an, bi . . . bn 6 € C i |aj|, \bi\ < 1 dla i = 1, 2,.. .n . Wtedy |ai ■... - an - 6i •... •bn\ < |«i - 6i| + . . . + \an - bn \. ( 2) D o w ó d twierdzenia 1. Ustalmy t € R . Niech Z n = 5Dfc= 1 X n]Jt, ipntk = ^ <PXn ,k , &n,k £ X n,k‘ Wykażemy, że ipzn( t ) -------*■e_t ^2, czyli do funkcji charakterystycznej rozn —*■oo kładu A f (0 , 1). Niezależność zmiennych losowych w każdym wierszu daje V z A t) = II ^ { t ) , k-1 a zatem na mocy nierówności ( 2) I <pzn(t) ~ e i2 /2 l = k= 1 k=l W yraz itXn^ można swobodnie dopisać, b o ma średnią zero. *=i = £ |f { * itXn'k - 1 - a * » .* + K * « , * ) + 1 fe=i fc=l < £ |£ ( e 4« - - - 1 - itXn,k + | i2X 2,fc) ¡ + ¿ 1 1 - i i 2< fc= l ” < fc - e ~ < * i2/ 2 | fc= 1 P n ( t ) “t- ^ n (i)* Wykażemy, że oba wyrażenia po prawej stronie zmierzają do zera, gdy n —» oo. Aby oszacować pn(i), sumę wartości bezwzględnych całek rozbijemy na dwie sumy: całek po zbiorze {\ X „tk\ < r } i {|^n,fc| > r }. Na mocy nierówności A.1.4(c) pierwsza suma szacuje się przez Y ^ 5 li3X n,fcl1{l^u,tKr} [¿I3 - A 2 _ |i|3 ^ 6 < 6 r 2 ^ an , k - ~ ^ r . k= 1 k~l Do oszacowania drugiej sumy posłużymy się nierównością A.1.4(b) zasto­ sowaną do £ (euXn-k — 1 — it X nik). Cała druga suma nie przekracza wtedy n ^ ^'^■n,k^{\Xn,k\>r} k= 1 L n(r). § 10.2. Twierdzenie Lindeberga-Levy’ego 215 Zatem ifl3 o < pn(t) < — r + t2L n(r). O Rutynowy argument pokazuje, że pn(t) —> 0, gdy n —> oo: ustalamy e > 0, wybieramy r takie, że r|i|3/6 < e/2; istnieje takie N , że dla n > N zachodzi nierówność t2L n(r) < e/2, a zatem pn(i) < £ dla n > tiq. Pozostaje wykazać, że vn(t) —>0, gdy n —» oo. Na mocy (1) i uwagi 10.1.la 7i n M i) < E < I i4(maxcr^fc) •J 2 an,k = k=1 ''rl ^ °- fc=l Kończy to dowód twierdzenia. ■ Warunek Lindeberga nie jest konieczny dla zbieżności rozkładów zmiennych losowych Z n do N (0,1), co pokazuje oczywisty P rzy k ła d 2 . Niech wszystkie zmienne losowe X n^ w schemacie serii mają rozkłady Af ^0, cr2 ^ . Załóżmy, że pierwsza zmienna losowa w wierszu ma rozkład Af (0, §) (pozostałe mogą mieć np. równe wariancje, byleby suma wariancji w wierszu wynosiła 1). Wtedy warunek Lindeberga nie jest speł­ niony, ale CTG zachodzi, bo Zn ~ Af ( 0 , 1). ■ W powyższym przykładzie jeden ze składników wiersza dominuje. Jeśli to wyklu­ czymy, warunek Lindeberga okaże się konieczny. Twierdzenie 3 (Fellera). Jeśli zmienne losowe (X n,k) tworzą znormalizowany schemat serii i X)ł=i X n,k — >Af (0 , 1), a ponadto maxi>2X n,k ------ >0, k^n n —*oo to zmienne losowe (X Utk) spełniają warunek Lindeberga. Dowód . Wykażemy, że równość n n - J ^ lo g <Pn,k(t) fc=1 + = R n (t), (3) k= 1 definiuje funkcje Rn(t), gdzie i?„(t) —» 0 dla n —>oo. Z nierówności A.1.4(b) wynika, że: |1 - <Pn,k(t)\ = \£ ( ¿ t X n ’k - 1- i t X n ,k ) | ^ j£ X n ,/e - (4) Na mocy założenia mayikąn £ X 2 k ~“* 0, co gwarantuje istnienie logarytmów w (3). Oszacowanie na Rn(t) dla dostatecznie dużych n wynika z równości log z = = ( z - 1) + log(l + z - 1) - (z - 1), z A.1.2, A.1.4(b) i (4): Rozdział 10. Centralne twierdzenie graniczne 216 | Ä » ( i) l ^ - !|2 ^ m a x ie n ,i ( i ) - 1| ■¿ I v 5 n , f c ( i ) - 1 K fc=l fc=x n 2 2 ^ i - •max|^„,fe(i) - 1|■y ^ £ X „ k = 2 k < n *— J •max|<pniłi(i) - 1|------ >0 . Z fc=l n —»00 k< n Ustalmy teraz e > 0. Lewa strona (3) zmierza do ^i2, zatem i część rzeczywista prawej strony ma tę samą granicę. Oznacza to, że -t2 2 (l — co stx)ßn,k(,dx) = Y ] / I fc=l ^|x|<£ (1 -c o s t x ) ß n,k{dx) + R eR „(t), fc = i^ N > ® gdzie jUn,fc jest rozkładem zmiennej losowej X,,^. Funkcja podcałkowa po prawej stronie nie przekracza 2 < 2x2/e 2, po lewej zaś t2x 2/ 2. Korzystając z tego i dzieląc obie strony przez |i2, otrzymujemy 1 —^ ' i *:=i x ß n<k{dx) Si » + Ij 1-^nWI- Prawa strona może być dowolnie mała, jeśli wziąć dostatecznie duże t i dobrać dostatecznie duże n. Zatem i lewa strona zmierza do zera, co daje warunek Lindeberga. ■ sł Z zad. 8.3.2 wiemy, że gdy F n — > F i F jest ciągła, to dystrybuanty F n są zbieżne jednostajnie do F . Stąd wynika oczywisty, ale bardzo pożyteczny wniosek, z którego korzysta się stale w typowych zadaniach: W n io se k 4. (a) Jeśli (X n^ ) jest schematem serii spełniającym warunek Lindeberga, m n = £ (-Xn,i + . . . + -Xn,n)> sn = 'D2 x n,i + •••+ T>2X ntn, to $ jest dystrybuantą rozkładu A f(0 ,1). 0. sup a€R- (5) (b) Jeśli ( X n) jest ciągiem niezależnych zmiennych losowych o tym samym rozkładzie, £ X \ = m , V 2X\ = a2, to sup F ( X 1 + .. . + X „ < a ) - $ ( — ~ ' 0 \/n a€R ■ 0. (6) Należy podkreślić, że oszacowania (5) i (6 ) mówią o błędzie bezwzględnym przybliżenia; nie ma gwarancji, że błąd względny zmierza do zera. Przykład 5. W § 7.4 pokazaliśmy jak obliczać całki za pomocą metody Monte Carlo. W tym i w wielu innych przykładach wykorzystuje się mocne prawo wiel­ kich liczb, a więc fakt, że dla mezależnych zmiennych losowych o jednakowym rozkładzie i —>£ X i. Ale jak szybko jest zbieżny ten ciąg? § 10.2. Twierdzenie Lindeberga-Levy’ego 217 Dla danych a, i £ możemy wyznaczyć z centralnego twierdzenia granicznego takie no, by dla n > no zachodziło P (j A; " "n ' A" -£X1\źe) ś<*. Zwykle bierzemy e i a bliskie 0. Oto rozumowanie, prowadzące do znalezienia noPonieważ _ £ X l \< e) = * ( ^ ) - $ ( - ^ ) P = 2* - l> to chcemy, by 2(1 —^(e^/n/a)) ^ a, czyli ^(e^/n/a) ^ 1 — (a /2). Znajdujemy takie ¡3, że $(/?) = 1 —[ a / 2). Z monotoniczności <3? mamy e^/n /a ^ /5, a stąd n > / ? V / e 2. Gdy nie znamy <r2, to chcąc skorzystać z tego wzoru powinniśmy znać ograniczenie cr2 ^ K . W szczególności, gdy zmienne losowe Xi liczą, czy zaszło zdarzenie A w i-tym doświadczeniu (czyli Xi = 1, gdy zaszło zdarzenie A, X t = 0, gdy nie zaszło), to £ X i = P(A) i T>2X i = P(A)(1 —P(A)) ^ 1/4, zatem ti>/3 2/4£2. ■ Zadania 1 . Józio założył się z Olkiem, że w 100 rzutach kostką uzyska w sumie nie mniej niż 400 oczek i w tym celu rozpoczął ćwiczenia. Ile serii po 100 rzutów musi średnio wykonać, żeby doczekać się takiego wyniku? 2. Na poczcie pojawia się 100 klientów dziennie, każdy z nich dokonuje wpłaty (lub wypłaty) X i, i = 1,2,...,100, gdzie X i są niezależnymi zmiennymi losowymi o tym samym rozkładzie, zerowej średniej i wariancji równej 1002. Ile gotówki należy mieć w kasie rano, by z prawdopodobieństwem 0,99 na koniec dnia nie zabrakło pieniędzy? Zakładamy, że w ciągu dnia ewentualne braki uzupełnia ze swojej kieszeni naczelnik, ale wieczorem chce odzyskać swoje pieniądze. Jak zmieni się odpowiedź, gdy jest 100 urzędów pocztowych, pracujących w A jeśli naczelnik nie chce tych samych warunkach i mogących pożyczać sobie nawzajem gotówkę? ryzykować? Do tej 3. Rzucono 1000 razy kostką. Znaleźć przybliżenie prawdopodobieństwa, że sytuacji pasuje suma oczek będzie zawarta między 3410 a 3590. nierówność 4. Dane są niezależne zmienne losowe o tym samym rozkładzie X , X i , X z , ... 7.3.1(2). i £ X = 0, 0 < cr2 = V 2X < oo. Wyznaczyć w zależności od a, a € R lim P > a 5. W Polsce jest 24,6 min podatników (dane z roku 1998) i każdy z nich myli się przy wypełnianiu zeznania podatkowego. Wartość błędu dla i-tego podatnika jest zmienną losową X i, gdzie £ X i = 0 i V 2X i = 10000, czyli %/Z>2Xi = 100 (złotych); ponadto zakładamy niezależność X z. Jaka jest szansa, że straty państwa w wyniku tych błędów przekroczą 1 grosz na podatnika? A 3 grosze? Rozdział 10. Centralne twierdzenie graniczne 218 6 . Jaś i Staś twierdzą, że posiadają zdolności telekinetyczne: Jaś rzucił 100 razy kostką i uzyskał 490 oczek, natomiast Staś w 100 rzutach monetą otrzymał 65 orłów. Który z nich ma większe zdolności telekinetyczne? Przedyskutować odpowiednie kryterium. 7. Ile partii gry w kości musiał rozegrać kawaler de Mere, żeby zorientować się w różnicy szans zajścia zdarzeń opisanych w zadaniu 2.2.18, i mieć rozsądną pewność, że wynik jest statystycznie znaczący, czyli że ewentualna różnica częstości nie jest dziełem przypadku? Tego rodzaju problem jest typowy dla statystyki; należy wymyślić i przedyskutować test statystyczny. 8 . Zmienne losowe X i, X 2, ..., są niezależne i P(Xk = k) = P ( X k = —k) = i. Niech s\ = 'D2X k■ Zbadać zbieżność według rozkładu ciągu X x + ... + X, 9. Zmienne losowe X\, X 2, ..., są niezależne i mają rozkłady U (—a,k,ük)- Niech s^, = 1'D2Xk- Zbadać zbieżność według rozkładu ciągu X 1 + . ■. + X n sn jeśli a) ciąg (ak) jest ograniczony i s n —>oo; b) jeśli ~}2ak < °°Kiedy spełniony jest warunek Lindeberga? 10. Zmienne losowe X i, X 2, ..., są niezależne i symetryczne, P ( X k = 1) = P (X k = - 1) = i ( l - fc“ 2), P { X k = k) = P (X k = - k ) = \k~2. Zbadać zbieżność według rozkładu ciągu ( Sn/ y/n ), gdzie Sn = X i + . . . + X n. Co można powiedzieć o wariancjach zmiennych losowych Sn/^/n? 11. Zmienna losowa X\ ma rozkład Poissona z parametrem A. Zbadać zbieżność według rozkładu zmiennych losowych (Xa —\ )/y /\ dla A —» oo. *12. Udowodnić, że k—l 13. Zmienna losowa X n ma rozkład x 2(n)- Wykazać, że 14. Zmienne losowe X i, X 2, . . . są niezależne, mają ten sam rozkład i S X i = Ó, V 2X i = 1. Wykazać, że § 10.2. Twierdzenie Lindeberga-Levy’ego 219 *15. Oznaczmy przez Sn liczbę inwersji, a przez Z n liczbę cykli w permutacji zbioru { 1,2,..., n}. Udowodnić, że * c S n ~ n a) j 4 D ^3/2 \r fr, ^(O .D . 16. Zmienne losowe X i są niezależne i mają ten sam rozkład: P ( X i -- a) = = P ( X i = l/a) = 1/2, przy czym a > 1. Zbadać zbieżność według rozkładu ciągu zmiennych losowych Zn = (Xi •. . . •X n) 1^'/^. 17. Wielowymiarowe C TG . Niech X , X i , X 2, . . . będą niezależnymi wekto­ rami losowymi o tym samym rozkładzie, przy czym £ X = 0 i współrzędne wektora X mają skończone wariancje. Znaleźć rozkład graniczny dla ciągu wektorów losowych „ _ X i + ... + X n Zin — .— y/n 18. W zór Stirlinga. Niech Sn = X i + . . . X n, gdzie zmienne losowe X n są niezależne i mają rozkład Poissona z parametrem 1. Udowodnić, że c f s n-n \ 1,1 (— - n \ ~ ^ { n - k \ nk ) ■” N ~ ’ gdzie N (ii) Sn ' y/n J „n+1/2 e-nnnn £N ~ = 1); 1 y/źir’ (iv) ni ~ \/2ire-n iin+1/ 2. Przypominamy, że X ~ = —min(X, 0) oznacza część ujemną zmiennej loso­ wej. 19. Niech X będzie zmienną losową spełniającą następujące warunki: (i) £ X 2 < oo; (ii) Jeśli Y i Z są niezależnymi kopiami X , to X ~ Wykazać, że X ma rozkład M (0, a2) . 20. Udowodnić, że jeśli zmienne losowe X n, n — 1,2,... są niezależne o jednako­ wym rozkładzie, £ X n = 0, £X \ = <r2, / jest funkcją różniczkowalną w zerze, to M f ( Y n ) - /(O)) M (o, a f ( Q ) f ) , gdzie Yn = i ( X i + X 2 + ... + X n). Rozdział 11 Martyngały §11.1. Momenty stopu W tym rozdziale będziemy po raz pierwszy systematycznie badać zjawi­ ska rozwijające się w czasie, dlatego też wzbogacimy matematyczny model doświadczenia losowego, czyli przestrzeń probabilistyczną (£1,3-, P ) o niemalejącą rodzinę cr-cial Tt C T . Każde takie cr-ciało Tt będziemy interpre­ tować jako rodzinę zdarzeń, o których wiadomo, czy zaszły, czy nie, jeśli obserwować doświadczenie do chwili t. P rz y k ła d 1. Jacek i Placek rzucają monetą. Jeśli wypadnie orzeł, Jacek wygrywa od Placka złotówkę, w przeciwnym razie złotówkę wygrywa Pla­ cek. Gra toczy się tak długo, jak długo obaj gracze mają pieniądze. Jacek postanawia wycofać się z gry, gdy po raz pierwszy jego wygrana wyniesie 7 zł. Notuje wobec tego swoje kolejne wygrane. Są one zmiennymi losowymi £i, £2. 6 ■••• Łączna wygrana to X n = £ " =1 n = 1 , 2 , . . . . Przyjmijmy, że X o = 0 . Chwila wycofania się Jacka z gry jest także zmienną losową, którą możemy zdefiniować tak: t7 = m i { n :X n = 7}. Jacek może się nie doczekać chwili, gdy wygra 7 zł. Jeśli nawet założymy, że uzupełnia zapas gotówki pożyczkami od rodziców, to nie jest wykluczone, że Placek chytrze podsuwa mu niesymetryczną monetę. Tak czy owak, na ogół istnieje dodatnie prawdopodobieństwo, że ty jest nieskończona. Tego rodzaju niewłaściwe zmienne losowe, o zbiorze wartości N u { o o } , będziemy w dalszym ciągu rozpatrywać dosyć często. Nasza zmienna losowa 77 ma interesującą i intuicyjnie oczywistą własność: w każdej chwili wiadomo, czy moment 77 już nastąpił, czy nie. Gdyby Jacek interesował się ostatnim takim momentem, w którym jego wygrana wyniesie 7 zł, zdefiniowanym jako <77 = sup{n: X n — 7}, to nigdy nie wiedziałby, czy taki moment już nastąpił, czy nie. ■ 220 221 11.1. Momenty stopu Jak odróżnia« zmienne losowe typu 77 od zmiennych losowych typu 0 7 ? To istotna kwestia, bowiem 77 wygląda na dość rozsądną taktykę, podczas gdy taktyka oparta na u7 jest tyle warta, co wskazówki „wysiądzie Pani na przedostatnim przystanku” ; „sprzeda Pan akcje, jak ich cena osiągnie maksimum” . W tym właśnie celu wprowadzimy rodzinę cr-ciał (J~t)teT, gdzie f 6 T będziemy zazwyczaj interpretować jako parametr czasowy. W tym rozdziale zakładamy — z dwoma wyjątkami1 — że T C { 0 , 1 , 2 , . . . } = Ń , tak jak w przykładzie 1 . Tt jest, jak już wspomnieliśmy, cr-ciałem zdarzeń, o których można powie­ dzieć, czy zaszły, czy nie, obserwując ciąg (X s) seT do chwili t. Najczęst­ szym przykładem jest rodzina T t = (j ( X s : s < i). W przykładzie 1 mamy Jo = {0 , ^ } , ponieważ X 0 = 0, więc po prostu nie ma materiału do obserwacji. T\ jest generowane przez rozbicie fl na zbiory x(l) i 1). Istotnie, w chwili 1 znamy tylko wartość zmiennej losowej J~2 jest generowane przez rozbicie ii na zbiory 1 (ei) fi £2 1 (£2), gdzie £i = ± 1 - Mamy t u f 0 C f i C . . . C f „ C T n+i C . . . C f . Teraz możemy odpowie­ dzieć na pytanie, czym się różnią zmienne losowe t-j i 0 7 . Otóż dla każdego n zdarzenie {7 7 < n } należy do c-ciała J-n, ponieważ {7 7 < n } = {£1 = 7} U {£1 + £2 = 7} U . . . U {£1 + . . . + £„ = 7 }, a każdy ze składników sumy po prawej stronie jest elementem T n. Natomiast {<77 < n } ^ T n, bo zdarzenie to zależy od zmiennych losowych o numerach przekraczających n (patrz zad. 9). Powyższy przykład stanowi uzasadnienie dla wprowadzenia następujących definicji. D efin ic ja 2. Filtracją nazywamy niemalejącą rodzinę o-ciał (Tt)tsT> gdzie F t C F dla t e T. 1Pierwszy wyjątek to maityngały z czasem odwróconym, gdzie T = —Ń , drugi — martyngal potrzebny do dowodu tw. Radona-Nikodyma, gdzie zbiór T jest tylko częściowo uporządkowany. Rozdział 11. Martyngały 222 D efin icja 3. Rodzina zmiennych losowych ( X t ) teT jest adaptowana do fil­ tracji {F t)teT , jeśli zmienne losowe X t są Tt-mierzalne dla t € T. W szczególności rodzina zmiennych losowych ( X t) teT jest adaptowana do naturalnej filtracji ( J t ) t£T, gdzie T t = cr(Xs : s ^ i), t e T. D efin icja 4 . Momentem stopu względem filtracji (J-t)teT nazywamy zmien­ ną losową t :CI —* T U {+ o o }, spełniającą warunek { r < i} e T t dla wszystkich t G T. Moment stopu nazywa się czasami momentem Markowa lub momentem zatrzymania (ang. stopping time). Podsumujmy: jeśli chcemy rozpatrywać zjawiska probabilistyczne rozwija­ jące się w czasie, to oprócz przestrzeni probabilistycznej P ) uży­ teczna będzie filtracja (Jrt)ter i rodzina zmiennych losowych ( X t) t£T — zazwyczaj adaptowana do tej filtracji. Dosyć często przyjmuje się T t = = s < i} , co automatycznie gwarantuje ostatni warunek. Wtedy T t jest rodziną zdarzeń, zależnych tylko od zmiennych losowych X s dla s < t. Zajmiemy się teraz własnościami momentów stopu. Lem at 5. Zmienna losowa r :f i —>T U { + 00 } jest momentem stopu wzglę­ dem filtracji (F t)t€T wtedy i tylko wtedy, gdy { r = t} G T t dla każdego t G T. D o w ó d , { t ^ i } = U s<i sgt{ t = skąd wynika dostateczność warunku. Konieczność wynika natychmiast stąd, że {t = 0 = { t < t} \ [J (r ^ «}• ■ Warto zdać sobie sprawę, ż e r = s jest momentem stopu względem dowolnej filtracji (zad. 2). Jeśli Ti, t 2 są momentami stopu, to Tl A r 2 = m in (n , r2), n V r2 = m a x (n , r2) są momentami stopu (patrz zad. 3). Pierwsza wizyta nie powinna trwać dłużej niż 48 godzin. Bardzo często będziemy mieli do czynienia z chwilą pierwszej (drugiej, itd.) wizyty w zbiorze borelowskim (por. T7 z przykładu 1). §11.1. Momenty stopu 223 T w ierd zen ie 6. Jeśli ( X t)t£T jest ciągiem zmiennych losowych adapto­ wanym do filtracji (J-t)t£T, to chwila pierwszej wizyty w zbiorze B 6 B( R ), zdefiniowana jako tb (w ) = in f{i e T : X t(cj) € B } , jest momentem stopu. Dowód pozostawiamy Czytelnikowi (zad. 4a; kwestia dalszych wizyt — 4b). Możemy rozpatrywać klasę zdarzeń, o których wiadomo, czy zaszły, czy nie, jeśli Obserwować doświadczenie do (losowej) chwili r. Będzie to cr-cialo T r , zdefiniowane jak następuje: D efin icja 7. Jeśli r jest momentem stopu względem filtracji (T t)teT, to T t jest klasą takich zbiorów A , że A € T i dla każdego t mamy AC\{r ^ t } E T t - Interesujące, że zależność T t C T s dla t ^ s pozostaje w mocy, jeśli t i s zastąpimy przez momenty stopu Ti Si t2. T w ierd zen ie (•?t)t€T, to 8. Jeżeli r, ti, t2 są momentami stopu względem filtracji (i) T t jest a-ciałem. (ii) Jeśli r = t, to T r = T t . (iii) A e T t wtedy i tylko wtedy, gdy A € T i { r = i }flj4 e Tt dla każdego t e T. (iv) Jeśli Ti < r2, to T T1 C T n . Dowód pozostawiamy Czytelnikowi (zadania 6-8). I jeszcze jedno twierdzenie, dotyczące mierzalności. T w ierd zen ie 9. Jeśli r jest momentem stopu względem filtracji (T t)teT, zaś ( X t) — ciągiem adaptowanym do (Tt), to: (i) Zmienna losowa r jest T r -mierzalna. (ii) Zmienna losowa X T jest T r -mierzalna na zbiorze { r < oo}. D o w ó d , (i) Trzeba wykazać, że dla każdego s mamy { r ^ s } € T t . Otóż dla każdego t € T { t ^ i } n { r sg s} = { r < i A s} £ T tAs C T t , + 00. Rozdział 11. Martyngaiy 224 więc na m ocy definicji T t jest { r ^ s } G T t , co kończy dowód. (ii) { X T < s} n { r < 00} n {t ^ i} = U ^ t {{Xu < s} n {r = u}) G Tt- ■ Dalej będziemy często korzystać z następującego spostrzeżenia: jeśli ( X n) jest ciągiem niezależnych zmiennych losowych, a r jest momentem stopu względem naturalnej filtracji (¿Fn), gdzie T n = < r (X i,. . . , X n), to zmienne losowe X n i l { T>n_i} (informująca, czy r nastąpił po chwili n — 1) są niezależne, bowiem { r > n — 1} G T n~ 1. Uogólnianie prostych i oczywistych stwierdzeń na momenty stopu prowadzi do ciekawych wyników. Jeden z nich, z elementarnym dowodem, zamiesz­ czamy poniżej. Nieco później zostanie on udowodniony za pomocą teorii martyngałów. Niech Sn = X 1 + . . - + X n; załóżmy, że zmienne losowe X { , i = 1 ,2 , . . . mają ten sam rozkład. W tedy oczywiście (1) £ S n = n ■£ X U jeśli tylko £ X \ istnieje. Nic nie stoi na przeszkodzie, by rozpatrywać sumy losowej liczby składni­ ków: jeśli N jest zmienną losową, to S n (w) = S[f[u )(w)- Niech teraz r będzie momentem stopu względem naturalnej filtracji (J-n). Zastępując po lewej stronie wzoru (1) liczbę n przez r, a po prawej — przez E t , otrzymujemy T w ierdzen ie 10 (T ożsam ość W a ld a ). Jeśli X i , X % ,. . . są niezależnymi zmiennymi losowymi o tym samym rozkładzie, £|-Xi| < 00 , zaś r jest momentem stopu względem filtracji (T n )^ -i, gdzie T n = a ( X i , . . . , X „ ) , i £ t < 00 , to: £St = £ t - £ X 1. Zwróćmy uwagę na założenie o niezależności — w wyjściowym stwierdzeniu (1) niepotrzebne. D o w ó d . Przyjmując So = 0, otrzymujemy OO OO [1{T>J- 1}^ ] = £St = Y , £ j= l j~1 00 = Y , P { T > j ) - £ X i = £ T - £ X x. j= 1 W pierwszym wierszu skorzystaliśmy ze spostrzeżenia po tw. 9 o niezależ­ ności zmiennych losowych i X j . Równość ^2JLl P ( r ^ j ) = E t została udowodniona w zad. 5.6.8. §11.1. Momenty stopu 225 Wreszcie całkowalność zmiennej losowej ST wynika z nierówności £|SV| < £ t £\X x\, którą otrzymamy, powtarzając rozumowanie dla zmiennych losowych |Xj| zamiast X t. m Zadania 1. r jest momentem stopu. Czy stąd wynika, że momentem stopu jest a) r + 1; b) t — 1? c) t 2? Rozwiązać zadanie przy założeniu, że 1) T = N, 2) X = Ń. 2. Udowodnić, że r = s jest momentem stopu względem dowolnej filtracji. 3. Niech n i T2 będą momentami stopu. Udowodnić, że n A T2 oraz n V T2 są momentami stopu. 4. Niech r będzie momentem stopu względem filtracji ( T ) t e r i niech (X t) będzie ciągiem zmiennych losowych adaptowanym do tej filtracji. a) Udowodnić, że chwila pierwszej wizyty (X s) w zbiorze B 6 B(R) po chwili r jest momentem stopu. b) Zdefiniować moment fc-tej wizyty ( X n) w zbiorze B i udowodnić, że jest on momentem stopu. 5. Niech (Xi) będzie ciągiem niezależnych zmiennych losowych o rozkładzie U[ 0,1]. Niech t = inf{n: X i + . . . + X n ^ 1}. Wyznaczyć £ r . 6. Udowodnić, że a) T r jest cr-ciałem; b) jeśli r = t, to T r = Tt7. a) Wykazać, że A € wtedy i tylko wtedy, gdy i g f i dla każdego t 6.T mamy {r = i } n A e Tt. b) Niech r i er będą momentami stopu. Wykazać, że każde ze zdarzeń: {r < er}, { t > a}, { t ^ ct}, { t ^ a), { t = a}, należy jednocześnie do T t i Ta. 8. Udowodnić, że jeśli ri ^ T2, to T ri C T t2. 9. Opisać JFt , jeśli zmienne losowe X i, i = 1,2, są niezależne, P ( X i — 1) = = P (X i = -1 ) = 1/2, Ti = <r(Xlt . . . , X i ), r = inf{n si 2: X i + ... + X n = !}• 10. Podać przykład na to, że a(r) / T r. 11. Zmienna losowa <77 z przykładu 1 nie jest oczywiście momentem stopu, ponieważ przyjmuje wartość —oo. Wykazać, że nie spełnia ona warunku inf 0 = +oo, (cr7 ^ i} £ TtSUP® = 12. Jeśli ( X n) jest ciągiem Bernoulliego, zaś r — inf{n: Sn — 1}, to £ r — oo. 13. Rzucamy kostką tak długo, aż otrzymamy wszystkie oczka. Znaleźć wartość średnią sumy wyrzuconych oczek. Rozdział 11. Martyngały 226 § 11.2. Martyngały, nadmartyngały, podmartyngały Przypomnijmy sobie grę Jacka i Placka z początku tego rozdziału. Jeśli moneta jest symetryczna, i po pewnym czasie Jacek wygrał 10 zł, to śred­ nia wartość łącznej wygranej po następnej partii wyniesie również 10 zł, zatem średni przyrost wygranej będzie równy zeru. Jeśli moneta jest niesy­ metryczna, średni przyrost wygranej będzie dodatni lub ujemny. Gra może być bardziej skomplikowana: powiedzmy, że Jacek zarządza wiel­ kim funduszem powierniczym i wygrywa lub przegrywa na skutek fluktuacji kursów papierów wartościowych. W obu sytuacjach można sobie postawić pytanie, czy odpowiednia strategia pozwoli przechytrzyć rynek. I w obu przypadkach narzędzi do analizy dostarcza teoria martyngałów. Zakładamy, że mamy ustaloną przestrzeń probabilistyczną (f2, J~, P j , filtra­ cję ęp t)teT i adaptowany do niej ciąg zmiennych losowych {x t ) teT (mogą być to wygrane Jacka w chwili t). D efin icja 1. Rodzina ( Xt,J~t)teT, gdzie zmienne losowe X t są całkowalne dla t e T jest (a) martyngałem, jeśli dla s < t, s , t € T £ ( X t \Fa) = X . , (b) nadmartyngalem, jeśli dla s < t, s , t 6 T £ { X t \Fs) < X „ (c) podmartyngałem, jeśli (—X t ,J -t)teT jest nadmartyngałem. Czasem będziemy pozwalać sobie na lekkie nadużywanie terminologii, mó­ wiąc „ciąg ( X n) jest martyngałem” , jeśli jest oczywiste, jaka filtracja wcho­ dzi w grę. Martyngał jest grą sprawiedliwą w takim sensie, że średnia wygrana w chwili s, gdy znany jest przebieg gry do chwili t (zdarzenia, o których wiadomo, czy zaszły, czy nie, jeśli obserwujemy grę do chwili i, tworzą cr-ciało T t), jest równa X t, czyli łącznej wygranej w chwili t. Podmartyngał jest grą korzystną dla gracza, nadmartyngał — niekorzystną. W takim razie w definicji martyngału można by się obejść bez formalnego wprowadzania pojęcia warunkowej Warunek z punktu a) definicji można sformułować równoważnie tak: Jeśli s, i £ T, s < t i A € , to [ X t d P = [ X 3 dP, Ja Ja §11.2. Martyngały, nadmartyngały, podmartyngały 227 a zastępując równości odpowiednimi nierównościami, otrzymujemy warunki równoważne (b) i (c). Warto też pamiętać, żę jeśli T = N, to np. zamiast a) wystarczy sprawdzić, że £ { X n+\\Fn) = X „ , 71 = 1,2,... lub £ ( X n+1 - X n\Tn) = 0, n = 1,2— co może znacznie uprościć rachunki. P rz y k ła d 2. Jeśli ( X n,J rn) jest martyngałem (podmartyngałem), a r mo­ mentem stopu względem (^rn)nSN, to ciąg zatrzymany: m=1 gdzie oba składniki po prawej stronie są mierzalne względem T n Dlatego zmienna losowa X nAr jest całkowalna, J^-mierzalna, i więc £ ( - ^ ( » + i ) a t — X nAr | — l^ T>nj £ ( X n + i — X n \T n ) — 0 ( > 0 ), gdzie nierówność w nawiasie odnosi się do podmartyngału. ■ P rzy k ła d 3. Niech X n = £i + .. gdzie & są niezależnymi zmiennymi losowymi takimi, że = 0, i = 1,2,... Niech T n — cr(£i,. . . , £n). Wtedy { X n, F n)™=0 jest martyngałem. Istotnie, bez trudu sprawdzamy, że £ ( X n+i — X n\Jrn) = £{Ęn+i\^n) = = ££n+i = 0. ■ P rzy k ła d 4. JeśU X jest całkowalną zmienną losową, (JFn) — filtracją i X n = £ ( X |T n), n = 1,2,..., to (X „ , T n)^= l jest martyngałem. Martyn­ gały tej postaci nazywamy prawostronnie domkniętymi, u P rzy k ła d 5. Niech Z n = X i ■ ■X n, gdzie X { są mierzalne względem niezależnych cr-ciał Gu £ X i = 1, zaś T n — a(Q j , . . . , Qn). W tedy (Z n,F n ) jest martyngałem. Rozdział 11. Martyngały 228 Istotnie, £(Zn+1 \Tn) = £(Xx ■. . . ■Xn - X n+1\Fn) = X i - . . . - X n - £{Xn+1\Fn) = = X i - . . . - X n - £ ( x n+1) = Zn. Kładąc P ( X n — 0) = P ( X n = 2) = | otrzymamy interesujący wniosek. Wtedy £ Z n = 1, P ( Z n = 0) = 1 - 2~", P ( Z n = 2") = 2 ~ n . Wobec tego P ( Z n > 0) = 2-n < oo, i z lematu Borela-Cantelliego wynika, że z prawdopodobieństwem 1 tylko skończenie wiele wyrazów ciągu (Z n) jest różnych od zera, więc lim ^ o o Zn = 0 p.n. Zatem OO (n ¿=i \ * / OO =o< i = n e x i¿=i Nie da się wobec tego (bez dodatkowych założeń) uogólnić twierdzenia o wartości oczekiwanej iloczynu niezależnych zmiennych losowych (5.8.15) na nieskończenie wiele czynników. ■ W następnym przykładzie wprowadzimy bardzo ważne pojęcie transfor­ maty martyngałowej. Transformata martyngałowa jest P r z y k ła d 6. Niech ( X n, T n)^L0 będzie martyngałem, zaś {Vn)%L0 ciągiem dyskretnym prognozowalnym , czyli takim, że zmienna losowa Vn jest Jrn_i-mierzalna, analogiem całki n = 0 , 1 , 2 , . . . (przyjmujemy T - \ = { 0 , 0 } ) . Zakładamy ponadto, że zmien­ stochastycznej. ne losowe Vn są ograniczone i definiujemy Z n = y0* o + V i(X i - x 0) + . . . + v „ ( x n - * „ _ ! ) . W tedy (ZnjFn)^ o jest martyngałem. Ciąg (Vn) jest strategią gracza. Wystarczy zauważyć, że £ (Vn(Xn - |Tn-y) = Vn - £{ Xn - X n_! |J n_i) = 0. Ciąg (Z n) nazywa się ciągiem transformowanym z (X n ) przez ( Vn ) albo transformatą martyngałową. i Sytuacja ta ma następującą interpretację: niech ( X n) oznacza łączną wy­ graną Jacka do chwili n. Grę obserwuje Wacek, który stawia na Jacka w ra-tej partii Vn złotych (jego decyzja zależy od historii gry do chwili n — 1, stąd warunek prognozowalności Vn) i wygrywa Vn( X n — X n- i ) zło­ tych. Wacek uważa (czy słusznie?), że może przechytrzyć los, choć wygrane Jacka tworzą martyngał. ■ Warto zauważyć, że martyngał zatrzymany ( X nAr) jest przykładem trans­ formaty martyngałowej: ciąg prognozowalny ( Vn) jest zdefiniowany wzorem Vn = l {T>n_ i } , n = 1, 2, . . . ; patrz przykład 2. § 11.2. Martyngaly, nadmartyngaiy, podmartyngaty 229 P rz y k ła d 7. Niech (Yrl)5f=1 będzie ciągiem niezależnych zmiennych loso­ wych o tym samym rozkładzie, P (Y n = 1) = p = 1 — P (Y n — —1); jeśli Yn = 1, to uznajemy, że w n-tej kolejce wygraliśmy. Rozpatrzmy grę ze spe­ cjalnym sposobem obstawiania. Najpierw stawiamy 1, potem podwajamy stawkę, gdy przegrywamy, zaś wycofujemy się z gry, gdy wygramy po raz Taką m etodę gry pierwszy. Ponieważ na pewno kiedyś wygramy, jest to doskonały sposób na znał już Casanova. wygranie. Czy rzeczywiście? Stawkę w grze definiujemy formalnie tak: W i = 1, a dla n > 1 Wn = h n- 1 n \0 gdy Yi = - 1 , . . . , Y „_i = - 1 , w p. p. (W n) jest ciągiem prognozowalnym. Kapitał w grze jest znów przykładem transformaty martyngałowej i wyraża się wzorem n = k=1 WkY‘* = + W « Y«- Dla p = | mamy do czynienia z martyngałem, dla p > | z podmartyngałem. Gdy Fi = —1, . . . , Y n = —1, to gracz przegrał n Xn = ~ ( ^ 2 i_1) = —(2n —1), i= 1 gdy ponadto Yn + 1 = 1, to X n+1 = X n + W n+1 ■1 = - { 2 n - 1) + 2" = 1. Niech r = inf{n > 1: X n = 1}. Jeśli p = |, to P ( t — n) = ( 5 )", a ponadto P ( t < 00 ) = 1, S r = 2, S X T = 1. Zatem nawet w grze „sprawiedliwej” istnieje taka strategia gry, że w skoń­ czonym czasie (z prawdopodobieństwem 1) gracz wygra 1, £ X r > £ X \ = 0. Choć średni czas oczekiwania na wygraną jest równy 2, nie jest ograniczony z góry. Dlatego pewnym sukcesu można być jedynie mając nieograniczony kapitał. Ale wtedy po co grać? ■ Dla martyngału £ X n = £X \ . Okazuje się, że w typowych sytuacjach (por. twierdzenie Dooba poniżej) mamy £ X r = £X \ , gdy podstawimy zamiast n moment stopu t. Nie zawsze tak jest, co właśnie widać z przykładu 7. Teraz podamy drugi przykład interesującego uogólnienia dość banalnego stwierdzenia: Jeśli (X n,Jrn) n^ Qjest nadmartyngałem, zaś a < 6 — ustalo­ nymi liczbami, to ( ( X a, F a) , ( X b, F b)) jest też nadmartyngałem. Jeśli zamiast a i b wstawimy (ograniczone!) mo­ menty stopu, otrzymamy niezwykle użyteczne Rozdział 11. Martyngały 230 T w ierd zen ie 8 (D o o b a ). Niech ciąg będzie nadmartyngałem ( martyngałem ) i niech n ^ r2 będą dwoma ograniczonymi momentami stopu. Wtedy ciąg { X Ti,J-Ti')i_ 1 jest nadmartyngałem ( martyngałem ). D o w ó d . Załóżmy, że T\ ^ r2 < N . Należy udowodnić, że dla A € Jrn mamy (1) [ X T1 d P > [ X T2 dP. Ja Ja Nierówność (1) wystarczy sprawdzić na rozłącznych „kawałeczkach” zbioru A , wyciętych przez zbiory { n = &}, k = 0,1,2, . . . , iV. Ustalmy w takim razie k, 0 ^ k ^ N i oznaczmy B = A fi { t i = k }. Wystarczy pokazać, że JB X T2a m d P jest nierosnącą funkcją m, gdy k ^ m < N . Zauważmy, że B e T k C Tm , także {r 2 > m } e f m, więc B n { t 2 > m } e T m. Mamy teraz f JB X T2A(m+l) — i XT2AmdP JB f = ( Xm+1 — ^im) ^ 0. JB r \ { r 2 > m} Równość bierze się stąd, że dla r2 < m obie zmienne losowe pokrywają się, a jeśli r2 > m , to pierwsza z nich przybiera wartość X m+i, druga zaś wartość X m. Nierówność wynika z definicji nadmartyngału. Zatem udowod­ niliśmy (1). Jeśli ciąg ( X n) tworzy martyngał, to ciągi (X n) i (—X n) są nadmartyngałami, i otrzymujemy równość we wzorze (1). ■ Czasami przydaje się wzmocniona wersja twierdzenia Dooba. T w ierd zen ie 9 (D o o b a ). Niech ( X n,J-n) będzie martyngałem, a r\ i r2 skończonymi p.n. momentami stopu, takimi, że £\X Ti\ < oo, liminf£ (\Xn \l{T >n}) = 0, n —+oo 1 * ¿ = 1,2. i = 1,2. Wtedy 8 ( X T2 |!FT1) = X T1 na zbiorze {r 2 > Ti} P -p .n . Gdy P ( n ^ r2) = 1, to S { X T2\T tx) = X t1 p.n., czyli ciąg ( X Tl,JrT1), ( X T2,JrT2) jest martyngałem. U w aga 10. W przykładzie 7 więc nie są spełnione założenia twierdzenia 9. (2) (3) 231 §11.2. Martyngały, nadmartyngały, podmartyngały U w aga 11. Twierdzenie pozostaje prawdziwe dla podmartyngalów, jeśli znak „ = ” w tezie zamienimy na . W n io se k 12. Jeśli istnieje stała K taka, że P (ri < K ) = P ( t 2 < K ) = 1, to są spełnione założenia twierdzenia 9. Jeżeli ponadto P (rj < 72) = 1, to eX i = £X n = £ X T2 = £ X n. . Wobec tego twierdzenie 9 rzeczywiście jest uogólnieniem twierdzenia 8 (Do- oba). W n iosek 13. Jeśli (X n) jest martyngałem ograniczonym p.n. przez stałą, czyli \Xn\< C dla n = 1 , 2 . . . , to są spełnione założenia twierdzenia 9. D o w ó d . \Xn \ < C , zatem £ (|Xn|l/T >n\) < C P ( n > n ) ------->0. ■ 1 n —»00 W n io se k 14. Biorąc n = 1 i t2 spełniające założenia twierdzenia otrzy­ mujemy £ X T2 = £ X \ . D o w ó d twierdzenia 9 (Dooba). Wystarczy wykazać, że dla każdego zda­ rzenia A G J-Tl [ J A n{r2> r i } X T2 dP = f X TldP. J AC\{t2^?ti} Ponieważ przyjmuje wartości 1,2, . . . to wystarczy pokazać, że dla do­ wolnego n > 1 [ X T2d P = J AC\{t2 X TldP , f J AC\{t2 'źri } n } f l { r i = 71 } {r i= n } tzn. dla B = A (1 {r i = n } G T n [ X T2d P = J B n {r2 ^ n } f JB X n dP. n {r 2 ^ n } Ciąg ( X n) jest martyngałem, zatem: X n dP = [ X nd P = [ X ndP + [ J B(l{r2^n} JBC\{r2—n} J) B( Bf\{T2>n} = / J BCi{T2 =zTt} = f J Bf\łTo—n\ X nd P + f £ { X n+l |T n) dP = J BC\{T2 > n } X T2d P + f J Bn{T2^n+l\ X n +1dP = (4) Rozdział 11. Martyngały 232 L + / X n+i dP — >Bn{r2>n+i} = i X T2 dP + J Bn{n^T2^n+l} ...= / J Bn{n^T2^m} f X n+2 dP = .. . J Bfl{T2^n+2} X T2d P + [ X m dP, JBn{T2>m} czyli [ X T2d P = [ Xnd P - [ X m dP. J Br\{n^.T2^m} ij3n{r2^n} J Bn{r 2>m} Z twierdzenia Lebesgue’a dla m —» oo i X T2 dP = lim sup i s n { r 2 ^ T i} m —*oo = / X n dP — / X rn dP 7S n { m > T 2 > n } J BC\{T2 >m} f X n d P — lim inf f X m dP = JBn{T2^n} m- ° ° JBn{T2>m} = f X n dP. J Bn{r2^n} Ostatnia równość wynika z założenia (3). Udowodniliśmy zatem równość (4 )- ■ Jako zastosowanie twierdzenia 9 udowodnimy twierdzenie, z którego można prosto wyprowadzić tożsamość Walda 11.1.10: T w ierdzen ie 15. Niech ( X n,Jrn)'^=1 będzie martyngałem (podmartyngalem), dla którego istnieje taka stała C , że dla n = 1, 2 , . . . £ {\ X n + 1 - X n \\Tn) ^ C V.n. i niech r będzie momentem stopu, £ t < oo. Wtedy £\XT\ < oo i £ X T = £ X x ( £ X r > £ X 1). D o w ó d . Przyjmijmy, że X q — 0. Wtedy OO Xr = — X n_ i ) l { r ^n}, n=l zatem OO Y = £ \Xn - X n^ \ l {T>n}, n—l Założenie (2) twierdzenia 9 jest spełnione, bowiem Y jest całkowalna: Jeśli zbadać X r /\7n można się obejść bez tw. 9. §11.2. Martyngaly, nadmartyngały, podmarfcyngały S Y = Y , £ (S “ ^ « -i| l{r > « } I 233 = 71= 1 OO = (£{\Xn - X n-\ \I J ^ -l) ljr^nł) ^ n~1 oo ś ' £ , C P (t > 3) = CSt < oo. 3=1 Skorzystaliśmy z faktu, że zbiór { r > j } = { r < j — 1 }' należy do J y -iSprawdzimy z kolei, że spełnione jest założenie (3) twierdzenia 9. Ponieważ { r > n } fi { t > k} = { r > k} dla n ^ k, to 5 (|Xfc|l{T>fc}) < £ ( V \Xn - JST„_i|l{r>fc}) < £ ( n {T>fc}) ------->0. Vn=l ) k-*°° Zatem limini*^«*, £ (|Xt:|l{r>fc}) = 0. ■ Przykład 16 (Zadanie o ruinie gracza). Wyłożoną w tym i poprzed­ nim paragrafie teorię zastosujemy do zadania o ruinie gracza (§ 3.2, zad. 14, 15). Zaletami takiego podejścia są prostota i ścisłość. Przypomnijmy, że gracze mają kapitały początkowe a i b, a + b = z, a wy­ grane pierwszego gracza w kolejnych partiach są niezależnymi zmiennymi losowymi .. . ,£n, . . przy czym P(& = 1) = p, P(& = - 1 ) = q = 1 - p . Zakładamy, że p, q > 0, co wyklucza trywialne przypadki „gry do jednej bramki” . Przyjmiemy Sn = £i + .. . + Moment ruiny pierwszego gracza definiujemy jako Ti — in f{n :5 „ = - a } . Jest to moment stopu, dla którego P ( ti < oo) < 1. Natomiast chwila zakończenia gry, czyli ruiny pierwszego lub drugiego gracza, to tr = inf{n: Sn € { - a , b } } . Ten moment stopu jest już skończony p.n., dlatego że z prawdopodobień­ stwem 1 pojawi się kiedyś np. kolejno a + b wygranych pierwszego gracza. A . Prawdopodobieństwa ruiny dla obu graczy. Szukanymi prawdo­ podobieństwami są pi = P (S TR = - a ) i p2 = P {S TR = 6). W przypadku symetrycznym (p = g = §) ciąg (Sn,cr (£ i,...,£ n))“ =1 jest martyngałem i £ S n = 0 dla n = 1, 2 ,__ Na podstawie twierdzenia Dooba można podej­ rzewać, że £ S tr = 0, wobec tego f -a p i + bp2 = 0 \ p i + P 2 = 1, skąd p i = b /z , pi — a j z. Rozdział 11. Martyngały 234 Jednak t r nie jest ograniczonym momentem stopu i nie można bezpośrednio skorzystać z tw. 8. Ale £ S trAti = 0 dla każdego n ( t r A n jest już ograni­ czonym momentem stopu), a ponadto |SrRAn[ < max(a, b) i S TRAn ^ * S TR przy n —> oo. Istotnie, dla każdego k £ N mamy Prawa strona zmierza do zera, ponieważ P ( tr < oo) = 1. Teraz z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej wynika, że SSTR — 0, co kończy dowód dla przypadku symetrycznego. W przypadku niesymetrycznym martyngałem jest ciąg s, ((p) >6*) n—1 (zad. 5). Postępując analogicznie do poprzedniego przypadku, otrzymujemy £ { q /p ) SrR = 1, wobec tego (?)-> ! + (f)V 2 = 1 .Pl +P2 = 1, skąd pi = ------------— ■(?)* ' B . N iesk oń czon y kapitał. Obliczymy teraz prawdopodobieństwo ru­ iny dla gracza z kapitałem a, którego przeciwnik ma kapitał nieskończony. Naturalnym pomysłem jest dokonanie przejścia granicznego (z —> oo) we wzorach otrzymanych w poprzednim zadaniu. Wymaga to jednak uzasad­ nienia, które podajemy poniżej. Niech A a oznacza zdarzenie, polegające na ruinie gracza z kapitałem a; niech A a,z oznacza zdarzenie, polegające na tym, że zanim gracz został zrujnowany, jego wygrana była zawsze mniejsza od z. Otóż P ( A a^z) jest prawdopodobieństwem ruiny gracza z kapitałem a w grze z łącznym kapi­ tałem a + z, a ponadto A a jest sumą wstępującego ciągu zdarzeń A a,z ■ Z twierdzenia o ciągłości P (Ą ,) = P < L K . ) - Um P (A «„) - { Okazuje się, że przy grze sprawiedliwej lub niekorzystnej dla pierwszego gracza szansa ruiny wynosi 1, w przeciwnym razie wynosi ona (q /p )a■ 11.2. Martyngały, nadmartyngaly, podmartyngaly 235 C . K a p ita ł nieskończony: średni czas oczekiw ania na ruinę. Przy­ puśćmy teraz, że gracz z kapitałem a gra przeciwko nieskończenie bogatemu przeciwnikowi i wygrywa pojedynczą partię z prawdopodobieństwem p < \ . Wtedy £1 + . ■-+£n = —a, gdzie ti jest momentem ruiny pierwszego gracza. Z tożsamości Walda mielibyśmy (jeśli tylko £ t \ < oo) £ n ■£$x = - a , skąd natychmiast wynika, że £r\ = Pozostaje wykazać, że faktycznie < oo. W tym celu oszacujemy P (ri > n) z nierówności Bernsteina (7.4.2). Oznaczając {7, = (& + l)/2 , mamy: £ t\ Właściwie korzystamy tu z jednostronnego oszacowania w dowodzie nierówności Bernsteina. P ( n > n) < P(£i + . . . + £ „ > - a ) = = P (U 1 + . . . + Un > ^ ( - a + n)) = = P (U 1 + . . . + Un > ~ a + n (p + ± -p )). Dla dostatecznie dużych n mamy n(| - p) — |a > |n(| - p ) , wobec tego prawa strona nie przekracza e-71^ - ?) / 16) stąd Y2n -P(ri > n ) < °°, czy^ (zad. 5.6.2) f ti < oo. Wynik wygląda rozsądnie, bowiem q — p jest średnią przegraną, przypada­ jącą na jedną partię. D . Ś redni czas oczekiw ania na wygranie 1 zł w grze sym etryczn ej. Czas ten jest nieskończony, nawet jeśli gracz ma nieskończony kapitał. Gdy­ byśmy mieli £ r < oo, gdzie r = inf{n:£i + . . . + = 1}, to z tożsamości Walda wynikałoby, że S t - £ { 1 = 1, co jest niemożliwe, bo = 0. ■ Zadania 1. Niech Zn będą niezależnymi zmiennymi losowymi o tym samym rozkładzie i zerowej średniej, niech Tn = cr(Zi , . . . , Zn) i X 0 = Z0, TL Xn, = fc=l Udowodnić, że (X n,^Fn) jest martyngałem. 2. Wyprowadzić tożsamość Walda z faktu, że (Sn ~ n £ X \, a (X i , . . . martyngałem. jest 236 Rozdział 11. Martyngały 3. Udowodnić następującą wersję tożsamości Walda: jeśli X i , X 2 , •. ■ są nieza­ leżnymi zmiennymi losowymi o tym samym rozkładzie, SX\ < oo, Sr < oo, to S ( S r - T e X ! ) 2 = £ t 'D 2 X 1. Wsk. Założenie, że £ X n = 0 nie zmniejsza ogólności. Wtedy ciąg (5^ —n £ X 2) jest martyngałem. 4. Udowodnić, że w symetrycznym zagadnieniu ruiny średni czas oczekiwania na ruinę któregoś z graczy wynosi ab. 5. Niech i = 1,2 , ... będą niezależnymi zmiennymi losowymi, P(£j = 1) = p, P & = - 1 ) = 9 = 1 - p. Niech Wykazać, że ciąg (Zn,T n) jest martyngałem. i 6. Martyngal (X n, J-n)n=o jest całkowalny z kwadratem, tj. £ X „ < oo, n = = 0 ,1 ,__ Niech Przyrosty martyngałowe są czymś pośrednim między zmiennymi losowymi niezależnymi a nieskorelowanymi. Dn ~ X n — X n—i, n = 1, 2,. . . Wykazać, że zmienne losowe D n (czyli przyrosty martyngałowe) są parami nieskorelowane. 7. Wykazać, że przy odpowiednich założeniach co do całkowalności, funkcja wy­ pukła martyngaiu (X „, T n) jest podmartyngałem; jeśli funkcja jest wypukła i niemałej ąca, to przekształca podmartyngał ( X „ , ) w podmartyngał. 8 . Ciąg (X n) jest martyngałem. Zbadać (zakładając w razie potrzeby odpo­ wiednie warunki całkowalności), czy są pod- lub nadmartyngałami ciągi: a) (|Xi|p)n, P ^ 1; b) (X n A a)n; c) (X „ V a)„. 9. Jedną z możliwych strategii gracza jest zmiana rodzaju gry. W przypadku gry sprawiedliwej nie powinno się ani zyskać, ani stracić. Przypuśćmy, że dwóch przyjaciół rozpoczęło inwestowanie na giełdzie w tym samym czasie i pewnego dnia okazało się, że ich portfele mają tę samą wartość. Co sądzić o propozycji „zamieńmy się portfelami” ? Jeśli na giełdzie panuje spokój (albo marazm, jak wolą pisać analitycy), do­ bry model sytuacji stanowią dwa martyngały: (X n, F n) i (Yn, .Fn), oraz taki moment stopu r, że X T = Y r na zbiorze ( r < oo}. Niech g n il f X n \ Yn dla n > t , dla n ^ t . Wykazać, że wtedy (Zn,T n) jest martyngałem. 10. Udowodnić, że jeśli (X „, T n) jest martyngałem i zmienne losowe X n są jed­ nostajnie całkowalne, to spełnione są założenia tw. 9. 11. Niech (X n)n€r , gdzie T = { 0 , 1, . . . , m } lub T = Ń, będzie skończonym lub nieskończonym ciągiem zmiennych losowych, adaptowanym do filtracji (Fn)Wykazać, że jeśli £\XT\< oo oraz £ X r = 0 dla dowolnego momentu stopu r przyjmującego co najwyżej dwie wartości w zbiorze T, to (Xn,J 7n)n€T jest martyngałem. § 11.3. Twierdzenie o zbieżności nadmartyngałów §11.3. 237 Twierdzenie o zbieżności nadmartyngałów T w ierd zen ie 1. Jeżeli ciąg ( X n, J:n)^L0 jest nadmartyngałem, a ponadto supn £ X ~ < oo, to ciąg ( X n) jest zbieżny prawie na pewno do zmiennej losowej całkowalnej. Dowód twierdzenia opiera się na technice liczenia „przejść w górę” ciągu liczbowego (xn) przez przedział [a,6j. Zdefiniujemy mianowicie To = inf{re:a;n < a} Ti = inf{n:n > ro,a;n > 6} Tik = inf{ra: n > r2k- i , x n < a} T2k+i = inf{n: n > r2k ,x n > 6} Jak widać z rysunku, r2k+i jest momentem (k + l)-szego przejścia w górę ciągu (x n) przez przedział [a,6]. U* będzie oznaczać łączną liczbę przejść •w górę ciągu ( i „ ) , czyU jjb df i sup{fc ^ l:T 2fc-l < oo} ° \O jeśli Ti < oo, jeśli Ti = oo. Jak się okazuje, skończona liczba przejść w górę jest (prawie) równoważna zbieżności ciągu: L em at 2. Ciąg liczbowy (xn)^L.0 jest zbieżny ( być może do granicy nie­ skończonej), tj. limsupa:n = liminfa;,! wtedy i tylko wtedy, gdy U% < oo dla wszystkich par liczb wymiernych a, b takich, że a < b. D o w ó d . Konieczność. Gdyby dla pewnej pary liczb wymiernych a < b było U* = oo, to istniałyby takie dwa podciągi (xk„) i {x in)-> x kn < a, xin > 6 dla n = 0 , 1,2,.... Wtedy jednak ciąg (x n) nie byłby zbieżny. Dostateczność. Jeśli ciąg (a:n)^ =0 nie jest zbieżny, to dla pewnych a, b wy­ miernych mamy l i m in f ^ « , x n < a < b < limsupn^ oc x n; wtedy zaś Rozdział 11. Martyngały 238 istnieją, dwa podciągi (xkn) i (si„) takie, że x kn < a i xin > b dla n = = 0,1, 2, . . . , skąd U* = oo. ■ Jeśli ( X n) jest (skończonym lub nieskończonym) ciągiem zmiennych lo­ sowych, to określone powyżej wielkości rk i {7* są zmiennymi losowymi, przyjmującymi być może wartość oo. Ponadto, jeśli (-Xn) jest ciągiem adaptowanym do (T n) , to Tk są momen­ tami stopu ze względu na (jFn) (patrz zad. 11.1.4). Lem at 3. Niech { X n,Jrn )r^=1 będzie nadmartyngalem. Wtedy dla a < b mamy £U b a [m] < - i - £ { X m - a ) ' , o —a Tutaj Ua[m] oznacza liczbę przejść w górę skończonego ciągu X i , . . . , X m i jest zmienną losową. D o w ó d lematu. Niech r'k = rk A m; rozpatrzmy teraz zmienne losowe X r-t+i — X r^ . Możliwe są trzy przypadki: l ° ( k + l)-sze przejście w górę zakończyło się przed chwilą m , czyli r2k < m , T2k+i < m . Wtedy ^ Tih+i ~ ^ Tik ~ X T2k+i ~ X T2k > b — a. 2 ° ( k + l)-sze przejście w górę nie zakończyło się całkowicie przed chwilą m , czyli dokładniej — r 2k < m , r2k+ i > m . Wtedy X r 2k+1 ~~ X t L = X m ~ X r ik ^ ~ { X rn - a ) , ww ponieważ —X X m ~ X T: x~. 0 -CI x m ~ X T2h dla r^k = m, dla < m, czyli X m —X T> jest albo zerem, albo liczba większą od X m — a; w każdym przypadku jest nie mniejsza niż —( X m —a) . 30(fc+T)-sze przejście w górę nie rozpoczęło się przed chwilą m , tj. r2k > m i tym bardziej r2fc+ i > m . W tedy po prostu T2t+1 — X T> 2fc — X m m —X m m = 0. X rf Dodajemy teraz stronami otrzymane nierówności (fc = 0 , 1 , 2 , . . . , m; zwróć­ my uwagę, że liczba przejść w górę jest mniejsza niż m): m E ( ^ * +1 - X r ik) > { b - a )U b[m] - ( X m - a )~ . fc=l §11.3. Twierdzenie o zbieżności nadmartyngałów 239 Z twierdzenia Dooba wynika, że £ X T^ > S X T^ oczekiwane obu stron, otrzymujemy , więc biorąc wartości 0 > (b - a )£ U b[m} - £ ( X m - a ) ~ , co kończy dowód lematu. ■ D o w ó d twierdzenia o zbieżności nadmartyngałów. Niech U^lm] oznacza liczbę przejść w górę ciągu skończonego X i , . . . , X m. Wtedy U^[m] j U* dla m —>oo. Z udowodnionego poprzednio lematu wynika, że £Ub a[m] < - i - £ (X m - a)- = J _ £ ( \X ™ ~ a\~ o~ a o~ a \ 2 ^ 1 c ( \ X m \ ~ X Tn , |a|+a^ < 1 -------2------- + ~ 2 - ) = ^ (C v- + a\ < / , _+ \ ^ £X m + a < r----- (sup£X ~ + a+ ) < oo. O ii 71 Zatem < r —- (su p£X ~ + a +) < oo O Cl 71 dla dowolnych liczb rzeczywistych a,b, gdzie a < b, czyli z prawdopodo­ bieństwem 1 zmienna losowa U% jest skończona dla wszystkich (naraz!) par liczb wymiernych a,b, gdzie a < b. Wobec tego (na mocy lematu 2) ciąg ( X n) n_ Q jest zbieżny (być może do granicy nieskończonej) z praw­ dopodobieństwem 1. Pozostaje udowodnić skończoność granicy: ponieważ \Xn\ = X + + X ~ = X n + 2 X ~ , a { X n,Jrn)^=0 jest nadmartyngalem, to £\X n\ = £ X n + 2 £ X ~ < £ X 0 + 2 s u p £ X - . (1) 71 Ale (z lematu Fatou) £ (liminf |Xn|) < liminf£|Xn|, n —»oo 71—»oo wobec tego lim ,,-^ X n musi być prawie wszędzie skończona i całkowalna. ■ U w aga 4. Każdy nadmartyngał nieujemny jest zbieżny. U w aga 5. Dla nadmartyngalu warunek supn £ X ~ < oo jest równoważny warunkowi supn £|Xn|< oo, co wynika z (1). U w aga 6. Jeśli ( X n) jest podmartyngałem, to ponieważ (—X n) jest nadmartyngałem, warunkiem dostatecznym zbieżności jest su p £X + < OO, n na co z kolei wystarcza, by sup£|Xn|< oo. n Rozdział 11. Martyngały 240 P rzy k ła d 7 (M o d e l P ó ly a ). Urna zawiera bo białych i Co czarnych kul (bo, co Z 1). Losujemy kulę z urny, zwracamy ją i dokładamy m kul tego sa­ mego koloru. Niech bn, cn oznaczają liczbę kul białych i czarnych po n-tym losowaniu. Definiujemy X n = cn/( b n + cn) — jest to ułamek kul czarnych w urnie po n-tym losowaniu — i T n = o ( X o , . . . X n), n = 0,1,2, — Okazuje się, że ( X n, JFn)^i;0 jest martyngałem. Żeby to sprawdzić, zdefi­ niujemy zmienne losowe Yn: niech Yo = 1, a dla n > 0 niech Yn = 1, jeśli w n-tym losowaniu wyciągnięto czarną kulę, w przeciwnym razie Yn — 0. Wtedy dla n ^ 0 mamy Cn+l = C n “i“ rT lY jiĄ . l , frn-f-l b n -f- 9 7 l ( l Y n Ą .\ ), a także Jeśli X przyjmuje tylko wartości 0 i 1, to P ( X - l\F) = Dlatego p(yB+1 = i|y0, .. .ł rn )=^«. (2) £ ( 1 { X = 1 > I J 7) = £ (X \ F ) Cn2 l .... £ ( X n + 1\Y0, . . . , Y n) = e ( Y0, . . . , Y n) = y C n + l + O n + i ) °n + £ ( Y n + 1 \Y0, . . . , Y n) = cn -\-bn + m C n + bn + m Cn Cn "f" b n “ł~ 7TI Ą_______ rn C ji -j- b n H- Tfh xn Cn _ V" i l —^nCn H- bn Udowodniliśmy zatem, że ciąg ( X n) jest martyngałem względem ciągu cr-ciał a( Y0, Y n). Ale T n C &(Y0, •■•i Yn), wobec tego £ ( X n + 1 \ F n) = £ ( £ ( X n + 1 \Y0, . . . Y n) \ X 0, . . . X n) = = £ ( X n \ X 0, . . . X n) = X n . Zatem (X n,J rn) jest martyngałem. Stąd i z (2) wynika, że P (Y n+1 = ! ) = £ (P (Y n+1 = l|ło: . . . , Y n) ) = £ X n = £ X 0 = C° co + bo Ponieważ \Xn \ < 1 dla n = 1 , 2 , . . z twierdzenia o zbieżności martyngałów wynika, że istnieje taka zmienna losowa X , że X n X , a ponadto £ X = limn_ 00 £ X n = Co/(co + &o) (z tw. Lebesgue’a o zbieżności zmajory- zowanej). ■ Efektownym przykładem zastosowania twierdzenia o zbieżności martyngałów jest dowód nierówności Hardy’ego-Littlewooda (por. zad. 5.8.23). § 11.3. Twierdzenie o zbieżności nadmartyngałów 241 T w ierd zen ie 8 (N ierów ność H ardy’eg o -L ittle w o o d a ). Jeżeli ( Un)n jest ciągiem Bemoulliego, to \ U ! + . . . + Un] hm sup----- ;........— — ^ 1 p.n. n—>oo v2nlogn D o w ó d . Istotnie, niech X n — U\ + ... + Un, T n = <r(Ui, . . . , Un). Wtedy Y& = eaXn-^n a j eg£ nadmartyngałem (patrz zad. 1). Zdefiniujemy teraz / = OO fOO Y “ <fa = / •oo e“ Xn_i n“ 2 da = J—OO I (v/Sa-§&)2+ ^ r e-< J—oo 1 /° ° , ¡2 ^ i i = —p=e 2" / e ^ du = \ — e^> V « y -o o v n Jest prawie oczywiste, że (•Zn).7rn)j|l.1 jest nadmartyngałem nieujemnym (patrz zad. 3), zatem zbieżnym p.n. do zmiennej losowej Z , a w szczególności Innymi słowy, ograniczonym p.n. przez pewną zmienną losową Co, co oznacza, że dla n = Co = = supn Zn < OO 1 ,2 , . . . mamy p.n. “ 7= e 2" < C0 p.n., \]n stąd czyli —n ln n + < C -2n i |X„(w)| < y /n ln n + C ( lo) ■2n, wobec tego limsup n—»oo \Xn | „ , .......— $ 1 p.n. i \ /2 n ln n Zadania 1- {U„) jest ciągiem Bernoulliego. Niech T n = cr(U\,.. . , Un) i niech Zn - Qa(Ui+---+Un)—(na2/2)' Udowodnić, że ( Zn, F n) jest nadmartyngałem. Zbadać zbieżność ciągu (Zn) prawie na pewno i w L 1. 2. Korzystając z twierdzenia o zbieżności nadmartyngałów, wykazać tw. 7.3.2: jeśli ( X n) jest ciągiem niezależnych zmiennych losowych, S X n = 0 dla n 6 N i £ X „ < oo, to szereg Xn jest zbieżny prawie wszędzie. Rozdział 11. Martyngały 242 3. Wykazać, że ciąg {Zn) z dowodu nierówności Hardy’ego-Littlewooda jest nadmartyngałem. M arty n g ały z czasem od w rócon y m . Czasem zamiast rosnącego ciągu o-ciał mamy do czynienia z ciągiem malejącym. W tym przypadku można odwołać się do teorii martyngalów z czasem odwróconym. Jeśli ( i , ) „ eN jest malejącym ciągiem cr-cial, to (^r-n ) ne_N jest Już ciągiem rosnącym. Ta z pozoru trywialna sztuczka z odwróceniem numeracji ma konsekwencje głębsze, niż by się wydawało na pierwszy rzut oka. —N zawiera Będziemy zatem rozpatrywać martyngały ze zbiorem indeksów —N lub —Ń. Po­ ostatni element, nieważ każdy martyngał (X n,Jrn)ne_ fi jest postaci a to jest różnica! X n = £ (X0 |F n) , zmienne losowe X n muszą być jednostajnie całkowalne (zostanie to udowodnione w lemacie 11.5.1). Można zatem spodziewać się, że odpowiedniki znanych twier­ dzeń będą mocniejsze. 4. Ciąg (X „,^ r„ ) ne_Ń jest nadmartyngałem i lim „_ _ 00£ X „ < oo. Wykazać, że (X „ )n€_ jj jest rodziną zmiennych losowych jednostajnie całkowalnych. 5. Udowodnić T w ierdzenie 9. Jeżeli (Xn,J:n)Jl€_f1 jest nadmartyngałem i lim £ X n < oo, to ciąg ( ^ - n ) „ eŃ jest zbieżny p.n. i w L1 do pewnej zmiennej losowej X . Jeśli ponadto (X n,J-'n)n€_ji! jest martyngałem, to X = £\X 0 § 11.4. Nierówności martyngałowe Udowodnimy tu uogólnienie nierówności Kołmogorowa (7.3.6). Warto po­ równać oba dowody. Twierdzenie 1 (Nierówność maksymalna dla podm artyngałów ). Niech (Xic,J rk)k=i będzie podmartyngalem. Wtedy dla r > 0 rP (m a x l t > r ) < k^ n f X n dP < £ X + < £\Xn \. D o w ó d . Niech r = inf{fc € N:Xfc > r }. Jest to pierwszy moment prze­ kroczenia poziomu r. Niech A = { m a x j > r} i A^ = A n { r = k }, §11.4. Nierówności martyngałowe 243 k = 1 , 2 , . . . , n. Wtedy A k £ T k dla A : < n i y l = j 4 i U . . . U A n. Teraz A TL p X ndP = Y , JA X n dP = Y k=1JAk Ti A Th „ > Y £ { X n \Fk)dP> k=l k n X k d P > r J ' P ( A k) = r P ( A ) . Ł_, J A k fc=l-'** Zatem rP (m axX i > r) < [ X n dP < £ X + < £|*n|. ■ JA U w aga 2. Jeśli X n jest martyngałem, funkcja / : R —* R jest wy­ pukła, zaś zmienne losowe f ( X k) są całkowalne, to z nierówności Jensena wynika, że ciąg /(.X i), . . . , f ( X n) jest podmartyngałem, więc spełnia nie­ równość maksymalną. W szczególności, gdy / ( i ) = |t| otrzymujemy P {m ax\X k\> r) < - £ p f n|, k^n r a jeśli / ( i ) = i2, zaś X k = U\ + ... + Uk, k = 1,2, . . . n , gdzie Ui są niezależnymi zmiennymi losowymi o średniej zero i skończonej wariancji, to otrzymujemy nierówność Kołmogorowa: P{max\U1 + . . . + Uk\ > r ) < fc$Cn. 1 n Y £Uk . .r z ' fc=l Zadania 1. Udowodnić, że dla podmartyngału równość i dowolnego r > 0 zachodzi nie- rP(minXk ś - r ) ś £ (X „ l{min v. x k>-r})/ ~ £ X q ^ k^n \ - £ X 0. 2. Udowodnić, że dla podmartyngału (Xfc)£=i i dowolnego r > 0 zachodzi nie­ równość rP(max|Xjt| ^ r) ^3maxf|Xt|. k^n k^n 3. Wykazać, że dla nadmartyngału (Xk)k=i 1 dowolnego r > 0 zachodzi nie­ równość TyP( max \Xk\ ^ r) ^ — max£|Xfc|, k^n T fc^n przy czym K = 1, gdy ciąg (Xk) ma stały znak lub jest martyngałem; w ogólnym przypadku K — 3. Rozdział 11. Martyngaly 244 4. N ierów ność D o o b a . Wykazać, że jeśli (Xfc)£=1 jest martyngałem, p > 1, to §11.5. Zbieżność martyngałów w Lp L em at 1. Jeśli X jest całkowalną zmienną losową na (ii, T , P ) , a (T ^ a e A rodziną cr-ciał, zawartych w T , to rodzina (£ (X |F ^ a z A jest jednostajnie całkowalna. D o w ó d . Skorzystamy z kryterium z zad. 5:9.17. Po pierwsze, sup£|£ ( X \ F a) |< S\X\. Po drugie, jeśli r > 0, to i \ £ ( X \ F a) \ d P < £ ( \ X \ \ T a) d P = [ { |£ ( X |^ ) |> r } \X\dP, ponieważ {|Z (X |T a) | > r } € T a . Jeśli ustalimy £ > 0, to istnieje d > 0 o takiej własności, że f A |X| d P < e, o ile P ( A ) < S. Aby zakończyć dowód, wystarczy dobrać tak duże r, by P(\£ ( X |Jra) \ > r) < 8. Ale P(|£(X|^a) | > r ) < r r a to już wystarczy. ■ T w ierd zen ie 2. Niech ( X n, T n) będzie jednostajnie całkowalnym podmartyngałem ( odp. martyngałem). Wtedy istnieje taka całkowalna zmienna lo­ sowa X , że (i) X n —> X p.n. i w L 1; (ii) Ciąg X i , X 2, ■■■, X jest podmartyngalem (odp. martyngałem). W szczególności, jednostajnie całkowalny martyngal ( X n, T n) jest prawo­ stronnie domknięty, czyli jest postaci X n = £ ( X \ T n). § 11.5. Zbieżność martyngałów w Lp 245 D o w ó d . Z jednostajnej całkowalności wynika, że supn £|Xn) < oo, i dla­ tego podmartyngał jest zbieżny p.n. do zmiennej losowej X ; jeszcze raz ko­ rzystając z jednostajnej całkowalności, otrzymujemy zbieżność w L 1 (zad. 5.9.18). Pozostaje udowodnić (ii). Niech A € f m. Z uwagi po definicji podmartyngału wynika, że ciąg (fA X n dP) jest niemalejący dla n ^ m . Ponadto na mocy (i) [ X nd P - f XdP Ja Ja ^ [ \Xn - X\ dP ^ £\Xn - X \ ------->0. JA n -* o o Zatem JA X n dP t f A X dP, a stąd dla m [ X m dP s: [ X n d P ^ f X d P , Jj4 Ja Ja i ostatecznie £ ( X \ T m) > X m, co kończy dowód (ii). W przypadku martyngału należy udowodnione twierdzenie zastosować do ( X n) i do ( ~ X n). m Można udowodnić, że X jest jedyną zmienną losową mierzalną względem .. .) dla której X n = £ ( X |F n) (zad. 1). Kwestią zbieżności martyngałów w Lp dla p > 1 zajmiemy się w zadaniach. Twierdzenie 3 (O ciągłości warunkowej wartości oczekiwanej). Niech X będzie całkowalną zmienną losową na (£2, T , P ), a (Fn) — ciągiem a-ciał zawartych w T . (i) Jeśli ciąg ( T n) jest niemalejący i J-q = a (T \ ,J -i , .. •), to £ ( X \ F n) ^ £ ( X \ F 0) prawie na pewno i w L 1. (ii) Jeśli ciąg (T n) jest nierosnący i Jro = to £ ( X \ F n) ^ £ ( X \ F 0) prawie na pewno i w L 1. D o w ó d , (i) Ciąg (£ ( X \F n) , T n) jest jednostajnie całkowalnym martyngałem, więc na mocy tw. 2 jest zbieżny p.n. i w L 1 do całkowalnej Rozdział 11. Martyngały 246 i .T^-mierzalnej zmiennej losowej Xę,. Ponadto, ponieważ rozważany ciąg rozszerzony o X o jest martyngalem, zachodzi równość £ ( X Q\ Tn) = £ ( X \ T n) , n = 1, 2 , . . . Zatem dla dowolnego zbioru A € T n, n = 1 , 2 , . . . , mamy Klasa zbiorów A spełniających tę równość jest A-układem i zawiera 7r-układ U “ =1 J-n, a zatem — na mocy lematu 5.3.6 — zawiera T §. Oznacza to, że Xo = £ ( X \ f o ) . (ii) Ciąg (£ ( X |T - n) , F -n ) jest martyngalem z czasem odwróconym. Teza jest bezpośrednim wnioskiem z twierdzenia o zbieżności 11.3.9. ■ Możemy teraz podać prosty dowód prawa 0-1 Kołmogorowa (tw. 7.2.1). Przypomnijmy oznaczenia: jeśli ( X{ ) jest ciągiem zmiennych losowych, to T w ierd zen ie 4 (P raw o 0—1 K o łm o g o r o w a ). Jeżeli ( X t) jest ciągiem niezależnych zmiennych losowych i A € T<x>, to P ( A ) = 0 lub P ( A ) = 1. D o w ó d . Zmienna losowa 1 a jest mierzalna względem tym bardziej względem JFi,co, oraz niezależna od J-iin dla każdego n. Stąd i z twierdzenia 3 mamy P ( A ) = £ 1 A = £ ( 1A I F hn) ^ £ ( 1 A \^ 1,00) = U - Dlatego P ( A ) może przyjmować tylko wartości 0 lub 1. ■ Kolejnym wnioskiem z twierdzenia 3 jest prawo wielkich liczb Kołmogorowa (tw. 7.4.9) T w ierd zen ie 5 (M P W L K o łm o g o ro w a ). Jeśli ( X n) jest ciągiem nie­ zależnych zmiennych losowych o tym samym rozkładzie i wartości oczeki­ wanej m , a Sn = J2k= 1 x k, to n prawie na pewno i w L 1. D o w ó d . W zadaniu 6.3.13 udowodniliśmy, że £ (X1 I Sn, Sn+u . . . ) = £ (Xi |Sn) = ~ n §11.5. Zbieżność martyngałów w Lp 247 Niech T — n “ i (’’{Sn, Sn+ 1, ••■)• Wtedy z twierdzenia 3 (ii) otrzymujemy n S ( X 1 \P) prawie na pewno i w L 1. Wiadomo jednak (na mocy prawa 0-1, por. zad. 7.2.2), że lim„_,00(S'n/re) = c p.n., i ze zbieżności w L 1 otrzymujemy c = = £ ( £ ( X x | T) ) = £Xx = m. u Zadania 1. Udowodnić, że X z twierdzenia 2 jest jedyną zmienną losową mierzalną wzglę­ dem o(JF\,F2, ■■•), dla której X n = £ ( X \ F a). 2. Niech fi = [0,1], T = B([0,1]), P jest miarą Lebesgue’a, a / funkcją borelowską całkowalną względem miary Lebesgue’a. Rozważmy zstępujący ciąg podziałów odcinka [0,1]: x [n* = = 1. Udowodnić, że dla u> e [x^n\ x < ^ l) jest zbieżny p.n. do / (X = lim„ X „ można traktować jako pochodną funkcji F(s) = f g f (z) dz względem danego ciągu podziałów). Zbieżność martyngałów w Lp. Dzięki nierówności Dooba z zad. 11.4.4 twier­ dzenie o zbieżności martyngałów w Lp dla p > 1 można sformułować następująco: Twierdzenie 6. Niech (X n, Fn) pujące warunki są równoważne: będzie martyngatem i niech p > 1. Nastę­ {i) supngfjf|X n|p < oo, (ii) ciąg (|Xn| p)“ =0 jest jednostajnie całkowalny, (iii) ciąg (X n)n^fij jest zbieżny w Lp, (iv) istnieje taka zmienna losowa Y e Lp(fi,^r, P), że X n = £ (Y \F n), n = = 0,1,2,.... Jeśli te warunki są spełnione, to ciąg (X ri)n^ jest zbieżny p.n. do zmiennej losowej X € Lp, takiej, że X n = £ (X |T n) dła n = 0,1,2,..., przy czym X jest jedyną zmienną łosową mierzalną względem o^-Fo, J-i,...), dla której ta równość zachodzi. 3. Udowodnić twierdzenie 6. 4. Udowodnić odpowiednik tw. 6 (oczywiście bez warunku (i)!) w przypadku p = 1. Rozdział 11. Martyngały 248 §11.6. Twierdzenie Radona—Nikodyma Udowodnimy teraz, korz3rstając z twierdzenia o zbieżności nadmartyngałów, klasyczne twierdzenie o rozkładzie miary na część absolutnie ciągłą i singularną (osobliwą) względem innej miary. T w ierdzen ie 1 (R a d o n a -N ik o d y m a -L e b e s g u e ’a ). Niech p, i v będą miarami skończonymi na Istnieje wtedy taka funkcja mierzalna g: fi —>R + i taki zbiór S € T , że n( S) = 0 i dla każdego A e T (1 ) Ponadto funkcja g jest wyznaczona jednoznacznie z dokładnością do zbiorów zerowej miary ¡j,, zaś zbiór S — z dokładnością do zbiorów zerowej miary M+ v. Do dowodu przydadzą się podstawowe wiadomości o ciągach uogólnionych. Niech będzie przestrzenią metryczną zupełną, zaś T — zbiorem częzbiory filtrujące ściowo uporządkowanym przez relację < i skierowanym w prawo, co oznaw górę. cza, że dla każdej pary u ,v € T istnieje ograniczenie górne, czyli takie t £ T , że u < t i v < t. Niektórzy wolą D efin icja 2. Ciągiem uogólnionym nazywamy dowolną funkcję u :T —> E . Ciąg uogólniony będziemy oznaczać standardowo: (ut)ter- Definicja granicy ciągu jest oczywistą adaptacją zwykłej definicji granicy: D efin icja 3. Powiemy, że ciąg uogólniony (ui)teT jest zbieżny do u G E ( co oznaczamy limt ut = u) wtedy i tylko wtedy, gdy Ve > 0 3íq € T Vi e T i0 < t =$■ g(ut ,u ) < e. Dwa techniczne lematy pozwolą nam sprowadzić badanie zbieżności ciągów uogólnionych do badania „przyzwoitych” ciągów. L em at 4. Jeśli (ut)teT jest ciągiem uogólnionym takim, że dla każdego ro­ snącego ciągu wskaźników (in)nsN ciąg («tn) jest zbieżny, to ( ut)teT spełnia warunek Cauchy’ego: Ve > 0 3ío £ T \/teT tQ < t =*- Q{uto,u t) < e. D o w ó d . Gdyby tak nie było, mielibyśmy 3e > 0 Vi0 e T 3t e T (t0 < t A g(uto,u t) > e). Wybierając dowolne ii € T i definiując indukcyjnie t n+1 jako dowolny element T, dła którego tn < t n+1 i Q{utn,u tn+1) > e, otrzymujemy rosnący ciąg (in)neN, taki, że ( «í „) neN nie jest zbieżny, co przeczy założeniu. ■ 249 §11.6. Twierdzenie Radona-Nikodyma L em at 5. Jeśli ciąg uogólniony (ut)t^T spełnia warunek Cauchy’ego, to jest zbieżny, a ponadto istnieje rosnący ciąg indeksów (in)nen> dla którego lim utn = lim «t. n —»oo D o w ó d . Podstawiając w warunku Cauchy’ego e = l / n , otrzymujemy Vn £ N 3t'n e T VteT t'n < t =4> g(ut'n,u t) < —■ Definiujemy teraz indukcyjnie rosnący ciąg (in)neN: h = i'x; jeśli dane jest tn, to t n+1 jest dowolnym elementem większym od tn i t'n+1. Wtedy g{utn,u t) < 2 /n dla t ^ tn. Wynika stąd, że ciąg (i„ )neN spełnia warunek Cauchy’ego, zatem jest zbieżny do u. Zidentyfikowaliśmy granicę. Teraz, jeśli t ^ tn, mamy czyli limt ut = u. u W dalszym ciągu będziemy mieli do czynienia ze zbiorem skierowanym, jaki tworzą skończone, mierzalne rozbicia przestrzeni fi z naturalną relacją porządku: M l >■••) A n} ^ {-^1) ■•■) wtedy i tylko wtedy, gdy dla i = 1,2, .. . n Ai — Bkj, czyli gdy rozbicie po prawej stronie jest drobniejsze od tego po lewej. Nietrudno się domyślić, że będziemy rozpatrywać martyngał z takim wła­ śnie zbiorem indeksów. Naturalny przykład zamieszczamy poniżej. Dzięki udowodnionym lematom możemy ograniczyć się do badania rosnących cią­ gów indeksów, a to pozwala na zastosowanie teorii martyngałów z czasem dyskretnym, gdzie T = N. P rz y k ła d 6. Dana jest przestrzeń probabilistyczna (fi, T , P ) i skończona miara v , absolutnie ciągła względem P . Niech T oznacza zbiór wszyst­ kich skończonych rozbić fi, uporządkowany jak wyżej. Jeśli t 6 T i t = = { A \ , . . . , A*nt}, to definiujemy T t = o ( A [ , . . . , AJJ oraz dla u e A lj , gdy P (A ^) > 0, dla w e A ), gdy P (, 4}) = 0. Rozdział 11. Martyngały 250 Innymi słowy, X t jest gęstością miary v, obciętej do cr-ciała T u względem P (jeśli to nie jest oczywiste, Czytelnik zechce to potraktować jako zabawne zastosowanie lematu o 7r- i A-ukladach). Jasne jest, że C T s dla t < s. Wykażemy, że że ( X t, T t)teT jest martyngałem (zbiór indeksów jest co prawda nietypowy, ale przeniesienie definicji na ten przypadek nie nastręcza trudności). Niech t < s i niech A 6 i i . Wtedy Na zakończenie zauważmy, że dla każdego ciągu rosnącego (in)ngn ciąg (X tn) jest, na mocy twierdzenia 11.3.1 o zbieżności nadmartyngalów, zbież­ ny p.n. ■ D o w ó d twierdzenia Radona-Nikodyma. Niech c = ¿¿(fi)+i/(fi). Gdy c = 0, twierdzenie jest trywialne. Gdy c > 0, definiujemy P = ~ {n + v). c Jest oczywiste, że miara v jest absolutnie ciągła względem P. Jeśli skon­ struujemy martyngal (X t,J:t) taki, jak w przykładzie 6 , to dzięki temu, że |Xt| < c p.n. stwierdzimy — na mocy tw. Lebesgue’a — że dla każdego rosnącego ciągu (in)neN ciąg (X tn) jest zbieżny nie tylko prawie na pewno, ale i w -Ł1(ii, T , P). Z lematów 4 i 5 wynika, że ciąg uogólniony (X t)teT jest zbieżny w L 1(fi, T , P ) do zmiennej losowej X , czyli (2) Nietrudno się domyślić, że X jest gęstością miary v względem P, a proste rachunki pokazują, że gęstość v względem fi, powinna być równa X/(c —X ) tam, gdzie X < c. Zbiór { X = c } będzie zbiorem S występującym w (1). Sprawdzimy teraz formalnie, że X jest gęstością miary v względem P. Ustalmy zatem A E T i e > 0. Niech to będzie rozbiciem fi, którego istnienie gwarantuje warunek (2). Rozpatrzmy teraz rozbicie t, generowane przez io i zbiór A (jest to „wspólne zagęszczenie” rozbić to i {^4, A '}). Ponieważ to < i, mamy Jn \Xt — X \dP < e, i tym bardziej Ale f A X t dP = v(A ) (bowiem A e e wnioskujemy, że dla każdego A e f por. przykład 6 ). Wobec dowolności § 11.6. Twierdzenie Radona-Nikodyma 251 a stąd f(c-X )d u = Ja (3) Xdfi. [ Ja Standardowa metoda stopniowego komplikowania funkcji pokazuje, że dla dowolnej mierzalnej funkcji / i zbioru A e T mamy i f - ( c - X ) d v = [ fXdn. JA (4) JA Niech S = { X = c}. Podstawiając A = S do (3), otrzymujemy 0= i (c —X ) d v = Js i X dfi = cp(S) , Js skąd n (S ) = 0. Podobnie z (3) wynika, że v ( { X > c}) = fi({X > c}) = 0. Niech teraz dla oj e S", dla w e S. ] = (1/{ c - X { uj)) lO Podstawiając / do (4), otrzymujemy v{AnS') = f f-(c-X )d v= JAnS1 = ------ y d n = / [ fXd(i = JAnS' JAns1c —A / gdfi, JA gdzie , , yy 1 Í I H / ( c - X ( W)) lO dla S', dla w e 5. Ostatecznie dla dowolnego A € Jr mamy v(A) = v(A n s ) + v{A n S') = ^ n S ) + J gdp, czyli ( 1). Pozostała do wykazania jednoznaczność. Przypuśćmy, że powyższa zależ­ ność zachodzi także dla zbioru Si i funkcji gi. Wtedy dla każdego A e T v(A n S ) + / gdfj, = v(AC\ Si) + Ja / 51 d/i, ja skąd po podstawieniu A = S otrzymujemy u(S) = v(S ft Ą ) , ponieważ n(S) — fi(Si) = 0. Podobnie = v(Sif\S), więc v(S\Si) = u(Si\S) = = 0. Skoro dla każdego A e T jest v ( A f i S) = u ( A n £ 1), to JA gd/j, = JA g\ dfi, zatem g = g\ /¿-p.n. ■ Rozdział 11. Martyngaly 252 W n iosek 7. Jeśli skończona miara v jest absolutnie ciągła względem skoń­ czonej miary fi, to istnieje mierzalna funkcja g, dla której przy czym g Si 0 p.n. i g jest wyznaczona jednoznacznie z dokładnością do zbiorów zerowej miary fi. U w aga 8 . W dowodzie tw. Radona-Nikodyma-Lebesgue’a gęstość dv/dfi powstała „zdroworozsądkowo” , a mianowicie jako granica wyrażeń postaci H(A)+v{A) _ v(A ) Zadania 1. Wykazać, że monotoniczna funkcja / : R —* R jest różniczkowalna wszędzie z wyjątkiem zbioru o zerowej mierze Lebesgue’a. § 11.7. Miary produktowe i zastosowania w statystyce Każdy wie, że nie da się długo utrzymać w tajemnicy asymetrii monety czy też kości do gry. Wystarczy bowiem wykonać dostatecznie długą serię do­ świadczeń, i jeśli na przykład pojawi się podejrzanie dużo (albo podejrzanie mało) orłów, hipoteza o symetrii monety nie da się utrzymać. Tego rodzaju problemy są typowe dla statystyki. Statystyk formułuje pewną hipotezę dotyczącą modelu doświadczenia losowego, a następnie stara się ją zweryfikować doświadczalnie. W opisanej powyżej sytuacji hipotezę mo­ żemy sformułować następująco: „rozkład liczby orłów w n doświadczeniach jest rozkładem Bernoulliego z parametrami n, 1/2” . W wyniku ekspery­ mentu być może uda się odrzucić tę hipotezę — jeśli na przykład w serii 1000 rzutów wypadnie 900 lub więcej orłów. Przy 510 orłach chyba każdy zawahałby się przed odrzuceniem hipotezy. Niezależnie jednak od posia­ danej wiedzy statystycznej czujemy intuicyjnie, że im większe jest n, tym pewniejsze są wyniki. Uznajemy też, że podejmowanie decyzji na podstawie odchylenia liczby orłów od idealnej średniej (500) jest rozsądne, natomiast rozważanie np. parzystości liczby reszek jest pozbawione sensu. Postaramy się uzasadnić teoretycznie oba te stwierdzenia. Zaczniemy od prostego przykładu, w którym są dwie równouprawnione hipotezy. P rz y k ła d 1. Należy zdecydować, czy szansa otrzymania orła przy rzucie monetą wynosi p czy r (p i=- r, p ,r e [0,1]). Definiujemy zmienne losowe 253 § 11.7. Miary produktowe i zastosowania w statystyce JCn) ^ — 1 , 2 , . . . : ^ " _• i 1 \0 S^y w n-tym rzucie wypadł orzeł, gdy w n-tym rzucie wypadła reszka. Ponadto zdefiniujemy dwie funkcje pomocnicze: g (l) = r, £>(0) = 1 - r; 7r ( l ) = p , 7r(0) = l - p . Niech teraz ^ n ~ q(X i ) ■... ■g(X n) 7r/ { VXi )\ - . . . • 7r ( Xn ) / V \5 r v ^ n Okazuje się, że ciąg {Zn,Jrn)'^L1jest martyngałem względem prawdopodo­ bieństwa P , dla którego P (X n = 1) = p. Mamy bowiem ( Q{Xn) \ r 1-r N e \ir(Xn)J TvT = p_ ' P + l1------- p ( ! - ? ) = !. i wystarczy zastosować wynik z przykładu 11.2.5. Ponieważ Zn ^ 0, n = 1 ,2 ,..., z twierdzenia 11.3.1 o zbieżności nadmartyngałów wynika, że ciąg ( Zn) jest zbieżny P-p.n., a co więcej, granica jest równa zeru, jako że V r, e C ^ n + l) Zn+1 ~ Zn\ ( x n+1y więc limsupZn+i = limsupZn ■limsup ^ y n+1T i n n n 7 r (-^ n + l) ale drugi czynnik po prawej stronie jest różny od 1 (bo r ^ p), wobec tego lim supn Zn — 0 P-p.n. Jeśli orzeł wypada z prawdopodobieństwem r, to mamy do czynienia z roz­ kładem Q, ciąg (Z ~x,T n) jest martyngałem zbieżnym do zera Q-p.n., zatem (Zn) zmierza wtedy do nieskończoności. Widzimy, że martyngał (Zn, Tn) może służyć do podjęcia decyzji o wyborze między r i p. Im dłuższy jest czas obserwacji, tym bardziej staje się jasne, czy ciąg zmierza do zera, czy do nieskończoności. Całkowitej pewności jed­ nak nigdy mieć nie można. ■ Rozumowanie przedstawione w przykładzie 1 aż się prosi o uogólnienie. Zamiast dwóch rozkładów dwupunktowych należałoby rozpatrywać dwa dowolne rozkłady prawdopodobieństwa // i u, byle jeden był absolutnie ciągły względem drugiego (tak właśnie jest w przykładzie). Ciąg ( Zn ) byłby wtedy — tak, jak w przykładzie — ciągiem gęstości miary produktowej fi ® ® // względem v ® ® v. Rozdział 11. Martyngały 254 Udowodnimy teraz twierdzenie Kakutaniego o absolutnej ciągłości miar produktowych, co pozwoli na uogólnienie przykładu 1. Niech (Oo,-F) będzie przestrzenią mierzalną, (Pn) i (Qn) — określonymi na niej ciągami rozkładów prawdopodobieństwa. Niech fi = fi 0 x x ■•■; zmienna losowa X n niech będzie rzutem na n-tą współrzędną. Określamy teraz cr-ciała T n = a ( X i , . . . , X n) oraz = a (X i , X 2, . . .). Na tym ostat­ nim cr-ciele określone są prawdopodobieństwa produktowe: P = Pi <g>P2 <8>.. . T w ierd zen ie 2 (K a k u ta n ieg o). Niech dla każdego n miara Qn będzie absolutnie ciągła względem Pn, niech gn będzie odpowiednią gęstością i niech U = 9 i ( X x) - . . . - g n ( X n ). Wtedy (*) Un,Fn) jest martyngałem na (f ij- F ^ P ); (ii) jeśli t jest momentem stopu względem (T n)n, skończonym prawie wszędzie względem miary P + Q, to f T jest gęstością Q względem P na a-ciele T t \ (iii) Q jest albo absolutnie ciągła, albo singulama względem P . Jeśli to ( f n) jest zbieżny prawie na pewno i w L 1 do zmiennej losowej /<*>, która jest gęstością Q względem P na jeśli natomiast to limn_*oo f n = 0 P-prawie na pewno, i lim ^ o o f n = oo Q-prawie na pewno. D o w ó d , (i) jest oczywiste: wystarczy zauważyć, że f n jest iloczynem nie­ zależnych zmiennych losowych o wartości oczekiwanej równej 1, bowiem £gn(Xn) = [ J gn dPn = Qn(fio) = 1. § 11.7. Miary produktowe i zastosowania w statystyce 255 Żeby udowodnić (ii), wystarczy lekkie uogólnienie tej uwagi. Otóż dla do­ wolnego ciągu zbiorów B i ,. . . , Bn € T mamy 71 n Q (B i x .. . x B n x n 0 x ...) = n Qk(Bk) = n k= 1 r / 9kdPk = = / g1(X 1) - . . . - g n(X n)d P = JBiX...xBnxQ,oX... ■[ fndP. JBiX...xBnxQoX... Z lematu o 7r- i A-układach wynika natychmiast równość Q(B) = j f...d n P JBb dla wszystkich B € Tn. Załóżmy teraz, że r jest momentem stopu (P + Q)-p.w. skończonym. Jeśli B e T r , to oo oo „ Q (B ) = Q(B fi { r < oo}) = ^ Q(B fi { r = n }) = ^ / n =i = / f n dP = „ = 1 JBn{T=tt} f Td P = f f TdP. JJBC\{ b c \{ t < oo} o} Jb Pozostaje udowodnić (iii). Z nierówności Schwarza wynika, że 0 :. zatem zawsze 'Qo y OO w f, « TT / d-Pn < 00. „>1-=i1 JClo Załóżmy najpierw, że powyższy iloczyn jest. dodatni. Wystarczy udowodnić, że ciąg (v//n) jest zbieżny w L2(Cl, P ). Wtedy, jak łatwo pokazać (por. zad. 5.9.13), ciąg ( f n) jest zbieżny w L 1(fi,^r00,P ) do pewnej zmiennej losowej /oo. Daje to (bez stosowania jakiegokolwiek twierdzenia Lebesgue’a) równość Q(B) = /I U d P Jb dla wszystkich B € Ui^Li-^i w^ c na mocy lematu o 7r- i A-ukladach — dla wszystkich B e Natomiast zbieżność prawie wszędzie ciągu ( / „ ) do /oo wynika na przykład z twierdzenia o zbieżności nadmartyngałów. Rozdział 11. Martyngały 256 Pozostaje zatem udowodnić zbieżność w L2 ciągu (\/f^). W tym celu spraw­ dzimy warunek Cauchy’ego. Z niezależności zmiennych losowych X n i stąd, że / f n dP = 1, otrzymujemy J ( y / U * ~ V K ) * dP = 2 - 2 J — 2 2 y/fn+kfn d P = I fn \ / O n + 1 ( X n -l-l) ' . . . * Q n + k ( X n ^ k ) d P — = 2 -2 yfdjdPj. Wobec założenia o zbieżności iloczynu (do granicy dodatniej!), dla dosta­ tecznie dużych n i wszystkich k e N występujący powyżej fragment ilo­ czynu jest dowolnie bliski 1, zatem warunek Cauchy’ego jest spełniony. Kończy to dowód pierwszej części (iii). W celu udowodnienia drugiej części (iii) załóżmy, że Wynika stąd od razu, że dla n —> oo Ponieważ ciąg (t/7^) jest nieujemnym nadmartyngałem (jako funkcja wklę­ sła martyngału) na ( f i , ^ , ? ) , jest zbieżny prawie wszędzie. Jak widzieli­ śmy, jest zbieżny do zera w L 1, więc i P-prawie wszędzie. Pokażemy teraz, że f n —> oo Q-prawie wszędzie. W tym celu zauważmy, że ciąg (1 l\ f]n ,T n ) jest nadmartyngałem na (O, To^Oi)-. zmienne losowe 1/v 7 n są dobrze określone, jako że Q ( fn = 0) = =Qj f n dP = 0, a dla każdego n € N i B € T n mamy [ -± = d Q = [ ~ d P = J B V Jn JB V I n [ y ffn d P > [ y / U ^ d P JB JB Wnioskujemy teraz, podobnie jak w przypadku zbieżności ciągu (\[Jn)i że ciąg (1 /VJn) jest zbieżny Q-prawie wszędzie, a ponieważ J(l/y/J^)dQ = = J y/~fn dP —> 0 dla n —> oo, mamy zbieżność do zera w l 1 i (J-prawie wszędzie. ■ W n io se k 3. Jeśli Po i Qo są różnymi rozkładami prawdopodobieństwa na (f2o, F ), to rozkłady produktowe P = Po ® Po ® .. . i Q = Qo ® Q q ® .. . są na Too wzajemnie osobliwe. § 11.7. Miary produktowe i zastosowania w statystyce 257 D o w ó d . Wystarczy tu pokazać, że n ^ L i Jn0 \/9^Po = 0, gdzie g jest gęstością Qo względem Po, na co wystarcza, by Jn gdPo < 1. Otóż gdyby ostatnia całka była równa 1, to w nierówności Schwarza dla funkcji 1 i ^fg zachodziłaby równość, co oznaczałoby g = const p.w. względem Po, co jest równoważne równości rozkładów Po i Qo- * P rz y k ła d 4 (Zagadnienie dyskryminacji). Wiadomo, że modelem do­ świadczenia losowego jest jedna z przestrzeni probabilistycznych: (fi, T , P), (fi,^ 7, Q), przy czym istnieje gęstość g = dQ/dP. Na podstawie wyniku doświadczenia, czyli konkretnego zdarzenia elementarnego loq G fi należy zdecydować, czy faktycznym rozkładem jest P czy Q. Każdej metodzie decydowania odpowiada tzw. zbiór krytyczny A € T : je­ śli oJo € A, wybieramy Q, w przeciwnym razie wybieramy P . W praktyce błędne decyzje powinny kosztować, przyjmiemy więc, że wybranie Q za­ miast P wiąże się ze stratą Iq , zaś wybranie P zamiast Q — ze stratą lp. Założymy jeszcze, że dany jest pewien rozkład a priori, mianowicie szansa natrafienia na rozkład P jest równa p, na Q — równa q — 1 —p. Założenie Możemy teraz obliczyć średnie straty, gdy faktycznym rozkładem jest P o istnieniu rozkładu a priori i Q. Wynoszą one odpowiednio nie zawsze jest realistyczne Iq P{A) + 0-P{A') = IqP{A), i 0 -Q (A )+ lp Q (A ') = lpQ {A'). Całkowita średnia strata, zwana ryzykiem, wynosi r(A ) = plQP {A ) + qlp Q(A') = aP(A) + bQ(A'). W dalszym ciągu będziemy zakładać, że a, b > 0. Zobaczymy teraz, jaki zbiór krytyczny minimalizuje ryzyko. Mamy r(A ) = aP (A ) + b f g d P = f adP + [ b g d P > Ja ' Ja Ja ' > / min(a, bg)dP — i Jd a dP + j J bg dP = J {a>bg} = a P ( g > ^ ) + b Q ( g < “b ). Wyznaczyliśmy zatem ryzyko minimalne rmi„ = / min(a, bg) dP, Jęi które jest osiągane dla zbioru A = {g > f }. Jeśli powtórzymy doświadczenie n razy, ryzyko minimalne wyniesie Rozdział 11. Martyngaly 258 gdzie f n jest opisaną w twierdzeniu Kakutaniego (tw. 2) gęstością rozkładu Q ® ...<8>Q względem P <g>.. . <g>P = P®n. Ponieważ (fn, T n) jest martyngałem na przestrzeni (fi, Poo), to ciąg (min(a, &/„), T n) jest nadmartyngałem. Wobec tego rn+i < rn, n = 1,2. . ., a ponieważ lim ^ o o f n — 0 Poo-p.n., to rn | 0. Udowodniliśmy formalnie fakt intuicyjnie oczywisty: zwiększając liczbę do­ świadczeń, zmniejszamy ryzyko. ■ Zadania 1. Iloraz wiarogodności. Niech (X n) będzie ciągiem zmiennych losowych, 0 którym wiadomo, że wektor (X i, . .. ,X n) ma dla każdego n G N gęstość pn, albo dla każdego n 6 N ma gęstość qn. Statystycy definiują iloraz wia­ rogodności wzorem: \ f v . . , Xv n)i - Qn{X Xn(XU. X n ), przy założeniu (dla wygody), że faktyczna gęstość pn jest ciągła i pn(x) > 0 dla każdego x € R 71. Zwróćmy uwagę, że nie zakładamy niezależności zmiennych losowych X n. Wykazać, że (A„, cr(Ai,... An)) jest martyngałem zbieżnym p.n. 2. Archeolog ma podzielić znalezione na cmentarzysku czaszki na męskie i ko­ biece. Wiadomo, że obwód czaszki męskiej ma z dobrą dokładnością rozkład normalny o średniej 57 cm i odchyleniu standardowym 4 cm; dla czaszek kobiecych wartości te wynoszą odpowiednio 54 cm i 3 cm. Jak klasyfikować czaszki przy założeniu, że koszty błędnych decyzji obydwu rodzajów są jednakowe, a czaszki obu płci znajdowane są jednakowo często? Jakie jest prawdopodobieństwo błędnej decyzji? 3. W woreczku jest 5 monet symetrycznych i 5 takich, że orzeł wypada z praw­ dopodobieństwem p = 1/4. Rzucamy n = 100 razy losowo wybraną monetą 1 na podstawie wyniku doświadczenia decydujemy, czy moneta jest syme­ tryczna. Koszty błędnych decyzji obydwu rodzajów są jednakowe. Podać re­ gułę decyzyjną minimalizującą ryzyko. §11.8. Zastosowania w matematyce finansowej W tym paragrafie podamy rozwiązanie problemu wyceny produktu finan­ sowego oferowanego na rynku. Szczególnym przypadkiem takiego produktu jest opcja (europejska) zakupu akcji, czyli umowa, w której druga strona zobowiązuje się sprzedać w chwili t = T akcje po cenie wykonania K . Po­ wstaje pytanie: ile warto zapłacić za opcję w chwili 0? Rozważmy najprostszy model rynku finansowego, na którym handluje się w chwilach 0 ,1 , .. ., T instrumentem dającym stały zysk bez żadnego ryzyka § 11.8. Zastosowania w matematyce finansowej 259 (obligacją) i instrumentem dającym być może większy zysk, ale z ryzykiem (akcją). Ceny obligacji są deterministyczne, mianowicie cena jednej obligacji B t wynosi: Bo = 1, Bt = {l + r)\ i = 1 ,2 ,... T, gdzie r jest stałą stopą procentową, mówiącą o ile wzrosła wartość obli­ gacji pomiędzy momentami transakcji. Natomiast ceny jednej akcji St są zmiennymi losowymi. Cena akcji w momencie zero jest znaną liczbą SoNasza wiedza wynika z obserwacji cen, zatem informacje tworzą rosnący ciąg cr-ciał Tt = cr(So, S i ,. - •, St)- Handel akcjami i obligacjami polega na określeniu w czasie (i, i 4- 1), na podstawie wiedzy dostępnej do mo­ mentu i, portfela tzn. liczby akcji $ i+1 i liczby obligacji $ t+i, które chcemy posiadać w momencie t + 1. Skład portfela na moment i + 1 jest parą zmiennych losowych $t+i, '¡'t+i, zależnych od wiedzy do momentu t, a więc ij-mierzalnych. W momencie t + 1 znamy nowe ceny: nasza wiedza posze­ rzyła się. Korzystając z tego, w czasie (i + 1, t + 2) tworzymy nowy portfel na moment t + 2. Dlatego zawsze zakładamy, że procesy tworzące portfel są procesami prognozowalnymi (por. przykład 11.2.6). Gdy portfel w momencie 0 zawiera a akcji i ¡3 obligacji, to jego wartość wynosi Vó = ceSę + ¡3B0. W momencie i wartość portfela Vt wynosi Vt = $ tSt + y tB f Zakładamy, że inwestor zmienia swój portfel bez konsumpcji, bez dopływu kapitału z zewnątrz, a także nie ponosi żadnych kosztów transakcji. Dlatego mając w momencie t kapitał Vt — $ f5t + może go wydać i utworzyć nowy portfel kupując akcje po cenach St i obligacje po cenach Bt- Zatem $ (5 ; + 'btBt = + ^t+iBt(1) Stąd zmiana kapitału (zysk) w momencie t + 1 jest równy Vt+i ~V t = $ i+ i(5 t+j —St) + ^ i+ i(B i+x — B t)- (2) Wypłatą (europejską) nazywamy dowolną zmienną losową postaci X = = h(Sr) dla pewnej funkcji h (X interpretujemy jako sumę pieniędzy otrzy­ maną w momencie T). Sama funkcja h charakteryzuje produkt finansowy oferowany na rynku. Na przykład dla opcji kupna o cenie wykonania K mamy h(t) = ( t - K ) + , czyli wypłata jest równa h{ST) = (St - K ) + . Istotnie, ponieważ mamy prawo do zakupu akcji po cenie K , to jeśli cena rynkowa akcji jest wyższa, realizujemy opcję i zarabiamy St ~ K . Jeśli akcje Rozdział 11. Martyngały 260 są tańsze, czyli St ^ K , nie ma sensu realizować opcji i wtedy wypłata jest równa zeru. Ile taka wypłata powinna kosztować w momencie 0? Aby zdefiniować po­ prawnie cenę wypłaty X , wprowadza się pojęcie portfela replikującego. Port­ fel replikuje wypłatę X , gdy kapitał Vr, który on generuje w momencie T jest równy X (tzn. Vu; X(u>) = Vt(w ) )• Wartość portfela replikującego w momencie 0 nazywamy ceną wypłaty X , gdyż mając taki kapitał począt­ kowy i stosując portfel replikujący mamy w momencie T kapitał Vr — X . Zbudujemy model bardziej szczegółowy (Cox-Ross-Rubmstein). Niech Q = {g, d }T,P = /x®T, gdzie ¡i(g) = p = 1 - ¿t(d). Załóżmy, że stopa zwrotu z akcji R t = (St — S t-i)/ S t-i jest zmienną losową przyjmującą dwie war­ tości, a mianowicie dla u = (wj.,. . . , u>t ) mamy Rt(ui) = 6, gdy a>t = g, R t(u) = a, gdy = d, gdzie —1 < a < r < b. To założenie jest naturalne, bo jeśli r < a, to warto kupować tylko akcje, a w przypadku b < r tylko ob­ ligacje. Krótko mówiąc, ceny akcji zależą od wyników rzutów (niekoniecznie symetryczną) monetą. Do znalezienia ceny wypłaty X wykorzystamy twierdzenie o reprezenta­ cji martyngału, które w tym szczególnym przypadku będzie miało prostą postać (i dowód). Niech u k(u) = { 1 , v | —1 J[a Uk = 9: dla Wk = d, gt = c(uu ...,ut), t Zt = Y , ( V k - 2 p + l)fc=i Wtedy i7 i,. . . , Ut są niezależnymi zmiennymi losowymi i łatwo widać, że Zt jest martyngałem względem GtLem at 1. Gdy (Yt, Qt) jest martyngałem., to istnieje dokładnie jeden proces prognozowalny A taki, że t Yt = Y0 + Y , M Z k - Z k- i ) . fc=i D o w ó d . Zmienna losowa Yt jest ć/t-mierzalna, więc na mocy lematu 6.3.8 mamy Yt = ft (U i ,.. ■, Ut). Niech „ At_ f t(U1, . . . , U t - i ,_ l ) - f_ t - i ( U u . . . , U t - i ) . Z definicji widać, że A jest ciągiem prognozowalnym. Ponieważ (Yt, Gt) jest martyngałem, to £ {Yt I G t-1) = Y t- 1 , czyli pft(U u . . . , U t-u 1) + (1 - P)ft(Ui, Ut- i , - 1 ) = •••, U t-1). §11.8. Zastosowania w matematyce finansowej 261 Skorzystaliśmy tu z niezależności zmiennych losowych Ui oraz zad. 6.3.6. Stąd 2(1 - p ) _ -,U t-1. - 1 ) - ft-i(U i, •••, U t-1) -2 p a zatem A t = (Yt —Yt-i)/ {Z t — Zt- i ) , co daje tezę. Jedyność jest oczywi­ sta. ■ Z tego lematu wynika T w ierdzen ie 2. Portfel z kapitałem początkowym Vo replikujący wypłatę X istnieje wtedy i tylko wtedy, gdy gdzie P jest rozkładem zadanym przez ¡j,(g) — (r — a)/[b —a). Wtedy istnieje dokładnie jeden portfel replikujący wypłatę X , zatem cena wypłaty X w momencie 0 wynosi VoD o w ó d . =>• Niech Wt będzie zdyskontowanym procesem wartości portfela, tj- Wt = Vt/Bt. Korzystając z (2), a następnie z (1), otrzymujemy V t +1 — Vt = $ t + i R t + i S t + ' b t + i r B t 4- ( r i ż + i S t — r $ t+ i5 t ) = = $ t+iSt{Rt+i - r) + rVt. Zatem Vt+i — (1 + r)Vt = —r). A ponieważ zachodzi równość Rt+i —r = -(& —a)(Z t + 1 — Zt), (tu wykorzystaliśmy postać n(g)), to definiując Ai+1 = i ( 6 - a ) ( l + r ) - ( t+1)$ t+1Ą , wnioskujemy, że jest to proces prognozowalny, ograniczony, i taki, że Wt+1- W t = At+1(Zt+ 1- Z t). (3) Zt jest martyngałem względem miary P, zatem Wt jako transformata martyngałowa jest martyngałem. Stąd V0 = W0 = £W T = € ^ ~ y 262 Rozdział 11. Martyngały a ponieważ X = Vr, to £ <= Niech Yt = £ | = VoW tedy Y jest martyngałem, Y0 = Vq, więc z twierdzenia o reprezentacji wynika istnienie jedynego procesu prognozowalnego A takiego, że t Yt = Y0 + ' £ A k(Zk - Z k- 1). k= 1 Niech Vt = (1 + r )lYt i = (Vt — A tSt)B f 1. W tedy przy kapitale po­ czątkowym Vq portfel o składzie = A t ■(2Bt)/{(b — a)St~i) akcji i '£t obligacji jest jedynym portfelem replikującym wypłatę X . m U w aga 3. Gdy mamy do czynienia z opcją europejską kupna z ceną wy­ konania K , co oznacza, że posiadacz opcji otrzymuje wypłatę h(Sx) = = (St — K ) + , to portfel replikujący spełnia warunek <&t > 0 dla każdego t. Innymi słowy, portfel replikujący nie zmusza do krótkiej sprzedaży akcji, czyli pożyczenia akcji, sprzedania ich na rynku i zainwestowania otrzyma­ nych pieniędzy w obligacje. Dowód pozostawiamy jako zadanie. Zadania 1. Udowodnić uwagę 3. Rozdział 12 Łańcuchy Markowa § 12.1. Definicja i przykłady Zaczniemy od przykładu pozornie prostej gry. P rzy k ła d 1. Jacek i Placek obserwują kolejne wyniki rzutów symetryczną monetą i zapisują je. Gra kończy się wygraną Jacka, gdy w ciągu wyników pojawi się po raz pierwszy OOR, Placek wygrywa zaś wtedy, gdy doczeka się ciągu ORO. Jasne jest, że z prawdopodobieństwem 1 gra zakończy się. Mniej oczywiste jest, jak obliczyć szanse wygranej dla obu graczy (choć można to zrobić elementarnie, por. przykład 3.2.7). Nasuwa się jeszcze kilka pytań: Jeśli jeden z graczy wybrał pewien ciąg orłów i reszek, jaki ciąg (nie bę­ dący podciągiem ani nadciągiem pierwszego) powinien wybrać drugi gracz, by mieć największe szanse wygranej? Jaki jest średni czas oczekiwania na A jest nadciągiem pojawienie się danego ciągu (por. przykład 6.1.4)? B wtedy i tylko wtedy, gdy B jest podciągiem A. 1/2 00 1/2 START— O O je OK 1/2 OOR ■ OKO o Grę można sprowadzić do schematu gry planszowej, pokazanej na rysunku. Do wygranej Jacka prowadzą stany O, OR i ORO. Do wygranej Placka — O, 263 264 Rozdział 12. Łańcuchy Markowa OO i OOR. Prawdopodobieństwa przejścia pomiędzy stanami umieszczono przy strzałkach. Po dojściu do stanów OOR i ORO pozostajemy w nich. Odpowiedzi na postawione pytania można znaleźć w zadaniach 14-16. ■ Przykład ilustruje możliwości różnorodnych zastosowań łańcuchów Mar­ kowa. Próbki przydatności łańcuchów Markowa do rozwiązywania wielu zagadnień praktycznych będzie można zobaczyć w przykładach i zadaniach. Łańcuch Markowa (tak jak w przykładzie) charakteryzuje się pewną liczbą dopuszczalnych stanów i regułami przechodzenia pomiędzy nimi. Istotne jest to, że szansa znalezienia się w stanie A w chwili n zależy tylko od stanu, w jakim byliśmy w chwili n — 1, i od reguł przechodzenia. Zbiór przeliczalny może być skończony lub nieskończony. W celu sformalizowania pojęcia łańcucha Markowa będziemy rozpatrywać ciąg zmiennych losowych (Jfn)^_0 określonych na tej samej przestrzeni pro­ babilistycznej (fl ,T ,P ) . Zmienna losowa X n przyjmująca wartości z prze­ liczalnego zbioru S opisuje stan układu w chwili n. Będziemy się zajmo­ wali takimi układami obserwowalnymi w dyskretnych momentach czasu, dla których stan układu w momencie n + 1, czyli X n+i, zależy tylko od stanu układu w momencie n, tj. od X n, a nie zależy od całej przeszłości tzn. od wszystkich wartości X o, X i , . . . , X n- i , X n. Dokładniej, przyjmiemy następującą definicję: v/ D efin icja 2. Ciąg zmiennych losowych (X n)£L0 o wartościach w przeli­ czalnym zbiorze S (przestrzeni stanów) nazywamy łańcuchem Markowa wtedy i tylko wtedy, gdy dla każdego n £ N i każdego ciągu so, S i,.. ■, sn € S mamy P (X n — sn\Xn- i = sn—i , . . . , X\ — Si, X q — sq) = — P(,Xn = sn\Xn~i — sn_x), jeśli tylko P (X n-1 = s „ _ i , .. . , X x = s i , X 0 = s0) > 0 . Jest to własność Markowa ciągu zmiennych losowych (X n)^=0. P rz y k ła d 3. Ciąg niezależnych zmiennych losowych o wartościach w zbio­ rze S tworzy łańcuch Markowa. ■ P rz y k ła d 4 (B łą d zen ie p rzy p a d k ow e na p ro ste j). Jest to ciąg nieza­ leżnych zmiennych losowych (Un)%L0, gdzie dla n > 1 mamy P(Un = 1) = = p, P(Un = —1) = 1 — p, natomiast Uo jest dowolną zmienną losową o wartościach w zbiorze S = Z. Definiujemy X n = Uq + Ui + . . . + Un, n = 1,2, — łańcuch Markowa. Ciąg (X n) tworzy § 12.1. Definicja i przykłady 265 Intuicyjnie jest to oczywiste, bo X n = X n~.x + Un, zaś X n- i i Un są niezależne. Formalnie, gdy P (X n^1 = sn_ i , . . . , = s i ,X 0 = sQ) > 0, to jak łatwo widać P {X n — Sn\Xn—i — Sn_X} ■■•j X q — So) ~ P{Un ~ $n — P(JJn — Sn ^n—1? X n—1 — D /V __ 'k *\Xn—1 — $n—lj l) — n/ \r *\ X n — ^n—l) ” iv \ 5 n |yCn __i — Ciąg (X n) opisuje losowe błądzenie po prostej. Innymi słowy, (X n) opisuje kapitał gracza w nieskończonej grze, w której może on wygrać jedną stawkę z prawdopodobieństwem p i przegrać jedną stawkę z prawdopodobieństwem 1 —p .X 0 jest równe kapitałowi początkowemu gracza. Jak zwykle, ujemne wartości X n interpretujemy jako dług gracza. ■ P rzy k ła d 5. Rozpatrzmy grę planszową o trzech polach: s x,s 2 i s 3 - Na początku losujemy, gdzie postawić pionek. Następnie, zależnie od pola, na którym stoimy, losujemy pole, na które przesuniemy pionek. W tym celu potrzebne jest dziewięć prawdopodobieństw przejścia Pij z pola Si do Sj, gdzie i , j = 1,2,3. Są one takie same dla każdego kroku (choć można by przyjąć, że za każdym razem są one inne). Zakładamy ponadto, że kolejne losowania są niezależne. Przyjmiemy, że prawdopodobieństwa przejścia mają wartości podane na rysunku. Możemy je także zapisać w postaci macierzy: ( Pn p = [P21 \P31 P12 Pi z \ ( 0,3 P22 P23 = 0,4 P32 P33 J \0,3 0,2 0,3 0,7 0,5 \ 0,3 0 ,0 / Zwróćmy uwagę, że suma każdego wiersza wynosi 1 (dlaczego?). Niech X 0, X i , .. . będzie ciągiem zmiennych losowych opisujących kolejne położenia pionka w tej grze. Oznaczmy P {X 0 = Sj) = P i ( 0 ) , i = 1,2,3. Możemy bez trudu wyznaczyć rozkład zmiennej losowej X x, czyli liczby Pk( 1) = P (X i = Sfc), k = 1,2,3, opierając się na podanych regułach gry. Rozdział 12. Łańcuchy Markowa 266 Mamy pfc(l) = P ( X x = sk\XQ= Sl) •P {X o = si) + (1) + P (X i = sfc|Zo = S2) •P (X o = S2) + + P ( X x = sk\X0 = s3) •P ( * 0 = « 3) = = Plfc - P l ( 0 ) + P 2 k ' P2 ( 0 ) “ t~ PSk - P 3 ( 0 ) . W postaci macierzowej da się to zapisać krótko: (P l(0 ),P 2 (0 ),P 3 (0 )) f P 11 P 12 P21 P22 P23 \P31 P32 P33 / P 13 \ = (P l(l),P 2 (l),P 3 (l))- Jak widać, maszyneria służąca do obliczania prawdopodobieństw znalezie­ nia się w poszczególnych stanach w kolejnych krokach jest bardzo prosta. Możemy bez trudu wyznaczyć rozkład X n+1, znając rozkład X n. Oto wy­ niki obliczeń dla kolejnych dziesięciu kroków. Za pierwszym razem startu­ jem y ze stanu si, za drugim — z S 3. T ab ela 1. Prawdopodobieństwa znalezienia się w poszczególnych stanach dla dziesięciu kolejnych kroków. n pi(n) p 2(n ) ps(n) 0 1 2 3 4 5 6 7 8 9 1,0000 0,3000 0,3200 0,3470 0,3352 0,3386 0,3378 0,3379 0,3379 0,3379 0,0000 0,2000 0,4700 0,3520 0,3857 0,3781 0,3795 0,3793 0,3793 0,3793 0,0000 0,5000 0,2100 0,3010 0,2791 0,2833 0,2827 0,2827 0,2828 0,2828 P i(n ) 0,0000 0,3000 0,3700 0,3270 0,3407 0,3374 0,3380 0,3379 0,3379 0,3379 Dane z tabeli przedstawiamy na wykresach poniżej. P2{n) p 3( n ) 0,0000 0,7000 0,2700 0,4070 0,3737 0,3802 0,3792 0,3793 0,3793 0,3793 1,0000 0,0000 0,3600 0,2660 0,2856 0,2825 0,2827 0,2828 0,2828 0,2828 § 12.1. Definicja i przykłady 267 Prawdopodobieństwa znalezienia, się w poszczególnych stanach możemy potraktować jako współrzędne barycentryczne punktu w trójkącie rów­ nobocznym: jeśli X\, x 2 i Xz są wierzchołkami trójkąta równobocznego i x = p ix t + p2x2 + psx 3, p 1 + p2 + p3 = 1, Pi ^ 0 dla i = 1,2,3, to pi, p2 i P3 nazywamy współrzędnymi barycentrycznymi punktu x. Na rysunku przedstawiono ewolucję układu w trzech pierwszych krokach. Nietrudno się domyślić, że punkt odpowiadający rozkładowi stacjonarnemu jest jedynym elementem części wspólnej rodziny trójkątów, z których pierwsze trzy po­ kazano na rysunku: n-ty trójkąt reprezentuje dopuszczalne rozkłady praw­ dopodobieństwa zmiennej losowej X n. 3 Widzimy, że po pewnym czasie układ praktycznie zapomina o stanie po­ czątkowym, bowiem rozkład zmiennej losowej X n zmierza do tak zwanego rozkładu stacjonarnego (zajmiemy się tym zjawiskiem później, w §12.5). Rozkład stacjonarny jest reprezentowany przez wektor = (7rj,. . . , nn), dla którego ttP = 7r, czyli odpowiednio unormowany wektor własny macie­ rzy P. W naszym przypadku jest to wektor (0,3379,0,3793,0,2828). To, że (X n) jest łańcuchem Markowa, wynika na przykład z zadania 1. ■ Zapiszemy teraz formalnie wnioski z przykładu. D efin icja 6. Macierz P = (pij)i,jes nazywamy macierzą przejścia na S, gdy wszystkie jej wyrazy są nieujemne, a ponadto suma każdego wiersza Rozdział 12. Łańcuchy Markowa 268 wynosi 1, czyli dla każdego i € S = L J€S Taką macierz nazywamy również macierzą stochastyczną. W naszym przykładzie macierz przejścia dla każdego kroku została zadana z góry i była taka sama dla każdego kroku. Ogólnie nie musi tak być. Ma­ cierz przejścia U(n) = (irij(n))ij^s nazwiemy macierzą przejścia łańcucha Markowa (X n)£L0 w n-tym kroku, n ^ 1, gdy Ttij[n) — P (X n = S j\Xn „ i = S j) dla wszystkich takich i, dla których P (X n_ i = Si) > 0. Niestety, macierz II(n) nie jest wyznaczona jednoznacznie, co widać z try­ wialnego przykładu: niech S = {0 ,1 ,2 }, X n = 0 dla n = 0,1, 2 ,.... Wtedy każda macierz stochastyczna o pierwszym wierszu (1,0,0) jest macierzą przejścia w n-tym kroku dla (X n). Nie będziemy dowodzić istnienia tej ma­ cierzy, zresztą we wszystkich zadaniach jest ona w mniej lub bardziej jawny sposób dana z góry. W dalszym ciągu będziemy badać wyłącznie zdefiniowane poniżej łańcuchy Markowa jednorodne w czasie. Można je opisać w pełni przez podanie roz­ kładu początkowego p,x„ i jednej macierzy przejścia P = II(ra), n — 1,2, — D efin icja 7. Jeśli (X n)^> =0 jest łańcuchem Markowa, to rozkład zmien­ nej losowej Xo nazywamy rozkładem początkowym. Łańcuch Markowa na­ zywamy jednorodnym ( albo jednorodnym w czasie), gdy istnieje macierz P = (p ij)ijęS : będąca dla każdego n jego macierzą przejścia w n-tym kroku. W przypadku opisanym w definicji dla każdego n i dla każdego ciągu s0,s i, •••, sn e S mamy P (X n — Sn\Xn—\ = . . . , X l — Si, X q So) — Psn —isnl jeśli tylko P (X n-1 = sn_ i , . . . , X i = Si, Xo = so) > 0 . Rozkłady skończenie wymiarowe łańcucha Markowa, czyli rozkłady wekto­ rów (X k1, ■■■,X k n) spełniają zależność (zad. 20): P (X o = 5o, •••, X n — Sn) — P (^ o = sq)p S()Si ' ■•■' Psn-lSnl (2) są więc wyznaczone jednoznacznie przez rozkład początkowy i macierz przejścia. Najczęściej spotykany sposób definiowania łańcuchów Markowa jest uspra­ wiedliwiony przez §12.1. Definicja i przykłady 269 Twierdzenie 8. Dla każdego rozkładu prawdopodobieństwa Q na S i ma­ cierzy przejścia P na S istnieje na pewnej przestrzeni probabilistycznej łań­ cuch Markowa o rozkładzie początkowym Q i macierzy przejścia P. Jeden ze sposobów dowodu polega na naśladowaniu postępowania z przy­ kładu 5 (patrz zad. 2). Inny — z twierdzenia Kołmogorowa C.4.2, bowiem rozkłady skończenie wymiarowe są zgodne, co wynika z (2). Przykład 9. Błądzenie przypadkowe z barierami elastycznymi. Niech S = { 0 ,1 ,... ,a }, i niech macierz przejścia (w jednym kroku) P ma postać / 1 ( l - r 0)g 0 0 ... r0q p 0 q 0 p q 0 0 p 0 o o o 0 0 p q rap 0 V 0 o o o \ o (1 - r a)p 1 / gdzie p ,q ^ 0, p + q = 1, 0 ś, r0,r a < 1 . Gdy r0 < 1 i ra < 1, jest to błą­ dzenie z barierami pochłaniającymi (osiągając stan 0 lub a zostajemy tam za zawsze). Gdy r0 = 1 = ra, to jest to błądzenie z barierami odbijającymi (układ startując ze stanu wewnętrznego nigdy nie dotrze do 0 ani do a). W języku teorii gier łańcuch ten odpowiada grze dwu przeciwników A i B, w której obaj mają łącznie a złotych. Gracz A wygrywa 1 złoty w pojedyn­ czej grze z prawdopodobieństwem p. Stan układu w momencie n odpowiada kapitałowi gracza A w momencie n. fix0(k) = 1, gdy początkowy kapitał gracza A wynosi k. Dojście do stanu 0 (odp. a) 'oznacza ruinę gracza A (odp^B ). Za każdym razem, gdy gracz A (odp. B ) przegrywa ostatnią złotówkę, to przeciwnik mu ją oddaje z prawdopodobieństwem ro (odp. ra), a z prawdopodobieństwem 1 —ro (odp. 1 —ra) gra się kończy. Gdy są dwie bariery odbijające, to gra nie kończy się nigdy. ■ Podstawowe własności jednorodnego łańcucha Markowa zawiera T w ierdzen ie 10. Gdy (X n)'^LQjest jednorodnym łańcuchem Markowa, to zachodzą następujące zależności, przy założeniu, że w punktach (a), (b), (c) warunki w prawdopodobieństwach warunkowych mają dodatnie prawdopo­ dobieństwa: (a) dla dowolnych m ,n £ N i dowolnych sq, s % ,. . . , sn € S P (X i = s i ,X 2 = S2> ••■,X n = sn|.Xo = so) = P(-^7Tl+l “ Sl, . . . , X n+m = sn\Xm — Sq) , Rozdział 12. Łańcuchy Markowa 270 (b) dla dowolnych m ,n G N i dowolnych so, sj € S ■P(-X"n+m = Sll-^m = sa) = P {X n = Sl|-Xo = -So); (c) dla dowolnych m ,n £ N i dowolnych ¿o, i i , . . . , im, ji , ■■■j n 6 5 P {X i " ¿1, . . . , X m -^ra+1 = jh - - ■j -^m+n — ./nj-^O) ~ ^o) ~ — P (X i = ¿1, . . . , X m im ]X q io)P(,Xl j l , . . . , X n ” j n \Xq = %m) ] (d) jeśli A e cr(Xn, X n+i , .. .) , to PM |X0, X l5. . . , Z n) = P (A | X n). D o w ó d . Punkt (a) jest oczywisty, gdyż z twierdzenia o mnożeniu i z defi­ nicji jednorodnego łańcucha Markowa P (X x — Sl y' •■’ Sn \Xq Sq) “ PsqSiPsiS 2 •■•P sn- i s n S i , - - - , X rrl-^~n “ ~ So). Punkty (b) i (c) dowodzi się podobnie. (d) Rodzina zbiorów .4 spełniających ten warunek jest A-układem. Ro­ dzina C zbiorów 6 B i , ... , X km 6 Bm}, n < ki < fc2 < ••• < km, m = 1 ,2 ,..., Bi C S, jest 7r-układem zawartym w A, więc z lematu o tti A-ukladach cr(C) = a (X n, X n+1, .. .) C A. To, że £ C A wynika z poniż­ szej zależności, zachodzącej dla dowolnego m: X 0, . . . , X n ) = £ M l 1l-{x n+teBl} X r. 1=0 ( 3) którą dowodzimy indukcyjnie. ■ Macierz przejścia P łańcucha Markowa składa się z prawdopodobieństw przejść w jednym kroku. Zajmiemy się teraz możliwościami przejść w więk­ szej liczbie kroków. Już z przykładu 1 widać, że prawdopodobieństwa przej­ ścia w w krokach tworzą macierz p n ozn p ( n ) _ ( p i3- ( n ) ) { j -e S Udowodnimy, że P i j { n ) jest faktycznie prawdopodobieństwem przejścia ze stanu Si do Sj w n krokach, czyli że e N pij(n) = P (X l+n = sj |Xi = Sl), (4) o ile P (X i = i) > 0. Istotnie, dla n = 1 wzór (4) jest po prostu definicją macierzy przejścia. W y­ konamy teraz przejście indukcyjne: załóżmy, że (4) zachodzi dla pewnego n; wykażemy jego prawdziwość dla n + 1. Niech zatem l będzie takie, że § 12.1. Definicja i przykłady 271 P (X i = Si) > 0 . Oznaczmy przez S+ zbiór takich stanów smj dla których P (X i + 1 ~ sm, Xi — Si) > 0 i zauważmy, że pim — 0, jeśli m $ S+. Teraz P{'Xl-\-n+l — Sj\Xi ~ Si) — ^ ''j — £>{X i+ n-f-i Sj\Xl^i $rriiXi — = S7n\Xi — $i) = ^>{,XlĄ-njr\ Sj\Xi +i = Sm)P(Xi-^i = 77l\Xi = Sj) = { 7n:sme5+} — ^ ^ { r n : s m G 5 -(-} ~ ^ -/ Pmjip^Pim {m .:sm G 5 -f} 'y ^ Pmjij^PiTn “ P i j ( j ł ~h 1), { m :s ,n € S } czego należało dowieść. Innym sposobem zapisu związku P (l)P (k ) — P (k + l), wynikającego stąd, że P (n ) = P n są równania Chapmana-Kołmogorowa dla prawdopodobieństw przejścia: Vf c , / £ N V S i,S j£S Pijjk + l) — Y,Pim(k)Pmj{l), Podsumujmy praktyczne wnioski z podanych twierdzeń i definicji: po pierw­ sze, macierz przejścia P jednoznacznie określa prawdopodobieństwa przejść w dowolnej liczbie kroków. Tak na przykład: P { X i = S j , X 7 = Sk ,X 13 = S[\X2 = Si) = pij(2)pjh(3)pki(6). Po drugie, oznaczając jemy z (4): P i(n) = P (X n = s,), Si £ S, n = 0 ,1 ,..., otrzymu­ Pi(n) = Y , P ( X n = Si|X0 = sk)P (X 0 = sk) = ] T p fci(n)pfc(0). (5) k Zatem znając rozkład początkowy, dany przez wektor (p o(0 ),p i(0 ),...) i macierz przejścia P możemy wyliczyć rozkład X n: (po{n),Pi(n), ...) = (po(O)iPi (0 ),.. .)P n. P rzy k ła d 11. Łańcuch Markowa o dwu stanach, S = {0 ,1 }, ma macierz przejścia Gdy poo / 1 lub pu ^ 1, łatwo udowodnić indukcyjnie (zad. 10), że + (1 - Poo ) 1 - Pu 272 Rozdział 12. Łańcuchy Markowa Ten prosty łańcuch Markowa opisuje wiele sytuacji, np. kolejne wyniki rzu­ tów monetą, system telekomunikacyjny przekazujący tylko cyfry 0 i 1, przy czym na każdym etapie prawdopodobieństwo, że cyfra nie będzie zmieniona wynosi p. ■ Łańcuchy Markowa zostały wprowadzone do teorii prawdopodobieństwa przez matematyka rosyjskiego, Andrieja Andriejewicza Markowa (1856-1922). Marków brał czynny udział w rosyjskim ruchu liberalnym. W 1913 roku, gdy uroczyście obchodzono w Petersburgu 300-lecie panowania Romanowów, Marków zorganizo­ wał konkurencyjne obchody 200-lecia odkrycia prawa wielkich liczb przez Bernoulliego. W tymże 1913 roku Marków przeanalizował ciąg 20000 liter poematu Puszkina „Eugeniusz Oniegin” , by dowieść, że jest on dobrym przybliżeniem łańcucha Mar­ kowa. Dzieląc stany na samogłoski i spółgłoski otrzymał następującą macierz przejścia: Samogłoska Spółgłoska Samogłoska 0,128 0,663 spółgłoska 0,872 0,337 Rozkładem stacjonarnym (czyli odpowiednio unormowanym wektorem własnym tej macierzy) jest (0,432; 0,568), co oznacza, że w tekście „Eugeniusza Oniegina” powinno być 43,2% samogłosek i 56,8% spółgłosek. I rzeczywiście tak jest1. Zadania 1. Niech (Un) będzie ciągiem niezależnych zmiennych losowych, (pn: S X R. —>5, n = 0 ,1 ,2 ,... będą funkcjami borelowskimi (5 jest zbiorem przeliczalnym z metryką dyskretną). Niech Xo będzie zmienną losową o wartościach w S niezależną od ciągu (Un) i niech A n+i = U n ), 71 = 0 , 1 , 2 , . . . . Wykazać, że (X n) jest łańcuchem Markowa. 2. Udowodnić twierdzenie 8, korzystając z zadania 1. 3. Niech (Un) będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie, P(Un = 1) = P(Un = —1) = 5 . Czy a) X n = Un ■Un+ 1, b) Yn = Un+^n+1 Są łańcuchami Markowa? 4. Pokazać przykład łańcucha Markowa Xo, X i, ... i dowolnej funkcji borelowskiej / , takich że f ( X 0), f ( X 1) , .. . nie jest łańcuchem Markowa. 5. Udowodnić zależność (3) z dowodu tw. lOd. 1Fakty z życia Markowa podajem y za [SNE], § 12.1. Definicja i przykłady 273 6 . Niech X n będzie błądzeniem przypadkowym na prostej z przykł. 4, Xo = 0. Pokazać, że ciągi (Yn) i (Zn), zdefiniowane wzorami a) Yn = |X„|, b) Zn —. Un X n, gdzie U7l = maxfc^nX^, są łańcuchami Markowa; znaleźć ich macierze przejścia. 7. Niech X i Z będą łańcuchami Markowa o wartościach całkowitoliczbowych. Czy X + Z musi być łańcuchem Markowa? 8 . Seminarium probabilistyczne jest organizowane przez matematyków z To­ runia, Warszawy i Wrocławia. Na zakończenie każdego spotkania losuje się z równymi prawdopodobieństwami miejsce następnego spośród dwóch pozo­ stałych ośrodków. Czy taka procedura jest sprawiedliwa, zważywszy, że or­ ganizacja seminarium wiąże się z kosztami dla gospodarzy? Jakiego rodzaju twierdzenie o łańcuchach Markowa rozstrzygnęłoby tę kwestię? A na razie: podać macierz przejścia odpowiedniego łańcucha Markowa, obli- Patrz np. § 12.5. czyć prawdopodobieństwa znalezienia się w poszczególnych stanach w chwili n i ich granice przy n —* oo. Zbadać szybkość zbieżności. 9. Niech (Xn) będzie jednorodnym łańcuchem Markowa na przestrzeni proba­ bilistycznej (ii ,F ,P ) i niech no € N,s e S będą takie, że P (X no = s) > 0. Wtedy na przestrzeni probabilistycznej (il,F ,P s), gdzie Ps jest prawdo­ podobieństwem na T zadanym wzorem PS(B) = P(B\Xno = .s), proces ^n(w) = Xng-i-n(w) jest łańcuchem Markowa z tą samą macierzą przejścia co Xn i takim, że PS(Y0 = s0) = 6s(so). 10. Wykazać indukcyjnie prawdziwość wzoru na postać P(n) z przykładu 11. IX. Cząstka porusza się wzdłuż osi OX ze stałą prędkością +v lub —v. W chwi­ lach 1, 2, . . . kierunek ruchu pozostaje bez zmian z prawdopodobieństwem p, a z praw. q = 1 —p zmienia się na przeciwny. Zmienna X n opisuje kierunek ruchu w momencie n. Znaleźć P (X „ = +u|X0 = -v ) , P (X 0 = +v\Xn = +«) oraz rozkład X n, gdy wiemy, że P(X o = v ) = r. 12 . k kul białych i k kul czarnych umieszczono w dwu pudełkach, po k kul w każdym. Stan układu jest opisany przez podanie liczby kul białych w pierwszym pudełku. Przejście pomiędzy stanami odbywa się w następujący sposób: z obu pudełek losujemy po jednej kuli (niezależnie od siebie), po czym zamieniamy dla kuł pudelka. Znaleźć macierz przejścia dla takiego łańcucha Markowa (jest to model dyfuzji Bernoulliego-Laplace’a przepływu płynów pomiędzy dwoma zbiornikami). 13. Niech X, Y będą niezależnymi łańcuchami Markowa, oba z macierzą przejścia P. Udowodnić, że Z = (X, Y) jest łańcuchem Markowa z macierzą przejścia Pij,hk = PihPjk- Czas oczekiwania na wystąpienie wzorca. Jak się okazuje, czas oczekiwania na wystąpienie ciągu orłów i reszek (przykład 1) zależy od tego, czy przesunięty wzorzec pokrywa się sam ze sobą. Dokładniej, jeśli A jest Z-elementowym, a B — m-ełementowym ciągiem orłów i reszek, A^ oznacza ciąg pierwszych k wy­ razów, zaś A(fc) — ciąg ostatnich k wyrazów ciągu A, dla A: = 1 , 2 , . . . , min (i, m) definiujemy Rozdział 12. Łańcuchy Markowa 274 oraz m in(£,m ) A :B = Sh(A ,B ). k=1 Sposób obliczania A : B najlepiej przedstawić na przykładzie: 0000 A = B = OOOR OOOR OOOR OOOR A :B = 0 8 4 2 14 *14. Wykazać, że średni czas oczekiwania na pojawienie się wzorca A jest równy A : A. Px' prawdopodo- * 15 . Wykazać, że jeśli gracz wybrał wzorzec A, a jego przeciwnik wzorzec B, to bieństwo wygranej szanse na korzyść B są równe dla wzorca X. Pb _ A : A —A : B Pa B : B - B : A' Jest to wzór Conwaya. *16. Wykazać, że jeśli jeden z graczy wybrał wzorzec o ia 2 . . . am, to drugi zmaksy­ malizuje szanse swojej wygranej, gdy wybierze lepszy z wzorców b a i. . . am_i, gdzie b może być orłem lub reszką. *17. Przenieść całą teorię wyłożoną w zadaniach 14-16 na przypadek niesyme­ tryczny. Pewnych wskazówek co do postaci wzorów dostarczają zad. 6.2.3 i przykład 6.2.4. Funkcje harm oniczne. Jeśli (X n) jest łańcuchem Markowa o przestrzeni sta­ nów S i macierzy przejścia (pij), to funkcją harmoniczną nazywamy taką funkcję f : S —>R , że istnieje stała A, dla której zachodzi równość \f(*) = £ * , / ( * ) ■ 3£S 18. Wykazać, że jeśli / jest funkcją harmoniczną na łańcuchu Markowa (X „) o skończonej przestrzeni stanów, to ciąg (Anf ( X n),c r (X i,. . . , X n)) jest martyngałem. 19. Rozwiązać zagadnienie ruiny gracza konstruując odpowiedni łańcuch Mar­ kowa i funkcję harmoniczną. 20. We wzorach (1) i (5) kryje się — co prawda nieszkodliwe — oszustwo. Podać poprawne dowody tych zależności, a następnie udowodnić zależność (4). i § 12.2. Klasyfikacja stanów Badanie ewolucji jednorodnych łańcuchów Markowa o macierzy przejścia P = (P ij)ijes zaczniemy od klasyfikacji stanów ze względu na możliwości przejścia między nimi. § 12.2. Klasyfikacja stanów 275 Będziemy mówili, że stan sk jest osiągalny ze stanu Sj, gdy Pjk(n) > O dla pewnego n (oznaczenie: Sj —t s k)- Stany sk i Sj nazywamy wzajemnie komunikującymi się, gdy Sj —* sk i sk —>Sj (co oznaczamy Sj <— >s*). Stan Sk nazywamy stanem nieistotnym, gdy istnieje stan Sj taki, że stan sj jest osiągalny ze stanu sk, a stan sk nie jest osiągalny ze stanu Sj. Na rysunku stan si jest nieistotny, stany s2 i s3 komunikują się wzajemnie. P rz y k ła d 1. W błądzeniu przypadkowym po prostej (przykład 12.1.4) i błądzeniu z barierami elastycznymi (przykład 12.1.9) wszystkie stany są wzajemnie komunikujące się. W błądzeniu z barierami pochłaniającymi stany 1 ,2 ,..., a — 1 są nieistotne. ■ Zbiór stanów C będziemy nazywali zamkniętym, jeżeli żaden stan spoza C nie da się osiągnąć wychodząc z dowolnego stanu w C. Pojedynczy stan Sk tworzący zbiór zamknięty (tzn. pkk = 1) będziemy nazywali stanem pochłaniającym (na przykład w błądzeniu z barierami pochłaniającymi — bariery, czyli stany 0 i a są stanami pochłaniającymi). Pochłaniające są także stany OOR i ORO w przykładzie 12.1.1. Łańcuch Markowa nazywamy nieprzywiedlnym, gdy wszystkie stany wza­ jemnie komunikują się. U w aga 2. Rozpatrzmy zamknięty zbiór stanów C C S. Niech gy - py dla Si, Sj 6 C (w macierzy P skreślamy wiersze i kolumny odpowiadające stanom nie należącym do zbioru C). Wtedy macierz Q jest stochastyczna, bo dla dowolnego s; 6 E 1 = J 2 Pik = Y , ^ Sfc€S sit£C gdyż pik = 0 dla st e C, sk £ C z definicji zamkniętego zbioru stanów. Oznacza to, że na C mamy zdefiniowany nowy łańcuch Markowa, który określa zachowanie całego łańcucha po wpadnięciu do zamkniętego zbioru stanów C. S tw ierdzenie 3. Jeśli Si —> s j, Sj —» s/; , to Si —* sk. Rozdział 12. Łańcuchy Markowa 276 D o w ó d . Weźmy r, n takie, że Pij(r) > 0, Pjk(n) > 0. Wtedy z równania Chapmana-Kołmogorowa P ik {n + r) = Y ^ P u ( r )Pik(ri) ^ p ij{r)p jk{n) > 0. ■ i Dlatego relacja <— >, która jest symetryczna, jest także przechodnia. W n iosek 4. Jeśli Si <— » Sj, Sj <— > s^, to Si <— >SkP rzy k ła d 5. Łańcuch Markowa na przestrzeni stanów S = { 1 , 2 ,. .. 5} ma następującą macierz przejścia / ° 1 2 0 0 \1 d> 1 0 3 0 4 1 0 2 0 0 0 12 1 4 1 2 0 °\ 0 0 0 o ) ,b ) (\ 2 3 0 2 3 1 3 0 0 0 \0 0 0 0 °\ 0 1 4 1 4 1 2 0 0 3 4 1 2 0 1 4 0 1 2 0 0 1 4 0 0 0 \1 0 /I . c) 0 0 0 1 2 1 2 0 0 1 2 1 2 0 °\ 1 4 0 0 0 / Wtedy a) stany 1,2,5 są nieistotne; {3 ,4 } oraz S są zamkniętymi zbiorami stanów; gdy ograniczymy się do C = {3 ,4 } mamy nieprzywiedlny łańcuch Markowa, b) {1 ,2 }, {3 ,5 }, {3 ,4 ,5 } i S są zamkniętymi zbiorami stanów, 4 jest stanem nieistotnym; gdy ograniczymy się do Ci = {1 ,2 } lub C2 = {3 ,5 } mamy nieprzywiedlny łańcuch Markowa, c) 2,5 są stanami nieistotnymi; {1 }, {1 ,2 ,5 }, {3 ,4 } i S są zamkniętymi zbiorami stanów, przy czym 1 jest stanem pochłaniającym, a gdy ogra­ niczymy się do {3 ,4 } to mamy nieprzywiedlny łańcuch Markowa. ■ Zadania 1. Niech Xi będą wynikami kolejnych rzutów kostką, i niech Zn będzie ostatnią cyfrą liczby Xy ■ ■X n. Jakie są stany pochłaniające łańcucha Markowa ZrJ § 12.3. Stany chwilowe i powracające 277 2. Mówimy, ze (X n) jest łańcuchem Markowa jednorodnym w czasie i w prze­ strzeni, gdy S = Z oraz = P(X n+i = fc + = i) = pk. Udowodnić, że (X Jt) jest łańcuchem Markowa jednorodnym w czasie i w przestrzeni wtedy i tylko wtedy, gdy X „ = Uo + ... + Un, gdzie (U i)^ jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie i wartościach całkowitoliczbowych, zaś Uo ~ Xo. 3. Udowodnić, że łańcuch Markowa jest nieprzywiedlny wtedy i tylko wtedy, gdy zbiór stanów S nie ma właściwych podzbiorów zamkniętych. 4. Niech S = {1,2,3,4}. Przeprowadzić klasyfikację stanów łańcucha Markowa o macierzy przejścia 0 0 0\ (\ 0 a) ,c) f7 7I °0 ,b) 0 \0 § 12.3. Stany chwilowe i powracające Od tej chwili stan Sj łańcucha Markowa będziemy dla skrócenia notacji określać tylko liczbą j. Przy badaniu ewolucji łańcucha Markowa w czasie chcemy wiedzieć, do których stanów łańcuch wraca nieskończenie wiele razy, a które po pewnym czasie opuszcza bezpowrotnie. Niech Fkj będzie prawdopodobieństwem, że łańcuch wychodząc ze stanu k dotrze kiedykolwiek do stanu j . Wtedy OO Fk j = P ( \ J { X n = j} \ X 0 = k). 71=1 Gdy fk j{n) jest prawdopodobieństwem, że wychodząc ze stanu fc łańcuch dojdzie po raz pierwszy do stanu j w n-tym kroku, tzn. f kj(n) = P (X 1 # j , . . . , * n_! # j, X n = j\X0 = k) to OO Fki = ^ f k j { n ) . n=1 P rzy k ła d 1. Dla łańcucha Markowa o dwu stanach (S = {0 ,1 }, patrz przykład 12.1.11) mamy: / 00(1) = poo, foo(n) = PoiPn"2Pio dla n ^ 2. Zatem OO ■Poo = ^ OO foo{n) = Poo + E m P ? ! 2Pio n~ 1 n —2 i -Poo = 1, gdy Poo = 1 lub pu < 1. Gdy poo < 1 i p u < 1 to po analogicznych rachunkach otrzymujemy, że Pio = Foi = F u ^ Fqo = 1. * Rozdział 12. Łańcuchy Markowa 278 Ze wzoru na prawdopodobieństwo całkowite łatwo wynika (zad. 1), że praw­ dopodobieństwa Pkj{n) i fkj{n ) są związane równością n Pkj(n) = fk i(m )Pjj(n - m ) = (!) f k^ n ~ 771=1 dla dowolnych stanów j , k i dowolnego n ^ 1, gdzie pkj ( 0) = 8kjD efin icja 2. Stan j nazywamy (а) powracającym, gdy Fjj = 1; (б) chwilowym, gdy Fjj < 1. Zatem stan j jest powracający, gdy łańcuch startujący ze stanu j powróci do niego z prawdopodobieństwem 1. W przykładzie 1 stan 0 jest powracający, gdy poo = 1 lub p n < 1Niech zmienna losowa Nj liczy, ile razy proces przebywa w stanie j , tzn. Nj = Następujące twierdzenie wyjaśnia lepiej nazwy: stan powracający i chwilowy. T w ie rd ze n ie 3. Stan j jest (а) powracający wtedy i tylko wtedy, gdy P (N j = oo\X0 — j ) = 1/ (б) chwilowy wtedy i tylko wtedy, gdy P {N j < oo\X0 = j ) = 1. D o w ó d . Oczywiście {Nj = oo} = limsupn{ X n = j } . Gdy Ak jest zdarze­ niem polegającym na tym, że X n = j dla co najmniej k różnych momentów czasu n, czyli A k = { X ni = j dla pewnych ni < n? < .. . < n/c}, to Afc+i C Ak i flfcLi = linisupn{ X n = j } . Zatem z twierdzenia o ciągło­ ści: lim P (A k\Xo = i) = P (lim su p {X n = j}| X 0 = i) = P (N j = oo|X0 = i). fc—»oo n Teraz pokażemy, że P (A k\X0 = i ) = F i j F f f 1. (2 ) Wtedy z (2) otrzymujemy 0 Fij dla Fjj < 1, dla Fjj = 1. , . 1 j Biorąc i = j otrzymujemy: P ( N j = oo|X0 = j ) = 1 <£> Fjj = 1 ( 4) P ( N j = oo|Xo = j ) — 0 <=?■ Fjj < 1, ( 5) § 12.3. Stany chwilowe i powracające 279 co daje tezę twierdzenia. Przejdziemy teraz do dowodu równości (2). Ustalmy ni < n2 < ■••< n k. P (,Xm — j, l k Wtedy , k, X n ^ j dla n ^ Tlii ti Tik\X0 — z) — 7^ ii ••■I X ni-1 ^ j , X ni = j\X7ll_ 1 = j ) X 1= 2 x P(X x # j ....... X ni_ 1 / j, X ni = ¿1*0 =* i)] = n 1=2 Sumując po wszystkich fc-elementowych ciągach rosnących rai,. . . , tik i kła­ dąc m i = n i, mi = ni —n;_i dla l > 1 otrzymujemy (2): P(Ak\X0 = i) = ^ fij(m i)fjj{m 2) . . ■fjj(m k) = 7711,7712,. CO fc = ( E mi=l co - M m i ) ) I I ( E /»(roz)) = 1—2 mi —\ x. ■ U w aga 4. a) Z (3) wynika, że P (N j = oo|X0 — i) = Fij gdy j jest stanem powracającym, a gdy j jest stanem chwilowym, to P (N j = oo\X0 = i) = 0. Zatem w stanie chwilowym przebywamy tylko skończenie wiele razy, nieza­ leżnie od tego, skąd startujemy. b) Stan nieistotny k jest stanem chwilowym na mocy (5), gdyż dla stanu j takiego, że k —>j i -i(j —^ k) jest P (N k < oo|X0 = k) > P k j { n ) > 0 (patrz także zad. 9). Podamy teraz drugie twierdzenie charakteryzujące stany chwilowe i powra­ cające za pomocą macierzy przejścia P. Niech oo oo = E P ( Z " = j\x ° = 3 ) = Pi = 71=1 71=1 OO = £ £ ( I « } ( * » ) |* o = j ) = £ (Ns I * 0 = i ) , 71=1 a więc Pj jest średnim czasem przebywania łańcucha Markowa w stanie j. T w ierdzen ie 5. Stan j jest (a) powracający wtedy i tylko wtedy, gdy Pj = + oo; [b) chwilowy wtedy i tylko wtedy, gdy Pj < oo. Rozdział 12. Łańcuchy Markowa 280 D o w ó d . Korzystając z (1) mamy n k=l n k —1 k= 1 m = 0 71 — 1 71 71 = E - m) < E 771=0 fc = 7 7 l - j - l P n (m )Fi3 = 771 = 0 71 = F y + Fjj Z ! Pii (m ) ■ 771=1 Stąd 71 (1 —F jj) P ii(m ) ^ Fjj- (6) 771=1 Udowodnimy najpierw punkt b) twierdzenia. Gdy stan j jest chwilowy, to na mocy (6) Pj < F3~ ~ < oo. A» Gdy Pj < oo, tzn. £ (2Vj |X 0 = j ) < oo, to P(iVj = oo|X0 = j ) = 0, więc z poprzedniego twierdzenia j jest stanem chwilowym. Możemy teraz udowodnić punkt a). Gdy j jest stanem powracającym, to nie może być Pj < oo, bo wtedy z punktu b) twierdzenia wynikałoby, że stan j jest chwilowy. Załóżmy, że Pj = oo. Gdyby było Fjj < 1, to lewa strona (6) byłaby nieograniczona, a prawa ograniczona — sprzeczność. Zatem Fji — czyli j jest stanem powracającym. ■ Stw ierdzenie 6. Jeżeli j jest stanem chwilowym, to dla każdego stanu i T ,n=lPij(n) < °°> zatem linin-ooPijfa) = 0. D o w ó d . Dla i = j teza wynika z twierdzenia 5b. Gdy i ^ j , to z (1) wynika, że OO 71=1 =EE fn(m)Pii(n-™)= OO 71 71=1 771=1 oo = E 771 = OO E oo oo fij(m )Pii(n - m) = E 1 71 =7 71 -- FijPj ^ OO, gdyż j jest stanem chwilowym. ■ 771 = Y s P iiW = 1 ¿= 1 § 12.3. Stany chwilowe i powracające 281 P rzy k ła d 7 (B łądzen ia), a) Błądzenie przypadkowe po prostej. S = Z. Z dowolnego stanu j przechodzimy na prawo do stanu j + l z prawdopodo­ bieństwem p, a na lewo do stanu j - l z prawdopodobieństwem q = 1 —p. Zatem P j j + i = p, P j , j - i = q, P jk = 0 gdy |j - k\ £ 1. Zbadajmy czy zero jest stanem powracającym. Otóż gdzie do otrzymania przybliżenia użyliśmy wzoru Stirlinga. Do zera mo­ żemy wrócić tylko w parzystej liczbie kroków, zatem p oo(2 n + 1 ) = 0. Stąd Y^=iPooin) < oo dla p ^ bo wtedy O < 4pq < 1. Dla p = §, Po»(n) ~ 00•Otrzymaliśmy następujący wynik: Zero jest stanem powracającym wtedy i tylko wtedy, gdy p = |. b) Błądzenie przypadkowe w przestrzeni R *. k ^ 2. Niech gdzie X 1, X 2, . . . , Jfr‘ są niezależnymi błądzeniami losowymi po prostej. Wtedy k P o o (2 n ) = f[ P(X'2n = 0|X‘ = 0) = [ ( 2" ) p V ] fc Poo(2n + 1) = 0. Zatem dla k = 2 i p = A mamy n—1 n—1 czyli zero jest stanem powracającym. Dla fc = 2 i p / | zero jest stanem chwilowym. Dla k > 3 mamy i każdy stan jest chwilowy. Zatem wychodząc z zera łańcuch może z dodat­ nim prawdopodobieństwem nigdy tam nie wrócić. ■ Wydaje się, że nie ma powodu, by w powyższym przykładzie stan zero był stanem wyróżnionym. I tak rzeczywiście jest. Rozdział 12. Łańcuchy Markowa 282 T w ierd zen ie 8. W nieprzywiedlnym łańcuchu Markowa wszystkie stany są tego samego typu: jeżeli jeden jest powracający (odp. chwilowy) to wszyst­ kie są powracające (odp. chwilowe). U w aga 9. Twierdzenie to mówi, że wszystkie stany są tego samego ro­ dzaju, więc możemy mówić o łańcuchu Markowa określonego rodzaju, np. powracającym. D o w ó d twierdzenia 8. Weźmy dwa dowolne stany: j , k. Wtedy istnieją liczby naturalne N , M > 0 takie, że a — p kj(N ) > 0, 0 = p jk(M ) > 0. Dla n € N mamy P j j ( N + M + n) = ^ 2 Pji{M)pu(n )pij(N) > Pjk{ M ) p kk(n)pkj(N) = = a/3pkk(n). Analogicznie, pkk{ N + M + n) ^ a(3pjj(n). Stąd, dla n > M + N , + M + n) ^ Pkk(n) > a/3pjj(n - M - N ), (7) zatem asymptotyczne własności ciągów Pkk{n) i Pjj(n) są identyczne: na przykład Y,n=i Pij (n ) = 00 ^ ¿ y 1 ty11*0 wtedy, gdy ¿ “ =1 pkk{n) = oo. ■ Z tego twierdzenia i z przykładu 7 przed nim wynika, że dla symetrycznego błądzenia przypadkowego na prostej i na płaszczyźnie wszystkie stany są powracające, natomiast dla błądzenia w R k, k > 3, wszystkie stany są chwilowe. Stąd, jak zauważył W. Feller, zdanie „wszystkie drogi prowadzą do Rzymu” jest prawdziwe na płaszczyźnie, a nieprawdziwe w R 3. W n io se k 10. Jeżeli łańcuch Markowa jest powracający, to dla każdego stanu j P (3n > 1 X n = j ) = 1 niezależnie od rozkładu początkowego X q. D o w ó d . Ponieważ Fy = 1 dla każdego i (zad. 9), to P (3n > 1 oo X n = j) = P { (J {X n = j} ) = n=l =Z U oo n= 1 = E i ’y W = ^}\Xo = i) P {X o = i) = = 0 = i-« ¡es Posługując się klasyfikacją stanów na chwilowe i powracające można prze­ strzeń stanów S podzielić na klasy, o czym mówi § 12.3. Stany chwilowe i powracające 283 T w ierdzen ie 11. Przestrzeń stanów S łańcucha Markowa można jedno­ znacznie przedstawić w postaci sumy: S = T U Si U S2 U . . . , gdzie T jest zbiorem stanów chwilowych, a Si są nieprzywiedlnymi zamknię­ tymi zbiorami stanów powracających. D o w ó d . Dla stanu powracającego j, j e S \ T , niech Sj = {k: k *-> j } . Sj jest zamkniętym zbiorem stanów wzajemnie komunikujących się. Sk = Sj dla k G Sj oraz Sk n Ą- = 0 dla k (Sj U T). Zatem S \ T rozbija się na rozłączne klasy, które możemy ponumerować: Si,S 2, __ ■ Z twierdzenia wynika, że gdy X 0 = k i k 6 Sn, to łańcuch Markowa nigdy nie opuści Sn i możemy wziąć Sn jako całą przestrzeń stanów, a jeśli k € T , to łańcuch pozostaje w T cały czas lub trafia do jakiejś klasy Sm, gdzie już pozostaje. Zadania 1. Udowodnić równość (1), czyli: Tl Pkj(n) = ^ 71—1 fk j(m )p jj(n - m ) = m = l ^ f kj(n - m )p j j (m ) m =0 2. Zbadać, czy są powracające następujące łańcuchy Markowa opisujące błą­ dzenia losowe po kracie 2 d, d > 1. a) Poruszamy się wzdłuż wersorów. Zn+ 1 = X „ + Jn+1, zmienne losowe Jn są niezależne o tym samym rozkładzie, P(Ji = ±en) = ^¿, gdzie e i , . . . ,ed są wersorami w R d. b) Jeżeli w momencie n jesteśmy w punkcie a, to traktując a jako środek kostki skaczemy ze środka na jeden z wierzchołków. X n+1 = X n + Ki+it Yn — niezależne, o tym samym rozkładzie. P(Yn = (ei,...,e<i)) = £¿ = ±1. 3. Wykazać, że dla stanu chwilowego i zachodzi 4. Wykazać, że jeśli stan j jest powracający oraz i —>j, to J 2 ^ iP ii(n') = °°5. Wykazać, że jeśli j jest stanem chwilowym, to stanu i. W szczególności limnp;3(7i) = 0. P*i(n) < 00 dowolnego Rozdział 12. Łańcuchy Markowa 284 6. Niech łańcuch Markowa z przestrzenią stanów S = {0 ,1 ,2 ,...} ma macierz przejścia postaci: p01 = Po, Poo = 1 —Po, Pn,n+i = Pn, Pno = 1 - PnKiedy ten łańcuch jest powracający, a kiedy chwilowy? 7. Udowodnić, że łańcuch Markowa o skończonej liczbie stanów nie może skła­ dać się z samych stanów chwilowych. Czy jest to prawda dla łańcuchów Markowa z przestrzenią stanów 5 = {1 ,2 ,...}? 8. Udowodnić, że dla skończonego łańcucha Markowa j jest stanem chwilowym wtedy i tylko wtedy, gdy j jest stanem nieistotnym. Czy jest to prawda dla łańcuchów o przestrzeni stanów nieskończonej? 9. Udowodnić, że jeśli łańcuch Markowa jest powracający, to Fij = 1 dla każ­ dych stanów i, j. 10. Niech (X,“) i (X%) będą symetrycznymi błądzeniami przypadkowymi na pro­ stej, startującymi odpowiednio z punktu a € Z i &€ Z. Jaka jest szansa, że te dwa błądzenia spotkają się w pewnej chwili w jakimś punkcie? § 12.4. Łańcuchy okresowe Widzieliśmy już, że nie zawsze można wrócić do punktu wyjścia w dowolnej liczbie kroków. Na przykład dla błądzenia przypadkowego na prostej powrót do danego stanu może nastąpić tylko w parzystej liczbie kroków. Mówimy wtedy, że stan ma okres 2. Ogólnie, przyjmiemy następującą definicję. D efin icja 1. Okresem stanu j nazywamy liczbę o (i) = N W D {n :pi j ( n ) > 0 } . Jest to największy wspólny dzielnik zbioru takich n, że powrót do stanu j może nastąpić po n krokach. Stan j nazywamy okresowym, gdy o (j) > 1 i nieokresowym, gdy o (j) = 1. Oczywiście Pjj(n) = 0 dla n nie będących wielokrotnościami o (j). T w ierd zen ie 2. W nieprzywiedlnym łańcuchu Markowa wszystkie stany mają ten sam okres. D o w ó d . Weźmy dwa dowolne stany i, j . Niech di = o(i),dj — o (j). Ponie­ waż i *-* j , to istnieją m, l takie, że P i j ( l ) > 0 , P j i ( m ) > 0. Niech n będzie takie, że P j j { n ) > 0. Wtedy pu(l + m + n) ^ Pij(l)Pjj(n)pji(m ) > 0, zatem di dzieli l + m + n. Także pu(l + m) > 0, więc di dzieli l + m, stąd di dzieli n. Zatem di < dj, bo dj = N W D {n:pJ;,(n) > 0}. Analogicznie rozumując otrzymujemy, że di ^ dj, wobec tego dt = dj. ■ Dlatego możemy mówić o okresie samego łańcucha i ma sens definicja: § 12.4. Łańcuchy okresowe 285 D efinicja 3. Nieprzywiedlny łańcuch Markowa nazywamy okresowym, gdy jego stany są okresowe z okresem d > 1. W przeciwnym przypadku łańcuch nazywamy nieokresowym. Opiszemy teraz przestrzeń stanów takiego łańcucha. Twierdzenie 4 (O rozkładzie na podklasy cykliczne). Zbiór stanów S okresowego łańcucha Markowa o okresie d z macierzą przejścia P można przedstawić jako sumę rozłącznych zbiorów S i, . . . Sd takich, że (i) jeśli > 0,i e Sm, to j € Sm+i (przyjmujemy, że Sd+i = Si), (ii) jeśli na Sm zadamy macierz przejścia p = P i j ( d ) , i , j G Sn, to otrzymamy nieprzywiedlny nieokresowy łańcuch Markowa. D o w ó d . Niech Sm = { j e S:Bk 6 N pij(kd + m) > 0}. Łańcuch jest nieprzywiedlny, więc dla każdego j € S istnieje n takie, że P ij(n) > 0, więc S = Si U S2 U . . . U Sd. Rozłączność zbiorów Sn wynika natychmiast z przechodniości relacji kongruencji i stąd, że jeśli j e Sm oraz pij(s) > 0, to s = m (m odd). Ten ostatni fakt ma miejsce, gdyż P j i ( t ) > 0 dla pewnego t, zatem p n (k d + m + t ) > 0 i P n (s + t ) > 0 . Stąd d dzieli m + t i dzieli s + 1, więc s s m (modd). (i) zachodzi, gdyż > 0 i pu(kd + m) > 0 dla pewnego k, pociąga Pij(kd + m 4-1) > 0, zatem j S Sm+i. Aby udowodnić (ii), wykażemy, że Z P i?} = Z P i j ( d) = j£Sm jest macierzą przejścia. ' Dla dowolnego i e Sm mamy J 2 Pii ( d) + j&Sm 'iJeSm. Z Pii ^ = = j£S\Sm ponieważ P i j ( d ) = 0 dla j £ Sm (z punktu (i) wynika, że w jednym kroku przechodzimy z Sk do Sk+1, k = 1 , 2 1 , a z Sd do Sj, zatem w d krokach przechodzimy z Sm do Sm). ■ Z tego twierdzenia wynika, że często badanie okresowych łańcuchów Mar­ kowa można sprowadzić do badania łańcuchów nieokresowych. Zadania 1. Czy łańcuch Markowa o macierzy przejścia /° 0 (l jest łańcuchem okresowym? i 2 Rozdział 12. Łańcuchy Markowa 286 2. Udowodnić, że jeśli dla macierzy przejścia nieprzywiedlnego łańcucha Mar­ kowa istnieje takie j, że pjj > 0, to łańcuch nie jest okresowy. 3. Czy jeśli wszystkie elementy na przekątnej macierzy przejścia nieprzywiedl­ nego łańcucha Markowa są równe zeru, to łańcuch jest okresowy? § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne Okazuje się, że dla wielu łańcuchów Markowa (X n) wpływ rozkładu począt­ kowego na prawdopodobieństwo znalezienia się układu w ustalonym stanie maleje wraz ze wzrostem n. Taką sytuację widzieliśmy w § 12.1 (przykład 5). Z kolei zad. 12.1.8 sugeruje, że ma miejsce szybka zbieżność rozkładów (X n) do tak zwanego rozkładu stacjonarnego. Zajmiemy się teraz tym zjawiskiem. Zaczniemy od rozkładów stacjonar­ nych. D efin icja 1. Mówimy, że rozkład prawdopodobieństwa (ttj) j e s jest rozkła­ dem stacjonarnym dla łańcucha Markowa o macierzy przejścia P , gdy 7r = 7TP, czyli gdy Y lje s nj = 1 omz każdego j jest itj ^ 0 i tcj = ^iPij■ P rzy k ła d 2. Znaleźć rozkład stacjonarny dla łańcucha Markowa o macie­ rzy przejścia P , gdzie . 3 3 1 0 0 1 Ad. a) 7r = ttP tzn. 1 1 -J T i + -7 r 1 2 27rlri ++ 2= = 3? 2= 7Tl + 7T 7T1, 7T2 1. Stąd TTl = f , 7T2 = f ■ Tu nie jest Ad. b ) Dla każdego wektora 7r = (7ri,7r2) mamy 7r = 7rP, więc istnieje prawdą, że nieskończenie wiele rozkładów stacjonarnych. Każdy jest wyznaczony przez Pjdn) -*■ *3- ^ g [o, lj (wtedy 7r2 = 1 — jti). ■ Gdy 7r jest rozkładem stacjonarnym, to 7rP2 = (7rP )P = 7rP = 7r i przez indukcję 7rP" = 7r. Zatem, gdy Xo ma rozkład 7r, to jak wiemy X n ma rozkład n P n = tt, czyli ciąg (X n) jest ciągiem zmiennych losowych o tym samym rozkładzie. Stąd właśnie nazwa „stacjonarny” . § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 287 P rzyk ła d 3. M o d e l Ehrenfestów. k cząsteczek rozmieszczono losowo w dwu naczyniach ( / i II). W chwili n losowo wybraną cząsteczkę przenosi się z naczynia, w którym była, do drugiego. Jeśli w pewnej chwili w naczyniu I jest rri > 0 cząsteczek (układ jest w stanie m), to w chwili następnej układ znajdzie się w stanie m —1 lub m + 1, zależnie od tego czy cząsteczka przeszła z naczynia / do I I , czy odwrotnie. Znaleźć rozkład stacjonarny. R ozw iązanie. S = { 0 ,1 ,..., k },p ii-i = j:,piti+i = Pozostałe ele­ menty macierzy przejścia są zerami. Rozkład stacjonarny tc spełnia równa­ nie 7r = 1rP, tzn. TTl W° - T ’ 2 Xl = Ko + n = Stąd 7Tl ogólnie = -7 T 2 , — — J m -i + —¡r—7Ti+i, fc7r0,7T2 = - 7T0) = ni = ( 2) 710, 7T3 = § (7T2 - = G )71'0’ / = 0,1, — /s. Ponieważ J2i=o ^ = 1, to tto = p- i 7r; = (^) jest rozkładem dwumianowym. ■ a więc rozkład stacjonarny Zajmiemy się teraz asymptotyką ciągu (p ij(n ))n. Zaczniemy od lematu. L em at 4. Jeśli (X n) jest nieprzywiedlnym, nieokresowym łańcuchem Mar­ kowa, to dla każdej pary stanów i , j mamy Pij(n) > 0 dla dostatecznie du­ żych n. D o w ó d , j jest stanem nieokresowym, czyli o (j) = 1, więc istnieją liczby naturalne wj, n2, . . . , nr takie, że P j j { n m ) > 0, m — 1 , . . . , r oraz N W D (n !,.. . ,n r) = 1. Istnieje takie no, że jeśli n ^ no, to n = aini + a2n2 + . . . a Tnr, gdzie aj — całkowite, ai ^ 0, i = 1,2, . . . r . Istotnie, największym wspólnym dzielnikiem zbioru C = {n :p jj(n ) > 0} jest 1, więc istnieją n i ,. . . , nr G N oraz l i , . . . , l r e Z takie, że Y n=ihni = 1- Niech no = ni \k\niWtedy n ^ no ma przedstawienie postaci n = no + kni + m , gdzie k ^ 0, m < n i. Stąd r n = knx + + ¿=1 Rozdział 12. Łańcuchy Markowa 288 czyli n = aini + .. . 4- arnr , gdzie aj > 0, Z = 1 ,2 ,... r. Wtedy dla n > no T n T P jj{n) > J J p jj(a mT^rn) ^ m —1 [Pn(n m)] m =l Ponieważ Pij{t) > 0 dla pewnego t, to pij(t + n) > Pij(t)Pij(n) > 0 dla n > no- ■ T w ierdzen ie 5. Niech (X n) będzie nieprzywiedlnym, nieokresowym łań­ cuchem, Markowa, dla którego istnieje rozkład stacjonarny n. Wtedy (i) (X n) jest łańcuchem powracającym, (ii) limn_ KXjpj;;'(n) = nj > 0 dla wszystkich stanów i , j , (iii) rozkład stacjonarny jest jedyny i TTj = sem powrotu łańcucha do stanu j. , gdzie fij jest średnim cza­ U w aga 6. a) W przykładzie 2b istniało nieskończenie wiele rozkładów sta­ cjonarnych, bo łańcuch nie był nieprzywiedlny (zobacz też zad. 2). b) Twierdzenie pozwala łatwo znajdować średnie czasy powrotu /j,i , znacznie łatwiej niż korzystając z samej definicji. c) Dla łańcucha Markowa spełniającego założenia twierdzenia P ( x n = j ) = Y , p (x ° = 0 p « ( n ) ------- > TT’ niezależnie od rozkładu początkowego X q. Nieformalnie oznacza to, że łańcuch zapomina, skąd wystartował. : d) Rozkład tt jest często nazywany rozkładem granicznym. e) Jeśli łańcuch Markowa ma skończenie wiele stanów, to dla zachodzenia tezy twierdzenia wystarczy założyć, że łańcuch jest nieprzywiedlny i nieokresowy (patrz tw. 9). Wtedy dowodzimy istnienia rozkładu stacjonarnego. 8 | | D o w ó d twierdzenia 5. Jak wiemy, gdy ir jest rozkładem stacjonarnym, to dla każdego j | | ITj = Y ^ WiPij(n)- w ¿es (i) Najpierw wykażemy, że łańcuch jest powracający. Gdyby był chwilowy, to limn_>oo p^ (n) = 0, i z (1) oraz z twierdzenia Weierstrassa o zbieżności szeregów2 wynika, że -Kj = 0 dla każdego j — sprzeczność, ponieważ V . Kj ^ 0. Zatem łańcuch jest powracający 2Twierdzenie to jest dyskretną wersją twierdzenia Lebesgue’a o zbieżności zm ajoryzowanej: jeśli |anm |^ c „ i < oo, m , n £ N , to limm ^ 2 n “ nm = ]T)n **mm • | I | | g 1 § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 289 (U) Wykażemy, że jeśli ir = ( t t j ) jest rozkładem stacjonarnym, to dla do­ wolnych stanów ijj- limn—,co P ij (^) — TTj. Rozpatrzmy łańcuch Markowa (X n, Yn), na przestrzeni stanów S x S, z ma­ cierzą przejścia P zadaną wzorem: pij% u = Pik •Pji■ Taki łańcuch istnieje (tw. 12.1.8), bo P jest macierzą stochastyczną, co wynika z tego, że P jest macierzą stochastyczną (patrz też zad. 12.1.13). Ponieważ P i j ( n ) > 0 dla dostatecznie dużych n (lemat 4), to P i j , k i ( n ) > 0 dla dostatecznie dużych n (korzystamy tu z nieokresowości), więc (X n, Yn) jest nieprzywiedlnym łańcuchem Markowa. Jak łatwo zauważyć, jest on nieokresowy i 7Ty = Wi ■Wj jest rozkładem stacjonarnym, więc (X n, Yn) jest łańcuchem powracającym (punkt (i) dowodu). Niech r = inf{n: X n = Yn = 1}. Ponieważ z uwagi 12.3.4 i zadania 12.3.9 wynika, że P(Nu = oo|X0 = i,Y0 — j ) = 1 dla dowolnych stanów to P (r < oo|Xo = i,Y0 = j ) = 1. Dlam n zachodzi (korzystamy z własności 12.1.8c, b) P {(X „, Yn) = (k, h), t = m\X0 = i,Y 0 = j ) = = P ((X U, Yu) # (l, 0 , u < m, (X m,Ym) = (l, l)\X0 = i,Y 0 = j ) ■ ■P((Xn_ m,y n_ m) = {k,h)\X0 = l,Y0 = l) = = P ( t = m\X0 = i, Yo = j)pik{n - m)plh(n - m). Sumując po wszystkich możliwych stanach h (odpowiednio k) otrzymujemy P {X n = k ,r = m\X0 = i, Y0 = j ) - P ( t = m\X0 = i, Y0 = j)pik{n - m) P(Yn = h ,r = m|X0 — i , Y o = j ) = P ( t = m|X0 = i, Y0 = j)pih(n - m) Biorąc k = h, dostajemy: P (X n = k ,r = m\X0 = i,Y0 = j ) = P (F n = k ,r = m\X0 = i,Y 0 = j ) Sumując po rn si n mamy P {X n = k ,r ^ ra|X0 = i,Y0 = j ) = P(Yn = k ,r < n|X0 = i, Y0 = j) . Stąd P (X n = k\X0 = i,Y0 = j ) ź < P (X n = £, r s? n|X0 = *, io = i) + ^ ( t > « l^ o = i,Y 0 = j ) = = P(Yn = k , r ^ n|X0 = », ło = i ) + P i j > n|X0 = *, = .?) ^ < P(Yn = fc|X0 = t, y0 = J) + P (r > n\X0 = i, Y0 = j) . Zamieniając rolami X i Y mamy P(Yn = k\XQ= i,Y0 = j ) < < P {X n = k\X0 = i,Y0 = j ) + P ( t > n\X0 = i,Y 0 = j)- :U 290 Rozdział 12. Łańcuchy Markowa Zatem | \pik{n) -P jk { n )| = = |P (X n = k\X0 = i,Y o = j ) ~ P (Y n = k\Xo = i, Y0 = j)| < < P ( t > n |X0 = i , Y 0 = j ) . Ponieważ P ( t < oo[X0 — i,Y 0 — j ) = 1, to limn \pik(n)-pjk(n)l = 0. Stąd, z (1) i z twierdzenia Weierstrassa (patrz ostatni przypis): TTfc -P jk {n ) = rri i€& i{pik{ń) ~ P jk (n ))------->0, n—*oo co daje (ii) : limn^ooPjk(n) = Kk(iii) Jedyność rozkładu stacjonarnego wynika z (ii), bo gdy ir' jest innym rozkładem stacjonarnym, to nj = limn pjj (n) — 7r'-. Wykażemy teraz, że dla każdego i jest nj > 0 oraz itiUi = 1. Stąd wynika, że fii = < oo, więc i jest stanem powracającym, a że łańcuch jest nieprzywiedlny, to wszystkie stany są takie. Załóżmy, że itj = 0 dla pewnego j . Wtedy 0 = nj = mpij(n) > -KiPij(n) dla każdego i oraz n. Ponieważ łańcuch jest nieprzywiedlny, to dla każdego i istnieje n = n(i) takie, że P i j ( n ) > 0, a więc 7Tj = 0 dla każdego i — sprzeczność. Zatem -Ki > 0 dla każdego i. Niech zmienna losowa X 0 ma rozkład ir. W tedy OO 7T j U j | = tt,- OO ^ 2 P (T n > n =l n | * o = •?) = S P n= 1 (T i j > n \X ° = j ) p (x ° = j) = oo = J 2 P (Ti i > n ’ X o =■?')■ n= 1 Oznaczmy cn = P (X m ^ j, 0 < m < n) dla n = 0 ,1 ,2 ,.... Ponieważ j jest stanem powracającym, limn-,,*, cn = 0. Z kolei, ponieważ dla n > 2 P (T jj > n , X Q= j ) = = P (X o = j, = P (X m = Cn —2 ^ j dla 1 < m < n - 1) = j, 1 < m < n - 1) - P (X m ^ j, 0 < m < n - 1) = ^n—1j to jf^j P(Tjj lj-^0 j) + / ^ (Cn—2 Cn—i) n=2 = P (X 0 = j ) + P (X 0 ^ j ) - lim cn = 1. ■ § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 291 Niekiedy twierdzenie 5 jest nazywane twierdzeniem ergodycznym, a łańcuch Markowa, dla którego istnieją granice limn Pij(n) = iij > 0 — łańcuchem ergodycznym. Można pokazać, że jeśli łańcuch Markowa jest nieprzywiedlny, powracający, a wartości oczekiwane czasów powrotu są skończone, to istnieje rozkład stacjonarny (zad. 10). P rzyk ła d 7 (Sztuczka karciana). Potasuj talię kart i odkrywaj karty po jednej. Każda figura liczy się za 10, as za 1, pozostałe standardowo. Po­ proś partnera, żeby wybrał jedną z dziesięciu pierwszych kart. Jeśli ma ona wartość n, to partner opuszcza (n - 1) kolejnych kart i przechodzi do karty n-tej z kolei, itd. W końcu trzeba będzie przejść do karty, która powinna być m kart dalej, ale nie będzie już tylu kart. Partner zapamiętuje ostatnią obejrzaną kartę, a ty ją odgadujesz z dużym prawdopodobieństwem. Jak to zrobić, gdy nie znamy karty, od której zaczął partner? Powtarzamy tę samą procedurę zaczynając od jakiejś ustalonej przez nas karty. Mamy dwa niezależne łańcuchy Markowa o tej samej macierzy przej­ ścia i o różnych punktach startu. Jak wynika z dowodu twierdzenia ergodycznego, gdyby talia miała nieskończenie wiele kart każdej wartości, to łańcuchy Markowa „skleiłyby się” z prawdopodobieństwem 1 i dalej zacho­ wywałyby się tak samo. Zatem jest duża szansa, że karty z tych łańcuchów Markowa spotkają się, nim talia się skończy. ■ Z twierdzenia ergodycznego można otrzymać informacje o średniej częstości przebywania łańcucha Markowa w zbiorze. W n iosek 8. Niech (X n) będzie łańcuchem ergodycznym, A C S, i niech vn(A) oznacza średni czas przebywania łańcucha Markowa w zbiorze A do momentu n, tj. „ A(n) = 1 /( * o ) + --- + 1 a P Q Wtedy £ {v n( A ) \ x 0 = i ) — » y v - . n—ton • ■* jeA D ow ód. £ («/„(A)\X0 = i) = ^ r i Y J£ (lA(Xm) \X0 = i) (2) Rozdział 12. Łańcuchy Markowa 292 ponieważ lim„_>00;p.y(n) = nj. m Gdy zbiór stanów jest skończony, to istnieje rozkład stacjonarny i można podać oszacowanie szybkości zbieżności ciągu (Pij{n))n (por. zad. 12 .1 .8). T w ierd zen ie 9. Jeśli przestrzeń stanów nieprzywiedlnego i nieokresowego łańcucha Markowa jest skończona, to dla każdego i istnieją granice lim P ijM = 7Tj > 0 . 71— »OO Ponadto istnieją stałe c > 0, 7 6 (0,1) takie, że \ P i j{ n ) - K ji < c - 7 n i 7r = (jrj) jest jedynym rozkładem stacjonarnym. D o w ó d . Wiemy, że V i,j 3N { i,j ) Vn > N ( i,j ) P ij{n ) > 0 (lemat 4). Przestrzeń stanów jest skończona, więc istnieje takie n0, że Pij(riQ) > 0 dla każdej pary i ,j. Niech e = min,,^Pij(no). Oczywiście e > 0. Oznaczmy = m inpi,(n), M = mąx Pij(n). J i J i Ponieważ Pij(n + 1) = YliPnPiii71)1 m^'+Ii = mm^T^piipij(n) > mm ^ p i( min p y(n ) = m jn), * 1 1 a więc mjn+1' > Analogicznie M jn+1') ^ M jn\ Pij(n + n0) = ]Tlpu(n0) - epn{n)}pij{n) + e J 2 P j i ( n)P‘A n) > 1 1 > mjK) ]0 Pii(n°) ” £PJ‘ (n)] + £Pii(2n) = 1 = m^n)(l - e) + epjj(2n), czyli m (n+n0) ^ TO<n)(]i _ £) + £pjj(2n). Analogicznie < M jn\ l - e) + e p J:) (2n). Stąd M jn+no) - m f +no) < (M jn) - ') ( ! - e). § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 293 Argument indukcyjny daje M (kno+n) _ m (kn0+ n) ^ ^ { n ) _ Podciąg M^kno) —m^kn°^ zmierza zatem do zera, gdy k —>oo, więc sam ciąg , jako monotoniczny, zmierza do zera. Niech wj — limn^oo mjn); widzimy, że 7r3- ^ m^"0^ > e > 0, zatem wszystkie 7r,- są dodatnie, oraz dla n = kno + m, m < no mamy |p ij(n ) — 7Tj| ^ A fjn) - m jn) sj (M jm) - 1 - e )fc (1 - e )fc = = [(1 - e)"o]fcn° ^ c 7n, gdy 7 = (1 —e ) " o ,c = -s 5= t• 7r jest rozkładem prawdopodobieństwa, bo ze skończoności S mamy ' ■* J'€5 = lim Y > ( n ) = 1. n—»oo j€5 Gdy /i jest rozkładem stacjonarnym, to H = lim X ^(¿iPijin) = V f t lim p y (n ) = T ^ ta n j = ttj, n —>oo * * >■^ n —*00 z—' ¿es ¿es ¿es a więc mamy jedyność. ■ Własność Markowa (tw. 12.1.8d) można łatwo uogólnić na P ( { ( X n, X n+U. ..) e A}\Fn) = P ({(X n, X n+1, ...) e A}\Xn), gdzie Tn = a ( X o, . . . , X n), co można zapisać w postaci P ( { ( X n,X n+1, ...) € A}\Fn) = P x„({(X 0, X i , . . .) 6 A}), gdzie Pj jest rozkładem (X 0, X i , ...), gdy P (X o = j ) = 1. Jest to formalny zapis intuicyjnego faktu, że gdy jednorodny łańcuch Mar­ kowa dojdzie w momencie n do stanu X „, to dalej zachowuje się tak samo, jakby startował w momencie 0 ze stanu X n. Okazuje się, że można zastąpić deterministyczny moment n przez moment stopu. Jest to tak zwana mocna własność Markowa. Z mocną T w ierdzenie 10. Niech r będzie momentem stopu względem zdefiniowa­ własnością Markowa nego wyżej ciągu a-ciał (J-n). Wtedy na zbiorze { r < 00 } P ( { { X r, X T+l, ...) e A}\Fr ) = P x M X o, X u .. .) € A}). spotkamy się jeszcze w rozdziale 13. Rozdział 12. Łańcuchy Markowa 294 D o w ó d . Jak wiemy, gdy f ( x ) = P ( { ( X 0, X i , . . . ) £ A}\Xo = x ), prawa strona jest równa f ( X T). Niech B e T t ■ Wtedy, korzystając z własności warunkowej wartości oczekiwanej, własności Markowa i tego, że B n { t = n } € cr(X0, . . . , X n), otrzymujemy [ P ( { ( X T, X T+1, . . . ) € A}\TT)dP = [ 1A((X t i -^r+I ? • • ■))dP = oo n=0 oo = £ V P ({(X n, ...) 6 i } n B n { r = n}) = / P ( { ( x „ ,...) e A }\ rn)dP = n=0 JBn{r=n} n=u JH{r=n} Załóżmy teraz, że łańcuch startuje z ustalonego stanu i, tj. P (X o = i) = 1. Połóżmy 70 = 0, a dalej: 7i = inf{n ^ 1: X n = i}, j 2 = in f{n > y 1:X n = i}, i ogólnie 7 m = inf{n > "fm-i'-Xn = i} będą kolejnymi powrotami do stanu i. W tedy r„ = 7 n — 7 „ - i są odstępami czasu pomiędzy kolejnymi powrotami. T w ierd zen ie 11. Gdy i jest stanem powracającym, to jest cią­ giem niezależnych zmiennych losowych o tym samym rozkładzie. D o w ó d . 7 i jest momentem stopu, więc z mocnej własności Markowa p (( x 7i+ u x 7i+2, ...) e a \t 7i) = P i ( { x u . . . ) e A ) bo X 7l = i. Zatem ciąg (X 71+i , X 71+2, . . .) ma taki sam rozkład, jak (X 1, X 2, ■■•) i jest niezależny od więc niezależny od tj_. Stąd t2 ma ten sam rozkład co ti i jest niezależny od t j. Dowód kończymy stosując indukcję matematyczną. ■ § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 295 Korzystając z MPWL otrzymujemy dla stanów powracających następującą zależność: — = - Y ] rm ------->Hj n n n— *oo m= 1 p.n. (3) Zastosujemy ją do zbadania częstości przebywania łańcucha powracającego w stanie j. Niech aj oznacza moment pierwszego dojścia do stanu j , tj. aj = inf{n ^ l : X n = j}. T w ierdzenie 12. Dla łańcucha powracającego (X n) niech n Nn( j ) = J 2 m= 1 Gn (h i) = £ {Nnti) \Xo = 0 • Wtedy N n(j) J_n »-<*> Hj {Tf<oo} p _ ‘ P'n' oraz Gn(i,j) ____ 5 71 n—*oo [Xj gdzie przyjmujemy l/o o = 0. D o w ó d . Niech i = j. Z definicji Nn(j) i 7 n mamy 7n„(j) ^ n < 7jv„(j)+iStąd ^nb') ^ Nn{j) c Nn(j) 7n„(j)+i " n ^ i ze wzoru (3) otrzymujemy pierwszą część dla i = j. Dla i ^ j postępujemy analogicznie biorąc łańcuch Markowa (X aj+m), m > Ona przestrzeni pro­ babilistycznej fi' = {a j < oo}, T ' = {(Tj < oo} i P '{A ) = • Druga część twierdzenia wynika z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej. ■ Korzystając z twierdzenia 11 możemy uogólnić wniosek 8: Tw ierdzenie 13.. Niech (X „) będzie nieprzywiedlnym nieokresowym łań­ cuchem Markowa dla którego istnieje rozkład stacjonarny 7r. Wtedy vn(A) — średni czas przebywania łańcucha Markowa w zbiorze A zdefiniowany wzorem (2) spełnia zależność: lim vn(A) = 5 ^ ni £—~J ieA 71—*00 p.n. Rozdział 12. Łańcuchy Markowa 296 D o w ó d . Ponieważ 1A = Y^ieA •*•{«}> w^ c wystarczy udowodnić twierdzenie dla A = {¿ } dla dowolnego i e S. Dla dowolnego n niech k = k(n) będzie takie, że T i + . . - + Tfc n < n + . . . + Tk + 1. Wtedy k = l { j } ( X i ) + .. . + l { j } ( X „ ) i k H k+ 1 l n + . . . l { j j ( X i ) + .. •+ l { j } ( X n) + Tk + 1 Tl k Tl + . • • + r fc Biorąc k — ►oo i korzystając z (3) otrzymujemy W = ) — 1 limM ----= 7Tj, n—►oo n [li gdzie przyjmujemy ^ = 0. Ostatnia równość dla stanów powracających, dla których ir, > 0, została udowodniona w twierdzeniu 5, a dla pozostałych rodzajów stanów w zadaniu 11. ■ Zajmiemy się teraz badaniem granicy limn pij{n) dla okresowego łańcucha Markowa. P rzy k ła d 14. Niech P = ^ ^ . Jest to łańcuch okresowy o okresie 2 i limn_,ooPoo(2n) = 1, limn_ 00poo(2n + 1) = 0. Granica nie istnieje, natomiast istnieją granice podciągów i nie jest to przypadek. ■ Jak wiemy, przestrzeń stanów łańcucha okresowego rozbija się na rozłączne zbiory Si, S2, ■■■, Sd (twierdzenie 12.4.4). Zachodzi T w ierdzen ie 15. Jeśli (X n) jest nieprzywiedlnym okresowym łańcuchem Markowa z rozkładem stacjonarnym n, to dla i € Si, j € Ą+m(modd) lim Pij(nd + m) = dirj n —+oo i 7rj > 0 dla każdego j . D o w ó d . Niech fh = (l + m) (m odd). Gdy P (X o € Sfń) = 1, to zmienne losowe Yn = X nd tworzą nieprzywiedlny nieokresowy łańcuch Markowa o zbiorze stanów Sm (twierdzenie 12.4.4). Niech Tj = min{n: Yn = j } . Wtedy Tj = dTj, gdzie Tj — min { n :X n = j } , h = e (t ,\ Y < ,= j) = e i Z - Ai, = ,-| = a . § 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 297 Zatem na mocy tw. 5 łańcuch jest powracający i P(j j \ n) =P jj{n d ) ------ > n~*oo f i j = — = d-Kj. (Jj Z mocnej własności Markowa: n PiAn) = Z p (Xn = i ’ Ti = k\x ° = *) = k= 1 n = Z P(2) = fc|X0 = i)P (X „ = jjTj = fc, X 0 = i) = n = E P^ = felX ° = W * » = 3\Xk = } ) = k~ 1 n = £ p (^ = fc | * o = ^ ( n - f c ) . jfc=l Zatem n Pij(nd + m ) = ^ - P ( T j = fcd + m|X0 = ¿ )p jj((n - &)<i) = fc=0 oo = Y 1 P ( T3 = fcd + m | *o = * ) ? w ( ( ł i - f c ) d ) l { o , i .....n } (k ) k= 0 Niech n —> oo; wtedy z twierdzenia o zbieżności zmajoryzowanej Pij{nd 4- m ) ------ » dnjP(Tj < oo|_Xo = i) = d-Kj. ■ n—»oo Zadania 1. W pudełku A jest 6 kul ponumerowanych, liczbami od 1 do 6, w pudełku B — ani jednej. Wykonano 100000 rzutów kostką i po każdym rzucie przekładano kulę z wylosowanym numerem do drugiego pudełka. Jaka jest (mniej więcej) szansa, że pudełko B jest puste? 2. Znaleźć wszystkie rozkłady stacjonarne dla łańcucha Markowa o macierzy przejścia p = / I I [ ! 1 0 0 ' 0 0 ° \0 I ! ° o f I, 3. Udowodnić, że jeśli 7r jest rozkładem stacjonarnym oraz j nie jest stanem powracającym dodatnim (patrz def. 17), to Tj = 0. Rozdział 12. Łańcuchy Markowa 298 4. Dla łańcucha Markowa (X n) niech Sp oznacza zbiór stanów powracających dodatnich. Gdy Sp 0, niech Sv = U ig /^ ’ gdzie Si — klasa stanów wza­ jemnie komunikujących się, Si n Sj = 0 dla i j. Pokazać, że każda miara stacjonarna dla (X „) jest postaci gdzie at ^ 0, = m jest miarą stacjonarną dla łańcucha o macierzy przejścia = (pjk), j, k 6 Si rozszerzonej na S przez przyjęcie n¡(s) = 0 dla s 6 S \Si. 5. Niech S = { l , . . . , m } , a P będzie macierzą podwójnie stochastyczną, tj. macierzą stochastyczną taką, że YliLiP*} = = Udowodnić, że rozkład Ki = —, i = 1 , . . . ,m jest rozkładem stacjonarnym dla łańcucha Markowa z tą macierzą przejścia. 6. Niech S = { 0 , . . . , k — 1}, a macierz P jest taka, że jej wiersze są cyklicz­ nymi permutacjami wiersza pierwszego, tj. pij = pj > 0, pij = P(j-i) (m od fc) (ten łańcuch opisuje błądzenie przypadkowe po okręgu dyskretnym). Znaleźć granicę limn-,00 P {X n = i)7. Niech (X n) będzie łańcuchem okresowym o okresie d z rozkładem stacjonar­ nym 7T. Jeżeli i 6 Si, j G S(i+m)(mod<i)> to limn-,oo Pij(nd + m) = FijdKj. Rozpatrzmy teraz inną ważną klasyfikację stanów. Gdy Xo = i, niech Ty będzie momentem pierwszego przybycia łańcucha Markowa do stanu j : Tij = m {{n :X n = j } , (zwróćmy uwagę, że Tij = oo, gdy do takiej wizyty nigdy nie dojdzie). Definicja 16. Średnim czasem powrotu do stanu k nazwiemy wielkość oo — £T^kk -“ ^ ^Tlfkkiri). n= 1 Gdy k jest stanem chwilowym, to średni czas powrotu jest nieskończony, gdyż P(Tkk = oo|X0 = fc) = 1 - Fkk > 0. Definicja 17. Stan k nazywamy zerowym, gdy ¡ik = oo, a niezerowym lub do­ datnim, gdy fik < oo. 8 . Rozważmy łańcuch Markowa z dwoma stanami i macierzą przejścia Oba stany są powracające. Czy są zerowe? *9. W nieprzywiedlnym łańcuchu Markowa wszystkie stany są zerowe lub wszyst­ kie stany są dodatnie. *10. Dla nieprzywiedlnego łańcucha Markowa istnieje dokładnie jeden rozkład stacjonarny wtedy i tylko wtedy, gdy łańcuch Markowa jest powracający dodatni. § 12.6. Dojście do ustalonego zbioru stanów 299 *11. W nieprzywiedlnym łańcuchu Markowa stan powracający j jest zerowy wte­ dy i tylko wtedy, gdy limn-.ooPri(ii) = 0 dla dowolnego stanu i. Wsk. W dowodzie konieczności zastosować chwyt z dowodu twierdzenia 5. 12. Udowodnić, że dla symetrycznego błądzenia przypadkowego na prostej i na płaszczyźnie wszystkie stany są zerowe. 13. Niech łańcuch Markowa z przestrzenią stanów S = { 0, 1, 2 , . . . } ma macierz przejścia postaci: pon = C ■ a > 1, n = 1,2,..., C -1 = Pn,n~l — 1Dla jakich a łańcuch składa się ze stanów powracających zerowych? § 12.6. Dojście do ustalonego zbioru stanów Teraz zajmiemy się prawdopodobieństwami dojścia do ustalonego zbioru stanów i średnim czasem dojścia do tego zbioru. Niech F C S i niech pF(i) będzie prawdopodobieństwem dojścia do zbioru F, gdy łańcuch startuje ze stanu i, tzn.: pF(i) = P {{3 n > 0: X n € F}|X0 = i), a nip (i) będzie średnim czasem dojścia tego łańcucha do zbioru F , tzn.: m F(i) = £ (inf{ra ^ 0: X n 6 F } |X 0 = i ) . Wtedy zachodzi T w ierdzen ie 1. Dla i € F , pF{i) = 1, mF(i) = 0. Dla i $ F spełniony jest układ, równań: P f {i ) = (!) 3 mF(i) = \ + ’Y ^ p ijmF(j). (2) HF Ponadto pF(i) = 0 dla stanów i spełniających warunek Pij(n) = 0 dla dowolnych j 6 F , n € N ; mF(i) = oo dla stanów i spełniających pF(i) < 1. D o w ó d . Dla i £ F równości zachodzą z definicji. Niech zatem i 4 F. Wtedy OO F } = { X 1 e F } U \ J {X l ^ F , . . . , X n. 1 ¿ F , x n e F } n= 2 Rozdział 12. Łańcuchy Markowa 300 K orzystając z tego rozbicia, wzoru na prawdopodobieństwo całkowite i z własności 12.1.8a, mamy PF(i) = l * i = 3 ,X o = i) P { X 1 = j\X0 = i) = j€S = $ > y [P (* i 6 j£S = J ,X 0 = i) + CO + 53 W £ •■, * n - i £ F ,X n € = i))] = 71=2 = jSF i’y + 1 2 piipF j$F = Y Pii pF ( i )'■ j€S Dla dowodu drugiego równania oznaczmy Y = in f{n > 0 :X n e F } , ponadto dla ciągu (an) C 5 definiujemy / ( ( a n)) = in f{n :a „ € F }. Wtedy Y = f ( X 0, . . . ) oraz dla {-Xo = i}, i $ F jest f ( X 0, X 1, . . . ) = l + f ( X 1, X 2,. . . ) . Stąd mF( i ) = S ( Y \ X 0 = i ) = : Y , £ (Y \X ° = i ’ X ' = i')P ( X i = 3 \ X o = i ) = je s = ' £ £ ( 1 + f ( X i, X 2, ...) |X 0 = i,X i = j ) p ió = 3 = 1 + J 2 m FU)Pij = 1 + Y m F ^)PiV 3 j<ZF gdzie w przedostatniej równości skorzystaliśmy z własności 12.1.8d. Ostat­ nia część twierdzenia jest oczywista. ■ U w aga 2. Gdy S jest zbiorem skończonym, to równania (1-2) mają jed­ noznaczne rozwiązanie. Dla S nieskończonego może tak być, ale nie musi. P rzy k ła d 3. Jan i Piotr rzucają monetą. Gdy wypadnie orzeł, to Jan wy­ grywa 1 zł od Piotra, gdy reszka, to na odwrót. Jakie jest prawdopodobień­ stwo, że Jan mając 1 zł wygra 3 zł? Jaka jest średnia długość gry? Rozpatrzmy grę z punktu widzenia Jana. Jest to łańcuch Markowa ze zbio­ rem stanów S = { 0 , . . . , 4 } i macierzą przejścia o elementach: poo = p u = 1; Pi,i+i = Pi,i-1 = \ dla ¿ = 1,2,3, pozostałe p^- = 0. Jan wygrywa 3 zł, gdy § 12.6. Dojście do ustalonego zbioru stanów 301 jego kapitał będzie wynosił 4 zł. A więc chcemy obliczyć P{4}(1). Korzysta­ jąc z twierdzenia 1 i oznaczając P{4 j(i) = fi, wypisujemy układ równości: h - g f/i + / 31 /3 - g f/2 + / 4f h = l fo = 0. Rozwiązując otrzymujemy fi = i = 1,2,3. Stąd prawdopodobieństwo, że Jan wygra 3 zł jest równe |. Gra się skończy, gdy łańcuch dojdzie do stanu 0 lub stanu 4. Zatem interesuje nas m{0,4} ( l ) . Niech gi = m{o,4}(*)> i e S. Z twierdzenia 1 mamy g0 = g4 = 0, g1 = 1 + \g2, g2 = 1 + \{g\ + ife], g3 = 1 + \g2. Rozwiązując otrzymujemy: gx = g3 = 3, g2 = 4. Zatem gdy Jan ma 1 zł, średni czas gry -wynosi 3. ■ Teraz zajmiemy się pochłaniającymi łańcuchami Markowa. Jak już wspominaliśmy w § 12.3, stan i nazywamy pochłaniającym, gdy pa = 1. Łańcuch Markowa nazywamy pochłaniającym, gdy składa się ze stanów chwilowych i pochłaniających. Jak wiemy, łańcuch Markowa składa się ze stanów powracających i chwilowych, przy czym stany powraca­ jące tworzą klasy nieprzywiedlne. Gdy klasę nieprzywiedlną potraktujemy jako jednoelementowy stan pochłaniający, to łańcuch Markowa stanie się łańcuchem pochłaniającym. Twierdzenie 1 podaje w szczególności układ równań, jaki spełniają prawdo­ podobieństwa trafienia do ustalonego stanu pochłaniającego i średnie czasy dojścia do tego stanu. Jeśli łańcuch Markowa ma skończoną liczbę stanów, prawdopodobieństwa pochłonięcia można obliczyć przy pomocy macierzy otrzymanych z macie­ rzy przejścia. Dokładniej: Rozpatrzmy łańcuch Markowa o k stanach, przy czym stany 1 , 2 , . . . , m są pochłaniające. Wtedy macierz przejścia P ma postać: Stw ierdzenie 4. Macierz gdzie aij = P { j y ( i + m) jest prawdopodobieństwem, że łańcuch wychodzący ze stanu chwilowego i + m zatrzyma się w stanie pochłaniającym j , spełnia A = (I - Q )- 'R . Rozdział 12. Łańcuchy Markowa 302 D o w ó d . Istotnie, z twierdzenia 1 powyżej 1=1 czyli A = R + Ponieważ (J - Q )(I + Q + Q2 + •••+ ę " - 1) — I ~ Qn, Qn —> 0 (stw. 12.3.6), to det(I — Qn) ^ 0 dla dostatecznie dużych n, czyli det(7 — Q) =£ 0. Zatem macierz I — Q jest odwracalna i z równości A — QA = R mamy A = (I — Q )~ 1R. m P rz y k ła d 5. Zastosujmy powyższe rozważania do przykładu 3. Zmienimy numerację stanów, by doprowadzić do zgrupowania stanów pochłaniają­ cych. Zamieniamy stan 1 z 4, wtedy: P = 1 0 0 0 0 0 1 0 0 0 1 2 0 1 2 0 0 0 0 0 1 2 0 1 2 0 0 1 2 1 2 Zatem 1 (2 ( J - Q ) _1 = 1 f VI I Otrzymaliśmy prawdopodobieństwa pochłonięcia przy starcie z dowolnego stanu — w szczególności to samo, co w przykładzie 3, 032 = ale inną metodą. ■ Zadania 1. W grze planszowej prawdopodobieństwa przejścia w pojedynczej grze pomię­ dzy trzema stanami zadane są macierzą i 0 ^ i 1 f 4 4 2 0 1 i u 3 3 Ile średnio trzeba gier, by przejść ze stanu 1 do stanu 2? §12.6. Dojście do ustalonego zbioru stanów 303 2. Pchla porusza się pomiędzy psem, kotem, człowiekiem i podłogą. Niezależ­ nie od tego, gdzie jest teraz, wybiera następne miejsce pobytu z równymi prawdopodobieństwami. Swoją wędrówkę zaczyna od podłogi. Na psie i ko­ cie może się pożywić, na człowieku ginie, a na podłodze głoduje. Jaka jest średnia liczba posiłków pchły przed śmiercią? Jakie jest prawdopodobieństwo, że pchła zginie na czczo? 3 . Udowodnić, że jeśli łańcuch Markowa ma jeden stan pochłaniający, a wszyst­ kie pozostałe komunikują się i nie tworzą zbioru zamkniętego, to są one sta­ nami chwilowymi. Klasyfikacja stanów: podsumowanie. X. Stan nazywamy nieistotnym, gdy z dodatnim prawdopodobieństwem można z niego przejść do stanu, z którego powrót jest niemożliwy (§ 12.2). W przeciwnym razie stan jest istotny. Zbiór stanów istotnych rozpada się na nieprzywiedlne klasy stanów, czyli za­ mknięte klasy stanów wzajemnie komunikujących się. Każda z tych klas składa się ze stanów o tym samym okresie d (tw. 12.4.2) i rozpada się na d podklas cyklicznych (tw. 12.4.4). Stan tworzący jednoelementowy zamknięty zbiór stanów nazywamy pochłaniają­ cym. 2. Ze względu na szansę powrotu stany dzielimy na a) chwilowe — szansa powrotu jest mniejsza niż 1; do takiego stanu wraca się tylko skończenie wiele razy (def. 12.3.2, tw. 12.3.3); b) powracające — szansa powrotu jest równa 1; do takiego stanu wraca się nieskoń­ czenie wiele razy (def. 12.3.2, tw. 12.3.3); subtelniejsza klasyfikacja (def. 12.5.17) dzieli stany powracające na — dodatnie ( niezerowe), dla których średni czas powrotu jest skończony — zerowe, dla których średni czas powrotu jest nieskończony. Zbiór stanów łańcucha Markowa można jednoznacznie rozbić na zbiór stanów chwilowych i nieprzywiedlne zamknięte zbiory stanów powracających (twierdzenie 12.3.11). 3. Każdy stan nieistotny jest chwilowy. Jeśli łańcuch Markowa jest skończony, również każdy stan chwilowy jest nieistotny i oba zbiory stanów są równe. Rozdział 13 Proces Wienera § 13.1. Typow a średnica ziarna pyłku mieści się w przedziale od 1 do kilkudziesięciu ¿¿m. Pyłki większe od 4 /¿m nie poruszają się w dostrzegalny sposób. Do cząstki o średnicy 1 fj-m może się dopchać ok. 108 cząsteczek wody. Zderzenia z nimi następują co 1 0 " 20 s. ł Definicja i konstrukcja W 1827 roku angielski botanik Brown1 opisał nieregularne ruchy, wyko­ nywane przez pyłki kwiatowe zawieszone w cieczy. Zjawisko to zostało w zadowalający sposób wyjaśnione dopiero w 1905 roku niezależnie i róż­ nymi metodami przez Einsteina i Smoluchowskiego na gruncie mechaniki statystycznej2. Każda cząstka zawiesiny jest bombardowana ze wszystkich stron przez cząsteczki cieczy. Impulsy pochodzące od poszczególnych czą­ steczek nie równoważą się idealnie, tak jak nie równoważą się liczby orłów i reszek w serii rzutów monetą. Wiemy jednak z twierdzenia de Moivre’a-Laplace’a, że przeciętna względna nierównowaga jest tym większa, im krót­ sza jest seria. Dlatego duża cząstka, bombardowana wieloma cząsteczkami cieczy, raczej się nie poruszy, dostatecznie mała zaś ma na to duże szanse. Nie będziemy rozwijać tego argumentu. Czytelnika zainteresowanego fizyczną stroną zagadnienia odsyłamy do Delty, 12/1997, gdzie znajdzie życiorys Mariana Smoluchowskiego i omówienie jego prac, a także cytowanych tu prac Einsteina. Z kolei w numerach 4 i 5/1983 zamieszczono artykuł Bogdana Cichockiego po­ święcony historii odkrycia i wyjaśnienia zjawiska ruchów Browna. Na przełomie XIX i XX wieku kinetyczna teoria materii znajdowała się w odwro­ cie, a wielkie sukcesy odnosiła termodynamika. William Ostwald napisał nawet podręcznik chemii, w którym ani razu nie użył słowa „atom” . Wydawało się, że po wyeliminowaniu z nauki niewidzialnych fluidów w rodzaju cieplika i flogistonu przyszła kolej na atomy. Jednak ruchy Browna były wyraźnie sprzeczne z ter­ modynamiką, według której powinny zaniknąć po osiągnięciu przez układ stanu równowagi. Ale i wyjaśnienia na podstawie teorii kinetycznej były poddawane (słusznej) krytyce. 1 Brown był pierwszym, który badał systematycznie to zjawisko. Później okazało się że obserwowało je wielu uczonych, w tym Leeuwenhoek w roku 1650. 2A. Einstein, Annalen der Physik, 17 (549), 1905, O ruchu cząstek zawiesiny, postulo­ wanym przez molekulamo-kinetyczną teorię depta oraz ibid. 19 (391), 1906, Przyczynek do teorii ruchów Browna. M. Smoluchowski, Zarys teorii kinetycznej ruchów Browna i roztworów m ętnych, Rozprawy W ydz. Mat.-Przyr. AU, ser. A (257), 1906. 304 § 13.1. Definicja i konstrukcja 305 Smoluchowski zajmował się ruchami Browna od 1900 r. Zdawał sobie sprawę, że ma do czynienia z procesem stochastycznym, takim jak gra hazardowa (widać to w stosowanej przez niego argumentacji). Wyrażano opinię3, że „... w serii prac, które Smoluchowski napisał w ciągu ostatnich pięciu lat życia zostały położone podstawy nowoczesnej teorii procesów stochastycznych” . Smoluchowski opublikował swoje prace dopiero po uzyskaniu dobrej zgodności z wynikami doświadczeń Feliksa Exnera, z którym pozostawał w kontakcie. Dla­ czego nie wcześniej? Prawdopodobnie przyczyniła się do tego nieprzychylna at­ mosfera wokół teorii kinetycznej. Proces Wienera (zwany czasem ruchem Browna) jest postulowanym przez kinetyczną teorię materii matematycznym modelem ruchu cząsteczki zawie­ szonej w cieczy. Formalnie rzecz biorąc, jest to rodzina zmiennych losowych Wt, t > 0, określonych na tej samej przestrzeni probabilistycznej (ii, T , P ). Funkcję t i-> Wt(w) nazywamy trajektorią procesu. Trajektoria jest więc wyznaczona przez element w € fi. D efin icja 1. Standardowym procesem Wienera nazywamy proces spełnia­ jący następujące warunki: 1. W0 = 0. 2. Przyrosty procesu są niezależne, czyli jeśli 0 < ii < . . . < tn, to zmienne losowe Wtl,W t2 ~ W tl, . . . , W tri- W t n_ 1 są niezależne. 3. Dla wszystkich t, u > 0 Wt+ u - W u ~ N { 0 , t ) . 4. Trajektorie procesu są ciągłe. U w aga 2. Z warunków 1-3 wynika natychmiast postać funkcji kowariancji procesu: K {t, s) = cov(W/i , Ws) = min(i, s). Istotnie, jeśli t > s, to cov(W i; Ws) = £ [1W l + (Wt - WS)W S] = £ W 2 s + £ (W t - W S)W S = = s = min(t, s). Nietrudno też zobaczyć (zad. 1), że rozkłady skończenie wymiarowe procesu Wienera, czyli rozkłady wektorów losowych (W ^ , . . . , Wtn), są normalne. 3S. Chandrasekhar, Rev. Mod. Phys. 15, 1 (1943). Rozdział 13. Proces Wienera 306 Odwrotnie, jeśli proces Wt,t > 0, ma skończenie wymiarowe rozkłady nor­ malne, to funkcja kowariancji K (t,s ) = min(i, s), wyznacza jednoznacznie rozkłady skończenie wymiarowe procesu. Jeśli wiadomo ponadto, że W q = 0 i że proces ma ciągłe trajektorie, to jest procesem Wienera. Pozostaje otwarta kwestia istnienia procesu spełniającego podane w defi­ nicji warunki4. Mamy tu sytuację typową dla tej teorii: należy wykazać istnienie procesu o danych rozkładach skończenie wymiarowych (co zazwy­ czaj wynika z ogólnego twierdzenia Kołmogorowa o istnieniu procesu, tw. C.4.2) i o dostatecznie regularnych trajektoriach. Zazwyczaj dowodzi się istnienia dostatecznie regularnej modyfikacji stocha­ stycznej wyjściowego procesu X t, czyli procesu X t, spełniającego warunek: P (X t ¿ X t) = 0 Sprawdzając zgodność rodziny rozkładów badamy w istocie niesprzeczność definicji procesu za pom ocą rozkładów skończenie wymiarowych. dla t e T . Istnienie procesu W t,t > 0 spełniającego warunki 1-3 definicji 1 wynik­ nie z tw. C.4.2, jeśli tylko udowodnimy, że rozkłady skończenie wymiarowe są zgodne (patrz def. w §C.4). Ale z zadania 1 wynika, że rozkład wek­ tora (Wtl, •.., Wtn) jest normalny, o zerowej średniej i macierzy kowarian­ cji (m in(ij,ij))i<gij:,-:gn, co natychmiast daje zgodność rodziny rozkładów skończenie wymiarowych procesu Wt. W szczególności, istnieje proces Wt, t € [0,1], spełniający warunki 1-3. W y­ każemy, że istnieje jego modyfikacja stochastyczna Bt,t £ [0,1], o ciągłych trajektoriach. W tym celu skorzystamy z kilku lematów. Pierwszy z nich jest bezpośrednim wnioskiem z dowodu nierówności Levy’ego-Ottavianiego (7.3.1) i z samej nierówności: L em at 3. Niech X i , ... X n będą niezależnymi, symetrycznymi zmiennymi losowymi, niech Sjt = X\ + .. . + X k- Wtedy dla r > 0: P(max.Sk > r) ^ 2P(Sn > r); k^n P ( max \Sk\> r ) < 4P (Sn > r). (1) ' (2) W dalszym ciągu B będzie oznaczać zbiór liczb dwójkowo-wymiernych (czyli postaci fc2-m , k € Z, m € N ), zaś B n — jego podzbiór, złożony z ułamków o mianownikach nie przekraczających 2n. Z lematu 3 łatwo wynika, że P( sup u € B n [ s ,i] \WV - W„\ > r ) = lim P ( n-łO O sup < 4P (W t_ , > r). 4Pierwszy ścisły dowód podał Wiener (1926). \WU- W,\ > r) s? u £ B „ n [s ,i] (3) § 13.1- Definicja i konstrukcja 307 Istotnie, wystarczy w tym celu przedstawić zmienną losową Wt - W„ (która ma ten sam rozkład, co Wt- S) w postaci sumy przyrostów: Wfc2~n ~ W s , W(fc+l)2-n — W k 2 - n , - ■ •, W t — W l 2 - n , gdzie k = [s2n] + 1,1 = [t2n]. W celu zbadania ciągłości trajektorii na odcinku [0, T] wprowadzimy moduł ciągłości: m (A ,T ) = sup \ W f - W t\. | t-t '| < A i,i'SBn[0,T] Jeśli wykażemy, że m (A, T) —>0 dla A —>0 z prawdopodobieństwem 1, bę­ dzie to oznaczać, że prawie wszystkie trajektorie, rozpatrywane w punktach dwójkowo-wymiernych, są jednostajnie ciągłe. T w ierdzen ie 4. Z prawdopodobieństwem 1 m (A , T) —» 0 dla A —* 0. D o w ó d . Niech A = 2~n (dla prostoty). Jeśli m ( A, T) > e, to dla pewnego fc < 2nT sup |Wt -W * A | > | e , i g [ i :A ,( f c + l ) A ] n B czyli {rn (A ,T ) > e} C { max sup \Wt - WłaI > |e} C fc< 2 " r t € [ * A , ( f c + l ) A ] n B (2n—1)T C M { sup \Wt - W k± \ > \ e } . k=0 i€[fcA,(fc+l)A]nB Stąd i z (3) P(ra(A,T) > e) ^ 4 •2nT •P (W A > |). Ponieważ W¡\ ma ten sam rozkład, co \fKW\, to ostatecznie P (m (A , T) > e) < 4 •2nT •P (W X > - ^ = ) < 2?1+2r e ' 2’‘ _ V -► 0 2v A przy n —>oo, co kończy dowód. ■ Z twierdzenia 4 wynika teraz, że dla każdego n € N istnieje taki zbiór &c,n C ii, że P(iic,n) = 1 i dla każdego ui € iic,n trajektoria IVt(w), t E £ Bn[0, n] jest jednostajnie ciągła. Niech fic = fl^Li ^c.n- Wtedy P (fic) = = 1 i trajektoria Wt(uf), t e B , u E Sic przedłuża się do funkcji ciągłej na przedziale [0, oo), definiujemy mianowicie _ . , df f lim «-« Ws(ui) = < s€B \ Wt(u) t g B , uj e fic, w p.p. Rozdział 13. Proces Wienera 308 Okazuje się teraz, że dla t e B mamy po prostu B t(u) = Wt{u>) dla wszyst­ kich ui € fi. Jeśli t g B , to P(Bt = Wt) = P (lim = Wt) = 1, sEB bowiem po pierwsze wyjściowy proces W jest jstochastycznie ciągły,|co ozna­ cza, że gdy tn —> i, to W tn Wt, a po drugie — występująca powyżej granica w sensie zbieżności (prawie) na pewno jest z prawdopodobieństwem 1 równa granicy według prawdopodobieństwa. Tym samym stochastyczna równoważność procesów W i B została udowodniona. Na zakończenie tego paragrafu udowodnimy twierdzenie, które pozwoli jesz­ cze bardziej uprościć sprawdzanie, czy proces jest procesem Wienera. T w ierdzen ie 5. Proces X t,t ^ 0 jest procesem Wienera wtedy i tylko wtedy, gdy spełnione są warunki 1, 2 i A z definicji 1 oraz warunki: Nie ma tu nic o rozkładzie normalnym! 3'. £X\ = 0, ZX\ = 1. 3". Jeśli t ^ s, to X t — X s ~ X t- SD o w ó d . I. Najpierw udowodnimy, że z warunków 1, 2 i 4 wynika, że dla każdego p ^ l i dla każdego i > 0 jest 5 sup3S-t |XS|P < oo. Ustalmy t > 0 i n e N i oznaczmy Dk —X kt/2n — X ( k- l ) t / 2 n1 Sk = Di + ■••+ D/c = X kt / 2 n - Zmienne losowe D k, 0 < k ^ 2” są niezależne i z nierówności Hoffmanna-J 0rgensena (zad. 7.3.11) wynika, że P ( max \Sk\ > 3m) ^ P ( max |D/t| > u) + \ )< i;< 2 " 0<k^2n + P ( max \Sk\ > u )P ( max 152" - Sk\> u/2). K0 < k ś 2 n 0<A:^2n 1 Gdy n —> oo, to max 0<fc<2n sup |X,|, o< s < t max |52» - 5fc| î ?7 = 0<fc<2" sup \Xt - X s\, o < s^ t podczas gdy na mocy jednostajnej ciągłości trajektorii (por. tw. 4) P ( max IZ?* |> u) < P (m (2 ~ n) > u) —>00<kś2n Wobec tego P (£ > 3m) < 0 + P (£ > u) P ( t] > u/2). § 13.1. Definicja i konstrukcja 309 Z tej nierówności wynika, że ogony rozkładu zmiennej losowej £ zmierzają do zera na tyle szybko, że ££p < co dla wszystkich p > 0. Żeby to zoba­ czyć, zauważmy najpierw, że zmienne losowe = £ A n także spełniają powyższą nierówność (jeśli n < 3u, to P(£n > 3«) = 0; w przeciwnym razie podstawienie £n nie powoduje żadnych zmian). Mamy teraz dla każdego r > 0: ponieważ dla u > 2r wyrażenie w nawiasie kwadratowym jest nie większe od zera. Wybierając tak duże r, by 3-p —P(r] > r) > 0 otrzymujemy oszacowanie a ponieważ Ę,n f £, to ££p < oo, co kończy dowód kroku I. II. Udowodnimy, że z 1, 2 i 4 wynika, że dla każdego t > 0 zmienna losowa Xt ma rozkład Afffi, i). Zauważmy, że funkcja m(t) — £ X t jest ciągła (ponieważ £ sups^t |XS|< oo) i spełnia warunek m(t + s) = m(£) + m(s), t,s ^ 0. Zatem m (t) = ct, ale ponieważ z założenia m (l) = 0, to c = 0, więc £ X t = 0, i > 0. Podobnie, niech v(t) = V 2X t. Ponieważ X t — X s ~ Jft-« dla 0 < i < s i X s = X t + (X s —X t), mamy v(s) = v(t) + v(s —t). Funkcja v jest ponadto ciągła, więc musi być liniowa i v(t) = ct, a ponieważ £ X f = 1, to c = 1, zatem V 2X t = t, t > 0. Oznaczmy = X tk/n - X t(k-i)/n, n k = l , 2 , . . . n . Wtedy n a ponadto zmienne losowe k = 1,2,... n są niezależne. Aby wykazać, że zmienne losowe X t mają rozkład normalny, skorzystamy z CTG i spraw- Rozdział 13. Proces Wienera 310 dzimy, czy spełniony jest warunek Lindeberga. M amy n Ponieważ zmienne losowe £k,n są niezależne i ££k,n = 0 dla k < n, n £ N, na mocy kroku I: £ = £ X f < oo, a F(maxfc^n |£fc,n| > e) —> 0 na mocy jednostajnej ciągłości trajektorii na [0,i]- Dowód kroku II i twierdzenia został zakończony. ■ Zadania 1. Udowodnić, że rozkłady skończenie wymiarowe procesu Wienera są nor­ malne. 2. Podać przykład procesu o funkcji kowariancji K (t, s) = min(i, s) i nie będą­ cego stochastyczną modyfikacją procesu Wienera. 3. Proces Ut = Wt —tW i,t 6 [0,1], gdzie W jest procesem Wienera, nazywamy mostem Browna. Wyznaczyć jego funkcję kowariancji. 4. Wykazać, że proces X t, i ^ 0 jest procesem Wienera wtedy i tylko wtedy, gdy ma ciągłe trajektorie, rozkłady skończenie wymiarowe normalne o średniej zero, i funkcję kowariancji min(t, s), t, s ^ 0. 5. Niech W będzie procesem Wienera. Wykazać, że procesy otrzymane za po­ mocą następujących transformacji są procesami Wienera: a) Zt = -W f , b) Xt = c~1/2Wet, O 0; v - / tWl/t dla i > 0, . } 4 \0 dla i = 0 ’ d) Vt = Wr+t —Wt dla T > 0; dla t SCT, dla t > T. Uwaga. Jak zwykle, po zastąpieniu T przez moment Markowa r w dwóch ostatnich punktach można się spodziewać ciekawych twierdzeń. Jedno z nich jest udowodnione w § 13.4. Drugie polecamy jako zadanie. Aby skonstruować proces Wienera dla t e [0, oo) można także „sklejać” przeli­ czalnie wiele niezależnych kopii procesów Wienera określonych dla t € [0,1]. Oto odpowiednie zadanie. § 13.2. Własności trajektorii 311 6 . Niech V}n\ t £ [0,1] będzie procesem Wienera określonym na przestrzeni probabilistycznej (i1n, T n, Pn), n = 1,2,.... Na przestrzeni produktowej ii = = fii x f 22 x ..., T '= T\ ® Ti ® ..., P = Pi ® P-2 ® . .. definiujemy proces Wt(w), gdzie t € [0, oo), u> = (u>i,W2, . ••), wzorem Wt(w) : dla t e [0, 1], dla t e [n, n + 1], Wn(u) + Można też wykorzystać uwagę 2. Wykazać, że proces W jest procesem Wienera na przedziale [0,oo). 7. Inny sposób, przedłużenia procesu W ienera na [0, oo). Wykazać, że jeśli W t,t e [0,1] jest procesem Wienera, to B f ■(1 + t) (W t/u+t) - — W i) , i € [0, oo) jest procesem Wienera. 8 . Prawo wielkich liczb dla procesu W ienera. Wykazać, że Wt lim — = 0. t-» co t 9. Wykazać, że dla dowolnych dodatnich a i 6 P ( { —ai < Wt < bt dla dostatecznie dużych t}) = 1 P roces W ienera ja k o martyngał. Jeśli zdefiniujemy filtrację (Tt)t^o zależno­ ścią Tt = cr(Ws: s Sj i), to otrzymamy martyngał z czasem ciągłym (W t,Tt). 10. Wykazać, że martyngałami są procesy a) Wt; b) W f — t. 11. Udowodnić, że zbiór (sups<t Ws ^ c} jest zdarzeniem (mimo że na pierwszy rzut oka jest nieprzeliczalną sumą zdarzeń). Istnieje jeszcze jedna, martyngałowa charakteryzacja procesu Wienera, pocho­ dząca od P. Levy’ego: jeśli proces X t, t ^ 0 jest martyngałem o ciągłych trajek­ toriach, a ponadto X f —i jest martyngałem, to Xt jest procesem Wienera. § 13.2. Własności trajektorii Choć trajektorie procesu Wienera są ciągłe, typowa trajektoria jest bardzo nieregularna. Udowodnimy, że prawie wszystkie trajektorie są nigdzie nieróżniczkowałne. Nie jest więc dziwne, że prawie wszystkie trajektorie mają 'wahanie nieskończone. Z kolei wariacja kwadratowa jest prawie na pewno niezerowa i — przy odpowiednich założeniach co do ciągu podziałów od­ cinka — deterministyczna i równa długości odcinka, na którym ją mierzymy (zad. 1-3). Dzięki wynikowi zad. 13.1.5 badanie różniczkowalności trajektorii na [0, oo) można sprowadzić do badania różniczkowalności na [0,1). Funkcja ciągła o ograniczonej pochodnej lub ograniczonym wahaniu ma zerową wariację kwadratową. 312 Rozdział 13. Proces Wienera m T w ierdzen ie 1. Prawie wszystkie trajektorie procesu Wienera (W t)te[o,i] są funkcjami nigdzie nieróżniczkowalnymi. D o w ó d . Jeśli trajektoria Wt(w) jest różniczkowalna w pewnym punkcie s € [0 , 1 ), to |Wt( u ; ) - W s( w ) K ^ ) ( i - s ) dla t dostatecznie bliskich s, t > s i pewnego l(ui) > 0, skąd wynika, że dla j — [ns] + 1, [ni] + 2 i [ns] + 3 oraz dostatecznie dużego n: |W j / n ( u ) - W ( j . 1)/n(cj)\ < \Wj/n{ u ) - W.\ + IW y -D / n M - W.\ < l{w) < i -----s n < 1^ ^ n I3 ^ n j - 1 + ---------- 5 n = 71^ n Wobec tego zdarzenie „różniczkowalność w pewnym punkcie” zawiera się w zdarzeniu uu n u n {W/»-wwi<7*/»}. Zatem wystarczy wykazać, że dla dowolnych ¡, m £ N zdarzenie =n u n - ww-i)/»i <7*/w> 0<i^n+l i<j^i+3 ma zerowe prawdopodobieństwo. Istotnie, P (A m,«) < limin£(n+ l)P(|W1/n|^ 7//n)3 n —»oo ' = liminf(n + l)P(|W/i[ ^ 7l/y/n)3 71—»OO sClim(n + 1) f “7 = 1 n ^71 y = 0. Ostatnia nierówność wynika z elementarnego oszacowania P(|Wi| < r ) ^ ^ v fc r - " Zadania 1. Niech Tn = {ion^ iin)i ■•• }, n = 1,2 ... będzie ciągiem podziałów od­ cinka [a, 6], takich że ||Pn|| —* 0, gdzie V„ — sup*. l4n )_ 4 - )il 0est to średnica podziału). Wykazać, że IW ,n) - W,<„, |2 ------ ►b - a Sn = Y z ' fc=l w L 2; jeśli ponadto l k k - 1 n —*00 ll^ ll < oo, to Sn —* b — a p.n. ij 313 § 13.3. Zasada odbicia ll^nll < 00 w poprzednim zadaniu da się zastą­ \2. Wykazać, że warunek pić siabszym: OO y ^ e x p (- a / | | 'P n ||) < 00 . n ~ l 3 . Udowodnić, że prawie każda trajektoria procesu Wienera ma nieograniczone wahanie na dowolnym przedziale. Uwaga. Wynika stąd, że całka Stieltjesa względem trajektorii procesu Wie­ nera nie ma sensu. § 13.3. Zasada odbicia Jest intuicyjnie prawie oczywiste, że jeśli trajektoria procesu Wienera do­ trze do punktu r > 0, to ma równe szanse skierowania się w górę i w dół. Wynika stąd następujące twierdzenie: Twierdzenie 1 (Z asad a odbicia). Jeśli [W t) t^o jest procesem Wienera, to P(sup Ws > r) = 2P (W t > r ), 0. (1 ) P(sup Ws > r) ^ 2P (W t > r), S^t r > 0. ( 2) S^t D o w ó d . Nierówność wynika natychmiast z nierówności Levy’ego 13.1.1. Wystarczy zatem udo­ wodnić nierówność przeciwną. Niech Wt*'n = sup Ws. s e B nn[o,i] Żądana nierówność natychmiast wynika z lematu 2. Zwróćmy uwagę, że w dowodzie wykorzystuje się w istotny sposób ciągłość trajektorii: jeśli w chwili fc2 ~n proces przekroczył poziom r, to w chwili (k — l ) 2~ n był już blisko tego poziomu. Lem at 2. Niech r ^ 0. Dla każdego t > 0 i każdego 6 > 0 istnieje takie n(6), że dla n > n(S) P {W *'n > r ) > 2P {W t ź r + 6 ) - 6 . D o w ó d lematu. Ustalmy dowolne S > 0. Niech r = inf{s € B „ fi [0,t]: Ws > r }. Rozdział 13. Proces Wienera 314 Jeśli r = k2 n, to Wk2- » ^ r, a jeśli dodatkowo założymy, że m ( 2 n) < S, to Wk2 - n < r + S. Dlatego mamy [2 n t] P (W t > r + 6 ) ^ J 2 P ( W* - Wk2~n + > r + S’ m (2_n) < 5>r = k2~' k=0 x P ( r = k2~n) + P (m (2 ~ n) > S) < [2"t] < V P (W t - W *2-„ 5= 0|r = k2~n) P ( r = *2“ " ) + fc=0 + P (m (2 ~ n) > 5) ^ < ^ w ^ o + - p w n ^ ) - W ostatniej nierówności skorzystaliśmy z niezależności zdarzeń { r = k2~n } i {W t — Wk2- « 0}. Teza wynika teraz z tw. 13.1.4. Dowód lematu i tym samym dowód twierdzenia 1 został zakończony. ■ Zadania 1 . Wyznaczyć gęstość zmiennej losowej W t* = max0^ s^( W s2 . Znaleźć rozkład zmiennej losowej r a = in f{i ^ 0: Wt = «}• 3. Udowodnić, że dla dowolnego t > 0 P (m a x W s > 0) = P f m i i f f j < 0) = 1. s^t Oznacza to, że proces Wienera w dowolnie małym odcinku czasu przebywa z lewej i prawej strony punktu startowego. § 13.4. M ocna własność Markowa Jeśli zdefiniujemy cr-ciała T t = <t(Ws:s ^ i), przyjmiemy definicję mo­ mentu stopu t taką, jak w przypadku czasu dyskretnego, tj. sprowadza­ jącą się do warunku { r ^ t} e Jrt , i zdefiniujemy cr-ciało T t = { B e T : B n { r ^ i } e T u t > 0 }, to będziemy mogli sformułować mocną własność Markowa dla procesu Wie­ nera. Intuicyjnie oznacza ona, że po dojściu do momentu stopu r proces Wienera zapomina o przeszłości i startuje od nowa. Twierdzenie 1 (Dynkina—Hunta). Jeśli r jest momentem stopu wzglę­ dem filtracji T t = cr(Ws: s < i), P ( r < oo) = 1, to proces Wt° = WT+t - W T, t Z 0, 5 13-4. Mocna -własność Markowa 315 jest procesem Wienera niezależnym od T t , czyli a-ciała a (W °:t ^ 0) i J-T są niezależne. D o w ó d . I. Załóżmy najpierw, że r ma przeliczalny zbiór wartości S. Wy­ każemy, że dla każdego i ^ 0 funkcja W ° jest zmienną losową. Istotnie, dla każdego a € R: { Wt° «S « } = U { Ws+t - W t ś a , r = a}, ses gdzie po prawej stronie mamy przeliczalną sumę zdarzeń. Sprawdzimy niezależność a (W ° :t ^ 0) i T r . Niech B £ B( R n), A e T t . Wtedy p { {{ w ^ ...,w i)e B } n A ) = = £ P ( { ( W £ , .. . , W?J £ B } n i n { r = s }) = s€S P ( { ( ^ 1 +- - W . , . . . , W ^+. - W .) € B } )P (A ses = P ({ (W t l, . . . , W tn) € B } ) P ( A ) . = E n {r = a}) = Skorzystaliśmy kolejno z tego, że A fi { r = s } € T s, że na zbiorze { r = s} (W ^ , .. . , Wt°J = (W tl+, - W , , . . . , W tB+, - W .), a ten ostatni wektor jest niezależny od T s i ma ten sam rozkład, co (W t l , . . . , W tJ . Biorąc A = fi widzimy, że proces W ° ma te same rozkłady skończenie wy­ miarowe, co W. W takim razie w ostatnim wierszu proces W można zastąpić przez W °, z czego wynika niezależność <r-ciał Gu,...,tn = cr(Wt° , . . . , Wt°J od T t . Żeby zakończyć dowód tego przypadku, wystarczy zauważyć, że ro­ dzina gdzie sumowanie odbywa się po wszystkich skończonych podzbiorach [0, oo), jest 7r-układem, wobec tego na mocy lematu 5.8.12 o niezależnych 7r-układach niezależność przenosi się na > 0). Za­ tem proces W ° jest niezależny od J-T; jest on procesem Wienera, bowiem ma ciągłe trajektorie i, jak udowodniliśmy przed chwilą, te same rozkłady skończenie wymiarowe, co W (zad. 13.1.4). II. Teraz zakładamy, że moment stopu r jest dowolny. Jeśli zdefiniujemy ' _ [2 ”r] + 1 Rozdział 13. Proces Wienera 316 to rn są momentami stopu i r„ | r. Oznaczmy W = WTn+t — WTn. Wtedy na mocy wyniku kroku I dla każdej funkcji ciągłej i ograniczonej tp: R n —> R i A e T r C T Tn mamy: £ (y {w £ \ . . . , Wt(? ) 1A) = £<p {w £ \ .. . , W ^ ) P ( A ) . (1) Ale Tn i t , więc z ciągłości trajektorii wynika, że W^n\u>) — > W °(ui) dla wszystkich u> poza zbiorem o zerowym prawdopodobieństwie. Dlatego (1) pozostaje w mocy dla procesu W °. Zatem (por. uwaga po zad. 9.4.1) proces W ° jest niezależny od T t . Ponadto ma ciągłe trajektorie, zerową średnią, normalne rozkłady skończenie wymiarowe i funkcję kowariancji K (t , s) = = min (i, s), więc jest procesem Wienera, co kończy dowód twierdzenia. ■ U w a g a 2 . W teorii procesów z wielu względów pracuje się z prawostronnie ciągłymi rodzinami cr-ciał (spełniającymi warunek Pls>t ^ ~ F t)- Taką rodzinę tworzą cr-ciała Tt+ == n s>t F s- Definicje poprzedzające twierdzenie 1 i samo twierdzenie można sformułować dla tej rodziny; dowód twierdzenia przebiega bez zmian. Zadania 1 . Wykazać, że zmienna losowa ra = inf{s ^ 0:WS 5S a}, a > 0, ma rozkład 1/2-stabilny, tj. jeśli są niezależnymi kopiami rOJ dla każdego n e N r i1J + ... + r i n) ~ n2ra. Transformata Laplace’a a funkcja charakterystyczna. Transformatą Laplace’a zmiennej losowej X nazywamy funkcję L: R+ —» R, zdefiniowaną zależ­ nością Ij x ( s) = £e sX, O 0. Jest ona dobrze określona, jeśli X ^ 0, ale czasem ma sens i bez tego założenia. Jeśli na przykład X ~ AA(0,1), to L x ( A) = eA ■ /2. Podstawienie A = it daje natychmiast funkcję charakterystyczną zmiennej losowej X (przynajmniej w tym przypadku; nie będziemy formułować ogólnych twierdzeń). Taki sposób oblicza­ nia funkcji charakterystycznych kryje w sobie pewne pułapki, o czym można się przekonać z następnego zadania. 2. Wyznaczyć a) transformatę Laplace’a, b) funkcję charakterystyczną zmien­ nej losowej Ta3. Rozpatrzmy dwuwymiarowy proces (t/t, V*), i ^ 0, gdzie współrzędne są nie­ zależnymi procesami Wienera. Wyznaczyć gęstość rozkładu zmiennej losowej VTa, gdzie ra jest chwilą pierwszego dojścia procesu U do poziomu a. 4. Wyprowadzić zasadę odbicia (tw. 13.3.1) z twierdzenia Dynkina-Hunta. § 13.4. Mocna własność Markowa 317 Tożsam ości W a ld a d la procesu W ien era . Z tożsamości Walda (tw. 11.1.10, zad. 11.2.3) można wyprowadzić analogiczne twierdzenia dla procesu Wienera W: jeśli t jest momentem stopu względem naturalnej filtracji, £ t < oo, to £ W T = 0, (2) S W l = Et . (3) 5 . Udowodnić tożsamości Walda (2) i (3). Funkcje H aara. W następnym paragrafie będzie mowa o konstrukcji procesu Wienera za pomocą układów ortonormalnych w L 2 [0,1]. Poniżej zamieszczamy w formie zadań podstawowe fakty o pewnym szczególnym układzie ortonormalnym — funkcjach Haara. Niech ( S l , F , P ) będzie przestrzenią probabilistyczną. Rozpatrzmy filtrację (T „ ) , gdzie Fn = & (A ? ,. . . , j4ra+i)> gdzie { A ” , . . . , A " +1} jest rozbiciem przestrzeni n na n + 1 zbiorów o dodatniej mierze. Z tej definicji wynika, że To = {0, f i}, i że (n + l)-sze rozbicie powstaje z n-tego przez podział jednego ze zbiorów na dwie części, tj. istnieje taki wskaźnik kn, że A%n = A ™+1 U A ^ + 1 (tu i dalej „nowe” zbiory numerujemy liczbami 1 i 2 ). Możemy teraz zdefiniować funkcje Haara hn, n = 0 ,1 ,2 ,..., wyznaczone przez ciąg rozbić o opisanych powyżej własnościach. Niech ho = 1, a dla n ^ 1: ( a„ hn — \ bn 10 dla u € A “ , dla ui € -42 , dla ui g A i U A i , przy czym liczby an i bn są dobrane tak, by £hn = 0 , = 1. Funkcje Haara są zatem wyznaczone jednoznacznie z dokładnością do zmiany znaku. P rz y k ła d 3. Funkcje Haara na (0,1]. Są one wyznaczone przez ciąg rozbić: ( 0. ( 0, 1 ]}, « 0, | ] , ( M ) m iM isl.O M }, Ten właśnie ciąg pojawi się w konstrukcji procesu Wienera. Ciąg funkcji Haara w tym przypadku dzieli się w naturalny sposób na bloki, złożone kolejno z 1 , 2, ..., 2 k, . . . funkcji, wobec tego rozsądnie jest przyjąć następującą definicję i numerację: i 6 [0, 1 ], h0 {t) = l, 2^ - 2^ dla (fc - l ) 2 ~n < t < k 2 ~n, 0 w p.p. ( dla k2 ~n s£ t < {k + 1 ) 2 “ ", n ^ 1 , k < 2 n, k nieparzyste Rozdział 13. Proces Wienera 318 Oczywiście j -1 Ti2 = 1 i f * hn,k = 0, a ponadto / hn,khltrn. 0, Jo o ile k l lub u / m, co oznacza, że ciąg funkcji Haara tworzy układ ortonormalny. Jest to na dodatek układ ortonormalny zupełny, jeśli bowiem J0 f h nik = 0 dla wszystkich dopuszczalnych wskaźników k, n, to / = 0 dla wszystkich a, b dwójkowo-wymiernych, skąd wynika, że / = 0 prawie wszędzie. Za chwilę udo­ wodnimy, że własności te ma każdy ciąg funkcji Haara. ■ 6 . Niech (hn) będzie ciągiem funkcji Haara, odpowiadającym filtracji ( T n)- W y ­ kazać, że a) h„ jest ^„-mierzalna dla n = 1 , 2 ,...; b) S (h n + 1 1 F n) = 0. Od tej chwili przyjmiemy, że Q = o(T, 0,-7- i, ...). 7. Wykazać, że (h n) jest układem ortonormalnym zupełnym w L 2 (fl, Q, P ). Wynik zadania 6 da się uogólnić. 8 . Wykazać, że funkcje Haara tworzą bazę Schaudera w L p, p ^ 1, czyli dla każdej funkcji / 6 L p( U , ę , P ) istnieje ciąg (a ;) taki, że f — ®ihi przy czym powyższy szereg jest zbieżny w L P(Q ,Q , P ) i prawie wszędzie. M a r ty n g a ły a funkcje h arm on iczne. Jeśli funkcja /: R 2 —* R jest harmo­ niczna (patrz uw. D.2.7), i są niezależnymi procesami Wienera oraz T t = < r(w j1), W i2):s < i), to (/ (W t(1\ W^2)), T t ) jest martyngałem. 9. Niech / będzie funkcją harmoniczną, X — wektorem losowym o standardo­ wym rozkładzie normalnym w R 2. Wykazać, że £ f(u + c X ) = f(u ). 10. Wykazać, że proces W ^W ^2\ t ^ 0 jest martyngałem. M e t o d y M o n te C a rlo a zagad n ien ie D irich le ta . Niech G C R 2 będzie otwarty i spójny; niech g: dG —» R . Rozwiązanie zagadnienia Dirichleta w obsza­ rze G polega na znalezieniu takiej funkcji ciągłej u: G —> R , żeby u (x ) = g(x), d2u d2u x € dG, (4) . . d^ + W ~ Metodami probabilistycznymi można wykazać, że jeśli funkcja g jest ciągła i ogra­ niczona, a brzeg obszaru G jest regularny (co oznacza, że można go dotknąć , § 13.5. Konstrukcja procesu Wienera za pomocą układów ortonormalnych 319 z zewnątrz obszaru wierzchołkiem pewnego trójkąta), to rozwiązanie zagadnienia Dirichleta istnieje. Jest nim funkcja u(x) = £g(x + WT), x € G, (6) gdzie W = jest procesem Wienera opisanym wyżej, zaś r chwilą pierwszego kontaktu procesu x + Wt z brzegiem dG (jest to moment stopu). Okazuje się, że funkcja u jest harmoniczna, skąd już wynika, że spełnia (5). *11. Wykazać, że zdefiniowana w (6) funkcja u jest harmoniczna w G. Zwróćmy uwagę, że funkcja u zawsze spełnia (5). Nie zawsze natomiast jest ciągła na brzegu dG. Wiąże się to z kryterium regularności, mającym w istocie charakter probabilistyczny. § 13.5. Konstrukcja procesu Wienera za pomocą ukła­ dów ortonormalnych Istnieje wiele konstrukcji procesu Wienera na przedziale [0,1], z którymi warto się zapoznać, żeby zobaczyć, jak działają pewne twierdzenia o zbież­ ności miar i pewne twierdzenia z analizy funkcjonalnej. Na proces Wienera, czyli na rodzinę zmiennych losowych (Wt)ie[o,i]> można patrzeć jak na zmienną losową o wartościach w C [ 0,1] (przestrzeni funkcji ciągłych na odcinku [0,1] z normą sup). Rozkład prawdopodobieństwa tej zmiennej losowej to miara Wienera. Wspomnimy tu o konstrukcji za pomocą łamanych losowych. Niech £, będą niezależnymi zmiennymi losowymi o rozkładzie ftf ( 0,1). Definiujemy sn(t) = ^ + " + (n i “ M ) ^ £ m + i ( w ) dla t e [0,1]. Niech Pn będzie rozkładem Sn, traktowanej jako zmienna losowa o wartościach w C [0,1]; można pokazać, że P n P , gdzie P jest rozkładem prawdopodobieństwa na przestrzeni funkcji ciągłych na odcinku [0.1], zadającym proces Wienera. Przeprowadzimy teraz konstrukcję procesu Wienera na odcinku [0,1] za pomocą układów ortonormalnych. Pochodzi ona od Itó i Nisio, zaś (wcze­ śniejszy) pomysł użycia funkcji Haara — od Zbigniewa Ciesielskiego. Niech {ipn,)^Lj będzie dowolnym układem ortonormalnym zupełnym w prze­ strzeni L 2 [0, 1 ], a (■yn)™=1 — ciągiem niezależnych zmiennych losowych o rozkładzie A/"(0,1). Wtedy formalny szereg OO ^ ^ Intpn n= 1 Rozdział 13. Proces Wienera 320 pozornie nie ma wielkiego sensu: nie jest zbieżny w L 2 [0, 1 ], więc nie defi­ niuje tam miary gaussowskiej. Definiuje jedynie obiekt zwany miarą cylin­ dryczną. Jej obraz przy przekształceniu liniowym może już być prawdziwą miarą. Nie będziemy wykładać ogólnej teorii, a udowodnimy tylko, że szereg °° pt Wt = y ' 7 n / <pn(s)ds n = l jest zbieżny prawie na pewno w przestrzeni C [ 0, 1 ], i że otrzymany proces Wt ma skończenie wymiarowe rozkłady normalne oraz funkcję kowarian­ cji SWtWs = min(i, s). To ostatnie łatwo wykazać dla dowolnego układu ortonormalnego: Szereg ^ 2 an ^ n jest zbieżny p.n. wtedy i tylko wtedy, gdy SWtWs = s { ^ 2 l ')n = = £J J <Pn(u)duj <pn(u)du- = £ / ¿ “n < ° ° ; wtedy jest on też zbieżny według p-tych momentów J j ipn(u)dv}j = (pn(u)du = l [0^ (u)ip n(u)du J l [0'S](u)tpn{u)du = / l[o,t](w)l[ 0,s]W<*i = m in(i,s). Jo Natomiast zbieżność prawie na pewno w C [0 ,1] dowodzi się dość prosto dla układu Haara (co do innych układów ortonormalnych, patrz zadania 1-3). Ponieważ funkcja Schaudera H nj : (t) — hnj c(s)ds przyjmuje wartości niezerowe tylko na przedziale ((fc — l ) 2 _n, (k + l ) 2 ~n) (i ma tam maksimum równe 2 ~ Iił i ), a przedziały takie są rozłączne dla ustalonego n i nieparzy­ stych k < 2n, mamy, oznaczając przez en(t) sumę wyrazów bloku zawiera­ jącego n-tą serię funkcji Haara sup |e„(i)| = sup te[o,i] te[o,i] = 2 n+1 2 . max K 2" k niep arzyste fc < 2 " 7 n fc . ’ k n iep arzy ste Wobec tego P ( sup |en(i)| > 6\/2~n log 2n ) = < 6 [0 , 1] = P( max fc<2n \yn,k\ > 2 ^ 6y/2~n \og2n) < k niep arzyste i < 2n _ 1 P(|7 |> 6^/2 log2") < 2ne _fl2 log2" = 2n{1~02). Jeśli 6 > 1, to '¡Py 2n(1-®2) < oo, więc na mocy lematu Borela-Cantelliego z prawdopodobieństwem 1 zachodzi tylko skończenie wiele zdarzeń sup \en(t)\ > 6^/2 - n log 2n, te[o,i] § 13.5. Konstrukcja procesu Wienera za pomocą układów ortonormalnych 321 co daje zbieżność jednostajną szeregu. Pozostaje do wykazania, że rozkłady skończenie wymiarowe procesu Wt są normalne. W tym celu zauważmy, że rozkład wektora losowego jest normalny, o średniej zero, jako granica w sensie słabej zbieżności przy k —> oo ciągu rozkładów normalnych o średniej zero, odpowiadających wek­ torom Zadania W konstrukcji procesu Wienera za pomocą układu Haara mogliśmy wykazać zbieżność szeregu losowego w przestrzeni C[0,1] dzięki temu, że funkcje Haara należące do jednego „bloku” mają rozłączne nośniki. Jeśli zastąpimy układ Ha­ ara przez dowolny układ ortonormalny zupełny w L 2[0,1], dowód zbieżności od­ powiedniego szeregu będzie znacznie trudniejszy. Poniżej przedstawiamy metodę dowodu pochodzącą od Kwapienia5. Przestrzeń C^[0,1]. Tak będziemy oznaczać przestrzeń funkcji ciągłych / na odcinku [0,1], spełniających warunek Höldera z wykładnikiem A i takich, że /(O) = 0. Norma w tej przestrzeni dana jest wzorem H/Ma = SUP { J a, t € [0 ,1 ],S * i}. Przestrzeń C a[0, 1] z tak określoną normą jest przestrzenią Banacha. Operator Riemanna-Liouville’a. Jest to operator całkowy, dany wzorem (* ./ )(« ) = r W Jo o > 0. (1 ) Innymi sławy, Raf = f * r a, gdzie ra(x) = j^ya;a_ 1 l[o,0o)(s). Ponieważ ra* n = = ra+b, mamy Ra+b = RaRb■ 1. Udowodnić Lemat 1. Jeśli 1 < p < oo, 0 < A < 1, a = l/p + A, to Ra jest operatorem, ciągłym z Lp[0,1] w C>,[0,1], 5Por. [KWA], §2.5. Ogólniejszą teorię, w tym informacje o miarach cylindrycznych można znaleźć w: A. Pietsch, Operator Ideals, VEB Deutscher Verlag der Wissenschaften, Berlin 1978, §25.6; istnieje przekład rosyjski. Rozdział 13. Proces Wienera 322 F a k to ryza c ja o p e r a to r a R.\. Naszym celem jest wykazanie, że szereg OO 71=1 gdzie (era) jest dowolnym układem ortonormalnym zupełnym, a (-fn) — ciągiem niezależnych zmiennych losowych o rozkładzie M ( 0, 1 ), jest zbieżny prawie na pewno w przestrzeni Ca[0, 1]. Przy okazji otrzymujemy wniosek: prawie wszystkie trajektorie procesu Wienera spełniają warunek Hóldera z wykładnikiem A, gdzie 0 < A < 1/2. Ustalmy A e (0,1/2). W tedy dla pewnego p € (2, oo) jest 0 < A < 1/2 — l/p. Niech a = l/p + A, b = 1 — l/p - A. W tedy a + b = 1, a G (0,1/2), b e (1/2,1), 1 mamy następującą faktoryzację: L 2 [0 , 1 ] ^ lH b C [0 ,1] Ca[0 , 1 ] L ” [0,1] N a mocy wyniku zadania 1 operator R a jest ciągły z L p[0,1] w Ca[0, 1]. Ponieważ ll-Rfc/ll«. ^ I M I 2 II/H 2 , to operator Rb jest ciągły z L 2 [0,1] w (7(0,1] C L p[0, 1 ]; ma jednak znacznie mocniejszą własność. 2. Wykazać, że szereg OO ^ ' Rb^Ti^Ti jest zbieżny według p-tych momentów w L p[0, 1 ]. Z faktoryzacji operatora R i oraz zadań 1 i 2 wynika teraz zbieżność według p-tych momentów w C ^[0,1] szeregu R i e n l n , który definiuje proces W ie­ nera. Konstrukcja została zakończona. Nietrudno jednak udowodnić zbieżność prawie na pewno powyższego szeregu. Wynika ona z ogólnego twierdzenia o szeregach niezależnych zmiennych losowych. 3. Niech będzie szeregiem niezależnych symetrycznych zmiennych loso­ wych o wartościach w przestrzeni Banacha. Uogólnić nierówność Levy’ego-Ottavianiego (7.2.1) i za jej pomocą wykazać, że zbieżność szeregu według prawdopodobieństwa implikuje zbieżność prawie na pewno. Dodatek A Kilka faktów z analizy §A .l. Pożyteczne nierówności 1 . ex < x + e*2, i e R . D o wó d . Udowodnimy równoważną nierówność: ex2~x + xe~x ^ 1. Jeśli x > 0, to z (najbardziej chyba pożytecznej) nierówności ex ^ 1 + x wynika, że : + xe x ^ 1 + x 2 —x + x ( l — z) = 1 (1) Jeśli x < 0, to lewa strona (1) jest malejąca i przyjmuje w zerze wartość 1, bowiem jej pochodna [(1 — x) + ( 2x — l)e l 2]e-:c jest ujemna, co z kolei wynika z nierówności e ^ i > r i ' *<a" 2. |log(l + z) — z\ ^ \z\2, o ile 2: € C, \z\ ^ |. D o w ó d . Istotnie, mamy ,, ,, s i |log(l + z )- z \ = z2 („ 2z 2z2 T l 1~ T + X 2 2-3 + -'- (2 ) + • 2-2-5 2a. Dla argumentów rzeczywistych ma miejsce nieco dokładniejsze oszaco­ wanie: < log(l + x) ^ x, x > —1 . 1+ x 323 Dodatek A. Kilka faktów z analizy 324 D o w ó d . Prawą nierówność otrzymuje się logarytmując obie strony nierów­ ności ex ^ 1 + x\ co do lewej, funkcja (1 + x ) log(l + x ) — x jest malejąca na ( —1 , Oj i rosnąca na [0 , oo), a dla x = 0 przyjmuje wartość 0 . ■ 3. |(1 + z )lo g (l + z) - (z + ¿)| < ||z|3, o ile z £ C, \z\ < \. D o w ó d . Wystarczy skorzystać z rozwinięcia w szereg Taylora i szacować tą samą techniką, co w nierówności ( 2 ): ( l + * )lo g (l + * ) = * + ± ^ - ± l + ± z - . . . m 4. Poniższe trzy nierówności (a) \eił - 1| < |t|, t £ R; (b) \elt — 1 — it\ < t e R; (c) \elł — 1 — it + y [ ^ , t £ R; są szczególnymi przypadkami następującego oszacowania: Tw ierdzenie 1. Dla wszystkich i € R i n = 0,1,2,... zachodzi nierów­ ność: (3) D o w ó d . Zastosujemy indukcję. Dla n = 0 mamy oczywistą nierówność |eI(| ^ 1. Przypuśćmy, że nierówność jest spełniona dla pewnego n > 0. Wykażemy, że jest spełniona dla n + 1. Można bez zmniejszenia ogólności zakładać, że i ^ 0, bowiem zmiana znaku t powoduje pojawienie się po lewej stronie (3) liczby zespolonej sprzężonej do wyjściowej. Mamy wtedy Twierdzenie zostało udowodnione. ■ § A.2. Funkcje gamma i beta § A.2. 325 Funkcje gamma i beta Funkcja gamma jest zdefiniowana wzorem /»CO T(a) = ia_ 1 e~łdi, / Jo a > 0. (1 ) Całkowanie przez części prowadzi do wzoru rekurencyjnego r(a) = (a —l)r(ćt — 1), a > 1, (2) a ponieważ T ( l ) = 1 , dla n € N mamy r (n ) = (n - 1 )! Funkcja gamma pojawia się w naturalny sposób przy obliczaniu momentów rozkładu normalnego. Jeśli 7 ~ A f(0 , 1), to 9 r°° o 9p/2 r 00 f|7 |p = - ¿ = / |i|pe -‘ / 2di = = - = V27T 7o - A Jo \ 8 \ < * -W e -d s = V5F V 2 JPodstawiając p = 0 otrzymujemy przy okazji wartość F(l/2) = spK. Funkcję beta definiuje się za pomocą całki: B (a , 6) = f ta l ( l - t ) b 1dt, a, 6 > i JO Okazuje się, że Zależność tę chyba najłatwiej otrzymać jako produkt uboczny z rachunków w zadaniu 5.10.1, które powtórzymy tu w uproszczonej postaci. Niech ga oznacza gęstość rozkładu 7aji. Wtedy 1 f°° i9a * 9b){t) = T & m J - J ~ B(<ł,t) ^a+6- l c- i r(o)r(6) v ~le" (i" * )e“* x Dodatek A. Kilka faktów z analizy 326 Wystarczy teraz zauważyć, że splot gęstości ga i gb jest w dalszym ciągu gęstością, zatem skąd wynika wzór (3). P rz y k ła d 1. Do funkcji beta sprowadzają się dobrze znane skądinąd całki /n = /»7T/2 /-7T/2 / sin” xdx = Jo /*7I / '7 r/ 2 cosn xdx. Jo Wiadomo, że I n = [ n — 1 )/n ■I n- 2 , n > 2 , dlatego I - I ^ f dla = 2A:, . . dla n = 2k + 1 . W Wynik ten można otrzymać za pomocą funkcji beta, zauważając, że [ sinn xdx = f sn( l - s2)~ 1/2ds = ^ f Jo * Jo Jo _ W t Ł 2 M - 2 ’2 s(n_1)'/2( l - s )~ 1/2ds = 1 r^ > r^) 2 ' T (2± 2 ) ' i korzystając ze wzoru rekurencyjnego ( 2 ). ■ P rz y k ła d 2. Obliczymy teraz za pomocą funkcji beta objętość zbioru Sn,p = * n) G R ": |*i|p + ... + |a:n|p < 1}, 0 < p < oo. Dla p = 1 jest to n-wymiarowy odpowiednik ośmiościanu, dla p = 2 — kula n-wymiarowa. Jeśli p > 1 , zbiór Sn,p jest kulą jednostkową w przestrzeni unormowanej Oznaczmy szukaną objętość przez Vn,p- Mamy wtedy (prawie) oczywisty związek rekurencyjny: v„lP= k_i,p• y 1 (i - n ^ /p d t = k-i,p■2jf\ i - n (n- ^ pdt. Podstawienie tp = s pokazuje, że ostatnia całka jest równa ^ ( - -^P- 1 , ^). Ostatecznie V = V v n,p — V n - li , p • p Ponieważ Vi>p = 2, wynika stąd, że 2nr « ( i ) n,p pnr ( 2i± 2)' A -! , p j ). § A.3. Wzór Stirlinga 327 W szczególności v §A .3. n,l — — n!> v «,2 - r (( ^|+) nl) ' . W zór Stirlinga Udowodnimy, że 0 < 6n < 1 . n! = V27mnne_rl+i5", (1 ) Istnieje wiele dowodów1 i alternatywnych postaci tego wzoru (por. zad. 10.2.18, a także: [FEL], t. I, s. 56, [GKP], s. 531). Podamy dowód oparty na wzorze Wallisa2 (por. [FICH], t. II, s. 319). Lem at 1. Dla każdego n e N zachodzą nierówności / l \ n" ^ i e < f l + —J < e1+ i 2»(»+u . (2) D o w ó d . Z rozwinięcia log ŁŹJL = 2 x ( l + \ x 2 + -a :4 + 1 -x V 3 5 „2 k * 2k+l otrzymujemy, podstawiając x = l/ ( 2ra+ l ) i uwzględniając, że -j— = l + £: nj 2n + 1 1+ 1 1 3(2n + l )2 5(2n + l )4 Ponieważ 3(2n + l )2 5 ( 2 n + l )4 3 (2n + l )2 " (2 n + l)4 1 12 n(n + 1 ) ’ otrzymujemy 1 < n 2/ V 71) <!+■ 1 12n(n + l ) 5 z czego natychmiast wynika ( 2 ). ■ 1Pierwszy w: James Stirling, Methodus differentialis , Londyn 1730. 2John Wallis, A rith m etica injin itorum , Oxford 1656. Metoda Wallisa odwołuje się do całek (według współczesnej terminologii, bowiem wtedy mówiono o kwadraturach krzy­ wych), które sprowadzają się do funkcji beta. Cytowana książka w 75 lat później wywarła duży wpływ na Eulera w jego badaniach nad funkcjami beta i gamma. Oryginalny dowód Wallisa można znaleźć w [HIS], t. II. Dodatek A. Kilka faktów z analizy 328 Lem at 2. Istnieje taka stała a, że n\ = a nn+1/2e ' n+^ , D o w ó d . Niech !en nie 0 < 9n < 1. (3) n = 1 , 2 , .. . n n+ 1/2r,’ Wtedy (i + ¿ r + i/2 a„ Oi-nĄ-1 i z lematu 1 wynika, że p l/ 1 2 n 1 < ---- i i - < p 1 2 n (n + l) = an + i < , e l /1 2 (n + l) ' Wobec tego ciąg ( an) jest malejący i ograniczony z dołu przez 0, zatem jest zbieżny do granicy a. Z drugiej strony ciąg o wyrazach ane~1/12n jest rosnący i zbieżny do tej samej granicy. Ponieważ dla każdego n ane~1/12n < a < an, istnieje takie 9n e ( 0, 1 ), że an = ae-9"/12" . ■ Stalą a wyznaczymy ze wzoru Wallisa (ale można ją także otrzymać jako uboczny produkt z twierdzenia de Moivre’a-Laplace’a). W zór Wallisa był pierwszym wzorem, wyrażającym 7r jako granicę ciągu liczb wymiernych. Lemat 3 (W z ó r Wallisa). ( 2n)!! 2 (4) n->oo 2n + 1 V ( 2n — 1 )!! J D o w ó d . Jest oczywiste, że r/»7t/2 */2 / Jo ęir firf/22 / sin2n zda: < sin2n+1 ¡rdz < Jo pwf 2 / Jo sin2n_1 sda: zatem wzór (A.2.4) daje ( 2n)!! _ ( 2n - 1 )!! ( 2n + l ) ! ! < ( 2 n)!! tt _ ( 2n - 2 )!! ' 2 < ( 2n - l ) ! ! ’ czyli (2n) ( 2n — 1 )!! 1 ( 2n)!! 7T 2?z + 1 < r < 2 ( 2n — 1 )!! Skrajne wyrazy tej nierówności różnią się o ( 2 ra)!! 2n(2n + 1 ) ( 2 n - 1 )!! zatem mają wspólną granicę równą ir/2. ■ < 1 7r 2n ' 2 ’ 2n ’ 329 A.3- Wzór Stirlinga Możemy teraz wyznaczyć stałą o z lematu 2. Zastosujemy lemat 2 do wyraZema (2n)U _ [(2n)!!j2 _ 22,l(n!)2 (2n — 1)!! (2n)\ (2n)! ' Z (3) wynika zatem po elementarnych rachunkach, że (2n) !!. = a / jy 4 9 „-0 / 2 4 n ( 2w - l ) ! ! V 2 g ’ wobec tego wzór Wallisa (4) daje 1 = lim - i — a2 ■£ • e ^ ~ e' ^ 12n = 2 n—»oo 2n + 1 Oznacza to, że a = czony. 2 4 Dowód wzoru Stirlinga został tym samym zakoń­ Wzór Stirlinga jest zadziwiająco dokładny, a co więcej, istnieją wersje jesz­ cze dokładniejsze, na przykład ([GKP], s. 531): n! = V27mnn e~n+15"""36Ó^+ 1260^5 , O < Bn < 1. Dziwne współczynniki w wykładniku wyrażają się przez liczby Bernoulliego B„ (patrz [GKP] s. 317); wiąże się to z faktem, że Bik - 1 1 1 12 + 360 1 1 1260 + 1680 W takiej też postaci otrzymał stałą a ze wzoru (3) Abraham de Moivre (patrz też przypis na str. 170). Wiadomo też (dowód nie jest łatwy), że dla x > 0 r(* + 1) = V2^xx+h~x+if°°° J ^ ds, gdzie <p(s) jest okresowym przedłużeniem (o okresie 1 ) funkcji h(s) = s (l — s), s e [0, 1 ]. Dodatek B Funkcje tworzące W tym dodatku przybliżymy pojęcie funkcji tworzącej. Nie pojawiło się óno w zasadniczej części książki, bowiem wprowadziliśmy pojęcie ogólniejsze — funkcję charakterystyczną. Tym niemniej funkcje tworzące są wygodnym narzędziem przy badaniu zmiennych losowych o wartościach całkowitych nieujemnych i warto poznać ich podstawowe własności. Funkcje tworzące pierwszy badał de Moivre. Euler używał ich intensywnie do badania problemów z teorii liczb. § B .l. Definicja i podstawowe własności Definicja 1. Funkcją tworzącą ciągu liczbowego (pj)JL0 nazywamy funkcję OO s e ( —a, a), (1 ) jeśli tylko powyższy szereg potęgowy jest zbieżny w niepustym przedziale ( —a, a). Gdy X jest zmienną losową o wartościach całkowitych nieujemnych i o rozkładzie P { X = j ) = p j , j = 0,1,... to funkcję tworzącą ciągu (p j)jL 0 nazywamy funkcją tworzącą zmiennej losowej X i oznaczamy gx- Z definicji wynika natychmiast, że gx{s) == £sx . Oczywiście funkcja tworząca zależy tylko od rozkładu prawdopodobieństwa zmiennej losowej. Funkcja tworząca gx jest dobrze określona co najmniej dla |s| ^ 1, bowiem z oszacowania OO OO wynika wtedy bezwzględna zbieżność szeregu ( 1 ). 330 § B-l- Definicja i podstawowe własności 331 Dla M < 1 pierwsze dwie pochodne wynoszą oo oo 9 x ( s) = J 2 j P j S J~ 1, j= g'x{s) = ^ 2 j { j 3= 1 a ogólnie - l)Pj'SJ'-2 , (2) 2 oo 9 x \ s ) = Y , J ~ ^ ^ j ~n j= n 1 ' Stąd dla s = 0 mamy »?’(») t 5 „ tfTl n\ udowodniliśmy zatem Twierdzenie 2. Rozkład prawdopodobieństwa zmiennej losowej o warto­ ściach całkowitych nieujemnych jest jednoznacznie wyznaczony przez funk­ cję tworzącą. Powróćmy do wzoru (2). Jeśli £ X < oo, to szereg definiujący pierwszą pochodną jest zbieżny dla s = 1. Na mocy twierdzenia Abela mamy wtedy OO lim g'x (s) = = £x- U Jeśli £ X = oo, to szereg Y^jPj Jest rozbieżny, ale i lim ^ j - g'x (s ) = oo. Tu i w dalszym ciągu przyjmiemy dla funkcji tworzących umowę, że g'x { l) = Urn g'x {s), S -* 1“ dopuszczając wartość oo. Otrzymamy wtedy po prostu £ X = g'x ( 1). (3) £ X (X -1 )= & (1 ). (4) Podobnie Wprowadzimy teraz funkcję tworzącą dla ogonów rozkładu, czyli dla ciągu o wyrazach qj = P ( X > j ) , daną wzorem Q{s) = q o + q\s + q2s2 + ... Współczynniki w tym szeregu są ograniczone przez 1 , zatem jest on zbieżny co najmniej na przedziale ( —1 , 1 ). Zgodnie z zad. 5.6.8 i umową dotyczącą wartości Q ( 1 ) mamy £X = g0 + 9i +12 + ■■■ = <3(1). Powyższe fakty podsumowuje 332 Dodatek B. Funkcje tworzące T w ierdzenie 3. Dla s G ( —1,1) zachodzi wzór Q(s) = ł ^ £ ) . (5) Ponadto ( 6) £ X = Q {l) = g'x { l), £ X { X - l ) = 2 Q \ l) = g '^ l). (7) D o w ó d . Współczynnik przy sn w (1 - s)Q (s) wynosi qn - gn_ i = —pn gdy n > 1 oraz go = Pi + P2 + • • • = 1 — Po dla n = 0, zatem ( l - s ) < 2 (s) = l - S x ( s ) . Z twierdzenia o wartości średniej Q(s ) = g'x (t), gdzie t G (s, 1), zatem lim Q (s) = lim gx (i) = E X S —»1 t-+ l Z (5) wynikają zależności 9x{s) = Q (s) - (1 - s)Q '(s), fl&(fl) = 2Q zatem » - ( l - fl) Q " ( S), = 2Qf( l ) i otrzymujemy (7). ■ Proste rachunki dają W n iosek 4. Jeśli £ X 2 < oo, to V 2X = Q ( 1) + 2Q'(1) - [Q (l )]2 = g'x { 1) + g 'x (l) - f ó ( l ) ] 2. P rz y k ła d 5. Niech X ma rozkład geometryczny: P ( X = j ) = q*p, gdzie j = 0 ,1 ,.... Wtedy OO g x {s ) = ]T > (g s )J' = T Z T Z j =0 1 95 Stąd g'x ( l ) = g/p = £ X i V 2X = q/p2. m § B.2. Funkcja tworząca sumy niezależnych składników Wykorzystamy teraz zależność g x i s) = £sx . Wynika z niej Tw ierdzenie 1. Jeśli X iy X 2, ..., X n są niezależnymi zmiennymi losowy­ mi o funkcjach tworzących g i,g 2, ■■■,gn, to suma X i + X 2 + ... + X n ma funkcję tworzącą n,n=i 9i- §B.2. Funkcja tworząca sumy niezależnych składników 333 D o w ó d . Ponieważ X i , X 2 , . . . , X n są niezależnymi zmiennymi losowymi, to zmienne losowe sXf, i = 1 , 2 , . . . , n są niezależne i n gx1+ x 2+...+xn(s) = £ sx i+ x 2 + - + x n _ ■ P rzy k ład 2 . Każda z n niezależnych zmiennych losowych X \ ,X 2, X n inoże przyjąć z jednakowym prawdopodobieństwem jedną z wartości 1 , 2 , Obliczyć prawdopodobieństwo, że suma X i + X 2 + ... + X n będzie a) równa danej liczbie k, n < k < mn, b) większa od danej liczby k, n < k ^ mn. Rozwiązanie. Mamy więc P^ 1 + x 2+...+ji„(s) = I_ K s m- i ) ~ P 5—1 mn a) Szukane prawdopodobieństwo jest równe współczynnikowi przy sk, za­ tem na mocy definicji iloczynu szeregów jest równe sumie iloczynów współ­ czynników po tych l, r, że k = n + ml + r, czyli po l = 0 , 1 , . . . , n i odpo­ wiednio r = k — n —ml, więc jest ono równe m —71 b) Szukane prawdopodobieństwo jest równe współczynnikowi przy sk funk­ cji tworzącej ogonów i obliczając jak wyżej otrzymujemy Dodatek B. Funkcje tworzące 334 W tym przykładzie obliczyliśmy w szczególności prawdopodobieństwa zda­ rzeń typu „uzyskanie sumy 444 oczek przy stukrotnym rzucie kostką”. Inne metody byłyby tu niezwykle pracochłonne. Tw ierdzenie 3. Jeśli X , Y są niezależnymi zmiennymi losowymi o funk­ cjach tworzących <71, 32 , to P ( X —Y = k) jest równe współczynnikowi przy sk w funkcji g i(s)g2{l/s). D o w ó d . Mamy gi(s)g 2(l/ s) = i ^ p ksk) f ^ b i s ~ l) . 0 ' N =0 * Obliczmy wyraz z sk. Dla k ^ 0 ma on postać oo oo J2PkSk+lbis~l = sk Y ^ P { X = k + l ) P ( Y = l) = 1=0 1=0 oo = sk Y ; P ( X = k + l , Y = l) = skP ( X — Y = k). 1=0 Dla k < 0 rachunki są podobne. ■ P rz y k ła d 4. Obliczymy prawdopodobieństwo, że liczba całkowita wyloso­ wana ze zbioru liczb od 000000 do 999999 będzie miała sumę pierwszych trzech cyfr równą sumie ostatnich trzech cyfr. Jeśli X = X i + X 2 + Xz będzie sumą pierwszych trzech cyfr, a Y = Yi + + Y2 + Yz będzie sumą ostatnich trzech cyfr to gx(s)g y {l/ s) = 10-6 s~27( l - s10)6( l - s )-6 . Zatem współczynnik przy s° jest równy: Twierdzenie 1 daje się uogólnić na sumę losowej liczby składników, co ma zastosowanie w teorii procesów gałązkowych. / Analogiczne twierdzenie ma T w ierdzenie 5. Jeśli ( X n) jest ciągiem niezależnych zmiennych losowych m'charakterystycz' 0 ^ same3 f unkcj i tworzącej g, a N jest niezależną od tego ciągu zmienną nych. losową o funkcji tworzącej f , to losowa suma Sm = X i + ... + X m ma funkcję tworzącą h = / o g. § B.2. Funkcja tworząca sumy niezależnych składników 335 D o w ó d . Obliczymy h stosując tw. 1 i odpowiednią wersję wzoru na praw­ dopodobieństwo całkowite. oo oo h(s) = £sSn = Y 2 £ ( sSn I n = k) p (N = k) = Y l £sSkp( N = k) = k= 0 fc=0 oo = Y / gk{ s ) P ( N = k) = f ( g ( s ) ) . k= 0 Po drodze skorzystaliśmy z niezależności N od ( X n), otrzymując £ ( sSn \ N = k ) - S (sSk | JV = fe) = £sSk. • Gdy założymy dodatkowo, że £X\ < oo, £ N < oo, to z (3) i tw. 5 otrzy­ mamy: £SN = f ( g { l ) ) - g ' ( l ) = £ N - £ X 1. (por. tw. Walda 11.1.10). Przytoczyliśmy tylko kilka najważniejszych własności funkcji tworzącej i po­ daliśmy przykłady zastosowań do obliczeń w zadaniach, ale funkcje two­ rzące mają także różne zastosowania teoretyczne, chociażby do badania fluktuacji losowych przy rzutach monetą i łańcuchów Markowa. Na zakoń­ czenie wspomnimy o możliwych sposobach uogólnienia pojęcia funkcji two­ rzącej. Punktem wyjścia jest wzór g x(s) = £sx . Liczbę s € (0,1] można przedstawić w postaci s = e-A gdzie A 6 [0, oo), a więc £sx = £ < T x x . To wyrażenie ma sens dla znacznie szerszej klasy zmiennych losowych: jest zawsze skończone dla zmiennych losowych o wartościach nieujemnych (bo wtedy e~xx < 1) i nazywamy je transformatą Laplace’a. Gdy —A zastąpimy przez i t . t e R , otrzymamy wyrażenie £eu x , które ma sens zawsze — a więc dochodzimy do pojęcia funkcji charakterystycznej. Dodatek C Teoria miary i całki, przestrzenie U W tym dodatku wyłożymy podstawy teorii miary i całki ograniczone do przestrzeni probabilistycznych. Ale nawet w teorii prawdopodobieństwa nie da się uniknąć rozważania ogólniejszych miar. Odpowiednikiem przestrzeni probabilistycznej w ogólnej teorii miary jest przestrzeń mierzalna, czyli trójka gdzie M jest cr-ciałem podzbiorów zbioru X , a (j, jest przeliczalnie addytywną funkcją określoną na. M , o wartościach w [0 , oo]. Nazywamy ją miarą. Elementy M nazywamy zbiorami mierzalnymi. Przykładami miar są miara licząca, określona na wszystkich podzbiorach N wzorem n {A ) = # A , oraz miara Lebesgue’a, która jest uogólnieniem pojęcia objętości (długości, pola powierzchni). Obie te miary w pewnym sensie niewiele się różnią od miar skończonych, są mianowicie a-skończone. Oznacza to, że zbiór X daje się przedstawić w po­ staci przeliczalnej sumy zbiorów o mierze skończonej. Większość twierdzeń o miarach skończonych przenosi się za pomocą oczywistych rozumowań na miary cr-skończone. Od tej chwili jednak ograniczamy się do miar probabilistycznych. §C .l. Twierdzenie o przedłużaniu miary Tw ierdzenie 1 (O przedłużaniu m iary). Jeśli P jest skończenie addy- . tywną i nieujemną funkcją na pewnym ciele A podzbiorów O, przy czym P{£1) = 1 i spełniony jest jeden z równoważnych warunków: (i) jeśli (A n) jest wstępującą rodziną zbiorów należących do A i jeśli U,“ i A i = A e A, to lim ^oo P (A n) = P {A ), (ii) Jeśli ( A n) jest zstępującą rodziną zbiorów należących do A i jeśli Plfei A i - 0, to limn_»oo P { A n) = 0, 336 §c.l. Twierdzenie o przedłużaniu miary 337 to P przedłuża się jednoznacznie do prawdopodobieństwa na o-ciele gene­ rowanym przez A. D o w ó d . Zaczniemy od dowodu równoważności (i) -i=> (ii). (i) =$- {ii). Jeśli ( A n) jest rodziną zstępującą o pustym przecięciu, to (A'n) jest wstępująca i ze wzorów de Morgana wynika, że (Jn A'n = O, zatem 1 = lim P(Ajl) = 1 - lim P (A n). n n (ii) => (i). Jeśli (A n) jest rodziną wstępującą, to zbiory Bn = A \ An tworzą rodzinę zstępującą, f|n Bn = 0, zatem 0 = lim P (B n) = P L 4 ) - l i m P ( ¿ n). n n Dowód właściwego twierdzenia przeprowadzimy w trzech krokach: I. Na wszystkich podzbiorach fi zdefiniujemy funkcję P *, która jest nieujemna, monotoniczna, subaddytywna i P *(Q ) = 1 (jest to tak zwana miara zewnętrzna). II. Zdefiniujemy klasę zbiorów mierzalnych w sensie Carathéodory’ego i po­ każemy, jest ona a-ciałem, a funkcja P * obcięta do niej jest przeliczalnie addytywna. III. Wykażemy, że P * jest (jedynym) rozszerzeniem P na klasę zbiorów mierzalnych. I. Dla A C O definiujemy miarę zewnętrzną P * wzorem P*(A) = mîJ 2 P(An), n gdzie kres dolny bierzemy po wszystkich ciągach zbiorów A i, A 2, ■.. G A stanowiących pokrycie zbioru A, tj. takich, że A C (Jn A nJest oczywiste, że P*(0) = 0, i że miara zewnętrzna jest nieujemna i mo­ notoniczna. Jest ona także subaddytywna: n l M " ) < E pw n n Istotnie, na mocy definicji P* dla dowolnego ustalonego e > 0 istnieją zbiory Bnk e A takie, że An C {Jfc Bnk, E t P (B nk) < P * (A n)+ e / 2 n. Wobec tego Un An C Un,fc ^nk i P’ f L K ) ' n ' < £P(B»fc) < ^ P W n,k co wobec dowolności e daje subaddytywność. n + f , Dodatek C. Teoria miary i całki, przestrzenie L p 338 II. Zbiór A nazywamy P*-mierzalnym gdy dla każdego E C fi spełniony jest warunek Caratheodory’ego: P*( A n E) + P*{A! C\E)= P*(E). Z subaddytywności wynika, że ten warunek jest równoważny warunkowi P * ( A D E ) + P * ( A 'r \ E ) ^ P * ( E ) . (1) Klasę zbiorów P*-mierzalnych oznaczymy przez M . Najpierw pokażemy, że M jest ciałem i P * jest na nim skończenie addytywna. Jasne, że fi € M i jeśli A € M to A! e M . Weźmy A, B e M . Wówczas dla dowolnego E: P * (E ) = P * { B n E ) + P * ( B 'r \ E ) = = p * (A + (2) n b n E ) + p * (a ' n b n E ) + n B ' n E ) + P * (A ' n B ' n e ) > P * (A ^ P * (A n B D E ) + + P * ((A ' n B n E ) u (A n b ' n E ) u (A! n B ' n E )) = = P * i(A D B ) n E ) + P * ((A n B )' n E ), czyli zachodzi (1) dla A fi B, zatem A n B € M A ,B e M , AC\B = to P* ( A i M. jest ciałem. Gdy UB) = P ’ ( i n ( 4 U B) ) + P* ( A>n (A U B) ) = P*(A) + P*(B), skąd przez indukcję otrzymujemy skończoną addytywność. P * jest przeliczalnie addytywna na elementach M , bo gdy zbiory A n € M., n = 1, 2 , ... i są parami rozłączne, to ze skończonej addytywności i monotoniczności P * otrzymujemy k / k \ / <x> £ P * ( A n) = P * ( | J A A < P * ( U ^ n n —1 ' ^n=l zatem P * { A n) ^ -P *(U ^ li A »)- Nierówność przeciwna wynika z sub­ addytywności P*. Pozostaje do wykazania, że M jest cr-ciałem. W tym celu udowodnimy, że jeśli zbiory An e M , n = 1,2,... są parami rozłączne, to U ^ i ^ - n £ M (gdyby nie były rozłączne, stosujemy standardową procedurę: jeśli Bn £ M , n = 1 ,2,..., to zbiory A n = Bn f i . . . f lBi € M , są parami rozłączne iu r=i£n=ur=x4,eA <). Niech A = j j “= i A n. Musimy pokazać, że dla zbioru A zachodzi (1). Niech Cn = Ufc=i A k- Mamy n p t (C n n E ) = Y , p * (A k n E ). fc=l (3) §c.l. Twierdzenie o przedłużaniu miary 339 Dla n — 1 równość (3) jest oczywista, dalej dowodzimy indukcyjnie. Zakła­ damy, że (3) ma miejsce dla n i sprawdzamy ją dla n + 1. p * ( c n+1 n E) = P * ( cn n c n+i n E) + p*(c'n n c n+l n e ) = = P*{Cn n E ) + P * ( A n+1 n f i } = n = ^ ] p ł (J4 , n s ) + p * (A n+1 n £ ) . k=l Stąd p*(£) = P * ( £ n c n) + p * { e n C'n) = n = Y s p *{A ki~\E ) + p * { E n c 'n) > it=i n ^ Y , p *(A k n E ) + p ’, (E n A ')k=i Biorąc n —►oo mamy oo P * (E ) > P * (A k n E ) + p , ( E n A') > P * ( E n A ) + p * ( E n A' ) ’ k= i czyli udowodniliśmy ( 1 ). I I I . Pokażemy, że .A C M i P* = P na A. Zatem P * jest rozszerzeniem P na a (A ). Jednoznaczność rozszerzenia wynika z lematu o ir- i A-układach. Weźmy A € A i dowolny zbiór E C fi. Dla dowolnego ustalonego e > 0 weźmy zbiory Bk £ A takie, że E C Ufc -O*, SfcLi p (Bk) < P * (E ) + £. Wtedy Ef\A C ( J i ^ n A ) i Er\A! c Ufc(-B*nA') oraz Ą n A , P fcn,4' G A więc z definicji P * i z przeliczalnej addytywności P na A (co wynika z (i) lub (m), patrz dowód tw. 1.1.7 o ciągłości) mamy p*(Er\A) + p * ( E n A ' ) ii ^ F (B t n i) + £ p (Ą n A ') = k k = Y , p ( B* ) ś p * (E ) + s’ k czyli zachodzi (1) co oznacza, że A € M , zatem A C M . Weźmy ył € .4. Z definicji P * mamy P * (A ) ^ p ( A )- Gdy A c U n A ", A n € .A to korzystając z subaddytywności i monotoniczności P na A'. p (A ) ź Y l p P { n czyli P*(A) ^ P (A ), co daje P* = P na A. ■ -A »)> n 340 § C.2. Dodatek C. Teoria miary i całki, przestrzenie L v Całka względem miary probabilistycznej Definicja całki. Niech (ii, T , P ) będzie przestrzenią probabilistyczną. Bę­ dziemy zakładać, że wszystkie funkcje są ^-mierzalne, czyli są zmiennymi losowymi. Definicja 1. Gdy X jest funkcją prostą, czyli przyjmującą skończenie wiele wartości, to można ją zapisać w postaci n (i) k= 1 gdzie x\ ,. . . , xn są różnymi wartościami przyjmowanymi przez X , zaś F k = = {w :X (ui) = Xk} 6 jF. Wtedy całkę definiujemy wzorem: (2) Gdy X : fi -+ [0, oo], to przyjmujemy (3) gdzie supremum jest brane po wszystkich funkcjach prostych Z ^ X . Wyrażenie f n X d P nazywamy całką funkcji X względem P . Gdy X jest funkcją prostą, to supremum, prawej strony (3) jest osiągane przez X , więc (3) daje tę samą definicję całki, co (2). Należy zwrócić uwagę, że f ^ X d P £ [0 ,oo]. Ponieważ dopuszczamy nie­ skończone wartości całek, przyjmiemy też umowę, że oo • 0 = 0 • oo = 0 . Całkę z X po zbiorze A definiujemy wzorem: D efinicja 2. Całką z dowolnej mierzalnej funkcji X nazywamy wielkość o ile choć jedna z całek f a X +dP, Jn X dP jest skończona. Mówimy, że X jest całkowalna, gdy f n |X|dP < oo. W łasn o ści całki funkcji nieujem nej. Zaczniemy od najprostszych. § C.2. Całka względem miary probabilistycznej Twierdzenie 3. 341 (a) Jeśli 0 ^ X ^ Y, to f n X d P < Jn YdP. ( b) Jeśli X ^ 0, c jest stałą to f n cX dP = c f n X d P . (c) Jeśli X ^ 0, A, B e T , A c B to f A X d P ą JB X d P . (d) Jeśli X ^ 0, A 6 T , f A X d P = 0, to X = 0 p.n. na A. D o w ó d , (a), (b) i (c) otrzymujemy bezpośrednio z definicji. (d) Niech = {w e A: X(w ) > l/n}, n = 1,2,.... Wtedy z (a) mamy ip (A „ ) ^ 71 f X d P ^ f X d P = 0, An JA JJAn J a zatem P {A n) = 0. Ponieważ {w e A: X (io) > 0} = L£Li A n, to P (A ) = 0. ■ Lem at 4. Jeśli X ^ 0, to istnieje taki ciąg funkcji prostych ( Z n), że Z n(w) f X(u>) gdy n -> oo. D o w ó d . Definiujemy ^n k- 1 2n Hi k= 1 Oczywiście Z jest mierzalna i jest funkcją prostą. Dla w g f i , gdy n > X ( oj) , to 0 < Z n(u>) — X(w ) ii Zatem gdy X jest ograniczona, to ciąg Z n zmierza do X jednostajnie. ■ Udowodnimy teraz twierdzenie o monotonicznym przechodzeniu do granicy pod znakiem całki, zwane też twierdzeniem o zbieżności monotonicznej. Jedno z dwóch Twierdzenie 5 (Lebesgue’a -B e p p o Leviego). Jeśli (X n) jest niema- najczęściej lejącym ciągiem nieujemnych funkcji mierzalnych, czyli 0 < X n(u ) f X ( uj) używanych twierdzeń teorii gdy n —> oo, to całki. lim f X nd P = n- ° ° Jn f XdP. Jn D o w ó d . Z twierdzenia 3(a) wynika, że ciąg całek f n X n jest niemalejący i ograniczony z góry przez f n XdP. Zatem wystarczy udowodnić, że f X d P < lim f X ndP. J(l n-»oo J q Weźmy funkcje prostą Z taką, że 0 < Z < X i niech K < oo będzie stałą ograniczającą Z (taka stała istnieje, bo Z jest funkcją prostą). Dla dowolnego n i e > 0 mamy wtedy: Z - X n < K 1 [Z^x „+ e} + £, 342 Dodatek C. Teoria miary i całki, przestrzenie L p skąd /Z d P iC K P { Z Ja > X n + e) + e + i X ndP. Ja Biorąc n -+ oo, ze zbieżności p.n. _X”n do X i z tego, że Z ^ X otrzymujemy / ZdP ^ e + Jn la lim / X ndP, a ponieważ e > 0 było dowolne, mamy f Z d P ^ lim [ X ndP. Jn I ostatecznie z (3) w definicji 1: / XdP< Ja lim f X ndP. • Jn Do dowodu następnego twierdzenia potrzebny będzie z pozoru dziwny Lem at 6 . Jeśli X > 0 jest funkcją prostą, to v■ĄA) (A )= % /I X d P JA A jest skończenie addytywną funkcją zbioru. D o w ó d . Niech X = 52i=1a:ilsi , A = J4 1 U . . . U A n , gdzie Ai są rozłączne. Wtedy k k n v (A ) = Y s X iP {B i n A ) = Y , x i E ¿=1 n p (Bi n A ) = ¿=1 n k =jE E xip(B*nAi)=E^)■ —1i —1 j= l Tw ierdzenie 7. Jeśli X , Y ^ 0, to f (X + Y )d P = f X d P + [ YdP. J ęi J ęi J (4) ii D o w ó d . Gdy X = J2k x>^Fk i Y — Y^j dA g ,- są funkcjami prostymi, to Nie ma gwarancji, że liczby x k + Vj będą różne. Lemat 6 umożliwia ominięcie tej trudności. X + Y = J > fc + yj^Fk^Gjk,j § C.2. Całka względem miary probabilistycznej 343 Ponieważ na zbiorze F k fi G j suma X + Y przyjmuje tylko jedną wartość, to f (X + Y ) d P = ( x k + yj )P (F k n G j ) = J F kn a . = x kP ( F k n G j ) + V j P { F k n G j ) = = f XdP+ f YdP, l F kc\Gj J F kn G j JFunGi JFtnGi a na mocy lematu 6 powyższa równość zachodzi po podstawieniu ił w miej­ sce F k fi G j ; zatem (4) zachodzi dla funkcji prostych. Dla dowolnych X , Y ^ 0 istnieją na mocy lematu 4 ciągi funkcji prostych Z n, Vn takie, że 0 ^ Z n(ui) | X (u ) i 0 < Vn(u ) f K(w). Wtedy 0 4 Z n + Vn T X + Y. Korzystając z twierdzenia o zbieżności monotonicznej możemy teraz przejść do granicy w równości (4) prawdziwej dla Z n iV n, otrzymując w efekcie (4) dla dowolnych X , Y ^ 0. ■ Twierdzenie 8 . Jeśli X n: Q —> [0, oo] oraz X = J X n, to x d P = Y' / x HdP. Ja D o w ó d . Niech Ym = X i + . . . + X rn. Z zasady indukcji zastosowanej do (4) mamy i YmdP = V Jn i X ndP. Jn (5) Ponieważ Ym t X to korzystając z twierdzenia o zbieżności monotonicznej przechodzimy w (5) z m do granicy i otrzymujemy tezę. ■ Twierdzenie 9 (Lem at Fatou). Jeśli X n : Q —> [0, oo], to ( lim inf X ndP ^ lim inf f X ndP. Jn ”-*oo JQ D o w ó d . Niech Yn = m ik^n X k. Wtedy Yn ^ X n i Yn | liminfn_ 00 X n. Zatem z twierdzenia o zbieżności monotonicznej lim inf f Ja X ndP ^ lim inf f n- ,0° J n YndP = łim f YrldP = [ liminf X„dP. m Jn n^ °° Dodatek O. Teoria miary i całki, przestrzenie L p 344 W łasności całki dla dowolnej funkcji X . Udowodnimy drugie z najczę­ ściej używanych twierdzeń z teorii całki, umożliwiające przejścia graniczne pod znakiem całki — twierdzenie Lebesgue’a o zbieżności zmajoryzowanej (zdominowanej, ograniczonej). Twierdzenie 10. Jeśli funkcje X i Y są całkowalne, to: (a) X + Y jest całkowalna i f n( X + Y )d P = f n X d P + /n YdP. ( b) Jeśli c jest stałą, to Jn cX d P = c Jn X d P . (c) Jeśli X Sj Y , to XdP YdP. {d)\Sn x d P \ ^ j n \x\dP. (e) Jeśli A n € T = są parami rozłączne i |Jn A n = fi, to Jn X d P = H r J AnX d P - (/) Jeśli f A X d P = 0 dla każdego A e T , to X = 0 p.n. na fi. D o w ó d , (a) Dla X , Y ^ 0 teza jest treścią twierdzenia 7. W ogólnym przypadku korzystając z twierdzenia 3(o) otrzymujemy całkowalność sumy X + Y: [ \X + Y \ d P ^ [ \X\dP+ [ \Y\dP < oo. Jn J fi Jn Ponadto (X + Y ) + - ( X + Y )~ = X + Y = X + - X ~ + Y + - Y ~ , a więc (X + Y ) + + X - + Y ~ = (X + Y )~ + X + + Y + , zatem z twierdzenia 7 f ( X + Y ) + dP + Jfn X ~ d P /n[Y ~ d P + = Jn = f {X + Y ) - d P + [ X + d P + [ Y + dP. Jn Jn Jn Przenosząc odpowiednie składniki na stronę przeciwną otrzymujemy tezę. ( 6) Korzystamy z twierdzenia 3(6) i z tego, że ( - a ) + = a~. (c) Korzystamy z twierdzenia 3(a) i z tego, że X + < Y + i X ~ ^ Y ~ . (d) X ^ |X|, więc teza oczywista z (c). (e) Gdy X ^ 0, to biorąc X n = ją do X + i X ~ . otrzymujemy tezę tw. 7 i stosujemy (/ ) Gdy A = {oj: X (w ) > 0}, to JA X + dP = f A X d P = 0 z założenia, więc z twierdzenia 3d) mamy X + = 0 p.n. Podobnie dowodzimy, że X ~ = 0 p.n. ■ § C-3. Miara produktowa i twierdzenie Fubiniego 345 Twierdzenie 11 (Lebesgue’a o zbieżności zm ajoryzow anej). Jeżeli dla pewnej funkcji całkowalnej Y zachodzą nierówności \Xn\ ^ Y , n 6 N , to wszystkie funkcje X n są całkowalne, a jeśli ponadto X n całkowalna i X , to X jest lim f \Xn -X \ d P = Q n^ °°Ja ( 6) lim f X nd P = (7) oraz n- ,°° J a [ XdP. Jn D o w ó d . X jest .F-mierzalna jako granica funkcji ^-mierzalnych, \X\ < Y, więc X jest całkowalna. Dalej, \Xn — X\ ^ 2Y , zatem z lematu Fatou zastosowanego do 2Y — \Xn — X\ otrzymujemy f 2Y d P < liminf f (2Y - \Xn - X\)dP = Ja n -> c a Jn = f 2YdP + lim inf ( — f \Xn - X\dP) = Ja n~*°° Ja = f 2YdP —lim sup [ \Xn - X\dP. Ja n—>oo Jn Wobec tego lim s u p ^ ^ /n \Xn-X \ d P < 0, co daje ( 6): granica górna ciągu liczb nieujemnych, który nie jest zbieżny do zera, jest dodatnia. Wreszcie (7) otrzymujemy z ( 6) i z twierdzenia 10(d) zastosowanego do X n — X . m Na zakończenie uwaga o zapisywaniu całek: wszystkie podane niżej napisy oznaczają tę samą całkę. i X d P = [ X{u})dP(u) = [ X (io )P (d u ). Ja § C.3. Ja Ja M iara produktowa i twierdzenie Fubiniego Dane są dwie przestrzenie probabilistyczne: (fti,.F i,P i) i ( ^ 2 , ^ 2i P i)- Na produkcie ił = iii x ii 2 z cr-ciałem A4, będącym najmniejszym cr-ciałem zawierającym prostokąty mierzalne, czyli zbiory postaci A x B , gdzie A £ € T\, B G T 2 zdefiniujemy miarę probabilistyczną P taką, że P (A x B ) = P 1(A )P 2(B ). c-ciało M często oznaczamy symbolem T \ ® T 2 i nazywamy cr-ciałem pro­ duktowym. Dodatek C. Teoria miary i całki, przestrzenie L p 346 Dla zbioru C 6 M zdefiniujemy jego przekroje: wi-przekrój CU1 == {o.>2 ■( ^ 1 ,^ 2) £ C }, oraz W2-przekrój C “ 4 f { Wl: ( U l, U 2) 6 C }. Zaczniemy od lematu o mierzalności: Lem at 1. Jeśli zbiór C należy do M , to (i) dla każdego e iii jego uii-przekrój CUl jest Jr2 -mierżalny. (ii) dla każdego o>2 £ ^2 jego u>2 -przekrój C “ 2 jest Ti-mierżalny. Niech funkcja X : ii —* R będzie M-mierzalna. Wtedy (iii) dla każdego u>i £ iii przekrój X U1 zadany wzorem X LJ1(UJ2) = X(ui,W 2) jest Ti-mierzalny. (iv ) dla każdego 0J2 £ ^ 2 przekrój X U2 zadany wzorem X ^ (w l ) = X (u 1,w2) jest T i -mierzalny. (v) jeśli ponadto X ^ 0, to całka f X u l(w2)P2(du>2), Jn2 i odpowiednio [ X u*{u1)P 1(du1) Jiii jest Ti-mierzalna (odpowiednio T 2 -mierzalna). D o w ó d , (i) Niech G będzie klasą zbiorów z M dla których wi-przekrój jest J^-mierzalny. Jest oczywiste, że prostokąty mierzalne należą do Q. Po­ nieważ ( C % , = (CU1)' i dla C7<B> £ M mamy | J „ c f f = (U n C'(n))wi> t0 G jest (T-cialem. Zatem Q = M . ( ii) Dowodzimy analogicznie jak (i). (iii) Dla D e S (R ) mamy, na mocy (i): § C.3. Miara produktowa i twierdzenie Fubiniego 347 (iv) Dowodzimy analogicznie jak (iii). (v) Gdy X = 1axBi gdzie A e T Ł, B e J-2 to X(u>i,uj2 ) = 1a(w1 )1b(w2) ' zatem całka X Ul(u 2 )P 2 {dw2 ) jest .Pi-mierzalna. Stąd, gdy X jest funk­ cją prostą, to całka jest ^-i-mierzalna, a z twierdzenia o zbieżności monotonicznej i z tego, że każda funkcja nieujemna jest granicą funkcji prostych wynika teza. ■ Twierdzenie 2 (O istnieniu m iary produktow ej). Funkcja P , zdefi­ niowana na cr-ciele M wzorem P (C )^ [ \ j lc^M Ą M lJ M d w i) Jq.2 (1) jest jedyną miarą probabilistyczną spełniającą warunek: dla A € T\, B € J-% P (A x B ) = P l (A )P 2(B ). (2) Mamy także p (G ) = { j n 1 C.2K ) A ( d o ; 1 ) ] p 2(da;2) (3) Miarę P nazywamy produktem miar Pi i P 2. Często oznaczamy ją symbo­ lem Pi ® P 2. D o wó d . Z lematu 1 wynika, że całka wewnętrzna we wzorze (1) jest .Fi-mierzalna, więc P jest dobrze określona na cr-ciele M . Oczywiście P ^ 0 i zachodzi (2). Zatem P (il\ x i?2 ) = 1. Gdy € M i są parami rozłączne, to P(|JC<n)) = / n Jcil = [/ 1(U c(n)) (W2)P2(dW2)]Ą (d Wi) = n JOl Yl[i 1 Cw ( w2) f ’2(dW2) ] i ,l(rfWl) = n Jci2 więc P jest miarą probabilistyczną na cr-ciele M . Jedyność wynika z tego, że prostokąty mierzalne tworzą 7r-układ i z uwagi 5.3.9. Gdy zdefiniujemy Q(C)=Jn [Jn l c „ > i ) P l (c M ]P 2(du,2), Dodatek C. Teoria miary i całki, przestrzenie L v 348 to analogicznie sprawdzamy, że jest to miara probabilistyczna na cr-ciele B 6 T 2. M , spełniająca warunek Q (A x B ) = P \ (A )P 2{B), A e Korzystając jeszcze raz z tego, że prostokąty mierzalne tworzą 7r-układ i z uwagi 5.3.9 otrzymujemy P = Q, czyli (3). ■ Tw ierdzenie 3 (F ubin iego). Niech X będzie funkcją Jr2-mierzalną. (a) Jeśli X ^ 0, to (4) (b) Jeśli lub to X jest całkowalna względem P \ ® P 2. (c) Jeśli X jest całkowalna względem P \ ® P2, czyli. to (5) P2{{^2- f I^(wi, w2)|-Pl(dwi) < oo}) = 1, Jcii oraz zachodzi (4). D o w ó d . Z lematu 1 wynika, że całki we wzorach (4) i (5) są mierzalne, (o) Z definicji miary produktowej J fi i J 0,2 § C.3. Miara produktowa i twierdzenie Fubiniego 349 a z definicji całki Pi {C)= f Pi ® J XÍÍ2 lc(u,uU2)Pi®P2{dwi,dw2)- Zatem pierwsza część (4) zachodzi dla C e T i ® T 2, czyli zachodzi dla funkcji prostych, a z twierdzenia o zbieżności monotonicznej otrzymujemy ją dla X nieujemnych. Drugą część (4) otrzymujemy w taki sam sposób. (6) Stosujemy punkt (a) do |X|. (c) Z założenia X + ( uji, w2) P i ® P 2(dwi,dw2) < co, / JOiXf?2 a także X ~ (u i,w 2) P i ® P2{<kJi,dw2) < oo. / J0ix02 Z punktu (a) j ^ X + { u i,u 2)P2{dui2ĄPi(<kjJi) = = / X + {ui,w2) P i ® P2(du>i,duj2) < oo. «/fij xf22 Zatem z własności całki f a X + (ui,u>2)P 2(du>2) < oo P i —p.n. Analogicz­ nie otrzymujemy taką własność dla X ~ , i dlatego P i(W i: [ Jsi2 \ X (ui,u2)\P2(dw2) < oo}) = 1 . Wobec tego poza zbiorem N zerowej miary Pi zachodzi równość: I X (u ii,u 2)P 2(dw2) = I X^~(wi,u}2)P 2(duj2) — j X Jsii JQi Ja? J02 JO2 JO2 Przyjmując, że dla wi € N całki są równe zeru mamy jf [ji (uii,u}2)P 2(dio2). X(w u u2)P 2{du2)\Pi{d ui) = = Ja [ f Q X + {wi,V2)P2(dw2)^Pi(dLOi) + - [ f i X-(u>i,w 2)P 2(dul2)]P i(d w i) = Jo1 l Jo2 = / J Í2j XÍÍ2 J X + (W1 ,W2) Ą ® P 2( ^ W l , ^ 2) + — X~(uji,u>2) P i ® P 2(<kúi,dhj2) = Jííj XfŹ2 = / J o 1 xílo X(w!,o; 2) Pi ® P2(dcji,du>2). Dodatek C. Teoria miary i całki, przestrzenie L p 350 Analogicznie dowodzi się, że f Jn1xn2 X(uJ1,U]2) Pl®P2(doJl,duJ2) = i J qi \ ( X(t01,UJ2)P2{duJ2)\Pl{duJl), co kończy dowód (4). ■ Uogólnienie powyższych rozważań na przypadek produktu n miar jest oczy­ wiste. Odnotujmy jeszcze, że prawdziwe jest twierdzenie o istnieniu przeli­ czalnego produktu miar probabilistycznych, z którego jednak w tej książce nie korzystamy. § C.4. Twierdzenie Kołmogorowa o rozkładach zgod­ nych Niech T będzie zbiorem wskaźników. Rozpatrzmy klasę £ skończonych pod­ zbiorów T z naturalnym częściowym porządkiem zadanym przez relację za­ wierania. Załóżmy, że dla każdego L € C dana jest miara probabilistyczna P L na Mówimy, że rodzina miar { P l } l g c jest zgodna, gdy dla dowolnych L i, L 2 6 G C, L i C L 2 i A € S ( R Ll) zachodzi P l M ) = P l 2( A x R ł ^ ) . Zgodną rodzinę miar tworzą na przykład rozkłady brzegowe wektora loso­ wego o wartościach w R n. Do otrzymania niezgodnej rodziny miar wystar­ czy T = { 1,2} — pozostawiamy to jako proste ćwiczenie. Podzbiór R t , który można przedstawić w postaci A x R T’'L, gdzie L G C, A € nazywamy zbiorem cylindrycznym (o podstawie A ). Niech B (R T) oznacza cr-ciało podzbiorów R T generowane przez zbiory cylin­ dryczne. Twierdzenie 1 (Kołm ogorowa o zgodności). Jeśli rodzina miar pro­ babilistycznych { P l } l e c jest zgodna, to na (R T,B (R T)) istnieje dokładnie jedna miara probabilistyczna P taka, że dla każdego L G C, A G B (R L): P { A x R T\L) = P l {A). D o w ó d . Jak łatwo sprawdzić, zbiory cylindryczne tworzą ciało. Zdefiniu­ jemy miarę P na zbiorach cylindrycznych (cylindrach), a potem pokażemy, że można ją rozszerzyć na całe B (R T). Dla A G B{ R L) niech C (A ) oznacza cylinder o podstawie A, czyli zbiór C {A ) = A x R t \l . § C.4. Twierdzenie Kolmogorowa o rozkładach zgodnych 351 Zdefiniujmy P na cylindrach: P { C ( A ) ) ^ P L {A). I. Najpierw wykażemy, że definicja jest poprawna, czyli że P {C {A )) nie zależy od sposobu przedstawienia cylindra. Istotnie, jeśli C ( A l ) = C ( A l 1), gdzie A l £ S (R L), A l 1 E B (R L l), to biorąc L 2 takie, że L C L 2, L i C L 2 znajdujemy A L2 E B ( R 1,2) takie, że A L x R Ł2\£ = A L2 = A Ll x R 1,2^ 1. Wtedy korzystając z warunków zgodności mamy P l 2(A l 2) = PL2(A L x R ł *\ł ) = P l (A l ) i analogicznie P l 2{A l 2) = P l A A l ^ , zatem P l ^ A ^ ) = P l ( A l ) II. P jest skończenie addytywna. Weźmy dwa rozłączne zbiory cylindryczne Ai x R t \l \ A 2 x R ^ 1,2. Wtedy biorąc L = L i U L 2 mamy P (A i x R n L l u A 2 x R 1”^ 2) = = P ({ A i x R ^ 1 U A 2 x R L\i2) x R n i ) = = P { A X x R L\Ll U A 2 x R ^ 2) = P l (A i x R L\L l) + P l {A 2 x R ^ 1,2) = = P { A i x R T\L l) + P {A 2 x R 1" ^ 2). III. P rozszerza się jednoznacznie na B ( R T). Wykażemy, że zachodzi wa­ runek (ii) z twierdzenia C .l.l (o przedłużaniu prawdopodobieństwa). Niech Bn będzie zstępującym ciągiem cylindrów. Pokażemy, że jeśli dla pewnego 5 > 0 zachodzi P (B n) > 8, n = 1,2,..., to zbiór B = fl^=i Bn jest niepusty. To, że Bn jest zstępującym ciągiem cylindrów oznacza, że przedstawienie Bn = A n x R T\Ln spełnia warunki L n C L n+i i A n+i n n R Ł" C A n, n = 1,2,__ Bez straty ogólności można zakłada«, że L n = { i i ,. • ■, tn}. Dla każdego A n E B (R Ln) istnieje zbiór zwarty K n taki, że K n C A n, PLn(A n — K n) < 6 / 2n (wynika to z regularności rozkładów prawdopodo­ bieństwa — patrz zad. 5.2.1). Dlatego P (B n \ C (K n)) = P Ln(A n \ K n) < 5/2-. Rozpatrzmy cylinder D n = f]£=i C (K n) C Bn. Ponieważ n Bn \ D n c { J (B k \ C (K n)), k=1 Dodatek C. Teoria miary i całki, przestrzenie L p 352 to n P(Bn\Dn) ^ J 2 P (Bk\C(K^ < 6’ k= 1 a więc P ( D n) > P ( B n) — S > 0. Zatem D n =£ 0. Dla każdego n weźmy element x^n'> g D n. Gdy n > A;, to € .Dfc (bo ciąg D n jest zstępujący). Dlatego (x[™\. . . , x ^ ) € K k dla n > k. Dla każdego k ciąg ( a : ^ , x [2 J , . . . ) jest ciągiem elementów z K k. Stosując metodę przekątniową (korzystamy ze zwartości zbiorów Ku) można znaleźć podciąg Tii taki, że granica lim; —■* (xt! istnieje dla każdego k i jest równa x tk. Wtedy xtk) £ Kk, a to oznacza, że dla każdego k . E = {y 6 R T :ytl = xt l ,y t2 = Xt2, - - - } C C (K k) C D kStąd 0 i E C f T = i D n C B. m Rozpatrzmy przestrzeń probabilistyczną (R T ,B (R T ), P ). Dla każdego t określmy na niej odwzorowanie Z t wzorem Z t {u ) = u (t). Z t jest zmienną losową i B ( R T) = a (Z t:t € T ). Proces stochastyczny (Z t)t<:T nazywamy procesem kanonicznym. Mamy P L (A ) = P ( ( Z t l , . . . , Z tn) € A ) dla L — { i i , . . . , £ n}, A e B ( R L). Zatem z twierdzenia 1 otrzymujemy natychmiast Tw ierdzenie 2 (K ołm ogorow a o istnieniu procesu). Jeśli { P l } l £C jest zgodną rodziną miar probabilistycznych, to na pewnej przestrzeni proba­ bilistycznej istnieje proces stochastyczny ( X t) teT, którego rozkładami skoń­ czenie wymiarowymi są rozkłady { P l } l 6£- § C.5. Przestrzenie LP W twierdzeniach o zmiennych losowych często narzuca się warunek istnie­ nia wartości oczekiwanej, drugiego czy też (rzadziej) czwartego momentu. Definiuje się także zbieżność według p-tego momentu. Wszystko to w na­ turalny sposób prowadzi do przestrzeni zmiennych losowych całkowalnych w p-tej potędze. Warto znać ogólne własności takich przestrzeni. Wszystkie rozpatrywane poniżej zmienne losowe będą określone na ustalo­ nej przestrzeni probabilistycznej (fl, T , P ). Dla 0 < p < oo zdefiniujemy p-tą normę zmiennej losowej X jako p-ta norma jest prawdziwą normą dla p 1 . §C.5. Przestrzenie L p 353 m \ p £ ( J a \ x \ > d p y p, zaś przestrzeń zmiennych losowych, których p-ta norma jest skończona, będziemy oznaczać przez L P(S}, T , P ). Można udowodnić, że gdy p —> oo, to ||X||P —>ess sup |X|, dlatego definiuje ess supZ = się = in f{t:F x {t) = ll-^||oo = ess sup jX|, i odpowiednio do tego L °°(il, T , P ). Funkcja || ■||p ma następujące własności: (i ) II/IIp = 0 wtedy i tylko wtedy, gdy / = 0 p.n., (ii) \\cf\\p = |c| ■H/llp, c e R, / € I ? ( a , F , P ) , (iii) ||/ + g\\p < ||/||p + Hsllp, f,g € L P (il, T , P ), p > 1 (nierówność Minkowskiego). (™) 11/ + slip < 2p(||/ ||p + Hsllp, f , g e L p( i P ) , p > 0. Warunki (ż) i (ii) są oczywiste; warunek (iv ) wynika z elementarnej nie­ równości: jeśli x , y,p > 0 , to (x + y)p < 2p~1(x p + yp). Z (ii) i (iv) wynika, że przestrzeń 1^(0., F ^ P ) jest przestrzenią liniową. Warunki ( i ) - ( i i i ) pokazują, że dla p > 1 jest to przestrzeń unormowana, a 11•||pjest normą. Dokładniejsza analiza warunku (i) pokazuje, że formalnie rzecz biorąc, elementami tej przestrzeni są nie zmienne losowe, ale klasy równoważności zmiennych losowych: zmienne losowe X i Y należą do tej samej klasy, gdy X = Y p.n. Z nierówności Minkowskiego (iii) (patrz zad. 5.7.8) wynika także, że p-ta norma jest funkcją ciągłą na przestrzeni L P(Q, T , P ), jeśli p > 1. Tw ierdzenie 1 . Przestrzeń ^ ( i i j J - j P ) jest zupełna dla 1 < p < oo. D o w ó d . Zaczniemy od przypadku 1 < p < oo. Niech (X n) będzie ciągiem Cauchy’ego w L P (il,T ,P ). Wybierzmy z niego taki podciąg (X nk), że l l ^ +1 - X nJ | p < 2- fc, * = 1 ,2,... Niech k Yh = ^ \ X nk+1- X nk\, ~—• Y = lim Yfc. fe—»oo Dodatek C. Teoria miary i całki, przestrzenie L v 354 Wtedy ||lfc||p < 1 dla k = 1,2,___Z lematu Fatou wynika, że ||Y||P ^ 1, a w szczególności Y < oo p.n., skąd wynika zbieżność bezwzględna p.n. szeregu OO Xri! + ~ -^nt) k=1 do zmiennej losowej X ; zbieżność sum częściowych tego szeregu oznacza, że Xnk —>X p.n. Lp Pozostaje do wykazania, że X n — * X . Wybierzmy e > 0. Wtedy istnieje takie N , że dla m ,n > N jest \\Xn —X m\lP < e. Stosując lemat Fatou przy ustalonym m otrzymujemy S\X - X m\P < lim ixń£\Xni - X m\P < e*. i —>oo Wynika stąd, że X — X m e I ? (ii, T , P ), więc i X = (X — X m) + X m e 6 Lp(f i, T , P ), i że ||X — X m\\p —» 0 dla m —> oo. Żeby udowodnić twierdzenie w L °°, weźmy ciąg Cauchy’ego (X n) i zdefi­ niujmy zbiory = \Xk{u)\ > ||Xfc| U }, P n,m = {w € fi: |Xm(w) - X n(w)\ > \\Xn - Xnll«,}. Suma E tych zbiorów, gdy k = 1,2,..., oo, m, n = 1,2,..., oo ma miarę zero, zaś poza E zmienne losowe X n zmierzają jednostajnie do ograniczonej zmiennej losowej X , co kończy dowód. ■ § C.6. Przestrzenie Hilberta Szczególną pozycję wśród przestrzeni L p(fi, F , P ) zajmuje L 2 (fi,.F, P ), bo­ wiem norma jest w niej zadana przez iloczyn skalarny, zdefiniowany dla X , Y £ L 2 (fi,:F, P ) wzorem (X , Y ) = £ X Y = f X Y dP. Jn Wtedy ||X||2 = %/ ( ^ X ) . Przestrzeń L 2(fi, T , P ) jest zatem przestrzenią liniową unitarną (czyli wy­ posażoną w iloczyn skalarny) i zupełną. Takie przestrzenie nazywamy prze­ strzeniami Hilberta. Dobrze znane przykłady przestrzeni Hilberta to prze­ strzenie euklidesowe (R n, (•,•)); ich bezpośrednim uogólnieniem jest l 2 — przestrzeń ciągów (an) sumowalnych z kwadratem, gdzie (a, b) = J2a,ibi. § C.6. Przestrzenie Hilberta 355 Potrzebny nam będzie fragment teorii przestrzeni Hilberta nad ciałem liczb rzeczywistych, zawierający twierdzenie o rzucie ortogonalnym, nierówność Bessela i równość Parsevala. Ta ostatnia w kontekście zespolonych prze­ strzeni Hilberta występuje tylko raz w rozdziale o funkcjach charaktery­ stycznych i jest zresztą, udowodniona bez odwoływania się do pojęcia prze­ strzeni Hilberta. Iloczyn skalarny. Iloczynem skalarnym nazywamy funkcję, która każdej parze elementów x,y przestrzeni liniowej H przypisuje liczbę rzeczywistą (x,y), przy czym spełnione są następujące warunki: (i) (x, y) = (y, x) dla x,y € H, (ii) (ax + by, z) = a ( x , z) + b (y, z) dla x ,y ,z & H, a,b G R, (iii) (x, x ) > 0 dla x € H; (x, x) = 0 wtedy i tylko wtedy, gdy x — 0. Normę w przestrzeni Hilberta H definiujemy za pomocą iloczynu skalarnego: ||x|| = (x, x), x € H. Sprawdzenie własności normy z § C.5 jest łatwe. Łatwo też udowodnić nie­ równość Schwarza: I (x,y) |< ||a:[| • \\y\\, x,y € H, badając funkcję kwadratową f ( t ) = (x + ty ,x + ty), t e R. Z nierówności Schwarza wynika, że iloczyn skalarny jest ciągłą funkcją obu argumentów. R egu ła równoległoboku. Z własności iloczynu skalarnego wynika na­ tychmiast, że IIa- + 3/||2 + I I * — 2/[|2 = 2 ||x ||2 + 2 ||j/||2. Można udowodnić, że jeśli norma spełnia ten warunek, to jest zadana przez iloczyn skalarny. Dopełnienie ortogonalne. Elementy x, y prziestrzeni Hilberta H nazy­ wamy ortogonalnymi (prostopadłymi), gdy (a:, y) = 0. Piszemy wtedy x±y. Niech X 1- = {y € H: yJ~x}. Innymi słowy, X 1- jest przeciwobrazem zera przy odwzorowaniu liniowym i ciągłym y {x., y), dlatego jest podprzestrzenią liniową domkniętą. Teraz dla dowolnej podprzestrzeni liniowej M c H możemy zdefiniować jej dopełnienie ortogonalne jako M n M 1 = {0}. x£M 356 Dodatek C. Teoria miary i całki, przestrzenie L p Jest to oczywiście dom knięta podprzestrzeń H , składająca się z elementów ortogonalnych do każdego x G M . Przypomnijmy, że podzbiór C przestrzeni liniowej nazywamy wypukłym, jeśli wraz z punktami x, y G C do C należą wszystkie punkty postaci tx + (1 - t)y , t G (0 ,1 ). Lem at 1. Każdy niepusty zbiór wypukły i domknięty C w przestrzeni Hilberta H zawiera dokładnie jeden element o najmniejszej normie. D o w ó d . Jednoznaczność wynika z reguły równoległoboku: niech x ,y G C będą dwoma elementami o minimalnej normie, niech d = inf{||ił||:w G C }. Reguła równoległoboku zastosowana do i | y daje (1 ) (2 ) więc x = y, bowiem ||a:)| = |jyj) = d. Weźmy teraz ciąg ( yn) taki, że ||2/n|| —> d (taki ciąg istnieje na mocy definicji liczby d). Podstawiając yn i ym do (2) widzimy, że spełniony jest warunek Cauchy’ego, i z zupełności przestrzeni H wynika, że yn —> yo, a ponadto — z domkniętości C — yo G C. Jest to żądany element o minimalnej normie, jako że ||j/n|| -+ I M I - ■ U k ła d y ortonorm alne. Układem ortonormalnym w przestrzeni Hilberta H nazywamy zbiór wektorów (es) sgj, który spełnia następujący warunek: dla s = i, dla s ytt. Każdy układ ortonormalny jest liniowo niezależny, co wynika z prostej uwagi: jeśli x = ^ ”= 1 CieSi, to ||a;||2 = Y^i=i ci- Wśród układów ortonormalnych szczególną rolę odgrywają układy ortonormalne zupełne, czyli takie, że jeśli (x, es) = 0 dla każdego s 6 I , to x = 0. Są one odpowiednikiem bazy w przestrzeni skończenie wymiarowej (patrz uwaga 8). Twierdzenie 2 (O rzucie ortogonalnym ). Niech M będzie domkniętą podprzestrzenią przestrzeni liniowej H . Wtedy istnieje dokładnie jedna para odwzorowań P , Q o następujących własnościach: ( i ) P : H —> M , Q : H -> M 1 § C.6. Przestrzenie Hilberta 357 (U ) Dla każdego x £ H jest x = P x + Qx. Odwzorowania te mają ponadto następujące własności: (iii) Dla x £ M mamy P x = x, Qx = 0; dla x £ M x mamy P x = O, Qx = x, (iv) P x jest tym elementem M , który jest najbliższy elementowi x, (w) |M|2 = ||Pai|2 + ||Qa;[|2, (vi) P i Q są liniowe i ciągłe. Odwzorowania P i Q są rzutami ortogonalnymi na podprzestrzenie M i M x . Z twierdzenia wynika, że P 2 = P i Q2 = Q — jest to własność charakteryzująca rzut. D o w ó d . Ponieważ dla każdego x £ H zbiór x + M = {x + y.y £ M \ jest wypukły i domknięty, zgodnie z lematem 1 zawiera dokładnie jeden element 0 najmniejsze normie: będzie to Qx, w takim razie definiujemy P x = x —Qx. Wtedy spełniony jest warunek (ii) . Zauważmy, że Qx £ x + M , zatem P x = x - Qx € M . Wykażemy teraz, że dla wszystkich y £ M jest (Qx, y) — 0. Można założyć bez straty ogólności, że ||2/|| = 1. Wtedy, korzystając z tego, że Qx jest elementem o minimalnej normie w M + x, otrzymujemy dla każdego i € R: (Qx, Qx) ^ |\Qx - ty \|2 = (Qx, Qx) + i 2 - 2t (Q x , y) , zatem dla każdego i e R i 2 - 21 (Qx, y) > 0, skąd wynika natychmiast (po podstawieniu t — {Q x,y )), że (Q x,y ) = 0. Udowodniliśmy zatem, że Q działa z H w M x ; tym samym dowód (i) został zakończony. Wykażemy teraz, że P, Q jest jedyną parą odwzorowań spełniających (¿) 1(ii). Niech x = X o gdzie xo £ M , x i £ M ^ . Wtedy xq —P x £ M , ale x0 — P x = Qx — x\ £ M ł . Ponieważ M fi M L = {0 }, musi być xq = Px, xi = Qx. Ten sam pomysł daje dowód liniowości P i Q. Pisząc (ii) dla x, y £ H i dla ax + by otrzymujemy P (a x + by) - aPx - bPy = aQx + bQy — Q(ax + by), gdzie lewa strona należy do M , prawa do M x , zatem obie muszą być zerowe. Dalej, (iii) wynika z (i); warunek (iv) posłużył do zdefiniowania P ; (v) wynika z (i), bowiem (P x ,Q x ) = 0. Dodatek C. Teoria miary i całki, przestrzenie L v 358 Dalej, (iii) wynika z (i); warunek (iv ) posłużył do zdefiniowania P ; (t;) wynika z (i), bowiem ( P x ,Q x ) = 0. Wreszcie z (w) wynika, że ||Px|| < ||x||, ||<5x|| < ||x||, zatem np. \\Px - Py|| = ||P(x - y)|| < ||x - 2/||, operatory P i Q są więc ciągłe. ■ U w a g a 3. Jeśli M ^ H, to istnieje niezerowy wektor y e M L (czyli y l M ) . W tym celu wystarczy wziąć x g M i y = Qx. U w a g a 4. Jeśli wektory el5... en tworzą układ ortonormalny, rzut orto­ gonalny na podprzestrzeń M = [ei, . . . , en] jest opisany wzorem P x = (x ,e i) ei + ... + (x ,e n) e n. (3) Istotnie, wtedy (x, ej) = (P x , e*), i = 1 , 2 ,n, zatem (x - P x , aie i + ... + anen) = 0, co oznacza, że (x — P x)A .M . U w a g a 5. Nierówność ||Px|| < ||x|| zastosowana do rzutu z poprzedniej uwagi daje ¿ ( x , ei)2 < ||x||2. i=l (4) Z ostatniej uwagi wynika T w ierdzenie 6 (N ierów ność Bessela). Jeśli (es) s€/ jest układem orto- normalnym w H, to Bessela czy Bessla, Sztencela czy Sztencla, Knasfcera czy Knastra, Nasera czy... Miara licząca to taka, że J 2 ( x , e s) 2 < ||x||2. sei (5) Zwróćmy uwagę, że zbiór wskaźników może być nieprzeliczalny, w związku z tym sumę nieujemnych składników po lewej stronie wzoru (5) należy interpretować jako kres górny sum po skończonych podzbiorach I. Innymi słowy, jest to całka względem miary liczącej na I. Takie rozumienie sumy pozwala rozpatrywać sumy składników o dowolnych znakach. Oznaczmy przez [A] powłoką liniową zbioru A, czyli część wspólną wszyst­ = # A - kich podprzestrzeni liniowych, zawierających A. Nietrudno zobaczyć, że [AJ jest zbiorem skończonych kombinacji liniowych elementów z A. Tw ierdzenie 7. Dla układu ortonormalnego (es) sej w przestrzeni Hilberta H następujące warunki są równoważne: § C.6. Przestrzenie Hilberta 359 (¿) (es)s£i jest układem ortonormalnym zupełnym, (ii) Zbiór S = [es: s £ Jj jest gęsty w H, (iii) Dla każdego x € H mamy J2sel (x, es) 2 = ||a;||2. (iv ) Dla x,y £ H mamy £ sei ( * , es} (y,es) = (x,y). D o w ó d , (i) => (ii). Oznaczmy M = S. Jeśli S nie jest gęsty w H, to M ^ H, zatem M Ł zawiera — na naocy uwagi 3 — niezerowy wektor, co przeczy zupełności (es) sej. (ii) => (iii). Ustalmy x £ H i e > 0. Istnieje wtedy wektor dla którego ]\z — x|| < e. Tym bardziej ||Px - a:|| < e, gdzie P jest rzutem ortogonalnym na [eSl, . ,. , esJ (uwaga 4). Jak łatwo sprawdzić, ||Px||2 = ET =1 (x ’ esi)2>a ponadto ||x|| < ||Px|| 4- e, dlatego n Ponieważ e > 0 było dowolne, (iii) wynika z powyższego i z nierówności Bessela. (iii) =$- (iv). Wystarczy podstawić do (iii) x + y. (iv) =>• (i). Jeśli istnieje taki wektor x £ H, że x / 0, ale (x, es} = 0 dla wszystkich s £ I, to biorąc x = y otrzymujemy ||x[|2 = 0 — sprzeczność. ■ U w a g a 8 . Z tego twierdzenia wynika, że jeśli ( en) jest przeliczalnym ukła­ dem ortonormalnym zupełnym — na przykład rozważanym w rozdz. 13 układem Haara w L 2[0,1] — to każdy wektor x przedstawia się w postaci: oo n=l Krótko mówiąc, taki układ ortonormalny zupełny jest bazą Schaudera w H. Dodatek D Funkcje analityczne i metoda residuów Czytelnik znajdzie poniżej informacje niezbędne do obliczania całek metodą residuów: definicję funkcji holomorficznej i kilka podstawowych twierdzeń o takich funkcjach1. § D .l. Funkcje holomorficzne Różniczkowanie. Niech f odwzorowuje zbiór otwarty G C C w C. Po­ chodną funkcji / w punkcie z definiuje się standardowo: f '{ z ) = lim h—*o z,z + h £ G , h e C . h, Okazuje się jednak, w przeciwieństwie do funkcji określonych na podzbio­ rach R, że funkcja, która ma pochodną w każdym punkcie z € G, czyli funkcja holomorficzna w zbiorze G, musi być tak regularna, że ma pochodne dowolnie wysokiego rzędu i rozwija się w szereg potęgowy w otoczeniu każ­ dego punktu z £ G, czyli jest analityczna. Zbiór funkcji holomorficznych w zbiorze G będziemy oznaczać przez H (G ). P rzy k ład 1. Wszystkie wielomiany i funkcja ez są holomorficzne na C. Sumy, iloczyny, ilorazy (jeśli tylko mianownik jest różny od zera) i złożenia funkcji holomorficznych są holomorficzne. Funkcja 1¡z jest holomorficzna na C \ {0 }. Jeśli f ( z ) = Y ^=o a^ (z ~ zo)n> to / jest holomorficzna w pewnym kole otwartym D {z0, r ) = {z e C: |z - z0\< r}, ■'■Systematyczny wykład zawierają na przykład następujące podręczniki: Andrzej Birkholc, A naliza m atematyczna — fun k cje wielu zmiennych , P W N , Warszawa 1986 (roz. 3); Franciszek Leja, Funkcje zespolone , P W N , Warszawa 1973, Jewgienij Borysowicz Szabat, Wstęp do analizy zespolonej, PW N , Warszawa 1974. 360 §D.l. Funkcje holomorficzne 361 gdzie r jest promieniem zbieżności szeregu potęgowego. Natomiast nie jest holomorficzna funkcja z. Istotnie, niech i e R . Wtedy dla ustalonego z e C = 1, ale lim i->0 z + it —z it it = -1 it Iloraz różnicowy zależy zatem od kierunku, z jakiego zmierzamy do zera. ■ Nietrudno otrzymać warunek konieczny i dostateczny różniczkowalności, czyli R ów nania Cauchy’ego-R iem anna2. Z każdą funkcją /: C —* C można związać dwie funkcje u, v: R 2 —> R 2, tak, by f { x + iy) = u (x ,y ) + iv (x ,y ), x,y € R. Funkcja / jest różniczkowalna wtedy i tylko wtedy, gdy istnieją jej pochodne cząstkowe ux,u y,vx,vy, i spełniają równania Cauchy’ego-Riemanna: V/X -- Vyj Uy -- V■ Zauważmy jeszcze, że jeśli u i v mają ciągłe pochodne drugiego rzędu, to z powyższych równań wynika, że czyli zarówno u, jak i v mają laplasjan równy zeru. Później otrzymamy ten wynik bez ograniczającego założenia. Wystarczy bowiem, by u i v były odpowiednio częścią rzeczywistą i urojoną funkcji holomorficznej, która — jak się okaże — ma pochodne wszystkich rzędów. Powiemy, że funkcja /: G —> C rozwija się w szeregi potęgowe w G, jeśli dla każdego koła D(a, r ) c G istnieje szereg potęgowy an(z ~ ®)n zbieżny do / w D (a ,r). Zwróćmy uwagę, że: 1. Wymagamy tu istnienia odpowiedniego szeregu potęgowego dla każ­ dego koła D(a, r ) c G, jest to więc własność nieco mocniejsza, niż lokalna przedstawialność / w postaci szeregów potęgowych. 2. Jeśli / rozwija się w G w szeregi potęgowe, to jest holomorficzna, a ponadto, na mocy dobrze znanego z analizy twierdzenia o zbieżności szeregów potęgowych, /' także rozwija się w G w szeregi potęgowe. 2Augustin Cauchy ł Bernhard Riemann byli twórcami teorii funkcji analitycznych. Funkcje analityczne i metoda residuów 362 Następne twierdzenie zawiera ogólną metodę otrzymywania funkcji rozwijalnych w szeregi potęgowe. W jego sformułowaniu występują całki względem miar o war­ tościach zespolonych. Teoria całki względem takich miar różni się niewiele od zwy­ kłej teorii miary (patrz [RUD-1], rozdz. 6). Należy jedynie wiedzieć, że na mocy samej definicji każda miara n o wartościach zespolonych na (U, F ) ma skończoną wariację, czyli sup ^ | i i ( A i ) | < oo, gdzie kres górny bierze się po wszystkich przeliczalnych rozbiciach przestrzeni fi na zbiory z T . Okazuje się, że wariacja miary ¡1 , zdefiniowana wzorem |/j1(£ ) = s u p ^ M A in .E )| , E ef, jest miarą skończoną. Z twierdzenia Radona-Nikodyma wynika wtedy, że ¡ 1 = = hdP, gdzie h jest pewną (ograniczoną) funkcją mierzalną o wartościach zespo­ lonych, a P — zwykłą miarą probabilistyczną, równą (/¿|/[//((fi). T w ierdzen ie 2. Niech fi będzie miarą o wartościach zespolonych na prze­ strzeni mierzalnej tp: fi —* C — funkcją mierzalną, G — otwartym podzbiorem C, przy czym G fi ip(Q) ~ 0- Wtedy funkcja m = f fl{d° zeG , Jn <p(C) — * rozwija się w szeregi potęgowe w G. D o w ó d . Niech D (a ,r ) C G. Wtedy dla każdego z £ D (a ,r ) i C e O 2 —a ¥ > (()-a \z —al --------l < 1 - r i dlatego szereg geometryczny {z - a)n ^ _ 1 (<?(() - a)n+1 ~ H O - z jest zbieżny jednostajnie dla ( £ ft przy ustalonym z £ D (a ,r). Całkując obie strony względem n otrzymujemy 2 £ D (a ,r), f ( z) = gdzie -/ M <K) Jeśli Czytelnik n = 0, 1 , 2 , ___ 1 wie, co to jest Jn n(v>( C ) - o ) n+1’ całka krzywoliniowa, to C ałkow anie w zd łu ż krzywych. Czytelnik zechce zauważyć, że wprowa­ pewnie wie i caią dzane poniżej definicje są naturalnym przeformułowaniem definicji całki resztę. krzywoliniowej. §D.l. Funkcje holomorficzne 363 Będziemy całkować funkcje zespolone po krzywych kawałkami gładkich. Krzywą kawałkami gładką (klasy C 1), dalej zwaną krótko krzywą, nazwiemy odwzorowanie 7: [a, fc] —> C, ciągłe i przedziałami klasy C 1 , co oznacza, że istnieją takie liczby ax < < 02 < ■ ■ ■ < an należące do [a, 6], że 7 ma ciągłą pochodną na przedzia­ łach (a,j-i,a,j) i pochodne jednostronne w punktach gdzie j = = 1 ,2,..., T l , do -- O j, &71 -- b ‘ Oznaczmy przez 7* obraz odcinka [a, b] przy odwzorowaniu 7 (w języku potocznym on właśnie jest nazywany krzywą). Zdefiniujemy całkę z funkcji ciągłej /: 7* C: f f(z )d z = f / (7 (i))7 '(i)d i J7 Ja Definiujemy długość krzywej 7: L i l ) = / h'(t)\dt. Jl Wynika stąd od razu, że I f / O ) dz < sup l / l -1,(7). iJy (1) 7* Jeśli h: [a', 6'] —» [a, 6] jest odwzorowaniem klasy C 1 i h(a!) = a, h(b') = b, to 7 o h jest krzywą, dla której f f (z) d z = f J ‘V f(z)dz. Jyoh 70 h Pozwala to na pewną swobodę w wyborze parametryzacji. Zauważmy jed­ nak, że gdyby h(a!) = b, h(b') = a, znak całki po krzywej zmieniłby się na przeciwny. Krzywą 7 nazywamy zamkniętą, jeśli 7 (a) = 7(6). Dla takiej krzywej defi­ niujemy indeks względem punktu: T w ie rd z e n ie 3. Jeśli 7 jest krzywą zamkniętą, G = C \ y * , i zdefiniujemy l nd^ = 2 z e G> to funkcja Ind7 przyjmuje wartości całkowite, jest stała na każdej składowej zbioru G i równa się zeru na składowej nieograniczonej. G ma dokładnie jedną, składową nieograniczoną. Funkcje analityczne i metoda residuów 364 Intuicyjnie, indeks liczy, ile razy punkt 7 (i) obrócił się wokół 2 , gdy t zmieniło się od a do b, jeśli obroty zgodne z kierunkiem ruchu wskazówek zegara uważamy za dodatnie3. Żeby to zobaczyć, przypuśćmy, że z = 0 i 7 : [0,2ir] —> C, 0 & 7 *. Wtedy [d ± = Jy C Z-2* 7 ' {t) dt 7W Jo Niech A(s) = f * T'7((ty - ■ Oczywiście A '(s) = 2^ . Z drugiej strony, 7 ( 4) = = |7 (i)|e,arst7(t^, gdzie arga oznacza argument, zatem log 7 (i) = log |7 (t) |+ i arg(7 (t)) a po zróżniczkowaniu = [log |7 (i)|]' + i[arg(7 (i))]'. W takim razie przyrost argumentu od 0 do s otrzymamy całkując obie strony ostatniej równości w granicach od 0 do s: A(s) = [log |7 (s)| - log |7 (0)|] + i [arg(7 (s)) - arg(7 ( 0) ) ] . V -/ V — . -j I II Jeśli krzywa jest zamknięta, to przyrost I w granicach od 0 do 2ir jest zerowy; I I daje i • (kąt obrotu punktu 7 (t)). Ostatecznie = i ■(kąt obrotu punktu 7 (i)). o co chodziło. Należy jednak mieć na uwadze, że powyższe rozumowanie nie ma charakteru formalnego, choćby dlatego, że nie przedyskutowaliśmy sprawy niejednoznaczno­ ści argumentu. Ograniczymy się jedynie do stwierdzenia, że wszystko jest w po­ rządku, jeśli tylko arg 7 (i) zmienia się w sposób ciągły. Na szczęście w dowodzie twierdzenia 3 nie będziemy w ogóle odwoływać się do pojęcia argumentu. ■Dowód twierdzenia 3. Ponieważ zj2m jest liczbą całkowitą wtedy i tylko wtedy, gdy e2 = 1 , wystarczy wykazać, że funkcja ¥(i)- expU ii gdzie t e [a, 6], przyjmuje w punkcie b wartość 1. Po zróżniczkowaniu mamy \Ja l i s ) - z / 7(t )- z ' 3Ostatnio pojęcie indeksu krzywej względem punktu znalazło zastosowanie w grafice komputerowej, bowiem jego własności wymienione w twierdzeniu pozwalają odróżnić ob­ szar położony wewnątrz krzywej zamkniętej (czyli składowe ograniczone) od zewnętrza. §D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym 365 czyli Inaczej mówiąc, [<,0/(7 - z)]' = 0 na [a, 6] \ S, gdzie S jest zbiorem skończo­ nym. Funkcja <p/(7 - z) jest ciągła, więc jest stała na [a, b]. Ale <p(a) = 1, czyli V>(a) _ 7( a ) - 2 czyli <p(t) = 1 _ <p(t) 7 (a) - z 7( i ) —z ’ t £ [a,b\. Teraz bowiem 7(a) = 7(6), jako że krzywa jest zamknięta. Z tw. 2 wynika teraz, że Ind7 £ H(G). Ponieważ obraz ciągły zbioru spój­ nego jest spójny, a Ind7 przyjmuje wartości całkowite, musi być stały na składowych G. N a dodatek [ Ind7(z)| < 1 dla dostatecznie dużych \z\. Dla­ tego Ind7(z) = 0 na składowej nieograniczonej. ■ § D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym Udowodnimy teraz, że całki z funkcji holomorficznych po krzywych za­ mkniętych są równe zeru. Do naszych celów wystarczy wykazanie tego dla krzywych zawartych w zbiorze wypukłym, choć nie jest to najogólniejsza wersja twierdzenia. T w ie rd ze n ie 1 (O funkcji p ie rw o tn e j). Jeśli F jest funkcją holomor­ ficzną na G i ma ciągłą pochodną F ' na G , a 7 jest krzywą zamkniętą, 7* C G, to F'{z) dz = 0. 7 D o w ó d . /7 F '(z ) dz = F '(7 (t ))7 /(t) dt = F(-/(b)) - F { 7 (a )) = 0. ■ W n io sek 2. Jeśłi 7 jest krzywą zamkniętą, to f (z — a)n dz = 0 o ile n 7^—1 (dła n — —2, —3,. . . nałeży dodatkowo założyć, że a £ 7*). T w ie rd z e n ie 3 (C au ch y’ego d la tró jk ą ta ). Niech A będzie trójkątem domkniętym, zawartym w zbiorze otwartym G , niech p £ G i niech f będzie ciągła w G, f £ H (G \ {p }). Wtedy S A oznacza brzeg trójkąta. Funkcje analityczne i metoda residuów 366 D o w ó d . Twierdzenie jest oczywiście prawdziwe dla trójkąta zdegenerowanego. Dalej będziemy zatem zakładać, że trójkąt nie jest zdegenerowany. Rozważymy następujące przypadki: 1. p $ A . Niech a,b, c oznaczają wierzchołki trójkąta, zaś a', b' i c' — środki odcinków [b, c], [c, a] i [a, 6]. Rozpatrzmy cztery trójkąty wyznaczone przez uporządkowane trójki punktów: Oznaczmy I = JgA f ( z ) dz. Wtedy I jest sumą całek po powyższych czterech trójkątach. Wybieramy ten trójkąt, na którym moduł całki jest największy — musi on być nie mniejszy niż |||. W ten sposób możemy otrzymać rekurencyjnie zbiór trójkątów A D A i D Aj,. . . o następujących własnościach: (i) n £ i A < = zo, ( ii) |Z| < 4n\ f ( z) dz\ (iii) Obwód trójkąta A n wynosi 2 nL, gdzie L jest obwodem A . Ponieważ / jest różniczkowalna w z0, dla ustalonego e > 0 istnieje r > 0 takie że dla z € D ( zq, r ): |f ( z ) - f ( z 0) - f ( z 0)(z - zq) | < e\z - z0\. Niech A n będzie trójkątem zawartym w D (z 0,r). Wtedy z wniosku 2 wynika, że / / (z) dz = JdAn f lf(z) - f( z 0) - f ( z 0)(z - z0)] dz. JdAn Z oszacowań (ii), D . l ( l ) i nierówności |z — zo| < 2 nL dla z e A n wynika, że Stąd |/| < eL 2, zatem 1 = 0. 2. p — a (czyli jednemu z wierzchołków trójkąta). Wybierzmy x na boku [o, b] i y na boku [a, c], oba blisko a. Wtedy f gA f ( z ) dz jest sumą całek po brzegach trójkątów wyznaczonych przez trójki { a , x , y } , { x , b , y } i {b, c, yj . Dwie ostatnie całki są równe zeru, bo trójkąty nie zawie­ rają punktu p. Pierwsza całka może być dowolnie mała, jeśli tylko wybierzemy odpowiednio x i y, bowiem / jest ograniczona. Dlatego Id a / ( * ) dz = °: §D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym 367 3. p € A \ {a, b, c}. Wystarczy zastosować wynik poprzedniego punktu do trójkątów wyznaczonych przez {a,b,p}, {b, c,p} i {c,a,p}. m Twierdzenie 4 (C auchy’ego dla zbioru w ypukłego). Niech G będzie otwartym i wypukłym podzbiorem C, / — funkcją ciągłą w G i holomor­ ficzną na G\ {p }. Wtedy 7 dla każdej krzywej zamkniętej 7, gdzie 7* C G. D o w ó d . Ustalmy a 6 G i zdefiniujmy F (z )= [ J[a,z] f(0 d C z € G. F jest dobrze określona, bo zbiór G jest wypukły, i jest funkcją pierwotną dla /. Z twierdzenia Cauchy’ego dla trójkąta wynika, że czyli F (z ) - F (z 0 Z - zQ i z ciągłości / w zq wynika, że dla ustalonego e > 0 istnieje a > 0, że 1/(0 — f{zo)\ < £, o ile |C — zol < er- Dlatego dla dostatecznie małych \z — zo\ prawa strona nie przekracza e. Zatem F ' — f i z twierdzenia 1 otrzymujemy tezę. ■ Twierdzenie 5 (W z ó r całkowy Cauchy’ego w zbiorze w y p u k ły m ). Niech 7 będzie krzywą zamkniętą w otwartym i wypukłym zbiorze G C C, f e H (G ). Wtedy D o w ó d . Niech d la<eG ,C ^, dla C = z. Wtedy g spełnia warunki twierdzenia 4 (Cauchy’ego) i teza wynika stąd, że Funkcje analityczne i metoda residuów 368 U w a g a 6 . Niech 7 (t) = a + re2i, t G [0, 2tt] (jest to dodatnio zorientowany okrąg o środku a i promieniu r). Jeśli D (a ,r ) C G, to dla / € H (G ): Stąd i z tw. D.1.2 wynika, że / rozwija się w szeregi potęgowe w G, jest za­ tem różniczkowalna nieskończenie wiele razy. Wystarczy wziąć fi = [0, 2tt], <p = 7 , d/j,(t) = dt. Współczynniki szeregu zależą tylko od a. U w a g a 7. Pisząc powyższą całkę w postaci f(a) = Ł l ) ' ireitdt=Ł l f^ +^ d t (1) otrzymujemy własność wartości średniej: wartość funkcji holomorficznej / w środku okręgu zawartego w G jest równa średniej z jej wartości na okręgu. Funkcje harmoniczne. Własność wartości średniej wiąże się z funkcjami harmonicznymi-, f jest harmoniczna w zbiorze otwartym G, gdy jej część Probabilistyczny sposób produkcji rzeczywista i urojona spełnia tam równanie funkcji harmonicznych Ujxx “t” 'ayy — 0. można zobaczyć w roz. 13 Wszystkie funkcje holomorficzne w G są także harmoniczne, ponieważ funk­ (zagadnienie cja holomorficzna ma pochodne wszystkich rzędów i spełnia równania CauDirichleta). chy’ego-Riemanna (por. §D.l). Można udowodnić, że jeśli / jest harmo­ niczna w G i a € G, to własność wartości średniej (1) jest spełniona dla wszystkich takich r > 0 , że D (a , r ) C G. Odwrotnie, jeśli ( 1 ) zachodzi dla pewnego ciągu r n —» 0 i / jest ciągła w G, to jest harmoniczna. Uwagi 6 i 7 pokazują głębokie konsekwencje różniczkowalności w sensie zespolonym, w odróżnieniu od różniczkowalności w sensie rzeczywistym. § D.3. Zera i bieguny Lem at 1 (O zerach). Jeśli zbiór G C C jest otwarty i spójny, a f £ G H (G ), przy czym f jest różna od stałej zerowej, to zbiór Z zer funkcji f jest co najwyżej przeliczalny i nie ma punktu skupienia; wtedy dla każdego a e Z istnieje m € N , m > 1, takie, że Í f ( z ) = ( z - a ) m -g (z ), g € H (G ),g {a ) ± 0. (1) Jeśli zachodzi (1), mówimy, że / ma w punkcie a £ Z zero rzędu m . ' Albo zero m-krotne. D o w ó d . Oznaczmy przez A zbiór punktów skupienia zbioru Z , należących do G. Niech a & Z. Funkcja / rozwija się w szereg w pewnym otoczeniu § D.3. Zera i bieguny 369 D{a, r) C G. Niech f ( z ) = cn(z —a)n. Są teraz dwie możliwości: albo wszystkie cn = 0 i wtedy a leży we wnętrzu A, albo jeden ze współczynników o numerze 1,2... jest różny od zera. Niech pierwszym takim współczynni­ kiem będzie cm. Definiujemy funkcję (z - a) mf(z ), dla z £ a, dla z = a. oczywiście zachodzi wtedy (1). Ponieważ g(z ) = cm + cm+i(z — a) + ..., funkcja g jest holomorficzna na G. Ponieważ g(a ) ^ 0, to a jest na mocy ( 1 ) i ciągłości g izolowanym punktem zerowym funkcji /. Jeśli a £ A, musi zatem zachodzić pierwsza możliwość — a jest punktem we­ wnętrznym A, zatem zbiór A jest otwarty. Jednocześnie jest on domknięty, więc ze spójności zbioru G wnioskujemy, że A = 0 lub A = G. To ostatnie jest niemożliwe z założenia, wobec tego A = 0, wszystkie zera są izolowane i jest ich przeliczalnie wiele. ■ W niosek 2. Jeśli f ,g £ H (G ), gdzie G jest otwarty i spójny, oraz f(z ) = = g (z) na zbiorze, który ma punkt skupienia w G, to f ( z ) = g(z) dla z £ G. Oznacza to, że funkcja holomorficzna w zbiorze otwartym i spójnym G jest jednoznacznie wyznaczona przez swoje wartości na ciągu o różnych wyrazach, zbieżnym w G (jest to bowiem „minimalny” przykład zbioru z punktem skupienia). Zajmiemy się teraz klasyfikacją osobliwości. Twierdzenia 3 i 4 nie są nie­ zbędne do dowodu tw. D.4.2 o residuach, ale dzięki nim dowód jest krótszy. Jeśli funkcja / £ H (G \ {a }) da się przedłużyć do funkcji holomorficznej na G , mówimy, że osobliwość w a jest usuwalna. W dalszym ciągu D '(a, r ) będzie oznaczać sąsiedztwo punktu a o promieniu r, czyli zbiór D (a ,r) \ { a}. Twierdzenie 3. Jeżeli a £ G, / £ H (G \ {a }), to zachodzi jeden z trzech przypadków: (a) osobliwość w a jest usuwalna, ( b) istnieją takie c\, c%,..., Cm, m > 0, cm ^ 0, że funkcja m ma usuwalną osobliwość w a, (c) obraz każdego zbioru D '(a ,r) c G przy odwzorowaniu f jest gęsty na płaszczyźnie. Funkcje analityczne i metoda residuów 370 Jeśli zachodzi przypadek ( 6), mówimy, że / ma w punkcie a biegun rzędu Ck{z —a)~k. Jeśli zachodzi (c) mówimy, że punkt m z częścią główną Na przykład a jest istotnie osobliwy. funkcja ma punkt istotnie osobliwy z = 1. Do dowodu twierdzenia 3 potrzebne będzie T w ierdzenie 4 (R iem an n a). Jeśli f £ H (G \ { a } ) i f jest ograniczona w D '(a , r ) dla pewnego r > 0, to ma usuwalną osobliwość w a. D o w ó d . Niech hfz\ = f (z - a)2f { z ) \0 dla z £ a, dla z = a. Wtedy (z ograniczoności) h!(a) = 0, dlatego h £ H (G ), zatem OO 2 € D ( a’ K z) = Y 71 = 2 Ponieważ / (z) = J2n=oc™+z(z ~ a) n> z e D '(a ,r ), wystarczy rozszerzyć / kładąc f(a ) = c2. ■ D o w ó d twierdzenia 3 o klasyfikacji: Jeśli (c) nie zachodzi, to istnieją w £ £ C, r > 0 i <7 > 0 takie, że |/(z) — w\ > o na D '{a ,r). Niech g(z)= f (z )-w ’ z e D ' ( a’ r )- (3) Teraz g £ H (D '(a , r)), a ponadto \g\ < 1/<t. W takim razie osobliwość jest usuwalna i g £ H (D (a , r)). Jeśli g(a) ^ 0, to / jest ograniczona w pewnym otoczeniu D (a ,s ), więc zachodzi (a). Jeśli g ma zero rzędu m w punkcie a, to z lematu 1 o zerach wynika, że g (z) = (z - a)mg i(z ), gx £ H (D (a , r )), i gi nie ma zer w D ’ (a ,r). Niech h = 1/gi- Wtedy znów h £ H (D (a ,r )) i /(z) - w = (z - a)~mh(z) ale h(z) = o ~ a) n’ bo ¥= 0, z £ D(a, r), czyli OO / ( z ) - W = ^ b n( z - a ) n- m. 7 1 =0 Otrzymaliśmy ( 6), gdzie ck = fc = 1,2,... ,m. ■ Możemy teraz sformułować dwa twierdzenia, pozwalające na rozpoznawanie biegunów i ich rzędów. § D.3. Zera i bieguny 371 Twierdzenie 5. Funkcja f ma w punkcie a biegun rzędu m > 1 wtedy i tylko wtedy, gdy zależność (z - a)" jest spełniona w pewnym sąsiedztwie D '(a ,r), przy czym f i jest holomor­ ficzna w D (a ,r ) i fi(a ) ^ 0. D o w ó d . =>■ Wynika to natychmiast z (2), bowiem istnieje taka funkcja g e H (D (a ,r )) (dla pewnego r > 0), że \—k+m (z - a)~ ir(z)(z - a )m + Y c k(z - a)~ k= 1 J a stąd f i ( z ) = J2n=o dn(z - a)71 dla z € D (a ,r ) i f i (a) = d0 = Cm ^ 0. 4= Wystarczy rozwinąć f i w szereg potęgowy wokół punktu a. m W zastosowaniach probabilistycznych (do obliczania funkcji charaktery­ stycznych) jest 99,9% szans na to, że badana funkcja / jest ilorazem funk­ cji holomorficznych. Wtedy zera mianownika są biegunami lub punktami pozornie osobliwymi funkcji /. Wykluczone są natomiast punkty istotnie osobliwe. Twierdzenie 6 . Jeśli f = g/h, gdzie funkcje g ih są holomorficzne w pew­ nym kole D(a, r) i h(z) j^Oai D '(a , r), zaś a jest m-krotnym zerem licznika i n-krotnym zerem mianownika, to (a) punkt a jest (n —m)-krotnym biegunem f , o ile m < n, (b) punkt a jest pozornie osobliwy, o ile m ^ n. D o w ó d . Jeśli g(z) = (z —a)mg1(z), h(z) = (z — a )nh i(z ), gdzie gi i hi są holomorficzne w D (a ,r), ffi(a) ^ 0, h\(a) / 0, to fM = / ,W (z — a)n~m ’ gdzie /i e H (D (a ,r )), fi{a ) ^ 0, i wystarczy skorzystać z poprzedniego twierdzenia. ■ P rzykład 7. Niech t € R będzie ustalone. Funkcja e itz 1 + z2 Jeśli g (a ) ^ 0, to mówimy, ze g ma 0-krotne zero w a. Funkcje analityczne i metoda residuów 372 ma bieguny jednokrotne w punktach i, —i. Funkcja eiu ez + e ~ z ma bieguny jednokrotne w punktach ak = (2k + 1) f • pojawią się jeszcze w dalszym ciągu tego paragrafu. ■ § D.4. k £ Z. Funkcje te Residua Definicja 1. Jeśli funkcja f ma w punkcie a biegun z częścią główną m k=i to współczynnik ci nazywamy residuum funkcji f w punkcie a i oznaczamy Res(/;a). „Residuum” znaczy po łacinie „pozostałość”. Z wniosku D.2.2 i tw. D.2.4 wynika, że po scałkowaniu funkcji po dodatnio zorientowanym okręgu obie­ gającym biegun „pozostałością” jest współczynnik ci z części głównej. A do­ kładniej, mamy. Twierdzenie 2 (O residuach). Niech G będzie wypukły i otwarty, niech f £ H (G \ { a i , .. .an}), gdzie at są różnymi punktami z G , w których f ma bieguny. Niech 7 będzie krzywą zamkniętą, 7 * C G, i niech 7 * fi { o j , ... an} = 0. Wtedy [ f(z )d z = ¿ R e s ( / ; a fc) -Ind7 (ofc). J~< k= 1 (1) D o w ó d . Funkcja / — (Q i + ■■- + Qk), gdzie Qk jest częścią główną bieguna w ak, ma w punktach a%,... ak osobliwości usuwalne. Wobec tego na mocy tw. Cauchy’ego D.2.4 f f(z )d z = i (Q i + ... + Qk)dz , J 'y J 'y i ostatnia całka pokrywa się — na mocy wniosku D.2.2 i tw. D.1.3 — z prawą stroną wzoru ( 1 ). ■ Twierdzenie to pozwala obliczać całki, które w inny sposób bardzo trudno byłoby uzyskać. Praktyczne metody obliczania residuów zawiera następne twierdzenie. § D.4. Residua 373 Twierdzenie 3. Jeśli a jest biegunem jednokrotnym funkcji f , to Res ( f ; a) = lim (z — a) f( z) . (2) z —*a Jeśli funkcje f i g są holomorficzne w otoczeniu punktu a, g(a) = O, g '(a ) ^ £ O, to Res (//ff;a) = M 9W - (3) D o w ó d . W pierwszym przypadku istnieje taka funkcja holomorficzna Q, ze lim (z — a )f{z ) = lim (z — d) Q{z) + - Cl — ci = Res (f;a ). W drugim przypadku stwierdzamy, że na mocy tw. D.3.5 biegun w punkcie a jest jednokrotny i korzystamy ze wzoru ( 2 ): , ,f{z ) f(z ) f(a ) hm (z - <i)—7—r = hm j — --------------------- - = — ■ g(z) * - a (g(z) - g(a))/(z - a) g'(a) U w a g a 4. Można wykazać, że jeśli a jest biegunem rzędu k, to Obliczanie całek za pomocą residuów zilustrujemy za pomocą funkcji z przy­ kładu D.3.7. P rzyk ład 5 (F . ch. rozkładu Cauchy’ego). Najpierw obliczymy całkę <p(t) = i r°° p1 r°° eitzdz i t > 0 l / ^ J —oo 1 + z2 W tym celu obliczymy całkę po krzywej 7 , złożonej z przedziału [—ii, ii] i półokręgu Rels, s £ [0, 7r]. Łatwo stwierdzić, że dla ustalonego t > 0 całka z funkcji /(z) = eIi2/(l + z2) po półokręgu jest równa rn ęitRt Jo ~ + R?e2is -iR elsds, zatem jej moduł nie przekracza R/(R? — 1), o ile R > 1, a to wyrażenie zmierza do zera przy R —> 00, zatem / f(z)d z —> f(x )d x . Funkcja podcałkowa / ma w górnej półpłaszczyźnie jedno residuum w punkcie Res(/; i) = e_t/2i, skąd <p(t) = e- i , i > 0, a korzystając z syme­ trii rozkładu otrzymujemy ostatecznie: < p( i ) =e- ^. ■ Funkcje analityczne i metoda residuów 374 P rzykład 6 (F . ch. rozkładu cosinusa hiperbolicznego). Obliczymy całkę , , 1 eifz dz >p(t) = — / -------------, * J - ooez + e ~ z ’ t > 0. Teraz będziemy całkować funkcję f ( z ) = eUz/( e z + e- z ) po prostokącie o wierzchołkach - R , R, R + iR , - R + iR ■ Oszacujemy kres górny |/| na trzech bokach: 1. Na [ii, R + iR\ mamy dla R > 1: \f(R + is)\ gKg*S g—itg —1 ea - 1 To samo oszacowanie dostajemy na [—ii, —R + iR]. 2. Na [—ii + iR , r + iR] mamy, jeśli tylko R = 2nir, n 6 N : \f(R + is)\ g iR g - s _|_ e - i R e s Żeby otrzymać zbieżność do zera całek po rozpatrywanych bokach wystar­ czy wziąć i > 0 i R = 2 n7T, n e N . Stąd wniosek, że całka i J —O ez + e~ ■dz, t > 0 jest równa sumie residuów funkcji / w górnej półpłaszczyźnie, pomnożonej przez 2iri. Funkcja podcałkowa / ma bieguny rzędu 1 w punktach ak = (2 k + 1)| i, k e Z (jest to zbiór rozwiązań równania e2z = —1). Mamy teraz -7Ti(fc+1/ 2 ) pitak Res ( / ; ak) g a fc _ q _e — a ję e (fc + l/2 )-jr i _ g — (M -l/2 )ir i 7rt(fc+i/2)_ 2i Obliczamy sumę residuów w górnej półpłaszczyźnie pomnożoną przez 2ni: 2iri ^ R e s ( / ;a fc ) = 7re i7r,/2 J ^ ( - e k- 0 —7rt\k . 7re - tn/ 2 1 + e~,rt fc=o Ostatecznie otrzymujemy funkcję charakterystyczną <?(i) = 1 cosh(i7r/2) cosh(i7r/2) Dodatek E Funkcja tworząca momenty (transformata Laplace’a) §E.l. Definicja i przykłady Zamieszczamy tu podstawowe informacje o funkcjach tworzących momenty, które stosuje się w wielu zagadnieniach praktycznych, szczególnie tam, gdzie występują nieujemne zmienne losowe. Przykłady takich zastosowań, m.in. do teorii odnowienia, teorii ryzyka, zagadnienia ruiny w złożonym procesie Poissona można znaleźć w [FELL], t. II, roz. XIII-XIV . My pokażemy dwa zastosowania teoretyczne: do dowodu centralnego twierdzenia granicznego (tw. 1 2 ) i do oszacowania szybkości zbieżności w mocnym prawie wielkich liczb (§ E.2). Jeśli X jest zmienną losową, a n x jej rozkładem prawdopodobieństwa, to definiujemy funkcję tworzącą momenty zmiennej losowej X (rozkładu n x ) jako / OO (1) e tsV x (d s ). ■OO Funkcja tworząca momenty jest określona dla tych t, dla których istnieje powyższa wartość oczekiwana (czyli całka po prawej stronie). Jeśli X przyjmuje wartości całkowite nieujemne, funkcja M x jest związana z opisaną w dodatku B funkcją tworzącą g x w następujący sposób: Jak kto woli, 9 x ( s ) = S sx = £ [(elogs)x ] = M x (logs), s 6 (0,1]. Funkcja tworząca momenty jest określona na przedziale zawierającym zero, który poza tym może być dowolny, jak pokazują przykłady 2 i 5. Jeśli przedział ten zawiera otoczenie zera o dodatniej długości, to funkcja M x wyznacza momenty zmiennej losowej X . Dokładniej, mamy Twierdzenie 1. Jeśli funkcja tworząca momenty M x ( t ) zmiennej losowej X jest określona dla t e (—tg, to), t0 > 0, to 375 Mx(t) = sx(et). Dodatek E. Funkcja tworząca momenty (transformata Laplace’a) 376 (i) Istnieją wszystkie momenty zmiennej losowej X , czyli £\X\k < oo dla k = 1, 2 ,.... °° f k c v t c (ii) M x ( t ) = Y , — JT\— > 1*1 < io’ fc=o (¿ii) m £ ] (0) = £ X k, k = 1,2, — D o w ó d , (i) Z nierówności Oczywiste oszacowanie: < es + e _t wynika, że £e^x l < 0 00 dla t < to. < i < i0, (2 ) fc= 0 gwarantuje teraz istnienie wszystkich momentów. (ii) Dzięki oszacowaniu (2) można zastosować twierdzenie Lebesgue’a o zbieżności monotonicznej: \fc= 0 ' / fc= 0 c < ‘ < ‘»- (3> W efekcie twierdzenie Lebesgue’a o zbieżności zmajoryzowanej pozwala na usprawiedliwienie poniższych przejść granicznych: ^ )= £ (\k=0 e ^ )/ = k=D E ^ , |i|<i0- (4) (iii) Wystarczy obliczyć pochodne szeregu potęgowego po prawej stronie (4). ■ P rzykład 2. Zmienna losowa o gęstości C e " ^ 1/a ma wszystkie momenty, ale jej funkcja tworząca momenty jest określona tylko w zerze. ■ Uwaga 3. Czasami w literaturze można się spotkać z nieco innym nazew­ nictwem, mianowicie funkcję tworzącą momenty nazywa się (dwustronną) transformatą Laplace’a. My nazwaliśmy transformatą Laplace’a (por. zad. 13.4.2) funkcję L(X) = £ e ~ x x , gdzie X > 0, A > 0. ■ U w aga 4. Twierdzenie Kaca (zad. 9.4.1), zawierające kryterium niezależ­ ności ograniczonych zmiennych losowych, da się nieco wzmocnić, a miano­ wicie: jeśli zmienne losowe X i Y mają funkcje tworzące momenty określone w pewnym otoczeniu zera, oraz £ X kY l = £ X k£ Y l dla k, l G N , to X i Y są niezależne. Dowód wymaga oczywistej adaptacji argumentu podanego w rozwiązaniu zadania. ■ § E.l. Definicja i przykłady 377 Przykład 5. Oto funkcje tworzące momenty dla kilku rozkładów. 1 . Rozkład A f (0,1): / OO i et e - * 2/ 2 = e*2/ 2, i 6 ( - 0 0 , 0 0 ), •oo V a stąd otrzymujemy hurtem parzyste momenty, bowiem J > ,2 = V ^ k ~ 0 I f i .') k = V fc! V' 2 '/ 1 ■3 ■... ■(2k — 1) 2fe (2*0! ' k =O v wobec tego £ X 2k = 1 ■3 •. .. •(2fc — 1) = (2fc — 1)!!. 2. Rozkład wykładniczy: /•oo \ J° 00 X~ ł t^ o X zatem O T * = 3. Rozkład Poissona: " * « > = E T T e" ‘ = E fc=0 fc=0 T T ' " = 0AI' ' " ‘ )- ‘ 6 < - 00' ” )• Stąd już nieco trudniej wyznaczać momenty. Wygodniej jest obliczyć bez­ pośrednio £ X ( X — 1) • ... •( X — k + 1). Za pomocą gęstości postaci cl[lj00 )a;- 2 , cl[loo)a;~2 e~a:!: oraz wykładniczych i normalnych można skonstruować przykłady funkcji tworzących określo­ nych w dowolnym przedziale (lewo-/prawostronnie domkniętym/otwartym) zawierającym zero. ■ Przy wykonywaniu działań na zmiennych losowych funkcje tworzące mo­ menty zachowują się analogicznie do funkcji charakterystycznych. Zachodzi równość M ax+b(t) = ebtM x {a t), a ,6 e R . Prawdziwe jest także podstawowe Twierdzenie 6 (O m nożeniu). Jeśli zmienne losowe X i Y są nieza­ leżne, a ich funkcje tworzące momenty M x i M y są określone w pewnym otoczeniu zera (—to,to), ¿o > O, to w tym samym otoczeniu zera istnieje funkcja tworząca momenty sumy, M x + y , oraz M x + y ( t ) = M x (t)M y (t), t 6 (—to, to), to > 0. 378 Dodatek E. Funkcja tworząca momenty (transformata Laplace’a) D o w ó d . Jeśli t £ (—to ,t0), to zmienna losowa eł(x + y ) = et x etY jest całkowalna jako iloczyn niezależnych i całkowalnych zmiennych losowych (uwaga c po tw. 5.8.15); z samego tw. 5.8.15 wynika, że M x + y ( t ) = £ e t(-x + Y ) = £ e tX £ e tY = M x (t)M y ( t). » Tw ierdzenie 7. Jeśli funkcje tworzące momenty zmiennych losowych X i Y są równe na przedziale (—to, to), to > 0, to X i Y mają ten sam rozkład. D o w ó d . Na mocy tw. 1 obie zmienne losowe mają te same momenty. W y­ każemy, że ich funkcje charakterystyczne są równe. Z tw. A .1.1 wynika, że Stąd gdzie prawa strona zmierza do zera zgodnie z (3). Ze wzoru na pochodne funkcji charakterystycznej (tw. 9.1.7) otrzymujemy: Tę samą równość spełnia tpy. Niech teraz t = 0. Wtedy <p^(0) = ik£ X k = ik£ Y k = ^y^(O) dla k = = 0 , 1 , 2 . . . , zatem obie funkcje charakterystyczne pokrywają się na prze­ dziale (—to, to). Powtarzając to rozumowanie z punktami startowymi t = ± t o /2 otrzymu­ jemy równość ipx — <Py n& przedziale (—|i0, fio), etc. — a więc wszędzie. Stąd X i Y muszą mieć ten sam rozkład. ■ U w aga 8 . W powyższym dowodzie nie odwoływaliśmy się do teorii funkcji analitycznych. Można jednak po prostu zauważyć, że funkcje M x ( z ) = £ e zX , M Y ( z ) = £ e zY są holomorficzne w pasie —i 0 < Re z < t 0 i są równe na odcinku ( —t o , t 0 ) , czyli na mocy tw. D.3.2 — wszędzie, co daje równość funkcji charaktery­ stycznych, bowiem M x ( i t ) = < p x ( t ) , t £ R. E .l. Definicja i przykłady 379 Uwaga 9. Jeśli rozkład prawdopodobieństwa fj, ma wszystkie momenty, a jego funkcja tworząca momenty istnieje w pewnym otoczeniu zera o do­ datniej długości, to nie istnieje inny rozkład prawdopodobieństwa o tych samych momentach (wynika to z (3) i powyższego twierdzenia). Mówi się wtedy, że rozkład jest wyznaczony przez swoje momenty. Podamy teraz przykład sytuacji przeciwnej — dwóch różnych rozkładów o tych sa­ mych momentach. Oznaczmy przez / gęstość rozkładu logarytmicznie-normalnego: Wtedy rO O / Kfc/(s)sin(27rlog3;) dx = 0, k = 0,1,2,..., Jo gdyż podstawienie log x = ,s + fc przekształca tę całkę do postaci i - ■.— ek \/27T r°° / e~ s ^ sin 27rsds, i -oo która jest równa zeru, jako że funkcja podcałkowa jest nieparzysta. W takim razie funkcje f ( x ) oraz /(x)[l-t-sin(27rloga:)] są parą różnych gęstości o tych samych momentach. Twierdzenie 10. Niech X , X i , X 2, . . . będzie ciągiem zmiennych losowych, których funkcje tworzące momenty, M x i M x k, k = 1 , 2 , . . . są określone na przedziale (—to, to), to > 0 - Jeśli M x n{ t ) ------- ►M x ( t ) dla t £ (—to, to), to X n X. Tl— *-00 D o wó d . Jędmość ciągu rozkładów zmiennych losowych X n można otrzy­ mać z wykładniczej nierówności Czebyszewa 5.7.6(c) i ze zbieżności ciągu funkcji tworzących momenty: P ( |X„| > a ) < £ \ / e ~ a t ------- > M x (t)e~at, n—► oo |i| < tQ. Dalsze rozumowanie przebiega tak, jak w dowodzie twierdzenia Levy’ego-Cramera o ciągłości — po wyborze podciągu zbieżnego według rozkładu dowodzimy, korzystając z poprzedniego twierdzenia o jednoznaczności, że rozkładem granicznym jest n x i że cały ciąg jest słabo zbieżny do tego rozkładu prawdopodobieństwa. ■ Uwaga 11. Przy założeniach tw. 10 nietrudno otrzymać zbieżność mo­ mentów: £ X k ------- >£ X k, k = 0,1, 2 , . . . . n—»oo 380 Dodatek E. Funkcja tworząca momenty (transformata Laplace’a) Istotnie, wynika to z kryterium z zad. 8.3.9, bowiem dla każdego k = a wyrażenie w nawiasie kwadratowym po prawej stronie jest ograniczone, ponieważ zawiera wyrazy ciągu zbieżnego. Odwrotnie, w zad. 8.3.8 udowodniliśmy, że jeśli rozkład X jest wyznaczony przez swoje momenty i zachodzi zbieżność momentów, to X n -5-» X . Dla­ tego też mówi się o dowodzie CTG metodą momentów. Udowodnimy teraz najprostszą wersję centralnego twierdzenia granicznego: Tw ierdzenie 12. Niech X , X i , X 2, ■. ■ będą niezależnymi zmiennymi loso­ wymi o tym samym rozkładzie, £ X = 0 , T>2X = 1, i niech M x { t ) będzie określona na przedziale I = ( —to, to) o dodatniej długości. Wtedy y/n JV(0 , 1 ). D o w ó d . Wystarczy udowodnić zbieżność funkcji tworzących momenty do funkcji e*2 / 2 co najmniej na przedziale I . Ze wzoru (4) otrzymujemy M x (t) = l + i + o ( t 2). Z twierdzenia o mnożeniu wynika, że funkcja tworząca momenty po lewej stronie jest określona co najmniej na przedziale (—y/n t0, \/nto), oraz: 71— »OO Zbieżność ma miejsce faktycznie dla każdego t € R . ■ Powyższy dowód stosuje się w szczególności do ograniczonych zmiennych Przypomina to co losawyck- Można otrzymać z niego dowód twierdzenia Lindeberga-Levy’ego prawda wyścigi 1 0 .2 . 1 metodą ucinania (której zastosowanie widzieliśmy w dowodzie mocw workach, nego prawa wielkich liczb). § E.2. Transformata Cramera. Oszacowanie szybkości zbieżności w mocnym prawie wielkich liczb Oszacowanie odchyleń od średniej w nierówności Bernsteina (7.4.2) zawdzię­ czamy temu, że funkcja tworząca momenty liczby sukcesów Sn w schemacie Bernoulliego istnieje w przedziale o dodatniej długości. Rozwiniemy tę ideę §E.2. Transformata Cramera. Szybkość zbieżności w MPWL 381 i otrzymamy nierówności maksymalne, dające oszacowanie szybkości zbież­ ności w prawie wielkich liczb. Załóżmy, że zmienna losowa X spełnia warunek Cramera: istnieje takie A > 0, że £exlx l < oo. Wtedy oczywiście jej funkcja tworząca momenty, M x i j est określona co najmniej na przedziale [—A, A]. Warunek Cramera jest równoważny z tym, że ogon rozkładu zmiennej loso­ wej X maleje wykładniczo: P(|X| > i) < e~ at dla pewnego a > 0 i wszyst­ kich t > 0 . Jest on spełniony przez wszystkie ograniczone zmienne losowe, a także przez zmienne losowe o rozkładach: geometrycznym, wykładniczym, Poissona i normalnym. Niech teraz A = {i £ R: M x (t) < oo}. Zbiór A zawiera otoczenie zera. Definiujemy funkcję i>{t) = log M x(t), t e A. (1) Funkcja ip jest wypukła (i ściśle wypukła, jeśli X nie jest z prawdopodo­ bieństwem 1 stała). Istotnie, dla 0 < a < 1 otrzymujemy ż nierówności Holdera z wykładnikami p = l /a i q = 1/(1 — a): ip(at + (1 — a)s) = log£ (eatx < log ( S e ^ - ^ Y = a ■log£etx + (1 ^ e(i-» )* ^ -(i/(i-o ))y ~ 0 = — a) •log£esJli = aip(t) + (1 — a)tp(s). Mamy ^(0) = 0, ip'(0) = £ X = m,ip"(t) > 0, jako że funkcja 4> Jest wypukła i dwukrotnie różniczkowalna. Przedłużymy tp na cały zbiór liczb rzeczywistych, kładąc ip(t) = oo dla t # A. Jesteśmy teraz gotowi do zdefiniowania transformaty Cramera: Definicja 1. Transformatą Cramera rozkładu ¡j,x zmiennej losowej X na­ zywamy funkcję H(a) = sup[ai — ip{t)], ie R gdzie funkcja ip została zdefiniowana równością ( 1 ). Funkcja H jest wypukła. Istotnie, niech A + /i = 1, t, s > H (\ a + fib) = sup[(Ao + /j,b)t — \ip(t) — 0 . Wtedy < ie R < Asup[oi — ip{ij] + /isup[6 i — ip(t)] = AH (a) + [iH (b ). ten ter 382 Dodatek E. Funkcja tworząca momenty (transformata Laplace’a) Ponadto H jest nieujemna, bowiem ^(0) = 0, i wreszcie H (a) = 0 wtedy i tylko wtedy, gdy a = ^>'(0 ) = m. Istotnie, 0) = 0, z wypukłości wynika, że prosta o równaniu y = ax przecina wykres funkcji w zerze i jeszcze jednym punkcie. Dla a ^ m zawsze istnieje takie x , ż e a x > '4>{x), a jeśli a = V,,(0 ), to prosta y = ax jest styczna do wykresu ip w punkcie 0, więc leży cała pod wykresem ip i H (m ) = 0. a > ^'(O) =4* H {a) = sup[ai — il>(t)\, t> o a < ip'(0 ) ==> H (a) = supfai — ip(t)\, t< o Oszacujemy teraz szybkość zbieżności w MPWL. Tw ierdzenie 2. Niech X , X \ , X 2, ■■■będą niezależnymi zmiennymi loso­ wymi o tym samym rozkładzie, spełniającymi warunek Cramerą. Wtedy P ( sup \k^n Sk gdzie m = £ X , a H jest transformatą Cramera zmiennej łosowej X . D o w ó d . Niech a , A spełniają, warunek Aa — logM(A) > 0. (2 ) Ustalmy n > 1. Niech r = inf{fc > n :S k /k > a} (zwróćmy uwagę, że r = oo, gdy zawsze S k /k < a). Mamy P ^sup ^ > a^j = P > a, r < oo^ = P (e XSr > eAaT, r < oo) = = P(eA'S,’'-TloSM(A) > e*ar—rlogM(A)^T < ^ ^ < < p ( e * S T- r l o g M ( A ) > en (\ a -log M (\ ))i T < ^ < P(supeASfc- fclogAi(A) > en(Xa-l°gmX))^T < k^n Oznaczmy Z k = eA,Sfc-fclogM(A) i niech Tk — < r (X i,. . . ,X k )- Wtedy ciąg {Z k,T k) jest nieujemnym martyngałem, co nietrudno sprawdzić. Ponieważ Z k = Z k- l e ^ - k s M W , mamy £ {Zk |T k- 1) = Zk-1£ (eA^ - logM(A) | = = Zfc_ 1 - M ( A ) - e - logMW = Z fc_ 1. Zk_ l£ ^ x k-iosM{x) = § E. 2. Transformata Cramera. Szybkość zbieżności w MPWL 383 Ponadto £ Z k = 1, k = 1 , 2 , __ Z nierówności maksymalnej 11.4.1 otrzymujemy, przy spełnieniu (2), P ( sup — > a') < P ( supe.XSk~ kl° s M(A) > en(Aa-iogM(A)A < \k^n k \k^n J J sg e-n(Ao-logAf(A)) Jeśli a > m , funkcja / (A) = Aa — logM(A) spełnia następujące warunki: /(O) = 0 , /'( 0 ) = a — m > 0, zatem istnieje takie A > 0, że spełniony jest warunek (2). Zatem dla a > m mamy P (sup — > a ) < e~nsupx>0 [Aa—logAi(A)] = e~nff(a) \fc>n k ) Zupełnie analogicznie dla a < m mamy P ( inf — < a^l < g—n.supA<0 [Aa—log M(A)] _ k J e -n H (a ) Ostatecznie P ( sup Sk > £ j) < P I( sup S ^ > r n 4 - £ ) - ( - P ( i n f ^ < m —£j < \k>n k I \k^n k 1 /' \k \fc^n < 2Q-nmin(H(m+ S)>H(7n- e)) P rzykład 3. Jeśli X , X i , X 2 , . . . jest ciągiem Bernoulliego, to M x ( t ) — = cosht i nietrudno obliczyć, że funkcja a t —log coshi przyjmuje maksimum dla t = ar tgha = | log o ile |a| < 1 , a jeśli |a| > 1 , jej kresem górnym jest oo. W takim razie H (a) = / sK 1 + ®) I, oo + a) + (1 - “ ) k g i 1 “ «)] dla M < w p.p. 1 Rozwijając logarytm w szereg potęgowy widzimy, że H (a) > |a2. Wobec tego P sup \k>n Dodatek F Teoria optymalnego stopowania §F.l. Rozkład Dooba nadmartyngalów W tym paragrafie będziemy rozpatrywać nadmartyngały, podmartyngały i procesy (ciągi) prognozowalne względem ustalonej filtracji {T n)nL0. Twierdzenie 1 (O rozkładzie D o o b a ). Każdy nadmartyngał (Un)%L0 ma jednoznaczne z dokładnością do równości p.n. przedstawienie (1) Un — M n — gdzie (M n ) ^ =0 jest martyngałem, (A n)^=0 — niemalejącym ciągiem pro- gnozowalnym, A 0 = 0. D o w ó d . Najpierw zdefiniujemy proces (A n). Niech Ao = 0 i dla n > 1: n—1 A n = J 2 [ U k - £ ( U k+ il^fc)]. fc=o Oczywiście zmienna losowa A n jest T n- \ -mierzalna. Proces (A n) jest niemalejący, bowiem wyrazy sumy po prawej stronie są nieujemne, jako że (U«) jest nadmartyngałem. Teraz nie mamy już wyboru — M 0 = Uq 'i M n = Un + A n. Jest oczywiste, że zmienna losowa M n jest ^„-mierzalna, ponadto Mn = ^n + 1 Un “i“ A n + 1 An Un-)-X £ (Un+I 1 n) , i po wzięciu warunkowej wartości oczekiwanej obu stron widać, że (M „ ) jest martyngałem: £ (M n+ i — M n |J-n) = £ ( Un+i — £ (Un+ 1 1J-n) |Fn) = 0- 384 §F.l. Rozkład Dooba nadmartyngaiów 385 Pozostała do wykazania jednoznaczność. Niech (M^), ( A 'n) stanowią inną parę procesów spełniających warunki z tw. 1. Wtedy M n - A n = M'n - A 'n, n > 0, i gdy X n = M n - M'n, to X n = M n - M'n = A n - A'n, n > 0. Z pierwszej równości wynika, że proces {X n) jest martyngałem, z drugiej — że jest prognozowalny, co daje kolejno równości poniżej: X n = £ ( X n+11T n) = X „ + i, n > 0, a ponieważ X o = 0, to X n = 0 dla n = 1 , 2 , . . . , czyli M „ = M'n oraz A n = A'n . m Niech teraz (Un)%L0 będzie podmartyngałem. Z poprzedniego twierdzenia zastosowanego do nadmartyngalu (—Un)%L.0 otrzymujemy natychmiast W n iosek 2. Każdy podmartyngał ([/n)^L0 ma dokładnie jedno przedsta­ wienie Un = M n + A n, gdzie (M n)^L0 jest martyngałem, zaś (^4n ) ^ =0 niemalejącym ciągiem prognozowalnym, takim, że A q = 0. Uwaga 3. Dowolny ciąg ( X n) adaptowanych i całkowalnych zmiennych lo­ sowych można przedstawić w postaci X n = M n 4 - A n, gdzie (M n) jest mar­ tyngałem, zaś (j4n) — procesem prognozowalnym, niekoniecznie rosnącym. Widać to z dowodu tw. 1. Dopiero założenie, że (X n) jest nadmartyngałem lub podmartyngałem, zapewnia monotoniczność procesu ( A „ ) . Uwaga 4. Proces (A n)%L0 jest niemalejący, więc ma granicę w szerszym sensie, czyli istnieje A ^ = linin-,«, A n. Jest to na ogól niewłaściwa zmienna losowa, bowiem może przyjmować wartość oo. Proces (yłn)^L0 nazywamy kompensatorem procesu (Un)^L0, gdyż kom­ pensuje on (Un)^L0 do martyngału. Rozkład Dooba odgrywa szczególną rolę przy badaniu martyngałów ( X n) całkowalnych z kwadratem (takich, że £X% < oo, n = 0 , 1 , 2 , . . . ) . Wtedy ciąg ( X 2) jest podmartyngałem i na mocy wniosku 2 ma rozkład Dooba: = M n + A n. Niemalejący proces A oznaczamy przez (X ) i nazywamy potocznie nawiasem skośnym martyngału X . Wiele własności martyngału (X n) da się zbadać za pomocą nawiasu skośnego (X ), co zobaczymy na kilku przykładach. Zaczniemy od najprostszych: Stwierdzenie 5. Niech ( X n)%L0 będzie martyngałem. Wtedy (a) Jeśłi dla pewnego p > 1 w rozkładzie Dooba \Xn \p — M „ + A n mamy EAoo < oo, to ciąg (X n) jest zbieżny w LP. Dodatek F. Teoria optymalnego stopowania 386 (ib) (X n) jest ograniczony w L 2 ( czyli supn X gdy £ ( X ) (X < oo. 2 < oo) wtedy i tylko wtedy, D o w ó d , (a) wynika z tw. 11.5.6, bowiem £\X n\* = £ M n + £ A n = £ M 0 + £ A n, i dalej: su p £ IX n lp = £ M 0 + s u p £ A n < £ M 0 + E A ^ < oo. Ti n (6 ). Konieczność: wynika z (a) dla p = 2. Dostateczność: £{X )o o = su p£ ( X ) n = s u p f (X% - X q ) < oo. ■ n n Otrzymamy teraz pewną pożyteczną reprezentację nawiasu skośnego. Po­ nieważ {X n) jest martyngałem, to dla k > l £ ( ( X k - X tf |Ti) = £ { X l - 2 X kX t + X f |T i) = = 5 ( X 2 |T t) - 2 X t£ ( X k |f i ) + X ? = = £ [ X l - X 2 1T ) = = £ ( M k + ( X ) k - M l - ( X ) l \ T l) = = £ « X ) k - ( X ) l \Tl) . Oznaczając A X k = X k — X k- i i kładąc l = k — 1 otrzymujemy stąd £ ( ( A X kf |T k- t) = <X ) k - a to daje {x )n = j r £ ( ( a ^ ) 2!^ --!). (2 ) j~ i P rzykład £ 6 T n 6 . Jeśli , £2 , ■■•jest ciągiem niezależnych zmiennych losowych, = 0. £ & < OO, i = l , 2 , . . . , X n = h + . . . + ę n, X o = 0, To = { 0 , 0 } , = <t(£i,...,( .n ) dla n > 1, to ciąg ( X 2, T n ) % L o jest podmartyngałem i <^„ = ¿ £ ( $ j= i 1 ^ - 0 = ¿ 2^ , j'= i zatem nawias skośny jest procesem deterministycznym (nielosowym). ■ Wiadomo (tw. 7.3.2), że zbieżność szeregu pociąga za sobą zbieżność p.n. szeregu Jeśli ponadto |^| < C p.n. dla i = 1 , 2, . . . , to zachodzi również wynikanie odwrotne. Ostatnią uwagę można uogólnić (patrz tw. 8 ). Przedtem udowodnimy §F-1. Rozkład Dooba nadmartyngałów 387 Twierdzenie 7. Niech (X n) będzie nieujemnym podmartyngałem, X q = 0, i niech X n = M n + A n będzie jego rozkładem Dooba. Wtedy {Aoo < oo} C {p f „ ) zbieżny p.n.} c {su pX „ < oo}. n „Zbieżny p.n.” oznacza dokładniej „zbieżny p.n. do granicy skończonej” . Taką umowę przyjmujemy też dalej. D o w ó d . Prawa inkluzja jest oczywista, dowodzimy łewą. Niech a > 0 i ra = inf{n > 1 : A n+i > a}. Jest to moment stopu (który może przyjmować wartość oo, bowiem inf 0 = oo), co wynika z prognozowalności A . Z twierdzenia Dooba 11.2.8 zastosowanego do martyngału M (Mo = definicji ra wynika, że S X n/\Ta 0) iz S M nATa “f" SAnhTa -- 0 “i“ £ AfiATa ^ Niech Y £ = X nATa. Jest to na mocy twierdzenia Dooba (nieujemny) podmartyngał, ponadto sup„ E Y £ < a < oo, więc na mocy twierdzenia o zbież­ ności podmartyngałów (Y “) jest zbieżny p.n. Dlatego { A tc < a} = { t 0 = oo} C { ( X„ ) zbieżny p.n.}, ponieważ na zbiorze { ra = oo} jest X n = X nAoo = Y £. Stąd OO OO { A ao < oo} = ( J {A «, < a} = ( J {ra = oo} C { ( X n) zbieżny p.n.}, a=l a=l co kończy dowód. ■ Twierdzenie 8 . Niech (X n) będzie martyngałem całkowalnym z kwadra­ tem. Wtedy (a) { { X ) co < oo} C {(X „ ) zbieżny p.n.}. (b) Jeśli ponadto (X n) ma przyrosty wspólnie ograniczone, tj. |AXn|< K p.n. dla n = 1,2 , . . to {X ) 00(ui) < oo p.n. na zbiorze { ( X n) zbieżny p.n.}. D o w ó d . (a). Proces ( X 2) jest nieujemnym podmartyngałem, więc z tw. 7 wynika, że {{X)oo < oo} C { { X l ) zbieżny p.n.}. Proces ( X n+ 1 ) 2 jest także nieujemnym podmartyngałem i (X + l ) n = ( X ) n (por. (2)). Dlatego {POoo < oo} C { ( X 2) zbieżny p.n.} n { ( ( X n + l ) 2) zbieżny p.n.} = = {( X n) zbieżny p.n.}. 388 Dodatek F. Teoria optymalnego stopowania (b). Zdefiniujemy moment stopu 7 C= inf{n: \Xn\ > c}. Wtedy £ [X 2 nMc - { X ) nM c) = 0. Ponieważ < le n ili + - * £ ■ ll < C + K , to £ { X U l c = £ X ^ c < ( c + K ) 2. (3) Gdyby teraz P ( ( X ) oa = oo,supn |Xn| < oo) > 0, to istniałaby taka stała c > 0 , że P { j c = oo, (X)oo — oo) > 0 , a to stoi w sprzeczności z (3). ■ W n io sek 9. Jeśli X n = + . . . + £n, £n > 0, ££„, < oo dla n = 1, 2, . . a ponadto ciąg (£n) jest adaptowany do filtracji (T n), to < oo^ C { ( X n) zbieżny p.n.}. D o w ó d . Wystarczy zastosować tw. 7 do nieujemnego podmartyngału ( X n) i zauważyć, że (patrz dowód tw. 1 ): 71— 1 An = ' £ , £ ( & + ! I * * ) - " *=0 U w aga 10. Wniosek 9 jest warunkową wersją pierwszej części lematu Borela-Cantelliego. Żeby to zobaczyć, wystarczy wziąć = 1 b „ , gdzie (B n) jest ciągiem zdarzeń. § F.2. Zagadnienie optymalnego stopowania Przedstawimy zagadnienie optymalnego stopowania w najprostszej sytu­ acji. W pewnej grze w kolejnych chwilach t = 0 , 1 , 2 , . . . , T wypłaca się kwotę Z t , która jest nieujemną wielkością losową. Gracz może w każdej chwili t wycofać się z gry, inkasując kwotę Z t , może też odrzucić tę propo­ zycję i czekać na lepszy kąsek. Decyzję podejmuje na podstawie dotychcza­ sowego przebiegu gry. Jaką strategię powinien przyjąć gracz, by zoptymalizować swoją wypłatę? Jeśli przez (J~t) oznaczymy cr-ciało zdarzeń, które możemy zaobserwować do chwili t, to ciąg (Jrt)t^T jest filtracją, a proces (Z t)t^T jest adaptowany do tej filtracji. Strategia, czyli moment wycofania się z gry, jest zmienną losową t , przy czym { r — t} G Tt, bowiem zdarzenie to powinno zależeć tylko od obserwacji procesu (Zt) do chwili t. Krótko mówiąc, r powinna być momentem stopu względem filtracji {Tt)\ odwrotnie, każdy taki moment stopu jest dającą się zrealizować strategią. § F.2. Zagadnienie optymalnego stopowania 389 Podsumowując: Z q, Z i , Z2, . . . , Z t jest ciągiem kolejnych wypłat w pewnej grze, w chwilach 0, 1, 2,... T. Zakładamy, że ciąg (Z t)t^ r jest adaptowany do pewnej filtracji ( t y t ^ T , przy czym Ponadto zakładamy, że Z t > 0 i £ Z t < oo dla t — 0 , 1 , 2 , . . . , T. Sprecyzujemy jeszcze cel gracza: chce on wycofać się z gry w takiej chwili, by jego średnia wypłata była jak największa. Stąd następująca definicja. Definicja 1. M oment stopu v nazywamy optymalnym dla ciągu (Z t)t^T, gdy £ Z v = su p £ Z r , gdzie 0 jest zbiorem momentów stopu o wartościach w zbiorze { 0 , 1 , . . . , T } . Naszym celem jest podanie reguł pozwalających znajdować momenty opty­ malne. Wprowadzimy pomocniczy proces — obwiednię Snelła (Ut) ciągu zdefiniowaną w następujący sposób: Ut = max(Z t , £ (Ut+ 1 1F t)), t < T - 1, UT = ZT . Z definicji widać, że Zt < Ut dla O < i < T , czyli (Ut) dominuje (Z t). Stwierdzenie 2 . Obwiednia Snella (Ut) jest nadmartyngalem. Jest to naj­ mniejszy nadmartyngal dominujący wyjściowy ciąg (Z t), czyli gdy ( X t) jest nadmartyngalem i X t > Zt dla O < t < T , to również X t > Ut dla O< t < T . D o w ó d . Oczywiście Ut > Zt , O < t < T . Sprawdzimy, że (Ut) jest nadmartyngałem. Istotnie, mamy Ut- i = max (Z t- i , £ ( U t \F t- i ) ) > £ { U t \T t- i ) • Pozostaje wykazać, że (Ut) jest najmniejszym nadmartyngalem dominującym (Z t). Niech zatem (It) będzie innym nadmartyngalem o tej własności. Wtedy I t > Z t = Ut , a gdy I t > Ut , to wobec tego It - 1 > max(Zt_ i , £ (Ut |T t- i ) ) = Ut- u gdzie równość wynika z definicji U t - 1 Indukcja wsteczna pokazuje teraz, że dla każdego t G { 1 , . . . T } zachodzi nierówność It > Ut, więc (Ut) jest najmniejszym nadmartyngalem dominu­ jącym (Z t). m Dodatek F. Teoria optymalnego stopowania 390 Tw ierdzenie 3. = min{i > 0: Ut = Z t} jest optymalnym momentem vq stopu, czyli U0 = £ Z vo = sup £ Z r . t£© D o w ó d . Zdarzenie {vę, > j } = {^o < j ~ 1}/ € T j - i , oraz ~ u? -i) I ^ - i ) = 5 £ - £ y , |^ - i ) ) |^ _ i ) = = l {vo>j}£ m - £ (Uj I ^ _ 0 ) I = 0, tak więc ciąg o wyrazach t u T° = c/tA,„ = u 0 + Y , h m i ( U ? - U P . J j =i jest martyngałem. Ponieważ moment stopu vq < T , więc U0 = U%° = £ U ? = £U Uo = < f ^ 0. Jeśli teraz weźmiemy dowolny moment stopu v e 9 , to ciąg (C/„) jest nadmartyngałem i i/o ^ £ U V ^ £ Z V. ■ Wbrew pozorom, metodę otrzymywania optymalnego momentu stopu za po­ mocą obwiedni Snella można postarać się zrozumieć intuicyjnie. W tym celu rozpatrzmy (kompletnie bezsensowną dla obu stron) grę, w której wypłaty są nielosowe: zmienne losowe Zt są stałymi zt. Wtedy obwiednia Snella jest naj­ mniejszym ciągiem nierosnącym (ut) dominującym ciąg (zt), a optymalny mo­ ment stopu z twierdzenia 3 jest takim (nielosowym) wskaźnikiem v , dla którego uo = z„ = maxt^T zt ■ Podamy teraz charakteryzację momentów optymalnych. Widać z niej, że jest minimalnym momentem optymalnym. uq Tw ierdzenie 4. M om ent stopu v jest optymalny dla ciągu (Z t) wtedy i tylko wtedy, gdy spełnione są dwa warunki: (i) Z v = Uv ; (ii) ciąg (U t)tś,T j est martyngałem. D o w ó d . =>- Jeśli v jest optymalny, to £ Z „ = TJq, a ponieważ ('JJt)t^T jes* nadmartyngałem i U dominuje Z , to §F.2. Zagadnienie optymalnego stopowania 391 czyli £ Uv = £ Z U, co daje Z v — Uv (z dominacji wiemy już, że Zv < Uu). Udowodniliśmy (¿). Żeby udowodnić (ii), skorzystamy z tego, że (U%)t^T Jest nadmartyngałem. Mamy kolejno UvM > £ ( £ W \ T t) = £ (Uv |T t) , (1) i £ U V = Uq ^ £ U vm ¿2 £ U V, stąd £ U vM = £U v = E (£ {fJ v \F t)), co razem z (1 ) daje UuAt = £ (Uv |T t) , więc ciąg (UuM)t^T jest martyngałem, co kończy dowód (ii). <= Z (n) i (i) mamy kolejno I/ 0 = £U „ = £ Z V. Dla dowolnego momentu stopu r G 0 ciąg (U ^)n jest nadmartyngałem, więc Uq ¿z £U r ¿z £ Z t \ ostatnia nierówność wynika z tego, że U dominuje Z . Zatem £ Z V = Uq = sup £ Z T. m r€© P rzykład 5. Na pewien egzamin, do którego przystępuje n studentów, przygotowano n zestawów pytań. Wchodzący losuje jeden zestaw, który nie jest już wykorzystywany powtórnie. Paweł nauczył się odpowiedzi na k ze­ stawów i teraz obserwuje, które zestawy już się pojawiły, by zdecydować, kiedy wejść na egzamin. Jaką powinien wybrać strategię, by zmaksymali­ zować średnią szansę zdania egzaminu? Zdarzeniami elementarnymi są ciągi zero-jedynkowe ui = ( a i , . . . , an), gdzie przy czym a, = 1, gdy Paweł zna odpowiedź na ¿-te pytanie. Zdarzenia elementarne są jednakowo prawdopodobne. Niech Xi(u>) = a*, i = 1 , 2 , . . . n. Obserwując egzamin do chwili l Paweł zna X i , X 2 , •■-, X i i na podstawie tej wiedzy decyduje, czy w następnej chwili ma się wycofać — czyli zakończyć grę wchodząc na egzamin. Innymi słowy, chwila wyco­ fania się jest momentem stopu względem filtracji (Ti), gdzie T q = { 0 , 0 }, Ti = a ( X i , . . . , X t), i = 1 , 2 , . . . n. 127=1 ai ~ Jeśli przez Yt oznaczymy szansę zdania egzaminu przy wejściu w chwili l + 1, l = 0 , 1 , . . . , n — 1 , to zadanie Pawła sprowadzi się do optymalnego zastopowania ciągu Yq, Yi, . . . , Yn- j . Jest oczywiste, ż e Y 0 = k /n i Y k - E U ,** n —i Z= Dodatek F. Teoria optymalnego stopowania 392 Wyznaczymy obwiednię Snella ([/¿) ciągu (li). Jak zwykle, Un- i = l ^ - i , Un- 2 = max(yn_ 2, f (Yn- i |F n~ 2 ))- Zachodzi równość: * - ( X r + . . . + X n_i) £ (y„_11 .Fn_ 2) = £ n — (n — 1) = * - ( X x + . . . + X n_ 2) - £ ( X „ _ ! |J-n_ 2) . Żeby wyznaczyć ostatnie wyrażenie, obliczymy (nieco ogólniej) £ (X ;+ i |Ti) dla ¡ = 0, l , . . . n —1. Ponieważ cr-ciało Ti jest skończone, zatem generowane przez atomy, dla w € { X i = a j , . . . , X i = a j = A , oznaczając j = »i, mamy £ (X i+ l |Ti) (w) = - P (in {iw Jfł+idP = = i}) P (A ) (fc-to'+i)) _ k — j _ k — (X i + . . . + X i) _ ( r j) n -i ~ n - l ~ Stąd £ (y n_ ! |^ n_ 2) = k - (* 1 + W takim razie Un - 2 — Yn- . . . + X n_ 2) - k ( X l + - + X n - 2 ) = ^ 2- Można podejrzewać, że ciąg ( Yi ) jest martyngałem i w konsekwencji i/, = Yj dla i = 0 , . . . , n. Istotnie, n —l k - { X i + . . . n — (1 + = Y + X n -(l + n —i vn — (i + 1) 1 t ) 1) 1) F ,= 1 n — (i + 1) , li- Z twierdzenia Dooba wynika więc, że dla każdego momentu stopu r jest £ Y t = Y0 = n zatem każda reguła stopu jest jednakowo dobra. § F.3. Opcje amerykańskie Rozważmy rynek finansowy opisany w § 11.8. Istnieją na nim także opcje typu amerykańskiego, czyli takie, które można realizować w dowolnej chwili t € { 0 , 1 , . . . , T } . Oznaczmy przez Z t zysk z realizacji opcji w chwili t. § F.3. Opcje amerykańskie 393 Wtedy możemy utożsamić opcję z ciągiem (Zt)t^T nieujemnych zmiennych losowych, adaptowanym do filtracji Przykładami mogą być ame­ rykańskie opcje kupna (sprzedaży) z ceną wykonania K na akcje o cenie opisanej przez proces S: Z t = (St - K ) + (odp. Z t = ( K — S t)+ ). Podamy sposób wyceny takiej opcji. Ograniczymy się do opisanego w § 11.8 modelu Coxa-Rossa-Rubinsteina (CRR), choć idea przenosi się na przypa­ dek ogólny. Przedtem kilka słów o tym, ile powinna w chwili t kosztować wypłata X , która nastąpi w momencie T. W tw. 11.8.2 wykazaliśmy, że wypłata X jest replikowana za pomocą jednoznacznie określonego portfela, i gdy Vt jest procesem wartości tego portfela, to W t = Vt/ B t jest martyngałem względem miary P (zwanej miarą martyngałową), a W 0 = Vq jest ceną Bt = ^_ + r)t w chwili 0 za wypłatę X w chwili T . Zatem wypłata X jest w chwili t warta bowiem Wracamy teraz do kwestii wyceny opcji amerykańskich. W chwili T jej wartością jest U ? = Z t - W chwili T — 1 wystawca opcji musi mieć tyle, by zabezpieczyć wypłatę Z t - i w momencie T — 1 lub Z T w momencie T. Ta ostatnia wypłata jest w chwili T — 1 warta Tyle trzeba mieć, by zabezpieczyć wypłatę Z t opcji amerykańskiej w chwili T — 1 jest równa w chwili T . Dlatego cena Cenę opcji dla t = 1 , 2 , . . . , T definiujemy indukcyjnie wzorem Okazało się, że ciąg zdyskontowanych cen opcji amerykańskich (Ł/t*) jest obwiednią Snella ciągu Z*t zdyskontowanych wypłat, czyli (?7tł ) jest naj­ mniejszym nadmartyngałem dominującym (Z *). Wobec tego otrzymujemy jako wniosek z wyników § E.2 Dodatek F. Teoria optymalnego stopowania 394 Twierdzenie 1. Cena opcji amerykańskiej w chwili 0 jest równa t/ 0 = t/0* = su p £Z T *, a ponadto U0 = £ Z „ , gdzie v = min{i: Ut = Z t}• Jak wystawca opcji powinien zabezpieczyć wypłatę? Ponieważ U* jest nadmartyngałem, to ma rozkład Dooba U f — M t — A t. Istnieje taki portfel że Vr = V r($) = B t M t (tw. 11.8.2). Z kolei ciąg o wyrazach W t = Vt/ B t jest martyngałem, więc W t = £ (W T \Tt) = £ ( M t |F t) = M t . Zatem U* = W t — A t , tzn. Ut = Vt — A tB t, Dlatego wystawca opcji może zabezpieczyć się w sposób doskonały: gdy otrzyma zapłatę Uo = Vó($), to za pomocą portfela $ generuje bogactwo Vt = Vt(<I>), które w chwili t jest nie mniejsze niż Ut , zatem nie mniejsze niż Z t. Kiedy zrealizować opcję? A . Z punktu widzenia nabywcy nie ma sensu realizacja w chwili t, jeśli Ut > Z t , bo za walor wart Ut otrzymamy tylko Z t \ lepiej wtedy sprzedać opcję za Ut na rynku. Optymalny moment realizacji r spełnia równanie UT = Z T (ponieważ Ut > Z t i U t = Z t ) , więc U* = Z *. Nie ma też sensu realizacja opcji po chwili ^ = min{ j : A j + i ^ 0 }, bowiem sprzedaż w chwili v daje Uw — V^($) i gdy od tej chwili korzystamy z portfela to mamy więcej niż wartość opcji w chwilach v + 1, . . T , jako że Ut = Vt($) — A tB t i A t > 0 dla t > v. Zatem r < v, co pozwala stwierdzić, że U*T jest martyngałem: Uta n = ^ r A n A rAn — M TAn, ponieważ r A n < v i w efekcie j4TAn = 0. Podsumowując, najlepszy moment realizacji opcji jest optymalnym momen­ tem stopu dla ciągu zdyskontowanych wypłat (Z ?), bowiem spełnione są warunki (i) i (ii) twierdzenia F.2.4. B . Z punktu widzenia wystawcy opcji: wystawca korzysta z portfela $ , a jeśli nabywca opcji zrealizuje ją w momencie r innym niż optymalny, to U* > Z * lub A T > 0 (jeśli A t = 0, to (U*At) jest martyngałem; jeśli ponadto U* = Z * , to r jest momentem optymalnym). Zatem w innym, nieoptymalnym momencie r wystawca opcji ma dodatni zysk kt($) - zT= (uT+ a t b t ) - z r= b t (u * - z;) + a t b t > o, §F.3. Opcje amerykańskie 395 bo składniki sumy po prawej strome są nieujemne, i przynajmniej jeden z nich jest dodatni. Stwierdzenie 2. Niech ( Ct) będzie procesem wartości opcji amerykańskiej opisanej przez ciąg adaptowany (Zt)t^.T, a (ct) — opcji europejskiej, zdefi­ niowanej przez zmienną losową h = Z t ■ Wtedy C t ^ c t . Ponadto, jeśli ct > Zt dla każdego t e { 0 , 1 , . . . , T } , to ct = C t dla każdego t e { 0 , 1 , . . . , T}. Uwaga 3. Nierówności C t > ct należało się spodziewać, bowiem opcje amerykańskie dają posiadaczowi więcej praw niż europejskie. D o w ó d . Ponieważ Ct* jest nadmartyngałem względem miary martyngałowej P i C t = Z t = cr, to C ; > £ { C * T \j i ) = £ ( 4 | j r t) = ct*. Udowodniliśmy pierwszą część stwierdzenia. Jeśli teraz Ct > Z t dla każdego f, to c* > Z l , a ponieważ (c*) jest martyngałem, więc tym bardziej nad­ martyngałem, to Ct* < Cj, bowiem C£ jest najmniejszym nadmartyngałem dominującym (Z l). Stąd wynika równość Ct* = c*t . ■ Przykład 4. Ceny opcji kupna europejskiej i amerykańskiej są równe. Przypomnijmy, że B t — (1 + r)‘ , Z t = (St — K ) + . Oznaczmy przez ct i odp. Ct ceny europejskiej i odp. amerykańskiej opcji kupna z terminem T i ceną wykonania K . Wtedy ct = J ^ H ( S T -K r \ T t)> > £ (S t — K ( 1 + r )~ T \T t) = S*t - K ( 1 + r )~ T. Ostatnia równość wynika z faktu, że (Sf*) jest martyngałem. Stąd C t> S t - K { i + r ) -T + t> S t - K . Ponieważ ct > 0 , mamy ct > (St — K ) + = Z t i ze stw. 1 wynika, że ct = C t. • W innych przypadkach (np. opcji sprzedaży, opcji kupna na aktywa przy­ noszące dywidendy) równość nie zachodzi. Odpowiedzi i wskazówki 1. Opis doświadczenia losowego I.1. Przykłady. Aksjomaty teorii prawdopodobieństwa (A n B' n C ) u (4 'n B n C ) u (A' riB 'n b ) ( A n s n C ) u (A n B ‘ n C) u (A 1 n B n C ). 1. Odp. a) C). c) suma zdarzenia z poprzedniego punktu i A fi B fi C. 2. Wsk. Należy skorzystać z tw. 5, W7 i zasady indukcji, a dla przeliczalnie wielu składników także z tw. 7. 3. Wsk. Patrz tw. 5, W7. 4. Rozw. P (B ) = P (A U B) + P (A n B) - P(A) = ±, stąd P {B ') = f . P(A n B') = P(A \ A n B) = P ( B \ A ) = P( 8 \ A n B ) = 5. UB) \ A) = |. Rozw. P (A = P {B = P(A P(A) - P(A n F ) = g. 0. \ B) + P (B \ A) + P {A n B), stąd P(A \ B) = P (A ) = P {A \ B) + P (A n B) = §. 6 . Rozw. P(B) = P (A U B )+ P (A n B ) —P(A) = § + j ze wzoru de Morgana). P(A' fi B) = P (B) - P (A —5 = f i (skorzystaliśmy n B) = ±. 7. Rozw. P(A U B) = P(A) + P(B) = 1, poza tym A' U B = A' i A U B' — B '. 8. Rozw. 1 > P(BuC) = P (B )+ P (C )-P (B nC ) > 5P(A )-P(A nB ) > 4P(A). P(A U B llC ) ^ 6P(A). I ograniczenie dolne: 1 = P(fl) = 9. Rozw. Zdarzenie meszka pojawi się najpóźniej w ra-tym rzucie” składa się z n zdarzeń elementarnych i ma zerowe prawdopodobieństwo. Z drugiej strony, dopełnieniem zdarzenia „reszka pojawi się w skończoriej liczbie rzutów” jest zdarzenie jednoelementowe, które znów ma prawdopodobieństwo równe zeru, zatem szansa, że reszka pojawi się w skończonej liczbie rzutów wynosi 1 . Przeczy to przeliczalnej addytywności i zdrowemu rozsądkowi. I I. Rozw. Istotnie, jeśli x G U 4- u i x € U + w, to x = u% + u = « 2 + w, gdzie Ui,U 2 G U. Ale « 1 = U2 + (w —u) oznacza, że Ui ~ U2 , co stoi w sprzeczności z definicją zbioru U. 12. Rozw. Niech x € [0,1]. Rozpatrzmy klasę abstrakcji [*]. Wtedy Uf\[x] = {xo}, gdzie xo € [0,1]. Oznacza to, że xo — x jest liczbą wymierną Wj z przedziału [—1,1], czyli x € U + W j . 396 do rozdziału 1 397 13. Rozw. Z poprzedniego zadania CO [ - 1, 2 ] d U(C/ + ^ ) 3 [ 0 , 1 ] . 1=1 Wobec tego oo 3 ^ ^ n(U + Wi) ^ 1. i=l To jest jednak niemożliwe: zbiory U + Wi są rozłączne na mocy wyniku zada­ nia 11 i mają jednakowe miary, bowiem miara fi jest przesuwałna. Sprzecz­ ność kończy dowód. 1.2. Przeliczalny zbiór zdarzeń elementarnych 1. Odp. J2T=1 2~km = (2m - l ) " 1. 2. Rozw. Paradoks wynika z faktu, że nie istnieje rozkład prawdopodobieństwa, który przypisuje każdej liczbie naturalnej to samo prawdopodobieństwo (dla­ czego?). Natomiast gdyby ograniczyć zbiór liczb, z których maszyna losuje, do zbioru skończonego, to rozumowanie graczy prowadzące do paradoksu byłoby fałszywe. 3. Rozw. Niech B będzie zbiorem liczb parzystych, i niech C składa się z liczb parzystych z przedziałów postaci [2 2n, 2 2" +1], ra ^ 0 , i liczb nieparzystych z przedziałów postaci [22n+1 , 2 2n+2], n ^ 0. Wtedy 23, C ę.Q r-ate B U C ^ S - 1.3. Prawdopodobieństwo geometryczne 1. Odp. Wszystkie funkcje są równe zeru dla a ^ 0 i 1 dla o ^ 1. Natomiast na odcinku (0 , 1 ) mamy: f(a) = a 1 dla a $ 5 , dla a > |, h(a) = 2 a — a2, g(a) dla a $ |, dla a > |, k(a) = a2. 2. Odp. a) §, b) f. 3. Odp. g (jak otrzymać ten wynik bez obliczeń?). 4. Odp. i. 5. Rozw. Ponieważ jest wszystko jedno, w którym kwadracie znajdzie się środek monety, przyjmiemy, że fi = [0, a] x [0, a] i P(A) = Resztę wyjaśnia rysunek. 398 Odpowiedzi i wskazówki 7. Rozw. W bardziej abstrakcyjnym sformułowaniu zamiast podłogi występuje nieskończona płaszczyzna i zbiór równoległych prostych, przy czym odległość między sąsiednimi prostymi wynosi a. Żeby wiedzieć, czy igła przetnie któ­ rąkolwiek prostą, trzeba znać odległość d środka igły od najbliższej prostej u dołu ( 0 ^ d < a) i kąt a, jaki tworzy prosta z igłą ( 0 ^ a < w, ponieważ nie rozróżniamy końców igły). Przyjmiemy w takim razie Q = [0, n) x [0, a) i P(A) = Igła nie przecina prostej wtedy i tylko wtedy, gdy spełniony jest układ nie­ równości f d + - sin a < a | d — | sina > 0 . Odpowiedni podzbiór fi został na rysunku pomalowany na szaro; jest to zdarzenie przeciwne do podanego w zadaniu. Rysunek odpowiada sytuacji, gdy l a. Wtedy łatwo obliczyć pole obszaru, który nie został pomalowany na szaro: n 5 = 2 I Jo l - sin ada = 21. Zatem szukane prawdopodobieństwo wynosi *9. Rozw. Załóżmy, że wielokąt przecina jedną z prostych. Wtedy prostą prze­ cinają dokładnie dwa boki, co wynika z wypukłości i z faktu, że średnica wielokąta nie przekracza 1. Oznaczymy przez Aij zdarzenie, polegające na do rozdziału 2 399 tym, że prostą przecinają boki i i j , zaś przez ptj jego prawdopodobieństwo. Niech A = Ui^icjin Ponieważ zdarzenia Aij wykluczają się, mamy = ~ ^ 12 ^ I3 + •■■+ i'1’1) + l^i <j^n + ( p 2 3 +P 2 4 + - . - + P 2 n ) + - . . + P n - l , n . Zdarzenie Ai = JJ. Aij polega na tym, że ¿-ty bok przecina prostą. Jeśli jego długość oznaczymy przez k (k < 1 , ponieważ średnica wielokąta jest mniejsza od 1), to z poprzedniego zadania mamy P(Ai) = 2li/-K. Z drugiej strony P(Ai) = y~^n_, p^, gdzie przyjmujemy Pu = 0. Ponieważ Pij = Pji, to i—1 j=l i=l 1=1 Jak widać, prawdopodobieństwo zależy wyłącznie od obwodu S wielokąta, a nie od liczby boków i ich długości. Dlatego wynik przenosi się na wypukłe krzywe zamknięte: każda taka krzywa jest granicą wielokątów wypukłych. 10. Odp. 1/3. *11. Rozw. Niech I będzie ustalonym podprzedziałem o długości £. Wtedy P (I nie zawiera żadnego punktu) ^ {i P (I nie zawiera n pierwszych punktów) ^ (1 —e)n —>0, gdy n —> oo. Dalej należy rozważyć wszystkie przedziały o końcach wymier­ nych. 2. Klasyczna definicja prawdopodobieństwa 2.2. Typowe błędy 1. Odp. 22! ~ 1,124 •1021. Osobom o zacięciu sportowym proponujemy wyzna­ czenie wszystkich cyfr tej liczby przy użyciu np. wzoru Stirlinga (dodatek A) i kalkulatora z wyświetlaczem 1 0 -cyfrowym. 2. Odp. a) 2 •5 •8!/10! = 1/9; b) 3- 0 d P- 8 - 3! •7!/10!. (I) (?)/(!)- 4. Odp. b. 5. Odp. Łatwo obliczyć prawdopodobieństwo p, że będą same czerwone karty: p = (g6) / ( 562)- Szukane prawdopodobieństwo to 1 — 2p. 6 . Odp.413/ © . 7. Odp. a) p = (“ ) ( ? ) ( “ ) (“ ) / ( S ) ; b) 24p; c) 12 ■(“ ) ( » ) !2 ( » ) / ( $ ; 8 <ł) 4 - ( ? ) ’ ( ? ) / © • . Odp. . 9. Odp. Tyle, ile konfiguracji n nierozróżnialnych kul w 6 komórkach. W 2a widać teraz, że rachunki były niepotrzebne. Odpowiedzi i wskazówki 400 10 . Odp. Tyle, ile wszystkich podziałów a) 8 ; b) 4 pączków pomiędzy 4 osoby. 11. Odp. ( " + ; - 1)- 12. Odp. a) (£) ; b) (£). 13. Odp. Zdrowy rozsądek wskazuje, że próbka 100 ryb, zawierająca 8 ryb ozna­ kowanych, jest miniaturą całej populacji. Zatem ryb jest mniej więcej n = = 200 ■ ijp = 2500. Można udowodnić, że dla takiego n szansa otrzymania 8 oznakowanych ryb w próbce 1 0 0 ryb jest największa. 4 !-^ 14. Odp. a) ■ b) Należy obliczyć prawdopodobieństwa, że ustalony gracz (1 3 !)4 nie ma pików, że ustaleni dwaj (trzej) gracze nie mają pików, a następnie skorzystać ze wzoru włączeń i wyłączeń, c) Patrz b. 15. Odp. Wszystkich zdarzeń elementarnych jest (2S4) , a oto liczba zdarzeń sprzy­ jających dla poszczególnych konfiguracji: para — 6 •(4) ■43; dwie pary — (2) (2 ) 2 ' 16; straight — 2(45 - 4); trójka — 6 •(3 ) •(*) •42; fuli — kareta — 6 ■20 = 120, kolor — 4 •4 = 16, poker — 4 -2 = 8 . 6 •(3 ) •5 •(*). 16. Odp. (4g) / ( 4g) ■Żeby otrzymać ten wynik, wyobraźmy sobie, że kule z wylo­ sowanymi liczbami pomalowano na czarno, a reszta kul jest biała. Ustawiamy w rząd 43 białe kule i wybieramy 6 z 44 luk (42 pomiędzy nimi, dwie przed i za), w których umieszczamy czarne kule. 17. Odp. Zbiór n-elementowy można rozbić na k zbiorów, których liczba elemen­ tów wynosi n , T2 , ..., r/t, na rilr-2! •.. rk\ sposobów (patrz przykład 11). Konfigurację wymienioną w zadaniu można otrzymać na 10! 7! 2!6!l!l! ' 3!2!1!1! sposobów. Stosujemy tu wzór z przykładu 11 dwukrotnie: po raz pierwszy, dzieląc piętra na cztery kategorie ze względu na liczbę pasażerów, i po raz drugi — dzieląc pasażerów pomiędzy piętra. Wszystkich zdarzeń elementar­ nych jest oczywiście 1 0 7. Konfiguracje podanego typu można bez trudu wypisać (jest ich 15). 18. Odp. W pierwszym przypadku prawdopodobieństwo wynosi 1 — ( 1 — g) 4 ¡a « 0,5177, w drugim — 1 — (1 — jg ) 24 ~ 0,4914. Obie liczby są wyrazami znanego ciągu, przybliżającego liczbę 1—e_ s . Warto się zastanowić, dlaczego de Mere mógł uważać oba prawdopodobieństwa za równe. 19. Odp. Prawdopodobieństwo w pierwszym przypadku jest równe 1 — / ~ 0,665, w drugim — 1 — [|u- + 12 • + 18 •fis + (*2 as as 0,619, w trzecim — 1 — [|rs + ) fra] ^ 0,5838. 20. Odp. Gdyby kostki zachowywały się jak obiekty nierozróżnialne, oba praw­ dopodobieństwa byłyby równe 6/56. Dla kostek rozróżnialnych Wystarczy im teoretyczna możliwość pomalowania? 401 do rozdziału 3 Obiekty makroskopowe w naturze są rozróżnialne. Kostki zachowują się tak, jakby były pomalowane na różne kolory. 21. Odp. 1— (1 —355 )", gdzie n — liczba osób. Prawdopodobieństwo to przekracza 5 dla n ^ 253. 22. Odp. Szanse co najmniej jednej koincydencji, czyli 1 - po, można wyznaczyć ze wzoru włączeń i wyłączeń. Dalej, obliczanie pk można sprowadzić do obli­ czania po- Ostatecznie pfc = ^ [l —1 + 55 —. . . ± ^ ¿ 551] i limn^oc,Pfc = ii e - 1 • 23. Odp. a) 4 •(l?) (369); b) niech pi oznacza szanse otrzymania 6 pików, a p2 — 6 pików i 6 trefli. Wtedy szukane prawdopodobieństwo jest równe 4pi - 6 p2 na mocy wzoru włączeń i wyłączeń. 24. Odp. Wszystkich rozmieszczeń jest (j?) •6 !; wolny pokój dwuosobowy można otrzymać na 7 •6 ! sposobów, a trzyosobowy na 6 ! sposobów. 25. Odp. (l+ x )n = Efc=o (fc)®*, zatem po zróżniczkowaniu mamy n (l+ x ) " _ 1 = = X ^ = 1 k(£)xk~ l. Jeśli n > 1, to wzór ma sens dla x = —1 i jest to żądana tożsamość. 26. Odp. Zastanowić się, ile komisji z przewodniczącym (i ew. zastępcą) można wybrać spośród n osób. W (1) otrzymujemy n2n_1, w (2) n(n — l)2n~2. 27. Odp. (2^ ) . Tyle samo jest podziałów zbioru n kul białych i n kul czerwonych na dwie równe części. 3. Prawdopodobieństwo warunkowe 3.1. Definicja i przykłady 2. Odp. 1/2. 3. Odp. Trzeba pokazać, że P (A \ D )> P (A ), P(B\D) > P (B ), P(A n B\D) < P (A n B). Przykładem takiej sytuacji może być doświadczenie polegające na wycią­ gnięciu jednej karty z talii 52 kart. Niech zdarzenie A polega na wyciągnięciu pika lub kiera, zdarzenie B — trefla lub kiera, natomiast zdarzeniu D sprzyja wyciągnięcie asa, lub króla kier, lub trefla nie będącego asem, lub pika nie będącego asem. 5. Odp. Niech p oznacza prawdopodobieństwo nadania chłopcu drugiego imienia Franek. Wtedy szukane prawdopodobieństwo wynosi Zauważmy, że dla p = 1 otrzymujemy 1/3, czyli odpowiedź z przykładu 3. 6 . Odp. a $ 1/2. 7. Odp. a) 3/11, b) 5/13, c) 3/7. 8 . Odp. P(A\B) = P(A\C) = 9. Odp. ( - ) / ( - ) . 10. O d p . a ) © ( - ) / ( S ) , b ) a / ( f 3). P{A\D) = Odpowiedzi i wskazówki 402 11. Odp. a) ( « ) / ( ( « ) - ( « ) ) = ( « ) / ( « ) ; b) ( « ) / ( ( « ) - Q ) ; Schemat jest wszędzie ten sam: w liczniku mamy ilość układów bez asa, w mianowniku wykluczamy układy a) z asem pik; b) z dwoma czarnymi asami; c) z czterema asami. c) ( f ,) /( ( S ) - (?))• 12. o d p . i - 3 [ ( S ) / ( ” ) - G S ) ( S ) / ( ! S ) ( ? S ) l - 13. Rozw. Źle konstruuje model, wybierając zdarzenia elementarne. Nie bierze pod uwagę wariantów odpowiedzi strażnika. Strażnik mówi, że zostaje B z prawdopodobieństwem 1, gdy zostają A i B, a z prawdopodobieństwem 1/2, gdy zostają B i C. Analogicznie, strażnik mówi, że zostaje C z praw­ dopodobieństwem 1, gdy zostają A i C, a z prawdopodobieństwem 1/2, gdy zostają B i C. Stąd prawdopodobieństwo warunkowe, że wyjdzie A, gdy zna odpowiedź strażnika, jest równe a nie 1/2, jak sądził A (skorzystaliśmy z definicji prawdopodobieństwa wa­ runkowego i ze wzoru na prawdopodobieństwo całkowite). Tego należało się spodziewać, gdyż informacja strażnika z punktu widzenia A nic nie wnosi. Wiadomo, że co najmniej jeden z więźniów B i C zostaje. Warto zastanowić się nad uogólnieniem tego zadania: strażnik może loso­ wać odpowiedzi z prawdopodobieństwami różnymi od 1 / 2 albo w ogóle nie losować, tylko np. wybierać alfabetycznie1. 3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa x x. (1—x ) _ dx -fi ---------------------. Bayes próbował udowodnić, że są duże szanse na J x m ( l - x ) n ~ m dx to, że p jest bliskie m /n i podał metodę obliczania prawdopodobieństwa, że ' p e [a, b] przy znanej liczbie sukcesów i porażek. 2. Ortp. 0,76. 3. Odp. 7/15. 4. Odp. 3/5. 5. Odp. 2k/(3n — k). 6 . Wsk. Patrz przykład 8 . Odp. 1/2. 7. Odp. Po wylosowaniu kuli białej należy losować z tej samej urny, po wyloso­ waniu czarnej — z drugiej urny. 8 . Odp. 4/15. 9. Odp. Lepiej posłuchać Pawła: prawdopodobieństwo, że poda dobrą odpo­ wiedź jest równe 5/8. 10. Odp. 2/3. 1 Obszerną dyskusję dylematu więźnia można znaleźć w: Jerzy Łukaszewicz, Problem Serbelloni, czyli o warunkowym prawdopodobieństwie ułaskawienia skazańca, W iadom o­ ści Matematyczne, X X IX .2 (1992), ss. 179—187. do rozdziału 4 403 XI. Odp. Wydaje się to być sprzeczne z intuicją, gdyż na mocy wzoru na praw­ dopodobieństwo całkowite P(A|B) jest średnią z P(A\Br\C) i P(A\Br\C'), a P(A\B') jest średnią z P(A\B' flC) i P(A\B' Ale odpowiednie wagi mogą być różne i w rezultacie (1) i (2) mogą zachodzić jednocześnie. Gdy zdarzenia B i C są niezależne, to paradoks nie może zajść. 12. Odp. Można to udowodnić indukcyjnie, lub wykorzystując symetrię zauwa­ żyć, że prawdopodobieństwo wyciągnięcia za ra-tym razem kuli czarnej, gdy nie znamy wyników poprzednich losowań, jest równe prawdopodobieństwu wyciągnięcia za pierwszym razem kuli czarnej. 1o O J . i a ’ „ _ Pk.n — \k) ■ c(c+d)- .. (.c+d(k-l)).b(b+d)-....(b+(n-k-l)d)) _ ( o + !> ) ( c + 6 + < i ) - . . . - ( c + i > + ( n - l ) < i ) ~ Uwaga. Dla a f R definiujemy ( i ){n -k ) (~ (c + (,)/d ^ • . 14. Odp. Korzystając ze wzoru na prawdopodobieństwo całkowite należy napisać równania rekurencyjne na qa, a = 0, 1, 2, . . . , c. Gdy p = 1/2, to prawdopo­ dobieństwo qa ruiny gracza A jest równe qa = 1 —a/c, gdy p ^ 1/2 to „ qa gdzie q = 1 (g/p)a - (<j/pT 1- (g /p r ' —p. Zaskakujące są wyniki liczbowe np. gdy a = 500, c = 550, to dla p = 1/2, qa = 1/11, a dla p = 18/38 (ruletka amerykańska) q„ rs 0,99485. 15. Odp. Można skorzystać z poprzedniego zadania, należy jedynie uzasadnić przejście graniczne przy c —>oo — patrz przykład 11.2.16B. Niech q = 1 —p. Gdy p ^ q to prawdopodobieństwo P (W ) wygranej gracza A jest równe P (W ) = 1, a gdy p < q to P (W ) = (p/q)b np. w ruletce amerykańskiej (p = 18/38) prawdopodobieństwo wygrania 50 zł przez gracza A jest równe (0,9 ) 50 & 0,00515. 15a. Odp. 7/8. Jest to szczególny przypadek poprzedniego zadania. 16. Odp. 1/2“-1 . 17. O d p . ( l - p ) ^ ^ 18. Odp. Psychologowie (D. Kahneman, A. Tversky) stwierdzili, że typowa od­ powiedź oscyluje w pobliżu 80%; faktycznie szansa wynosi ok. 41%. 19. Odp. Około połowy respondentów twierdzi, że 95%. Mniej niż jedna piąta udzieliła prawidłowej odpowiedzi: 2 %. 4. Niezależność zdarzeń 4.1. Definicja i przykłady 3. Odp. a), b) nie. 4. Odp. 10p(l - p)9. 5. Odp. a) p", b) (1 —p)n, c) np(l —p)"-1 . 6 . Odp. 4/7, 2/7, 1/7. Odpowiedzi i wskazówki 404 7. Odp. Lepszy — słabszy — lepszy. 8 . Odp. ^ ( A r G )3( i )4 «0,0027. 9. Odp. Niech q = 1 - p. a) q2\q + q2 - ę3], b) (1 - p2)q{ 1 - p3). 10. Wsk. Dowód niewprost. Gdyby istniała taka dyskretna przestrzeń probabili­ styczna, to dla każdej u) £ ii mielibyśmy P(ui) = 0. 11. Odp. ^ - < ¡ - ^ , 1 = 0 , 1, . . . 12. Odp. a. 13. Odp. Jest to efekt losowania. Pojawienie się wypadku nie ma wpływu na prawdopodobieństwo, ale jest wskazówką, że wybrana losowo osoba ma więk­ szą skłonność do wypadków. 14. Odp. 0,0165. 4.2. Schemat Bernoulliego 1 . O4 , . a ) l - ( f ) 10 ,b) ( ^ ( ^ ( f ) 7. 2- Odp. (2: ) ± 3. Odp. a) b) |. 4. Odp. *5. Odp. Niech so = i niech Si i S2 będą sumami wyrazów po staci odpowiednio (3fc" J i (3fc+2) ’ ta^ ^ s° + Sl + 32 ~ 2"- Dalej, niech ei = cos ^ + i sin ^ oraz e2 = e\ = cos ^ + i sin 4^ będą zespolonymi pierwiastkami trzeciego stopnia z jedności. Wtedy 5o 4- eisi + C2S2 = (1 -j- e i)n so + e2Si + ei s2 = (1 + 62)". Stąd można wyznaczyć Jeśli n —» 0 0 , szansa otrzymania liczby sukcesów podzielnej przez k zmierza do l /k , co widać z powyższych wzorów dla k = 3,4. W ogólnym przypadku też tak będzie, jednak wyprowadzenie odpowiednich wzorów nie jest łatwe. 6 . Odp. 7. Odp. Gdyby kontynuowano grę, szansa wygranej gracza A wyniosłaby 405 do rozdziału 5 Rozsądnie byłoby podzielić stawkę proporcjonalnie do prawdopodobieństw wygranej, czyli w stosunku r : 1 —r, bowiem wtedy, jak pisano już w XVII wieku, „nadzieja moralna” , równa wysokości stawki pomnożonej przez szanse jej wygrania, jest dla obu graczy równa. Analiza takich zagadnień doprowa­ dziła do pojęcia wartości oczekiwanej (patrz rozdz. 5). 8- 0dP- i a + i d la P = 9 1 u p d la P i 1' Sd z ie 2 = ■ 9. Odp. 5/11. 4.3. Lemat Borela-Cantelliego 1. Odp. 0, chyba że P(A¡) = 0 dla i = 1,2,... — wtedy 1. *2. Odp. Szkic rozwiązania. Niech Bk = U,:1<¿2< n •■■n -''k*)- Wtedy Dfcli Bk = limsup An; Bk jest zstępującym ciągiem zdarzeń, więc OO P ( f ) B k) = * * k ~ 1 lim P {B k). k —* o o Niech Cn będzie zdaizeniem polegajacym na tym, że w ciągu prób Bernoulliego liczba reszek jest równa liczbie orłów po raz pierwszy w ri-tym kroku i niech C = Cn- Zatem wystarczy pokazać, że a) P (B k) = [P{C)]k dla k = 1,2,... b) P ( C W i ) = 0, P(C2n) = j í t r í 2" " 1) •5 *¿=r. więc P (C) = ^3“ =1 P(C„) = 1, bo P(C 2 n) jest równe współczynnikowi przy s 2n w rozwinięciu Taylora funkcji f(s) = 1 — (1 — s2) 5. (2 p )w 3. Odp. Jeśli p < i, to P(yln) < 2’lp", a gdy p ^ i korzystamy z lematu Borela-CanteUiego. 4 . odp. 0 = 1 - p (u r = i a " ) = korzystamy z lematu Borela-Cantelliego. to P(An) > 1 — e 2n a st^ = °°>1 5. Zmienne losowe 5.1. Definicja; rozkład zmiennej losowej 1. Rozw. Oto przykład. Niech B C R będzie zbiorem niemierzalnym. Niech X a(u>) — 1{„}(w) dla a g B = A. Wtedy supa£B X a = Ib Już w przedszkolu 2. Rozw. Niech X ma rozkład jednostajny na (0,1). Wystarczy wziąć ip(x) = wiedzą, że c-cia lo = 1a (x ), gdzie A jest mierzalny w sensie Lebesgue’a, ale nie jest zbiorem borelowskie jest borelowskim. mniejsze od klasy 3. Odp. => Rzut Tii'. R ” —>R, zdefiniowany zależnością ttí(x i , .. ■x n) = Xi, jest zbiorów mierzalnych funkcją borelowską. w sensie ■$= Wystarczy zauważyć, że zbiory postaci B i x . . . x B n, gdzie Bi € B( R), Lebesgue’a. generują # (R n). 4. Odp. a) a(X) = {{2 ,4 , 6 }, {1,3,5}, 0, «}. b) cr(X) — klasa pierścieni o środku w punkcie a. Odpowiedzi i wskazówki 406 5. Odp. P (X = fc) = p( 1 — p)k l , k = 1, 2, — P(K = k ) = p ( l - p ) * , fc = 0, 1, 2,. . .. 6 . Odp. P (X n > t) — (1 —A Ponieważ Y = X — 1 , to ------->e_xt, gdzie i ^ 0, A > 0. Stąd natych71—»OO miast wyznaczamy dystrybuantę graniczną. Jest to dystrybuanta rozkładu wykładniczego, którego gęstością jest f(t) = Ae-Xtl [0,oo)(i), A > 0. 7. Rozw. Niech A „ = { x : /u.({ar}) ^ A}. Wtedy # A „ ^ n i punktów skokowych. 8 A n jest zbiorem . Odp. Rozkład ¡i ma nieciągłą dystrybuantę, zatem nie może być ciągły. Jed­ nocześnie ma tylko jeden punkt skokowy (0 ), ale skok dystrybuanty w tym punkcie jest równy 1 / 2 , rozkład nie może być zatem dyskretny. 10. Rozw. => Wystarczy zauważyć, że jeśli rozkład fjt jest skupiony na zbiorze przeliczalnym S, to fj,j jest skupiony na 7r3-(S ), gdzie i oznacza rzut na j-tą współrzędną. <= Jeśli rozkład brzegowy fj,j jest skupiony na przeliczalnym zbiorze Sj, j = 1 , 2, . . . n, to x ... x S n) = 1 , czyli rozkład fj, jest skupiony na podzbiorze zbioru przeliczalnego. 11. Rozw. Skorzystać z twierdzenia Fubiniego. 12. Rozw. Niech fj. będzie miarą Lebesgue’a skoncentrowaną na przekątnej kwa­ dratu jednostkowego. 13. Rozw. Niech e e [0, J]. Z tabeli widać, że rozkład łączny zależy od e, a roz­ kłady brzegowe nie. II o X = I 0 1 2 +e 0 § -* Y = 1 4 £ 4 3 8 3 8 1 2 1 2 Proponujemy kolejne zadanie: znaleźć rozkład, którego rozkłady brzegowe są jednostajne na [0 , 1 ], ale sam nie jest rozkładem jednostajnym na kwadracie. Wskazówka — rozkład jednostajny na brzegu odpowiedniego prostokąta. 14. Odp. Jednostajny na sferze jednostkowej (por. własność pasa wyciętego ze sfery w zadaniu o grubej monecie). 16. Wsk. Jeśli rozkład ciągły o dystrybuancie F ma własność braku pamięci, to ogon rozkładu, czyli funkcja G(t) = 1 - F{t), spełnia równanie G(t + s) = G(t)G(s). Ponieważ G jest ciągła, musi być postaci G(t) — ect. Założenie o ciągłości można osłabić, trzeba jednak w tym celu wiedzieć, że jedynym mierzalnym w sensie Lebesgue’a rozwiązaniem równania funkcyjnego f ( x + y) = f(x ) + f(y ) jest funkcja liniowa. do rozdziału 5 407 17. Odp. Przy losowaniu z rocznika statystycznego (ale już nie z tablic mate­ matyczno-fizycznych) najczęstszą pierwszą cyfrą znaczącą jest 1 (ok. 30% próbki). Teoretycznie szansa pojawienia się k jako pierwszej cyfry znaczącej wynosi log10(fc + 1) - log10 k. Oto szkic wyjaśnienia: niech zmienna losowa X reprezentuje liczbę z rocznika. Pierwszą cyfrą znaczącą będzie k, gdy dla pewnego całkowitego n k •1 0 " ^ X < (k + 1) •1 0 ” , czyli logio k + n ^ log10 X < log10 (k + 1) + n, co sprowadza się do warunku Y = log10 X(mod 1) e [log10 k, log10(fc + 1)). Ale można się spodziewać, że zmienna losowa logl0 X ma gęstość g różną od zera na długim przedziale i niewielkie maksimum. Dlatego gęstość zmiennej losowej Y , wyrażająca się wzorem OO g v (x )= ^ 2 g(x + k) k~ —c o różni się niewiele od gęstości rozkładu jednostajnego (podobne zjawisko wy­ stępuje w ruletce: liczba obrotów kola zredukowana modulo 2tt powinna mieć rozkład jednostajny). 5.2. Własności dystrybuanty rozkładu na R 1. Rozw. Należy najpierw sprawdzić, że definicja ¡i jest poprawna. Istotnie, każdy niepusty zbiór z A przedstawia się jednoznacznie w postaci sumy niepustych przedziałów półotwartych o rozłącznych domknięciach. Żeby to zo­ baczyć, rozpatrzmy niepusty zbiór A, który ma dwa różne przedstawienia: Tl TTŁ A = {J(a i,bi] - (J j=1 i=1 gdzie ttł b\ . . . dn ^ bn, Cl dl ’C . . . Cn d,n, a suma m + n jest dla tego zbioru minimalna. Wobec tego przedziały (an, 6 n] i (cm,dm\ są różne. Gdyby bowiem były równe, można by było je usunąć, zachowując równość: otrzymalibyśmy wtedy zbiór B, dla którego m + n jest mniejsze, co przeczyłoby minimalności zbioru A. Ponieważ bn € A , dla pewnego j ^ n mamy dj ^ bn. Analogicznie b* ^ dm. Zatem hi ^ dm i? dj "'Z- b7l. a stąd j — to, i = n, bn = dm. Wobec tego lewe końce odcinków (o„, 6 ^] i (Cm,dm] muszą być różne. Niech, dla ustalenia uwagi, cm < an. Wtedy jednak 6 „_i < an, i element x e (max(6 „- i , cin),an] jednocześnie należy i nie należy do A — sprzeczność. Ponieważ F jest niemałejąca, że fi jest poprawnie zdefiniowaną nieujemną miarą na ciele A . Żeby móc skorzystać z twierdzenia 1 . 1 .8 o przedłużaniu Odpowiedzi i wskazówki 408 miary i przedłużyć na c-ciało generowane przez skończone sumy odcinków, czyli cr-ciało zbiorów borelowskich, musimy wykazać, że jeśli (An) jest zstę­ pującym ciągiem zbiorów z A i f"]” i A i — ®> to [¿(A n) ------->0. Idea dowodu Tl—*00 jest prosta: ustalamy dodatnią liczbę 5 i do każdego A n dobieramy taki zbiór zwarty K n, żeby K n C A n, A n \ K „ C Bn, gdzie fi(Bn) < S2~n. Możli­ wość takiej konstrukcji wynika z prawostronnej ciągłości funkcji F , i jeśli A = UJLl (<ii,6 i], to K n = Ur=> i + £«>&«] dla odpowiednio dobranych Si. Rodzina (K n) nie jest na ogól zstępująca, ale jeśli dla n = 1, 2, .. . zdefiniu­ jemy H „ = K i n . . . n K n, to (H „ ) będzie już zstępującą rodziną zbiorów zwartych o pustym przecięciu, zatem dla pewnego m mamy H\f\.. .n Hm = 0, skąd K i fi . .. fi K m = 0- Jest oczywiste, że A m = A\ fi . .. fi A m niewiele różni się od zbioru pustego, a dokładniej: m Am m / m c P)[(Ai \ Ki) U Ki] C P)[Bł U KĄ C 1=1 i= l \ f ] Ki \ i= l / m U I[j B / \ i= l Wynika stąd, że ft{Am) 5. Udowodniliśmy zatem, że dla każdej liczby dodatniej S istnieje takie m, że fj.(An) < S dla n > m. Innymi słowy, limn_oo ¡J.{An) = 0, czego należało dowieść. Tym samym udowodniliśmy, że /i przedłuża się na cr-ciało borelowskie. Po­ nieważ ju((—0 0 , i]) = F(t) — F ( —0 0 ) = F (t), lim F(t) = 1, t— +OO widać, że ¿j(R.) = 1 i F jest dystrybuantą fi. 2. Rozw. Pouczające jest wykonanie wykresu / , jeśli F ma odcinki stałości i skoki. Wystarczy wykazać, że f(s ) ^ i wtedy i tylko wtedy, gdy s Si F(t). a) jeśli / (s) ^ i, to sup{u: F(u) < s} ^ i, więc u > t implikuje F(u) ^ s, co na mocy prawostronnej ciągłości daje przy u \. t nierówność F(t) JS s. b) jeśli F(t) ^ s, to gdyby sup{u: F(u) < s} = t + e > t, mielibyśmy u„ t t + e i F(un) < s, a ponieważ F jest niemalejąca, byłoby F(t) < s — sprzeczność. 3. Rozw. ¿¿((-oo, x)) = /^|J~= 1 ( - o o , a ; - i ] j = limn . 4. Odp. 0,3; 0,9; 0,85. 6 { . Rozw. Wystarczy wyznaczyć dystrybuantę. f0 „ / - l , -aaa \ 3 y l l l -— ee- ' s F y (t)-F x , dla t ^ —5, ,, , ^ , dla t > —5. 7. Rozw. Ustawiamy zbiór liczb wymiernych w ciąg r„ i definiujemy CO F (x ) = ^ n=l 2" 1 (~ 00 ,!El(r" ) = S { n :r n < x } 2" ' do rozdziału 5 409 8. Odp. Oto dystrybuanty: 0 ¡ dla t < 0, dla t ^ 2, 1 dla t < 1 , dla 1 ^ t < 2 , dla t ^ 2 . 5.3. Własności dystrybuanty rozkładu na R ” 1. Wsk. Skorzystać z lematu o 7r- i A-ukladach. 2. Rozw. Przykładem jest funkcja _ f ' ’" 1 10 dla x + y > w p.p. 0 Jest ona monofoniczna ze względu na każdą ze współrzędnych, jednak dla 1 , X2 = s/2 = 2 nie zachodzi (1 ). x i = yi = - 3. Rozw. Niech G będzie jednocześnie 7r- i A-układem. Rodzina G jest niepusta (war. (i) z def. 4). Jeśli A € G, to A ' = ii \ A 6 G na mocy war. (i) i (ii) z def. 4. Wobec tego jeśli A, B 6 G, to A U B = (A' n B ')' € Q. Wynika stąd, że rodzina Q jest zamknięta ze względu na skończone sumy. Niech teraz Ai 6 G dla i = 1 , 2 , — Mamy = U"=1 Ą 6 5 i z war. (iii) (o rodzinie wstępującej) [J“ i A , = U “ i B iź G 5.4. Dystrybuanta a gęstość 1. Rozw. a) W świetle zad. 5.3.1 wystarczy wykazać, że = [ 9 (s)ds, t e R. J— 03 Niech </„ = g l ( _ ni0o). Wtedy / / ff(s)ds = hm / g„(s)ds = n —»oo / —oo —oo = lim f n —+oo I —71 g(s)ds = lim (F(i) - F ( —n)) = .F(i). 7i—»oo Skorzystaliśmy z tw. Lebesgue’a-Leviego o zbieżności monotonicznej i z pod­ stawowego twierdzenia rachunku całkowego (patrz np. [RUD-2], tw. 6.16; ta wersja pokazuje zresztą, że zamiast ciągłości g wystarczy całkowalność w sen­ sie Riemanna na przedziałach ograniczonych). b) Z jest przeliczalny, zatem R \ Z = Ui^-oo(a*>&*)> Przy czym przedziały (a,i,bi) są niepuste i rozłączne. Rozumowanie z punktu a) pokazuje, że jeśli [a, b] C (a,,bi), to F(b) — F(a) = f a g(t)dt. Wystarczy teraz skorzystać z ciągłości F. 2. Wsk. Zamiast podstawowego twierdzenia rachunku całkowego użyć tw. 8.21 z [RUD-1]: jeśli F jest różniczkowalna wszędzie na [a, b) i F ' jest całkowalna, to F(x) — F(a) = J * F'(t)dt dla x S [a, 6]. Całkowalność F ' w naszej sytuacji wynika natychmiast z lematu 1 . Odpowiedzi i wskazówki 410 3. Odp. $(t) oznacza dystrybuantę standardowego rozkładu normalnego. a) Fy(t) = <£>(logi) dla t Jł 0. Dystrybuanta jest różniczkowalna wszędzie poza i = 0 ; różniczkując otrzymujemy f < ^ty/2, ’ o" \ b) Fy(t) = 2 $(Vi) - 1, t^ 0, e ~ (lo g t > /2 d l a i > 0’ dla i < 0 . <?y(i) = ^ e - ‘ / 2 l [0 ,oc)(i). 4. Odp. Z nie ma gęstości. Z tw. 3 można otrzymać gęstość Y , daną wzorem fO dla (0 , 2 ), dla i € (0 , 1 ), dla i 6 [1, 2). 9Y{t) = -S ( l / 6 )i—2 /3 U /2 5.5. Gęstość a odwzorowania gładkie 1 . Rozw. Np. X ma rozkład jednostajny na (0,1), ip (x) = l j i j^ i). 2. Rozw. Całka jest funkcją ciągłą jako funkcja górnej granicy całkowania. 3. Rozw. g(y) = a e ~ a v ■^ •l(0lOO)(y). 4. Wsk. Należy powtórzyć rozumowanie z dowodu stwierdzenia 1 na każdym Ik z osobna. 5. Rozw. Skorzystać z wielowymiarowej wersji twierdzenia o całkowaniu przez podstawienie. 6 15 (5yt + 52/1 + 6yiy2) ; b) gęstość jest taka . Odp. a) .M j/i , 2/2 ) = ¿exp sama, jak wyjściowa. 5.6. Parametry rozkładów 1. Rozw. Pręt podparty w środku ciężkości powinien pozostawać w równowadze, zatem łączny moment siły powinien być zerowy. Daje to warunek 2 > - m )Pi9 = 0, i= 1 gdzie m jest współrzędną środka ciężkości, a g przyspieszeniem w jedno­ rodnym polu grawitacyjnym. Stąd m = XiPi- Moment bezwładności układu względem punktu m wynosi X )S i(:Ei —m )2Pi- 2. Rozw. (4) W świetle stw. 11 wystarczy wykazać, że J0°° P (X = t)dt = 0, a to jest oczywiste, ponieważ funkcja podcałkowa jest różna od zera na zbiorze co najwyżej przeliczalnym. (5) Zamiana kolejności sumowania w poniższych rachunkach jest możliwa, bowiem składniki są nieujemne (jest to wniosek z twierdzenia Fubiniego): OO OO OO £p(X >n) = £ £ > (* : n = l n=l k= n OO + 1) = ^ k= 1 kP(k ^ X < k + 1) iC do rozdziału 5 411 ^ [•^{fcsSJCdc+l}] = £ X ^ k= 0 CO ^ ^ 2 ^ [(^ + 1) 1{fciX<fc+l>] = fc=0 oo = ^ ( f c + 1)P(k fi X < k + 1) = k=0 oo = y n=l oo p (x > n) + Y p (fc ^ x < k + 1)= fc=0 oo = ^ F ( x ^ ra) + 1. ■ n=l 3. Wsk. Skorzystać ze stwierdzenia 11 i zauważyć, że P ( X T > t) = P ( X > i1/V). 4. Wsk. Uogólnić metodę rozwiązania poprzedniego zadania. 5. Rozw. Na rysunku widać standardowy sposób, stosowany przez hydrologów. W rzeczywistości z tabeli odczytujemy coś w rodzaju ogona rozkładu, wobec tego stosujemy odpowiednik wzoru ze stw. 11 i całkujemy funkcję przedsta­ wioną na rysunku. Pole (km2) głębokość Objętość jest równa zakreskowanej powierzchni, przy czym 1 mm2 odpowiada 0,001 km3. Otrzymujemy wtedy 1,5613 km3. 6 . Wsk. ip jest funkcją kwadratową. 7. Rozw. Zdefiniujemy funkcję r(t) = V 2 X t = t2 V 2 X o + (1 - i)2® 2* ! + 2 i(l - t)p (X o,X i)t/ v 2 X ó & X ^ . Odpowiedzi i wskazówki 412 Jest to funkcja kwadratowa, osiągająca minimum dla V 2X ! - p (X 0, X 1) V V 2X 0V 2X 1 min £>2X i + V 2X 2 - 2p(X0, X 1) V V 2X 0T>2X1 ' W naszym przypadku imin = 6/7 i y ^ X t min m 0,0196. W odniesieniu do papierów wartościowych oznacza to, że portfel złożony z papierów obu rodzajów w proporcji 6 : 1 ma ryzyko niższe, niż każdy z papierów. Jego stopa zwrotu będzie równa £ X tinin ~ 0,0528. Widać, że taki portfel jest lepszy niż papier opisywany przez zmienną losową Xo, ma bowiem wyższą stopę zwrotu i niższe ryzyko. Nie da się go natomiast porównać z papierem opisywanym przez X i, dopóki nie zdecydujemy, jak duże ryzyko opłaca się ponieść w zamian za wyższą stopę zwrotu. Pouczające jest wykonanie wykresu ryzyko/zysk dla rozmaitych współczyn­ ników korelacji. Stopa zwrotu Wsk) Punkty A i B odpowiadają rozpatrywanym papierom wartościowym. Odci­ nek A B reprezentuje przypadek doskonałej korelacji dodatniej (p(X o, X\) = = 1). Łamana A Z B — doskonałej korelacji ujemnej (p (X o,X i) = —1). Wi­ dzimy, że przy odpowiednio dobranym składzie portfela ryzyko jest zerowe (punkt Z). Wreszcie krzywa A C B reprezentuje przypadek podobny do rozpa­ trywanego w zadaniu. Punkt C odpowiada portfelowi o minimalnym ryzyku. Widać także, że nie ma sensu brać pod uwagę portfeli z łuku A C , bowiem dla każdego takiego portfela znajdziemy na łuku C B portfel o tym samym ryzyku, ale z większą stopą zwrotu. W związku z tym portfele z łuku C B nazywa się portfelami efektywnymi. Analizę przypadku więcej niż dwóch papierów wartościowych można znaleźć na przykład w książce K. i T. Jajugi, Jak inwestować w papiery wartościowe, PWN, Warszawa 1994, i w wielu innych dostępnych na rynku książkach, poświęconych analizie portfelowej. do rozdziału 5 8 413 . Rozw. oo co k = ]T /c P (X = fc) = = fc) = k=Q oo fc=l n.—1 co oo =EEp(x=fe)=Ep(x^n)u = lfc = n n=l 9. Odp. £ X = l/p. 10. Rozw. Jeśli X jest liczbą rzutów, to X = . Xi +X 2 + . . . + X 6 , gdzie X i = 1, zaś X i, i = 2, . . . 6 jest czasem oczekiwania na i-ty wynik różny od pierwszych (i — 1) wyników i ma rozkład geometryczny z parametrem (7 — i ) / 6 . £ X = = 14,7. 11. Odp. Nie. Oto przykład: fi = {a,b,c}, zdarzenia elementarne są jednakowo prawdopodobne, X(a) = 2, X(b) = 1, X(c) — 0; Y(a) = 0, Y ( 6 ) = 2, Y(c) = 1. Wtedy £ ( ^ ) = §, £ ( * £ , ) = §. 12. Rozw. a) „rozpisujemy” wzory po współrzędnych i korzystamy z definicji wartości oczekiwanej wektora, b) wynika z definicji macierzy kowariancji i punktu a). 13. Rozw. Należy zmierzyć sumę długości prętów, składając je razem, a potem — różnicę, układając je obok siebie. Wynikami pomiarów będą zmienne losowe S = x + y + U, D = x - j/ + V, gdzie x i y to długości prętów, zaś U i V — błędy pomiarów. Jako oszacowanie x przyjmiemy S+D 2 U +V ~ X + ~ V 2 ’ a jako oszacowanie y: , U -V S -D 2 2 ' Jak widać, wariancje błędów są dwukrotnie mniejsze niż przy zwykłym spo­ sobie mierzenia. 14. Odp. 2. 15. Odp. a) —|, b) 0, c) 6 . 16. Odp. a = cov(X,Y)/V 2 X , b = £ Y — a£X. 19. Rozw. Liczebności cząstek w kolejnych pokoleniach można przedstawić za pomocą następujących zmiennych losowych: Zo = X Z1 = x % = x l 1\ Z2 = x i 2) + ... + x£\ =x1 (" ) + ... + x £ )_i, Odpowiedzi i wskazówki 414 gdzie jest ciągiem podwójnym niezależnych zmiennych losowych, przyjmujących wartości m i 0 z prawdopodobieństwami p i g. Ponieważ zmienne losowe ciągu (X kn'l)^ =1 nie zależą od Zn~ i, mamy OO szn = £x^_i / = fc=l = j r ,k P ( Z n - fc \ i= l / i 1 = \ = k )£X [n) = k=l = £ X [n) ■£ Z n - 1 = prn •££„_i = (pm)n. 5.7. Nierówności związane z momentami 1 . Wsk. Wtedy P (X = 0) = 1. 2. Wsi:. Sprawdzić, kiedy zachodzi równość w nierówności Younga (4). 3. Wsk. Skorzystać z nierówności Hóldera. 4. Rozw. Niech A = { X > X £X }. Wtedy £ X = £ { X l A) + £ { X 1 a. ) ^ [£X 2 ■P(A)]i + \£X . 6 . Rozw. I = £ ( s / X ■^ ^ ( £ X ■£ ( ± ) ) K 7. Rozw. Dowód uzyskujemy natychmiast z nierówności Czebyszewa. 8 . Rozw. Dla p = 1 nierówność jest oczywista. Jeśli p > 1, niech g- 1 = 1 —p_1. Bez straty ogólności można zakładać, że X , Y ^ 0. Z nierówności Hóldera mamy £ X (X + Y ) p_1 (£ X p)1/p - ( £ { X + Y ) (p ~ l k ) 1 /9 i podobną nierówność ze zmiennymi X , Y zamienionymi rolami. Po dodaniu stronami obydwu nierówności otrzymujemy £ ( X + Y )p ^ [(£Xp)1/p + (£ Y p)l,v} - { £ { X + Zauważmy, że (p — l)ę = p, wobec tego po podzieleniu obu stron przez drugi czynnik po prawej stronie otrzymujemy żądaną nierówność. Gdyby ten czynnik był równy zeru, to i lewa strona byłaby zerowa i nierówność byłaby automatycznie spełniona. 5.8. Niezależne zmienne losowe 2. Rozw. Powtórzyć rozumowanie z twierdzenia 7. 3. Rozw. a) Jest to zmienna losowa min(X, Y ) o rozkładzie wykładniczym z pa­ rametrem a + patrz przykł. 5.8.4. b) Mamy P (X < Y ) ~ m x , Y ) ( { { x , y ) - . x < y } ) = = f i J J/ o< 0<x<y g x( x ) g 2( y ) d x d y = / J J0<x<v J0 < x < y ae~OLXiJ,e'~fXydxdy ■ a p + a' do rozdziału 5 415 Aby obliczyć to prawdopodobieństwo, musieliśmy skorzystać z rozkładu łącz­ nego (X, Y). 4. Rozw. Ej = {A i} - 7r-układ. Ej niezależne, więc z twierdzenia 12 wynika, że <t(S;) = a(Ai), i € I są niezależne. 5. Rozw. Weźmy io postaci Ai = B lH — skończony, i dowolne Ai £ Ej dla i E Io- At są Bln . Z niezależności <r-ciai Tt otrzymujemy C I, Io Ai)=F(f i n ^ ) = 1 1 1 1 ^ ) = n p^ ¿€/o 6 3 *€ *0 i 3 *€/o . Odp. a) np. X\ ~ W(0,1), X 2 = X?; b) jeśli X ma rozkład jednostajny na [0 , l ] i / n ( x ) = sgnsin27rni, to (fn (X )) jest ciągiem Bernoulliego. Otrzyma­ Funkcje f n rozpatrywane na liśmy cały ciąg niezależnych zmiennych losowych. [0,1] nazywamy 7. Wsk. W celu otrzymania gęstości zastosować indukcję i wzór na splot. Praw­ funkcjami dziwość wzoru na G n sprawdzić przez różniczkowanie. Rademachera. 8 . Rozw. Niech X (odp. Y) przyjmuje wartości w R m (odp. R fc) P (X 6 A ,( X ,Y ) £ B) = f l B { x , y ) l A xR k(x,y)fHx,Y)(dx,dy) = JRm+fc Ili 1BdflY dfix- J a J R fc 9. Wsk. Być może nieco wygodniej jest operować zmiennymi losowymi X n = = (Un + l)/2 zamiast U„ i obliczyć P (X ^ t) dla dwójkowo-wymiemych t. 10. Wsk. Skorzystać z zadań 5.2.2 i 9. Ciąg Bernoulliego (Un) można przenumerować tak, by otrzymać tablicę (Un,k), n = 1,2,..., k — 1, 2, __ Wystarczy dla odpowiednio dobranych funkcji F„ zdefiniować zmienne losowe X n = Fn ( ^ 11. 2- fcl/n,fc) . Odp. Gęstość jest dana wzorem %g{x) 1 - dla 0 ^ x < _ iŁzłi! dla 1 1, < x s$ 2 , dla 2 < x ^ 3, dla x $ [0,3], 0 12. Wsk. Zdefiniować splot gęstości z dowolną miarą: (9 * /*)(*) = f JR *13. Rozw. Z = X + Y , gdzie X = i Y są niezależne. 14. Odp. Gęstość: (A/2)e_A'tL 9 ( t - x)fi(dx). ^ 2n/ 2 n ma rozkład jednostajny, a X Odpowiedzi i wskazówki 416 15. Wsk. U ma rozkład wykładniczy z par. 2A, V = \X — Y |, więc ma rozkład wykładniczy z par. A (korzystamy z zad. 14). Wykazać, całkując gęstość (X ,Y ) po odpowiednim obszarze, że F(U V)(s, t) = Fu(t)Fv(s). 16. Wsk. Jeśli A G R n, i a jest permutacją zbioru {1 ,2 , . . . , n } , zdefiniujmy = {(¡ni,■••,£„) e Rn: ( i » ( i ) , - " . ^ ( r . ) ) e A } oraz A = (Jcse^O4)’ gdzie sumowanie odbywa się po zbiorze wszystkich permutacji S. Jasne jest, że dla A C A n zbiory er(A) są (prawie) rozłączne, zatem A(A) = n!A(A). Zatem . . . , U(n)) € A) = P{{UU . . . , [ / „ ) e A) = n!A(A), A C A„. Nie jest trudno wyznaczyć dystrybuanty statystyk pozycyjnych i obliczyć, że £ X W =fc/(n + l). Numery trzech taksówek w Grybowie zostały wybrane losowo ze zbioru l , 2 . . . , n . Doświadczenie to przypomina losowy i niezależny wybór trzech punktów z odcinka [0 , 1 ]. Średnio podzielą go one na cztery równe czę­ ści. Dlatego można argumentować, że taksówek jest najprawdopodobniej | max{27,11,3} = 36. Dokładniejsze rachunki, uwzględniające dyskretny charakter zagadnienia, dają nieco inny wynik. 17. Wsk. Załóżmy dla uproszczenia, że A = 1. Żeby się nie zaplątać w rachun­ kach, warto zauważyć, że gęstość rozkładu wektora (X i , . . . , X nĄ.\) jest równa e- ( i 1+.,.+i„ł i) na Piórze wyznaczonym nierównościami Xi ^ 0 ,... x n-f-i ^ 0. Wobec tego gęstość rozkładu wektora (Si , . . . , SW+i) jest równa e~ x,,+ 1 na zbiorze A wyznaczonym przez nierówności 0 ^ xi ^ ^ ^ Zn+iNiech teraz A C A„. Mamy P ( (S i/ S n + i,...,S n/Sn+i) £ A) = [ e - x’'+1 dx 1 . . . d x n + 1 = Ja t\(A)e~tdt = A(A). gdzie A jest stożkiem wyznaczonym przez A , o wierzchołku w (0, . . . , 0). Wszystkie przekroje stożka, tj. zbiory A n {xn+i = c) są podobne, gęstość jest stała na zbiorach {x n+i = c}, więc wynik całkowania musi być propor­ cjonalny do A(A) — miary Lebesgue’a zbioru A, czego należało dowieść. 18. Wsk. Należy rozumować podobnie, jak w zad. 17. 19. Rozw. Skorzystamy z intuicyjnie oczywistego argumentu, którego ścisłe uza­ sadnienie można znaleźć w rozdziale 6 (jako uogólnienie wzoru na prawdo­ podobieństwo całkowite). Jeśli wiadomo, że do chwili to pojawiło się k autobusów, to zgodnie z zad. 18 średni czas, jaki upłynął od chwili przyjazdu ostatniego autobusu wy­ .e"**0. nosi to / (k + 1). Szansa na pojawienie się k autobusów wynosi Ostatecznie średni czas od przyjazdu ostatniego autobusu jest równy do rozdziału 5 417 20. Wsk. Niech X ~ JV"(0,1). Zdefiniujmy Pć'. Y) = (X, -X)l{xg(_o,a]} + [X, X)l(X€[-a,al}Dla dużych a kowariancja zmiennych losowych X i Y jest dodatnia, dla małych o jest ujemna, więc dla pewnego a jest zerem. 21. Odp. Niech zdarzenia A, B, C będą parami niezależne, ale nie wzajemnie niezależne. Kontrprzykład tworzą rodziny {A, B } i {C }. *22. Rozw. Niech A > 0. Wtedy funkcja eXx jest rosnąca i mamy = P { ^ Sn > eArv/") SC _ e~Xr-/n = e“ ^ ^ ^ 1) " = + e Skorzystaliśmy z wykładniczej nierówności Czebyszewa, niezależności zmien­ nych losowych eXUi oraz elementarnej nierówności ¿(e* + e~A) ^ eA /2. Wy­ bieramy teraz A = r /y/n , co minimalizuje ostatnie wyrażenie po prawej stro­ nie i daje żądane oszacowanie. Z symetrii zmiennych losowych Un wynika, że P(|Sn/0 i| > r) ^ 12■ 23. Rozw. Niech e > 0. Wtedy P f —■ V\/2 nlogra N > 1 + e'] ^ ra~(1+e) < oo, / ' ' n= l zatem na mocy lematu Borela-Cantelliego z prawdopodobieństwem 1 zacho­ dzi tylko skończenie wiele zdarzeń {(Sn/V 2 n logn) > 1 + e}. |24. Wsk. Rozważyć krzywą Peano, przekształcającą odcinek [0,1] w sposób cią­ gły na kwadrat. 25. Rozw. Niech X lt X 2 oznaczają wylosowane liczby; pierwszą z nich znamy. Zgodnie z warunkami zadania są to niezależne zmienne losowe o tym sa­ mym rozkładzie z ciągłą dystrybuantą (i dlatego nie musimy się przejmować Rozkład z ciągłą dystrybuantą zdarzeniem X\ = X 2, które ma zerowe prawdopodobieństwo). spleciony z Żeby zwiększyć szanse wygranej, należy urządzić sobie prywatne losowanie, dowolnym innym generując zmienną losową o rosnącej dystrybuancie. Oznaczmy wynik loso­ ma ciągłą wania przez Z. Decyzję podejmujemy tak: jeśli X\ > Z, uznajemy, że X i jest dystrybuantę. większa; w przeciwnym razie uznajemy, że jest mniejsza. Łatwo zobaczyć, że szansa wygranej minus szansa przegranej jest wtedy równa P {Z e (mm.{XuX 2 ),m a x{X u X 2))) > 0, (1) możemy więc wygrać z prawdopodobieństwem większym niż 1/2. Istotnie, oto wszystkie możliwe uporządkowania X i , X 2 Plus oznacza wygraną, minus przegraną. Odpowiedzi i wskazówki 418 1 2 3 4 5 Xr < X 2 < Z Z < Xi < x2 X2 < Z < X 1 Z <X 2<X 1 x 2< x 1< z Xi < z < x 2 6 Uporządkowania 1 i 5, 2 i 4, oraz 3 i skąd wynika wzór ( 1 ). + - + + - + mają równe prawdopodobieństwa, 6 Jeśli wszystkie trzy zmienne losowe mają ten sam rozkład, szansa wygranej wynosi 2/3. 5.9. Różne rodzaje zbieżności zmiennych losowych 1 . Wsk. Skorzystać z tego, że granica funkcji mierzalnych jest mierzalna lub wprost oo {w : limX n(u>) = X (to)} = f| oo U oo f i ~ X l ^ l/k k=l N ^ l n = N 3. Wsk. Zastosować lemat Borela-Cantelliego. 4. Wsk. P(\Xn - x \ ^ e ) ^ P ( n r = J I ^ - X \ ś 4 ) p p 5. Rozw. Jeśli X n — > X , X n — >Y, to dla każdego e > 0 P(|X - Y| > e) < P(\Xn - X \ > e/2) + P(|Y - X„| > e / 2 ) -------►0. n —+oo Wobec tego P(\X — y| > 0) = 0. 9. Skorzystać z twiei'dzenia 8 . 11. Rozw. Jeśli w pierwszym rzucie wypadł orzeł, łączna wygrana wyniesie co najmniej 2/3, jeśli wypadnie reszka — co najwyżej 1/3. Wobec tego dystrybuanta F x przyjmuje na przedziale (1/3,2/3) wartość 1 / 2 . Rozpatrując drugi, trzeci i dalsze rzuty widzimy, że dystrybuanta jest stała na wszystkich prze­ działach wyłączonych podczas konstrukcji zbioru Cantora. Ponieważ łączna miara tych przedziałów jest równa 1 , dystrybuanta rośnie na zbiorze miary zero i nie istnieje gęstość. Żeby wyznaczyć dystrybuantę w pozostałych punktach, czyli na zbiorze Can­ tora C, przypomnimy znaną funkcję <p przekształcającą C na odcinek [0,1]: jeśli i G C i t = 52^1 IJTi gdzie m = 0 lub Ui = 1 , i — 1,2,..., to OO **> = £ § ■ ¿=i Tak zdefiniowana funkcja jest jednostajnie ciągła i rosnąca na C. Mamy teraz P (X ^ t) = P(ip(X) ^ tp(t)) = ip(t), ponieważ >p{X) ma rozkład jednostajny na [0,1]. do rozdziału 5 419 Dalej, FX = 2 2 £ Ui = ^ 3i i= l 2 ^ — — 3* 2 ’ i= l gdzie zmienne losowe po prawej są niezależne, P(Ui = 1) = P(Ui = 0) = ¿ = 1,2,.... Wymaga to jednak uzasadnienia; prościej zauważyć, że x~lu, + ix. gdzie Ui jest niezależna od X . Stąd otrzymujemy nie tylko £ X = i , ale i V 2X = bowiem V 2X = §X>2 Ł/i + \ V 2X . 12. Rozw. Gdy teza nie zachodzi, to istnieje a ^ £ Y i podciąg (nk) taki, że £ (Y - X ) s$ lim inf £ (Ynk - X „ k) = lim inf £ Ynk - £ X tzn. £ Y ^ lim inf £Yn. Podobnie £ (Z — Y ) ^ £ Z —lim inf £Ynk, zatem £ Y ^ lim inf £Yn. Czyli £ Y = lim inf £Yn = a, sprzeczność. 13. Rozw. Z założenia y /X „ — >Y . Niech X — Y 2. Z nierówności Schwarza £\Xn - X \ ^ ( £ \ V X ^ - \ /X \ 2) i { £ (y/X ^ + V x ) 2)^ -------> 0, n—*oo bo £ ( y p u + V x ) 2 ^ K < 00. 14. Rozw. Wystarczy pokazać, że dla dowolnego e > 0 limP(max|Xi| ^ en) = n 0. Faktycznie, n P(maxjXi| ^ en) ^ ^ P(\Xi\ Ą en) = nP(\Xi\ ^ en) ^ i= l — c »o, n—>oo bo £\Xi\ < oo. 15. iJozu;. sup(£ (|Xt|l{|Xt|>c}) ^ £ ( n {y>c}) nia Lebesgue’a o zbieżności zmajoryzowanej). 0, gdy C —» oo (z twierdze­ 16. Rozw. Niech e > 0. Weźmy C takie, by dla z '¡i C zachodziło G(z) z M e tzn. z ^ e M ~ 1G(z). Wtedy £ $ sM l£ (G(Xtl{|xt|>c})) < e- Odpowiedzi i wskazówki 420 17. Rozw. => (ii) wynika z nierówności £ (|Xt|U) ^ C P ( A ) + £ ( |Xt|l{,Xt|>c}) . Z tej nierówności, biorąc A = fi i C dostatecznie duże otrzymujemy (i). 4= Weźmy dowolne e > 0. Dobierzmy 8 z punktu (ii). Z nierówności Czebyszewa i z (i) dla i € I P(|Xt| > C) ^ C -1 sup( £|Xt| ^ 5 dla dostatecznie dużych C, zatem (ii) daje £ (|Xt|l{|xt|>c}) ^ £ dla t € I. 18. Wsk. =t- (i) oczywiste z nierówności Czebyszewa; (ii) są spełnione warunki zadania 17, korzystamy z tego, że £ (1 a \Xu — X|p) ^ £ (|Xn — X\p). <= Skorzystać z zadania 16 i oszacowania £ (\X„ - X|p) < C p + £ (|X„ - X|pl {|x„_x|>C}) ^ ^ Cp+ 2P l £ ((| X „| P + |X|P) 1 {| x „ -a :| > c })- 5.10. Przegląd ważniejszych rozkładów 1. Rozw. Wystarczy wykazać, że x2(l) jest rozkładem 7 1 / 2 ,1/2 i udowodnić rów­ ność (1), §5.10: / °° Z,ai+a2 X 1 (0 ,0 0 )( i - = c )l(0 ,o o ) (l)d l = f* L a !+ a 2 Loi+a2 Z*4 =f k ^ ) t e i tai+a2-le-M / ( l _ u)“X - V 2- łdu = r(ai)r(a2) Ja ^ +a»g(ai,a2 ) . 1+Ba- x - w r(ai)r(02) 2 r(ai+a2) . iioziw. Niech C będzie macierzą ortonormalną o wszystkich elementach pierw­ szego wiersza równych \/yfn. Oznaczmy X = (Xi,. . . X„), V = C X . Wtedy Yi = zaś n sl = ¿ X 12 - nx2 = Y , Y? - yi2 = Yi = ■■■+ Yn ■ ¿=1 t=i Przedostatnia równość wynika stąd, że przekształcenie ortonormalne zacho­ wuje długość wektora. Widać teraz, że 2 i s2 są niezależne jako funkcje od niezależnych zmiennych losowych, a ponadto n s j ma rozkład X n -i 3. Wsk. Zróżniczkować wszystkie trzy wyrażenia. 421 do rozdziału 6 4. Wsk. Wykazać, że jeśli wektor losowy (Z\, Z2) ma standardowy rozkład nor­ malny w R 2, to promień R = \JZ\ + Zf ma ten sam rozkład, co \J—21ogA (por. zad. 1 i 2), zaś kąt 0, jaki tworzy wektor (Zi, Z2) z osią O X ma rozkład jednostajny na przedziale [0, 2tt] i jest niezależny od promienia. Wynika stąd, że wektory losowe (R, 9) i (•/—2logX, 2wY) mają ten sam rozkład: jest on wyznaczony jednoznacznie przez rozkłady współrzędnych, bowiem na mocy niezależności jest ich produktem. W konsekwencji, zmienne losowe h(R,&) i h(^/—2 lo g X ,2 n Y ) mają ten sam rozkład, zależny już tylko od h. Biorąc h(r, tp) = (r cos tp, r sin ip) widzimy, że (Zi, Z2) = (ii cos6, R sin6) i (U, V) mają ten sam rozkład, i jest to standar­ dowy rozkład normalny w R 2. 5. Rozw. Udowodnimy to dla standardowej wersji rozkładu Cauchy’ego, o gę­ stości Ą ■ i r |a|dx > i 7r./_ 00 1+a: 2 ' * r n dx h X 6. Warunkowa wartość oczekiwana 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego 1. Odp. P (X = 1, Y — 2) = 0,1, £ X = 2,4, i wreszcie F (X I ^ _= 2 £(X|a(F) ) - | 26 dlay 2. Odp. a) £ if i _ / 3 dla u> G [0, \), dla w € [1,1]. b) f-g £ (f l^) = i - p l-f dla lu € [0, 5), dlawe [i, i), dla w 6 [5 , 1 ]- 3. Odp. ^—, r a)' P- + 71— p’ b)> -p + i + 1—p • W rozdziale o łańcuchach Markowa udowodnimy ogólne twierdzenie na ten temat (zad. 12.1.14-17). 4. Odp. S ji( l + £). 5. Wsk. Zauważyć, że (stw. 5.6.11) £ (x \x > t ) = p{x>t)£ (*1{x>t}) = = ' + r ę k t ) S ~ e i x > ’ >0*Oznaczając P (X > s) = 1 ; m( s ) otrzymujemy równanie u(s)ds = cu(t), c > 0,.«(0) = 1. Odpowiedzi i wskazówki 422 Lewa strona jest różniczkowalna, jako całka z funkcji ciągłej, możemy zatem zróżniczkować obie strony, otrzymując dobrze znane równanie —u(t) = cu! (i), u(0) = 1, którego rozwiązaniem jest funkcja u(t) = e- c i, gdzie c > 0. 6.3. Definicja ogólna 1. Wsk. Skorzystać z twierdzenia 6.3.4(e), a dokładniej — powtórzyć rozumo­ wanie prowadzące do otrzymania lematu Fatou z twierdzenia o zbieżności monotonicznej. 2. Wsk. Skorzystać z zadania 1. 5. Rozw. Możemy założyć, że X ^ 0. Jeśli G € G, F £ J7, to [ £ {X \ < r(G ,F ))d P = JF n G f X d P = £ {{X 1 F)1G) = £ (X 1 F) P(G) = JF n G = £ (1 f £ (X |F )) P(G) = i £ { X \ F ) dP. J FnG Zbiory postaci F fi G tworzą 7r-układ generujący a ( F ,G ) zdefiniowane dla H € o(T,G') wzorami u { H )= [ £(X\ * (F ,t))d P , G), zatem miary na yiH )= f £(X \ f)d P , JH JH są równe. 6 . Wsk. Niech B e S (R ). Obliczyć f ( X , Y ) d P przenosząc całkowanie d o R 2. 7. Odp. £ ( X |Y ) = Y + 3. 8 . Wsk. V 2X = £ (£ [X - £ ( X |F ) + £ (X \F ) - £ X ]2 |f ) . 9. Rozw. Symetria i fakt, że £ ( X \X + Y) musi być funkcją zmiennej losowej X + Y sugerują, że £ (X \X + Y ) = | (X + Y). Wystarczy teraz sprawdzić, że dla każdego A e cr(X + Y) J XdP = j \ { X + Y)dP, czyli i X d P = i YdP. Ja Ja Zbiór A musi być postaci { X + Y € B } dla pewnego B G S (R ), zatem powyższą równość można przepisać w postaci £ ( X ■1{X+Y€B}) = £ ( Y ■1 {X+Y€B}) ■ Równość wynika stąd, że £<p(X, Y) zależy tylko od łącznego rozkładu pary (X, Y). W naszym przypadku pary (X , Y) i (Y ,X ) mają ten sam rozkład — do rozdziału 6 423 mianowicie produkt dwóch egzemplarzy tego samego rozkładu — ponieważ X i Y są niezależne i mają ten sam rozkład. Jak widać, założenie o niezależności pełni tu kluczową rolę. Inne, być .może bardziej naturalne rozwiązanie polega na przetransportowa­ niu zadania do R 2. Wtedy należy udowodnić równość / xn(dx)fi(dy) = / J {x+ y£ B ] yn(dx)n(dy). J {x+ y€ B } 10. Odp. £ (Xi |X\ + . .. + X n) = dowodu w przypadku n = 2. + . . . + X n). Dowód jest analogiczny do 11. Wsk. Nie ma co liczyć na wynik podobny do zad. 9. 12. Odp. a) |, b) 0, c) ^y. 13. Rozw. T n = <?(Sn, X n+1, X „+2 , - więc korzystając kolejno z zadania 5 (cr(Xi , Sn) jest niezależne od a(X n+ i , X n + 2 , ■■■)) i 10 otrzymujemy: £ {X x |F n) = £ { X l 1S„) = — = £ ( ¿ « ¡ X , 6.4. Prawdopodobieństwo warunkowe — uogólnienie 1. Odp. a) M (t/2, A2/2 ), b) W[0,i], c) B(t, 1/2) dla i 6 N U {0}; d) £ £ £ ; e) » ' ¿ - C ' ; f) Af (tX2/(X2 + /i2), A2/(A 2 + /i2)); g) gęstość g(z) = a I ^ (1_ e- ( * - r t - ) l [(),t h) 0(t, A/(A + ix)) dla t e N U {0}. 2. OdP. } X \y { v \\) = £ (y | = ¿) = / / * \ y 2dy = ę . 3. Odp. P(^4) = £ (P(A\X)) = —1 + 21og2, gdzie X jest współrzędną pierw­ szego złamania. 4. O dp.a) £ ( u \ v ) = % ,£ ( v \ u ) = n f , b) ;;g p . 5. Wsfc. (X, Y) jest obrazem liniowym (U, V") ~ W (0,1). Obliczyć £ (U |aU + bV). 6 . Odp. Ujemny rozkład dwumianowy z parametrami a, b / (6 + 1 ). 7. Odp. £ (A |X = n) = (a + n)/(6 + 1); rozkładem warunkowym jest rozkład gamma z parametrami a + n, 6 4- 1. 8 . Odp. Prognozą dla X n+i jest zmienna losowa Sn nu2 v2 + mn nu2 + v2 nu2 + v2 Widać tu wpływ średniej dla całej populacji klientów, czyli m, oraz średniej wartości roszczeń dla obserwowanego klienta, czyli Sn/n . 9. Wsk. Odpowiedź powinna być ta sama, co w zad. 8, z uwagi na przykład 6. Odpowiedzi i wskazówki 424 10. Rozw. Ze wzoru Bayesa i z tego, że n x jest rozkładem dyskretnym mamy: £ (g(X) |B) = J 2 9 {<H)PB{Ai) = =1 i= l *11. Należy postępować podobnie, jak w dowodzie tw. 3. 12. Rozw. Trzeba pokazać, że dla dowolnego A 6 Q mamy f XZdP= Ja f £ q (X| G ) £ p ( Z \ Q)d.P. Ja Ale i X Z d P = [ X dQ = j £ q ( X \G)dQ = j £ q ( X \ G) ZdP = Ja Ja = Ja Ja f £P (£Q ( X \ G ) Z \ G ) d P = Ja i £Q ( X \ G )£ P (Z\G)dP. Ja 6.5. Regularne rozkłady warunkowe *1. Wsk. Niech dla r wymiernego Fr (u>) = P (X ^ rl^7) ^ ) . Pokazać, że istnieje zbiór A miary zero, taki że F (x ,u ) = lrav,ix Fr(ui) dla u> 0 A i F(x,u>) = = G(x) dla ui e A, gdzie G — dowolna ustalona dystrybuanta, ma własności: (i) dla każdego u 6 fi, F(-,ui) jest dystrybuantą, (ii) dla każdego i C R , F(x,u>) = P ( X x\F)(u). Następnie pokazać, że Px ^ (B ,u i) = f B F (dx,u), gdzie całkę rozumiemy jako całkę Lebesgue’a-Stieltjesa, spełnia warunki twierdzenia. *2. Rozw. Niech fi = [0,1], B = B([0,1]), A — miara Lebesgue’a. Niech A C [0,1) będzie zbiorem niemierzalnym takim, że \‘ (A) = inf {A(5): B D A } = 1 B€B i A,(A) = sup{A(B): B C A } = 0. Bet3 Istnienie takiego zbioru wymaga oczywiście osobnego dowodu. Niech F = a(B, A). Nietrudno zobaczyć, że F jest rodziną zbiorów postaci (Si HA) U (B 2 A'), gdzie S i, B 2 € B, B i C A, B2 C A '. Zdefiniujemy teraz P na T wzorem p ((B i n A) u (b 2 n A')) = i(A(Bi) + A(B 2)) dla B i ,B 2 € B. Oczywiście P (B ) — A(B) dla B € B i P(A) = P((Q n A) u (0 n A')) = i . Wykażemy nie wprost, że nie istnieje regularny rozkład warunkowy Pb(-, •) na fi x T względem B. Załóżmy, że Pb(-,-) istnieje. Dla B € B zachodzi P(B\B) = I b , więc PB(u,{ui}) = 1{„ } H = 1, (2) 425 do rozdziału 7 bowiem {u>} 6 B. Ponieważ dla B 6 B mamy £ P(A\B)P{dko) = P(A n B) = iP(B) = J \dP więc Pb (w ,A ) = P(A\B) = | P-p.n. Analogicznie P(A'|£?) = ^ P-p.n. Stąd, gdy w e A, to Pb(u), {u;}) ^ Pe(w, A) = §, a gdy u 6 A', to Pe( ^ M K P e (a;,A') = i . Sprzeczność z (2). 7. Sumy niezależnych zmiennych losowych 7.2. Prawo zero-jedynkowe Kołmogorowa 2. Wsfc. Zbadać dystrybuantę. 3. Wsk. Skorzystać z zadania 2. *7. Sofcie dowodu. Z zadania 6 dobieramy takie A*,, by P(AAAfc) ------->0. Biorąc fc—*oo permutację TTn • 7 T t i ( : E l , ¿Z-2, ■ • ■) — , 3 ^ 1 + 2 , ■ • • , "^ 2ra j 3 . 1 , - ■ . , ^ 2 t ł + 1 , 3 .2 7 1 - {" 2 , • • otrzymujemy niezależność A„ i -!rn(An), więc P(An n 7Tn(A„)) = P(A„)P(7r„(A„)). Przechodząc z n do nieskończoności otrzymujemy P(A) = P 2(A) (korzy­ stamy z zad. 8). 7.3. Zbieżność szeregów niezależnych zmiennych losowych 1. Odp. a) zbieżny p.n., b) rozbieżny p.n. 2. Odp. Istnieje takie e > 0, że P(|Xi| > e) > 0, a wtedy ^ 2 -PG-^”"! > s) = co. 4. Wsk. Skorzystać z lematu Borela-Cantelliego. 5. Niech A = {maxi^fc^„ \Xi + . .. + X k\ r}. Zdarzenie to można podzielić na kawałki, zależnie od tego, dla jakiego wskaźnika k po raz pierwszy ma miejsce nierówność \Xi + . .. +X¡¡\ ^ r ). Wprowadźmy w tym celu zmienną losową (niewłaściwą, bo przekroczenia wartości r możemy się nie doczekać): r = inf{fc: \Xi + . .. 4- Xk\ S-Í 1 Sí k Si n}. Jednak na zbiorze A zmienna losowa r przyjmuje wartości 1 , 2 , . . . , n. Mamy teraz, oznaczając Sk = X i + . . . + Xk, Rk — + . . . + Xki Ak = A fi { t = fc}, Odpowiedzi i wskazówki 426 następujące oszacowanie: £ ( S ^ lAfc) = £ ( ( & + Kfc)2l ^ t ) = (3) = £ (’Sfil.4fc) + £ (-RfclAfc) + 2£ (SkRkl-Ak) -S > £ ( S l l Ak) > r 2 - P ( A k), gdzie przedostatnia nierówność wynika stąd, że £ (R kl At ) ^ 0, zaś zmienne losowe i Rk są niezależne, jako że pierwsza z nich zależy tylko od X i . . . , X k> druga — od Xk+ 1 , . . . , X k. W takim razie £ (Skl Ak ■Rk) = £ (Skl Ak) ■£ R k = 0. Wystarczy teraz dodać stronami nierówności (3) dla k = 1,2, . . . , n, żeby otrzymać tezę: £ S l> £ ■J2£Sn1 > J2r2P^ =r2P^ - £ (£ Ak <==1 fc=l Drugą część twierdzenia dowodzimy biorąc A jak wyżej i A fc = {|5i| ^ e,i = 1,2,..., fe — 1, |Sfc| > e}. Wtedy £ (S2 nl A) ^ £ S l - e2P (A') = £ S 2 - e 2 + e2P(A). (4) Ponieważ |Sk| ^ |5,fc_r[ + |Xfc| ^ £ + C n a A k, to n n £S2 n1A = J 2 £ i5 *1*») fc=1 n ś ( e + C)2 E ~ 5fc)2] ^ k= 1 (5) n p (Ak) +£ p (A*)e (Sn -S k )2 s: ;=1 {e + C f + Y £ X k= 1 P(A). Z (4) i (5) otrzymujemy Ostatnią nierówność chyba najlepiej sprawdzić brutalnie mnożąc „na krzyż” . P(A) > £ S l-e 2 {s + C )2 + £ S l - e 2 > 1 - (e + C f £Sl ' 6. Szkic dowodu. Z założenia dla każdego e > 0 istnieje takie N , że P(max\SN+i — S n \> e) < - . i^O Z (6) Z drugiej strony, z tw. 6 P( ma* |SN+i - SN\> e) > 1 - ■ (e +n C )2 . ^^ 2^fi=N+lCA'i Zatem gdyby szereg z (6). £%n byl rozbieżny, otrzymalibyśmy sprzeczność do rozdziału 7 427 7. Wsk. Wykorzystać zasadą symetryzacji: rozważyć ciąg niezależnych zmien­ nych losowych (Yn) takich, że ciągi (X n)n i (Yn)n są niezależne oraz X n ~ Yn, n = 1, 2, __ Wtedy też jest zbieżny p.n., a więc (X n—Yn) jest zbieżny p.n., £ (X n - Yn) = 0 i P(\Xn-Y„\ ^ 2c) = 1, n = 1,2,.... Z zadania 6 wynika, że ® 2(^n —Yn) < oo, zatem ~D2X n < oo. Z twierdze­ nia 2 wynika, że —£ X n) jest zbieżny p.n., a więc £ X n < oo. 8. Szkic rozwiązania. Ze zbieżności X^L i Xn wynika, że X n —> 0 p.n., więc £P (|X„| > c) < oo dla każdego c > 0, zatem X n(u) = X„(u)) dla n ^ n(u) (korzystamy dwa razy z lematu Borela-Cantelliego). Stąd wynika, że jest zbieżny p.n. i korzystamy z zadania 7. 9. Odp. 0 6 (|, 1]. 10. Rozw. Wynika to natychmiast z twierdzenia o trzech szeregach. 11. Zdefiniujmy r jak w dowodzie nierówności Kołmogorowa, tzn. r = inf{fe ^ 1: [5fc| > i}. Niech Ak = { t = k}, Bk = {maxjŁ<j^„ |Sj - Sk\> r } , C = {max^n \Xj\ ^ ^ s}, Dk = Ak n Bk n C, k = 1, . . . , n. Wtedy mamy n E = {max|5fc|> s + £ + r } n C c D k. fc = l Istotnie, na Ak ii C zachodzą nierówności |5fc| > i, |5t_i| ^ t, \Xk\ < s, a więc |5it| ^ t + s, a dla u g i i l i i mamy dla pewnego l = l(u>): s + 1 + r < |5,| ^ \Sk\+ \Si - Sfc|$ t + s + \Si - Sk\, więc maxt<j^„ |5j - Sk\> r, tzn. oj € Bk i stąd n n £ = £ n ( | j Ą ) c (Jr>Ł. fc = l fc = l Z niezależności A k i Bk wynika, że P (D k) ^ P (A k n Bk) = P (A k)P(Bk) ^ P (A k) max P {B k). fc^n A ponieważ max/t^n P(Bk) ^ P({maxfc,., |Ą- —5fe| > r}) to n P(max|Sfc| > s-t-i + r) ^ P(max|Xfc| > s) + P(l JD k) ^ kś-n k^n v'~' fc = l ^ P(max|X/t| > s) + Tl + P({max |5,- - Sk\> r}) V k,j —J k=i P {A k), co daje pierwszą nierówność tezy, bo {maxfc^„ |Sł| > t} = U*=i Ak- Druga wynika z tego, że {|Ą —Sk\ > r} C {|5„ —Sk| > r / 2} U {|5„ —Sj\ > r / 2). ■ Odpowiedzi i wskazówki 428 7.4. Prawa wielkich liczb 2. Rozw. P (|^f -p| > e) < 2 Z)r=i e_!i^ < °°- 3. Rozw. £ “=1 jest zbieżny p.n., bo £ (&$=*) = 0, V 2( ^ £ ) = = pqY2n ^? < °°- Skorzystać z lematu 6 (Kroneckera). 4. Rozw. P( ^ e) ^ b) mamy V 2Sn ^ n ■const. co dowodzi pkt. a), a przy założeniu punktu 5. Rozw. V 2Sn i; 3nC i skorzystać z twierdzenia 4. 6. Rozw. Ve > 0 3 N \g(Xi,Xj)\ < s, o ile \i — j\ > N . Dla n dostatecznie dużych V 2Sn ^ K n + 2Cn2e, gdzie K jest stalą zależną tylko od N i C. 7. Rozw. Korzystamy z zadania 5.6.1 i definiujemy Yn jak w dowodzie MPWL. Pokazujemy, że lim„ v (Yi+~ + Yn) _ q j korzystamy z twierdzenia 4. 8. Rozw. Niech X n będą takie, że P (X n = n 4) = P (X n = Wtedy V 2X n = 2n6 i - n 4) = ^ , 1 - P (X n = 0) = 1 - J j. Xn Jest bieżny p.n. (lemat Borela-Cantelliego). 9. Rozw. Jedyne ograniczenie to pn £ [0, |], by rozkład prawdopodobieństwa był dobrze zdefiniowany. 10. Rozw. Zachodzi SPWL, bowiem limn T>n*n = 0; ale P(\x n\ > n) = oo, więc P(lim = 0) = 0, czyli nie może zachodzić MPWL. 11. Rozw. Skorzystać z MPWL. 12. Rozw. Dla c > 0 niech Sn = £ l ^ s j c } ^ i=l Wtedy lim inf — ^ lim inf — = £ (X i 1 ¡x , <c>) n —>00 n n — 00 n ' p.n. 1 oraz lim £ p i i l ^ ^ c } ] = C— +OQ więc P(limn ^ = 00) L 00, J = 1. 13. Rozw. Oznaczmy V 2X\ = a2. Wtedy £ (5Z"=1^ t ) 4 = ^ ( 2 ) ^ + nc ^ ar*2 dla wszystkich n i pewnej stałej a. Z nierówności Markowa (5.7.6) i ponieważ szereg J2 (fijr jest zbieżny, na mocy lematu Borela-Cantelliego z prawdopodobieństwem 1 zachodzi tylko skończenie wiele zdarzeń w nawia­ sie,’ co oznacza,' że -n i—j% Y'ln— l, Xił ------->0. 429 do rozdziału 7 *14. Rozw. Można założyć dla 1 Sj p < 2, że £X\ = 0. Trzeba udowodnić, że n i=i Niech Yn = P’n- Wtedy oo oo 5 ] P ( X n i Yn) = ^ P ( | X 1|P > n) < f|Xx|p < oo. n = l n = l Zatem na mocy lematu Borela-Cantelliego i lematu Kroneckera wystarczy udowodnić, że szereg jest zbieżny p.n. Dla p < 1 korzystając z twierdzenia Fubiniego mamy: e i £ > -1/p|Yn| = £ > “1/p£ \ n / < n s? c / r 1/p£ (|Jri|i{|Xl|<ti/p}) * < C i f I ^ r < oo. Jo Dla p = 1 korzystamy z MPWL. Rozważmy teraz przypadek 1 < p < 2. Na mocy tw. o dwóch szeregach wy­ starczy udowodnić, że są zbieżne szeregi £ ( n ~ l/ p Y n ) i V 2 ( n ~ 1/pY n ) . Ponieważ £ X n = 0, to £ Y n = —£ (X„l{|Xii|>ni /,) ) , zatem /• oo ^ / r 1/p£ (|Xi|l{|Xl|>ti / , }) dt ś C£\Xi\p < oo. Jo Podobnie J 2 & f r ~ X/PY*) ś Y s n~2/P £(X 'h \ x i\ ^ /* } ) ^ n n ŚC f t~2/p£ (A-?l{|Xl|łiti / , }) dt s: CiE\Xi\v < OO. Jo 15. Wsk. Pata przykład 18. Odp. a) ^ b) /(| ), c) / ( i ) . 16. Rozw. Oznaczmy K = P(t/ ^ f(Y )/C g (Y )). P ( X < t) = P(Y ^ t|l7 i= / ( y ) / C ff(y)) = P(Y ii i, U ś f(Y )/C g (Y )\ Y = y)g(y) dy _ P(U Ą f(Y )/C g (Y )) I-ooM )'9^ ^ f-°° f(-y)dy K KC Biorąc i —> oo, otrzymujemy K = ^ , a zatem P (X ^ i) = 17. Odp. Tak, weźmy np. g(x) = 1(0,i)(:e), wtedy C = ¿U- Odpowiedzi i wskazówki 430 18. Rozw. Mamy ■( f(x i) _ y ' /(») . I _ ™ \ m (X i) J ' Zatem z MPWL 7 ¿—i m(i ) n n' 1=1 /Ui) Z^i=i m (X i) -----------------►w p.n. 19. .Roztu. Mamy e z x = P ( / ( X 0 > yo = / J / l[o,i](a:)l[o,i](y)<iy<ia:= / J {/(*)>»} {/(* )> »} f(x )d x -'o i korzystamy z MPWL. 20. ilozw. Patrz przykład 17. *21. Rozw. Ponieważ i X ~ spełniają założenia twierdzenia, to wystarczy je udowodnić dla X n ^ 0. Niech Yi = X i l S X = Yi i kn = [an] dla a > 1. Wtedy należy kolejno udowodnić, że _ o* _cg* i ° E T -i p d H > £) ^ < °°- S* 2 °£ X i = limn -*rŁ p.n. (z lematu Borela-Cantelliego) 3“E ” i p (x n / K ) $ £ X i < oo, więc lim„ % - = f ^ p.n. 4cGdy /(n) jest takie, że &;(„) ^ n < fci(n)+i, to z monotoniczności S„: —£X\ ij liminf CK ‘(n) • Ti liminf — n limsup — Tl n a£Xi ^ i biorąc a —» 1 otrzymujemy tezę. *22. Wsk. Patrz zad. 9.1.14. 7.5. Twierdzenie Poissona 1. Odp. Można badać proporcje liczby „szóstek” do „piątek”, „czwórek” , etc. Jeśli na przykład gracze unikają skreślania liczb na brzegu kwadratu, bę­ dziemy mieli do czynienia z wyborem 6 liczb z 22 i proporcje szans otrzyma­ nia obu rodzajów wygranych będą inne niż przy wyborze 6 z 49. Oczywiście gracze nie zachowują się aż tak prosto, ale podany test działa. 2. Rozw. Zgodnie ze wzorem P (A n B fi C) = P(C\A fi B)P(B\A)P(A) szansa, że ustalony znak będzie po obu korektach błędny wynosi 0,001 ■0,1 •0,5 = 5 •10-5 = p . wobec tego liczba błędów ma rozkład zbliżony do rozkładu Poissona z para­ metrem A = np = 5. Szukane prawdopodobieństwo wynosi A* \ — e“ A = 0,26503 ± 0,00025, fc=0 fc! gdzie oszacowanie błędu wynika z twierdzenia 2. do rozdziału 7 431 3. Rozw. Oznaczmy przez p i r szanse zauważenia błędu przez pierwszego i dru­ giego korektora. Jeśli n oznacza liczbę błędów, to średnio pierwszy korektor zauważy np błędów, drugi — nr, a błędów zauważonych przez obu będzie npr. Z zależności np = 91 nr = 53 npr = 39 wyliczamy p = || ~ 0,74 i r = §| fs 0,43. Zwolnienie z pracy wygląda na Sami straciliśmy usprawiedliwione, szczególnie w drugim przypadku. 4. Odp. Niestety, aż log 100 ~ 4,605. 5. Odp. e-1 . 7.6. Twierdzenie de Moivre’a—Laplace’a Odpowiedzi do zadań podano zgodnie z najprostszą wersją przybliżenia de Moivre’a-Laplace’a, czyli wzorem 7.6(10), bez poprawki z 7.6(9). 1. Wsk. Dowody obu zależności są prawie identyczne. Trzeba uzasadnić za­ mianę kolejności przejść granicznych względem n i b, co można zrobić np. zauważając, że P (s ; > a) = P ( & ^ a, 5 ; e i-b , 6]) + P(S*n > a , S l Ź [-6,6]). Należy teraz wybrać tak duże b, by drugi składnik po prawej stronie był dostatecznie mały i skorzystać z tw. de Moivre’a-Laplace’a. 2. Odp. Około 1 - $(2,582) = 0,005. 3. Odp. Szansa, że zabraknie miejsc: 2[1 —$(2,83)] = 0,0023. Żeby zredukować to prawdopodobieństwo do 0,001, należałoby przygotować po 124 miejsca. 4. Odp. Jeśli p jest szansą pokonania Bolka w pojedynczej serii, średnia liczba serii wynosi l/p. Przybliżenie de Moivre’a-Laplace’a daje p ai 1 —$(5,4) ^ 4-10” 8, na mocy oszacowania (2) z § 5.10. Ale oszacowanie (12) z § 7.6 nie jest zbyt dobre: pokazuje tylko, że błąd przybliżenia nie przekracza 0,1. Można zatem podejrzewać, że przybliżenie l/p na tej podstawie będzie obarczone dużym błędem. Z kolei nierówność Bernsteina 7.4.2 daje p ^ 0,162. Pozosta­ wiamy Czytelnikowi zastosowanie nierówności Bernsteina 7.6.4. 5. Odp. Tw. de Moivre’a-Laplace’a daje dla n = 10 ok. 1 — $(0,63) = 0,264; dla n = 100: ok. 1 - $(2) = 0,023; dla n = 1000: ok. 1 - $(6,32), co jest praktycznie zerem. 6. Rozw. a) Szansa, że dany użytkownik w danej chwili chce skorzystać z poczty wynosi p = 9/1440 = 1/160. Liczba takich użytkowników jest zmienną losową. X o rozkładzie (z grubsza) Poissona z parametrem A = np = 320/160 = 2. Należy teraz wyznaczyć (metodą prób i błędów) najmniejsze takie fc, żeby P (X < fc) 0,95. Jest to fc = 5. szansę ustalenia, ile naprawdę błędów zawierało pierwsze wydanie, bo nie skorzystaliśmy z tej recepty. Odpowiedzi i wskazówki 432 b) Ma być P(Sn < k) > 0,95, gdzie Sn ma rozkład Bernoulliego z par. n = 320, p = 1/160. Ponieważ $(1,65) = 0,95, powinno być k ~—nP ^ 1,65, - ^ y/npg skąd k ^ 4,33 i należy przyjąć k = 5. 7. Ąozu). a) Jeśli X oznacza liczbę dzwoniących w danej chwili, to ma być P (X ^ 2) = §. Zakładamy, że X ma (w przybliżeniu) rozkład Pois(A), zatem i + A + y = |e\ Rozwiązanie najszybciej znajduje się metodą prób i błędów: A « 1,7273. Zatem każdy korzysta z połączenia średnio przez 1440p = 1440(A/n) = 12,44 minuty dziennie. b) Ponieważ $(0,68) = 0,75, podobnie jak w rozwiązaniu poprzedniego za­ dania mamy ^ = 0 ,6 8 , y/npq przy czym k = 2; rozwiązując równanie kwadratowe otrzymujemy p = 0,0062 i p = 0,01604; ten ostatni pierwiastek daje średni czas korzystania z połą­ czenia ok. 23 minuty na dobę. Dokładność jest problematyczna. 8. Odp. Przy standardowych oznaczeniach ze schematu Bernoulliego: wiemy, że p ^ 0,005, naszym oszacowaniem ułamka chorych będzie Sn/n, powinno zatem być p ( 1 ~ - p | <0, 001) >0,95. Po przekształceniach otrzymujemy - np y/ńpą Ponieważ $(1,96) = 0,975 (wtedy bowiem $(1,96) —$ ( —1,96) = 0,95), liczba n powinna spełniać warunek y /n > 1,96 •1000i/pę. Ale p Ą 0,005, zatem iloczyn p(l -p ) jest największy dla p = 0,005. Ostatecz­ nie n ^ 19112. Gdybyśmy nie mieli dodatkowej informacji o p, trzeba by było skorzystać z nierówności p(l —p ) ^ j , 0 ^ p ^ l , co znacznie pogorszyłoby oszacowanie liczby n. 9. Wsk. Zastosować metodę z poprzedniego zadania. 10. Rozw. Niech £, będzie zmienną losową, przyjmującą wartość 1, gdy i-ty no­ worodek jest chłopcem, i 0 w przeciwnym razie. Wtedy P(5. + •■.+ £ . ™ > « 5000) - F ( S- f 9;8 7 1;0 « - | ś ) =• = 0,0004. = 433 do rozdziału 8 Przybliżenie de Moivre’a-Laplace’a daje wartość praktycznie równą zeru. Oczywiście nie wiemy na razie nic o błędzie przybliżenia, ale zastosowanie jednego ze znanych oszacowań (nierówność Bernsteina, tw. Berry-Esseena) prowadzi do wniosku, że szukane prawdopodobieństwo jest małe. W wielu zadaniach przyjmuje się, że prawdopodobieństwo urodzenia chłopca wynosi 1/2 i nie popełnia się wielkiego błędu, jeśli tylko liczba „prób” jest niewielka. Ale nie tu. Gdyby szansa urodzenia chłopca była równa dokładnie 1/2, prawdopodobieństwo, że urodzi się nie więcej chłopców niż dziewcząt byłoby bliskie 1/2, a nie zeru. Jak widać, czasem dokładne określenie praw­ dopodobieństwa zdarzenia jest istotne. 8. Zbieżność rozkładów 8.1. Przykłady i definicja 1. Rozw. Dowód nie wprost: gdyby dla pewnej funkcji / ciągłej i ograniczonej na E istniał taki podciąg nk, że infit |£ f ( X nk) —£f(X )\ > 0, to ponieważ X , można by było wybrać z niego podciąg nkl, taki że X nil[ — * X (patrz tw. 5.9.8). Stosując twierdzenie Lebesgue’ao zbieżności zmajoryzowanej otrzymujemy sprzeczność. X nk 2. Wsk. Wykorzystać fakt, że istnieją różne zmienne losowe o tym samym roz­ kładzie. 3. Rozw. Jeśli zdefiniujemy funkcję f(x) = q(x , c) A 1, to £ [e(X„, c) A 1]------ >£ [g(c, c)Al] = 0, n —» c o ' , jeśli 0 < e < 1, co nie zmniejsza ogólności, mamy: P(g(Xn, c) > e) < P (e(X n, c) A 1 > e A 1) = = P (e(X n ,c) A!>£)<• £ [g( X „ , c ) Al } ____ , n czyli X n - ^ X . 4. Rozw. Weźmy / ciągłą i ograniczoną na E , wtedy h(x) = / (ax + 6) jest także ciągła i ograniczona, wobec tego £ f(a X n + b ) = £h(Xn) -> £h (X ) = £ f ( a X + b). 5. Wsk. Wykorzystać funkcje g-n.(x) = 1 + cos2irnx. 6. Rozw. Konieczność — patrz rozw. zad. 9b. Dostateczność: należy rozumować tak, jak w przykładzie 4 i zauważyć, że dla ustalonych e > 0 i m i dostatecznie dużych n sumy Y^k=i Pk * Sfc=i Pn<k większe od 1 —e, więc odpowiednie „ogony” nie przekraczają e. 7. Rozw. Dla dowolnego A: |V[A) - un(A )| / |/ - / „ |dp < / |/ - fn\dnJa Jn Odpowiedzi i wskazówki 434 Niech gn = / - / « ■ Wtedy g t -> 0 fi-p.n., 0 < g t < / , / jest całkowalna, więc Jn d i >0 z tw- Lebesgue’a. Ponadto / n 3+ cfyi - Jn g~dji = Jn gnd/j, = 0. Dlatego / |s„|d/ii= / / g~d/j, = 2 / ę/Jd/i ^ 0. Jn 8 . Wsi:. Zastosować tw. Scheffe’go dla miary Lebesgue’a. 9. Wsk. a) Zastosować tw. Scheffe’go do miary liczącej ¡j, lub przeformułować argument z zadania 8; b) dla punktu xo wziąć takie jego otoczenie o promie­ niu e, w którym nie ma innych punktów zbioru S i rozpatrzyć całki z funkcji f ( x ) = (p(^g(x,xo)), gdzie ip jest zdefiniowana wzorem 8.1(2). 10. Wsk. -i= spełnione są założenia przykładu 6, => nie wprost. 11. R ozuj. a) Weźmy dowolne u > 0. Niech f ( x ) = <p(u — |x|), gdzie funkcja ip jest zdefiniowana wzorem 8.1(2). Wtedy limsupP(|Xt| > u) < lim£ f ( X n) = £ f ( X ) < -PG^I > u — 1) —> 0, n gdy u —>bo. b) Wystarczy wziąć f ( x ) = <p(u—||x||), gdzie ||-|| oznacza normę euklidesową w R n. 12. Rachunki z przykładu A .2.2 pokazują, że X n ma gęstość On - (1 - x 2)(n~ 1) /2l [ _ M 1(x). Wobec tego ( x 2 \ (" _1)/2 1 i zastosowanie wyniku zad. 8 kończy dowód. Jeśli rozkłady jednostajne na kuli zastąpimy rozkładami jednostajnymi na sferze, wynik będzie ten sam. Można przeprowadzić rachunki analogiczne do pokazanych wyżej, można też skorzystać z faktu, że dla dużych n praktycznie cała objętość kuli n-wymiarowej jest skupiona blisko jej'powierzchni. 8.2. C h arak teryzacje sła b ej zbieżności rozk ładów 1. Wsk. Patrz przykład 8.1.1. 2. Rozw. Pokażemy, że zachodzi warunek (ii) twierdzenia 1. Weźmy funkcję jednostajnie ciągłą / , ograniczoną przez M. Na mocy jednostajnej ciągłości dla dowolnego e > 0 istnieje 5 > 0 taka, że jeśli |x—y\ < S to \f(x)—f(y)\ < e. Wtedy I £ f ( X n + Yn) - £ f ( X n ) \ ^ sP(\f(Xn + Yn) - f (Xn) |< s) + + 2MP(\f(Xn + Y n)~ f ( X n ) \ ^ e ) ^ ^ £ + 2MP(\Yn\ ź 5). PCKnl > ¿) -------> 0, jako że Yn n—»cc 0 (zad. 8.1.3). Ponieważ X n mamy: lim £ /(X „ + Yn) = lim £ f ( X n) = £ f ( X ) , X, do rozdziału 8 435 3. Wsk. Z zadania 8.1.4 X n + c X + c, Yn — c 0 i teza wynika z zad. 2. 4. Wsk. Można np. skorzystać z tego, że istnieją różne zmienne losowe o tym samym rozkładzie. 5. Rozw. P(\XnYn\> e) < P(\Xn\> A) + P(\Yn\> e/A ) dla dowolnego A. 6. Rozw. X nY„ = X n(Yn - a) + aXn. 7. Wsk. Niech g(x) = f(x) — /(O) - f'(0)x. Wtedy X n(f(Y„) - /(O)) = f'(0 )X nYn + X ng(Yn). *8. Wsk. Udowodnić, że spełniony jest warunek (iv ) twierdzenia 1. Niech G będzie zbiorem otwartym w F . Wtedy /i_1(G) nAcInt (|J O hk l (G))m k^m 9. Rozw. Oznaczmy p = 1 —q. Skorzystamy z poprzedniego zadania o owadzie (4.1.11) i z faktu, że splot rozkładów Poissona jest rozkładem Poissona z pa­ rametrem równym sumie wyjściowych parametrów, czyli Pois(a) * Pois(6) = = Pois(a + b), otrzymujemy rozkłady liczebności jaj w kolejnych krokach: • Pois(a), • Pois(ap) * Pois(a), czyli Pois(a(l +p)), • Pois(a(l + p)p) * Pois(a), czyli Pois(a(l + p + p2)), etc. Rozkładem granicznym jest Pois(o/l —p) = Pois(a/q). Żeby to zobaczyć, trzeba udowodnić, że jeśli an —» a, to Pois(a„) Pois(a). Można to zrobić korzystając z wyników tego rozdziału, ale najwygodniej jest użyć funkcji charakterystycznych. 8.3. Zbieżność rozkładów a zbieżność dystrybuant 1. Rozw. Niech Yn = X n + (a — an). Wtedy Yn — y X (zad. 8.2.2) i P {X n sCan) = P(Yn s: a) -> P (X ^ a). Można też skorzystać z zadania 8.2.5. 2. Wsk. Niech e = l / m i niech F(a,k) = k/m , k = 1,2, .. . m —1. Dla dostatecz­ nie dużych n wszystkie liczby |F„(ofc) —jF(ajb)| są mniejsze niż e. Wystarczy teraz skorzystać z monotoniczności, żeby otrzymać odpowiednie oszacowanie na całej prostej. 3. Wsk. Jeśli d(Fn, F) —>0 i x jest punktem ciągłości F , wybieramy e > 0, dła którego F(x) —F(x —e) < e i F(x + e) —F(x) < e. Dla dostatecznie dużych n mamy F(x —e ) — e < Fn(x) < F (x + e ) + e. Dowód twierdzenia odwrotnego można uzyskać adaptując dowód tw. 1 Niezłym kandydatem na przeliczalny zbiór gęsty jest zbiór miar postaci Y ^aił>wi, gdzie sumy są skończone, a liczby uj; i a, — wymierne. Odpowiedzi i wskazówki 436 4. Pfofc. Jeśli fi i ^ są rozkładami prawdopodobieństwa na (^,B(£?)), to defi­ niujemy d(n,v) = mf{e:V.FC.ElF domknięty /i(i?) < v(Fe) + e, J'(-F’) $ fi{Fc) + e}. Ustalmy e > 0. Jeśli d(//„,/u) —» 0, to dla dostatecznie dużych n mamy fin(F) < fi(Fs) + e. Wystarczy teraz wziąć granicę górną obu stron i e —t 0. sł Jeśli z kolei ¡j,n — ►fJ. i F jest domknięty, to lim sup//„ (F) < przy ustalonym e > 0 dla dostatecznie dużych n F), zatem fin(F) < n(F) + e 4 n(Fe) + e. Mamy też liminf fin(Fe) ^ ¿¿(Pe), czyli dla dost, dużych n jest nn(Fe) > > jjt(FE) - e, skąd fi{F) < /i(Fe) < fJ.n(Fe) + e. Przeliczalny zbiór gęsty w metryce d można otrzymać, wybierając przeli­ czalny zbiór gęsty S C B i rozpatrując takie miary probabilistyczne fi o no­ śnikach skończonych, zawartych w 5 , że /¿({a}) € Q dla a € S . Nie zaszkodzi przypomnieć sobie, że w ^ F(sc) X(w) ^ 5. Rozw. Wykorzystamy konstrukcję uogólnionej funkcji odwrotnej do dystrybuanty (zad. 5.2.2): niech X ,X i ,X 2 , ■■■ będą takimi funkcjami dla dystrybuant F, F\, Fz,... miar — Wykażemy, że X n(oj) —>X(w), jeśli w jest punktem ciągłości X . Ustalmy u e (0,1). Niech £ > 0. Wybierzmy takie x, żeby /t/({z}) = 0 i X(w) — £ < x < X(u>). Wtedy F(x) < u> i ze zbieżności Fn(x) do F(x) wynika, że dla dostatecznie dużych n mamy Fn{x) < w, a stąd X(cu) —e < < x < X n(u>). Zatem liminfX„(w) > X(w). Niech a; < oj', e > 0. Wybieramy u, dla którego X(u') < u < X (o/) + + £ i ¿¿({u}) = 0. Mamy uj < w' < F(X(ui')) SJ F(u), wobec tego u ^ < Fn(u) dla dostatecznie dużych n, a stąd X n{u>) Ą u $ X(ui') + £. Dlatego limsup X„(oj) < X ( cj), jeśli X jest ciągła w punkcie u. Wystarczy teraz zauważyć, że X ma zbiór punktów nieciągłości co najwyżej przeliczalny i położyć na nim X = X n = 0. Nie zmienia to rozkładu zmien­ nych losowych X , X i, X 2 , ..., a daje zbieżność ciągu (X n) do X na całym przedziale (0 , 1 ). 6 . Wsk. Zastosować lemat Fatou i wynik z poprzedniego zadania. 7. Wsk. Skorzystać z twierdzenia Skorochoda (zad. 5) i zad. 6 . 8 . Rozw. P(|Xn| > e) < £~2 supn £ X „ , zatem ciąg (X„) jest jędrny i dowolny podciąg zawiera podciąg (Xnk ) słabo zbieżny, powiedzmy do Y . Wtedy (zad. 7) £Xnk dąży do £ Y T, r = 1 ,2 ,..., bo dla każdego r X£ są jednostajnie całkowalne (zad. 5.9.16). Ale £Xnk —> £ X r, więc £ X r = EYT i z założenia X~Y. ' 9. Rozw. \Xn\p są jednostajnie całkowalne (por. zad. 5.9.16), \Xn\p \X\P, X % -2-> X p (z tw. 8.2.4) i skorzystać z zadania 7. 10. Wsk. Oto ogólna wskazówka: należy naśladować dowody dla przypadku rze­ czywistego, odpowiednio interpretując oznaczenia. Zamiast przedziałów na­ leży rozważać ich k-wymiarowe odpowiedniki, tj. zbiory postaci (0 1 , 61] x . . . x [ak,bk]. 437 do rozdziału 9 Relacja mniejszości „tłumaczy” się następująco: jeśli u = (u\,.. - Uk),v = = (vi,... Vk), to u < v oznacza, że u; < Vi, i = 1 , 2 , . . . k. *11. Wsk. Przestrzeń metryczna, ośrodkowa i zupełna da się zanurzyć homeomorficznie w R°°. 12. Rozw. Dla t > 0 mamy: *V» (i) = P(Xn ś t) = 1 - P(min(X1, . . . , X n) > t/n) = zatem ciąg (K„) jest zbieżny według rozkładu do zmiennej losowej o rozkła­ dzie wykładniczym. 9. Funkcje charakterystyczne 9.1. Definicja i przykłady 1. Rozw. b) Mamy U = cos t X + i sin tX ,£ U = £ cos tX + i£ sin tX . Korzystając z analogicznego związku dla V i Y i niezależności par zmiennych losowych cos tX i cos tY oraz sin tX i sin tY otrzymujemy £U V = = £ (cos tX cos tY —sin tX sin ty) + i£ (cos tX sin tY —sin tX cos tY ) = = £ co stX £ c o stY - f sin tX £ sin tY + i(£ c o s tX £ siniF —£ sm tX £ costY) = £ U£V. 2. Rozw. a) £eitXY = £ {£ (eitXY |Y )) = (skorzystaliśmy tu z faktu, że £exx* = ^ 5 = 5 5 dla A < §, i z tego, że £ (f { X , Y ) |Y = t) = £ f( X , t) dla niezależnych X i Y; patrz zad. 6.3.6). b) -^===. Pojawia się oczywiście problem, który pierwiastek z liczby zespo­ lonej wybrać. Wiemy, że funkcja charakterystyczna jest ciągła i przyjmuje w zerze wartość 1. Obie te własności zostaną zachowane, gdy wybierzemy pierwiastek o dodatniej części rzeczywistej (por. zad. 13.4.2). Formalne uza­ sadnienie takiego wyboru uzyskamy, gdy uogólnimy wzór wykorzystany w a) na zespolone wartości A. W tym celu wystarczy udowodnić, że f Jo y/u 2 jeśli Re« > 0 i y/u oznacza taką liczbę zespoloną w, że w2 = u i Rew > 0. Niech u = e 2ts (co nie zmniejsza ogólności). 438 Odpowiedzi i wskazówki Parametryzacje Fs i IV. r s ,Ts(i) = (R —i)eis,7Ś (i) = —eis; 73: [0, ii] - 72: [0 , s] -> r 2 , 7 2 (i) = Re%t,^'2(t) = Wtedy f r e~z dz = 0 = f r^ e~z dz+Jr^ e~*2 d z + fr e- f f ^ e~*2 dz — — f 3 dz. Jeśli R —> 0 0 , f e ^ dx = f ; io Jri Jr *2 ~ /Jo v Jo [ = -V E e~ I dt- ul Jo Jo “ *2 e2<y s * = e ut dt; Natomiast e~‘ 2 dz si f i Jr2 "o [e-R2e2,t ■Rieił\dt = R f le -*2^ Jo 2^ 1" 21)! dt = R / e~ Jo ponieważ 0 < s < J, więc cos 2 1 > cos 2 s > 5 > do zera, gdy R —» 0 0 . / 0°° e * dx = y/u- Ostatecznie 0, i ostatnia całka zmierza e~ut^dt. c) Wystarczy obliczyć następującą całkę, stosując podstawienie biegunowe: £e ¡tx/r = Ł j I eitX/ye~^dxdy = 1/ — -OOO O «/ •/ — C OO -UT" p 2 7C /»OO e « C tg re “5" drdip = i t C tg i Z-00 eiiu J _ ^ J-Oo 1+ “2 = do rozdziału 9 439 Otrzymaliśmy funkcję charakterystyczną rozkładu Cauchy’ego (równą e ^ — por. dodatek D). d) Rozkład tej zmiennej losowej jest taki sam, jak w a), ponieważ wektory losowe (X ,Y ) i , X^ f ) mają ten sam rozkład. Wynika to z niezmienniczości gęstości gaussowskiej ze względu na obroty (zad. 5.6.6). e) z a) i tw. 9 wynika, że funkcją charakterystyczną jest — dwustronny wykładniczy (por. tabela 2 ). a rozkładem / . \ n/ 2 3. Odp. pY(t) = ( i i j • 5. Rozw. (i)=^ (iii). Z (i) wynika, że / ^ ( l — cossx)fi(dx) = 0, a ponieważ 1 —cos sx > 0 , miara fi musi być skoncentrowana tam, gdzie 1 —cos sx = 0 , czyli sx = 2irk, gdzie k jest całkowite. To daje (iii). (iii)=> (ii). Jeśli zachodzi (iii), to ip(t) = ^ p „ e 2' mí’, , , czyli ma okres s. (ii)=$> (i). TVywialne. 6 . Wsk. Jeśli |v>(s)| = 1, to dla pewnego b mamy ¡p(t) = e“ 6 i można zastosować twierdzenie z zadania 5 do funkcji charakterystycznej ip(t)e~lłb. 7. Wsk. do a) Sposób I. Różniczkując pod znakiem całki i całkując przez części otrzymujemy ip'(t) = —t<p(t)\ ponieważ <^(0 ) = 1 , to logtp(t) = —\t2. Sposób II. Wykazać (indukcyjnie lub za pomocą funkcji gamma), że moment rzędu 2n rozkładu Af(0,1) jest równy (2n — 1)!! = 1 •3 • . .. ■ (2n - 1), a następnie skorzystać z tego, że £e,tX = J^kLo ■ Odp. do b) e ^ - i " 2*2. 8 . Odp. Wystarczą dwie niezależne zmienne losowe X i Y o rozkładzie Cau­ chy’ego. Wtedy 2X ~ X + Y. 9. Wsk. Wszystkie te funkcje są funkcjami charakterystycznymi. Odpowiednie rozkłady można wyznaczyć przedstawiając funkcje w postaci sum ^]pte“ Łl10. Wsk. Jeśli fii, ..., ß„ są wyjściowymi rozkładami, wystarczy rozważyć roz­ kład prawdopodobieństwa pißi + . . . + pnßn11. Odp. 12. Odp. a) Tak, jest to f.ch. fi* fi\ b) Tak, wystarczy wykorzystać wynik zad. 10 i to, że Rßz = |(z + ź). A bardziej poglądowo: wyobraźmy sobie „maszynkę do losowania” złożoną z symetrycznej monety i zmiennych losowych X i —X . Rzucamy monetą i jeśli wypadnie orzeł, wybieramy X , w przeciwnym razie wybieramy —X. Czytelnik zechce opisać otrzymany rozkład. c) Tak, jeśli Xi i X 2 są dwiema niezależnymi zmiennymi losowymi o rozkła­ dzie fi, to \tp\2 jest funkcją charakterystyczną X i —Xid) Niekoniecznie. Jak się wydaje, wystarczy wzięcie pierwszej z brzegu funk­ cji charakterystycznej. Prosty dowód otrzymujemy na przykład w takiej sy­ tuacji: niech P (X = 0) = P(X = 1) = |. Wtedy 1px(t) = § + |eli. Przypuśćmy teraz, że |ipx (t) |= ¡fiy (i). Wtedy ip\(t) = <px (t)ipx(-t) = ipx (t)ip-x(t). Z wyjątkiem symetrycznej stabilnej (def. 9.2.6). Chodzi o to, by \‘Px\ # ‘f ix - O dpowiedzi i wskazówki 440 Stąd, oznaczając przez Yi, Y2 (odp. X i, ^ 2 ) niezależne kopie zmiennej loso­ wej Y (odp. X ) otrzymujemy Yi + Y2 ~ X i —X 2 . Rozkład X i —X 2 jest skupiony na zbiorze { —1 ,0 , 1 }, skąd wynika, że rozkład Yi musi być skupiony na zbiorze { —|, 5i }}.. Niech a = P(Yi = §) |), i = 1,2. Wtedy P (Y i + P(Yi + y 2 = y 2 1) = a* = P (X i - X 2 = 1) = = -1 ) = (1 - a) 2 = P(Xi - X 2 = - 1 ) = | . Stąd a2 = (1 — a)2, czyli a = i , a jednocześnie a2 = |. Otrzymana sprzecz­ ność dowodzi, źe zmienna losowa Y o postulowanych własnościach nie ist­ nieje. 13. Odp. Załóżmy, że istnieje pochodna <p('2\ 0). Mamy (2 ) V ,• (0) = <p(h) - 2ip(0) + <p(-h) f°° eihx - 2 + e~ihx fJ , -------------- V -------------- = I“ oJ■/ —OO-------- — >---------- » “ W = = - 2 l™0 / --r g-S - ^ W . \/ —00 Z drugiej strony, z lematu Fatou otrzymujemy f x2nx{dx) = 2 f J —00 lim -— hxnx (dx) $ — OO < 2 Iiminf i -— ~ — nx (dx) = —<^(2>(0), — OO czyli £ X 2 < 00. 14. Odp. Wartość oczekiwana nie istnieje. Wykażemy istnienie pochodnej funkcji charakterystycznej ip w zerze. Ponieważ |1 —cosx| < min(x2 ,2), to / < 2 OO (cos hx — l)f(x)dx\ < p2/h p2/h / (xh)2f(x)dx + Jo 2 •OO foo / 2 f(x)dx = h + h . J2/I1 Teraz dla 0 < h < 2/e />e - /*2 / h Ii $; 2 /i2 / x2 /(x)dx + h •2C-§- / Jo fc Je r < 9 r 1 c / i log(2 //i) J2/fc x2 A ponieważ 1 r dx log(2 /fo)' , r ^ -, do rozdziału 9 441 to lim Mft) ~ I1 = o h—*0 h więc ip'(0 ) = 0. 15. Rozw. (px(t) = ^ ssZe'i'sP (X = s). Mnożymy obie strony przez e~*kt/2n i całkujemy na przedziale [—ir,ir]. Teza wynika z faktu, że (e~lfcl)t jest ukła­ dem ortonormałnym na przedziale [—7r,7r] z miarą A/2ir, gdzie A oznacza miarę Lebesgue’a. 16. Rozw. Niech / będzie gęstością rozkładu X . Dla e > 0 istnieje funkcja schodkowa h = otkl(ak,bk] taka, że J^°oa\f(x) - h(x)\dx < e. Wtedy I<Px(t) — h(x)e%txdx\ < e, a ponieważ / h(x)eltxdx 1 I J —C £ dk~ __ p£i«fc it gdy |i| —>oo, to \ipx{t)\ < 2 e dla dużych |t|. 9.2. Twierdzenie Levy’ego—Cramera o ciągłości 1. Wsk. Skorzystać z tw. 3. 2. Wsk. Skorzystać z poprzedniej wskazówki i jędrności ciągu (Xn) lub zad. 8.3.5. 3. Rozw. lP X „ + Y n { t ) = PYn ( t ) —►<PXo(t)<PYo(t) = ¥>Xo+ K0(i), w równościach korzystaliśmy z niezależności. Bez niezależności twierdzenie nie jest prawdziwe (zad. 8.2.4). Gdyby było, oznaczałoby to w szczególności, że X ~ Xo i Y ~ Vo pociąga za sobą iden­ tyczność rozkładów zmiennych losowych X + Y i Xo + Vo•Tak nie jest: niech na przykład (X, Y) ma rozkład jednostajny na kwadracie jednostkowym, a (Xo, Yo) — rozkład jednostajny na jego przekątnej. 4. Rozw. <pxn(t) —>0 dla każdego t / 0. f5. Jeśli a £ (0, f), rozkład jest osobliwy. Dla a 6 (|, 1) zmienna losowa X a może nie mieć rozkładu ciągłego, ale dla prawie wszystkich a z tego prze­ Byliśmy przekonani, że jest działu rozkład jest ciągły. to problem Haara! Problem ten został rozwiązany przez specjalistę od układów dynamicznych, Borisa Solomyaka2. 2W: On the random series ±A* (an Erdos problem), Annals of Math., 142 (1995), ss. 611-625. Prostszy dowód: Y. Peres, B. S., Absolute continuity of Bernoulli convolutions, a simple proof, Math. Res. Letters 3 (1996), ss. 231-239. Uogólnienie w: Duke Math. J. 102 (2000), ss. 193-251. Artykuł przeglądowy: Y. Peres, W. Schlag, B. S., Sixty years of Bernoulli convolutions, fractals and Stochastics II, Progress in Probability 46, ss. 39-65, Birkhauser, 2000. Odpowiedzi i wskazówki 442 Od dość dawna3 była znana charakteryzacja zbioru S tych a, dla których funkcja charakterystyczna X a zmierza do zera w nieskończoności (w świetle tw. Riemanna-Lebesgue’a (zad. 9.1.16) jest to warunek konieczny na cią­ głość rozkładu). Mianowicie, a € S wtedy i tylko wtedy, gdy l / a jest liczbą algebraiczną całkowitą, której sprzężone (oprócz niej samej) mają moduł mniejszy od jedności. 6 . Rozw. X = Y i + Y-i + . . . 4 - Y n, gdzie Y i są niezależnymi zmiennymi losowymi o rozkładzie geometrycznym. Stąd <P2 x P(t) = <px(2pt) = ( r _ ^ l )e2pity - (1 - 2i i ) - " , gdy p —» 0 , a więc 2 X p zmierza do zmiennej losowej o rozkładzie gamma. *7. Wsk. Niech (t/„) będzie ciągiem Bernoulliego. Gdy X = , to ^ ( i ) = ( n “ ic °s ^ K at * 8 . Rozw. Dla pewnego a > 0 mamy £ea ( y + z ) 2 < oo, więc z twierdzenia Fubiniego wynika, że dla pewnego c € R jest £e“(y+c) < oo, zatem funkcja charakterystyczna zmiennej losowej Y + c na mocy lematu 9.2.4 jest całko­ wita. To samo odnosi się do Y, więc i do Z. Ponieważ tpYVz = ‘p x, funkcje charakterystyczne zmiennych losowych y i Z nie mają zer, a zatem obie te zmienne losowe mają rozkłady normalne. 9. Rozw. Mamy 2 1 + e*2 ' + e- * 1 2 2 ~ e ' Przypuśćmy, że <j>jest funkcją charakterystyczną. Drugi czynnik iloczynu po lewej jest także f. ch., a to oznacza, że f. ch. rozkładu normalnego rozkłada się na iloczyn niegaussowskich funkcji charakterystycznych, co jest niemożliwe na mocy zad. 8 . 10. Wsk. (p"(0) = 0. Jaka jest wariancja odpowiedniej zmiennej losowej? 11. Wsk. Z tabeli 2, §9.1, wiadomo, że funkcja <pa(t) = a- 1 (l-| x | /a )-l[_a,0](a:), gdzie a > 0 , jest funkcją charakterystyczną i spełnia warunki zadania (jej wykres ma kształt trójkąta). Wykazać, że każda funkcja spełniająca warunki zadania jest postaci P l f ai (t)+ ...+ P n < P a n(t), gdzie pi > 0, i — 1 ,2 ,... ,n, J^pi = 1. 12. Wsk. Każda taka funkcja jest granicą funkcji charakterystycznych z poprzed­ niego zadania. 13. Odp. Vi(t) = { ^ dla V J i , " 2’ ’ W ® = ^ ~ W)1 !—M]W- 3J.-P. Kahane, R. Salem, Sur la convolution d ’une infinité de distributions de B er­ noulli. Colloquium Math. 6 (1958), ss. 193-202, R. Salem, Sets o f uniqueness and sets o f multiplicity, Trans. Amer. Math. Soc. 54 (1943), ss. 218-228. 443 do rozdziału 9 14. Odp. Niech ip oznacza funkcję charakterystyczną siły grawitacji pochodzącej od pojedynczej gwiazdy. Wtedy tr . . tr , , cos r-nrrr + *sm . , |dr ■ = — / cosir_#Jdr = 1 + — / (cos tr_/3 — l)dr = n Jo n Jo cos tu — 1 = i + -~ r n/3 L -g M1+1//3 Podstawiając v — |i|u otrzymujemy cos v — 1 «i+i/P cos v — 1 „1+1//3 dv Pierwsza całka jest zbieżna, gdy 1//? > 0 (co gwarantuje zbieżność w nie­ skończoności) i gdy 1//3 < 2 (istotnie, w otoczeniu zera cos« — 1 = 0 (v 2), musi więc być 2 — (1 + 1//?) > —1, czyli 1//3 < 2). Z powyższego wynika, że gdy 0 < 1//3 < 2, druga całka zmierza do zera, gdy n -t o o . Niech C(/3) = | / “ ^rrTjrdu. Wtedy ¥>(*) Ostatecznie, funkcja charakterystyczna (pn siły grawitacji pochodzącej od n gwiazd da się zapisać jako V>n(t) = 1+ n — +o( i \n Wystarczy teraz zmienić parametr skali i skorzystać z twierdzenia Levy’ego, by zobaczyć, że jest funkcją charakterystyczną dla 0 < a < 2 . 15. Odp. Ponieważ <px(t) = 1 + o(i), IPX i + . . . + X n ( i ) = 1. l+ o Rozkład graniczny jest zatem skupiony w zerze, a z zad. 8.1.3 wynika, że ma miejsce również zbieżność według prawdopodobieństwa. 16. Odp. Ponieważ y?x(i) = 1 — ^ + o(i2), <px 1+...+xT1 (i) = , r / r 1 — o ----Hol — 2n —i /2 \n Rozkładem granicznym jest jV (0,1). 17. Wsi:. Rozważyć zmienne losowe X n = ([/„ —p)/y/pg, gdzie U„ jest liczbą sukcesów w ra-tym doświadczeniu. Odpowiedzi i wskazówki 444 9.3. T w ierdzenie B och n era i w zory na od w rócen ie 1. Rozw. Z tożsamości Parsevala zastosowanej do pary rozkładów U(—a,a) i ich funkcji charakterystycznych: <p i x) = sin ax/ax (dla x = 0 oczywiście ip(0) = 1 ) otrzymujemy f 1 —ics / \j sin(a(a; f c)) , . Funkcja podcałkowa po prawej stronie jest ograniczona co do modułu przez 1 i gdy a —> oo, zmierza do zera dla x ^ c. Żeby zakończyć dowód, wystarczy zastosować twierdzenie Lebesgue’a o zbieżności zmajoryzowanej. 2. Rozw. Na mocy zadania 1 szukaną granicą jest atom w zerze symetryzacji rozkładu ¡i (jest to °(i = fj, * /i, gdzie p.(A) = fi(—A), A 6 B(R)). Wystarczy teraz zauważyć, że jeśli ma atomy cj, C2 , ..., to °// ma w zerze atom o masie Y2k <?k- W szczególności, dla rozkładu bezatomowego szukana granica jest równa zeru. 3. Rozw. Patrz zad. 2. f4. Wsk. Można skorzystać z dodatniej określoności funkcji min(a:, y ) (por. z f. kowariancji procesu Wienera, rozdz. 13). 9.4. Wielowymiarowe funkcje charakterystyczne 1. Rozw. Zmienne losowe X , Y są ograniczone, więc z nierówności A .1.1 wynika, że <px(t) = o ^ % -£ X k (to samo zachodzi dla Y). Ponieważ £ X k£ Y l — = £ (X kY l), k ,l e N, mamy: W szystkie szeregi są bezwzględnie zbieżne, więc sumy podw ójne m ają sens i można zmieniać kolejność sumowania. W istocie korzystamy z wersji tw. Fubiniego. wx,n«,.) - £( W ”) - £(£ ■t l¥ ^ - \fc -o =£i\k,lt =0 _ ^ fc,i=0 i=o / y <xV>= fc,i= 0 ^ ^ /=0 fo )ł£ r ł ^ = vx(t)v>y(s), zatem X i K są niezależne. Możliwe jest uogólnienie tego twierdzenia, por. tw. E .l.l, uw. E.1.4 i dowód tw. E.1.7. *2. Rozw. Ponieważ Nt — Ns = N((s,t]), to ze stwierdzenia 5 wynika nieza­ leżność przyrostów procesu Poissona i to, że Nt — N3 ma rozkład Poissona z parametrem A(i — s). Dowód stwierdzenia 5. Ponieważ do rozdziału 9 445 to stosując lemat 4 do funkcji hj(u) = ets^ Bj(u\ otrzymujemy -1 ) £ e isj N ( Bj ) — Iloczyn hi ■h? ■... ■hn też spełnia założenia lematu, a ponieważ h\ •h%• ... •hn — 1 — (h\ — 1 ) -t-. . . -ł- (hn ~ 1 )) to £ e*nW (Bi)+iS2AT(B2)+...iSl,W(B„)) =n i=1 i twierdzenie 2 daje tezę. ■ Dowód lematu 4. Ponieważ Sk -> oo p.n. (patrz zad. 7.3.2), to h(Sk) = 1 dla wszystkich k od pewnego miejsca, więc Y jest dobrze określone oraz \Y\ ^ 1. Wystarczy udowodnić, że lim £ U Tl—*-00 W = /0°°W«)-!)** Otóż = i h(xi)h{xi + x 2) ■■■. •h(xi + ... + s„)Ane x(-xl+" +Xn)d x i. ■-dxn = Jr" = I J0^txi h(ui)h{u2 ) ■ ■ h(un)\ne~Xundui... dun = ...^un yi POC = ^ZTjyj J = (^T ijT flun ł>un J -J h(ui)h(u2) J {J h(s)ds) ■■■■■h(un-i)d u i .. .dun-ih(un)e~' h(u)e~>"‘du = Najpierw skorzystaliśmy z tego, że X t są niezależne o rozkładzie wykładni­ czym, później zamieniliśmy zmienne na U l = X l , U 2 = X l + X 2 , . . . , U n = X l + . . . + X n (jakobian tego przekształcenia jest równy 1). Aby otrzymać trzecią rów­ ność wystarczy zauważyć, że funkcja podcałkowa jest symetryczna względem zmiennych iii, u2, ■■■, unGdy A = f£°(h(u) - 1 )du, to dla u ^ uo mamy Odpowiedzi i wskazówki 446 Niech Ci = Jo°+A s” le Xsds > C2 = f “° ( h(u)e Xudu. Po­ h(s)ds'j nieważ r 00 /• o o / (u + A)n- l^ Xudu = / «/ xiQ * uo-\-A = eXA[J^ = s” - 1 e_Aa< is-C ,i ], to , (n - 1)! \n ^" i C 2 - e nXAC C l 1 +IerXA7 ---------— J (n - 1)! L srn_l e ~^SJ ds = Ostatnia równość wynika z tego, że (n — 1)! = T(n) = A f°°(H u )-l)d u lim I, = e Jo --------- r r r + e *,4 (n - 1)! sn Le Sds. Zatem .1 n ~ *oo 10. Centralne twierdzenie graniczne 10.1. Wprowadzenie 2. Wsk. Wykazać, że suma w warunku Lmdeberga jest równa f ( X 2 l{|X|>r n/H}) i skorzystać z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej. 3. Wsk. Jeśli |X| > e, to I* ! ' 5 > e5, i £(\X\2l lm > ; }) ś ¿£(|X | 2+ il {,x|>e}) ^ ¿£|X|2+i. 4. Rozw. |X„[ ^ K , sn —> 0 0 , więc dla każdego k, |Xfc — £ X k\ < rsn dla n dostatecznie dużych. 10.2. Twierdzenie Lindeberga-Levy’ego 1 Jeśli /•P2X = 100, co można powiedzieć o średnim dziennym obrocie, czyli £\X\? . Odp. Szansa uzyskania takiego wyniku w pojedynczej serii wynosi ok. 1 — $(2,93) 0,0017, a średni czas oczekiwania jest równy odwrotności tej liczby. 2. Odp. Jeśli a oznacza zawartość kasy rano, to powinno być $(-a/crv/n) Ą 0 ,0 1 , czyli $(a/<T-v/n) ^ 0,99, gdzie o = 100, n = 100. Okazuje się, że a Ki 2330. Jest to z grubsza 2% średniego dziennego obrotu. W przypadku 100 urzędów pocztowych wystarczy wziąć n = 10000. Wtedy a wzrośnie tylko dziesięcio­ krotnie. 3. Odp. $(1,67) - $(-1,67) = 2$(1,67) - 1 « 0,9. 4. Odp. Dla a < 0 granica jest równa 1. Gdy a ^ 0, granica jest równa 1 dla a< 2 ( 1 — $(a/cr)) dla 0 = ^ , 0 dla a > 5. Odp. Dla 1 grosza zagrożenie jest poważne: szansa wynosi 1—$(0,496) Dla 3 groszy spada do ok. 7%. 0,31. do rozdziału 10 6 447 . Odp. Można wyliczyć, jaka jest w obu przypadkach szansa uzyskania jeszcze lepszego (czyli bardziej oddalonego od teoretycznej średniej) wyniku. Dla Jasia jest to ok. 1 — $(8,19), dla Stasia ok. 1 — $(3). Większe zdolności telekinetyczne ma Jaś. 7. Odp. Prawdopodobieństwa otrzymania obu układów kości wynoszą pi = = 0,5177 i P2 = 0,4914. Naturalny pomysł polega na wykonaniu n razy obu doświadczeń. Podejrzanie duża różnica częstości występowania obu układów jest argumentem za tym, że pi ^ P2 , ale jeśli nawet pi = P2 , to duża różnica częstości może pojawić się przypadkiem. Jak wybierać krytyczną wartość dla różnicy częstości? Można zauważyć, że jeśli pi = p2 = p, to (Sn —Tn)/2y/npq ma dla dużych n rozkład bliski jV (0 ,1) (S„ i Tn oznacza liczby sukcesów w obu seriach doświadczeń). Wobec tego z prawdopodobieństwem 0,99 (ta liczba została wybrana zupełnie dowolnie; w podręcznikach statystyki po­ jawiają się w takiej sytuacji zwyczajowo wartości 0,9, 0,95 i 0,99) liczba |5n —T„| nie przekroczy i„ = 5,16 ■y/npq. Jeśli tę ostatnią liczbę uznamy za krytyczną, to w sytuacji, gdy pi = p2 szansa popełnienia błędu wyniesie ok. 0,01. Można teraz przypomnieć sobie zadanie o noworodkach (7.6.10), gdzie zresztą prawdopodobieństwo urodzenia chłopca było bliskie pi, by zauważyć, że np. dla n = 1 0 0 0 0 szansa otrzymania różnicy częstości przekraczającej wartość krytyczną jest praktycznie równa 1. Wystarczy zatem 10000 partii, co dla nałogowego hazardzisty nie jest problemem. 8 . Wsk. Wykazać, że spełniony jest warunek Lapunowa. 9. Odp. a) war. L. jest spełniony; b) war. L. nie jest spełniony, ponieważ ciąg (s„) jest ograniczony (por. zad. 10.1.4). Jeśli założymy, że = 1, to rozkładem granicznym jest rozkład sumy szeregu gdzie zmienne losowe Uk są niezależne i mają ten sam rozkład jednostajny na [-1,1]. Nie jest to rozkład normalny, bo jego funkcja charakterystyczna ma zera. 10. Odp. Niech £/„ = n + . .. + rn, gdzie (rj) jest ciągiem Bernoulliego. Z le­ matu Borela-Cantelliego wynika, że ciągi (Un/y /n ) i (Sn/\ /n ) z prawdo­ podobieństwem 1 są od pewnego miejsca (losowego!) identyczne. Dlatego S „/y/n M (0,1). Co ciekawe, V 2(Sn/y/n) —* 2. 11. Wsk. Rozkładem granicznym jest M (0,1). Wystarczy zbadać funkcję cha­ rakterystyczną. *12. Wsk. Skorzystać z wyniku zadania 11. Rozwiązanie czysto analityczne ist­ nieje, ale rachunki są trudne. 13. Wsk. Zadanie jest łatwe. Można się zastanawiać, który sposób jest szybszy: skorzystanie z CTG, czy obliczenie funkcji charakterystycznej. 14. Wsk. Un = — • x !t+ " + x z • Pierwszy czynnik zmierza według roz­ kładu do A/”(0,1), drugi — według prawdopodobieństwa do 1. Iloczyn (por. zad. 8.2.6) zmierza według rozkładu do JV(0,1). Podobnie można postąpić w przypadku Vn. *15. Wsk. Skorzystać z twierdzenia 1. a) Pokazać, że zmienne losowe X n<k — liczba inwersji elementu k, k = = 1 , . . . ,n, są niezależne i mają rozkłady P(Xrl:k —i) = 1 /k ,j = Q ,...,k —1 . Odpowiedzi i wskazówki 448 b) Jeśli X„,fc(w) = 1, gdy fc-ty element przedstawienia cyklicznego permutacji uj kończy cykl, X n,k(u>) = 0 w p.p., to X „ ,i,... ,X n,n są niezależne 0 rozkładzie P (X n,k = 1) = n_]c+1' ■ 16. Wsk. Zbadać IogZ„. Odp. Granicą jest ev , gdzie Y ~ M (0, log2 a ). 17. Wsk. Niech Q będzie macierzą kowariancji wektora losowego X , zaś U — wektorem losowym o rozkładzie J\f (0, Q). Wystarczy zauważyć, że ¥>z„(i) = £ei<t'* 1+- +'w '/ "> -> e ' i £ ( t 'x ) 2 = e- i <QM), zatem rozkładem granicznym jest rozkład wektora losowego U. W zasadzie tak samo rozumuje się, stosując metodę Cramera-Wolda z tw. 9.4.3. 18. Wsk. W (ii) skorzystać z zadania 11, a w (iii) z zad. 8.3.9. 19. Rozw. V2 •£ X = £ Y + £Z, a stąd £ X = y/2£X, zatem £ X = 0. Iterując warunek (ii) otrzymujemy v X 1 + X 2 + ... + X 2» A ~ ------------- ■==-----------, \/2" gdzie Xi, i = 1, 2, . . . są niezależnymi kopiami X . Z centralnego twierdzenia granicznego wynika, że prawa strona zmierza według rozkładu do Ai (0 , er'2) , zatem X ~ N (0,<r2). 20. Rozw. Z CTG y/nYn — > jV(0, a2) i zastosować zad. 8.2.7 dla X n = y/n 1 Yn. 11. M artyn gały 11.1. Momenty stopu 1. Odp. a) tak; b) nie; c) tak. 2 . Rozw. Zbiór {r ^ t} jest albo pusty, albo równy fi. 3. Rozw. {ti A T2 ^ i} = {n $ i} U {r2 śi t}. Odwracając symbole „A” i U” otrzymujemy dowód drugiego stwierdzenia. 4. Rozw. a) Niech <x = inf{n: n > r, X n € B}. Wykażemy, że a jest momentem stopu. Mamy {er = t} = [ J { t = s} n {X u 0 B dla s < u < t, X t € B } e Tu S<t co kończy dowód. b) Tfc = inf{n:.n > Tk-\,Xn € B}. To, że n, jest momentem stopu, wynika natychmiast z punktu a. 5. Rozw. P( t > n) — P (X i + . .. + X n < 1) = ¿ , skąd Sr = e. Druga równość wyraża fakt, że objętość n-wymiarowego sympleksu, rozpiętego na wektorach jednostkowych, jest równa do rozdziału 11 449 6. Rozw. a) Niech A € Tr. Wtedy A! n {r $ i} = {r 4 t} \ (A n {r 4 ¿}) € Tt, zatem A! £ Tt . Z kolei jeśli Ai £ Tr dla i = 1 , 2 , . . to mamy / oo \ oo I (J Ai | n {r ^ t} = y (Ai n {r ^ i}) € Tt, \i= 1 / i= l zatem U S i Ai £ Tr. b) Jeśli t = i, warunek z definicji Tr przybiera postać: A € T t «• Vs £ T ,4 0 {i < s} 6 Ts, jednak zbiór {i ^ 5 } jest albo pusty, albo równy Cl, dlatego warunek po prawej stronie jest równoważny temu, że A £ Tt. 7. Rozw. a) Rozumowanie jest identyczne jak w dowodzie lematu 5; b) Wystarczy udowodnić twierdzenie dla {r = cr} i { t > <7 }. 1° {r == a} n {r = i} = {r = i} n i { t = a} £ T„. {<7 = t} € Tt, zatem { t = cr} £ Tr 2° {r > 0} n { t = t} = Us<i{cr = «} n {r = i} £ T t. 8. Rozw. Niech A £ TTJl. Wtedy A fi {r2 ^ i} = (A n {n ^ t}) n { t 2 t} £ Tt- 9. Rozw. Na rysunku pokazano 3 generatory cr-ciała T t (które wobec tego ma 23 elementów). Zaznaczono, jakie są wartości zmiennych losowych X\ i X 2 na poszczególnych zbiorach. Bezpośrednio widać, że każdy zbiór A, będący generatorem T t spełnia warunek A n {ril}£fi i A n { 7- $ 2} £ T 2. Zbiór {r ^ 1} (który tu przypadkiem pokrywa się z {r ^ 2}) został poma­ lowany na szaro. Można też zobaczyć, że zdarzenia uwidocznione na rysunku mają następującą własność: wiadomo, czy zaszły, czy nie, jeśli obserwować proces do chwili r. 10. Rozw. Wystarczy wziąć jako t moment stopu z poprzedniego zadania. 11. Rozw. Przypuśćmy, że warunek jest spełniony i rozpatrzmy zbiór B= {£1 = 1, ... ,£ 7 = 1,?8 = -1,^9 = —l,$io = —1} G Tx0. Wtedy A = {<77 10} n B £ Tw. Odpowiedzi i wskazówki 450 Zbiór A musi być niepusty, bowiem zawiera podzbiór { i i = •••= £7 = 1, - 1 = £s = £9 = ••.}• Ale jedynym niepustym podzbiorem zbioru B, należącym do T\o jest on sam, zatem { 0 7 ^ 10} D B. Stoi to w sprzeczności z faktem, że zbiór {£l = 1, . . . ,£ 7 = 1,^8 = —1j£9 = —l,£lO = —l,£ll = l,£l 2 = 1,^13 = 1}> będący podzbiorem B, nie jest podzbiorem zbioru {0 7 ^ 10}. 12. Rozw. P(r < 00) = 1, więc P(ST = 1) = 1 i £ST — 1. Gdyby £r < 00, to z tożsamości Walda wynikałoby, że 1 = £ST = £X\£r = 0, sprzeczność. 13. Rozw. Niech. X n będzie wynikiem n-tego rzutu, a <Jliczbą rzutów. Wtedy cr jest momentem stopu i z tożsamości Walda otrzymujemy £ S „ — £ X \ £ a = 3,5 •14,7 = 51,45 (por. zad. 5.6.10). 11.2. Martyngały, nadmartyngały, podmartyngały 1. Rozw. Całkowalność wynika z równości £ \Zn+iZn\= £ \Zn+i\£\Zn\; dalej, £ (Xn+1 - X n \?rn ) = £ (Zn+iZn |Fn) = Z„£ (Zn+i |Tn) = Zn£Zn+1 = 0. 2. Rozw. Wystarczy sprawdzić, że spełnione są założenia tw. 15: niech Zo = 0, Zn = Sn - n£X 1. Wtedy £ (| Z n+1 - Zn 11 Tn) = £ ^ 2£fXil £ X x\| T n ) (| X „+ i - = £\ X n + i - £ X l \ ą 00 . < Wtedy z tw. 15 otrzymujemy £ZT = 0, czyli tożsamość Walda. 3. Rozw. Z tw. Dooba wynika, że £S rA n n = 1,2,... = £ (t A n ) £ X i, W szczególności su p ii^ n < 00 . (7) £S2 TAn $ £S 2 t, (8) Jeśli teraz udowodnimy, że to z lematu Fatou otrzymamy lim inf £ (r A n) ■£X\ = liminf £ 5 2A„ ^ £Ś\ = n n = £lim inf52Arl n = lim inf £ n (t liminffS^/sn = n A n) ■£ -Xf, i teza wyniknie natychmiast stąd, że lim infn£ (r A n) = £r. do rozdziału 11 451 Pozostaje więc do udowodnienia nierówność (8), która sprowadza się do nie­ równości £ ('S,rŁl{r>n}) ^ £ (STl { r>n}) • Do zachodzenia tej ostatniej wystarczy, by |*S,TT.|l{T>fŁ} ^ £ (|tSV||-^n) l{-r>n} i (9) bowiem na zbiorze {r > n} zachodzą wtedy nierówności S,n <[£(|Sr||i-„)]2 ^ £ ( S ? | ^ „ ) ; druga z nich jest nierównością Jensena 6.3.6. W konsekwencji e { s h {r>n}) s [£ (s? I T n) i {T>n}] = e (s 2v >n}) . Pozostaje więc dowód (9). Ustalmy A £ i m > n. Wtedy n ^ r A m na zbiorze {r > n}. Skorzystamy także z tego, że ciąg (|:Sn|) jest podmartyngałem (por. zad. 7 i 8). Mamy i \Sn\ d P ś i \SrAm\dPś J ACt{T>n} J An{T>n\ a f JAn{m^r>n} |5T|dP+ i \STAm\dP. J^4fl{r>m} Widać teraz, że pierwszy składnik zmierza do f An^T>ny |ST|dP na mocy tw. Lebesgue’a, drugi zmierza do zera. Żeby to zobaczyć, skorzystamy z oszacowania w stylu nierówności Czebyszewa. Jeśli B = {|STAm[ > a}, to na B jest ~SlAm > |STAm|, dlatego szacując osobno całki po zbiorach A n {r > m} n B i A n { t > m} n B' otrzymujemy cq2 L |5TAm|dP ^ + aP(r > m). A n{-r>m ) Ustalmy e > 0. Z (7) wynika, że licznik pierwszego składnika jest ograniczony przez stałą. Wystarczy teraz wybrać dostatecznie duże a, wtedy dla dużych m prawa strona będzie mniejsza niż e. Kończy to dowód wzoru (9) i całego twierdzenia. Dowód wzoru (8) może wydawać się mało intuicyjny. Naturalny dowód tej wersji tożsamości Wałda można otrzymać z nierówności Dooba (zad. 11.4.4). 4. Rozw. Wykorzystać tożsamość Walda z poprzedniego zadania. 5. Rozw. Zastosować wynik z przykładu 5. 6. Rozw. Ponieważ £Dn = 0, n = 0,1,..., wystarczy wykazać, że £DmDn = 0 dla 1 m < n. Ta wartość średnia istnieje, bowiem przyrosty są także całkowalne z kwadratem i \DmDn\^ \{Dm + D„). Dalej, £ DmDn = £ (£ (DmDn |.F„-i)) = £ (Dm£ {Dn \Tn-r)) = 0. 452 Odpowiedzi i wskazówki 7. Rozw. Niech tp będzie taką funkcją wypukłą, że zmienne losowe tp(Xn) są całkowalne. Załóżmy najpierw, że [Xn,Tn) jest martyngałem. Wtedy z nie­ równości Jensena (6.3.6) £ (<p(Xn+1) |Tn) > tp(£ (Xn+11J-n)) = <p{Xn). Jeśli (X„,.Fn) jest podmartyngałem, a tp jest dodatkowo malejąca, równość w powyższym wzorze można zamienić na nierówność. 8. Odp. a) podmartyngał; b) nadmartyngał; c) podmartyngał. 9. Rozw. Ponieważ Zn = X nl { T>rlj + widać, że zmienna losowa Zn jest .^„-mierzalna, a ponadto £ \Zn\^ £\Xn\+ £\Yn\, jest więc całkowalna. Dalej, £ (Zn+l I /n ) = l {r>n}£ (X»+l |Fn) + l {r<n>£ (Yn+1 |?n ) + + £ ((Yn+l - X n+l)l{T=n+l} |Tn) = Zn, ponieważ ostatni składnik sumy jest równy zeru, jako że X T = YT. 10. Rozw. Niech r będzie jednym z momentów stopu n. Ustalmy e > 0 i do­ bierzmy S z warunków równoważnych jednostajnej całkowalności (zad. 5.9.17, warunek (U)). Ponieważ r jest p.n. ograniczony, to dla dostatecznie du­ żych n mamy P(r > n) < S, wobec tego dla dostatecznie dużych n jest £ (|Xn|l{T>„}) < e, co kończy dowód warunku (3). Żeby udowodnić (2), określmy X * = X^=i 1^*1- Wtedy \XT\ ^ X*. Ponie­ waż X *An T X * p.n., wystarczy wykazać, że wartości oczekiwane £X *An są ograniczone, a następnie skorzystać z tw. Lebesgue’a. I rzeczywiście, z jed­ nostajnej całkowalności ciągu (X n) wynika, że supn £\Xn\< oo. Mamy teraz £X*rAn = f \Xi\dP + . . . + */{ r = 1 } < i J{ r ^ n } f J{ r = n } \Xn\dP^ |Xn|dF<supf|X„|. 71 Skorzystaliśmy z tego, że (|Xn|) jest podmartyngałem, więc dla A g Tk i k ^ n mamy f A \Xk\dP ^ JA \Xn\dP. Warunek (3) został udowodniony. 11. Rozw. Biorąc r = n otrzymujemy całkowalność X n. Niech s < t, A € 3-sZdefiniujmy _ ( u dla oj € A, Ua~ \ T dla u 0 A. u a jest momentem stopu dla u ^ s. Ponadto dla s mamy / X udP = i X UAdP - i XrdP = — i X TdP. Ja Ja Jn-A Jn-A W ostatniej równości skorzystaliśmy z założenia £ X r = 0 dla dowolnego momentu stopu przyjmującego dwie wartości. Zatem biorąc najpierw u = t, potem u = $ mamy £ (XtlA) = - f n^A X TdP = £ (Jtjl^). A € T s było dowolne, więc £ (X t ] Ts) = X s. do rozdziału 11 453 11.3. Twierdzenie o zbieżności nadmartyngałów 1. Rozw. Całkowalność jest oczywista, a ponieważ Z n +l • eaUn = wystarczy wykazać, że £ V n+\ + l ~ i a2 = Zn . K n+1> 1, co sprowadza się do nierówności którą łatwo udowodnić rozwijając funkcję wykładniczą; w szereg Taylora. L 0, tj. 0. Dla a 0 mamy 0 < £V„ = q < 1, stąd £ Zn = Qn n —»oo Ciąg (Zn) jest zbieżny p.n. jako nieujemny nadmartyngał. Jeśli a = 0, to Zn = 1, n = 1,2,— Dla a / 0 jest limsupV„ ^ 1 lub liminfVn / 1, dlatego też lim Zn = 0, bowiem np. lim sup Z„+i = lim Zn lim sup V„+i. 2. Rozw. Niech Zn = Xy + . . . + X n i Tn = a (X i, . . . , X n) ■Wtedy (Zn, T„) “ t jest martyngałem, ponadto £\Zn\^ £\Zn\2 + 1 = 1 + Y , £ X nWobec tego supn £\Zn \ < oo i twierdzenie wynika z twierdzenia o zbieżności martyngałów. 3. Rozw. Wybierzmy A € Tn- Ponieważ Y ° jest nadmartyngałem, mamy Funkcja podcałkowa jest nieujemna, dzięki czemu mogliśmy skorzystać z tw. Fubiniego. 4. Rozw. Oznaczmy \iran-^-o=,£Xn = o < oo (rosnący ciąg ( f X n)n€_Ń Jes* zbieżny do granicy, być może nieskończonej). Można zakładać, że X n ^ 0 dla n e —Ń, co wynika z równości X n = £ (X0 \T n ) + (Xn ~ £ (X0 |T n ))Istotnie, ciąg (£ (X01Tn)) jest jednostajnie całkowalny i wystarczy udowod­ nić jednostajną całkowalność drugiego. Dzięki nieujemności zmiennych losowych X n wystarczy przy sprawdzaniu jednostajnej całkowalności z def. 5.9.13 rozpatrywać całki po zbiorach postaci {X n > r} (zamiast {|X„| > r}). Z definicji nadmartyngału mamy dla n ^ k, n,k 6 —Ń X ndP = £X rl {Xn >r} / X nd P ą £ X n I XkdP {Xn<ir} (10) O dpowiedzi i wskazówki 454 Ustalmy teraz e > 0 i wybierzmy taki wskaźnik k G —N, że £ X n - £ X k = \£Xn - £ X k\^ e/2 (11) dla wszystkich n < k. Z nierówności Czebyszewa P (X n > r) ^ £ X n/r ^ a/r dla wszystkich n € £ —Ń, i po zastosowaniu kryterium jednostajnej całkowalności z zad. 5.9.17 do jednoelementowej rodziny { X k} wnioskujemy, że sup / X kdP < e/2 n e -Ń J {X n >r} dla dostatecznie dużych r. Na mocy (10) i (11) sup I X ndP < e n< k J {X n> r} dla dostatecznie dużych r. Oznacza to, że rodzina {X k -i, X k~2 , ■•■} jest jednostajnie całkowalna i pozostaje taka po dołączeniu skończonej rodziny {X o ,X ~ i, . . . , X -k }. 5. Rozw. Rozumowanie jest takie, jak w dowodzie tw. 1: zmienne losowe [/£ i Ua[m] oznaczają teraz liczbę przejść w górę przez przedział [a, 6] odpowied­ nio ciągu nieskończonego (X „)Ite_Ń i skończonego X - m, X - m+1, . ,.X i,X o Z lematu 3 zastosowanego do nadmartyngału (X „,T n)n =-m i oczywistego przejścia granicznego wynika, że eu l ^ (Xo - a)~ . Stąd otrzymujemy zbieżność p.n. ciągu (X _ n)ngN do granicy X , być może nieskończonej.. Ale z założenia i z lematu udowodnionego w zad. 4 wynika jednostajna całkowalność powyższego ciągu, zatem £\X\ liminf £|X_n|^ sup £ |X„| < oo. ,l_>oc n£-Ń Zbieżność w L1 wynika z jednostajnej całkowalności i zbieżności p.n. (zad. 5.9.18). Pozostaje do udowodnienia „nowa” część twierdzenia. Niech (X„, Jr„)ne_ 5 ! będzie martyngałem. Ponieważ X k = £ (Xo |F k) , k 6 -Ń , to po wzięciu warunkowej wartości oczekiwanej względem rzystaniu z zawierania Tk D P|^=o -P~n otrzymujemy i sko­ do rozdziału 11 455 Biorąc k —> oo i korzystając z ciągłości warunkowej wartości oczekiwanej jako operatora z L1 w L1 (w zasadzie jest to inne sformułowanie własności 6.3.4(c)) otrzymujemy: X = £ \X P) T - n I = £ ( X 0 n i ­ gdzie pierwsza równość wynika z mierzalności X względem ^ ~ n ^a^" tycznie, X -k , ... są mierzalne — wraz ze swoją granicą X — wzglę­ dem -F-ł). Kończy to dowód twierdzenia. 11.4. Nierówności martyngałowe 1. Rozw. Druga nierówność wynika stąd, że X n ^ X rf . Udowodnimy teraz pierwszą nierówność: niech r = inf{k'.Xk $ —r}. Z tw. Dooba dla ogra­ niczonych momentów stopu: £X() ^ £ X TAni a to oznacza, że / J X ndP + / XTd,P : J f X ndP + [ J/{m i m in i i ifcs£n fc c - X X ffc> c > —r> —r } J{mink^ -Tir n X k^ - r } ś £ ( x n l{m int< „ x t > - r } ) - r P ( m m X k < - r ) , co po uporządkowaniu daje pierwszą nierówność. 2. Wsk. Skorzystać z tw. 1 i zad. 1. 3. Rozw. Dowód analogiczny do dowodu tw. 1 i zadań 1, 2. 4. Rozw. Niech Y„ = supfc^„ \Xk\ i q = Gdy £\Xn\p < oo, to z nierówności Jensena £\Xk |p < oo dla k ^ n i wtedy 0 < £Y P < oo. Korzystając z zadania 5.6.3, tw. 1, a na zakończenie z nierówności Hóldera otrzymujemy /•OO poo p £YP = p e^ P iY n > t)dt ś p tp~2 / \Xn\dPdt = Jo Jo J{Yn^t} = p [ |Xn| [ " tp- 2dtdP = q£((\Xn\ Y r 1)^ q (£ \ X n\p)1/p{£Y p)l /’1. Jsi lii Jo Stąd teza. 11.5. Zbieżność martyngałów w Lp 1. Rozw. Gdy Y jest inną zmienną losową mierzalną względem a (Ti, JF2, ...) dla której X n = £ (Y |Tn), to dla dowolnego A € T„, n € N mamy i YdP = i X„dP = [ XdP. Ja Ja Ja Odpowiedzi i wskazówki 456 Klasa zbiorów dla których JA YdP = JA XdP jest A-układem, a ponieważ równość zachodzi dla zbiorów z klasy \_}n Tn, która jest 7r-układem, więc z lematu o it- i A-ukladach X = Y p.n. 2. Rozw. Gdy j = 1 , . . . , kn —1) to (X n, f « ) » jest martyn- gałem takim, że £|Xn| iś f(z)dz < oo. Teraz skorzystać z twierdzenia 2 i zadania 1 (X„ = £ ( f 1Fn)) i z tego, że £ ( / |o-((Jn .F„)) = / . 3. Rozw. (i)=ź(ii) Z nierówności Dooba (zad. 11.4.4) mamy £ supn \Xn\p < oo. Wobec tego ciąg zmiennych losowych (\X„\p)n jest jednostajnie całkowalny na mocy wyniku zad. 5.9.15. (m)=> (iii) Z nierówności Holdera i jednostajnej całkowalności ciągu (\Xn\p)n mamy: supf|Xn|^ sup(f|X„|p)1/p < oo, n n dlatego martyngał (X„) jest zbieżny p.n., więc tym bardziej według praw­ dopodobieństwa, co w połączeniu z jednostajną całkowalnością (patrz zad. 5.9.18) daje (iii). (iii)=$~ (iv) Ponieważ £ (Xn+m |Tn) — X n dla m, n € N , wystarczy wziąć m —> oo i skorzystać z ciągłości warunkowej wartości oczekiwanej jako ope­ ratora z Lp w Lp, co jest oczywistym wnioskiem z nierówności Jensena dla 9 (t) = |t|p. (u;)=4>(i) Korzystając jeszcze raz z nierówności Jensena otrzymujemy £\Xn\v = £\£ (Y |Tn) \p ^ £ ( £ (|r|p 1Tn)) = £\Y\P < oo, czyli (i). Załóżmy teraz, że spełnione są warunki (i)-(iv). Udowodniliśmy, że wtedy ciąg (Xn) jest zbieżny p.n. i w Lp do zmiennej losowej X € Lp, przy czym X n — £ (X |i'«), n = 1, 2, — Żeby zobaczyć, że X jest jedyną zmienną losową mierzalną względem a(To, . ■.), dla której ta równość zachodzi, wystarczy skorzystać z zad. 1. 4. Rozw. (ii)=>(iii): jest to tw. 2(i). (iii)=$-(iv): To samo rozumowanie, co w zad. 3. (iv)=>(ii): jest to lemat 1. Pozostała część twierdzenia to jeszcze raz tw. 2 i wynik zad. 1. 11.6. Twierdzenie Radona—Nikodyma 1. Wsk. Bez zmniejszenia ogólności można zakładać, że / jest określona na przedziale [0,1], /(O) = 0, /(1) = 1. W takim razie / rozszerza się do dystrybuanty pewnego rozkładu prawdopodobieństwa fi, skupionego na [0,1] (zad. 5.2.1 lub 2). Zgodnie z tw. 11.6.1 istnieje taki zbiór S C [0,1] o zerowej mierze Lebesgue’a oraz całkowalna funkcja borelowska g: [0,1] —* R, że f{t) = fi({Q,t}) = fi([0,t}n S )+ f g(s)ds = f s(t) + f c(t), (K isCl. Jo W ten sposób uzyskaliśmy rozkład funkcji / na część osobliwą f s i absolutnie ciągłą / c. Metodami analitycznymi (por. [BILL], roz. 6, [RUD-1], roz. 9) da do rozdziału 11 457 się udowodnić, że / ' = 0 prawie wszędzie (zwróćmy uwagę, że f s rośnie tylko na zbiorze S o zerowej mierze Lebesgue’a), zaś /'(i) = g(t) p.w. Uwaga. Funkcję g: [a, 6] —> R nazywamy absolutnie ciągłą na przedziale [a, 6], gdy dla każdego e > 0 istnieje 5 > 0 o następującej własności: jeśli - a0 < Ym Li )s(a0 _ < e> 0 ile przedziały [oj.bjj są rozłączne i zawierają się w [a, 6], 11.7. Miary produktowe i zastosowania w statystyce 1. Rozw. Gęstością warunkową zmiennej losowej X n+\ przy danych X i ,.. ■X n jest pn+i/pn, zatem £ ( A „ + l I X\ = XI, . . . X n = I „ ) = ..... = [ Qn+i(xi, •■. ,x n,y) L „ _ ^ V~ Qn(.Xi, •■•, Xn) Pn(xi, . . . jXn) zatem £ (A„+ i |X i, . . . , X n) = A„. Teraz £ (A n+ i | A i , . . . , A „) = £ {£ (A „ + i | X i , . . . , X n) | A i , . . . , A „) = “ £ (An i Al, . . . , An) = An, ponieważ cr(Ai,. . . , A„) C cr(Xi , . . . , X n). Udowodniliśmy zatem, że (A„,<t(Ai , . . . , An)) jest martyngałem; jako martyngał nieujemny jest on zbieżny p.n., przy czym ’ ( lim A,») $5 lim £A„ \n —»00 / Tl—* OO 2. Rozw. Jest to zagadnienie dyskryminacji z przykładu 4, przy czym ze względu na symetrię założeń a = b. Dlatego reguła decyzyjna jest prosta: czaszka o obwodzie l jest kwalifikowana jako męska, jeśli f(l) > g(l), gdzie / , g są odp. gęstościami rozkładów Ai (57,42) i Ai (54,32) . Rachunki sprowadzają się do rozwiązania nierówności kwadratowej i okazuje się, że warunek f(l) ^ g(l) jest równoważny z l 0 (44,52;55,76). Interesujące, że czaszka o obwodzie 44 cm zostanie uznana za męską. Prawdopodobieństwo uznania czaszki męskiej za kobiecą wynosi 0,377, kobiecej za męską — 0,280. Wobec tego szansa popełnienia błędu jest równa 0,3285. 3. Rozw. Znów mamy do czynienia z zagadnieniem dyskryminacji. Niech fi = = { 0 ,R } n. Na przestrzeni SI dane są dwa rozkłady prawdopodobieństwa: P odpowiada monecie symetrycznej i przypisuje każdemu punktowi miarę 2_ " , Q — monecie niesymetrycznej; jeśli ciąg ui = (u>i,. . . ,u>„) zawiera k orłów i n — k reszek, to <2({w}) = pkqn~k. Regułę decyzyjną otrzymamy rozwiązując równanie ^ ^ 1, czyli Odpowiedzi i wskazówki 458 skąd k ii—k P <? ci—n, > 2 , i dalej fclogp 4- (n —k) logq ^ —nlog 2 . Ponieważ p = 3/4, otrzymujemy ostatecznie , ,, l o g f + l o g 2 k ś rc----- 7— ------ m 36,91. log 3 Reguła jest zdroworozsądkowa: mniej niż 37 orłów świadczy o asymetrii mo­ nety. Być może teraz lepiej widać, dlaczego reguła odwołująca się np. do parzystości liczby orłów jest nonsensowna. 11.8. Zastosowania w matematyce finansowej 1. Szkic rozw. Z (3), § 11.8 wynika, że równoważność: Yt+i - Yt > 0 ^ 0 wtedy i tylko wtedy, gdy zachodzi Zt+i - Z t ^Q, bowiem Wt = Y t. Ponieważ Zt+i — Zt 0 St+i = (1 -t- b)St, Rt+i — b to trzeba udowodnić, że na zbiorze {ili+i = b} zachodzi £ ((S T - K )+ | T t+ 1) > £ ((Sr - K )+ | T t) , a na zbiorze {iit+i = a} zachodzi nierówność przeciwna. Niech Wt = 1 + Rt- Wtedy W t są niezależne i St = ITi=i ^ i- Zatem korzy­ stając z zadania 6.3.6 mamy £((ST- K)+I Tt) =£^ x II W^j -Kj |_s a to pozwala już uzyskać żądane nierówności na zbiorach {Rt+i — 6} i {iit+i = a}. 12. Łańcuchy Markowa 12.1. Definicja i przykłady 1. Rozw. Ponieważ X n i Un są niezależne, mamy P { X n Ą -1 — 5 n + l| -^ n . ^ — S ra ) = Pif-pn^S-n-iUn) = P ^tpn ^ S n ) Un) — S n .+ l| -X "n = Sn) — S n -f-l)- Jednak z podobnych powodów (niezależność Un od X n, X n~i, ...) mamy również P (X n + l = 5 n + l |-^n = = Sn+l)i co kończy dowód. S n , X n —1 — Sn.—1 1 • • •-^0 = ^ o ) = P{ *Pn (Sn? U n ) = do rozdziału 12 459 2. Wsk. Przyjąć, że (Un) jest ciągiem niezależnych zmiennych losowych o roz­ kładzie U(0,1). Przy odpowiednim wyborze funkcji ipn otrzymamy wystar­ czająco uniwersalną „maszynkę do losowania”, należy mianowicie zdefiniować tp n (sic,t) — S i, jeśli t £ bkln), gdzie odcinki [aa ,, bkin) powinny być dla ustalonych n i k rozłączne i mieć odpowiednie długości, wyznaczone przez prawdopodobieństwa przejścia. Można też naśladować dowód twierdzenia o istnieniu przestrzeni probabili­ stycznej dla nieskończonego ciągu prób Bernoulliego (przykład 4.2.2) i po­ dzielić przedział [0, 1 ] na przeliczalnie wiele rozłącznych przedziałów o dłu­ gościach pi = P(Xo = i), i = 1 ,2 ,..., a następnie podzielić i-ty przedział na rozłączne podprzedziały o długościach pi ■pij, j = 1 , 2 , .. . , itd. 3. Odp. a) Tak, b) Nie. 4. Wsk. Rozważyć niesymetryczne błądzenie przypadkowe (Xn) na Z, gdzie Xo = 1 , X n+i — X n + U„, zaś (Un) jest ciągiem niezależnych zmiennych losowych, P(Un = —1) = P =£■ 5 , P{Un = 1) = 1 —p. Wtedy (X%) nie jest łańcuchem Markowa. 6 . Odp. a) Pi,i+1 = p*p i^ j+ oraz p0i = 1 pi,i-i = 1 - Pi,s+1 , dla i ^ 1. b) poo = p, Poi = <?; Pi,i+1 = q, Pi,i-1 = p dla i ^ 1. 7. Odp. Nie, np. wystarczy wziąć X i Z z poprzedniego zawiania. 8 . Rozw. Macierz przejścia: Jeśli pn, qn i Tn oznaczają prawdopodobieństwa znalezienia się w pierwszym, drugim i trzecim wierzchołku w chwili n, to wobec tego np. Pn+1 “ Qn+ 1 = —(qn “ Pn). Przy założeniu, że po = 1, wynika stąd natychmiast, że 9. Wsk. Obliczyć bezpośrednio lub skorzystać z twierdzenia 8a. 11. Odp. i - I(p - ,)»; Pij = 0 dla pozostałych j. P(Xn = 1) = i + i(p - , ) “ (2r - 1). Odpowiedzi i wskazówki 460 13. Rozw. P (Xn+l = h, Yn+1 = k\Xn = i ,Y n = j ) = P{Xn+1 = h,Yn+1 = k ,X n = ¿,yn = j) P (Xn = l,Yn = j) P (X n+1 = h ,X n = i) P(Yn+1 = k,Y„ = j) P(Xn = i) P (K =j) gdzie w przedostatniej równości skorzystaliśmy z niezależności X, Y. *14. Rozw. Sposób I. Niech t a oznacza chwilę pierwszego pojawienia się wzorca A o długości k w ciągu rzutów monetą4 i niech f(ń) oznacza liczbę ciągów 0 długości n bez wzorca A na końcu, zaś ¡ a (n) — liczbę ciągów o długości n z wzorcem A na końcu. Rozpatrzmy zbiór ciągów n-elementowych bez wzorca A na końcu i dopiszmy do każdego ciągu ten wzorzec. Teraz podzielimy otrzymane ciągi na k klas ze względu na pierwsze wystąpienie A, które może nastąpić w chwili n + 1, n + 2, . .., n + k. Zauważmy, że jeśli wzorzec wystąpił przed chwilą n + k, oznacza to, że po­ krywa się on ze swoim przesunięciem w lewo. Oto przykład: Niech A = OROR, n = 6. W ciągu RORROROROR wzorzec A pojawia się po raz pierwszy w chwili 8; w chwili 10 pojawia się po raz drugi. Mamy w związku z tym, pisząc 5,t zamiast Sk(A,A): f(n) —fA^n + l)5i2 1 + fa(u + 2 )62^ 2 + . •. + fA(n + k)Sk2 k. Mnożymy obie strony przez 2~n, otrzymując f(n)-2~n = /A (n + l)i12 - (n+1)+ / A(n+2)i22 - (" +2)+ . . ,+ / A(„-)-fc)42-<"+,;), czyli P (ta > n) = P { ta = n + l)5x + P ( r A = n + 2 )<52 + ... + P ( t a = n + k)ók- Sumując ostatnią równość dla wszystkich n ^ 0 otrzymujemy korzystając ze wzoru na S t a z zad. 5.6.8 i z tego, że P ( t a = i) = 0 dla i = 0, 1, . . . , fc — 1: Sta = ¿1 -f . .. + ¿fc = A : A. Sposób U. Podamy teraz metodę odwołującą się do teorii martyngałów5. Formalizację pozostawimy Czytelnikowi. Przypuśćmy, że w kasynie rzuca się monetą aż do chwili otrzymania wzorca OROR. Przed każdym rzutem jeden z graczy stawia 1 zł na to, że wzorzec po­ jawi się w najbliższych czterech rzutach. Jeśli w najbliższym rzucie pojawi się orzeł, gracz wygrywa 2 zł i stawia je na reszkę w drugim rzucie, itd., aż do pierwszej przegranej lub otrzymania wzorca — wtedy gracz zatrzymuje wy­ graną. Ponieważ gracze rozgrywają grę sprawiedliwą, w każdej chwili średni zysk kasyna jest zerowy. Średnio wpłaty graczy wynoszą C t o r o r , natomiast suma wypłat po zakończeniu gry wynosi 16+4=20 (wygrają gracze pierwszy 1 trzeci). Stąd S t o r o r = 20. 4Za: L. J. Guibas, A. M. Odłyzko, String Overlaps, Pattern Matching, and Non-transitive Games, Journal of Combinatorial Theory, ser. A, vol. 30 (1981), ss. 183-208. 5Za: S.-Y. R. Li, A Martingale Approach to the Study of Occurrence of Sequence Patterns in Repeated Experiments, Annals of Probability, 8 (1980), ss. 1171-1176. do rozdziału 12 461 *15. Wsk. Wykazać, że Pa ■A : A + pb ■B : A = ps ■B : B + pa ■A : B, gdzie pa oznacza szansę wygranej dla wzorca A. W tym celu można zasto­ sować metodę użytą w poprzednim zadaniu, a mianowicie rozważyć zbiór ciągów o długości n, w których nie występuje ani A , ani B, a następnie dopi­ sać na końcu każdego ciągu wzorzec A (odp. B). W ten sposób da się obliczyć dwoma sposobami f min( t a , t b ) , skąd wyniknie wzór Conwaya. *16. Rozw. Patrz: L. J. Guibas, A. M. Odlyzko, op. cit. *17. Wsk. Patrz [GKP], §8.4. 19. Wsk. Martyngał z zadania 18 jest już znany. 20. Wsk. Należy uwzględnić fakt, że nie wszystkie prawdopodobieństwa warun­ kowe muszą być dobrze określone. 12.2. Klasyfikacja stanów 1. Odp. 0. 2. Rozw. => Wziąć Uo = Xo, Un = X „ - X n~i dla n ^ 1. -i= Korzystając z zadania 12.1.1 otrzymujemy, że X n jest łańcuchem Mar­ kowa, a proste rachunki pokazują, że Pi,i+k = Pk3. Rozw. =*- Oczywiste. -ś= Niewprost. Istnieją k,j takie, że ->(j —> k). Wtedy C = {i.j —> ?} jest zamkniętym zbiorem stanów i k $ C. 4. Odp. a) 1 — stan pochłaniający, 4 — nieistotny; S, {2,3} zbiory stanów zamkniętych, b) 4 — stan pochłaniający, 1,2,3 — stany nieistotne, c) łańcuch nieprzywiedlny. 12.3. Stany chwilowe i powracające 1. Rozw. Dla l > n zdarzenia {X n = j } i {r = ¡}, gdzie t jest momentem pierwszego dojścia łańcucha Markowa do stanu j są rozłączne, stąd OO Pkj{n) = P{Xn = j\r = m ,X o = k)P(r = m\Xa = k) = m=l n n —1 = ^ 2 fkj(m)pjj(n - m) = f kj(n - m)pj j (m). m=l m=0 2. Odp. Otrzymujemy takie same wyniki, jak dla błądzenia opisanego w przy­ kładzie 7. 3. Wsk. Wykazać, że funkcje tworzące (dodatek B) ciągów = P3 3 (n)zn i ciągu (/,-,•( n ) ) ^ : Fjj{z) spełniają zależność Pj{‘ ) 1 + Pj(z) i wziąć z —> 1. Pj(z) = 462 Odpowiedzi i wskazówki 4. Rozw. Z dowodu stwierdzenia 6 wynika, że P‘i(n) = FijP i> a z założeń Fij > 0, Pj = oo. 5. Wsk. Wykazać, że jeśli i ^ j, to funkcje tworzące Pij (z) ciągu (pij(n))^Li i Fij (z) ciągu (/y(n))~=1 spełniają Pij(z) = Fij(z)(Pj{z) + 1). 6. Rozw. OO OO 71 Fjj = Y ' f j j ( k ) = (1 -Po) + y^ po. - - Pf c- i ( l -P k) = 1 z y fc = l z ^ fcsa 1 Zatem 7. lim TTpfc. m —» o o - * - - * fc = 0 wtedy i tylko wtedy, gdy n r =1p * = o - Gdy S = { 1 , 2 , . . . , fc}, to Py(n) = wi(Sc istnieje takie j, że -f* 0, czyli j jest stanem powracającym. Gdy S = { 1 , 2 , . . . }, to prawdopodobieństwa Pi,i+i = 1 określają łańcuch Markowa o samych stanach chwilowych. Pij(n) 8. Rozw. 4= (patrz uwaga 12.3.4b) =4> Niewprost. Niech stan j komunikuje się ze stanami ki, k2, ■■., ki i tworzy z nimi łańcuch nieprzywiedlny. Z zadania 7 wynika, że jeden ze stanów jest powracający, więc wszystkie stany j, ki, k2, . . . , ki są powracające, zatem j jest powracający. Sprzeczność. Gdy S = { 1 , 2 , . . . }, to istnieje łańcuch nieprzywiedlny o samych stanach chwilowych, które nie są nieistotne (np. patrz zad. 6). 9. Rozw. Stan j jest powracający, więc P(łimsup„{X„ = j}\Xo = j ) = 1. Stąd Pji(m ) = P ( { X m = i } n limsup{Xn = j}l^ o = i) ^ n ^ — ¿i X m+i 7^ j, •■■) X n„ i ^ j , X n — j\X$ = j ) ~ v 71> 771 = ^ Pji(m)fij(ji - m) = pji(m)Fij. n>m Ponieważ istnieje takie m, że Pji{m) > 0 to Fij = 1. 10. Rozw. (X?l,Xn) jest symetrycznym błądzeniem przypadkowym po Z2, za­ tem jest powracającym łańcuchem Markowa, więc dotrze do każdego punktu (c, c), c £ Z z prawdopodobieństwem 1. 12.4. Łańcuchy okresowe 1. Odp. a) tak, b) nie, o(2) = 1. 2. Rozw. Istnieje stan i oraz n, m takie, że Pij(n) > 0, Pji(m) > 0, z czego wynika, iepjj{n + m) > 0. Takżep jj(n +m + \) > 0. Liczby n +m , ra+m + 1 są względnie pierwsze, więc j jest stanem nieokresowym, zatem z nieprzywiedlności cały łańcuch jest taki. 3. Rozw. Nie, na przykład: '0 i | n ?1 do rozdziału 12 463 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne 1. Odp. 2~e. 2. Odp. tr =■<*(£, ¿ , 0 , 0 ) + (1 - a)(0,0, ¿, ±), a e [0,1]. 3. Rozw. Jeśli j — stan chwilowy, to A py (to) ------- >0. (stw. 12.3.6) Tl—* OO Jeśli j jest stanem powracającym zerowym, to jak wiemy z tw. 12, n i=l dąży do zera, czyli £ X^m=i nym, to dla każdego n (m) ~ ’ n 0- ^ i63* rozkładem stacjonar­ -Kj = '^2,vipii(n). Stąd Tl ^ 7 1 **=nE E m = l i€ S <m >=E7r‘-jE p«w ig jS 0 m =l z twierdzenia Lebesgue’a, co kończy dowód. 4. Rozw. Na mocy twierdzenia 5 istnieje jedyny rozkład -Ki taki, że 7T; = WiP^ ■ Oczywiście kombinacja wypukła miar (iii) jest miarą stacjonarną. Gdy tt jest miarą stacjonarną, to jeśli a; = J2jes 7r(-?) > ^ na & zdefiniowane wzorem Wi(j) = spełnia 7f¿P^ = 7f{, więc 7Ti = 7?; jest miarą stacjonarną na Si oraz tt = J^i€/ «¿7^. 5 . Rozw. -K j = i = £ " =1 i p y = 5 3 "=1 TTiP«. 6. Rozw. Kolumny macierzy sumują się do jedności, więc Wi = j jest rozkładem stacjonarnym. Zatem z twierdzenia ergodycznego limn^oo P (Xn = i) = ]:■ 7. Rozw. Ten fakt został udowodniony w twierdzeniu 12.5.15. 8. Rozw. Wielkości foo(n) obliczyliśmy w przykładzie 12.3.1. Korzystając z tego mamy OO A»o = y ^ n / 00(ra) = 3, n = l 3 Mi = j A więc oba stany są niezerowe. *9. Rozw. Pokażemy, że jeśli i jest stanem dodatnim i i —* j , to j jest stanem dodatnim. Istnieją mi,m2 takie, że > 0, Pji{m2) > 0. Wtedy dla c = Pij{mi)Pji(m2 ) > 0 mamy + m-2 + n) ^ cpa(n). Zatem .. +, m.2 +, „_\ C!m1+m2+n(iij) 1 \y pij /(mi — m) =. ---------------------------------------------^ n n n m=1 C 7i n Odpowiedzi i wskazówki 464 Biorąc n —> oo otrzym ujem y z twierdzenia 12 zbieżność lewej strony do ^ 1, a prawej do Cyti“ 1 > 0, czyli 0. fij > *10. Rozw. => Jest to treść twierdzeń 5 i 15. Udowodnimy, że -Ki — ¡xj1 dla i £ S definiuje rozkład stacjonarny. Za­ czniemy od przypadku, gdy 5 jest zbiorem skończonym. Ponieważ jes to z twierdzenia 12 otrzymujemy 1 = lim n n -*oo = j€S y' jes lim = n n —*00 y±, ' Lii i€S ™ czyli 7rjest rozkładem prawdopodobieństwa. 7r jest rozkładem stacjonarnym, bo = n j l = lim 3 = j = 71 n —»oo Umy n —»co GJi,k)pkj = 71 ' k€S um : » n —»00 /l ' —^ kes kes kes Gdy S jest zbiorem nieskończonym, to biorąc zbiór skończony F C S mamy "llk€F ^k 1 ^ 1 (przechodzimy s n - i o o i nierówności ^ ^ 1 ), a stąd = c_ 1 ^ 1. Postępując podobnie jak w dowodzie (12) otrzymujemy dla j € S: J2k£F fik1Pkj ^ ftj1’ a st4 d (13) y i ^ P k j < H j1kes Sumujemy po j: ^2jeS ^ X ^ wi?c w (13) zachodzi równość. Zatem ir, = c ^ 1 dla i £ S definiuje rozkład stacjonarny. Musimy jeszcze pokazać, że c = 1. Jeśli 7 jest rozkładem stacjonarnym, to 7 = 7 Gn/n, gdzie G„ jest macierzą Gn = (Gn(i,j))ij^s i jak wiemy a zatem ■yj = czyli c musi być równe 1 . *11. Rozw. 4= Stan powracający może być dodatni lub zerowy. Gdyby był dodatni, to wszystkie stany byłyby dodatnie i lim„_oo Pjj(n) = irj > 0 , sprzeczność. => Bez straty ogólności można założyć, że (X n) jest nieprzywiedlnym nieokresowym łańcuchem Markowa. Niech j będzie stanem powracającym zerowym. Wtedy Zn = (Xn, Yn) jest nieprzywiedlnym i nieokresowym łańcuchem Mar­ kowa. Gdy [j,j) jest stanem chwilowym, to P(Zn = (j,j)\Z0 = (j, j)) = p K n ) -------►0 , n —*00 ze stwierdzenia 12.3.6. Gdy (j , j ) jest stanem powracającym, to z dowodu twierdzenia 5 punkt (U) mamy: \Pij(n) ~ P k j { n ) \ -+ 0 gdy n -> 00 (14) 465 do rozdziału 13 dla i,j, k £ S. Niech P* będzie punktem skupienia ciągu (Pn)„ w przestrzeni [0, l]ooxo°. Istnieje ciąg (nk) taki, że P nk zmierza do P* dla każdej współ­ rzędnej. Z (14) wnioskujemy, że wszystkie wiersze P * są identyczne, a stąd P P * = P*. Dalej Prlk+1 = p p nk _> p p * = p* (z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej), więc z lematu Fatou PP" = ( lim Pnk)P sj lim PnkP = P*, fc—»oo k—*oo gdzie nierówność rozumiemy jako nierówność współrzędnych. Niech p(i) bę­ dzie wierszem P* i niech 5 = '¿2i p[i) ^ 1 (z lematu Fatou). Gdyby 5 > O, to Vi = p(i)/(5 jest rozkładem prawdopodobieństwa na 5 oraz vP Sj i>. Ponieważ ViPij = ]T\ Uj, to i>P = v, a więc v jest rozkładem stacjonarnym dla (Z „), sprzeczność bo (X„) jest powracający zerowy (patrz zad. 10). Zatem 5 = 0 tzn. lim„_00py(w) = p(j) = 0 dla każdych i,j. 12. Rozw. limn-.oo Poo(n) = 0 i skorzystać z poprzednich zadań. 13. Odp. Stan 0 powracający: CO oo co ^ w / 00(n) = ^ ł i - p o , n - i = n=l ■. _ . - = oo 44- a e (1,2]. n —2 n=l Łańcuch jest nieprzywiedlny, więc wszystkie stany są tego samego typu. 12.6. Łańcuchy pochłaniające 1. Rozw. Skorzystać z twierdzenia 1. m2 (l) = 17/6. 2. Rozw. Dobrać odpowiedni łańcuch Markowa i skorzystać z twierdzenia 1 (oczywiście można to zadanie rozwiązać nie korzystając z teorii łańcuchów Markowa). Średnia liczba posiłków pchły przed śmiercią jest równa 4. Praw­ dopodobieństwo, że pchła zginie na czczo jest równe 1/3. 3. Rozw. Niech 1 będzie stanem pochłaniającym. Gdy Ai jest zdarzeniem po­ legającym na tym, że łańcuch nie wraca do stanu i, i ^ 2, to P(Ai\Xo = i) > P(3ra: X n = 1|X0 = i) ź Pa{ni) > 0, gdzie rii = min{n:pii(n) > 0}. 13. Proces W ienera 13.1. Definicja i konstrukcja 1. Rozw. Niech 0 < ii < t2 < ■■■ < tn. Wektor U = (Wtx, Wt2,■■■, Wtn) jest obrazem wektora V = (Wti, Wt^—Wt^, - - • —Wt„- i ) przy przekształceniu liniowym X :R n —>R ", gdzie T (x 1 , . . . ,X n) = (x i,x i + X 2 , ■■■, X i + ... + Xn )- Wektor V ma, na mocy niezależności przyrostów, rozkład normalny z gęsto­ ścią 9v{x 1, •■■,Xn) — ■ i E r - i * ? 7“ *- “ - 1’ . Odpowiedzi i wskazówki 466 Ponieważ detT = 1, zgodnie z zad. 5.5.5 gu{x) = gv{T 1x) ■|detT 1|, tj. g v ( x X, . . . , % n ) — fń ~ \ n TTn (v 2 7 r ) /f _ i '~ e t_1 ti —1 2. Wsk. Rozważyć proces Poissona. 3. Odp. K (t, s) = min(f, s) - is. 4. Rozw. =!> zad. 1. Obraz liniowy wektora gaussowskiego jest gaussowski. -£= £Xo = 0, wobec tego Xo = 0 p.n. Ponieważ wektor (X t l , X tn) ma roz­ kład normalny o średniej zero i macierzy kowariancji to argu­ ment podobny do tego z zad. 1 pokazuje, że (X tl, X t2 —X tl, . . . , X tn —X tn_ 1) ma rozkład normalny o diagonalnej macierzy kowariancji, skąd otrzymujemy (przykład 5.8.8c) niezależność przyrostów. 5. Wsk. Wszystkie procesy mają ciągłe trajektorie i skończenie wymiarowe roz­ kłady normalne o średniej zero. Wystarczy zatem obliczyć funkcję kowarian­ cji. W przypadku Y wykazać, że z prawdopodobieństwem 1 sup0<s<t Ys —» 0, gdy i —>0, skąd wyniknie, że prawie wszystkie trajektorie są ciągłe w zerze. 6. Wsk. Proces W ma ciągłe trajektorie; sprawdzić niezależność przyrostów i pokazać, że Wt+U — Wu ~ N (0, i), t, u ^ 0. 7. Wsk. Skorzystać z wyniku zad. 3. 8. Wsk. Wynika to natychmiast z zad. 5c. 9. Wsk. Wynika to natychmiast z zadania 8. XI. Rozw. Kres górny ciągłej trajektorii na odcinku [0, i] jest równy jej kresowi górnemu na zbiorze przeliczalnym [0, i] n B, zatem {supWs ^ c} = { sup Wa ^ c } = s ' ?4 ^ [o .tin B 1,1 O {W s < c} e Ft- „ se [o ,t]n B 13.2. Własności trajektorii 1. Rozw. Niech Z ■jV (0, X). Wtedy 771Ti e (S„ - (b - a )f = £(Z 2 - 1)2 ]T (4 "> - i ^ ) 2 ^ k= 1 ^ £(Z 2 — 1)211"Pn11 - (6 — a) —» 0, ponieważ HPnll —►0. Druga część wynika z lematu Borela-Cantelliego i oszacowania ¿ P ( | 5 „ - ( 6 - a)| > £) , ^ ^ ) f2. Wsk. Zamiast kwadratowej nierówności Czebyszewa, jak w zad. 1, użyć wy­ kładniczej. do rozdziału 13 467 3. Rozw. Niech V będzie wahaniem trajektorii procesu Wienera na [a, b]. Jest to nieujemna niewłaściwa zmienna losowa (dopuszczamy wartości nieskoń­ czone); oznaczmy A = {u; £ f2:F(w) < oo} i przypuśćmy, że P(A) > 0. Wtedy mamy { f c : ( f c . - l ) 2 - TŁ, f c 2 - T l6 ( o , 6 ] } ^ V(u) sup IWk2-n(u) - W{k_ 1)2- n(w)l {fc:(/c—1)2“n,fc2“n6[a,6]} Dla uj E A prawa strona zmierza do zera, gdy n —» oo, ponieważ trajektorie są jednostajnie ciągłe na [a, 6j. Lewa strona zmierza p.n. do (b —a) na mocy wyniku zadania 1 — sprzeczność. Inny sposób: jeśli funkcja ma wahanie skończone, to jest różniczkowalna pra­ wie wszędzie. 13.3. Zasada odbicia 1. Odp. f(x) = y /2/( 7rtje_l2/2il[0,oo) (*)• 2. Wsk. Dla a > 0 skorzystać z zasady odbicia: P(Ta ą t) = 2P(Wt > a ) = 2P(VtWi > a ) = 2(1 - $(a/V i)), t > 0. Różniczkując pi&wą. stronę otrzymujemy gęstość: ga(t) = - ^ = r 3/ 2e - “2/ 2il [0.oo)(i). v 27T W ogólnym przypadku wystaiczy zastąpić a przez |a|. 3. Wsk. Skorzystać z zadania 1. 13.4. Mocna własność Markowa 1. Rozw. Z twierdzenia Dynkina-Hunta wynika, że proces Wienera po dojściu do a rozpoczyna się od nowa i jest w szczególności niezależny od ra. Dlatego dla każdego n € N rW + . . . + r W ~ r M . 1 Z drugiej strony P{ra ś t ) = 2P(Wt ź a) = 2P(VtWi ź a) = = 2P(Wi ^ a/y/i) = P(ra/Vi ^ 1) = P(tra/Vi SCt). Udowodniliśmy więc, że ra ~ tra dowód. a w szczególności r„a ~ n2ra, co kończy 2. Odp. Gęstość ra jest równa (zad. 13.3.2) -= 4 e l[ 0 ,oo)(i). V Ponieważ t„ ~ a2rlt ograniczymy się do tej ostatniej zmiennej losowej. Odpowiedzi i wskazówki 468 a) W celu obliczenia transformaty Laplace’a skorzystamy z interesującego spostrzeżenia ([FICH], t. II, roz. XIII, s. 524): dx - i r / ( u 2) du, a, b > 0 , a Jo przy założeniu, że jedna z całek jest zbieżna. Mamy teraz (podstawiając x2 = 1/(21)): - ( I2+S/(2x2)) e - sti - 3/2e - 1/2t di ->/55_2 = / ' * Ja dx = e 2 -■/2s dx ■ i b) Podstawienie s = it powoduje kłopot w wyborem jednego z dwóch pier­ wiastków z liczby zespolonej. Wobec tego obliczymy część rzeczywistą i uro­ joną funkcji charakterystycznej. Skorzystamy z następujących tożsamości: i e~x cos(c2/ x 2)dx = ^ - e ~ c^ cos(cV2), c > 0, e~x sin(c2/ x 2)dx = ^ ^ e _cV^sin(cV/2), c > 0. Jo j Jo Można je otrzymać przez dwukrotne zróżniczkowanie względem c obu całek i rozwiązanie otrzymanego równania różniczkowego ([FICH], t. II, roz. XIV, s. 626). Niech s > 0. Mamy, podstawiając i = l/(2 x 2): Rev?Tj(s) = £ c o s (s ti) 2 = —-= I = J cos(st)t~3/'2e~1/' ^ dt = f°° 2 cos(s/2x2)e~x dx = eT^cos^/s. V 71 Jo Analogicznie obliczamy część urojoną. Uwzględniając parzystość funkcji cosinus i nieparzystość funkcji sinus otrzymujemy dla dowolnego s VT1( s ) = e - < -1- iseils)^ 7K Liczba (1 — ¿sgn^y^si jest pierwiastkiem głównym liczby —2is. Jeśli z = = |z|e,Argz, gdzie Arg z € [—ir,w] i jest zwany argumentem głównym, to pierwiastkiem głównym liczby z jest y /jźfe^,Arg2)/2. 3. Rozw. Rozumowanie podobne do przeprowadzonego w zadaniu 1 pokazuje, że VT<i musi mieć symetryczny rozkład 1-stabilny. Jedynym takim rozkła­ dem jest rozkład Cauchy’ego. Nie wiadomo jednak, jaki jest parametr skali. do rozdziału 13 469 W takim razie należy przeprowadzić bezpośrednie rachunki: /•OO P(VTa iC s) = / P(Vt ś s ) ^ = r 3/2e -a2/2tdi = v27T Jo /•oo /»s = / / t - 1/2~ e - x2' n - ^ = t - 3/2e~a2/2tdxdt = Jo i-oo V2w / s ada: oo ’r(a2 + s 2)' 4. P02 «;. Niech r = inf{s ^ 0: Ws ^ r}, r ^ 0, rj = (t —r) V 0. Wtedy P(sup Ws ^ r) = P(r ^ i) = P(r ^ i, iyt ^ r) + P(r ^ i, Wt ^ r) = s<i = 2P ( W t źr), ponieważ {W t ^ r] C {r ^ i} oraz P(r ^ i, Wt ^ r) = P(t ^ t, Wt > r). Ostatnia równość wynika stąd, że Wt = WT + £?,, = r + Bv, gdzie B jest procesem Wienera niezależnym od Tt . 5. Wsk. Niech rn = ([2"r] + l )/ 2" . Wtedy ze znanej już tożsamości Walda zastosowanej do martyngału (W j/2n)j wynika, że £W Tn = 0. Ale WTn = W T + (Wr„ - WT) = WT + Un. Należy wykazać, że £Un —>0. Ale z tw. Dynkina-Hunta Un = Bv„, gdzie B jest innym procesem Wienera i 0 $ T)n ^ 2_n, zatem \U„\ ^ sup5^j |WS| £ € L1, n = 1,2,__ Podobny argument stosuje się do drugiej tożsamości. 6. Rozw. a) jest oczywiste, b) również, bowiem dla każdego zbioru A € Tn mamy f A hn+idP = 0. Od tej chwili przyjmiemy, że Q = o(To,Ti, ...). 7. Rozw. Jeśli m > n, to z zad. 5 wynika, że £h„hm = £ (£ (hnhm \Fm-i)) = £ (hn£ (hm \ = 0. Wykażemy teraz zupełność. Niech f będzie dowolną funkcją z L2(Q.,Q,P). Jeśli £fh n = 0 dla n = 1,2,... i /„ = £ ( / 1Fn), to / „ = aihi, bowiem funkcje ho, h i,. . . , hn są, jako ortogonalne, liniowo niezależne i tworzą bazę w (n + l)-wymiarowej przestrzeni L2(Cl,F„,P). Dlatego £ (f f n) = 0 dla każdego n, a ponieważ na mocy twierdzenia 11.6.6 o zbieżności martyngałów w Lp mamy f n ~~~> / , ostatecznie £ f 2 = 0, czyli / = 0 p.n. 8. Wsk. Przyjąć aj = £fhi i skorzystać z twierdzenia o zbieżności martyngałów w Lp. 9. Wsk. X = P •(cos£/,sini/), gdzie zmienne losowe R i U są niezależne, a i/ ma rozkład W[0,27r]. 10. PFsfc. Skorzystać z poprzedniego zadania. *11. Wsk. Rozważyć moment to dojścia procesu do okręgu o środku x, zawartego w G i skorzystać z tego, że w chwili To proces Wienera zaczyna się od nowa. Odpowiedzi i wskazówki 470 13.5. Konstrukcja procesu Wienera... 1. Rozw. Ustalmy u, v € [0,1], u < v, weźmy / S Lp[0,1], Niech q = p* (czyli l/p + 1/q = 1). Oznaczmy d = v — u. Wtedy r(a) •\(Raf)(v) - (Raf)(u)\ = (v - i )a_1 / (t)dt ~ i Ja (u —t)a l)f(t)d t + JU [ V( v - t ) (a- 1)qdt JU 1 /9 f I( v - t ) ° - 1 ~ { u - t ) ° - l\qdt + Ja W ostatnim wierszu skorzystaliśmy z nierówności Hóldera. Oszacujemy teraz wyrażenia I i II. Mamy 1= 1 {a — l)q + l 1 /9 ponieważ [(a — 1)q + 1] •l/g = a — 1 + 1/g = a + l/p = A, a w szczególności (a — l)g + 1 > 0. Co do II, podstawiamy najpierw s = u —i, a następnie z = s/d: 1 /9 II = [ \ { d + s) Ja /•OO / yo 1 /9 1(1 + z)“- 1 Wykażemy zbieżność ostatniej całki. W otoczeniu zera funkcja podcałkowa jest rzędu z^a_1^ , gdzie (a — l)ę > —1. W nieskończoności funkcja podcał­ kowa szacuje się z twierdzenia o wartości średniej: |(1 + z)“- 1 - z“" 1!9 ^ \a - 2\q\9 + z|(a~2\ 6 G (0,1). Dla dużych z prawa strona jest rzędu |z[(‘^_2)', , gdzie (a — 2)q < - 1 , skąd wynika zbieżność całki. Wykazaliśmy zatem, że ! ( * . / ) ( « ) - ( R a f ) ( u ) | ^ K a,„\\f\\Lv\u-v\\ co kończy dowód. do rozdziału 13 471 2. Rozw. Oznaczmy J Vb,n(s) = (Rbe„)(s) = (s - t)b 1en(t)dt. Wtedy, zamieniając kolejność całkowania i korzystając z tego, że ^ “ ¡7* ~ ( £ « ? r 7 i, otrzymujemy N ^ ^ yb,nP{n n=M LplO,l] ,e f ds ■ Y , ybAshr. Jo P /2 ■£\h ds■ 'Jo Wykażemy teraz, że gdy M ,N —> oo, to całka po prawej stronie zmierza do zera. W tym celu zauważmy, że liczba yb,n(s) da się przedstawić jako iloczyn skalarny w Ł2[0,1] funkcji e„(i) oraz ha(f) = -Mm pj^y(s ~ t)b l Wobec tego z równości Parsevala otrzymujemy 00 fs i y yU s ) = iih.(t)iiŁai0il] = n=l / (s -tf^ d t- r2(6) 2 6 - 1 i dalej: Jg ds = r(b)~p{2b-l)~p/2 s(26- 1)p/2ds < oo, ponieważ 6 > 1/2. Dzięki temu można zastosować tw. Lebesgue’a o zbieżności zmajoryzowanej i otrzymać zbieżność do zera całek w (15), co kończy dowód. 3. Wsk. Przy odpowiedniej interpretacji oznaczeń (| •|oznacza normę) dowody przenoszą się bez zmian na przypadek wektorowy. Skorowidz e-sieć, 189 minimalna, 189 A-układ, 71 Tr-ukiad, 71 niezależność, 100 cr-ciała niezależne, 46 rodzina niemalejąca, 221 <T-ciało, 9 JFT, 223 generowane przez rodzinę zbio­ rów, 13 generowane przez zmienną lo­ sową, 60 ogonowe (resztkowe), 146 produktowe, 345 Borowkow, Aleksander Aleksiejewicz, 484 Bortkiewicz, Władysław (1868-1931), 168 brak pamięci, 65, 66, 104, 107, 115, 117, 128 Brillat-Savarin, Anthelme (1755-1826), 67 Brojer, Wojciech, 29 Brown, Robert, 304 Buffon, Georges Louis Leclerc de (1707-1788), 21, 67 Całka, 340 wzdłuż krzywej, 363 Casanova, Giovanni Giacomo (1725-1798), 229 Cauchy, Augustin Louis (1789-1857), 361 centralne twierdzenie graniczne, 203, 380 w wielu wymiarach, 219 Chandrasekhar, S., 305 Chinczyn, Aleksander Jakowlewicz (1894-1959), 203 ciąg Bemoulliego, 99, 106, 151, 200, 213, 241, 383, 415 prognozowalny, 228 uogólniony, 248 Cichocki, Bogdan, 304 Ciesielski, Zbigniew, 319 Cramera transformata, 380, 381 warunek, 381 cykle w permutacji, 219 Czebyszew, Pafnutij Lwowicz (1821-1894), 92 częstość, 8 Adaptowana rodzina zmiennych lo­ sowych, 222 aksjomat wyboru, 15 aksjomaty teorii prawdopodobieństwa, 10 Alembert, Jean Le Rond d’ (1717-1783), 22 argument, 364 główny, 468 Bayes, Thomas (1702-1761), 39 baza Schaudera, 318, 359 Bennett, Deborah J., 42 Bernoulli, Jakub (1654-1705), 154 Bernstein, S. N., 175 biegun funkcji, 370 Billingsley, Patrick, 484 Birkholc, Andrzej, 360 błądzenie przypadkowe na prostej, 264, 281 w R ", 281 z barierami elastycznymi, 269 Bojdecki, Tomasz, 484 472 Skorowidz częstość przebywania łańcucha Mar­ kowa w danym stanie, 295 Długość krzywej, 363 Doeblin, W., 203 Doktór, Jan, 29 Doob, Joseph Leo, 229-231, 244, 384 dopełnienie ortogonalne, 355 dylemat więźnia, 36 Dynkin, Jewgienij Borysowicz, 71 dystrybuanta, 63, 67, 70 Cantora, 113 empiryczna, 161 ułomna, 186 Einstein, Albert (1879-1955), 304 estymator, 90 Euler, Leonard (1707-1783), 330 Exner, Feliks, 305 Feller, William (1906-1970), 282,484 Fermat, Pierre de (1601-1665), 53 Fichtenholz, Grigorij Michajłowicz, 484 filtracja, 2 2 1 naturalna, 2 2 2 rodzina zmiennych losowych adaptowana do, 2 2 2 funkcja absolutnie ciągła, 73, 457 analityczna, 191, 360 beta, 325 borelowska, 59 charakterystyczna, 190, 335 losowej sumy, 198 rozkładu Cauchy’ego, 373 rozkładu cosinusa hiperbolicznego, 374 wielowymiarowa, 208 dodatnio określona, 192 gamma, 325 harmoniczna, 318, 368 dla łańcucha Markowa, 274 holomorficzna, 360 kowariancji procesu, 305 prosta, 340 tworząca, 330, 375 ciągu, 330 dla ogonów, 331 473 funkcja tworząca momenty, 375 zmiennej losowej, 330 funkcje Haara, 317 Rademachera, 415 Schaudera, 320 Gauss, Carl Friedrich (1777-1855), 118 Gersonides, Leon (1288-1344), 24 gęstość rozkładu prawdopodobieństwa, 61, 62 warunkowa, 138 Gleichgewicht, B., 168 Graham, Ronald L., 484 Graunt, John (1620-1674), 66 Grimmett, GeoSrey R., 484 gruba moneta, 18, 21 Guibas, L. J., 460 Hacking, łan, 6 6 Halley, Edmund (1656-1742), 67 Hoffmann-j0 rgensen, j 0 rgen, 484 Huygens, Christian (1629-1695), 67, 79 Igła Buffona, 21 uogólnienie, 21 iloczyn skalarny, 354, 355 iloraz wiarogodności, 258 indeks krzywej względem punktu, 363 inwersje w permutacji, 219 Itô, K., 319 Jahwe, 29 Jajuga, K. i T., 412 jednostajna całkowalność, 113, 244 jędrność rodziny rozkładów, 179 Juszkiewicz, A. P., 484 Kac, Marek (1914-1984), 210, 376 Kahane, Jean-Pierre, 442 Kahneman, D., 403 Knuth, Donald E., 484 koincydencje, 31 Kołmogorow, Andriej Nikołajewicz (1903-1987), 10 474 kombinacje, 24 z powtórzeniami, 26 kompensator, 385 Kordos, Marek, 78, 484 Kos, Bohdan, 29 kowariancja, 86 z próby, 90 kryterium Pólya, 202 krzywa, 363 Peano, 417 regresji liniowej, 90 zamknięta, 363 Kucharczyk, J., 168 kurtoza, 85 kwantyle, 487 Kwapień, Stanisław, 149, 211, 321, 484 Laplace, Pierre Simon de (1749-1827), 21, 39, 170, 375 laplasjan, 361 Leja, Franciszek (1885-1979), 200, 360 lemat Borela-Cantelliego, 54, 55 Fatou, 80, 343 wersja warunkowa, 136 Halla o małżeństwach, 189 Kroneckera, 156 o 7T- i A-układach, 71, 96, 183, 250, 255, 270 Toeplitza, 156 Levy, Paul (1886-1971), 203 Li, S.-Y. R., 460 liczby Bernoulliego, 329 losowe, 121, 164 normalne, 162 Lindeberg, J. W., 213 Lipski, Witold, 189 Łańcuch Markowa, 264 chwilowy, 284 ergodyczny, 291 jednorodny w czasie, 268 i przestrzeni, 277 nieprzywiedlny, 275 okresowy, 284 pochłaniający, 301 Skorowidz łańcuch Markowa powracający, 282 Łukaszewicz, Jerzy, 402 Macierz kowariancji, 87 podwójnie stochastyczna, 298 przejścia, 267, 271 stochastyczna, 268 Majstrów, Leonid Jefimowicz, 484 Marcinkiewicz, Józef (1910-1940), 164 Marek, Wiktor, 189 Markiewicz, Wojciech, 79 martyngał, 226 prawostronnie domknięty, 227, 244 z czasem ciągłym, 311 z czasem odwróconym, 242 zatrzymany, 227 Mere, kawaler de (wł. Antoine Gombaud), 31, 218 metody Monte Carlo, 160, 216, 319 metryka Levy’ego, 188 miara, 336 a-skończona, 181, 336 cylindryczna, 320, 321 Haara, 189 Lebesgue’a, 61, 336 licząca, 336, 358 produktowa, 254, 345 przesuwalna, 15 zewnętrzna, 337 mierzalność w sensie Caratheodory’ego, 337 Mises, Richard von (1883-1953), 159 model Coxa-Rossa-Rubinsteina, 260, 393 dyfuzji, 273 Ehrenfestów, 287 Pólya, 41, 240 moduł ciągłości, 94, 307 modyfikacja stochastyczna procesu, 306 Moivre, Abraham de (1667-1754), 170, 330 moment, 85, 375 absolutny, 85 centralny, 85 Skorowidz moment stopu (zatrzymania, Mar­ kowa), 222, 293 optymalny, 389 momenty wyznaczające rozkład, 379 zbieżność, 189, 379 most Browna, 310 Nadciąg, 263 nadmartyngał, 226 nadzieja matematyczna, 79 moralna, 405 następstwa pozorne, 48, 49, 141 nawias skośny martyngału, 385 Neumann, John von (1903-1957), 18 Niemiro, Wojciech, 141 nieprzywiedlna klasa stanów, 303 nierówność Bernsteina, 175 dla schematu Bernoulliego, 154 symetryczna, 107 Bessela, 355, 358 Cauchy’ego-Buniakowskiego-Schwarza, 91 Czebyszewa uogólniona, 93 wykładnicza, 93 Czebyszewa-Bienayme, 93 Dooba, 244, 451, 456 Höldera, 92 Hardy’ego-Littlewooda, 107, 241 Hoffmanna-j0 rgensena, 153, 308 Jensena, 91 dla warunkowej wartości ocze­ kiwanej, 133 Kołmogorowa, 153 Levy’ego-Ottavianiego, 149 maksymalna dla podmartyngałów, 242 Markowa, 93 Minkowskiego, 353 Schwarza, 355 Younga, 92 niezależność 7r-układów, 100 cr-ciał, 46, 95 zdarzeń, 43 zmiennych losowych, 95 475 Nisio, M., 319 norma, 353 p-ta, 352 w przestrzeni Hilberta, 355 Obwiednia Snella, 389, 393 odchylenie standardowe, 85 Odlyzko, A. M., 460 ogon rozkładu, 406 opcja amerykańska, 392 europejska, 258, 395 operator Riemanna-Liouville’a, 321 osobliwość usuwalna, 369 Ostwald, Wilhelm (1853-1932), 304 Owczarow, L. A., 175 Paradoks Bertranda, 19 czasu oczekiwania, 107 d’Alemberta, 22 kawalera de Mere, 31 losowych liczb naturalnych, 16 Simpsona, 41 Pascal, Blaise (1623-1663), 24, 53 Patashnik, Oren, 484 Pepys, Samuel (1633-1703), 31 Peres, Y., 441 permutacje, 23 skończone, 148 z powtórzeniami, 27 Petty, William (1623-1687), 67 pierwiastek główny, 468 Pietsch, Albrecht, 321 Platon (429-348 p.n.e.), 29 podklasy cykliczne, 303 podmartyngał, 226 nierówność maksymalna, 242 Poisson, Simeon D. (1781-1840), 166 poker, 27 portfel, 58, 89, 259 efektywny, 412 replikujący, 260, 261 powłoka liniowa, 358 wypukła, 18 prawdopodobieństwo, 8, 10 a •priori i a posteriori, 40 asymptotyczne, 17 476 prawdopodobieństwo definicja klasyczna, 22 dojścia do zbioru stanów, 299 geometryczne, 17 warunkowe, 34 uogólnienie, 137 prawo małych liczb, 168 wielkich liczb, 146 Bernoulliego, 154 Bernoulliego, mocne, 155 Bernsteina, 164 Chinczyna, 164, 203 dla procesu Wienera, 311 Etemadiego, 165 Kolmogorowa, mocne, 157, 158 mocne, 246 słabe, 155 zero-jedynkowe Hewitta-Savage’a, 148 Kołmogorowa, 146, 246 problem Haara, 200 Serbelloni, 402 proces gałązkowy, 334 Poissona, 104, 210 stochastycznie ciągły, 308 stochastyczny, 104 Wienera, 64, 202, 305 prognoza wysokości roszczeń, 141 prosta regresji, 90 przeliczalna addytywność, 10 przestrzeń Banacha, 64 euklidesowa, 354 Hilberta, 64, 130, 354 liniowa, 355 mierzalna, 336 polska, 64 probabilistyczna, 10 unitarna, 354 unormowana, 353 zupełna, 354 przyrosty martyngałowe, 236 pseudometryka, 148 Puszkin, Aleksander (1799-1837), 272 Skorowidz Regresja liniowa, 90, 139 reguła równolegloboku, 355 trzech sigm, 95, 175 residuum, 372 Riemann, Bernhard (1826-1866), 361 rozbicie przeliczalne, 37 skończone, 37 zbioru a, 37 rozkład 1/2-stabilny, 316 X2(n ), 120, 196 ściśle stabilny, 202 absolutnie ciągły, 62 arcusa sinusa, 118 arytmetyczny, 196, 197 Bernoulliego (dwumianowy), 114 beta, 118 bezatomowy, 208 brzegowy, 65 Cauchy’ego, 118, 421 ciągły, 62 Dooba nadmartyngału, 384 dwupunktowy, 114 dyskretny, 63 Erlanga, 104 gamma, 117 geometryczny, 64, 115, 332 hipergeometryczny, 116 jednopunktowy (delta Diraca), 65, 114 jednostajny, 65 na podzbiorze R ” , 117 liczby szkód, 141 logarytmicznie-normalny, 211, 379 normalny (Gaussa), 118,377,421 a jednostajny na sferze, 181 jednowymiarowy, 118 momenty, 325 standardowy, 118 wielowymiarowy, 119 osobliwy (singularny), 163 Pólya, 41, 116 Pascala, 116 pierwszej cyfry znaczącej, 65 początkowy łańcucha Markowa, 268 Skorowidz rozkład Poissona, 105, 115, 132, 377 prawdopodobieństwa, 61 gęstość, 14 zmiennej losowej, 60, 61 równomierny, 17 stabilny, 202 stacjonarny, 286 sumy niezależnych zmiennych lo­ sowych, 103 symetryczny, 192 trójkątny, 103 ujemny dwumianowy, 116 unimodalny, 118 warunkowy, 137 regularny, 142, 144 wielomianowy, 115 wykładniczy, 64, 117, 377 dwustronny, 106 wyznaczony przez momenty, 189, 379 zdarzeń rzadkich, 168 rozkłady skończenie wymiarowe łańcucha Markowa, 268 procesu, 305 zgodne, 306 równania Cauchy’ego-Riemanna, 361 Chapmana-Kołmogorowa, 271 równość (tożsamość) Parsevala, 355 równoważność stochastyczna proce­ sów, 308 ruch Browna, 305 Rudin, Walter, 484 Rusiniak, Bożenna, 78 Rutherford, Ernest (1871-1937), 168 ryzyko, 89, 257 rzut ortogonalny, 356 Salem, Raphael, 442 sąsiedztwo punktu, 369 schemat Bernoulliego, 49 Pólya, 41 serii, 211 znormalizowany, 212, 213, 215 Schlag, B. S., 441 Sierpiński, Wacław (1882-1969), 71 477 Słonimski, Antoni (1895-1976), 139 Smoluchowski, Marian (1872-1917), 304 Snell, James Laurie, 389, 485 Solomyak, Boris, 441 splot funkcji, 103 gęstości, 103 rozkładów, 103 stan chwilowy, 278, 303 dodatni, 298, 303 istotny, 303 nieistotny, 275, 279, 303 niezerowy, 303 okresowy, 284 osiągalny, 275 pochłaniający, 303 powracający, 278, 303 zerowy, 298, 303 stany komunikujące się, 275 statystyka Bosego-Einsteina, 26 Fermiego-Diraca, 26 Maxwella-Boltzmanna, 26 statystj'ki pozycyjne, 106 Steinhaus, Hugo (1887-1972), 168 Stewart, łan, 25 Stirling, James (1692-1770), 327 Stirzaker, David R., 484, 485 supremum istotne, ess sup, 92 symetryzacja rozkładu, 205, 444 Szabat, Jewgienij Borysowicz, 360 Sziriajew, Albert Nikołajewicz, 485 sztuczka karciana, 291 Średni czas dojścia do zbioru sta­ nów, 299 średnia ważona, 79, 156 z próby, 120 Świtała, Filip, 21 Tartaglia, Niccolo (1500-1557), 24 tożsamość Parsevala, 204 Plancherela, 205 Walda, 224, 232, 235 dla procesu Wienera, 317 478 trajektoria procesu, 104, 305 transformata Cramera, 380, 381 Fouriera, 190 Laplace’a, 316, 335, 375 dwustronna, 376 martyngałowa, 228, 229, 261 Tuwim, Julian (1894-1953), 139 Tversky, A., 403 twierdzenie Berry-Esseena, 175, 212 Bochnera, 192, 206 Borela o liczbach normalnych, 162 Cauchy’ego dla trójkąta, 365 dla zbioru wypukłego, 367 Cramera, 201 de Moivre’a-Laplace’a integralne, 173 lokalne, 171 Diniego, 188 Dooba, 229-231, 450, 455 wersja wzmocniona, 230 Dynkina-Hunta, 314 ergodyczne, 291 Fellera, 215 Fishera, 121 Fubiniego, 345, 348 Gliwenki-Cantelliego, 162 Hadamarda, 200 Hewitta-Savage’a, 148 Kaca, 210, 376 Kakutaniego, 254 Kołmogorowa o istnieniu procesu, 352 o rozkładach zgodnych, 350 o trzech szeregach, 151 o zgodności, 350 Levy’ego-Cramera o ciągłości, 199 Lebesgue’a o zbieżności zmajoryzowanej, 80, 345 Lebesgue’a-Leviego o zbieżno­ ści monotonicznej, 80, 341 Marcinkiewicza, 164 o całkowaniu przez podstawie­ nie, 75 o ciągłości, 12 Skorowidz twierdzenie o ciągłości warunkowej warto­ ści oczekiwanej, 245 o dwóch szeregach, 150 o funkcji pierwotnej, 365 o istnieniu miary Haara, 189 o istnieniu miary produktowej, 347 o mnożeniu prawdopodobieństw, 35 o odwrotnym przekształceniu Fouriera, 205 o przedłużaniu miary, 13, 336 o reprezentacji martyngału, 260 o rozkładzie na podklasy cyklicz­ ne, 285 o rzucie ortogonalnym, 130, 356 o zbieżności martyngalów w L1, 244 w Lp, 247 z czasem odwróconym, 242 o zbieżności nadmartyngałów, 237 o zbieżności zmajoryzowanej wersja warunkowa, 136 Poissona, 166 Pratta, 113 Prochorowa, 186, 188 Radona-Nikodyma-Lebesgue’a, 129, 248 Riemanna-Lebesgue’a, 198 Riesza, 110 SchefFe’go, 181 Sheppa, 208 Skorochoda, 188 Stone’a-Weierstrassa, 195 Układ ortonormalny, 356 Haara, 317, 359 zupełny, 356 Ułam, Stanisław (1909-1984), 160 Wallis, John (1616-1703), 327 wariacja kwadratowa, 311 wariacje bez powtórzeń, 23 z powtórzeniami, 23 wariancja, 84 Skorowidz wariancja warunkowa, 136 z próby, 90, 120 wartość średnia (oczekiwana), 79 warunkowa, 122 warunek Carathéodory’ego, 338 Cramera, 381 Lapunowa, 213 Lindeberga, 212, 213, 215 warunkowa wartość oczekiwana pod warunkiem { Y = y), 134 względem cr-ciała, 126, 128 wektor losowy, 59 Wentzel, E. S., 175 Wentzell, Aleksander Dmitriewicz, 485 wielomiany Bernsteina, 94 Wiener, Norbert (1894-1964), 306 Williams, David, 485 wizyta w zbiorze borelowskim, 223 własność Markowa, 264, 293 mocna, 293, 314 wartości średniej, 368 Woyczyński, Wojbor A., 484 współczynnik asymetrii (skośności), 85 korelacji, 86 spłaszczenia, 85 współrzędne barycentryczne, 267 wstępująca rodzina zbiorów, 336 zdarzeń, 12 wzór Bayesa, 39 uogólnienia, 141 całkowy Cauchy’ego, 367 Conwaya, 274 na prawdopodobieństwo całko­ wite, 37, 124 wersja wyrafinowana, 38 Stirlinga, 52, 170, 171, 219, 327 włączeń i wyłączeń, 11 Wallisa, 328 Zadanie Banacha o zapałkach, 53 o dniach urodzin, 25 479 zadanie o konkurencji, 176 o owadzie, 132 i mrówkach, 185 o pchle, 303 o podziale stawki, 53 o ruinie gracza, 41, 233 o taksówkach, 416 o wystąpieniach wzorca, 273 Samuela Pepysa, 31 zagadnienie Dirichleta, 318, 368 dyskryminacji, 257 optymalnego stopowania, 388 portfela inwestycyjnego, 89 prognozy, 135 Zakrzewski, Marek, 175 zamknięta klasa stanów, 303 zasada odbicia, 313 symetryzacji, 427 zbiór cylindryczny, 350 krytyczny, 257 mierzalny, 336 niemierzalny, 15 stanów, zamknięty, 275 wypukły, 356 zbieżność dystrybuant (słaba), 185 prawie na pewno, 108 rozkładów (słaba), 180, 182 według p-tego momentu (w Lp), 108 prawdopodobieństwa, 108 rozkładu, 180 zdarzenia, 8, 9 alternatywa, 8, 14 elementarne, 9 koniunkcja, 14 niezależne, 43 niezależne parami, 44 wykluczające się, 10 wzajemnie niezależne, 44 zdarzenie niemożliwe, 9, 14 permutowalne, 148 pewne, 9, 14 przeciwne do danego, 14 480 zera funkcji holomorficznej, 368 zgodna rodzina miar, 350 zjawiska masowe, 7 zmienna losowa, 58 n-wymiarowa, 59 niewłaściwa, 220 o wartościach w przestrzeni pol­ skiej, 64 symetryczna, 192 Skorowidz zmienne losowe nieskorelowane, 87, 102 zstępująca rodzina zbiorów, 336 zdarzeń, 12 Zubrzycki, Stefan, 485 zysk, 89 Żak, Tomasz, 175 Wykaz ważniejszych oznaczeń ar y j o - ** ozn = — równe z aeiinicji; = — oznacza; N — zbiór liczb naturalnych. N = {1,2, . .. }, N U {0} °= Ń. Z — zbiór liczb całkowitych. C — zbiór liczb zespolonych. R — zbiór liczb rzeczywistych. R + = [0,oo). To wcale nie oznacza, że oznaczenia, o których zapomnieliśmy, są mniej ważne. R n = { ( z i , .. .,x n)\Xi G R, i = 1 ,2 ,... n}. A A B = (A \ B) U (B \ A) — różnica symetryczna zbiorów A i B. [.x] — część całkowita liczby x. loga x — logarytm przy podstawie o liczby x\ domyślną podstawą jest e, czyli log x jest logarytmem naturalnym. an T oo — niemalejący ciąg (an) zmierza do nieskończoności. Analogicznie pi­ szemy bn i b. o-n ~ bn — asymptotycznie równe, tj. lim j— = 1. n —» o o bn o{x) — piszemy: f(x) = o(xn), gdy funkcja / jest określona w otoczeniu zera, i lima;_o = 0, n = 0,1,2,.... M ożna używać 0 (x) — piszemy: f(x) = 0(xn), gdy funkcja / jest określona w otoczeniu zera, ogólniejszych a wyrażenie jest ograniczone w tym otoczeniu zera, n = 0,1,2, — oznaczeń: o(h (x)) (ut)teT — ciąg uogólniony, indeksowany elementami zbioru T. A ł — transpozycja macierzy A n! = n(n — 1) •... •2 •1; n!! = n(n — 2) - . . gdzie n € Ń, a mnożenia wykonuje się, dopóki czynniki są dodatnie. 71' jty — symbol Newtona; wzór ma sens dla n = 0, 1, 2, . . . i k = = 0, 1, .. . n. W postaci (a\ _ a(a - 1) •... •(a — k + 1) \k) ~ k\ ma sens dla dowolnego a £ R. 481 i 0 ( h (x ) ). Wykaz ważniejszych oznaczeń 482 (fi, F , P) — przestrzeń probabilistyczna, fi jest zbiorem, T — cr-ciałem jesgo podzbiorów, P — prawdopodobieństwem. Podobnie, jeśli p jest dowolną miarą, mamy przestrzeń mierzalną: (X ,M ,p ). 13(B) — cr-cialo borelowskich podzbiorów przestrzeni metrycznej E. Najczęściej E = R ". F , Q, M. — typowe oznaczenia c-ciat. A(yl) (wyjątkowo |j4|) — miara Lebesgue’a zbioru A. |j4.| — objętość zbioru A. U, V, W, X , Y, — typowe oznaczenia zmiennych losowych. ¿¿, 1/ — typowe oznaczenia miar i rozkładów prawdopodobieństwa. p ® v — produkt miar. p®n, n®T — produkt n (a nawet T, gdzie T jest zbiorem indeksów) egzemplarzy miary p. p * u, f * g — splot miar i funkcji. |/x| — pełna wariacja miary (ze znakiem) p. X ~ p — zmienna losowa X ma rozkład p Zmienna losowa X ma rozkład px, dystrybuantę Fx (jest to również dystrybuanta F^ rozkładu p) i funkcję charakterystyczną tpx \ może mieć gęstość.gx , a generuje <j-ciało cr(X). ess supX = inf{t: Fx (t) = 1} — supremum istotne zmiennej losowej X . £ X — wartość oczekiwana (średnia) zmiennej losowej X . V 2X — wariancja. cov(X ,Y ) — kowariancja zmiennych losowych X i Y. p(X, Y) — współczynnik korelacji. £ (X |F ) — warunkowa wartość oczekiwana zmiennej losowej X pod warunkiem (j-ciała T. V 2(X\F) — wariancja warunkowa. £ (X |Y) — warunkowa wartość oczekiwana zmiennej losowej X pod warunkiem zmiennej losowej Y. £ ( X \ Y = y) — warunkowa wartość oczekiwana zmiennej losowej X pod warun­ kiem Y = y. P(A\3r) — prawdopodobieństwo warunkowe zdarzenia A pod warunkiem <7-ciała T. P(A\Y = y) — prawdopodobieństwo warunkowe zdarzenia A pod warunkiem Y = y. PT — regularny rozkład warunkowy pod warunkiem T. Px\F — regularny rozkład warunkowy X pod warunkiem T. W ykaz ważniejszych oznaczeń 483 X(k) — A-ta statystyka pozycyjna ciągu (ATi,. .. X n)6a .— rozkład jednopunktowy skupiony w punkcie a (delta Diraca). B(n,p) — rozkład Bernoulliego z parametrami n, p. Pois(A) — rozkład Poissona z parametrem A. U [a, b] — rozkład jednostajny na odcinku [a, 6]. AT (a, b) — jednowymiarowy rozkład normalny o średniej a i wariancji b N (m, S) — wielowymiarowy rozkład normalny o wektorze wartości średniej m i macierzy kowariancji E. $ — dystrybuanta rozkładu Ai (0 , 1 ). Różne rodzaje zbieżności: p X n — >X — ciąg zmiennych losowych (Xn) jest zbieżny do X według prawdo­ podobieństwa. X — prawie na pewno. Xn X n — > X — według p-tych momentów (w Lp). X — według rozkładu. Xn sł /j,n — >ji — ciąg miar (/x„) jest słabo zbieżny do /i. Fn -—t F — ciąg dystrybuant (F„) jest słabo zbieżny do F. X , (Xt), (Xt)t, (Xt)t€T — różne oznaczenia tej samej rodziny zmiennych loso­ wych, indeksowanej parametrem t e T, czyli procesu stochastycznego. X T — ciąg (proces) zatrzymany w chwili r, tj. X „ = X nAT. |[a;|| — norma elementu x. {x, y) — iloczyn skalamy x i y. dA = A nA — brzeg zbioru A. H{G) — zbiór funkcji holomorficznych na zbiorze otwartym G. D(a,r) — otoczenie punktu o. D'(a,r) — sąsiedztwo punktu a. Res(/; a) — residuum funkcji / w punkcie a. Jeśli 7 jest krzywą, czyli odpowiednim odwzorowaniem z [a, 6] w C, to obrazem odcinka [a, 6] przy tym odwzorowaniu. Ind-, (a) — indeks krzywej 7 względem punktu a. 7* jest Tablice rozkładu normalnego Tablica 1. Dystrybuanta rozkładu Af (0,1) Ze względu na zależność # ( - t ) = l - $ (t) wystarczą wartości dla t > 0. /2 dx t 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586 0,1 ,53983 ,54380 ,54776 ,55172 ,55567 ,55962 ,56356 ,56749 ,57142 ,57535 0,2 ,57926 ,58317 ,58706 ,59095 ,59483 ,59871 ,60257 ,60642 ,61026 ,61409 0,3 ,61791 ,62172 ,62552 ,62930 ,63307 ,63683 ,64058 ,64431 ,64803 ,65173 0,4 ,65542 ,65910 ,66276 ,66640 ,67003 ,67364 ,67724 ,68082 ,68439 ,68793 0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240 0,6 ,72575 ,72907 ,73237 ,73565 ,73891 ,74215 ,74537 ,74857 ,75175 ,75490 0,7 ,75804 ,76115 ,76424 ,76730 ,77035 ,77337 ,77637 ,77935 ,78230 ,78524 0,8 ,78814 ,79103 ,79389 ,79673 ,79955 ,80234 ,80511 ,80785 ,81057 ,81327 0,9 ,81594 ,81859 ,82121 ,82381 ,82639 ,82894 ,83147 ,83398 ,83646 ,83891 1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214 1,1 ,86433 ,86650 ,86864 ,87076 ,87286 ,87493 ,87698 ,87900 ,88100 ,88298 1,2 ,88493 ,88686 ,88877 ,89065 ,89251 ,89435 ,89617 ,89796 ,89973 ,90147 1,3 ,90320 ,90490 ,90658 ,90824 ,90988 ,91149 ,91308 ,91466 ,91621 ,91774 1,4 ,91924 ,92073 ,92220 ,92364 ,92507 ,92647 ,92785 ,92922 ,93056 ,93189 1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408 1,6 ,94520 ,94630 ,94738 ,94845 ,94950 ,95053 ,95154 ,95254 ,95352 ,95449 1,7 ,95543 ,95637 ,95728 ,95818 ,95907 ,95994 ,96080 ,96164 ,96246 ,96327 1,8 ,96407 ,96485 ,96562 ,96638 ,96712 ,96784 ,96856 ,96926 ,96995 ,97062 1,9 ,97128 ,97193 ,97257 ,97320 ,97381 ,97441 ,97500 ,97558 ,97615 ,97670 2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169 2,1 ,98214 ,98257 ,98300 ,98341 ,98382 ,98422 ,98461 ,98500 ,98537 ,98574 2,2 ,98610 ,98645 ,98679 ,98713 ,98745 ,98778 ,98809 ,98840 ,98870 ,98899 2,3 ,98928 ,98956 ,98983 ,99010 ,99036 ,99061 ,99086 ,99111 ,99134 ,99158 2,4 ,99180 ,99202 ,99224 ,99245 ,99266 ,99286 ,99305 ,99324 ,99343 ,99361 2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520 2,6 ,99534 ,99547 ,99560 ,99573 ,99585 ,99598 ,99609 ,99621 ,99632 ,99643 2,7 ,99653 ,99664 ,99674 ,99683 ,99693 ,99702 ,99711 ,99720 ,99728 ,99736 2,8 ,99744 ,99752 ,99760 ,99767 ,99774 ,99781 ,99788 ,99795 ,99801 ,99807 2,9 -,99813 ,99819 ,99825 ,99831 ,99836 ,99841 ,99846 ,99851 ,99856 ,99861 484 Tablice rozkładu normalnego 485 Tablica 1. Dystrybuanta rozkładu U (0,1) (c.d.) t 0,00 0,01 0,02 0,03 0,04 3.0 3.1 3.2 3.3 3.4 0,99865 ,93032 ,9S313 ,93517 ,93663 0,99869 ,93064 ,93336 ,93533 ,93675 0,99874 ,93096 ,93359 ,93550 ,93687 0,99878 ,93126 ,93381 ,93566 ,93698 0,99882 ,93155 ,93402 ,93581 ,93709 3.5 3.6 3.7 3.8 3.9 0,93767 ,93841 ,93892 ,94276 ,94519 0,93776 ,93847 ,93896 ,94305 ,94538 0,93784 ,93853 ,94004 ,94333 ,94557 0,93792 ,93858 ,94042 ,94359 ,94575 0,93800 ,93864 ,94080 ,94385 ,94592 4.0 4.1 4.2 4.3 4.4 0,94683 ,94793 ,94866 ,95145 ,95458 4.5 0,95660 4.6 ,95789 4.7 ,95870 4.8 ,9*206 4,91 ,9S520 0,07 0,08 0,09 0,99886 0,99889 ,93184 ,93211 ,93423 ,93443 ,93596 ,93610 ,93720 ,93730 0,99893 ,93238 ,93462 ,93624 ,93740 0,99896 ,93264 ,93481 ,93638 ,93749 0,99900 ,93289 ,93499 ,93650 ,93758 0,93807 ,93869 ,94116 ,94409 ,94609 0,93815 ,93874 ,94150 ,94433 ,94625 0,93821 ,93879 ,94184 ,94456 ,94640 0,93828 ,93883 ,94216 ,94478 ,94655 0,93835 ,93888 ,94247 ,94499 ,94669 0,94696 ,94802 ,94872 ,95183 ,95483 0,94709 0,94721 0,94733 0,94744 0,94755 ,94810 ,94819 ,94826 ,94834 ,94841 ,94878 ,94883 .,94888 ,94893 ,94898 ,95219 ,9S254 ,9S287 ,95319 ,95349 ,95506 ,95528 ,9S550 ,9S570 ,95590 0,94765 ,94848 ,95022 ,9S378 ,95609 0,94775 ,94854 ,95065 ,95406 ,95626 0,94784 ,94860 ,9S106 ,95433 ,9S644 0,95676 ,95798 ,95876 ,96244 ,96544 0,95691 ,95808 ,95882 ,96281 ,9e567 0,9S756 ,95849 ,96078 ,96441 ,9S665 0,95767 ,9S856 ,96122 ,9e469 ,9S682 0,95778 ,95863 ,96165 ,96495 ,9S698 0,007 0,008 0,009 0,9S705 ,95817 ,95888 ,9®316 ,96588 0,95718 ,95826 ,95893 ,96350 ,96609 0,05 0,96732 ,95834 ,95898 ,9e382 ,96628 0,06 0,95744 ,9S842 ,96031 ,96412 ,9e647 Uwaga. 0,93123 = 0,999123, 0,94321 = 0,9999321, etc. Tablica 2. Kwantyle rozkładu M (0,1) up = $ _1(p) p 0,000 0,001 0,002 0,003 0,004 0,005 0,006 0,50 0,00000 0,00251 0,00501 0,00752 0,01003 0,01253 0,01504 0,51 ,02507 ,02758 ,03008 ,03259 ,03510 ,03761 ,04012 0,52 ,05015 ,05266 ,05517 ,05768 ,06019 ,06271 ,06522 0,53 ,07527 ,07778 ,08030 ,08281 ,08533 ,08784 ,09036 0,54 ,10043 ,10295 ,10547 ,10799 ,11052 ,11304 ,11556 0,01755 0,02005 0,02256 ,04263 ,04513 ,04764 ,06773 ,07024 ,07276 ,09288 ,09540 ,09791 ,11809 ,12061 ,12314 0,55 0,56 0,57 0,58 0,59 0,12566 ,15097 ,17637 ,20189 ,22755 0,14337 0,14590 ,16874 ,17129 ,19422 ,19678 ,21983 ,22240 ,24559 ,24817 0,14843 ,17383 ,19934 ,22497 ,25076 0,60 0,61 0,62 0,63 0,64 0,25335 0,25594 0,25853 0,26112 0,26371 0,26631 ,27932 ,28193 ,28454 ,28715 ,28976 ,29238 ,30548 ,30811 ,31074 ,31337 ,31600 ,31864 ,33185 ,33450 ,33716 ,33981 ,34247 ,34513 ,35846 ,36113 ,36381 ,36649 ,36917 ,37186 0,26891 0,27151 0,27411 ,29499 ,29761 ,30023 ,32128 ,32392 ,32656 ,34779 ,35045 ,35312 ,37454 ,37723 ,37993 0,27671 .*30285 ,32921 ,35579 ,38262 0,12819 0,13072 0,13324 0,13577 0,13830 0,14084 ,15350 ,15604 ,15858 ,16112 ,16366 ,16620 ,17892 ,18147 ,18402 ,18657 ,18912 ,19167 ,20445 ,20701 ,20957 ,21214 ,21470 ,21727 ,23012 ,23269 ,23527 ,23785 ,24043 ,24301 Tablice rozkładu normalnego 486 Tablica 2. Kwantyle rozkładu M (0,1) (c.d.) 0,002 0,003 0,004 p 0,000 0,001 0,65 0,66 0,67 0,68 0,69 0,38532 ,41246 ,43991 ,46770 ,49585 0,38802 ,41519 ,44268 ,47050 ,49869 0,39073 0,39343 ,41793 ,42066 ,44544 ,44821 ,47330 ,47610 ,50153 ,50437 0,39614 0,39886 ,42341 ,42615 ,45099 ,45376 ,47891 ,48173 ,50722 ,51007 0,70 0,71 0,72 0,73 0,74 0,52440 ,55338 ,58284 ,61281 ,64334 0,52728 ,55631 ,58581 ,61584 ,64643 0,53016 0,53305 ,55924 ,56217 ,58879 ,59178 ,61887 ,62191 ,64952 ,65262 0,53594 0,53884 0,54174 ,56511 ,56805 ,57100 ,59477 ,59776 ,60076 ,62496 ,62801 ,63106 ,65573 ,65884 ,66196 0,75 0,76 0,77 0,78 0,79 0,67449 ,70630 ,73885 ,77219 ,80642 0,67764 0,68080 ,70952 ,71275 ,74214 ,74545 ,77557 ,77897 ,80990 ,81338 0,80 0,81 0,82 0,83 0,84 0,84162 ,87790 ,91537 ,95416 ,99446 0,84520 ,88159 ,91918 ,95813 ,99858 0,84879 0,85239 0,85600 0,85962 0,86325 0,86689 0,87055 0,87422 ,88529 ,88901 ,89273 ,89647 ,90023 ,90399 ,90777 ,91156 ,92301 ,92686 ,93072 ,93459 ,93848 ,94238 ,94629 ,95022 ,96210 ,96609 ,97009 ,97411 ,97815 ,98220 ,98627 ,99036 1,00271 1,00687 1,01104 1,01522 1,01943 1,02365 1,02789 1,03215 0,85 0,86 0,87 0,88 0,89 1,03643 ,08032 ,12639 ,17499 ,22653 1,04073 ,08482 ,13113 ,18000 ,23187 1,04505 ,08935 ,13590 ,18504 ,23724 1,04939 ,09390 ,14069 ,19012 ,24264 1,05375 ,09847 ,14550 ,19522 ,24809 1,05812 ,10306 ,15035 ,20036 ,25357 1,06252 ,10768 ,15522 ,20553 ,25908 1,06694 ,11232 ,16012 ,21073 ,26464 1,07138 ,11699 ,16505 ,21596 ,27024 1,07584 ,12168 ,17000 ,22123 ,27588 0,90 0,91 0,92 0,93 0,94 1,28155 ,34075 ,40507 ,47579 ,55477 1,28727 ,34694 ,41183 ,48328 ,56322 1,29303 ,35317 ,41865 ,49085 ,57179 1,29884 ,35946 ,42554 ,49852 ,58047 1,30469 ,36581 ,43250 ,50626 ,58927 1,31058 ,37220 ,43953 ,51410 ,59819 1,31652 ,37866 ,44663 ,52203 ,60725 1,32251 ,38517 ,45380 ,53007 ,61644 1,32854 ,39175 ,46106 ,53820 ,62576 1,33462 ,39838 ,46838 ,54643 ,63524 0,95 0,96 0,97 0,98 0,99 1,64485 ,75069 ,88079 2,05375 ,32634 1,65463 ,76241 ,89570 2,07485 ,36561 1,66456 1,67466 1,68494 1,69540 1,70604 1,71688 1,72793 1,73920 ,77438 ,78661 ,79912 ,81191 ,82501 ,83843 ,85218 ,86629 ,91103 ,92684 ,94314 ,95996 ,97737 ,99539 2,01409 2,03352 2,09693 2,12007 2,14441 2,17009 2,19728 2,22621 ,25713 ,29036 ,40892 ,45727 ,51213 ,57583 ,65209 ,74777 ,87815 3,09024 0,005 0,68396 0,68713 0,69031 ,71599 ,71923 ,72248 ,74876 ,75208 ,75541 ,78237 ,78577 ,78919 ,81687 ,82038 ,82389 0,006 0,007 0,008 0,40157 0,40429 0,40701 ,42889 ,43164 ,43440 ,45654 ,45933 ,46211 ,48454 ,48736 ,49019 ,51293 ,51579 ,51866 0,54464 0,54755 ,57395 ,57691 ,60376 ,60678 ,63412 ,63719 ,66508 ,66821 0,009 0,40974 ,43715 ,46490 ,49302 ,52153 0,55046 ,57987 ,60979 ,64027 ,67135 0,69349 0,69668 0,69988 0,70309 ,72574 ,72900 ,73228 ,73556 ,75875 ,76210 ,76546 ,76882 ,79262 ,79606 ,79950 ,80296 ,82742 ,83095 ,83450 ,83805 Nota bibliograficzna Pisząc książkę korzystaliśmy z wielu źródeł, w tym oczywiście z podręczników, z których sami uczyliśmy się rachunku prawdopodobieństwa. Oto najważniejsze z nich: [BIL] Patrick Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987 [BOJ] Tomasz Bojdecki, Martyngaly z czasem dyskretnym, zarys teorii i przy­ kłady zastosowań, Wyd. UW, Wyd. I, Warszawa 1977 [BOR] Aleksander Aleksiejewicz Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa 1975 [FEL] William Feller, Wstęp do rachunku prawdopodobieństwa, t. I i II, wyd. II zmienione, PWN, Warszawa 1966 (od tej pory były dalsze wydania) [FICH] Grigorij Michajłowicz Fichtenholz, Rachunek różniczkowy i całkowy, t. I-III, wyd. IV, PWN, Warszawa 1966 [GKP] Ronald L. Graham, Donald E. Knuth, Oren Patashnik, Matematyka konkretna, Wydawnictwo Naukowe PWN, Warszawa 1996 [GRS] Geoffrey R. Grimmett, David R. Stirzaker, Probability and Random Pro­ cesses, wyd. II, Oxford University Press, Oxford-New York-Toronto 1992 [HIS] Historia matematyki pod red. A. P. Juszkiewicza, PWN, Warszawa, 1975 [HJ] Jörgen Hoffmann-j0rgensen, Probability with a View toward Statistics, t. I—II, Chapman and Hall, London-New York 1994 [KOR] Marek Kordos, Wykłady z historii matematyki, Wyd. Szkolne i Pedago­ giczne, Warszawa 1994 [KWA] Stanisław Kwapień, Wojbor A. Woyczyński, Random Series and Sto­ chastic Integrałs: Single and Multiple, Birkhäuser, Boston-Basel-Berlin 1992 [MAJ-1] Leonid Jefimowicz Majstrów, Teorija wierojatnostiej, Istoriczeskij oczerk, Nauka, Moskwa 1967 (przekład angielski: Probability Theory: A Histo­ rical Sketch) [MAJ-2] — , Razwitije poniatija wierojatnosti, Nauka, Moskwa 1980 [RUD-1] Walter Rudin, Real and Complex Analysis, McGraw-Hill, London, New York, Toronto 1970 (przekład polski wydania II: Analiza rzeczywista i zespolona, PWN, Warszawa 1986) 487 488 Nota bibliograficzna [RUD-2] — , Podstawy analizy matematycznej, PW N , Warszawa 1969 [SNE] James Laurie Snell, Introduction to Probability, Random House, New York 1988 [STI] David R. Stirzaker, Probability and Random Variables: A Beginners Gu­ ide, Oxford Univ. Press, 1999 [SZI] Albert Nikołajewicz Sziriajew, Wierojatnost, Nauka, Moskwa 1980 [WIL] David Williams, Probability with Martingales, Oxford University Press 1991 [WEN] Aleksander Dmitriewicz Wentzell, Wykłady z teorii procesów stocha­ stycznych., PWN, Warszawa 1980 [ZUB] Stefan Zubrzycki, Wykłady z rachunku prawdopodobieństwa i statystyki matematycznej, PWN, Warszawa 1970 'i f Spis treści P rzedm ow a........................................................................................................ 5 1 Opis §1.1. § 1.2. § 1.3. doświadczenia losowego................................................................ Przykłady. Aksjomaty teorii prawdopodobieństwa......................... Przeliczalny zbiór zdarzeń elementarnych........................................ Prawdopodobieństwo geometryczne................................................. 7 7 16 17 2 Klasyczna definicja prawdopodobieństwa........................................ §2.1. Podstawowe schematy kombinatoryczne........................................ § 2.2. Typowe błędy...................................................................................... 22 22 28 3 Prawdopodobieństwo warunkowe........................................................ 33 §3.1. Definicja i przykłady.......................................................................... 33 § 3.2. Wzór na prawdopodobieństwo całkowite i wzór Bayesa............... 37 4 Niezależność zdarzeń ................................................................................ §4.1. Definicja i przykłady.......................................................................... § 4.2. Schemat Bernoulliego.......................................................................... §4.3. Lemat Borela-Cantelliego................................................................. 5 Zmienne lo s o w e ......................................................................................... 58 §5.1. Definicja; rozkład zmiennej losowej.................................................. 58 § 5.2. Własności dystrybuanty rozkładu na R .........................................67 § 5.3. Własności dystrybuanty rozkładu na R n ................ . . . . . . . . 69 § 5.4. Dystrybuanta a gęstość....................................................................... 73 75 § 5.5. Gęstość a odwzorowania gładkie ........................................................ § 5.6. Parametry rozkładów.......................................................................... 77 § 5.7. Nierówności związane z momentami.................................................. 91 § 5.8. Niezależne zmienne losowe................................................................. 95 § 5.9. Różne rodzaje zbieżności zmiennych losowych............................... 108 § 5.10. Przegląd ważniejszych rozkładów.....................................................114 6 Warunkowa wartość oczekiwana...........................................................122 §6.1. Wprowadzenie...................................................................................... 122 § 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego 123 489 43 43 49 54 490 Spis treści §6.3. Definicja og óln a .................................................................................... 128 § 6.4. Prawdopodobieństwo warunkowe — uogólnienie............................ 137 §6.5. Regularne rozkłady w arunkow e........................................................ 142 7 Su m y niezależnych zm iennych lo s o w y c h ............................................146 §7.1. Wprowadzenie....................................................................................... 146 § 7.2. Prawo zero-jedynkowe K ołm ogorow a...............................................146 § 7.3. Zbieżność szeregów niezależnych zmiennych losow ych...................149 § 7.4. Prawa wielkich l i c z b ...........................................................................154 §7.5. Twierdzenie Poissona...........................................................................166 § 7.6. Twierdzenie de Moivre’a-Laplace’a .................................................. 169 8 Z b ie żn o ść r o z k ł a d ó w ................................................................................. 177 §8.1. Przykłady i d e fin icja ...........................................................................177 § 8.2. Charakteryzacje słabej zbieżności rozkładów .................................. 182 § 8.3. Zbieżność rozkładów, a zbieżność dystrybuant............................... 185 9 F u nkcje charakterystyczne .................................................................... 190 §9.1. Definicja i p rzyk łady...........................................................................190 § 9.2. Twierdzenie Levy’ego-Cramera o ciąg łości..................................... 198 § 9.3. Twierdzenie Bochnera i wzory na o d w ró c e n ie ............................... 203 § 9.4. Wielowymiarowe funkcje charakterystyczne .................................. 208 10 C en traln e tw ierdzenie g r a n ic z n e ........................................................... 211 § 10.1. Wprowadzenie....................................................................................... 211 § 10.2. Twierdzenie Lindeberga-Levy’e g o ..................................................... 213 11 M a r t y n g a ł y ................................................................................................... 220 § 11.1. Momenty s t o p u ....................................................................................220 § 11.2. Martyngały, nadmartyngały, podmartyngały ...................................226 § 11.3. Twierdzenie o zbieżności nadm artyngałów..................................... 237 §11.4. Nierówności martyngałowe................................................................. 242 § 11.5. Zbieżność martyngałów w Lp ........................................................... 244 § 11.6. Twierdzenie Radona-Nikodyma............................ ........................... 248 § 11.7. Miary produktowe i zastosowania w statystyce............................... 252 § 11.8. Zastosowania w matematyce finansowej............................................258 12 Ł ań cu ch y M a r k o w a ....................................................................................263 § 12.1. Definicja i p rzyk ład y .......................................................................... 263 § 12.2. Klasyfikacja stanów ............................................................................. 274 § 12.3. Stany chwilowe i pow racające........................................................... 277 § 12.4. Łańcuchy okresow e............................................................................. 284 § 12.5. Rozkłady stacjonarne i twierdzenia e rg o d y cz n e ............................ 286 § 12.6. Dojście do ustalonego zbioru s t a n ó w ...............................................299 13 P r o ce s W i e n e r a ..........................................................................................304 § 13.1. Definicja i konstrukcja....................................................................... 304 § 13.2. Własności trajek torii.........................._..............................................311 Spis treści 491 § 13.3. Zasada o d b i c i a ........................................................................................ 313 § 13.4. Mocna własność M ark ow a..................................................................... 314 § 13.5. Konstrukcja procesu Wienera za pomocą układów ortonormalnych 319 D o d a t k i ............................................................................................................. 323 A Kilka faktów z a n a liz y ............................................................................ 323 §A.l. Pożyteczne nierówności...................................................................... 323 § A.2. Funkcje gamma i b e t a ...................................................................... 325 § A.3. Wzór Stirlinga .................................................................................. 327 B Funkcje tworzące ..................................................................................... 330 §B.l. Definicja i podstawowe własności.................................................... 330 § B.2. Funkcja tworząca sumy niezależnych składników............................332 C Teoria § C.l. § C.2. § C.3. § C.4. §C.5. § C.6. miary i całki, przestrzenie Lp ................................................. 336 Twierdzenie o przedłużaniu miary.................................................... 336 Całka względem miary probabilistycznej........................................ 340 Miara produktowa i twierdzenie Fubiniego..................................... 345 Twierdzenie Kolmogorowa o rozkładach zgodnych......................... 350 Przestrzenie Lp .................................................................................. 352 Przestrzenie Hilberta......................................................................... 354 D Funkcje analityczne i metoda residuów ........................................... 360 §D.l. Funkcje holomorficzne...................................................................... 360 § D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym............................... 365 §D.3. Zera i bieguny..................................................................................... 368 §D.4. Residua.............................................................................................. 372 E Funkcja tworząca momenty (transformata Laplace’a) ................375 §E.l. Definicja i przykłady......................................................................... 375 § E.2. Transformata Cramera. Oszacowanie szybkości zbieżności w moc­ nym prawie wielkich lic z b ................................................................ 380 F Teoria §F.l. §F.2. § F.3. optymalnego stopowania.......................................................... 384 Rozkład Dooba nadmartyngałów.................................................... 384 Zagadnienie optymalnego stopowania.............................................. 388 Opcje amerykańskie ......................................................................... 392 Odpowiedzi i wskazówki............................................................................... 396 Skorowidz.......................................................................................................... 472 Wykaz ważniejszych ozn aczeń ................................................................... 481 Tablice rozkładu normalnego...................................................................... 484 Nota bibliograficzna ..................................................................................... 487