Uploaded by Piotr Biskup

Jakubowski, Sztencel - Wstęp do teorii prawdopodobieństwa (1)

advertisement
Jacek Jakubowski, Rafał Sztencel
Wstęp
do
teorii prawdopodobieństwa
Wydanie II
SCRIPT
Warszawa 2001
4
© Copyright by Jacek Jakubowski and Rafał Sztencel, Warszawa 2001
Podręcznik zawiera wykład teorii prawdopodobieństwa, obejmujący rów­
nież wstęp do teorii martyngałów z czasem dyskretnym, łańcuchy Markowa
i podstawowe wiadomości o procesie Wienera. Jest przeznaczony dla studen­
tów i pracowników naukowych wydziałów matematyki oraz innych wydzia­
łów, gdzie wykładany jest rachunek prawdopodobieństwa. Może być także
użyteczny dla osób, korzystających z metod probabilistycznych w swojej
pracy.
Teorię ilustrują liczne przykłady i ponad 500 zadań o różnym stopniu trud­
ności. Do prawie wszystkich zadań podano wskazówki, rozwiązania lub od­
powiedzi.
Projekt okładki
Rafał Sztencel
Rysunki na okładce
Zofia Zawada
Recenzenci
prof. dr hab. Stanisław Kwapień
dr Katarzyna Pietruska-Pałuba
dr Tomasz Żak
W ydanie II, poprawione i rozszerzone (dodruk)
I S B N 8 3 -9 0 4 5 6 4 -5 -1
Skład i łamanie
SC R IP T, 02-777 Warszawa, ul. Teligi 6 /2 2
teł. (0-22) 641-47-70
www.script.com.pl
e-mail: script@script.com.pl
Druk i oprawa
Paper & Tinta, Warszawa, uł. Bardowskiego 4
w - osia l
Przedmowa
Niniejsza książka powstała na podstawie wykładów i ćwiczeń z teorii praw­
dopodobieństwa, które prowadzimy od przeszło 20 lat na Wydziale Mate­
matyki Uniwersytetu Warszawskiego.
Napisaliśmy ją z myślą o tych studentach, którzy chcą usystematyzować
i utrwalić wiadomości wyniesione z wykładów i ćwiczeń, a także o tych,
którzy pragną pogłębić i rozszerzyć swoją wiedzę. Książka jest skierowana
również do osób, które korzystają z metod probabilistycznych w swojej
pracy.
Chociaż skoncentrowaliśmy się na najważniejszych działach teorii, podręcz­
nik obejmuje materiał obszerniejszy od standardowego rocznego wykładu
i pozostawia prowadzącemu zajęcia pewną swobodę manewru. Rozdziały
umieszczone po centralnym twierdzeniu granicznym, poświęcone martyngałom, łańcuchom Markowa i procesowi Wienera są dość rozbudowane,
wobec tego wykładowca może dokonać wyboru spośród przedstawionych
zagadnień.
Dołożyliśmy wszelkich starań, aby Czytelnik w trakcie lektury nie musiał
sięgać do innych źródeł. Zakładamy jednak znajomość podstawowych pojęć
i twierdzeń analizy. Najważniejsze narzędzia analityczne, z których korzy­
stamy (w tym własności funkcji gamma i beta), zamieszczamy w dodatku
A . W dodatku C zamieściliśmy bardzo zwięzły wstęp do ogólnej teorii miary
i całki, ograniczony do miar probabilistycznych. Dodatek D zawiera podsta­
wowe wiadomości o funkcjach analitycznych, niezbędne do obliczania całek
metodą residuów.
Integralną część wykładu stanowią ilustrujące teorię przykłady, a także
zadania. Tych ostatnich jest ponad 500; trudniejsze oznaczono gwiazdką,
a jeszcze trudniejsze — symbolem f (pochodzą one na ogół od prof. Stani­
sława Kwapienia).
Do większości zadań podajemy rozwiązania lub wskazówki, a do prawie
wszystkich — odpowiedzi. Zadania nie są uporządkowane według stop­
nia trudności. Dobraliśmy je tak, by pomóc Czytelnikowi zrozumieć teorię
i sprawdzić stopień opanowania materiału. Ponadto wiele istotnych wyni­
ków (np. nierówność Kołmogorowa) proponujemy jako zadania, dlatego też
uważamy za pożyteczne rozwiązanie większości z nich.
5
Przedmowa
6
Twierdzenia, lematy, uwagi i przykłady są numerowane kolejno w ramach
bieżącego paragrafu. Jeśli wewnątrz paragrafu 7.2 odwołujemy się do przy­
kładu 4, to poza nim — do przykładu 7.2.4.
Uwagi historyczne nie m ają systematycznego charakteru. Czytelnik zainte­
resowany historią teorii prawdopodobieństwa znajdzie wykaz źródeł w nocie
bibliograficznej.
N a zakończenie serdecznie dziękujemy osobom, które zachęcały nas do na­
pisania niniejszego podręcznika. W szczególności .prof. dr hab. Stanisław
Kwapień, dr hab. Jolanta Misiewicz i dr Tomasz Żak komunikowali nam
interesujące zadania, udostępniali fragmenty notatek ze swoich wykładów
i czytali fragmenty książki w trakcie jej powstawania.
Dziękujemy recenzentom: prof. dr. hab. Stanisławowi Kwapieniowi, dr Ka­
tarzynie Pietruskiej-Pałuble i dr. Tomaszowi Żakowi za wnikliwe uwagi,
które ustrzegły nas od wielu błędów i wpłynęły na uproszczenie niektórych
dowodów.
Specjalne podziękowanie' kierujemy do naszych nauczycieli rachunku praw­
dopodobieństwa. Są to (w porządku chronologicznym) dr Edward Stachowski, prof. dr hab. Tomasz Bojdecki i prof. dr hab. Stanisław Kwapień.
Będziemy wdzięczni za wszelkiego rodzaju uwagi dotyczące zawartości pod­
ręcznika. Można je kierować na podane niżej adresy elektroniczne lub na
adres wydawnictwa.
Jacek Jakubowski
jakub @mimuw. edu.pl
Rafał Sztencel
rafalsz@mimuw. edu.pl
Internet: www.mimuw.edu.pl/~rafalsz
Warszawa, maj 2000.
Nota do wydania drugiego
Drugie wydanie zostało rozszerzone o dwa dodatki, poświęcone funkcjom
tworzącym momenty i zagadnieniu optymalnego stopowania. Ponadto prze­
redagowano pewne partie tekstu, a także poprawiono nieścisłości i omyłki
wydania pierwszego. Ich wykrycie zawdzięczamy w dużej mierze życzliwej,
choć krytycznej lekturze naszych kolegów. W szczególności serdecznie dzię­
kujemy prof. Adamowi Jakubowskiemu, prof. Karolowi Krzyżewskiemu,
prof. Stanisławowi Kwapieniowi, dr. Rafałowi Latale, dr hab. Jolancie Mi­
siewicz, dr. Krzysztofowi Oleszkiewiczowi i dr. Tomaszowi Żakowi. Dzięku­
jem y również naszym studentom; m. in. pan Radosław Bojanowski zdając
egzamin odkrył źle wyliczoną dystrybuantę, a pani Zofia Jankowska wy­
kryła błędy w odpowiedziach do zadań kombinatorycznych.
Warszawa, marzec 2001.
Rozdział 1
Opis doświadczenia losowego
§1.1.
Przykłady. Aksjomaty teorii prawdopodobieństwa
Teoria prawdopodobieństwa zajmuje się zdarzeniami, pojawiającymi się
przy wykonywaniu doświadczeń losowych, czyli takich, których wyniku nie
da się z góry przewidzieć, a jednocześnie dających się powtarzać w tych
samych warunkach. Dobrymi przykładami tego rodzaju doświadczeń są gry
hazardowe, których analiza dała w X V II w. początek teorii prawdopodo­
bieństwa. Ale drugim, równie ważnym impulsem do powstania teorii były
tak zwane zjawiska masowe, w szczególności statystyki urodzeń i zgonów.
Prowadzone od wielu lat obserwacje pokazują, że dziewczynki stanowią 48,3%
noworodków w Polsce. Kobieta, która spodziewa się dziecka, tak właśnie będzie
oceniać swoje szanse na urodzenie dziewczynki, choć ciężko tu mówić o wielokrot­
nym powtarzaniu tego samego eksperymentu.
Liczba 0,483 ma dla kobiety raczej sens psychologiczny i sprowadza się do stwier­
dzenia „mam mniej więcej takie same szanse na dziewczynkę, jak na chłopca” .
Z drugiej strony ma ona całkiem wymierne konsekwencje dla demografa pracu­
jącego nad prognozą liczby ludności: jemu nie jest wszystko jedno, czy rodzi się
48,3%, czy np. 49% dziewczynek.
Dlaczego teoria prawdopodobieństwa stosuje się do zjawisk masowych, gdzie nie
powtarza się tego samego doświadczenia, ale mniej więcej takie samo doświad­
czenie? Może dlatego, że jej twierdzenia są dość odporne na osłabianie założeń?
W dalszej części tego rozdziału sprecyzujemy pojęcie doświadczenia loso­
wego i powiemy, jak skonstruować jego model matematyczny. Najpierw jed­
nak przeanalizujemy kilka typowych przykładów. Nie da się chyba ominąć
najprostszego doświadczenia — rzutu monetą.
P r z y k ła d 1. Rzucamy jeden raz monetą.
Możliwe wyniki to orzeł (O) i reszka (R ). Zwróćmy uwagę, że doświadcze­
nie można powtarzać wielokrotnie w tych samych warunkach i jeśli moneta
7
8
Rozdział 1. Opis doświadczenia losowego
jest symetryczna, to w długiej serii rzutów orzeł pojawi się w około poło­
wie przypadków; innymi słowy częstość pojawiania się orła wyniesie około
1 /2 . Jeśli w długiej serii nastąpi znaczące odchylenie liczby orłów od po­
łowy liczby doświadczeń, zaczniemy raczej podejrzewać, że moneta nie jest
Częstość jest
liczbą wystąpień symetryczna. ■
zdarzenia
podzieloną przez P r z y k ła d 2 . Rzucamy jeden raz kostką.
liczbę wszystkich
,
..
doświadczeń. Teraz możliwe wyniki to elementy zbioru { 1 ,2 ,3 ,4 , 5 ,6 } . Tak jak poprzed­
nio, doświadczenie jest powtarzalne, i jak poprzednio, możemy zastana­
wiać się nad symetrią kostki. Ponieważ możliwych wyników jest więcej,
pojawia się w naturalny sposób wiele zdarzeń, dających się opisać sło­
wami na przykład tak: „wypadła parzysta liczba oczek” , „wypadła liczba
oczek mniejsza niż 4” , „wypadła jedynka” . Każdemu takiemu zdarzeniu
odpowiada podzbiór zbioru możliwych wyników, odpowiednio: { 2 , 4 , 6 } ,
{ 1 , 2 , 3 } , { 1 } . Zdarzeniom będziemy przypisywali pewną liczbę: prawdopo­
dobieństwo ich zajścia. Jeśli kostka jest symetryczna, pewnie bez wahania
przypiszemy prawdopodobieństwo k/ 6 zdarzeniu, reprezentowanemu przez
podzbiór A;-elementowy. A jeśli nie jest symetryczna? Zastanowimy się nad
tym nieco później. ■
[P rz y k ła d 3 . Z talii 52 kart wybieramy losowo 5. Jaka jest szansa, że
wszystkie karty będą czerwone?
Tu możliwych wyników jest bardzo dużo — są one 5-elementowymi pod­
zbiorami zbioru 52-elementowego. Natomiast zdarzenie, którego prawdopo­
dobieństwo mamy obliczyć, składa się z 5-elementowych podzbiorów 26-elementowego zbioru czerwonych kart. Jeśli uznamy, że wszystkie możliwe
wyniki są jednakowo prawdopodobne, to szansa otrzymania samych czer­
wonych kart wyniesie (256) / ( 552) (patrz §2 .1 ). ■
P r z y k ła d 4 . Rzucamy symetryczną monetą aż do chwili pojawienia się
orła.
Możliwych wyników jest teraz nieskończenie wiele, bo przed pojawieniem
się orła może wypaść dowolna liczba reszek. Na szczęście jednak wyniki
dadzą się ustawić w ciąg: jest ich przeliczalnie wiele. Jak przypisać im sen­
sownie prawdopodobieństwa? Jeśli moneta jest symetryczna, to szansa po­
jawienia się pierwszego orła za n-tym razem wynosi l / 2 n. Istotnie, wszyst­
kich n-elementowych ciągów orłów i reszek jest 2 " , natomiast tylko jeden
z nich ma pierwszego orła na n-tym miejscu. Przypadek niesymetrycznej
I
Alternatywa moriety rozpatrzymy później. Zauważmy jeszcze, że zdarzenie „orzeł pozdarzeń jawi się wcześniej czy później” da się przedstawić w postaci przeliczalnej
odpowiada sumie
alternatywy zdarzeń: „orzeł pojawi się za pierwszym razem” , „orzeł po-
zbiorów j aw- g-ę za (jrugjm razem” , „orzeł pojawi się za trzecim razem” , etc. ■
W każdym z rozpatrywanych doświadczeń pojawiał się zbiór możliwych
wyników, przy czym wynik doświadczenia stanowił pełny opis tego, co za-
§1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa
9
szło: „wypadła jedynka” , „wypadł orzeł” , „otrzymano asa kier, dwójkę karo
oraz waleta, damę i asa pik” , „orzeł pojawił się po raz pierwszy w siódmym
rzucie” . Jeśli powiemy: „wypadła parzysta liczba oczek", to jeszcze nie wia­
domo, co się faktycznie zdarzyło. Inaczej mówiąc, powinniśmy na ogół dbać
0 to, by możliwe wyniki doświadczenia były „elementarne” w tym sensie,
że nie da się ich już rozłożyć na prostsze.
Zbiór wszystkich możliwych wyników doświadczenia nazywamy zbiorem
zdarzeń elementarnych i zazwyczaj oznaczamy literą ii.
Należy jednak pamiętać, że przy wyborze zbioru zdarzeń elementarnych
możliwa jest pewna dowolność. Rzucając monetą nie spodziewamy się, że
upadnie ona na „kant” , więc w pierwszym przykładzie ii = { 0 , R } . Ale jeśli
moneta jest gruba, to kto wie? W przykładzie 3 nie interesuje nas kolej­
ność otrzymywania kart. Gdybyśmy jednak chcieli rozpatrywać zdarzenia
typu: „wszystkie karty czarne pojawiły się przed czerwonymi” , kolejność
stałaby się istotna i naturalnym wyborem zbioru zdarzeń elementarnych
byłby zbiór 5-elementowych ciągów o wyrazach ze zbioru 52-elementowego.
Zajmijmy się teraz wszystkimi możliwymi zdarzeniami — czyli podzbiorami
— na razie przeliczalnego — zbioru ii. W rozpatrywanych dotąd przykła­
dach nie ma przeszkód, by prawdopodobieństwo przypisać wszystkim pod­
zbiorom zbioru zdarzeń elementarnych. Jak niedługo zobaczymy, nie zawsze
tak będzie. Ale można sformułować pewne minimalne rozsądne wymagania
co do klasy zdarzeń J-, którym będziemy przypisywać prawdopodobień­
stwo. Jeśli rozpatrujemy zdarzenie A C ii, to automatycznie dopuszczamy
możliwość, że A nie zajdzie. Nietrudno się domyślić, że zdarzenie „nie-A"
to A ' = fi \ A , czyli dopełnienie A. Dalej, w przykładzie 4 widzieliśmy
nieskończoną alternatywę zdarzeń, czemu odpowiada branie nieskończonej
sumy zbiorów. I w końcu rozpatrywany model powinien zawierać co naj­
mniej jedno zdarzenie.
Warto w tym miejscu podkreślić, że zdarzeniami nazywamy wyłącznie pod­
zbiory ii, które należą do T . Nie należy także mylić zdarzenia elementarnego
ui ze zbiorem {w }. Ten ostatni nie musi być nawet zdarzeniem.
Wracamy do T\ klasa zdarzeń powinna spełniać następujące warunki:
1. ^ # 0 ;
2. Jeśli A e T , to A 1 e
3. Jeśli Ai
dla i = 1 , 2 , . . . , to U £ i Ai £ ?■
Klasa zdarzeń T powinna więc być ff-ciałem podzbiorów zbioru ii. Z po­
danych warunków wynika natychmiast, że ii = A U A ! 6 T , jeśli A € T ,
wobec tego 0 = Si' € T . Są to szczególne zdarzenia: ii zachodzi zawsze
1 nazywa się zdarzeniem pewnym, natomiast 0 to zdarzenie niemożliwe.
Rozdział 1. Opis doświadczenia losowego
10
Jesteśmy teraz gotowi do zajęcia się minimalnymi rozsądnymi wymaga­
niami, dotyczącymi prawdopodobieństwa. Jest ich naprawdę niewiele. Po­
nieważ prawdopodobieństwo ma służyć do oceny szans zajścia rozmaitych
zdarzeń, powinno zachowywać się podobnie do częstości występowania zda­
rzenia przy powtarzaniu doświadczenia. Dlatego prawdopodobieństwem bę­
dziemy nazywać dowolną funkcję P , określoną na a-ciele zdarzeń f
C
2ft,
spełniającą warunki:
A l. P \ T
R +;
A 2 . P (fi) = 1;
A3. Jeśli Ai e T , i = 1 , 2 , . . . oraz A i
n
A j — 0 dla i ^ j , to
Warunek A l stwierdza, że prawdopodobieństwo każdego zdarzenia jest nieujemne: taką własność ma także częstość. Warunek A 2 wziął się stąd, że
częstość zdarzenia pewnego wynosi 1. Co do warunku A 3 , mówi on, że dla
zdarzeń wykluczających się, czemu odpowiadają zbiory rozłączne, prawdo­
podobieństwo sumy równa się sumie prawdopodobieństw. Częstość spełnia
taki warunek. Widzieliśmy już, że nieskończone sumy pojawiają się w teorii
w naturalny sposób i dlatego warunek A 3 formułujemy dla sum nieskoń­
czonych. Nazywamy go przeliczalną addytywnością prawdopodobieństwa.
Powyższe warunki zostały sformułowane po raz pierwszy przez Kołmogorowa w roku 1933 jako aksjomaty teorii prawdopodobieństwa.
Mówiąc krótko, matematyczny model doświadczenia losowego to trójka
( f t ,./r, P ), gdzie P jest przeliczalnie addytywną i nieujemną miarą unor­
mowaną, określoną na pewnym a-ciele podzbiorów zbioru zdarzeń elemen­
tarnych Q. Tę trójkę nazywamy przestrzenią probabilistyczną.
Podstawowe własności prawdopodobieństwa podamy w postaci twierdzenia.
T w ie rd z e n ie 5 . Jeśli (fi, T , P ) jest przestrzenią probabilistyczną i A , B ,
A i , A 2 , . . . , A n e T , to:
( W l ) P (0 ) = 0.
(W 2 ) Jeśli A i , A 2 , . . . , A n wykluczają się wzajemnie, tj. A{ n A j = 0 dla
i
j , to P (U IL i A i) = J27= 1 P (A i) (skończona addytywność).
(W 3 ) P (A ') = l - P ( A ) .
(W 4 ) Jeśli A c B , to P ( B \ A ) = P (B ) - P (A ).
(W 5)- Jeśli A c B , to P (A ) < P {B ).
§1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa
11
(W 6 ) P {A ) < 1.
(W 7 ) P (A U B ) = P (A ) + P (B ) - P (A n B ).
D o w ó d . ( W l ) Niech A] = 0 ,
P (fi) = P (fl) + Y a L í
— 0 dla i — 2 ,3 , ___Z aksjomatu 3 mamy
a ponieważ P jest funkcją nieujemną (aksjomat
1) i P ( 0 ) = 1 (aksjomat 2), to P (0) = 0.
(W 2) wynika z aksjomatu 3 i ( W l) , gdy weźmiemy A k = % dla k > n.
(W 3) 1 = P (Q ) = P (A U A') = P (A ) + P (A ').
(W 4) Jeśli A C B , to B — A\J (B \ A ), a ponieważ składniki tej sumy są
rozłączne, z (W 2) mamy P (B ) = P (A ) + P ( B \ A ).
(W 5 ) Na mocy poprzedniej własności P {B ) — P (A ) = P ( B \ A ) > 0 z ak­
sjomatu 1.
(W 6) Wystarczy zastosować (W 5) dla B = O.
(W 7) A U B = [A \ (A n B)\ U (A n B ) U [B \ (A n B)\. Wszystkie trzy
zdarzenia wykluczają się wzajemnie, więc skończona addytywność i (W 4)
dają
P {A U B ) = P {A ) - P (A n B ) + P (A
n B)
+ P {B ) - P {A n B ),
z czego natychmiast wynika żądana równość. ■
Własność (W 7) daje się uogólnić na dowolną liczbę zdarzeń. Otrzymujemy
wtedy tzw. wzór włączeń i wyłączeń. Nazwa pochodzi stąd, że poszczególne
rozłączne składowe sumy A U B U C są na przemian włączane i wyłączane,
ale ostatecznie każda składowa jest liczona dokładnie raz. Rysunki ilustrują
to dla dwóch i trzech zbiorów.
W ogólnymi przypadku składowe sumy A j U .. .UA n są postaci A f1f i . . .fiA^n,
gdzie £j € { 0 ,1 } i przyjmujemy konwencję, że A ° = A , zaś A 1 — A'.
W każdej składowej sumy co najmniej jeden symbol £i jest równy 0.
Rozdział 1. Opis doświadczenia losowego
12
T w ie rd zen ie 6 ( W z ó r w łą c ze ń i w y łą c z e ń ).
P{A\ U . . . U A n) =
p (A i ) ~
P ( A h C\ A h ) + . . .
^.n
+ ( - i ) n+1P ( A 1 n . . . n A n).
D o w ó d . Istnieje prosty dowód indukcyjny, ale wymaga on raczej kartki
w formacie A3. M y udowodnimy wzór licząc, ile razy włączono i wyłączono
każdą składową. Taka składowa (po odpowiednim przenumerowaniu zbio­
rów, co nie zmniejsza ogólności) da się przedstawić w postaci A i f i . . . D Af-D
nA'k+1n . . .CAn, gdzie k > 1. W pierwszym składniku wzoru, czyli
P {A i),
każda składowa zostanie włączona k razy, w drugim, czyli ^ 2 P ( A i t O A i2),
wyłączona (*) razy, itd. Ostatecznie liczba włączeń wyniesie
D - ^ C ? ) - 0i=0
Dlaczego?
Przypomnijmy, że rodzinę zdarzeń (A i) nazywamy wstępującą, jeśli
A t c A 2 C . . . C A n c A n+ 1
i zstępującą, jeśli
A i D A 2 D . . . D A n D A n+1. . . .
T w ie rd zen i e ^ (O c ią g ło ści). Niech (Í2, T , P ) będzie przestrzenią pro­
babilistyczną.
(i) Jeśli ( A n ) ^ ! jest wstępującą rodziną zdarzeń i
P (A ) =
A n = A , to
lim P ( A n).
Tl— ►CXD
(ii) Jeśli (A „)^ L 1 jest zstępującą rodziną zdarzeń i
P (A ) =
A n = A , to
lim P ( A n).
Tl— »OO
D o w ó d , (i) Niech B\ = A i, B 2 = A 2 \ A i i ogólnie: B n = A n \ A „ ^ j .
W ted y zdarzenia Bi wykluczają się, U ”= i B i = U "= i M
U S i Bi — A. Ti przeliczalnej addytywności wynika, że
/ oo
\
oo
*) ( r c . * ) ' =
H m ^P (Ą ) =
¿=1
Hm P ( A n).
(ii) Rozpatrzmy rodzinę wstępującą (Cn)^= li gdzie C n = A'n. W tedy
OO
OO
u c » = ik =
n=l
n= 1
i wystarczy skorzystać z (i). ■
= r c ,4 -
A n. a także
n
P (A ) = P ( ( J Bi = £ p ( Ą ) =
\i=l
/
1
Warto znać prawa
de Morgana:
-
r
OO
n*.
•71=1
*i /
=a'
§1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa
13
T w ie rd ze n ie 8 (O przedłużaniu m ia r y ). Jeśli P jest skończenie addytywną i nieujemną funkcją na pewnym, ciele A podzbiorów fi, przy czym Jeśli A jest
P ( fi) = 1 i spełniony jest warunek (i) z poprzedniego twierdzenia lub waru­ dowolną rodziną
nek (ii) dla A = 0, to P przedłuża się jednoznacznie do prawdopodobieństwa zbiorów, cr(A) jest
na a ( A ) , czyli a-ciele generowanym przez A .
£_P_p_sŁÓ.d tego twierdzenia znajduje się w dodatku C.
Z teorii miary dobrze wiadomo, że na ogół T nie może być a-ciałem wszyst­
najmniejszym
<7-ciałem
zawierającym A ,
tj. częścią wspólną
wszystkich cr-ciał
zawierających A .
kich podzbiorów fi. Oto kolejny przykład.
P r z y k ła d 9. Z odcinka [0,1] wybieramy losowo punkt.
„Losowo” nie znaczy tu na razie nic. Jeśli umówimy się, że prawdopodo­
bieństwo jest rozłożone „równo” na odcinku, czyli że szansa trafienia w od­
cinek [a, b] jest równa jego długości, a szansa trafienia w zbiór A i A + 1
jest taka sama, o ile A , A + t C [0,1], to wtedy fi jest odcinkiem [0,1], P
jest miarą Lebesgue’a, zaś T jest u-ciałem podzbiorów mierzalnych. Ist­
nieją niemierzalne podzbiory odcinka, czyli takie, którym żadnej sensownej
miary przypisać się nie da (patrz zadania 10-13). ■
P r z y k ła d 10. Czekamy na autobus. Zastanawiamy się, jaka jest szansa,
że czas oczekiwania przekroczy 20 minut.
A może jednak
i2 = [0,T] dla
jakiegoś dużego
[0, oo), jest też intuicyjnie jasne, że autobus w normalnych warunkach
T?
Wynikiem doświadczenia jest czas oczekiwania t G [0, oo), zatem fi
=
=
raczej pojawi się w ciągu kilkunastu minut. Ale w przeciwieństwie do po­
przedniego przykładu nie ma powodu, by prawdopodobieństwo było „równo
rozłożone” . Jeśli chcemy formułować jakieś przewidywania dotyczące czasu
oczekiwania, powinniśmy wykonać badania statystyczne, których wyniki
mogą wyglądać tak, jak na rysunku po lewej, i które w zwartej formie
można przedstawić tak, jak na rysunku po prawej.
Zatem w rozsądnym modelu mamy
p (A )=
f f(x )d x ,
JA
A e r .
Rozdział 1. Opis doświadczenia losowego
14
Podobnie, jak w przykładzie 9, T jest cr-ciałem mierzalnych podzbiorów
przedziału [0, oo), zaś nieujemną funkcję / , taką że
f ( x ) dx = 1, na­
zwiemy gęstością rozkładu prawdopodobieństwa, bo pokazuje ona, jak praw­
dopodobieństwo jest rozłożone na R . ■
P r z y k ła d 11 . Jaka jest szansa, że kurs akcji spółki X przekroczy na ju­
trzejszej sesji 107 zł?
M ożna oczywiście formułować przewidywania na podstawie wyników po­
przednich sesji, co doprowadziłoby do modelu z gęstością - jak w przykła­
dzie 10. Ale takie przewidywanie nie bierze pod uwagę zmieniających się
warunków. Jeśli np. prezes spółki złamie nogę, kurs akcji może gwałtownie
spaść. Jeśli okaże się, że w nadchodzących wyborach duże szanse m a partia
Z, zachwianie kursu może być jeszcze poważniejsze. Choć nie m a możli­
wości powtarzania tego doświadczenia w takich samych warunkach, model
z przykładu 10, z braku lepszej metody, może się przydać — szczególnie
w spokojnych czasach. ■
Na zakończenie tego podrozdziału podajemy terminy teorii zbiorów i od­
powiadające im terminy teorii prawdopodobieństwa, zebrane w tabelce.
Nawet najbardziej
pedantyczny
wykładowca nie
używa wyłącznie
terminów z prawej
kolumny.
zbiór A e T
uj e A
zdarzenie A (A ^ T nie jest zdarzeniem)
zdarzenie elementarne u> sprzyja zdarzeniu A
A cB
zdarzenie A pociąga za sobą B
0
n
AnB = 0
zdarzenie niemożliwe
A!
AU B
AnB
zdarzenie pewne
A i B wykluczają się
nie-A, zdarzenie przeciwne do A
alternatywa zdarzeń A i B
koniunkcja zdarzeń A i B
Zadania
1. Niech A ,B ,C będą zdarzeniami. Zapisać za pomocą działań na zbiorach
następujące zdarzenia:
a) zachodzi dokładnie jedno ze zdarzeń A , B , C;
b) zachodzą dokładnie dwa spośród zdarzeń A, B, C;
c) zachodzą co najmniej dwa spośród zdarzeń A , B, C.
2. Udowodnić, że P (A i U . . . U A„) ^ P {A i) + . . . 4- P (A „). Przenieść wynik na
przeliczalnie wiele składników.
3. Udowodnić, że P (A fi B) ^ P{A) + P (B ) — 1.
4. Dane są P {A') =
i P ( B \ A ).
P (A n B ) = \ iP {A u B ) = §. Obliczyć P (B '), P {A n B ')
§1.1. Przykłady. Aksjomaty teorii prawdopodobieństwa
15
5. Dane są P (A U B) = | i P (A f l £ ) = J, ponadto P (A \ B ) = P ( B \ A).
Obliczyć P(A) i P (B \ A).
6. Dane są P (A 'n B ') = 1, P (A ') = |, ponadto P (A n B ) = 1. Obliczyć P (B )
i P ( A 'n B ) .
7. Dane są P(A) =
P (B ) =
P ( A 'U B )i P ( A U B ').
A n B = 0. Uporządkować rosnąco P (A u B ),
8. Niech A U B U C = fi, P(B) = 2P(A), P (C ) = 3P(A), P(A n B) = P (A n
C ) = P (B n C ). Pokazać, że | SC P (A ) ii j , przy czym oba ograniczenia są
osiągane.
Po co jest przeliczalna addytywność? Rzucamy monetą do chwili otrzymania
pierwszej reszki. Zdarzeniami elementarnymi są skończone ciągi orłów zakończone
reszką i jeden nieskończony ciąg orłów, fi jest przeliczalna. Rozpatrzmy ciało
Q podzbiorów fi, złożone ze zbiorów, które są skończone albo mają skończone
dopełnienia. Niech
P ( A \ - S ° d la # A < o o ,
1 ~~ 1 1
dla # A ' < oo.
9. Udowodnić, że P jest skończenie addytywna i nie jest przeliczalnie addytywna. Znaleźć prawdopodobieństwo, że reszka pojawi się najpóźniej w n-tym
rzucie. Znaleźć prawdopodobieństwo, że reszka pojawi się w skończonej licz­
bie rzutów. Dlaczego ocena szans za pomocą P jest sprzeczna ze zdrowym
rozsądkiem?
oznacza liczbę
elementów zbioru
A.
Zbiór niemierzalny. Przypuśćmy, że miara fi, określona na u-ciele T podzbio­
rów R ma dwie naturalne własności: jest przesuwalna, czyli /¿(A + x j = lĄA.) dla
każdego A 6 T i i € R , a ponadto miara przedziału jest równa jego długości.
Okazuje się, że istnieje wtedy podzbiór,-'któremu nie da się sensownie przypisać
A + x =
miary — zbiór niemierzalny. Dowód zawiera się w poniższych zadaniach.
= {a + x: a € A }
10. Relacja ~ jest zdefiniowana w następujący sposób: x ~ y = x — y e Q .
Udowodnić, że relacja ta jest zwrotna, symetryczna i przechodnia.
W takim razie relacja ~ dzieli zbiór liczb rzeczywistych na klasy abstrakcji. Niech
U będzie takim podzbiorem odcinka [0,1], do którego należy dokładnie jeden
element z każdej klasy abstrakcji [x], gdzie x £ [0,1]. Istnienie zbioru U wynika
z aksjomatu wyboru.
11. Udowodnić, że jeśli u, w € Q i u ^ v, to (U + u) fi ((7 + w) — 0.
12. Niech ciąg (« j¡) íS i zawiera wszystkie liczby wymierne z odcinka [—1, lj. Udo­
wodnić, że
Q ( t f + «* ):> [0,1].
¿=1
1 3 . U dow odn ić, że zbiór U jest niemierzalny.
P ow y ższe rozważania stają się bardziej eleganckie, jeśli rozp atryw a ć m iarę na
okręgu, niezm ienniczą ze w zględu na obroty. Sugerujemy C zytelnikow i od pow ied ­
n ią a d ap ta cję zadań 10-13.
\
Rozdział 1. Opis doświadczenia losowego
16
§ 1.2.
Przeliczalny zbiór zdarzeń elementarnych
Jeśli zbiór zdarzeń elementarnych jest przeliczalny, można podać prosty,
kompletny i zdroworozsądkowy opis wszystkich możliwych prawdopodo­
bieństw.
T w ie rd ze n ie 1. Jeśli fi =
■■■}, dla każdego i zbiór {(¿¿} £ T , P
jest prawdopodobieństwem, to dla każdego A C O mamy
P (A ) =
/L
Pi'
ę A}
gdzie pi = P ({w i}).
D o w ó d . Wystarczy przedstawić zbiór A w postaci sumy (przeliczalnej)
zdarzeń jednopunktowych (zwróćmy uwagę, że T = 2n ) i skorzystać z prze­
liczalnej addytywności P . m
To twierdzenie mówi, że w tym szczególnym przypadku prawdopodobień­
stwo jest jednoznacznie wyznaczone przez prawdopodobieństwa zdarzeń ele­
mentarnych. Dlatego też każdy ciąg (pi) liczb nieujemnych, dla którego
Y liliP i =
wyznacza prawdopodobieństwo na fi.
Warto zwrócić uwagę, że na zbiorze przeliczalnym i nieskończonym prawdo­
podobieństwo nie może być rozłożone „równo” . Z drugiej strony, jeśli zbiór
zdarzeń elementarnych jest skończony, to bardzo często tak bywa. W tedy
trzeba umiejętnie określać liczebność zdarzeń, do czego służą metody kombinatoryczne. Będzie o tym mowa w następnym rozdziale.
Zadania
1. Rzucamy symetryczną monetą do chwili wyrzucenia orła. Skonstruować zbiór
zdarzeń elementarnych i wybrać odpowiednie prawdopodobieństwo. Jaka jest
szansa, że liczba rzutów będzie parzysta? podzielna przez 3? podziełna przez
m?
2. Paradoks losowych liczb naturalnych. Adam i Bolek grają w następu­
jącą grę: automat generuje losowo pary sąsiednich liczb naturalnych i przy­
znaje losowo jedną Adamowi, a drugą Bolkowi. Adam zna liczbą przypisaną
Bolkowi, a Bolek zna liczbę przypisaną Adamowi, ale żaden z nich nie zna
swojej liczby. Osoba z mniejszą liczbą płaci drugiej tyle złotych, ile wynosi
liczba jej przypisana. Każdy z graczy może uznać, że nie warto grać w da­
nym momencie, i poprosić o nową parę liczb. Ale żaden z nich nie skorzysta
z prawa veta, bowiem rozumuje tak:
„Gdy widzę, że przeciwnik ma liczbę k, to ja mam A; — 1 lub k + 1. Każda
z nich jest jednakowo prawdopodobna. Gdy wygram, zyskuję k zł, a gdy
przegram, tracę fc — 1 zł, zatem średnio wygrywam 50 gr” .
17
§ 1.3. Prawdopodobieństwo geometryczne
Drugi gracz rozumuje analogicznie, więc gra jest korzystna dla obu. Jest to
niemożliwe. Gdzie tkwi błąd?
3. Prawdopodobieństwo asymptotyczne. Ponieważ na zbiorze liczb natu­
ralnych nie można określić rozkładu „równomiernego” , to pewne nadzieje
wiązano z tzw. prawdopodobieństwem asymptotycznym, ale nie jest ono jed­
nak dobrym substytutem.
Gdy A C N , to prawdopodobieństwem asymptotycznym zbioru A nazywamy
liczbę
Poc(A) = lim
n i -1’ 2’
n}) ,
n—*oo
Tl
o ile ta granica istnieje. Inaczej mówiąc, jeśli p „ jest prawdopodobieństwem,
że liczba, losowo wybrana ze zbioru { 1 ,2 ,... n } z rozkładem równomiernym
należy do A, to Pm (A ) = lirrin-.co p „, gdy ta granica istnieje.
_ i
Jeśli na przykład B jest zbiorem liczb parzystych, to Poo(-B)
2'
Niech G = { A C N : P 0 0 (A ) istnieje}. Udowodnić, że Q nie jest nawet ciałem.
4.
5.
*6.
|7.
Rozkład,
równomierny na
zbiorze
skończonym to
taki, który
wszystkim
Opisać wszystkie cr-ciała w przypadku przeliczalnego zbioru fi.
elementom
Czy istnieje u-ciało nieskończone przeliczalne?
przypisuje równe
Ile jest wszystkich możliwych cr-ciał, jeśli fi ma n elementów?
prawdopodobień­
Niech A k będzie zbiorem liczb naturalnych podzielnych przez k. Wykazać, że stwa.
na N nie istnieje takie prawdopodobieństwo P , że P (A k ) = i/k dla k ^ 1.
§ 1.3.
Prawdopodobieństwo geometryczne
Dość często fi jest podzbiorem R n, na którym istnieje naturalna miara (na
przykład miara Lebesgue’a lub miara na sferze, niezmiennicza ze względu
na obroty), przy czym fi ma miarę skończoną. Mówimy wtedy o „praw­
dopodobieństwie geometrycznym” , a rozwiązanie zadania sprowadza się do
znalezienia miary (pola, objętości) podzbioru R n.
P r z y k ła d 1. Ania i Bożena umówiły się między 16.00 a 17.00 w centrum
miasta. Komunikacja w godzinach szczytu działa, jak działa. Osoba, która
przyjdzie pierwsza, czeka na drugą 20 minut. Jaka jest szansa, że dojdzie
do spotkania?
Żeby opisać, co się zdarzyło, wystarczy podać czasy przybycia obu koleża­
nek — na przykład mierzone w godzinach, od 16.00. Można zatem przyjąć,
że fi = [0,1] x [0,1], a wtedy w =
gdzie i i , i 2 € [0,1]- Pozostaje
wybrać prawdopodobieństwo: przyjmując P (A ) = A(A), gdzie A jest miarą
Lebesgue’a, otrzymamy dość rozsądny model, w którym szansa, że Ania
pojawi się w przedziale czasu [i, s] będzie równa długości tego przedziału.
To samo dotyczy Bożeny.
Mało tego: okazuje się, że jeśli zdarzenie A polega na tym, że Ania poja­
wia się w przedziale czasu [a, 6], a B — że Bożena pojawia się w przedziale
[c, Ą , to
P ( A n B ) = P (A ) - P (B ).
~°<Í\
¡ 5 BIBLIOTEKĄ
GŁÓwOa
•v*>
(1)
18
Rozdział 1. Opis doświadczenia losowego
Warto narysować oba zdarzenia i przekonać się, że powyższy wzór wynika
natychmiast ze wzoru na pole prostokąta. Nieco później okaże się, że jest
to definicja niezależności zdarzeń. Na razie, przy intuicyjnym rozumieniu
niezależności, nietrudno zgodzić się, że czasy przybycia koleżanek powinny
być niezależne.
W łaściwie to już Jakie są szanse, że dojdzie do spotkania? Takie, jak pole zacienionego ob­
tu pojaw ia się szaru na rysunku (jest to zbiór punktów (ii, i2) € [0,1] x [0,1] spełniających
niezależność
warunek |ii — t2\ < |), czyli 1 — (| )2 = § . ■
zmiennych
losowych!
Rzut monetą też może prowadzić do zadania typu „prawdopodobieństwo
geometryczne” .
P r z y k ła d 2 ' ( G r u b a m o n e ta ). Jaką grubość powinna mieć moneta, żeby
prawdopodobieństwo upadnięcia na kant wynosiło |?
John von
Neumann
podobno
rozwiązał to
zadanie w 15
sekund.
Model, który tu proponujemy, jest skrajnym uproszczeniem tego, co w-rze­
czywistości dzieje się przy rzucie monetą. Otóż wiadomo, że bryła umiesz­
czona na płaskiej powierzchni nie przewraca się, jeśli rzut środka ciężkości
znajduje, się wewnątrz powłoki wypukłej rzutu podstawy. Jeśli zatem wek-tor siły ciężkości przebije pobocznicę walca (monety), to przyjmiemy, że
moneta nie przewróci się i upadnie na kant.
Zbiorem zdarzeń elementarnych może być sfera, opisana na walcu. Jeśli
wektor o początku O i końcu w punkcie A , losowo wybranym ze sfery, prze­
bija pobocznicę walca, to moneta pada na kant. Wym iary monety muszą
§1.3. Prawdopodobieństwo geometryczne
19
więc być takie, by pas wycięty ze sfery przez pobocznicę walca miał pole
równe § pola całej sfery, co oznacza, że jego szerokość d musi być równa |
promienia sfery. Przy oznaczeniach z rysunku (?----- promień monety) mamy
skąd
2
= V 2. m
Pas wycięty ze
sfery ma pole
proporcjonalne
szerokości. Tak
dzieje
Dość często osoby rozwiązujące to zadanie proponują jeszcze prostszy model, mianowicie zbiorem zdarzeń elementarnych miałby być zamiast sfery wymiarach,
okrąg, bowiem sytuacja jest niezmiennicza ze względu na obroty wokół
osi monety. Moneta zostaje zatem zredukowana do prostokąta, sfera zaś do
okręgu. W tedy jednak otrzymuje się inną odpowiedź. Warto się zastanowić,
dlaczego (być może po lekturze rozdziału 6).
W następnym przykładzie (paradoksie Bertranda) i zadaniu 7 (o igle Buffona) robimy podobne uproszczenia — ale tym razem nie ma to wpływu na
odpowiedź. .
P r zy k ła d 3 (P aradoks B e r tra n d a ). Z okręgu o promieniu 1 wybrano
losowo cięciwę A B . Jaka jest szansa, że będzie ona dłuższa niż bok trójkąta
równobocznego, wpisanego w okrąg?
1. Jeśli umieścimy trójkąt tak, by jednym z wierzchołków był punkt A ,
to — jak widać z rysunku — warunek zadania będzie spełniony, jeśli
B wpadnie do pogrubionego łuku, czyli jeśli kąt środkowy, oparty na
cięciwie, będzie większy niż 27r/3. Prawdopodobieństwo tego zdarze­
nia wynosi
2. Można wybrać odległość środka cięciwy M od środka okręgu. Rysunek
sugeruje, że szukane prawdopodobieństwo wynosi
Rozdział 1. Opis doświadczenia losowego
20
3. Może jednak należałoby wziąć pod uwagę kierunek promienia? W y ­
bierzmy punkt M i dorysujmy do niego promień i cięciwę. Teraz wy­
gląda na to, że szukane prawdopodobieństwo wynosi
Jakie jest źródło paradoksu? W e wszystkich trzech przypadkach ogólny
schemat jest ten sam: losujemy zdarzenie elementarne w G il, a długość
cięciwy jest pewną funkcją f(u>). Za każdym razem jednak mamy do czy­
nienia z inną przestrzenią fi i inną funkcją:
1. fi = [0, 27t), f(ui) = 2 sin
2. fi = [0,1], / ( w ) = 2 > /l - w2;
3. fi jest kołem o promieniu 1, wobec tego w = (wi, W2 ) i
/(w ) =
+ wf).
Prawdopodobieństwo jest zawsze rozłożone „równo” na odpowiednim zbio­
rze. Mamy tu do czynienia z trzema różnymi zadaniami, stąd trzy różne
wyniki. ■
Należy zwrócić uwagę, że termin „losowo” nie znaczy nic, dopóki nie po­
damy modelu doświadczenia, czyli przestrzeni probabilistycznej.
Jaką m etodą Paradoks Bertranda jest dobrą ilustracją faktu, że rozwiązanie problemu
wybierzemy następuje dopiero po wybraniu przestrzeni probabilistycznej. Jednak sam
m etodę
rachunek prawdopodobieństwa nie rozstrzyga, jaką przestrzeń probabili­
glosowania?
Fragment dialogu styczną, czyli jaki model doświadczenia należy wybrać. Rachunek prawdo­
z filmu „ R e js ” podobieństwa pozwala jedynie obliczać prawdopodobieństwa pewnych zda­
rzeń, jeśli znane są prawdopodobieństwa innych zdarzeń. Tylko tyle i aż
tyle.
Zadania
1. Z kwadratu jednostkowego wybrano losowo punkt o współrzędnych (x , y ).
Wyznaczyć funkcje:
a) /(a ) = P(min(a:, f ) < a),
b) g{a) = P (m a x(x, |) < a),
I
c) h(a) = P (m in (x ,y ) < a),
d) fc(a) = P (m a x (x ,y ) < a).
2 .: Na odcinku [0,1] umieszczono losowo punkty L i M .
a) jaka jest szansa, że środek odcinka L M należy do [0,1/3]?
b) jaka jest szansa, że z L jest bliżej do M niż do zera?
3. 'Na odcinku [0,1] umieszczono losowo punkty A i, A 2 , A 3 . Jaka jest szansa,
że A\ ^ A 2 ^ A 3 ?
§ 1.3. Prawdopodobieństwo geometryczne
21
Z przedziału [0,1] wybrano losowo dwa punkty, które podzieliły go na trzy
odcinki. Jaka jest szansa, że z tych odcinków da się skonstruować trójkąt?
5i W czasach, gdy autorzy tej książki chodzili do szkoły, na strzelnicach można
było grać w następującą grę: na duży stół, na którym namalowano dość
grubymi liniami kratę, rzucało się monetę. Jeśli moneta przecięła linię, zo­
stawała na stole. W przeciwnym razie gracz zabierał wszystkie leżące na stole
monety, oprócz jednej. Przypuśćmy teraz, że moneta ma promień d, a linie
o grubości c umieszczone są w odległości a (dokładniej, a jest odległością
między środkami linii). Jaka jest szansa, że moneta nie przetnie linii?
¿6.'¡Abstrakcyjny wariant poprzedniego zadania. Na nieskończoną szachownicę o boku a rzuca się monetę o średnicy 2r < a. Jaka jest szansa, że
a) moneta znajdzie się całkowicie we wnętrzu jednego z pól; b) przetnie się
z co najwyżej jednym bokiem szachownicy?
:f x (Igła Buffona1. Igłę o długości l rzucono na podłogę z desek o szerokości a
(l
a). Jaka jest szansa, że igła przetnie krawędź deski?
8.
Rozwiązać zadanie 7, gdy l > a (dla tych, którzy nie boją się rachunków).
Autorom
wygodniej uznać,
* 9 . Uogólnienie zadania o igle Buffona. Na płaszczyznę, podzieloną pro­ że się boją
stymi równoległymi na pasy o szerokości równej 1, rzucono losowo wielokąt
wypukły o średnicy mniejszej niż I. Znaleźć prawdopodobieństwo, że prze­
tnie on jakąś prostą.
„Losowo” oznacza, że wybieramy pewien odcinek, sztywno związany z wielo­
kątem, i rzucamy go losowo w sensie poprzedniego zadania. Tak zdefiniowana
„losowość” nie zależy od wyboru odcinka.
■i O.' Na płaszczyźnie jest nieskończenie wiele prostych równoległych, w odległo­
ściach na przemian 2 i 10 cm. Na płaszczyznę rzucono okrąg o promieniu 3
cm. Jaka jest szansa, że nie przetnie on żadnej prostej?
* 1 1 . Z przedziału [0,1] wybrano losowo przeliczalnie wiele punktów. Udowodnić,
że zdarzenie A, polegające na tym, że każdy podprzedział zawiera co najmniej
jeden z wylosowanych punktów, ma prawdopodobieństwo 1.
12. Z przedziału [0,1] wybrano losowo liczbę x. Jakie jest prawdopodobieństwo,
że jest to liczba wymierna? Niewymierna?
G ru ba moneta jeszcze raz. Oto dane z próby weryfikacji modelu zapropono­
wanego w przykładzie 2: w serii 500 rzutów monetą (sklejoną z pięciu pięciogroszówek) o średnicy 19,4 mm i grubości 6,7 mm wypadło 176 orłów (35,2%), 170
reszek (34,0%) i 154 „kanty” (30,8%). Monetę rzucano na wykładzinę dywanową
z wysokości 10-20 cm. Okazało się, że przy rzutach na podłogę drewnianą „kant”
wypada bardzo rzadko ze względu na odbicia sprężyste8.
Model przewiduje szansę upadku na „kant” równą 32,64%, zgodność jest więc
bardzo dobra. Dokładniej, szansa uzyskania gorszego dopasowania do częstości
teoretycznych wynosi ok. 60%. Taką wartość otrzymuje się z testu x 2 (którego nie
znajdziemy w tej książce). Zamiast niego Czytelnik może spróbować zastosować
twierdzenie de Moivre’a-Laplace’a z rozdziału 7.
1Georges Louis Leclerc de BufFon opublikował wzmiankę o tym doświadczeniu w 1735
roku, chcąc zademonstrować „przewagę geometrii nad analizą” w teorii prawdopodobień­
stwa. Laplace zauważył, że można w ten sposób wyznaczać doświadczalnie liczbę 7r.
2Doświadczenie wykonał Filip Świtała (student W ydz. Ekonomii U W ).
Rozdział 2
Klasyczna definicja
prawdopodobieństwa
Dwa znaki budują dwa domy, trzy budują sześć domów,
cztery budują dwadzieścia cztery domy; pięć buduje sto
dwadzieścia domów. Od tego wyjdź i rozważaj dalej to,
czego usta nie mogą wymówić i ucho nie może usłyszeć.
S efer Jecira - K sięga stw orzenia
W tym rozdziale zajmiemy się szczególnym przypadkiem sytuacji, opisanej
w twierdzeniu 1.2.1: skończony zbiór 0 jednakowo prawdopodobnych zda­
rzeń elementarnych. Z twierdzenia 1.2.1 wynika natychmiast, że dla każdego
ACS>
#A
Taki model pasuje do wielu zadań, gdzie występują karty, symetryczne
kostki i monety, losy na loterię itp. Powyższy wzór tradycyjnie nazywa się
„klasyczną definicją prawdopodobieństwa” . Otóż w początkach rozwoju
teorii definiowano prawdopodobieństwo zdarzenia jako stosunek liczby przy­
padków sprzyjających do liczby wszystkich możliwych, przy (milczącym)
założeniu, że wszystkie przypadki są jednakowo prawdopodobne. Definicja
ta nie jest formalnie poprawna, ale dawało się z nią pracować1.
§2.1.
Podstawowe schematy kombinatoryczne
P r z y k ła d 1. Tablica rejestracyjna zawiera trzy litery alfabetu łacińskiego
i cztery cyfry. Ile jest różnych tablic?
1
Łatwo było o pozorne paradoksy, a raczej błędy, takie jak stwierdzenie d ’Alemberta
w artykule „Orzeł i reszka” ( Croix et pile), w IV tomie Encyklopedii (1754). Szansa
pojawienia się dwóch orłów pod rząd w dwóch rzutach monetą miałaby wynosić 1/3,
bowiem jeśli w pierwszym rzucie wypadła reszka, nie ma sensu rzucać dalej, możliwe są
zatem wyniki R, 0 0 i OR.
22
§2.1. Podstawowe schematy kombinatoryczne
23
Wszystkie tablice rejestracyjne można otrzymać tak: pierwszą literę wybie­
ramy na 26 sposobów, drugą i trzecią też na 26 sposobów. Część literową
Czy ktoś widział
można zatem wybrać na 263 = 17576 sposobów. Podobnie stwierdzamy, tablicę z cyframi
choć może się to akurat w tym przypadku wydać sztuczne, że możliwych 0000?
układów cyfr jest 104. W rezultacie mamy 175 760 000 możliwych tablic
rejestracyjnych. ■
Z tego rodzaju rozumowaniem spotykamy się w prawie każdym zadaniu
kombinatorycznym. Żądany zbiór konstruujemy za pomocą pewnej proce­
dury, podejmując na każdym etapie decyzję — jest to wybór jednej z wielu
możliwości. Na zakończenie mnożymy liczby możliwości wyboru w poszcze­
gólnych etapach. Rozumowanie to opiera się na następującym twierdzeniu:
T w ie rd ze n ie 2 (O m n ożen iu ). Jeśli # A i =
dla i = 1 , 2 , . . . k, to
# ( A i * . . . x A k) = n i - n 2 - . . . - n k.
D o w ó d . Mamy
= n j, zatem dla dowodu indukcyjnego wystarczy po­
kazać, że # (Ax x . . . x A m+i ) = nm+1 - # (j4i
x
. . . x A m). To jest jednak
Sugestywny
oczywiste, bo każdy ciąg (aj.,. . . , a m+1) 6 A i x . . . x A m +1 można otrzy­ dowód twierdzenia
mać dołączając na nm+1 sposobów wyraz am+i do ciągu (<n, . . . ,a m) € 0 mnożeniu dla
k = 2 znajduje się
€ A-i x . . . x A m. m
w podręczniku do
Omówimy teraz cztery podstawowe schematy kombinatoryczne. Oto nie­ 1 klasy szkoły
podstawowej,
zbędne definicje i oznaczenia.
używanym
w latach 60-tych.
D e fin ic ja 3. k-wyrazową wariacją z powtórzeniami zbioru Y nazywamy
Jest to rysunek
każdą funkcję f : { 1 , 2 , . . . , k} —> Y . ■
oddziału
ustawionego
Liczbę ¿-elementowych wariacji z powtórzeniami zbioru n-elementowego w czworobok,
który jest także
będziemy oznaczać symbolem
dowodem
D efin ic ja 4 . k-wyrazową wariacją bez powtórzeń zbioru Y złożonego z n przemienności
elementów, gdzie 0 < fc < n, nazywamy każdą funkcję różnowartościową
f:{l,2,...,k}->Y.m
Liczbę fc-elementowych wariacji bez powtórzeń zbioru n-elementowego bę­
dziemy oznaczać symbolem V *.
D e fin ic ja 5 . Permutacją n-elementowego zbioru Y nazywamy każdą funk­
cję f i odwzorowującą zbiór { 1 , 2 , . . . , n } na zbiór Y . u
Liczbę permutacji zbioru n-elementowego będziemy oznaczać symbolem Pn.
Każda funkcja / określona na zbiorze { 1 , 2 , . . . , k} wyznacza jednoznacznie
ciąg o wyrazach /( ¿ ) , 1 < i < k. Odwrotnie: każdy ¿-wyrazowy ciąg ele­
mentów zbioru Y wyznacza funkcję / : { 1 , 2 , . . . , k} -> Y . Zamiast o funk­
cjach można więc w powyższych trzech definicjach mówić o ciągach, co
wykorzystamy w dowodach.
mnożenia.
Rozdział 2. Klasyczna definicja prawdopodobieństwa
24
D e fin ic ja 6. k-elementową kombinacją zbioru Y , złożonego z n elemen­
tów, gdzie 0 ^ k < n ? nazywamy każdy k-elementowy podzbiór zbioru Y . m
Liczbę ¿¡-elementowych kombinacji zbioru n-elementowego będziemy ozna­
czać symbolem C.
T w ie rd ze n ie 7.
Ak
n = n k,
(1)
n ^h k^O ,
V£ = n(n - 1) •. ■. • (n - k + 1) =
Pn = n\,
g*
,
o '<fc<n ,
(2)
n ^ 0,
(3)
=
W
Wyniki te znali już matematycy szesnastowieczni (Tartaglia) i siedemnasto­
wieczni (Pascal). Jak się wydaje, podstawowe twierdzenia kombinatoryczne,
tj. postać iloczynową C k, indukcyjny dowód wzoru na liczbę permutacji,
a także wzór na liczbę wariacji bez powtórzeń podał pierwszy w napisanej
po hebrajsku arytmetyce (1321) matematyk prowansalski Lewi ben Gerson
(Leon Gersonides, 1288-1344). Prace Lewi ben Gersona były jednak mało
Na hebrajski
tłum aczono wiele
arabskich
traktatów
matematycznych,
które z koiei były
często
tłumaczeniami
z greckiego.
znane.
D o w ó d . (1) w ariacje z p o w tó rz e n ia m i, fc-elementowe wariacje z po­
wtórzeniami to inaczej fe-elementowe ciągi o wyrazach z n-elementowego
zbioru Y . Wystarczy więc skorzystać z twierdzenia o mnożeniu dla A i =
= ... = Ak = Y.
(2) w ariacje b e z p o w tó rz e ń . Teraz mamy do czynienia z fc-elementowymi
ciągami o różnych wyrazach z n-elementowego zbioru Y . Oczywiście V ° =
= 1, a dalej — V k+1 = (n — k )V k, bo po wybraniu /¡-elementowego ciągu
następny element można wybrać na n — k sposobów, o ile k + 1 < n. Stąd
V * = n(n - 1) • . . . ■ (n - * + 1) =
-
(3) p e rm u ta c je . Jest to szczególny przypadek wariacji bez powtórzeń:
Pn = Vnn = n!
(4) k o m b in a c je. Ponieważ V ” = C kPn (każdy ciąg fc-elementowy można
otrzymać, wybierając podzbiór i ustawiając jego elementy w ciąg), to
c k = vPn
nl
(n - k)\k\
(n
\k
P r z y k ła d 8 . W indą jedzie 7 osób, a pięter w budynku jest 10. Jaka jest
szansa, że wszyscy wysiądą na różnych piętrach?
2.1. Podstawowe schematy kombinatoryczne
25
Zdarzeniami elementarnymi będą tu wszystkie 7-elementowe ciągi o wyra­
zach ze zbioru 10-elementowego. Zdarzenia sprzyjające to ciągi o różnych
wyrazach. W takim razie szukane prawdopodobieństwo wynosi
V70
10 •9 •8 ■7 •6 •5 ■4
#
= -------------w ?------------ = 0 , 0 6 0 4 8 . .
Mówiąc krótko
i ludzkim
cie Warszawskim liczy dwadzieścia kilka osób. Czy często będzie się zdarzać, językiem: trzeba
że w grupie są dwie osoby obchodzące urodziny tego samego dnia? A do­ podać informację,
kładniej: ile powinno być osób w grupie, żeby szanse takiego zdarzenia były gdzie kto wysiadł.
P r z y k ła d 9 (D n i u rod zin ). Typowa grupa ćwiczeniowa na Uniwersyte­
większe niż 1 /2 ?
Jeśli zignorujemy lata przestępne, zadanie sprowadzi się do poprzedniego:
k osób w windzie i 365 pięter. Niech pk oznacza prawdopodobieństwo zda­
rzenia przeciwnego do opisanego wyżej, czyli różnych dat urodzin. W tedy
365 • . . . • ( 3 6 5 - A:+ 1 )
365*
Pk ~
/
~ \
1 \
365
J
k - 1\
f,
' " '' V
365 ) '
Prawą stronę można oszacować, korzystając z nierówności 1 + x < ex:
1
fc-l
Pk < e 365 • . . . •e
l+2+...-Hfc —1)
365 = e
365
Jak kto wołi,
1 — x ^ e“ *.
k (k -l)
= e
730 .
Na to, by pk < 1 /2 wystarcza, by k(k - 1) > 730 log 2 w 505,9974, czyli
k < 23. Dokładniejsze rachunki pokazują, że P23 ~ 0,493. Pouczający jest
rzut oka na poniższą tabelę prawdopodobieństw różnych dat urodzin:
n
Pu
4
0,984
16
22
23
40-
64
0,716
0,524
0,493
0,107
0,003
Po zapoznaniu się z tymi wynikami można wygrywać bez trudu zakłady, bo­
wiem gdy pytanie, sformułowane na początku tego przykładu, stawiano stu­ To jest absurd!
dentom kierunków uniwersyteckich2, średnia z odpowiedzi wyniosła 385. ■
A jest.
P r z y k ła d 10 . Na ile sposobów można rozdać n pączków k osobom? Pączki
śmiało można uznać za nierozróżnialne. Może się zdarzyć, że ktoś nie do­
stanie pączka.
To samo pytanie można sformułować w terminach kul nierozróżnialnych: na
ile sposobów można n nierozróżnialnych kul (pączki) wrzucić do k komórek
(osoby)? Jeśli r; oznacza liczbę kul w ¿-tej komórce, to pytamy, ile jest róż­
nych ciągów liczb całkowitych nieujemnych (ł’1, r 2, . . . , r/c), spełniających
warunek
n + . . . + rk = n.
2W USA. Por. łan Stewart, Co za traf!, Świat Nauki 8/1998, ss. 74—75.
(5)
Rozdział 2. Klasyczna definicja prawdopodobieństwa
26
Takie rozmieszczenia nazywamy kombinacjami z powtórzeniami.
Innymi słowy, pytamy, ile jest rozwiązań w liczbach całkowitych nieujemnych równania (5). Dwa rozwiązania uznajemy za różne, jeśli różne są ciągi
( n , . . . r k).
Oznaczmy kule gwiazdkami, a przegródki między komórkami — pionowymi
kreskami. Na przykład ciąg | * || * | * *|| reprezentuje układ 4 kul w 5
komórkach (są 4 przegródki; dodatkowo mamy po jednej kresce na początku
i na końcu). Ciągów złożonych z n gwiazdek i k — 1 przegródek jest
f n + k — 1\
( * -1
H
/ n + k — 1\
n
I '
Pytania o rozmieszczenie kul w komórkach są ciekawe z różnych względów,
między innymi z punktu widzenia mechaniki statystycznej. Bada się tam
układy n cząstek w przestrzeni fazowej, którą można podzielić na wiele
W przestrzeni
fazowej
współrzędnymi
mogą być np.
położenie i pęd.
niedużych obszarów (komórek). Stan układu opisuje się w terminach loso­
wego rozmieszczenia n cząstek w k komórkach. W yd aje się, że cząstki mogą
zachowywać się dwojako: jak kule rozróżnialne i nierozróżnialne. Zapropo­
nowano trzy podstawowe modele zachowania się cząstek:
a) statystyka Maxwella-Boltzmanna. Cząstki zachowują się jak kule roz­
różnialne i wszystkie kn rozmieszczeń ma jednakowe prawdopodobieństwo.
Okazało się jednak, że statystyka ta nie stosuje się do żadnych znanych
cząstek elementarnych.
b) statystyka Fermiego-Diraca. Cząstki zachowują się jak kule nierozróż­
nialne, przy czym
(i) dwie cząstki nie mogą przebywać w tej samej komórce,
(ii) wszystkie rozmieszczenia spełniające (i) m ają jednakowe prawdopo­
dobieństwo.
Z (i) wynika, że k > n. Rozmieszczenie jest wyznaczone przez podanie ko­
mórek zajętych, wobec tego prawdopodobieństwo otrzymania konkretnego
rozmieszczenia jest równe 1 / (*). Okazuje się, że zgodnie z tą statystyką
zachowują się elektrony, protony i neutrony.
c) statystyka Bosego-Einsteina. Cząstki zachowują się jak kule nierozróż­
nialne. Rozpatrujemy wszystkie rozróżnialne rozmieszczenia, uznając je za
jednakowo prawdopodobne. Dlatego prawdopodobieństwo ustalonego roz­
mieszczenia jest równe l / ( n+^- 1 ) . Zgodnie z tą statystyką zachowują się
fotony.
P r z y k ła d 11 (P o d z ia ły p o p u la c ji). Na ile sposobów można podzielić
n-elementową populację na k części zawierających odpowiednio r1 ; . . .
elementów, gdzie j*i + . . . + rk = re?
§2.1. Podstawowe schematy kombinatoryczne
27
Rozwiązanie (jakie?) jest dobrze znane dla k = 2. Nietrudno domyślić się,
jak wygląda ogólny wzór. Wybieramy ri elementów do pierwszej części na
sposobów, potem r2 elementów do drugiej części na (n~^1) sposobów,
itd. W rezultacie mamy
^ « - ( n + . . . + rfc_ 1)^
sposobów. Wyrażenie to łatwo uprościć do postaci
n!
r1!r2! . . . r * :r
W języku kul nierozróżnialnych zadanie to sprowadza się do pytania, na ile
sposobów można ustawić w ciąg n różnokolorowych kul, wśród których jest
Ti kul i-tego koloru, i = 1 , 2 , . . . , k, rt + r% + . . . + r*, = n. Takie ustawienia
nazywamy permutacjami z powtórzeniami.
Możemy teraz rozwiązywać zadania w stylu: jaka jest szansa, że daty uro­
dzin 34 osób rozkładają się na poszczególne miesiące tak: 6 miesięcy po 3
osoby, 2 miesiące po 4 osoby i 4 miesiące po 2 osoby. Odpowiedź brzmi:
™______ b
6!2!4!
(3!)6(4!)2(2!)4
P r z y k ła d 12 (P o k e r ). Z 24 kart wybieramy 5. Jaka jest szansa, że otrzy­
mamy dwie pary? Chodzi tu o dokładnie dwie pary, nie o fulla ani karetę.
O to procedura, generująca wszystkie takie układy kart:
1. Wybieramy dwie wartości kart spośród sześciu (np. as i walet). Można
to zrobić na (®) sposobów.
2. Z czterech kart o danej wartości wybieramy dwie; robimy to dwu­
krotnie (w ten sposób wybieramy konkretne asy i walety: np. A 4 ,
A 9 i JO, JA)- Można to zrobić na (4)
sposobów.
3. Piątą kartę możemy wybrać dowolnie z 16 kart: wykluczamy 8 kart
(tu: asy i walety), żeby nie otrzymać przypadkiem karety ani fulla.
W efekcie dwie pary można otrzymać na ( j ) ^ ) 2 ‘ 16 sposobów. Szukane
prawdopodobieństwo wynosi (®) ( j ) 2 •1 6 /(2S4) = 8640/42504 f» 0,2033. ■
S y m e tria . W wielu zadaniach można się obejść bez obliczeń, jeśli umiejęt­
nie skorzystać z symetrii. Rzecz ilustrują dwa przykłady poniżej.
P r z y k ła d 13 . Rzucamy symetryczną monetą 1999 razy. Jaka jest szansa
otrzymania parzystej liczby orłów?
A gdyby rzucać
2000 rasy?
Rozdział 2. Klasyczna definicja prawdopodobieństwa
28
Taka sama, jak parzystej liczby reszek: zamiana orła na reszkę nie zmienia
prawdopodobieństwa zdarzenia. Zatem
P(parzysta liczba orłów) = P (parzysta liczba reszek) =
= P(nieparzysta liczba orłów) = —. ■
P r z y k ła d 14 . Na loterii 10 losów wygrywa, 100 przegrywa, a 1000 upraw­
nia do ponownego losowania. Jaka jest szansa wygranej, jeśli wyciągamy
jeden los i gramy, dopóki się da, czyli dopóki nie trafimy na los wygrywa­
jący lub przegrywający?
Jeżeli za zdarzenia elementarne uznamy ciągi złożone z k losów, uprawnia­
jących do ponownego losowania (0 < k ^ 1000), i jednego losu rozstrzy­
gającego, to wpadniemy w kłopoty, bo takie zdarzenia elementarne trudno
uważać za jednakowo prawdopodobne. Niemniej jednak, w każdym rozsąd­
nym modelu, zdarzenia A n, polegające na tym, że na końcu pojawił się
los rozstrzygający o numerze n (1 < n ^ 110), powinny mieć jednakowe
prawdopodobieństwa. Rzeczywiście, istnieje wzajemnie jednoznaczna odpowiedniość między zdarzeniami elementarnymi, składającymi się na A n
i A m (jaka?).
W ynika stąd, że szansa wygranej wynosi
. Losy uprawniające do dalszego
losowania są, jak widać, nieistotne. ■
§ 2.2.
Typowe błędy
Nie podaliśmy dowodu poprawności procedury, opisanej w przykładzie o
pokerze (2.1.12). Pełna formalizacja byłaby może niecelowa, warto jednak
sprawdzić dwie rzeczy:
Zawsze warto
sprawdzić, czy
zdarzenia
elementarne są.
jednakowo
prawdopodobne.
1. Czy faktycznie otrzymujemy wszystkie żądane układy kart?
2. Czy przypadkiem dwie z pozoru różne drogi nie prowadzą do tego
samego układu kart?
Innymi słowy, należy sprawdzić, czy istnieje wzajemnie jednoznaczna odpowiedniość między sposobami realizacji procedury, a generowanymi przez te
sposoby zdarzeniami elementarnymi. Czytelnik zechce to zrobić dla przy­
kładu 2.1.12 i zastanowić się nad kolejnym przykładem.
P r z y k ła d 1. n rozróżnialnych kul umieszczono losowo w n komórkach.
Jaka jest szansa, że dokładnie jedna komórka jest pusta?
To proste: Pustą komórkę wybieramy na n sposobów, odkładamy jedną
kulę (można ją wybrać na n sposobów), a w pozostałych n — 1 komórkach
rozmieszczamy n — 1 kul na (n — 1)! sposobów. Na zakończenie odłożoną
§ 2.2. Typowe błędy
29
kulę umieszczamy w jednej z n — 1 zajętych komórek. Zatem odpowiedź
brzmi
n ■n ■ (n — 1)! •(n - 1) _ n(n — 1)n!
nn
nn
Czy na pewno? Dla n = 2 otrzymujemy prawdopodobieństwo równe 1.
Łatwo sprawdzić, że wynosi ono w tym przypadku
i wygląda na to, że
sprzyjających ustawień kul w komórkach jest dwa razy za dużo. Rzeczy­
wiście, np. przy trzech kulach i trzech komórkach konfigurację | — |3|1,2|
otrzymujemy dwukrotnie. Po raz pierwszy tak: odkładając kulę 1, wstawia­
jąc do drugiej i trzeciej komórki kule 3 i 2, i na zakończenie umieszczając
kulę 1 w trzeciej komórce. Zamiana kul 1 i 2 daje drugi — z pozoru inny
— sposób. Wyróżniając kulę odkładaną na bok, popełniamy błąd.
Prawidłowe rozwiązanie jest następujące:
1. Wybieramy dwie kule na ( j ) sposobów.
2. Wrzucamy je do wybranej na n sposobów komórki.
3. Z pozostałych komórek wybieramy pustą na n — 1 sposobów.
4. Umieszczamy pozostałe n — 2 kul w n — 2 komórkach na (n — 2)!
sposobów.
Sprzyjających konfiguracji jest więc Q ) •n(n - l ) ( n - 2)! = n l(£). ■
P r z y k ła d 2. Nie bez powodu motto tego rozdziału pochodzi z „Sefer Jecira” (Księga stworzenia). Traktat ten powstał przypuszczalnie na przeło­
mie II i III w. po Chrystusie, w Aleksandrii. Kombinatoryka odgrywa w nim
kluczową rolę.
Trzydziestoma dwiema cudownymi ścieżkami mądrości Jah, Jahwe Zastę­
pów [...] wyrył i stworzył swój świat przez trzy: przez liczbę, słowo i pismo.
Dziesięć sefir nicości oraz dwadzieścia dwa podstawowe znaki: trzy matryce,
siedem podwójnych i dwanaście prostych3.
Owe dwadzieścia dwa znaki to litery alfabetu hebrajskiego. Stanowią one M otyw
obracających się
kół,
Dwadzieścia dwa podstawowe znaki wprawione w koło. Przez 231 bram ob­ produkujących
racane jest to koło tam i z powrotem — oto znak słowa. [...] Formując kombinacje
wyważał i mieszał je: alef ze wszystkimi i wszystkie z alef; bet ze wszyst­ podstawowych
substancji,
kimi i wszystkie z bet i przez obrót dookoła zostało znalezione wszystko, co występuje już
wymówione, a co wychodzi z jednego imienia.
w Timajosie
Platona.
^Przekład W . Brojer, J. Doktór, B. Kos, Tikkun, Warszawa 1995.
podstawowe tworzywo świata:
Rozdział 2. Klasyczna definicja prawdopodobieństwa
30
„K o ło o 231 bramach” m a związek z liczbą dwuelementowych ciągów (róż­
nych) liter alfabetu hebrajskiego. Miesza się „alef ze wszystkimi i wszyst­
kie z alef” , co sugeruje, że porządek jest istotny — przecież z liter two­
rzy się słowa. Dwuliterowych ciągów uporządkowanych jest jednak nie 231,
a 22 •21 = 462, zatem ktoś się tu pomylił. ■
Zadania
1. Ile jest permutacji 22 liter alfabetu hebrajskiego? Czy rzeczywiście tej liczby
„usta nie mogą wymówić i ucho nie może usłyszeć” ?
2. Cyfry 0, 1, 2, . . . 9 ustawiono losowo. Jakie jest prawdopodobieństwo, że
a) między 0 i 1 znajdą się dokładnie cztery cyfry?
b) 7, 8 i 9 będą stały obok siebie?
3. W pudełku jest 6 śrubek dobrych i 2 złe. Jaka jest szansa, że przy wyborze
4 śrubek wybierze się 3 dobre i 1 złą?
4. W urnie są 2 kule białe i 4 czarne. Losujemy 2 kule bez zwracania. Co jest
bardziej prawdopodobne, wyciągnięcie kul a) tego samego koloru; b) różnych
kolorów?
5. Z 52 kart wylosowano 6. Jaka jest szansa, że wśród wylosowanych kart będą
karty czerwone i czarne?
6. Z 52 kart wylosowano 13. Jaka jest szansa, że wśród wylosowanych kart będą
reprezentowane wszystkie wartości?
7. Z 52 kart wybrano 13. Jakie są szanse otrzymania:
a) 5 pików, 4 kierów, 3 trefli, 1 kara?
b) układu 5-4-3-1?
c) układu 5-3-3-2?
d) układu 4-4-4-1?
8. Przy okrągłym stole usiadło dziesięć dziewcząt i dziesięciu chłopców. Jaka
jest szansa, że osoby tej samej płci nie siedzą obok siebie?
9. Ile jest różnych wyników rzutu n nierozróżnialnych kości?
10. Na ile sposobów można podzielić 12 pączków między 4 osoby, tak by każda
dostała a) przynajmniej jeden; b) przynajmniej dwa? (pączki uważamy za
nierozróżnialne).
11. Ile różnych pochodnych cząstkowych rzędu r ma funkcja analityczna n zmien­
nych?
12. Ile jest różnych rozwiązań równania
xi + x 2 + 1 3 +
— 25
a) w zbiorze liczb całkowitych nieujemnych;
b) w zbiorze liczb naturalnych.
13. Z jeziora wyłowiono 200 ryb, oznakowano je i wpuszczono do wody. Po pew­
nym czasie wyłowiono 100 ryb, a wśród nich było 8 oznakowanych. Za roz­
sądną ocenę liczby ryb w jeziorze można uznać liczbę ryb, dla której zreali­
zowało się zdarzenie o największym prawdopodobieństwie. Jaka to liczba?
§ 2.2. Typowe błędy
31
14. Rozdano 52 karty czterem graczom, po 13 kart każdemu. Jaka jest szansa, że
a) każdy ma asa? b) każdy ma jakiegoś pika?
c) każdy ma jakąś figurę (A, K, D lub W)?
15. Z 24 kart wybieramy 5. Obliczyć szanse otrzymania następujących, układów:
para, dwie pary (jeśli ktoś nie czytał przykładu), straight (karty tworzą sekwens, kolory dowolne, byle niejednakowe), trójka, fuli (trójka i para), kareta
(cztery karty tej samej wartości), kolor (wszystkie karty w tym samym kolo­
rze, ale nie poker) i poker (sekwens, w tym samym kolorze).
16. W Totolotku losuje się 6 liczb z 49. Jaka jest szansa, że żadne dwie nie będą
kolejnymi?
17. W in d a raz jeszcze. Windą jedzie 7 osób, a każda może wysiąść na jednym
z dziesięciu pięter. Jaka jest szansa, że na pewnym piętrze wysiądą 3 osoby,
na innym 2, i na dwóch piętrach po jednej? Taką konfigurację można zapisać
krótko jako 3,2,1,1,0,0,0,0,0,0. Ile jest takich konfiguracji i jakie są szanse
pojawienia się każdej z nich?
18. Paradoks kawalera de Mere. Co jest bardziej prawdopodobne: otrzyma­
nie co najmniej jednej jedynki przy rzucie 4 kostek, czy co najmniej raz
dwóch jedynek na obu kostkach przy 24 rzutach obu kostek?
19. Zadanie Samuela Pepysa4. Co jest bardziej prawdopodobne: uzyskanie co
najmniej jednej szóstki w 6 rzutach, co najmniej dwu szóstek w 12 rzutach,
czy co najmniej trzech w 18?
20. Paradoks kawalera de Mere. Jest to przykład wyboru właściwego modelu
dla opisu zjawiska. Przy rzucie trzema kostkami sumę 11 i 12 oczek można
otrzymać na tyle samo sposobów. Dlaczego częściej wypada suma 11 oczek?
21. Jaka jest szansa, że spotkam na przyjęciu osobę, obchodzącą urodziny tego
samego dnia, co ja? Ile osób powinno być na przyjęciu, żeby ta szansa prze­
kroczyła 1/2?
22. Koincydencje. Na imprezie mikołajkowej wszystkie n prezentów pozba­
wiono karteczek z imieniem adresata, losowo wymieszano i rozdano uczestni­
kom. Niech pk oznacza szansę, że dokładnie fc osób dostanie własny prezent.
Wyznaczyć pk, k = 0 , 1 ,2 ,. .. , n, a także granice tych prawdopodobieństw,
gdy n —> oo.
De Mere uważał,
że te prawdopodo­
bieństwa powinny
być równe,
a podobno
stwierdził
eksperymentalnie,
że tak nie jest
(por. zad. 10.2.7).
Zadanie można
kontynuować: 3
kości i 144 rzuty,
4 kości
i 6 ■144 = 876
rzutów.
23 . Z 52 kart wybrano 13. Jaka jest szansa otrzymania a) dokładnie siedmiu kart
jednego koloru; b) dokładnie sześciu kart jednego koloru?
24. U rny z łóżeczkami. W małym schronisku są 3 pokoje: czteroosobowy,
trzyosobowy i dwuosobowy. Dziwnym trafem schronisko jest puste, gdy po­ Ten tytuł to
jawia się grupa 6 turystów i natychmiast zajmuje miejsca całkowicie losowo. makabra!
Jaka jest szansa, że jeden pokój pozostanie wolny?
25. Pokazać, że dla n > 1
4Samuel Pepys (1633-1703), autor słynnych dzienników, sekretarz Royal Society; py­
tanie zostało postawione Newtonowi.
32
Rozdział 2. Klasyczna definicja prawdopodobieństwa
2 6 . Zn aleźć w zór na:
1( i j + 2W
27. Znaleźć wzór na
+ 3W
+ --'+ilW
(1)
Rozdział 3
Prawdopodobieństwo
warunkowe
§ 3.1.
Definicja i przykłady
W tym rozdziale wprowadzimy podstawowe pojęcie teorii prawdopodobień­
stwa — prawdopodobieństwo warunkowe. W zasadzie każde zadanie z ra­
chunku prawdopodobieństwa da się sformułować przy użyciu prawdopodo­
bieństwa warunkowego. Jeśli zastanawiam się, jakie są moje szanse dożycia
do następnego roku, odpowiedź zależy od mojego wieku, płci, trybu życia,
przebytych chorób, itd. Wszelkie tego rodzaju informacje mogą mieć zasad­ 31 grudnia
nicze znaczenie. Wiedzą o tym doskonale firmy ubezpieczeniowe: standar­ o godzinie 23:59
dowy kwestionariusz zawiera wiele szczegółowych pytań, a składka zależy te szanse są dość
duże.
od udzielonych odpowiedzi.
W poniższym — dość skrajnym — przykładzie widać, że zajście jakiegoś
zdarzenia może zmienić prawdopodobieństwo zajścia innego zdarzenia.
P r z y k ła d 1. W jednej urnie są same białe kule, w drugiej same czarne.
Wybieramy losowo urnę i wyciągamy z niej kolejno dwie kule. Niech A
(odp. B ) oznacza zdarzenie, że pierwsza (odp. druga) wylosowana kula jest
biała. P (B ) = 1/ 2, gdyż wybór urny determinuje wybór koloru kuli. Jeśli
wiemy, że zaszło zdarzenie A , to druga wylosowana kula będzie biała, więc
prawdopodobieństwo zajścia zdarzenia B , gdy wiemy, że zaszło zdarzenie
A , oznaczane przez P (B\A), jest równe 1. ■
Oczywiście nie zawsze tak jest, na przykład przy dwukrotnym rzucie sy­
metryczną monetą wypadnięcie orła w pierwszym rzucie nie m a wpływu
na prawdopodobieństwo wypadnięcia orła w drugim rzucie. Jeśli wiemy, że
zaszło zdarzenie B , to ograniczamy się do zdarzeń elementarnych sprzyjają­
cych B , intuicja podpowiada więc, że dla prawdopodobieństwa klasycznego
P (A | 5 ) jest równe liczbie zdarzeń elementarnych sprzyjających A i za­
wartych w B , podzielonej przez liczbę wszystkich zdarzeń elementarnych
33
Rozdział 3. Prawdopodobieństwo warunkowe
34
tworzących B , czyli
Prowadzi to do definicji w ogólnym przypadku.
D efin ic ja 2 . Prawdopodobieństwem warunkowym zajścia zdarzenia A pod
warunkiem zajścia zdarzenia B , gdzie P ( B ) > 0, nazywamy liczbę
Łatwo sprawdżić, że przy ustalonym B prawdopodobieństwo warunkowe
P (A \B ) jest zwykłym prawdopodobieństwem na (ii, T ) , a także na (B , T b )
gdzie T b = {-A H B : A
€ T } (zadanie 1).
P r z y k ła d 3 . Wybieramy jedną rodzinę spośród rodzin z dwojgiem dzieci.
Obliczyć prawdopodobieństwo zdarzenia, że wybierzemy rodzinę z dwoma
chłopcami, jeśli wiemy, że w tej rodzinie:
A jeśli np. a) starsze dziecko jest chłopcem,
w iadom o, źe
b) jest co najmniej jeden chłopiec.
dziecko m a na
drugie imię R o z w i ą z a n i e , f2 jest zbiorem jednakowo prawdopodobnych par
Franek? Patrz
zad. 5.
{ (c ,c ) ,(c ,d ),{d , c), (d, d )},
gdzie pierwszy element oznacza płeć młodszego dziecka, drugi — starszego.
W punkcie a) spodziewamy się odpowiedzi 1 /2 i rzeczywiście
x
_ 1
P ( { ( c, c)}| {(c ,c), (d, c )}) = f = 2 2
Natomiast odpowiedź do punktu b) może być niespodzianką:
■P({(c>c)}|{(c,c),(a!,c),(c,<i)}) = 1/ 3. ■
Już z tego przykładu widać, że prawdopodobieństwo warunkowe m a wła­
sności, które są dla wielu osób zaskakujące. Niezdawanie sobie z nich sprawy
prowadzi do błędnych rozumowań. Pokażemy tu przykład takiej zaskaku­
jącej własności (patrz też zadanie 3).
P r z y k ła d 4.
P{A \B ) > P {A )
P(B\A) > P ( B ) ,
gdyż obie strony są równoważne nierówności P ( A fi B ) > P ( B ) P { A ) .
(1)
§3.1. Definicja i przykłady
35
Jeśli nierówność P(A\B) > P ( A ) będziemy interpretowali w ten sposób, że
zajście zdarzenia B zwiększa szansę zajścia zdarzenia A , to (1) oznacza,
że zajście zdarzenia B zwiększa szansę zajścia zdarzenia A wtedy i tylko
wtedy gdy zajście zdarzenia A zwiększa szansę zajścia zdarzenia B . Jest
to sprzeczne z intuicją wielu osób, którym wydaje się, że jeśli B zwiększa
szansę zajścia A , to A zmniejsza szansę zajścia B . m
Korzystając z (1) widzimy bez obliczeń, że prawdopodobieństwo, iż bry­
dżysta ma asa pik (zdarzenie A ), jeśli wiemy, że ma co najmniej jednego
asa (zdarzenie B ) jest większe od bezwarunkowego prawdopodobieństwa,
że ma asa pik: mamy P(B|A) = 1 i korzystamy z (1).
Jako natychmiastową konsekwencję definicji prawdopodobieństwa warun­
kowego otrzymujemy twierdzenie o mnożeniu, które mówi, jak obliczyć
prawdopodobieństwo danego zdarzenia, gdy znamy prawdopodobieństwa
warunkowe.
T w ie rd zen ie 5. Jeśli zdarzenia A i, A 2 , . . . , A n spełniają warunek
p { A l n A 2 r \ ...r \ A n_ i ) > o,
to
P ( A 1 n J42 n . . . n . A n) = p ^ p ^ I ^ )
P (A „| A i n
a
2 n . . . n i n. , ) .
D o w ó d . Założenie zapewnia, że wszystkie prawdopodobieństwa warun­
kowe, występujące we wzorze, są dobrze określone. Korzystając z definicji
prawdopodobieństwa warunkowego, piszemy prawą stronę równości. Czyn­
niki się skracają i otrzymujemy stronę lewą. ■
Twierdzenie to uzasadnia metodę drzewek stosowaną przy rozwiązywaniu
wielu zadań (liczby przypisywane gałęziom to są prawdopodobieństwa wa­
runkowe, a gdy poruszamy się wzdłuż gałęzi, to mnożymy te liczby).
Zadania
1. Niech P (B ) > 0. Udowodnić, że P(A\B) jako funkcja A , przy ustalonym B,
jest prawdopodobieństwem.
2. Rzucamy trzema kostkami. Jakie jest prawdopodobieństwo, że na żadnej ko­
stce nie wypadła szóstka, jeśli na każdej kostce wypadła inna liczba oczek?
3. Pokazać, że jeśli D zwiększa szansę zajścia A i D zwiększa szansę zajścia B,
to wcale z tego nie wynika, że D zwiększa szansę zajścia A fi B.
4. Pokazać, że jeśli C C A n B i P (B — A ) > 0, to P(C|j4) > P{C\A U B ).
W szczególności, gdy wiemy, że zaszło A, to prawdopodobieństwo warunkowe,
że zaszło A n B jest większe niż gdy wiemy, że zaszło A lub zaszło B lub
zaszły oba naraz.
36
Rozdział 3. Prawdopodobieństwo warunkowe
Korzystając z tego, widzimy bez obliczeń, że w brydżu prawdopodobieństwo zda­
rzenia, że gracz A ma 4 asy, jeśli wiemy, że ma asa pik, jest większe od praw­
dopodobieństwa, że gracz A ma 4 asy, jeśli wiemy, że ma co najmniej jednego
asa.
5. Wybrano losowo rodzinę z dwojgiem dzieci i okazało się, że jedno z dzieci
ma na drugie imię Franek. Jaka jest szansa, że drugie dziecko jest chłopcem
(nie wykluczamy, że też ma na drugie imię FVanek)?
6. Wiadomo, że P(A\B) = P(B\A), P (A
a mamy zawsze P(A) > a!
U
B)
=
1 i P {A
n
B)
>
0. Dla jakich
7. Z talii 8 kart — czterech króli i czterech asów — wybieramy losowo dwie karty.
Obliczyć prawdopodobieństwo zdarzenia, że wybrano 2 króle, jeśli wiemy, że:
a) wybrano co najmniej jednego króla,
b) wśród wybranych kart jest czarny król,
c) wśród wybranych kart jest król pik.
8. Z talii 32 kart wyciągamy 5. Niech
A — zdarzenie polegające na wyciągnięciu dokładnie trzech króli,
B — zdarzenie polegające na wyciągnięciu co najmniej jednego króla,
C — zdarzenie polegające na wyciągnięciu króla czarnego,
D — zdarzenie polegające na wyciągnięciu króla pik.
Znaleźć prawdopodobieństwa P(A\B), P(A\C), P(A\D).
9. Gracz dostał 13 kart z 52, obejrzał 8 z nich i stwierdził, że nie ma asa. Jaka
jest szansa, że w ogóle nie ma asa?
10. a) W partii brydża przed licytacją gracz E widzi, że nie ma asa. Jaka jest
szansa, że jego partner ma 2 asy?
b) Gracz E widzi, że ma 8 pików. Jaka jest szansa, że jego partner nie ma
pików?
11. Czterej gracze dostali po 13 kart. Jeden z nich zobaczył przypadkowo u są­
siada a) asa pik; b) jakiegoś asa czarnego koloru; c) jakiegoś asa. Jaka jest
szansa, że ten gracz nie ma asa?
1 2 . Jaka jest szansa, że każdy z graczy S, E i W ma co najmniej jednego asa,
jeśli wiadomo, że N nie ma żadnego?
13. D ylem at więźnia. Naczelnik więzienia postanowił uwolnić jednego z trzech
więźniów, o czym dowiedzieli się zainteresowani, ale nie dowiedzieli się, który
z nich będzie wolny. Więzień A ma wśród strażników znajomego, który to
wie. Chce go zapytać, ale krępuje się pytać o siebie. Pyta więc o imię jednego
z więźniów (różnego od niego), który ma pozostać w więzieniu. Przed zada­
niem pytania ocenia, że każdy z nich ma szanse wyjścia równą 1/3. Myśli,
że jeśli strażnik powie na przykład, że zostaje B, to jego szanse rosną do 1/2
(bo zostanie uwolniony A lub C ). Czy popełnia błąd?
§ 3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa
§ 3.2.
37
Wzór na prawdopodobieństwo całkowite i wzór
Bayesa
Jednym z najbardziej użytecznych wzorów związanych z prawdopodobień­
stwem warunkowym jest wzór na prawdopodobieństwo całkowite. Pozwala
on obliczać prawdopodobieństwa zdarzeń, które mogą zajść w wyniku re­
alizacji innych zdarzeń, na przykład w doświadczeniach wieloetapowych.
Żeby móc zapisywać zwięźle założenia tego i pokrewnych twierdzeń, wpro­
wadzimy pojęcie rozbicia zbioru 0 .
D e fin ic ja 1. Rozbiciem przestrzeni ił nazywamy rodzinę zdarzeń
które wzajemnie się wykluczają, zaś ich suma jest równa 0 .
H ie n
Rozbicie nazwiemy przeliczalnym, jeśli zbiór wskaźników I jest przeliczalny;
skończonym, jeśli jest skończony.
Zbiór przeliczalny
może być
skończony lub nie.
T w ie rd zen ie 2 ( W z ó r na praw dopodobień stw o c a łk o w ite ). Jeżeli
{ B i , B 2 , ■■■, B n} jest rozbiciem 0, na zdarzenia o dodatnim prawdopodo­
bieństwie, to dla dowolnego zdarzenia A
p ía
)= ¿P im jP iB i).
2=1
Dowód.
n
P (A )
=
P ( | J ( ¿ n
n
n
Bi)) = ^ P ( A
i= 1
n
Bi)
=
i= l
J 2 p (A lBi)P(Bi)-
■
¡= 1
U w a g a 3. Twierdzenie jest prawdziwe i dla rozbicia fi na przeliczalną
liczbę zdarzeń B i, i = 1 , 2 , . . . (dowód wymaga zmiany dokładnie trzech
znaków drukarskich w podanym rozumowaniu).
P r z y k ła d 4. Mamy w urnie b kul białych i c czarnych. Wyciągamy jedną
kulę i natychmiast ją wyrzucamy, nie sprawdzając koloru. Jaka jest szansa
wyciągnięcia za drugim razem kuli białej?
R o z w i ą z a n i e . Niech B i (B2) będzie zdarzeniem polegającym na wy­
ciągnięciu za pierwszym (odp. drugim) razem kuli białej. Analogicznie,
niech Ci (C2) będą zdarzeniami polegającymi na wyciągnięciu za pierw­
szym (odp. drugim) razem kuli czarnej.
P ( B 2)
=
P ( B 2\B1)P ( B i ) + P i B ^ P i C ! ) =
= 6~ 1
6
c + b c + b -1
,
b
c
= j L
= P (B ) m
c + b c + b -l
c+ b
v lh
Zdarzenia Bi
nazywa się czasem
hipotezami.
Rozdział 3. Prawdopodobieństwo warunkowe
38
Jest to doskonała ilustracja faktu, że na prawdopodobieństwo nie ma wpły­
wu zajście materialnego zdarzenia, ale tylko wiedza, którą możemy mieć,
biorąc pod uwagę jego zajście. W naszym przykładzie na szanse zajścia zda­
rzenia nie miały wpływu poprzednie ciągnienia tak długo, jak nie znaliśmy
ich wyniku.
P r z y k ła d 5 . W loterii fantowej zorganizowanej na balu szansa wygranej
P odobny przykład jest równa p, przegranej — q, a z prawdopodobieństwem r wyciągamy los
pojaw ił się już „graj dalej” . Los „graj dalej” wrzucamy z powrotem do urny i dokonujemy
wcześniej. ponownego losowania. Jakie jest prawdopodobieństwo wygranej?
R o z w i ą z a n i e . Niech A (B , C ) będzie zdarzeniem polegającym na wy­
ciągnięciu losu wygrywającego (odp. przegrywającego, graj dalej), a W —
zdarzeniem, polegającym na tym, że wygraliśmy na loterii.
P ( W ) = P {W \ A )P {A ) + P ( W \ B )P (B ) + P {W \ C )P {C ) =
= 1 •p + 0 •q + P ( W ) • r.
Stąd
P (W ) =
P
1 —r
p+ q
Pokażemy teraz bardziej wyrafinowaną wersję wzoru na prawdopodobień­
stwo całkowite.
T w ie r d z e n ie 6. Niech
będzie rozbiciem fi na zdarzenia o dodat­
nim prawdopodobieństwie. Gdy P {B ) > 0, to
P (A \ B )=
Y ,
P iA l B D H J P i H il B ) .
{ i :P { B n H i ) > 0 }
D o w ó d . Można przekształcić prawą stronę równości korzystając z definicji
prawdopodobieństwa warunkowego i otrzymać stronę lewą. Można też ina­
czej. Przecież P(-\B) = P b(-) jest prawdopodobieństwem. Jest więc sens
mówić o P b (A\C) — prawdopodobieństwie zajścia zdarzenia A pod wa­
runkiem zajścia zdarzenia C , gdy wiemy, że zaszło zdarzenie B . Zachodzi
p
P b {A\h )
-
p ^ A n H ) = P { A r i H n B ) /P { B )
p ( H n B ) /P { B )
p(AlHnR)
{A\h n B ).
p
)
Twierdzenie jest wzorem na prawdopodobieństwo całkowite dla prawdopo­
dobieństwa P b (-). ■
P r z y k ła d 7. Grześ i Jaś rzucają na przemian monetą. Jaś wygrywa, gdy
Jak m ogłoby pojawią się kolejno O O R , Grześ — gdy R O R . Jakie są prawdopodobieństwa
wyglądać ogólne wygranej dla obu chłopców?
twierdzenie?
3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa
39
R o z w i ą z a n i e . Zbiór fl tworzą skończone ciągi oriów i reszek, kończące się
na O O R lub ROR, oraz ciągi nieskończone (odpowiada to przypadkowi, że
gra się nigdy nie skończy). Niech W i (W 2) będzie zdarzeniem, że wygra Jaś
(odp. Grześ). Ok (Rk) k = 1, 2, 3, zdarzeniem, że w fc-tym rzucie wypadł
orzeł (reszka). Niech
x = p ( w 1\o1 n o 3),
y
= P(W i|0'i n
z =
r 2),
P{wl\R1n o a),
w = p ( w 1|E1 n i?2).
Korzystając z twiedzenia 6, otrzymujemy układ równań
y = P { W 1\ol n R 2 n 0 3) P ( 0 3\01 n r 2) +
+ P (W i| 0 ! n i i 2 n R 3)P {R 3\o1 n r 2) =
—
i
i
2
2
i analogicznie
1 1
,
1
x = - x + - - l , z = - 2 + 0, w = - w
1 1
+ -z .
Stąd x = 1, z = w = y = 1 /2 i ze wzoru na prawdopodobieństwo całkowite
mamy P {W i) = 5/ 8. Podobne rozumowanie pokazuje, że P { W 2) = 3 /8 . Dlaczego nie 1/2?
Wynika stąd, że z prawdopodobieństwem 1 gra zakończy się wygraną jed­
nego z chłopców. ■
Często znamy wynik doświadczenia i pytamy o jego przebieg. Na to pytanie
odpowiada wzór (reguła) Bayesa1.
T w ie rd ze n ie 8 (W z ó r B ay esa ). Jeśli
jest przeliczalnym rozbi­
ciem fi na zdarzenia o dodatnim prawdopodobieństwie i P (A ) > 0, to dla Założenia tego
dowolnego j e I mamy
twierdzenia są
m n )= ..
E ie iP iA m P iH iY
D o w ó d . Z definicji prawdopodobieństwa warunkowego i wzoru na praw­
dopodobieństwo całkowite mamy
P{Hj\A) =
P jA n H j)
P (A \H j)P (H j)
P (A )
Y^iei P{A\H i)P{H i)
1Thomas Bayes (1702-1761) byl pastorem w Turnbridge Wells pod Londynem. Dzięki
zainteresowaniom matematycznym został w 1742 roku członkiem Royal Society. Jego
„Essay toward solving a Problem in the Doctrine o f Chances” ukazał się dopiero w roku
1763. W zór Bayesa nie został sformułowany przez Bayesa. Taką nazwę nadał mu LapLace.
W zadaniu 1 zamieszczamy problem, rozważany w cytowanej pracy.
prawie takie
same, jak wzoru
na prawdopodo­
bieństwo
całkowite.
Rozdział 3. Prawdopodobieństwo warunkowe
40
W statystyce prawdopodobieństwa hipotez P {H i) nazywamy prawdopodobieństwami a priori (przed doświadczeniem), P(H i\A) prawdopodobień­
stwami a posteriori (po doświadczeniu). Rodzina zdarzeń { H i } i e i zwana
jest także zupełnym układem zdarzeń.
P r z y k ła d 9 . W zbiorze 100 monet jedna ma po obu stronach orły, pozo­
stałe są prawidłowe. W wyniku 10 rzutów losowo wybraną monetą otrzyma­
liśmy 10 orłów. Obliczyć prawdopodobieństwo, że była to moneta z orłami
po obu stronach.
A jak zmieni się R o z w i ą z a n i e . Mogliśmy wybrać monetę prawidłową (zdarzenie H\) lub
odpowiedź przy z dwoma orłami (zdarzenie H 2 ). Po wykonaniu doświadczenia otrzymaliśmy
100 rzutach i 100
orłach? 10 orłów (zdarzenie A ). Należy obliczyć P ( H 2 \A), co robimy za pomocą
wzoru Bayesa:
P{H2\A) =
t - i ' j 5, ....t
___ ________ l 1 . J L
210
100 ^ 1
100
1193
* 0,91. .
Zadania
1. Problem z pracy Bayesa. Liczba p jest szansą sukcesu w schemacie Bernoulliego (patrz 4.2) i została wybrana losowo z przedziału [0,1] (czyli zgodnie
z rozkładem jednostajnym; miało to wyrażać „całkowitą niewiedzę” ). Znaleźć
P(p € [a, 6] | zaszło m sukcesów w n próbach ).
2. Znaleźć prawdopodobieństwo wybrania przedmiotu I gatunku, jeśli jest 5%
braków, a 80% przedmiotów dobrych jest I gatunku.
3. W pierwszej urnie są 3 kule białe i 2 czarne, a w drugiej urnie są 4 czarne i 1
biała. Rzucamy kostką. Jeżeli wypadnie mniej niż 5 oczek, to losujemy kulę
z pierwszej urny, jeżeli wypadnie 5 lub 6 oczek, to losujemy kulę z drugiej
urny. Jakie jest prawdopodobieństwo wylosowania kuli białej?
4. W urnie są trzy kule białe i dwie czarne. Wyciągnięto jedną kulę z urny
i wyrzucono bez oglądania, a potem wyciągnięto następną. Jaka jest szansa,
że za drugim razem wyciągnięto kulę białą?
5. Jest n monet, ale k z nich jest asymetrycznych i orzeł wypada na nich z praw­
dopodobieństwem 1/3. Wybrano losowo monetę i w wyniku rzutu wypadł
orzeł. Jaka jest szansa, że moneta jest asymetryczna?
6. Wśród 65 monet jest jedna z dwoma orłami. Na wybranej losowo monecie
wypadł orzeł 6 razy z rzędu. Jaka jest szansa, że była to moneta z dwoma
orłami?
7. W jednej urnie są 2 kule białe i 8 czarnych, w drugiej 3 kule białe i 7 czar­
nych. Która urna jest która, nie wiadomo. Należy wylosować (bez zwracania)
po kolei dwie kule tak, by szansa otrzymania dwóch kul białych była naj­
większa. Jaka powinna być procedura losowania? Przedyskutować rozwiąza­
nie w przypadku dowolnych składów urn (fc, białych kul, rii czarnych kul,
i = 1,2).
§ 3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa
41
8. W urnie jest n kul, przy czym n może być równe 2, 3, 4, 5 z jednakowym
prawdopodobieństwem. Kule są ponumerowane liczbami od 1 do n. Losujemy
kolejno dwie kule bez zwracania i zapisujemy cyfry z tych kul w kolejności
wylosowania. Zapisana liczba okazała się być mniejsza od 44. Jakie jest praw­
dopodobieństwo, że n było równe 3?
9. Podczas klasówki z historii Jan i Paweł siedzieli obok siebie. Między innymi
mieli napisać dwie daty. Jan je pamiętał, ale nie wiedział jak je przyporządko­
wać. Zapytał Pawła, wiedząc że w 3 przypadkach na 4 Paweł zna prawidłową
odpowiedź, chociaż faweł uważał, że zawsze wie dobrze. Jednak Paweł w 1
przypadku na 4 oszukuje Jana. Co jest lepsze dla Jana: posłuchać Pawła,
czy odpowiedzieć losowo?
10. W komodach A, B i C są po dwie szuflady. W każdej szufladzie jest jedna
moneta, przy czym w komodzie A są monety złote, w C — srebrne, a w B
jest jedna moneta złota i jedna moneta srebrna. Wylosowano komodę, na­
stępnie szufladę, i znaleziono tam monetę złotą. Jaka jest szansa, że w drugiej
szufladzie jest też moneta złota?
11. Paradoks Simpsona. (To zadanie pokazuje, z jak wielką uwagą i ostroż­
nością powinniśmy stosować wnioskowanie, oparte na prawdopodobieństwie
warunkowym).
Podać przykład zdarzeń A, B i C, dla których:
P{A\B) < P(A\B')
(1)
i jednocześnie
P (A \B n C ) > P (A \B 'n C ),
P(A\B n C') > P(A\B‘ n C')
(2)
Słownie można sformułować paradoks w następujący sposób:
Może się zdarzyć sytuacja, że w mieście X jest większa umieralność chorych na
gruźlicę niż w mieście Y, a mimo to większa umieralność chorych kobiet jest
w mieście Y , a także większa umieralność chorych mężczyzn jest w mieście Y.
12. Mamy w urnie b kul białych i c czarnych. Wyciągamy kolejno kule i odkła­
damy je, nie sprawdzając koloru. Niech C „ będzie zdarzeniem, polegającym
na wyciągnięciu za ri-tym razem kuli czarnej. Pokazać, że P (C n) =
jeśli
n Ą b + c.
13. Schemat Pólya. Mamy w urnie b kul białych i c czarnych. Po wyciągnięciu
kuli z urny wrzucamy ją z powrotem i dokładamy jeszcze d kul tego samego
koloru. Jakie jest prawdopodobieństwo pk,n wyciągnięcia k kul czarnych w n
losowaniach?
Zadania 14-15a poświęcone są zadaniu o ruinie gracza. Gracze A i B grają
w „orla i reszkę” , rzucając (niekoniecznie symetryczną) monetą. W pojedynczej
kolejce gracz wygrywa 1 zł z prawdopodobieństwem p lub przegrywa 1 zł z praw­
dopodobieństwem 1 — p. Gracze mają kapitały początkowe a i 6, o + b = z.
Zasadniczo gra kończy się, gdy jeden z graczy zostanie zrujnowany. Gracze mogą
jednak umówić się inaczej (np. wycofywać się z gry w dogodnym dla siebie momen­
cie). Wyniki poszczególnych kolejek są niezależne, i choć pojęcie niezależności nie
42
Rozdział 3. Prawdopodobieństwo warunkowe
zostało formalnie wprowadzone, nie jest trudno intuicyjnie umotywować sposób
zastosowania wzoru na prawdopodobieństwo całkowite do rozwiązania zadania.
Roboczo przyjmiemy, że zdarzenia A i B są. niezależne, gdy P(A \B ) = P (A ), albo
(nieco ogólniej) gdy P ( A n B ) = P ( A ) ■P (B ).
14. Znaleźć prawdopodobieństwo qa ruiny gracza A, który zaczyna grę z kapi­
tałem a zł, a kończy gdy wszystko straci (ruina) lub gdy będzie miał c zł
(a Sj c).
15. Zadanie o ruinie dla gracza o nieograniczonym kapitale. Gracz A ma
nieograniczony kapitał i gra aż do momentu w którym wygra b zł. Znaleźć
prawdopodobieństwo wygranej gracza. A.
15a. Pijak (i to pijany) znajduje się 3 kroki od przepaści. Szansa wykonania
kroku w kierunku przepaści wynosi 1/3, w przeciwnym — 2 /3 , kroki są nieza­
leżne. Jaka jest szansa ocalenia? Zakładamy, że pijak spada, gdy znajdzie się
na krawędzi przepaści.
16. Król Artur urządza turniej rycerski, w którym rycerze spotykają się (jakże by
inaczej?) systemem turniejowym. Obaj uczestnicy każdego pojedynku mają
równe szanse na zwycięstwo. Wśród 2” uczestników jest dwu braci. Jakie jest
prawdopodobieństwo, że się spotkają w pojedynku?
17. Jest n osób: A i , A 2 , - •., A n. Osoba A¡ dostaje kartkę ze znakiem + . Z praw­
dopodobieństwem p, 0 < p < 1, zmienia znak na przeciwny i podaje kartkę
osobie A 2 , która z prawdopodobieństwem p zmienia znak na przeciwny i po­
daje kartkę osobie A 3 , itd. Na zakończenie, po oddaniu kartki przez osobę
A n, zaobserwowano znak + . Jakie jest prawdopodobieństwo, że osoba A i nie
zmieniła znaku?
Jest to wersja zadania o kłamcach:
Każda, z 4 osób A , B, C, D mówi prawdę z prawdopodobieństwem 1/3. Osoba
A wypowiedziała pewne stwierdzenie, a następnie B powtórzyła je C, C powtó­
rzyła je D, a D powiedziała, że A mówi prawdę. Jakie jest prawdopodobieństwo,
że osoba A rzeczywiście wypowiedziała zdanie prawdziwe?
Na dwóch następnych zadaniach można wypróbować swoją intuicję, udzielając
odpowiedzi bez rachunków.
18. W mieście działają dwa przedsiębiorstwa taksówkowe: Zielone Taxi (85%
samochodów) i Niebieskie Taxi (15%). Świadek nocnego wypadku zakończo­
nego ucieczką kierowcy twierdzi, że samochód był niebieski. Eksperymenty
wykazały, że świadek rozpoznaje kolor poprawnie w 80% przypadków, a myli
się w 20% przypadków. Jaka jest szansa, że w wypadku uczestniczyła niebie­
ska taksówka?
19. Test na rzadką chorobę, którą dotknięta jest średnio jedna osoba na tysiąc,
daje fałszywą pozytywną odpowiedź w 5% przypadków (u osoby chorej daje
zawsze odpowiedź pozytywną). Jaka jest szansa, że osoba, u której test dał
odpowiedź pozytywną, jest faktycznie chora? Zakładamy, że nic nie wiemy
o innych możliwych objawach u badanej osoby2.
2Zad. 18 i 19 na podstawie: Deborah J. Bennett, Randomness, Harvard Univ. Press,
1998.
Rozdział 4
Niezależność zdarzeń
§4.1.
Definicja i przykłady
Niezależność jest kluczowym pojęciem, odróżniającym rachunek prawdo­
podobieństwa od innych działów matematyki, badających własności prze­
strzeni mierzalnych. Gdy A i B są zdarzeniami, to jest naturalne powiedzieć,
że zdarzenie B nie zależy od zdarzenia A , gdy wiedza o tym, że zaszło A nie
ma wpływu na prawdopodobieństwo zajścia B . Przy założeniu P {A ) > 0
oznacza to, że P(B\A) = P (B ), czyli P (A f) B ) = P (A )P (B ). Analogicznie,
A nie zależy od B , gdy P(A\B) = P (A ), czyli znów P(AC\B) = P (A )P (B ).
Stąd definicja:
D efin icja 1. Zdarzenia A i B nazywamy niezależnymi (statystycznie nie­
zależnymi), gdy P (A fi B ) = P (A )P (B ).
U w a g a 2. Zdarzenia rozłączne A i B są niezależne wtedy i tylko wtedy,
gdy P {A ) = 0 lub P (B ) = 0.
Zdarzenia
niezależne są na
egzaminach często
Relacja niezależności jest relacją symetryczną (używane w języku potocz­ mylone
nym pojęcie niezależności nie ma tej własności, np. mój termin powrotu z rozłącznymi.
z wycieczki w wysokie góry zależy od pogody, natomiast pogoda jest nie­ I zawsze powoduje
to ocenę
zależna od terminu powrotu). Probabilistyczne „nie zależy” nie jest równo­
niedostateczną.
ważne intuicyjnemu „nie ma wpływu na wynik” .
Nie zawsze na podstawie opisu słownego zdarzenia można się zorientować,
czy zależność istnieje, czy nie. Oto przykład:
P r z y k ła d 3. Wybieramy jedną rodzinę spośród rodzin, mających n dzieci.
Niech zdarzenie A polega na tym, że w losowo wybranej rodzinie jest co
najwyżej jedna dziewczynka, B — w rodzinie są dziewczynki i chłopcy. Czy
zdarzenia A i B są niezależne?
43
Rozdział 4. Niezależność zdarzeń
44
R o z w i ą z a n i e . Przestrzeń probabilistyczną tworzą ciągi n-elementowe —
uporządkowane według starszeństwa ciągi dzieci. W ted y wszystkie zdarze­
nia elementarne są jednakowo prawdopodobne i mamy
= 1 + n,
= 2n, # A =
= 2 n — 1 — l i # ( A n B ) = r* (dokładnie jedna dziewczynka).
Zatem
P (A n B) = P (A )P (B )
^
. ? L z ł = 2 . & i + n = 2 n_1 ^
n = 3
Jak widać, zdarzenia mające identyczny opis słowny są raz zależne, a raz
nie. ■
Definicja niezależności n zdarzeń musi być, niestety, bardziej skompliko­
wana, co ilustrują dwa przykłady zamieszczone po definicji.
D efin ic ja 4 . Zdarzenia A i , . . . , A n nazywamy niezależnymi, gdy
P ( A h n A i2 n . . . n A ik) = p { A h ) . . . p ( A ik).
dla 1 < ¿x < ¿2 < ••• < ik ^ n, k = 2 , 3 , . . . , n.
P r z y k ła d 5. D la n ^ 3 z niezależności zdarzeń parami nie wynika ich
niezależność. Niech Q = { w j , . . . , 0)4 } , P(wj) =
=
1 , 2, 3. W ted y P (A i) =
|, A j =
P( A* n A j) = P (u 1 ) =
| dla i /
i=
j , więc
Czasem, dla
podkreślenia, że zdarzenia są parami niezależne. Ale
nie chodzi
o niezależność
P {A x n A 2 n Aa) = P ( W1) = i ^ i = P ( A ! ) P ( A 2)P ( A 3).
parami, mówi się
o wzajemnej
niezależności W wersji mniej abstrakcyjnej da się to opowiedzieć tak: w urnie są cztery
zdarzeń. kule — niebieska, zielona, czerwona i pstrokata (niebiesko-zielono-czerwo-
na). Szansa wyciągnięcia kuli z kolorem niebieskim (a także z zielonym lub
czerwonym) wynosi 1/ 2. Prawdopodobieństwo zajścia każdej pary zdarzeń
wynosi 1 /4 i jest takie samo, jak szansa zajścia wszystkich trzech naraz. ■
P r z y k ła d 6 . Z tego, że pewne zdarzenia A , B , C spełniają warunek
P ( A f ) B n C ) = P (A )P (B )P (C )
wcale nie wynika ich niezależność parami. Niech na przykład fi = [0, l ] 2,
T — S([0, l]2), P = A. Jak łatwo zauważyć, zdarzenia
A jeęt miarą
Lebesgue’a.
A = B = { ( z , y): x > y } D [0, l]2,
C = {( x , y ) : x < \ ] n [0, l ] 2
spełniają żądaną równość, a żadne dwa nie są niezależne. ■
Żeby skorzystać z definicji niezależności, należy sprawdzić 2n — n — 1 rów­
ności, ale na szczęście można to na ogół zrobić przy pomocy jednego rozu­
mowania, jak pokazuje następny przykład.
§4.1. Definicja i przykłady
45
P r z y k ła d 7 (n zd arzeń n iezależnych). Rozpatrzmy n-krotny rzut mo­
netą. Niech zdarzenie A k polega na tym, że w fc-tym rzucie wypadł orzeł.
Zdarzenia A\, A 2 , ■■■, A n są niezależne. W tym doświadczeniu
Q = {w =
■. , u n):LJi e { 0 , R } } ,
Zatem P ( A k) = - =
P (u ) = i ,
A k = {u>:uik = O }.
A. Ponieważ
A {1 o A {2 n . . . n A{k
— ^12
to dla dowolnego k i dowolnych 1 < ii < i2 < . . . < i k
P ( A h n A h n . . . n A ik) = ~
— O}?
n mamy:
= ± : = P (A h ) P (A i2) . . . P (A in),
wobec tego zdarzenia A i, A 2, ■■■, A n są niezależne. ■
Jeśli zdarzenia A \ ,. . . , A n są niezależne, to po zamianie niektórych z nich
na zdarzenia przeciwne niezależność zachowa się. Rozwijając tę obserwację
otrzymujemy stwierdzenie, które pozwoli na uproszczenie dowodu niezależ­
ności z przykładu 7. Przyjmiemy konwencję użytą do zapisu składowych we
wzorze włączeń i wyłączeń: A ° = A , A 1 = A'.
S tw ierd zen ie 8 . Następujące warunki są równoważne:
(i) Zdarzenia A i , . . . ,A n są niezależne,
(ii) Dla każdego ciągu £ 1 , . . ■£n, gdzie
B i = A j 1, . . . , B n — A s ą
€ { 0 , 1 } , i = 1, 2 , . . . n, zdarzenia
niezależne,
(iii) Dla każdego ciągu £ i , . . . e n, gdzie e* e { 0 , 1 } , i = 1 , 2 , . . . n, zachodzi
równość
P (A \■ n . . . n 4 ' ») = P (A \l ) • . . . •P ( A ^ ) .
(i )
D o w ó d , (i) => (ii). Skorzystamy z zasady indukcji. Dla n = 2 mamy
P ( A i n A '2) = P ( A i \ A 1 n A 2) =
= P ( A i) - P (A i
n A 2)
= P (A i)[l - P ( A 2)] = P (A i)P (A '2),
więc A i, A!2 są niezależne. Na mocy symetrii także A [, A 2 są niezależne.
Stosując jeszcze raz powyższe rozumowanie do A [ i A 2, otrzymujemy nie­
zależność A i, A 2. Teraz zakładamy, że stwierdzenie jest prawdziwe dla n
i dowodzimy je dla n + 1 , stosując jeszcze raz indukcję, tym razem ze względu
na k — liczbę zdarzeń zamienionych na przeciwne. Rachunki są podobne do
pokazanych powyżej — zachęcamy do samodzielnego ich przeprowadzenia.
Rozdział 4. Niezależność zdarzeń
46
(ii) => (iii). Oczywiste, (iii) => (i). Wykażemy, że równość (1) jest speł­
niona przez (n — 1) zdarzeń: A f 1, . . . , A ^ S i - Otóż
P (A \ 1 n
=
A e¿ ~ ¡ ) =
... n
p(A\1 n . . . n A^Xi n A ° ) + p(A\i n
. . .
n A ^ 1 n A1)
=
= P ( A f ‘ ) • . . . •P ( A ^ ) ■P (A °) + P ( A \‘ ) . . . . . P ( A e
n- ' ) ■P ( A ') =
= P (A \ i) ■ ... ■P ( A e
nn
S l).
Argument indukcyjny i odpowiednie przenumerowanie zbiorów pokazują, że
(1) zachodzi dla dowolnych k zdarzeń A ¿in , . . . , A ^ , 1 < i\ < . . . < ik < n,
skąd już wynika (i),
m
Stwierdzenie 8 można w oczywisty sposób nieco wzmocnić: mianowicie
każde ze zdarzeń B¿ z warunku (ü ) może być także równe 0 lub fi, czyli
po prostu B i
6
cr(Ai) =
{ A j, A ¿,
0, fi } . Moglibyśmy zatem powiedzieć, że
cr-ciała generowane przez niezależne zdarzenia A j są także niezależne.
O to formalna definicja cr-ciał niezależnych w przestrzeni (fi,
T ,
P ):
D e fin ic ja 9 . a-ciala
■■■
, ( T j C T dla każdego j ) są niezależne
wtedy i tylko wtedy, gdy dla dowolnych A j € T j , j = 1 , . . . , n jest
P(Ai n . . . n A n) = p(Ai)
•...
•
p(An).
Stwierdzenie 8 można wyrazić w tym języku, a mianowicie
S tw ie rd z e n ie 10 . Zdarzenia A i , A 2 , . . . , A n są niezależne wtedy i tylko
wtedy, gdy cr(Ai), . . . , a ( A n) są niezależne, gdzie a(A i) = { Aj , A'it 0, fi} są
a-ciałami generowanymi przez A ¡.
Prawdopodobieństwo sumy zdarzeń P(U™_i A¿) obliczamy na ogół ze wzoru
włączeń i wyłączeń (twierdzenie 1.1.6). Dla zdarzeń niezależnych można to
zrobić prościej, korzystając z praw de Morgana i stwierdzenia 8:
S tw ie rd z e n ie 1 1 . Gdy A i , . . . , A „ są zdarzeniami niezależnymi, to
P ( [ j A t) = l - p ( ( \ A ! ^ l ~ f [ ( l - P ( A i)).
\=i
'
\=i
'
»=i
Rozważa się też nieskończone ciągi zdarzeń niezależnych.
D e fin ic ja 1 2 . Zdarzenia A i , A 2 , . . . nazywamy niezależnymi, gdy dla każ­
dego n zdarzenia A i , A 2 , . •■, A n są niezależne.
§4.1. Definicja i przykłady
47
P r z y k ła d 13 (N iesk oń czon y ciąg zd arzeń niezależn ych). Niech
(Q ,T , P) = ([0,1], £([0, 1]), A).
Dla każdej liczby x € [0,1] określmy jej rozwinięcie dwójkowe:
x =
= 0 ,d i( x ) ,d 2(x) , . . .
n= 1
Dla liczb x mających dwa różne rozwinięcia bierzemy z definicji rozwinięcie
nieskończone (tj. zawierające nieskończenie wiele jedynek), więc na przy­
kład | = 0 , 0 111 1. . . (a nie 0, 1000. . . ).
Niech A n = { x e [0,1]: dn(x) = 0 }, n = 1, 2, —
W tedy P { A n) = |.
Zbiory A i i A 2.
Ponieważ
Ai n
a
2 n . . . n A n = {x e [o, 1]: <¿¿(2:) = o, i = 1 , 2 , . . . , « } =
2n
to P (A x n A 2 f i . . . fi A n) = ^ . Ogólniej,
[0,!]:*(*) = £i)i = 1,2,.. . , n } = f £ g
2* , x :' g
2l + ^
¿= 1
¿=1
gdzie Ei = 0 lub £i = 1 (przedział jest z jednej strony domknięty, bo roz­
winięcie jest nieskończone). Wobec tego P (B i fi B 2 f i . . . fi B n) = ^ , gdzie
Bi = A i lub B, = A\. Niezależność zdarzeń A i, A 2, . . A n wynika teraz ze
stwierdzenia 8, bowiem jest spełniony warunek (ii). W efekcie ciąg
jest ciągiem zdarzeń niezależnych. ■
Zadania
1. Pokazać, że wylosowanie z talii 52 kart asa i wylosowanie karty czerwonej
(kara lub kiera) są zdarzeniami niezależnymi.
2. A, B są niezależne i A
U
B = fi. Wykazać, że P (A ) — 1 lub P (B ) = 1.
3. Czy z tego, że A, B, C są parami niezależne wynika, że a) A<~\B i C, b) A u B
i C są niezależne?
4. Zdarzenia A i, A 2 , . . . A 10 są niezależne i mają jednakowe prawdopodobień­
stwo p. Jaka jest szansa, że zajdzie dokładnie jedno?
Rozdział 4. Niezależność zdarzeń
5. Zdarzenia A i , .. ■, A n są niezależne i mają jednakowe prawdopodobieństwo
p. Jaka jest szansa, że
a) zajdą wszystkie naraz?
b) nie zajdzie żadne z nich?
c) zajdzie dokładnie jedno?
6. Adam, Bolek i Czesio rzucają po kolei monetą. Wygrywa ten, który pierwszy
wyrzuci orła. Znaleźć szanse wygranej dla każdego z graczy.
7. Tenisista musi wygrać dwa mecze pod rząd z trzech. Może grać a) z lepszym
od siebie, ze słabszym i znów z lepszym, b) ze słabszym, z lepszym i znów ze
słabszym. Który wybór daje większe szanse, jeśli wyniki kolejnych meczów
są niezależne?
8. W meczu piłki nożnej z prawdopodobieństwem A wygrają goście, | gospo­
darze, a z prawdopodobieństwem | będzie remis. Obliczyć prawdopodobień­
stwo, że w 14 meczach będzie 7 zwycięstw gospodarzy i 3 remisy.
9. Na rysunku poniżej widać dwa systemy niezależnie działających bezpieczni­
ków. Prawdopodobieństwo przepalenia się bezpiecznika przed upływem czasu
T jest równe p. Obliczyć prawdopodobieństwo ciągłego przepływu prądu
a) z A do B, b) z C do D w czasie T.
10. Niech on = min(p„, 1 —pn), gdzie pn 6 [0,1]. Wykazać, że jeśli
a’>Jest
rozbieżny, to nie istnieje przestrzeń probabilistyczna dyskretna, zawierająca
niezależne zdarzenia A i , A 2, . ■■ takie, że P ( A „ ) = pn.
U waga. Z tego zadania wynika, że przestrzeń dyskretna nie może być modelem
dla nieskończonego ciągu rzutów monetą.
11. Owad składa k jajeczek z prawdopodobieństwem ^ e ~ A, A > 0. Potomek
wylęga się z jaja z prawdopodobieństwem p, niezależnie od innych. Znaleźć
prawdopodobieństwo, że liczba potomków będzie równa l.
12. Adam, Barnaba i Czesław strzelają do tarczy; szansa trafienia wynosi p. Wia­
domo, że dwóch trafiło. Wybrać właściwą odpowiedź: a) jest większa szansa,
że Czesław trafił; b) jest większa szansa, że Czesław nie trafił; c) szanse są
równe.
13. Następstw a pozorne. Towarzystwo ubezpieczeniowe ma stałych klientów,
którzy powodują — w ciągu roku — wypadek z prawdopodobieństwem 0,01
§4.2. Schemat Bernoulliego
49
i 15% nowych klientów, powodujących wypadek z prawdopodobieństwem 0,4.
Prawdopodobieństwo, że dany klient będzie miał w ciągu roku wypadek jest
dla niego niezmiernie, niezależnie od tego czy miał wypadek poprzednio czy
nie. Zatem prawdopodobieństwo, że wybrany losowo klient będzie miał wy­
padek jest równe 0,0685, a prawdopodobieństwo, że będzie miał drugi, jeśli
wiemy, że miał pierwszy, jest równe 0,3516 (warto to obliczyć). Model za­
kłada, że nie ma następstw, a pomimo to spowodowanie wypadku zwiększa
szanse powtórnego wypadku. Wyjaśnić to.
14. W ariant poprzedniego zadania. Kierowcy dzielą się na ostrożnych (jest
ich 95%, i taki kierowca powoduje w ciągu roku wypadek z prawdopodobień­
stwem 0,01) i piratów (jest ich 5%, szansa na wypadek w ciągu roku — 0,5).
Wybrany losowo kierowca nie spowodował wypadku w roku 1998 ani 1999.
Jaka jest szansa, że spowoduje wypadek w roku 2000?
§4.2.
Schemat Bernoulliego
Jak wygląda przestrzeń probabilistyczna dla n doświadczeń, wykonywanych
niezależnie, gdzie z j-ty m doświadczeniem związana jest przestrzeń proba­
bilistyczna
Wynikiem n doświadczeń będzie ciąg ( w i , . . . , u n),
gdzie ojj jest wynikiem j-teg o doświadczenia. Zatem fl = Oi x Q2 x . . . x On.
Jasne, że T = T\ ®
® T n. Prawdopodobieństwo P powinno być takie,
że prawdopodobieństwo zajścia zdarzenia A j € T j jest równe P j(A j), tzn.
P ( A i x A 2 x . . . x A n) = P (A i x i l 2 x . . . x Qn) x . . .
. . . x P (Q 1 x . . . x A n) =
= P i(A 1) - P 2(A 2) - . . . - P n(A n).
Jak wiadomo z analizy matematycznej, istnieje dokładnie jedno takie praw­
dopodobieństwo: jest ono produktem miar P\ , . . . , Pn, tzn.
P = Pi ® P2 ®
® Pn-
Szczególnie ważnym przykładem takiej sytuacji jest schemat Bernoulliego.
Schematem Bernoulliego będziemy nazywać ciąg niezależnych powtórzeń
tego samego doświadczenia o dwu możliwych wynikach, nazywanych umow­
nie sukcesem i porażką. Poszczególne doświadczenia będziemy nazywać pró­
bami Bernoulliego.
T w ie rd zen ie 1. Prawdopodobieństwo zajścia dokładnie k sukcesów w sche­
macie Bernoulliego n prób z prawdopodobieństwem sukcesu w pojedynczej
próbie równym p wynosi (£)pfc( l —p)n~k.
D o w ó d . Umówmy się, że 1 oznacza sukces, 0 — porażkę. W tedy
n = { 0 ,1F ,
P ( { ( 0 l , . . . , o»)}) = p“ > + - + « - ( 1 - p ) » - ( « i + ~ + « »).
R ozdział 4. Niezależność zdarzeń
50
Jeśli Ak jest zdarzeniem, polegającym na zajściu k sukcesów, to
£
P {A k) =
P ( ( a 1, . . . , a n) ) = ( f \ p k( l - p r ~ k.m
(a1,...,a„):ai+...+a„=/c
Pojawiają, się naturalne pytania: jak skonstruować przestrzeń probabili­
styczną dla schematu Bernoulliego o nieskończonej ilości prób? W szcze­
gólności, jak zbudować ii dla nieskończonego ciągu rzutów monety syme­
trycznej? Zdarzeniem elementarnym jest ciąg (w j)?^ , gdzie Wj = 0 lub 1.
Zatem zdarzeń elementarnych jest nieprzeliczalnie wiele. Koncepcja przeli­
czalnego zbioru zdarzeń elementarnych już nie wystarczy (patrz też zadanie
10 z poprzedniego paragrafu).
P r z y k ła d 2. Podamy konstrukcję modelu nieskończonego ciągu niezależ­
nych prób Bernoulliego na przestrzeni probabilistycznej ((0,1], B ((0,1]), A).
Unikamy w ten Musimy określić dla każdego x € (0,1], czy zaszedł sukces czy porażka
sposób rozważania w ra-tym doświadczeniu, n = 1 , 2 . . . i tak, by to była realizacja doświad­
nieskończonych
czeń niezależnych. Zrobimy to indukcyjnie. Będziemy dzielić odcinek (0,1]
produktów miar
— por. uwaga 5. na odcinki lewostronnie otwarte i prawostronnie domknięte. W celu okre­
ślenia wyniku pierwszego doświadczenia podzielimy odcinek (0,1] na dwa
przedziały: / j 1^,
pierwszy o długości p, drugi o długości 1 — p ( gdy
x e j ^ , to uznajemy, że w pierwszym doświadczeniu zaszedł sukces, gdy
x e Ą 1^, to porażka).
Następnie (patrz rysunek) każdy z nich znowu dzielimy na dwa przedziały:
l [ 2l , Ą 2l oraz
o długościach odpowiedniop2 i p ( l —p) oraz (1 —p)p
i (l-p )(l-p ).
1— h
Kontynuujemy konstrukcję indukcyjnie. Zakładamy, że mamy podział (0,1]
na 2n przedziałów
e
° długościach
>
\
1 4 1 , .. ., J
=
- p ) - £ L > .
(1)
Dzielimy teraz każdy z nich na dwa przedziały, a mianowicie 4 ^ 2 , - . ¡„ dzielimy na dwa przedziały
;„,i i
•p oraz i 4 " L . . , d • t1 - ?)•
o 0 długościach odpowiednio
§4.2. Schemat Bernoulliego
51
W wyniku konstrukcji otrzymujemy ciąg podziałów odcinka (0,1]
G { 0 , 1 } } , « = 1,2,...
taki, że zachodzi (1) i każdy następny podział jest drobniejszy od poprzed­
niego.
Każdy punkt x 6 (0,1] wyznacza jednoznacznie nieskończony ciąg zer i je­
dynek: ( x i ,x 2 , . . . ) taki, ze x n = k, gdy x € 4 "? .. *
h (x n jest dobrze
określone, bo odcinki otrzymane w n-tym kroku są rozłączne i ich suma jest Patrz zad. 10
całym odcinkiem (0,1]). Taki ciąg odpowiada realizacji schematu Bernoul­
liego nieskończenie wielu doświadczeń, gdzie x n = 1 informuje, że w n-tym
doświadczaniu zaszedł sukces, zaś x n = 0 — że zaszła porażka. Niech
Ak = {x :x k = 1} =
4 ^ .... ifcl)1
Trzeba pokazać, że:
1. P(Afc) = |Afc| = p dla każdego fc > 1.
2. Doświadczenia są niezależne.
Ad. 1.
Zobaczmy, jak powstaje zbiór
Ak\po dokonaniu (k —l)-szego po­
działu odcinka (0,1] każdy odcinek z tego podziału dzielimy w proporcji
p : 1 — p i wybieramy wszystkie lewe odcinki powstałego fc-tego podziału.
Jeśli ktoś woli rachunki:
p (A fc) = p (
u
lifL-fc-Li)
=
Ad. 2. Na mocy definicji wystarczy pokazać, że wyniki doświadczeń od 1
do n-tego są niezależne. W tym celu sprawdzimy, że jest spełniony warunek
(iii) ze stwierdzenia 4.1.8. Z (1) wynika, że dla dowolnego ciągu e l t . . . e n,
gdzie £i e { 0 , 1 } , 1 < i < n, jest:
p (A \ i n . . . n A e
nn) = P ({ x : x i = l - e i , . . . , x n = i - £„ } ) =
= P (A ?)-...-P (^ ).
Krótko mówiąc, zdarzenie A j 1 fi . . . fi A£" jest pojedynczym odcinkiem
z n-tego podziału, który ma długość „taką, jak trzeba” .
Udowodniliśmy zatem, że ((0, lj, B (( 0 ,1]), A)-może być przestrzenią proba­
bilistyczną dla nieskończonego ciągu prób Bernoulliego.
Rozdział 4. Niezależność zdarzeń
52
Dla przykładu obliczmy w tej przestrzeni prawdopodobieństwo, że w n
pierwszych próbach zajdzie dokładnie k sukcesów.
P(zaszło dokładnie k zdarzeń spośród A i, A 2 , .. ., A n) =
= ( ^ p ( A 1 n A 2 n . . . n A k n Ą + 1 n . . . n A ,n) = ( ^ j p k( i - p T - k.
Przedstawiona tu konstrukcja jest co prawda żmudna, ale za to niezależ­
ność odpowiednich zdarzeń jest bezpośrednio widoczna (z innym podej­
ściem można się zapoznać w zad. 11 i 12).
Drobną wadę tej konstrukcji widać, gdy rozpatrzymy zdarzenia „wszyst­
kie próby zakończyły się sukcesami” i „wszystkie próby zakończyły się po­
rażkami” . Czytelnik zechce samodzielnie obliczyć ich prawdopodobieństwa
i zapoznać się z zadaniem 10. ■
U w a g a 3. Przypadek szczególny: p =
\ odpowiada przestrzeni probabi­
listycznej dla nieskończonego ciągu rzutów symetryczną monetą. W ted y
w konstrukcji w (n + l)-szym kroku dzielimy przedziały z n-tego podziału
na połowy.
Mogłoby się wydawać, że przy rzutach symetryczną monetą liczba orłów
i liczba reszek nie powinna różnić się znacząco, że powinna być mniejsza od
pewnej ustalonej liczby, np. 1 miliona. Ale tak nie jest, co pokazuje poniższy
przykład.
P r z y k ła d 4 . Rzucamy 2n razy symetryczną monetą. Niech
0 2n
(odpo­
wiednio R 2n) oznacza liczbę orłów (odpowiednio reszek). Dla ustalonego k
obliczyć łimn_*oo P(\02n - R2n\ < 2 k).
R o z w i ą z a n i e . Ponieważ
0 2n +
R 2n = 2n, to
n+k
P( \ 0 2 n - R 2 n \ < 2 k ) = P ( \ 0 2 n - n \ < k ) =
J2
P ( 0 2n = l) =
l = n —k
m ~ —k
\
x
/
N
'
Korzystając ze wzoru Stirlinga, mamy an w ^ = A i granica prawdopodo-
wzór Stirlinga: bieństw jest równa zeru. ■
U w a g a 5. Analogicznie jak w przypadku skończonej liczby doświadczeń
można pokazać, że dla nieskończonego ciągu niezależnych doświadczeń prze­
strzeń probabilistyczna jest równa fi = iii x O 2 x . . . , J7 jest cr-ciałem ge­
nerowanym przez cylindry, tzn. przez zbiory postaci A i x Ą
x . . . , gdzie
§4.2. Schemat Bernoulliego
53
A i € T i oraz A i =
poza skończoną liczbą wskaźników i, natomiast P
określone na cylindrach wzorem
oa
P ( A i x j4.2 x . . . ) = JJ P ( A i )
i= i
(dobrze określone, bo P ( A i ) = 1 poza skończoną liczbą indeksów) rozszerza
się na T (tutaj trzeba skorzystać z twierdzenia z analizy o nieskończonym
produkcie miar).
Zadania
1. Rzucono 10 razy kostką. Jaka jest szansa otrzymania
a) 6 oczek co najmniej raz?
b) 5 oczek dokładnie 3 razy?
2. Dwie osoby rzucają po n razy symetryczną monetą. Jakie jest prawdopodo­
bieństwo, że każda z nich otrzyma tę samą liczbę orłów?
3. Rzucono 10 razy symetryczną kostką. Jakie jest prawdopodobieństwo, że
w pierwszym rzucie otrzymano szóstkę, jeśli wiadomo, że
a) otrzymano 3 szóstki,
b) w następnych 9-ciu rzutach otrzymano szóstki?
4. Obliczyć prawdopodobieństwo otrzymania parzystej liczby sukcesów w ciągu
n prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie
równym p.
*Ek) Jakie jest prawdopodobieństwo, że liczba sukcesów w schemacie Bernoulliego
n prób z p = i będzie podzielna a) przez 3? b) przez 4? Czy można znaleźć
granice tych prawdopodobieństw, gdy n —> oo?
6. Zadanie Banacha o zapałkach. Pewien matematyk nosi w kieszeniach
(lewej i prawej) po jednym pudełku zapałek. Ilekroć chce zapalić papie­
rosa, sięga do losowo wybranej kieszeni. Jaka jest szansa, że gdy po raz pierw­
szy wyciągnie puste pudełko, w drugim będzie k zapałek? (k = 0, 1, 2 . . . ,m ,
gdzie m jest liczbą zapałek w pełnym pudełku; zakładamy, że w chwili po­
czątkowej matematyk ma dwa pełne pudełka).
7^) Zadanie o podziale stawki1. Szansa wygrania pojedynczej partii gry przez
- gracza A wynosi p, i do zakończenia całej gry brakuje mu o wygranych partii;
jego przeciwnikowi brakuje b wygranych partii. Niestety, pojedynek musi
zostać przerwany. Jak sprawiedliwie podzielić stawkę?
8. Student musi poprawić oceny niedostateczne z dwóch przedmiotów. Szansa
poprawienia oceny z pierwszego przedmiotu w jednej próbie wynosi p, a dru­
giego — q. Żeby móc poprawiać drugą ocenę, trzeba najpierw poprawić
pierwszą. Poszczególne próby poprawiania są niezależne. Wiadomo, ze po
piętnastu próbach poprawienia oceny student jeszcze nie poprawił oceny
1
Zadanie to w wersji symetrycznej byio przedmiotem korespondencji Pascala z Fermatem w roku 1654 i uznawane jest za początek teorii prawdopodobieństwa.
Rozdział 4. Niezależność zdarzeń
54
z drugiego przedmiotu. Jaka jest szansa — pod tym warunkiem — że nie
poprawił jeszcze oceny z pierwszego przedmiotu?
9. Jakie jest prawdopodobieństwo, że przy wielokrotnym rzucaniu parą kostek
sześciennych suma oczek 8 wypadnie przed sumą oczek 7?
10. Czy w modelu z przykładu 2 każdemu nieskończonemu ciągowi prób Bernoulliego odpowiada liczba z przedziału (0,1]? Udowodnić, że tak nie jest.
Scharakteryzować takie ciągi prób i wykazać, że nie prowadzi to do istotnych
trudności, bo prawdopodobieństwa wszystkich zdarzeń są takie, jak trzeba.
Inny opis konstrukcji z przykładu 2. Niech przekształcenie T : [0,1] —►[0,1]
będzie dane wzorem
( dla 0 < x ^ p
r W = { f e
dJap<,<l.
Oznaczmy T n = T o T o . . . o T. Niech
V1
"V
n razy
. _ f I
■'W
~ \ 0
dla 0 < x < p
dlap<a:<l.
*1 1 . Wykazać, że zdarzenia
A n = { u e [0, 1]: / o T n(u ) = 1},
n = 1, 2, . . .
są niezależne.
Jeśli Czytelnik już wie, co to jest zmienna losowa, może rozwiązać następujące
zadanie:
*1 2 . Niech / , T będą jak w poprzednim zadaniu. Udowodnić, że ( / o T n) jest
ciągiem niezależnych zmiennych losowych, przy czym dla każdego n £ N
P { f o r = 1) = p, P ( f o T n = 0) = 1 —p.
§ 4.3.
Lemat Borela-Cantelliego
Lemat Borela-Cantelliego jest narzędziem pomocniczym, z którego będzie­
my w dalszym ciągu wielokrotnie korzystać przy badaniu własności zacho­
dzących z prawdopodobieństwem 1. Dostarcza on informacji o prawdopo­
dobieństwach zdarzeń typu „zaszło nieskończenie wiele zdarzeń A n” .
Zaczniemy od definicji granicy górnej i dolnej ciągu zdarzeń (A n)™= 1.
D e fin ic ja 1. Granicą górną i odp. dolną ciągu zdarzeń (A n) nazywamy
zdarzenia
lim sup A n =
OO
OO
P|
(J A n,
m —1 n = m
lim inf A n =
OO
co
(J
Q
m =1 n=m
A n.
§4.3. Lemat Boreła-Cantelliego
55
U w a g a 2. a) u> e limsupj4n wtedy i tylko wtedy, gdy ui należy do nie­
skończenie wielu wyrazów ciągu (A n)£Lib) w £ lim inf A n wtedy i tylko wtedy, gdy w należy do wszystkich wyrazów
ciągu (j4„)^L1, poczynając od pewnego miejsca.
c) (lim inf A„ ) ' = lim sup AJ,.
d) (lim sup A n)' = lim inf A'n.
D o w ó d , a) Dla granicy górnej mamy:
CO
u> € lim sup A n <ś>Vm ui £ (J A n &
n=m
^
3(nk)
^
| O O Ul (z
A ni_,
co m a miejsce wtedy i tylko wtedy, gdy u> należy do nieskończenie wielu A n
(oznaczenie: { A n n .c.}, czyli A n zachodzi nieskończenie często).
b) D la granicy dolnej mamy:
OO
ui € lim inf A n
3m = m(ui) w € P| A n <4- u € A n dla n ^ m.
n=m
c) Z praw de Morgana:
OO
lim sup A!n =
P)
OO
CO
m = ln = m
OO
= ii\
/
OO
( J J4 ^ = P | i a \ P | J4
m =l '
n=m
OO
U n An= ^\ liminf
m=l n=m
d) Oczywiste z punktu c. ■
T w ie rd ze n ie 3 (L e m a t B o r e la -G a n te llie g o ).
(i) Jeśli J2n=ip (A n) < oo, to P(lim sup.An) = 0.
(ii) Jeśli zdarzenia A i, A%, . . . są niezależne i
P ( A n) = oo, to
P (lim sup A n) = 1.
U w a g a 4 . a) Z uwagi 2c wynika, że l i m s u p = (liminf A'n)', zatem
P (łim su p A n) = P((lim inf A'n)') = 1 — P (lim inf A'n).
Stąd tezę punktu (i) twierdzenia można sformułować w następujący sposób:
P (lim inf A!n) = 1, tzn.
P(zachodzi skończona liczba zdarzeń A n) = 1.
Rozdział 4. Niezależność zdarzeń
56
b) Warunek niezależności w punkcie (ii) można osłabiać na różne sposoby,
ale coś jednak trzeba założyć, bowiem jeśli A n = A i 0 < P ( A ) < 1, to
Z P ( A n ) = oo i lim su p A n = A.
D o w ó d twierdzenia.
(i) Korzystając z tw. 1.7 o ciągłości oraz z subaddytywności, otrzymujemy
OO
p ( •n
1
OO
OO
u
v/
=
m = l n=m
oo
mHm
—*oo p ( u
v*-/
<
n —m
mnm
—*oo e
'
p (A « ) =
n=m
jako reszta szeregu zbieżnego.
(ii) Pokażemy, że P (lim in f A!n) = O, tzn. - P O X U f X L m -¿ń) = 0. W y ­
starczy pokazać, że dła każdego m mamy P ((~)^=m A'n) = 0. Korzystając
z twierdzenia o ciągłości, niezależności i oszacowania 1 + x < ex , otrzymu­
jemy
00
N
N
p( 1
n I K ) = yy—
nm
n -*• p ( A n) = N—
um
^oq -Ł
>00 n
n=m
n —m
(! -
<
n=m
N
< Jim
N ~*oo
bo £n = m
P (A n) =
N
J I exp(—P ( A n)) =
A
lim e x p ( - V
N~-*oo
n~m
P ( A n)) = 0,
n —m
OO- ■
P r z y k ła d 5. W nieskończonym ciągu prób Bernoulliego z prawdopodo­
bieństwem sukcesu p e (0, 1) w pojedynczej próbie, ciąg PSSSP powtó­
rzy się z prawdopodobieństwem 1 nieskończenie wiele razy.
Niech A n oznacza zdarzenie, że w próbach o numerach n, n + 1, n + 2, ra+3,
n 4- 4 otrzymaliśmy PSSSP. Oczywiście P ( A n) = p 3( 1 — p )2. Nie możemy
jednak zastosować lematu Borela-Cantelliego bezpośrednio do zdarzeń A n,
gdyż nie są one niezależne. Żeby obejść tę trudność, rozpatrujemy zda­
rzenia opisane przez rozłączne ciągi prób: zdarzenia A 5n, n = 1 , 2 , . . . są
już niezależne i
p iA 5 n) — Y ^ = i P3( 1 ~~ P)2 =
wi?c 2 lematu
Borela-Cantelliego z prawdopodobieństwem 1 zajdzie nieskończenie wiele
spośród zdarzeń (A^n), więc tym bardziej spośród (An). m
P r z y k ła d 6. Rzucamy nieskończenie wiele razy niesymetryczną monetą.
Niech A n oznacza zdarzenie, że w pierwszych n rzutach było tyle samo or­
łów, co reszek. W tedy z prawdopodobieństwem 1 zachodzi skończona liczba
zdarzeń A nIstotnie, P ( A 2n- i ) = 0, P ( A 2n) =
(2” )pn( 1 - p )n «
wzoru Stirlinga. Wobec tego £ P ( A n) <
z lematu Borela-Cantelliego. ■
oo (bo p
na mocy
|) i teza wynika
§4.3. Lemat Borela-Cantelliego
57
Zadania
1. Zdarzenia A i , . . . , A n, . . . są niezależne i mają równe prawdopodobieństwa.
Jaka jest szansa, że zajdzie skończenie wiele zdarzeń A „ ?
* 2 . Rzucamy nieskończenie wiele razy symetryczną monetą. Niech A n oznacza
zdarzenie, że w pierwszych n rzutach było tyle samo orłów i reszek. Wykazać, Por. przykład 6
że z prawdopodobieństwem 1 zachodzi nieskończenie wiele zdarzeń A n .
U waga. Zadanie staje się łatwe, gdy skorzystamy z teorii łańcuchów Markowa.
3. W nieskończonym ciągu prób Bernoulliego z prawdopodobieństwem sukcesu
w pojedynczej próbie równym p 6 (0 , 1) niech zdarzenie A n polega na tym,
że w próbach o numerach 2 ” , 2 ” + 1 , . . . 2n+1 —1 zajdzie kolejno n sukcesów.
Udowodnić, że jeśli p < 5 , to z prawdopodobieństwem 1 zajdzie skończe­
nie wiele zdarzeń A n, a gdy p ^
to z prawdopodobieństwem 1 zajdzie
nieskończenie wiele zdarzeń An.
4. Niech A n będą zdarzeniami niezależnymi, przy czym P (A n) = pn € (0,1).
Wykazać, że zachodzi co najmniej jedno ze zdarzeń A „ wtedy i tylko wtedy,
gdy z prawdopodobieństwem 1 zachodzi nieskończenie wiele zdarzeń A n.
Rozdział 5
Zmienne losowe
§ 5.1.
Definicja; rozkład zmiennej losowej
Bardzo często z wynikiem doświadczenia losowego wiąże się w naturalny
sposób pewną liczbę albo ciąg liczb. Mamy wtedy do czynienia ze zmienną
losową.
Może to być liczba oczek przy rzucie kostką, suma oczek wyrzuconych
w kilku rzutach kostką, czas oczekiwania na autobus, itd. Właściwie wszyst­
kie omówione wcześniej przykłady po niewielkiej adaptacji mogłyby się
znaleźć na tej liście, wraz ze wszystkimi znanymi Czytelnikowi grami lo­
sowymi (ruletka, Toto-Lotek, trzy karty, bingo...). Zmienną losową byłaby
wypłata. Z kolei każda sesja warszawskiej giełdy produkuje cały ciąg liczb.
Są to kursy wszystkich (powiedzmy, prawie wszystkich) notowanych spółek.
A jeśli w grę wchodzą notowania ciągłe? Teraz kursy mogą się zmieniać
w dowolnej chwili, i jeśli nasze doświadczenie losowe polega na obserwacji
kursu ustalonej spółki przez pewien czas, to jego wynikiem jest pewna funk­
cja. Wobec tego naturalnym zbiorem wartości zmiennej losowej może być
na przykład przestrzeń funkcji ciągłych (albo schodkowych) na odcinku.
Ogólniej, można rozpatrywać zmienne losowe o wartościach w praktycznie
dowolnej przestrzeni, a nie tylko w R czy też R n.
Jak się niebawem okaże, pewne proste charakterystyki liczbowe zmiennych
losowych pozwalają szybko ocenić opłacalność gier losowych; warto zatem
zapoznać się z dalszą częścią tego rozdziału.
Kojarzenie doświadczeń z liczbami zależy od subiektywnych ocen i potrzeb,
dlatego w jednym doświadczeniu losowym mogą pojawić się różne odwzo­
i
rowania X : fi —> R , przypisujące każdemu wynikowi doświadczenia u> e fi
liczbę rzeczywistą. Na przykład: wiele osób obserwuje kursy akcji na gieł­
Gracz giełdowy
ma portfel akcji.
dzie. Każdy z graczy ma inny zestaw akcji, więc zysk (na papierze) każdego
z nich będzie inny. Mamy tu wiele różnych zmiennych losowych określonych
na tej samej przestrzeni fi, co w naturalny sposób prowadzi do odwzorowa­
nia X : fi —> R n , gdzie n jest liczbą graczy.
58
§5.1. Definicja; rozkład zmiennej losowej
59
Zdefiniujemy teraz zmienną losową o wartościach w R n , którą będziemy
nazywali także wektorem, losowym, n-wymiarową zmienną losową albo po
prostu zmienną losową. Tej ostatniej nazwy będziemy jednak najczęściej
używać w stosunku do zmiennej losowej o wartościach w R .
D efin icja 1. Odwzorowanie X : fi —> R n nazywamy zmienną losową o war­
tościach w R n, jeśli dla każdego A € B (R n) zbiór X _ 1 (j4) £ T .
Przyjęło się
określenie
Krótko mówiąc, X jest zmienną losową, jeśli jest odwzorowaniem mierzal­ „zmienna losowa” ,
choć niektórzy
nym (fi,T ) w ( R " , S ( R n)).
twierdzą, że
Definicja zmiennej losowej gwarantuje, że prawdopodobieństwa wszystkich należałoby mówić
zdarzeń związanych ze zmienną losową, czyli zdarzeń postaci X ~ 1(A ), gdzie o funkcjach
losowych.
A e Z3(Rn), będą dobrze określone.
Jeśli zbiór fi jest przeliczalny i T = 2n , to każde odwzorowanie X : fi —> R n
jest zmienną losową. Taką definicję zmiennej losowej, gdzie n = 1, można
spotkać w szkolnych podręcznikach rachunku prawdopodobieństwa.
Dla wektorów losowych można sformułować pozornie słabszy warunek mierzalności.
Stw ierd zen ie 2. Jeśli odwzorowanie X : fi —> R n spełnia następujący wa­
runek: dla każdego układu liczb
t 2 , ■. . , i„ e R zbiór
X _ 1(( -oo, i! ]
X ... X
( - o o , f n])
należy do T , to X jest wektorem losowym (czyli zmienną losową o warto­
ściach w R n). ■
D o w ó d . Wystarczy zauważyć, że rodzina zbiorów
{ A c R " : X - 1(. A)e. 7r}
jest cr-ciałem zawierającym wszystkie zbiory postaci ( —oo, ii] x . . . (—oo, tn],
a więc wszystkie zbiory boręlowskie. ■
Funkcją borelowską nazwiemy taką funkcję ip: R n —» R m, że przeciwobrazy
zbiorów borelowskich w R "? są zbiorami borelowskimi w R n.
Złożenie wektora losowegci z taką funkcją jest dalej wektorem losowym:
Stw ierd zen ie 3. N ieci, X
będzie zmienną losową o wartościach w R n,
a <p: R ” —►R m funkcją borelowską. Wtedy p (X ) jest zmienną losową o war­
tościach w R m.
D o w ó d . Jeśli B € B{R m), to y>~l (B ) e B (R U), a ponieważ X jest zmienną
losową, to
(< p {X )r 1{B) = X - \ < p- \ B ) ) e f . »
60
Rozdział 5. Zmienne losowe
Dlatego, na przykład, jeśli X jest zmienną losową, to Y = |X| i Z = e * są
zmiennymi losowymi.
Na zmiennych losowych można wykonywać wszystkie operacje, które są wy­
konywalne na funkcjach mierzalnych, i dalej pozostawać w klasie zmiennych
losowych.
Zmienne losowe o wartościach w R są zwykłymi funkcjami mierzalnymi, na
których można wykonywać zwykłe operacje algebraiczne: dodawanie i mno­
żenie, co ma zresztą naturalną interpretację — chociażby zyski graczy gieł­
dowych, o których była wcześniej mowa, można dodawać. Sam zysk gracza
jest wynikiem prostych operacji na innych zmiennych losowych.
Ogólniej: każda funkcja Y : fi —> R fc, która da się zdefiniować za pomocą
funkcji elementarnych i działań przeliczalnych (w tym lim, limsup, lim inf,
sup, inf) na wektorach losowych X i , X 2, . . . jest ^-wymiarową zmienną lo­
sową (ostrzeżenie: patrz zad. 1).
W a ż n a u m o w a . Zmienne losowe X i Y równe z prawdopodobieństwem 1
są nieodróżnialne z punktu widzenia teorii, bowiem szanse przyjęcia warto­
ści ze zbioru borelowskiego A są dla obu zmiennych równe, co zapisujemy:
P ( X 6 l ) = P ( Y € A ) dla wszystkich A 6 # ( R " ) . Dlatego przyjmiemy
umowę, że napis X = Y oznacza równość z prawdopodobieństwem 1 (ina­
czej: prawie na pewno), czyli P ( X = Y ) = 1. W paru przypadkach, w któ­
rych potrzebna będzie równość wszędzie, zostanie to jawnie powiedziane. Z
drugiej strony, czasem będziemy chcieli podkreślić, że X = Y p.n.
Ze zmienną losową wiążą się w naturalny sposób dwa obiekty: generowane
przez nią a-ciało zdarzeń oraz jej rozkład, prawdopodobieństwa.
D e fin ic ja 4 . a-ciałem generowanym przez zmienną losową X
o warto­
ściach w R n nazywamy najmniejsze a-ciało podzbiorów fi, względem którego
X jest mierzalna.
„Najmniejsze” c-ciało, o którym tu mowa, to część wspólna wszystkich
cr-ciał, względem których X jest mierzalna. Będziemy je oznaczać przez
dalej cr-ciałem. a ( X ) . Oczywiście cr(X) C T . Można podać dokładną charakteryzację zda­
Część wspólna
rodziny cr-cial jest
rzeń, należących do cr(X).
S tw ierd zen ie 5 . a ( X ) = { ^ ( B ) : B 6 B (R n) } .
D o w ó d . Oznaczmy T x = { X ^ 1( B ) :B e i ? ( R ") } . Z własności przeciwo(
brązów wynika natychmiast, że ta rodzina zbiorów jest cr-ciałem. Z definicji
cr(X ) wynika, że a ( X ) C T x , ponieważ X jest mierzalna względem T x Żeby udowodnić zawieranie przeciwne, weźmy dowolny zbiór należący do
T x ■ Jest on postaci X ~ 1(A ), gdzie A € B (R n), zatem musi należeć do
każdego cr-ciała, względem którego X jest mierzalna. A to właśnie oznacza,
że T x C cr(X). ■
'61
§5.1. Definicja; rozkład zmiennej losowej
Teraz zdefiniujemy rozkład prawdopodobieństwa zmiennej losowej. Odwzo­
rowanie X : (il,P ) —> (R n,B (R n)) umożliwia naturalny „transport" praw­
dopodobieństwa P do przestrzeni R n.
D e fin ic ja 6. Rozkładem prawdopodobieństwa na R n nazywamy każdą mia­
rę probabilistyczną fj, na ¿3(Rn).
D e fin ic ja 7. Rozkładem prawdopodobieństwa zmiennej losowej X o war­
tościach w R n nazywamy rozkład prawdopodobieństwa fi x , określony na
B ( R n) zależnością
V x {B ) = P ( X - \ B ) ) ,
B e B(R n).
Zdefiniowana w ten sposób miara zawiera wszelkie interesujące z punktu
widzenia probabilistycznego informacje o zmiennej losowej X : o jej zbiorze
wartości i tym, jak prawdopodobieństwo jest na tym zbiorze rozłożone. Do­
kładniej, otrzymaliśmy nową przestrzeń probabilistyczną: (R n, B (R n), ¡xx)- Dodatkowy zysk:
W arto jeszcze raz podkreślić, ze rozkład prawdopodobieństwa nie musi być zamiast
kojarzony z konkretną zmienną losową: rozkładem prawdopodobieństwa na- abstrakcyjnej
zwaliśmy dowolną unormowaną miarę fi na B (R n). Czytelnik zechce się
zastanowić, jak wtedy skonstruować zmienną losową, dla której fi jest roz- pracujemy
kładem prawdopodobieństwa (albo krótko: rozkładem).
w konkretnej
I uwaga dotycząca oznaczeń. P ( X ~ 1(B )) można zapisywać tak:
^ r ^ r T / I yT.
P ( X _ 1 (B) ) = P ({w 6 Q :X ( u ) € B } ) = P ( X e B ).
Ostatniej, skrótowej notacji będziemy używać najczęściej. Fakt, że zmienna
losowa X ma rozkład prawdopodobieństwa ft, będziemy zapisywać krótko:
X ~/z.
Przypomnijmy sobie teraz przykład 1.1.10. Była tam mowa o czasie oczeki­
wania na autobus. Ustaliliśmy, że O = [0,oo) i P {A ) = f A f ( x ) dx, A £ T .
Przyjmując JF = B{R ) otrzymamy sensowny model, jeśli tylko / jest mie­
rzalna względem B(R ). Zmienną losową X będzie sam czas oczekiwania,
zatem I ( u ) = u , w 6 [0,oo). W takim razie
Powyższa zależność definiuje gęstość rozkładu prawdopodobieństwa (albo
krócej — gęstość prawdopodobieństwa). Ponieważ umiemy całkować wzglę­
dem miary Lebesgue’a po R n, warto przyjąć definicję ogólniejszą:
D e fin ic ja 8. Jeśli fi jest rozkładem prawdopodobieństwa na R n i dla pew­
nej funkcji f : R n —> R całkowalnej w sensie Lebesgue’a mamy
(1)
to f nazywamy gęstością rozkładu fi.
Rozdział 5. Zmienne losowe
62
Funkcję / przyjęto nazywać gęstością, gdyż jest ona odpowiednikiem gę­
stości masy w fizyce. Jeśli / : R —> R , to w punktach ciągłości funkcji /
mamy
[ x+h f ( s ) ds — [ x
f ( x ) = lim J~ °°
;
Jv '
n-*0
h
f(s )d s
a(\x x + h))
..- = iim
h-*0
h
Rozkład, który ma gęstość, będziemy nazywać rozkładem ciągłym. A oto
podstawowe własności gęstości:
T w ie r d z e n ie 9. Niech f będzie gęstością rozkładu prawdopodobieństwa fj,
na R n . Wtedy
W ł aściwie
powinno się
mówić
0 rozkładach
absolutnie
ciągłych
względem miary
Lebesgue’a.
(i) f Rn f ( x ) dx = p ( R ” ) = 1.
(H) / > 0 P-w- (czyli poza zbiorem o mierze Lebesgue a zero).
(Hi) Gęstość jest wyznaczona jednoznacznie z dokładnością do zbiorów
miary Lebesgue ’a zero.
Ponadto każda funkcja f : R " —» R spełniająca warunki (i) i (ii) jest gęsto­
ścią.
ujem n°Zgęstości U w a g a 1 0 . Z twierdzenia 9 wynika, że funkcja / : R n —> R jest gęstością
1 tak będą się pewnego rozkładu prawdopodobieństwa wtedy i tylko wtedy, gdy /
pojawiać p.w. względem miary Lebesgue’a i f Rn f ( x ) d x = 1.
w najmniej
stosownych
momentach, czyli D o w o d . (żi) Istotnie, niech,
na egzaminach.
A k = { x e R n: } ( x ) < - 1 / f c } ,
A = { x e R n: f( x ) < 0 }.
> 0
W ted y
0 < n (A k) =
[
f ( x ) dx <
(A k),
JA k
gdzie A(Afc) oznacza miarę Lebesgue’a zbioru A k. Stąd A(ylfc) = 0, zatem
i A( A) = A((J” i A k) = 0.
(iii) W ystarczy zauważyć, że jeśli f i i f i są gęstościami rozkładu ¡jl, a
B k = { x £ R » : h ( x ) - f 2(x) < - l / k } ,
i
to
0 = [
( f i ( x ) - f 2 ( x ) ) d x < ~ X ( B k),
JB k
skąd A (Bk) = 0, i podobnie jak w poprzednim punkcie,
A ({x € R n: fi (x ) - f 2(x) < 0 }) = 0.
§5.1. Definicja; rozkład zmiennej losowej
63
Teraz ze względu na symetrię
A ( { i e R " : / 2( i ) - / 1( i ) < 0 } ) = 0 .
W takim razie f i =
wszędzie, poza zbiorem miary zero.
Na zakończenie, jeśli / spełnia warunki (i) i (ii), to jest gęstością rozkładu
zdefiniowanego przez równość (1). ■
Zajmiemy się teraz rozkładami z przeciwnego bieguna: rozkładami dyskret­
nymi. .Niech X będzie wynikiem rzutu symetryczną kostką. W tedy
V x ( { i } ) = P ( X = i) =
Rozkład
gdy i = 1 , 2 , . . . , 6 .
jest skupiony na zbiorze { 1 , 2 , . . . , 6 }, czyli
6 1
H x(A ) = ¡ix ( A fi { 1 , 2 , . . . , 6}) = ^ 2 gl A( i ) .
¿=1
Ogólniej, będziemy rozpatrywać rozkłady skupione na zbiorze przeliczal­
nym (skończonym lub nieskończonym).
Rozkłady
D e fin ic ja 11 . Rozkład ¡i na R n nazywamy dyskretnym, jeśli istn ieje zbiór dyskretne
przelicza ln y S C R " , dla którego fi(S) = 1.
nazywa się czasem
skokowymi.
Rozkład dyskretny daje się opisać bardzo prosto, podobnie jak rozkład
liczby oczek przy rzucie kostką, wystarczy bowiem podać zbiór S i miary,
przypisane jego jednopunktowym podzbiorom. Niech S = {s ;: i 6 I } , pi =
= /x ({sj}) dla i £ J, gdzie I jest przeliczalnym zbiorem wskaźników, użytym
do ponumerowania elementów zbioru S. W tedy
/i(A) = /i(A n S) = ^ j 3 i l A(si),
ie i
zatem podanie zbioru par {(si,P i):i £ 1 } jest równoważne zdefiniowaniu
rozkładu /i. Dlatego w podręcznikach szkolnych rozkładem zmiennej losowej
nazywa się zbiór par {(s i,p i):i £ I } , gdzie Pi > 0, £ ieiPi = 1Jak się niedługo przekonamy (zad. 8), istnieją rozkłady, które nie są ani
ciągłe, ani dyskretne.
D la rozkładów prawdopodobieństwa na R n można zdefiniować dystrybuantę: funkcję rzeczywistą, która jednoznacznie wyznacza rozkład (czyli za­
wiera pełną informację o nim), a jednocześnie jest obiektem prostszym do
badania niż rozkład.
D e fin ic ja 12 . D ystrybuantą rozkładu prawdopodobieństwa ¡j, na R n nazy­
w am y fu n k cję F^: R n —> R , określoną zależnością
F p i(tl,---,tn ) = *i((-o o ,ti] x . . . x ( - 00 , tn]).
Rozdział 5. Zmienne losowe
64
U w aga 13. Jeśli n x jest rozkładem zmiennej losowej X o wartościach
w R n, dystrybuantę Fpx będziemy też nazywać dystrybuantą zmiennej
losowej X i oznaczać przez Fx- Wtedy
Są dwa style
definiowania
dystrybuanty:
rosyjski — z
nierównościami
ostrymi w (2) —
i amerykański —
z nieostrymi.
Ten styl
amerykański to
właściwie
atlantycki.
Zresztą, jak
donoszą, sytuacja
jest na niektórych
obszarach płynna.
F x(t i, ■••, in) = P (X i ś t i , . . . , X n ś t n).
( 2)
Na początku tego paragrafu wspomnieliśmy, że można rozpatrywać zmienne lo­
sowe o wartościach w prawie dowolnej przestrzeni. Rozsądny stopień ogólności
uzyskuje się dla zmiennych losowych o wartościach w przestrzeni metrycznej,
ośrodkowej i zupełnej (zwanej często przestrzenią polską). Pozwala to w szczegól­
ności badać zmienne losowe o wartościach w przestrzeniach Hilberta i Banacha.
Na przykład proces Wienera, o którym jest mowa w rozdziale 13, jest zmienną
losową o wartościach w przestrzeni funkcji ciągłych na odcinku [0, 1],
W przestrzeni metrycznej E ma sens pojęcie zbioru otwartego i naturalnym
(j-ciałem jest rodzina zbiorów borelowskich B(E ): najmniejsze c-ciało, zawiera­
jące zbiory otwarte. Zmienne losowe są w tym przypadku odwzorowaniami mie­
rzalnymi (n,:F) w (E ,B (E )).
Definicję i podstawowe twierdzenia o zmiennych losowych o wartościach w prze­
strzeni polskiej E uzyskuje się bardzo prosto: z niniejszego paragrafu należy usu­
nąć wszystko, co dotyczy dystrybuant i gęstości, a następnie napis „R n” zastąpić
napisem „E ". Zwróćmy uwagę, że tę operację przetrwa definicja rozkładu dys­
kretnego.
Zadania
1.
Wykazać, że jeśli (X a ) a e A są zmiennymi losowymi, A
czalnym, to supagj4X a nie musi być zmienną losową.
—
zbiorem nieprzeli­
2. Wykazać, że jeśli X jest zmienną losową, ip: R —> R jest funkcją mierzalną
względem ir-ciała zbiorów mierzalnych w sensie Lebesgue’a, to <p(X) nie musi
być zmienną losową.
3. Udowodnić, że X = ( X i , . . . , X n) jest wektorem losowym wtedy i tylko
wtedy, gdy X i jest zmienną losową dla każdego i ^ n.
4. Znaleźć c-ciało generowane przez zmienną losową X , gdy:
a) Rzucamy symetryczną kostką. X przyjmuje wartość 1, gdy wypadła pa­
rzysta liczba oczek, 2 — jeśli nieparzysta.
b) Losujemy punkt z koła K(a, 1), X (w ) = \w —o|.
5. Rozkład geometryczny. Wykonujemy doświadczenia Bernoulliego aż do
chwili otrzymania pierwszego sukcesu. Niech X oznacza liczbę wykonanych
doświadczeń, Y — czas oczekiwania na pierwszy sukces. Wyznaczyć rozkłady
zmiennych losowych X i Y .
6 . Rozkład wykładniczy. Przypuśćmy, że doświadczenia opisane w zadaniu
5 wykonuje się n razy na sekundę, zaś prawdopodobieństwo sukcesu wynosi
A/n, gdzie A > 0, a czas oczekiwania na pierwszy sukces, X n, mierzy się
w sekundach. Wyznaczyć dystrybuantę zmiennej losowej X n i zbadać jej
zachowanie przy n —> oo.
§5.1. Definicja; rozkład zmiennej losowej
65
7. Punkt x nazywamy punktem skokowym rozkładu p, gdy p ({x }) > 0. Poka­
zać, że rozkład prawdopodobieństwa fi może mieć co najwyżej przeliczalną
liczbę punktów skokowych.
8. Niech pi będzie rozkładem ciągłym z gęstością f ( x ) = l ( 0ji)(:r), a p 2 roz­
kładem jednopunktowym skupionym w zerze: M2( { 0} ) = 1. Pokazać, że p, =
= |(pi + Pi) nie ma ani rozkładu dyskretnego, ani ciągłego.
9. a) Wykazać, że jeśli p, jest rozkładem prawdopodobieństwa na R " , to
Pj{B ) = /i(R x . .. x R x
x R x ...x R ),
j? — te m iejsce
Konia z rzędem
temu, kto wymyśli
i upowszechni
bardziej poręczny
zapis.
gdzie B e £S(R), jest rozkładem prawdopodobieństwa (nazywamy go (jedno­
wymiarowym) rozkładem brzegowym rozkładu p).
b) Zdefiniować rozkład brzegowy wielowymiarowy.
Zadanie 9b
10. Udowodnić, że rozkład p. na R n jest dyskretny wtedy i tylko wtedy, gdy dla najlepiej
każdego j ^ n rozkład brzegowy pj jest dyskretny.
rozwiązać
11. Udowodnić, że jeśli rozkład p. jest ciągły, to wszystkie rozkłady brzegowe są
ciągłe.
12. Podać przykład, że implikacja odwrotna w zadaniu 11 nie zachodzi.
13. Podać przykład, że znajomość rozkładów brzegowych nie wystarcza do od­
tworzenia pierwotnego rozkładu.
14. Wektor losowy U = (X,Y,Z) ma następującą własność: zmienna losowa
aX + bY + cZ ma rozkład jednostajny na [—1,1] (rozkładem jednostajnym na
odcinku nazywamy rozkład o stałej gęstości na tymże odcinku), jeśli tylko
a2 + b2 + c2 = 1. Jaki rozkład ma £/?
15. Wykazać, że jeśli X ma rozkład dyskretny X ~ {(x i, P i)is /}, aip jest funkcją
borelowską, t o K = y (X ) ma rozkład dyskretny:
P(Y = y )=
Y,
Pi-
16. Wykazać, że rozkłady: geometryczny (w jednej z podanych wersji) i wy­
kładniczy mają następującą własność braku pamięci zwaną też własnością
Markowa: jeśli X jest zmienną losową o danym rozkładzie, to
P(X > t + s\X>t) = P ( X > s),
gdzie w przypadku rozkładu ciągłego t,s & R + , a dyskretnego t,s € N.
Wykazać, że jedynym rozkładem ciągłym na [0,00) z własnością braku pa­
mięci jest wykładniczy, a jedynym skupionym na liczbach naturalnych —
geometryczny.
17. R ozk ład pierw szej cyfry znaczącej. Wylosować ok. 100 liczb z rocznika
statystycznego i sprawdzić, ile z nich ma pierwszą cyfrę znaczącą 1, 2, . . . ,
9. Wyjaśnić wyniki.
w pamięci.
Rozdział 5. Zmienne losowe
66
R ozk ła d w yk ła dn iczy w dem ografii. Zmienna losowa o rozkładzie wykład­
niczym jest dobrym modelem czasu oczekiwania na rozpad promieniotwórczy
cząstki. Nieco trudniej uwierzyć, że był to kiedyś akceptowany model czasu życia
człowieka. W dzisiejszych warunkach postulat braku pamięci (który można także
sformułować jako brak starzenia się układu) wydaje się absurdalny w świetle
ogólnie dostępnych statystyk. Jeśli nieujemna zmienna losowa X interpretowana
jako czas życia ma własność braku pamięci, to przeciętne dalsze trwanie życia nie
powinno zależeć od wieku.
Przeciętne dalsze trwanie życia w chwili t można zdefiniować formalnie jako śred­
nią wartość X na zbiorze { X > i } minus t:
<
>
0
-
Wybiegliśmy tu nieco w przyszłość, bowiem tego rodzaju średnimi będziemy zaj­
mować się dopiero w rozdziale 6. Otóż własność braku pamięci jest równoważna
z tym, że przeciętne dalsze trwanie życia jest stale (odpowiednie twierdzenie —
patrz zad. 6.2.5).
T abela 1. Przeciętne dalsze trwanie życia w Polsce w 1997 roku1.
0
68,5
77,0
Wiek
Mężczyźni
Kobiety
30
40,4
48,2
15
54,5
62,9
60
16,1
20,8
45
27,1
33,9
Gdyby czas życia mieszkańca Polski miał rozkład wykładniczy, 60-letnia emerytka
miałaby przed sobą średnio nie 21, a 77 lat (bo taki jest średni czas życia). Z tabeli
1 widać jeszcze coś: o ile noworodek płci żeńskiej średnio dożywa 77 lat, to kobieta
30-letnia — 78,2 lat, a 60-letnia — 80,8 roku.
Pierwsze znane tabele śmiertelności zostały opublikowane przez Johna Graunta
w 1662 roku. Opierały się one na tygodniowych zestawieniach chrztów i pogrze­
bów, prowadzonych przez londyńskie parafie od 1603 roku.
T abela 2 . Liczba osób dożywających do danego wieku wg. Graunta2 (1662).
Wiek
Liczba osób
0
100
6
64
16
40
26
25
36
16
46
10
56
6
66
3
76
1
Można przypuszczać (jak zauważa Hacking), że tabela powstała w prosty spo­
sób: Graunt założył, że począwszy od wieku 6 lat szansa przeżycia następnych
10 lat jest stale równa 5/8 (to jest równoważne założeniu o braku pamięci) i za­
okrągli! wyniki do liczb całkowitych. Nie jest jasne, jak dalece te dane odbiegały
od stanu faktycznego. Wiadomo, że następne znane tabele śmiertelności, ułożone
1Zródlo: M ały rocznik statystyczny , GUS, Warszawa 1999.
2I. Hacking, The Emergence o f Probability, Cambridge University Press, 1975. Tabelę
cytujemy za fSNE], s. 229.
§ 5.2. Wiasności dystrybuanty rozkładu na R
67
przez Halleya3 różniły się od tabel Graunta. Wolno jednak podejrzewać, że w cza­
sach, gdy jedna epidemia dżumy pochłaniała 30% ludności, a ocalała reszta była
dziesiątkowana przez wojny, wykładniczy model czasu życia był bliski prawdy4.
Warto jeszcze wspomnieć, że Graunt oszacował trzema niezależnymi metodami
liczbę mieszkańców Londynu5 na 384 000. Było to efektowne osiągnięcie, zwa­
żywszy, że szacunki wahały się od 200 000 do 6-7 milionów. Graunt ustalił też,
że dziewczynki stanowią 13/27, czyli 48,15% noworodków.
Tabele śmiertelności służyły do wyceny rent dożywotnich. Prace Huygensa na te­
mat wartości oczekiwanej (o czym dalej), a także Graunta i Halleya są przykła­
dami zastosowań rachunku prawdopodobieństwa wykraczających poza gry hazar­
dowe. Jest to już poważna matematyka finansowa, bowiem przy jej nieumiejętnym
stosowaniu można ponieść poważne straty:
Kasa Lafarge’a, tak dobrze znana paryżanom, na pewno prosperowałaby lepiej,
gdyby jej założyciele wzięli w swoich rachubach pod uwagę prawdy doktora Villermeta.
Obliczali oni śmiertelność według tablic Buffona, Parcieu i innych, które ustalono
przy wzięciu pod uwagę wszystkich warstw ludności w każdym wieku. Ale ponie­
waż ci, co lokują kapitały, żeby mieć zapewnioną przyszłość, na ogół nie zaznali
niebezpieczeństw wieku dziecięcego, a przywykli jadać regularnie, dobrze i niekiedy
obficie, śmierć nie nastąpiła, nadzieje rozwiały się i spekulacje upadły6.
§ 5.2.
Własności dystrybuanty rozkładu na R
Twierdzenie 1. Dystrybuanta
ma następujące własności:
rozkładu prawdopodobieństwa p, na R
(i) Ffj, jest- niemalejąca.
(ii) luni—>oo F^{t) — I? lim^—ł—oo F^
(iii)
—0 .
jest prawostronnie ciągła.
D ow ód . Zaczniemy od ogólnej uwagi o granicach: jeśli chcemy wykazać, że
limt_).£+ f(t) = g, wystarczy udowodnić, że dla każdego ciągu (tn) monotonicznego i zbieżnego do tQ-od strony dodatniej (tj. tn | to) mamy f ( t n) ^ g.
3E. Hailey, A n Estimate o f the Degrees o f Mortality o f Mankind Drawn from the
Curious Tables o f Births and Funerals o f the City o f Breslau, Phil. Trans. Royal Soc., vol.
17 (1693), ss. 596-610, 654-656. Rejestry pogrzebów, uwzględniające wiek, prowadzono
we Wrocławiu od 1584 roku (patrz [HJ], tamże tablice Halleya).
4Nie każdy oczywiście miał tak samo źle. Z danych Williama Petty’ego wynika, że
w ciągu roku w Londynie umierał 1 człowiek na 30, na wsi — 1 na 37, w Rzymie — 1
na 40, a wśród członków parlamentu — 1 na 50 (por. [MAJ-2], s. 71).
5J. Graunt, Natural and Political Observations upon the Bills o f Mortality, London
1662, patrz też [MAJ-2], s. 71.
6Anthelme Brillat-Savarin, Physiologie du gout ou meditations de gastronomie transcendante , 1825, przekł. poi. Joanny Guze: Fizjologia smaku, wyd. III, PIW, Warszawa
1996, ss. 123-124.
Oczywiście
dystrybuanta a la
russe jest
lewostronnie
ciągła.
Rozdział 5. Zmienne losowe
68
Gdyby tak nie było, istniałaby liczba e > 0 i ciąg sn —>t taki, że sn > t oraz
dla dostatecznie dużych n byłoby |/(sn) —9\> £', wtedy jednak bez trudu
można by było wybrać podciąg monotoniczny snk o tej samej własności.
Analogiczna uwaga pozostaje w mocy, gdy t —>±oo.
(¿) Oczywiste, bo jeśli t < s, to (-o o , t]
C
( - 00 , s].
(ii) Na mocy poprzedniej uwagi wystarczy wziąć tn T 00 . Wtedy R jest
sumą wstępującej rodziny przedziałów (—00 , tn] i z twierdzenia 1.1.7 o cią­
głości mamy
OO
lim F^(tn) = lim //((-o o , tn}) = /¿( I J ( - 00 , tn]) = //(R ) = 1.
n —>oo
n —»00
—
......
n=l
Podobnie w przypadku granicy w —00 : niech tn J. —00 . Rozpatrujemy zstę­
pującą rodzinę przedziałów (—00 , in], których część wspólna jest zbiorem
pustym i jeszcze raz korzystamy z twierdzenia o ciągłości.
(iii) Teraz tn J, t i
co,fn] = (—00 , i]; korzystamy z twierdzenia
o ciągłości, podobnie jak w poprzednim punkcie. ■
Tw ierdzenie 2. Jeśli funkcja F :R —> R spełnia warunki (i), (ii) i (iii),
to jest dystrybuantą pewnego rozkładu.
Dowód jest rutynowym zadaniem z teorii miary (zad. 1).
Zmienną losową, dla której F jest dystrybuantą, można otrzymać na dwa
sposoby. Jeżeli n jest rozkładem prawdopodobieństwa o dystrybuancie F
otrzymanym z tw. 2 , to zmienna losowa określona na przestrzeni probabi­
listycznej O = R, T = # (R ), P = h wzorem X(u;) =
ma dystrybuantę
FX = F.
Drugi sposób nie odwołuje się do twierdzenia 2, a co więcej, daje jego al­
ternatywny dowód. Jeśli F jest ciągła i ściśle rosnąca, konstrukcję łatwo
wymyślić. Niech X ma rozkład jednostajny na [0,1]. Znajdziemy funkcję / ,
dla której
p ( n x ) < t) = p ( x ^ r ^ t ) ) = r \ t ) = F(t).
Wystarczy przyjąć / = F ~l , i wtedy wszystkie przejścia są poprawne.
Zmienną losową o rozkładzie jednostajnym może być np. funkcja h(x) = x
na odcinku (0 , 1), który jest tu zbiorem zdarzeń elementarnych, a praw­
dopodobieństwem jest miara Lebesgue’a, obcięta do tego odcinka. Widać
teraz, że rozwiązanie można opisać prościej: wystarczy wziąć funkcję F ~ x
na odcinku (0,1) z miarą Lebesgue’a.
W ogólnym przypadku można znaleźć namiastkę funkcji odwrotnej do dystrybuanty (zad. 2 ).
§5.3. Własności dystrybuanty rozkładu na R ”
69
Zadania
1. Udowodnić, że jeśli funkcja F :R —> R ma własności 1, 2 i 3 dystrybuanty,
to jest dystrybuantą miary, która na ciele A, składającym się ze zbioru pu­
stego i zbiorów postaci (JiLi(a*>&*]> —00 ^
^ oo, gdzie odcinki
występujące w sumie mają rozłączne domknięcia, jest określona równością Niestety, zbiór
n
n
z=i
i=i
pusty nie jest
takiej postaci.
gdzie przyjmujemy F (—oo) = 0, F( oo) = 1.
2. Udowodnić, że jeśli F ma własności 1, 2 i 3 dystrybuanty, to funkcja
Funkcja /
wyraża się także
wzorem f ( s ) =
jest dobrze określona na Cl = (0,1); jeśli za prawdopodobieństwo na Cl przyj­ = inf{u: F (u ) ^ s
f{s) = sup{«: F(u) < s}
miemy miarę Lebesgue’a, to / będzie zmienną losową o dystrybuancie F.
3. Niech Fu będzie dystrybuantą rozkładu fi. Udowodnić, że
/¿ ((-o o ,* )) = F „ (z -) ,
/ i ( { i } ) = F»(x) - Fm( s - ) .
4. Dystrybuanta rozkładu prawdopodobieństwa ¡i dana jest wzorem
!
0
dla x < 0,
0,1 + a; dla 0 ^ i < 0,5,
0,4 + i
1
Wyznaczyć
dla 0,5 $ x < 0,55,
dla x ^ 0,55.
fi([0 ,| ]),n ((0 ,0 ,5 5)).
5. Niech /i będzie rozkładem prawdopodobieństwa na R . Wykazać, że xo jest
punktem skokowym ¡x wtedy i tylko wtedy, gdy dystrybuanta Ff, jest niecią­
gła w X q .
6 . Wyznaczyć rozkład zmiennej losowej Y = 3X — 5, jeżeli X ma rozkład wy­
kładniczy z parametrem a.
7. Podać przykład dystrybuanty, której zbiór punktów nieciągłości jest gęsty
w R.
8 . Zmienna losowa X ma rozkład jednostajny na odcinku [0,2] (czyli rozkład
o gęstości / ( i ) = 5 l[o,2](f))- Znaleźć rozkłady zmiennych losowych Y —
= min(X, X 2) i Z = max(l, X).
§ 5.3.
Własności dystrybuanty rozkładu na R”
W tym rozdziale wykażemy, że dystrybuanta wyznacza rozkład prawdopo­
dobieństwa jednoznacznie. Zaczniemy od zbadania własności dystrybuanty
rozkładu na R ", które będą,, jak się należało spodziewać, podobne do wła­
sności dystrybuanty rozkładu na R.
Rozdział 5. Zmienne losowe
70
Tw ierdzenie 1. Dystrybuanta F ^ rozkładu prawdopodobieństwa fj, na R n
ma następujące własności:
(i)
jest niemalejąca względem każdego argumentu,
(ii) F p (x i , . . . , x n) —* 0, jeśli infj xi —►—o o (czyli xi —> —o o dla przynaj­
m niej jednego argumentu), Ftx( x i , . . . , x n) —> 1, jeśli infj Xi —> co.
(iii) F/j, jest prawostronnie ciągła.
(iv) Jeśli Xk < yk dla k = 1, . . .■■,n, to
Pojawiają się tu
wartości
dystrybuanty w
wierzchołkach
kostki
n~wymiarowej.
(żv) ma prostą
interpretację:
miara kostki ma
być nieujemna.
^ ( - l ) E fc=ie*Fłl(u (e i,...,e Il)) > 0 ,
( 1)
gdzie
u(£l, . . . ,£n)
= (ei^l + (1 - £l)2/l,.•.,EA + (1 - £ n ) y n),
zaś sumowanie przebiega po zbiorze
{ ( e i , . . . , £ n )'-£i G { 0 , 1 } } .
D o w ó d . Własności (i)-(iii) dowodzimy tak samo, jak dla rozkładu fi na
R (twierdzenie 5.2.1).
Aby udowodnić (¿1;) zauważmy, że dla Ak = { ( i i , ... ,tn) :t k < a;*}, Bk =
= {(¿i, ■••, tn): tk < yk}, A = U L i A k, B - f ) L i
mamy
0 < P (B
n A')
n
= P(B ) - P ( (J (Ak n B)),
k= 1
co na mocy wzoru włączeń i wyłączeń daje lewą stronę wzoru ( 1). ■
Wprowadzając oznaczenie
•••,£«) =
—F
1, . . . , x k—i, x k + /i, :Efc-}-i,. . . , xn)
Fpfai, . . . , 2-71)5
możemy (1) zapisać w następującej formie: jeśli hk > 0,a:fc £ R , 1 < k < n,
to
...
Operatory A są przemienne, co łatwo udowodnić indukcyjnie.
Uwaga 2. a) Warunek (¿) wynika z warunku (w).
b) Dla n = 1 warunek (iw) wynika z warunku (i), ale.dla n > 1 nie jest to
prawdą (zad. 2 ).
§5.3. Własności dystrybuanty rozkładu na R n
71
Udowodnimy teraz, że dystrybuanta wyznacza jednoznacznie rozkład. Sko­
rzystamy z tak zwanego lematu o n- i A-układach7. Będziemy rozpatrywać
rodziny podzbiorów ustalonej przestrzeni Û.
Definicja 3. Rodzina zbiorów U jest ir-ukladem, jeśli
A ,B £ U
A n B £U.
Definicja 4. Rodzina zbiorów C jest \-ukladem, jeśli
W literaturze
można także
spotkać nieco inne
określenia
A-układów.
(i) O £ £.
(ii) Jeśli A ,B £ £ i B C A, to A \ B £ £.
(iii) Jeśli Ai £ £ dla i = 1 , 2 , . . . oraz Ą
U S t A i£ C .
C Ą
C . . . C An
c
. .. , to
Uwaga 5. Jeśli rodzina zbiorów jest jednocześnie rr- i A-układem, to jest
(j-cialem.
Czytelnik zechce potraktować dowód powyższego jako zadanie (zad. 3).
Lemat 6 (O w- i A-układach). Jeśli \-uklad £ zawiera n-układ U, to £
zawiera cr(U), czyli o-cialo generowane przez U.
D o w ó d . Niech £o = £(JJ) będzie najmniejszym A-układem zawierającym Tego rodzaju
lematy występują
U. Udowodnimy, że £$ jest 7r-układem.
W tym celu rozpatrzmy najpierw rodzinę
C = {A: A fi B 6 Co dla każdego B e U}.
Jasne jest, że U C C, bo U jest 7r-układem. Ponadto rodzina C jest A-układem. Sprawdzenie trzech warunków jest proste:
(i) Q £ C, bo U C £ 0;
(ii) Niech t / , V e C i V c U . W tedy V n B c U C B i
(U \ V) n B = (U n B) \ ( v n B) e £ 0.
7Lemat ten pojawił się po raz pierwszy w pracy W. Sierpińskiego Un théorème
générale sur les familles d ’ensemble , Fundamenta Mathematicæ 12 (1928), ss. 206-210.
Dla potrzeb rachunku prawdopodobieństwa odkrył go ponownie E. B. Dynkin.
również pod
nazwą lematów
o klasach
monotonicznych.
Rozdział 5. Zmienne losowe
72
(iii) Sprawdzamy, że można wykonać monotoniczne przejście do granicy.
Niech (Aj) będzie wstępującą rodziną zbiorów z C, co oznacza, że
AiCiB e Co dla każdego B £ U oraz ¿ = 1 ,2 ,__ Wobec tego
(
OO
V
co
(jA i)n B = jJ (A ins)
¿= 1
'
i= l
należy do A-ukladu CoWiemy teraz, że jeśli A £ Co i B € U, to A fi B <£ Co.
Drugi krok dowodu jest w pełni analogiczny do pierwszego. Trzeba wykazać,
że jako B da się wstawiać zbiory z Co, zachowując powyższą implikację.
W tym celu rozpatrujemy
C = {B : A fi B € Co dla każdego A £ Co}.
i jak poprzednio, dowodzimy że C jest A-układem zawierającym U, więc
i Co- Ostatecznie, jeśli A £ £o i B £ Co, to A n B £ Co, zatem Co jako Ai 7r-układ jest cr-ciałem (uwaga 5), co kończy dowód. ■
Twierdzenie 7. Jeśli fi i v są rozkładami prawdopodobieństwa na R 71
i F^ = Fu, to fi(A) = v(A) dla A £ S (R n).
Do wó d . Z definicji dystrybuanty wynika, że fi(A) = ¿'(A) dla zbiorów A
postaci (—oo,ti] x ... x (—oo,tn]. Oznaczmy rodzinę tego typu zbiorów
przez U. Jest ona 7r-układem. Dalej, niech
C = {A e B(R n): fi(A) = v(A )}.
C jest A-układem, co wynika z elementarnych własności prawdopodobień­
stwa; dla przykładu sprawdźmy warunek 2: jeśli A, B € C i A C B, to
fi(B \ A) = fi(B) - fi(A) = v(B) - j/(A) = v(B \ A).
W takim razie C zawiera o(U) — B(R 71). ■
Lemat o 7r- i A-układach przyda się jeszcze, a za każdym razem schemat
dowodu, korzystającego z tego lematu, będzie ten sam: pewna równość
z natury rzeczy będzie spełniona dla rodziny zbiorów tworzącej A-układ,
a ponadto nietrudno będzie ją sprawdzić dla prostych zbiorów, tworzących
7r-układ (por. zad. 1).
Okazuje się, że funkcja o własnościach takich jak dystrybuanta jest już
dystrybuantą pewnego rozkładu (i jak wiemy z tw. 7, dokładnie jednego).
Twierdzenie 8 . Niech F spełnia warunki (i)-{iv) twierdzenia 1. Wtedy
istnieje taki rozkład prawdopodobieństwa fj, na R ” , że F = F^.
5.4. Dystrybuanta a gęstość
73
D o w ó d . Definiujemy fi na [x,y] wzorem
J/]) = A i? •••^ h lF {x i , . . . , x n),
gdzie hi = yi — Xi > 0. Warunek 4 zapewnia, że /¿((¡r, y]) > 0. Dalej
postępujemy analogicznie jak dla n = 1 (patrz zad. 5.2.1). ■
Uwaga 9. W twierdzeniu 7 udowodniliśmy w istocie, że jeśli dwa roz­
kłady prawdopodobieństwa są równe na elementach 7r-układu generującego
a-ciało F, to są równe na całym T.
Z a d a n ia
1. Niech F będzie dystrybuantą pewnego rozkładu fi i niech F ( t ) =
dla pewnej funkcji g. Wykazać, że g jest gęstością rozkładu fi.
9 (x ) dx
2. Udowodnić uwagę 2b.
3 . Udowodnić uwagę 5.
§ 5.4.
Dystrybuanta a gęstość
Jeśli istnieje gęstość g rozkładu fi na R, to oczywiście
W praktyce często dana jest dystrybuanta i należy na jej podstawie odtwo­
rzyć gęstość. Z powyższego wzoru wynika, że F' = g p.w., nie jest jednak
prawdą, że w ogólnym przypadku całkując F' odtworzymy F. Będzie tak
dla funkcji F absolutnie ciągłych (por. np. [RUD-1], tw. 8.17).
Zajmiemy się uzasadnieniem praktycznej — i pewnie zgodnej z pierwszym
odruchem — następującej recepty na g: należy zróżniczkować F gdzie się da
(a da się prawie wszędzie, bowiem F jest monofoniczna) i jeśli otrzymana
funkcja ma całkę po (—00, 00) równą 1, to jest gęstością (por. zad. 5.9.11
o dystrybuancie Cantora). Oto odpowiednie twierdzenia:
Lemat 1. Niech F: R —>R będzie niemalejąca i prawostronnie ciągła. Je­
śli F 1 istnieje prawie wszędzie, to dla dowolnych a < b
Istnienie
F 1 p.w.
udowodnimy w
zad. 11.6.1.
D o w ó d . Niech G(x) = f* F(s)ds, x € R. Ponieważ F jest niemalejąca,
ilorazy różnicowe poniżej są nieujemne i żądana nierówność wynika z lematu
Rozdział 5. Zmienne losowe
74
Fatou oraz prawostronnej ciągłości funkcji F:
= lim
liminfn
inf n
rb+ i
ra+i
/
F (s )d s — /
F(s) ds = F(b) —F(a)
Jb
Prawostronna ciągłość funkcji F została użyta w ostatniej równości. Dla
małych h > 0 wartości funkcji podcałkowej na przedziale [b, b + h] (odp.
[a, a+h ]) są bliskie F(b) (odp. F(a)). To samo stosuje się zatem do średnich
po obu przedziałach. ■
Z lematu wynika natychmiast
W niosek 2. Jeśli F spełnia założenia poprzedniego lematu, a ponadto
lim F(t) = 1,
t—*00
lim F (t) = 0,
t —►— oo
to
Twierdzenie 3. Jeśli F jest dystrybuantą, F' istnieje prawie wszędzie,
oraz
F'(s) ds = 1,
to F' jest gęstością rozkładu o dystrybuancie F.
Do wó d . W świetle wniosku 2 wystarczy wykazać, że
co wynika natychmiast stąd, że
oraz
§ 5.5. Gęstość a odwzorowania gładkie
75
Zadania
1. Ciągła dystrybuanta F ma ciągłą pochodną g a) wszędzie, b) poza zbiorem
Z bez punktów skupienia. Wykazać, że g jest gęstością dla dystrybuanty F .
2. Rozwiązać zad. 1 bez założenia o ciągłości g.
3. X ma rozkład M (0,1) (definicja w § 5.10). Wyznaczyć dystrybuanty i (jeśli
istnieją) gęstości dla a) Y = e * , b) Y = X 2.
4 . Czy zmienne losowe z zad. 5.2.8 mają gęstość?
§5.5.
Gęstość a odwzorowania gładkie
Jeśli zmienna losowa X ma rozkład ciągły, to Y = <p(X) może, choć nie
musi, być typu ciągłego (zad. 1). Zajmiemy się przypadkiem, gdy ip jest od­
wzorowaniem gładkim i znajdziemy zależność między gęstościami X i <p(X).
Jest to szczególny przypadek zadania, polegającego na wyznaczeniu roz­
kładu <p(X), gdy znamy rozkład X . Często zadanie to wygodniej jest roz­
wiązywać za pomocą dystrybuant, jak w poprzednim paragrafie.
Stwierdzenie 1. Jeśli zmienna losowa X ma rozkład ciągły o gęstości f
i X(Q ) c (a,b), funkcja <p:(a,b) —> R jest klasy C 1 oraz <p'(x) ^ 0 dla
x € (a, b), to zmienna losowa Y — tp(X) ma rozkład ciągły o gęstości
g(y) = f{h{y))\h'{y)\i^i){y),
gdzie h(s) = ip 1(s), I = (a,b).
D o w ó d . Załóżmy, że ip jest rosnąca. Wtedy, korzystając z twierdzenia
o całkowaniu przez podstawienie, mamy dla y e <p(I)'-
Podobnie postępujemy, gdy ip jest ściśle malejąca. ■
Przykład 2. Ze stwierdzenia 1 otrzymujemy wniosek, że liniowa trans­
formata zmiennej losowej o rozkładzie normalnym ma rozkład normalny.
W szczególności gdy X ~ N (m, cr2) , to Z = (X —m)/a ~ M (0,1).
D o w ó d . Niech Y = aX + i i , d / 0 . Wtedy ip(x) = ax + b i
ę —(u—b—am)2/2<r2a2
= -yJ :---- e~(U
~b
V2wa\a\
zatem Y ~ N (b + am, a2a2) . u
Rozdział 5. Zmienne losowe
76
Przy okazji udowodniliśmy, że jeśli zmienna losowa X ma gęstość, to aX + b
ma rozkład ciągły o gęstości
/«*+ *(«)
Jeśli funkcja <p nie jest rosnąca ani malejąca, to wzoru ze stw. 1 nie można
zastosować. Ale często wystarczy następujące uogólnienie:
Stwierdzenie 3. Niech zmienna losowa X ma rozkład ciągły z gęstością
f . Niech
n
X ( d ) c i = ( J [a*, 6*],
fc=l
gdzie, oznaczając Ik = [ak,bk], mamy Int/*, flin t/; = 0 dla l ^ k.
Niech ip\I —» R będzie klasy C 1 na zbiorach IntĄ, przy czym <p'(x)
x 6 Int Ik . Niech hk będzie funkcją odwrotną do ip na Int Ik ■
0 dla
Wtedy Y = <p(X) ma rozkład ciągły z gęstością g:
n
9(v) =
k= 1
gdzie Dk = ¥>(Int/jt) jest dziedziną funkcji hk.
Dowód tego stwierdzenia pozostawiamy Czytelnikowi jako zadanie.
Przykład 4. Chcemy znaleźć rozkład Y = ^/\X\, gdy X ~ N (0,1). Funk­
cja <p(x) = -\/\x\, ‘P- R —*■R+ jest monofoniczna na przedziałach
h = (-o o , 0],
I2 = [0 ,00).
Mamy
hi(y) = - V2, D i = [0 ,00),
h2(y) = y 2, D2 = (0 ,00).
Zatem
g(y) = /( - 2 / 2 )2yl(0,oo)(y) + / ( 2/2 ) 2 t/l( 0,oo)0 /) = - ^ e - 3^ l (0lOo)(j/). ■
Stwierdzenie 1 można uogólnić na wektory losowe (patrz zad. 5, 6 ).
§5.6. Parametry rozkładów
77
Zadania
1. Podać przykład zmiennej losowej X o rozkładzie ciągłym i funkcji
dla której <p ( X ) ma rozkład skokowy.
<p: R —>R,
2 . Udowodnić, że jeżeli rozkład jest ciągły, to dystrybuanta jest funkcją ciągłą.
3 . X ma rozkład wykładniczy o parametrze a. Znaleźć rozkład
Y=
1/X.
4. Udowodnić stwierdzenie 3.
5. Udowodnić, że jeśli wektor losowy X o wartościach w R n ma rozkład ciągły
z gęstością / , S jest otwartym podzbiorem R " , takim że P { X € S) — 1,
<p: S —> R n jest wzajemnie jednoznacznym odwzorowaniem klasy C 1, J,P ^ 0,
to gęstość zmiennej losowej Y = <p ( X ) ma postać
g(y) = f(v 1(y))\Jv-i(y)\,
6 . Znaleźć rozkład łączny Yi
y€<p(S).
= (X\ + X 2)/\ /2 , Y2 = {X\ — X2)/V2, jeśli
a) ( X i , X 2) ~ A T ( 0 , (J ° ) ) ,
b) (XUX 2 )~ M (o, Q ) .
§ 5.6.
Parametry rozkładów
Zaczniemy od przykładu, w którym trzeba ocenić opłacalność pewnej gry.
Przykład 1. Ktoś proponuje nam udział w następującej grze: rzuca się
symetryczną kostką. Jeśli wypadnie 1, wygrywamy 2 zł; jeśli wypadnie 2,
płacimy 1 zł; za 3 wygrywamy 4 zl; za 4 płacimy 5 zł; za 5 wygrywamy
3 zł i wreszcie za 6 płacimy 4 zł. Czy warto brać udział w tej grze? Czy na
dłuższą metę opłaca się grać ?
Opłacalność takiej gry na dłuższą metę łatwo ocenić. Jeśli rozegramy n
partii, to każdy z wyników pojawi się średnio w n j 6 przypadków (oczywiście
są możliwe losowe odchylenia). Łączna wygrana wyniesie około
a średnią wygraną przypadająca na jedną grę obliczamy, dzieląc po prostu
łączną wygraną przez liczbę partii, co daje
W takim razie gra nie jest opłacalna na dłuższą metę, nie warto też chyba
rozgrywać jednej partii. H
Definicja
wielowymiarowego
rozkładu
normalnego
w § 5.10.
Rozdział 5. Zmienne losowe
78
Wymagający
(płacę
i wymagam)
studenci z USA
żądają od
wykładowcy reguł
wyboru reguł,
pozwalających
rozwiązać zadanie.
Zwróćmy uwagę, że możemy wymyślać rozmaite reguły oceny opłacalności
gry, nie ma jednak reguły każącej przyjmować taką, a nie inną regułę oceny
opłacalności. Jeśli w podobnej grze z prawdopodobieństwem 1/1000 wy­
grywamy 10000 zł, a z prawdopodobieństwem 999/1000 przegrywamy 20 zł,
to może warto zaryzykować? Średnia wygrana na jedną grę, obliczona tak
jak poprzednio, jest ujemna, ale strata 20 zł nie jest bolesna, a zyskujemy
chwilę emocji i możliwość wygrania znaczącej sumy. Doskonale wiedzą o tym
organizatorzy wszelkich loterii, gier liczbowych i konkursów audiotele. Po­
dobnie rozumują ci, którzy decydują się na ubezpieczenie, choć strata jest
tu gwarantowana: płacimy składkę, a gdy utracimy ubezpieczony obiekt,
odszkodowanie nigdy nie pokrywa jego pełnej wartości.
Interesujący z wielu względów przykład gry losowej, uprawianej w XVII
wieku (i zapewne znacznie wcześniej) w karczmach, można znaleźć w „Wy­
kładach z historii matematyki” Marka Kordosa8. Grano za pomocą tablicy,
która przewidywała każdy wynik rzutu trzema nierozróżnialnymi kośćmi.
Grający otrzymywał od bankiera, czyli właściciela tablicy, lub wpłacał mu
wielokrotność stawki, zależną od wyniku. W pewnych przypadkach gracz
był wykluczany z dalszej rozgrywki, w innych — mógł także otrzymać cały
bank. Obliczenie średniej wygranej przypadającej na jedną partię jest nie
tyle trudne, co żmudne. Sam autor przyznaje, że nie miał dość cierpliwo­
ści, by to zrobić. Rozegrał jednak wiele partii i stwierdził doświadczalnie,
że gra jest minimalnie korzystna dla bankiera. Faktycznie bankier wygrywa
w jednej partii średnio 0,46% swojej początkowej stawki9. Jak pisze Kordos:
Gra była „sprawiedliwa”, bo warunki były dla wszystkich jednakowe i od
początku znane, więc chętnych do gry było wielu. Gdyby jednak w widoczny
sposób ograbiała ona grających na rzecz prowadzącego grę właściciela, to
zginąłby on prędko z nożem w plecach (regulaminy typu totolotek są moż­
liwe tylko w dwudziestowiecznych społeczeństwach). Gdyby z kolei nie przy­
nosiła jakiegoś zysku, to zginąłby z głodu. Tablica ta powstała jak gatunki
w przyrodzie — drogą ewolucji!
Z kolei średnia wygrana przypadająca na jedną grę w ruletce wynosi
Zagadka: dlaczego
ostatnio
lansuje się formę
„teleaudio” ?
P~ ~ 0’027 = ~ 2J%
35 ' i? ~ 1 ■
W Toto-Lotku na wygrane przeznacza się 50% wpływów, zatem średnio
tracimy połowę stawki. Z kolei w konkursach audiotele na wygrane idzie
zaledwie 3-5% wpływów. Miraż głównej wygranej wartości rzędu 50000 zł
(na ogół jest to samochód) działa, dzięki telewizji, nadzwyczaj skutecznie10.
8[KOR], ss. 168-169.
9Bożenna Rusiniak, Analiza wybranych „ nieuczciwych” gier losowych , praca magi­
sterska WMIM UW, Warszawa 1996.
10W konkursach audiotele bierze udział czasem nawet 200 tysięcy osób. Koszt jednej
rozmowy wynosi 12-20 zł (3-5 min.). Wpływy dla wszystkich telewizji z tego źródła
szacuje się na 300 min zł rocznie.
§5.6. Parametry rozkładów
79
Powróćmy teraz do wzoru (1). Pojawiły się tam wartości zmiennej loso­
wej (wygranej) i prawdopodobieństwa ich wystąpienia. Sugeruje to, że jeśli
zmienna losowa X przyjmuje wartości Xi z prawdopodobieństwami Pi, czyli
ma rozkład dyskretny {(£i,Pi)ie/}, to warto badać wyrażenie
SX — ^ ' XjPi.
i£l
(sumowanie może odbywać się po nieskończonym, byle przeliczalnym zbio­
rze wskaźników I). Jest to średnia ważona liczb
z wagami pt. W odniesie­
niu do zmiennej losowej będziemy mówić o wartości średniej lub wartości
oczekiwanej. Kiedyś używano też wdzięcznego terminu nadzieja matema­ Jeśli rzucasz
tyczna (fr. esperance, czego ślad pozostał w symbolu £X).
kostką, nie
oczekuj wyniku
Wartość oczekiwaną zdefiniował Christian Huygens w pracy z 1658 roku
równego wartości
De ratiociniis in ludo aleae, czyli „O rachubach w grze w kości” .
oczekiwanej,
Na razie doszliśmy do szkolnej definicji wartości oczekiwanej, chcielibyśmy wynoszącej 3,5
oczka.
jednak mieć definicję ogólną, niezależną od typu rozkładu. Otrzymamy ją,
korzystając z teorii całki. Otóż jeśli X ma rozkład dyskretny i przyjmuje
skończenie wiele wartości, to
£ X = Y ,X ip (x = Xi),
ie i
a to jest nic innego, jak całka z funkcji prostej, przyjmującej wartości Xi
na zbiorach Aj = { uj £ H: X(cj) = #j}, względem miary P. W takim razie
sensowne są następujące definicje:
Definicja 2. Powiemy, że zmienna losowa X o wartościach w R ma war­
tość średnią (wartość oczekiwaną), jeżeli jest całkowalna, czyli jeżeli
[ \X\dP<oo.
Ja
Wtedy wartością średnią (wartością oczekiwaną) zmiennej losowej X na­
zwiemy liczbę
£X=
f X dP ,
Ja
W przeciwnym razie powiemy, że zmienna losowa nie ma wartości średniej
(oczekiwanej).
W kasynach wygrane to 74% przychodów, przy automatach do gry - 62%, w Totali­
zatorze Sportowym — 50%, w audiotele — 3-5%.
Rencista z zielonogórskiego i jego bezrobotna żona w lutym ’98 łączyli się z audiotele
480 razy, za ponad 10000 zł. (Wojciech Markiewicz, Polityka , 36 (2157) 5 września 1998)
Trzy telefonistki z Akademii Medycznej w Gdańsku wydzwoniły od stycznia 1997
do stycznia 1998 sumę 643 000 zl. W wyniku procesu zostały uniewinnione, ponieważ
według sądu nie było to ani wyłudzenie, ani oszustwo, ani przywłaszczenie. Wygrywały
pieniądze, dezodoranty, bieliznę, złote łańcuszki i lokówki do włosów, warte w sumie ok.
45000 zł. ( Gazeta Wyborcza , 30 września 1999).
Rozdział 5. Zmienne losowe
80
Będziemy też mówić o „zmiennej losowej całkowalnej” w odniesieniu do
zmiennej losowej, której wartość oczekiwana istnieje. Podobnie jak w teorii
całki napis £ X < oo będzie oznaczać, że zmienna losowa X jest całkowalna;
£X = oo będzie oznaczać, że X jest nieujemna i niecałkowalna. W ostatnim
przypadku powiemy, że wartość średnia jest nieskończona.
Definicja 3. Wartością średnią (wartością oczekiwaną) zmiennej losowej
X = (X \,... X n) o wartościach w R n nazywamy wektor
£ X = (£X 1, . . . , £ X n),
o ile wszystkie współrzędne mają wartość średnią.
Wartość średnia dziedziczy po całce podstawowe własności, na przykład
liniowość i zachowanie przy przejściach granicznych. Najważniejsze z nich
podajemy poniżej, a dowody zamieszczamy w dodatku C.
Twierdzenie 4 (W łasności wartości średniej). Załóżmy, że wartości
średnie £ X i £Y istnieją. Wtedy
(i) Jeśli X > 0, to £ X ^ 0.
(ii) \£X\ sj £\X\.
(iii) Dla a, b £ R istnieje wartość średnia aX + bY i
£(aX + bY) = a£X + b£Y.
Ponadto
(iv) Jeśli X n ^ 0, to
£(lim infXn) ^ lim inf£X n
n -+ o o
n —>oo
(lemat Fatou).
(v) Jeśli (X n) jest niemalejącym ciągiem nieujemnych zmiennych loso­
wych, to £ limn._>00 X n = limn^ooi^n (twierdzenie Lebesgue’a-Beppo Leviego o zbieżności monotonicznej).
(vi) Jeśli (X n) jest takim ciągiem zmiennych losowych, że |Xn| < Z dla
pewnej całkowalnej zmiennej losowej Z, to
£ lim X n = lim £ X n
n~*oo
n—*oo
(twierdzenie Lebesgue’a o zbieżności zmajoryzowanej).
§ 5.6. Parametry rozkładów
81
Punkt (iii) twierdzenia 4 uogólnia się na skończoną liczbę zmiennych loso­
wych, mianowicie
£(X i + X 2 + ... + X n) = £X\ + ... + £X n,
(2)
gdy wartości oczekiwane £ X i,i — 1 , . . . , n istnieją. Jest to fakt oczywisty,
ale bardzo pożyteczny, gdyż pozwala znacznie uprościć obliczanie warto­
ści oczekiwanej takich zmiennych losowych, które dadzą się przedstawić
w postaci sumy prostszych zmiennych losowych, o łatwych do obliczenia
wartościach oczekiwanych. Zilustrujemy to przykładami.
Przykład 5. Chcemy obliczyć £X, gdzie X jest sumą wyrzuconych oczek
przy stukrotnym rzucie kostką. Gdybyśmy obliczali £ X z definicji, to mu­
sielibyśmy znaleźć rozkład X , co jest bardzo pracochłonne. Zastosujemy
wzór (2). Gdy X ; jest wynikiem ¿-tego rzutu, to X = X\ + X 2 + ... + Xioo
i £ X = £ X x + £X 2 + ... + £ X 100 = 350. ■
Następny przykład ilustruje jedną z metod dowodzenia różnych wzorów
z kombinatoryki za pomocą rozważań probabilistycznych.
Przykład 6 . Kupujemy k losów na loterii, w której jest M losów przegry­
wających i N wygrywających. Niech X będzie liczbą losów wygrywających
wśród tych, które kupujemy. Chcemy znaleźć wartość średnią X .
Niech Xi informuje, czy ¿-ty los wygrywa, tzn. Xi = 1, gdy i-ty los jest
wygrywający i X { = 0, gdy jest przegrywający. Mamy P (X t = 1) =
= N/(M + N ), X = X\ + ... + Xk- Zatem na mocy (2)
£ X = k - — ^-1M+N
Obliczając £X bezpośrednio z definicji, mamy:
k
(N\ ( M \
\ l 1 \k—l)
2^
(N +M \
¡=0
\ k
■
/
Stąd, jako produkt uboczny, otrzymujemy tożsamość:
f(=0
'
kN
(N+M)
~
~
M
+N
V fc /
W obu przykładach zmienne losowe Xi miały jednakowy rozkład, ale nie
zawsze musi tak być (patrz np. zad. 10 ).
Zobaczymy teraz, jak obliczać wartości średnie funkcji zmiennych losowych
wyłącznie na podstawie znajomości rozkładu zmiennej losowej. Warto so­
bie uświadomić, że wszystkie charakterystyki liczbowe zmiennych losowych
omawiane w tym rozdziale zależą wyłącznie od rozkładu. Sformułujemy
twierdzenie nieco ogólniej, by móc w przyszłości obliczać wszelkie takie
charakterystyki.
Rozdział 5. Zmienne losowe
82
Twierdzenie 7. Niech ip: R n —>R będzie funkcją borelowską, a X zmien­
ną losową o wartościach w R n. Wtedy
przy czym równość należy rozumieć tak: jeśli całka po jednej stronie istnieje,
to istnieje także całka po drugiej stronie i są one równe.
D o w ó d . Ze stwierdzenia 5.1.3 wynika, że <p(X) jest zmienną losową. Za­
stosujemy standardową metodę stopniowego komplikowania funkcji ip.
1. Niech ip = 1 ,4 , gdzie A jest zbiorem borelowskim w R ".
£<p(X) = 1 •P (X £ i ) + 0- P (X <£ A)
= Hx{A) = / l-/j.x ( d x ) - /
Ja
JR
tp(x)nx{dx).
"
2. Niech ip będzie funkcją prostą, tzn. ip = Y^=i x i^Ai ■Z liniowości całki
(rozpatrujemy tu z jednej strony całkę po przestrzeni fi, z drugiej —
po R n) i z punktu 1 wynika natychmiast żądana równość dla funkcji
prostych.
3. Jeśli <p jest dowolną nieujemną funkcją borelowską, to jest granicą
monotonicznego ciągu nieujemnych funkcji prostych. Zastosowanie
twierdzenia Lebesgue’a-Leviego o zbieżności monotonicznej do wy­
niku z punktu 2 daje żądaną równość dla nieujemnych funkcji borelowskich (istnienie całki po jednej stronie implikuje istnienie całki po
drugiej stronie i równość obu całek).
4. Jeśli <pjest dowolną funkcją borelowską, to ip = <p+ —<p~, a jeśli £<p{X)
ma sens, to całkowalne są także nieujemne zmienne losowe [tp(X)]+ =
= ip+ (X ) oraz [i/>(X)]"" = tp~(X). Po zastosowaniu wyniku z po­
przedniego punktu wnioskujemy, że istnieją całki
oraz że zachodzi żądana równość. I odwrotnie, jeśli dwie ostatnie całki
istnieją, to £ip{X) ma sens i jest równa ich różnicy. ■
W szczególnych przypadkach — rozkładów ciągłych i dyskretnych — udo­
wodniony wzór daje się zapisać następująco:
W niosek 8 . Jeśli zmienna losowa X ma rozkład dyskretny {(a'H,Pi)i£i},
to wartość oczekiwana istnieje wtedy i tylko wtedy, gdy zbieżny jest szereg
\<p{xi)\pi, i wyraża się wzorem
§ 5.6. Parametry rozkładów
83
Bezwzględna zbieżność szeregu
wyraża całkowalność zmien­
nej losowej <p(X). Wobec tego, jeśli np. X przyjmuje wartości rzeczywiste,
to do istnienia £(X ) nie wystarcza zwykła zbieżność szeregu J2xiPi i musi
on być zbieżny bezwzględnie. Warto sobie uświadomić, że jeśli szereg jest
zbieżny tylko warunkowo, to przez odpowiednią zmianę kolejności sumowa­
nia można otrzymać dowolną sumę (w tym ± 00; jest to twierdzenie Riemanna, patrz [RUD-2], tw. 3.55), więc próby „osłabiania” definicji wartości
oczekiwanej raczej nie dałyby rozsądnych wyników.
W niosek 9. Jeśli zmienna losowa X o wartościach w R n ma rozkład, cią­
gły o gęstości g, a funkcja <p: R n —>R jest borelowska, to
£tp(X) = I
JRn
ip(x)g(x) dx,
przy czym całkowalność jednej ze stron implikuje całkowalność drugiej i rów­
ność całek.
D o w ó d wymaga powtórzenia kroków dowodowych poprzedniego twierdze­
nia z oczywistymi zmianami. Można też zauważyć, że dla każdej mierzalnej
funkcji f
[
JR "
f (s )K ds) = [
JR n
f ( s)g(s) ds,
jeśli tylko jedna z całek ma sens. Dowód tego faktu także łudząco przypo­
mina dowód poprzedniego twierdzenia. ■
Przykład 10. Znaleźć wartość oczekiwaną pola prostokąta, którego ob­
wód jest równy 20, a jeden bok jest zmienną losową X o rozkładzie jedno­
stajnym na [1,10].
R o z w i ą z a n i e . Pole prostokąta jest równe X-(10—X ), a gęstość rozkładu
jednostajnego g(s) = gl[i,i 0](s), stąd
/
co
/*10
s (10 - s)g(s) d s=
■00
1
- s (10 - s) ds = 18. ■
J 1
9
Ponieważ dystrybuanta wyznacza jednoznacznie rozkład, to powinno być
możliwe obliczenie wartości oczekiwanej na podstawie znajomości dystrybuanty. Zaczniemy od najprostszego wzoru tego typu:
Stwierdzenie 11. Jeśli X ^ 0, to
/*00
£X=
Jo
(1 —Fx (t)) dt = /
/’OO
P ( X > t )d t ,
Jo
przy czym istnienie jednej strony implikuje istnienie drugiej i ich równość.
Rozdział 5. Zmienne losowe
84
D o wó d . Skorzystamy z twierdzenia Fubiniego. Miarą produktową będzie
produkt rozkładu zmiennej losowej X i miary Lebesgue’a.
Inne tego rodzaju wzory można znaleźć w zad. 2-4.
Kolejnym ważnym parametrem rozkładu jest wariancja. Jest ona miarą
rozrzutu rozkładu wokół wartości średniej.
Definicja 12. Jeśli £ (X —£ X )2 < oo, to tę liczbę nazywamy wariancją
zmiennej losowej X o wartościach rzeczywistych i oznaczamy:
V 2X = £ (X - £ X )2.
Jest to po prostu średni kwadrat odchylenia od średniej. Wariancję można
obliczać również w inny, często wygodniejszy, sposób:
V 2X = £ X 2 - (£ X )2.
Dowód .
V 2X
=
£(X - £ X )2 = £ (X 2 - 2X £X
+
(
£ X )2 )
=
£ X 2 - ( £ X ) 2. u
Twierdzenie 13 (W łasności wariancji). Jeśli X jest zmienną losową,
dla której £ X 2 < oo, to istnieje V 2X oraz:
(i) V 2X > 0.
(ii) V 2(cX) = c2V 2X
(iii) V 2(X + a ) = V 2X
(iv) T>2X = 0 wtedy i tylko wtedy, gdy zmienna losowa X jest z prawdo­
podobieństwem 1 stała.
Do wó d . Jeśli £ X 2 < oo, to z nierówności |i| < |i|2 + 1 wynika istnienie
£ X i wtedy £ X 2 — (£ X )2 < oo. Dowody własności (i)-(iv) pozostawiamy
jako ćwiczenie. ■
§ 5.6. Parametry rozkładów
85
Zwróćmy uwagę, że funkcja f ( t ) = £ ( X —t)2 przyjmuje minimum — równe
wariancji — dla i = £ X (por. zad. 6).
Pierwiastek z wariancji nazywamy odchyleniem standardowym:
o x = V v 2x .
Udowodnione wcześniej wzory na S<p(X) pozwalają obliczać wariancję za
pomocą rozkładu fj,x, jeśli przyjmiemy <p(t) = t2 lub ip(t) = (i —m)2, gdzie
m = £X . Mamy więc dla zmiennych losowych o rozkładzie dyskretnym
oo
oo
V 2X = ^ ( X i - rnfpi = Y ^ xh i - ™2.
1=1
2—1
a dla zmiennych losowych o rozkładzie ciągłym z gęstością g(x):
/
OO
p oo
(x —m)2g(x) d x =
•oo
x 2g{x) dx —m2,
J —oo
przy założeniu zbieżności odpowiedniego szeregu/całki.
Wartość oczekiwana i wariancja są szczególnymi przypadkami tak zwanych
momentów.
Momentem absolutnym rzędu r > 0 nazywamy liczbę £\X —a|r, a zwykłym
— £ (X —a)r. Ostatnie wyrażenie ma zawsze sens dla r naturalnych. Jeśli
a = £ X , to moment nazywamy centralnym.
Nazewnictwo powinno się kojarzyć z mechaniką. Faktycznie, jeśli zamiast
rozkładów prawdopodobieństwa wyobrazimy sobie rozkłady masy (gęstość
rozkładu ma naturalną interpretację — jest to zwykła gęstość), to okaże się,
że wartość średnia jest położeniem środka masy, a wariancja jest momentem
bezwładności względem środka masy (por. zad. 1).
Momenty wyższych rzędów wykorzystuje się w statystyce do mierzenia asy­
metrii (statystycy używają tu słowa „skośność” ) rozkładów i stopnia kon­
centracji wokół wartości średniej.
Współczynnik asymetrii (skośności) jest zdefiniowany wzorem
“3_
£ (X - £ X f
{V 2X f / 2 '
Dzięki wyrażeniu w mianowniku współczynnik asymetrii nie zmienia się
przy pomnożeniu zmiennej losowej X przez stałą. Tak samo jest dla kurtozy,
zwanej także współczynnikiem spłaszczenia i zdefiniowanej jako
4
£ {X -£ X f
(V2X ) 2
Kurtoza mierzy stopień koncentracji rozkładu wokół średniej (patrz zad.
15).
Rozdział 5. Zmienne losowe
86
Omówimy teraz parametr charakteryzujący związek między dwiema zmien­
nymi losowymi. Można go uważać za parametr rozkładu dwuwymiarowego,
czyli łącznego rozkładu pary zmiennych (X ,Y ).
Definicja 14. Kowariancją całkowalnych zmiennych losowych X iY , speł­
niających warunek £|Xy| < oo, nazywamy wielkość
cov{X, Y ) = £ [(X - £ X )(Y - £ Y )].
Uwaga 15. cov(X ,Y ) = £ {X Y ) - £ X £ Y .
Jeśli cav(X, Y) — 0, to zmienne losowe X i Y nazywamy nieskorelowanymi.
Na mocy nierówności Schwarza dla całek (patrz tw. 5.7.1) mamy
|cav(X, Y) |^ V V 2X V 2Y,
przy czym równość zachodzi wtedy i tylko wtedy, gdy zmienne losowe X
i Y są związane liniową zależnością (typu aX + bY = c, gdzie a2 + b2 >0).
Wynika stąd także, że kowariancja istnieje, gdy istnieją odpowiednie wa­
riancje. Jeśli zdefiniujemy współczynnik korelacji wzorem
c o v ( x ,y )
V v 2x
v
2y ’
to z powiedzianego wyżej wynika, że |p| < 1 , a |p| = 1 tylko w przypadku li­
niowej zależności między zmiennymi. Związek współczynnika korelacji z nie­
zależnością zmiennych losowych przedyskutujemy, gdy wprowadzimy to po­
jęcie. Odnotujmy jeszcze ważny fakt:
Twierdzenie 16. Jeśli zmienne losowe X \,. . . , X n mają wariancję, to ist­
nieje wariancja sumy i
TL
V 2( X 1 + ... + X n) = Y JV 2X i + 2
¿=1
c ov{Xi, X j ).
l ^ i < ,7 ^ n
Dowód.
V 2(X 1 + ... + X n) = £ {X x + ... + X n)2 - (£ X t + ... + £ X n)2 =
= X > X 2 - (£X i)2] +
¿=1
+
2
(
£ X iX j
-
£ X i£ X j )
=
n
= ^ D 2X l + 2
i= 1
J2
cav(Xi,X j ).m
(3)
§ 5.6. Parametry rozkładów
87
W niosek 17. Jeśli zmienne losowe X i ,... X n mają wariancję i są parami
nieskorelowane, to
n
V 2(X 1 + . . . + X n) = Y , T>2xi¿=1
Przykład 18. Wkładamy losowo n listów do różnych adresatów do n ko­
pert. Znaleźć wartość średnią i wariancję liczby listów włożonych prawi­
dłowo.
R o z w i ą z a n i e . Niech X będzie liczbą Mstów włożonych prawidłowo, a X r,
i = 1 , 2 , . . . , n, będzie zmienną losową mówiącą, czy i-ty list został dobrze
włożony, czyli X t = 1, jeśli i-ty list został włożony prawidłowo, i X z = 0
w przeciwnym razie. Ponieważ P (X l = 1) = l/n , to £ X = 1. Nietrudno
zobaczyć, że £(X iX j) = P (X iX j = 1) = 1/n(n — 1) dla i ^ j , więc
korzystając ze wzoru (3) otrzymujemy T>2X = 1. ■
Dla wektora losowego X = (X i , ...,X n) odpowiednikiem wariancji jest
macierz kowariancji.
Definicja 19. Jeśli T>2Xj < oo dla każdego j = 1,2,. . . , n, to macierz
Qx = [cy]ij=i,...,nj gdzie Cij = cov(X i,X j) nazywamy macierzą kowarian­
cji wektora losowego X = (X i,.. .X n).
Twierdzenie 20. Macierz kowariancji ma następujące własności:
(i) jest symetryczna;
(ii) jest nieujemnie określona, tzn. dla każdego skończonego ciągu liczb
rzeczywistych ii, *.., tji TYiamy
j i j ^ 0,
jest
(iii) Jeśli rank(Qx) = k < n, to istnieje (n — k) równań liniowych wią­ rank(>l)
rzędem macierzy
żących zmienne losowe X \ ,X i,... ,X n, więc (X \ ,... ,X n) przyjmuje A.
wartości z pewnej k-wymiarowej hiperplaszczyzny.
D o wó d , (i) jest oczywiste.
(ii) Rozważmy zmienną losową Y =
UXi. Jeśli £Xi = m^, to
n
£Y = y > m ź
Ż= 1
oraz
0 < V 2(Y) = £ ( y , U ( X l - mi)") = Y , titj cov (X u X/).
\ i= l
)
i,j
Rozdział 5. Zmienne losowe
88
(iii) Rozpatrzmy formę kwadratową
n
Qx(&) — ^ ^ Cijdidj,
d
(&1, . . . ,(2n)-
i,j= l
Ponieważ rank(Qx) = k < n, to istnieje n —k liniowo niezależnych wekto­
rów a W , ... ,a(n k\ takich że Q x {a ^ ) = 0 dla l = 1,2,... ,n —k. Ale
co otrzymaliśmy w dowodzie punktu 2 , więc dla l = 1, . . . , n — k mamy
Zadania
1. Na nieważkim pręcie umieszczono masy pi w punktach o współrzędnych x,,
i = 1,2,__ Wyznaczyć środek ciężkości układu i moment bezwładności
względem środka ciężkości. Przyjąć, że
Pi ~
2. Udowodnić, że jeśli X ^ 0 to:
'OO
P(X > i) dt,
(4)
OO
OO
Uwaga. Z nierówności (5) wynika, że nieujemna zmienna losowa X jest
całkowalna wtedy i tylko wtedy, gdy
OO
71= 1
Kryterium to przyda się jeszcze w dowodzie prawa wielkich liczb.
3. Udowodnić, że jeśli X ^ 0, r > 0, to
4. Udowodnić, że jeśli X ^ 0, <pjest rosnąca i różniczkowalna, <p(0) = 0, to
5. W tabeli podano pola powierzchni, zamknięte przez wybrane poziomice. Po­
ziomica zerowa jest brzegiem jeziora, którego maksymalna głębokość wynosi
54 m. Oszacować objętość jeziora, posługując się wzorem analogicznym do
wzoru ze stw. 11.
§5.6. Parametry rozkładów
89
głębokość (m)
0
-1 0
-2 0
-30
-40
-50
powierzchnia (km2)
55,2
45,8
39,1
27,2
13,0
4,9
6 . Znaleźć minimum funkcji <
p(t) = £(X —i)2, gdzie X jest zmienną losową
mającą wariancję.
Na ostatnich sesjach WIG wahał się bez jednoznacznej
tendencji. Na wykresie tygodniowym pojawiła się świeca
z małym czarnym korpusem i stosunkowo długim knotem
na dole. Na wysokim poziomie cen świece tego typu na
ogół interpretuje się jako negatywną formację wisielca.
Parkiet, pierwsza połowa 2000 r.
Formacje młota, wisielca i spadającej gwiazdy jak widać do dziś pobudzają wy­
obraźnię spekulantów, pragnących zostać „straszliwymi demonami rynku” — ta­
kie bowiem poetyczne terminy stosowali Japończycy na terminowym rynku ryżu
w Edo (obecnie Tokio) w XVII wieku. Jak się wydaje, byli oni pionierami kon­
traktów terminowych i analizy technicznej.
My natomiast zajmiemy się trywialnym w gruncie rzeczy zastosowaniem wartości
oczekiwanej, wariancji i współczynnika korelacji.
Zagadnienie portfela inwestycyjnego. Dla papierów wartościowych notowa­
nych na rynku kapitałowym można zdefiniować dwie ważne charakterystyki: stopę
zwrotu i ryzyko. Obie są mierzone w procentach. Stopa zwrotu jest (oczywiście)
zmienną losową, ryzyko — odchyleniem standardowym tej zmiennej losowej. Jeśli
stopa zwrotu (np. w stosunku rocznym) wynosi 7%, a ryzyko — 4%, oznacza to,
że średni zwrot z kapitału 1000 zł będzie równy 70 zł. Możliwe są jednak losowe
odchylenia i ich typowe wartości są rzędu 40 zi. Zatem stopa zwrotu od 30 do
110 zł nie będzie niczym dziwnym. Zmienne losowe odpowiadające poszczegól­
nym papierom wartościowym mogą być skorelowane dodatnio (np. akcje dwóch
firm budowlanych), ujemnie (np. akcje kompanii naftowej i linii lotniczych), albo
nieskorelowane (tu ciężko o dobry przykład).
Inwestorzy nie lubią ryzyka i konstruują portfele inwestycyjne tak, by przy danej
stopie zwrotu ryzyko było najmniejsze. Z drugiej strony, wysoka stopa zwrotu
może skłonić do akceptacji podwyższonego ryzyka.
Poniższe proste zadanie ilustruje problem w przypadku dwóch rodzajów papierów
wartościowych.
7. Zmienne losowe X0 i Xi mają dane wartości oczekiwane, wariancje i współ­
czynnik korelacji: £X0 = 0,05, \/V2X0 = 0,02, £X x = 0,07,
= 0,03,
p(Xo,Xi) = 0,5. Niech Xt = tX0+ {l-t)X i, t e [0,1]. Dla jakiego t warian­
cja jest minimalna? Przedyskutować związek tego zadania z zagadnieniem
portfela inwestycyjnego.
90
Rozdział 5. Zmienne losowe
8 . Udowodnić, że jeśli X jest zmienną losową przyjmującą wartości całkowite
nieujemne, to £X —
P(X ^ n)9. Obliczyć, korzystając z zadania 8 , wartość oczekiwaną zmiennej losowej X
o rozkładzie geometrycznym (przyjmującej wartości 1, 2,...).
10. Rzucamy kostką tak długo, aż wyrzucimy wszystkie oczka. Znaleźć wartość
średnią liczby rzutów.
11. X ,Y mają jednakowy rozkład. Czy jest prawdą, że S
12. Niech X będzie wektorem losowym n-wymiarowym, A — macierzą p x n, B
— macierzą p X m . Udowodnić, że:
a) jeśli £X istnieje, to £ (AX'*) = A£ (X ? , £.(AY‘ B) = AS (X )4 B;
b) jeśli macierz kowariancji Qx istnieje, to Q a x = A QxAt.
13. Jak możliwie najdokładniej zmierzyć długości dwóch prętów za pomocą zwy­
kłej miarki, jeśli wolno mierzyć tylko dwa razy? Błąd pomiaru jest zmienną
losową o zerowej średniej i wariancji a2. Błędy poszczególnych pomiarów są
niezależne.
14. Wyznaczyć współczynnik asymetrii dla rozkładu wykładniczego.
15. Wyznaczyć kurtozę dla rozkładu: a) jednostajnego, b) normalnego, c) wy­
kładniczego.
Zagadnienie regresji liniowej. Jeśli X i Y są zmiennymi losowymi, można
zastanawiać się nad znalezieniem funkcji liniowej jednej z tych zmiennych, która
najlepiej — w jakimś sensie — przybliża drugą. Zadanie to ma oczywiste zasto­
sowania. Kiedyś popularna była regułka „prawidłowa waga (mężczyzny) w kilo­
gramach to wzrost w centymetrach minus 100” , która nie mogła być rzecz jasna
spełniona dokładnie, ale jej zaletą była prostota (modny obecnie body mass index
wymaga podnoszenia wzrostu do kwadratu). Często na podstawie wartości zmien­
nej losowej X, którą możemy obserwować, chcemy oszacować albo prognozować
wartość drugiej zmiennej losowej Y. Oto możliwe pary zmiennych losowych: liczba
klientów — obroty, przebieg samochodu — zużycie paliwa, wielkość produkcji —
zużycie energii, indeks giełdy w Nowym Jorku dziś — WIG jutro.
W następnym zadaniu proponujemy rozwiązanie zagadnienia regresji liniowej.
Kryterium jakości przybliżenia jest średni kwadrat błędu.
16. Niech X i Y będą zmiennymi losowymi o skończonej wariancji, V2X ^ 0.
Wyznaczyć takie liczby a, b, żeby S (Y —aX —b)2 była minimalna.
Prostą o równaniu
y = -V
^ k x -S X )+ E Y
(6 )
nazywamy prostą regresji (albo krzywą regesji liniowej) Y względem X.
Jak wygląda rzecz w praktyce? Jeśli zbierzemy dane o zmiennych losowych X
i Y, otrzymamy n par (Xi, yi). Przyjmujemy teraz, że każda taka para ma szanse
pojawienia się l/n , obliczamy wariancje oraz kowariancję, uznajemy je za fak­
tyczne parametry rozkładów zmiennych losowych X i V, a następnie wstawiamy
do wzoru (6 ). Statystycy nazywają obliczone tak wielkości wariancją z próby i ko­
wariancją z próby. W terminologii statystycznej są one estymatorami wariancji
i kowariancji.
§ 5.7. Nierówności związane z momentami
91
17. Wykazać, że współczynnik korelacji jest symetryczny, tj. p(X, Y) = p(Y,X),
i p(aX 4-b,Y) = sgna •p(X,Y), o ile a ^ 0, czyli jego moduł nie zmienia się Obrażasz moją
przy przekształceniach liniowych.
inteligencję.
Mario Puzo,
18. Na podstawie samodzielnie zebranych danych statystycznych rozwiązać za­ „O jciec
gadnienie regresji liniowej.
chrzestny”
19. Losowe sumy i reakcja łańcuchowa. W chwili t ,t = 2, 3,. . . cząstka albo
znika z prawdopodobieństwem q, albo przekształca się w m takich samych
cząstek z prawdopodobieństwem p = 1 —q. Jaka jest średnia liczba cząstek
w n-tym pokoleniu?
§5.7.
Nierówności związane z momentami
W tym paragrafie udowodnimy kilka znanych z analizy i bardzo pożytecz­
nych nierówności związanych z momentami zmiennych losowych. Pierwsza z
nich ma co najmniej trzech autorów: Cauchy’ego, Buniakowskiego i Schwa­
rza. W dalszym ciągu będziemy się do niej odwoływać jako do nierówności
Schwarza.
Twierdzenie 1 (Nierówność Schwarza). Jeśli £ X 2 < oo, £ Y 2 < oo,
to
(£\XY\)2 < £ X 2£ Y 2.
(1)
Do wó d . Można założyć, że £ X 2 > 0 i £ Y 2 > 0 (w przeciwnym przypadku
nierówność jest oczywista, patrz zad. 1). Ponieważ
2 |a6|< a2 + b2
dla a,b e R, to kładąc a = X = X/{£X2)i i b = Y = Y/(£Y2) i, a następ­
nie biorąc wartość oczekiwaną, otrzymujemy 2£\XY\ < £ X 2 + £Y 2 = 2,
czyli £|XK| < 1. ■
Twierdzenie 2 (Nierówność Jensena). Niech £\X\ < oo i niech g bę­
dzie taką funkcją wypukłą, że £\g(X)[ < oo. Wtedy
g( £ X)
<
£g(X).
(2)
Do wó d . Ponieważ g jest wypukła, to dla każdego punktu xo istnieje stała
A(*o) taka, że dla każdego y € R
g{y) > g(x o) + { y - x 0)x(x0).
Powyższa nierówność wyraża fakt, że wykres funkcji wypukłej ma w każdym
punkcie prostą podpierającą.
Rozdział 5. Zmienne losowe
92
Biorąc x 0 =
y = X (u ) otrzymujemy g(X ) > g(£X ) + (X -S X )X {£ X )
prawie na pewno. Po wzięciu wartości oczekiwanej obu stron otrzymujemy
tezę. ■
Teraz podamy uogólnienie nierówności Cauchy’ego-Buniakowskiego-Schwarza.
Twierdzenie 3 (Nierówność H oldera). Niech p > 1, q > 1 spełniają
równość i + ^ = 1. Jeśli £\X\P < oo, £\Y\q < oo, to £\XY\ < oo i
£ ix y u (5 | x n p (5 | y n i
(3)
D o w ó d . Funkcja log a: jest wklęsła na (0, oo), więc dla dowolnych dodat­
nich a, b, x, y, a + b = 1 , mamy
log(oa; + by) > a log x + b log y = log x ayb.
Stąd
ax + by ^ x ayb.
Biorąc a = jj, b = A, x = wp, y = z9, w > 0, z > 0, otrzymujemy
nierówność Younga
wz sC - w p + ~zq.
p
q
(4)
Niech X = \X\/{£\Xf)v, Y = \Y\/{£\Y\i)k (znowu, gdy £\X\P = 0 lub
£\Y\q = 0, to nierówność (4) jest oczywista). Gdy wstawimy do (4) X
zamiast w, Y zamiast z i weźmiemy wartość oczekiwaną, to otrzymamy
tezę. ■
Udowodnimy prostą, ale niezwykle użyteczną w rachunku prawdopodobień­
stwa nierówność.
Niektóre źródła
przypisują tę Twierdzenie 4 (Nierówność Czebyszewa). Niech X będzie nieujemną
nierówność zmienną losową. Wtedy dla każdego e > 0,
Markowowi.
P (X > e) ^ Ź j-.
D o w ó d . eP (X ^ e) ^ Ą x^e} X
^ £%• ■
Przedstawimy teraz kilka wariantów nierówności Czebyszewa.
Przypominamy, że ess sup X oznacza supremum istotne X , czyli
§5.7. Nierówności związane z momentami
93
Jeśli Czytelnik nie rozumie powyższego napisu, jest całkowicie usprawiedli­
wiony. Użycie dystrybuanty prowadzi do znacznie prostszej definicji:
ess supX = inf{i € R: Fx(t) = 1}.
Twierdzenie 5 (Uogólniona nierówność Czebyszewa). Niech funkc­
ja g: R —>R będzie borelowska i dodatnia.
(a) Jeśli g jest niemalejąca, to dla dowolnego a € R
w n - M <P(x>a)<* m '
esssup^(A)
g[a)
. (5)
( 6) Jesii g jest parzysta i niemalejąca na [0, oo), to dla e > 0
esssupg(X)
g(e)
D o w ó d , (a) Postępując analogicznie jak w dowodzie twierdzenia 4 mamy
g(a)P(X > a ) <
f
J{X>a}
g{X) dP < Sg{X) <
< ess sup^(X) •P (X > a) + g(a),
skąd wynika (5).
Punkt (b) dowodzi się analogicznie. ■
Z uogólnionej nierówności Czebyszewa otrzymujemy jako wniosek, dobiera­
jąc specjalną postać g, szereg oszacowań.
W niosek 6 .
(a) Nierówność Markowa. Niech p > 0. Wtedy
P {\ X \ > e)< ^
(7)
dla dowolnego e > 0 .
(b) Nierówność Czebyszewa-Bienayme.
7)2X
P (\ X -£ X \ > e )< ^ r
(8 )
dla dowolnego e > 0 .
(c) W ykładnicza nierówność Czebyszewa. Jeśli £epX < oo dla pew­
nego p > 0, to dla X € [0,p]
c \x
P {X > e )* i^ r
dla dowolnego e.
(9)
Rozdział 5. Zmienne losowe
94
Nierówność Czebyszewa ma interesujące zastosowanie w analizie.
Przykład 7 (Twierdzenie Bernsteina). Każdą funkcję ciągłą / na od­
cinku [0,1] można jednostajnie przybliżać ciągiem wielomianów Bernsteina
D o w ó d . Niech m (f,6 ) będzie modułem ciągłości funkcji / , czyli
m (f,6) =
SUP \f(x) - f ( y ) l
S> °
x,y£[0,l]
\x-y\<6
oraz M = supie [0jl] |/(z)| < oo, bo / jest ograniczona. Ustalmy x 6 [0,1].
Niech Sn będzie zmienną losową o rozkładzie Bernoulliego z parametrami
n, x. Wtedy £ f(S n/n) = Bn(x) i z nierówności Czebyszewa ( 8 ) mamy
1
4ni
Stąd
1/ ( * ) - Bn{x)\ ^
/(») - /
x k{\ - x )n~k +
i}
< m (f,n i) + 2 M p (
Sn
/
—i \
M.
< m ( / , n i) + — ¡-,
2n5
gdzie prawa strona nie zależy od x. Ponieważ / jest ciągła na odcinku [0,1],
więc jest jednostajnie ciągła i lim,5_,o
, S) = 0. Zatem
lim
sup |f(x ) - Bn(x)| = 0. ■
n->ooi:e[0,l]
Zadania
1. Udowodnić nierówność (1), gdy £X 2 = 0.
2. Udowodnić, że w nierówności Holdera (3) zachodzi równość wtedy i tylko
XIi p.n.
wtedy, gdy
§5.8. Niezależne zmienne losowe
95
3. Pokazać, że jeśli 0 < p < g, to
4. Pokazać, że jeśli £ X ^ 0, 0 < £ X 2 < oo, A £ [0,1], to
P (X > X£X) > (1 - A)2^ | | f ,
a w szczególności
P {X > 0 )^ -| f ? .
5. Udowodnić nierówności (7), (8) i (9).
6 . Wykazać, że jeśli X > 0 i £ X > 0, to
7. Udowodnić regułę 3-a (trzech sigm): jeśli V 2X = a 2 < oo, to
P (| X -i :A :| > 3 c r ) < i.
8. Udowodnić nierówność Minkowskiego: jeśli p ^ 1, to
(£\X + Y\p)llp
§ 5.8.
(£\X\pf h + (£ \Y\vf lp.
Niezależne zmienne losowe
Definicja niezależności zmiennych losowych jest naturalna: zdarzenia, gene­
rowane przez poszczególne zmienne losowe powinny być niezależne.
Definicja 1. Zmienne losowe X%,X2 , . . . , X n o wartościach w R, okre­
ślone na (fi, T, P) nazywamy niezależnymi, gdy dla każdego ciągu zbiorów
borelowskich Bi, B2 ,
Bn zachodzi równość
P {X f € B u X 2 e B 2, . . . , X n e B n) = P {X l e B1) •... •P (X n e B „).(l)
Z (1) widać, że rozkład łączny niezależnych zmiennych losowych X i, X 2 ,
..., X n jest wyznaczony przez rozkłady brzegowe, a dokładniej — przez
rozkłady zmiennych losowych X l.
Definicję 1 można także wypowiedzieć krótko: zmienne losowe są niezależne
wtedy i tylko wtedy, gdy niezależne są cr-ciała, generowane przez te zmienne Niezależność
losowe. Istotnie, po prawej stronie równości (1) występują zdarzenia postaci (j-cial
zdefiniowaliśmy w
X ~ 1(Bi), gdzie Bi € S(R ), czyli wszystkie elementy cr-ciał <j(Xi).
4.1.9, w def. 11
zdefiniujemy
pojęcie ogólniejsze
— niezależność
klas zdarzeń.
Rozdział 5. Zmienne losowe
96
Przykład 2. Nietrudno wymyślać intuicyjnie oczywiste przykłady nieza­
leżnych. zmiennych losowych. Oto dwa:
a) Rzucamy dwa razy kostką, X* jest wynikiem ¿-tego rzutu, i — 1,2. Wtedy
zmienne losowe X i, X 2 są niezależne.
b) Z talii 52 kart wyciągamy jedną. Niech X będzie jej wartością, a Y jej
kolorem (kolory numerujemy od 1 do 4). Wtedy X , Y są niezależne. ■
Dowodzenie czegokolwiek dla dowolnego ciągu zbiorów borelowskich może
przestraszyć początkującego. Ale sprawdzanie niezależności da się znacz­
nie uprościć, a głównym narzędziem w dowodach odpowiednich twierdzeń
będzie lemat o ir- i A-układach. Oto pierwsze twierdzenie z tej serii:
V yT w ierdzen ie 3. Dla zmiennych losowych X i , X 2, . . . , X n o wartościach
w R następujące warunki są równoważne:
(i) zmienne losowe są niezależne,
{ii) P-(xltx 2,...,xn) =
<8> Mx2 ®
■••® M x„,
(iii) dla wszystkich t j , . . . , tn e R
F(xu...,xn)(t 1, •••,tn) = FXl{ti)F x2(t2) ■..F Xn(tn).
Dowód.
Dowód tego
(¿^ (¿¿). Dla dowolnych
€ B(R), korzystając z niezależności
’ definicji miary produktowej mamy
wynikania jest
właściwie
^
1 X . . . X i? n )
_ .
P [ X i E By-, ■ * •yX n G B n ) =
= p ( Xl 6 Bj) •.. . ■P (X n € Bn) =
niepotrzebny, ale
warto zobaczyć
równoważność
= MXi (B i)f/ ,x 2 { B 2) ■. . . •fJ-xn ( B n )
(i)<$(ii).
tzn. obie miary są równe na 7r-układzie generującym cr-ciało # (R n), więc
są równe na mocy uwagi 5.3.9.
(¿¿)=> (¿). Odwracamy rozumowanie.
(¿)=i* (¿¿¿). Bierzemy Bi = (—00 , t»] dla i = 1 , 2. .. , n.
(iii)=> (ii). Niech F będzie dystrybuantą rozkładu fj,Xl ®
®
■Wtedy
F ( t i , . . . , t n) =p.Xl ® V x2 ®- -- ®Ai xn((-oo,£1] x ... x ( - 00 , in]) =
\
= M xt ( ( —o o , t i ] ) •. . . ■^ x „ ( ( - o o , t n]) =
'
= Fx 1(ii) •... •Fx„ (tn),
co z założenia jest równe F^x1,...,xn)(hi •••, tn). Zatem
MXi ® MX2 ®
®
= /i(X i,...,X „),
bo oba rozkłady mają identyczną dystrybuantę. ■
§ 5.8. Niezależne zmienne losowe
97
Przykład 4. Niech X lt X 2, . . . , X n będą niezależnymi zmiennymi losowy­
mi. Znaleźć rozkład Y = ma.x(Xi,X2, .. . ,X n), Z = m m (X i,X 2, .. .,X „).
R o z w i ą z a n i e . Wyznaczymy dystrybuanty:
F y (x )
= P (Y < x) = P(ma,x(X1,X 2, .. . ,X n) ^ x ) —
= P (X i < x , . . X n ^ x) = F1(x)F2( x ) . ,.F n(x),
Fz (x) = P (Z < x) = 1 - P (Z > x) = 1 - P (X i > * ) • . . . • P (X n > z) =
n
= i - n i 1 - ^(*m2= 1
W przypadku szczególnym, gdy Xi mają rozkłady jednostajne na [0,1] (co
zapiszemy w skrócie: Xi ~ U{0,1]), i = 1,2,... n, mamy
f0
dla x < 0 ,
Fy(x) = <
dla 0 ^ x < 1,
l 1
dla x > 1.
f0
dla x < 0 ,
Fz{x) = < 1 - (1 - x )n dla 0 < x < 1,
V.1
dla x > 1.
■
Gdy zmienne losowe mają taki sam typ rozkładu, to można podać prostsze
charakteryzacje niezależności.
Zaczniemy od rozkładów dyskretnych. Niech
skokowych rozkładu n x , -
Sx,
będzie zbiorem punktów
Tw ierdzenie 5. Zmienne losowe X\,X2, . . . , X n o rozkładach dyskretnych
są niezależne wtedy i tylko wtedy, gdy dla każdego ciągu xi, x 2, ■■■, x n, gdzie
Xi £ ^Xij i 1-j 2 , •••¡n,
P (X !
=
XU . . . , X n = X n)
=
P(X i
=
X1)P (X 2 = X 2) . . . P {X n =
Xn).
D o w ó d . => Wprost z definicji niezależności, wystarczy wziąć Bi = {a;;}.
<= Sprawdzamy, że jest spełniony warunek (iii) z twierdzenia 3.
F(xi,...,xn)(ti> •- ■j tn)
^ ] P{Xi = y i, . . . , X n = yn) =
y><ii
Vi€SXi
= J 2 P (X 1 = Vl)P (X 2 = y2) ■... •P (X n = yn) =
=
J 2 p (x ^ = vi) £
P{X2 = y i ) x . . .
VlKH
2/2^2
yitSxx
V2^śx2
... X
Y ,
P (X n =
Vn) =
yn^tn
yn€Sxn
= F X l ( t i ) F x 2( t 2 ) . - . F x n ( t n ).
Rozdział 5. Zmienne losowe
98
Operacje na nieskończonych sumach są uprawnione ze względu na dodatniość składników. ■
Przykład 6. Rozpatrzmy schemat Bernoulliego n doświadczeń. Wtedy
fi = { 0 , l } n. Niech Xi(u>) =
będzie wynikiem i-tego doświadczenia.
Zmienne losowe X\, X 2, ■■■, X n są niezależne.
Istotnie, niech dj e Sxt = {0,1}, i = 1,2, ..., n. Wtedy
-P(-X^
=
iii, . . . ,
Xn
On)
^ ( ( ^ 1 , * * * )^ n ) )
=
=
p £ i = l a * ( 1 — p ) n ~ 5 D i= i a * =
n
= J [ P ( X i = o i).m
i= 1
Teraz zajmiemy się zmiennymi losowymi o rozkładzie ciągłym.
Tw ierdzenie 7. Jes/i X i , X 2, ■■■ , X n są zmiennymi losowymi o rozkła­
dach ciągłych z gęstościami odpowiednio gi,g2, •■•, <?n, to zmienne te są
niezależne wtedy i tylko wtedy, gdy M(xi,x2,...,x„) jest rozkładem ciągłym
z gęstością
g( x i ,x 2, . . . , x n) = gx(x1)g2 (x2) . ,.g n(xn).
Dowód.
Skorzystamy z twierdzenia 3 i twierdzenia Fubiniego.
F ( X i , . . . , X n ) ( i l ) •• •i t n ) =
F x 1{ t i ) ■ ■ ■ F x n ( t n ) =
g i{x i)d x i...
gn(xn)dxn =
J—OO
I gi(xi)g2(x2) . ..g n(xn)d x i. ..d x n,
—OO
zatem g\g2 ■... ■gn jest gęstością.
<= Odwracamy rozumowanie. ■
Przykład 8. a) Niech zmienne losowe X j mają rozkłady jednostajne na
[a^, bj], j = 1,2, .. . , n. Są one niezależne wtedy i tylko wtedy, gdy wektor
losowy ( X i , X 2, ■■■, X n) ma rozkład jednostajny na [aj, b\] x ... x [an, 6n],
Istotnie,
n
l[a i,6 i] ( X i )
x ... x [an ,6n]
*^2; • • •i X n )
i= 1
i korzystamy z twierdzenia 7.
b) Wektor losowy (X, Y) ma rozkład jednostajny na okręgu o środku (0,0)
i promieniu 1. Zmienne losowe X i Y nie są niezależne. Czytelnik zechce się
§ 5.8- Niezależne zmienne losowe
99
zastanowić, jak to sprawdzić najmniejszym kosztem (chyba nie warto obli­
czać dystrybuant). Intuicyjny argument jest taki: jeśli X = 1, to Y = 0 —
zatem informacja o wartości X daje nową informację o wartości Y.
c) Niech Xj ma rozkład N {pij, o f) , j = 1,2,..., n. Współrzędne X lt X 2,
. . X n są niezależne wtedy i tylko wtedy, gdy wektor (X i,X 2, ■■. , X n)
ma rozkład normalny z wektorem wartości oczekiwanej (m i,m 2, ... ,mn)
i diagonalną macierzą kowariancji
' <A
0 ]
czyli wtedy i tylko wtedy, gdy (X\, X 2, ■■■, X n) ma rozkład normalny i pa­
rami nieskorelowane współrzędne.
To wynika z twierdzenia 7, gdyż
= _____:_____e “^ i=1
i=i
1
( V 2 n ) n crl .. .< J n
Można znaleźć przykład dwóch nieskorelowanych zmiennych losowych X i
Y o rozkładzie M (0,1), które nie są niezależne (zad. 20). Oczywiście wtedy
rozkład łączny H(x,Y) nie może być normalny. ■
Teraz zajmiemy się rodzinami niezależnych zmiennych losowych.
Definicja 9. Zmienne losowe (X a)aeA określone na tej samej przestrzeni
probabilistycznej nazywamy niezależnymi, gdy dla każdego skończonego cią­
gu indeksów ¿i,*2, •■-,*n £ A, n € N, zmienne losowe X i1, . . . ,
są
niezależne.
Przykład 10. W przykładzie 4.2.2 skonstruowaliśmy przestrzeń probabili­
styczną dla nieskończonego ciągu prób Bernoulliego. Niech (Jfn)^!^ będzie
takim ciągiem zmiennych losowych na tej przestrzeni, że Xi jest równe 1
(odpowiednio 0 ), jeśli w ¿-tym doświadczeniu zdarzył się sukces (odpowied­
nio porażka). Zmienne losowe X n, n = 1,2,... są niezależne. ■
Jeśli szansa sukcesu w schemacie Bernoulliego jest równa 1/2, to ciąg zmien­
nych losowych (Un), gdzie Un = 2Xn —\ dian = 1,2,..., będziemy nazywać
ciągiem Bernoulliego. Zmienne losowe Un są niezależne i przyjmują z rów­
nymi prawdopodobieństwami wartości 1 i —1.
Na początku tego paragrafu powiedzieliśmy, że zmienne losowe (Xa)aeA są
niezależne wtedy i tylko wtedy, gdy a-ciała ( < x ( X a ) ) a e A są niezależne. De­
finicja 11 poniżej nadaje tej wypowiedzi ścisły sens. Okazuje się, że patrząc
Podobne
twierdzenie: jeśli
dwie
nieskorelowane
zmienne losowe
mają rozkłady
dwupunktowe, to
są niezależne.
Rozdział 5. Zmienne losowe
100
na niezależność w ten sposób, można łatwo otrzymać następujące twier­
dzenie: Zmienne losowe X i ,X 2,■■■ są niezależne. Dzielimy ciąg na bloki
dowolnej długości i rozpatrujemy zmienne losowe
••- X mi),
. . . X rn2), . . . ,
gdzie (fi są funkcjami borelowskimi. Okazuje się, ze nowe zmienne losowe
są w dalszym ciągu niezależne.
Zdefiniujemy zatem niezależność dla rodzin zdarzeń.
Definicja 11. Niech {Hj.-i e / } będzie rodziną zbiorów zdarzeń. 3 ź są nie­
zależne wtedy i tylko wtedy, gdy dla każdego zbioru skończonego J-.J c I,
dla wszystkich Aj € Sj, j € J zachodzi
P ( f ] A j ) = ' [ [ P ( A j ).
ŻQJ
Twierdzenie 12 (O niezależnych 7r-układach). Niech {E,z:i 6 1} bę­
dzie rodziną -n-układów. Wtedy warunkiem dostatecznym (i koniecznym)
niezależności a-ciał {cr(Sj):i 6 1} jest niezależność {S ;:ż G / } .
Czy 5 i koniecznie
muszą być
7r-układami?
Tak, Minimalny
kontrprzyklad
składa, się z trzech
zbiorów,
tworzących dwie
rodziny (zad. 21).
D o wó d . Na mocy definicji niezależności wystarczy rozpatrzyć przypa­
dek, gdy I jest zbiorem skończonym. Dla wygody przyjmijmy, że I =
= { 1,2,.. ., n}. Na początek oznaczmy przez Ai klasę zdarzeń B x takich,
że
n
P (£ i n A 2 n ... n A n) = p ( b {)
2
dla wszystkich Aj 6 Ej, j = 2,... ,n. Wystarczy wykazać, że <7(5 ;!) C Ai,
wtedy bowiem rodziny cr(Si), Sj, j = 2 , . . . , n są niezależne.
Otóż, jak łatwo sprawdzić, Ai jest A-układem, Si C A z założenia. Ponieważ
Si jest 7r-układem, z lematu 5.3.6 o ir- i A układach mamy c(Si) C Ai.
Przypuśćmy teraz, że udowodniliśmy, iż równość
fc
p
(B i n . . . n ą n A k+i n . . . n A n) = n m
i —1
n
)
n
j= k + 1
zachodzi dla pewnego k < n, o ile Bj g ff(Sj), j = 1 ,. . . , k i Aj £ Sj,
j = fc + 1,. . . , n. Rozumowanie podobne do przeprowadzonego powyżej
pozwala stwierdzić, że równość ta ma miejsce dla k + 1 , jeśli tylko k + 1 ^ n.
W takim razie równość zachodzi dla k = n. m
Twierdzenie 13. Niech {F t-t G T }, Tt C T będzie rodziną niezależnych
a-ciał i niech zbiór T będzie sumą parami rozłącznych zbiorów Tit i e I.
Wtedy niezależna jest rodzina a-ciał
G i-a ( U
teTi
e I-
§5.8. Niezależne zmienne losowe
101
Do wó d. Dla każdego i określamy klasę S, wszystkich skończonych iloczy­
nów postaci Btl n . . . n Btn,
€T{, Btm G Ttm. S, jest 7r-układem
oraz <r(Ej) = G%- Z założenia wynika, że 3* są niezależne (zad. 5), więc
z twierdzenia 12 {<r(Ej): i € 1} są niezależne. ■
To twierdzenie pozwoli nam uzyskać zapowiadany już i bardzo ważny fakt,
że funkcje borelowskie od niezależnych zmiennych losowych są dalej nieza­
leżnymi zmiennymi losowymi.
Twierdzenie 14. Załóżmy, że zmienne losowe
' /'
X i,i,X it2, ■■■,Xi!k1,X2)i, ■■■X 2tk25 Xjitl , . - • ,X 7li}Zn
są niezależne. Wówczas zmienne losowe
= lP j ( X j , i , ••■,X j tf-j),
j
= 1, 2,..., n,
gdzie
— funkcje borelowskie takie, że Yj są dobrze zdefiniowane, są nie­
zależne.
D o wó d . Wektory Zi = (Xiti , ... , Xitki) są niezależne, bo na mocy twier^
dzenia 13 cr-ciała
cr(Zi) = <r((r(Xiti ) ,.. .,a (X itki)),
i = l,...,n
są niezależne. Ponieważ dla dowolnego zbioru borelowskiego B € 6 (R)
{Yj e B } = {Zj e <pj\B)} e a(Zó),
to Yi, Y2, . . . , Yn są niezależne. ■
Dlatego na przykład, gdy X i, X 2, ■■■, Xio są niezależne, to X i + X 2 + X 3,
X ą —X s, X gX jX$, Xg, eXl° są niezależne.
Niezależność zmiennych losowych pomaga w obliczaniu wartości oczekiwa­
nych. Istotnie, zachodzi
Twierdzenie 15. Niech X \ ,...,X n będą niezależnymi zmiennymi ¿oso- '/
wymi, które mają wartość oczekiwaną. Wtedy istnieje wartość oczekiwana
iloczynu X iX 2 ■... ■X n i
S(X 1X 2 -...■ X n) = £ X 1 -£ X 2 - . . . - £ X n.
D o w ó d . Niech funkcja ip: R " —>R będzie dana wzorem
<p(xi , x2, . . . , xn) = x±x2 *... xn.
Rozdział 5. Zmienne losowe
102
Wtedy
.., X n) = £{X i ■
X „) istnieje, jeśli tylko
\ip(xx, . . . , x n)\p1(Xlt...tx „){d x 1 ...d x n) < oo.
Korzystając z założeń i twierdzenia Fubiniego, otrzymujemy
\X1 X2 ■■■Xn\ll(Xu...,Xn){dxi •••dxn) ~
\xiX2 -..X n\lJ,xi (dxl)---lJ'Xn(dXn) = n
\xi\fjxi(dxi) < oo.
Zatem wartość oczekiwana istnieje i wtedy
£ (X i •... ■X n) -
/
xi ■... ■x n/j,{Xu,„<Xn){dxi -.. dxn) =
= £ X 1 -£ X 2 - . . . - £ X n. m
Uwagi, a) To twierdzenie nie jest prawdziwe dla nieskończonego ciągu
zmiennych losowych X i ,X 2 , ■■■(patrz przykł. 11.2.5).
b) Z twierdzenia wynika, że jeśli X i i X 2 są niezależne i mają wartość
oczekiwaną, to są nieskorelowane (patrz także zad. 6 ).
c) Twierdzenie można sformułować nieco inaczej: jeśli jedna ze stron jest
całkowalna, to całkowalna jest druga i zachodzi równość. Wystarczy w tym
celu zauważyć, że istnienie £ (X\X 2 ■... ■X n) jest równoważne z istnieniem
£ (|Xi| •|X2 |•... •\Xn\), skąd — po zastosowaniu twierdzenia Fubiniego
dla funkcji nieujemnych — otrzymujemy całkowalność £Xi, i = 1, 2, . . . , n.
Tw ierdzenie 16. Jeżeli X i,X 2 , ■.., X n są niezależnymi zmiennymi loso­
wymi, mającymi wariancję, to istnieje wariancja sumy i
D o w ó d . Twierdzenie wynika z tw. 5.6.16 i stąd, że niezależne zmienne
losowe mające wariancję są nieskorelowane. ■
P rzykład 17. Obliczymy wariancję liczby sukcesów Sn w schemacie Bernoulliego n prób. Ponieważ Sn = X\ + ... + X n, gdzie X{ mówi nam, czy
zaszedł sukces w ¿-tym doświadczeniu (wtedy Xi = 1), czy nie (Xi = 0 )
oraz X i , . . . , X n są niezależne (patrz przykład 6 ), to
n
i—
1
= «*»(!■ - p)- ■
§ 5.8. Niezależne zmienne losowe
103
Zajmiemy się teraz rozkładem sumy niezależnych zmiennych losowych. Na
początek, niech X i,X 2 będą niezależne, B 6 B(R). Wtedy z niezależności
i twierdzenia Fubiniego mamy:
f t I+xJ(B) = P ( I 1 + X 2 € B ) =
= P ((X UX 2) e { ( x , y ) e R 2:x + y e B }) =
= /
1 {x+yeB}{x,y)n{Xl,x2)(dx,dy) =
JE2
= /
JR2
/
l{*+!,6 B } ( x , y ) f i x l ( d x ) n x 2 ( d y )
=
r po
oo
l B- v(x)fiX l(dx) Vx2(dy) =
-oo L*» —c
oo
/
#OCi(£ - y)vx2(dy) = (mXi * Mx2)(B).
-oo
W ostatnim wyrażeniu pojawiła się miara (probabilistyczna), którą nazy­
wamy splotem rozkładów. Jest jasne, że
MXi * Px2 = Px2 * l*xi ■
Wykazaliśmy, że rozkład sumy niezależnych zmiennych losowych jest splo­
tem rozkładów tych zmiennych losowych.
Gdy założymy dodatkowo, że X\ i X 2 mają rozkłady ciągłe z gęstościami
9it 92 j to korzystając z twierdzenia 5.8.7 otrzymujemy:
HX1+X2(B) = (/*Xi * Px 2)(B) = /
J R2
=
/
J—oo
= /
/
/
J 13 J —00
5 2 ( 2/ ) d y =
S i («)< * «
LJ B —y
MXi(B - y)fiX2(dy) =
J
gi(u - y)g2(y) dydu = / (gi *g 2)(u)du,
JB
gdzie (fl! * S2)(m) =
- y)g2 (y)dy jest splotem funkcji znanym
z analizy. Zatem udowodniliśmy
A gdyby spleść
Stwierdzenie 18. Rozkład sumy niezależnych zmiennych losowych o roz­ gęstość z dowolną
kładach ciągłych jest zmienną losową o rozkładzie ciągłym z gęstością będącą miarą?
splotem gęstości.
Przykład 19. Niech X i,
będą niezależnymi zmiennymi losowymi o roz­
kładzie ¿/[0,1]. Wtedy X\ + X% ma rozkład (zwany trójkątnym) o gęstości
Też można, patrz
zad. 12.
Rozdział 5. Zmienne losowe
104
Pouczające jest obliczenie splotu trzech (zad. 11) i więcej gęstości jedno­
stajnych. Wykresy stają się wtedy coraz bardziej podobne (dlaczego?) do
gęstości rozkładu normalnego.
Innym przykładem zastosowania splotu jest
Twierdzenie 20. Niech X\, X 2, ■■■, X n będą niezależnymi zmiennymi lo­
sowymi o rozkładzie wykładniczym z parametrem A.
Wtedy suma X i + X 2 + ... + X n ma rozkład o gęstości gn i dystrybuancie
Gn danych wzorami
Jest to rozkład
Erlanga.
9n(x) -
Ł' Te " Agl <0,M)(3T),
0 n W _ , - . - * ( 1+ £
( 2)
+ ...+ £ ! & ) ,
I>0.
(3)
Dowód twierdzenia pozostawiamy jako zadanie (zad. 7).
Badanie zjawisk losowych przebiegających w czasie prowadzi w naturalny
sposób do badania rodzin zmiennych losowych, indeksowanych parametrem
interpretowanym jako czas. Oto przykład.
Przykład 21 (P roces Poissona). Zdefiniujemy teraz rodzinę zmiennych
losowych N (t),t € R + . Taką rodzinę nazywamy ¡procesem stochastycznym, \
a t interpretujemy jako czas. Funkcję N (-,u ), gdzie w jest ustalone, na­
zywamy realizacją (albo trajektorią) procesu stochastycznego. Funkcja ta
wyobraża
przebieg zjawiska odpowiadający jednej, konkretnie wybranej sy­
Dalej będzie
wygodniej pisać tuacji (w) spośród wszystkich możliwych.
Nt zamiast N (t).
Rozpatrzmy zdarzenia losowe takie, jak pojawianie się cząsteczek promie­
niowania kosmicznego, rozpad radioaktywny, wezwania telefoniczne. Przy­
puśćmy, że przeszłość n.ie ma wpływu na przyszłość. Zatem można przy­
puszczać (nie jest to bowiem formalny argument), że czas oczekiwania na
pierwszy sukces (sygnał) będzie zmienną losową z własnością braku pa­
mięci, czyli zmienną losową o rozkładzie wykładniczym (patrz zad. 5.1.16).
Po każdym sukcesie wszystko zaczyna się od nowa. Zatem kolejne czasy
oczekiwania X k są niezależnymi zmiennymi losowymi i mają ten sam roz­
kład wykładniczy. Zdefiniujmy teraz zmienną losową, liczącą sygnały, które
pojawiły się do momentu t:
„ df f 0
1 ~ [ sup{n: X i + ... + X n < t}
dla X i > t,
dla X\ ^ t.
Rodzinę Nt, t > 0 nazywa się procesem Poissona.
Wyznaczymy teraz rozkład zmiennej losowej Nt. Niech Sn = X i + . . . + X n.
Jest to moment pojawienia się n-tego sygnału. Z tw. 20 wynika, że Sn ma
5.8. Niezależne zmienne losowe
105
dystrybuantę Gn daną wzorem (3). Zmienna losowa Nt przyjmuje wartości
całkowite nieujemne, czyli wystarczy znaleźć P(Nt = fc) dla fc = 0,1,2,....
P(N t = k) = P{Sk < t, Sk+i > t) =
= P(Sk < t) + P(Sk+1 > t) - P ({S k < t } U {Sk+i > i}) =
= Gk(t) + (1 - G*+1(t)) - 1 = e“ AiM
k\
dla fc > 1, oraz
P(Nt = 0) = P (X t > t) = e-Ai.
Zatem Nt, ma rozkład Poissona z parametrem Ai. Rozkład ten otrzymamy
jeszcze raz w rozdz. 7 jako rozkład graniczny ciągu rozkładów Bernoulliego.
Łatwo widać, że P(N q — 0) = 1 i proces ma prawostronnie ciągłe trajek­
torie. Proces Poissona jest procesem o przyrostach niezależnych, czyli dla
dowolnych 0 < t0 < ti < ... < tn zmienne losowe
są niezależne.
Ponadto Nt —Ns ma rozkład Poissona z parametrem A(i —s) (dowody obu
stwierdzeń — patrz zad. 9.4.2). ■
Zadania
1. Zmienne losowe X, Y są niezależne i mają gęstości odp. fi i f 2 - Udowodnić,
że Z = X/Y ma gęstość g(u) =
lylfi(yu)f2(y) dy.
2. Xi, i — 1,2 jest wektorem losowym ¿¡-wymiarowym z gęstością
Jeśli
X UX2 są niezależne, to (Xi, X 2 ) jest wektorem (di +c!2)-wymiarowym o roz­
kładzie ciągłym z gęstością f (XliX2){z,w) = }x(z)f2{w).
3. Momenty przybycia autobusów A i B są niezależnymi zmiennymi losowymi
X ,Y o rozkładzie wykładniczym z parametrami a i ¡x.
a) Znaleźć rozkład momentu przybycia pierwszego autobusu.
b) Obliczyć prawdopodobieństwo, że autobus A przyjedzie pierwszy.
4. Dowód stw. 4.1.10. Niech {Ai}n=i będzie rodziną zdarzeń niezależnych.
Wykazać, że {a(Ai)}n=i jest rodziną <r-ciał niezależnych.
5. Wykazać, że ir-układy H; z dowodu twierdzenia 13 są niezależne.
6 . Podać przykład a) zmiennych losowych X\,Xi zależnych i nieskorelowanych;
b) zmiennej losowej X i takich funkcji / , g, że zmienne losowe f(X ) i g(Y)
są niezależne.
7. Udowodnić twierdzenie 20.
8 . Niech X, Y będą niezależnymi wektorami losowymi. Wykazać, że
P ( X e A, (X , Y ) e B ) =
P ((u , Y ) 6 B )tix(du ).
/
A
Rozdział 5. Zmienne losowe
106
9. Niech Z = E iT = i2
gdzie (Un) jest ciągiem Bernoułliego. Wykazać, że
Z ma rozkład jednostajny na odcinku [—1,1].
10. Wykazać, że dla dowolnego ciągu (fin) rozkładów prawdopodobieństwa ist­
nieje taki ciąg niezależnych zmiennych losowych (X „), że X n ~ fin11. Wyznaczyć rozkład sumy trzech niezależnych zmiennych losowych o rozkła­
dzie W[0, 1].
12. Wykazać, że suma niezależnych zmiennych losowych ma rozkład ciągły, jeśli
jeden ze składników ma rozkład ciągły.
*13. Udowodnić, że Z =
Unjn, gdzie (Un)n jest ciągiem Bernoułliego, ma
rozkład ciągły (zbieżność z prawdopodobieństwem 1 tego szeregu można
otrzymać z tw. 7.3.2).
14. Dwustronny rozkład wykładniczy. Zmienne losowe X i Y są niezależne
i mają ten sam rozkład wykładniczy. Wyznaczyć rozkład X — Y.
15. Niech U = min(X, Y), V = max(X, Y) —min(X, Y), gdzie X, Y są niezależne
i mają ten sam rozkład wykładniczy z parametrem A.
Wykazać, że U i V są niezależne.
Statystyki pozycyjne a proces Poissona. Jeśli X i , . - ■, X n są niezależnymi
zmiennymi losowymi o tym samym rozkładzie, to fc-tą statystyką pozycyjną nazy­
wamy fc-ty z kolei wyraz uporządkowanego w sposób rosnący ciągu ( X j , . . . , X n);
oznaczamy ją symbolem X(k)W szczególności X (i) = m in(Xi, . . . , X „ ), X (n) = m a x ( X i , . . . , X n).
16. Niech U =
U(n)) będzie zbiorem statystyk pozycyjnych dla roz­
kładu jednostajnego na [0,1]. Wykazać, że U ma rozkład jednostajny na
zbiorze Are = {(x i, ■■- , x n) £ R " : 0 $ xi ^ X2 ■■■ ^ x n ^ 1}.
Wyznaczyć £X(k) dla k = 1 , 2 , . . . , n.
Na rynku w
Grybowie stoją
taksówki o
numerach 27, 11 i
3. Jeden z
uczestników
konferencji
probabilistycznej
twierdzi, że naj­
prawdopodobniej
w miasteczku jest
36 taksówek.
Dlacsjego? Patrz
odp. fdo zad. 16.
Sygnały pojawiające się w procesie Poissona realizują intuicję losowego układu
punktów, co ściślej można wypowiedzieć tak: jeśli obserwujemy proces do chwili
t (albo do chwili pojawienia się n-tego sygnału), to zaobserwowane sygnały mają
taki rozkład na odcinku [0, t] (lub [0, Sn]), jak statystyki pozycyjne dla rozkładu
jednostajnego na odpowiednim odcinku.
17. Niech (Sn)%Li będzie ciągiem sygnałów w procesie Poissona. Wykazać, że
wektor (Si/S„+i, ■••, Sn/Sn+ 1) ma ten sam rozkład, co U z zad. 16.
18. Wykazać, że w procesie Poissona
P((SU ..., Sn) £ A \Nt = n) —P(tU € A),
A c An,
gdzie U jest wektorem statystyk pozycyjnych z zad. 16.
Innymi słowy, jeśli wiadomo, że na odcinku [0, i] pojawiło się n sygnałów,
to ich wspólny rozkład jest taki, jak statystyk pozycyjnych dla rozkładu
jednostajnego na [0, t].
§ 5.8. Niezależne zmienne losowe
107
Paradoks czasu oczekiwania. Załóżmy, że odstępy czasu pomiędzy przyjaz­
dami kolejnych autobusów są niezależne i mają ten sam rozkład wykładniczy
z parametrem A, tak że przyjazdy są sygnałami z procesu Poissona (przykład
21). Średni czas oczekiwania na autobus można obliczać na dwa sposoby.
Po pierwsze, własność braku pamięci dla rozkładu wykładniczego powoduje, że
niezależnie od tego, ile czasu upłynęło od przyjazdu ostatniego autobusu, średni
czas oczekiwania jest stale równy 1/ A.
Po drugie, na przystanek przychodzimy w chwili to pomiędzy przyjazdami au­
tobusów. Jeśli uznamy tę chwilę za wybraną losowo w odpowiednim przedziale,
to średni czas oczekiwania powinien być równy połowie średniego odstępu, czyli
1/2A. Może ta argumentacja jest podejrzana, ale każdym razie średni czas ocze­
kiwania powinien być wyraźnie krótszy niż 1/A.
Wyjaśnienie kryje się w fakcie, że przedział zawierający chwilę io jest średnio
dłuższy niż 1/A.
19. Wykazać, że średni czas, jaki upłynął od przyjazdu ostatniego autobusu jest
równy (1 —e” ^°)/A .
Tak więc dla dużych to średni czas od przyjazdu ostatniego autobusu jest prak­
tycznie równy 1/A, taki sam jest czas oczekiwania na najbliższy autobus. Prze­
dział zawierający chwilę io ma średnią długość bliską 2/A, my przychodzimy mniej
więcej w jego połowie i paradoks znika.
20. Podać przykład nieskorelowanych zmiennych losowych o rozkładzie N (0,1),
które nie są niezależne.
21. Podać kontrprzykład, pokazujący, że tw. 5.8.12 nie jest prawdziwe dla do­
wolnych rodzin zdarzeń.
*22. Sym etryczna nierówność Bernsteina. Niech (UTl) będzie ciągiem Bernoulliego, oznaczmy S„ = Ui + . .. +
Wykazać, że
To symetryczny
przypadek
nierówności 7.4.2.
*23. N ierów ność H ardy’ ego—Littlew ooda. Wywnioskować z zadania 22, że
nmsuP _ 7 s Ą = ^ 1
»
V2nl°g n
P n-
lim inf
n v 2n logn
p.n.
Uwaga. Równie dobrze
—I
f24. Podać przykład dwóch funkcji ciągłych, różnych od stałej, określonych na
przedziale [0, 1], które potraktowane jako zmienne losowe (prawdopodobień­
stwem jest miara Lebesgue’a na [0,1]) są niezależne. Czy takie funkcje mogą
być klasy C 1? Czy mogą mieć wahanie skończone?
25. Wylosowano niezależnie i zgodnie z tym samym rozkładem o ciągłej dystrybuancie dwie liczby rzeczywiste; pokazano nam jedną z nich. Jeśli prawidłowo
odgadniemy, czy jest ona mniejsza czy większa od drugiej, wygramy 106 USD.
Co robić?
Rozdział 5. Zmienne losowe
108
§ 5.9.
Różne rodzaje zbieżności zmiennych losowych
Definicja 1. Ciąg zmiennych losowych (X n
losowej X :
jest zbieżny do zmiennej
(a) prawie na pewno, jeśli
P({w:limJrn(w) = A-(w)}) = l,
TL
co oznaczamy X n
>X ;
(b) według prawdopodobieństwa, jeśli dla każdego e > 0
\imP(\Xn - X \ > e ) = 0,
n
p
co oznaczamy X n — >X ;
Definicja
przestrzeni
£ P(Í2, F , P )
^
we([fug p-tego momentu (w LP), 0 < p < oo, jeśli £\X\P < oo,
n
£|*^n|
,
^ 0 0 d l a Tl = 1 , 2 , . . . %
znajduje się
w dodatku C.
lim £| X n — X \ p = 0,
n
V n —
L P >X
V .
co oznaczamy X
Każda z tych zbieżności ma swój odpowiednik w analizie (są to odpowiednio
zbieżności prawie wszędzie, według miary i w LP). W przyszłości pojawi się
jeszcze jeden rodzaj zbieżności, najważniejszy z punktu widzenia rachunku
prawdopodobieństwa: zbieżność według rozkładu (patrz rozdział 8).
Zajmiemy się teraz zbieżnością prawie na pewno. Bezpośrednio z definicji
wynika następujące stwierdzenie:
Stwierdzenie 2. Jeśli X n
+ X , Yn
Y , to
(a) dla dowolnych a, b € R jest aXn + bYn
aX + bY;
(b) X n -Yn ^ X - Y ;
(c) jeśli P (X ± 0) = 1, to 1{X^ 0} j t ^
i'
i
Mamy też charakteryzację zbieżności prawie na pewno:
Twierdzenie 3. Następujące warunki są równoważne:
§ 5.9. Różne rodzaje zbieżności zmiennych losowych
109
( 6) dla każdego e > 0 limw-»oo -P(fl^=Ar{|Xn - X\ < e}) = 1;
(c) dla każdego e > 0 limjv-,oo -P(U^Lw{|X„ ~ X \ > e}) = 0 .
Do wó d . Równoważność (b) i (c) jest oczywista, (a) i ( 6) są równoważne,
bowiem
oo oo
X n ^ X ^ V e > 0 P ( l J f| {\Xn - X\ < e}) = 1,
(1)
N=ln=N
a ponieważ zdarzenia B n = fl^Aril^n —X| < e} tworzą rodzinę wstępu­
jącą, to z twierdzenia 1.1.7 o ciągłości prawa strona (1) jest równoważna
warunkowi
OO
lim P ( f | { | X n - Z | < £}) = l . H
N—»oo
1 '
n—N
W niosek 4. Jeśli dla każdego e > 0 mamy
to X n ^ X .
P{\Xn ~ X\ > e) < oa,
Do wó d . Jest spełniony warunek (c) twierdzenia 3, gdyż
OO
OO
P( IJ |*n - X | > £) < £ P ( | X „ - X | > £) ------ >0
\r
»r
n=N
N — »OO
n—N
jako reszta szeregu zbieżnego. ■
Zbieżność prawie na pewno pociąga za sobą zbieżność według prawdopo­
dobieństwa.
W niosek 5. Jeśli X n ^
X , to
___
Dowód pozostawiamy jako zadanie (zad. 4). Z nierówności Markowa wynika,
że zbieżność według p-tego momentu pociąga zbieżność według prawdopo­
dobieństwa.
•
Lp
P
Twierdzenie 6 . Jeśli X n — ►X , to X n — ►X . Gdy dodatkowo
ess sup^ęj^ X n ^ K,
p
to zbieżność według prawdopodobieństwa, X n — >X , pociąga zbieżność we-------------------------------------------------------- ------------
jTP
dług p-tego momentu, X n -~^~XT.
_________
.... .
...
D o wó d . Stosujemy uogólnioną nierówność Czebyszewa do funkcji g(x) =
= |xp i X n - X . »
Jak pokazuje poniższy przykład, inne ogólne zależności między zbieżno­
ściami nie mają miejsca.
Rozdział 5. Zmienne losowe
110
P rzykład 7, a) Niech (An)n będzie ciągiem zdarzeń niezależnych takim,
że ¿ n P(An) = °°> ale iimn-.oo P{A n) = 0. Wtedy X n = l An jest zbieżny
do X s 0 według prawdopodobieństwa i według p-tego momentu dla do­
wolnego p > 0, ale nie jest zbieżny prawie na pewno. Istotnie, dla dowolnego
e > 0, mamy P(\Xn\ > e) ^ P(A n) —> 0, £\Xn\p = P (A n) —►0. Z dru­
giej strony, na mocy lematu Borela-Cantelłiego zachodzi nieskończenie wiele
zdarzeń An, zatem prawie na pewno X n(cj) = 1 dla nieskończenie wielu n,
czyli X n nie jest zbieżny prawie na pewno do X = 0.
b) Niech fi = (0,1], A n = (0, £] oraz X n = 2nl An. Wtedy X n(u) = 0 dla
n takich, że A < ui. Zatem X n
0 (a więc także X n
0). Ponieważ
£\Xn\p = 2np •i ------ > oo dla każdego p, więc X n nie jest zbieżny według
n —»oo
p-tego momentu dla żadnego p. ■
Zajmiemy się teraz dokładniej zbieżnością według prawdopodobieństwa.
Okazuje się, że z ciągu zbieżnego według prawdopodobieństwa można wy­
brać podciąg zbieżny prawie na pewno.
P
Tw ierdzenie 8 (Riesza). Jeśli X n — * X , to istnieje podciąg (X nk) taki,
że X nk ^
X.
"
D o w ó d . Z definicji zbieżności według prawdopodobieństwa, dla dowolnego
k istnieje nk, że
P(\Xn - X\ > 2~k) < 2~k
dla n ^ rifc. Wybierzmy ciąg (nk) tak, by był rosnący. Rozważmy podciąg
{X nk). Ponieważ E f c L i ~ -XI > 2~k) < oo, to z lematu Borela-Cantelliego zachodzi skończona liczba zdarzeń
{\Xnk- X \ > 2 ~ k},
zatem \Xnk(u>) - X(w)| < 2~k dla k > k(u>), prawie na pewno, czyli
X nk ^
X. m
Do badania zbieżności według prawdopodobieństwa bardzo przydatne jest
następujące twierdzenie:
/■ h.. v . v'
"r
/ <-vr\
' 'ł '
Tw ierdzenie 9. Ciąg (X n)n jest zbieżny według prawdopodobieństwa do
X wtedy- i tylko wtedy, gdy każdy jego podciąg (X nii)k zawiera podciąg
(X nki )i zbieżny do X prawie na pewno.
D o w ó d . =>• (X n)n jest zbieżny według prawdopodobieństwa do X , więc
podciąg (X nk)k też, i korzystając z twierdzenia 8 otrzymujemy istnienie
podciągu (X nkl)i zbieżnego prawie na pewno do X.
§5.9. Różne rodzaje zbieżności zmiennych losowych
111
4= Nie wprost. Gdy (X n)„ nie jest zbieżny według prawdopodobieństwa, to
istnieje e > 0 i podciąg nk T oo taki, że
P(\Xnk- X \ > e ) > e .
(2)
Z założenia z podciągu (Xnk)k można wybrać dalszy podciąg (X nkl )i zbież­
ny do X prawie na pewno, ale (X nk[)i spełnia (2). Sprzeczność. ■
p
W niosek 10. Jeśli X n — > X , f jest funkcją ciągłą na zbiorze A oraz
P {X e A ) = l, to f ( X n) - A f(X ).
D o w ó d . Korzystając z twierdzenia 9, wystarczy pokazać, że z każdego
ciągu rosnącego liczb naturalnych (nk)k można wybrać podciąg
); taki,
że f ( X nkl)
f(X ). Ponieważ X n — > X , to z (Xni) można wybrać
podciąg (X nk) taki, że X nk
X (znowu z twierdzenia 9), a ponieważ
P (X € A) = 1 i / jest ciągła na A, to f ( X nki) ^
f(x ). m
Wynika stąd wniosek, odpowiednik stwierdzenia 2 dla zbieżności prawie na
pewno, którego dowód z definicji byłby dosyć żmudny.
W niosek 11. Jeśli X n
X , Yn — >Y, to
p
(a) dla dowolnych a, b € R mamy aXn + bYn — >aX + bY,
(b) X nYn - A X Y ,
(c) jeśli P {X ^ 0) = 1, to
■
D o w ó d . Oczywisty, gdy zastosujemy wniosek 10 dla (X n,Yn) i'funkcji
f (x ,y ) — x + y, f(x ,y ) = xy i f(x) = l {a.-£0} i - ■
Twierdzenie 12. Następujące warunki są równoważne:
(i) X n - A X ;
(ii) dlS każdego p > 0
(iii) dla pewnego p > 0
Rozdział 5. Zmienne losowe
112
Do wó d . Stosujemy nierówność 5.7.6 do funkcji g(x) =
nych X n —X . n
oraz zmien­
Łatwo teraz zauważyć, że na przestrzeni zmiennych losowych (utożsamiamy
zmienne losowe równe prawie na pewno) można wprowadzić metrykę, przy
której przestrzeń ta staje się przestrzenią metryczną zupełną, zaś zbieżność
w tej metryce jest równoważna ze zbieżnością według prawdopodobieństwa
(patrz zadania 8 , 9, 10).
Zadania
1. Wykazać, że zbiór (w £ Cl: limn X n(u ) = X(o>)} jest zdarzeniem.
2. Wykazać, że
Xn
X -í=> Ve > 0
lim P (
N ~ * oo
fi
I
1
\Xn - X m|< e) = 1.
n ,m ^ N
Jest to warunek Cauchy’ego.
3. Wykazać, że jeśli dla pewnego ciągu o wyrazach dodatnich (£„.), takiego, że
e „ 1 0 mamy
OO
J ] P ( | X n - X| > £„) <
OO,
71= 1
to Xn ^
X.
4. Udowodnić wniosek 5.
5. Pokazać, że granica według prawdopodobieństwa jest wyznaczona jedno­
znacznie.
6. Ciąg (X n) jest zbieżny według prawdopodobieństwa do pewnej zmiennej
losowej X wtedy i tylko wtedy, gdy Ver > Olim™,™-,,*) P(\Xn —X m|> e ) = 0
(warunek Cauchy’ego).
7. Udowodnić wniosek 11.
8. Niech L° = L °(n ,^ r, P ) oznacza przestrzeń wszystkich zmiennych losowych
na (ÍÍ,JF, F), przy utożsamieniu zmiennych losowych równych prawie na
pewno. Pokazać, że f>(X, Y ) = £ ^ ^ x - Y f ) j es* metryką na L°, (L °,g )
p
jest przestrzenią metryczną zupełną i X n — ►X
limn^co f>(X„, X ) = 0.
9. Niech (fi, F , P) będzie przestrzenią probabilistyczną taką, że zbieżność we­
dług prawdopodobieństwa nie pociąga zbieżności prawie na pewno. Pokazać,
ze na L° nie istnieje metryka g taka, że X n
X <£■ lim„ g(X n, X ) = 0.
10. Pokazać, że jeśli P jest rozkładem dyskretnym, to dla zmiennych losowych
określonych na przestrzeni probabilistycznej ( fi,^ , P ) zachodzi równoważ­
ność:
X„ ^ X
Xn
X.
Uwaga. Implikacja przeciwna też jest prawdziwa: jeśli zbieżność według
prawdopodobieństwa jest równoważna ze zbieżnością prawie na pewno, to
P jest rozkładem dyskretnym.
§ 5.9. Różne rodzaje zbieżności zmiennych losowych
113
11. Dystrybuanta Cantora. Rzucamy monetą nieskończenie wiele razy i jeśli
w n-tym rzucie wypadnie orze!, to wygrywamy 2 •3- " złotych. Niech X
oznacza łączną wygraną. Wyznaczyć dystrybuantę X i pokazać, że gęstość
nie istnieje. Jaki jest związek dystrybuanty ze zbiorem Cantora? Jaka jest
wartość oczekiwana i wariancja wygranej?
12. Udowodnić
Twierdzenie 13 (Pratta). Jeśli Xn,Yn,Zn,X ,Y ,Z są takimi zmiennymi
P
P
P
losowymi, że Xn — ►X, Yn — > Y i Zn — * Z oraz Xn 4 Yn Zn p.n.
dla wszystkich n, £Xn -* £X, £Zn —t £Z, £Z,£X są skończone. Wtedy
£Yn —>£Y i £Y jest skończona.
13. Udowodnić, że jeśli ciąg zmiennych losowych (V~Xn) jest zbieżny w L2, to
ciąg (Xn) jest zbieżny w L1.
14. Niech Xn będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie,
niech istnieje £Xi. Udowodnić, że £ maxi^n \Xi\ — >0.
Jednostajna całkowalność. Wprowadzimy teraz bardzo przydatne pojęcie:
Właściwie
Definicja 14. Mówimy, że rodzina zmiennych losowych {X t‘. t € 1} jest jedno­ jednostajna
stajnie całkowalna, gdy
całkowalność nie
potrzebuje
reklamy.
lim s u p f (|Xt|l{ |Xt|>c}) = 0.
G —>oo t ę /
Na początku podamy kilka przykładów i kryteria na jednostajną całkowalność.
15. Udowodnić, że jeśli \Xt\< Y dla i € I, £Y < oo, to {X f.t € 1} jest jedno­
stajnie całkowalna. W szczególności skończona rodzina zmiennych losowych
całkowalnych jest jednostajnie całkowalna.
Podamy kryterium, z którego w szczególności wynika, że rodzina zmiennych lo­
sowych ograniczona w Lp, p > 1, jest jednostajnie całkowalna.
16. Niech G będzie funkcją rosnącą nieujemną taką, że limt_oo
= oo. Jeśli
{Xt'.t € 1} są całkowalne, M = supt £G(|-Xi[) < oo, to rodzina zmiennych
losowych {X t-.t e ł ] jest jednostajnie całkowalna.
17. Udowodnić, że zmienne losowe {Xt: t S 1} są jednostajnie całkowalne wtedy
i tylko wtedy, gdy spełnione są następujące warunki:
(i) sup4f|Xi| < oo,
(ii) V e > 0 3 5 > 0 P(A) < S =3- sup4f A |Xi| dP
e.
Sens pojęcia jednostajnej całkowalności widać z następującego twierdzenia:
18. Ciąg zmiennych losowych ( ! „ ) „ jest zbieżny w Lp, p
wtedy, gdy
1, wtedy i tylko
(i) Ciąg zmiennych losowych ( X „)n jest zbieżny według prawdopodobień­
stwa,
(ii) (|Xn|I')„ są jednostajnie całkowalne.
Rozdział 5. Zmienne losowe
114
§ 5.10.
Przegląd ważniejszych rozkładów
Poniżej zamieszczamy przegląd najważniejszych rozkładów prawdopodo­
bieństwa. Niektóre z nich pojawiły się już w przykładach i zadaniach, po­
zostałe pojawią się później. Za każdym razem podajemy definicję, ozna­
czenie i krótką charakterystykę, a na zakończenie — wartość oczekiwaną
i wariancję (jeśli istnieją).
R ozkład jednopunktow y
Jeśli P (X = a) = 1, to zmienna losowa X ma rozkład jednopunktowy,
oznaczany Sa.
Jest to najprostszy rozkład prawdopodobieństwa, więc trudno o nim nie
wspomnieć. Fizycy nazywają go deltą Diraca — stąd oznaczenie.
Parametr: a € R.
Momenty: £ X = a, V 2X = 0.
R ozkład dwupunktowy
Jeśli P (X = a) = p i P (X = b) = 1 —p = q, p e (0,1), to zmienna losowa
X ma rozkład dwupunktowy.
Rozkład ten pojawia się przy opisie doświadczenia losowego o dwu możli­
wych wynikach, z którymi możemy skojarzyć wartości liczbowe.
Parametry: a, b £ R, a ^ b, p £ (0,1).
Momenty: £ X = pa + qb, V 2X = pq(a —b)2.
R ozkład Bernoulliego (dwumianowy)^__„
Jeśli
P (X = k) = B (k ,n ,p )= ( ^ j p k( l - p ) n~k,
k = 0,1, .. . , n,
pe[0,l],
to zmienna losowa X ma rozkład Bernoulliego (dwumianowy) B(n,p).
Jest to rozkład łącznej liczby sukcesów w n doświadczeniach Bernoulliego,
gdy szansa sukcesu w pojedynczym doświadczeniu wynosi p. Nieco inaczej,
jest to rozkład sumy X i + ... + X n, gdzie; zmienne losowe Xi są niezależne
i mają ten sam rozkład dwupunktowy: P(X i = 1) = p, P(X i — 0) = 1 —p,
i = 1, 2 , . . . n.
Parametry: n 6 N, p e [0,1],
Momenty: £ X = np, T>2X = npq.
§ 5.10. Przegląd ważniejszych rozkładów
115
Rozkład Poissona
Jeśli
P (X = k) = — e~\
KI
k = 0,1,2,...,
A > 0,
to zmienna losowa X ma rozkład Poissona Pois(A).
Jest to rozkład graniczny dla ciągu rozkładów Bernoulliego B(n,pn), gdy
n —►oo, pn —» 0 i npn —t A. W związku z tym pojawia się jako rozkład
zdarzeń „rzadkich” (wypadki drogowe, pożary, wygrane w „Toto-Lotka” ).
Parametr: A € (0, oo).
Momenty: £X = A, V 2X = A.
Rozkład geometryczny
Jeśli
P (X = k) = { l - p ) k~1p,
p 6(0,1),
* = 1, 2 , . . . ,
to zmienna losowa ma rozkład geometryczny z parametrem p.
Jest to rozkład czasu oczekiwania na pierwszy sukces w ciągu doświadczeń
Bernoulliego, rozumianego jako liczba doświadczeń, które należy wykonać,
by doczekać się sukcesu. Niekiedy rozumie się czas oczekiwania dosłow­
nie, jako liczbę doświadczeń wykonanych przed otrzymaniem pierwszego
sukcesu. Wtedy otrzymujemy zmienną losową Y = X — 1, przyjmującą
wartości k — 0,1,2,...; wtedy P (X = k) = (1 —p)kp. Rozkład zmiennej
losowej Y także nazywamy geometrycznym (£Y = £ X —1, V 2Y = T>2X ).
Ma własność „braku pamięci” (zad. 5.1.16). Jego ciągłym odpowiednikiem Momenty
rozkładu
jest rozkład wykładniczy.
geometrycznego
najwygodniej
obliczać za
pomocą funkcji
tworzących
(dodatek B).
Parametr: p € (0,1).
Momenty: £ X = l/p, V 2X = (1 —p)jp2.
Rozkład wielomianowy
Jest uogólnieniem rozkładu dwumianowego i opisuje rozkład wyników przy
n-krotnym powtórzeniu doświadczenia o k możliwych rezultatach. Jeśli X,
oznacza liczbę wyników i-tego typu w serii, to
P (X 1 = m , ... X fc = nk) = -
nl
7lj. . . . 71^.
p ? ...p l \
gdzie pi 6 [0 , 1],. i = 1, 2, . . . fc, pj + ... + pk = 1, m + ... + nk = n.
Zmienna losowa X; ma rozkład B(n,pi), cov(X;, X,-) = -pipj, gdy i
j.
Rozdział 5. Zmienne losowe
116
R ozkład ujem ny dwumianowy
Jeśli
P (X = fc) = ( 0 + *
^ (l-p )*?“ ,
fc = 0 , l , 2 , . . . , p e ( 0 , l ) , a > 0 ,
to zmienna losowa ma ujemny rozkład dwumianowy z parametrami a, p.
Jeśli parametr a jest całkowity, mamy do czynienia z czasem oczekiwa­
nia na a-ty sukces w ciągu prób Bernoulliego, tzw. rozkładem Pascala. X
interpretuje się jako liczbę porażek poprzedzających a-ty sukces.
Nazwa rozkładu bierze się stąd, że
gdzie
/—
a (a — 1) ■... ■(a —k + 1)
\k ) ~
k\
'
Dla a = 1 otrzymujemy rozkład geometryczny. Niecałkowite wartości a od­
powiadają rozkładom granicznym dla rozkładów Pólya. Przy oznaczeniach
z zad. 3.2.13 niech p = b/(b + c), 7 = d/(b + c). Jeśli n —>00 , p —>0, 7 •
—>0,
np —» A, wy —►p-1 , to
Parametry: a € (0, 00 ), p e (0,1).
Momenty: £ X = a (l —p)/p, V 2X — a (l —p)/p 2.
Rozkład hipergeom etryczny
Jeśli
/n\ /m—n\
P (X = k) =
k
,
max(0,n + r - m) < k < min(n,r),
\r /
to zmienna losowa X ma rozkład hipergeometryczny z parametrami m, n
i r. Zmienną losową X można interpretować jako liczbę wyróżnionych ele­
mentów w r-elementowej próbce, jeśli cała ro-elementowa populacja zawiera
n elementów wyróżnionych.
Parametry: m ,n,r.
Momenty: £ X = nr/m, V 2X = [nr(m —r)(m —n)]/[m2(m — 1)].
Przechodzim y teraz do rozkładów ciągłych.
§5.10. Przegląd ważniejszych rozkładów
117
Rozkład jednostajny na A c R n
Niech A będzie borelowskim podzbiorem R n o dodatniej i skończonej mierze
Lebesgue’a A. Rozkład o gęstości
g(x) = \(A)~11a (x ),
x e R n.
Wiąże się z intuicją „losowego” wyboru punktu ze zbioru A. Najczęściej spo­
tyka się rozkład jednostajny na przedziale [a, 6], którego gęstość wyraża się
wzorem
xeRBędziemy go oznaczać U[a, 6].
Czasem wygodnie jest rozumieć pojęcie rozkładu jednostajnego nieco sze­
rzej, jeśli tylko mamy do dyspozycji rozsądną namiastkę miary Lebesgue’a.
Na przykład: rozkład jednostajny na sferze (nie na kuli), na brzegu kwa­
dratu.
Momenty zmiennej losowej X o rozkładzie U[a,b}\
R ozkład wykładniczy
Ma gęstość
g(x) = Ae~Aa:l (ot00)(:n).
Jest ciągłym odpowiednikiem rozkładu geometrycznego i ma, tak jak on,
własność braku pamięci.
Parametr: A € (0, oo).
Momenty: £ X = 1/A, V 2X = 1/A2.
Rozkład gamma
Rozkład o gęstości
7o’6^
= f (a ) X
a
a >6 > °-
Jeśli a jest liczbą naturalną, jest to rozkład sumy a niezależnych zmiennych
losowych o rozkładzie wykładniczym z parametrem b. W związku z tym
można się spodziewać własności
7 ai,b * 0^02,b
Tai+a2,6)
która zresztą ma miejsce dla dowolnych ai,a2 (por. zad. 1).
Parametry: a,b 6 (0, oo) (a jest parametrem kształtu, b — skali).
Momenty: £ X = a/b, V 2X = a/b2.
(-0
Rozdział 5. Zmienne losowe
118
R ozkład beta
Rozkład o gęstości
Pa,b{x)
=
1 (1 ~
a;) b
l l [o,i](a:).
a,b > 0.
Wiele rozkładów unimodalnych (takich, że gęstość ma jedno ekstremum)
jest tej postaci. Na przykład dla a = b = 1/2 otrzymujemy rozkład arcusa
sinusa — czyli czasu pobytu po stronie dodatniej w procesie Wienera na
odcinku [0,1] (patrz rozdz. 13).
Parametry: a, b € (0,oo).
Momenty: £ X = a/(a + b), V 2X = ab/[(a + b)z(a + b + 1)].
R ozkład Cauchy’ego
Ma gęstość
^
w((x —m)2 + h2) ’
h>0.
Najczęściej spotyka się standardową postać, gdzie m = 0 i h = 1. Jeśli
X n są niezależnymi zmiennymi losowymi o standardowym rozkładzie
Cauchy’ego, to nX\ ma ten sam rozkład, co X 2 + .X n.
Parametry: m € R , h £ (0,oo).
Momenty: wartość oczekiwana nie istnieje (zad. 5).
R ozkład normalny (Gaussa)
Jednow ym iarow y standardowy rozkład normalny, AA (0,1), ma gę­
stość
Jeśli zmienna losowa X ma rozkład A/”(0,1), to zmienna losowa aX + m,
gdzie a > 0, ma rozkład Af (m, a2) o gęstości
e- 0 -m)2/ 2o-2
Na rysunku pokazano gęstość standardowego rozkładu normalnego. Należy
zwrócić uwagę, że skale na obu osiach są różne, w przeciwnym razie rysunek
mógłby być mało czytelny. Faktycznie gęstość jest bardziej spłaszczona. Być
może warto zapamiętać podane na rysunku liczby: prawdopodobieństwo, że
zmienna losowa o rozkładzie hi (0 , 1) przyjmie wartość z przedziału [—1, 1]
wynosi ok. 0,683; dla przedziału [—2,2] jest to już 0,956 i wreszcie dla
przedziału [—3,3] mamy 0,997. Ta ostatnia zależność znana jest jako „reguła
§5-10. Przegląd ważniejszych rozkładów
119
trzech sigm” : szansa wyjścia zmiennej losowej o rozkładzie N (0 , cr2) poza
przedział [—3cr, 3<x] jest praktycznie zerowa, bowiem wynosi ok. 0,003.
■4
►
g g ^
Dystrybuantę rozkładu N (0,1) oznaczamy przez $(a). Pożyteczne jest
oszacowanie ogona rozkładu normalnego:
- j = e ~ l2/'2
X-
1 + 32
< 1 - $(*) < —l= e~ x2/2- ,
y/zOx
x>0.
(2)
vJ
(patrz zad. 3).
Parametry: m € R, a e (0, oo).
Momenty: £ X —m, T>2X = o2.
W ielowym iarowy rozkład normalny. Ogólną postać wielowymiarowego
rozkładu normalnego otrzymuje się ze standardowej postaci przez prze­
kształcenie afiniczne, analogicznie jak w przypadku jednowymiarowym.
Rozpatrzmy zmienną losową X = ( X i , . . . , X n) o gęstości
g ( x i ,...,x n) =
-J (V ¿7r)n
x = (x1, . . . , x n) e R ".
Ma ona standardowy rozkład normalny w R ", oznaczany przez N (0,/),
gdzie I jest macierzą jednostkową.
Niech T: R n —> R " będzie nieosobliwym przekształceniem liniowym, tj.
detT / 0 i niech (•, -) oznacza iloczyn skalarny. Znajdziemy gęstość zmien­ Przekształcenie
nej losowej Z = TX. Dla A € Z?(Rn) mamy:
liniowe
P (T X e A ) = P {X e T ^ A ) = f
J T~ l A
g{x) d x = f g(T~lu)\det T~l \du,
utożsamiamy
z jego macierzą.
ja
Szukana gęstość to
h{s) = g(T -'s)\ d etT -'\ =
(V27r)n
|detr ‘ 1 - ł ( ( T - 1i‘ r - 15.i) _ VdetQ
T* jest
transpozycją T
(albo
przekształceniem
sprzężonym do
T).
Rozdział 5. Zmienne losowe
120
gdzie Q =
j est macierzą dodatnio określoną. Okazuje się, że Q
jest macierzą odw rotną do macierzy kowariancji zmiennej losowej Z, zdefi­
niowanej jako Cij = cov(Zi, Zj). Żeby to zobaczyć, zauważmy najpierw, że
dla standardowej gęstości gaussowskiej g mamy:
(x, u)(x, v)g(x) dx
/
=
(u,v).
JR "
W takim razie
= [ { Tx , e i ) ( Tx , e j ) g ( x ) dx
JR"
=
f
(x, Ttei) ( x , T te j ) g { x ) dx = (Ttei<Ttej) = {TTte u e j ) = Q7K
Jnn
Stąd oznaczenie dla ogólnej postaci rozkładu normalnego: Af (m ,Q ), gdzie
m jest wektorem wartości średnich, zaś Q — macierzą odw rotną do macie­
rzy kowariancji. Gęstość wyraża się wzorem
g( x) =
e -{Q (x-m ),x-m ) | x e R n
(V27r)n
Czasem wygodnie jest nazwać miarą gaussowską miarę skupioną na pewnej
właściwej podprzestrzeni liniowej R " . W ted y nie ma ona gęstości wzglę­
dem miary Lebesgue’ a w R n . Ale z rozszerzeniem definicji poczekamy do
rozdziału o funkcjach charakterystycznych.
R o z k ł a d X2(n )
Rozkład zmiennej losowej X l + . . . 4- X 2, gdzie X i, i = 1 , 2 , . . . n są nie­
ci teście 2 zależny mi zmiennymi losowymi o rozkładzie Ai (0, 1) nazywamy rozkładem
siyszal chyba X2 ° n stopniach sw obody; oznaczamy go x 2(n )- Jest najbardziej znanym
każdy, rozkładem występującym w statystyce.
Gęstość rozkładu
x2(n)
Jest gęstością 7n/ 2,i / 2-
Zadania
1. Wykazać, że rozkład x 2
0
n stopniach swobody ma gęstość 7n/2,i/2-
2. Niezależne zmienne losowe X i , . . . X n mają rozkład M (0,1). Wykazać, że
wariancja z próby, zdefiniowana wzorem
fc=i
gdzie średnia z próby jest określona jako
_
x =
+ ... + X n
n
----------------------------
5.10. Przegląd ważniejszych rozkładów
121
ma — z dokładnością do parametru skali — rozkład x 2 o n - 1 stopniach
swobody, a ponadto x i s l są niezależne (tw. Fishera).
3. Udowodnić oszacowanie (2) ogona rozkładu normalnego.
4. Wykaizać, że jeśli X i Y są niezależnymi zmiennymi losowymi o rozkładzie
jednostajnym na (0,1), to
U = ^ /—21ogX cos (27tY) i V =
—21ogX sin (27ry)
są niezależne i mają rozkład M (0,1).
Zadanie to zostało zainspirowane instrukcją obsługi kalkulatora programowal­
nego, z której wynikało, że taki jest algorytm generacji liczb losowych o rozkła­
dzie normalnym (Box-Müller, 1958). Liczby losowe o rozkładzie jednostajnym
generuje się bowiem stosunkowo prosto. Więcej informacji o generowaniu liczb
losowych o zadanym rozkładzie można znaleźć w § 7.4.
5. Udowodnić, że zmienna losowa o rozkładzie Cauchy’ego nie ma wartości ocze­
kiwanej.
Rozdział 6
Warunkowa wartość
oczekiwana
§6.1.
Wprowadzenie
W tym rozdziale uogólnimy pojęcie wartości oczekiwanej. Zanim jednak
wprowadzimy formalną definicję warunkowej wartości oczekiwanej, która
to definicja może na pierwszy rzut oka wydawać się niezrozumiała, zaj­
miemy się zdroworozsądkowymi procedurami uśredniania funkcji (czy też
zmiennych losowych), postępując podobnie jak przy definiowaniu prawdo­
podobieństwa warunkowego. Otrzymamy coś w rodzaju „warunkowej war­
tości oczekiwanej dla opornych” . Ma ona niestety wadę, odziedziczoną po
prawdopodobieństwie warunkowym: traci sens, gdy warunek ma zerowe
prawdopodobieństwo. I dopiero wersja „turbo” warunkowej wartości ocze­
kiwanej nie ma tej wady i pozwala na przykład uzasadnić formalnie takie
oto rozumowanie:
Przykład 1. Z odcinka [0,1] wybrano losowo (czyli zgodnie z rozkładem
jednostajnym) punkt U, a następnie z odcinka [0 , U] — również losowo —
punkt V. Jaka jest średnia długość odcinka [0, V]?
x
122
§ 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego
^23
To całkiem proste: jeśli znamy U, to średnio V = \U. A ponieważ £U = |,
to £V = ¡£U = i.
W pełni formalne rozwiązanie wymagałoby konstrukcji modelu. Jeśli przy­
jąć il = {(x, y) € [0 , l]2: j/ ^ x}, to należałoby podać taką gęstość g(x, y) na
Cl, przy której U(x, y) = x ma rozkład jednostajny na [0,1], a V (x,y) = y
— rozkład jednostajny na odcinku [O,®] przy ustalonym x. W takim ra­
zie przy ustalonym x gęstość powinna być stała, gdy 0 ^ y ^ x, czyli
g(x,y) =
a ponadto dla dowolnego t € [0 , lj
t
=
P(U ^ i) =
f
f
Jo L/o
g(x,y)dy dx — i
i h(x)dy dx =
Jo uo
= I xh(x) dx,
Jo
i różniczkując obie strony tej równości otrzymujemy th(t) = 1, czyli h(x) =
= l/x. Teraz
£V = t
Jo
f Xy - d y ] d x = i ' - -
.Jo
x
.
Jo X
Warto zdać sobie sprawę, że przydługie rozważania prowadzące do kon­
strukcji modelu nie należą do teorii (z teorią mamy do czynienia dopiero
wtedy, gdy skonstruujemy model). W istocie, pojawiające się w zadaniach
probabilistycznych rekwizyty: kostki, monety, odcinki, z których (nie wia­
domo jak) wybiera się losowo punkt, służą tylko ubarwieniu teorii i pod­
kreśleniu jej związku z zagadnieniami „z życia” . Jak wobec tego ściśle sfor­
mułować powyższy przykład? Stanie się to jasne pod koniec tego rozdziału.
§ 6.2.
Warunkowa wartość oczekiwana względem roz­
bicia przeliczalnego
Aż do końca tego rozdziału zakładamy, że ustaloną przestrzenią probabi­
listyczną jest (ii, M , P). Zakładamy ponadto, że wszystkie rozpatrywane
cr-ciała zawierają się w M .
Jak wiadomo, funkcja P(-|A) = Pa{ ) dla ustalonego zdarzenia A o dodat­
nim prawdopodobieństwie jest rozkładem prawdopodobieństwa na il.
Zatem możemy zdefiniować warunkową wartość oczekiwaną dla zmiennej
losowej X , jeśli wiemy że zaszło zdarzenie A. Oznaczymy ją £ (X |A).
Definicja 1 . Niech X będzie zmienną losową o skończonej wartości ocze­
kiwanej. Wtedy
£{X\ A)
[ X dPAJn
Rozdział 6.. Warunkowa wartość oczekiwana
124
Twierdzenie 2. Niech P(A) > 0 i niech X będzie zmienną losową o skoń­
czonej wartości oczekiwanej. Wtedy
(1)
Inaczej mówiąc, £ (X |A) jest średnią wartością zmiennej losowej X na
zbiorze A.
Dowó d. Komplikujemy postać X :
1. Niech X = I b , B e T. Wtedy
£ (1 B \A)
= J
Ib
dPA = P(B\A) =
2. Obie strony są liniowe, więc równość (1) jest prawdziwa dla skończo­
nych kombinacji:
n
( 2)
3. Niech X > 0 będzie zmienną losową całkowalną. Wtedy X jest granicą
p.n. i w L1 skończonych kombinacji X n postaci (2). Żeby otrzymać
tezę, wystarczy przejść do granicy z n —* oo i skorzystać z twierdzenia
Lebesgue’a.
4. Jeśli X jest dowolną zmienną losową całkowalną, to X = X + —X ~ .
Obie zmienne losowe po prawej stronie są nieujemne i całkowalne,
więc teza twierdzenia wynika z punktu 3 i liniowości całki. ■
Następne twierdzenie jest odpowiednikiem wzoru na prawdopodobieństwo
całkowite.
Twierdzenie 3. Niech zdarzenia A{, i € I stanowią przeliczalne rozbicie
przestrzeni na zdarzenia o dodatnim prawdopodobieństwie. Jeśli zmienna
losowa X jest całkowalna, to
(3)
Dowó d.
XdP =
= Y i £ ( X \ Ai)P (A i)-*
§ 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego
125
Wzór (3) ma wiele zastosowań. Oto przykład (patrz także zadania 3 i 4).
Przykład 4. Obliczymy wartość oczekiwaną liczby rzutów monetą aż do
otrzymania n orłów pod rząd. Orzeł w pojedynczym rzucie wypada z praw­
dopodobieństwem 0 < p < 1.
Niech X oznacza wymaganą liczbę rzutów, niech Yi — 1 (odp. K; = 0), gdy
w i-tym rzucie wypadł orzeł (odp. reszka). Wtedy
X = min{fc > n: Yk^n+1 = 1 , . . . , Yk = 1}.
Aby skorzystać ze wzoru (3), musimy wykazać, że £ X < oo. Niech
Z = min{fc: Yfc_n+i = 1,..., Yk = 1, fc = n •l, l G N }.
Innymi słowy, dzielimy serię rzutów na bloki o długości n i przyjmujemy, że
Z = nl, gdy l-ty blok jest pierwszym blokiem, złożonym z n orłów. Jasne
jest, że X < Z i dalej
OO
OO
£ X < SZ = J 2 nlP(Z = nl) =
i=i
- p")'“ V
< oo.
1=1
Zdefiniujemy teraz zdarzenia
Ak = {Y1 = ł r2 = . . . = K fc = l , y fc+1 = 0 },
fc = 0 , 1, . . . ,ra — 1,
oraz
^
= { ^ = . . . = ^ = 1}
(zdarzenie Ak dla 0 < k < n — 1 polega na tym, że pierwsza reszka poja­
wiła się w fc + 1-szym rzucie; An — że po ra-tym). Stanowią one rozbicie
przestrzeni fi i mamy równanie
n —1
n
£X =
(X I 4 ) P (A^ = £ ( * +
ż=0
~P ) + nPn■
i-0
Rozwiązując je, otrzymujemy
£X = ~ + \ + .
p pi
pn
Dla p — \ (moneta symetryczna) mamy £ X = 2n+1 —2. ■
Jeśli wiemy, że zaszło zdarzenie A, to warunkowa wartość oczekiwana X
jest równa £ (X \A), a gdy zaszło A', to jest równa £ (X |A'), można zatem
zdefiniować zmienną losową £(X\ F), gdzie T — cr(A):
f
(x
l
(i
—
i ^^
I
1 w a A,
Oznaczenie po lewej sugeruje, że tak zdefiniowaną zmienną losową będziemy
uważać za warunkową wartość oczekiwaną pod warunkiem cr-ciała T .
Należy
zapamiętać, że
warunkowa
wartość
oczekiwana jest
zmienną losową.
Rozdział 6. Warunkowa wartość oczekiwana
126
Przykład 5. Niech X będzie liczbą orłów otrzymaną przy dwukrotnym
rzucie monetą, A — zdarzeniem polegającym na wypadnięciu orła w pierw­
szym rzucie. Wtedy £ { X \ A) =
■4 + 2- j] = f , £ ( X J A') = 1. Zatem
£ ( X |F ) = (
1 '
[ 1/ 2 ,
W e A.)
w e 4 '.i
Poniższa definicja warunkowej wartości oczekiwanej względem cr-ciała ge­
nerowanego przez co najwyżej przeliczalną liczbę zdarzeń realizuje pomysł
zawarty w przykładzie 5.
Definicja 6. Niech Q — U ie/ Ai, gdzie zdarzenia Ai o dodatnim prawdopo­
dobieństwie stanowią rozbicie przestrzeni Cl, niech T = a(Ai , i 6 I), i niech
X będzie zmienną losową mającą wartość oczekiwaną.
Warunkową wartością oczekiwaną X pod warunkiem a-ciała T będziemy
nazywać zmienną losową £ (X \!F) (w) równą £ (X |Aj), gdy u & Aj, czyli
£ ( X | ^ ) H Ł f ^ £ ( X | A . ) i A .(w).
jer
Mówiąc językiem bardziej potocznym, jest to średnia wartość X , jeśli wia­
domo, które ze zdarzeń Ai zaszło.
Dla tak zdefiniowanej zmiennej losowej zachodzi
Twierdzenie 7. Warunkowa wartość oczekiwana £ (X |T ) spełnia nastę­
pujące warunki:
(a) £ (X |T ) jest mierzalna względem T ■
(b) Jeśli B e J 7, to JB X d P = JB £ { X I T) dP.
D o w ó d . Punkt (a) twierdzenia wynika natychmiast z definicji.
Żeby udowodnić ( 6), zauważmy, że jeśli B £ T, to B =
jest skończona lub przeliczalna. Wtedy
/
XdP = W
■>B
k
= £
j A ik
/
k j A ik
A j k, gdzie suma
X d P = Y , £ ( X \ Ajk) P ( A j k)
k
£ { X \ A jk) d P = [ Y , t ( X \ A jk) l AjkdP=:
k
= [ £ ( X I f ) dP. ■
Jb
§ 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego
127
P rzyk ła d 8 . Rozpatrzmy schemat Bemoulliego n prób z prawdopodobień­
stwem sukcesu równym p. Jaka jest średnia liczba sukcesów w pierwszej
próbie, jeżeli wiemy, ile zaszło sukcesów w całej serii?
R o z w i ą z a n i e . Niech Sn oznacza łączną liczbę sukcesów, zaś Y liczbę
sukcesów w pierwszym doświadczeniu. Mamy obliczyć £ (Y |a(Sn)). Otóż
a(Sn) = a(A 0 , . . . , A n),
gdzie A k = {5 „ = k}. Z definicji £ (Y |a(Sn)) (u>) = £ (Y |A k) ( u j ) dla
u £ Ak, więc wystarczy obliczyć £ (Y |A^). Niech Bk = A^ fi { F = 1}.
Wtedy
£(r|X*) - n ś ) / * / ‘, p = ż w
5 n " )p(" ) -
= _ L _ v
Piu* = W - =
p^
J e Bk
p^
__
=
it )pkqn~k
(£i) ^ *
©
Ale Sn{u j ) = k dla w e Ak, więc £ (Y j #(Sn)) =
Przykład 9. Definicja 1 jest w wielu przypadkach niezadowalająca: niech
Sn będzie liczbą orłów, gdy rzucamy n razy monetą, dla której prawdopodo­
bieństwo wypadnięcia orła jest zmienną losową U o rozkładzie jednostajnym
na [0,1], Czemu jest równe prawdopodobieństwo P(Sn = k\U = x)?
Otóż
P(Sn = k\U = x) = S ( l {s„= fc} |U = x ) ,
ale P ( U = x) = 0, więc warunkowa wartość oczekiwana nie da się zdefi­
niować w wyżej opisany sposób, choć intuicyjnie jest jasne, że powinna być
równa (^)xk(\ —x) n~k. ■
Zadania
1. Łączny rozkład zmiennych losowych X i Y dany jest tabelką:
Y = 0
Y = 2
X = 1
X = 3
0,2
0,3
0,4
Uzupełnić tabelkę, znaleźć £ (X \o(Y )) i £X .
2. Niech fi = [0,1], P — miara Lebesgue’a na [0,1]. Znaleźć £ ( / |F ), jeśli
a) f i x ) = y/%1
Jest ^-ciałem generowanym przez zbiory [0, |), [|, 1].
b) f ( x ) — ~ x , ?
u-ciałem generowanym przez zbiory [0, |), [5 , 1].
Rozdział 6. Warunkowa wartość oczekiwana
128
3. Obliczyć wartość oczekiwaną liczby prób w schemacie Bernoulliego przepro­
wadzanych aż do momentu uzyskania kolejno:
a) sukcesu i porażki,
b) dwu sukcesów i porażki.
4. Mamy n osiedli położonych wzdłuż drogi w odległości 1 km od siebie. Osiedla
obsługuje jedna karetka pogotowia. Każde kolejne wezwanie z jednakowym
prawdopodobieństwem pochodzi z dowolnego punktu i zostaje natychmiast
przekazane do karetki, która oczekuje na nie w osiedlu, w którym znajduje się
ostatni chory. Jaka jest średnia odległość przejeżdżana przez karetkę w czasie
jednego kursu?
5. Przeciętne dalsze trwanie życia. W rozważaniach demograficznych z § 5.1
zdefiniowaliśmy przeciętne dalsze trwanie życia. Warunek stałości przecięt­
nego dalszego trwania życia można wyrazić tak: jeśli zmienna losowa X ^ 0
jest czasem życia, to dla pewnej stałej c > 0
£ (X |X > t) = c + i,
t ź 0.
Wykazać, że nieujemna zmienna losowa o ciągłej dystrybuancie spełnia ten
warunek wtedy i tylko wtedy, gdy ma własność braku pamięci.
§ 6.3.
Definicja ogólna
Własności warunkowej wartości oczekiwanej względem przeliczalnego roz­
bicia, podane w twierdzeniu 6 .2 .6 , sugerują poniższą definicję.
D efin icja 1. Niech T C M będzie a-ciałem, a X zmienną losową całko­
walną. Warunkową wartością oczekiwaną X pod warunkiem T nazywamy
zmienną losową £ (X \T ), spełniającą warunki
(i) £ (X |F ) jest F-mierzalna;
(ii) dla każdego A
E
!F
W poprzednim paragrafie wykazaliśmy istnienie warunkowej wartości ocze­
kiwanej dla er-ciała przeliczalnie generowanego, a ponieważ £ (X |T ) jest
wyznaczona jednoznacznie z dokładnością do zdarzeń o prawdopodobień­
stwie zero (co za chwilę udowodnimy), to wiemy, jak warunkowa wartość
oczekiwana wygląda w tym przypadku.
P rz y k ła d 2. Jeśli O = U S i
prawdopodobieństwa, to
n 4# = ® i niektóre Ai mają zerowe
w € Aj, P( A j ) > 0,
w e Aj: P( A j ) = 0,
§ 6.3- Definicja ogólna
129
gdzie aj są dowolnie ustalonymi liczbami, jest zmienną losową spełniającą
warunki («) i (ii) z definicji 1. ■
Tu wybór liczb aj był dowolny. A więc przykład 2 dobrze ilustruje fakt, że
mówiąc o £ (X |!F), myślimy o jednej konkretnej wersji (inne są jej równe
p.n.). W dalszym ciągu, mówiąc o warunkowej wartości oczekiwanej, bę­
dziemy identyfikować różne wersje; nie należy jednak zapominać, że warun­
kowa wartość oczekiwana jest zmienną losową, wyznaczoną z dokładnością
do zdarzeń o zerowym prawdopodobieństwie.
T w ierdzen ie 3. Dla dowolnego o-ciała T C JA i całkowalnej zmiennej
losowej X istnieje warunkowa wartość oczekiwana. Jest ona wyznaczona
jednoznacznie z dokładnością do zdarzeń o prawdopodobieństwie zero, tj.
jeśli Yi,Y 2 spełniają warunki definicji 1, to P(Y i ^ Y2) = 0.
D o w ó d . Najpierw udowodnimy jednoznaczność. Załóżmy, że Y\ i Y2 speł­
niają (i) i (ii).
Ten argument
pojawia się już
Zdarzenie {F i > Y2} G T , bo Yi,Y 2 są T mierzalne.
chyba trzeci raz!
[
Y\dP =
f
XdP= [
J { y 1> y2}
7 {y i> y 2}
Y2 dP.
J {Y i> Y 2}
Stąd
[
(Y1 - Y 2) d P = 0,
zatem P{Yi > Y2) = 0. To samo rozumowanie zastosowane do zdarzenia
{Y 2 > Y i} pokazuje, że P(Yi ^ Y2) = 0. Jednoznaczność została udowod­
niona.
Podamy teraz dwa dowody istnienia. Pierwszy jest krótki, ale wymaga zna­
jomości twierdzenia Radona-Nikodyma. Natomiast drugi daje wyobrażenie
o tym, czym właściwie jest warunkowa wartość oczekiwana.
P ierw szy d o w ó d istnienia. Rozważmy funkcję zbioru v na T , zadaną
wzorem
u(A) =
J
XdP.
Jest to miara ze znakiem. Gdy P(A) = 0, to v(A) = 0, więc u jest absolutnie
ciągła względem P i na mocy twierdzenia Radona-Nikodyma 11.6.1 istnieje
gęstość g = dv/dP, którą przyjmujemy za wersję £ ( X \T ), ponieważ speł­
nia warunki (i) i (ii) z definicji 1. Istotnie, gęstość g jest ^-mierzalna i dla
Ag T
f gd P = v(A) = [ X dP.
Ja
Ja
Dowód pierwszą metodą został zakończony.
Ale nieco inaczej
sformułowany.
Rozdział 6. Warunkowa wartość oczekiwana
130
D ru gi d o w ó d istnienia.
I. Najpierw udowodnimy istnienie warunkowej wartości oczekiwanej dla
X 6 L 2 ( Q. , M, P) . Skorzystamy w tym celu z twierdzenia o rzucie ortogo­
nalnym w przestrzeni Hilberta (patrz dodatek C). Niech H = L 2 ( Q , M , P ).
W tedy H 0 = L 2 (il,T, P) jest domkniętą podprzestrzenią H. Niech X € H
i niech Xo będzie rzutem X na Ho- Wtedy oczywiście Xq jest ^-mierzalna.
Dalej, z samej definicji rzutu ortogonalnego, dla dowolnego Y £ £ 2(fi, T, P )
mamy
czyli
Biorąc Y = 1a , A € T otrzymujemy
[ X dP = f X q dP.
Ja
Ja
Zatem X q jest warunkową wartością oczekiwaną X względem T .
II. Własności £ (X |T ) dla X e L 2 (Q, M , P ).
1. V a ,/3 e R
V X i ,X 2 e L2( Q , M , P )
£ { a X l + f 3 X 2 \ F ) = a £ ( X 1 \T) +/3£ { X 2 \ F ) .
D o w ó d . Rzut jest odwzorowaniem liniowym. Jeśli zatem X i to i X 2to
są rzutami X\ i X 2 na podprzestrzeń Ho, to a.X^o+(3X2fi jest rzutem
a X i + ¡3 X 2 - Oto bezpośrednie sprawdzenie: gdy Y € Ho, to
( a X lfi + l3X2to - (a X 1 + 0 X 2), Y) =
= a { X lfi - X U Y ) + p ( X 2t0 - X 2, Y) = 0,
co kończy dowód punktu 1.
2. Jeśli X > 0, to £ ( X |F ) > 0 p.n.
D o w ó d . { £ ( X |F ) < 0 } jest zdarzeniem z F. Ponieważ
0< /
XdP=
{£(X\F)<0}
£{X \F)dP<0,
{£(X\F)<0}
J{£(X\F)<0}
Zatem P ( £ ( X \F ) < 0) = 0, czyli £ (X |F ) > 0 p.n.
§6.3. Definicja ogólna
131
3. Jeśli Xi > X 2, to £ ( X l \ F ) > £ ( X 2 |F ) p.n.
Wynika to natychmiast z 1 i 2.
III. Istnienie dla X € L 1(i2,.A4,P), X J* 0.
Istnieją zmienne losowe X n G L 2 ( Q , M , P ) takie, że dla każdego ui £ Q
mamy X n(tS) T X(w) (np. X n = min(X, n)); £ (X n |F ) istnieje na mocy
punktu I. Z własności II.3 wynika, że zmienne losowe £ (X n \F ) tworzą
ciąg niemalejący. Niech X 0 = limn £ (X n |T). Wtedy dla dowolnego A e F
mamy, korzystając z twierdzenia Lebesgue’a-Leviego o zbieżności monotonicznej:
f X dP = lim f X n dP = lim f £ ( X n \F) dP = i X 0 dP.
Ja
71 Ja
n Ja
Ja
W szczególności X q jest skończona prawie na pewno; jest także mierzalna
względem F, jako granica funkcji ^"-mierzalnych. Zatem £ ( X |F ) = X 0.
IV . Istnienie dla dowolnej zmiennej losowej X e L 1(fl , M , P ) .
Otóż Y = £ (X + |T ) —£ (X ~ |T ) jest dobrze określoną, ^-mierzalną i cał­
kowalną zmienną losową. Dla dowolnego A € F mamy
f
Ja
XdP=
f
[
X+dP-
Ja
X~dP =
Ja
= [ £ ( X + \ F ) d P - [ £ { X ~ \ F ) d P = [ YdP,
Ja
Ja
Ja
zatem £ ( X |F ) = Y, bo Y spełnia warunki (i) i (ii) z definicji 1, co kończy
dowód twierdzenia 3. ■
Najważniejsze własności warunkowej wartości oczekiwanej zbierzemy w po­
niższym twierdzeniu (inne własności — patrz zad. 1- 6 ):
T w ierdzen ie 4. Niech X , X \ , X 2, będą zmiennymi losowymi o skończonej
wartości oczekiwanej, niech J- C M będzie danym a-cialem. Wtedy
(a) Jeśli X jest T-mierzalna, to £ ( X \ Jr) = X p.n.,
(b) Jeśli X > 0, to £ (X |T ) > 0 p.n.,
(c) \S{X\F) \<S{\X\\F)p. n. ,
(d) £ ( a X 1 +/3X 2 \F) = o £ ( X 1 \F) + 0 £ { X 2 \F) p.n. dla a , ¡3 e R
(e) Jeśli X n ] X , to £ (X n \f ) T £ [X \F ) p.n.,
( / ) Jeśli F i <ZF2 C M , to
£ { X \ F 1) = £ { £ ( X \ F 2 ) \ F i ) = £ { £ ( X \ F 1 ) \ F 2)
( wszystkie równości p.n.),
Rozdział 6. Warunkowa wartość oczekiwana
132
(g) £ X = £ { £ { X \ T ) ) p.n.,
(h) Jeśli T i a ( X ) są niezależne ( czyli zmienna losowa X jest niezależna
od a-ciala T ), to £ (X \T ) = £ X p.n.,
(i) Jeśli Y jest ograniczoną zmienną losową T-mierzalną, to
£ (X Y \ T ) = Y £ { X \ T ) .
D o w ó d . Korzystając z definicji i własności całki, otrzymujemy natych­
miast punkty (a), ( 6), (c), (d), (e).
( / ) £ ( X |Ti ) jest T\-mierzalna oraz dla dowolnego A e f i C i i mamy
[ £ ( X IJF2) dP = [ X d P = [ £ ( X \ T l )dP,
Ja
Ja
Ja
zatem £ (£ ( X \T%) \T\) = £ ( X |T{), a ponieważ £ ( X \T\) jest ^ -m ie ­
rzalna (J7! C T 2), to z punktu a) otrzymujemy
£ ( £ ( X \ T 1 ) \ T 2 ) = £ ( X \ T 1),
co kończy dowód ( / ) .
(g) Jest to uogólnienie wzoru na prawdopodobieństwo całkowite. Biorąc
T\ = { 0 , 0 } , T 2 — T i stosując ( / ) otrzymujemy
£ X = £ { X \ F 1) = £ { £ { X \ T ) \ T l ) = £ { £ { X \ T ) ) ,
bowiem jedyne funkcje ^-m ierzalne są to stałe, zatem £ (Y j T{ ) = £ Y dla
Y całkowalnej.
(h) £ X jest stałą, więc jest J^-mierzalna. Niech A G T. Z założenia X i 1A
są niezależnymi zmiennymi losowymi, więc
f £ X d P = £ X - £ 1a = £ { X - 1 a ) = f X d P ,
Ja
Ja
więc z jednoznaczności £ ( X |T ) = £ X .
(i) standardowy dowód — komplikację postaci Y — zostawiamy czytelni­
kowi jako zadanie. ■
P rz y k ła d 5. Owad składa X jajeczek zgodnie z rozkładem Poissona z pa­
rametrem A, a owad z jajeczka wylęga się z prawdopodobieństwem p, nie­
zależnie od innych. Znaleźć średnią liczbę potomków.
R o z w i ą z a n i e . Niech Y będzie liczbą potomków owada. Można to zada­
nie rozwiązać wyliczając rozkład Y (patrz zad. 4.1.11). My skorzystamy
z warunkowej wartości oczekiwanej.
§ 6.3. Definicja ogólna
133
Wprowadźmy następujące oznaczenie: jeśli X jest zmienną losową całko­
walną, Y — zmienną losową o wartościach w R n, to
£ {X \ Y ) = £{X\a{Y )).
Jest X jajeczek, czyli X niezależnych prób Bernoulliego z prawdopodobień­
stwem sukcesu p, więc £ (Y |X ) — Xp. Stąd
£ Y = £ (£ {Y |X)) = £ (Xp ) = Ap.
Ten przykład pokazuje, jak można obliczać wartość oczekiwaną, korzystając
z warunkowej wartości oczekiwanej. Właściwy wybór zmiennej losowej X
często bardzo upraszcza rachunki. ■
Stwierdzenie 6 (Nierówność Jensena). Jeśli funkcja <p:R —> R jest
wypukła, a zmienne losowe X i <p(X) należą do ¿ ^ (f i,M , P ) , to
<p(£(X\T))^£(<p(X)\T)
p.n.
dla dowolnego a-ciała T C M D o w ó d . Skorzystamy z faktu, znanego z analizy:
Fakt. Jeśli y> jest funkcją wypukłą w R, to istnieją ciągi liczb (an)%Li
i {Pn)n=u takie, że dla każdego x € R
<p(x) = sup(ans + ¡3).
71
Stąd mamy ip(X) > a nX+l3n, n € N, więc £ (ip( X) |T ) > a n£ { X \Jr)+ fin
dla każdego ustalonego n. Stąd (jest przeliczalna liczba nierówności p.n.)
£ (<p(X) |T ) > sup[a„£ ( X \T ) + pn\= V{£ ( X \? ) )
p.n. ■
n
Twierdzenie 7. Jeśli X jest zmienną losową, £\X\ < oo, Y jest zmienną
losową o wartościach w R ", to istnieje funkcja borelowska h: R n —>R taka,
że
£ ( X \ Y ) = h(Y).
Dowód wynika natychmiast z następującego lematu:
Lemat 8. Niech Y będzie zmienną losową o wartościach w R n, X —
zmienną losową mierzalną względem c ( Y ) . Wówczas istnieje funkcja bo­
relowska h : R n —>R taka, że X = h(Y).
Rozdział 6. Warunkowa wartość oczekiwana
134
D o w ó d . Zastosujemy metodę komplikacji zmiennej losowej X .
1. Jeśli X — 1 a, gdzie A 6 cr(Y), to istnieje zbiór borelowski B taki, że
A = {oj G il: Y { u ) G B} . Wtedy
X ( w) = lyi(w) = l B(y(w)) = h{Y{w)),
gdzie h = I b 2. Jeśli X jest funkcją prostą, czyli X =
1 mamy l Ai = fi (Y) i h =
CilAi, to na mocy punktu
3. Jeśli X jest dowolną zmienną losową cr(F)-mierzalną, to istnieje ciąg
(X n) zmiennych losowych prostych i o-(F)-mierzalnych, dla którego
X n(oj) —» X(uf), ii> e ii. Na mocy punktu 2 istnieją funkcje borelowskie tpn takie, że X n(u) = ipn(Y(u)), zatem <pn( Y(u)) -------> X ( u ) ,
71— »OO
co G ii.
Zbiór B = { i 6 R n:limn <fin{x) istnieje} jest zbiorem borelowskim.
Dlatego funkcja
jest borelowska.
Ale oczywiście X(u>) = limre <pn{ Y( w)) = <p(Y(w)), w G fi. ■
Korzystając z twierdzenia 7, możemy zdefiniować warunkową wartość ocze­
kiwaną względem { Y = y) nawet wtedy, gdy to zdarzenie ma zerowe praw­
dopodobieństwo.
D efin icja 9. Warunkową wartością oczekiwaną zmiennej losowej X pod
warunkiem { Y = y }, którą oznaczamy £ (X |Y = y), nazywamy liczbę h(y),
gdzie h jest funkcją otrzymaną w twierdzeniu 7.
Jeżeli zmienna losowa Y ma rozkład dyskretny i P (Y = y) > 0, to z tw.
6 .2.2 wynika równość
Obliczmy tę wielkość, korzystając z definicji 9. Dla u> G {Y = y ) mamy
£(zir»“) = i r a L IiS
więc
czyli definicja 9 daje ten sam rezultat, co poprzednio.
§ 6.3. Definicja ogólna
135
Gdy mamy funkcję h(y) = £ ( X |Y = y), to g(u) = h(Y(tv)) jest równe
£ ( X [ Y), tzn. £ ( X |Y) = h(Y). Na przykład, jeśli £ ( X |Y = x) = x 3, to
£ ( X |Y) = Y 3.
Zastosujemy teraz warunkową wartość oczekiwaną do rozwiązania następu­
jącego zagadnienia prognozy:
Dany jest wektor losowy (X , Y), gdzie zmienna losowa X jest obserwowalna,
a zmiennej losowej Y nie możemy obserwować. Jak na podstawie obserwacji
X ocenić (prognozować) Y?
Problem ten przypomina nieco zagadnienie regresji liniowej, o którym wspo­
mnieliśmy w poprzednim rozdziale, i właściwie można by go określić jako
zagadnienie regresji, tyle że krzywoliniowej.
Zmienną losową <p(X), gdzie ip jest funkcją borelowską, nazywamy pro­
gnozą Y przy pomocy X , a £ [Y —<p{X)f — błędem średniokwadratowym ip* określa krzywą
prognozy, który oznaczamy A ip. <p*(X) jest prognozą optymalną (w sensie regresji.
średniokwadratowym), jeśli
£ [ Y - i p * ( X )}2 = m i £ [ Y - i p ( X ) ] 2 ,
gdzie kres dolny jest brany po wszystkich funkcjach ip borelowskich.
T w ierdzen ie 10. Niech £ Y 2 < oo. Wtedy prognoza optymalna istnieje
i jako ip* (x ) można wziąć <p*(x) — £ (Y |X = x ) .
D o w ó d . Można ograniczyć się do <p takiego, że £ip2( X ) < oo (w przeciw­
nym razie Aip = oo). Niech ip {X ) = £ (Y |X ). Wtedy
£ [Y - ip{X) ] 2 = £ [Y —V*(X) + ip*(X) - i p{X)f =
= £ [Y - v * { X ) f + £ \V*{X ) - ip{X ) ) 2 +
+ 2 £ \ ( Y - v * ( X ) ) ( i p * ( X ) - <p ( X) ) \ .
Drugi wyraz jest nieujemny, a trzeci jest równy zeru, ponieważ
£ [ ( Y - < p * { X ) ) { < p * { X ) - V(X))} =
= £ { £ {[(Y - <p*(X))(<p*(X) - V(X))] |X } ) =
= £ (ip*(X) - <p(X)) ■£ (Y - V*(X) |X ) = 0.
Zatem
A<p > £ { Y - <p*{X)]2 . u
Jeśli ktoś pamięta, że warunkowa wartość oczekiwana zmiennej losowej
Y € L 2 względem cr-ciała T jest rzutem ortogonalnym na L 2 ( Q, T, P) ,
łatwo się domyśli, że najlepszą średniokwadratową ^-mierzalną prognozą
Y jest £ (Y |T). Żeby otrzymać twierdzenie 10, wystarczy wziąć T = a{X).
Rozdział 6. Warunkowa wartość oczekiwana
136
Zadania
1. Warunkowa wersja lematu Fatou. Jeśli X n ^ 0, to
£ (lim inf X n \F) ^ lim inf £ (X n \J7)
p.n.
2. Warunkowa wersja twierdzenia o zbieżności zmajoryzowanej. Jeśli
|X.H| ^ V(w),n = 1,2,... ,£Y < oo oraz X n —» X p.n., to
lim£(Xn \F) = £ ( X \ F )
n
p.n.
3. Udowodnić 6.3.4(i).
4. Pokazać, że 6.3.4(i) jest prawdziwe przy założeniu, że Z jest ^-mierzalna
oraz
(i) X, Y są dodatnie, £ X < oo, £ (XZ) < oo
lub
{ii) X € L p, Y e L ' 1, p > l , p - 1 + q - 1 = l.
5. Wykazać, że jeśli X jest zmienną losową całkowalną, a-ciało G jest niezależne
od a(a(X),F), to £ ( X |<r{Q,F)) = £{X\ F).
Uwaga. Biorąc T = {fi, 0}, a więc cr-ciało nie niosące żadnej informacji,
otrzymujemy 6.3.4(/i).
6 . X i Y są niezależnymi zmiennymi losowymi, / — ograniczoną funkcją borelowską. Wykazać, że
£(f(X,Y)\Y = t)=£f(X,t).
7. Rzucamy 10 razy symetryczną monetą. Niech X oznacza łączną liczbę orłów,
zaś Y liczbę orłów w pierwszych czterech rzutach. Znaleźć £ ( X \Y).
8 . Gdy £ X 2 < oo, to możemy zdefiniować warunkową wariancję:
V 2 {X\f) = £ ((X - £ {X |F ) ) 2 |F) .
Wykazać, że V 2X = £ (V 2 (X\f)) + V 2{£ (X \F)).
9. X i Y są niezależnymi zmiennymi losowymi o tym samym rozkładzie i skoń­
czonej wartości oczekiwanej. Wyznaczyć £{X\ X + Y).
10. Uogólnić wynik poprzedniego zadania na n zmiennych losowych.
11. Niech X i Y będą niezależne, o tym samym rozkładzie fi. Wyznaczyć
I zadbać o to,
żeby nie
wplątać się
w rachunki.
£ ( X |X 2 + Y 2)
dla dwóch różnych rozkładów im.
■12. Niech ii = [0,1] x [0,1], P — miara Lebesgue’a na [0,1] x [0,1]. Znaleźć
£ ( f \ T ) , jeśli
a) f(x,y) = x , T jest <r-ciałem generowanym przez y.
b) f(x) —x —y , T jest c-ciałem generowanym przez x + y.
c) f(x) = x 2y, T jest cr-ciałem generowanym przez y.
13. Niech X\, Xi , ... będą niezależnymi zmiennymi losowymi o tym samym roz­
kładzie, £\Xl\ < O O , Sn = X l + . . . + X n, Fn = a{Sn , Sn+ 1 , £>„+2, • ■•)•
Wyznaczyć £ (X i |Tn) i £ (X)”=i
I ? n) ’ ®dzie S " = i a' ~
§ 6.4. Prawdopodobieństwo warunkowe — uogólnienie
§ 6.4.
137
Prawdopodobieństwo warunkowe — uogólnienie
Korzystając z pojęcia warunkowej wartości oczekiwanej, uogólnimy teraz
pojęcie prawdopodobieństwa warunkowego zdarzenia.
D efin icja 1. Prawdopodobieństwem warunkowym zdarzenia A e M pod
warunkiem Y = y, które oznaczymy przez P{A\Y = y), będziemy nazywać
wielkość
£ { U \ Y = y).
Ponieważ ma sens wyrażenie P (X £ A\Y = y), możemy także mówić o roz­
kładzie warunkowym zmiennej losowej X pod warunkiem Y = y. W następ­
nym przykładzie dane są, rozkłady warunkowe, z których tworzy się rozkład
zmiennej losowej.
P rzyk ła d 2. Niech Y ~ U[0, lj. Jeśli Y = x, to rzucamy n razy monetą,
dla której prawdopodobieństwo wypadnięcia orła jest równe x. Niech S„
oznacza liczbę orłów. Znaleźć P (S n = k), k = 1 , 2 , . . . , n (por. z przykładem
6.2.9).
R o z w i ą z a n i e . Jest jasne, że
P(Sn = k\Y = x) = h(x) =
- x )n~k.
Dlatego
P (S n = k ) = £ { £ (1{Sb=4} |Y ) ) = S (h ( Y )) =
= f P(Sn = k\Y = x)fiY(dx) =
Jo
= J
^ j x k(l —x )n~k dx =
_ / n\ T(k + l)r(n - k + 1)
~ VfeJ r(fe + l + n - f c + l) "
+ l , n — k + 1) =
/n \ k\{n - k)\ _
1
(n + l) ! ~ n + 1 ’
dla k = 0 ,1 , . . . , n. Skorzystaliśmy tu z własności funkcji beta udowodnio­
nych w dodatku A. ■
W tym przykładzie obserwacje Sn i Y są obserwacjami z eksperymentu
dwuetapowego. Rozkład Sn w drugim etapie zależy od wyniku Y pierwszego
etapu. Następne twierdzenie pokazuje metodę obliczania £ (X |Y — x ), gdy
łączny rozkład zmiennych losowych (X , Y ) jest ciągły.
Rozdział 6. Warunkowa wartość oczekiwana
138
T w ierd zen ie 3. Jeśli (X , Y ) ma rozkład ciągły z gęstością g, to
P (X 6 B\Y) =
k ~ -X
r Yl ? d -,
J -00g ( x , Y ) d x
(1)
y )
J Z, V’ ( x ) g ( x , Y ) d x
S W X )\ Y ),
(2)
dla takich funkcji borelowskich <p, że £\tp(X)\ < co. Gdy dla pewnego zda­
rzenia elementarnego cu
i
J
g(x, Y(ui))dx = 0 ,
—C
to kładziemy w obu wzorach z prawej strony wartość 0 .
U w a ga 4. Z tego twierdzenia wynika, że funkcję
V0
w p.p.
można nazwać warunkową gęstością X pod warunkiem Y , bowiem
Prawa strona (2)
jest postaci h(Y),
więc podstawiamy
/
Y = y.
U w aga 5. Niech N y = jw € fi: J^
P ( N y ) = nY ( \ y : f
\
(.
= J>{Vi{ y . f ° °
OO
<p(x)fxiY(x\y) dx.
•OO
g(x, y(u>)) dx = 0 j . W tedy
g { x , y ) d x = 01 ) = /
J —oo
)/
r
g
( x ,y)
, y ) d x = 0 } L/ - 0 0
9(x
^
J{y: f
,y)dx
dy =
dx= o}
fy{y)dy-
g( x, y) d x = 0 }
0.
Zatem prawe strony wzorów (l)-(2 ) w tw. 3 są dobrze określone poza zbio­
rem N y miary zero: tam możemy je określić dowolnie, więc kładziemy zero.
D o w ó d twierdzenia 3. Udowodnimy tylko wzór ( 2), bowiem biorąc ip = I g ,
otrzymamy (1). Weźmy dowolny element B z a(Y). Jest on postaci Y ~ l (A),
gdzie A £ B (R ). Mamy
f £ {<p(X) |Y ) d P = i
Jb
<p{X) d P =
J y ~ 1{ A)
/
f <p(X)1a(Y)
Ja.
OO pOO
/
i f ( x ) l A(y)g(x, y) dx dy =
■oo
J —OO
§ 6.4. Prawdopodobieństwo warunkowe — uogólnienie
139
Jeśli J^°oog {x ,y )d x = 0, to g(-,y) = 0 p.w. (bo g > 0) i bierzemy wer­
sję gęstości g(x,y) = 0 (dla każdego x). Wtedy dla każdego x mamy
if{x)g{x,y) = 0. Niech
ę( y) = (
dl a H o
w p.p.
1.0
Wtedy, ponieważ
/ =? / £(y)
Ja
/
p(ar, y)
OO
jest gęstością Y, to
-1
/*CO
/»OO
g{x,y)dx\dy=
J
•00
?/)d* > 0 .
l A{y)<p(y)
J —00
/
g ( x , y ) dx
LJ —00
= f l A( Y ) ę ( Y ) d P = [
ę ( Y ) d P = [ ę { Y ) dP.
Jn
J y ->(a)
Jb
Zatem dla każdego B e er(Y) mamy
/ £ ( lp ( X ) \ Y ) d P = [ ę ( Y ) d P ,
Jb
Jb
ponadto <p(Y) jest a(Y)-mierzalna, więc z jednoznaczności warunkowej war­
tości oczekiwanej wynika, że:
£{ i p( X) \Y) = <p{Y)-= f
i p { x ) - ~ — ~ - - — dx
J-oo
J_oog ( x , Y) d x
P-p.w. ■
P rzyk ła d 6 . Jeśli wektor losowy (X, Y) ma rozkład normalny, to regresja
jest liniowa. Niech (X, Y) ~ N ((mi, ^ 2) , ^ ) - Wtedy
f (X |Y) =
+ P(X, Y ) ? * ( Y - H2 ).
(ty
Wziąć dwa funty
cielęciny,
wstrząsnąć, obrać,
U w aga 7. Jeśli rozkład (X , Y ) ma ciągłą gęstość / , to dla dowolnego zaprawić i zrobić
eskalop.
R o z w i ą z a n i e . Znajdujemy postać f X\y i obliczamy £ (X j Y ). ■
zbioru B € B(R )
lim P (X £ B\z < Y < z + ft) = I fx\Y{x \z ) dx =
h »0
Jg
= lim P (X G S||Y — z| < /i),
h—
40
co daje intuicyjną interpretację warunkowej gęstości X pod warunkiem Y.
P rzyk ła d 8 . Przy obliczaniu gęstości warunkowych trzeba jednak zacho­
wać ostrożność. Jeśli wektor losowy {X , Y ) ma łączny rozkład ciągły i wy­
znaczamy gęstość warunkową pod warunkiem { X = Y }, to przedstawiając
to zdarzenie w postaci X —Y = 0 i X /Y = 1 otrzymamy różne wyniki.
A. Słonimski,
J. Tuwim
„W oparach
absurdu”
Rozdział 6. Warunkowa wartość oczekiwana
140
Żeby to zobaczyć, weźmy niezależne zmienne losowe X , Y o rozkładzie
wykładniczym i niech Z\ = X + Y , Z 2 = X — Y , Z 3 = X / Y . W tedy
f z l \z2(x \®) =
Zdarzenie { X — Y } przybliżyliśmy przez {0 < \X — Y\ < h}). Ale:
f z ^ z ^ l ) = f Z l (x ) = X2x e ~ ^ l {x>0}.
Zdarzenie { X = Y } przybliżyliśmy teraz przez
{|(X/Y) - 1| < h } = {|X - Y \ < hY} . •
Na zakończenie powiemy, jak sformułować ściśle zadanie z przykładu 6.1.1,
posługując się rozkładami warunkowymi: zmienna losowa U ma rozkład jed­
nostajny na [0,1], a zmienna losowa V ma rozkład warunkowy jednostajny
na [0, i], jeśli wiadomo, że U = t. Wyznaczyć £ V .
A jak wygląda formalne rozwiązanie tego zadania? Można wykorzystać roz­
ważania prowadzące w przykładzie 6 . 1.1 do konstrukcji modelu, można też
obyć się bez konstrukcji i skorzystać ze wzoru 6.3.4(p).
Zadania
1. Znaleźć rozkład warunkowy X pod warunkiem X + Y = t, jeśli X i Y są
niezależnymi zmiennymi losowymi o tym samym rozkładzie
a) Ai (o, A2); b) wykładniczym z parametrem A; c) Poissona z par. A.
Obliczyć w punkcie b:
d) P ( X < t\min(X, Y ) ą t ) ; e) P ( X > t\max(X, Y) ^ 24).
f-h) Uogólnić wyniki a-c na przypadek, gdy parametry A i /i obu rozkładów
są różne.
2. Niech (X , Y ) ma rozkład o gęstości f ( x, y) = 8®j/l{l>o,!,>o,*2+y=<i}(3>i0Znaleźć £ (Y j X =
.
3. Odcinek [0,1] łamiemy losowo na dwie części, następnie większą część znowu
łamiemy losowo na dwie. Punkty łamania mają rozkład jednostajny. Jaka
jest szansa, że z otrzymanych odcinków można zbudować trójkąt?
4. Niech X, Y będą niezależnymi zmiennymi losowymi o rozkładzie jednostaj­
nym na [0, 1], U = min(X, y ), V = max(X, Y). Znaleźć:
a) £ (U |V) i £ (V |U); b) £ (sin(VU) \U).
5. Udowodnić (najlepiej nie korzystając z gęstości warunkowych), że jeśli (X , Y)
ma rozkład normalny o średniej zero, to
§ 6.4. Prawdopodobieństwo warunkowe — uogólnienie
141
Piraci drogowi jeszcze raz. Towarzystwa ubezpieczeniowe stosują do pro­
gnozowania liczby szkód metody subtelniejsze niż te przedstawione w zadaniach
4.1.14-15 o następstwach pozornych. Zamiast dzielić klientów na ostrożnych i pi­
ratów przyjmuje się, że zmienna losowa X — liczba szkód zgłoszonych przez
klienta w ciągu roku — ma rozkład Poissona z parametrem A. Ale sam parametr
A jest traktowany jak zmienna losowa (bowiem zależy od klienta); przyjmuje się,
że ma rozkład gamma z parametrami a i 6.
6 . Wyznaczyć rozkład liczby szkód dla losowo wybranego klienta.
Jeśli klient zgłosił n szkód w ubiegłym roku, można podjąć próbę oszacowania pa­
rametru A, wyznaczając jego rozkład warunkowy pod warunkiem X = n. Wtedy
£ (A |X = n) można przyjąć za prognozę liczby szkód w bieżącym roku.
7. Wyznaczyć rozkład warunkowy A pod warunkiem X = n oraz £ (A |X = n).
Prognoza wysokości roszczeń. Załóżmy, że klient towarzystwa ubezpiecze­
niowego zgłaszał w poprzednich n latach roszczenia o wysokościach X lt. .. ,XnNależy na tej podstawie oszacować X „+ i — wysokość roszczeń, jakie zgłosi w bie­
żącym roku. Zakładamy, że Xi = m + U + Vi dla i = 1 , 2 , . . . , n + 1, gdzie CU = 0,
V 2U = u2, £Vi = 0, T>2Vi = n2, m = £X-l. Załóżmy ponadto, że zmienne losowe
U i Vi są nieskorelowane.
Zmienną losową U można interpretować jako losowe odchylenia dla poszczegól­
nych klientów, zmienne V{ — jako losowe różnice pomiędzy kolejnymi latami1.
8 . Rozwiązać zagadnienie regresji liniowej dla zmiennych losowych X n+i i Sn =
= X i + ... + X„.
9. Założyć dodatkowo, że zmienne losowe U i Vi mają łączny rozkład normalny
i rozwiązać zagadnienie prognozy dla X n+i i Sn = X i + . . . + X n.
Uogólnienia wzoru Bayesa. Mają one liczne zastosowania, m. in. w statystyce
i matematyce finansowej. Oznaczmy P(A\G) = £ (1.4 |G) (por. def. 6.5.1).
Stwierdzenie 9. Jeśli Q jest a-ciałem, G C F, B e G, A e F i P(A ) > 0, to
f B P(A\G)dP
P(B\A) = :
Jn P(A\G)dpDowód. Dla każdego zbioru B € G mamy,
warunkowej wartości
amy, na mocy definicji
de:
oczekiwanej:
/ P(A\G)dP = [ 1AdP = P(A n B).
Jb
Jb
Wobec tego
P(BIA) = p ( A n B > =
P(AnB)
K 1 '
P(A)
P(AnB) + P(ADB’)
! BP(A\G)dP
f B P(A\G)dP
JB P(A\G)dP + f B, P(A\G)dP
f n P(A\G)dP'
ŁNa przykład ten zwrócił nam uwagę Wojciech Niemiro. Patrz też W. Niemiro, Ra­
chunek prawdopodobieństwa i statystyka matematyczna, Szkoła Nauk Ścisłych, Warszawa
1999, roz. 6.
Rozdział 6. Warunkowa wartość oczekiwana
142
10. Niech { A i , . . . , A n} będzie rozbiciem zbioru fi, niech B e M , P (B ) > 0,
X = £)"=i
>9; ~ U d o w o d n i ć , że
- f m l
^
IZ o
'
9 (*)P(B\X
=
g (g (J Q lB)
J ^ o P(B|X = a)/iX(da)
£1 b
*11. Niech X , K będą zmiennymi losowymi spełniającymi warunek
P (X € A|Y = 1/) =
gdzie h: R
zać, że
X
J
h (x,y)v(d y),
R —>R jest funkcją borelowską, a u miarą <r-skończoną. Wyka­
P (Y e B|X = x)
_
SB h(x ,y)iJ-Y{dy)
JToah{x,y)iJ.Y(.dy)'
a jeśli ip: R —» R jest taką funkcją borelowską, że £\ip{Y)\ < oo, to
£ (<p{Y) I X = x) = f
i -00
Ifiiy) 755—¿7^’- ^- 7
7
i^ h & y ^ Y id y )
W •
Gdy wektor losowy (X , Y ) ma rozkład dyskretny, otrzymujemy wzór z zadania
10; jeśli ma rozkład ciągły, to znamy h (patrz uwaga 4) i ma miejsce zależność
„
,
v
I Z o v(y)fx\Y{x\y)fY (y) dy
£ {^ (Y ) ) X — x) —
„oo
J-oo / x | y ( ® | y ) / y ( y ) dy
12. Niech P, Q będą miarami probabilistycznymi na (ii, JP), dla których istnieje
gęstość dQ/dP — Z > 0 P-p.n. Niech Q C T i niech X będzie zmienną
losową Q-całkowalną. Wtedy
£p{xz\g)
,
Q(
§ 6.5.
*^
£p (Z ¡g ) '
Regularne rozkłady warunkowe
W ostatniej części tego rozdziału zajm iem y się kwestią istnienia regularnych
rozkładów warunkowych, które umożliwiają obliczanie warunkowej wartości
oczekiwanej jako całki ze zmiennej losowej względem odpowiedniej miary.
D e fin ic ja 1. Prawdopodobieństwem warunkowym zbioru B pod warunkiem
o-cia ła T nazywamy wersję warunkowej wartości oczekiwanej
P(B\F) = £ (I b I F ) ■
Należy podkreślić, że P(B\T) jest zmienną losową.
§6.5. Regularne rozkłady warunkowe
143
U w aga 2. Gdy T jest generowane przez przeliczalne rozbicie { A i: i £ / } ,
gdzie P(Ai) > 0 dla i e I, to
P(B\T) — P(B\Ai),
gdy c j e A .
Istotnie,
Jest to prawdopodobieństwo zajścia zdarzenia B, gdy wiemy, do którego
zbioru Ai należy w, czyli gdy mamy dodatkowo częściową informację o zda­
rzeniu elementarnym w.
T w ierdzen ie 3. Prawdopodobieństwo warunkowe P(B\T) ma następujące
własności:
(i) Jest zmienną losową T-mierzalną.
(ii) Dla każdego A € T
P ( A D B ) = f 1 B d P = f £ { l B \ F ) d P = f P(B\T)dP.
Ja
Ja
Ja
(iii) 0 < P(B\T) < 1.
(■iv) Jeśli Bn są rozłączne parami, to
OO
OO
P ((J J U n = X > (£ » l^
n—1
p.n.,
n= 1
bo dla każdego A 6 T
Trzeba podkreślić, że ta równość jest spełniona prawie na pewno i wa­
runkowego prawdopodobieństwa P(B\T)(oj) nie można, przy ustalonym oj,
uważać za miarę (względem B).
Można by sądzić, że po wyrzuceniu zbioru N miary zero P(-\J-)(u) dla
u) £ il \ N będzie już miarą.
Ale tak nie jest. Jeśli N ( B i , B 2, .. ■) jest zbiorem tych u, że dla ustalonych
zbiorów rozłącznych Bi, B 2, B3, ... nie jest spełniony warunek przeliczalnej
addytywności, to trzeba by wykluczyć cały zbiór N = (JjV(f?i, B2, ■■•),
gdzie sumowanie odbywa się po wszystkich parami rozłącznych zbiorach
Bi, B2, ... £ M . Suma ta jest nieprzeliczalna, więc może być P ( N ) > 0.
Rozdział 6. Warunkowa wartość oczekiwana
144
D efin icja 4. Regularnym rozkładem warunkowym względem T nazywamy
funkcję
■)'■M x ii —> [0 , 1], spełniającą następujące warunki:
(i) dla B e M , Pj={B, ■) jest wersją £ ( I b |F ),
(ii) dla każdego to € ii P^(-,ui) jest rozkładem prawdopodobieństwa na
M.
Istnienie regularnego rozkładu warunkowego upraszcza wiele obliczeń dzięki
poniższemu twierdzeniu.
T w ierd zen ie 5. Niech X będzie zmienną łosową całkowalną, a Pp(-, ■) re­
gularnym rozkładem warunkowym względem T . Wtedy
£ ( X \ T ) ( u i ) = [ X(u>)Pjs(cB,u)
Jn
p.n.
(1)
D o w ó d . Dla X = I b , B € M , równość wynika z definicji, dlatego rów­
ność (1) jest prawdziwa dla funkcji schodkowych. Gdy X > 0, to istnieją
zmienne losowe schodkowe X n takie, że X n f X . W tedy z twierdzenia
6.3.4(e) £ ( X \ J r) = lim ^ f ( X n |JF) p.n. Ponieważ Pp(-, u) jest miarą dla
każdego w, to korzystając z (1) dla zmiennych losowych schodkowych X n
otrzymujemy
lim f
n
(X n |T )
= lim
[ X n(ij)P^(du),u .>) = f X(Co)Pr(dCb,Lj),
n Ja
Ja
zatem (1) zachodzi, gdy X > 0. Stąd, ponieważ X = X + — X ~ , otrzymu­
jemy tezę. ■
Regularny rozkład warunkowy względem T nie zawsze istnieje (zad. 2), ale
można wykazać (zad. 1), że prawdziwe jest
T w ierd zen ie 6 . Dla dowolnej zmiennej losowej X i dowolnego T C M
istnieje regularny rozkład warunkowy X pod warunkiem T , tzn. funkcja
') określona na B (R ) x ii i taka, że
(i) Dla każdego B £ ¿B(R)
Px ,AB,u>) = P( XeB\T) ( u>) ;
(ii) Dla każdego ui € il, Px \f {', w) jest rozkładem prawdopodobieństwa na
B( R ).
To twierdzenie jest prawdziwe także dla zmiennych losowych o wartościach
w przestrzeni polskiej, w szczególności — o wartościach w R n.
Na zakończenie podamy przykład często spotykanej sytuacji, gdzie regu­
larny rozkład warunkowy istnieje i ma taką postać, jakiej należałoby ocze­
kiwać (por. uwaga 6.4.4).
§6.5. Regularne rozkłady warunkowe
145
P rzy k ła d 7. Wektor losowy (X , Y ) ma gęstość f ( x, y). Definiujemy funk­
cję
^
U fa )
Tu,
w przeciwieństwie
do tw. 6-4.3,
musimy wstawić
jakąkolwiek
gęstość.
W * ) = H o /(*.*)<**> °>
dla f x ( x ) = 0 ,
gdzie g jest dowolną gęstością, i
K B , x ) = [ h(x,y)dy,
B e B(R ).
Jb
Wtedy
Py\<T(x) (B, U l)
=
n(B, X( u) ) .
Istotnie, dla ustalonego B funkcja fi(B,X(uj)) jest cr(X)-mierzalna, zaś
fj,(-,X(uj)) jest dla ustalonego w miarą. Trzeba jeszcze wykazać, że faktycz­
nie otrzymaliśmy wersję P ( Y e B\X) dla B £ fi(R ), czyli że dla A e B {R )
zachodzi równość
[
P (Y 6 B\X)(ui)P(dui) = f
n ( B , X( u ) ) P ( d v ) .
J{xeA}
J{xeA]
(2)
Żeby ją udowodnić, zauważmy, że lewa strona jest równa
/
l { Y e B } dP = P ( X e A , Y e B ) ,
J{xeA}
prawa zaś jest równa
L ',(B'
=L [/«iM ds\Mx>* ■
= [
f ( x, y) dxdy — P ( X e A, Y £ B ).
J a *. b
Tym samym udowodniliśmy równość (2).
Zwróćmy uwagę, że gdy
f ( x , z)dz = 0, to //(-, z ) jest rozkładem o gę­
stości g, można tu jednak wziąć dowolny rozkład prawdopodobieństwa. ■
Zadania
*1. Udowodnić twierdzenie 6.
* 2 . Wykazać, że regularny rozkład warunkowy względem danego cr-ciała nie za­
wsze istnieje.
Rozdział 7
Sumy niezależnych zmiennych
losowych
§7.1.
Wprowadzenie
Prawo wielkich liczb i centralne twierdzenie graniczne, udowodnione jesz­
cze w X VII i XVIII wieku, zajmują w teorii prawdopodobieństwa pozycję
szczególną. Obecnie znane są niezliczone warianty tych twierdzeń, których
wspólną cechą jest asymptotyczne zachowanie się wyrażeń postaci
X i + X 2 + . •. + X n — an
gdzie (X „ ) jest ciągiem niezależnych zmiennych losowych, zaś (an) i (bn) —
ciągami liczbowymi. Do badania tego rodzaju unormowanych sum zmien­
nych losowych przydają się z kolei kryteria zbieżności szeregów niezależnych
zmiennych losowych. Interesujące, że taki szereg może być zbieżny wyłącz­
nie z prawdopodobieństwem 0 lub 1 — prawie wszędzie lub prawie nigdzie.
I od twierdzeń tego typu, czyli praw zero-jedynkowych, zaczniemy.
§ 7.2.
Prawo zero-jedynkowe Kołmogorowa
Rozpatrzmy ciąg cr-ciał T n C T . Jeśli wyobrazimy sobie, że T n jest u-ciałem
generowanym przez zmienną losową X n, będziemy mogli interpretować
jako zasób wiedzy o doświadczeniu (ii, T , P ) otrzymany w chwili n, gdy
dokonujemy kolejnych obserwacji w chwilach 1,2, 3,. .. . Wówczas cr-cialo
reprezentuje całą wiedzę o przyszłości od chwili n. Definiujemy cr-ciało,
zwane ogonowym albo resztkowym:
OO
(1)
146
7.2. Prawo zero-jedynkowe Kołmogorowa
147
Ponieważ Tn,oo
T,+1,00) ciąg (Tn,<x)n jest zstępujący. Dla stwierdzenia,
czy A £ Too, wystarczy wiedza o przyszłości od dowolnie dalekiego mo­
mentu czasu. Wiedza o T jest zawarta w nieskończenie odległej przyszło­
ści. Gdy ciąg (T n) jest ciągiem a-ciał niezależnych, to ciąg ten nie powinien
przechowywać do nieskończoności żadnej istotnej informacji.
T w ierdzen ie 1 (P raw o 0 -1 K ołm ogorow a). Jeśli u-cmla T n są nie­
zależne, to dla każdego zdarzenia A 6 Tx mamy P(A) = O albo P(A) = 1.
D o w ó d . Dla dowolnego n niezależne są cr-ciała Gn = a (T i,T 2 , . . . , T n) i
T „+ i,oo- Ponieważ A 6 Ta0, to A € ^Vi+il0o- Stąd dla każdego n zdarzenie
A jest niezależne od Gn, zatem A jest niezależne od cr{Gi, G2 , ■- •) = ^ 1,00
(na mocy lematu 5.8.12 o niezależnych 7r-układach).
Ponieważ A € T it0a, to A jest niezależne samo od siebie, czyli P(A) =
= P (A fi A) = P (A )2 i ostatecznie P(A) = O lub P(A) = 1. ■
W n iosek 2. Jeśli (X n) jest ciągiem niezależnych zmiennych losowych, to
szereg XmL^i
i est zbieżny z prawdopodobieństwem O lub 1 .
D o w ó d . Niech Tn = a { X n). Wtedy (Tn) jest ciągiem cr-ciał niezależnych
i dla każdego k
X n zbieżny >
^
X n zbieżny > £ T k, 0 0 )
n=k
)
wobec tego wystarczy skorzystać z twierdzenia 1. ■
Podobnie postępujemy w wielu innych przypadkach, np. dowodzimy, że dla
niezależnych zmiennych losowych zdarzenia
{ istnieje skończona granica lim X n},
TL—* OO
{lim supX n = 00 },
r i-Xi + .. . + X n
x
■I lim --------------------< 0 }
71—»OO
71
należą do T ^ (zad. 1), zatem prawdopodobieństwo ich zajścia jest równe
O lub 1. Ale na przykład zdarzenie (sup X n < 5} nie należy do cr-ciała
ogonowego.
Hewitt i Savage uogólnili wynik Kołmogorowa na zdarzenia permutowalne
(patrz zad. 7).
Rozdział 7. Sumy niezależnych zmiennych losowych
148
Zadania
1. Udowodnić, że zdarzenia
{ istnieje skończona granica lim J „ ) ,
n—+oo
(limsupXn = oo},
{ lim —
Tl—* 0 0
a}
Tl
należą do Foo •
2. Niech X będzie zmienną losową mierzalną względem Tao zdefiniowanego wzo­
rem (1). Pokazać, że X = const p.n.
3. Udowodnić, że jeśli X n są niezależnymi zmiennymi losowymi, to promień
zbieżności szeregu potęgowego YIT-i XkZk, z G C, jest stały p.n.
Twierdzenie Hewitta-Savage’a. Funkcję wzajemnie jednoznaczną 7r: N —>N,
tc = (jti, 1x2 , •. ■), nazwiemy permutacją skończoną, jeśli 7Tn = n dla wszystkich n
z wyjątkiem skończonej ich liczby.
Coś nowego: Jeśli X = ( X i , X 2,...), to tt(X) = {Xlri, X %2,...). Jeśli A = { X 6 B}, gdzie
5(R°°) B G S(R°°), to 7r(A) = {■,k ( x )
g
B }.
Zdarzenie A = {X G B }, B £ S(R °°) nazwiemy zdarzeniem permutowalnym,
jeśli dla dowolnej permutacji skończonej ir mamy tc(A) = A.
Przestrzeń R°°, która się tu pojawiła, jest przeliczalnym produktem R
z metryką
X
R
X ...
1 + E i=1 lxi - 2 / 4
(R°°, d) jest przestrzenią metryczną, ośrodkową i zupełną.
4. Wykazać, że są permutowalne następujące zdarzenia
a) limsup{5n G B}, gdzie Sn = J2k=iXk’ B e ®(R )>
b) limsup{5n > a „} dla dowolnego ciągu (an).
5. Pokazać, że jeśli A € -Fco, to A jest zdarzeniem permutowalnym (implikacja
w drugą stronę nie jest prawdziwa).
6 . Udowodnić
AAB =
(A \ B )U (B \ A ),
Lemat 3. Niech Gi,G2 ,--- będą dowolnymi u-ciałami zawartymi w cr-ciele
T, Q = cr(Gi,G2 , ■■■)■ Wtedy dla każdego A G G istnieje ciąg (Ak)kLi, gdzie
Ak G cr(Qi, 02, ...Gk) taki, że l i m ^ « P(A A Ak) = 0.
7*. Udowodnić
Twierdzenie 4 (Hewitta—Savage’a) . Niech X\,X 2 ,. .. będą niezależny­
mi zmiennymi losowymi o jednakowym rozkładzie. Niech
)
A = { ( X i , X 2, ...) G B } , B e B(R°°),
będzie zdarzeniem permutowalnym. Wtedy P (A) = 0 lub P(A) — 1.
8. Wykazać, że funkcja g(A,B) = P(A A B), A, B G T, jest pseudometryką.
Pseudometryka
jest nieujemna,
symetryczna
i spełnia warunek
trójkąta.
Wykazać, że odwzorowania: A —>f A Y dP, gdzie Y G
—* A n B, A U B, A \ B są ciągłe w tej pseudometryce.
F, P), (A, B) —»
§ 7.3. Zbieżność szeregów niezależnych zmiennych losowych
§ 7.3.
149
Zbieżność szeregów niezależnych zmiennych lo­
sowych
Na mocy wniosku 7.2.2 szereg niezależnych zmiennych losowych
Xn
może być zbieżny z prawdopodobieństwem 1 lub rozbieżny z prawdopodo­
bieństwem 1. W tym paragrafie zajmiemy się problemem zbieżności szeregu.
Zaczniemy od nierówności maksymalnej, gdzie jak zwykle Sn =
oznacza n-tą sumę częściową.
Sformułowanie ze
T w ierdzen ie 1 (N ierów ność L e v y ’e g o -O tta v ia n ie g o ). Jeśli X i, X 2, stałą 3 i dowód
pochodzą od
. . . , X n są niezależnymi zmiennymi losowymi, to dla każdego e > 0
P(max|5j| > e) < 3m axP(|Ą| > -|e).
i^ n
i^ n
(1)
°
Gdy ponadto wszystkie Xi mają rozkłady symetryczne, to
P(max|Si| > e) ^ 2P(|Sn|> e).
(2)
D o w ó d . Ustalmy s ,t > 0. Dla i = 1 , . . . ,n niech
Ai = {|5^| ^ t + s dla j < i, |Si| > t + s}.
Wtedy Ai są parami rozłączne oraz IJILi Ai = {maXj^n |Sj| > t + s}.
Ponieważ
Ai n {|Sn - 5j| < s} C Ai n {|S„| > i}
(z nierówności trójkąta), to z rozłączności Aj oraz niezależności zdarzeń Ai
i (I«?™ —5i| ^ s} mamy
%
-P(|S„| > t ) z ¿ P i A i n {|5n - Sil ^ *}) = ¿ P ( A i )P(|5n i= 1
¿=1
s) z
n
Z mmP( \Sn - S i \ ^ s ) - J 2 P(Ai) =
""
¿=1
= (1 - maxP(|S„ - 5ś| > s))P(max|Ą| > t + s).
i^n
i^n
Stąd
P(mąx|a| > . + , ) <
Gdy maxj^„ P(|Si| > |i) <
otrzymamy
P(ma*|S£|>
t) 4
> ‘j s —
to biorąc
Ty
zamiast t oraz § 1 zamiast s,
-----------------------------------------------<3?
T
Stanisława
Kwapienia. Inne
tego typu
nierówności —
patrz [KWA]
Rozdział 7. Sumy niezależnych zmiennych losowych
150
Oszacujemy teraz I. Ponieważ
P(|S„ - Si| > §t) < 2maxP(|Si| > ¿i)
i^n
oraz x/(l — 2 s ) < 3x dla x G [0 , |], to
m a x ^ n P(|Si| > |i)
^ 3 '
1 - 2m axi^n P(|Si| > 5 i)
< 3maxP(|Sf| > \t).
¿<n
Gdy ma^j^nP(|Si| > |i) > |, to nierówność (1) jest spełniona automa­
tycznie.
Teraz udowodnimy (2). Niech A t = {|Sj| < t, j = 1 , 2 , . . . ,i — 1, |Sj| > t},
i = 1, 2 , . . . ,n. Wtedy
Ai C (Ai n {\Sn\ > t}) U (Ai n {|2Si - Sn|> t}).
Ponieważ Si i Sn — Si są niezależne i mają rozkłady symetryczne, zmienne
losowe Sn = Si + (Sn - Si) i 2Si - Sn = Si - (Sn - Si) mają ten sam
rozkład. W konsekwencji otrzymujemy
p(Ai ) < P(Ain{|S„| > i } ) + i 5(^ n {| 2 S i - S n|> t}) = 2 P(A in{|Sn|> i}),
skąd
n
P(max|Si| > t) =
P(Ai) < 2P(max|Si| > t, |Sn|> i) <
i^n
X—/
i^n
i—1
< 2P(|Sn|> t). ■
T w ierdzen ie 2 (O d w óch szerega ch ). Niech (X n) będzie ciągiem nie­
zależnych zmiennych losowych. Jeśli szeregi
oo
oo
$ > 2x „
71=1
są zbieżne, to szereg
71=1
jest zbieżny p.n.
D o w ó d . Niech Yn = X n —£ X n, n = 1,2,.... Ponieważ szereg Yln=\ £ X n
jest zbieżny, to szereg Y^=\ x n jest zbieżny p.n. wtedy i tylko wtedy, gdy
£ n = i Yn jest zbieżny p.n.
Ponieważ £ Y 2 = V 2X n, więc
X£ Y 2 < oo. Niech S „ = T 2 = i YkSprawdzimy warunek Cauchy’ego, korzystając po kolei: z oszacowania
sup |Sfc - Si| = sup |Sfc - Sn + Sn - S(| < 2sup |Sfc - S„|,
k,l^n
k^n
z nierówności (1), z nieró\irności Czebyszewa i niezależności Yn. Ustalmy
e > 0. Wtedy:
§ 7.3. Zbieżność szeregów niezależnych zmiennych losowych
151
P { sup |Sfe - Si\ > e) < P(sup \Sk - S„| > e / 2 ) =
=
lim P ( sup \Sk - Sn\> e/2) <
m^ °°
n^k^m
<
lim 3 sup PflSk - S„| > e / 6 ) <
m_*°° n^k^m
Prawa strona tej nierówności zmierza do zera, gdy n —> oo jako reszta
szeregu zbieżnego. Zatem ciąg Sn jest zbieżny p.n. ■
P rzy k ła d 3. Rozważmy szereg harmoniczny z losowym wyborem znaku
plus lub minus, czyli szereg
n^n, gdzie (Un) jest ciągiem Bernoulliego. Wtedy £Un = 0 oraz
OO
OO
1
£ ^ 2( t V " ) = E i ^ < “ ’
n=l
n = il
więc szereg £ AUn jest zbieżny p.n., czyli jest zbieżny dla prawie każdego
wyboru znaków (patrz też zadania 3 i 9). ■
Podamy teraz warunki konieczne i dostateczne zbieżności szeregu niezależ­
nych zmiennych losowych. Niech
oznacza obcięcie zmiennej losowej X
na poziomie c, tj.
x (c) _ f X dla |X| < c,
{0
dla \X\ > c.
T w ierdzen ie 4 (K ołm og orow a o trzech szeregach). Warunkiem ko­
niecznym zbieżności prawie na pewno szeregu niezależnych zmiennych loso­
wych
X n jest zbieżność dla każdego c > 0 szeregów
OO
OO
oo
X > 2 x "c)’
E
n=l
n—1
n=l
p (ix ^ > c )>
a warunkiem dostatecznym jest zbieżność tych szeregów przy pewnym c > 0 .
D o w ó d . Dostateczność: na mocy tw. 2 szereg
Xn^ jest zbieżny p.n.
Z lematu Borela-Cantelliego i warunku £ P(\Xn\ > c) < oo wynika, że
X n(u) — Xn\u>) dla n > n(ui), zatem
X n jest zbieżny p.n.
Dowód konieczności — patrz zad. 8 . ■
Okazuje się, że dla szeregów niezależnych zmiennych losowych zbieżność
prawie na pewno jest równoważna ze zbieżnością według prawdopodobień­
stwa.
Rozdział 7. Sumy niezależnych zmiennych losowych
152
T w ierdzen ie 5 (L é v y ’e g o ). Szereg Y2n X n niezależnych zmiennych loso­
wych jest zbieżny p.n. wtedy i tylko wtedy, gdy jest zbieżny według prawdo­
podobieństwa.
D o w ó d . Ze zbieżności p.n. wynika zbieżność według prawdopodobieństwa
(wniosek 5.9.5). Udowodnimy implikację w drugą stronę, a mianowicie wy­
każemy, że ze zbieżności szeregu
X n według prawdopodobieństwa
wynika, że zdarzenie
OO
A = {
X n nie spełnia warunku Cauchy’ego }
71= 1
ma zerowe prawdopodobieństwo, zatem szereg
5.9.2). Otóż
OO
X n jest zbieżny p.n. (zad.
OO
OO
P { A) = P (1 J f ) {sup |Xn + X n + 1 + . . . + X n+k\> l / i } ) < ¿ 2 P{A¡),
l= ln = l
k
1=1
gdzie
Ai = p|{sup \Xn + . . . + X n+k\ > l/l},
n
k
l = 1 , 2 , . . . Pokażemy, że P{A¡) = 0, na co wystarcza, by dla dowolnego
a > 0, P(A¡) < a. Dla ustalonego n mamy
P{Ai) ^ P(sup |Xn + . •. + X n+k\ > 1 /0 =
k
= lim P(sup \Xn + . . . + X n+k\> 1 /0 ^
Hm
<
lim 3maxP(|Xn f . . . + X n+k\> 1 /(3 0 ),
m—+00
gdzie w ostatniej nierówności skorzystaliśmy z (1). Szereg '£ ^ = 1 X n jest
zbieżny według prawdopodobieństwa, więc dla dostatecznie dużych n i do­
wolnych k
P(\Xn + ... + X n+k\> 1/(3/)) < a/3.
Zatem P(Ai) ^ a. ■
Z a d a n ia
We wszystkich zadaniach (Xn) jest ciągiem niezależnych zmiennych losowych.
1. Zbadać zbieżność szeregu £ X n, gdy:
a) P(Xn = 2 “ ") = P(Xn = 0) =
b) P( X n = 1) = 1 —P(Xn = 0) = A.
§ 7.3. Zbieżność szeregów niezależnych zmiennych losowych
153
2 . Wykazać, że jeśli zmienne losowe X n mają ten sam rozkład, P(Xn ^ 0) > 0,
to szereg J2 X n jest rozbieżny p.n.
3. Niech (X,,) mają ten sam rozkład: P(Xn = 1) = P (X „ = -1 ) = f. Udo­
wodnić, że jeśli Y1 T=i
< 00>*° X ^ i anXn jest zbieżny p.n.
4. Niech P (X „ = n) = ~s = P( X n = -n ), P(Xn = 0) = 1 Wykazać, że
YZ?=i X n jest zbieżny p.n., chociaż
V 2 X n = oo.
Twierdzenie 2 można też udowodnić, korzystając z bardzo pożytecznej nierówno­
ści Kołmogorowa.
5. Udowodnić
Twierdzenie 6 (Nierówność Kołmogorowa). Jeśli X i , ... , X n są nie­
zależnymi zmiennymi losowymi, £Xi = 0, £ X f < oo, i = 1,2,. . . , n, to dla
każdego e > 0
fo l
P(max|5fe|^ e ) ^
fc^n
£
Ponadto, jeśli istnieje takie C > 0, że P(|X;| ^ C) = 1 dla i = 1,2,..., n,
oraz £S 2 > 0 , to dla każdego e > 0
P(max\Sk\ ^ e ) ^ l - ^ ^
-
6 . Pokazać, że gdy zmienne losowe X„ są wspólnie ograniczone przez C (tzn.
istnieje takie C > 0, że P(|Xn| ^ C) = 1), £ X n = 0, n = 1,2..., to ze
zbieżności
Xn p.n. wynika, że
< co.
7. Pokazać, że w zadaniu 6 można opuścić założenie, że £ Xn = 0. Dokład­
niej: pokazać, że gdy X n są wspólnie ograniczone (przez C), to ze zbieżności
X n p.n. wynika zbieżność szeregów Y ^ = i
'D1X n.
8 . Udowodnić warunek konieczny zbieżności
P n- z *w- ^ (° trzech
szeregach).
9. Niech (Xn)n będzie ciągiem niezależnych zmiennych losowych o jednakowym
rozkładzie: P (X „ = 1) = P (X „ = -1 ) =
Dla jakich 6 € [0,1], szereg
52“ =1(X „/n 9) jest zbieżny p.n.?
10. Zmienne losowe X n są wspólnie ograniczone. Pokazać, że jeśli
a”-Xn
jest zbieżny p.n. oraz |a„| ^ C, n = 1,2,..., to
a» < °°11. Udowodnić
Twierdzenie 7 (Nierówność Hoffmanna-J 0 rgensena). Jeżeli X i, . . . ,
X n są niezależnymi zmiennymi losowymi, Sk = X i -1- . . . + Xk, to dla wszyst­
kich s,t,r € [0 , oo) jest
P(max|5fc|> s + i + r) ^ P(max|Xfc| > s) +
fc<n
-t-P(max|Si| > t)P (max \Sk —Ą| > r)
k^n
k,j^n
^ P(max|Xjc| > s) +
k^n
+ 2P(max|S*:| > i)P(max|5„ - Sjt| > r/2).
k^n
k^n
_ 51
f l 2 . Niech S oznacza sumę szeregu z przykładu 3. Wykazać, że P (S > t) ^ e
.
Rozdział 7. Sumy niezależnych zmiennych losowych
154
§ 7.4.
Prawa wielkich liczb
Już dawno zauważono, że gdy rzucamy wielokrotnie symetryczną monetą,
to częstość wypadnięcia orła w końcu stabilizuje się w pobliżu
Jakub
Bernoulli pod koniec X V II w. udowodnił
Podobny nowa T w jer{jzen }e j ( p raWo w ielkich liczb B e rn o u llie g o ). Jeśli :Sn oznajednocentowa cza liczbę sukcesów w schemacie Bernoulliego n prób z prawdopodobieńtylko w 10% stwem sukcesu w pojedynczej próbie równym p, to dla każdego e > 0
przypadków
upada twarzą
Lincolna do góry.
lim P I ------- P < e
n
n —*oo
= 1.
Obecnie, gdy znamy nierówność Czebyszewa, dowód tego faktu jest try­
wialny (zad. 1). Możemy udowodnić znacznie więcej, a mianowicie zbieżność
częstości Sn/n do p prawie na pewno. W tym celu skorzystamy z lematu
Borela-Cantelliego i z następującej nierówności Bernsteina:
T w ierd zen ie 2 (N ie ró w n o ść B ern stein a ). Jeśli Sn jest liczbą sukce­
sów w schemacie n prób Bernoulliego z prawdopodobieństwem sukcesu p,
to dla każdego e > 0
Sn
-------P
71
D o w ó d . Mamy
V
'
k ^ n (p + e ) V '
<
fc^n(p-f-e)
e - A((p+e)n~A)( n' ) p V - *: <
i/c
k=0
-\ n e
(peXg + qe~Xp) n < e - An£(peA V + geA V ) n
< e -X n s , eA n
W przedostatniej nierówności skorzystaliśmy z nierówności ex < x + e x2
(dowód — patrz A. l . l ) . Wybieramy teraz A minimalizujące prawą stronę,
czyli A = § i otrzymujemy:
p
(^ ~ > P + £S
J <
_
^2
Analogicznie P(S n/n < p —e) < e n * . ■
dla e > 0 .
§ 7.4. Prawa wielkich liczb
155
T w ierdzenie 3 (M o cn e praw o w ielkich liczb B ern ou lliego).
Sn
P'n-
n
(przy oznaczeniach z tw. 1).
D o w ó d — patrz zad. 2 .
Na przykładzie schematu Bernoulliego pokazaliśmy ogólną regułę dotyczącą
sum zmiennych losowych. Zajmiemy się nią dokładniej. Niech X l t X 2, . ■■
będzie ciągiem zmiennych losowych mających wartość oczekiwaną i niech
Sn — X i + X 2 + ... + X n.
D efinicja 4. Mówimy, że ciąg (X n)n spełnia mocne prawo wielkich liczb
(MPWL), jeżeli
Sn ~ £Sn
---------------------->0 p.n.,
71
n~~*oo
a słabe prawo wielkich liczb (SPWL), gdy ma miejsce zbieżność według
prawdopodobieństwa.
Podamy warunki, kiedy zachodzi MPWL i SPWL. Jak wspomnieliśmy na
początku rozdziału, oba prawa wielkich liczb są szczególnymi przypadkami
problemu zbieżności ciągu
bn
’
gdzie (an)n jest ciągiem liczb rzeczywistych, a (bn)n ciągiem liczb dodatnich
rozbieżnym do oo.
Historycznie rzecz biorąc, pierwszym słabym prawem wielkich liczb było
PWL Bernoulliego (twierdzenie 1). Z nierówności Czebyszewa wynika (zad.
4) następujące
Tw ierdzenie 5 (S P W L ). Niech (X n)n będzie ciągiem zmiennych loso­
wych takich, że
(a) lim
n—.oo
lub
T) 2
= 0
(b) X n są parami nieskorelowane i mają wspólnie ograniczony drugi mo­
ment.
Wtedy (X n)n spełnia SPWL.
156
Rozdział 7. Sumy niezależnych zmiennych losowych
Teraz przejdziemy do M PW L dla niezależnych zmiennych losowych. Za­
czniemy od dwu lematów z analizy, dowody których przytoczymy dla kom­
pletności wywodu. Wiadomo, że jeśli ciąg jest zbieżny, to ciąg średnich aryt­
metycznych też zmierza do tej samej granicy. Następujący lemat uogólnia
ten fakt na średnie ważone.
Lem at 6 (T o e p litza ). Niech (an)n będzie ciągiem liczb nieujemnych, niech
bn = J2 j= i ai>
> 0 dla wszystkich n > 1, bn f oo.
Jeśli (x n)n jest ciągiem liczbowym takim, że limn_ 00 x n — x, to
D o w ó d . Ustalmy dowolne e > 0 i wybierzmy takie no = n 0 (e), żeby dla
n > no zachodziła nierówność \xn —x\ < |e. Ponieważ bn T oo, to istnieje
takie ni > no, że
Wtedy dla n > ni mamy
Lem at 7 (K ron eck era ). Niech (bn)n będzie ciągiem rosnącym liczb do­
datnich rozbieżnym do oo, a ( xn)n ciągiem liczb rzeczywistych takim, że
Y ^ = i x n 3 est zbieżny. Wtedy
W szczególności dla bn — n, x „ = yn/n zachodzi wynikanie:
Jeśli szereg
OO
jest zbieżny, to
§ 7.4. Prawa wielkich liczb
157
D o w ó d . Niech 60 = 0, so = 0, sn =
n
x n•Wtedy
n
n
'y ^bj%j
'y ^bj{sj — Sj—i) = bnsn — boso — 'y ^S j^i(bj — bj—i).
j= i
j-1
j= i
Stąd i z lematu 6 (istnieje lim ^po sn = s) otrzymujemy
1 'J1 a
1
On £
T- f b3x i
J= 1
. n ^
--->
°-■
“6
j-i) n—
*co
=s" -r
On E
J= 1
Teraz możemy udowodnić
T w ierdzenie 8 (K ołm og orow a ). Niech ( X n)n będzie ciągiem niezależ­
nych zmiennych losowych takich, że V 2X n < oo, n — 1 , 2 , . . . i niech (bn)n
będzie ciągiem rosnącym liczb dodatnich, takim, że lim^-K*, bn = oo oraz
E ” 1 n t < oo-
Sn- s s n n
lim -------------= 0
7 l-> 0 0
W szczególności, jeśli
p.n.
0n
—¿s” < oo, to (X n)n spełnia MPWL.
D o w ó d . Ponieważ
i A . Xj - exj
sn- £ s n
¿=1
J
to z lematu 7 wystarczy pokazać, że
~ .X n -EXn
£ '
^
jest zbieżny p.n., co wynika z twierdzenia 7.3.2 o dwu szeregach. ■
P rzyk ład 9. Niech ( X n)n będzie ciągiem niezależnych zmiennych loso­
wych o jednakowym rozkładzie, £ X i = 0, V 2X i < oo. W tedy dla każdego
e > 0 mamy
Sn
Przypadek e = 0
lim —j---------- 1— = 0 p.n.,
n -too n 2 (Jog n ) 2 + e
bowiem £ “ 2 - (Iog
< oo. ■
Gdy zmienne losowe X n mają jednakowy rozkład, nie trzeba zakładać ist­
nienia wariancji, by zachodziło MPWL. Wystarczy istnienie wartości ocze­
kiwanej.
obejmuje
nierówność
Hardy’ego-Littlewooda z
zad. 5.8.23.
Rozdział 7. Sumy niezależnych zmiennych losowych
158
T w ierd zen ie 10 (M P W L K o łm o g o r o w a ). Jeśli ( l n) “ =1 jest ciągiem
niezależnych zmiennych losowych o jednakowym rozkładzie, £\X\\ < co, to
(.X n)n spełnia MPWL, czyli
lim — = £ X j
p.n.
n —»oo n
Przypomnijmy, że na mocy wyniku z zad. 5.6.1, jeśli X jest nieujemną
zmienną losową, to
OO
OO
P (X > n) < £ X < 1 + E
n —1
P(X>n),
7i=l
skąd natychmiast wynika, że zmienna losowa X > 0 jest całkowalna wtedy
i tylko wtedy, gdy ¿ S = i P(|X| > n) < oo.
D o w ó d twierdzenia 10. Niech Yn =
tzn. Yn jest obcięciem
X n na poziomie n. Korzystając z tego, że X n mają jednakowy rozkład i z
wyniku zad. 5.6.1, otrzymujemy
oo
oo
OO
Y , P ( X n i Yn) = ] T p ( | X n | > n) = X > ( l * i l > « ) < £\Xi\ < °°n —1
n=l
n=l
Zatem z lematu Borela-Cantelliego limn
= £ X 1 p.n. wtedy i tylko
wtedy, gdy lim
_ £ x 1 p.n. Dalej, limn £Yn = £X\ pociąga za
sobą, że limn £
i
= £ X u a zatem wystarczy pokazać, że
(Y 1 - £ Y 1) + . . . + {Yn - £ Y n)
n
l i m--------------------------- ~------------- - = 0 p.n.,
n
n
a na mocy twierdzenia 8 wystarczy tylko dowieść, że
^V *Y n
n=l
Podobnie jak w zadaniu 5.6.1 przedstawimy wartość oczekiwaną Y% w p o­
staci sumy wartości oczekiwanych pewnych zmiennych losowych i zamie­
nimy kolejność sumowania.
A T>2 Yn
A
1
Au n
^2
< 2 _ ;, n
n=l
r
i
A
-,2
LX » 1 {|Jf„|<n}J
-
£
2 - , -------------------------
0 0 - 7 1
=£
n=1
OO
(X l 1{fe-K|Xi|<fc}) =
fc=l
OO 1
§ 7.4. Prawa wielkich liczb
159
fc=i
= 2£\Xi \< oo,
fc=i
co kończy dowód. ■
U w aga 11. Zachodzi twierdzenie w pewnym sensie odwrotne: Niech (X n)
będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie.
Jeśli istnieje stała C taka, że P(limre
= C) > O, to £ |Xi| < oo
i C = £ Xi .
D o w ó d . Z prawa 0-1 Kołmogorowa (tw. 7.2.1) wynika, że
P(li mX l + - " + X " = C ) = l.
n
n
Stąd
x n
sn
(n -
1)
Sn- i
---- = ---------------------------- - ------ >O p.n.,
n
n
n
n — 1 n~>oo
wobec tego szansa, że zajdzie nieskończenie wiele zdarzeń {|Xn|> n } jest
równa zeru. Zatem z lematu Borela-Cantelliego szereg
-P(iXrij > n)
jest zbieżny, stąd
P{\X\\ > n) < oo, co daje £\Xi\ < oo (znów zad.
5.6.1) i z MPWL (tw. 10) C = £Xi. m
U w aga 1 2 . Jeśli £ |Xi| = oo, to limsupn^ co 1^1 = oo.
D o w ó d — patrz zad. 12.
Przejdźmy teraz do wniosków z MPWL.
W n iosek 13. Definicja częstościowa prawdopodobieństwa jest uzasadnio­
na. Jeśli w wyniku powtórzenia niezależnie n razy doświadczenia otrzyma­
liśmy ui — (cl>i, . . . , wn), to częstość pojawiania się zdarzenia A jest równa
n
Z MPWL limn f n(A) = £1 a = P{A) p.n.
Widać, że prawdopodobieństwo jest odpowiednikiem teoretycznym często­
ści (od czego rozpoczęliśmy wykład teorii). Innymi słowy, definicja często­
ściowa prawdopodobieństwa dałaby takie same wyniki, jak definicja Kołmogorowa.
Definicję częstościową prawdopodobieństwa propagował von Mises: praw­
dopodobieństwo zajścia zdarzenia A miałoby być równe granicy częstości
Należy koniecznie
rozwiązać zadanie
5.6.1.
160
Rozdział 7. Sumy niezależnych zmiennych losowych
jego występowania. Zasadniczą wadą tego pomysłu była nieskończona liczba
prób, potrzebna do obliczenia prawdopodobieństwa. Gdybyśmy jednak mo­
gli wykonać nieskończenie wiele doświadczeń, otrzymalibyśmy prawdopo­
dobieństwo zdarzenia „takie jak trzeba” .
Mocne prawo wielkich liczb mówi także, jak należy interpretować wartość
oczekiwaną.
W n io se k 14. Wartość średnia teoretyczna pokrywa się z intuicyjną. Niech
X i, X i, ■■■będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie
i skończonej wartości średniej EX\ = m. Wtedy wartość średnia intuicyjna,
czyli limn lci+- ^ Xr'-, jest równa m — wartości średniej teoretycznej.
MPWL jest bardzo ważne z punktu widzenia zastosowań. Omówimy tu
kilka z nich:
A . W eryfikacja w y b o r u p rzestrzen i p rob a b ilisty czn ej op isu ją cej
zjaw isko. Czasem trudno jest wybrać właściwy model dla opisu zjawiska.
Często kryteria „zdrowego rozsądku” zawodzą i jedynym sposobem weryfi­
kacji wyboru jest badanie częstości. Jak wiemy z MPWL, częstość zajścia
zdarzenia zmierza do jego prawdopodobieństwa. Zatem należy wybrać zda­
rzenie, które ma istotnie różne prawdopodobieństwa w postulowanych przez
nas modelach i zbadać jego częstość. Dobrym przykładem problemu wyboru
właściwego modelu jest paradoks kawalera de Mere (patrz zad. 2.2.20; do
weryfikacji modelu wybieramy np. zdarzenie, że wypadły same czwórki,
albo trzy jednakowe wyniki).
B . M e to d a M o n te C a rlo o b licza n ia ca łek . Jest to przykład zastoso­
wania probabilistyki do problemów deterministycznych, dość zresztą efek­
towny, ponieważ metody tej po raz pierwszy użył Stanisław Ułam do obli­
czeń związanych z bombą atomową.
Metoda jest przydatna zwłaszcza do obliczania całek wielokrotnych. Przed­
stawimy ją na przykładzie całki f * f ( x ) dx, której nie potrafimy obliczyć
teoretycznie, ale wiemy, że istnieje.
Niech Xi będą niezależnymi zmiennymi losowymi o wartościach w (0,1) i o
gęstości g. Wtedy z MPWL
p.n. Zatem obliczając Sn, aproksymujemy całkę (na pytanie, jak duże po­
winniśmy brać n odpowiemy później korzystając z centralnego twierdzenia
granicznego). W szczególności, gdy X{ mają rozkład jednostajny na (0,1),
to
§ 7.4. Prawa wielkich liczb
161
Ale gdy można tak dobrać gęstość g, by iloraz f/g wahał się mniej niż / ,
to S„ ma mniejszą wariancję niż Zn. Istotnie, możemy dobrać gęstość g
tak, by /„
dz <
f 2 (z) dz, a to oznacza, że £
< £ f 2 (Xi),
zatem 2?25n < V 2 Zn.
Można by wysunąć zastrzeżenie, że równie dobra, jeśli nie lepsza, jest kla­
syczna metoda Simpsona, opierająca się na podziale przedziału całkowania
na równe części. To prawda — w przypadku funkcji zmieniających się regu­
larnie. Jeśli funkcja zmienia się bardzo nieregularnie, próbkowanie w losowo
wybieranych punktach pozwala wychwycić wkład takich nieregularności do
całki.
Ważny jest także
wymiar
przestrzeni: w
wielu wymiarach
metody
probabilistyczne
Metody Monte Carlo stosuje się także do rozwiązywania równań całkowych są lepsze.
i równań różniczkowych cząstkowych.
Ich stosowanie wymaga otrzymywania realizacji ciągu niezależnych zmien­
nych losowych o zadanym z góry rozkładzie. Wiele standardowych pakie­
tów oprogramowania zawiera generatory rozkładu jednostajnego na (0 , 1)
i z nich otrzymujemy generatory innych rozkładów. A mianowicie, gdy
X\, . . . , X n są niezależnymi zmiennymi losowymi o rozkładzie jednostaj­
nym na (0,1), a dystrybuanta F rozkładu prawdopodobieństwa jest od­
wracalna, to F ~ 1 ( X i ) , . . . , F ~ l ( X n) są niezależne i mają rozkład o dystrybuancie F (patrz §5.2): Gdy funkcja odwrotna do F nie istnieje, to
w zasadzie moglibyśmy brać F -1 zdefiniowane w zadaniu 5.2.2, ale zwy­
kle jest to kosztowne rachunkowo. Dlatego często szuka się innych metod,
na przykład zmienną losową o zadanym rozkładzie staramy się przedstawić
jako funkcję zmiennych losowych X i , X i , X n, które łatwo generować,
tzn. Y = H ( X i , X 2, . . . , X n) (patrz zad. 5.10.4) i realizację Y otrzymujemy
jako funkcję realizacji X . Inną metodą jest metoda obcinania (patrz zad.
16 i 17).
C. D ystrybu an ta em piryczna. Powtarzamy pewne doświadczenie nie­
zależnie n razy. W wyniku tego otrzymujemy ciąg X i , X 2, . . . , X n niezależ­
nych zmiennych losowych (próbkę) o nieznanej dystrybuancie F. Chcemy
odtworzyć F . W tym celu dla każdego i £ E definiujemy
n
2
F„(X) = -
l{ X 4<a}
i=l
Dla ustalonego x jest to częstość zdarzenia „wynik nie przekracza x ” dla
próbki X i , Xz, . . . , X n, czyli zmienna losowa. Natomiast dla ustalonej
u e fi funkcja F „: R —> [0,1] jest dystrybuantą i nazywa się dystrybuantą
empiryczną obliczoną z próbki n-elementowej.
T w ierdzen ie 15. Dla każdego x € R
P(F„(a:) - » F( x) ) = 1.
Rozdział 7. Sumy niezależnych zmiennych losowych
162
D o w ó d . Ustalmy i £ R . W tedy l{ x¡ ^ x } jest ciągiem niezależnych zmien­
nych losowych o tym samym rozkładzie i o wartości oczekiwanej
£ [!{* !< * }] = p ix i < x ) = F (*)•
Zatem z MPWL
1 \r—\
Fn{x) = -
Tl *—“
l ^ s ; * } -------> F(x). m
n —voo
i=l
Analogicznie otrzymujemy, że P(lim n Fn(x —) = F ( x —)) = 1 dla dowol­
nego x € R . Oba te fakty pokazują, że wraz ze wzrostem n dystrybuanty
empiryczne coraz bardziej upodabniają się do dystrybuanty F. Wykaza­
liśmy zbieżność dla każdego punktu x z osobna, ale faktycznie zbieżność
jest jednostajna (to podstawowe twierdzenie statystyki matematycznej —
twierdzenie Gliwenki-Cantelliego).
D . Z a stosow anie d o te o rii liczb . Pewne twierdzenia tej teorii można
dowodzić metodami rachunku prawdopodobieństwa. Oto przykład.
D e fin icja 16. Liczbę a € [0,1] nazywamy normalną przy podstawie d, gdzie
d e N , d > 2 , jeżeli ma ona przedstawienie
OO
W rozwinięciu
liczby normalnej
a = lL ^fi’
wszystkie cyfry
n—1
występują
spełniające
warunek:
jednakowo często.
l i m#
i
n
!
L
£
° < £n < d - 1,
i
Tl
= i
f c 6 { 0 ) 1 ) _ ) d _ 1}_
■
CL
T w ie rd ze n ie 17 (B o re la ). Prawie wszystkie (w sensie miary Lebesgue’a)
liczby z przedziału [0 , 1] są normalne względem każdej podstawy.
D o w ó d . Niech Aa ~ { x G [0,1] :x normalne przy podstawie d}. Wtedy
zbiór A liczb normalnych przy każdej podstawie jest równy DSU ^ d■W y­
starczy zatem wykazać, że P { A ¿ ) = 1, d — 2 , 3 , . . . Każdą liczbę x £ [0,1]
można zapisać w postaci
°o
, i
T
£n^
x - 2s
d» ’
71= 1
gdzie £n (x) g { 0 , 1, . . . d — 1}; funkcje en(x) są niezależnymi zmiennymi
losowymi o jednakowym rozkładzie (rozumujemy jak w przykładzie 4.1.13,
gdzie wykazano istnienie nieskończonego ciągu zdarzeń niezależnych). Usta­
lamy dowolne k e { 0 , l , . . . , d — 1}. Niech e* = l { En=fc}. W tedy (e*)„ są
niezależnymi zmiennymi losowymi o jednakowym rozkładzie i z MPWL
n
Stąd P(Ad) = 1- ■
aj
§ 7.4. Prawa wielkich liczb
163
£• Istnienie zmiennych losowych o rozkładzie singularnym.
D efinicja 18. Zmienna losowa Y ma rozkład singularny (osobliwy), jeśli
je j dystrybuanta jest ciągła i istnieje taki zbiór A c R , że A(A) = 0, ale
P (Y £ A) = 1.
P rzy kła d 19. Niech X i , X 2, . . . będą niezależnymi zmiennymi losowymi
takimi, że P ( X n = 1) = p
1, P ( X n = 0) = 1 - p. Wtedy Y =
f?
ma rozkład singularny. Istotnie, dla dowolnego a 6 [0,1], P ( Y = a) = 0,
więc dystrybuanta jest funkcją ciągłą. Ponieważ P(limn
= p) = \
oraz p ^ §, to Y przyjmuje wartości z dopełnienia zbioru liczb normalnych
przy podstawie 2, a więc ze zbioru o zerowej mierze Lebesgue’a. ■
F. Zastosowanie w analizie matematycznej.
P rzykład 20. Znaleźć granicę
Urn / ‘ . . . / ' 2 1 ± A
n^°° Jo
Jo x i +
+ - - l ± Xn d x i . . . dXn
x 2 + . . . + Xn
Rozw. Niech X \ , X 2,. ■■będą niezależnymi zmiennymi losowymi o rozkła­
dzie jednostajnym na (0,1). Wtedy
f1
f 1 x\ + •••+ xl
= £ l x* + ... + x*
/ ...
— ------------- dx i . . . dxn
KX i + . . . + X n
Jo
Jo ®1 + . . . + ®n
Z MPWL,
xf
+... +X I _
X i + .. . + X „
jj^3 i
1s x f _ 1
^ zXx
2'
i j^-3
A ponieważ 0 < Xi+ +x^ < 1> to z twierdzenia Lebesgu
zmajoryzowanej wynika, że szukana granica jest równa |.
Zadania
1. Udowodnić PWL Bernoulliego.
2 . Korzystając z nierówności Bernsteina (tw. 2), udowodnić, że w schemacie
Bernoulliego ^ ------ » p p.n.
TŁ—*00
3. Wykazać MPWL dla schematu Bernoulliego, korzystając z twierdzenia o dwu
szeregach.
4. Udowodnić twierdzenie 4.
5. Jeśli T>2 X n ^ C < oo, n = 1, 2, . . . oraz X n zależy jedynie od X „ - i i X n+i,
a nie zależy od innych X j, to (X „ )n spełnia SPWL.
Rozdział 7. Sumy niezależnych zmiennych losowych
164
6. T w ierdzenie Bernsteina. Jeśli V 2X n ^ C < oo, n = 1, 2, . . . oraz współ­
czynnik korelacji g(Xi, X j) —►0, gdy |i —j\
oo, to (X n)n spełnia SPWL.
7. T w ierdzenie C hinczyna. Udowodnić, że jeśli (X n)n jest ciągiem zmien­
nych losowych parami niezależnych o jednakowym rozkładzie i skończonej
wartości oczekiwanej, to dla (X n)n zachodzi SPWL.
8. Znaleźć przykład pokazujący, że warunek w twierdzeniu 7 (Kołmogorowa)
nie jest warunkiem koniecznym.
9. Niech X n, n = 1, 2, . . . będą niezależnymi zmiennymi losowymi, P (X n =
= 1) = P (X n = —1) = p,i, P (X n = 0) = 1—2pn. Znaleźć warunek konieczny
i dostateczny, by ciąg (X „ ) n spełniał MPWL.
10. Niech X n, n = 1, 2,. . . będą niezależnymi zmiennymi losowymi, dla których
P (X n = n + l) = P {X n = - ( n + l ) ) =
1
2 (n + 1) log (n + 1) ’
Udowodnić, że {X n) spełnia SPWL, a nie spełnia MPWL.
11. Rozważmy błądzenie losowe niesymetryczne. Udowodnić, że dla y > \ jest
P(lim Sn = oo) = 1, a dla p < | jest P(limSn = —oo) = 1.
12. Wykazać, że jeśli (X n)n jest ciągiem niezależnych zmiennych losowych o
jednakowym rozkładzie, £ X < oo, £ X + = oo, to P(lim n ^ = oo) = 1.
13. Dany jest ciąg (X n)n niezależnych zmiennych losowych o tym samym roz­
kładzie, £X\ = 0, £Xx = c. Wykazać elementarnie, czyli nie korzysta­
jąc z tw. Kołmogorowa, a korzystając z nierówności Czebyszewa i lematu
Borela-Cantelliego, że ciąg (X n)n spełnia MPWL.
*14. Twierdzenie Marcinkiewicza. Załóżmy, że Jfi, X i , ... są niezależne i jed­
nakowo rozłożone. Udowodnić, że jeśli £\Xi\p < oo dla pewnego p £ (0, 2),
to P(limn(Sn - m i)/n 1/ p = 0) = 1, gdzie
_ f 0
dlap e (0, 1),
dla p e [1, 2).
15. Niech / : [0,1] —> R będzie funkcją ciągłą. Obliczyć granice:
a) limn_oo
fg y/xl + --- + xn dx i ... dxn;
b) lim »-.«, £ . . . £ / ( ?»*■
■;+**) dX l... dxn-,
c) lim n-oo /p1 •••/ „ / ( y x \ x 2 . . . I n ) dxi . . . (fen.
W następnym zadaniu jest mowa o generatorach liczb losowych. Obecnie ta­
kie generatory dostępne są w wielu kalkulatorach i prawie wszystkich pakietach
oprogramowania. Generowanie liczb losowych o zadanym rozkładzie może być
kosztowne numerycznie, stąd zadanie.
16. Niech zmienna losowa X (odpowiednio Y ) ma rozkład ciągły z gęstością
/ (odp. g) i niech istnieje stała C ^ 1 taka, że /
Cg. Udowodnić, że
m
§ 7.4. Prawa wielkich liczb
165
generowanie zmiennej losowej X, gdy umiemy generować zmienną losową Y,
jest możliwe przy użyciu następującego schematu (metody obcinania):
a) Generujemy Y i niezależną od niej zmienną losową U o rozkładzie jedno­
stajnym na (0, 1).
b) Gdy U ^ f(Y)/Cg(Y), to przyjmujemy X = Y, w przeciwnym przypadku
wracamy do kroku 1.
17. Czy metodę z poprzedniego zadania można zastosować do zmiennej losowej
X o gęstości f(x) = 20x(l - a;)3l( 0,i)(a:)? Jest to gęstość rozkładu beta
z parametrami 2, 4.
18, Załóżmy, że mamy bardzo długą listę elementów. Niech n będzie długością
tej listy, a m(i) będzie liczbą mówiącą, ile razy element z ¿-tego miejsca po­
jawia się na liście. Dana jest funkcja / przyporządkowująca elementom listy
pewne wartości. Niech X i , X 2,. .. będą niezależnymi zmiennymi losowymi
o rozkładzie równomiernym na zbiorze {1,2,..., n}. Pokazać, że
gdzie liczba w jest sumą wartości dla (wszystkich) różnych elementów z tej
listy (gdy f(x) = 1 dla każdego x, będzie to liczba różnych elementów listy).
Ten wzór pozwala znaleźć przybliżenie liczby w bez przeglądania wszystkich
elementów listy.
19. Niech X i ,Yi , X2, Y2,... będą niezależnymi zmiennymi losowymi o rozkładzie
jednostajnym na (0,1). Niech / : [0,1] —>[0,1] będzie funkcją mierzalną, Zi =
— l { / ( x i)>yi}- Udowodnić, że
20. Niech (X„) będzie ciągiem niezależnych zmiennych losowych, i P ( X n = 1) =
= P( Xn = 0) = 5 , n = 1,2, — Udowodnić, że zmienna losowa
gdzie d 6 N, d > 2, ma rozkład singularny.
* 21 . Udowodnić
Twierdzenie 21 (Etemadiego). Jeśli X n, n = 1,2,... są zmiennymi lo­
sowymi parami niezależnymi o jednakowym rozkładzie, £\Xi\ < oo, to
lim— = £ X i
n
n
p.n.
* 22 . Podać przykład ciągu niezależnych zmiennych losowych o tym samym rozkładzie, dla którego ciąg średnich Sn/n
0, ale nie ma zbieżności p.n.
Rozdział 7. Sumy niezależnych zmiennych losowych
166
§ 7.5.
Twierdzenie Poissona
Jeśli liczba doświadczeń n w schemacie Bernoulliego jest duża, obliczanie
prawdopodobieństwa danej liczby sukcesów staje się kłopotliwe. Klasyczne
twierdzenie Poissona1 dostarcza prostego przybliżenia, które ma rozsądną
dokładność w przypadku, gdy prawdopodobieństwo sukcesu p jest małe,
a iloczyn np — umiarkowany.
T w ierd zen ie 1 (P oisson a). Jeśli n —* oo, pn —>0, npn —> A > 0, to
D o w ó d . Oznaczmy \n = npn. W tedy \n —> A, a lewa strona powyższego
wzoru da się zapisać w postaci
n- 1
n -k + 1
n
n
(npn)k A _ A„
k\
\
n
^ _ A^\
n J
k ____ ^
n->oo k\
Istotnie, jeśli An —►A, to ( l — ^ ) n —>e- A, co wynika np. z dwustronnego
oszacowania log (l + s ) (A.1.2a). ■
Tak prosty dowód nie daje jednak natychmiastowej informacji o błędzie
przybliżenia. Oszacowanie błędu jest zawarte w następnym twierdzeniu,
które sformułujemy w języku niezależnych zmiennych losowych.
T w ierd zen ie 2. Niech X i, X 2, .. ., X n będą niezależnymi zmiennymi lo­
sowymi o tym samym rozkładzie: P ( X i = 1) = p = 1 — P( X i = 0 ),
i = 1 , 2 , . . . , n. Oznaczmy X = np, jt* =
= X\ + X 2 + . . . + X n.
dla k = 0, 1, 2, . . . , Sn =
Wtedy dla każdego zbioru borelowskiego B C R mamy
Wynika stąd oczywiście twierdzenie Poissona (wystarczy wziąć B = {fc}),
a nawet więcej: zbieżność zachodzi, gdy npn —> oo, ale np\ —>0. Widać też,
że uzasadniona jest zdroworozsądkowa reguła mówiąca, kiedy przybliżenie
jest dobre: n ma być duże, p — małe, np — średnie.
D o w ó d twierdzenia 2. Ponieważ prawdopodobieństwa wszelkich zdarzeń
zdefiniowanych za pomocą zmiennych losowych X k są jednoznacznie wy­
znaczone przez rozkład wektora losowego ( X i , . . . , X n), który jest z kolei
1SiméonD. Poisson, Recherches sur la probabilité des jugements en matière criminelle
et en matière civile, précédée des règles générales du calcul des probabilités, 1837.
§7.5. Twierdzenie Poissona
167
n-krotnym produktem rozkładu np. X i, można założyć bez straty ogólności,
że zmienne losowe X i , ... , X n są określone na przestrzeni probabilistycz­
nej
gdzie fi = [0, l]n, T jest cr-cialem podzbiorów borelowskich
[0,1]", wreszcie P jest n-wymiarową miarą Lebesgue’a. Jeśli określimy
v r \
v (
-i
f 0
dla
< 1 - p,
to zmienne losowe X k będą niezależne. Dalej, niech
k{
>) = / 0
dla Wk < 6_P’
dla uik € [ak- i , a k),
gdzie afc = E m =o^m- Wtedy 5* = X f + .. . + X * ma rozkład Poissona
z parametrem np.
W takim razie
P{ S n e B) -
£
** < \P{Sn e B) - P{S*n e B )|< P( Sn # 5 ;),
fcefinN
co wynika z elementarnej nierówności: |-P(j4) — P(C)\ < P ( A A C) i stąd,
że zdarzenie { Sn £ B } A {5* 6 B}, polegające na tym, że jeśli Sn G B,
to S* $ B i odwrotnie, w oczywisty sposób pociąga za sobą, że Sn ^ S*.
Teraz
P (S n ź S*n) < P ( U {X fc ^ X £ } ) < J 2 P (Xk * X Dk= 1
fc=l
Zmienne losowe _Xfc i X£ różnią się na dwóch zbiorach: {w: ojk € [1 —p, e_p)}
(tu
= 0, X I = 1) oraz {w:iuk € [e~p 4- pe~p, 1]} (tu X k = 1 i Xj; > 1),
których łączna miara nie przekracza p2. Istotnie, mamy
e~p — (1 —p) + 1 —e_p —pe~p = p( 1 —e_p) < p2.
Ostatecznie P (S n ^ S*) < np2 —
■
P rzy k ła d 3. Prawdopodobieństwo p trafienia „szóstki” w Toto-Lotku jest
równe l / ( 4g) = 1/13983816 ~ 7 ■10- 8 . Ilu „szóstek” można się spodziewać
w każdym tygodniu, jeśli grający wypełniają kupony całkowicie losowo i nie­
zależnie od siebie, a kuponów jest2
2Nie wiemy, ile kuponów wypełnia się co tydzień w Polsce, ale można to bez trudu
oszacować na podstawie statystyki głównych wygranych. Wiemy natomiast, że gdy w
węgierskiej wersji totalizatora można było wygrać 975 min forintów (ok. 4,25 min USD),
ponieważ przez ostatnie 21 tygodni nikt nie trafił głównej wygranej, Węgrzy kupili 10 min
kuponów, czyli średnio jeden na jednego mieszkańca. I znów nikt nie wygrał. Zwróćmy
uwagę, że średnia wygrana przypadająca na jeden kupon wyniosła 42,5 centa ( Gazeta
Wyborcza , 18/19 września 1999).
168
Rozdział 7. Sumy niezależnych zmiennych losowych
Zgodnie z tw. 1 należy się spodziewać, że liczba „szóstek” ma rozkład
zbliżony do rozkładu Poissona z parametrem A = np ^ 0,7151. Wtedy
szanse pojawienia się 0, 1 i 2 „szóstek” wynoszą odpowiednio ok. 0,4891,
0,3498 i 0,1251. Z twierdzenia 2 wynika, że błąd przybliżenia nie przekracza
A2/n < 0,5 •10- 7 . Wygląda na to, że dokładność jest aż za duża. ■
Czasem rozkład Poissona nazywa się „rozkładem zdarzeń rzadkich” albo
„prawem małych liczb” . Mogą to być pożary, wypadki czy też — jak wi­
dzieliśmy — główne nagrody w grach losowych. Występowanie rozkładu Po­
issona w tego rodzaju sytuacjach badał Bortkiewicz w pracy z roku 18953.
Była tam mowa o zgonach na skutek kopnięcia przez konia w armii pruskiej.
Wiele przykładów obserwacji zgodnych z rozkładem Poissona, a w szczegól­
ności opis doświadczenia Rutherforda, w którym liczono rozpady atomów,
można znaleźć w [FEL], t. I, VI.7.
Zadania
1. Grający w Toto-Lotka wcale nie wypełniają kuponów losowo. Mało kto na
przykład odważy się skreślić po kolei 1, 2, 3, 4, 5 i 6 . Zjawisko to badał
m.in. Steinhaus4. Wymyślić i przedyskutować test losowości, nie wymagający
szczegółowego badania kuponów.
Liczba błędów
w książce po
kolejnych
korektach tworzy
malejący
i nieskończony
ciąg liczb
naturalnych.
2. Tekst broszury zawiera n = 100000 znaków. W trakcie pisania (na kompute­
rze) każdy znak może zostać błędnie wprowadzony z prawdopodobieństwem
0,001. Z kolei redaktor znajduje każdy z błędów z prawdopodobieństwem 0,9,
po czym tekst wraca do autora, który znajduje każdy z pozostałych błędów
z prawdopodobieństwem 0,5. Jaka jest szansa, że po obu korektach broszura
będzie zawierała nie więcej niż 3 błędy?
3. Dwóch korektorów przeczytało książkę. Pierwszy znalazł 91 błędów, drugi
53, przy czym błędów zauważonych przez obu było 39. Następnie korektorzy
zostali zwolnieni z pracy. Dlaczego?
4. Ile średnio rodzynków powinno zawierać ciastko, żeby z prawdopodobień­
stwem 0,99 dane ciastko zawierało przynajmniej jeden rodzynek?
5. W Warszawie na Ursynowie ginie średnio 7 samochodów tygodniowo. Jaka
jest szansa, że jutro będzie „dzień bez kradzieży” , przy założeniu stałej in­
Faktycznie jest to
20—40
tensywności działania złodziei?
samochodów
miesięcznie
3L. von Bortkiewicz, Das Gesetz der kleinen Zahlen. Władysław Bortkiewicz był
) (Pasmo, mai profesorem uniwersytetu w Berlinie. Jego prace miały znaczny wpływ na rozwój teorii
f
2000). prawdopodobieństwa w Rosji. W [MAJ-2] występuje jako statystyk polski, w Wielkiej
Encyklopedii Powszechnej — jako niemiecki pochodzenia polskiego. Stąd warianty pi­
sowni imienia.
4Por. H. Steinhaus, Kalejdoskop matematyczny , wyd. IV, WSiP, Warszawa 1989, oraz
B. Gleichgewicht, J. Kucharczyk i H. Steinhaus, Uwagi o grach losowych, Zastos. Mat. V
(1960), ss. 21-33. W tej ostatniej pracy autorzy zbadali preferencje graczy przy skreślaniu
liczb we wrocławskiej „Liczyrzepce” (materiał zawierał kilkadziesiąt tysięcy kuponów).
§7.6. Twierdzenie de Moivre’a-Laplace’a
§ 7.6.
169
Twierdzenie de Moiyre^-Laplace^
Na rysunku poniżej widzimy reprezentację graficzną dwóch rozkładów Bernoulliego: po lewej dla n = 10, p = 0,5, po prawej dla n — 12, p = 0,2.
0,3
0
2
4
6
0
10
0
2
4
6
»
10
12
Zobaczmy teraz, jak wyglądają oba rozkłady odpowiednio unormowane.
„Odpowiednio’’ oznacza tyle, że średnia ma być równa zeru, a wariancja
równa 1, czyli zamiast liczby sukcesów Sn rozpatrujemy teraz
q*
n
= Sn ~ n p
'
Na kolejnym rysunku dokonano zgodnej z powyższym zmiany skali na osi x
i takiej zmiany skali na osi y, by nie zmieniły się pola słupków. Lewy i prawy
rysunek upodobniły się do siebie, a wykres gęstości rozkładu M (0 , 1) suge­
ruje, że rozkłady zmiennych losowych S* są podobne do rozkładu normal­
nego.
Udowodnimy dwa twierdzenia de Moivre’a-Laplace’a, które ściśle wyrażają
te intuicje. Przypadek symetryczny (p = 1/2) został udowodniony w pracy
170
Rozdział 7. Sumy niezależnych zmiennych losowych
de Moivre’a5, niesymetryczny zaś — w opublikowanym trzy lata później
dodatku.
Przypadek ogólny twierdzenia udowodnił ponownie Laplace6, który nie miał
zwyczaju powoływać się na poprzedników, dlatego też wyniki de Moivre’a
pozostały szerzej nieznane do końca XIX wieku7.
W dalszym ciągu będziemy używać następujących oznaczeń:
B( k , n, p ) = P (S n = k) = (n
k) p kqn- k,
q= l-p
h = l/y/npq — szerokość słupka na dolnym rysunku z poprzedniej strony.
Sk = k — np — odchylenie liczby sukcesów od średniej.
x k = Sk/^/npq — unormowane odchylenie liczby sukcesów od średniej.
Symbolu x k wygodnie będzie używać także wtedy, gdy k nie jest naturalne.
5Miscellanea analytica de seriebus et quadraturis, Londyn 1730.
®Théorie analytique des probabilités, Paryż 1812.
7Abraham de Moivre urodził się 26 maja 1667 w Vitry, zmarł 27 listopada 1754 roku
w Londynie. Koleje jego losu mogą się wydać dziwnie typowe.
Po pięciu latach spędzonych w protestanckiej akademii w Sedanie, w latach 1682-1684
studiował logikę w Saumur. Kontynuował studia w Collège de Harcourt w Paryżu.
Jako protestant, po odwołaniu edyktu nantejskiego (1685) był zmuszony do emigra­
cji. Około 1688 roku znalazł się w Londynie. Zarabiał na życie prywatnymi lekcjami
matematyki, ponieważ otrzymanie katedry było dla cudzoziemca trudne. Został jednak
wybrany członkiem Royal Society w 1697 roku.
W 1710 roku brał udział w pracach komisji Royal Society, która miała rozstrzygnąć
spór Newtona i Leibniza o pierwszeństwo w odkryciu rachunku różniczkowego i cał­
kowego. Royal Society dobrze wiedziało, co robi, bowiem de Moivre był przyjacielem
Newtona, którego poznał, obliczając w kawiarni szanse w zakładach. Zadedykował mu
książkę The Doctrine o f Chances or a Method o f Calculating the Probabilities of Events
in Play (1718), zawierającą rozmaite zadania o grach losowych, a także definicję niezależ­
ności zdarzeń. Wyniki zawarte w tej książce nie były pewnie szerzej znane poza Anglią,
bowiem językiem dominującym w Europie był francuski.
W Miscellanea Analytica (1730) pojawia się wzór — znany obecnie jako wzór Stirlinga
— w postaci
n!~C-ran+ ie - " ,
(1)
gdzie
log C — \ ---- — H— ---------- — + —
6
12. 360
1260
1680
Otóż Stirling jedynie zauważył, że C = \/27r, o czym wspomina de Moivre w drugim
wydaniu Miscellanea (1738).
Wzór (1) posłużył do wyprowadzenia lokalnego i integralnego twierdzenia granicznego.
Przypadek niesymetryczny został udowodniony w dodatku nr 2 do Miscellanea (1733).
De Moivre był pionierem na polu geometrii analitycznej; otrzymał w 1707 roku wzór
(cos x -f i sin x ) n = cos n x -\-i sin nx.
Zajmował się statystykami śmiertelności, zagadnieniem renty dożywotniej, czyli, jakby­
śmy dziś powiedzieli, matematyką ubezpieczeniową i finansową. Od niego pochodzi po­
jęcie funkcji tworzącej. Jednak ten wybitny matematyk, posiadający wpływowych przy­
jaciół, nie otrzymał nigdy płatnego stanowiska i do końca życia utrzymywał się z lekcji
matematyki oraz konsultacji; zmarł w nędzy. Przewidział datę własnej śmierci, zauwa­
żywszy, że każdej nocy śpi o 15 minut dłużej, zatem umrze w dniu, w którym będzie spał
24 godziny.
§7.6. Twierdzenie de Moivre’a-Laplace’a
171
Zauważmy, że k = np + 6 k, n ~ k = n q - 6 k, ~ = 1 + x kqh,
Z dokładniejszej analizy rysunków wynika, że B(k,n,p)
= 1 - x kph.
h<p(xk), gdzie
jest gęstością rozkładu M ( 0 , 1). A dokładniej, mamy
T w ierd zen ie 1 (d e M oiv re ’a—L aplace’a, lokalne). Jeśli
/ilzfclmajc^ę) < 1/2,
to
B(k, n,p) = - 7= L = e - * ^ 2 •efi(n'fc\
y/ZTTnpq
przy czym
|ii(n,fc)| sj ^\xk\h+ ^|xfc|3/i +
4
o
on
W szczególności, jeśli n —>oo i k —>oo tak, że hx\ —» 0, to R(n, k ) ------->0.
Ti— ►OO
D o w ó d . Ze wzoru Stirlinga w postaci nl = \[2Tmnne~n+Sn/12n, 0 < 0n <
1 wynika, że
y
^
O ___ i___Xv—
i
- ____ -
iii
u
gdzie 0 < 01, 91 , 6 " < 1, ¿ = 1, 2 , . .. .
Oszacujemy, teraz po kolei wyrażenia I, II i III. Każde z nich przedstawimy
w postaci Ai(n, k) ■eRi(n’k\ gdzie Ai będzie równe
e ~ x ^ 2 lub 1
odpowiednio dla i = 1,2,3, zaś Rą będzie zawierać informację o błędzie
przybliżenia.
I. Mamy
] j 2kw{n —k)
=
' (1 + Xkqh)~ 1/2{1
~ Xkph)~1/2'
(3 )
czyli QRi(n’k') = (1 + Xfcgft)-1 ^2( 1 —x kph)~1/2.
Oszacujemy teraz błąd przybliżenia z nierówności A.1.3:
Ri{n,k) = - i [ l o g ( l + x kqh) + log(l - x kph)] = ~ x k(q - p)h + !7i(n,/c),
gdzie |i7i(n,k)\ < \{q2 + p2 )x\h2 < \\xk\h, jeśli /i|a;fc|max(p,g) ^ 1/2.
Ostatecznie
Rozdział 7. Sumy niezależnych zmiennych losowych
172
II. Zbadamy logarytm wyrażenia II, które najpierw zapiszemy w postaci
________________ 1________________
(1 + Xkqh)nP(1+Xki h') ■(1 - x kph)n'i(i-xkPh) '
Po wzięciu logarytmu i skorzystaniu z oszacowania udowodnionego w do­
datku A: dla \x\ < | mamy (1+a;) log(l+®) = x + ^ x 2 +S, gdzie [<5| ^ §|a:|3,
otrzymujemy
~[np( 1 + x kqh) log(l + x kqh) + nq(l - x kph) log(l - x kph)\ =
(5)
= ~ ^ - + R 2 (n 1 k),
(6 )
gdzie
jĄ j(r » ,* )| <
( 7)
|A |a r * |3 ,
jeśli tylko h\xk\max(p, q) ^ 1/ 2 .
III. Wyrażenie III jest po prostu równe eR^ n’kK Mamy
" (m
+ 12 ( n - f c ) ) < R s ( -n ’ k ^ < 12^'
Stąd
+ x kqh)~1( 1 + x kph )~ 1 < R 3 (n, k) <
Jeśli h\xk\max(p, q) < 1/2, to
- Ł
w
< R s
Udowodnione oszacowania (4), ( 6 ) i (7) na Ri dają natychmiast pierwszą
część tezy.
Żeby otrzymać drugą część tezy, zauważmy, że gdy hx\ —> 0 , to h\xk\ ^
Sj ftmax(|iCfc|3, 1) —> 0 . ■
Zobaczmy teraz, jaka jest dokładność przybliżenia z tw. 1 w przypadkach,
omawianych na początku tego paragrafu.
Tabela 1. Przybliżenie de Moivre’a-Laplace’a dla n = 10 i p = 1/2.
k
0
1
2
3
4
5
B(k, n,p)
0,000977
0,009766
0,043945
0,117188
0,205078
0,246094
h(p{xk)
0,001700
0,010285
0,041707
0,113372
0,206577
0,252313
błąd względny
74,09%
5,32%
-5,09%
-3,26%
0,73%
2,53%
błąd bezwzględny
0,000724
0,000519
-0,002238
-0,003816
0,001498
0,006220
§ 7.6. Twierdzenie de Moivre’a-Laplace’a
173
Tabela 2. Przybliżenie de Moivre’a~Laplace’a dla n = 12 i p = 1/5.
-
k
0
1
2
3
4
5
6
7
8
9
10
11
12
B(k,n,p)
0,068719477
0,206158430
0,283467842
0,236223201
0,132875551
0,053150220
0,015502148
0,003321889
0,000519045
0,000057672
0,000004325
0,000000197
0,000000004
hip{xk)
0,062323704
0,167657830
0,267916449
0,254319625
0,143405341
0,048034772
0,009557650
0,001129670
0,000079315
0,000003308
0,000000082
0,000000001
0,000000000
błąd względny
-9,31%
-18,68%
-5,49%
7,66%
7,92%
-9,62%
-38,35%
-65,99%
-84,72%
-94,26%
-98,11%
-99,39%
-99,74%
błąd bezwzględny
-0,006395772
-0,038500600
-0,015551392
0,018096424
0,010529791
-0,005115448
-0,005944498
-0,002192219
-0,000439730
-0,000054364
-0,000004243
-0,000000195
-0,000000004
Podamy jeszcze wyniki dla n = 20 i p = 1/2, które można porównać z danymi
z tabeli 1.
Tabela 3. Przybliżenie de Moivre’a-Laplace’a dla n = 20 i p = 1/2.
błąd bezwzględny
błąd względny
k
B(k, n,p)
htp(xk)
0,000007
749,34%
0,000001
0,000008
0
0,000035
183,93%
1
0,000019
0,000054
0,000115
63,60%
2
0,000181
0,000296
0,000241
22,20%
0,001087
0,001329
3
0,000254
0,004621
5,50%
4
0,004875
-0,000141
-0,95%
0,014645
5
0,014786
-0,000944
-2,55%
0,036964
0,036021
6
-0,001392
- 1,88%
0,073929
0,072537
7
-0,000541
-0,45%
8
0,120134
0,119593
0,001255
0,161434
0,78%
0,160179
9
0,002215
1,26%
0,178412
10
0,176197
Z lokalnego twierdzenia de Moivre’a-Laplace’a wynika tak zwane twier­
dzenie integralne, które daje oszacowanie prawdopodobieństwa, że liczba
sukcesów zawiera się w danym przedziale. Przy założeniach tw. 1 mamy
bowiem
l
B(k,n,p) ~
/
y>(i) di.
Jxk- \ h
Sumując względem k € [a, 6], otrzymamy
* a+i = X a + k h-
Twierdzenie 2 (de M oivre’a-L aplace’a, integralne). Jeśli
ftmax(|a:a|,|x6|)m ax(p, 5 ) < 1 /2 ,
to
$ jest
P(a <
< 6) = [$(zH i ) - * ( s 0- i )]ez,(" ,“ -Ł),
(9) dystrybuantą
rozkładu J f (0,1).
Rozdział 7. Sumy niezależnych zmiennych losowych
174
gdzie
\D(n,a,b)\
m a ^ [-\ x k\h+ -\ xk\3 h} + — + - h2.
szczególności, jeśli n —> oo i a, 6 zmieniają się tak, że hx® - * 0 i
to £>(«, a, 6) ------- > 0 i wtedy
—> 0 ,
n —»co
P (a
< S» < 6) ~ $ ( a : fc+4) - * ( * „ _ * ) ,
P (a
S„ <
6)
(10)
-* (* »)■
(U )
Ostatnie przybliżenie jest mniej dokładne, ale jest prostsze i chyba częściej
stosowane.
D o w ó d . Porównamy h<p(xk) z całką
/
<p(t)dt = $ ( x k + i ) - $ ( x k_ i ) .
J Xk —%h
Z twierdzenia o wartości średniej wynika, że
H x k+ i ) przy czym
) = M 6 >)>
6 ( x k - \,Xk + f ) , czyli
M ® fc) =
“ $ (®fc-^)]>
a ponieważ |£| - x\\ = |& - x k\•
+a:/t| ^ \h(2 \xk\+ \h) = h\xk\+ \h2,
h<p{xk) = erfc[$(a:fc+i ) - $(®fc_ i ) ] ,
gdzie (r-fc) ^ \h\xk \+ \h2.
Łącząc tę zależność z lokalnym twierdzeniem granicznym, otrzymujemy
B( k , n, p ) = e ^ + ^ p f o + j ) - S f o . j ) ] ,
i oznaczając d = maxjt€{a,a+x,...,6} \^k -b R{ n, k)| otrzymujemy dwustronne
oszacowanie
e - ^ t e f c + l ) - $(®k-*)] < B { k , n , p ) < ed[$( xfc+i ) - $ ( x fc_^)].
Wystarczy teraz zsumować powyższe nierówności po k € {a, a + 1, •••, &},
żeby otrzymać (9). ■
Najczęściej stosuje się następujący wniosek z twierdzenia 2:
W n io se k 3. Jeśli x a i xt, są stałe, to
P ^Xa
^
^
~
+^
~~^
§ 7.6. Twierdzenie de Moivre’a-Laplace’a
175
W związku z integralnym twierdzeniem de Moivre’a-Laplace’a należy się spodzie­
wać, że reguła trzech sigm sformułowana w §5.10 dla rozkładu normalnego ma
miejsce również dla schematu Bernoulliego. Oto jedna z wersji tej reguły8:
P [S „ e (np - 3^/npg, np + 3y/npq)) ^ 0,997,
jeśli np - 3^/npg > 0 i np + 3y/npq < n.
Warunki na n dadzą się zapisać krótko w postaci n > 9 max(q/p,p/g). Dla przy­
padku symetrycznego oznacza to, że n ^ 10. Gdy n ~ 10, prawdopodobieństwo po
lewej stronie wzoru wynosi 1022/1024, czyli około 0,99805, więc reguła rzeczywi­
ście działa już dla niedużych n. Liczba 0,997 po prawej stronie została wybrana
zapewne dlatego, że <¡>(3) — $ ( —3) = 0,9973..., co w stosunku do „idealnego”
rozkładu normalnego daje pewien zapas.
Stąd jednak jeszcze daleko do dowodu (cytowani autorzy nie podają go). Znane
twierdzenia dają zbyt małą dokładność, gdy n jest małe. Czytelnik może spró­
bować swych sił, dowodząc regułę trzech sigm z prawdopodobieństwem po pra­
wej mniejszym niż 0,997, korzystając ze ścisłych wyników tego typu: nierówności
Bernsteina (tw. 7.4.2), a także jej wzmocnienia9:
T w ierdzenie 4 (N ierów ność Bernsteina). Jeśli X i , . . . , X n są niezależnymi
zmiennymi losowymi o tym samym rozkładzie, \Xi\
K , £X i = 0, £ X f = a2,
i = 1, 2, . . . n, Sn = X i 4- . . . + X n, to
Na zakończenie podamy bez dowodu łatwe do zapamiętania oszacowanie dokład­
ności przybliżenia w twierdzeniu de Moivre’a-Laplace’a:
Jest to wniosek z
(12) tw. 10.1.2
Rzędu tego oszacowania nie można poprawić. Dlatego dla p bliskich zera nie jest
ono zbyt dobre, wtedy jednak można zastosować przybliżenie Poissona z tw. 7.5.2.
Do kwestii dokładności przybliżenia w twierdzeniach tego typu powrócimy w roz­
dziale 10 (tw. Berry-Esseena 10.1.2).
Zadania
1. Udowodnić, że jeśli a jest ustalone, to przy n —> oo
P(Sń > a) ~ 1 - $(a),
P(S* ^ a) ~ $(a).
8M. Zakrzewski, T. Żak, KombinaŁoryka, prawdopodobieństwo i zdrowy rozsądek, Qu­
adrivium, Wrocław 1993, s. 121. Regułę zaczerpnięto z: E. S. Wentzel, L. A. Owczarow,
Teoria wierojatnostiej i je jo inżenierskije priłożenija , Nauka, Moskwa 1988.
9S. N. Bernstein, Teorija Wierojatnostiej, wyd. 4, Moskwa-Leningrad 1946. Można
tam znaleźć znacznie ogólniejszą nierówność. Patrz także Matematiczeskaja Enciklopedija, Moskwa 1977, t. I, s. 430.
_ S n -n p
176
Rozdział 7. Sumy niezależnych zmiennych losowych
2. Wydział Matematyki pragnąłby przyjąć nie więcej niż 120 kandydatów. Zda­
jących jest 250, a szansa zaliczenia testu wynosi 0,4. Jakie jest prawdopodo­
bieństwo, że Wydział będzie miał kłopot z nadmiarem kandydatów?
3. Zadanie o konkurencji. Na campusie uniwersyteckim są dwie restauracje,
po 120 miejsc każda. Wiadomo, że codziennie 200 osób będzie chciało zjeść
obiad, a wyboru restauracji dokonują losowo — powiedzmy, rzucając syme­
tryczną monetą. Jaka jest szansa, że w którejś restauracji zabraknie miejsc?
Ile miejsc należy przygotować w każdej restauracji, by powyższe prawdopo­
dobieństwo było mniejsze od 0,001?
4. Bolek rzucił 100 razy monetą i otrzymał 77 orłów. Adaś chce powtórzyć ten
wyczyn (tj. otrzymać 77 lub więcej orłów) i zamierza rzucać monetą aż do
skutku. Ile średnio serii po 100 rzutów potrzeba, aby się doczekać 77 lub.
więcej orłów?
5. Wyznaczyć przybliżenia prawdopodobieństw otrzymania w n rzutach syme­
tryczną monetą co najmniej 60% orłów dla n = 10, 100 i 1000.
6 . Na Wydziale Matematyki jest 320 użytkowników poczty elektronicznej i każ­
dy korzysta z niej średnio przez 9 minut w ciągu doby. Ile powinno być połą­
czeń telefonicznych, żeby szansa dodzwonienia się do komputera pocztowego
wynosiła co najmniej 0,95? Podać przybliżenie wynikające a) z twierdzenia
Poissona; b) z twierdzenia de Moivre’a-Laplace’a.
7. Na Wydziale Matematyki jest n — 200 użytkowników poczty elektronicznej
i dwa połączenia telefoniczne z komputerem pocztowym. Szansa dodzwo­
nienia się do komputera pocztowego wynosi 0,75. Ile minut w ciągu doby
średnio użytkownik korzysta z połączenia? Podać przybliżenie wynikające a)
z twierdzenia Poissona; b) z twierdzenia de Moivre’a-Laplace’a.
8 . Na podstawie losowej próby szacujemy procent chorych na rzadką chorobę
Gulgenstierny-Gjellerupa. Wiadomo na pewno, że liczba chorych nie przekra­
cza 0,5% populacji, a błąd ma być mniejszy od 0,001 z prawdopodobieństwem
0,95. Ile osób musi liczyć próba?
9. Na podstawie losowej próby szacujemy procent dorosłych osób, które umieją
czytać i pisać. Wiadomo na pewno, że jest to ponad 90% (dorosłej) populacji,
a błąd ma być mniejszy od 0,01 z prawdopodobieństwem 0,9. He osób musi
liczyć próba?
10. Prawdopodobieństwo urodzenia chłopca wynosi 0,517. Jakie jest prawdopo­
dobieństwo, że wśród n = 10000 noworodków liczba chłopców nie przewyższy
liczby dziewcząt?
Rozdział 8
Zbieżność rozkładów
¡8.1.
Przykłady i definicja
Ze zbieżnością rozkładów mieliśmy już do czynienia, ale nie wiedzieliśmy
o tym. W twierdzeniach Poissona (tw. 7.5.1) i de Moivre’a-Laplace’a (tw. Ja wiedziałem, ale
7.6.2) występują ciągi rozkładów Bernoulliego (w tw. 7.6.2 odpowiednio nie informowałem.
przeskalowane), które stają się coraz bardziej podobne do rozkładu granicz­ JJ
nego: Poissona lub normalnego. Ponadto widać, że ma miejsce punktowa
zbieżność odpowiednich dystrybuant. Przeanalizujemy teraz kilka przykła­
dów i zobaczymy, czego można oczekiwać od zbieżności dystrybuant.
P rzy k ła d 1. Rozpatrzmy ciąg rozkładów jednopunktowych (San), gdzie
an —> a. Niech Fn będzie dystrybuantą San. Łatwo sprawdzić, że dla i ^ o
mamy linin-n*, Fn(t) = F( t ), gdzie F jest dystrybuantą rozkładu 6 a■Jednak
dla t = a mogą być kłopoty — jak widać z rysunku.
Gdy « n I « okazuje się, że Fn(a) = 0 / 1 = F(a). u
P rzy k ła d 2. Niech F będzie dowolną dystrybuantą. Zdefiniujemy dystrybuanty Fn(t) = F (t - £ ), n = 1 ,2 ,__ Mamy znów Fn(t) -------- > F ( t —).
Ta granica lewostronna równa się F(t) tylko wtedy, gdy t jest punktem
ciągłości F. u
P rzyk ła d 3. Niech ¡in = ]Cfc=o n^k/n- Dystrybuanta F.a rozkładu
funkcją schodkową (rysunek na następnej stronie).
177
jest
Rozdział 8. Zbieżność rozkładów
178
-t-t—I-
-i—I-
Gdy n - i co, ciąg (Fn) jest zbieżny punktowo do dystrybuanty rozkładu
jednostajnego na [0,1]. Zachodzi jeszcze jedno interesujące zjawisko: dla
dowolnej funkcji / ciągłej i ograniczonej
/d/in =
n
-------> f f { x ) d x .
\ n j n—*oo Jo
Rozpoznajemy tu sumy riemannowskie funkcji / . Po prawej stronie poja­
wia się całka z funkcji / względem rozkładu jednostajnego na [0 , 1], czyli
naturalnego kandydata na rozkład graniczny. ■
Można sprawdzić, że i w poprzednich przykładach f f dixn —> J f dfi, gdzie
H jest w rozsądnym sensie rozkładem granicznym, a / — ciągła i ograni­
czona. Z przykładu 1 widać, że warunek ciągłości / jest istotny. Ograni­
czoność gwarantuje natomiast istnienie odpowiednich całek. W następnym
przykładzie, odwołującym się do twierdzenia Poissona, sprawdzenie zbież­
ności całek nie będzie już takie proste.
P rz y k ła d 4 (R o z k ła d y B ern ou lliego i P oisson a ). Niech ijin) będzie
ciągiem rozkładów Bernoulliego o parametrach (n ,pn), przy czym npn —* A.
W świetle twierdzenia Poissona (tw. 7.5.1) można się spodziewać, że rozkła­
dem granicznym będzie rozkład Poissona z parametrem A. Istotnie, niech
pn k oznacza prawdopodobieństwo otrzymania k sukcesów w n-tym schema­
cie Bernoulliego, i niech pk =
dystrybuanty, mamy
Fn(t)
=
Oznaczając przez Fn i F odpowiednie
V ] Pn,k ------>
£
71—»OO Z““'
Pk = F(t).
Zbieżność wynika z twierdzenia Poissona i stąd, że sumy w powyższym
wzorze mają ustaloną, skończoną liczbę składników. Nieco trudniej udo­
wodnić, że dla każdej funkcji ciągłej i ograniczonej / ma miejsce zbieżność
odpowiednich całek. Istotnie, jeśli |/| ^ M , to
/
OO
fO
fdy. n -
-co
/
J —c
oo
fdfj. < £
k= 0
CO
\f(k)\\Pn,k
|P n tk - Pk\- (1)
k= 0
Kłopot polega na tym, że choć pn —> pk dla ustalonego k i n —> oo,
to nic stąd nie wynika, bo suma zawiera nieskończenie wiele składników.
§ 8.1. Przykłady i definicja
179
Można sobie z tym poradzić na przykład tak (por. też zad. 7): zauważmy,
że dla dostatecznie dużych m suma J2kLm \Pn,k ~ Pk\ może być dowolnie
mała. Wynika to z nierówności Czebyszewa i stąd, że wartości oczekiwane
rozważanych rozkładów są wspólnie ograniczone. Jeśli oznaczymy przez X n
zmienną losową o rozkładzie Bernoulliego z parametrami (n,pn), a przez
X — zmienną losową o rozkładzie Poissona z parametrem A, to ponieważ
npn
dla pewnego K jest npn < K , i mamy:
Di( Xv n ^ m)\ ^
^
P
m
^ npn
m
P(X ^m ) ^ —
m
K
—
m
m
W takim razie dla ustalonego e > 0 istnieje takie m, że dla każdego n:
00
00
K
00
£
IPn,k - P k l ^ Y l li»«.*I + £
M
k~m
k=m
k=m
^
4-
m
X
< e
Natomiast dla dostatecznie dużych n mamy X)fcLi \Pn,k —PkI < £, z czego
wynika, że prawa strona wzoru ( 1) jest dla dostatecznie dużych n mniejsza
niż 2s. ■
W dalszym ciągu tego rozdziału (E , q) będzie oznaczać przestrzeń me­
tryczną, ośrodkową i zupełną. Będziemy mieć do czynienia z miarami na
(E , B(E)). Tylko wyniki dotyczące dystrybuant z natury rzeczy będą for­
mułowane dla E = R lub E = R n.
Warto zwrócić uwagę na własność rodziny rozkładów (fin), która pojawiła
się w poprzednim przykładzie. Zostało tam udowodnione, że dla każdego
e > 0 istnieje taki przedział ograniczony I, że
> 1 —e dla każdego n.
Intuicyjnie rzecz biorąc, dzięki tej własności nie ma szans na ucieczkę miar
do nieskończoności. Stąd definicja:
Konkurencyjny
D efin icja 5. Rodzinę ((it)ter rozkładów prawdopodobieństwa na ( E, B(E)) termin to ciasna.
Ale po angielsku
nazywamy jędrną, jeśli dla każdego e > 0 istnieje taki zbiór zwarty K , że
mamy tight.
Ht(K) >
1-
s
dla wszystkich t e T.
W przypadku rozkładów na R (odp. na R " ) wystarczy w definicji zastąpić
zbiór zwarty przedziałem domkniętym i ograniczonym.
P rzy k ła d 6 . Niech { X a: a € A } będzie rodziną zmiennych losowych dla
której istnieje 6 > 0 taka, że supa £|Xa |^ — M < co. Wtedy rodzina
€ A } jest jędrna.
Rozdział 8. Zbieżność rozkładów
180
Istotnie, weźmy dowolne e > 0. W tedy dla każdego a e A mamy:
P(\Xa \> n) = P(\Xa \s > ns) < L W I ) < E < e
n°
n°
dla dostatecznie dużych n.
a
Podane przykłady miały umotywować następującą definicję:
będzie ciągiem rozkładów prawdopodobieństwa
D efin icja 7. Niech
na (E , B ( E )). Powiemy, żejes t on słabo zbieżny do rozkładu p, (co będziemy
sł
oznaczać \in — >fj,), jeśli dla każdej funkcji ciągłej i ograniczonej f : E —>Tl
mamy
[
lim
f dun =
fdn.
JR
n~4°° Je
Należy jeszcze wyjaśnić, skąd się wzięło słowo „słaba” określające zbież­
ność. Jest to konwencja zaczerpnięta z analizy funkcjonalnej. Funkcja /
wyznacza funkcjonał ciągły na przestrzeni miar. W definicji żąda się, by
ciąg wartości funkcjonału był — dla każdego funkcjonału — zbieżny. Tego
rodzaju zbieżność nazywa się słabą, żeby odróżnić ją od mocnej zbieżności,
wyznaczonej przez normę.
Tak naprawdę,
jest to zbieżność Natomiast w odniesieniu do zmiennych losowych będziemy mówić o zbież­
„słaba ności według rozkładu:
z gwiazdką”
D efin icja 8 . Jeśli X , X x , X 2 , ■■■ są zmiennymi losowymi, a ¡i, ni, ¿¿2, ...
ich rozkładami, to powiemy, że ciąg (X n) jest zbieżny według rozkładu do
X , jeśli fj,n — >
Piszemy wtedy X n
X.
U w aga 9. Ponieważ f E f dfix — £ f ( X ) , to X n -2-* X wtedy i tylko wtedy,
gdy £ } ( X n) —>£ f ( X ) dla każdej funkcji / ciągłej i ograniczonej.
Jeśli rozkładem granicznym jest na przykład standardowy normalny, mo­
żemy z lekka nadużyć języka, pisząc X n
N (0,1).
Zakończymy ten paragraf uwagą techniczną, która będzie wielokrotnie wy­
korzystywana w dalszym ciągu.
U w aga 10. Jeśli zbiór F jest domknięty, to dla każdego e > 0 istnieje
jednostajnie ciągła i ograniczona funkcja / , taka że 1 p < / < 1 f c , gdzie
Fe = { x € E: q (x , F) < e } (zbiór Fe nazywamy e-otoczką zbioru F).
D o w ó d . Wystarczy zdefiniować f ( x ) =
( 1
<p(t) = < 1 - t
l0
<p ( \ q ( x ,
dla t < 0 ,
dla 0 < t < 1,
dla t > 1.
F)), gdzie
(2 )
■
§8.1- Przykłady i definicja
181
Zadania
1 . Wykazać, że jeśli X, Xi, Xz,... są zmiennymi losowymi o wartościach w prze­
strzeni metrycznej (E , g) i X n
X , to X n
X.
2 . Podać przykład ciągu zmiennych losowych określonych na tej samej prze­
strzeni fi, zbieżnego według rozkładu, który nie jest zbieżny według prawdo­
podobieństwa.
3. Wykazać, że jeśli X, X i , X i ,... są zmiennymi losowymi o wartościach w prze­
strzeni metrycznej (E, q) i X n -^+ X, gdzie P(X = c) = 1, c e E, to
X n ^>c.
4. Udowodnić, że jeśli X n
X, a,b e R, to aXn + 6
a X + b.
5. Podać przykład ciągu dystrybuant, który jest punktowo zbieżny, ale odpo­
wiednie gęstości nie są zbieżne.
6 . Niech n, pi, ¡12 ,
■będą miarami skupionymi na zbiorze liczb całkowitych
nieujemnych. Wykazać, że
Hn
* fi ^ ^&sNu{o}
MnfW)
7. Twierdzenie Scheffe’go. Niech fi będzie miarą cr-skończoną, / n, / — funk­
cjami nieujemnymi i takimi, że miary ^n(A) = f A f n dfi, v{A) = f A f dfi są
miarami probabilistycznymi. Niech f n
że
f względem miary fi. Udowodnić,
sup\v(A) - Vn(A)l < I 1/ - f n\dfi —►0.
-4
Ja
8 . Niech /j, fin będą rozkładami ciągłymi o gęstościach / , f n odpowiednio. Jeśli
fn~* f P-n. względem miary Lebesgue’a, to fin — >fi.
9. Uogólnienie zad. 6 . Niech fi,fii,fi2 ,. . . będą miarami probabilistycznymi
skupionymi na zbiorze przeliczalnym S C E. Udowodnić, że
a) jeśli Vx & S ¿in({a;}) -> #¿({2 }), to fin -^+
b) jeśli każdy punkt S jest izolowany,
fi, to
e S fin({x}) —» ¿¿({a;}).
Wykazać, że punkt b) nie jest prawdziwy bez założenia, że każdy punkt S
jest izolowany.
10. Niech Pa = M (rna,a'i)- Udowodnić, że rodzina {Pa: a 6 A} jest jędrna
wtedy i tylko wtedy, gdy istnieje takie K > 0, że dla wszystkich a € A jest
\ma\< K, \al\ ^ K.
11. Udowodnić, że jeśli (X „ ) jest ciągiem zmiennych losowych o wartościach
a) w R, b) w R n i X n
X , to rodzina {fixn)n jest jędrna.
12. Rozkład jednostajny na kuli a rozkład normalny. Niech X n będzie
pierwszą współrzędną zmiennej losowej o rozkładzie jednostajnym na kuli
jednostkowej w R n. Wykazać, że
y/nXn - ^ t f ( 0 , l ) .
Jak zmieni się odpowiedź, gdy rozpatrzymy rozkłady jednostajne na sferach
jednostkowych w R n?
Rozdział 8. Zbieżność rozkładów
182
§ 8.2.
Charakteryzacje słabej zbieżności rozkładów
Poniższe twierdzenie znacznie upraszcza badanie słabej zbieżności rozkła­
dów.
T w ierd zen ie 1. Niech
będą rozkładami prawdopodobieństwa
na ( E, B(E)). Następujące warunki są równoważne-.
(i) fj.n
im.
(ii) limn^oo JB f dfj,n =
nostajnie ciągłych.
dla funkcji f : E —* H ograniczonych i jed­
(iii) limsupn_ftJOHn(F) < fJ-(F) dla zbiorów F domkniętych.
(iv) liminfn -,00 (¿n(G) > n(G) dla zbiorów G otwartych.
dA = X\Int A.
(„)
l i m „ _ o o Mn (A )
= (i(A), o ile fi( 8 A) = 0.
D o w ó d . Oto jego schemat: najpierw udowodnimy wynikania (i)=> (ii)=>
(iii), (iv)=>(i), a następnie równoważność (iii)-& (iv) i wynikania («>)=>■
(v)=> (iii).
(i) =>(w). Oczywiste.
(ii)=> (iii). Niech F będzie zbiorem domkniętym. Ustalmy S > 0. Wtedy dla
dostatecznie małych e > 0 dla zbioru Fe — {x e E: g(x, F) < e } zachodzi
nierówność
» ( F e) < i x ( F ) + 6 .
Istotnie, dla domkniętych F mamy Hn=i F\jn = F . Korzystając z twier­
dzenia 1.1.7 o ciągłości, wybierzmy takie e > 0, by nierówność zachodziła
i rozpatrzmy (uwaga 8 . 1. 10) jednostajnie ciągłą funkcję / , spełniającą wa­
runek 1 f < / < 1 •Wtedy
limsup iin( F) < limsup
n
n
/ dfin =
f d p ^ n(Fe) < fi(F) + 5.
Ponieważ liczba ó > 0 może być dowolna, dowód został zakończony.
(ui)=>(i). Niech / będzie ciągła i ograniczona. Załóżmy na razie, że / > 0.
Wtedy, przepisując wzór ze stw. 5.6.11 w postaci całek, otrzymujemy
Zbiory { x : f ( x ) > t } są otwarte, zatem
/*oo
J
0
§8.2. Charakteryzacje słabej zbieżności rozkładów
183
roo
> /
Jo
liminf ¡in({x- f ( x ) > i} ) dt
n
(2)
rOO
> /
v({x'-f(x) > i}) d t = f f dfj..
JO
Je
(3)
Nierówność (2) jest wnioskiem z lematu Fatou, zastosowanego do nieujemnej funkcji fj,n({x: f ( x ) > i}), natomiast (3) wynika wprost z założenia.
Jeśli lewa strona (1) jest nie mniejsza niż prawa strona (3) dla funkcji / , to liminf(—an ) =
jest tak również dla / + c, gdzie c jest dowolną stałą, czyli dla każdej funkcji = —lim sup anciągłej i ograniczonej. Stosując otrzymane oszacowanie do —/ , otrzymujemy
warunek (i).
(iii)<$-(iv) — natychmiastowy dowód przez przejście do dopełnień.
(iii) i (iv)=>(v) Mamy
fiClntA) < liminf ftn(IntA) < liminf^in(yl) <
n
n
< lim s u p ( A ) < limsup/^n(j4) < n(A).
n
n
Jeśli fj,(dA) = 0, to skrajne wyrazy są równe, co kończy dowód.
(v)=>(iii) Po pierwsze, d{x: q(x, F) < ¿ } C { x : g ( x , F ) = ¿ }. Te ostatnie
zbiory są rozłączne dla różnych 5, zatem tylko przeliczalnie wiele z nich
ma miarę ¡i dodatnią. Pozwala to ominąć trudność, związaną z brzegiem
dodatniej miary: wybierzmy 8 k 1 0 tak, by odpowiednie zbiory
Fk = {x: g(x,F) < 4 }
miały zerowe brzegi. Teraz dla każdego k
limsup fj,n(F) < łimsup/in(Ffc) = fi(Fk).
n
n
Biorąc k —>oo, otrzymujemy (3). ■
Prostym wnioskiem z udowodnionego twierdzenia jest
T w ierdzen ie 2. Jeśli fj, i v są rozkładami prawdopodobieństwa na prze­
strzeni ( E, B(E)) i dla każdej funkcji ciągłej i ograniczonej f
f f dfj,= [ fdu,
Je
Je
to ¡¿(A) — v(A) dla A £ B(E).
D o w ó d . Ponieważ zbiory domknięte generują a-ciało zbiorów borelowskich
i tworzą 7r-układ, to na mocy lematu o 7r- i A-układach wystarczy udowodnić
tezę twierdzenia tylko dla zbiorów domkniętych.
Rozdział 8. Zbieżność rozkładów
184
Niech (nn) będzie ciągiem stałym, o wszystkich wyrazach równych ¡i. Z za­
łożenia jest on słabo zbieżny do v, i z warunku (iii) twierdzenia 1 otrzy­
mujemy n(F) = limsupn Hn(F) ^ V{F). Symetria daje nierówność prze­
ciwną. ■
Oczywisty jest
W n io se k 3. Granica słabo zbieżnego ciągu rozkładów jest wyznaczona jed­
noznacznie.
Jeśli h jest odwzorowaniem ciągłym z E w przestrzeń metryczną E\, to
z Xn
X wynika natychmiast h ( X n)
h(X). Można to stwierdzenie
znacznie osłabić. Niech Dh będzie zbiorem punktów nieciągłości funkcji h.
T w ierd zen ie 4. Jeśli odwzorowanie h :E —> Ei jest mierzalne, X n
X,
Hx ( Dh) = Q t o h ( X n) - ^ h ( X ) .
D o w ó d . Udowodnimy, że zachodzi warunek (iii) twierdzenia 1. Niech F
będzie zbiorem domkniętym. Wtedy
lim supfJ.hix n){ F) = limsnpfj,Xn(h^ 1 ( F) ) s$ limsnp fj.xn(h~ 1 ( F)) ^
n
n
n
bo X n — ►X. A ponieważ h~ 1 ( F) C h~ 1 ( F) U Dh, n x{ Dh ) = 0, to
V x { h - ' ( F ) ) = lMx(h-\F)) = fłh(x)(F). m
W zadaniu 8 podane jest uogólnienie tego faktu.
Następne twierdzenie jest sformułowane w duchu znanego z analizy kryte­
rium zbieżności ciągu, i przyda się w dowodzie twierdzenia Levy’ego.
Warto udowodnić
odpowiednik tego
twierdzenia dla
ciągów
w przestrzeni
metrycznej
i zastanowić się,
)
czy istnieje
}
metryka w
przestrzeni
rozkładów
równoważna
słabej zbieżności
(zad. 8.3.4).
sł
T w ierd zen ie 5.
— > fi wtedy i tylko wtedy, gdy każdy podciąg (tink)
zawiera podciąg (fJ-nk,) słabo zbieżny do ¡i.
D o w ó d . Konieczność jest oczywista: jeśli dla każdej funkcji ciągłej i ogra­
niczonej / ma miejsce zbieżność całek: f f d[in —> f f d/i, to samo odnosi
się do dowolnego podciągu.
Dostateczność: przypuśćmy, że fj,n f~ * /¿. Wtedy dla pewnej funkcji ciągłej
ograniczonej / i pewnego podciągu (nk) mamy |/ / dfj.nk - f f dfj,\ > 6 > 0 ,
i z tego podciągu nie da się już wybrać żadnego, dla którego zachodziłaby
zbieżność całek. Sprzeczność z założeniem kończy dowód. ■
§8.3. Zbieżność rozkładów, a zbieżność dystrybuant
185
Zadania
1 . Pokazać, że nie jest prawdziwe stwierdzenie: jeśli fin
B € 23(11) mamy ¡j.n(B ) —>fi(B).
fi, to dla każdego
2. Udowodnić, że jeśli X n
X , Yn
X.
3 . Udowodnić, że jeśli X n
X , Yn - Ł c, to X n + Yn -2-» X + c.
0, to X n ■+- Yn
4. Podać przykład zmiennych losowych X n,Yn,X, Y takich, że X n — > X,
Yn — Y, ale nieprawda, że X n + Yn
X + Y.
5 . Udowodnić, że jeśli X n
X, Yn
6 . Udowodnić, że jeśli X n
X, Yn -5-> a, to X nYn
7. Udowodnić, że jeśli X nYn
w zerze, to X „ ( / ( K ) - /(O))
0, to X nY„
0.
a X.
X , K« — » 0, / jest funkcją różniczkowalną
/'(0 )X .
* 8 . Niech X, X i , X 2 , ■.. będą zmiennymi losowymi o wartościach w przestrzeni
metrycznej (E, @) i niech X u
» X. Udowodnić, że gdy h, hi, h2,
F
są odwzorowaniami mierzalnymi (F — przestrzeń metryczna), a zbiór A jest
taki, że P( X 6 A) = 1, i wreszcie dla e € A mamy hn(e„) —> h(e) gdy
g(e„,e) -> 0, to hn(Xn)
h(X).
9. Owad i mrówki. Owad składa jaja zgodnie z rozkładem Poissona z parame­
trem a. W nocy mrówki kradną mu jaja: szansa, że dane jajo zostanie ukra­
dzione, wynosi q. Następnego dnia historia się powtarza (liczba złożonych jaj
ma ten sam rozkład, co poprzedniego dnia i jest niezależna od przeszłości),
itd. Jaki jest rozkład graniczny liczby jaj ocalonych przed mrówkami?
§ 8.3.
Zbieżność rozkładów, a zbieżność dystrybuant
Jak sugerowały przykłady podane na początku rozdziału, zbieżność roz­
kładów wiąże się ze zbieżnością odpowiednich dystrybuant, ale na ogół nie
wszędzie — jedynie w punktach ciągłości dystrybuanty granicznej. Taką
sł y_i
zbieżność dystrybuant nazwiemy słabą i zachowamy oznaczenie Fn — >F.
Oto oczekiwana charakteryzacja słabej zbieżności dystrybuant rozkładów
na R .
T w ierdzen ie 1 . Niech ft,/ii,/X2, ■•• będą rozkładami prawdopodobieństwa
na (R,
i niech F, F i ,F2, . . . będą ich dystrybuantami.
sł
Wtedy zbieżność fin — > fi jest równoważna temu, że Fn(t) —> F(t) dla
każdego punktu ciągłości t dystrybuanty granicznej F.
D o w ó d . Najpierw udowodnimy, że z warunku (ii) twierdzenia 8.2.1 wynika
słaba zbieżność dystrybuant. Niech t będzie punktem ciągłości F . Rozpa­ Początek dowodu
znany jest jako
trzmy jednostajnie ciągłe funkcje f £, ge spełniające warunki
1 ( —oo,i—e] ^ f e ^ 1 ( —oo,i] ^ 9 e ^ 1 ( —oo,i+ e]-
lemat o wieszaku;
tak naprawdę jest
tu pół wieszaka.
Rozdział 8. Zbieżność rozkładów
186
Po scałkowaniu względem miary nn i wzięciu granicy dolnej pierwsza i druga
nierówność dają
Można użyć
warunku 8.2.1(v),
ale jak ktoś nie
doczytał...
/
OO
pO O
fe dfi = lim inf /
71
-00
f e d/iji < liminf Fn(t).
J —c o
71
Po wykorzystaniu w analogiczny sposób ostatnich dwóch nierówności otrzymujemy następujący łańcuszek:
/
OO
f e d/j,n < lim inf Fn(t) <
-00
/
OO
ge dfin < F (t + e),
•OO
Żeby zakończyć dowód, wystarczy wziąć e —> 0 .
Przypuśćmy teraz, że ma miejsce słaba zbieżność dystrybuant. Wyprowa­
dzimy stąd warunek (iv ) z tw. 8 .2 .1 .
Niech G będzie dowolnym zbiorem otwartym w R . Wtedy G = U*Li Ik,
gdzie Ifc są rozłącznymi przedziałami otwartymi (być może nieograniczo­
(a'k,brk] C (ofc,bfc) nymi). Niech I k = (ak,bk). Zawsze można wybrać takie punkty ciągłości
dystrybuanty granicznej a'k,b'k £ (ak,bk), a'k < b'k, żeby dla ustalonego
Zbiór punktów £ > 0
nieciągłości
funkcji
monotonicznej
jest przeliczalny.
F{b'k) - F( a k) = / , ( « , b'k]) > K h ) - £ •2"*.
(1)
Wtedy
OO
liminf nn(G) > £ [ F ( 6'fc) - F(a'fe)] > fi{G) - e.
fc=i
Pierwszą nierówność otrzymujemy, rozpatrując najpierw sumę skończoną
Sfe=i[^n(&fc) — Fn(a!k)\ i przechodząc z m do nieskończoności po wzięciu
granicy dolnej względem n. Drugą nierówność otrzymuje się, dodając stro­
nami nierówności ( 1) dla k = 1, 2 , . . . Żeby zakończyć dowód, wystarczy
wziąć £ —*■0 i skorzystać z tw. 8 .2 . 1. ■
Będziemy teraz zmierzać w kierunku twierdzenia Prochorowa: jędrność ro­
dziny rozkładów jest równoważna z tym, że z każdego ciągu da się wybrać
podciąg słabo zbieżny. Innymi słowy, jędrność jest równoważna z warun­
kową zwartością.
L em at 2. Niech (Fn) będzie ciągiem dystrybuant, a D — zbiorem gęstym w
R . Jeśli Fn(t) —>F(t) dla wszystkich t G D , to Fn(t) —>F(t) we wszystkich
punktach ciągłości F .
Masa może uciec Funkcja graniczna F nie musi być dystrybuantą; może być dystrybuantą
do
ułomną, ma bowiem wszystkie własności dystrybuanty oprócz jednej:
nieskończoności
limt_łoo F(t) - limt^-oo F(t) = p < 1 , i być może p < 1.
§ 8.3. Zbieżność rozkładów, a zbieżność dystrybuant
187
D o w ó d . Jeśli x jest punktem ciągłości F, x ',x " € D i x' < x < i " , to
Fn(x') < Fn(x) < F(x"),
zatem
liminf Fn(x') < liminfFn(x) < lim supF„(x) < limsupFn(a:"),
cz3rli
F(x') < liminf Fn(x) < lim supF„(z) < F(x").
Jeśli teraz x ',x " —>x, to otrzymamy limFn(x) = F.(x). ■
L em at 3. Każdy ciąg dystrybuant zawiera podciąg słabo zbieżny do dystry­
buanty ułomnej.
D o w ó d . Wystarczy wykazać zbieżność na zbiorze gęstym i przedłużyć F
w naturalny sposób do funkcji prawostronnie ciągłej.
Niech toi, w2, . . . będzie ciągiem zawierającym wszystkie liczby wymierne.
Ponieważ (Fn(wi)) jest ciągiem ograniczonym, można z niego wybrać pod­
ciąg zbieżny o wyrazach rin,Bi2, . . . Z tego podciągu wybieramy taki pod­
ciąg o wyrazach n21, n 22, •• żeby {Fn2k(w2)) był zbieżny, itd. Z otrzymanej
tablicy wskaźników wybieramy przekątną i otrzymujemy ciąg funkcji (Frikk)
zbieżny w każdym punkcie wymiernym do funkcji Fo: Q —>R .
Teraz wystarczy zdefiniować
F(t) = inf{.Fo(ui): w > i},
żeby otrzymać żądaną funkcję graniczną. ■
L em at 4. Każdy jędrny ciąg rozkładów prawdopodobieństwa na (R , B(R))
zawiera podciąg słabo zbieżny.
D o w ó d . Niech (Fn) będzie ciągiem dystrybuant. Wybieramy podciąg Frik
słabo zbieżny do pewnej dystrybuanty ułomnej F (lemat 3).
Na mocy jędmości dla każdego e > 0 istnieje takie M , że —M i M są
punktami ciągłości F, oraz
Fnk{ M ) - F nk( - M ) > l - e ,
a stąd, biorąc k —>00, otrzymujemy
F ( M) - F ( - M ) > 1 - e,
zatem F jest dystrybuantą pewnego rozkładu prawdopodobieństwa
Możemy teraz udowodnić
■
Rozdział 8. Zbieżność rozkładów
188
T w ierd zen ie 5 (P r o c h o r o w a ). Rodzina rozkładów prawdopodobieństwa
A = { fj,a: a e / } na (R , B( R )) jest jędrna wtedy i tylko wtedy, gdy z każdego
ciągu elementów tej rodziny da się wybrać podciąg słabo zbieżny do pewnego
rozkładu prawdopodobieństwa.
D o w ó d . Konieczność została udowodniona w lemacie 4. Dostateczność:
przypuśćmy, że rodzina rozkładów nie jest jędrna. W tedy istnieje takie
e > 0, że dla każdego zbioru zwartego K istnieje taka miara fi € A, że
n (K ) < 1 — s. Przyjmując za K kolejno przedziały [—n, n] otrzymujemy
ciąg miar fin G A, n = 1 ,2 ,..., dla których ¿in([—n, ra]) < 1 —e. Otóż ciąg
(pn) nie może zawierać podciągu zbieżnego do pewnego rozkładu prawdo­
podobieństwa.
sł
Przypuśćmy bowiem, że ¡i1lk — > /i. Wybierzmy taki zbiór zwarty K , żeby
fJt(K) > 1 —e. Jeśli K s jest ¿-otoczką zbioru K , to dla dostatecznie dużych
n mamy K$ C [—n ,n ], i na mocy otwartości zbioru K $ i warunku (iv ) tw.
8 .2.1 otrzymujemy
1 - e < p ( K s ) < liminf fink (K s) < liminf /J.nk( [ - n k,nk]) < 1 - £■
Sprzeczność kończy dowód. ■
Zadania
1 . Niech X „
X , limn an = a, a — punkt ciągłości dystrybuanty F x - Udo­
wodnić, że limn Fx„(an) = F(a).
2. Twierdzenie Diniego. Wykazać, że jeśli ciąg dystrybuant (Fn) jest zbieżny
punktowo do dystrybuanty ciągłej F , to zbieżność jest jednostajna.
3. Metryka Levy’ego. Określamy odległość d między dystrybuantami F i G
w następujący sposób:
W arto wykonać
rysunek
ilustrujący tę
definicję
d(F, G) = inf{e: V*eR
G{x - e) - e Ą F (x ) s: G (x + e) + e}.
sl
Wykazać, że Fn — >F wtedy i tylko wtedy, gdy d(Fn, F) —>0.
Wykazać, że d jest faktycznie odległością i że zbiór miar probabilistycznych
na (R, S (R )) z metryką d jest przestrzenią metryczną, ośrodkową i zupełną.
*4. Określić odległość między rozkładami na ( E , B (E)), uogólniając pomysł z za­
dania 3 i udowodnić odpowiedniki sformułowanych tam twierdzeń.
*5. Twierdzenie Skorochoda. Wykazać, że jeśli fi, fti, fi2, ... są rozkładami
prawdopodobieństwa na (R, B(R)) i fi„
¡i, to istnieją zmienne losowe
X , X i , X 2, ... o rozkładach odp. fi, fu, ¿t2, ... określone na przedziale (0 , 1)
i takie, że X n(w) —>X(u>) dla każdego u € (0,1).
6 . Wykazać, że jeśli X n — > X , to €\X\
7.
liminf„ £\Xn\.
Udowodnić, że jeśli X 7l
X i X n są jednostajnie całkowalne, to X ma
wartość oczekiwaną i lim„ £ X n = £ X .
§8.3. Zbieżność rozkładów, a zbieżność dystrybuant
189
8 . Niech rozkład zmiennej losowej X będzie określony przez wszystkie momenty
i niech X n , n = 1,2,... mają wszystkie momenty, £ X £ —* £ X T dla r =
= 1,2,__ Udowodnić, że X n
X.
9. Udowodnić, że jeśli X n -?—> X i supn £\Xn\p+e < oo, p > 0,e > 0, to
£\X\P < oo i lim„ £\Xn\p = £\X\P oraz limn £ X P = £ X P.
*10- Udowodnić odpowiedniki twierdzenia 1 oraz lematów 2, 3 i 4 dla rozkładów
prawdopodobieństwa w (R k,B (R k)).
*11. Udowodnić twierdzenie Prochorowa
a) w R n,
b) w R°°,
c) w dowolnej przestrzeni metrycznej, ośrodkowej i zupełnej.
12. Niech (X „) będzie ciągiem niezależnych zmiennych losowych o rozkładzie
U[0,1], Y„ = n ■m in(Xi,. ••, X n). Czy istnieje taka zmienna losowa Y, że
Yn
y?
Lemat o małżeństwach i miara Haara. Twierdzenie o istnieniu miary Haara na grupie zwartej można otrzymać z tw. Prochorowa i kombinatorycznego
lematu Halła o systemach reprezentantów1 (inaczej: o małżeństwach). Kolejne
kroki dowodu wynikają z zadań:
* 12 . Niech A i ,. . . A n będą podzbiorami zbioru skończonego X . Wykazać, że wa­
runkiem koniecznym i dostatecznym na to, by z każdego zbioru Ai można
było wybrać reprezentanta ai tak, by O; ^ aj dia i j jest:
V J c { l ,...,n j
# i(jA i)ź # J .
\eJ
'
Podzbiór K e przestrzeni metrycznej (E, p) nazywamy £-siecią, gdy dla każdego
x 6 B istnieje takie u 6 K e, że p(x,u) ^ e. Skończoną £-sieć nazywamy mini­
malną, gdy nie istnieje e-sieć o mniejszej liczbie elementów.
13. Niech { z i , .. ., a:„} i { y i , ■■■,y n} będą minimalnymi e-sieciami w przestrzeni
metrycznej (E, p). Wykazać, że istnieje taka permutacja ir: {1 , . . . , n } —>
—» { 1, . . . , n}, że p(xj,yn(j)) ^ 2e dla każdego j ^ n.
14. Niech E będzie przestrzenią metryczną zwartą, a K n = {x^ l}. . . ■Xml,} —
minimalną —siecią w E . Niech Pn będzie rozkładem równomiernym na K „
(tj. Pn({a!jn)}) = l/m n). Wykazać, że ciąg (P„) zawiera podciąg (Pnk) słabo
zbieżny do pewnego rozkładu prawdopodobieństwa p na (E, B(E)).
15. Twierdzenie o istnieniu miary Haara. Niech G będzie grupą izometrii przestrzeni metrycznej zwartej E . Wykazać, że miara p otrzymana w
poprzednim zadaniu jest niezmiennicza ze względu na G, czyli pg = p dla
każdego g e G , gdzie pg(A) = p(g~lA) dla A e B(E).
Wsk. f E fdpg = limfc^ m~l
f(gx^k)-
1W itold Lipski, Wiktor Marek, Analiza kombinatoryczna, P W N , Warszawa 1986,
s. 192.
— { g x : x 6 A }.
Rozdział 9
Funkcje charakterystyczne
§9.1.
Definicja i przykłady
Z punktu widzenia analityka funkcja charakterystyczna jest w zasadzie
transformatą Fouriera miary. Dla probabilisty liczy się fakt, że pewne wła­
sności rozkładów i relacje między rozkładami tłumaczą się prosto na język
funkcji charakterystycznych, a wygodniej jest operować zwykłymi funk­
cjami niż miarami.
Funkcje charakterystyczne posłużą nam do dowodu centralnego twierdzenia
granicznego (rozdział 10). Głównym wynikiem tego rozdziału jest twierdze­
nie Lévy’ego-Craméra „o ciągłości” : punktowa zbieżność funkcji charakte­
rystycznych do funkcji ciągłej w zerze pociąga za sobą zbieżność odpowied­
nich rozkładów do rozkładu, którego funkcją charakterystyczną jest funkcja
graniczna.
D efin icja 1. Funkcją charakterystyczną zmiennej losowej X : ù —►R na­
zywamy funkcję <px'- R- —* C , daną wzorem
V x it) = £ e l t x ,
t e R.
(1 )
Pojawiła się tu — wcześniej formalnie nie zdefiniowana — wartość oczeki­
wana zmiennej losowej o wartościach zespolonych. Podstawowe (i oczywiste)
jej własności podajemy w zadaniu 1. W szczególności, ponieważ |e!iX j = 1,
zmienna losowa po prawej stronie ( 1) jest zawsze całkowalna, wobec tego
funkcja charakterystyczna jest dobrze określona dla każdej zmiennej loso­
wej.
Oczywiście mamy
gdzie n x jest rozkładem zmiennej losowej X . Wobec tego równie dobrze
można mówić o funkcji charakterystycznej dowolnego rozkładu.
190
191
§9.1- Definicja i przykłady
P rzy k ła d 2. Obliczymy funkcję charakterystyczną zmiennej losowej X
o rozkładzie N (0,1) (lub, co na jedno wychodzi, rozkładu M (0,1)). Mamy
1
r°°
eite-<x2/2) dx =
<Px(t) = £ e itx = - 4 =
V ^ 7 -o o
bowiem ostatnia całka jest równa \/27r, niezależnie od t. Żeby to zobaczyć,
należy obliczyć całkę z funkcji e~ z / 2 po brzegu przedstawionego na rysunku
prostokąta i wziąć R —►oo.
f?+/t
>
Ponieważ całkowana funkcja jest analityczna, całka po brzegu prostokąta
jest równa zeru (patrz tw. D.2.4). Całki po pionowych bokach zmierzają do
zera, gdy U —>oo. Wobec tego
Z teorii funkcji analitycznych będziemy korzystać jeszcze kilka razy. Doda­
tek D zawiera niezbędne wiadomości i opis techniki liczenia całek metodą
residuów. Można jednak w tym przypadku (i w innych) obejść się bez funk­
cji analitycznych (patrz zad. 7). ■
Oto podstawowe własności funkcji charakterystycznych:
T w ierd zen ie 3. Niech <px będzie funkcją charakterystyczną zmiennej lo­
sowej X . Wtedy
(i) <Px(0) = I[ii) \<px(t)\ sg 1 .
(iii) ipx (t) = <p x{-t).
(iv ) ipx:(t) jest jednostajnie ciągła.
192
Rozdział 9. Funkcje charakterystyczne
D o w ó d , (i) <px{0) = £e° = 1;
(ii) \v x {t) |= |£e"x |< £|e«*| = 1 ;
(iii) <px{t) = £ e ltx = £ e ~ ltx = <px(—t)(iv) |<px(t + h) -
<px(t)\ - \£ (elhx - l ) el t x \ ^ £\elhx - 1 |= 6(h), gdzie
na mocy twierdzenia Lebesgue’a o zbieżności zmajoryzowanej S(h) —* 0 dla
h —> 0 , a to oznacza jednostajną ciągłość. ■
Powiemy, że zmienna losowa jest symetryczna , gdy X i —X mają ten sam
rozkład. Sam rozkład nazwiemy wtedy symetrycznym. Rozkład ^ jest sy ­
metryczny wtedy i tylko wtedy, gdy ft(A) = ¡jl( - A ) dla A e B ( R ).
U w aga 4. Funkcja charakterystyczna rozkładu /i jest rzeczywista wtedy
i tylko wtedy, gdy rozkład jest symetryczny.
D o w ó d . Jeśli rozkład jest symetryczny, na mocy (iii) mamy ifx (t) =
= V x ( —t)i a jednocześnie na mocy symetrii <px(t) = <p~x { t ) = <px{~t).
Dlatego funkcja charakterystyczna jest rzeczywista. Odwrócenie tego rozu­
mowania jest prawie oczywiste, wymaga jednak twierdzenia o jednoznacz­
ności: różne rozkłady mają różne funkcje charakterystyczne (tw. 10). ■
Istnieje wiele kryteriów na to, by dana funkcja była funkcją charaktery­
styczną. Przytoczymy tu jedno z nich.
D efin icja 5. Funkcję <p: R —> C nazywamy dodatnio określoną wtedy i tyl­
ko wtedy, gdy dla każdego naturalnego n, dla każdego ciągu t \ , . . . t n liczb
rzeczywistych i zespolonych Z i,. . . zn mamy
T : <p(tk - ti)zkzi ^ o.
k,l^n
T w ierdzen ie 6 (B o ch n e ra ). Funkcja ip jest funkcją charakterystyczną
pewnego rozkładu prawdopodobieństwa wtedy i tylko wtedy, gdy jest ciągła,
dodatnio określona i <p(0 ) = 1 .
D o w ó d . Łatwo udowodnić konieczność warunku. Jeśli <p jest funkcją cha­
rakterystyczną zmiennej losowej X , to mamy
2
£
<p(tk - ti)zkzi =
£
£<łtkXe it,x zkzi = £ £
eitkXzk
>o.
k<n
Dowód dostateczności odłożymy na koniec rozdziału (par. 9.3). ■
Zajmiemy się teraz kwestią istnienia pochodnych funkcji charakterystycz­
nych, co umożliwi następnie operowanie wzorem Taylora.
§ 9.1. Definicja i przykłady
193
T w ierdzen ie 7. Jeśli £|X)n < oo, n £ N , to n-ta pochodna funkcji cha(n)
rakterystycznej ipK
x
istnieje i jest jednostajnie ciągła, a ponadto
<pP( 0) = in£ X n.
D o w ó d . Pokażemy, że
OO
/
(is)nelts ¡ix {ds ),
•OO
co natychmiast daje <¿>^(0) = in£ X n.
Istotnie, dla n = 0 otrzymujemy definicję funkcji charakterystycznej. Przy­
puśćmy teraz, że powyższy wzór jest prawdziwy dla n = k. Udowodnimy
jego prawdziwość dla n = k + 1. Niech £|.X'|*:+1 < oo (wtedy również
£ 1X 1* < oo):
(fc -i-i)/_ ,. <P x \ t + h)
W - lim
-
<px
oo
/
/
<Px\t)
—
__pplis
its
ti(t+ h ,)s _
J ia)*-------- h-------- ^x (d s)
oo
ihs _ 1
(is) e,is-----------n x(d s)
-cc
= Jf —C.
/
.
h
(•is)kzits lim eh—*0
--
h
p.x{ds)
OO
{ia)k+1^ u fiX {d8)
•oo
Wejście z granicą pod znak całki jest poprawne, bo na mocy elementarnej
nierówności: |eJt —1 |^ |i| funkcje podcałkowe są wspólnie ograniczone przez
funkcję |.s|fc+1, całkowalną z założenia.
Jednostajną ciągłość pochodnych udowodnimy podobnie, jak jednostajną
ciągłość samej funkcji w tw. 3 (iv):
|
+ h ) ~ V^ (t)| = |£[(tX)»(e<fc* - l)e «* H ^ £ (| X P \eihX - 1 |) =
= S(h),
gdzie S(h) —>0 dla h —>0. ■
Żeby sformułować krótko wniosek z twierdzenia 7, wprowadzimy następu­
jące oznaczenia: o(x) będzie oznaczać dowolną funkcję zmiennej x , dla któ­
rej lim ^ o (o (x )/x ) = 0 ; z kolei 0 ( x ) będzie oznaczać taką funkcję, dla
której ułamek 0 ( x ) j x jest ograniczony w pewnym otoczeniu zera.
Jak zauważył
Littlewood,
sina; = 0 ( x ),
niekoniecznie
0(a:) = sin®.
Rozdział 9. Funkcje charakterystyczne
194
W n io s e k 8 . Jeśli £\X\n < co, to
v x ( t ) = Y / £ x k - {^ f + ° ( n k~0
D o w ó d . Wystarczy przedstawić resztę w rozwinięciu Taylora funkcji <fx
w otoczeniu zera jako
[ip^ {tet) ~ v P m ~
+ ^
) (0 )2 >
gdzie 0 < 8t < 1- Z ciągłości n-tej pochodnej wynika, że pierwszy wyraz da
się zapisać jako o(tn). m
Jeśli na przykład £ X = 0 i X>2X = 1, to funkcja charakterystyczna zmiennej
losowej X daje się zapisać w otoczeniu zera jako 1 — 1 t2 + o(t2). Wykorzy­
stamy ten fakt później, w dowodzie centralnego twierdzenia granicznego.
Zajmiemy się teraz zachowaniem funkcji charakterystycznych przy prostych
operacjach na zmiennych losowych. Po pierwsze, mamy
Ten wzór nie jest
opatrzony tytułem
T w ie r d z e n ie ,
więc na pewno
zostanie
zignorowany.
<fiaX+b{t) = elłb<px(at)-
(2)
Jest to bezpośredni wniosek z definicji funkcji charakterystycznej.
Po drugie — i jest to kluczowa własność funkcji charakterystycznych —
zachodzi:
T w ierd zen ie 9. Jeśli X , Y są niezależnymi zmiennymi losowymi, to
<Px+y{t) = <Px(t)<pY (t).
D o w ó d , ip x + y ( t ) = £eIt(x+y) = £ e u x zltY — £ e ltx £ e ltY = <px {t)ipY{t)Przedostatnia równość wynika stąd, że dla niezależnych zmiennych loso­
wych U — eztX i V — eltY mamy £ U V = £ U £ V (por. zad. Ib). ■
Nie należy jednak sądzić, że jeśli funkcja charakterystyczna sumy zmien­
nych losowych jest równa iloczynowi ich funkcji charakterystycznych, to
zmienne losowe są niezależne. Odpowiedni przykład zawiera zad. 8 . Żeby
otrzymać kryterium niezależności, trzeba użyć wielowymiarowych funkcji
charakterystycznych, o których będzie mowa dalej.
Jest jasne, że słaba zbieżność rozkładów pociąga za sobą zbieżność punk­
tową odpowiednich funkcji charakterystycznych: część rzeczywista i urojona
funkcji f t (x) = eltx są przecież dla każdego t ciągłe i ograniczone. Odwró­
cenie tego twierdzenia — twierdzenie Lévy’ego-Craméra o ciągłości — jest
także prawdziwe, ale dowód zajmie nam resztę tego rozdziału.
F
§9.1. Definicja i przykłady
195
Bez kłopotu da się natomiast zobaczyć, że funkcja charakterystyczna wy­
znacza jednoznacznie rozkład. Nietrudno to zrozumieć intuicyjnie: jeśli dla
każdego i e R
OO
pOO
eUx n(dx) = .
e!te v(dx) =
/
•oo
J —OO
to dla wielomianów trygonometrycznych postaci w(x) =
mamy
OO
/>oo
w(x) ¡i(dx) = /
w (x)v (d x ).
/
-oo
cn^mx
«/ —OO
Jak wiadomo ze znanego z analizy twierdzenia Stone’a-Weierstrassa, ta­
kimi wielomianami można przybliżać jednostajnie wszystkie funkcje ciągłe
/ o okresie 27t. Zamiana zmiennych daje to samo dla okresu 2K , co już
wystarczy. Zatem
T w ierdzen ie 10. Jeśli rozkłady prawdopodobieństwa fi i u na (R , S (R ))
mają równe funkcje charakterystyczne, czyli ip^t) =
dła wszystkich
t e R , to /j. = v.
D o w ó d . Jeśli teza nie zachodzi, to zgodnie z tw. 8.2.2 dla pewnej funkcji
ciągłej i ograniczonej / mamy | / ^ f dp, -
f dv\ > 5 > 0. Z drugiej
strony, dla każdego K > 1 istnieje funkcja //<■ o następujących własnościach
(patrz rysunek):
1- f ( x ) = f K {x) dla * e [ - K + 1, K - 1],
2. f K ( ~ K ) = f K (K ) = 0.
3. Na przedziałach [—ii, —K + 1] i [K — 1, K ] funkcja f u jest liniowa.
4. f x jest okresowa, o okresie 2K .
Jasne jest, że przy K —>oo mamy zbieżność punktową f x do / , a ponieważ
supx6R \fK(x)\ < M = sup^ft j/(a:)|, z twierdzenia Lebesgue’a o zbieżno­
ści zmajoryzowanej dla dostatecznie dużych
/‘CO
/«o
i
/
J —OO
fa d fiJ —c
Rozdział 9. Funkcje charakterystyczne
196
Ostatnia nierówność nie może jednak zachodzić, bo istnieje wielomian try­
gonometryczny w, dla którego
/
oo
/»oo
ftcdfj, —
-OO
£
wdfj, < -
I p oo
i
/
^
J — OO
ęo o
/tid is ~
\J—OO
w di/
J —o o
a jak wiemy,
/
OO
/*'
wd/j, =
-OO
Zadania
I
wdu. ■
J—
X. a) Gdy i? jest zmienną losową o wartościach zespolonych, to
£Z=
j ZdP,
Ja
gdy Z jest całkowalne, tzn. gdy f n \Z\ dP < oo. Udowodnić, że gdy Z =
= X + i Y , gdzie X , Y są zmiennymi losowymi o wartościach rzeczywistych,
to SZ istnieje wtedy i tylko wtedy, gdy £ X i £ Y istnieją; w takim przypadku
£ Z = £ X + i£Y .
b) W dowodzie twierdzenia 9 prześliznęliśmy się gładko nad faktem, że
zmienne losowe U i V mają wartości zespolone. Wypełnić lukę i wykazać,
że £U V = £U £V .
2. Zmienne losowe X , Y , XJ, V są niezależne i mają rozkład Af (0 , 1). Obliczyć
funkcje charakterystyczne zmiennych losowych:
a) X Y ; b) X 2; c) X/Y\ d) ± ( X 2 - Y 2); e) X Y + UV,
3. Obliczyć funkcję charakterystyczną rozkładu x 2(ra)•
Funkcje charakterystyczne rozkładów arytmetycznych. W tabeli 1 poda­
jemy funkcje charakterystyczne poznanych dotąd rozkładów dyskretnych. Mają
one pewną wspólną cechę — patrz zadania.
Tabela 1. Funkcje charakterystyczne rozkładów dyskretnych.
Rozkład
Jednopunktowy (Sa)
Funkcja charakterystyczna
e«o
Dwupunktowy (p6a + qSb, p 4- q = 1, p, q ^ 0)
Geometryczny
Bernoulliego (z parametrami n, p; q = 1 —p)
Poissona (z parametrem A)
4. Obliczyć funkcje charakterystyczne podane w tabeli.
p e ita + q e itb
P°U
1-q e “
(peu + g ) n
9.1. Definicja i przykłady
197
Zwróćmy uwagę, że wszystkie podane tu funkcje są okresowe, a ponadto dla każ­
dej z nich istnieje takie s ^ 0, że |i/5(s)| = 1. Nie jest to przypadek. Rozkłady:
geometryczny, Bernoulliego i Poissona są rozkładami arytmetycznymi, czyli skon­
centrowanymi na zbiorze punktów postaci kh, gdzie k jest całkowite. Rozkład
jednopunktowy i dwupunktowy są przesuniętymi rozkładami tego typu.
5. Udowodnić, że dla funkcji charakterystycznej <p lozkładu fi następujące wa­
runki są równoważne:
(i) <p(s) = 1 dla pewnego s ^ 0;
(ii) ip ma okres s;
(iii) rozkład fi jest skupiony na zbiorze punktów postaci 2irk/s, k 6 Z.
6 . Udowodnić, że jeśli ip jest funkcją charakterystyczną rozkładu fi, to zachodzi
jedna z trzech możliwości:
(i) \if>(t)\ < 1 dla wszystkich t / 0;
(ii) |^(s)| = 1 i |<^(i)| < 1 dla wszystkich t 6 (0,s). Wtedy \<p\ ma okres s,
i rozkład fi jest skupiony na zbiorze punktów postaci b + 2irk /s, k 6 Z.
(iii) \<p(t)\ = 1 dla wszystkich i 6 R. Wtedy ip(t) = e‘tb i ¡i jest skupiony
w punkcie b.
Funkcje charakterystyczne rozkładów ciągłych. Interesujące, że gęstość
i funkcja charakterystyczna zmiennej losowej o rozkładzie A/"(0,1) różnią się tylko
czynnikiem stałym. Jest jeszcze druga podobna para, gdzie gęstość i funkcja cha­
rakterystyczna różnią się parametrem skali.
Tabela 2. Funkcje charakterystyczne rozkładów ciągłych.
Rozkład
Normalny, M
Gęstość
Funkcja charakterystyczna
{ 0 ,1 )
Jednostajny U ( 0 , a )
Jednostajny U ( —a , a )
Trójkątny
^
' l[-a .,a }(x )
¿ ( l - ^ l l - a ,^ )
1 1—cosax
7r
Wykładniczy z par. A > 0
(1
-
^ )l[-a ,a ]W
A
A—it
łp-l*l
1
l+ F 7
2
i .
1„
7T l+®2
Cauchy’ego
Cosinus hiperboliczny
ax'z
Xe~Xxl [0lOO)(x)
Dwustronny wykładniczy
Gamma
eia t- l
iat
sin at
at
O1—cos ot
a2t2 "'
S • l[o,<.l(®)
e -l‘ l
ba „a—1_—bx-|
ffa j^
e
1
7TCOsłkX
MO-*,)
(1 - $ ) 1
coshi7ri/2)
7. a) Obliczyć funkcje charakterystyczne rozkładów wymienionych w tabeli.
W przypadku rozkładów Cauchy’ego i cosinusa hiperbolicznego można to
zrobić techniką residuów (rozwiązania w dodatku D). Funkcję charaktery­
styczną rozkładu normalnego można obliczyć inaczej niż w przykładzie 2.
b) Wyznaczyć funkcję charakterystyczną rozkładu jV (m, er2) .
Rozdział 9. Funkcje charakterystyczne
198
8 . Gęstość rozkładu wektora losowego (X , V ) dana jest wzorem
g!x y \ = / j ( l + xy(x 2 — y2))
1^0
dla |i| < 1, \y\ < 1,
w p.p.
Wykazać, że X i Y są zależne, a mimo to ipx+Y = <Px -<Py - W razie kłopotów
rachunkowych — znaleźć prostszy przykład takiego zjawiska.
9. Zbadać, czy następujące funkcje są funkcjami charakterystycznymi i jeśli tak,
wyznaczyć odpowiedni rozkład:
a) cos i; b) cos2 i; c) i ( l + eił)2; d) ± ± fŁ i; e) (2 - e “ ) - 1.
10. Wykazać, że jeśli <p\, ..., ipn są funkcjami charakterystycznymi, a
= 1,
Pi > 0, i — 1, 2, ... n, to również kombinacja wypukła ^ p u p i jest funkcją
charakterystyczną.
Umowa: n
— 0-
Zmienne losowe X\, X i , . .. X n, . . . są niezależne i mają tę samą funkcję charakterystyczną (p. Zmienna losowa N jest od nich niezależna i ma rozkład
Poissona. Wyznaczyć funkcję charakterystyczną losowej sumy ")Zi<i<N Xi.
12. Wiadomo, że 1p jest funkcją charakterystyczną pewnej zmiennej losowej X
o rozkładzie fi. Czy funkcjami charakterystycznymi są:
a) <p2\b) Rey>; c) \<p\2-, d) \ip\.
13. Udowodnić, że jeśli funkcja charakterystyczna zmiennej losowej X ma drugą
pochodną w zerze, to £ X 2 < 00.
Jest to częściowe odwrócenie twierdzenia 4. Można udowodnić, że istnienie po­
chodnej rzędu 2k w zerze pociąga za sobą istnienie momentu rzędu 2k. Dla po­
chodnych rzędu nieparzystego już tak nie jest (por. zad. 14).
14. Wykazać, że rozkład o gęstości f(x ) = ( 1+ ł^)i^g(e+xż) nie ma wartości ocze­
kiwanej, ale jego funkcja charakterystyczna jest różniczkowalna w zerze.
15. Niech X przyjmuje wartości całkowite. Udowodnić, że
i /■*
/ e~ lktipx(t)dt,
27r 1
P {X = k) = —
k e Z.
16. T w ierdzenie R iem anna—Lebesgu e’ a. Udowodnić, że gdy X jest zmienną
losową o rozkładzie ciągłym, to <px(t) -* 0, gdy |i| —> 00.
§ 9.2.
Twierdzenie Levy’ego-Cramera o ciągłości
Zaczniemy od związku pomiędzy jędrnością ciągu rozkładów a zachowaniem
się ciągu funkcji charakterystycznych.
L em at 1. Jeśli fj. jest rozkładem prawdopodobieństwa z funkcją charakte­
rystyczną ip, to dla każdego u > 0 zachodzi
M([—2 /w, 2 /w]) > 1 - i
f (1 -ip ( s ) ) d s .
U J —U
(
( 1)
199
§9.2. Twierdzenie Levy’ego-Cramera o ciągłości
D o w ó d . Mamy
-i
1
p il
— /
pOO
(1 — <p(s)) ds = -
u J —u
pu
/
/
(1 — elsx) dsn(dx) =
u J —oo J —u
(
>2 i
J
sinwaA
l Kdx) + 2 f
( —oo, —2 /u ) "
J (2 / u ,oo)
l Kdx) =
"
= n ( ( -o o , —2 /u ) U (2 /«, oo)),
skąd natychmiast wynika ( 1). ■
T w ierdzen ie 2. Niech (fin) będzie ciągiem rozkładów prawdopodobieństwa
na (R ,S (R ). Jeśli ciąg ( ipn) funkcji charakterystycznych tych rozkładów jest
zbieżny punktowo do funkcji <p, ciągłej w zerze, to ciąg (fj,n) jest jędrny.
D o w ó d . Ustalmy e > 0 i wybierzmy u, dla którego
ljjl-< P (°))d s ś l.
Istnienie takiego u wynika z ciągłości funkcji (p w zerze: w dostatecznie
małym otoczeniu zera wszystkie wartości funkcji podcałkowej będą bliskie
zeru, a zatem i ich średnia.
Teraz dla dostatecznie dużych n z założenia i z twierdzenia Lebesgue’a o
zbieżności zmajoryzowanej mamy
1
~
w
fu
(1 “ <Pn{s))ds ^ e,
J -u
wobec tego dla dostatecznie dużych n na mocy lematu 1
Hn( [ - 2 /u ,2 /u ] ^ 1 - e,
co kończy dowód twierdzenia. ■
Ukoronowaniem tego rozdziału jest
T w ierdzen ie 3 (L evy ’ego—C ram era). Niech (/.tn) będzie ciągiem roz­
kładów prawdopodobieństwa na (R, B (R )) i niech ( ipn) będzie ciągiem ich
funkcji charakterystycznych. Jeśli p n(t ) —>ip(t) dla wszystkich t e R i funk­
cja (p jest ciągła w zerze, to ip jest funkcją charakterystyczną pewnego roz­
kładu p, i Hn
fi.
D o w ó d . Składa się z następujących kroków:
Rozdział 9. Funkcje charakterystyczne
200
1. Funkcja ip jest ciągła w zerze, rodzina rozkładów (/in) jest zatem
jędrna (tw. 9.2.2) i zawiera podciąg (/i nk) słabo zbieżny do pewnego
rozkładu /i (tw. 8.3.5). Jest to kandydat na rozkład graniczny.
2. Teraz tpnk —■•
— funkcji charakterystycznej rozkładu /x; ale z za­
łożenia ipp — ip.
sł
3. Pozostaje wykazać, że cały ciąg fj,n — > ¡i. W tym celu wybierzmy
dowolny podciąg (pnk)- Jak poprzednio, z jędrności wynika istnie­
nie podciągu zbieżnego (finkl). Ale ciąg funkcji charakterystycznych
(Vnkl) jest zbieżny do ip = ip^, a ponieważ funkcja charakterystyczna
wyznacza jednoznacznie rozkład (tw. 9.1.10), rozkładem granicznym
tego podciągu jest fi. Na mocy twierdzenia 8.2.5 cały ciąg jest słabo
zbieżny do fi. m
Zadania
1. Udowodnić, że jeśli X n mają rozkład Poissona z parametrem An, An —>A > 0,
to X n — > X , gdzie X ma rozkład Poissona z parametrem A.
2 . Udowodnić, że jeśli X n
X , an —>a, bn —» 6, to anX n + bn
a X + b.
3. Wykazać, że jeśli X n
Xo, Yn
Yo, X n, Yn są niezależne, n — 0 ,1 ,2 ,...,
to X n + Yn — * Xo + Yo. Czy założenie o niezależności jest istotne?
4. P (X n = k/n) — l/n 2, k = 1 ,2 ,...,n2. Udowodnić, że nie istnieje zmienna
losowa X taka, że X n
X.
Problem Haara. Wiadomo, że X —
Un/ 2 n, gdzie ([/„)„ jest ciągiem
Bernoulliego (patrz 5.8.10 i zad. 5.8.9), ma rozkład jednostajny. Natomiast pełne
rozwiązanie poniższego zadania dość długo nie było znane.
f5. Zbadać, dla jakich a 6 (0,1) zmienna losowa X a =
anUn ma rozkład
ciągły.
6 . Rzucamy monetą, dla której prawdopodobieństwo wypadnięcia orła jest rów­
ne p. Niech X będzie liczbą rzutów potrzebnych do uzyskania n orłów. Zna­
leźć rozkład graniczny zmiennych losowych 2X p, gdy p —>0.
*7. Korzystając z tego, że
/
OO
V=i
\
/
OO
'
V=i
\
'
udowodnić, że splot dwu rozkładów singularnych może być rozkładem cią­
głym.
Charakteryzacja rozkładu normalnego. Poniższy lemat wymaga zaawan­
sowanej teorii funkcji analitycznych1. Przypomnijmy, że funkcją całkowitą nazy­
wamy funkcję analityczną określoną na całej płaszczyźnie zespolonej. Dla prostoty
1Niezbędne informacje, w tym twierdzenie Hadamarda o faktoryzacji, można znaleźć
np. w: F. Leja, Teoria funkcji analitycznych, Warszawa 1957.
§9.2. Twierdzenie Levy’ego-Cramera o ciągłości
201
sformułowań umówmy się, że rozkład jednopunktowy zaliczamy do normalnych
(co do rozszerzenia definicji patrz §9.4).
Lem at 4. Jeśli dla pewnego a > 0 jest £eaX < oo, to funkcja charakterystyczna
zmiennej losowej X , <px, jest całkowita.
Jeśli ponadto tpx (z) ^ 0 dla wszystkich z e C, to X ma rozkład normalny.
D o w ó d . Z nierówności
\zx\ ^ a2 x 2 + a~ 2 \z\2 ,
z e C ,a ,iE R ,
wynika, że £el*x jest dobrze określona dla wszystkich z e C. Ponadto
\<fx{z)\ ^ e“ 2|*|2/(a ),
co oznacza, że ipx jest funkcją całkowitą rzędu ^ 2; jeśli nie ma zer, musi być
postaci e~az /2+'bzt gdzie a,b 6 C. Ale <px jest funkcją charakterystyczną, więc
na mocy tw. 9.1.7 itp'x (0) = £ X , -¡p'x(0) = V 2X , zatem b e R i a > 0, a to
oznacza, że X ma rozkład normalny. ■
Z tego lematu wynika, że zmienna losowa o rozkładzie normalnym nie daje się
rozłożyć na sumę niezależnych składników inaczej, niż w trywialny sposób.
*8 . Tw ierdzenie Cram era. Wykazać, że jeśli zmienna losowa X o rozkładzie
normalnym jest sumą dwóch niezależnych zmiennych losowych Y i Z, to obie
te zmienne mają rozkłady normalne.
9. Udowodnić, że funkcja ip(x) =
nie jest funkcją charakterystyczną.
D ru g a charakteryzacja rozkładu norm alnego. Podamy bez dowodu2 nastę­
pujące
T w ierdzenie 5. Niech zmienne losowe X , Y będą niezależne i niech
XJ =
a X + bY,
V = cX + dY.
Jeśli U i V są niezależne, to wszystkie cztery zmienne mają rozkład normalny,
chyba że przekształcenie definiujące U i V jest trywialne, tj. albo U = aX , V =
= dY, albo U = bY, V = cX.
Twierdzenie to stanowi punkt wyjścia do definicji zmiennej losowej gaussowskiej
tam, gdzie nie da się zdefiniować gęstości względem naturalnej miary, na przykład
w przestrzeniach Banacha o wymiarze nieskończonym albo na grupach. Jeśli X
jest zmienną losową, a X i, X 2 — jej niezależnymi kopiami, to X jest gaussowska
wtedy i tylko wtedy, gdy X i + X 2 i X\ —X 2 są niezależne. Żeby taka definicja
miała sens, wystarczy samo dodawanie!
2[FEL], t. XI, tw. XV.8.2.
Rozdział 9. Funkcje charakterystyczne
202
R o zk ła d y stabilne. Z podstawowych własności funkcji charakterystycznych wy­
nika, że jeśli X , X i, X 2, . .. są niezależnymi zmiennymi losowymi o tym samym
rozkładzie Cauchy’ego (z funkcją charakterystyczną e- ^ ), to
X i + X 2 + ... +
~ nX,
(2)
czyli rozkład sumy różni się od rozkładu pojedynczego składnika tylko parame­
trem skali. Innym znanym rozkładem o tej własności jest A/"(0,1). Wtedy
X i + X 2 + . . . + X n ~ nl/2 X.
(3)
W rozdziale 13, poświęconym procesowi Wienera, można znaleźć jeszcze inny
przykład: dodatnia zmienna losowa o dystrybuancie 2(1 — $ ( 1 /t/x)) dla x ^ 0,
gdzie $ jest dystrybuantą rozkładu A f (0,1). We wzorach (2) i (3) pojawia się
wtedy czynnik n2.
Są to przykłady rozkładów stabilnych. Rzut oka na funkcje charakterystyczne
rozkładu Cauchy’ego i rozkładu Af (0,1) może podsunąć pomysł, że gdyby dało
się udowodnić, że e- ^ jest funkcją charakterystyczną (powiedzmy, dla a ^ 0),
mielibyśmy całą klasę symetrycznych rozkładów stabilnych, przy czym we wzorze
(3) pojawiłaby się stała n1/r“ .
Aż tak dobrze nie jest. Oto zadanie na ten temat.
10. Udowodnić, że ip(t) — e- ^'
nie jest funkcją charakterystyczną dla a > 2.
Nietrudno wykazać, że <p(t) = e - ^
jest funkcją charakterystyczną dla 0 < a ^ 1:
11. Udowodnić, że każda funkcja <p parzysta, przedziałami liniowa, wypukła na
[0, oo) i taka, że <¿>(0) = 1 jest funkcją charakterystyczną.
12. K ry teriu m P ólya. Udowodnić, że każda funkcja tp parzysta, wypukła na
[0, oo) i taka, że <p(0) = 1 jest funkcją charakterystyczną. Wykazać, że
w szczególności ip(t) = e- ^ jest funkcją charakterystyczną dla 0 < a ^ 1.
13. Podać przykład dwu różnych funkcji charakterystycznych, równych na pew­
nym przedziale.
Nieco trudniej udowodnić, że <p(t) = e ~ ^ jest funkcją charakterystyczną dla
wszystkich a € (0,2). Poniżej przedstawiamy argument wzięty z rozważań astro­
nomicznych, ale zredukowany do sytuacji jednowymiarowej. Załóżmy, że uogól­
niona siła grawitacji jest odwrotnie proporcjonalna do odległości w potędze /3,
0 > 0.
14. Na odcinek [—n, n] rzucono losowo (zgodnie z rozkładem jednostajnym) n
gwiazd o jednostkowych masach. Wyznaczyć funkcję charakterystyczną gra­
nicznego rozkładu siły grawitacji w punkcie 0. Dla jakich ¡3 rozkład graniczny
istnieje?
Podamy teraz ogólną definicję rozkładu stabilnego.
D efinicja 6 . Niech X ,X \ ,X 2, ■■■ będą niezależnymi zmiennymi losowymi o tym
samym rozkładzie \l. Rozkład ¡i nazywamy stabilnym, gdy dla każdego n istnieją
stałe an > 0 i bn, dla których
X i H- X 2 - { - . . . + X n ^ anX + bn.
§9.3. Twierdzenie Bochnera i wzory na odwrócenie
203
Jeśli b„ = 0 dla każdego n, to rozkład nazywamy ściśle stabilnym. Jeśli rozkład
stabilny jest symetryczny, to jest ściśle stabilny, ale nie na odwrót (por. trzeci
z przytoczonych tu przykładów).
Okazuje się, że dla danego rozkładu stabilnego stałe an są postaci n1/a, gdzie
a 6 (0,2]. Wtedy rozkład nazywamy a-stabilnym.
Po co badać rozkłady stabilne? One i tylko one mogą się pojawiać jako rozkłady
graniczne unormowanych sum niezależnych zmiennych losowych o tym samym
rozkładzie, czyli wyrażeń postaci
X\ -f- . .. + X n —bn
an
Z takimi sumami mieliśmy już do czynienia w prawach wielkich liczb, gdzie jed­
nak rozkład graniczny jest trywialny. Z nietrywialnym rozkładem granicznym
będziemy mieli do czynienia wkrótce.
Teoria rozkładów stabilnych została zapoczątkowana przez Paula Levy’ego (1924)
i istotnie rozwinięta przez Aleksandra Chinczyna i W. Doeblina3 (1939).
R o z k ła d y graniczne unorm owanych sum. Za pomocą funkcji charaktery­
stycznych można otrzymać prosty dowód jednej z wersji prawa wielkich liczb
i centralnego twierdzenia granicznego (w całej ogólności udowodnimy je w na­
stępnym rozdziale).
15. P ra w o wielkich liczb Chinczyna. Udowodnić
T w ierdzenie 7. Niech X ,X \ ,X 2, ... będą niezależnymi zmiennymi loso­
wymi o tym samym rozkładzie i niech EX = 0. Wtedy
+ ... + Xn
n
p^
16. C en tralne tw ierdzenie graniczne. Udowodnić
T w ierdzen ie 8. Niech X ,X i , X 2, ... będą niezależnymi zmiennymi loso­
wymi o tym samym, rozkładzie, niech £ X = 0 i T>2X — 1. Wtedy
x 1+ . + X n ^
( 0^
y/Tl
17. Korzystając z twierdzenia 8 udowodnić twierdzenie de Moivre’a-Laplace’a.
§ 9.3.
Twierdzenie Bochnera i wzory na odwrócenie
Widzieliśmy już, że z funkcji charakterystycznej można odczytać momenty
rozkładu, więc łatwo uwierzyć, że dałoby się odczytać dystrybuantę (i gę­
stość, jeśli istnieje). Do tego cełu służą wzory na odwrócenie. Za ich pomocą
dokończymy dowód twierdzenia Bochnera (9.1.6).
3Matematyk belgijski, zginął młodo w czasie II W ojny Światowej.
Rozdział 9. Funkcje charakterystyczne
204
T w ierdzen ie 1 (T ożsa m ość P arsevala). Niech tp i ip będą funkcjami
To nie jest tytuł
powieści
Ludluma.
charakterystycznymi rozkładów prawdopodobieństwa fi i v . Wtedy
/
oo
r oo
/
e ~ i3t<p(s)v(ds) =
( 1)
ip(x — t) fi(dx).
J —oo
•oo
D o w ó d . Wystarczy scałkować obie strony oczywistej równości
/
OO
-OO
względem miary u i zamienić kolejność całkowania po prawej stronie. ■
Wyznaczymy teraz dystrybuantę za pom ocą funkcji charakterystycznej.
T w ierdzen ie 2. Jeśli u jest punktem ciągłości dystrybuanty F o funkcji
charakterystycznej ip, to
F (u) = lim
i"
U - ( X e - isV (s )e - s2/2“ 2 ds
“- “ 7-00 L2ir 7-oo
dt.
D o w ó d . Niech fi będzie rozkładem prawdopodobieństwa z dystrybuantą
F i funkcją charakterystyczną ip. Dalej, oznaczmy przez 7 a, a > O, gęstość
rozkładu M (O, a2) , a przez ipa — jego funkcję charakterystyczną. Mamy
$ a (t)
7o ( * ) = ~ 7 i ( - ) .
a
\a /
y/2n
=
■71 {at).
( 2)
Tożsamość Parsevala (1) przybiera postać
/
poo
oo
e~isi<p(s)ya(s) ds = /
(3)
ipa( x - t ) f i ( d x ) ,
J —o o
-oo
co po uwzględnieniu zależności ( 2 ) daje
/
°°
1
/s\
f°°
^
'tt/
J —OO
e ~ zstip(s)~ 7 i ( - ) ds = V 2 tt /
-C O
71 (a(x - i)) fi(dx),
(4)
czyli
1
—
r°°
/
•?
r°°
e~lsV (s )e _s2/2a d s = /
J —00
(5)
7 1/a(x - 1) fi(dx).
—00
Po prawej stronie rozpoznajemy gęstość splotu fi * 7 i / a, zatem lewa strona
także jest gęstością tego rozkładu. Oznaczmy jego dystrybuantę przez F a.
sł
•
Oczywiście przy a —» 00 mamy fi * 71 / a — >fi, zatem w punktach ciągłości
dystrybuanty F jest
U
P i
/'O O
/
-00
/
L27T
e - isV ( s ) e - s2/ 2a2 ds
dt.
(6 )
§ 9.3. Twierdzenie Bochnera i wzory na odwrócenie
205
Wyznaczyliśmy zatem F za pomocą funkcji charakterystycznej tp. ■
Otrzymujemy natychmiast znany już wniosek: funkcja charakterystyczna
wyznacza jednoznacznie rozkład.
Twierdzenie 3 (O odwrotnym przekształceniu Fouriera). Rozkład
prawdopodobieństwa /i, który ma całkowalną funkcję charakterystyczną <p,
ma także ograniczoną i ciągłą gęstość f , daną wzorem
f(x)=2nj
1
SXV
>(s)ds-
r°°
61
(7)
D o w ó d . Ponieważ funkcje podcałkowe we wzorze (6 ) są wspólnie ograni­
czone (co do modułu) przez całkowalną funkcję \<p\, można wejść z granicą
pod znak całki. Widać wtedy, że / jest gęstością rozkładu prawdopodobień­
stwa fJ,. Ciągłość i ograniczoność funkcji / są oczywiste (por. tw. 9.1.3). *
W niosek 4. Nieujemna funkcja charakterystyczna tp jest całkowalna wtedy
i tylko wtedy, gdy gęstość f jest ograniczona.
D o w ó d . Konieczność warunku została już udowodniona w poprzednim
twierdzeniu. Załóżmy więc, że / ^ M . Ze wzoru (5) po podstawieniu t = 0
otrzymujemy
1
—
Z*00
J
g
<p(s)e~s2/2a
ds = j
/*00
7 l/a (ar)/(ar)dar < M.
Funkcja podcałkowa po lewej stronie jest nieujemna, i gdyby tp nie była
całkowalna, lewa strona zmierzałaby do nieskończoności przy o —» o o . ■
Twierdzenie 5 (Tożsamość Plancherela). Jeżeli rozkład prawdopodo­
bieństwa ¡i ma gęstość f i funkcję charakterystyczną tp, to \<p\2 jest całko­
walna wtedy i tylko ¡wtedy, gdy f 2 jest całkowalna. W tym przypadku
/
OO
-i
fO O
f 2( y ) d y = — J
\<p{t)\2 dt.
( 8)
D o w ó d . Zauważmy, że \tp\2 jest funkcją charakterystyczną symetryzacji
rozkładu /1, tj. rozkładu [¿*¡1, gdzie p.{A) = n {—A ) dla A € B ( R ). Gęstością
tego rozkładu jest splot h — f * f , gdzie f (x ) = / ( —ar):
/
OO
f ( y - x ) f (y ) dy.
(9)
-oo
Jeśli funkcja \tp\2 jest całkowalna, to h jest na mocy tw. 3 ciągła i ograni­
czona, zaś wzór (7) po podstawieniu ar = 0 daje (8 ).
Rozdział 9. Funkcje charakterystyczne
206
Na odwrót, jeśli f 2 jest całkowalna, to z nierówności Schwarza zastosowanej
do (9) wynika, że h jest ograniczona. W tedy na mocy wniosku 4 funkcja
\ip\2 jest całkowalna. ■
W n iosek 6 . Jeśli f i g są gęstościami, a ip i tp — ich funkcjami charakte­
rystycznymi, to f 2 i g 2 są całkowalne wtedy i tylko wtedy, gdy są całkowalne
|ip|2 i |^|2. W takim przypadku mamy
/
OO
-i
rO O
}{y)g{y)dy = ^ J
________
(10)
<p(t)f(t) dt.
D o w ó d . Wystarczy zastosować twierdzenie 5 do gęstości ( / + g ) / 2. ■
Możemy teraz podać dowód dostateczności w twierdzeniu Bochnera (tw.
9.1.6).
D o w ó d . Z ciągłości ip wynika istnienie, a z dodatniej określoności — nieujemność poniższych całek:
fn {x) =
f
[
2nn J0 Jo
e~ łX(u~ v)cp(u - v) dvdu ^ 0 .
Zamieniając zmienne na u, t = u — v, otrzymujemy
f n(x) = ±
e~itx ( l - M )
dt.
(U)
Pokażemy, że f n jest gęstością rozkładu prawdopodobieństwa pewnej zmien­
nej losowej (oznaczmy ją X n) o funkcji charakterystycznej
<Pn{t) = ^1 - ^ < p ( i ) l [ _ nin](i).
W tym celu wykorzystamy funkcje
$ «(*) = £ ( l - ^ ) ![-« ,.] (*),
czyli gęstości rozkładów prawdopodobieństwa o funkcjach charakterystycz­
nych f a{t) =
(tabela 2 , §9.1).
Pomnożymy teraz obie strony równości (11) przez if)a(x)ezux i po scałkowaniu względem x otrzymamy
207
§ 9.3. Twierdzenie Bochnera i wzory na odwrócenie
Wzór na odwrócenie (7) zastosowany do prawej strony (12) dla pary funkcji
9a, i>a daje
/
CO
/»CO
/
fn(x)tpa(x)e‘ux dx =
ga(t - u)ipn(t) dt.
(13)
J —oo
-co
Jeśli podstawimy w (13) u = 0 i weźmiemy a —>0, otrzymamy
f
J —C
f n{x)d x = <£n(0 ) = 1 ,
zatem f n jest gęstością.
Jeśli a —>0, lewa strona (13) zmierza (na mocy tw. Lebesgue’a o zbieżności
zmajoryzowanej) do funkcji charakterystycznej rozkładu prawdopodobień­
stwa o gęstości f n. Prawa strona jest wartością oczekiwaną <pn względem
rozkładu prawdopodobieństwa o gęstości ga(t — u). Ponieważ rozkładem
granicznym jest Sn, wprost z definicji słabej zbieżności wynika, że prawa
strona zmierza do (pn(u )■ Zatem ipn jest funkcją charakterystyczną odpo­
wiadającą f n.
Udowodnimy teraz jędrność ciągu rozkładów o gęstościach f n. Z tożsamości
Plancherela (10) mamy
/
OO
2
9 a {x )fn {x )d x -
—
fO O
/
dt,
^ J — oo
-OO
czyli
Ponieważ
i r°°
i
/
il>a( t ) d t = 27T J _ co
Oj
—
(tw. 3 o odwrotnym przekształceniu Fouriera dla x = 0), to dla ustalonego
h > O z postaci ipa(t) mamy ^ J ^ > h '4’a{t) dt —» 0 , gdy a —> oo (z twier­
dzenia Lebesgue’a) i ^ J ^ < h ipa(t) dt —> 1. Zatem gdy a —> oo, to prawa
strona (14) zmierza do 1 (jednostajnie względem n). Stąd dla dowolnego
e > 0,
P {\X n\ sj K ) = j
f n( x ) d x > J ^
( l - ^
f n{ x ) d x > l - £
dla dostatecznie dużych K . Wobec tego (X n)n jest rodziną jędrną, można
zatem wybrać podciąg X nk zbieżny do pewnej zmiennej losowej X , dlatego
te
M = ^71 f\ 1 ~ —
')^ ’(i ) 1[-n,n](i) = <p(t)
Tl j
jest funkcją charakterystyczną. ■
Rozdział 9. Funkcje charakterystyczne
208
Zadania
1. Wykazać, że dla rozkładu prawdopodobieństwa f.t o funkcji charakterystycz­
nej <f zachodzi wzór
fi({c}) =
f
lim
a —i-oo Zd I
e~2CS<p(s)ds.
j —a
2. Wyznaczyć
lim 57 I/
a —»oo Z a
Rozkład
bezatomowy to
inaczej rozkład o
ciągłej
dystrybuancie.
|¥>(s)|2 c£s,
J —a
gdzie ip jest funkcją charakterystyczną rozkładu ¡x.
3. Wykazać, że rozkład prawdopodobieństwa p, o funkcji charakterystycznej ip
jest bezatomowy wtedy i tylko wtedy, gdy
im
2a J/ —a
|<^(s)|2 ds = 0 .
f4. Twierdzenie Sheppa. X i Y są niezależnymi zmiennymi losowymi o tym
samym rozkładzie i zerowej średniej. Wykazać, że
£\X + Y\ > £ \ X - Y \ .
§ 9.4.
Wielowymiarowe funkcje charakterystyczne
Jeśli X jest wektorem losowym, zdefiniujemy funkcję charakterystyczną
i
Nie chce mi się p x ■R n —> C wzorem
tego pisać.
B. Linda
<px(t) = £ e ^ ’x \
t e R n.
Odpowiednie twierdzenia dowodzi się metodami takimi, jak w przypadku
jednowymiarowym. Pozostawiamy to Czytelnikowi jako ćwiczenie.
Zwróćmy uwagę, że jeśli X = ( X x , . . . X n) i t = (ij, O,. . . 0), to
<px(t) = ip x ^ h ).
Z wielowymiarowej funkcji charakterystycznej można zatem bez trudu od­
czytać informacje o rozkładach brzegowych jedno- i wielowymiarowych.
Z definicji widać także, że funkcja charakterystyczna wektora losowego X
jest wyznaczona jednoznacznie przez rozkłady zmiennych losowych ( t ,X ) ,
gdzie t € R n. Wraz z twierdzeniem o jednoznaczności daje to godny uwagi
wynik, nie do uzyskania — o ile nam wiadomo — bez transformacji Fo­
uriera: miara probabilistyczna na R n jest wyznaczona jednoznacznie przez
miary półprzestrzeni.
Odpowiednik wzoru (9.1.2) przybiera postać
<PAX+b(.s) = el(s'b^ipx (A ts),
gdzie b € R n, zaś A :R " —> R n jest odwzorowaniem liniowym. Wykorzy­
stamy ten wzór w poniższym przykładzie.
§ 9.4. Wielowymiarowe funkcje charakterystyczne
;
209
P rz y k ła d 1. Obliczymy funkcję charakterystyczną n-wymiarowego roz­
kładu normalnego. Zaczniemy od zmiennej losowej Y = (Y i,. . . Yn) o standardowym rozkładzie N (0 , 1). Mamy
V Y (t) = £ e i^
+ - +t^
= e -4 £ * ? = e-i<*-‘ >.
Jeśli X = A Y , gdzie A : R " —> R n jest odwzorowaniem liniowym, to
<px(s) = e” ^ '4<s,Als) = e ~ i ( AA‘ 3,s) = e ~ i( Qs's\
gdzie Q jest macierzą kowariancji (por. §5.6 i §5.10).
|
Wreszcie dla najogólniejszego rozkładu normalnego, czyli rozkładu zmien­
nej losowej X = A Y + m , m € R ", mamy
(1)
ipx(t) = ei<m’t)e - ^ Qi’tK
Postać tego wyrażenia można było zresztą przewidzieć na podstawie zna­
jomości jednowymiarowej funkcji charakterystycznej. ■
i
|
i
Postać funkcji charakterystycznej wielowymiarowego rozkładu normalnego
sugeruje naturalną modyfikację jego definicji. Na razie macierz Q musi być
dodatnio określona. Zauważmy jednak, że jeśli Q jest nieujemnie określona,
:
Q e = Q + e l , to macierze Q e są dodatnio określone dla s > 0. Z kolei bio­
|
i
S
|
|
rąc £ —> 0 widzimy, że rozkład o funkcji charakterystycznej danej wzorem
(1) jest granicą rozkładów normalnych. Jeśli macierz Q nie jest dodatnio
określona, taki rozkład jest skupiony na podprzestrzeni niższego wymiaru
i rozpatrywany na tej podprzestrzeni ma tam gęstość gaussowską (z wyjątkiem skrajnego przypadku rozkładu jednopunktowego). Od tej chwili więc
rozkład normalny definiujemy jako rozkład o funkcji charakterystycznej danej wzorem (1), gdzie macierz Q jest nieujemnie określona.
i
I
Sformułujemy teraz kryterium niezależności zmiennych losowych.
;
i
T w ierd zen ie 2. Zmienne losowe X i , . . . X n są niezależne wtedy i tylko jest normalny!
wtedy, gdy
[
<P(X1,...,Xn) { t l , • • - , t n ) = < P X i ( t l ) ■ ■■■■ <PXn { t n ) -
i
D o w ó d . Warunek jest oczywiście konieczny, dostateczność wynika z twier­
dzenia o jednoznaczności, bowiem produkt rozkładów jiXl , ■ ■ ■ , ma
funkcję charakterystyczną
.. . tn) =
■■■■■ V x n{tn)-
!
\
Poniższe twierdzenie pozwala sprowadzać badanie zbieżności w R* do ba­
dania zbieżności w przypadku jednowymiarowym.
T w ierd zen ie 3 (C ram era—W old a ). Jeżeli X , X \ , X 2 , ■■■ są wektorami
\
losowymi o wartościach w H k, to X n
;
{ t ,X n}
i
i
(t , X } dla każdego t e R fc.
X
wtedy i tylko wtedy, gdy
Teraz rozkład
jednopunktowy
Rozdział 9. Funkcje charakterystyczne
210
D o w ó d . Konieczność jest oczywista, bo funkcje cos (i, •), sin (i, •) są ciągłe
i ograniczone.
Dostateczność. Gdy ( t ,X n) -^+ ( t ,X ) , to z definicji słabej zbieżności
£et m
^ £ e i(t,x)t
czyli dla każdego t mamy <pxn{t) —*■'<Px{t), zatem z tw. Levy’ego-Cramera
Xn ^ X .m
Zadania
1. Twierdzenie Kaca. Wykazać, że jeśli X , Y są ograniczonymi zmiennymi
losowymi spełniającymi warunek £ ( X kY l) = £ X k£ Y l dla k,l całkowitych
nieujemnych, to X i Y są niezależne.
Uwaga. W świetle tw. 2 jest oczywiste, że zmienne losowe X i Y są nieza­
leżne wtedy i tylko wtedy, gdy £ (<p(X)ip(Y)) = £<p(X)£i/>(Y) dla wszystkich
funkcji ciągłych i ograniczonych ip, ij) (wynik ten daje się oczywiście otrzymać
i bez funkcji charakterystycznych). Twierdzenie Kaca pozwala na zawężenie
rozpatrywanej klasy funkcji. Jeśli Y = 1a , kryterium niezależności jest jesz­
cze prostsze: wystarczy, by £ (<£>(X)1a) = £<p(X) ■P(A). Wykorzystamy to
w dowodzie tw. Dynkina-Hunta (13.4.1).
Pożytki z funkcji charakterystycznych doskonale ilustruje następne zadanie, za­
wierające stosunkowo prosty dowód niezależności przyrostów procesu Poissona.
*2. Udowodnić, korzystając z twierdzenia 2, że proces Poissona (patrz przykład
5.8.21) jest procesem o przyrostach niezależnych i że Nt —N 3 ma rozkład
Poissona z parametrem A(t —s).
Wsk. Udowodnić
Lemat 4. Niech h: R-|_ —>C będzie funkcją mierzalną, |/i| ^ 1, i taką, że h — 1
ma nośnik ograniczony. Wówczas Y —
określoną, całkowalną i
h(Sk) jest zmienną losową dobrze
£ Y = eXJ r (h<-u)- 1)du
Wiemy, że Nt =
l[o,t)(Sfc)- Niech dla B e B( R)
CO
1B ( S k ) = # { k > 1: Sk £ B } .
N (B ) =
k=l
Wykazać
|■|oznacza tu
miarę Lebesgue’a.
Stwierdzenie 5. Jeśli B i ,B 2, . . . , B „ 6 £5(R+) są rozłącznymi zbiorami ogra­
niczonymi, takimi, że \Bj\ > 0, to N ( B i ) , . . . , N ( B n) są niezależne i zmienne
losowe N ( B i) mają rozkład Pois(A|Si|).
Rozdział 10
Centralne twierdzenie
graniczne
§10.1.
W prowadzenie
W zadaniu 9.2.16 udowodniliśmy najprostszą wersję centralnego twierdze­
nia granicznego dla niezależnych zmiennych losowych o tym samym rozkła­
dzie. Teraz udowodnimy znacznie ogólniejsze twierdzenie tego typu. Mówi
ono mniej więcej tyle, że suma dużej liczby niezależnych składników o skoń­
czonej wariancji, gdzie żaden składnik nie dominuje, ma w przybliżeniu
rozkład normalny.
Tłumaczyłoby to wszechobecność rozkładu normalnego w zadaniach „z ży­
cia” . Można rozsądnie argumentować, że wzrost, waga, iloraz inteligencji
i inne mierzalne cechy osobnicze, zależne od wielu czynników genetycznych
i środowiskowych, powinny mieć rozkład zbliżony do normalnego1. Argu­
menty takie są jednak często nadużywane2.
W dalszym ciągu będziemy rozpatrywać tablice zmiennych losowych po­
staci ( X ntkn), gdzie kn —* oo, n = 1 ,2 ,__ Założymy, że zmienne losowe
w każdym wierszu, czyli X n<i, X n,i , ••., X n^ n są niezależne. Taką tablicę
nazwiemy schematem serii. Dla wygody przyjmiemy kn = n. Wszystkie
twierdzenia i rozumowania z tego rozdziału pozostają w mocy dla ogólniej­
szych schematów serii po oczywistych modyfikacjach.
Znaną już wersję centralnego twierdzenia granicznego można sformułować w
języku schematów serii. Jeśli ( X n) jest ciągiem niezależnych zmiennych loso­
wych o tym samym rozkładzie i wariancji a2, definiujemy X H)k = X k /a y /n
dla k ^ n. Mamy wtedy £ X n^ = 0, Y?k=i
^ a ponadto wszystkie
1Albo do logarytmicznie-normalnego. Zmienna losowa X ma taki rozkład, gdy log X
ma rozkład normalny. Czasami bowiem wpływ niezależnych czynników na daną cechę
może mieć charakter multiplikatywny, nie addytywny.
2Jak zauważył Stanisław Kwapień, w zastosowaniach statystycznych zarówno śred­
nica jabłka, jak i jego waga miewają rozkład normalny. Co mógłby odpowiedzieć na to
statystyk?
211
Nieujemna
zmienna losowa
nie może mieć
rozkładu
normalnego.
212
Rozdział 10. Centralne twierdzenie graniczne
zmienne losowe w wierszu mają ten sam rozkład (a więc żaden składnik nie
dominuje; por. zad. 2). W tedy rozkładem granicznym dla sum elementów
wierszy jest rozkład normalny.
Postulat, by żaden składnik nie dominował, będzie wyrażony za pomocą
następującego warunku:
Powiemy, że schemat serii { X ntk) spełnia warunek Lindeberga, jeśli dla
każdego r > 0
1
L n {r ) =
~2
n
sn fc=i
{ ( X n ,k ~ £ X n<k)
l { | X „ ifc- £ X „ ii | > r s „ } )
> 0,
gdzie s 2 = £]fc=i V 2( X n<k)- Zastępując zmienne losowe X n>k przez
Xn,k
Sji
}
widzimy, że bez straty ogólności możemy zakładać, iż £ X nj c = 0 , s* = 1 .
Taki schemat serii nazwiemy znormalizowanym.
U w aga 1 . Gdy znormalizowany schemat serii spełnia warunek Lindeberga,
to
a) na wariancję sumy wiersza mają wpływ wszystkie wariancje składników:
maxfc^n
- » 0 , gdy n - * oo.
Istotnie, o * tk < r 2 + £ [ x l k l{|x„,fc|>r}) < r 2 + Ln(r);
b) X 7l)ic są asymptotycznie małe, czyli dla dowolnego r > 0
m a xP (\ X ntk\ > r ) -------►0 .
k^n
n—*oo
Na zakończenie warto zwrócić uwagę, że nie zakładamy nic o związkach po­
między poszczególnymi wierszami: zmienne losowe z każdego wiersza mogą
być określone na osobnej przestrzeni probabilistycznej.
Następujące twierdzenie rozstrzyga kwestię dokładności przybliżenia w central­
nym twierdzeniu granicznym, o ile założymy istnienie trzeciego momentu.
Twierdzenie 2 (Berry—Esseen). Jeśli (X n) jest ciągiem niezależnych zmien­
nych losowych o tym samym rozkładzie i £\Xi\3 < oo, Sn = X L + ... + X n,
sup
igR
*
(1)
a = V V TX ł, 1/V % k sj C < 0,8.
Bez dodatkowych założeń o zmiennych losowych rzędu oszacowania nie można po­
prawić. Dla schematu Bernoulliego prawa strona (1) jest równa C(p2 + q2)/ ^/npq,
z czego wynika tw. 7.6.12. Prosty przykład (oparty na podobnym ciągu zmiennych
losowych) pokazuje, że C ^ l /\ /2 i i rząd oszacowania 1/y /n nie da się polepszyć.
§ 10.2. Twierdzenie Lindeberga-Levy’ego
213
Przykład 3. Niech ([/„) będzie ciągiem Bernoulliego. Wtedy z symetrii wynika,
że
p[Y^Uk<0)+p[YlUh=0)=
2
1’
zatem
I.
2
=
2n
2
y /m i
____ L
y /2 n
y /n '
Zadania
1 . Udowodnić uwagę 1 b).
2 . Sprawdzić, że jeśli Ji,
X 2, ... są niezależnymi zmiennymi losowymi o tym
samym rozkładzie, £ X = 0 , V ‘2X = 1, i X n,k = Xk/y/n, to schemat serii
(X nth) spełnia warunek Lindeberga.
3. Udowodnić, że warunek Lagunowa: dla wszystkich n, k naturalnych i dla
pewnego 5 > 0 jest £ |X„,fc|2+i < oo oraz
n
lim
n—
»oo -st,L Y
n
£ \X " * - £ X *,k\2+S = 0 ,
k=1
pociąga za sobą warunek Lindeberga.
4. Udowodnić, że gdy X i, X 2, ... są niezależnymi zmiennymi losowymi takimi,
że \Xn\ ^ K < oo, n — 1,2,... oraz s2 = X)ł=i
~> °°> to
(-^n)
spełnia warunek Lindeberga (oznacza to, że warunek ten jest spełniony dla
schematu serii (X n,k), gdzie X nik = Xh dla fc ^ n).
§ 10.2.
Twierdzenie Lindeberga-Levy’ego
Poniższe twierdzenie zostało udowodnione przez J. W . Lindeberga w 1922
roku, jako uogólnienie wielu częściowych wyników.
T w ierd zen ie 1 . Niech (X n,fc) będzie znormalizowanym schematem serii.
Jeśli spełnia on warunek Lindeberga, czyli dla każdego r > 0
n
n1™ o E f X n,fcl{|X„,fc| > r}= 0.
k- 1
to
¿ X n,fc- ^ j V ( 0 , l ) .
k= 1
P(Un = ±1)
= 1/ 2 .
Rozdział 10. Centralne twierdzenie graniczne
214
W dowodzie skorzystamy z dwóch nierówności. Pierwsza jest oczywista:
le1 - 1 - x | <
x2,
a : e [- |,|].
(1)
Oto druga (łatwy dowód indukcyjny pomijamy): niech a x, . . . , an, bi . . . bn 6
€ C i |aj|, \bi\ < 1 dla i = 1, 2,.. .n . Wtedy
|ai ■... - an - 6i •... •bn\ < |«i - 6i| + . . . + \an - bn \.
( 2)
D o w ó d twierdzenia 1. Ustalmy t € R . Niech Z n = 5Dfc= 1 X n]Jt, ipntk =
^
<PXn ,k , &n,k
£ X n,k‘
Wykażemy, że ipzn( t ) -------*■e_t ^2, czyli do funkcji charakterystycznej rozn —*■oo
kładu A f (0 , 1). Niezależność zmiennych losowych w każdym wierszu daje
V z A t) =
II ^ { t ) ,
k-1
a zatem na mocy nierówności ( 2)
I <pzn(t)
~ e i2 /2 l =
k= 1
k=l
W yraz itXn^
można swobodnie
dopisać, b o ma
średnią zero.
*=i
= £ |f { * itXn'k - 1 - a * » .* + K * « , * ) + 1 fe=i
fc=l
< £
|£ ( e 4« - -
- 1 -
itXn,k +
| i2X 2,fc) ¡ + ¿ 1 1 - i i 2<
fc= l
”
<
fc - e ~ < * i2/ 2 |
fc= 1
P n ( t ) “t- ^ n (i)*
Wykażemy, że oba wyrażenia po prawej stronie zmierzają do zera, gdy
n —» oo.
Aby oszacować pn(i), sumę wartości bezwzględnych całek rozbijemy na dwie
sumy: całek po zbiorze {\ X „tk\ < r } i {|^n,fc| > r }. Na mocy nierówności
A.1.4(c) pierwsza suma szacuje się przez
Y ^ 5 li3X n,fcl1{l^u,tKr}
[¿I3 - A 2 _ |i|3
^
6
< 6 r 2 ^ an , k - ~ ^ r .
k= 1
k~l
Do oszacowania drugiej sumy posłużymy się nierównością A.1.4(b) zasto­
sowaną do £ (euXn-k — 1 — it X nik). Cała druga suma nie przekracza wtedy
n
^
^'^■n,k^{\Xn,k\>r}
k= 1
L n(r).
§ 10.2. Twierdzenie Lindeberga-Levy’ego
215
Zatem
ifl3
o < pn(t) < — r + t2L n(r).
O
Rutynowy argument pokazuje, że pn(t) —> 0, gdy n —> oo: ustalamy e > 0,
wybieramy r takie, że r|i|3/6 < e/2; istnieje takie N , że dla n > N zachodzi
nierówność t2L n(r) < e/2, a zatem pn(i) < £ dla n > tiq.
Pozostaje wykazać, że vn(t) —>0, gdy n —» oo. Na mocy (1) i uwagi 10.1.la
7i
n
M i) < E
< I i4(maxcr^fc) •J 2 an,k =
k=1
''rl
^ °-
fc=l
Kończy to dowód twierdzenia. ■
Warunek Lindeberga nie jest konieczny dla zbieżności rozkładów zmiennych
losowych Z n do N (0,1), co pokazuje oczywisty
P rzy k ła d 2 . Niech wszystkie zmienne losowe X n^ w schemacie serii mają
rozkłady Af ^0, cr2 ^ . Załóżmy, że pierwsza zmienna losowa w wierszu ma
rozkład Af (0, §) (pozostałe mogą mieć np. równe wariancje, byleby suma
wariancji w wierszu wynosiła 1). Wtedy warunek Lindeberga nie jest speł­
niony, ale CTG zachodzi, bo Zn ~ Af ( 0 , 1). ■
W powyższym przykładzie jeden ze składników wiersza dominuje. Jeśli to wyklu­
czymy, warunek Lindeberga okaże się konieczny.
Twierdzenie 3 (Fellera). Jeśli zmienne losowe (X n,k) tworzą znormalizowany
schemat serii i X)ł=i X n,k — >Af (0 , 1), a ponadto
maxi>2X n,k ------ >0,
k^n
n —*oo
to zmienne losowe (X Utk) spełniają warunek Lindeberga.
Dowód . Wykażemy, że równość
n
n
- J ^ lo g <Pn,k(t)
fc=1
+
=
R n (t),
(3)
k= 1
definiuje funkcje Rn(t), gdzie i?„(t) —» 0 dla n —>oo.
Z nierówności A.1.4(b) wynika, że:
|1 -
<Pn,k(t)\
=
\£ ( ¿ t X n ’k -
1-
i t X n ,k )
| ^ j£ X n ,/e -
(4)
Na mocy założenia mayikąn £ X 2 k ~“* 0, co gwarantuje istnienie logarytmów w (3).
Oszacowanie na Rn(t) dla dostatecznie dużych n wynika z równości log z =
= ( z - 1) + log(l + z - 1) - (z - 1), z A.1.2, A.1.4(b) i (4):
Rozdział 10. Centralne twierdzenie graniczne
216
| Ä » ( i) l ^
- !|2 ^ m a x ie n ,i ( i ) - 1| ■¿ I v 5 n , f c ( i ) - 1 K
fc=l
fc=x
n
2
2
^ i - •max|^„,fe(i) - 1|■y ^ £ X „ k =
2
k < n
*— J
•max|<pniłi(i) - 1|------ >0 .
Z
fc=l
n —»00
k< n
Ustalmy teraz e > 0. Lewa strona (3) zmierza do ^i2, zatem i część rzeczywista
prawej strony ma tę samą granicę. Oznacza to, że
-t2
2
(l — co stx)ßn,k(,dx) = Y ] /
I
fc=l ^|x|<£
(1 -c o s t x ) ß n,k{dx) + R eR „(t),
fc = i^ N > ®
gdzie jUn,fc jest rozkładem zmiennej losowej X,,^.
Funkcja podcałkowa po prawej stronie nie przekracza 2 < 2x2/e 2, po lewej zaś
t2x 2/ 2. Korzystając z tego i dzieląc obie strony przez |i2, otrzymujemy
1 —^ ' i
*:=i
x ß n<k{dx) Si
»
+ Ij 1-^nWI-
Prawa strona może być dowolnie mała, jeśli wziąć dostatecznie duże t i dobrać
dostatecznie duże n. Zatem i lewa strona zmierza do zera, co daje warunek Lindeberga. ■
sł
Z zad. 8.3.2 wiemy, że gdy F n — > F i F jest ciągła, to dystrybuanty F n są
zbieżne jednostajnie do F . Stąd wynika oczywisty, ale bardzo pożyteczny
wniosek, z którego korzysta się stale w typowych zadaniach:
W n io se k 4. (a) Jeśli (X n^ ) jest schematem serii spełniającym warunek
Lindeberga, m n = £ (-Xn,i + . . . + -Xn,n)> sn = 'D2 x n,i + •••+ T>2X ntn, to
$ jest
dystrybuantą
rozkładu A f(0 ,1).
0.
sup
a€R-
(5)
(b) Jeśli ( X n) jest ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie, £ X \ = m , V 2X\ = a2, to
sup F ( X 1 + .. . + X „ < a ) - $ ( — ~
' 0 \/n
a€R
■
0.
(6)
Należy podkreślić, że oszacowania (5) i (6 ) mówią o błędzie bezwzględnym
przybliżenia; nie ma gwarancji, że błąd względny zmierza do zera.
Przykład 5. W § 7.4 pokazaliśmy jak obliczać całki za pomocą metody Monte
Carlo. W tym i w wielu innych przykładach wykorzystuje się mocne prawo wiel­
kich liczb, a więc fakt, że dla mezależnych zmiennych losowych o jednakowym
rozkładzie
i —>£ X i. Ale jak szybko jest zbieżny ten ciąg?
§ 10.2. Twierdzenie Lindeberga-Levy’ego
217
Dla danych a, i £ możemy wyznaczyć z centralnego twierdzenia granicznego takie
no, by dla n > no zachodziło
P (j A; " "n ' A" -£X1\źe) ś<*.
Zwykle bierzemy e i a bliskie 0. Oto rozumowanie, prowadzące do znalezienia noPonieważ
_ £ X l \< e) = * ( ^ ) - $ ( - ^ )
P
= 2*
- l>
to chcemy, by 2(1 —^(e^/n/a)) ^ a, czyli ^(e^/n/a) ^ 1 — (a /2). Znajdujemy
takie ¡3, że $(/?) = 1 —[ a / 2). Z monotoniczności <3? mamy e^/n /a ^ /5, a stąd
n > / ? V / e 2.
Gdy nie znamy <r2, to chcąc skorzystać z tego wzoru powinniśmy znać ograniczenie
cr2 ^ K . W szczególności, gdy zmienne losowe Xi liczą, czy zaszło zdarzenie A
w i-tym doświadczeniu (czyli Xi = 1, gdy zaszło zdarzenie A, X t = 0, gdy nie
zaszło), to £ X i = P(A) i T>2X i = P(A)(1 —P(A)) ^ 1/4, zatem
ti>/3 2/4£2. ■
Zadania
1 . Józio założył się z Olkiem, że w 100 rzutach kostką uzyska w sumie nie mniej
niż 400 oczek i w tym celu rozpoczął ćwiczenia. Ile serii po 100 rzutów musi
średnio wykonać, żeby doczekać się takiego wyniku?
2. Na poczcie pojawia się 100 klientów dziennie, każdy z nich dokonuje wpłaty
(lub wypłaty) X i, i = 1,2,...,100, gdzie X i są niezależnymi zmiennymi
losowymi o tym samym rozkładzie, zerowej średniej i wariancji równej 1002.
Ile gotówki należy mieć w kasie rano, by z prawdopodobieństwem 0,99 na
koniec dnia nie zabrakło pieniędzy? Zakładamy, że w ciągu dnia ewentualne
braki uzupełnia ze swojej kieszeni naczelnik, ale wieczorem chce odzyskać
swoje pieniądze.
Jak zmieni się odpowiedź, gdy jest 100 urzędów pocztowych, pracujących w A jeśli naczelnik
nie chce
tych samych warunkach i mogących pożyczać sobie nawzajem gotówkę?
ryzykować? Do tej
3. Rzucono 1000 razy kostką. Znaleźć przybliżenie prawdopodobieństwa, że sytuacji pasuje
suma oczek będzie zawarta między 3410 a 3590.
nierówność
4. Dane są niezależne zmienne losowe o tym samym rozkładzie X , X i , X z , ... 7.3.1(2).
i £ X = 0, 0 < cr2 = V 2X < oo. Wyznaczyć w zależności od a, a € R
lim P
> a
5. W Polsce jest 24,6 min podatników (dane z roku 1998) i każdy z nich myli się
przy wypełnianiu zeznania podatkowego. Wartość błędu dla i-tego podatnika
jest zmienną losową X i, gdzie £ X i = 0 i V 2X i = 10000, czyli %/Z>2Xi = 100
(złotych); ponadto zakładamy niezależność X z. Jaka jest szansa, że straty
państwa w wyniku tych błędów przekroczą 1 grosz na podatnika? A 3 grosze?
Rozdział 10. Centralne twierdzenie graniczne
218
6 . Jaś i Staś twierdzą, że posiadają zdolności telekinetyczne: Jaś rzucił 100 razy
kostką i uzyskał 490 oczek, natomiast Staś w 100 rzutach monetą otrzymał
65 orłów. Który z nich ma większe zdolności telekinetyczne? Przedyskutować
odpowiednie kryterium.
7. Ile partii gry w kości musiał rozegrać kawaler de Mere, żeby zorientować się
w różnicy szans zajścia zdarzeń opisanych w zadaniu 2.2.18, i mieć rozsądną
pewność, że wynik jest statystycznie znaczący, czyli że ewentualna różnica
częstości nie jest dziełem przypadku? Tego rodzaju problem jest typowy dla
statystyki; należy wymyślić i przedyskutować test statystyczny.
8 . Zmienne losowe X i, X 2, ..., są niezależne i P(Xk = k) = P ( X k = —k) = i.
Niech s\ =
'D2X k■ Zbadać zbieżność według rozkładu ciągu
X x + ... + X,
9. Zmienne losowe X\, X 2, ..., są niezależne i mają rozkłady U (—a,k,ük)- Niech
s^, =
1'D2Xk- Zbadać zbieżność według rozkładu ciągu
X 1 + . ■. + X n
sn
jeśli a) ciąg (ak) jest ograniczony i s n —>oo; b) jeśli ~}2ak < °°Kiedy spełniony jest warunek Lindeberga?
10. Zmienne losowe X i, X 2, ..., są niezależne i symetryczne,
P ( X k = 1) = P (X k = - 1) = i ( l - fc“ 2),
P { X k = k) = P (X k = - k ) = \k~2.
Zbadać zbieżność według rozkładu ciągu ( Sn/ y/n ), gdzie Sn = X i + . . . + X n.
Co można powiedzieć o wariancjach zmiennych losowych Sn/^/n?
11. Zmienna losowa X\ ma rozkład Poissona z parametrem A. Zbadać zbieżność
według rozkładu zmiennych losowych (Xa —\ )/y /\ dla A —» oo.
*12. Udowodnić, że
k—l
13. Zmienna losowa X n ma rozkład x 2(n)- Wykazać, że
14. Zmienne losowe X i, X 2, . . . są niezależne, mają ten sam rozkład i S X i = Ó,
V 2X i = 1. Wykazać, że
§ 10.2. Twierdzenie Lindeberga-Levy’ego
219
*15. Oznaczmy przez Sn liczbę inwersji, a przez Z n liczbę cykli w permutacji
zbioru { 1,2,..., n}. Udowodnić, że
*
c S n ~ n
a)
j
4
D
^3/2
\r fr,
^(O .D .
16. Zmienne losowe X i są niezależne i mają ten sam rozkład: P ( X i -- a) =
= P ( X i = l/a) = 1/2, przy czym a > 1. Zbadać zbieżność według rozkładu
ciągu zmiennych losowych Zn = (Xi •. . . •X n) 1^'/^.
17. Wielowymiarowe C TG . Niech X , X i , X 2, . . . będą niezależnymi wekto­
rami losowymi o tym samym rozkładzie, przy czym £ X = 0 i współrzędne
wektora X mają skończone wariancje. Znaleźć rozkład graniczny dla ciągu
wektorów losowych
„ _ X i + ... + X n
Zin —
.—
y/n
18. W zór Stirlinga. Niech Sn = X i + . . . X n, gdzie zmienne losowe X n są
niezależne i mają rozkład Poissona z parametrem 1. Udowodnić, że
c f s n-n \
1,1
(—
- n \ ~ ^ { n - k \ nk
)
■”
N ~ ’ gdzie N
(ii)
Sn
'
y/n J
„n+1/2
e-nnnn
£N ~ =
1);
1
y/źir’
(iv) ni ~ \/2ire-n iin+1/ 2.
Przypominamy, że X ~ = —min(X, 0) oznacza część ujemną zmiennej loso­
wej.
19. Niech X będzie zmienną losową spełniającą następujące warunki:
(i) £ X 2 < oo;
(ii) Jeśli Y i Z są niezależnymi kopiami X , to X ~
Wykazać, że X ma rozkład M (0, a2) .
20. Udowodnić, że jeśli zmienne losowe X n, n — 1,2,... są niezależne o jednako­
wym rozkładzie, £ X n = 0, £X \ = <r2, / jest funkcją różniczkowalną w zerze,
to
M f ( Y n ) - /(O))
M (o, a f ( Q ) f ) ,
gdzie Yn = i ( X i + X 2 + ... + X n).
Rozdział 11
Martyngały
§11.1.
Momenty stopu
W tym rozdziale będziemy po raz pierwszy systematycznie badać zjawi­
ska rozwijające się w czasie, dlatego też wzbogacimy matematyczny model
doświadczenia losowego, czyli przestrzeń probabilistyczną (£1,3-, P ) o niemalejącą rodzinę cr-cial Tt C T . Każde takie cr-ciało Tt będziemy interpre­
tować jako rodzinę zdarzeń, o których wiadomo, czy zaszły, czy nie, jeśli
obserwować doświadczenie do chwili t.
P rz y k ła d 1. Jacek i Placek rzucają monetą. Jeśli wypadnie orzeł, Jacek
wygrywa od Placka złotówkę, w przeciwnym razie złotówkę wygrywa Pla­
cek. Gra toczy się tak długo, jak długo obaj gracze mają pieniądze. Jacek
postanawia wycofać się z gry, gdy po raz pierwszy jego wygrana wyniesie 7
zł. Notuje wobec tego swoje kolejne wygrane. Są one zmiennymi losowymi
£i, £2. 6 ■••• Łączna wygrana to X n = £ " =1
n = 1 , 2 , . . . . Przyjmijmy,
że X o = 0 .
Chwila wycofania się Jacka z gry jest także zmienną losową, którą możemy
zdefiniować tak:
t7 = m i { n :X n = 7}.
Jacek może się nie doczekać chwili, gdy wygra 7 zł. Jeśli nawet założymy, że
uzupełnia zapas gotówki pożyczkami od rodziców, to nie jest wykluczone,
że Placek chytrze podsuwa mu niesymetryczną monetę. Tak czy owak, na
ogół istnieje dodatnie prawdopodobieństwo, że ty jest nieskończona. Tego
rodzaju niewłaściwe zmienne losowe, o zbiorze wartości N u { o o } , będziemy
w dalszym ciągu rozpatrywać dosyć często. Nasza zmienna losowa 77 ma
interesującą i intuicyjnie oczywistą własność: w każdej chwili wiadomo, czy
moment 77 już nastąpił, czy nie.
Gdyby Jacek interesował się ostatnim takim momentem, w którym jego
wygrana wyniesie 7 zł, zdefiniowanym jako <77 = sup{n: X n — 7}, to nigdy
nie wiedziałby, czy taki moment już nastąpił, czy nie. ■
220
221
11.1. Momenty stopu
Jak odróżnia« zmienne losowe typu 77 od zmiennych losowych typu 0 7 ?
To istotna kwestia, bowiem 77 wygląda na dość rozsądną taktykę, podczas
gdy taktyka oparta na u7 jest tyle warta, co wskazówki „wysiądzie Pani
na przedostatnim przystanku” ; „sprzeda Pan akcje, jak ich cena osiągnie
maksimum” .
W tym właśnie celu wprowadzimy rodzinę cr-ciał (J~t)teT, gdzie f 6 T
będziemy zazwyczaj interpretować jako parametr czasowy. W tym rozdziale
zakładamy — z dwoma wyjątkami1 — że T C { 0 , 1 , 2 , . . . } = Ń , tak jak
w przykładzie 1 .
Tt jest, jak już wspomnieliśmy, cr-ciałem zdarzeń, o których można powie­
dzieć, czy zaszły, czy nie, obserwując ciąg (X s) seT do chwili t. Najczęst­
szym przykładem jest rodzina T t =
(j ( X s : s
< i).
W przykładzie 1 mamy Jo = {0 , ^ } , ponieważ X 0 = 0, więc po prostu nie
ma materiału do obserwacji.
T\ jest generowane przez rozbicie fl na zbiory
x(l) i
1). Istotnie,
w chwili 1 znamy tylko wartość zmiennej losowej
J~2 jest generowane przez rozbicie ii na zbiory
1 (ei) fi £2 1 (£2), gdzie
£i = ± 1 -
Mamy t u f 0 C f i C . . . C f „ C T n+i C . . . C f . Teraz możemy odpowie­
dzieć na pytanie, czym się różnią zmienne losowe t-j i 0 7 . Otóż dla każdego
n zdarzenie {7 7 < n } należy do c-ciała J-n, ponieważ
{7 7 < n } = {£1 = 7} U {£1 + £2 = 7} U . . . U {£1 + . . . + £„ = 7 },
a każdy ze składników sumy po prawej stronie jest elementem T n.
Natomiast {<77 < n } ^ T n, bo zdarzenie to zależy od zmiennych losowych
o numerach przekraczających n (patrz zad. 9).
Powyższy przykład stanowi uzasadnienie dla wprowadzenia następujących
definicji.
D efin ic ja 2. Filtracją nazywamy niemalejącą rodzinę o-ciał (Tt)tsT> gdzie
F t C F dla t e T.
1Pierwszy wyjątek to maityngały z czasem odwróconym, gdzie T = —Ń , drugi —
martyngal potrzebny do dowodu tw. Radona-Nikodyma, gdzie zbiór T jest tylko częściowo uporządkowany.
Rozdział 11. Martyngały
222
D efin icja 3. Rodzina zmiennych losowych ( X t ) teT jest adaptowana do fil­
tracji {F t)teT , jeśli zmienne losowe X t są Tt-mierzalne dla t € T.
W szczególności rodzina zmiennych losowych ( X t) teT jest adaptowana do
naturalnej filtracji ( J t ) t£T, gdzie T t = cr(Xs : s ^ i), t e T.
D efin icja 4 . Momentem stopu względem filtracji (J-t)teT nazywamy zmien­
ną losową t :CI —* T U {+ o o }, spełniającą warunek
{ r < i} e T t
dla wszystkich t G T.
Moment stopu nazywa się czasami momentem Markowa lub momentem
zatrzymania (ang. stopping time).
Podsumujmy: jeśli chcemy rozpatrywać zjawiska probabilistyczne rozwija­
jące się w czasie, to oprócz przestrzeni probabilistycznej
P ) uży­
teczna będzie filtracja (Jrt)ter i rodzina zmiennych losowych ( X t) t£T —
zazwyczaj adaptowana do tej filtracji. Dosyć często przyjmuje się T t =
=
s < i} , co automatycznie gwarantuje ostatni warunek. Wtedy T t
jest rodziną zdarzeń, zależnych tylko od zmiennych losowych X s dla s < t.
Zajmiemy się teraz własnościami momentów stopu.
Lem at 5. Zmienna losowa r :f i —>T U { + 00 } jest momentem stopu wzglę­
dem filtracji (F t)t€T wtedy i tylko wtedy, gdy { r = t} G T t dla każdego
t G T.
D o w ó d , { t ^ i } = U s<i sgt{ t =
skąd wynika dostateczność warunku.
Konieczność wynika natychmiast stąd, że
{t = 0 = { t < t} \ [J (r ^ «}• ■
Warto zdać sobie sprawę, ż e r = s jest momentem stopu względem dowolnej
filtracji (zad. 2). Jeśli Ti, t 2 są momentami stopu, to
Tl
A r 2 = m in (n , r2),
n V r2 = m a x (n , r2)
są momentami stopu (patrz zad. 3).
Pierwsza wizyta
nie powinna trwać
dłużej niż 48
godzin.
Bardzo często będziemy mieli do czynienia z chwilą pierwszej (drugiej, itd.)
wizyty w zbiorze borelowskim (por. T7 z przykładu 1).
§11.1. Momenty stopu
223
T w ierd zen ie 6. Jeśli ( X t)t£T jest ciągiem zmiennych losowych adapto­
wanym do filtracji (J-t)t£T, to chwila pierwszej wizyty w zbiorze B 6 B( R ),
zdefiniowana jako
tb (w )
= in f{i e T : X t(cj) € B } ,
jest momentem stopu.
Dowód pozostawiamy Czytelnikowi (zad. 4a; kwestia dalszych wizyt — 4b).
Możemy rozpatrywać klasę zdarzeń, o których wiadomo, czy zaszły, czy nie,
jeśli Obserwować doświadczenie do (losowej) chwili r. Będzie to cr-cialo T r ,
zdefiniowane jak następuje:
D efin icja 7. Jeśli r jest momentem stopu względem filtracji (T t)teT, to T t
jest klasą takich zbiorów A , że A € T i dla każdego t mamy AC\{r ^ t } E T t -
Interesujące, że zależność T t C T s dla t ^ s pozostaje w mocy, jeśli t i s
zastąpimy przez momenty stopu Ti Si t2.
T w ierd zen ie
(•?t)t€T, to
8.
Jeżeli r, ti,
t2
są momentami stopu względem filtracji
(i) T t jest a-ciałem.
(ii) Jeśli r = t, to T r = T t .
(iii) A e T t wtedy i tylko wtedy, gdy A € T i { r = i }flj4 e Tt dla każdego
t e T.
(iv) Jeśli Ti < r2, to T T1 C T n .
Dowód pozostawiamy Czytelnikowi (zadania 6-8).
I jeszcze jedno twierdzenie, dotyczące mierzalności.
T w ierd zen ie 9. Jeśli r jest momentem stopu względem filtracji (T t)teT,
zaś ( X t) — ciągiem adaptowanym do (Tt), to:
(i) Zmienna losowa r jest T r -mierzalna.
(ii) Zmienna losowa X T jest T r -mierzalna na zbiorze { r < oo}.
D o w ó d , (i) Trzeba wykazać, że dla każdego s mamy { r ^ s } € T t . Otóż
dla każdego t € T
{ t ^ i } n { r sg s} = { r < i A s} £ T tAs C T t ,
+ 00.
Rozdział 11. Martyngaiy
224
więc na m ocy definicji T t jest { r ^ s } G T t , co kończy dowód.
(ii) { X T <
s} n { r < 00} n {t ^ i} = U ^ t {{Xu < s} n {r = u})
G Tt-
■
Dalej będziemy często korzystać z następującego spostrzeżenia: jeśli ( X n)
jest ciągiem niezależnych zmiennych losowych, a r jest momentem stopu
względem naturalnej filtracji (¿Fn), gdzie T n = < r (X i,. . . , X n), to zmienne
losowe X n i l { T>n_i} (informująca, czy r nastąpił po chwili n — 1) są
niezależne, bowiem { r > n — 1} G T n~ 1.
Uogólnianie prostych i oczywistych stwierdzeń na momenty stopu prowadzi
do ciekawych wyników. Jeden z nich, z elementarnym dowodem, zamiesz­
czamy poniżej. Nieco później zostanie on udowodniony za pomocą teorii
martyngałów.
Niech Sn = X 1 + . . - + X n; załóżmy, że zmienne losowe X { , i = 1 ,2 , . . . mają
ten sam rozkład. W tedy oczywiście
(1)
£ S n = n ■£ X U
jeśli tylko £ X \ istnieje.
Nic nie stoi na przeszkodzie, by rozpatrywać sumy losowej liczby składni­
ków: jeśli N jest zmienną losową, to
S n (w) = S[f[u )(w)-
Niech teraz r będzie momentem stopu względem naturalnej filtracji (J-n).
Zastępując po lewej stronie wzoru (1) liczbę n przez r, a po prawej — przez
E t , otrzymujemy
T w ierdzen ie 10 (T ożsam ość W a ld a ). Jeśli X i , X % ,. . . są niezależnymi
zmiennymi losowymi o tym samym rozkładzie, £|-Xi| < 00 , zaś r jest
momentem stopu względem filtracji (T n )^ -i, gdzie T n = a ( X i , . . . , X „ ) ,
i £ t < 00 , to:
£St = £
t
- £ X 1.
Zwróćmy uwagę na założenie o niezależności — w wyjściowym stwierdzeniu
(1) niepotrzebne.
D o w ó d . Przyjmując So = 0, otrzymujemy
OO
OO
[1{T>J- 1}^ ] =
£St = Y , £
j= l
j~1
00
= Y , P { T > j ) - £ X i = £ T - £ X x.
j= 1
W pierwszym wierszu skorzystaliśmy ze spostrzeżenia po tw. 9 o niezależ­
ności zmiennych losowych
i X j . Równość ^2JLl P ( r ^ j ) = E t
została udowodniona w zad. 5.6.8.
§11.1. Momenty stopu
225
Wreszcie całkowalność zmiennej losowej ST wynika z nierówności
£|SV| < £ t £\X x\,
którą otrzymamy, powtarzając rozumowanie dla zmiennych losowych |Xj|
zamiast X t. m
Zadania
1. r jest momentem stopu. Czy stąd wynika, że momentem stopu jest a) r + 1;
b) t — 1? c) t 2? Rozwiązać zadanie przy założeniu, że 1) T = N, 2) X = Ń.
2. Udowodnić, że r = s jest momentem stopu względem dowolnej filtracji.
3. Niech n i T2 będą momentami stopu. Udowodnić, że n A T2 oraz n V T2 są
momentami stopu.
4. Niech r będzie momentem stopu względem filtracji ( T ) t e r i niech (X t)
będzie ciągiem zmiennych losowych adaptowanym do tej filtracji.
a) Udowodnić, że chwila pierwszej wizyty (X s) w zbiorze B 6 B(R) po chwili
r jest momentem stopu.
b) Zdefiniować moment fc-tej wizyty ( X n) w zbiorze B i udowodnić, że jest
on momentem stopu.
5. Niech (Xi) będzie ciągiem niezależnych zmiennych losowych o rozkładzie
U[ 0,1]. Niech t = inf{n: X i + . . . + X n ^ 1}. Wyznaczyć £ r .
6. Udowodnić, że a) T r jest cr-ciałem; b) jeśli r = t, to T r = Tt7. a) Wykazać, że A €
wtedy i tylko wtedy, gdy i g f i dla każdego t 6.T
mamy {r = i } n A e Tt.
b) Niech r i er będą momentami stopu. Wykazać, że każde ze zdarzeń:
{r < er}, { t > a}, { t ^ ct}, { t ^ a), { t = a},
należy jednocześnie do T t i Ta.
8. Udowodnić, że jeśli ri ^ T2, to T ri C T t2.
9. Opisać JFt , jeśli zmienne losowe X i, i = 1,2, są niezależne, P ( X i — 1) =
= P (X i = -1 ) = 1/2, Ti = <r(Xlt . . . , X i ), r = inf{n si 2: X i + ... + X n =
!}•
10. Podać przykład na to, że a(r) / T r.
11. Zmienna losowa <77 z przykładu 1 nie jest oczywiście momentem stopu,
ponieważ przyjmuje wartość —oo. Wykazać, że nie spełnia ona warunku inf 0 = +oo,
(cr7 ^ i} £ TtSUP® =
12. Jeśli ( X n) jest ciągiem Bernoulliego, zaś r — inf{n: Sn — 1}, to £ r — oo.
13. Rzucamy kostką tak długo, aż otrzymamy wszystkie oczka. Znaleźć wartość
średnią sumy wyrzuconych oczek.
Rozdział 11. Martyngały
226
§ 11.2.
Martyngały, nadmartyngały, podmartyngały
Przypomnijmy sobie grę Jacka i Placka z początku tego rozdziału. Jeśli
moneta jest symetryczna, i po pewnym czasie Jacek wygrał 10 zł, to śred­
nia wartość łącznej wygranej po następnej partii wyniesie również 10 zł,
zatem średni przyrost wygranej będzie równy zeru. Jeśli moneta jest niesy­
metryczna, średni przyrost wygranej będzie dodatni lub ujemny.
Gra może być bardziej skomplikowana: powiedzmy, że Jacek zarządza wiel­
kim funduszem powierniczym i wygrywa lub przegrywa na skutek fluktuacji
kursów papierów wartościowych. W obu sytuacjach można sobie postawić
pytanie, czy odpowiednia strategia pozwoli przechytrzyć rynek. I w obu
przypadkach narzędzi do analizy dostarcza teoria martyngałów.
Zakładamy, że mamy ustaloną przestrzeń probabilistyczną (f2, J~, P j , filtra­
cję ęp t)teT i adaptowany do niej ciąg zmiennych losowych {x t ) teT (mogą
być to wygrane Jacka w chwili t).
D efin icja 1. Rodzina ( Xt,J~t)teT, gdzie zmienne losowe X t są całkowalne
dla t e T jest
(a) martyngałem, jeśli dla s < t, s , t € T
£ ( X t \Fa) = X . ,
(b) nadmartyngalem, jeśli dla s < t, s , t 6 T
£ { X t \Fs) < X „
(c) podmartyngałem, jeśli (—X t ,J -t)teT jest nadmartyngałem.
Czasem będziemy pozwalać sobie na lekkie nadużywanie terminologii, mó­
wiąc „ciąg ( X n) jest martyngałem” , jeśli jest oczywiste, jaka filtracja wcho­
dzi w grę.
Martyngał jest grą sprawiedliwą w takim sensie, że średnia wygrana w chwili
s, gdy znany jest przebieg gry do chwili t (zdarzenia, o których wiadomo,
czy zaszły, czy nie, jeśli obserwujemy grę do chwili i, tworzą cr-ciało T t),
jest równa X t, czyli łącznej wygranej w chwili t.
Podmartyngał jest grą korzystną dla gracza, nadmartyngał — niekorzystną.
W takim razie w
definicji
martyngału
można by się
obejść bez
formalnego
wprowadzania
pojęcia
warunkowej
Warunek z punktu a) definicji można sformułować równoważnie tak: Jeśli
s, i £ T, s < t i A €
, to
[ X t d P = [ X 3 dP,
Ja
Ja
§11.2. Martyngały, nadmartyngały, podmartyngały
227
a zastępując równości odpowiednimi nierównościami, otrzymujemy warunki
równoważne (b) i (c). Warto też pamiętać, żę jeśli T = N, to np. zamiast
a) wystarczy sprawdzić, że
£ { X n+\\Fn) = X „ ,
71 =
1,2,...
lub
£ ( X n+1 - X n\Tn) = 0,
n = 1,2—
co może znacznie uprościć rachunki.
P rz y k ła d 2. Jeśli ( X n,J rn) jest martyngałem (podmartyngałem), a r mo­
mentem stopu względem (^rn)nSN, to ciąg zatrzymany:
m=1
gdzie oba składniki po prawej stronie są mierzalne względem T n
Dlatego zmienna losowa X nAr jest całkowalna, J^-mierzalna, i
więc
£ ( - ^ ( » + i ) a t — X nAr |
— l^ T>nj £ ( X n + i — X n \T n ) — 0
( > 0 ),
gdzie nierówność w nawiasie odnosi się do podmartyngału. ■
P rzy k ła d 3. Niech X n = £i + ..
gdzie & są niezależnymi zmiennymi
losowymi takimi, że
= 0, i = 1,2,... Niech T n — cr(£i,. . . , £n). Wtedy
{ X n, F n)™=0 jest martyngałem.
Istotnie, bez trudu sprawdzamy, że £ ( X n+i — X n\Jrn) = £{Ęn+i\^n) =
= ££n+i = 0. ■
P rzy k ła d 4. JeśU X jest całkowalną zmienną losową, (JFn) — filtracją
i X n = £ ( X |T n), n = 1,2,..., to (X „ , T n)^= l jest martyngałem. Martyn­
gały tej postaci nazywamy prawostronnie domkniętymi, u
P rzy k ła d 5. Niech Z n = X i ■
■X n, gdzie X { są mierzalne względem
niezależnych cr-ciał Gu £ X i = 1, zaś T n — a(Q j , . . . , Qn). W tedy (Z n,F n )
jest martyngałem.
Rozdział 11. Martyngały
228
Istotnie,
£(Zn+1 \Tn) = £(Xx ■. . . ■Xn - X n+1\Fn) = X i - . . . - X n - £{Xn+1\Fn) =
= X i - . . . - X n - £ ( x n+1) = Zn.
Kładąc P ( X n — 0) = P ( X n = 2) = | otrzymamy interesujący wniosek.
Wtedy £ Z n = 1, P ( Z n = 0) = 1 - 2~", P ( Z n = 2") = 2 ~ n . Wobec tego
P ( Z n > 0) =
2-n < oo, i z lematu Borela-Cantelliego wynika,
że z prawdopodobieństwem 1 tylko skończenie wiele wyrazów ciągu (Z n)
jest różnych od zera, więc lim ^ o o Zn = 0 p.n. Zatem
OO
(n
¿=i
\
*
/
OO
=o< i = n e x i¿=i
Nie da się wobec tego (bez dodatkowych założeń) uogólnić twierdzenia
o wartości oczekiwanej iloczynu niezależnych zmiennych losowych (5.8.15)
na nieskończenie wiele czynników. ■
W następnym przykładzie wprowadzimy bardzo ważne pojęcie transfor­
maty martyngałowej.
Transformata
martyngałowa jest P r z y k ła d 6. Niech ( X n, T n)^L0 będzie martyngałem, zaś {Vn)%L0 ciągiem
dyskretnym prognozowalnym , czyli takim, że zmienna losowa Vn jest Jrn_i-mierzalna,
analogiem całki
n = 0 , 1 , 2 , . . . (przyjmujemy T - \ = { 0 , 0 } ) . Zakładamy ponadto, że zmien­
stochastycznej.
ne losowe Vn są ograniczone i definiujemy
Z n = y0* o + V i(X i - x 0) + . . . + v „ ( x n - * „ _ ! ) .
W tedy (ZnjFn)^ o jest martyngałem.
Ciąg (Vn) jest
strategią gracza.
Wystarczy zauważyć, że
£ (Vn(Xn -
|Tn-y) = Vn - £{ Xn - X n_! |J n_i) = 0.
Ciąg (Z n) nazywa się ciągiem transformowanym z (X n ) przez ( Vn ) albo
transformatą martyngałową.
i
Sytuacja ta ma następującą interpretację: niech ( X n) oznacza łączną wy­
graną Jacka do chwili n. Grę obserwuje Wacek, który stawia na Jacka
w ra-tej partii Vn złotych (jego decyzja zależy od historii gry do chwili
n — 1, stąd warunek prognozowalności Vn) i wygrywa Vn( X n — X n- i ) zło­
tych. Wacek uważa (czy słusznie?), że może przechytrzyć los, choć wygrane
Jacka tworzą martyngał. ■
Warto zauważyć, że martyngał zatrzymany ( X nAr) jest przykładem trans­
formaty martyngałowej: ciąg prognozowalny ( Vn) jest zdefiniowany wzorem
Vn = l {T>n_ i } , n = 1, 2, . . . ; patrz przykład 2.
§ 11.2. Martyngaly, nadmartyngaiy, podmartyngaty
229
P rz y k ła d 7. Niech (Yrl)5f=1 będzie ciągiem niezależnych zmiennych loso­
wych o tym samym rozkładzie, P (Y n = 1) = p = 1 — P (Y n — —1); jeśli
Yn = 1, to uznajemy, że w n-tej kolejce wygraliśmy. Rozpatrzmy grę ze spe­
cjalnym sposobem obstawiania. Najpierw stawiamy 1, potem podwajamy
stawkę, gdy przegrywamy, zaś wycofujemy się z gry, gdy wygramy po raz Taką m etodę gry
pierwszy. Ponieważ na pewno kiedyś wygramy, jest to doskonały sposób na znał już
Casanova.
wygranie. Czy rzeczywiście?
Stawkę w grze definiujemy formalnie tak: W i = 1, a dla n > 1
Wn = h n- 1
n
\0
gdy Yi = - 1 , . . . , Y „_i = - 1 ,
w p. p.
(W n) jest ciągiem prognozowalnym. Kapitał w grze jest znów przykładem
transformaty martyngałowej i wyraża się wzorem
n
=
k=1
WkY‘* =
+ W « Y«-
Dla p = | mamy do czynienia z martyngałem, dla p > | z podmartyngałem.
Gdy Fi = —1, . . . , Y n = —1, to gracz przegrał
n
Xn = ~ ( ^ 2 i_1) = —(2n —1),
i= 1
gdy ponadto Yn + 1 = 1, to
X n+1 = X n + W n+1 ■1 = - { 2 n - 1) + 2" = 1.
Niech r = inf{n > 1: X n = 1}. Jeśli p = |, to P ( t — n) = ( 5 )", a ponadto
P ( t < 00 ) = 1, S r = 2, S X T = 1.
Zatem nawet w grze „sprawiedliwej” istnieje taka strategia gry, że w skoń­
czonym czasie (z prawdopodobieństwem 1) gracz wygra 1, £ X r > £ X \ = 0.
Choć średni czas oczekiwania na wygraną jest równy 2, nie jest ograniczony
z góry. Dlatego pewnym sukcesu można być jedynie mając nieograniczony
kapitał. Ale wtedy po co grać? ■
Dla martyngału £ X n = £X \ . Okazuje się, że w typowych sytuacjach (por.
twierdzenie Dooba poniżej) mamy £ X r = £X \ , gdy podstawimy zamiast n
moment stopu t. Nie zawsze tak jest, co właśnie widać z przykładu 7.
Teraz podamy drugi przykład interesującego uogólnienia dość banalnego
stwierdzenia: Jeśli (X n,Jrn) n^ Qjest nadmartyngałem, zaś a < 6 — ustalo­
nymi liczbami, to
( ( X a, F a) , ( X b, F b))
jest też nadmartyngałem. Jeśli zamiast a i b wstawimy (ograniczone!) mo­
menty stopu, otrzymamy niezwykle użyteczne
Rozdział 11. Martyngały
230
T w ierd zen ie 8 (D o o b a ). Niech ciąg
będzie nadmartyngałem ( martyngałem ) i niech n ^ r2 będą dwoma ograniczonymi momentami
stopu. Wtedy ciąg { X Ti,J-Ti')i_ 1 jest nadmartyngałem ( martyngałem ).
D o w ó d . Załóżmy, że T\ ^ r2 < N . Należy udowodnić, że dla A € Jrn
mamy
(1)
[ X T1 d P > [ X T2 dP.
Ja
Ja
Nierówność (1) wystarczy sprawdzić na rozłącznych „kawałeczkach” zbioru
A , wyciętych przez zbiory { n = &}, k = 0,1,2, . . . , iV. Ustalmy w takim
razie k, 0 ^ k ^ N i oznaczmy B = A fi { t i = k }. Wystarczy pokazać, że
JB X T2a m d P jest nierosnącą funkcją m, gdy k ^ m < N . Zauważmy, że
B e T k C Tm , także {r 2 > m } e f m, więc B n { t 2 > m } e T m.
Mamy teraz
f
JB
X
T2A(m+l)
—
i XT2AmdP
JB
f
=
( Xm+1 — ^im)
^ 0.
JB r \ { r 2 > m}
Równość bierze się stąd, że dla r2 < m obie zmienne losowe pokrywają
się, a jeśli r2 > m , to pierwsza z nich przybiera wartość X m+i, druga zaś
wartość X m. Nierówność wynika z definicji nadmartyngału. Zatem udowod­
niliśmy (1).
Jeśli ciąg ( X n) tworzy martyngał, to ciągi (X n) i (—X n) są nadmartyngałami, i otrzymujemy równość we wzorze (1). ■
Czasami przydaje się wzmocniona wersja twierdzenia Dooba.
T w ierd zen ie 9 (D o o b a ). Niech ( X n,J-n) będzie martyngałem, a r\ i r2
skończonymi p.n. momentami stopu, takimi, że
£\X Ti\ < oo,
liminf£ (\Xn \l{T >n}) = 0,
n —+oo
1
*
¿ = 1,2.
i = 1,2.
Wtedy 8 ( X T2 |!FT1) = X T1 na zbiorze {r 2 > Ti} P -p .n .
Gdy P ( n ^ r2) = 1, to
S { X T2\T tx) = X t1
p.n.,
czyli ciąg ( X Tl,JrT1), ( X T2,JrT2) jest martyngałem.
U w aga 10. W przykładzie 7
więc nie są spełnione założenia twierdzenia 9.
(2)
(3)
231
§11.2. Martyngały, nadmartyngały, podmartyngały
U w aga 11. Twierdzenie pozostaje prawdziwe dla podmartyngalów, jeśli
znak „ = ” w tezie zamienimy na
.
W n io se k 12. Jeśli istnieje stała K taka, że P (ri < K ) = P ( t 2 < K ) = 1,
to są spełnione założenia twierdzenia 9. Jeżeli ponadto P (rj < 72) = 1, to
eX i
=
£X n
=
£ X T2
=
£ X n.
. Wobec tego twierdzenie 9 rzeczywiście jest uogólnieniem twierdzenia 8 (Do-
oba).
W n iosek 13. Jeśli (X n) jest martyngałem ograniczonym p.n. przez stałą,
czyli \Xn\< C dla n = 1 , 2 . . . , to są spełnione założenia twierdzenia 9.
D o w ó d . \Xn \ < C , zatem £ (|Xn|l/T >n\) < C P ( n > n ) ------->0. ■
1
n —»00
W n io se k 14. Biorąc n = 1 i t2 spełniające założenia twierdzenia otrzy­
mujemy £ X T2 = £ X \ .
D o w ó d twierdzenia 9 (Dooba). Wystarczy wykazać, że dla każdego zda­
rzenia A G J-Tl
[
J A n{r2> r i }
X T2 dP =
f
X TldP.
J AC\{t2^?ti}
Ponieważ
przyjmuje wartości 1,2, . . . to wystarczy pokazać, że dla do­
wolnego n > 1
[
X T2d P =
J AC\{t2
X TldP ,
f
J AC\{t2 'źri } n
} f l { r i = 71 }
{r i= n }
tzn. dla B = A (1 {r i = n } G T n
[
X T2d P =
J B n {r2 ^ n }
f
JB
X n dP.
n {r 2 ^ n }
Ciąg ( X n) jest martyngałem, zatem:
X n dP =
[
X nd P = [
X ndP + [
J B(l{r2^n}
JBC\{r2—n}
J) B(
Bf\{T2>n}
= /
J BCi{T2 =zTt}
=
f
J Bf\łTo—n\
X nd P +
f
£ { X n+l |T n) dP =
J BC\{T2 > n }
X T2d P + f
J Bn{T2^n+l\
X n +1dP =
(4)
Rozdział 11. Martyngały
232
L
+ /
X n+i dP —
>Bn{r2>n+i}
= i
X T2 dP +
J Bn{n^T2^n+l}
...= /
J Bn{n^T2^m}
f
X n+2 dP = .. .
J Bfl{T2^n+2}
X T2d P + [
X m dP,
JBn{T2>m}
czyli
[
X T2d P = [
Xnd P - [
X m dP.
J Br\{n^.T2^m}
ij3n{r2^n}
J Bn{r 2>m}
Z twierdzenia Lebesgue’a dla m —» oo
i
X T2 dP = lim sup
i s n { r 2 ^ T i}
m —*oo
=
/
X n dP — /
X rn dP
7S n { m > T 2 > n }
J BC\{T2 >m}
f
X n d P — lim inf f
X m dP =
JBn{T2^n}
m- ° ° JBn{T2>m}
= f
X n dP.
J Bn{r2^n}
Ostatnia równość wynika z założenia (3). Udowodniliśmy zatem równość
(4 )- ■
Jako zastosowanie twierdzenia 9 udowodnimy twierdzenie, z którego można
prosto wyprowadzić tożsamość Walda 11.1.10:
T w ierdzen ie 15. Niech ( X n,Jrn)'^=1 będzie martyngałem (podmartyngalem), dla którego istnieje taka stała C , że dla n = 1, 2 , . . .
£ {\ X n + 1 - X n \\Tn) ^ C
V.n.
i niech r będzie momentem stopu, £ t < oo.
Wtedy £\XT\ < oo i £ X T = £ X x ( £ X r > £ X 1).
D o w ó d . Przyjmijmy, że X q — 0. Wtedy
OO
Xr =
— X n_ i ) l { r ^n},
n=l
zatem
OO
Y = £
\Xn - X n^ \ l {T>n},
n—l
Założenie (2) twierdzenia 9 jest spełnione, bowiem Y jest całkowalna:
Jeśli zbadać
X r /\7n można się
obejść bez tw. 9.
§11.2. Martyngaly, nadmartyngały, podmarfcyngały
S Y = Y , £ (S
“ ^ « -i| l{r > « } I
233
=
71= 1
OO
=
(£{\Xn - X n-\ \I J ^ -l) ljr^nł) ^
n~1
oo
ś ' £ , C P (t >
3)
= CSt
< oo.
3=1
Skorzystaliśmy z faktu, że zbiór { r > j } = { r < j — 1 }' należy do J y -iSprawdzimy z kolei, że spełnione jest założenie (3) twierdzenia 9. Ponieważ
{ r > n } fi { t > k} = { r > k} dla n ^ k, to
5 (|Xfc|l{T>fc}) < £ ( V \Xn - JST„_i|l{r>fc}) < £ ( n {T>fc}) ------->0.
Vn=l
)
k-*°°
Zatem limini*^«*, £ (|Xt:|l{r>fc}) = 0. ■
Przykład 16 (Zadanie o ruinie gracza). Wyłożoną w tym i poprzed­
nim paragrafie teorię zastosujemy do zadania o ruinie gracza (§ 3.2, zad. 14,
15). Zaletami takiego podejścia są prostota i ścisłość.
Przypomnijmy, że gracze mają kapitały początkowe a i b, a + b = z, a wy­
grane pierwszego gracza w kolejnych partiach są niezależnymi zmiennymi
losowymi
.. . ,£n, . . przy czym P(& = 1) = p, P(& = - 1 ) = q = 1 - p .
Zakładamy, że p, q > 0, co wyklucza trywialne przypadki „gry do jednej
bramki” . Przyjmiemy Sn = £i + .. . +
Moment ruiny pierwszego gracza definiujemy jako
Ti — in f{n :5 „ = - a } .
Jest to moment stopu, dla którego P ( ti < oo) < 1. Natomiast chwila
zakończenia gry, czyli ruiny pierwszego lub drugiego gracza, to
tr
= inf{n: Sn € { - a , b } } .
Ten moment stopu jest już skończony p.n., dlatego że z prawdopodobień­
stwem 1 pojawi się kiedyś np. kolejno a + b wygranych pierwszego gracza.
A . Prawdopodobieństwa ruiny dla obu graczy. Szukanymi prawdo­
podobieństwami są pi = P (S TR = - a ) i p2 = P {S TR = 6). W przypadku
symetrycznym (p = g = §) ciąg (Sn,cr (£ i,...,£ n))“ =1 jest martyngałem
i £ S n = 0 dla n = 1, 2 ,__ Na podstawie twierdzenia Dooba można podej­
rzewać, że £ S tr = 0, wobec tego
f -a p i + bp2 = 0
\ p i + P 2 = 1,
skąd p i = b /z , pi — a j z.
Rozdział 11. Martyngały
234
Jednak t r nie jest ograniczonym momentem stopu i nie można bezpośrednio
skorzystać z tw. 8. Ale £ S trAti = 0 dla każdego n ( t r A n jest już ograni­
czonym momentem stopu), a ponadto |SrRAn[ < max(a, b) i S TRAn ^ * S TR
przy n —> oo. Istotnie, dla każdego k £ N mamy
Prawa strona zmierza do zera, ponieważ P ( tr < oo) = 1.
Teraz z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej wynika, że
SSTR — 0, co kończy dowód dla przypadku symetrycznego.
W przypadku niesymetrycznym martyngałem jest ciąg
s,
((p)
>6*)
n—1
(zad. 5). Postępując analogicznie do poprzedniego przypadku, otrzymujemy
£ { q /p ) SrR = 1, wobec tego
(?)-> ! + (f)V 2 = 1
.Pl +P2 = 1,
skąd
pi
= ------------—
■(?)*
'
B . N iesk oń czon y kapitał. Obliczymy teraz prawdopodobieństwo ru­
iny dla gracza z kapitałem a, którego przeciwnik ma kapitał nieskończony.
Naturalnym pomysłem jest dokonanie przejścia granicznego (z —> oo) we
wzorach otrzymanych w poprzednim zadaniu. Wymaga to jednak uzasad­
nienia, które podajemy poniżej.
Niech A a oznacza zdarzenie, polegające na ruinie gracza z kapitałem a;
niech A a,z oznacza zdarzenie, polegające na tym, że zanim gracz został
zrujnowany, jego wygrana była zawsze mniejsza od z. Otóż P ( A a^z) jest
prawdopodobieństwem ruiny gracza z kapitałem a w grze z łącznym kapi­
tałem a + z, a ponadto A a jest sumą wstępującego ciągu zdarzeń A a,z ■ Z
twierdzenia o ciągłości
P (Ą ,) = P < L K . ) -
Um P (A «„) - {
Okazuje się, że przy grze sprawiedliwej lub niekorzystnej dla pierwszego
gracza szansa ruiny wynosi 1, w przeciwnym razie wynosi ona (q /p )a■
11.2. Martyngały, nadmartyngaly, podmartyngaly
235
C . K a p ita ł nieskończony: średni czas oczekiw ania na ruinę. Przy­
puśćmy teraz, że gracz z kapitałem a gra przeciwko nieskończenie bogatemu
przeciwnikowi i wygrywa pojedynczą partię z prawdopodobieństwem p < \ .
Wtedy £1 + . ■-+£n = —a, gdzie ti jest momentem ruiny pierwszego gracza.
Z tożsamości Walda mielibyśmy (jeśli tylko £ t \ < oo)
£ n ■£$x = - a ,
skąd natychmiast wynika, że £r\ =
Pozostaje wykazać, że faktycznie
< oo. W tym celu oszacujemy P (ri > n) z nierówności Bernsteina
(7.4.2). Oznaczając {7, = (& + l)/2 , mamy:
£ t\
Właściwie
korzystamy tu
z jednostronnego
oszacowania
w dowodzie
nierówności
Bernsteina.
P ( n > n) < P(£i + . . . + £ „ > - a ) =
= P (U 1 + . . . + Un > ^ ( - a + n)) =
= P (U 1 + . . . + Un > ~ a
+ n (p + ± -p )).
Dla dostatecznie dużych n mamy n(| - p) — |a > |n(| - p ) , wobec tego
prawa strona nie przekracza e-71^ - ?) / 16) stąd Y2n -P(ri > n ) < °°, czy^
(zad. 5.6.2) f ti < oo.
Wynik wygląda rozsądnie, bowiem q — p jest średnią przegraną, przypada­
jącą na jedną partię.
D . Ś redni czas oczekiw ania na wygranie 1 zł w grze sym etryczn ej.
Czas ten jest nieskończony, nawet jeśli gracz ma nieskończony kapitał. Gdy­
byśmy mieli £ r < oo, gdzie r = inf{n:£i + . . . +
= 1}, to z tożsamości
Walda wynikałoby, że
S t - £ { 1 = 1,
co jest niemożliwe, bo
= 0. ■
Zadania
1. Niech Zn będą niezależnymi zmiennymi losowymi o tym samym rozkładzie
i zerowej średniej, niech Tn = cr(Zi , . . . , Zn) i
X 0 = Z0,
TL
Xn, =
fc=l
Udowodnić, że (X n,^Fn) jest martyngałem.
2. Wyprowadzić tożsamość Walda z faktu, że (Sn ~ n £ X \, a (X i , . . .
martyngałem.
jest
236
Rozdział 11. Martyngały
3. Udowodnić następującą wersję tożsamości Walda: jeśli X i , X 2 , •. ■ są nieza­
leżnymi zmiennymi losowymi o tym samym rozkładzie, SX\ < oo, Sr < oo,
to
S ( S r - T e X ! ) 2 = £ t 'D 2 X 1.
Wsk. Założenie, że £ X n = 0 nie zmniejsza ogólności. Wtedy ciąg (5^ —n £ X 2)
jest martyngałem.
4. Udowodnić, że w symetrycznym zagadnieniu ruiny średni czas oczekiwania
na ruinę któregoś z graczy wynosi ab.
5. Niech
i = 1,2 , ... będą niezależnymi zmiennymi losowymi, P(£j = 1) = p,
P & = - 1 ) = 9 = 1 - p. Niech
Wykazać, że ciąg (Zn,T n) jest martyngałem.
i
6. Martyngal (X n, J-n)n=o jest całkowalny z kwadratem, tj. £ X „ < oo, n =
= 0 ,1 ,__ Niech
Przyrosty
martyngałowe są
czymś pośrednim
między
zmiennymi
losowymi
niezależnymi
a nieskorelowanymi.
Dn ~ X n — X n—i,
n = 1, 2,. . .
Wykazać, że zmienne losowe D n (czyli przyrosty martyngałowe) są parami
nieskorelowane.
7. Wykazać, że przy odpowiednich założeniach co do całkowalności, funkcja wy­
pukła martyngaiu (X „, T n) jest podmartyngałem; jeśli funkcja jest wypukła
i niemałej ąca, to przekształca podmartyngał ( X „ ,
) w podmartyngał.
8 . Ciąg (X n) jest martyngałem. Zbadać (zakładając w razie potrzeby odpo­
wiednie warunki całkowalności), czy są pod- lub nadmartyngałami ciągi:
a) (|Xi|p)n, P ^ 1; b) (X n A a)n; c) (X „ V a)„.
9. Jedną z możliwych strategii gracza jest zmiana rodzaju gry. W przypadku
gry sprawiedliwej nie powinno się ani zyskać, ani stracić. Przypuśćmy, że
dwóch przyjaciół rozpoczęło inwestowanie na giełdzie w tym samym czasie
i pewnego dnia okazało się, że ich portfele mają tę samą wartość. Co sądzić
o propozycji „zamieńmy się portfelami” ?
Jeśli na giełdzie panuje spokój (albo marazm, jak wolą pisać analitycy), do­
bry model sytuacji stanowią dwa martyngały: (X n, F n) i (Yn, .Fn), oraz taki
moment stopu r, że X T = Y r na zbiorze ( r < oo}. Niech
g
n
il f X n
\ Yn
dla n > t ,
dla n ^ t .
Wykazać, że wtedy (Zn,T n) jest martyngałem.
10. Udowodnić, że jeśli (X „, T n) jest martyngałem i zmienne losowe X n są jed­
nostajnie całkowalne, to spełnione są założenia tw. 9.
11. Niech (X n)n€r , gdzie T = { 0 , 1, . . . , m } lub T = Ń, będzie skończonym lub
nieskończonym ciągiem zmiennych losowych, adaptowanym do filtracji (Fn)Wykazać, że jeśli £\XT\< oo oraz £ X r = 0 dla dowolnego momentu stopu r
przyjmującego co najwyżej dwie wartości w zbiorze T, to (Xn,J 7n)n€T jest
martyngałem.
§ 11.3. Twierdzenie o zbieżności nadmartyngałów
§11.3.
237
Twierdzenie o zbieżności nadmartyngałów
T w ierd zen ie 1. Jeżeli ciąg ( X n, J:n)^L0 jest nadmartyngałem, a ponadto
supn £ X ~ < oo, to ciąg ( X n) jest zbieżny prawie na pewno do zmiennej
losowej całkowalnej.
Dowód twierdzenia opiera się na technice liczenia „przejść w górę” ciągu
liczbowego (xn) przez przedział [a,6j. Zdefiniujemy mianowicie
To = inf{re:a;n < a}
Ti = inf{n:n > ro,a;n > 6}
Tik = inf{ra: n > r2k- i , x n < a}
T2k+i = inf{n: n > r2k ,x n > 6}
Jak widać z rysunku, r2k+i jest momentem (k + l)-szego przejścia w górę
ciągu (x n) przez przedział [a,6]. U* będzie oznaczać łączną liczbę przejść
•w górę ciągu ( i „ ) , czyU
jjb df i sup{fc ^ l:T 2fc-l < oo}
°
\O
jeśli Ti < oo,
jeśli Ti = oo.
Jak się okazuje, skończona liczba przejść w górę jest (prawie) równoważna
zbieżności ciągu:
L em at 2. Ciąg liczbowy (xn)^L.0 jest zbieżny ( być może do granicy nie­
skończonej), tj. limsupa:n = liminfa;,! wtedy i tylko wtedy, gdy U% < oo
dla wszystkich par liczb wymiernych a, b takich, że a < b.
D o w ó d . Konieczność. Gdyby dla pewnej pary liczb wymiernych a < b
było U* = oo, to istniałyby takie dwa podciągi (xk„) i {x in)->
x kn < a,
xin > 6 dla n = 0 , 1,2,.... Wtedy jednak ciąg (x n) nie byłby zbieżny.
Dostateczność. Jeśli ciąg (a:n)^ =0 nie jest zbieżny, to dla pewnych a, b wy­
miernych mamy l i m in f ^ « , x n < a < b < limsupn^ oc x n; wtedy zaś
Rozdział 11. Martyngały
238
istnieją, dwa podciągi (xkn) i (si„) takie, że x kn < a i xin > b dla n =
= 0,1, 2, . . . , skąd U* = oo. ■
Jeśli ( X n) jest (skończonym lub nieskończonym) ciągiem zmiennych lo­
sowych, to określone powyżej wielkości rk i {7* są zmiennymi losowymi,
przyjmującymi być może wartość oo.
Ponadto, jeśli (-Xn) jest ciągiem adaptowanym do (T n) , to Tk są momen­
tami stopu ze względu na (jFn) (patrz zad. 11.1.4).
Lem at 3. Niech { X n,Jrn )r^=1 będzie nadmartyngalem. Wtedy dla a < b
mamy
£U b
a [m] < - i - £ { X m - a ) ' ,
o —a
Tutaj Ua[m] oznacza liczbę przejść w górę skończonego ciągu X i , . . . , X m
i jest zmienną losową.
D o w ó d lematu. Niech r'k = rk A m; rozpatrzmy teraz zmienne losowe
X r-t+i — X r^ . Możliwe są trzy przypadki:
l ° ( k + l)-sze przejście w górę zakończyło się przed chwilą m , czyli r2k < m ,
T2k+i < m . Wtedy
^ Tih+i ~ ^ Tik ~ X T2k+i ~ X T2k > b — a.
2 ° ( k + l)-sze przejście w górę nie zakończyło się całkowicie przed chwilą m ,
czyli dokładniej — r 2k < m , r2k+ i > m . Wtedy
X r 2k+1 ~~ X t L = X m ~ X r ik ^ ~ { X rn - a )
,
ww
ponieważ
—X
X m ~ X T:
x~.
0
-CI x m ~ X T2h
dla r^k = m,
dla
< m,
czyli X m —X T> jest albo zerem, albo liczba większą od X m — a; w każdym
przypadku jest nie mniejsza niż —( X m —a) .
30(fc+T)-sze przejście w górę nie rozpoczęło się przed chwilą m , tj. r2k > m
i tym bardziej r2fc+ i > m . W tedy po prostu
T2t+1 — X T>
2fc — X m
m —X m
m = 0.
X rf
Dodajemy teraz stronami otrzymane nierówności (fc = 0 , 1 , 2 , . . . , m; zwróć­
my uwagę, że liczba przejść w górę jest mniejsza niż m):
m
E ( ^ * +1 - X r ik) > { b - a )U b[m] - ( X m - a )~ .
fc=l
§11.3. Twierdzenie o zbieżności nadmartyngałów
239
Z twierdzenia Dooba wynika, że £ X T^ > S X T^
oczekiwane obu stron, otrzymujemy
, więc biorąc wartości
0 > (b - a )£ U b[m} - £ ( X m - a ) ~ ,
co kończy dowód lematu. ■
D o w ó d twierdzenia o zbieżności nadmartyngałów. Niech U^lm] oznacza
liczbę przejść w górę ciągu skończonego X i , . . . , X m. Wtedy U^[m] j U*
dla m —>oo. Z udowodnionego poprzednio lematu wynika, że
£Ub
a[m] < - i - £ (X m - a)- = J _ £ ( \X ™ ~ a\~
o~ a
o~ a \
2
^
1 c ( \ X m \ ~ X Tn , |a|+a^
<
1
-------2------- + ~ 2 - ) = ^
(C v-
+ a\ <
/
, _+ \ ^
£X m + a
< r----- (sup£X ~ + a+ ) < oo.
O ii 71
Zatem
< r —- (su p£X ~ + a +) < oo
O Cl 71
dla dowolnych liczb rzeczywistych a,b, gdzie a < b, czyli z prawdopodo­
bieństwem 1 zmienna losowa U% jest skończona dla wszystkich (naraz!)
par liczb wymiernych a,b, gdzie a < b. Wobec tego (na mocy lematu 2)
ciąg ( X n) n_ Q jest zbieżny (być może do granicy nieskończonej) z praw­
dopodobieństwem 1. Pozostaje udowodnić skończoność granicy: ponieważ
\Xn\ = X + + X ~ = X n + 2 X ~ , a { X n,Jrn)^=0 jest nadmartyngalem, to
£\X n\ = £ X n + 2 £ X ~ < £ X 0 + 2 s u p £ X - .
(1)
71
Ale (z lematu Fatou)
£ (liminf |Xn|) < liminf£|Xn|,
n —»oo
71—»oo
wobec tego lim ,,-^ X n musi być prawie wszędzie skończona i całkowalna. ■
U w aga 4. Każdy nadmartyngał nieujemny jest zbieżny.
U w aga 5. Dla nadmartyngalu warunek supn £ X ~ < oo jest równoważny
warunkowi supn £|Xn|< oo, co wynika z (1).
U w aga 6. Jeśli ( X n) jest podmartyngałem, to ponieważ (—X n) jest nadmartyngałem, warunkiem dostatecznym zbieżności jest
su p £X + <
OO,
n
na co z kolei wystarcza, by
sup£|Xn|< oo.
n
Rozdział 11. Martyngały
240
P rzy k ła d 7 (M o d e l P ó ly a ). Urna zawiera bo białych i Co czarnych kul
(bo, co Z 1). Losujemy kulę z urny, zwracamy ją i dokładamy m kul tego sa­
mego koloru. Niech bn, cn oznaczają liczbę kul białych i czarnych po n-tym
losowaniu. Definiujemy X n = cn/( b n + cn) — jest to ułamek kul czarnych
w urnie po n-tym losowaniu — i T n = o ( X o , . . . X n), n = 0,1,2, —
Okazuje się, że ( X n, JFn)^i;0 jest martyngałem. Żeby to sprawdzić, zdefi­
niujemy zmienne losowe Yn: niech Yo = 1, a dla n > 0 niech Yn = 1, jeśli
w n-tym losowaniu wyciągnięto czarną kulę, w przeciwnym razie Yn — 0.
Wtedy dla n ^ 0 mamy
Cn+l
=
C n “i“ rT lY jiĄ . l ,
frn-f-l
b n -f- 9 7 l ( l
Y n Ą .\ ),
a także
Jeśli X przyjmuje
tylko wartości 0
i 1, to
P ( X - l\F) = Dlatego
p(yB+1 = i|y0, .. .ł rn )=^«.
(2)
£ ( 1 { X = 1 > I J 7) =
£ (X \ F )
Cn2 l ....
£ ( X n + 1\Y0, . . . , Y n) = e (
Y0, . . . , Y n) =
y C n + l + O n + i
)
°n
+
£ ( Y n + 1 \Y0, . . . , Y n) =
cn -\-bn + m
C n + bn + m
Cn
Cn "f" b n “ł~ 7TI
Ą_______ rn
C ji -j- b n H- Tfh
xn
Cn
_ V"
i
l —^nCn H- bn
Udowodniliśmy zatem, że ciąg ( X n) jest martyngałem względem ciągu
cr-ciał a( Y0, Y n). Ale T n C &(Y0, •■•i Yn), wobec tego
£ ( X n + 1 \ F n) = £ ( £ ( X n + 1 \Y0, . . . Y n) \ X 0, . . . X n) =
= £ ( X n \ X 0, . . . X n) = X n .
Zatem (X n,J rn) jest martyngałem. Stąd i z (2) wynika, że
P (Y n+1 = ! ) = £ (P (Y n+1 = l|ło: . . . , Y n) ) = £ X n = £ X 0 =
C°
co + bo
Ponieważ \Xn \ < 1 dla n = 1 , 2 , . . z twierdzenia o zbieżności martyngałów wynika, że istnieje taka zmienna losowa X , że X n
X , a ponadto
£ X = limn_ 00 £ X n = Co/(co + &o) (z tw. Lebesgue’a o zbieżności zmajory-
zowanej). ■
Efektownym przykładem zastosowania twierdzenia o zbieżności martyngałów jest dowód nierówności Hardy’ego-Littlewooda (por. zad. 5.8.23).
§ 11.3. Twierdzenie o zbieżności nadmartyngałów
241
T w ierd zen ie 8 (N ierów ność H ardy’eg o -L ittle w o o d a ). Jeżeli ( Un)n
jest ciągiem Bemoulliego, to
\ U ! + . . . + Un]
hm sup----- ;........— — ^ 1 p.n.
n—>oo
v2nlogn
D o w ó d . Istotnie, niech X n — U\ + ... + Un, T n = <r(Ui, . . . , Un). Wtedy
Y& = eaXn-^n a j eg£ nadmartyngałem (patrz zad. 1). Zdefiniujemy teraz
/
=
OO
fOO
Y “ <fa = /
•oo
e“ Xn_i n“ 2 da =
J—OO
I (v/Sa-§&)2+ ^
r
e-<
J—oo
1
/° °
,
¡2 ^ i i
= —p=e 2" /
e ^ du = \ — e^>
V «
y -o o
v
n
Jest prawie oczywiste, że (•Zn).7rn)j|l.1 jest nadmartyngałem nieujemnym
(patrz zad. 3), zatem zbieżnym p.n. do zmiennej losowej Z , a w szczególności Innymi słowy,
ograniczonym p.n. przez pewną zmienną losową Co, co oznacza, że dla n = Co =
= supn Zn < OO
1 ,2 , . . . mamy
p.n.
“ 7= e 2" < C0 p.n.,
\]n
stąd
czyli
—n ln n +
< C -2n
i
|X„(w)| < y /n ln n + C ( lo) ■2n,
wobec tego
limsup
n—»oo
\Xn | „ ,
.......— $ 1 p.n. i
\ /2 n ln n
Zadania
1- {U„) jest ciągiem Bernoulliego. Niech T n = cr(U\,.. . , Un) i niech
Zn - Qa(Ui+---+Un)—(na2/2)'
Udowodnić, że ( Zn, F n) jest nadmartyngałem. Zbadać zbieżność ciągu (Zn)
prawie na pewno i w L 1.
2. Korzystając z twierdzenia o zbieżności nadmartyngałów, wykazać tw. 7.3.2:
jeśli ( X n)
jest ciągiem niezależnych zmiennych losowych, S X n = 0 dla n 6 N
i
£ X „ < oo, to szereg
Xn jest zbieżny prawie wszędzie.
Rozdział 11. Martyngały
242
3. Wykazać, że ciąg {Zn) z dowodu nierówności Hardy’ego-Littlewooda jest
nadmartyngałem.
M arty n g ały z czasem od w rócon y m . Czasem zamiast rosnącego ciągu o-ciał
mamy do czynienia z ciągiem malejącym. W tym przypadku można odwołać
się do teorii martyngalów z czasem odwróconym. Jeśli ( i , ) „ eN jest malejącym
ciągiem cr-cial, to (^r-n ) ne_N jest Już ciągiem rosnącym. Ta z pozoru trywialna
sztuczka z odwróceniem numeracji ma konsekwencje głębsze, niż by się wydawało
na pierwszy rzut oka.
—N zawiera Będziemy zatem rozpatrywać martyngały ze zbiorem indeksów —N lub —Ń. Po­
ostatni element, nieważ każdy martyngał (X n,Jrn)ne_ fi jest postaci
a to jest różnica!
X n = £ (X0 |F n) ,
zmienne losowe X n muszą być jednostajnie całkowalne (zostanie to udowodnione
w lemacie 11.5.1). Można zatem spodziewać się, że odpowiedniki znanych twier­
dzeń będą mocniejsze.
4. Ciąg (X „,^ r„ ) ne_Ń jest nadmartyngałem i lim „_ _ 00£ X „ < oo. Wykazać,
że (X „ )n€_ jj jest rodziną zmiennych losowych jednostajnie całkowalnych.
5. Udowodnić
T w ierdzenie 9. Jeżeli (Xn,J:n)Jl€_f1 jest nadmartyngałem i
lim £ X n < oo,
to ciąg ( ^ - n ) „ eŃ jest zbieżny p.n. i w L1 do pewnej zmiennej losowej X .
Jeśli ponadto (X n,J-'n)n€_ji! jest martyngałem, to
X = £\X 0
§ 11.4.
Nierówności martyngałowe
Udowodnimy tu uogólnienie nierówności Kołmogorowa (7.3.6). Warto po­
równać oba dowody.
Twierdzenie 1 (Nierówność maksymalna dla podm artyngałów ).
Niech (Xic,J rk)k=i będzie podmartyngalem. Wtedy dla r > 0
rP (m a x l t > r ) <
k^ n
f
X n dP < £ X + < £\Xn \.
D o w ó d . Niech r = inf{fc € N:Xfc > r }. Jest to pierwszy moment prze­
kroczenia poziomu r. Niech A = { m a x j > r} i A^ = A n { r = k },
§11.4. Nierówności martyngałowe
243
k = 1 , 2 , . . . , n. Wtedy A k £ T k dla A : < n i y l = j 4 i U . . . U A n. Teraz
A
TL
p
X ndP = Y ,
JA
X n dP = Y
k=1JAk
Ti
A
Th
„
> Y
£ { X n \Fk)dP>
k=l
k
n
X k d P > r J ' P ( A k) = r P ( A ) .
Ł_, J A k
fc=l-'**
Zatem
rP (m axX i > r) < [ X n dP < £ X + < £|*n|. ■
JA
U w aga 2. Jeśli
X n jest martyngałem, funkcja / : R —* R jest wy­
pukła, zaś zmienne losowe f ( X k) są całkowalne, to z nierówności Jensena
wynika, że ciąg /(.X i), . . . , f ( X n) jest podmartyngałem, więc spełnia nie­
równość maksymalną. W szczególności, gdy / ( i ) = |t| otrzymujemy
P {m ax\X k\> r) < - £ p f n|,
k^n
r
a jeśli / ( i ) = i2, zaś X k = U\ + ... + Uk, k = 1,2, . . . n , gdzie Ui są
niezależnymi zmiennymi losowymi o średniej zero i skończonej wariancji, to
otrzymujemy nierówność Kołmogorowa:
P{max\U1 + . . . + Uk\ > r ) <
fc$Cn.
1 n
Y £Uk .
.r z '
fc=l
Zadania
1. Udowodnić, że dla podmartyngału
równość
i dowolnego r > 0 zachodzi nie-
rP(minXk
ś - r ) ś £ (X
„ l{min v. x k>-r})/ ~ £ X q ^
k^n
\
- £ X 0.
2. Udowodnić, że dla podmartyngału (Xfc)£=i i dowolnego r > 0 zachodzi nie­
równość
rP(max|Xjt| ^ r) ^3maxf|Xt|.
k^n
k^n
3. Wykazać, że dla nadmartyngału (Xk)k=i 1 dowolnego r > 0 zachodzi nie­
równość
TyP( max \Xk\ ^ r) ^ — max£|Xfc|,
k^n
T
fc^n
przy czym K = 1, gdy ciąg (Xk) ma stały znak lub jest martyngałem;
w ogólnym przypadku K — 3.
Rozdział 11. Martyngaly
244
4. N ierów ność D o o b a . Wykazać, że jeśli (Xfc)£=1 jest martyngałem, p > 1,
to
§11.5.
Zbieżność martyngałów w Lp
L em at 1. Jeśli X jest całkowalną zmienną losową na (ii, T , P ) , a (T ^ a e A
rodziną cr-ciał, zawartych w T , to rodzina (£ (X |F ^ a z A jest jednostajnie
całkowalna.
D o w ó d . Skorzystamy z kryterium z zad. 5:9.17. Po pierwsze,
sup£|£ ( X \ F a) |< S\X\.
Po drugie, jeśli r > 0, to
i
\ £ ( X \ F a) \ d P <
£ ( \ X \ \ T a) d P =
[
{ |£ ( X |^ ) |> r }
\X\dP,
ponieważ {|Z (X |T a) | > r } € T a . Jeśli ustalimy £ > 0, to istnieje d > 0
o takiej własności, że f A |X| d P < e, o ile P ( A ) < S. Aby zakończyć dowód,
wystarczy dobrać tak duże r, by P(\£ ( X |Jra) \ > r) < 8. Ale
P(|£(X|^a) | > r ) <
r
r
a to już wystarczy. ■
T w ierd zen ie 2. Niech ( X n, T n) będzie jednostajnie całkowalnym podmartyngałem ( odp. martyngałem). Wtedy istnieje taka całkowalna zmienna lo­
sowa X , że
(i) X n —> X p.n. i w L 1;
(ii) Ciąg X i , X 2, ■■■, X jest podmartyngalem (odp. martyngałem).
W szczególności, jednostajnie całkowalny martyngal ( X n, T n) jest prawo­
stronnie domknięty, czyli jest postaci
X n = £ ( X \ T n).
§ 11.5. Zbieżność martyngałów w Lp
245
D o w ó d . Z jednostajnej całkowalności wynika, że supn £|Xn) < oo, i dla­
tego podmartyngał jest zbieżny p.n. do zmiennej losowej X ; jeszcze raz ko­
rzystając z jednostajnej całkowalności, otrzymujemy zbieżność w L 1 (zad.
5.9.18).
Pozostaje udowodnić (ii). Niech A € f m. Z uwagi po definicji podmartyngału wynika, że ciąg (fA X n dP) jest niemalejący dla n ^ m . Ponadto na
mocy (i)
[ X nd P - f XdP
Ja
Ja
^ [ \Xn - X\ dP ^ £\Xn - X \ ------->0.
JA
n -* o o
Zatem JA X n dP t f A X dP, a stąd dla m
[ X m dP s: [ X n d P ^ f X d P ,
Jj4
Ja
Ja
i ostatecznie
£ ( X \ T m) > X m,
co kończy dowód (ii).
W przypadku martyngału należy udowodnione twierdzenie zastosować do
( X n) i do ( ~ X n). m
Można udowodnić, że X jest jedyną zmienną losową mierzalną względem
.. .) dla której X n = £ ( X |F n) (zad. 1).
Kwestią zbieżności martyngałów w Lp dla p > 1 zajmiemy się w zadaniach.
Twierdzenie 3 (O ciągłości warunkowej wartości oczekiwanej).
Niech X będzie całkowalną zmienną losową na (£2, T , P ), a (Fn) — ciągiem
a-ciał zawartych w T .
(i) Jeśli ciąg ( T n) jest niemalejący i J-q = a (T \ ,J -i , .. •), to
£ ( X \ F n) ^ £ ( X \ F 0)
prawie na pewno i w L 1.
(ii) Jeśli ciąg (T n) jest nierosnący i Jro =
to
£ ( X \ F n) ^ £ ( X \ F 0)
prawie na pewno i w L 1.
D o w ó d , (i) Ciąg (£ ( X \F n) , T n) jest jednostajnie całkowalnym martyngałem, więc na mocy tw. 2 jest zbieżny p.n. i w L 1 do całkowalnej
Rozdział 11. Martyngały
246
i .T^-mierzalnej zmiennej losowej Xę,. Ponadto, ponieważ rozważany ciąg
rozszerzony o X o jest martyngalem, zachodzi równość
£ ( X Q\ Tn) = £ ( X \ T n) ,
n = 1, 2 , . . .
Zatem dla dowolnego zbioru A € T n, n = 1 , 2 , . . . , mamy
Klasa zbiorów A spełniających tę równość jest A-układem i zawiera 7r-układ
U “ =1 J-n, a zatem — na mocy lematu 5.3.6 — zawiera T §. Oznacza to, że
Xo = £ ( X \ f o ) .
(ii) Ciąg (£ ( X |T - n) , F -n )
jest martyngalem z czasem odwróconym.
Teza jest bezpośrednim wnioskiem z twierdzenia o zbieżności 11.3.9. ■
Możemy teraz podać prosty dowód prawa 0-1 Kołmogorowa (tw. 7.2.1).
Przypomnijmy oznaczenia: jeśli ( X{ ) jest ciągiem zmiennych losowych, to
T w ierd zen ie 4 (P raw o 0—1 K o łm o g o r o w a ). Jeżeli ( X t) jest ciągiem
niezależnych zmiennych losowych i A € T<x>, to P ( A ) = 0 lub P ( A ) = 1.
D o w ó d . Zmienna losowa 1 a jest mierzalna względem
tym bardziej
względem JFi,co, oraz niezależna od J-iin dla każdego n. Stąd i z twierdzenia
3 mamy
P ( A ) = £ 1 A = £ ( 1A I F hn) ^ £ ( 1 A \^ 1,00) = U -
Dlatego P ( A ) może przyjmować tylko wartości 0 lub 1. ■
Kolejnym wnioskiem z twierdzenia 3 jest prawo wielkich liczb Kołmogorowa
(tw. 7.4.9)
T w ierd zen ie 5 (M P W L K o łm o g o ro w a ). Jeśli ( X n) jest ciągiem nie­
zależnych zmiennych losowych o tym samym rozkładzie i wartości oczeki­
wanej m , a Sn = J2k= 1 x k, to
n
prawie na pewno i w L 1.
D o w ó d . W zadaniu 6.3.13 udowodniliśmy, że
£ (X1 I Sn, Sn+u . . . ) = £ (Xi |Sn) = ~
n
§11.5. Zbieżność martyngałów w Lp
247
Niech T — n “ i (’’{Sn, Sn+ 1, ••■)• Wtedy z twierdzenia 3 (ii) otrzymujemy
n
S ( X 1 \P)
prawie na pewno i w L 1. Wiadomo jednak (na mocy prawa 0-1, por. zad.
7.2.2), że lim„_,00(S'n/re) = c p.n., i ze zbieżności w L 1 otrzymujemy c =
= £ ( £ ( X x | T) ) = £Xx = m. u
Zadania
1. Udowodnić, że X z twierdzenia 2 jest jedyną zmienną losową mierzalną wzglę­
dem o(JF\,F2, ■■•), dla której X n = £ ( X \ F a).
2. Niech fi = [0,1], T = B([0,1]), P jest miarą Lebesgue’a, a / funkcją borelowską całkowalną względem miary Lebesgue’a. Rozważmy zstępujący ciąg
podziałów odcinka [0,1]:
x [n* =
= 1. Udowodnić, że
dla u> e [x^n\ x <
^ l)
jest zbieżny p.n. do / (X = lim„ X „ można traktować jako pochodną funkcji
F(s) = f g f (z) dz względem danego ciągu podziałów).
Zbieżność martyngałów w Lp. Dzięki nierówności Dooba z zad. 11.4.4 twier­
dzenie o zbieżności martyngałów w Lp dla p > 1 można sformułować następująco:
Twierdzenie 6. Niech (X n, Fn)
pujące warunki są równoważne:
będzie martyngatem i niech p > 1. Nastę­
{i) supngfjf|X n|p < oo,
(ii) ciąg (|Xn|
p)“ =0 jest jednostajnie całkowalny,
(iii) ciąg (X n)n^fij jest zbieżny w Lp,
(iv) istnieje taka zmienna losowa Y e Lp(fi,^r, P), że X n = £ (Y \F n), n =
= 0,1,2,....
Jeśli te warunki są spełnione, to ciąg (X ri)n^ jest zbieżny p.n. do zmiennej
losowej X € Lp, takiej, że X n = £ (X |T n) dła n = 0,1,2,..., przy czym X jest
jedyną zmienną łosową mierzalną względem o^-Fo, J-i,...), dla której ta równość
zachodzi.
3. Udowodnić twierdzenie 6.
4. Udowodnić odpowiednik tw. 6 (oczywiście bez warunku (i)!) w przypadku
p = 1.
Rozdział 11. Martyngały
248
§11.6.
Twierdzenie Radona—Nikodyma
Udowodnimy teraz, korz3rstając z twierdzenia o zbieżności nadmartyngałów, klasyczne twierdzenie o rozkładzie miary na część absolutnie ciągłą
i singularną (osobliwą) względem innej miary.
T w ierdzen ie 1 (R a d o n a -N ik o d y m a -L e b e s g u e ’a ). Niech p, i v będą
miarami skończonymi na
Istnieje wtedy taka funkcja mierzalna
g: fi —>R + i taki zbiór S € T , że n( S) = 0 i dla każdego A e T
(1 )
Ponadto funkcja g jest wyznaczona jednoznacznie z dokładnością do zbiorów
zerowej miary ¡j,, zaś zbiór S — z dokładnością do zbiorów zerowej miary
M+ v.
Do dowodu przydadzą się podstawowe wiadomości o ciągach uogólnionych.
Niech
będzie przestrzenią metryczną zupełną, zaś T — zbiorem częzbiory filtrujące ściowo uporządkowanym przez relację < i skierowanym w prawo, co oznaw górę. cza, że dla każdej pary u ,v € T istnieje ograniczenie górne, czyli takie t £ T ,
że u < t i v < t.
Niektórzy wolą
D efin icja 2. Ciągiem uogólnionym nazywamy dowolną funkcję u :T —> E .
Ciąg uogólniony będziemy oznaczać standardowo: (ut)ter- Definicja granicy
ciągu jest oczywistą adaptacją zwykłej definicji granicy:
D efin icja 3. Powiemy, że ciąg uogólniony (ui)teT jest zbieżny do u G E
( co oznaczamy limt ut = u) wtedy i tylko wtedy, gdy
Ve > 0
3íq € T
Vi e T
i0 < t =$■ g(ut ,u ) < e.
Dwa techniczne lematy pozwolą nam sprowadzić badanie zbieżności ciągów
uogólnionych do badania „przyzwoitych” ciągów.
L em at 4. Jeśli (ut)teT jest ciągiem uogólnionym takim, że dla każdego ro­
snącego ciągu wskaźników (in)nsN ciąg («tn) jest zbieżny, to ( ut)teT spełnia
warunek Cauchy’ego:
Ve > 0
3ío £ T
\/teT
tQ < t =*- Q{uto,u t) < e.
D o w ó d . Gdyby tak nie było, mielibyśmy
3e > 0
Vi0 e T
3t e T
(t0 < t A g(uto,u t) > e).
Wybierając dowolne ii € T i definiując indukcyjnie t n+1 jako dowolny
element T, dła którego tn < t n+1 i Q{utn,u tn+1) > e, otrzymujemy rosnący
ciąg (in)neN, taki, że ( «í „) neN nie jest zbieżny, co przeczy założeniu. ■
249
§11.6. Twierdzenie Radona-Nikodyma
L em at 5. Jeśli ciąg uogólniony (ut)t^T spełnia warunek Cauchy’ego, to
jest zbieżny, a ponadto istnieje rosnący ciąg indeksów (in)nen> dla którego
lim utn = lim «t.
n —»oo
D o w ó d . Podstawiając w warunku Cauchy’ego e = l / n , otrzymujemy
Vn £ N
3t'n e T
VteT
t'n < t =4> g(ut'n,u t) < —■
Definiujemy teraz indukcyjnie rosnący ciąg (in)neN: h = i'x; jeśli dane
jest tn, to t n+1 jest dowolnym elementem większym od tn i t'n+1. Wtedy
g{utn,u t) < 2 /n dla t ^ tn. Wynika stąd, że ciąg (i„ )neN spełnia warunek
Cauchy’ego, zatem jest zbieżny do u.
Zidentyfikowaliśmy granicę. Teraz, jeśli t ^ tn, mamy
czyli limt ut = u. u
W dalszym ciągu będziemy mieli do czynienia ze zbiorem skierowanym,
jaki tworzą skończone, mierzalne rozbicia przestrzeni fi z naturalną relacją
porządku:
M l >■••) A n} ^ {-^1) ■•■)
wtedy i tylko wtedy, gdy dla i = 1,2, .. . n
Ai —
Bkj,
czyli gdy rozbicie po prawej stronie jest drobniejsze od tego po lewej.
Nietrudno się domyślić, że będziemy rozpatrywać martyngał z takim wła­
śnie zbiorem indeksów. Naturalny przykład zamieszczamy poniżej. Dzięki
udowodnionym lematom możemy ograniczyć się do badania rosnących cią­
gów indeksów, a to pozwala na zastosowanie teorii martyngałów z czasem
dyskretnym, gdzie T = N.
P rz y k ła d 6. Dana jest przestrzeń probabilistyczna (fi, T , P ) i skończona
miara v , absolutnie ciągła względem P . Niech T oznacza zbiór wszyst­
kich skończonych rozbić fi, uporządkowany jak wyżej. Jeśli t 6 T i t =
= { A \ , . . . , A*nt}, to definiujemy T t = o ( A [ , . . . , AJJ oraz
dla u e A lj , gdy P (A ^) > 0,
dla w e A ), gdy P (, 4}) = 0.
Rozdział 11. Martyngały
250
Innymi słowy, X t jest gęstością miary v, obciętej do cr-ciała T u względem P
(jeśli to nie jest oczywiste, Czytelnik zechce to potraktować jako zabawne
zastosowanie lematu o 7r- i A-ukladach).
Jasne jest, że
C T s dla t < s. Wykażemy, że że ( X t, T t)teT jest martyngałem (zbiór indeksów jest co prawda nietypowy, ale przeniesienie definicji
na ten przypadek nie nastręcza trudności). Niech t < s i niech A 6 i i .
Wtedy
Na zakończenie zauważmy, że dla każdego ciągu rosnącego (in)ngn ciąg
(X tn) jest, na mocy twierdzenia 11.3.1 o zbieżności nadmartyngalów, zbież­
ny p.n. ■
D o w ó d twierdzenia Radona-Nikodyma. Niech c = ¿¿(fi)+i/(fi). Gdy c = 0,
twierdzenie jest trywialne. Gdy c > 0, definiujemy
P = ~ {n + v).
c
Jest oczywiste, że miara v jest absolutnie ciągła względem P. Jeśli skon­
struujemy martyngal (X t,J:t) taki, jak w przykładzie 6 , to dzięki temu, że
|Xt| < c p.n. stwierdzimy — na mocy tw. Lebesgue’a — że dla każdego
rosnącego ciągu (in)neN ciąg (X tn) jest zbieżny nie tylko prawie na pewno,
ale i w -Ł1(ii, T , P). Z lematów 4 i 5 wynika, że ciąg uogólniony (X t)teT
jest zbieżny w L 1(fi, T , P ) do zmiennej losowej X , czyli
(2)
Nietrudno się domyślić, że X jest gęstością miary v względem P, a proste
rachunki pokazują, że gęstość v względem fi, powinna być równa X/(c —X )
tam, gdzie X < c. Zbiór { X = c } będzie zbiorem S występującym w (1).
Sprawdzimy teraz formalnie, że X jest gęstością miary v względem P.
Ustalmy zatem A E T i e > 0. Niech to będzie rozbiciem fi, którego istnienie
gwarantuje warunek (2). Rozpatrzmy teraz rozbicie t, generowane przez io
i zbiór A (jest to „wspólne zagęszczenie” rozbić to i {^4, A '}). Ponieważ
to < i, mamy Jn \Xt — X \dP < e, i tym bardziej
Ale f A X t dP = v(A ) (bowiem A e
e wnioskujemy, że dla każdego A e f
por. przykład 6 ). Wobec dowolności
§ 11.6. Twierdzenie Radona-Nikodyma
251
a stąd
f(c-X )d u =
Ja
(3)
Xdfi.
[
Ja
Standardowa metoda stopniowego komplikowania funkcji pokazuje, że dla
dowolnej mierzalnej funkcji / i zbioru A e T mamy
i f - ( c - X ) d v = [ fXdn.
JA
(4)
JA
Niech S = { X = c}. Podstawiając A = S do (3), otrzymujemy
0=
i (c —X ) d v =
Js
i X dfi = cp(S) ,
Js
skąd n (S ) = 0. Podobnie z (3) wynika, że v ( { X > c}) = fi({X > c}) = 0.
Niech teraz
dla oj e S",
dla w e S.
] = (1/{ c - X { uj))
lO
Podstawiając / do (4), otrzymujemy
v{AnS') = f
f-(c-X )d v=
JAnS1
=
------ y d n =
/
[
fXd(i =
JAnS'
JAns1c
—A
/
gdfi,
JA
gdzie
, ,
yy 1
Í I H / ( c - X ( W))
lO
dla
S',
dla w e 5.
Ostatecznie dla dowolnego A € Jr mamy
v(A) = v(A n s ) + v{A
n S') = ^ n S ) + J
gdp,
czyli ( 1).
Pozostała do wykazania jednoznaczność. Przypuśćmy, że powyższa zależ­
ność zachodzi także dla zbioru Si i funkcji gi. Wtedy dla każdego A e T
v(A n S ) + / gdfj, = v(AC\ Si) +
Ja
/ 51 d/i,
ja
skąd po podstawieniu A = S otrzymujemy u(S) = v(S ft Ą ) , ponieważ
n(S) — fi(Si) = 0. Podobnie
= v(Sif\S), więc v(S\Si) = u(Si\S) =
= 0.
Skoro dla każdego A e T jest v ( A f i S) = u ( A n £ 1), to JA gd/j, = JA g\ dfi,
zatem g = g\ /¿-p.n. ■
Rozdział 11. Martyngaly
252
W n iosek 7. Jeśli skończona miara v jest absolutnie ciągła względem skoń­
czonej miary fi, to istnieje mierzalna funkcja g, dla której
przy czym g Si 0 p.n. i g jest wyznaczona jednoznacznie z dokładnością do
zbiorów zerowej miary fi.
U w aga 8 . W dowodzie tw. Radona-Nikodyma-Lebesgue’a gęstość dv/dfi
powstała „zdroworozsądkowo” , a mianowicie jako granica wyrażeń postaci
H(A)+v{A)
_ v(A )
Zadania
1. Wykazać, że monotoniczna funkcja / : R —* R jest różniczkowalna wszędzie
z wyjątkiem zbioru o zerowej mierze Lebesgue’a.
§ 11.7.
Miary produktowe i zastosowania w statystyce
Każdy wie, że nie da się długo utrzymać w tajemnicy asymetrii monety czy
też kości do gry. Wystarczy bowiem wykonać dostatecznie długą serię do­
świadczeń, i jeśli na przykład pojawi się podejrzanie dużo (albo podejrzanie
mało) orłów, hipoteza o symetrii monety nie da się utrzymać.
Tego rodzaju problemy są typowe dla statystyki. Statystyk formułuje pewną
hipotezę dotyczącą modelu doświadczenia losowego, a następnie stara się
ją zweryfikować doświadczalnie. W opisanej powyżej sytuacji hipotezę mo­
żemy sformułować następująco: „rozkład liczby orłów w n doświadczeniach
jest rozkładem Bernoulliego z parametrami n, 1/2” . W wyniku ekspery­
mentu być może uda się odrzucić tę hipotezę — jeśli na przykład w serii
1000 rzutów wypadnie 900 lub więcej orłów. Przy 510 orłach chyba każdy
zawahałby się przed odrzuceniem hipotezy. Niezależnie jednak od posia­
danej wiedzy statystycznej czujemy intuicyjnie, że im większe jest n, tym
pewniejsze są wyniki. Uznajemy też, że podejmowanie decyzji na podstawie
odchylenia liczby orłów od idealnej średniej (500) jest rozsądne, natomiast
rozważanie np. parzystości liczby reszek jest pozbawione sensu.
Postaramy się uzasadnić teoretycznie oba te stwierdzenia. Zaczniemy od
prostego przykładu, w którym są dwie równouprawnione hipotezy.
P rz y k ła d 1. Należy zdecydować, czy szansa otrzymania orła przy rzucie
monetą wynosi p czy r (p i=- r, p ,r e [0,1]). Definiujemy zmienne losowe
253
§ 11.7. Miary produktowe i zastosowania w statystyce
JCn) ^ — 1 , 2 , . . . :
^
"
_• i 1
\0
S^y w n-tym rzucie wypadł orzeł,
gdy w n-tym rzucie wypadła reszka.
Ponadto zdefiniujemy dwie funkcje pomocnicze:
g (l) = r,
£>(0) = 1 - r;
7r ( l ) = p ,
7r(0) = l - p .
Niech teraz
^
n ~
q(X i )
■... ■g(X n)
7r/ { VXi )\
- . . . • 7r ( Xn )
/ V
\5
r
v ^
n
Okazuje się, że ciąg {Zn,Jrn)'^L1jest martyngałem względem prawdopodo­
bieństwa P , dla którego P (X n = 1) = p. Mamy bowiem
( Q{Xn) \
r
1-r
N
e \ir(Xn)J
TvT
= p_ ' P + l1------- p ( ! - ? ) = !.
i wystarczy zastosować wynik z przykładu 11.2.5.
Ponieważ Zn ^ 0, n = 1 ,2 ,..., z twierdzenia 11.3.1 o zbieżności nadmartyngałów wynika, że ciąg ( Zn) jest zbieżny P-p.n., a co więcej, granica jest
równa zeru, jako że
V
r,
e C ^ n + l)
Zn+1 ~ Zn\ ( x n+1y
więc
limsupZn+i = limsupZn ■limsup ^ y n+1T i
n
n
n
7 r (-^ n + l)
ale drugi czynnik po prawej stronie jest różny od 1 (bo r ^ p), wobec tego
lim supn Zn — 0 P-p.n.
Jeśli orzeł wypada z prawdopodobieństwem r, to mamy do czynienia z roz­
kładem Q, ciąg (Z ~x,T n) jest martyngałem zbieżnym do zera Q-p.n., zatem
(Zn) zmierza wtedy do nieskończoności.
Widzimy, że martyngał (Zn, Tn) może służyć do podjęcia decyzji o wyborze
między r i p. Im dłuższy jest czas obserwacji, tym bardziej staje się jasne,
czy ciąg zmierza do zera, czy do nieskończoności. Całkowitej pewności jed­
nak nigdy mieć nie można. ■
Rozumowanie przedstawione w przykładzie 1 aż się prosi o uogólnienie.
Zamiast dwóch rozkładów dwupunktowych należałoby rozpatrywać dwa
dowolne rozkłady prawdopodobieństwa // i u, byle jeden był absolutnie
ciągły względem drugiego (tak właśnie jest w przykładzie). Ciąg ( Zn ) byłby
wtedy — tak, jak w przykładzie — ciągiem gęstości miary produktowej
fi ®
® // względem v ®
® v.
Rozdział 11. Martyngały
254
Udowodnimy teraz twierdzenie Kakutaniego o absolutnej ciągłości miar
produktowych, co pozwoli na uogólnienie przykładu 1.
Niech (Oo,-F) będzie przestrzenią mierzalną, (Pn) i (Qn) — określonymi
na niej ciągami rozkładów prawdopodobieństwa. Niech fi = fi 0 x
x ■•■;
zmienna losowa X n niech będzie rzutem na n-tą współrzędną. Określamy
teraz cr-ciała T n = a ( X i , . . . , X n) oraz
= a (X i , X 2, . . .). Na tym ostat­
nim cr-ciele określone są prawdopodobieństwa produktowe:
P = Pi <g>P2 <8>.. .
T w ierd zen ie 2 (K a k u ta n ieg o). Niech dla każdego n miara Qn będzie
absolutnie ciągła względem Pn, niech gn będzie odpowiednią gęstością i niech
U = 9 i ( X x) - . . . - g n ( X n ).
Wtedy
(*) Un,Fn) jest martyngałem na (f ij- F ^ P );
(ii) jeśli t jest momentem stopu względem (T n)n, skończonym prawie
wszędzie względem miary P + Q, to f T jest gęstością Q względem P
na a-ciele T t \
(iii) Q jest albo absolutnie ciągła, albo singulama względem P . Jeśli
to ( f n) jest zbieżny prawie na pewno i w L 1 do zmiennej losowej /<*>,
która jest gęstością Q względem P na
jeśli natomiast
to limn_*oo f n = 0 P-prawie na pewno, i lim ^ o o f n = oo Q-prawie
na pewno.
D o w ó d , (i) jest oczywiste: wystarczy zauważyć, że f n jest iloczynem nie­
zależnych zmiennych losowych o wartości oczekiwanej równej 1, bowiem
£gn(Xn) = [
J
gn dPn = Qn(fio) = 1.
§ 11.7. Miary produktowe i zastosowania w statystyce
255
Żeby udowodnić (ii), wystarczy lekkie uogólnienie tej uwagi. Otóż dla do­
wolnego ciągu zbiorów B i ,. . . , Bn € T mamy
71
n
Q (B i x .. . x B n x n 0 x ...) = n Qk(Bk) = n
k= 1
r
/
9kdPk =
= /
g1(X 1) - . . . - g n(X n)d P =
JBiX...xBnxQ,oX...
■[
fndP.
JBiX...xBnxQoX...
Z lematu o 7r- i A-układach wynika natychmiast równość
Q(B) = j f...d
n P
JBb
dla wszystkich B € Tn.
Załóżmy teraz, że r jest momentem stopu (P + Q)-p.w. skończonym. Jeśli
B e T r , to
oo
oo „
Q (B ) = Q(B fi { r < oo}) = ^ Q(B fi { r = n }) = ^
/
n =i
= /
f n dP =
„ = 1 JBn{T=tt}
f Td P = f f TdP.
JJBC\{
b c \{ t < oo}
o}
Jb
Pozostaje udowodnić (iii). Z nierówności Schwarza wynika, że
0 :.
zatem zawsze
'Qo
y
OO
w
f,
«
TT /
d-Pn < 00.
„>1-=i1 JClo
Załóżmy najpierw, że powyższy iloczyn jest. dodatni. Wystarczy udowodnić,
że ciąg (v//n) jest zbieżny w L2(Cl,
P ). Wtedy, jak łatwo pokazać (por.
zad. 5.9.13), ciąg ( f n) jest zbieżny w L 1(fi,^r00,P ) do pewnej zmiennej
losowej /oo. Daje to (bez stosowania jakiegokolwiek twierdzenia Lebesgue’a)
równość
Q(B) = /I U d P
Jb
dla wszystkich B € Ui^Li-^i w^ c na mocy lematu o 7r- i A-ukladach —
dla wszystkich B e
Natomiast zbieżność prawie wszędzie ciągu ( / „ )
do /oo wynika na przykład z twierdzenia o zbieżności nadmartyngałów.
Rozdział 11. Martyngały
256
Pozostaje zatem udowodnić zbieżność w L2 ciągu (\/f^). W tym celu spraw­
dzimy warunek Cauchy’ego. Z niezależności zmiennych losowych X n i stąd,
że / f n dP = 1, otrzymujemy
J ( y / U * ~ V K ) * dP = 2 - 2 J
— 2
2
y/fn+kfn d P =
I fn \ / O n + 1 ( X n -l-l) ' . . . * Q n + k ( X n ^ k ) d P —
= 2 -2
yfdjdPj.
Wobec założenia o zbieżności iloczynu (do granicy dodatniej!), dla dosta­
tecznie dużych n i wszystkich k e N występujący powyżej fragment ilo­
czynu jest dowolnie bliski 1, zatem warunek Cauchy’ego jest spełniony.
Kończy to dowód pierwszej części (iii).
W celu udowodnienia drugiej części (iii) załóżmy, że
Wynika stąd od razu, że dla n —> oo
Ponieważ ciąg (t/7^) jest nieujemnym nadmartyngałem (jako funkcja wklę­
sła martyngału) na ( f i , ^ , ? ) , jest zbieżny prawie wszędzie. Jak widzieli­
śmy, jest zbieżny do zera w L 1, więc i P-prawie wszędzie.
Pokażemy teraz, że f n —> oo Q-prawie wszędzie. W tym celu zauważmy,
że ciąg (1 l\ f]n ,T n ) jest nadmartyngałem na (O, To^Oi)-. zmienne losowe
1/v 7 n są dobrze określone, jako że Q ( fn = 0) =
=Qj f n dP = 0, a dla
każdego n € N i B € T n mamy
[ -± = d Q = [ ~ d P =
J B V Jn
JB V I n
[
y ffn d P > [ y / U ^ d P
JB
JB
Wnioskujemy teraz, podobnie jak w przypadku zbieżności ciągu (\[Jn)i że
ciąg (1 /VJn) jest zbieżny Q-prawie wszędzie, a ponieważ J(l/y/J^)dQ =
= J y/~fn dP —> 0 dla n —> oo, mamy zbieżność do zera w l 1 i (J-prawie
wszędzie. ■
W n io se k 3. Jeśli Po i Qo są różnymi rozkładami prawdopodobieństwa na
(f2o, F ), to rozkłady produktowe P = Po ® Po ® .. . i Q = Qo ® Q q ® .. . są
na Too wzajemnie osobliwe.
§ 11.7. Miary produktowe i zastosowania w statystyce
257
D o w ó d . Wystarczy tu pokazać, że n ^ L i Jn0 \/9^Po = 0, gdzie g jest
gęstością Qo względem Po, na co wystarcza, by Jn gdPo < 1. Otóż gdyby
ostatnia całka była równa 1, to w nierówności Schwarza dla funkcji 1 i ^fg
zachodziłaby równość, co oznaczałoby g = const p.w. względem Po, co jest
równoważne równości rozkładów Po i Qo- *
P rz y k ła d 4 (Zagadnienie dyskryminacji). Wiadomo, że modelem do­
świadczenia losowego jest jedna z przestrzeni probabilistycznych: (fi, T , P),
(fi,^ 7, Q), przy czym istnieje gęstość g = dQ/dP. Na podstawie wyniku
doświadczenia, czyli konkretnego zdarzenia elementarnego loq G fi należy
zdecydować, czy faktycznym rozkładem jest P czy Q.
Każdej metodzie decydowania odpowiada tzw. zbiór krytyczny A € T : je­
śli oJo € A, wybieramy Q, w przeciwnym razie wybieramy P . W praktyce
błędne decyzje powinny kosztować, przyjmiemy więc, że wybranie Q za­
miast P wiąże się ze stratą Iq , zaś wybranie P zamiast Q — ze stratą lp.
Założymy jeszcze, że dany jest pewien rozkład a priori, mianowicie szansa
natrafienia na rozkład P jest równa p, na Q — równa q — 1 —p.
Założenie
Możemy teraz obliczyć średnie straty, gdy faktycznym rozkładem jest P o istnieniu
rozkładu a priori
i Q. Wynoszą one odpowiednio
nie zawsze jest
realistyczne
Iq P{A) + 0-P{A') = IqP{A),
i
0 -Q (A )+ lp Q (A ') = lpQ {A').
Całkowita średnia strata, zwana ryzykiem, wynosi
r(A ) = plQP {A ) + qlp Q(A') = aP(A) + bQ(A').
W dalszym ciągu będziemy zakładać, że a, b > 0.
Zobaczymy teraz, jaki zbiór krytyczny minimalizuje ryzyko. Mamy
r(A ) = aP (A ) + b f g d P = f adP + [ b g d P >
Ja '
Ja
Ja '
> / min(a, bg)dP — i
Jd
a dP + j
J
bg dP =
J {a>bg}
= a P ( g > ^ ) + b Q ( g < “b ).
Wyznaczyliśmy zatem ryzyko minimalne
rmi„ = / min(a, bg) dP,
Jęi
które jest osiągane dla zbioru A = {g > f }.
Jeśli powtórzymy doświadczenie n razy, ryzyko minimalne wyniesie
Rozdział 11. Martyngaly
258
gdzie f n jest opisaną w twierdzeniu Kakutaniego (tw. 2) gęstością rozkładu
Q ® ...<8>Q względem P <g>.. . <g>P = P®n. Ponieważ (fn, T n) jest martyngałem na przestrzeni (fi,
Poo), to ciąg (min(a, &/„), T n) jest nadmartyngałem. Wobec tego rn+i < rn, n = 1,2. . ., a ponieważ lim ^ o o f n — 0
Poo-p.n., to rn | 0.
Udowodniliśmy formalnie fakt intuicyjnie oczywisty: zwiększając liczbę do­
świadczeń, zmniejszamy ryzyko. ■
Zadania
1. Iloraz wiarogodności. Niech (X n) będzie ciągiem zmiennych losowych,
0 którym wiadomo, że wektor (X i, . .. ,X n) ma dla każdego n G N gęstość
pn, albo dla każdego n 6 N ma gęstość qn. Statystycy definiują iloraz wia­
rogodności wzorem:
\ f v . . , Xv n)i - Qn{X
Xn(XU.
X n ),
przy założeniu (dla wygody), że faktyczna gęstość pn jest ciągła i pn(x) > 0
dla każdego x € R 71.
Zwróćmy uwagę, że nie zakładamy niezależności zmiennych losowych X n.
Wykazać, że (A„, cr(Ai,... An)) jest martyngałem zbieżnym p.n.
2. Archeolog ma podzielić znalezione na cmentarzysku czaszki na męskie i ko­
biece. Wiadomo, że obwód czaszki męskiej ma z dobrą dokładnością rozkład
normalny o średniej 57 cm i odchyleniu standardowym 4 cm; dla czaszek
kobiecych wartości te wynoszą odpowiednio 54 cm i 3 cm.
Jak klasyfikować czaszki przy założeniu, że koszty błędnych decyzji obydwu
rodzajów są jednakowe, a czaszki obu płci znajdowane są jednakowo często?
Jakie jest prawdopodobieństwo błędnej decyzji?
3. W woreczku jest 5 monet symetrycznych i 5 takich, że orzeł wypada z praw­
dopodobieństwem p = 1/4. Rzucamy n = 100 razy losowo wybraną monetą
1 na podstawie wyniku doświadczenia decydujemy, czy moneta jest syme­
tryczna. Koszty błędnych decyzji obydwu rodzajów są jednakowe. Podać re­
gułę decyzyjną minimalizującą ryzyko.
§11.8.
Zastosowania w matematyce finansowej
W tym paragrafie podamy rozwiązanie problemu wyceny produktu finan­
sowego oferowanego na rynku. Szczególnym przypadkiem takiego produktu
jest opcja (europejska) zakupu akcji, czyli umowa, w której druga strona
zobowiązuje się sprzedać w chwili t = T akcje po cenie wykonania K . Po­
wstaje pytanie: ile warto zapłacić za opcję w chwili 0?
Rozważmy najprostszy model rynku finansowego, na którym handluje się
w chwilach 0 ,1 , .. ., T instrumentem dającym stały zysk bez żadnego ryzyka
§ 11.8. Zastosowania w matematyce finansowej
259
(obligacją) i instrumentem dającym być może większy zysk, ale z ryzykiem
(akcją). Ceny obligacji są deterministyczne, mianowicie cena jednej obligacji
B t wynosi:
Bo = 1, Bt = {l + r)\ i = 1 ,2 ,... T,
gdzie r jest stałą stopą procentową, mówiącą o ile wzrosła wartość obli­
gacji pomiędzy momentami transakcji. Natomiast ceny jednej akcji St są
zmiennymi losowymi. Cena akcji w momencie zero jest znaną liczbą SoNasza wiedza wynika z obserwacji cen, zatem informacje tworzą rosnący
ciąg cr-ciał Tt = cr(So, S i ,. - •, St)- Handel akcjami i obligacjami polega
na określeniu w czasie (i, i 4- 1), na podstawie wiedzy dostępnej do mo­
mentu i, portfela tzn. liczby akcji $ i+1 i liczby obligacji $ t+i, które chcemy
posiadać w momencie t + 1. Skład portfela na moment i + 1 jest parą
zmiennych losowych $t+i, '¡'t+i, zależnych od wiedzy do momentu t, a więc
ij-mierzalnych. W momencie t + 1 znamy nowe ceny: nasza wiedza posze­
rzyła się. Korzystając z tego, w czasie (i + 1, t + 2) tworzymy nowy portfel
na moment t + 2. Dlatego zawsze zakładamy, że procesy tworzące portfel
są procesami prognozowalnymi (por. przykład 11.2.6).
Gdy portfel w momencie 0 zawiera a akcji i ¡3 obligacji, to jego wartość
wynosi Vó = ceSę + ¡3B0. W momencie i wartość portfela Vt wynosi
Vt = $ tSt + y tB f
Zakładamy, że inwestor zmienia swój portfel bez konsumpcji, bez dopływu
kapitału z zewnątrz, a także nie ponosi żadnych kosztów transakcji. Dlatego
mając w momencie t kapitał Vt — $ f5t +
może go wydać i utworzyć
nowy portfel
kupując akcje po cenach St i obligacje po cenach
Bt- Zatem
$ (5 ; + 'btBt =
+ ^t+iBt(1)
Stąd zmiana kapitału (zysk) w momencie t + 1 jest równy
Vt+i ~V t = $ i+ i(5 t+j —St) + ^ i+ i(B i+x — B t)-
(2)
Wypłatą (europejską) nazywamy dowolną zmienną losową postaci X =
= h(Sr) dla pewnej funkcji h (X interpretujemy jako sumę pieniędzy otrzy­
maną w momencie T). Sama funkcja h charakteryzuje produkt finansowy
oferowany na rynku. Na przykład dla opcji kupna o cenie wykonania K
mamy
h(t) = ( t - K ) + ,
czyli wypłata jest równa
h{ST) = (St - K ) + .
Istotnie, ponieważ mamy prawo do zakupu akcji po cenie K , to jeśli cena
rynkowa akcji jest wyższa, realizujemy opcję i zarabiamy St ~ K . Jeśli akcje
Rozdział 11. Martyngały
260
są tańsze, czyli St ^ K , nie ma sensu realizować opcji i wtedy wypłata jest
równa zeru.
Ile taka wypłata powinna kosztować w momencie 0? Aby zdefiniować po­
prawnie cenę wypłaty X , wprowadza się pojęcie portfela replikującego. Port­
fel replikuje wypłatę X , gdy kapitał Vr, który on generuje w momencie T
jest równy X (tzn. Vu; X(u>) = Vt(w ) )• Wartość portfela replikującego
w momencie 0 nazywamy ceną wypłaty X , gdyż mając taki kapitał począt­
kowy i stosując portfel replikujący mamy w momencie T kapitał Vr — X .
Zbudujemy model bardziej szczegółowy (Cox-Ross-Rubmstein). Niech Q =
{g, d }T,P = /x®T, gdzie ¡i(g) = p = 1 - ¿t(d). Załóżmy, że stopa zwrotu
z akcji R t = (St — S t-i)/ S t-i jest zmienną losową przyjmującą dwie war­
tości, a mianowicie dla u = (wj.,. . . , u>t ) mamy Rt(ui) = 6, gdy a>t = g,
R t(u) = a, gdy
= d, gdzie —1 < a < r < b. To założenie jest naturalne,
bo jeśli r < a, to warto kupować tylko akcje, a w przypadku b < r tylko ob­
ligacje. Krótko mówiąc, ceny akcji zależą od wyników rzutów (niekoniecznie
symetryczną) monetą.
Do znalezienia ceny wypłaty X wykorzystamy twierdzenie o reprezenta­
cji martyngału, które w tym szczególnym przypadku będzie miało prostą
postać (i dowód). Niech
u k(u) = { 1 ,
v
| —1
J[a Uk = 9:
dla Wk = d,
gt = c(uu ...,ut),
t
Zt = Y , ( V k - 2 p + l)fc=i
Wtedy i7 i,. . . , Ut są niezależnymi zmiennymi losowymi i łatwo widać, że
Zt jest martyngałem względem GtLem at 1. Gdy (Yt, Qt) jest martyngałem., to istnieje dokładnie jeden proces
prognozowalny A taki, że
t
Yt = Y0 + Y , M Z k - Z k- i ) .
fc=i
D o w ó d . Zmienna losowa Yt jest ć/t-mierzalna, więc na mocy lematu 6.3.8
mamy Yt = ft (U i ,.. ■, Ut). Niech
„
At_
f t(U1, . . . , U t - i ,_ l ) - f_ t - i ( U u . . . , U t - i )
.
Z definicji widać, że A jest ciągiem prognozowalnym. Ponieważ (Yt, Gt) jest
martyngałem, to £ {Yt I G t-1) = Y t- 1 , czyli
pft(U u . . . , U t-u 1) + (1 - P)ft(Ui,
Ut- i , - 1 ) =
•••, U t-1).
§11.8. Zastosowania w matematyce finansowej
261
Skorzystaliśmy tu z niezależności zmiennych losowych Ui oraz zad. 6.3.6.
Stąd
2(1 - p )
_
-,U t-1. - 1 ) - ft-i(U i, •••, U t-1)
-2 p
a zatem A t = (Yt —Yt-i)/ {Z t — Zt- i ) , co daje tezę. Jedyność jest oczywi­
sta. ■
Z tego lematu wynika
T w ierdzen ie 2. Portfel z kapitałem początkowym Vo replikujący wypłatę
X istnieje wtedy i tylko wtedy, gdy
gdzie P jest rozkładem zadanym przez ¡j,(g) — (r — a)/[b —a).
Wtedy istnieje dokładnie jeden portfel replikujący wypłatę X , zatem cena
wypłaty X w momencie 0 wynosi VoD o w ó d . =>• Niech Wt będzie zdyskontowanym procesem wartości portfela,
tj- Wt = Vt/Bt. Korzystając z (2), a następnie z (1), otrzymujemy
V t +1 — Vt = $ t + i R t + i S t + ' b t + i r B t 4- ( r i ż + i S t — r $ t+ i5 t ) =
= $ t+iSt{Rt+i - r) + rVt.
Zatem Vt+i — (1 + r)Vt =
—r). A ponieważ zachodzi równość
Rt+i —r = -(& —a)(Z t + 1 — Zt),
(tu wykorzystaliśmy postać n(g)), to definiując
Ai+1 = i ( 6 - a ) ( l + r ) - ( t+1)$ t+1Ą ,
wnioskujemy, że jest to proces prognozowalny, ograniczony, i taki, że
Wt+1- W t = At+1(Zt+ 1- Z t).
(3)
Zt jest martyngałem względem miary P, zatem Wt jako transformata martyngałowa jest martyngałem. Stąd
V0 = W0 = £W T = € ^ ~ y
262
Rozdział 11. Martyngały
a ponieważ X = Vr, to £
<= Niech Yt = £
|
= VoW tedy Y jest martyngałem, Y0 = Vq, więc
z twierdzenia o reprezentacji wynika istnienie jedynego procesu prognozowalnego A takiego, że
t
Yt = Y0 + ' £ A k(Zk - Z k- 1).
k= 1
Niech Vt = (1 + r )lYt i
= (Vt — A tSt)B f 1. W tedy przy kapitale po­
czątkowym Vq portfel o składzie
= A t ■(2Bt)/{(b — a)St~i) akcji i '£t
obligacji jest jedynym portfelem replikującym wypłatę X . m
U w aga 3. Gdy mamy do czynienia z opcją europejską kupna z ceną wy­
konania K , co oznacza, że posiadacz opcji otrzymuje wypłatę h(Sx) =
= (St — K ) + , to portfel replikujący spełnia warunek <&t > 0 dla każdego
t. Innymi słowy, portfel replikujący nie zmusza do krótkiej sprzedaży akcji,
czyli pożyczenia akcji, sprzedania ich na rynku i zainwestowania otrzyma­
nych pieniędzy w obligacje. Dowód pozostawiamy jako zadanie.
Zadania
1. Udowodnić uwagę 3.
Rozdział 12
Łańcuchy Markowa
§ 12.1.
Definicja i przykłady
Zaczniemy od przykładu pozornie prostej gry.
P rzy k ła d 1. Jacek i Placek obserwują kolejne wyniki rzutów symetryczną
monetą i zapisują je. Gra kończy się wygraną Jacka, gdy w ciągu wyników
pojawi się po raz pierwszy OOR, Placek wygrywa zaś wtedy, gdy doczeka się
ciągu ORO. Jasne jest, że z prawdopodobieństwem 1 gra zakończy się. Mniej
oczywiste jest, jak obliczyć szanse wygranej dla obu graczy (choć można to
zrobić elementarnie, por. przykład 3.2.7). Nasuwa się jeszcze kilka pytań:
Jeśli jeden z graczy wybrał pewien ciąg orłów i reszek, jaki ciąg (nie bę­
dący podciągiem ani nadciągiem pierwszego) powinien wybrać drugi gracz,
by mieć największe szanse wygranej? Jaki jest średni czas oczekiwania na A jest nadciągiem
pojawienie się danego ciągu (por. przykład 6.1.4)?
B wtedy i tylko
wtedy, gdy B jest
podciągiem A.
1/2
00
1/2
START—
O
O je
OK
1/2
OOR
■
OKO
o
Grę można sprowadzić do schematu gry planszowej, pokazanej na rysunku.
Do wygranej Jacka prowadzą stany O, OR i ORO. Do wygranej Placka — O,
263
264
Rozdział 12. Łańcuchy Markowa
OO i OOR. Prawdopodobieństwa przejścia pomiędzy stanami umieszczono
przy strzałkach. Po dojściu do stanów OOR i ORO pozostajemy w nich.
Odpowiedzi na postawione pytania można znaleźć w zadaniach 14-16. ■
Przykład ilustruje możliwości różnorodnych zastosowań łańcuchów Mar­
kowa. Próbki przydatności łańcuchów Markowa do rozwiązywania wielu
zagadnień praktycznych będzie można zobaczyć w przykładach i zadaniach.
Łańcuch Markowa (tak jak w przykładzie) charakteryzuje się pewną liczbą
dopuszczalnych stanów i regułami przechodzenia pomiędzy nimi. Istotne
jest to, że szansa znalezienia się w stanie A w chwili n zależy tylko od
stanu, w jakim byliśmy w chwili n — 1, i od reguł przechodzenia.
Zbiór przeliczalny
może być
skończony lub
nieskończony.
W celu sformalizowania pojęcia łańcucha Markowa będziemy rozpatrywać
ciąg zmiennych losowych (Jfn)^_0 określonych na tej samej przestrzeni pro­
babilistycznej (fl ,T ,P ) . Zmienna losowa X n przyjmująca wartości z prze­
liczalnego zbioru S opisuje stan układu w chwili n. Będziemy się zajmo­
wali takimi układami obserwowalnymi w dyskretnych momentach czasu,
dla których stan układu w momencie n + 1, czyli X n+i, zależy tylko od
stanu układu w momencie n, tj. od X n, a nie zależy od całej przeszłości
tzn. od wszystkich wartości X o, X i , . . . , X n- i , X n.
Dokładniej, przyjmiemy następującą definicję:
v/ D efin icja 2. Ciąg zmiennych losowych (X n)£L0 o wartościach w przeli­
czalnym zbiorze S (przestrzeni stanów) nazywamy łańcuchem Markowa
wtedy i tylko wtedy, gdy dla każdego n £ N i każdego ciągu so, S i,.. ■, sn € S
mamy
P (X n — sn\Xn- i = sn—i , . . . , X\ — Si, X q — sq) =
— P(,Xn = sn\Xn~i — sn_x),
jeśli tylko P (X n-1 = s „ _ i , .. . , X x = s i , X 0 = s0) > 0 .
Jest to własność Markowa ciągu zmiennych losowych (X n)^=0.
P rz y k ła d 3. Ciąg niezależnych zmiennych losowych o wartościach w zbio­
rze S tworzy łańcuch Markowa. ■
P rz y k ła d 4 (B łą d zen ie p rzy p a d k ow e na p ro ste j). Jest to ciąg nieza­
leżnych zmiennych losowych (Un)%L0, gdzie dla n > 1 mamy P(Un = 1) =
= p, P(Un = —1) = 1 — p, natomiast Uo jest dowolną zmienną losową
o wartościach w zbiorze S = Z.
Definiujemy X n = Uq + Ui + . . . + Un, n = 1,2, —
łańcuch Markowa.
Ciąg (X n) tworzy
§ 12.1. Definicja i przykłady
265
Intuicyjnie jest to oczywiste, bo X n = X n~.x + Un, zaś X n- i i Un są niezależne. Formalnie, gdy P (X n^1 = sn_ i , . . . ,
= s i ,X 0 = sQ) > 0, to jak
łatwo widać
P {X n — Sn\Xn—i — Sn_X} ■■•j X q — So) ~ P{Un ~ $n
—
P(JJn — Sn ^n—1? X n—1 —
D /V
__
'k
*\Xn—1 — $n—lj
l)
—
n/ \r
*\ X n —
^n—l) ”
iv
\
5 n |yCn __i —
Ciąg (X n) opisuje losowe błądzenie po prostej. Innymi słowy, (X n) opisuje
kapitał gracza w nieskończonej grze, w której może on wygrać jedną stawkę
z prawdopodobieństwem p i przegrać jedną stawkę z prawdopodobieństwem
1 —p .X 0 jest równe kapitałowi początkowemu gracza. Jak zwykle, ujemne
wartości X n interpretujemy jako dług gracza. ■
P rzy k ła d 5. Rozpatrzmy grę planszową o trzech polach: s x,s 2 i s 3 - Na
początku losujemy, gdzie postawić pionek. Następnie, zależnie od pola, na
którym stoimy, losujemy pole, na które przesuniemy pionek. W tym celu
potrzebne jest dziewięć prawdopodobieństw przejścia Pij z pola Si do Sj,
gdzie i , j = 1,2,3. Są one takie same dla każdego kroku (choć można by
przyjąć, że za każdym razem są one inne). Zakładamy ponadto, że kolejne
losowania są niezależne.
Przyjmiemy, że prawdopodobieństwa przejścia mają wartości podane na
rysunku.
Możemy je także zapisać w postaci macierzy:
( Pn
p =
[P21
\P31
P12 Pi z \
( 0,3
P22 P23
=
0,4
P32 P33 J
\0,3
0,2
0,3
0,7
0,5 \
0,3
0 ,0 /
Zwróćmy uwagę, że suma każdego wiersza wynosi 1 (dlaczego?).
Niech X 0, X i , .. . będzie ciągiem zmiennych losowych opisujących kolejne
położenia pionka w tej grze. Oznaczmy P {X 0 = Sj) = P i ( 0 ) , i = 1,2,3.
Możemy bez trudu wyznaczyć rozkład zmiennej losowej X x, czyli liczby
Pk( 1) = P (X i = Sfc), k = 1,2,3, opierając się na podanych regułach gry.
Rozdział 12. Łańcuchy Markowa
266
Mamy
pfc(l) = P ( X x = sk\XQ= Sl) •P {X o = si) +
(1)
+ P (X i = sfc|Zo = S2) •P (X o = S2) +
+ P ( X x = sk\X0 = s3) •P ( * 0 = « 3) =
=
Plfc - P l ( 0 )
+ P 2 k ' P2 ( 0 )
“ t~ PSk - P 3 ( 0 ) .
W postaci macierzowej da się to zapisać krótko:
(P l(0 ),P 2 (0 ),P 3 (0 ))
f P 11
P 12
P21
P22
P23
\P31
P32
P33 /
P 13 \
= (P l(l),P 2 (l),P 3 (l))-
Jak widać, maszyneria służąca do obliczania prawdopodobieństw znalezie­
nia się w poszczególnych stanach w kolejnych krokach jest bardzo prosta.
Możemy bez trudu wyznaczyć rozkład X n+1, znając rozkład X n. Oto wy­
niki obliczeń dla kolejnych dziesięciu kroków. Za pierwszym razem startu­
jem y ze stanu si, za drugim — z S 3.
T ab ela 1. Prawdopodobieństwa znalezienia się w poszczególnych stanach dla
dziesięciu kolejnych kroków.
n
pi(n)
p 2(n )
ps(n)
0
1
2
3
4
5
6
7
8
9
1,0000
0,3000
0,3200
0,3470
0,3352
0,3386
0,3378
0,3379
0,3379
0,3379
0,0000
0,2000
0,4700
0,3520
0,3857
0,3781
0,3795
0,3793
0,3793
0,3793
0,0000
0,5000
0,2100
0,3010
0,2791
0,2833
0,2827
0,2827
0,2828
0,2828
P i(n )
0,0000
0,3000
0,3700
0,3270
0,3407
0,3374
0,3380
0,3379
0,3379
0,3379
Dane z tabeli przedstawiamy na wykresach poniżej.
P2{n)
p 3( n )
0,0000
0,7000
0,2700
0,4070
0,3737
0,3802
0,3792
0,3793
0,3793
0,3793
1,0000
0,0000
0,3600
0,2660
0,2856
0,2825
0,2827
0,2828
0,2828
0,2828
§ 12.1. Definicja i przykłady
267
Prawdopodobieństwa znalezienia, się w poszczególnych stanach możemy
potraktować jako współrzędne barycentryczne punktu w trójkącie rów­
nobocznym: jeśli X\, x 2 i Xz są wierzchołkami trójkąta równobocznego
i x = p ix t + p2x2 + psx 3, p 1 + p2 + p3 = 1, Pi ^ 0 dla i = 1,2,3, to pi,
p2 i P3 nazywamy współrzędnymi barycentrycznymi punktu x. Na rysunku
przedstawiono ewolucję układu w trzech pierwszych krokach. Nietrudno się
domyślić, że punkt odpowiadający rozkładowi stacjonarnemu jest jedynym
elementem części wspólnej rodziny trójkątów, z których pierwsze trzy po­
kazano na rysunku: n-ty trójkąt reprezentuje dopuszczalne rozkłady praw­
dopodobieństwa zmiennej losowej X n.
3
Widzimy, że po pewnym czasie układ praktycznie zapomina o stanie po­
czątkowym, bowiem rozkład zmiennej losowej X n zmierza do tak zwanego
rozkładu stacjonarnego (zajmiemy się tym zjawiskiem później, w §12.5).
Rozkład stacjonarny jest reprezentowany przez wektor
= (7rj,. . . , nn),
dla którego ttP = 7r, czyli odpowiednio unormowany wektor własny macie­
rzy P. W naszym przypadku jest to wektor (0,3379,0,3793,0,2828).
To, że (X n) jest łańcuchem Markowa, wynika na przykład z zadania 1. ■
Zapiszemy teraz formalnie wnioski z przykładu.
D efin icja 6. Macierz P = (pij)i,jes nazywamy macierzą przejścia na S,
gdy wszystkie jej wyrazy są nieujemne, a ponadto suma każdego wiersza
Rozdział 12. Łańcuchy Markowa
268
wynosi 1, czyli dla każdego i € S
= L
J€S
Taką macierz nazywamy również macierzą stochastyczną.
W naszym przykładzie macierz przejścia dla każdego kroku została zadana
z góry i była taka sama dla każdego kroku. Ogólnie nie musi tak być. Ma­
cierz przejścia U(n) = (irij(n))ij^s nazwiemy macierzą przejścia łańcucha
Markowa (X n)£L0 w n-tym kroku, n ^ 1, gdy
Ttij[n)
— P (X n =
S j\Xn „ i =
S j)
dla wszystkich takich i, dla których P (X n_ i = Si) > 0.
Niestety, macierz II(n) nie jest wyznaczona jednoznacznie, co widać z try­
wialnego przykładu: niech S = {0 ,1 ,2 }, X n = 0 dla n = 0,1, 2 ,.... Wtedy
każda macierz stochastyczna o pierwszym wierszu (1,0,0) jest macierzą
przejścia w n-tym kroku dla (X n). Nie będziemy dowodzić istnienia tej ma­
cierzy, zresztą we wszystkich zadaniach jest ona w mniej lub bardziej jawny
sposób dana z góry.
W dalszym ciągu będziemy badać wyłącznie zdefiniowane poniżej łańcuchy
Markowa jednorodne w czasie. Można je opisać w pełni przez podanie roz­
kładu początkowego p,x„ i jednej macierzy przejścia P = II(ra), n — 1,2, —
D efin icja 7. Jeśli (X n)^>
=0 jest łańcuchem Markowa, to rozkład zmien­
nej losowej Xo nazywamy rozkładem początkowym. Łańcuch Markowa na­
zywamy jednorodnym ( albo jednorodnym w czasie), gdy istnieje macierz
P = (p ij)ijęS : będąca dla każdego n jego macierzą przejścia w n-tym kroku.
W przypadku opisanym w definicji dla każdego n i dla każdego ciągu
s0,s i, •••, sn e S mamy
P (X n — Sn\Xn—\ =
. . . , X l — Si, X q
So) — Psn —isnl
jeśli tylko P (X n-1 = sn_ i , . . . , X i = Si, Xo = so) > 0 .
Rozkłady skończenie wymiarowe łańcucha Markowa, czyli rozkłady wekto­
rów (X k1, ■■■,X k n) spełniają zależność (zad. 20):
P (X o = 5o, •••, X n — Sn) — P (^ o = sq)p S()Si ' ■•■' Psn-lSnl
(2)
są więc wyznaczone jednoznacznie przez rozkład początkowy i macierz
przejścia.
Najczęściej spotykany sposób definiowania łańcuchów Markowa jest uspra­
wiedliwiony przez
§12.1. Definicja i przykłady
269
Twierdzenie 8. Dla każdego rozkładu prawdopodobieństwa Q na S i ma­
cierzy przejścia P na S istnieje na pewnej przestrzeni probabilistycznej łań­
cuch Markowa o rozkładzie początkowym Q i macierzy przejścia P.
Jeden ze sposobów dowodu polega na naśladowaniu postępowania z przy­
kładu 5 (patrz zad. 2). Inny — z twierdzenia Kołmogorowa C.4.2, bowiem
rozkłady skończenie wymiarowe są zgodne, co wynika z (2).
Przykład 9. Błądzenie przypadkowe z barierami elastycznymi.
Niech S = { 0 ,1 ,... ,a }, i niech macierz przejścia (w jednym kroku) P ma
postać
/
1
( l - r 0)g
0
0 ...
r0q p 0
q 0 p
q 0
0
p
0
o
o
o
0
0
p
q
rap
0
V
0
o
o
o
\
o
(1 - r a)p
1
/
gdzie p ,q ^ 0, p + q = 1, 0 ś, r0,r a < 1 . Gdy r0 < 1 i ra < 1, jest to błą­
dzenie z barierami pochłaniającymi (osiągając stan 0 lub a zostajemy tam
za zawsze). Gdy r0 = 1 = ra, to jest to błądzenie z barierami odbijającymi
(układ startując ze stanu wewnętrznego nigdy nie dotrze do 0 ani do a).
W języku teorii gier łańcuch ten odpowiada grze dwu przeciwników A i B,
w której obaj mają łącznie a złotych. Gracz A wygrywa 1 złoty w pojedyn­
czej grze z prawdopodobieństwem p. Stan układu w momencie n odpowiada
kapitałowi gracza A w momencie n. fix0(k) = 1, gdy początkowy kapitał
gracza A wynosi k.
Dojście do stanu 0 (odp. a) 'oznacza ruinę gracza A (odp^B ). Za każdym
razem, gdy gracz A (odp. B ) przegrywa ostatnią złotówkę, to przeciwnik mu
ją oddaje z prawdopodobieństwem ro (odp. ra), a z prawdopodobieństwem
1 —ro (odp. 1 —ra) gra się kończy. Gdy są dwie bariery odbijające, to gra
nie kończy się nigdy. ■
Podstawowe własności jednorodnego łańcucha Markowa zawiera
T w ierdzen ie 10. Gdy (X n)'^LQjest jednorodnym łańcuchem Markowa, to
zachodzą następujące zależności, przy założeniu, że w punktach (a), (b), (c)
warunki w prawdopodobieństwach warunkowych mają dodatnie prawdopo­
dobieństwa:
(a) dla dowolnych m ,n £ N i dowolnych
sq, s
% ,. . . ,
sn € S
P (X i = s i ,X 2 = S2> ••■,X n = sn|.Xo = so) =
P(-^7Tl+l “ Sl, . . . , X n+m = sn\Xm — Sq) ,
Rozdział 12. Łańcuchy Markowa
270
(b) dla dowolnych m ,n G N i dowolnych so, sj € S
■P(-X"n+m = Sll-^m = sa) = P {X n = Sl|-Xo = -So);
(c) dla dowolnych m ,n £ N i dowolnych ¿o, i i , . . . , im, ji , ■■■j n 6 5
P {X i " ¿1, . . . , X m
-^ra+1 = jh - - ■j -^m+n — ./nj-^O) ~ ^o) ~
— P (X i = ¿1, . . . , X m
im ]X q
io)P(,Xl
j l , . . . , X n ” j n \Xq = %m) ]
(d) jeśli A e cr(Xn, X n+i , .. .) , to PM |X0, X l5. . . , Z n) = P (A | X n).
D o w ó d . Punkt (a) jest oczywisty, gdyż z twierdzenia o mnożeniu i z defi­
nicji jednorodnego łańcucha Markowa
P (X x — Sl y' •■’
Sn \Xq
Sq)
“ PsqSiPsiS 2 •■•P sn- i s n
S i , - - - , X rrl-^~n “
~ So).
Punkty (b) i (c) dowodzi się podobnie.
(d) Rodzina zbiorów .4 spełniających ten warunek jest A-układem. Ro­
dzina C zbiorów
6 B i , ... , X km 6 Bm}, n < ki < fc2 < ••• < km,
m = 1 ,2 ,..., Bi C S, jest 7r-układem zawartym w A, więc z lematu o tti A-ukladach cr(C) = a (X n, X n+1, .. .) C A. To, że £ C A wynika z poniż­
szej zależności, zachodzącej dla dowolnego m:
X 0, . . . , X n ) = £ M l 1l-{x n+teBl} X r.
1=0
( 3)
którą dowodzimy indukcyjnie. ■
Macierz przejścia P łańcucha Markowa składa się z prawdopodobieństw
przejść w jednym kroku. Zajmiemy się teraz możliwościami przejść w więk­
szej liczbie kroków. Już z przykładu 1 widać, że prawdopodobieństwa przej­
ścia w w krokach tworzą macierz
p n
ozn p ( n ) _
( p i3- ( n ) ) { j -e S
Udowodnimy, że P i j { n ) jest faktycznie prawdopodobieństwem przejścia ze
stanu Si do Sj w n krokach, czyli że
e N
pij(n) = P (X l+n = sj |Xi = Sl),
(4)
o ile P (X i = i) > 0.
Istotnie, dla n = 1 wzór (4) jest po prostu definicją macierzy przejścia. W y­
konamy teraz przejście indukcyjne: załóżmy, że (4) zachodzi dla pewnego
n; wykażemy jego prawdziwość dla n + 1. Niech zatem l będzie takie, że
§ 12.1. Definicja i przykłady
271
P (X i = Si) > 0 . Oznaczmy przez S+ zbiór takich stanów smj dla których
P (X i + 1 ~ sm, Xi — Si) > 0 i zauważmy, że pim — 0, jeśli m $ S+. Teraz
P{'Xl-\-n+l — Sj\Xi ~ Si)
—
^ ''j
—
£>{X i+ n-f-i
Sj\Xl^i
$rriiXi —
= S7n\Xi — $i) =
^>{,XlĄ-njr\
Sj\Xi +i = Sm)P(Xi-^i = 77l\Xi = Sj) =
{ 7n:sme5+}
—
^ ^
{ r n : s m G 5 -(-}
~
^ -/
Pmjip^Pim
{m .:sm G 5 -f}
'y ^
Pmjij^PiTn “ P i j ( j ł ~h 1),
{ m :s ,n € S }
czego należało dowieść.
Innym sposobem zapisu związku P (l)P (k ) — P (k + l), wynikającego stąd, że
P (n ) = P n są równania Chapmana-Kołmogorowa dla prawdopodobieństw
przejścia:
Vf c , / £ N
V S i,S j£S
Pijjk + l) — Y,Pim(k)Pmj{l),
Podsumujmy praktyczne wnioski z podanych twierdzeń i definicji: po pierw­
sze, macierz przejścia P jednoznacznie określa prawdopodobieństwa przejść
w dowolnej liczbie kroków. Tak na przykład:
P { X i = S j , X 7 = Sk ,X 13 = S[\X2 = Si) = pij(2)pjh(3)pki(6).
Po drugie, oznaczając
jemy z (4):
P i(n)
= P (X n = s,),
Si
£ S,
n
= 0 ,1 ,..., otrzymu­
Pi(n) = Y , P ( X n = Si|X0 = sk)P (X 0 = sk) = ] T p fci(n)pfc(0).
(5)
k
Zatem znając rozkład początkowy, dany przez wektor (p o(0 ),p i(0 ),...)
i macierz przejścia P możemy wyliczyć rozkład X n:
(po{n),Pi(n),
...) = (po(O)iPi (0 ),.. .)P n.
P rzy k ła d 11. Łańcuch Markowa o dwu stanach, S = {0 ,1 }, ma macierz
przejścia
Gdy poo / 1 lub pu ^ 1, łatwo udowodnić indukcyjnie (zad. 10), że
+
(1 - Poo )
1 - Pu
272
Rozdział 12. Łańcuchy Markowa
Ten prosty łańcuch Markowa opisuje wiele sytuacji, np. kolejne wyniki rzu­
tów monetą, system telekomunikacyjny przekazujący tylko cyfry 0 i 1, przy
czym na każdym etapie prawdopodobieństwo, że cyfra nie będzie zmieniona
wynosi p. ■
Łańcuchy Markowa zostały wprowadzone do teorii prawdopodobieństwa przez
matematyka rosyjskiego, Andrieja Andriejewicza Markowa (1856-1922). Marków
brał czynny udział w rosyjskim ruchu liberalnym. W 1913 roku, gdy uroczyście
obchodzono w Petersburgu 300-lecie panowania Romanowów, Marków zorganizo­
wał konkurencyjne obchody 200-lecia odkrycia prawa wielkich liczb przez Bernoulliego.
W tymże 1913 roku Marków przeanalizował ciąg 20000 liter poematu Puszkina
„Eugeniusz Oniegin” , by dowieść, że jest on dobrym przybliżeniem łańcucha Mar­
kowa. Dzieląc stany na samogłoski i spółgłoski otrzymał następującą macierz
przejścia:
Samogłoska
Spółgłoska
Samogłoska
0,128
0,663
spółgłoska
0,872
0,337
Rozkładem stacjonarnym (czyli odpowiednio unormowanym wektorem własnym
tej macierzy) jest (0,432; 0,568), co oznacza, że w tekście „Eugeniusza Oniegina”
powinno być 43,2% samogłosek i 56,8% spółgłosek. I rzeczywiście tak jest1.
Zadania
1. Niech (Un) będzie ciągiem niezależnych zmiennych losowych, (pn: S X R. —>5,
n = 0 ,1 ,2 ,... będą funkcjami borelowskimi (5 jest zbiorem przeliczalnym
z metryką dyskretną). Niech Xo będzie zmienną losową o wartościach w S
niezależną od ciągu (Un) i niech
A n+i =
U n ),
71 = 0 , 1 , 2 , . . . .
Wykazać, że (X n) jest łańcuchem Markowa.
2. Udowodnić twierdzenie 8, korzystając z zadania 1.
3. Niech (Un) będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie, P(Un = 1) = P(Un = —1) = 5 . Czy a) X n = Un ■Un+ 1, b)
Yn = Un+^n+1 Są łańcuchami Markowa?
4. Pokazać przykład łańcucha Markowa Xo, X i, ... i dowolnej funkcji borelowskiej / , takich że f ( X 0), f ( X 1) , .. . nie jest łańcuchem Markowa.
5. Udowodnić zależność (3) z dowodu tw. lOd.
1Fakty z życia Markowa podajem y za [SNE],
§ 12.1. Definicja i przykłady
273
6 . Niech X n będzie błądzeniem przypadkowym na prostej z przykł. 4, Xo = 0.
Pokazać, że ciągi (Yn) i (Zn), zdefiniowane wzorami
a) Yn = |X„|,
b) Zn —. Un X n, gdzie U7l = maxfc^nX^,
są łańcuchami Markowa; znaleźć ich macierze przejścia.
7. Niech X i Z będą łańcuchami Markowa o wartościach całkowitoliczbowych.
Czy X + Z musi być łańcuchem Markowa?
8 . Seminarium probabilistyczne jest organizowane przez matematyków z To­
runia, Warszawy i Wrocławia. Na zakończenie każdego spotkania losuje się
z równymi prawdopodobieństwami miejsce następnego spośród dwóch pozo­
stałych ośrodków. Czy taka procedura jest sprawiedliwa, zważywszy, że or­
ganizacja seminarium wiąże się z kosztami dla gospodarzy? Jakiego rodzaju
twierdzenie o łańcuchach Markowa rozstrzygnęłoby tę kwestię?
A na razie: podać macierz przejścia odpowiedniego łańcucha Markowa, obli- Patrz np. § 12.5.
czyć prawdopodobieństwa znalezienia się w poszczególnych stanach w chwili
n i ich granice przy n —* oo. Zbadać szybkość zbieżności.
9. Niech (Xn) będzie jednorodnym łańcuchem Markowa na przestrzeni proba­
bilistycznej (ii ,F ,P ) i niech no € N,s e S będą takie, że P (X no = s) > 0.
Wtedy na przestrzeni probabilistycznej (il,F ,P s), gdzie Ps jest prawdo­
podobieństwem na T zadanym wzorem PS(B) = P(B\Xno = .s), proces
^n(w) = Xng-i-n(w) jest łańcuchem Markowa z tą samą macierzą przejścia co
Xn i takim, że PS(Y0 = s0) = 6s(so).
10. Wykazać indukcyjnie prawdziwość wzoru na postać P(n) z przykładu 11.
IX. Cząstka porusza się wzdłuż osi OX ze stałą prędkością +v lub —v. W chwi­
lach 1, 2, . . . kierunek ruchu pozostaje bez zmian z prawdopodobieństwem p,
a z praw. q = 1 —p zmienia się na przeciwny. Zmienna X n opisuje kierunek
ruchu w momencie n. Znaleźć P (X „ = +u|X0 = -v ) , P (X 0 = +v\Xn = +«)
oraz rozkład X n, gdy wiemy, że P(X o = v ) = r.
12 . k kul białych i k kul czarnych umieszczono w dwu pudełkach, po k kul
w każdym. Stan układu jest opisany przez podanie liczby kul białych w
pierwszym pudełku. Przejście pomiędzy stanami odbywa się w następujący
sposób: z obu pudełek losujemy po jednej kuli (niezależnie od siebie), po czym
zamieniamy dla kuł pudelka. Znaleźć macierz przejścia dla takiego łańcucha
Markowa (jest to model dyfuzji Bernoulliego-Laplace’a przepływu płynów
pomiędzy dwoma zbiornikami).
13. Niech X, Y będą niezależnymi łańcuchami Markowa, oba z macierzą przejścia
P. Udowodnić, że Z = (X, Y) jest łańcuchem Markowa z macierzą przejścia
Pij,hk = PihPjk-
Czas oczekiwania na wystąpienie wzorca. Jak się okazuje, czas oczekiwania
na wystąpienie ciągu orłów i reszek (przykład 1) zależy od tego, czy przesunięty
wzorzec pokrywa się sam ze sobą. Dokładniej, jeśli A jest Z-elementowym, a B
— m-ełementowym ciągiem orłów i reszek, A^ oznacza ciąg pierwszych k wy­
razów, zaś A(fc) — ciąg ostatnich k wyrazów ciągu A, dla A: = 1 , 2 , . . . , min (i, m)
definiujemy
Rozdział 12. Łańcuchy Markowa
274
oraz
m in(£,m )
A :B =
Sh(A ,B ).
k=1
Sposób obliczania A : B najlepiej przedstawić na przykładzie:
0000
A =
B =
OOOR
OOOR
OOOR
OOOR
A :B =
0
8
4
2
14
*14. Wykazać, że średni czas oczekiwania na pojawienie się wzorca A jest równy
A : A.
Px' prawdopodo- * 15 . Wykazać, że jeśli gracz wybrał wzorzec A, a jego przeciwnik wzorzec B, to
bieństwo wygranej
szanse na korzyść B są równe
dla wzorca X.
Pb _ A : A —A : B
Pa
B : B - B : A'
Jest to wzór Conwaya.
*16. Wykazać, że jeśli jeden z graczy wybrał wzorzec o ia 2 . . . am, to drugi zmaksy­
malizuje szanse swojej wygranej, gdy wybierze lepszy z wzorców b a i. . . am_i,
gdzie b może być orłem lub reszką.
*17. Przenieść całą teorię wyłożoną w zadaniach 14-16 na przypadek niesyme­
tryczny. Pewnych wskazówek co do postaci wzorów dostarczają zad. 6.2.3
i przykład 6.2.4.
Funkcje harm oniczne. Jeśli (X n) jest łańcuchem Markowa o przestrzeni sta­
nów S i macierzy przejścia (pij), to funkcją harmoniczną nazywamy taką funkcję
f : S —>R , że istnieje stała A, dla której zachodzi równość
\f(*) = £ * , / ( * ) ■
3£S
18. Wykazać, że jeśli / jest funkcją harmoniczną na łańcuchu Markowa (X „)
o skończonej przestrzeni stanów, to ciąg (Anf ( X n),c r (X i,. . . , X n)) jest martyngałem.
19. Rozwiązać zagadnienie ruiny gracza konstruując odpowiedni łańcuch Mar­
kowa i funkcję harmoniczną.
20. We wzorach (1) i (5) kryje się — co prawda nieszkodliwe — oszustwo. Podać
poprawne dowody tych zależności, a następnie udowodnić zależność (4).
i
§ 12.2.
Klasyfikacja stanów
Badanie ewolucji jednorodnych łańcuchów Markowa o macierzy przejścia
P = (P ij)ijes zaczniemy od klasyfikacji stanów ze względu na możliwości
przejścia między nimi.
§ 12.2. Klasyfikacja stanów
275
Będziemy mówili, że stan sk jest osiągalny ze stanu Sj, gdy Pjk(n) > O
dla pewnego n (oznaczenie: Sj —t s k)- Stany sk i Sj nazywamy wzajemnie
komunikującymi się, gdy Sj —* sk i sk —>Sj (co oznaczamy Sj <— >s*).
Stan Sk nazywamy stanem nieistotnym, gdy istnieje stan Sj taki, że stan sj
jest osiągalny ze stanu sk, a stan sk nie jest osiągalny ze stanu Sj.
Na rysunku stan si jest nieistotny, stany s2 i s3 komunikują się wzajemnie.
P rz y k ła d 1. W błądzeniu przypadkowym po prostej (przykład 12.1.4)
i błądzeniu z barierami elastycznymi (przykład 12.1.9) wszystkie stany
są wzajemnie komunikujące się. W błądzeniu z barierami pochłaniającymi
stany 1 ,2 ,..., a — 1 są nieistotne. ■
Zbiór stanów C będziemy nazywali zamkniętym, jeżeli żaden stan spoza C
nie da się osiągnąć wychodząc z dowolnego stanu w C. Pojedynczy stan
Sk tworzący zbiór zamknięty (tzn. pkk = 1) będziemy nazywali stanem
pochłaniającym (na przykład w błądzeniu z barierami pochłaniającymi —
bariery, czyli stany 0 i a są stanami pochłaniającymi). Pochłaniające są
także stany OOR i ORO w przykładzie 12.1.1.
Łańcuch Markowa nazywamy nieprzywiedlnym, gdy wszystkie stany wza­
jemnie komunikują się.
U w aga 2. Rozpatrzmy zamknięty zbiór stanów C C S. Niech gy - py
dla Si, Sj 6 C (w macierzy P skreślamy wiersze i kolumny odpowiadające
stanom nie należącym do zbioru C). Wtedy macierz Q jest stochastyczna,
bo dla dowolnego s; 6 E
1 =
J 2 Pik = Y , ^
Sfc€S
sit£C
gdyż pik = 0 dla st e C, sk £ C z definicji zamkniętego zbioru stanów.
Oznacza to, że na C mamy zdefiniowany nowy łańcuch Markowa, który
określa zachowanie całego łańcucha po wpadnięciu do zamkniętego zbioru
stanów C.
S tw ierdzenie 3. Jeśli Si —> s j, Sj —» s/; , to Si —* sk.
Rozdział 12. Łańcuchy Markowa
276
D o w ó d . Weźmy r, n takie, że Pij(r) > 0, Pjk(n) > 0. Wtedy z równania
Chapmana-Kołmogorowa
P ik {n
+ r) = Y ^ P u ( r )Pik(ri) ^ p ij{r)p jk{n) > 0. ■
i
Dlatego relacja <— >, która jest symetryczna, jest także przechodnia.
W n iosek 4. Jeśli Si <— » Sj, Sj <— > s^, to Si <— >SkP rzy k ła d 5. Łańcuch Markowa na przestrzeni stanów S = { 1 , 2 ,. .. 5} ma
następującą macierz przejścia
/ °
1
2
0
0
\1
d> 1
0
3
0
4
1
0
2
0
0
0
12
1
4
1
2
0
°\
0
0
0
o )
,b )
(\
2
3
0
2
3
1
3
0
0
0
\0
0
0
0
°\
0
1
4
1
4
1
2
0
0
3
4
1
2
0
1
4
0
1
2
0
0
1
4
0
0
0
\1
0
/I
. c)
0
0
0
1
2
1
2
0
0
1
2
1
2
0
°\
1
4
0
0
0 /
Wtedy
a) stany 1,2,5 są nieistotne; {3 ,4 } oraz S są zamkniętymi zbiorami stanów;
gdy ograniczymy się do C = {3 ,4 } mamy nieprzywiedlny łańcuch Markowa,
b) {1 ,2 }, {3 ,5 }, {3 ,4 ,5 } i S są zamkniętymi zbiorami stanów, 4 jest stanem
nieistotnym; gdy ograniczymy się do Ci = {1 ,2 } lub C2 = {3 ,5 } mamy
nieprzywiedlny łańcuch Markowa,
c) 2,5 są stanami nieistotnymi; {1 }, {1 ,2 ,5 }, {3 ,4 } i S są zamkniętymi
zbiorami stanów, przy czym 1 jest stanem pochłaniającym, a gdy ogra­
niczymy się do {3 ,4 } to mamy nieprzywiedlny łańcuch Markowa. ■
Zadania
1. Niech Xi będą wynikami kolejnych rzutów kostką, i niech Zn będzie ostatnią
cyfrą liczby Xy ■ ■X n. Jakie są stany pochłaniające łańcucha Markowa
ZrJ
§ 12.3. Stany chwilowe i powracające
277
2. Mówimy, ze (X n) jest łańcuchem Markowa jednorodnym w czasie i w prze­
strzeni, gdy S = Z oraz
= P(X n+i = fc +
= i) = pk. Udowodnić,
że (X Jt) jest łańcuchem Markowa jednorodnym w czasie i w przestrzeni wtedy
i tylko wtedy, gdy X „ = Uo + ... + Un, gdzie (U i)^ jest ciągiem niezależnych
zmiennych losowych o jednakowym rozkładzie i wartościach całkowitoliczbowych, zaś Uo ~ Xo.
3. Udowodnić, że łańcuch Markowa jest nieprzywiedlny wtedy i tylko wtedy,
gdy zbiór stanów S nie ma właściwych podzbiorów zamkniętych.
4. Niech S = {1,2,3,4}. Przeprowadzić klasyfikację stanów łańcucha Markowa
o macierzy przejścia
0 0 0\
(\
0
a)
,c)
f7 7I °0 ,b) 0
\0
§ 12.3.
Stany chwilowe i powracające
Od tej chwili stan Sj łańcucha Markowa będziemy dla skrócenia notacji
określać tylko liczbą j.
Przy badaniu ewolucji łańcucha Markowa w czasie chcemy wiedzieć, do
których stanów łańcuch wraca nieskończenie wiele razy, a które po pewnym
czasie opuszcza bezpowrotnie.
Niech Fkj będzie prawdopodobieństwem, że łańcuch wychodząc ze stanu k
dotrze kiedykolwiek do stanu j . Wtedy
OO
Fk j = P ( \ J { X n = j} \ X 0 = k).
71=1
Gdy fk j{n) jest prawdopodobieństwem, że wychodząc ze stanu fc łańcuch
dojdzie po raz pierwszy do stanu j w n-tym kroku, tzn.
f kj(n) = P (X 1 # j , . . . , * n_! # j, X n = j\X0 = k)
to
OO
Fki = ^ f k j { n ) .
n=1
P rzy k ła d 1. Dla łańcucha Markowa o dwu stanach (S = {0 ,1 }, patrz
przykład 12.1.11) mamy: / 00(1) = poo, foo(n) = PoiPn"2Pio dla n ^ 2.
Zatem
OO
■Poo = ^
OO
foo{n) = Poo + E m P ? ! 2Pio
n~ 1
n —2
i -Poo = 1, gdy Poo = 1 lub pu < 1.
Gdy poo < 1 i p u < 1 to po analogicznych rachunkach otrzymujemy, że
Pio = Foi = F u ^ Fqo = 1. *
Rozdział 12. Łańcuchy Markowa
278
Ze wzoru na prawdopodobieństwo całkowite łatwo wynika (zad. 1), że praw­
dopodobieństwa Pkj{n) i fkj{n ) są związane równością
n
Pkj(n) =
fk i(m )Pjj(n - m ) =
(!)
f k^ n ~
771=1
dla dowolnych stanów j , k i dowolnego n ^ 1, gdzie pkj ( 0) = 8kjD efin icja 2. Stan j nazywamy
(а) powracającym, gdy Fjj = 1;
(б) chwilowym, gdy Fjj < 1.
Zatem stan j jest powracający, gdy łańcuch startujący ze stanu j powróci do
niego z prawdopodobieństwem 1. W przykładzie 1 stan 0 jest powracający,
gdy poo = 1 lub p n < 1Niech zmienna losowa Nj liczy, ile razy proces przebywa w stanie j , tzn.
Nj =
Następujące twierdzenie wyjaśnia lepiej nazwy: stan
powracający i chwilowy.
T w ie rd ze n ie 3. Stan j jest
(а) powracający wtedy i tylko wtedy, gdy P (N j = oo\X0 — j ) = 1/
(б) chwilowy wtedy i tylko wtedy, gdy P {N j < oo\X0 = j ) = 1.
D o w ó d . Oczywiście {Nj = oo} = limsupn{ X n = j } . Gdy Ak jest zdarze­
niem polegającym na tym, że X n = j dla co najmniej k różnych momentów
czasu n, czyli A k = { X ni = j dla pewnych ni < n? < .. . < n/c}, to
Afc+i C Ak i flfcLi
= linisupn{ X n = j } . Zatem z twierdzenia o ciągło­
ści:
lim P (A k\Xo = i) = P (lim su p {X n = j}| X 0 = i) = P (N j = oo|X0 = i).
fc—»oo
n
Teraz pokażemy, że
P (A k\X0 = i ) = F i j F f f 1.
(2 )
Wtedy z (2) otrzymujemy
0
Fij
dla Fjj < 1,
dla Fjj = 1.
, .
1 j
Biorąc i = j otrzymujemy:
P ( N j = oo|X0 = j ) = 1 <£> Fjj = 1
( 4)
P ( N j = oo|Xo = j ) — 0 <=?■ Fjj < 1,
( 5)
§ 12.3. Stany chwilowe i powracające
279
co daje tezę twierdzenia. Przejdziemy teraz do dowodu równości (2).
Ustalmy ni < n2 < ■••<
n k.
P (,Xm — j, l
k
Wtedy
, k, X n ^ j dla n ^ Tlii ti
Tik\X0 — z) —
7^ ii ••■I X ni-1 ^ j , X ni = j\X7ll_ 1 = j ) X
1= 2
x P(X x # j ....... X ni_ 1 / j, X ni = ¿1*0 =* i)] =
n
1=2
Sumując po wszystkich fc-elementowych ciągach rosnących rai,. . . , tik i kła­
dąc m i = n i, mi = ni —n;_i dla l > 1 otrzymujemy (2):
P(Ak\X0 = i) =
^
fij(m i)fjj{m 2) . . ■fjj(m k) =
7711,7712,.
CO
fc
= ( E
mi=l
co
- M m i ) ) I I ( E /»(roz)) =
1—2 mi —\
x. ■
U w aga 4. a) Z (3) wynika, że P (N j = oo|X0 — i) = Fij gdy j jest stanem
powracającym, a gdy j jest stanem chwilowym, to P (N j = oo\X0 = i) = 0.
Zatem w stanie chwilowym przebywamy tylko skończenie wiele razy, nieza­
leżnie od tego, skąd startujemy.
b) Stan nieistotny k jest stanem chwilowym na mocy (5), gdyż dla stanu j
takiego, że k —>j i -i(j —^ k) jest P (N k < oo|X0 = k) > P k j { n ) > 0 (patrz
także zad. 9).
Podamy teraz drugie twierdzenie charakteryzujące stany chwilowe i powra­
cające za pomocą macierzy przejścia P. Niech
oo
oo
= E P ( Z " = j\x ° = 3 ) =
Pi =
71=1
71=1
OO
= £
£ ( I « } ( * » ) |* o = j ) = £ (Ns I * 0 = i ) ,
71=1
a więc Pj jest średnim czasem przebywania łańcucha Markowa w stanie j.
T w ierdzen ie 5. Stan j jest
(a) powracający wtedy i tylko wtedy, gdy Pj = + oo;
[b) chwilowy wtedy i tylko wtedy, gdy Pj < oo.
Rozdział 12. Łańcuchy Markowa
280
D o w ó d . Korzystając z (1) mamy
n
k=l
n
k —1
k= 1 m = 0
71 — 1
71
71
= E
- m) < E
771=0
fc = 7 7 l - j - l
P n (m )Fi3 =
771 = 0
71
= F y + Fjj Z ! Pii (m ) ■
771=1
Stąd
71
(1 —F jj)
P ii(m ) ^ Fjj-
(6)
771=1
Udowodnimy najpierw punkt b) twierdzenia.
Gdy stan j jest chwilowy, to na mocy (6)
Pj <
F3~ ~ < oo.
A»
Gdy Pj < oo, tzn. £ (2Vj |X 0 = j ) < oo, to P(iVj = oo|X0 = j ) = 0, więc
z poprzedniego twierdzenia j jest stanem chwilowym.
Możemy teraz udowodnić punkt a).
Gdy j jest stanem powracającym, to nie może być Pj < oo, bo wtedy
z punktu b) twierdzenia wynikałoby, że stan j jest chwilowy. Załóżmy, że
Pj = oo. Gdyby było Fjj < 1, to lewa strona (6) byłaby nieograniczona,
a prawa ograniczona — sprzeczność. Zatem Fji —
czyli j jest stanem
powracającym. ■
Stw ierdzenie 6. Jeżeli j jest stanem chwilowym, to dla każdego stanu i
T ,n=lPij(n) < °°> zatem linin-ooPijfa) = 0.
D o w ó d . Dla i = j teza wynika z twierdzenia 5b. Gdy i ^ j , to z (1)
wynika, że
OO
71=1
=EE fn(m)Pii(n-™)=
OO
71
71=1 771=1
oo
= E
771 =
OO
E
oo
oo
fij(m )Pii(n - m) = E
1 71 =7 71
-- FijPj ^ OO,
gdyż j jest stanem chwilowym. ■
771 =
Y s P iiW =
1
¿=
1
§ 12.3. Stany chwilowe i powracające
281
P rzy k ła d 7 (B łądzen ia), a) Błądzenie przypadkowe po prostej. S = Z.
Z dowolnego stanu j przechodzimy na prawo do stanu j + l z prawdopodo­
bieństwem p, a na lewo do stanu j - l z prawdopodobieństwem q = 1 —p.
Zatem P j j + i = p, P j , j - i = q, P jk = 0 gdy |j - k\ £ 1. Zbadajmy czy zero
jest stanem powracającym. Otóż
gdzie do otrzymania przybliżenia użyliśmy wzoru Stirlinga. Do zera mo­
żemy wrócić tylko w parzystej liczbie kroków, zatem p oo(2 n + 1 ) = 0.
Stąd Y^=iPooin) < oo dla p ^
bo wtedy O < 4pq < 1. Dla p = §,
Po»(n) ~ 00•Otrzymaliśmy następujący wynik:
Zero jest stanem powracającym wtedy i tylko wtedy, gdy p = |.
b) Błądzenie przypadkowe w przestrzeni R *. k ^ 2.
Niech
gdzie X 1, X 2, . . . , Jfr‘ są niezależnymi błądzeniami losowymi po prostej.
Wtedy
k
P o o (2 n )
=
f[
P(X'2n = 0|X‘ = 0) = [ ( 2" ) p V ] fc
Poo(2n + 1) = 0.
Zatem dla k = 2 i p = A mamy
n—1
n—1
czyli zero jest stanem powracającym.
Dla fc = 2 i p / | zero jest stanem chwilowym. Dla k > 3 mamy
i każdy stan jest chwilowy. Zatem wychodząc z zera łańcuch może z dodat­
nim prawdopodobieństwem nigdy tam nie wrócić. ■
Wydaje się, że nie ma powodu, by w powyższym przykładzie stan zero był
stanem wyróżnionym. I tak rzeczywiście jest.
Rozdział 12. Łańcuchy Markowa
282
T w ierd zen ie 8. W nieprzywiedlnym łańcuchu Markowa wszystkie stany
są tego samego typu: jeżeli jeden jest powracający (odp. chwilowy) to wszyst­
kie są powracające (odp. chwilowe).
U w aga 9. Twierdzenie to mówi, że wszystkie stany są tego samego ro­
dzaju, więc możemy mówić o łańcuchu Markowa określonego rodzaju, np.
powracającym.
D o w ó d twierdzenia 8. Weźmy dwa dowolne stany: j , k. Wtedy istnieją
liczby naturalne N , M > 0 takie, że a — p kj(N ) > 0, 0 = p jk(M ) > 0. Dla
n € N mamy
P j j ( N + M + n) = ^ 2 Pji{M)pu(n )pij(N) > Pjk{ M ) p kk(n)pkj(N) =
= a/3pkk(n).
Analogicznie, pkk{ N + M + n) ^ a(3pjj(n). Stąd, dla n > M + N ,
+ M + n) ^ Pkk(n) > a/3pjj(n - M - N ),
(7)
zatem asymptotyczne własności ciągów Pkk{n) i Pjj(n) są identyczne: na
przykład Y,n=i Pij (n ) = 00 ^ ¿ y 1 ty11*0 wtedy, gdy ¿ “ =1 pkk{n) = oo. ■
Z tego twierdzenia i z przykładu 7 przed nim wynika, że dla symetrycznego
błądzenia przypadkowego na prostej i na płaszczyźnie wszystkie stany są
powracające, natomiast dla błądzenia w R k, k > 3, wszystkie stany są
chwilowe. Stąd, jak zauważył W. Feller, zdanie „wszystkie drogi prowadzą
do Rzymu” jest prawdziwe na płaszczyźnie, a nieprawdziwe w R 3.
W n io se k 10. Jeżeli łańcuch Markowa jest powracający, to dla każdego
stanu j
P (3n > 1 X n = j ) = 1
niezależnie od rozkładu początkowego X q.
D o w ó d . Ponieważ Fy = 1 dla każdego i (zad. 9), to
P (3n > 1
oo
X n = j) = P { (J {X n = j} ) =
n=l
=Z U
oo
n= 1
= E i ’y W
=
^}\Xo = i) P {X o =
i) =
= 0 = i-«
¡es
Posługując się klasyfikacją stanów na chwilowe i powracające można prze­
strzeń stanów S podzielić na klasy, o czym mówi
§ 12.3. Stany chwilowe i powracające
283
T w ierdzen ie 11. Przestrzeń stanów S łańcucha Markowa można jedno­
znacznie przedstawić w postaci sumy:
S = T U Si U S2 U . . . ,
gdzie T jest zbiorem stanów chwilowych, a Si są nieprzywiedlnymi zamknię­
tymi zbiorami stanów powracających.
D o w ó d . Dla stanu powracającego j, j e S \ T , niech Sj = {k: k *-> j } . Sj
jest zamkniętym zbiorem stanów wzajemnie komunikujących się. Sk = Sj
dla k G Sj oraz Sk n Ą- = 0 dla k (Sj U T). Zatem S \ T rozbija się na
rozłączne klasy, które możemy ponumerować: Si,S 2, __ ■
Z twierdzenia wynika, że gdy X 0 = k i k 6 Sn, to łańcuch Markowa nigdy
nie opuści Sn i możemy wziąć Sn jako całą przestrzeń stanów, a jeśli k € T ,
to łańcuch pozostaje w T cały czas lub trafia do jakiejś klasy Sm, gdzie już
pozostaje.
Zadania
1. Udowodnić równość (1), czyli:
Tl
Pkj(n) = ^
71—1
fk j(m )p jj(n - m ) =
m = l
^
f kj(n
- m )p j j (m )
m =0
2. Zbadać, czy są powracające następujące łańcuchy Markowa opisujące błą­
dzenia losowe po kracie 2 d, d > 1.
a) Poruszamy się wzdłuż wersorów. Zn+ 1 = X „ + Jn+1, zmienne losowe Jn
są niezależne o tym samym rozkładzie, P(Ji = ±en) = ^¿, gdzie e i , . . . ,ed
są wersorami w R d.
b) Jeżeli w momencie n jesteśmy w punkcie a, to traktując a jako środek
kostki skaczemy ze środka na jeden z wierzchołków.
X n+1 = X n + Ki+it Yn — niezależne, o tym samym rozkładzie.
P(Yn = (ei,...,e<i)) =
£¿ = ±1.
3. Wykazać, że dla stanu chwilowego i zachodzi
4. Wykazać, że jeśli stan j jest powracający oraz i —>j, to J 2 ^ iP ii(n') = °°5. Wykazać, że jeśli j jest stanem chwilowym, to
stanu i. W szczególności limnp;3(7i) = 0.
P*i(n) < 00
dowolnego
Rozdział 12. Łańcuchy Markowa
284
6. Niech łańcuch Markowa z przestrzenią stanów S = {0 ,1 ,2 ,...} ma macierz
przejścia postaci: p01 = Po, Poo = 1 —Po, Pn,n+i = Pn, Pno = 1 - PnKiedy ten łańcuch jest powracający, a kiedy chwilowy?
7. Udowodnić, że łańcuch Markowa o skończonej liczbie stanów nie może skła­
dać się z samych stanów chwilowych. Czy jest to prawda dla łańcuchów
Markowa z przestrzenią stanów 5 = {1 ,2 ,...}?
8. Udowodnić, że dla skończonego łańcucha Markowa j jest stanem chwilowym
wtedy i tylko wtedy, gdy j jest stanem nieistotnym. Czy jest to prawda dla
łańcuchów o przestrzeni stanów nieskończonej?
9. Udowodnić, że jeśli łańcuch Markowa jest powracający, to Fij = 1 dla każ­
dych stanów i, j.
10. Niech (X,“) i (X%) będą symetrycznymi błądzeniami przypadkowymi na pro­
stej, startującymi odpowiednio z punktu a € Z i &€ Z. Jaka jest szansa, że
te dwa błądzenia spotkają się w pewnej chwili w jakimś punkcie?
§ 12.4.
Łańcuchy okresowe
Widzieliśmy już, że nie zawsze można wrócić do punktu wyjścia w dowolnej
liczbie kroków. Na przykład dla błądzenia przypadkowego na prostej powrót
do danego stanu może nastąpić tylko w parzystej liczbie kroków. Mówimy
wtedy, że stan ma okres 2. Ogólnie, przyjmiemy następującą definicję.
D efin icja 1. Okresem stanu j nazywamy liczbę
o (i) = N W D {n :pi j ( n ) > 0 } .
Jest to największy wspólny dzielnik zbioru takich n, że powrót do stanu j
może nastąpić po n krokach.
Stan j nazywamy okresowym, gdy o (j) > 1 i nieokresowym, gdy o (j) = 1.
Oczywiście
Pjj(n)
= 0 dla
n
nie będących wielokrotnościami o (j).
T w ierd zen ie 2. W nieprzywiedlnym łańcuchu Markowa wszystkie stany
mają ten sam okres.
D o w ó d . Weźmy dwa dowolne stany i, j . Niech di = o(i),dj — o (j). Ponie­
waż i *-* j , to istnieją m, l takie, że P i j ( l ) > 0 , P j i ( m ) > 0. Niech n będzie
takie, że P j j { n ) > 0. Wtedy
pu(l + m + n) ^ Pij(l)Pjj(n)pji(m ) > 0,
zatem di dzieli l + m + n. Także pu(l + m) > 0, więc di dzieli l + m, stąd
di dzieli n. Zatem di < dj, bo dj = N W D {n:pJ;,(n) > 0}. Analogicznie
rozumując otrzymujemy, że di ^ dj, wobec tego dt = dj. ■
Dlatego możemy mówić o okresie samego łańcucha i ma sens definicja:
§ 12.4. Łańcuchy okresowe
285
D efinicja 3. Nieprzywiedlny łańcuch Markowa nazywamy okresowym, gdy
jego stany są okresowe z okresem d > 1. W przeciwnym przypadku łańcuch
nazywamy nieokresowym.
Opiszemy teraz przestrzeń stanów takiego łańcucha.
Twierdzenie 4 (O rozkładzie na podklasy cykliczne). Zbiór stanów
S okresowego łańcucha Markowa o okresie d z macierzą przejścia P można
przedstawić jako sumę rozłącznych zbiorów S i, . . . Sd takich, że
(i) jeśli
> 0,i e Sm, to j € Sm+i (przyjmujemy, że Sd+i = Si),
(ii) jeśli na Sm zadamy macierz przejścia p
= P i j ( d ) , i , j G Sn, to
otrzymamy nieprzywiedlny nieokresowy łańcuch Markowa.
D o w ó d . Niech Sm = { j e S:Bk 6 N pij(kd + m) > 0}. Łańcuch jest
nieprzywiedlny, więc dla każdego j € S istnieje n takie, że P ij(n) > 0, więc
S = Si U S2 U . . . U Sd.
Rozłączność zbiorów Sn wynika natychmiast z przechodniości relacji kongruencji i stąd, że jeśli j e Sm oraz pij(s) > 0, to s = m (m odd). Ten
ostatni fakt ma miejsce, gdyż P j i ( t ) > 0 dla pewnego t, zatem p n (k d + m +
t ) > 0 i P n (s + t ) > 0 . Stąd d dzieli m + t i dzieli s + 1, więc s s m (modd).
(i) zachodzi, gdyż
> 0 i pu(kd + m) > 0 dla pewnego k, pociąga
Pij(kd + m 4-1) > 0, zatem j S Sm+i.
Aby udowodnić (ii), wykażemy, że
Z
P i?} =
Z
P i j ( d) =
j£Sm
jest macierzą przejścia.
'
Dla dowolnego i e Sm mamy
J 2
Pii ( d) +
j&Sm
'iJeSm.
Z
Pii ^
=
=
j£S\Sm
ponieważ P i j ( d ) = 0 dla j £ Sm (z punktu (i) wynika, że w jednym kroku
przechodzimy z Sk do Sk+1, k = 1 , 2 1 , a z Sd do Sj, zatem w d
krokach przechodzimy z Sm do Sm). ■
Z tego twierdzenia wynika, że często badanie okresowych łańcuchów Mar­
kowa można sprowadzić do badania łańcuchów nieokresowych.
Zadania
1. Czy łańcuch Markowa o macierzy przejścia
/°
0
(l
jest łańcuchem okresowym?
i
2
Rozdział 12. Łańcuchy Markowa
286
2. Udowodnić, że jeśli dla macierzy przejścia nieprzywiedlnego łańcucha Mar­
kowa istnieje takie j, że pjj > 0, to łańcuch nie jest okresowy.
3. Czy jeśli wszystkie elementy na przekątnej macierzy przejścia nieprzywiedl­
nego łańcucha Markowa są równe zeru, to łańcuch jest okresowy?
§ 12.5.
Rozkłady stacjonarne i twierdzenia ergodyczne
Okazuje się, że dla wielu łańcuchów Markowa (X n) wpływ rozkładu począt­
kowego na prawdopodobieństwo znalezienia się układu w ustalonym stanie
maleje wraz ze wzrostem n. Taką sytuację widzieliśmy w § 12.1 (przykład
5). Z kolei zad. 12.1.8 sugeruje, że ma miejsce szybka zbieżność rozkładów
(X n) do tak zwanego rozkładu stacjonarnego.
Zajmiemy się teraz tym zjawiskiem. Zaczniemy od rozkładów stacjonar­
nych.
D efin icja 1. Mówimy, że rozkład prawdopodobieństwa (ttj) j e s jest rozkła­
dem stacjonarnym dla łańcucha Markowa o macierzy przejścia P , gdy
7r = 7TP,
czyli gdy Y lje s nj = 1 omz
każdego j jest itj ^ 0 i tcj =
^iPij■
P rzy k ła d 2. Znaleźć rozkład stacjonarny dla łańcucha Markowa o macie­
rzy przejścia P , gdzie
. 3
3
1
0
0
1
Ad. a) 7r = ttP tzn.
1
1
-J T i +
-7 r
1
2
27rlri ++
2=
=
3?
2=
7Tl + 7T
7T1,
7T2
1.
Stąd TTl = f , 7T2 = f ■
Tu nie jest Ad. b ) Dla każdego wektora 7r = (7ri,7r2) mamy 7r = 7rP, więc istnieje
prawdą, że nieskończenie wiele rozkładów stacjonarnych. Każdy jest wyznaczony przez
Pjdn) -*■ *3- ^ g [o, lj (wtedy 7r2 = 1 — jti). ■
Gdy 7r jest rozkładem stacjonarnym, to 7rP2 = (7rP )P = 7rP = 7r i przez
indukcję 7rP" = 7r. Zatem, gdy Xo ma rozkład 7r, to jak wiemy X n ma
rozkład n P n = tt, czyli ciąg (X n) jest ciągiem zmiennych losowych o tym
samym rozkładzie. Stąd właśnie nazwa „stacjonarny” .
§ 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
287
P rzyk ła d 3. M o d e l Ehrenfestów. k cząsteczek rozmieszczono losowo
w dwu naczyniach ( / i II). W chwili n losowo wybraną cząsteczkę przenosi
się z naczynia, w którym była, do drugiego. Jeśli w pewnej chwili w naczyniu
I jest rri > 0 cząsteczek (układ jest w stanie m), to w chwili następnej układ
znajdzie się w stanie m —1 lub m + 1, zależnie od tego czy cząsteczka przeszła
z naczynia / do I I , czy odwrotnie. Znaleźć rozkład stacjonarny.
R ozw iązanie. S = { 0 ,1 ,..., k },p ii-i = j:,piti+i =
Pozostałe ele­
menty macierzy przejścia są zerami. Rozkład stacjonarny tc spełnia równa­
nie 7r = 1rP, tzn.
TTl
W° - T ’
2
Xl =
Ko +
n =
Stąd 7Tl
ogólnie
=
-7 T 2 ,
— — J m -i + —¡r—7Ti+i,
fc7r0,7T2 =
- 7T0)
=
ni =
( 2) 710, 7T3 = § (7T2 -
= G )71'0’
/ = 0,1, — /s.
Ponieważ J2i=o ^ = 1, to tto = p- i 7r; = (^)
jest rozkładem dwumianowym. ■
a więc rozkład stacjonarny
Zajmiemy się teraz asymptotyką ciągu (p ij(n ))n. Zaczniemy od lematu.
L em at 4. Jeśli (X n) jest nieprzywiedlnym, nieokresowym łańcuchem Mar­
kowa, to dla każdej pary stanów i , j mamy Pij(n) > 0 dla dostatecznie du­
żych n.
D o w ó d , j jest stanem nieokresowym, czyli o (j) = 1, więc istnieją liczby
naturalne wj, n2, . . . , nr takie, że P j j { n m ) > 0, m — 1 , . . . , r oraz
N W D (n !,.. . ,n r) = 1.
Istnieje takie no, że jeśli n ^ no, to n = aini + a2n2 + . . . a Tnr, gdzie
aj — całkowite, ai ^ 0, i = 1,2, . . . r . Istotnie, największym wspólnym
dzielnikiem zbioru C = {n :p jj(n ) > 0} jest 1, więc istnieją n i ,. . . , nr G N
oraz l i , . . . , l r e Z takie, że Y n=ihni = 1- Niech no = ni
\k\niWtedy n ^ no ma przedstawienie postaci n = no + kni + m , gdzie k ^ 0,
m < n i. Stąd
r
n = knx +
+
¿=1
Rozdział 12. Łańcuchy Markowa
288
czyli n = aini + .. . 4- arnr , gdzie aj > 0, Z = 1 ,2 ,... r. Wtedy dla n > no
T
n
T
P jj{n) > J J p jj(a mT^rn) ^
m —1
[Pn(n m)]
m =l
Ponieważ Pij{t) > 0 dla pewnego t, to pij(t + n) > Pij(t)Pij(n) > 0 dla
n > no- ■
T w ierdzen ie 5. Niech (X n) będzie nieprzywiedlnym, nieokresowym łań­
cuchem, Markowa, dla którego istnieje rozkład stacjonarny n. Wtedy
(i) (X n) jest łańcuchem powracającym,
(ii) limn_ KXjpj;;'(n) = nj > 0 dla wszystkich stanów i , j ,
(iii) rozkład stacjonarny jest jedyny i TTj =
sem powrotu łańcucha do stanu j.
, gdzie fij jest średnim cza­
U w aga 6. a) W przykładzie 2b istniało nieskończenie wiele rozkładów sta­
cjonarnych, bo łańcuch nie był nieprzywiedlny (zobacz też zad. 2).
b) Twierdzenie pozwala łatwo znajdować średnie czasy powrotu /j,i , znacznie
łatwiej niż korzystając z samej definicji.
c) Dla łańcucha Markowa spełniającego założenia twierdzenia
P ( x n = j ) = Y , p (x ° = 0 p « ( n ) ------- > TT’
niezależnie od rozkładu początkowego X q. Nieformalnie oznacza to, że łańcuch zapomina, skąd wystartował.
:
d) Rozkład tt jest często nazywany rozkładem granicznym.
e) Jeśli łańcuch Markowa ma skończenie wiele stanów, to dla zachodzenia
tezy twierdzenia wystarczy założyć, że łańcuch jest nieprzywiedlny i nieokresowy (patrz tw. 9). Wtedy dowodzimy istnienia rozkładu stacjonarnego.
8
|
|
D o w ó d twierdzenia 5. Jak wiemy, gdy ir jest rozkładem stacjonarnym, to
dla każdego j
|
|
ITj = Y ^ WiPij(n)-
w
¿es
(i) Najpierw wykażemy, że łańcuch jest powracający. Gdyby był chwilowy,
to limn_>oo p^ (n) = 0, i z (1) oraz z twierdzenia Weierstrassa o zbieżności szeregów2 wynika, że -Kj = 0 dla każdego j — sprzeczność, ponieważ
V . Kj ^ 0. Zatem łańcuch jest powracający
2Twierdzenie to jest dyskretną wersją twierdzenia Lebesgue’a o zbieżności zm ajoryzowanej: jeśli |anm |^ c „ i
< oo, m , n £ N , to limm ^ 2 n “ nm = ]T)n **mm
•
|
I
|
|
g
1
§ 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
289
(U) Wykażemy, że jeśli ir = ( t t j ) jest rozkładem stacjonarnym, to dla do­
wolnych stanów ijj- limn—,co P ij (^) — TTj.
Rozpatrzmy łańcuch Markowa (X n, Yn), na przestrzeni stanów S x S, z ma­
cierzą przejścia P zadaną wzorem: pij%
u = Pik •Pji■ Taki łańcuch istnieje
(tw. 12.1.8), bo P jest macierzą stochastyczną, co wynika z tego, że P jest
macierzą stochastyczną (patrz też zad. 12.1.13).
Ponieważ P i j ( n ) > 0 dla dostatecznie dużych n (lemat 4), to P i j , k i ( n ) > 0
dla dostatecznie dużych n (korzystamy tu z nieokresowości), więc (X n, Yn)
jest nieprzywiedlnym łańcuchem Markowa. Jak łatwo zauważyć, jest on
nieokresowy i 7Ty = Wi ■Wj jest rozkładem stacjonarnym, więc (X n, Yn) jest
łańcuchem powracającym (punkt (i) dowodu).
Niech r = inf{n: X n = Yn = 1}. Ponieważ z uwagi 12.3.4 i zadania 12.3.9
wynika, że P(Nu = oo|X0 = i,Y0 — j ) = 1 dla dowolnych stanów
to
P (r < oo|Xo = i,Y0 = j ) = 1. Dlam
n zachodzi (korzystamy z własności
12.1.8c, b)
P {(X „, Yn) = (k, h), t = m\X0 = i,Y 0 = j ) =
= P ((X U, Yu) # (l, 0 , u < m, (X m,Ym) = (l, l)\X0 = i,Y 0 = j ) ■
■P((Xn_ m,y n_ m) = {k,h)\X0 = l,Y0 = l) =
= P ( t = m\X0 = i, Yo = j)pik{n - m)plh(n - m).
Sumując po wszystkich możliwych stanach h (odpowiednio k) otrzymujemy
P {X n = k ,r = m\X0 = i, Y0 = j ) - P ( t = m\X0 = i, Y0 = j)pik{n - m)
P(Yn = h ,r = m|X0 — i , Y o = j ) = P ( t = m|X0 = i, Y0 = j)pih(n - m)
Biorąc k = h, dostajemy:
P (X n = k ,r = m\X0 = i,Y0 = j ) = P (F n = k ,r = m\X0 = i,Y 0 = j )
Sumując po rn si n mamy
P {X n = k ,r ^ ra|X0 = i,Y0 = j ) = P(Yn = k ,r < n|X0 = i, Y0 = j) .
Stąd
P (X n = k\X0 = i,Y0 = j ) ź
< P (X n = £, r s? n|X0 = *, io =
i) + ^ ( t
> « l^ o = i,Y 0 = j ) =
= P(Yn = k , r ^ n|X0 = », ło = i ) + P i j > n|X0 = *,
= .?) ^
< P(Yn = fc|X0 = t, y0 = J) + P (r > n\X0 = i, Y0 = j) .
Zamieniając rolami X i Y mamy
P(Yn = k\XQ= i,Y0 = j ) <
< P {X n = k\X0 = i,Y0 = j ) + P ( t > n\X0 = i,Y 0 = j)-
:U
290
Rozdział 12. Łańcuchy Markowa
Zatem
|
\pik{n) -P jk { n )| =
= |P (X n = k\X0 = i,Y o = j ) ~ P (Y n = k\Xo = i, Y0 = j)| <
< P ( t > n |X0 = i , Y 0 = j ) .
Ponieważ P ( t < oo[X0 — i,Y 0 — j ) = 1, to limn \pik(n)-pjk(n)l = 0. Stąd,
z (1) i z twierdzenia Weierstrassa (patrz ostatni przypis):
TTfc -P jk {n ) =
rri
i€&
i{pik{ń) ~ P jk (n ))------->0,
n—*oo
co daje (ii) : limn^ooPjk(n) = Kk(iii) Jedyność rozkładu stacjonarnego wynika z (ii), bo gdy ir' jest innym
rozkładem stacjonarnym, to nj = limn pjj (n) — 7r'-. Wykażemy teraz, że
dla każdego i jest nj > 0 oraz itiUi = 1. Stąd wynika, że fii =
< oo, więc
i jest stanem powracającym, a że łańcuch jest nieprzywiedlny, to wszystkie
stany są takie.
Załóżmy, że itj = 0 dla pewnego j . Wtedy 0 = nj =
mpij(n) > -KiPij(n)
dla każdego i oraz n. Ponieważ łańcuch jest nieprzywiedlny, to dla każdego
i istnieje n = n(i) takie, że P i j ( n ) > 0, a więc 7Tj = 0 dla każdego i —
sprzeczność.
Zatem -Ki > 0 dla każdego i. Niech zmienna losowa X 0 ma rozkład ir. W tedy
OO
7T j U
j
|
= tt,-
OO
^ 2 P (T n
>
n =l
n | * o = •?) = S
P
n= 1
(T i j
>
n \X °
=
j ) p (x °
=
j)
=
oo
= J 2 P (Ti i > n ’ X o =■?')■
n= 1
Oznaczmy cn = P (X m ^ j, 0 < m < n) dla n = 0 ,1 ,2 ,.... Ponieważ j jest
stanem powracającym, limn-,,*, cn = 0. Z kolei, ponieważ dla n > 2
P (T jj > n , X Q= j ) =
= P (X o = j,
= P (X m
= Cn —2
^ j dla 1 < m < n - 1) =
j, 1 < m < n - 1) - P (X m ^ j, 0 < m < n - 1) =
^n—1j
to
jf^j
P(Tjj
lj-^0
j) + / ^ (Cn—2
Cn—i)
n=2
= P (X 0 = j ) + P (X 0 ^ j ) -
lim cn = 1. ■
§ 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
291
Niekiedy twierdzenie 5 jest nazywane twierdzeniem ergodycznym, a łańcuch
Markowa, dla którego istnieją granice limn Pij(n) = iij > 0 — łańcuchem
ergodycznym. Można pokazać, że jeśli łańcuch Markowa jest nieprzywiedlny, powracający, a wartości oczekiwane czasów powrotu są skończone, to
istnieje rozkład stacjonarny (zad. 10).
P rzyk ła d 7 (Sztuczka karciana). Potasuj talię kart i odkrywaj karty
po jednej. Każda figura liczy się za 10, as za 1, pozostałe standardowo. Po­
proś partnera, żeby wybrał jedną z dziesięciu pierwszych kart. Jeśli ma ona
wartość n, to partner opuszcza (n - 1) kolejnych kart i przechodzi do karty
n-tej z kolei, itd. W końcu trzeba będzie przejść do karty, która powinna
być m kart dalej, ale nie będzie już tylu kart. Partner zapamiętuje ostatnią
obejrzaną kartę, a ty ją odgadujesz z dużym prawdopodobieństwem. Jak to
zrobić, gdy nie znamy karty, od której zaczął partner?
Powtarzamy tę samą procedurę zaczynając od jakiejś ustalonej przez nas
karty. Mamy dwa niezależne łańcuchy Markowa o tej samej macierzy przej­
ścia i o różnych punktach startu. Jak wynika z dowodu twierdzenia ergodycznego, gdyby talia miała nieskończenie wiele kart każdej wartości, to
łańcuchy Markowa „skleiłyby się” z prawdopodobieństwem 1 i dalej zacho­
wywałyby się tak samo. Zatem jest duża szansa, że karty z tych łańcuchów
Markowa spotkają się, nim talia się skończy. ■
Z twierdzenia ergodycznego można otrzymać informacje o średniej częstości
przebywania łańcucha Markowa w zbiorze.
W n iosek 8. Niech (X n) będzie łańcuchem ergodycznym, A C S, i niech
vn(A) oznacza średni czas przebywania łańcucha Markowa w zbiorze A do
momentu n, tj.
„ A(n) = 1 /( * o ) + --- + 1 a P Q
Wtedy
£ {v n( A ) \ x 0 = i ) — » y v - .
n—ton • ■*
jeA
D ow ód.
£ («/„(A)\X0 = i) = ^ r i Y J£ (lA(Xm) \X0 = i)
(2)
Rozdział 12. Łańcuchy Markowa
292
ponieważ lim„_>00;p.y(n) = nj. m
Gdy zbiór stanów jest skończony, to istnieje rozkład stacjonarny i można
podać oszacowanie szybkości zbieżności ciągu (Pij{n))n (por. zad. 12 .1 .8).
T w ierd zen ie 9. Jeśli przestrzeń stanów nieprzywiedlnego i nieokresowego
łańcucha Markowa jest skończona, to dla każdego i istnieją granice
lim P ijM = 7Tj > 0 .
71— »OO
Ponadto istnieją stałe c > 0, 7 6 (0,1) takie, że
\ P i j{ n ) - K ji < c - 7 n
i 7r = (jrj) jest jedynym rozkładem stacjonarnym.
D o w ó d . Wiemy, że
V i,j
3N { i,j )
Vn > N ( i,j )
P ij{n )
> 0
(lemat 4). Przestrzeń stanów jest skończona, więc istnieje takie n0, że
Pij(riQ) > 0 dla każdej pary i ,j. Niech e = min,,^Pij(no). Oczywiście e > 0.
Oznaczmy
= m inpi,(n), M
= mąx Pij(n).
J
i
J
i
Ponieważ Pij(n + 1) = YliPnPiii71)1
m^'+Ii = mm^T^piipij(n) > mm ^ p i( min p y(n ) = m jn),
* 1
1
a więc mjn+1' >
Analogicznie M jn+1') ^ M jn\
Pij(n + n0) = ]Tlpu(n0) - epn{n)}pij{n) + e J 2 P j i ( n)P‘A n) >
1
1
> mjK) ]0
Pii(n°) ” £PJ‘ (n)] + £Pii(2n) =
1
= m^n)(l - e) + epjj(2n),
czyli
m (n+n0) ^ TO<n)(]i _ £) + £pjj(2n).
Analogicznie
< M jn\ l - e) + e p J:) (2n). Stąd
M jn+no) - m f +no) < (M jn) -
') ( ! - e).
§ 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
293
Argument indukcyjny daje
M (kno+n) _ m (kn0+ n) ^ ^ { n ) _
Podciąg M^kno) —m^kn°^ zmierza zatem do zera, gdy k —>oo, więc sam ciąg
, jako monotoniczny, zmierza do zera. Niech wj — limn^oo mjn);
widzimy, że 7r3- ^ m^"0^ > e > 0, zatem wszystkie 7r,- są dodatnie, oraz dla
n = kno + m, m < no mamy
|p ij(n ) — 7Tj| ^ A fjn) - m jn) sj (M jm) -
1 - e )fc
(1 - e )fc =
= [(1 - e)"o]fcn° ^ c 7n,
gdy 7 = (1 —e ) " o ,c = -s 5= t•
7r jest rozkładem prawdopodobieństwa, bo ze skończoności S mamy
' ■*
J'€5
= lim Y > ( n ) = 1.
n—»oo
j€5
Gdy /i jest rozkładem stacjonarnym, to
H = lim X ^(¿iPijin) = V f t lim p y (n ) = T ^ ta n j = ttj,
n —>oo * *
>■^
n —*00
z—'
¿es
¿es
¿es
a więc mamy jedyność. ■
Własność Markowa (tw. 12.1.8d) można łatwo uogólnić na
P ( { ( X n, X n+U. ..) e A}\Fn) = P ({(X n, X n+1, ...) e A}\Xn),
gdzie Tn = a ( X o, . . . , X n), co można zapisać w postaci
P ( { ( X n,X n+1, ...) € A}\Fn) = P x„({(X 0, X i , . . .) 6 A}),
gdzie Pj jest rozkładem (X 0, X i , ...), gdy P (X o = j ) = 1.
Jest to formalny zapis intuicyjnego faktu, że gdy jednorodny łańcuch Mar­
kowa dojdzie w momencie n do stanu X „, to dalej zachowuje się tak samo,
jakby startował w momencie 0 ze stanu X n.
Okazuje się, że można zastąpić deterministyczny moment n przez moment
stopu. Jest to tak zwana mocna własność Markowa.
Z mocną
T w ierdzenie 10. Niech r będzie momentem stopu względem zdefiniowa­ własnością
Markowa
nego wyżej ciągu a-ciał (J-n). Wtedy na zbiorze { r < 00 }
P ( { { X r, X T+l, ...) e A}\Fr ) = P x M X o, X u .. .) € A}).
spotkamy się
jeszcze w
rozdziale 13.
Rozdział 12. Łańcuchy Markowa
294
D o w ó d . Jak wiemy, gdy f ( x ) = P ( { ( X 0, X i , . . . ) £ A}\Xo = x ), prawa
strona jest równa f ( X T). Niech B e T t ■ Wtedy, korzystając z własności
warunkowej wartości oczekiwanej, własności Markowa i tego, że
B n { t = n } € cr(X0, . . . , X n),
otrzymujemy
[ P ( { ( X T, X T+1, . . . ) € A}\TT)dP = [ 1A((X
t
i
-^r+I ? • • ■))dP =
oo
n=0
oo
= £
V
P ({(X n, ...) 6 i } n B n { r = n}) =
/
P ( { ( x „ ,...) e A }\ rn)dP =
n=0 JBn{r=n}
n=u JH{r=n}
Załóżmy teraz, że łańcuch startuje z ustalonego stanu i, tj. P (X o = i) = 1.
Połóżmy 70 = 0, a dalej:
7i = inf{n ^ 1: X n = i},
j 2 = in f{n > y 1:X n = i},
i ogólnie 7 m = inf{n > "fm-i'-Xn = i} będą kolejnymi powrotami do
stanu i. W tedy r„ = 7 n — 7 „ - i są odstępami czasu pomiędzy kolejnymi
powrotami.
T w ierd zen ie 11. Gdy i jest stanem powracającym, to
jest cią­
giem niezależnych zmiennych losowych o tym samym rozkładzie.
D o w ó d . 7 i jest momentem stopu, więc z mocnej własności Markowa
p
(( x 7i+ u x 7i+2, ...) e a \t 7i) = P i ( { x u . . . ) e A )
bo X 7l = i. Zatem ciąg (X 71+i , X 71+2, . . .) ma taki sam rozkład, jak
(X 1, X 2, ■■•) i jest niezależny od
więc niezależny od tj_. Stąd t2 ma
ten sam rozkład co ti i jest niezależny od t j. Dowód kończymy stosując
indukcję matematyczną. ■
§ 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
295
Korzystając z MPWL otrzymujemy dla stanów powracających następującą
zależność:
— = - Y ] rm ------->Hj
n
n
n—
*oo
m= 1
p.n.
(3)
Zastosujemy ją do zbadania częstości przebywania łańcucha powracającego
w stanie j. Niech aj oznacza moment pierwszego dojścia do stanu j , tj.
aj = inf{n ^ l : X n = j}.
T w ierdzenie 12. Dla łańcucha powracającego (X n) niech
n
Nn( j ) = J 2
m= 1
Gn (h i) = £ {Nnti) \Xo = 0 •
Wtedy
N n(j)
J_n
»-<*> Hj {Tf<oo}
p _
‘ P'n'
oraz
Gn(i,j) ____
5
71
n—*oo [Xj
gdzie przyjmujemy l/o o = 0.
D o w ó d . Niech i = j. Z definicji Nn(j) i 7 n mamy 7n„(j) ^ n < 7jv„(j)+iStąd
^nb') ^ Nn{j) c Nn(j)
7n„(j)+i "
n
^
i ze wzoru (3) otrzymujemy pierwszą część dla i = j. Dla i ^ j postępujemy
analogicznie biorąc łańcuch Markowa (X aj+m), m > Ona przestrzeni pro­
babilistycznej fi' = {a j < oo}, T ' =
{(Tj < oo} i P '{A ) =
•
Druga część twierdzenia wynika z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej. ■
Korzystając z twierdzenia 11 możemy uogólnić wniosek 8:
Tw ierdzenie 13.. Niech (X „) będzie nieprzywiedlnym nieokresowym łań­
cuchem Markowa dla którego istnieje rozkład stacjonarny 7r. Wtedy vn(A)
— średni czas przebywania łańcucha Markowa w zbiorze A zdefiniowany
wzorem (2) spełnia zależność:
lim vn(A) = 5 ^ ni
£—~J
ieA
71—*00
p.n.
Rozdział 12. Łańcuchy Markowa
296
D o w ó d . Ponieważ 1A = Y^ieA •*•{«}> w^ c wystarczy udowodnić twierdzenie
dla A = {¿ } dla dowolnego i e S. Dla dowolnego n niech k = k(n) będzie
takie, że
T i + . . - + Tfc
n < n + . . . + Tk + 1.
Wtedy k = l { j } ( X i ) + .. . + l { j } ( X „ ) i
k
H
k+ 1
l n + . . .
l { j j ( X i ) + .. •+ l { j } ( X n)
+ Tk + 1
Tl
k
Tl
+ . • • + r fc
Biorąc k — ►oo i korzystając z (3) otrzymujemy
W =
) — 1
limM ----= 7Tj,
n—►oo
n
[li
gdzie przyjmujemy ^ = 0. Ostatnia równość dla stanów powracających,
dla których ir, > 0, została udowodniona w twierdzeniu 5, a dla pozostałych
rodzajów stanów w zadaniu 11. ■
Zajmiemy się teraz badaniem granicy limn pij{n) dla okresowego łańcucha
Markowa.
P rzy k ła d 14. Niech P = ^
^ . Jest to łańcuch okresowy o okresie
2 i limn_,ooPoo(2n) = 1, limn_ 00poo(2n + 1) = 0. Granica nie istnieje,
natomiast istnieją granice podciągów i nie jest to przypadek. ■
Jak wiemy, przestrzeń stanów łańcucha okresowego rozbija się na rozłączne
zbiory Si, S2, ■■■, Sd (twierdzenie 12.4.4). Zachodzi
T w ierdzen ie 15. Jeśli (X n) jest nieprzywiedlnym okresowym łańcuchem
Markowa z rozkładem stacjonarnym n, to dla i € Si, j € Ą+m(modd)
lim Pij(nd + m) = dirj
n —+oo
i 7rj > 0 dla każdego j .
D o w ó d . Niech fh = (l + m) (m odd). Gdy P (X o € Sfń) = 1, to zmienne
losowe Yn = X nd tworzą nieprzywiedlny nieokresowy łańcuch Markowa
o zbiorze stanów Sm (twierdzenie 12.4.4). Niech Tj = min{n: Yn = j } .
Wtedy
Tj = dTj,
gdzie
Tj — min { n :X n = j } ,
h = e (t ,\ Y < ,= j) = e i Z -
Ai, = ,-| = a .
§ 12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
297
Zatem na mocy tw. 5 łańcuch jest powracający i
P(j j \ n) =P jj{n d ) ------ >
n~*oo f i j
= — = d-Kj.
(Jj
Z mocnej własności Markowa:
n
PiAn) = Z
p (Xn = i ’ Ti = k\x ° = *) =
k= 1
n
= Z
P(2) = fc|X0 = i)P (X „ = jjTj = fc, X 0 = i) =
n
= E
P^
= felX ° = W * » = 3\Xk = } ) =
k~ 1
n
= £ p (^ = fc | * o = ^ ( n - f c ) .
jfc=l
Zatem
n
Pij(nd + m )
= ^ - P ( T j = fcd + m|X0 = ¿ )p jj((n - &)<i) =
fc=0
oo
= Y 1 P ( T3 = fcd + m | *o = * ) ? w ( ( ł i - f c ) d ) l { o , i .....n } (k ) k= 0
Niech n —> oo; wtedy z twierdzenia o zbieżności zmajoryzowanej
Pij{nd 4- m ) ------ » dnjP(Tj < oo|_Xo = i) = d-Kj. ■
n—»oo
Zadania
1. W pudełku A jest 6 kul ponumerowanych, liczbami od 1 do 6, w pudełku B —
ani jednej. Wykonano 100000 rzutów kostką i po każdym rzucie przekładano
kulę z wylosowanym numerem do drugiego pudełka. Jaka jest (mniej więcej)
szansa, że pudełko B jest puste?
2. Znaleźć wszystkie rozkłady stacjonarne dla łańcucha Markowa o macierzy
przejścia
p =
/ I I
[ ! 1
0 0 '
0 0
°
\0
I
!
°
o
f
I,
3. Udowodnić, że jeśli 7r jest rozkładem stacjonarnym oraz j nie jest stanem
powracającym dodatnim (patrz def. 17), to Tj = 0.
Rozdział 12. Łańcuchy Markowa
298
4. Dla łańcucha Markowa (X n) niech Sp oznacza zbiór stanów powracających
dodatnich. Gdy Sp
0, niech Sv = U ig /^ ’ gdzie Si — klasa stanów wza­
jemnie komunikujących się, Si n Sj = 0 dla i
j. Pokazać, że każda miara
stacjonarna dla (X „) jest postaci
gdzie at ^ 0,
=
m jest miarą stacjonarną dla łańcucha o macierzy przejścia
= (pjk),
j, k 6 Si rozszerzonej na S przez przyjęcie n¡(s) = 0 dla s 6 S \Si.
5. Niech S = { l , . . . , m } , a P będzie macierzą podwójnie stochastyczną, tj.
macierzą stochastyczną taką, że YliLiP*} =
=
Udowodnić,
że rozkład Ki = —, i = 1 , . . . ,m jest rozkładem stacjonarnym dla łańcucha
Markowa z tą macierzą przejścia.
6. Niech S = { 0 , . . . , k — 1}, a macierz P jest taka, że jej wiersze są cyklicz­
nymi permutacjami wiersza pierwszego, tj. pij = pj > 0, pij = P(j-i) (m od fc)
(ten łańcuch opisuje błądzenie przypadkowe po okręgu dyskretnym). Znaleźć
granicę limn-,00 P {X n = i)7. Niech (X n) będzie łańcuchem okresowym o okresie d z rozkładem stacjonar­
nym 7T. Jeżeli i 6 Si, j G S(i+m)(mod<i)> to limn-,oo Pij(nd + m) = FijdKj.
Rozpatrzmy teraz inną ważną klasyfikację stanów. Gdy Xo = i, niech Ty będzie
momentem pierwszego przybycia łańcucha Markowa do stanu j :
Tij = m {{n :X n = j } ,
(zwróćmy uwagę, że Tij = oo, gdy do takiej wizyty nigdy nie dojdzie).
Definicja 16. Średnim czasem powrotu do stanu k nazwiemy wielkość
oo
— £T^kk -“ ^ ^Tlfkkiri).
n= 1
Gdy k jest stanem chwilowym, to średni czas powrotu jest nieskończony, gdyż
P(Tkk = oo|X0 = fc) = 1 - Fkk > 0.
Definicja 17. Stan k nazywamy zerowym, gdy ¡ik = oo, a niezerowym lub do­
datnim, gdy fik < oo.
8 . Rozważmy łańcuch Markowa z dwoma stanami i macierzą przejścia
Oba stany są powracające. Czy są zerowe?
*9. W nieprzywiedlnym łańcuchu Markowa wszystkie stany są zerowe lub wszyst­
kie stany są dodatnie.
*10. Dla nieprzywiedlnego łańcucha Markowa istnieje dokładnie jeden rozkład
stacjonarny wtedy i tylko wtedy, gdy łańcuch Markowa jest powracający
dodatni.
§ 12.6. Dojście do ustalonego zbioru stanów
299
*11. W nieprzywiedlnym łańcuchu Markowa stan powracający j jest zerowy wte­
dy i tylko wtedy, gdy limn-.ooPri(ii) = 0 dla dowolnego stanu i.
Wsk. W dowodzie konieczności zastosować chwyt z dowodu twierdzenia 5.
12. Udowodnić, że dla symetrycznego błądzenia przypadkowego na prostej i na
płaszczyźnie wszystkie stany są zerowe.
13. Niech łańcuch Markowa z przestrzenią stanów S = { 0, 1, 2 , . . . } ma macierz
przejścia postaci: pon = C ■
a > 1, n = 1,2,..., C -1 =
Pn,n~l — 1Dla jakich a łańcuch składa się ze stanów powracających zerowych?
§ 12.6.
Dojście do ustalonego zbioru stanów
Teraz zajmiemy się prawdopodobieństwami dojścia do ustalonego zbioru
stanów i średnim czasem dojścia do tego zbioru.
Niech F C S i niech pF(i) będzie prawdopodobieństwem dojścia do zbioru
F, gdy łańcuch startuje ze stanu i, tzn.:
pF(i) = P {{3 n > 0: X n € F}|X0 = i),
a nip (i) będzie średnim czasem dojścia tego łańcucha do zbioru F , tzn.:
m F(i) = £ (inf{ra ^ 0: X n 6 F } |X 0 = i ) .
Wtedy zachodzi
T w ierdzen ie 1. Dla i € F , pF{i) = 1, mF(i) = 0. Dla i $ F spełniony
jest układ, równań:
P f {i ) =
(!)
3
mF(i) = \ + ’Y ^ p ijmF(j).
(2)
HF
Ponadto pF(i) = 0 dla stanów i spełniających warunek Pij(n) = 0 dla
dowolnych j 6 F , n € N ; mF(i) = oo dla stanów i spełniających pF(i) < 1.
D o w ó d . Dla i £ F równości zachodzą z definicji. Niech zatem i 4 F.
Wtedy
OO
F } = { X 1 e F } U \ J {X l ^ F , . . . , X n. 1 ¿ F , x n e F }
n= 2
Rozdział 12. Łańcuchy Markowa
300
K orzystając z tego rozbicia, wzoru na prawdopodobieństwo całkowite i z
własności 12.1.8a, mamy
PF(i) =
l * i = 3 ,X o = i) P { X 1 = j\X0 = i) =
j€S
= $ > y [P (* i 6
j£S
= J ,X 0 = i) +
CO
+ 53 W
£
•■, * n - i £ F ,X n €
= i))] =
71=2
=
jSF
i’y + 1 2 piipF
j$F
= Y Pii pF ( i )'■
j€S
Dla dowodu drugiego równania oznaczmy
Y = in f{n > 0 :X n e F } ,
ponadto dla ciągu (an) C 5 definiujemy / ( ( a n)) = in f{n :a „ € F }.
Wtedy Y = f ( X 0,
. . . ) oraz dla {-Xo = i}, i $ F jest
f ( X 0, X 1, . . . ) = l + f ( X 1, X 2,. . . ) .
Stąd
mF( i ) = S ( Y \ X 0 = i ) = : Y , £ (Y \X ° = i ’ X ' = i')P ( X i = 3 \ X o = i ) =
je s
= ' £ £ ( 1 + f ( X i, X 2, ...) |X 0 = i,X i = j ) p ió =
3
= 1 + J 2 m FU)Pij = 1 + Y m F ^)PiV
3
j<ZF
gdzie w przedostatniej równości skorzystaliśmy z własności 12.1.8d. Ostat­
nia część twierdzenia jest oczywista. ■
U w aga 2. Gdy S jest zbiorem skończonym, to równania (1-2) mają jed­
noznaczne rozwiązanie. Dla S nieskończonego może tak być, ale nie musi.
P rzy k ła d 3. Jan i Piotr rzucają monetą. Gdy wypadnie orzeł, to Jan wy­
grywa 1 zł od Piotra, gdy reszka, to na odwrót. Jakie jest prawdopodobień­
stwo, że Jan mając 1 zł wygra 3 zł? Jaka jest średnia długość gry?
Rozpatrzmy grę z punktu widzenia Jana. Jest to łańcuch Markowa ze zbio­
rem stanów S = { 0 , . . . , 4 } i macierzą przejścia o elementach: poo = p u = 1;
Pi,i+i = Pi,i-1 = \ dla ¿ = 1,2,3, pozostałe p^- = 0. Jan wygrywa 3 zł, gdy
§ 12.6. Dojście do ustalonego zbioru stanów
301
jego kapitał będzie wynosił 4 zł. A więc chcemy obliczyć P{4}(1). Korzysta­
jąc z twierdzenia 1 i oznaczając P{4 j(i) = fi, wypisujemy układ równości:
h - g f/i + / 31
/3 - g f/2 + / 4f
h = l
fo = 0.
Rozwiązując otrzymujemy fi =
i = 1,2,3. Stąd prawdopodobieństwo,
że Jan wygra 3 zł jest równe |. Gra się skończy, gdy łańcuch dojdzie do
stanu 0 lub stanu 4. Zatem interesuje nas m{0,4} ( l ) . Niech gi = m{o,4}(*)>
i e S. Z twierdzenia 1 mamy g0 = g4 = 0, g1 = 1 + \g2, g2 = 1 + \{g\ + ife],
g3 = 1 + \g2. Rozwiązując otrzymujemy: gx = g3 = 3, g2 = 4. Zatem gdy
Jan ma 1 zł, średni czas gry -wynosi 3. ■
Teraz zajmiemy się pochłaniającymi łańcuchami Markowa.
Jak już wspominaliśmy w § 12.3, stan i nazywamy pochłaniającym, gdy
pa = 1. Łańcuch Markowa nazywamy pochłaniającym, gdy składa się
ze stanów chwilowych i pochłaniających. Jak wiemy, łańcuch Markowa
składa się ze stanów powracających i chwilowych, przy czym stany powraca­
jące tworzą klasy nieprzywiedlne. Gdy klasę nieprzywiedlną potraktujemy
jako jednoelementowy stan pochłaniający, to łańcuch Markowa stanie się
łańcuchem pochłaniającym.
Twierdzenie 1 podaje w szczególności układ równań, jaki spełniają prawdo­
podobieństwa trafienia do ustalonego stanu pochłaniającego i średnie czasy
dojścia do tego stanu.
Jeśli łańcuch Markowa ma skończoną liczbę stanów, prawdopodobieństwa
pochłonięcia można obliczyć przy pomocy macierzy otrzymanych z macie­
rzy przejścia. Dokładniej:
Rozpatrzmy łańcuch Markowa o k stanach, przy czym stany 1 , 2 , . . . , m są
pochłaniające. Wtedy macierz przejścia P ma postać:
Stw ierdzenie 4. Macierz
gdzie aij = P { j y ( i + m) jest prawdopodobieństwem, że łańcuch wychodzący
ze stanu chwilowego i + m zatrzyma się w stanie pochłaniającym j , spełnia
A = (I - Q )- 'R .
Rozdział 12. Łańcuchy Markowa
302
D o w ó d . Istotnie, z twierdzenia 1 powyżej
1=1
czyli A = R +
Ponieważ
(J - Q )(I + Q + Q2 + •••+ ę " - 1) — I ~ Qn,
Qn —> 0 (stw. 12.3.6), to det(I — Qn) ^ 0 dla dostatecznie dużych n,
czyli det(7 — Q) =£ 0. Zatem macierz I — Q jest odwracalna i z równości
A — QA = R mamy A = (I — Q )~ 1R. m
P rz y k ła d 5. Zastosujmy powyższe rozważania do przykładu 3. Zmienimy
numerację stanów, by doprowadzić do zgrupowania stanów pochłaniają­
cych. Zamieniamy stan 1 z 4, wtedy:
P =
1
0
0
0
0
0
1
0
0
0
1
2
0
1
2
0
0
0
0
0
1
2
0
1
2
0
0
1
2
1
2
Zatem
1
(2
( J - Q ) _1 =
1
f
VI
I
Otrzymaliśmy prawdopodobieństwa pochłonięcia przy starcie z dowolnego
stanu — w szczególności to samo, co w przykładzie 3, 032 =
ale inną
metodą. ■
Zadania
1. W grze planszowej prawdopodobieństwa przejścia w pojedynczej grze pomię­
dzy trzema stanami zadane są macierzą
i 0 ^
i 1 f
4 4
2
0 1 i
u
3
3
Ile średnio trzeba gier, by przejść ze stanu 1 do stanu 2?
§12.6. Dojście do ustalonego zbioru stanów
303
2. Pchla porusza się pomiędzy psem, kotem, człowiekiem i podłogą. Niezależ­
nie od tego, gdzie jest teraz, wybiera następne miejsce pobytu z równymi
prawdopodobieństwami. Swoją wędrówkę zaczyna od podłogi. Na psie i ko­
cie może się pożywić, na człowieku ginie, a na podłodze głoduje.
Jaka jest średnia liczba posiłków pchły przed śmiercią?
Jakie jest prawdopodobieństwo, że pchła zginie na czczo?
3 . Udowodnić, że jeśli łańcuch Markowa ma jeden stan pochłaniający, a wszyst­
kie pozostałe komunikują się i nie tworzą zbioru zamkniętego, to są one sta­
nami chwilowymi.
Klasyfikacja stanów: podsumowanie.
X. Stan nazywamy nieistotnym, gdy z dodatnim prawdopodobieństwem można
z niego przejść do stanu, z którego powrót jest niemożliwy (§ 12.2). W przeciwnym
razie stan jest istotny.
Zbiór stanów istotnych rozpada się na nieprzywiedlne klasy stanów, czyli za­
mknięte klasy stanów wzajemnie komunikujących się. Każda z tych klas składa
się ze stanów o tym samym okresie d (tw. 12.4.2) i rozpada się na d podklas
cyklicznych (tw. 12.4.4).
Stan tworzący jednoelementowy zamknięty zbiór stanów nazywamy pochłaniają­
cym.
2. Ze względu na szansę powrotu stany dzielimy na
a) chwilowe — szansa powrotu jest mniejsza niż 1; do takiego stanu wraca się
tylko skończenie wiele razy (def. 12.3.2, tw. 12.3.3);
b) powracające — szansa powrotu jest równa 1; do takiego stanu wraca się nieskoń­
czenie wiele razy (def. 12.3.2, tw. 12.3.3); subtelniejsza klasyfikacja (def. 12.5.17)
dzieli stany powracające na
— dodatnie ( niezerowe), dla których średni czas powrotu jest skończony
— zerowe, dla których średni czas powrotu jest nieskończony.
Zbiór stanów łańcucha Markowa można jednoznacznie rozbić na zbiór stanów
chwilowych i nieprzywiedlne zamknięte zbiory stanów powracających (twierdzenie
12.3.11).
3. Każdy stan nieistotny jest chwilowy. Jeśli łańcuch Markowa jest skończony,
również każdy stan chwilowy jest nieistotny i oba zbiory stanów są równe.
Rozdział 13
Proces Wienera
§ 13.1.
Typow a średnica
ziarna pyłku
mieści się w
przedziale od 1 do
kilkudziesięciu
¿¿m. Pyłki większe
od 4 /¿m nie
poruszają się w
dostrzegalny
sposób.
Do cząstki o
średnicy 1 fj-m
może się dopchać
ok. 108 cząsteczek
wody. Zderzenia
z nimi następują
co 1 0 " 20 s.
ł
Definicja i konstrukcja
W 1827 roku angielski botanik Brown1 opisał nieregularne ruchy, wyko­
nywane przez pyłki kwiatowe zawieszone w cieczy. Zjawisko to zostało
w zadowalający sposób wyjaśnione dopiero w 1905 roku niezależnie i róż­
nymi metodami przez Einsteina i Smoluchowskiego na gruncie mechaniki
statystycznej2. Każda cząstka zawiesiny jest bombardowana ze wszystkich
stron przez cząsteczki cieczy. Impulsy pochodzące od poszczególnych czą­
steczek nie równoważą się idealnie, tak jak nie równoważą się liczby orłów
i reszek w serii rzutów monetą. Wiemy jednak z twierdzenia de Moivre’a-Laplace’a, że przeciętna względna nierównowaga jest tym większa, im krót­
sza jest seria. Dlatego duża cząstka, bombardowana wieloma cząsteczkami
cieczy, raczej się nie poruszy, dostatecznie mała zaś ma na to duże szanse.
Nie będziemy rozwijać tego argumentu. Czytelnika zainteresowanego fizyczną
stroną zagadnienia odsyłamy do Delty, 12/1997, gdzie znajdzie życiorys Mariana
Smoluchowskiego i omówienie jego prac, a także cytowanych tu prac Einsteina.
Z kolei w numerach 4 i 5/1983 zamieszczono artykuł Bogdana Cichockiego po­
święcony historii odkrycia i wyjaśnienia zjawiska ruchów Browna.
Na przełomie XIX i XX wieku kinetyczna teoria materii znajdowała się w odwro­
cie, a wielkie sukcesy odnosiła termodynamika. William Ostwald napisał nawet
podręcznik chemii, w którym ani razu nie użył słowa „atom” . Wydawało się, że
po wyeliminowaniu z nauki niewidzialnych fluidów w rodzaju cieplika i flogistonu
przyszła kolej na atomy. Jednak ruchy Browna były wyraźnie sprzeczne z ter­
modynamiką, według której powinny zaniknąć po osiągnięciu przez układ stanu
równowagi. Ale i wyjaśnienia na podstawie teorii kinetycznej były poddawane
(słusznej) krytyce.
1
Brown był pierwszym, który badał systematycznie to zjawisko. Później okazało się
że obserwowało je wielu uczonych, w tym Leeuwenhoek w roku 1650.
2A. Einstein, Annalen der Physik, 17 (549), 1905, O ruchu cząstek zawiesiny, postulo­
wanym przez molekulamo-kinetyczną teorię depta oraz ibid. 19 (391), 1906, Przyczynek
do teorii ruchów Browna. M. Smoluchowski, Zarys teorii kinetycznej ruchów Browna
i roztworów m ętnych, Rozprawy W ydz. Mat.-Przyr. AU, ser. A (257), 1906.
304
§ 13.1. Definicja i konstrukcja
305
Smoluchowski zajmował się ruchami Browna od 1900 r. Zdawał sobie sprawę, że
ma do czynienia z procesem stochastycznym, takim jak gra hazardowa (widać to
w stosowanej przez niego argumentacji). Wyrażano opinię3, że „... w serii prac,
które Smoluchowski napisał w ciągu ostatnich pięciu lat życia zostały położone
podstawy nowoczesnej teorii procesów stochastycznych” .
Smoluchowski opublikował swoje prace dopiero po uzyskaniu dobrej zgodności
z wynikami doświadczeń Feliksa Exnera, z którym pozostawał w kontakcie. Dla­
czego nie wcześniej? Prawdopodobnie przyczyniła się do tego nieprzychylna at­
mosfera wokół teorii kinetycznej.
Proces Wienera (zwany czasem ruchem Browna) jest postulowanym przez
kinetyczną teorię materii matematycznym modelem ruchu cząsteczki zawie­
szonej w cieczy. Formalnie rzecz biorąc, jest to rodzina zmiennych losowych
Wt, t > 0, określonych na tej samej przestrzeni probabilistycznej (ii, T , P ).
Funkcję t i-> Wt(w) nazywamy trajektorią procesu. Trajektoria jest więc
wyznaczona przez element w € fi.
D efin icja 1. Standardowym procesem Wienera nazywamy proces spełnia­
jący następujące warunki:
1. W0 = 0.
2. Przyrosty procesu są niezależne, czyli jeśli 0 < ii < . . . < tn, to
zmienne losowe
Wtl,W t2 ~ W tl, . . . , W tri- W t n_ 1
są niezależne.
3. Dla wszystkich t, u > 0
Wt+ u - W u ~ N { 0 , t ) .
4. Trajektorie procesu są ciągłe.
U w aga 2. Z warunków 1-3 wynika natychmiast postać funkcji kowariancji
procesu:
K {t, s) = cov(W/i , Ws) = min(i, s).
Istotnie, jeśli t > s, to
cov(W i; Ws) = £ [1W l +
(Wt -
WS)W S] = £ W 2
s + £ (W t - W S)W S =
= s = min(t, s).
Nietrudno też zobaczyć (zad. 1), że rozkłady skończenie wymiarowe procesu
Wienera, czyli rozkłady wektorów losowych (W ^ , . . . , Wtn), są normalne.
3S. Chandrasekhar, Rev. Mod. Phys. 15, 1 (1943).
Rozdział 13. Proces Wienera
306
Odwrotnie, jeśli proces Wt,t > 0, ma skończenie wymiarowe rozkłady nor­
malne, to funkcja kowariancji K (t,s ) = min(i, s), wyznacza jednoznacznie
rozkłady skończenie wymiarowe procesu. Jeśli wiadomo ponadto, że W q = 0
i że proces ma ciągłe trajektorie, to jest procesem Wienera.
Pozostaje otwarta kwestia istnienia procesu spełniającego podane w defi­
nicji warunki4. Mamy tu sytuację typową dla tej teorii: należy wykazać
istnienie procesu o danych rozkładach skończenie wymiarowych (co zazwy­
czaj wynika z ogólnego twierdzenia Kołmogorowa o istnieniu procesu, tw.
C.4.2) i o dostatecznie regularnych trajektoriach.
Zazwyczaj dowodzi się istnienia dostatecznie regularnej modyfikacji stocha­
stycznej wyjściowego procesu X t, czyli procesu X t, spełniającego warunek:
P (X t ¿ X t) = 0
Sprawdzając
zgodność rodziny
rozkładów
badamy w istocie
niesprzeczność
definicji procesu
za pom ocą
rozkładów
skończenie
wymiarowych.
dla t e T .
Istnienie procesu W t,t > 0 spełniającego warunki 1-3 definicji 1 wynik­
nie z tw. C.4.2, jeśli tylko udowodnimy, że rozkłady skończenie wymiarowe
są zgodne (patrz def. w §C.4). Ale z zadania 1 wynika, że rozkład wek­
tora (Wtl, •.., Wtn) jest normalny, o zerowej średniej i macierzy kowarian­
cji (m in(ij,ij))i<gij:,-:gn, co natychmiast daje zgodność rodziny rozkładów
skończenie wymiarowych procesu Wt.
W szczególności, istnieje proces Wt, t € [0,1], spełniający warunki 1-3. W y­
każemy, że istnieje jego modyfikacja stochastyczna Bt,t £ [0,1], o ciągłych
trajektoriach. W tym celu skorzystamy z kilku lematów. Pierwszy z nich
jest bezpośrednim wnioskiem z dowodu nierówności Levy’ego-Ottavianiego
(7.3.1) i z samej nierówności:
L em at 3. Niech X i , ... X n będą niezależnymi, symetrycznymi zmiennymi
losowymi, niech Sjt = X\ + .. . + X k- Wtedy dla r > 0:
P(max.Sk > r) ^ 2P(Sn > r);
k^n
P ( max \Sk\> r ) < 4P (Sn > r).
(1)
'
(2)
W dalszym ciągu B będzie oznaczać zbiór liczb dwójkowo-wymiernych
(czyli postaci fc2-m , k € Z, m € N ), zaś B n — jego podzbiór, złożony
z ułamków o mianownikach nie przekraczających 2n.
Z lematu 3 łatwo wynika, że
P(
sup
u € B n [ s ,i]
\WV - W„\ > r ) =
lim P (
n-łO O
sup
< 4P (W t_ , > r).
4Pierwszy ścisły dowód podał Wiener (1926).
\WU- W,\ > r) s?
u £ B „ n [s ,i]
(3)
§ 13.1- Definicja i konstrukcja
307
Istotnie, wystarczy w tym celu przedstawić zmienną losową Wt - W„ (która
ma ten sam rozkład, co Wt- S) w postaci sumy przyrostów:
Wfc2~n ~ W s , W(fc+l)2-n — W k 2 - n , - ■ •, W t — W l 2 - n ,
gdzie k = [s2n] + 1,1 = [t2n].
W celu zbadania ciągłości trajektorii na odcinku [0, T] wprowadzimy moduł
ciągłości:
m (A ,T ) =
sup
\ W f - W t\.
| t-t '| < A
i,i'SBn[0,T]
Jeśli wykażemy, że m (A, T) —>0 dla A —>0 z prawdopodobieństwem 1, bę­
dzie to oznaczać, że prawie wszystkie trajektorie, rozpatrywane w punktach
dwójkowo-wymiernych, są jednostajnie ciągłe.
T w ierdzen ie 4. Z prawdopodobieństwem 1 m (A , T) —» 0 dla A —* 0.
D o w ó d . Niech A = 2~n (dla prostoty). Jeśli m ( A, T) > e, to dla pewnego
fc < 2nT
sup
|Wt -W * A | > | e ,
i g [ i :A ,( f c + l ) A ] n B
czyli
{rn (A ,T ) > e} C { max
sup
\Wt - WłaI > |e} C
fc< 2 " r t € [ * A , ( f c + l ) A ] n B
(2n—1)T
C
M {
sup
\Wt - W k± \ > \ e } .
k=0 i€[fcA,(fc+l)A]nB
Stąd i z (3)
P(ra(A,T) > e) ^ 4 •2nT •P (W A > |).
Ponieważ W¡\ ma ten sam rozkład, co \fKW\, to ostatecznie
P (m (A , T) > e) < 4 •2nT •P (W X > - ^ = ) < 2?1+2r e ' 2’‘ _ V -► 0
2v A
przy n —>oo, co kończy dowód. ■
Z twierdzenia 4 wynika teraz, że dla każdego n € N istnieje taki zbiór
&c,n C ii, że P(iic,n) = 1 i dla każdego ui € iic,n trajektoria IVt(w), t E
£ Bn[0, n] jest jednostajnie ciągła. Niech fic = fl^Li ^c.n- Wtedy P (fic) =
= 1 i trajektoria Wt(uf), t e B , u E Sic przedłuża się do funkcji ciągłej na
przedziale [0, oo), definiujemy mianowicie
_ . , df f lim «-« Ws(ui)
= <
s€B
\ Wt(u)
t g B , uj e fic,
w p.p.
Rozdział 13. Proces Wienera
308
Okazuje się teraz, że dla t e B mamy po prostu B t(u) = Wt{u>) dla wszyst­
kich ui € fi. Jeśli t g B , to
P(Bt = Wt) = P (lim
= Wt) = 1,
sEB
bowiem po pierwsze wyjściowy proces W jest jstochastycznie ciągły,|co ozna­
cza, że gdy tn —> i, to W tn
Wt, a po drugie — występująca powyżej
granica w sensie zbieżności (prawie) na pewno jest z prawdopodobieństwem
1 równa granicy według prawdopodobieństwa. Tym samym stochastyczna
równoważność procesów W i B została udowodniona.
Na zakończenie tego paragrafu udowodnimy twierdzenie, które pozwoli jesz­
cze bardziej uprościć sprawdzanie, czy proces jest procesem Wienera.
T w ierdzen ie 5. Proces X t,t ^ 0 jest procesem Wienera wtedy i tylko
wtedy, gdy spełnione są warunki 1, 2 i A z definicji 1 oraz warunki:
Nie ma tu nic
o rozkładzie
normalnym!
3'. £X\ = 0, ZX\ = 1.
3". Jeśli t ^ s, to X t — X s ~ X t- SD o w ó d . I. Najpierw udowodnimy, że z warunków 1, 2 i 4 wynika, że dla
każdego p ^ l i dla każdego i > 0 jest 5 sup3S-t |XS|P < oo.
Ustalmy t > 0 i n e N i oznaczmy
Dk
—X
kt/2n
— X ( k- l ) t / 2 n1
Sk =
Di +
■••+
D/c
=
X kt / 2 n -
Zmienne losowe D k, 0 < k ^ 2” są niezależne i z nierówności Hoffmanna-J 0rgensena (zad. 7.3.11) wynika, że
P ( max \Sk\ > 3m) ^ P ( max |D/t| > u) +
\ )< i;< 2 "
0<k^2n
+ P ( max \Sk\ > u )P ( max 152" - Sk\> u/2).
K0 < k ś 2 n
0<A:^2n 1
Gdy n —> oo, to
max
0<fc<2n
sup |X,|,
o< s < t
max |52» - 5fc| î ?7 =
0<fc<2"
sup \Xt - X s\,
o < s^ t
podczas gdy na mocy jednostajnej ciągłości trajektorii (por. tw. 4)
P ( max IZ?* |> u) < P (m (2 ~ n) > u) —>00<kś2n
Wobec tego
P (£ > 3m) < 0 + P (£ > u) P ( t] > u/2).
§ 13.1. Definicja i konstrukcja
309
Z tej nierówności wynika, że ogony rozkładu zmiennej losowej £ zmierzają
do zera na tyle szybko, że ££p < co dla wszystkich p > 0. Żeby to zoba­
czyć, zauważmy najpierw, że zmienne losowe
= £ A n także spełniają
powyższą nierówność (jeśli n < 3u, to P(£n > 3«) = 0; w przeciwnym razie
podstawienie £n nie powoduje żadnych zmian).
Mamy teraz dla każdego r > 0:
ponieważ dla u > 2r wyrażenie w nawiasie kwadratowym jest nie większe
od zera.
Wybierając tak duże r, by 3-p —P(r] > r) > 0 otrzymujemy oszacowanie
a ponieważ Ę,n f £, to ££p < oo, co kończy dowód kroku I.
II. Udowodnimy, że z 1, 2 i 4 wynika, że dla każdego t > 0 zmienna losowa
Xt ma rozkład Afffi, i).
Zauważmy, że funkcja m(t) — £ X t jest ciągła (ponieważ £ sups^t |XS|< oo)
i spełnia warunek m(t + s) = m(£) + m(s), t,s ^ 0. Zatem m (t) = ct, ale
ponieważ z założenia m (l) = 0, to c = 0, więc £ X t = 0, i > 0.
Podobnie, niech v(t) = V 2X t. Ponieważ X t — X s ~ Jft-« dla 0 < i < s i
X s = X t + (X s —X t), mamy v(s) = v(t) + v(s —t). Funkcja v jest ponadto
ciągła, więc musi być liniowa i v(t) = ct, a ponieważ £ X f = 1, to c = 1,
zatem V 2X t = t, t > 0.
Oznaczmy
= X tk/n - X t(k-i)/n,
n
k = l , 2 , . . . n . Wtedy
n
a ponadto zmienne losowe
k = 1,2,... n są niezależne. Aby wykazać,
że zmienne losowe X t mają rozkład normalny, skorzystamy z CTG i spraw-
Rozdział 13. Proces Wienera
310
dzimy, czy spełniony jest warunek Lindeberga. M amy
n
Ponieważ zmienne losowe £k,n są niezależne i ££k,n = 0 dla k < n, n £ N,
na mocy kroku I:
£
= £ X f < oo,
a F(maxfc^n |£fc,n| > e) —> 0 na mocy jednostajnej ciągłości trajektorii na
[0,i]- Dowód kroku II i twierdzenia został zakończony. ■
Zadania
1. Udowodnić, że rozkłady skończenie wymiarowe procesu Wienera są nor­
malne.
2. Podać przykład procesu o funkcji kowariancji K (t, s) = min(i, s) i nie będą­
cego stochastyczną modyfikacją procesu Wienera.
3. Proces Ut = Wt —tW i,t 6 [0,1], gdzie W jest procesem Wienera, nazywamy
mostem Browna. Wyznaczyć jego funkcję kowariancji.
4. Wykazać, że proces X t, i ^ 0 jest procesem Wienera wtedy i tylko wtedy, gdy
ma ciągłe trajektorie, rozkłady skończenie wymiarowe normalne o średniej
zero, i funkcję kowariancji min(t, s), t, s ^ 0.
5. Niech W będzie procesem Wienera. Wykazać, że procesy otrzymane za po­
mocą następujących transformacji są procesami Wienera:
a) Zt = -W f ,
b) Xt = c~1/2Wet, O 0;
v - / tWl/t dla i > 0, .
} 4 \0
dla i = 0 ’
d) Vt = Wr+t —Wt dla T > 0;
dla t SCT,
dla t > T.
Uwaga. Jak zwykle, po zastąpieniu T przez moment Markowa r w dwóch
ostatnich punktach można się spodziewać ciekawych twierdzeń. Jedno z nich
jest udowodnione w § 13.4. Drugie polecamy jako zadanie.
Aby skonstruować proces Wienera dla t e [0, oo) można także „sklejać” przeli­
czalnie wiele niezależnych kopii procesów Wienera określonych dla t € [0,1]. Oto
odpowiednie zadanie.
§ 13.2. Własności trajektorii
311
6 . Niech V}n\ t £ [0,1] będzie procesem Wienera określonym na przestrzeni
probabilistycznej (i1n, T n, Pn), n = 1,2,.... Na przestrzeni produktowej ii =
= fii x f 22 x ..., T '= T\ ® Ti ® ..., P = Pi ® P-2 ® . .. definiujemy proces
Wt(w), gdzie t € [0, oo), u> = (u>i,W2, . ••), wzorem
Wt(w) :
dla t e [0, 1],
dla t e [n, n + 1],
Wn(u) +
Można też
wykorzystać
uwagę 2.
Wykazać, że proces W jest procesem Wienera na przedziale [0,oo).
7. Inny sposób, przedłużenia procesu W ienera na [0, oo). Wykazać, że
jeśli W t,t e [0,1] jest procesem Wienera, to
B f ■(1 + t) (W t/u+t) - —
W i) ,
i € [0, oo)
jest procesem Wienera.
8 . Prawo wielkich liczb dla procesu W ienera. Wykazać, że
Wt
lim — = 0.
t-» co t
9. Wykazać, że dla dowolnych dodatnich a i 6
P ( { —ai < Wt < bt dla dostatecznie dużych t}) = 1
P roces W ienera ja k o martyngał. Jeśli zdefiniujemy filtrację (Tt)t^o zależno­
ścią Tt = cr(Ws: s Sj i), to otrzymamy martyngał z czasem ciągłym (W t,Tt).
10. Wykazać, że martyngałami są procesy a) Wt; b) W f — t.
11. Udowodnić, że zbiór (sups<t Ws ^ c} jest zdarzeniem (mimo że na pierwszy
rzut oka jest nieprzeliczalną sumą zdarzeń).
Istnieje jeszcze jedna, martyngałowa charakteryzacja procesu Wienera, pocho­
dząca od P. Levy’ego: jeśli proces X t, t ^ 0 jest martyngałem o ciągłych trajek­
toriach, a ponadto X f —i jest martyngałem, to Xt jest procesem Wienera.
§ 13.2.
Własności trajektorii
Choć trajektorie procesu Wienera są ciągłe, typowa trajektoria jest bardzo
nieregularna. Udowodnimy, że prawie wszystkie trajektorie są nigdzie nieróżniczkowałne. Nie jest więc dziwne, że prawie wszystkie trajektorie mają
'wahanie nieskończone. Z kolei wariacja kwadratowa jest prawie na pewno
niezerowa i — przy odpowiednich założeniach co do ciągu podziałów od­
cinka — deterministyczna i równa długości odcinka, na którym ją mierzymy
(zad. 1-3).
Dzięki wynikowi zad. 13.1.5 badanie różniczkowalności trajektorii na [0, oo)
można sprowadzić do badania różniczkowalności na [0,1).
Funkcja ciągła
o ograniczonej
pochodnej lub
ograniczonym
wahaniu ma
zerową wariację
kwadratową.
312
Rozdział 13. Proces Wienera
m
T w ierdzen ie 1. Prawie wszystkie trajektorie procesu Wienera (W t)te[o,i]
są funkcjami nigdzie nieróżniczkowalnymi.
D o w ó d . Jeśli trajektoria Wt(w) jest różniczkowalna w pewnym punkcie
s € [0 , 1 ), to
|Wt( u ; ) - W s( w ) K ^ ) ( i - s )
dla t dostatecznie bliskich s, t > s i pewnego l(ui) > 0, skąd wynika, że dla
j — [ns] + 1, [ni] + 2 i [ns] + 3 oraz dostatecznie dużego n:
|W j / n ( u ) - W ( j . 1)/n(cj)\ < \Wj/n{ u ) - W.\ + IW y -D / n M - W.\ <
l{w)
<
i
-----s
n
< 1^
^
n
I3 ^
n
j - 1
+ ---------- 5
n
= 71^
n
Wobec tego zdarzenie „różniczkowalność w pewnym punkcie” zawiera się
w zdarzeniu
uu n u n {W/»-wwi<7*/»}.
Zatem wystarczy wykazać, że dla dowolnych ¡, m £ N zdarzenie
=n u n
- ww-i)/»i <7*/w>
0<i^n+l i<j^i+3
ma zerowe prawdopodobieństwo. Istotnie,
P (A m,«) < limin£(n+ l)P(|W1/n|^ 7//n)3
n —»oo
'
= liminf(n + l)P(|W/i[ ^ 7l/y/n)3
71—»OO
sClim(n + 1) f “7 = 1
n
^71 y
= 0.
Ostatnia nierówność wynika z elementarnego oszacowania P(|Wi| < r ) ^
^ v fc r - "
Zadania
1. Niech Tn = {ion^ iin)i ■••
}, n = 1,2 ... będzie ciągiem podziałów od­
cinka [a, 6], takich że ||Pn|| —* 0, gdzie V„ — sup*. l4n )_ 4 - )il 0est to średnica
podziału). Wykazać, że
IW ,n) - W,<„, |2 ------ ►b - a
Sn = Y
z
'
fc=l
w L 2; jeśli ponadto
l k
k - 1
n
—*00
ll^ ll < oo, to Sn —* b — a p.n.
ij
313
§ 13.3. Zasada odbicia
ll^nll < 00 w poprzednim zadaniu da się zastą­
\2. Wykazać, że warunek
pić siabszym:
OO
y ^ e x p (- a / | | 'P n ||) < 00 .
n ~ l
3 . Udowodnić, że prawie każda trajektoria procesu Wienera ma nieograniczone
wahanie na dowolnym przedziale.
Uwaga. Wynika stąd, że całka Stieltjesa względem trajektorii procesu Wie­
nera nie ma sensu.
§ 13.3.
Zasada odbicia
Jest intuicyjnie prawie oczywiste, że jeśli trajektoria procesu Wienera do­
trze do punktu r > 0, to ma równe szanse skierowania się w górę i w dół.
Wynika stąd następujące twierdzenie:
Twierdzenie 1 (Z asad a odbicia). Jeśli [W t) t^o jest procesem Wienera,
to
P(sup Ws > r) = 2P (W t >
r ),
0.
(1 )
P(sup Ws > r) ^ 2P (W t > r),
S^t
r > 0.
( 2)
S^t
D o w ó d . Nierówność
wynika natychmiast z nierówności Levy’ego 13.1.1. Wystarczy zatem udo­
wodnić nierówność przeciwną. Niech
Wt*'n =
sup
Ws.
s e B nn[o,i]
Żądana nierówność natychmiast wynika z lematu 2. Zwróćmy uwagę, że
w dowodzie wykorzystuje się w istotny sposób ciągłość trajektorii: jeśli
w chwili fc2 ~n proces przekroczył poziom r, to w chwili (k — l ) 2~ n był już
blisko tego poziomu.
Lem at 2. Niech r ^ 0. Dla każdego t > 0 i każdego 6 > 0 istnieje takie
n(6), że dla n > n(S)
P {W *'n > r ) > 2P {W t ź r + 6 ) - 6 .
D o w ó d lematu. Ustalmy dowolne S > 0. Niech
r = inf{s € B „ fi [0,t]: Ws > r }.
Rozdział 13. Proces Wienera
314
Jeśli r = k2 n, to Wk2- » ^ r, a jeśli dodatkowo założymy, że m ( 2 n) < S,
to Wk2 - n < r + S. Dlatego mamy
[2 n t]
P (W t > r + 6 ) ^ J 2 P ( W* - Wk2~n +
> r + S’ m (2_n) < 5>r = k2~'
k=0
x P ( r = k2~n) + P (m (2 ~ n) > S) <
[2"t]
< V P (W t - W *2-„ 5= 0|r = k2~n) P ( r = *2“ " ) +
fc=0
+ P (m (2 ~ n) > 5) ^
< ^ w
^ o + - p w
n ^ ) -
W ostatniej nierówności skorzystaliśmy z niezależności zdarzeń { r = k2~n }
i {W t — Wk2- «
0}. Teza wynika teraz z tw. 13.1.4. Dowód lematu i tym
samym dowód twierdzenia 1 został zakończony. ■
Zadania
1 . Wyznaczyć gęstość zmiennej losowej W t* = max0^ s^( W s2 . Znaleźć rozkład zmiennej losowej r a = in f{i ^ 0: Wt = «}•
3. Udowodnić, że dla dowolnego t > 0
P (m a x W s > 0) = P f m i i f f j < 0) = 1.
s^t
Oznacza to, że proces Wienera w dowolnie małym odcinku czasu przebywa
z lewej i prawej strony punktu startowego.
§ 13.4.
M ocna własność Markowa
Jeśli zdefiniujemy cr-ciała T t = <t(Ws:s ^ i), przyjmiemy definicję mo­
mentu stopu t taką, jak w przypadku czasu dyskretnego, tj. sprowadza­
jącą się do warunku { r ^ t} e Jrt , i zdefiniujemy cr-ciało
T
t
= { B e T : B n { r ^ i } e T u t > 0 },
to będziemy mogli sformułować mocną własność Markowa dla procesu Wie­
nera. Intuicyjnie oznacza ona, że po dojściu do momentu stopu r proces
Wienera zapomina o przeszłości i startuje od nowa.
Twierdzenie 1 (Dynkina—Hunta). Jeśli r jest momentem stopu wzglę­
dem filtracji T t = cr(Ws: s < i), P ( r < oo) = 1, to proces
Wt° = WT+t - W T,
t Z 0,
5 13-4. Mocna -własność Markowa
315
jest procesem Wienera niezależnym od T t , czyli a-ciała a (W °:t ^ 0) i J-T
są niezależne.
D o w ó d . I. Załóżmy najpierw, że r ma przeliczalny zbiór wartości S. Wy­
każemy, że dla każdego i ^ 0 funkcja W ° jest zmienną losową. Istotnie, dla
każdego a € R:
{ Wt° «S « } = U { Ws+t - W t ś a , r = a},
ses
gdzie po prawej stronie mamy przeliczalną sumę zdarzeń.
Sprawdzimy niezależność a (W ° :t ^ 0) i T r . Niech B £ B( R n), A e T t .
Wtedy
p { {{ w ^ ...,w i)e B } n A ) =
= £
P ( { ( W £ , .. . , W?J £ B } n i n { r = s }) =
s€S
P ( { ( ^ 1 +- - W . , . . . , W ^+. - W .) € B } )P (A
ses
= P ({ (W t l, . . . , W tn) € B } ) P ( A ) .
= E
n {r
= a}) =
Skorzystaliśmy kolejno z tego, że A fi { r = s } € T s, że na zbiorze { r = s}
(W ^ , .. . , Wt°J = (W tl+, - W , , . . . , W tB+, - W .),
a ten ostatni wektor jest niezależny od T s i ma ten sam rozkład, co
(W t l , . . . , W tJ .
Biorąc A = fi widzimy, że proces W ° ma te same rozkłady skończenie wy­
miarowe, co W. W takim razie w ostatnim wierszu proces W można zastąpić
przez W °, z czego wynika niezależność <r-ciał Gu,...,tn = cr(Wt° , . . . , Wt°J
od T t . Żeby zakończyć dowód tego przypadku, wystarczy zauważyć, że ro­
dzina
gdzie sumowanie odbywa się po wszystkich skończonych
podzbiorach [0, oo), jest 7r-układem, wobec tego na mocy lematu 5.8.12
o niezależnych 7r-układach niezależność przenosi się na
> 0). Za­
tem proces W ° jest niezależny od J-T; jest on procesem Wienera, bowiem
ma ciągłe trajektorie i, jak udowodniliśmy przed chwilą, te same rozkłady
skończenie wymiarowe, co W (zad. 13.1.4).
II. Teraz zakładamy, że moment stopu r jest dowolny. Jeśli zdefiniujemy
' _ [2 ”r] + 1
Rozdział 13. Proces Wienera
316
to rn są momentami stopu i r„ | r. Oznaczmy W
= WTn+t — WTn.
Wtedy na mocy wyniku kroku I dla każdej funkcji ciągłej i ograniczonej
tp:
R n —> R i A e T r C T Tn mamy:
£ (y {w £ \ . . . , Wt(? ) 1A) = £<p {w £ \ .. . , W ^ ) P ( A ) .
(1)
Ale Tn i t , więc z ciągłości trajektorii wynika, że W^n\u>) — > W °(ui) dla
wszystkich u> poza zbiorem o zerowym prawdopodobieństwie. Dlatego (1)
pozostaje w mocy dla procesu W °. Zatem (por. uwaga po zad. 9.4.1) proces
W ° jest niezależny od T t . Ponadto ma ciągłe trajektorie, zerową średnią,
normalne rozkłady skończenie wymiarowe i funkcję kowariancji K (t , s) =
= min (i, s), więc jest procesem Wienera, co kończy dowód twierdzenia. ■
U w a g a 2 . W teorii procesów z wielu względów pracuje się z prawostronnie
ciągłymi rodzinami cr-ciał (spełniającymi warunek Pls>t ^ ~ F t)- Taką
rodzinę tworzą cr-ciała Tt+ == n s>t F s- Definicje poprzedzające twierdzenie
1 i samo twierdzenie można sformułować dla tej rodziny; dowód twierdzenia
przebiega bez zmian.
Zadania
1 . Wykazać, że zmienna losowa ra = inf{s ^ 0:WS 5S a}, a > 0, ma rozkład
1/2-stabilny, tj. jeśli
są niezależnymi kopiami rOJ dla każdego n e N
r i1J + ... + r i n) ~ n2ra.
Transformata Laplace’a a funkcja charakterystyczna. Transformatą Laplace’a zmiennej losowej X nazywamy funkcję L: R+ —» R, zdefiniowaną zależ­
nością
Ij x ( s) = £e sX, O 0.
Jest ona dobrze określona, jeśli X ^ 0, ale czasem ma sens i bez tego założenia.
Jeśli na przykład X ~ AA(0,1), to L x ( A) = eA ■
/2. Podstawienie A = it daje
natychmiast funkcję charakterystyczną zmiennej losowej X (przynajmniej w tym
przypadku; nie będziemy formułować ogólnych twierdzeń). Taki sposób oblicza­
nia funkcji charakterystycznych kryje w sobie pewne pułapki, o czym można się
przekonać z następnego zadania.
2. Wyznaczyć a) transformatę Laplace’a, b) funkcję charakterystyczną zmien­
nej losowej Ta3. Rozpatrzmy dwuwymiarowy proces (t/t, V*), i ^ 0, gdzie współrzędne są nie­
zależnymi procesami Wienera. Wyznaczyć gęstość rozkładu zmiennej losowej
VTa, gdzie ra jest chwilą pierwszego dojścia procesu U do poziomu a.
4. Wyprowadzić zasadę odbicia (tw. 13.3.1) z twierdzenia Dynkina-Hunta.
§ 13.4. Mocna własność Markowa
317
Tożsam ości W a ld a d la procesu W ien era . Z tożsamości Walda (tw. 11.1.10,
zad. 11.2.3) można wyprowadzić analogiczne twierdzenia dla procesu Wienera W:
jeśli t jest momentem stopu względem naturalnej filtracji, £ t < oo, to
£ W T = 0,
(2)
S W l = Et .
(3)
5 . Udowodnić tożsamości Walda (2) i (3).
Funkcje H aara. W następnym paragrafie będzie mowa o konstrukcji procesu
Wienera za pomocą układów ortonormalnych w L 2 [0,1]. Poniżej zamieszczamy
w formie zadań podstawowe fakty o pewnym szczególnym układzie ortonormalnym — funkcjach Haara.
Niech ( S l , F , P ) będzie przestrzenią probabilistyczną. Rozpatrzmy filtrację (T „ ) ,
gdzie Fn = & (A ? ,. . . , j4ra+i)> gdzie { A ” , . . . , A " +1} jest rozbiciem przestrzeni n
na n + 1 zbiorów o dodatniej mierze.
Z tej definicji wynika, że To = {0, f i}, i że (n + l)-sze rozbicie powstaje z n-tego
przez podział jednego ze zbiorów na dwie części, tj. istnieje taki wskaźnik kn, że
A%n = A ™+1 U A ^ + 1 (tu i dalej „nowe” zbiory numerujemy liczbami 1 i 2 ).
Możemy teraz zdefiniować funkcje Haara hn, n = 0 ,1 ,2 ,..., wyznaczone przez
ciąg rozbić o opisanych powyżej własnościach. Niech ho = 1, a dla n ^ 1:
( a„
hn — \ bn
10
dla u € A “ ,
dla ui € -42 ,
dla ui g A i U A i ,
przy czym liczby an i bn są dobrane tak, by £hn = 0 ,
= 1.
Funkcje Haara są zatem wyznaczone jednoznacznie z dokładnością do zmiany
znaku.
P rz y k ła d 3. Funkcje Haara na (0,1]. Są one wyznaczone przez ciąg rozbić:
( 0. ( 0, 1 ]},
« 0, | ] , ( M ) m iM isl.O M },
Ten właśnie ciąg pojawi się w konstrukcji procesu Wienera. Ciąg funkcji Haara
w tym przypadku dzieli się w naturalny sposób na bloki, złożone kolejno z 1 ,
2, ..., 2 k, . . . funkcji, wobec tego rozsądnie jest przyjąć następującą definicję
i numerację:
i 6 [0, 1 ],
h0 {t) = l,
2^
- 2^
dla (fc - l ) 2 ~n < t < k 2 ~n,
0
w p.p.
(
dla k2 ~n s£ t < {k + 1 ) 2 “ ",
n ^ 1 , k < 2 n, k nieparzyste
Rozdział 13. Proces Wienera
318
Oczywiście j -1 Ti2
= 1 i f * hn,k = 0, a ponadto
/ hn,khltrn.
0,
Jo
o ile k
l lub u / m, co oznacza, że ciąg funkcji Haara tworzy układ ortonormalny. Jest to na dodatek układ ortonormalny zupełny, jeśli bowiem J0 f h nik = 0
dla wszystkich dopuszczalnych wskaźników k, n, to
/ = 0 dla wszystkich a, b
dwójkowo-wymiernych, skąd wynika, że / = 0 prawie wszędzie. Za chwilę udo­
wodnimy, że własności te ma każdy ciąg funkcji Haara. ■
6 . Niech (hn) będzie ciągiem funkcji Haara, odpowiadającym filtracji ( T n)- W y ­
kazać, że
a) h„ jest ^„-mierzalna dla n = 1 , 2 ,...;
b) S (h n + 1 1 F n) = 0.
Od tej chwili przyjmiemy, że Q = o(T, 0,-7- i, ...).
7. Wykazać, że (h n) jest układem ortonormalnym zupełnym w L 2 (fl, Q, P ).
Wynik zadania 6 da się uogólnić.
8 . Wykazać, że funkcje Haara tworzą bazę Schaudera w L p, p ^ 1, czyli dla
każdej funkcji / 6 L p( U , ę , P ) istnieje ciąg (a ;) taki, że
f —
®ihi
przy czym powyższy szereg jest zbieżny w L P(Q ,Q , P ) i prawie wszędzie.
M a r ty n g a ły a funkcje h arm on iczne. Jeśli funkcja /: R 2 —* R jest harmo­
niczna (patrz uw. D.2.7),
i
są niezależnymi procesami Wienera oraz
T t = < r(w j1), W i2):s < i), to (/ (W t(1\ W^2)), T t ) jest martyngałem.
9. Niech / będzie funkcją harmoniczną, X — wektorem losowym o standardo­
wym rozkładzie normalnym w R 2. Wykazać, że
£ f(u + c X ) = f(u ).
10. Wykazać, że proces W ^W ^2\ t ^ 0 jest martyngałem.
M e t o d y M o n te C a rlo a zagad n ien ie D irich le ta . Niech G C R 2 będzie
otwarty i spójny; niech g: dG —» R . Rozwiązanie zagadnienia Dirichleta w obsza­
rze G polega na znalezieniu takiej funkcji ciągłej u: G —> R , żeby
u (x ) = g(x),
d2u
d2u
x € dG,
(4)
. .
d^ + W ~
Metodami probabilistycznymi można wykazać, że jeśli funkcja g jest ciągła i ogra­
niczona, a brzeg obszaru G jest regularny (co oznacza, że można go dotknąć ,
§ 13.5. Konstrukcja procesu Wienera za pomocą układów ortonormalnych
319
z zewnątrz obszaru wierzchołkiem pewnego trójkąta), to rozwiązanie zagadnienia
Dirichleta istnieje. Jest nim funkcja
u(x) = £g(x + WT),
x € G,
(6)
gdzie W =
jest procesem Wienera opisanym wyżej, zaś r chwilą
pierwszego kontaktu procesu x + Wt z brzegiem dG (jest to moment stopu).
Okazuje się, że funkcja u jest harmoniczna, skąd już wynika, że spełnia (5).
*11. Wykazać, że zdefiniowana w (6) funkcja u jest harmoniczna w G.
Zwróćmy uwagę, że funkcja u zawsze spełnia (5). Nie zawsze natomiast jest ciągła
na brzegu dG. Wiąże się to z kryterium regularności, mającym w istocie charakter
probabilistyczny.
§ 13.5.
Konstrukcja procesu Wienera za pomocą ukła­
dów ortonormalnych
Istnieje wiele konstrukcji procesu Wienera na przedziale [0,1], z którymi
warto się zapoznać, żeby zobaczyć, jak działają pewne twierdzenia o zbież­
ności miar i pewne twierdzenia z analizy funkcjonalnej.
Na proces Wienera, czyli na rodzinę zmiennych losowych (Wt)ie[o,i]> można
patrzeć jak na zmienną losową o wartościach w C [ 0,1] (przestrzeni funkcji
ciągłych na odcinku [0,1] z normą sup). Rozkład prawdopodobieństwa tej
zmiennej losowej to miara Wienera.
Wspomnimy tu o konstrukcji za pomocą łamanych losowych. Niech £, będą
niezależnymi zmiennymi losowymi o rozkładzie ftf ( 0,1). Definiujemy
sn(t) =
^ + "
+ (n i “ M ) ^ £ m + i ( w )
dla t e [0,1]. Niech Pn będzie rozkładem Sn, traktowanej jako zmienna
losowa o wartościach w C [0,1]; można pokazać, że P n
P , gdzie P jest
rozkładem prawdopodobieństwa na przestrzeni funkcji ciągłych na odcinku
[0.1], zadającym proces Wienera.
Przeprowadzimy teraz konstrukcję procesu Wienera na odcinku [0,1] za
pomocą układów ortonormalnych. Pochodzi ona od Itó i Nisio, zaś (wcze­
śniejszy) pomysł użycia funkcji Haara — od Zbigniewa Ciesielskiego.
Niech {ipn,)^Lj będzie dowolnym układem ortonormalnym zupełnym w prze­
strzeni L 2 [0, 1 ], a (■yn)™=1 — ciągiem niezależnych zmiennych losowych
o rozkładzie A/"(0,1). Wtedy formalny szereg
OO
^ ^ Intpn
n= 1
Rozdział 13. Proces Wienera
320
pozornie nie ma wielkiego sensu: nie jest zbieżny w L 2 [0, 1 ], więc nie defi­
niuje tam miary gaussowskiej. Definiuje jedynie obiekt zwany miarą cylin­
dryczną. Jej obraz przy przekształceniu liniowym może już być prawdziwą
miarą. Nie będziemy wykładać ogólnej teorii, a udowodnimy tylko, że szereg
°°
pt
Wt = y ' 7 n / <pn(s)ds
n = l
jest zbieżny prawie na pewno w przestrzeni C [ 0, 1 ], i że otrzymany proces
Wt ma skończenie wymiarowe rozkłady normalne oraz funkcję kowarian­
cji SWtWs = min(i, s). To ostatnie łatwo wykazać dla dowolnego układu
ortonormalnego:
Szereg ^ 2 an ^ n
jest zbieżny p.n.
wtedy i tylko
wtedy, gdy
SWtWs = s { ^ 2 l ')n
=
=
£J
J
<Pn(u)duj
<pn(u)du-
= £ /
¿ “n < ° ° ;
wtedy jest on też
zbieżny według
p-tych momentów
J
j
ipn(u)dv}j =
(pn(u)du =
l [0^ (u)ip n(u)du
J
l [0'S](u)tpn{u)du =
/ l[o,t](w)l[ 0,s]W<*i = m in(i,s).
Jo
Natomiast zbieżność prawie na pewno w C [0 ,1] dowodzi się dość prosto dla
układu Haara (co do innych układów ortonormalnych, patrz zadania 1-3).
Ponieważ funkcja Schaudera H nj : (t) —
hnj c(s)ds przyjmuje wartości niezerowe tylko na przedziale ((fc — l ) 2 _n, (k + l ) 2 ~n) (i ma tam maksimum
równe 2 ~ Iił i ), a przedziały takie są rozłączne dla ustalonego n i nieparzy­
stych k < 2n, mamy, oznaczając przez en(t) sumę wyrazów bloku zawiera­
jącego n-tą serię funkcji Haara
sup |e„(i)| = sup
te[o,i]
te[o,i]
= 2
n+1
2
.
max
K 2"
k niep arzyste
fc < 2 "
7 n fc .
’
k n iep arzy ste
Wobec tego
P ( sup |en(i)| > 6\/2~n log 2n ) =
< 6 [0 , 1]
= P(
max
fc<2n
\yn,k\ > 2 ^ 6y/2~n \og2n) <
k niep arzyste
i
< 2n _ 1 P(|7 |> 6^/2 log2") < 2ne _fl2 log2" = 2n{1~02).
Jeśli 6 > 1, to '¡Py 2n(1-®2) < oo, więc na mocy lematu Borela-Cantelliego
z prawdopodobieństwem 1 zachodzi tylko skończenie wiele zdarzeń
sup \en(t)\ > 6^/2 - n log 2n,
te[o,i]
§ 13.5. Konstrukcja procesu Wienera za pomocą układów ortonormalnych
321
co daje zbieżność jednostajną szeregu.
Pozostaje do wykazania, że rozkłady skończenie wymiarowe procesu Wt są
normalne. W tym celu zauważmy, że rozkład wektora losowego
jest normalny, o średniej zero, jako granica w sensie słabej zbieżności przy
k —> oo ciągu rozkładów normalnych o średniej zero, odpowiadających wek­
torom
Zadania
W konstrukcji procesu Wienera za pomocą układu Haara mogliśmy wykazać
zbieżność szeregu losowego w przestrzeni C[0,1] dzięki temu, że funkcje Haara
należące do jednego „bloku” mają rozłączne nośniki. Jeśli zastąpimy układ Ha­
ara przez dowolny układ ortonormalny zupełny w L 2[0,1], dowód zbieżności od­
powiedniego szeregu będzie znacznie trudniejszy. Poniżej przedstawiamy metodę
dowodu pochodzącą od Kwapienia5.
Przestrzeń C^[0,1]. Tak będziemy oznaczać przestrzeń funkcji ciągłych / na
odcinku [0,1], spełniających warunek Höldera z wykładnikiem A i takich, że
/(O) = 0. Norma w tej przestrzeni dana jest wzorem
H/Ma = SUP {
J
a, t
€ [0 ,1 ],S *
i}.
Przestrzeń C a[0, 1] z tak określoną normą jest przestrzenią Banacha.
Operator Riemanna-Liouville’a. Jest to operator całkowy, dany wzorem
(* ./ )(« ) =
r W Jo
o > 0.
(1 )
Innymi sławy, Raf = f * r a, gdzie ra(x) = j^ya;a_ 1 l[o,0o)(s). Ponieważ ra* n =
= ra+b, mamy Ra+b = RaRb■
1. Udowodnić
Lemat 1. Jeśli 1 < p < oo, 0 < A < 1, a = l/p + A, to Ra jest operatorem,
ciągłym z Lp[0,1] w C>,[0,1],
5Por. [KWA], §2.5. Ogólniejszą teorię, w tym informacje o miarach cylindrycznych
można znaleźć w: A. Pietsch, Operator Ideals, VEB Deutscher Verlag der Wissenschaften,
Berlin 1978, §25.6; istnieje przekład rosyjski.
Rozdział 13. Proces Wienera
322
F a k to ryza c ja o p e r a to r a R.\. Naszym celem jest wykazanie, że szereg
OO
71=1
gdzie (era) jest dowolnym układem ortonormalnym zupełnym, a (-fn) — ciągiem
niezależnych zmiennych losowych o rozkładzie M ( 0, 1 ), jest zbieżny prawie na
pewno w przestrzeni Ca[0, 1]. Przy okazji otrzymujemy wniosek: prawie wszystkie
trajektorie procesu Wienera spełniają warunek Hóldera z wykładnikiem A, gdzie
0 < A < 1/2.
Ustalmy A e (0,1/2). W tedy dla pewnego p € (2, oo) jest 0 < A < 1/2 — l/p.
Niech a = l/p + A, b = 1 — l/p - A. W tedy a + b = 1, a G (0,1/2), b e (1/2,1),
1 mamy następującą faktoryzację:
L 2 [0 , 1 ]
^
lH
b
C [0 ,1]
Ca[0 , 1 ]
L ” [0,1]
N a mocy wyniku zadania 1 operator R a jest ciągły z L p[0,1] w Ca[0, 1]. Ponieważ
ll-Rfc/ll«. ^ I M I 2 II/H 2 , to operator Rb jest ciągły z L 2 [0,1] w (7(0,1] C L p[0, 1 ];
ma jednak znacznie mocniejszą własność.
2. Wykazać, że szereg
OO
^ ' Rb^Ti^Ti
jest zbieżny według p-tych momentów w L p[0, 1 ].
Z faktoryzacji operatora R i oraz zadań 1 i 2 wynika teraz zbieżność według
p-tych momentów w C ^[0,1] szeregu
R i e n l n , który definiuje proces W ie­
nera. Konstrukcja została zakończona.
Nietrudno jednak udowodnić zbieżność prawie na pewno powyższego szeregu.
Wynika ona z ogólnego twierdzenia o szeregach niezależnych zmiennych losowych.
3. Niech
będzie szeregiem niezależnych symetrycznych zmiennych loso­
wych o wartościach w przestrzeni Banacha. Uogólnić nierówność Levy’ego-Ottavianiego (7.2.1) i za jej pomocą wykazać, że zbieżność szeregu według
prawdopodobieństwa implikuje zbieżność prawie na pewno.
Dodatek A
Kilka faktów z analizy
§A .l.
Pożyteczne nierówności
1 . ex < x + e*2, i e R .
D o wó d . Udowodnimy równoważną nierówność: ex2~x + xe~x ^ 1. Jeśli
x > 0, to z (najbardziej chyba pożytecznej) nierówności ex ^ 1 + x wynika,
że
: + xe x ^ 1 + x 2 —x + x ( l — z) = 1
(1)
Jeśli x < 0, to lewa strona (1) jest malejąca i przyjmuje w zerze wartość 1,
bowiem jej pochodna
[(1 — x) + ( 2x — l)e l 2]e-:c
jest ujemna, co z kolei wynika z nierówności
e ^ i > r i '
*<a"
2. |log(l + z) — z\ ^ \z\2, o ile 2: € C, \z\ ^ |.
D o w ó d . Istotnie, mamy
,, ,,
s
i
|log(l + z )- z \ =
z2 („
2z
2z2
T l 1~ T + X
2
2-3
+ -'-
(2 )
+ •
2-2-5
2a. Dla argumentów rzeczywistych ma miejsce nieco dokładniejsze oszaco­
wanie:
< log(l + x) ^ x, x > —1 .
1+ x
323
Dodatek A. Kilka faktów z analizy
324
D o w ó d . Prawą nierówność otrzymuje się logarytmując obie strony nierów­
ności ex ^ 1 + x\ co do lewej, funkcja (1 + x ) log(l + x ) — x jest malejąca
na ( —1 , Oj i rosnąca na [0 , oo), a dla x = 0 przyjmuje wartość 0 . ■
3. |(1 + z )lo g (l + z) - (z + ¿)| < ||z|3, o ile z £ C, \z\ < \.
D o w ó d . Wystarczy skorzystać z rozwinięcia w szereg Taylora i szacować
tą samą techniką, co w nierówności ( 2 ):
( l + * )lo g (l + * ) = * + ± ^ - ± l + ± z - . . . m
4. Poniższe trzy nierówności
(a) \eił - 1| < |t|,
t £ R;
(b) \elt — 1 — it\ <
t e R;
(c) \elł — 1 — it + y [ ^
,
t £ R;
są szczególnymi przypadkami następującego oszacowania:
Tw ierdzenie 1. Dla wszystkich i € R i n = 0,1,2,... zachodzi nierów­
ność:
(3)
D o w ó d . Zastosujemy indukcję. Dla n = 0 mamy oczywistą nierówność
|eI(| ^ 1. Przypuśćmy, że nierówność jest spełniona dla pewnego n > 0.
Wykażemy, że jest spełniona dla n + 1.
Można bez zmniejszenia ogólności zakładać, że i ^ 0, bowiem zmiana znaku
t powoduje pojawienie się po lewej stronie (3) liczby zespolonej sprzężonej
do wyjściowej. Mamy wtedy
Twierdzenie zostało udowodnione. ■
§ A.2. Funkcje gamma i beta
§ A.2.
325
Funkcje gamma i beta
Funkcja gamma jest zdefiniowana wzorem
/»CO
T(a) =
ia_ 1 e~łdi,
/
Jo
a > 0.
(1 )
Całkowanie przez części prowadzi do wzoru rekurencyjnego
r(a) =
(a —l)r(ćt — 1),
a
> 1,
(2)
a ponieważ T ( l ) = 1 , dla n € N mamy
r (n ) = (n - 1 )!
Funkcja gamma pojawia się w naturalny sposób przy obliczaniu momentów
rozkładu normalnego. Jeśli 7 ~ A f(0 , 1), to
9
r°°
o
9p/2
r 00
f|7 |p = - ¿ = / |i|pe -‘ / 2di = = - =
V27T 7o
- A Jo
\ 8 \ < * -W e -d s
=
V5F V 2 JPodstawiając p = 0 otrzymujemy przy okazji wartość F(l/2) = spK.
Funkcję beta definiuje się za pomocą całki:
B (a , 6) =
f
ta l ( l - t ) b 1dt,
a, 6 > i
JO
Okazuje się, że
Zależność tę chyba najłatwiej otrzymać jako produkt uboczny z rachunków
w zadaniu 5.10.1, które powtórzymy tu w uproszczonej postaci. Niech ga
oznacza gęstość rozkładu 7aji. Wtedy
1
f°°
i9a * 9b){t) = T & m J - J ~
B(<ł,t) ^a+6- l c- i
r(o)r(6)
v ~le" (i" * )e“* x
Dodatek A. Kilka faktów z analizy
326
Wystarczy teraz zauważyć, że splot gęstości ga i gb jest w dalszym ciągu
gęstością, zatem
skąd wynika wzór (3).
P rz y k ła d 1. Do funkcji beta sprowadzają się dobrze znane skądinąd całki
/n =
/»7T/2
/-7T/2
/
sin” xdx =
Jo
/*7I
/ '7 r/ 2
cosn xdx.
Jo
Wiadomo, że I n = [ n — 1 )/n ■I n- 2 , n > 2 , dlatego
I - I
^
f
dla
= 2A:,
. .
dla n = 2k + 1 .
W
Wynik ten można otrzymać za pomocą funkcji beta, zauważając, że
[
sinn xdx = f
sn( l - s2)~ 1/2ds = ^ f
Jo
* Jo
Jo
_ W t Ł
2
M -
2 ’2
s(n_1)'/2( l - s )~ 1/2ds =
1 r^ > r^)
2 ' T (2± 2 ) '
i korzystając ze wzoru rekurencyjnego ( 2 ). ■
P rz y k ła d 2. Obliczymy teraz za pomocą funkcji beta objętość zbioru
Sn,p =
* n) G R ": |*i|p + ... + |a:n|p < 1},
0 < p < oo.
Dla p = 1 jest to n-wymiarowy odpowiednik ośmiościanu, dla p = 2 — kula
n-wymiarowa. Jeśli p > 1 , zbiór Sn,p jest kulą jednostkową w przestrzeni
unormowanej
Oznaczmy szukaną objętość przez Vn,p- Mamy wtedy (prawie) oczywisty
związek rekurencyjny:
v„lP= k_i,p• y 1 (i - n ^ /p d t = k-i,p■2jf\ i - n (n- ^ pdt.
Podstawienie tp = s pokazuje, że ostatnia całka jest równa ^ ( - -^P- 1 , ^).
Ostatecznie
V
= V
v n,p —
V n - li , p •
p
Ponieważ Vi>p = 2, wynika stąd, że
2nr « ( i )
n,p
pnr ( 2i± 2)'
A -!
, p j ).
§ A.3. Wzór Stirlinga
327
W szczególności
v
§A .3.
n,l — —
n!> v «,2 - r (( ^|+) nl) '
.
W zór Stirlinga
Udowodnimy, że
0 < 6n < 1 .
n! = V27mnne_rl+i5",
(1 )
Istnieje wiele dowodów1 i alternatywnych postaci tego wzoru (por. zad.
10.2.18, a także: [FEL], t. I, s. 56, [GKP], s. 531). Podamy dowód oparty
na wzorze Wallisa2 (por. [FICH], t. II, s. 319).
Lem at 1. Dla każdego n e N zachodzą nierówności
/
l \ n" ^
i
e < f l + —J
< e1+ i 2»(»+u .
(2)
D o w ó d . Z rozwinięcia
log ŁŹJL = 2 x ( l + \ x 2 + -a :4 +
1 -x
V
3
5
„2 k
*
2k+l
otrzymujemy, podstawiając x = l/ ( 2ra+ l ) i uwzględniając, że -j— = l + £:
nj
2n + 1
1+
1
1
3(2n + l )2
5(2n + l )4
Ponieważ
3(2n + l )2
5 ( 2 n + l )4
3 (2n + l )2
"
(2 n + l)4
1
12 n(n + 1 ) ’
otrzymujemy
1 <
n
2/
V
71)
<!+■
1
12n(n + l ) 5
z czego natychmiast wynika ( 2 ). ■
1Pierwszy w: James Stirling, Methodus differentialis , Londyn 1730.
2John Wallis, A rith m etica injin itorum , Oxford 1656. Metoda Wallisa odwołuje się do
całek (według współczesnej terminologii, bowiem wtedy mówiono o kwadraturach krzy­
wych), które sprowadzają się do funkcji beta. Cytowana książka w 75 lat później wywarła
duży wpływ na Eulera w jego badaniach nad funkcjami beta i gamma. Oryginalny dowód
Wallisa można znaleźć w [HIS], t. II.
Dodatek A. Kilka faktów z analizy
328
Lem at 2. Istnieje taka stała a, że
n\ = a nn+1/2e ' n+^ ,
D o w ó d . Niech
!en
nie
0 < 9n < 1.
(3)
n = 1 , 2 , .. .
n n+ 1/2r,’
Wtedy
(i + ¿ r + i/2
a„
Oi-nĄ-1
i z lematu 1 wynika, że
p l/ 1 2 n
1 <
---- i i - <
p 1 2 n (n + l) =
an + i <
,
e l /1 2 (n + l) '
Wobec tego ciąg ( an) jest malejący i ograniczony z dołu przez 0, zatem
jest zbieżny do granicy a. Z drugiej strony ciąg o wyrazach ane~1/12n jest
rosnący i zbieżny do tej samej granicy. Ponieważ dla każdego n
ane~1/12n < a < an,
istnieje takie 9n e ( 0, 1 ), że
an = ae-9"/12" . ■
Stalą a wyznaczymy ze wzoru Wallisa (ale można ją także otrzymać jako
uboczny produkt z twierdzenia de Moivre’a-Laplace’a).
W zór Wallisa był
pierwszym
wzorem,
wyrażającym 7r
jako granicę ciągu
liczb wymiernych.
Lemat 3 (W z ó r Wallisa).
( 2n)!!
2
(4)
n->oo 2n + 1 V ( 2n — 1 )!! J
D o w ó d . Jest oczywiste, że
r/»7t/2
*/2
/
Jo
ęir
firf/22
/
sin2n zda: <
sin2n+1 ¡rdz <
Jo
pwf 2
/
Jo
sin2n_1 sda:
zatem wzór (A.2.4) daje
( 2n)!!
_ ( 2n - 1 )!!
( 2n + l ) ! ! <
( 2 n)!!
tt _ ( 2n - 2 )!!
' 2 < ( 2n - l ) ! ! ’
czyli
(2n)
( 2n — 1 )!!
1
( 2n)!!
7T
2?z + 1
< r <
2
( 2n — 1 )!!
Skrajne wyrazy tej nierówności różnią się o
( 2 ra)!!
2n(2n + 1 )
( 2 n - 1 )!!
zatem mają wspólną granicę równą ir/2. ■
<
1
7r
2n ' 2 ’
2n ’
329
A.3- Wzór Stirlinga
Możemy teraz wyznaczyć stałą o z lematu 2. Zastosujemy lemat 2 do wyraZema
(2n)U
_ [(2n)!!j2 _ 22,l(n!)2
(2n — 1)!!
(2n)\
(2n)!
'
Z (3) wynika zatem po elementarnych rachunkach, że
(2n) !!.
= a / jy 4 9 „-0 / 2 4 n
( 2w - l ) ! !
V 2
g
’
wobec tego wzór Wallisa (4) daje
1 = lim - i — a2 ■£ • e ^ ~ e' ^ 12n =
2
n—»oo 2n + 1
Oznacza to, że a =
czony.
2
4
Dowód wzoru Stirlinga został tym samym zakoń­
Wzór Stirlinga jest zadziwiająco dokładny, a co więcej, istnieją wersje jesz­
cze dokładniejsze, na przykład ([GKP], s. 531):
n! = V27mnn e~n+15"""36Ó^+ 1260^5 ,
O < Bn < 1.
Dziwne współczynniki w wykładniku wyrażają się przez liczby Bernoulliego
B„ (patrz [GKP] s. 317); wiąże się to z faktem, że
Bik
- 1
1
1
12 + 360
1
1
1260 + 1680
W takiej też postaci otrzymał stałą a ze wzoru (3) Abraham de Moivre
(patrz też przypis na str. 170).
Wiadomo też (dowód nie jest łatwy), że dla x > 0
r(* + 1) = V2^xx+h~x+if°°° J ^ ds,
gdzie <p(s) jest okresowym przedłużeniem (o okresie 1 ) funkcji
h(s) = s (l — s),
s e [0, 1 ].
Dodatek B
Funkcje tworzące
W tym dodatku przybliżymy pojęcie funkcji tworzącej. Nie pojawiło się óno
w zasadniczej części książki, bowiem wprowadziliśmy pojęcie ogólniejsze —
funkcję charakterystyczną. Tym niemniej funkcje tworzące są wygodnym
narzędziem przy badaniu zmiennych losowych o wartościach całkowitych
nieujemnych i warto poznać ich podstawowe własności.
Funkcje tworzące pierwszy badał de Moivre. Euler używał ich intensywnie
do badania problemów z teorii liczb.
§ B .l.
Definicja i podstawowe własności
Definicja 1. Funkcją tworzącą ciągu liczbowego (pj)JL0 nazywamy funkcję
OO
s e ( —a, a),
(1 )
jeśli tylko powyższy szereg potęgowy jest zbieżny w niepustym przedziale
( —a, a).
Gdy X jest zmienną losową o wartościach całkowitych nieujemnych i o
rozkładzie P { X = j ) = p j , j = 0,1,... to funkcję tworzącą ciągu (p j)jL 0
nazywamy funkcją tworzącą zmiennej losowej X i oznaczamy gx- Z definicji
wynika natychmiast, że gx{s) == £sx . Oczywiście funkcja tworząca zależy
tylko od rozkładu prawdopodobieństwa zmiennej losowej.
Funkcja tworząca gx jest dobrze określona co najmniej dla |s| ^ 1, bowiem
z oszacowania
OO
OO
wynika wtedy bezwzględna zbieżność szeregu ( 1 ).
330
§ B-l- Definicja i podstawowe własności
331
Dla M < 1 pierwsze dwie pochodne wynoszą
oo
oo
9 x ( s) = J 2 j P j S J~ 1,
j=
g'x{s) = ^ 2 j { j
3=
1
a ogólnie
- l)Pj'SJ'-2 ,
(2)
2
oo
9 x \ s ) = Y , J ~ ^ ^ j ~n
j= n
1
'
Stąd dla s = 0 mamy
»?’(»)
t 5
„ tfTl
n\
udowodniliśmy zatem
Twierdzenie 2. Rozkład prawdopodobieństwa zmiennej losowej o warto­
ściach całkowitych nieujemnych jest jednoznacznie wyznaczony przez funk­
cję tworzącą.
Powróćmy do wzoru (2). Jeśli £ X < oo, to szereg definiujący pierwszą
pochodną jest zbieżny dla s = 1. Na mocy twierdzenia Abela mamy wtedy
OO
lim g'x (s) =
= £x-
U
Jeśli £ X = oo, to szereg Y^jPj Jest rozbieżny, ale i lim ^ j - g'x (s ) = oo. Tu
i w dalszym ciągu przyjmiemy dla funkcji tworzących umowę, że
g'x { l) = Urn g'x {s),
S -*
1“
dopuszczając wartość oo. Otrzymamy wtedy po prostu
£ X = g'x ( 1).
(3)
£ X (X -1 )= & (1 ).
(4)
Podobnie
Wprowadzimy teraz funkcję tworzącą dla ogonów rozkładu, czyli dla ciągu
o wyrazach qj = P ( X > j ) , daną wzorem
Q{s) = q o + q\s + q2s2 + ...
Współczynniki w tym szeregu są ograniczone przez 1 , zatem jest on zbieżny
co najmniej na przedziale ( —1 , 1 ).
Zgodnie z zad. 5.6.8 i umową dotyczącą wartości Q ( 1 ) mamy
£X = g0 + 9i +12 + ■■■ = <3(1).
Powyższe fakty podsumowuje
332
Dodatek B. Funkcje tworzące
T w ierdzenie 3. Dla s G ( —1,1) zachodzi wzór
Q(s) = ł ^ £ ) .
(5)
Ponadto
( 6)
£ X = Q {l) = g'x { l),
£ X { X - l ) = 2 Q \ l) = g '^ l).
(7)
D o w ó d . Współczynnik przy sn w (1 - s)Q (s) wynosi qn - gn_ i = —pn
gdy n > 1 oraz go = Pi + P2 + • • • = 1 — Po dla n = 0, zatem
( l - s ) < 2 (s) = l - S x ( s ) .
Z twierdzenia o wartości średniej Q(s ) = g'x (t), gdzie t G (s, 1), zatem
lim Q (s) = lim gx (i) = E X
S —»1
t-+ l
Z (5) wynikają zależności
9x{s) = Q (s) - (1 - s)Q '(s),
fl&(fl) = 2Q
zatem
» - ( l - fl) Q " ( S),
= 2Qf( l ) i otrzymujemy (7). ■
Proste rachunki dają
W n iosek 4. Jeśli £ X 2 < oo, to
V 2X = Q ( 1) + 2Q'(1) - [Q (l )]2 = g'x { 1) + g 'x (l) - f ó ( l ) ] 2.
P rz y k ła d 5. Niech X ma rozkład geometryczny: P ( X = j ) = q*p, gdzie
j = 0 ,1 ,.... Wtedy
OO
g x {s ) = ]T > (g s )J' = T Z T Z j =0
1
95
Stąd g'x ( l ) = g/p = £ X i V 2X = q/p2. m
§ B.2.
Funkcja tworząca sumy niezależnych składników
Wykorzystamy teraz zależność g x i s)
= £sx . Wynika
z niej
Tw ierdzenie 1. Jeśli X iy X 2, ..., X n są niezależnymi zmiennymi losowy­
mi o funkcjach tworzących g i,g 2, ■■■,gn, to suma X i + X 2 + ... + X n ma
funkcję tworzącą n,n=i 9i-
§B.2. Funkcja tworząca sumy niezależnych składników
333
D o w ó d . Ponieważ X i , X 2 , . . . , X n są niezależnymi zmiennymi losowymi,
to zmienne losowe sXf, i = 1 , 2 , . . . , n są niezależne i
n
gx1+ x 2+...+xn(s) = £ sx i+ x 2 + - + x n _
■
P rzy k ład 2 . Każda z n niezależnych zmiennych losowych X \ ,X 2, X
n
inoże przyjąć z jednakowym prawdopodobieństwem jedną z wartości 1 , 2 ,
Obliczyć prawdopodobieństwo, że suma X i + X 2 + ... + X n będzie
a) równa danej liczbie k, n < k < mn,
b) większa od danej liczby k, n < k ^ mn.
Rozwiązanie. Mamy
więc
P^ 1 + x 2+...+ji„(s) =
I_ K s m- i ) ~ P
5—1
mn
a) Szukane prawdopodobieństwo jest równe współczynnikowi przy sk, za­
tem na mocy definicji iloczynu szeregów jest równe sumie iloczynów współ­
czynników po tych l, r, że k = n + ml + r, czyli po l = 0 , 1 , . . . , n i odpo­
wiednio r = k — n —ml, więc jest ono równe
m —71
b) Szukane prawdopodobieństwo jest równe współczynnikowi przy sk funk­
cji tworzącej ogonów
i obliczając jak wyżej otrzymujemy
Dodatek B. Funkcje tworzące
334
W tym przykładzie obliczyliśmy w szczególności prawdopodobieństwa zda­
rzeń typu „uzyskanie sumy 444 oczek przy stukrotnym rzucie kostką”. Inne
metody byłyby tu niezwykle pracochłonne.
Tw ierdzenie 3. Jeśli X , Y są niezależnymi zmiennymi losowymi o funk­
cjach tworzących <71, 32 , to P ( X —Y = k) jest równe współczynnikowi przy
sk w funkcji g i(s)g2{l/s).
D o w ó d . Mamy
gi(s)g 2(l/ s) = i ^ p ksk) f ^ b i s ~ l) .
0
' N =0
*
Obliczmy wyraz z sk. Dla k ^ 0 ma on postać
oo
oo
J2PkSk+lbis~l = sk Y ^ P { X = k + l ) P ( Y = l) =
1=0
1=0
oo
= sk Y ; P ( X = k + l , Y = l) = skP ( X — Y = k).
1=0
Dla k < 0 rachunki są podobne. ■
P rz y k ła d 4. Obliczymy prawdopodobieństwo, że liczba całkowita wyloso­
wana ze zbioru liczb od 000000 do 999999 będzie miała sumę pierwszych
trzech cyfr równą sumie ostatnich trzech cyfr.
Jeśli X = X i + X 2 + Xz będzie sumą pierwszych trzech cyfr, a Y = Yi +
+ Y2 + Yz będzie sumą ostatnich trzech cyfr to
gx(s)g y {l/ s) = 10-6 s~27( l - s10)6( l - s )-6 .
Zatem współczynnik przy s° jest równy:
Twierdzenie 1 daje się uogólnić na sumę losowej liczby składników, co ma
zastosowanie w teorii procesów gałązkowych.
/
Analogiczne
twierdzenie ma T w ierdzenie 5. Jeśli ( X n) jest ciągiem niezależnych zmiennych losowych
m'charakterystycz' 0 ^ same3 f unkcj i tworzącej g, a N jest niezależną od tego ciągu zmienną
nych. losową o funkcji tworzącej f , to losowa suma Sm = X i + ... + X m ma
funkcję tworzącą h = / o g.
§ B.2. Funkcja tworząca sumy niezależnych składników
335
D o w ó d . Obliczymy h stosując tw. 1 i odpowiednią wersję wzoru na praw­
dopodobieństwo całkowite.
oo
oo
h(s) = £sSn = Y 2 £ ( sSn I n = k) p (N = k) = Y l £sSkp( N = k) =
k= 0
fc=0
oo
= Y / gk{ s ) P ( N = k) = f ( g ( s ) ) .
k= 0
Po drodze skorzystaliśmy z niezależności N od ( X n), otrzymując
£ ( sSn \ N = k ) - S (sSk | JV = fe) = £sSk. •
Gdy założymy dodatkowo, że £X\ < oo, £ N < oo, to z (3) i tw. 5 otrzy­
mamy:
£SN = f ( g { l ) ) - g ' ( l ) = £ N - £ X 1.
(por. tw. Walda 11.1.10).
Przytoczyliśmy tylko kilka najważniejszych własności funkcji tworzącej i po­
daliśmy przykłady zastosowań do obliczeń w zadaniach, ale funkcje two­
rzące mają także różne zastosowania teoretyczne, chociażby do badania
fluktuacji losowych przy rzutach monetą i łańcuchów Markowa. Na zakoń­
czenie wspomnimy o możliwych sposobach uogólnienia pojęcia funkcji two­
rzącej. Punktem wyjścia jest wzór
g x(s) = £sx .
Liczbę s € (0,1] można przedstawić w postaci s = e-A gdzie A 6 [0, oo),
a więc
£sx = £ < T x x .
To wyrażenie ma sens dla znacznie szerszej klasy zmiennych losowych: jest
zawsze skończone dla zmiennych losowych o wartościach nieujemnych (bo
wtedy e~xx < 1) i nazywamy je transformatą Laplace’a. Gdy —A zastąpimy
przez i t . t e R , otrzymamy wyrażenie £eu x , które ma sens zawsze — a więc
dochodzimy do pojęcia funkcji charakterystycznej.
Dodatek C
Teoria miary i całki,
przestrzenie U
W tym dodatku wyłożymy podstawy teorii miary i całki ograniczone do
przestrzeni probabilistycznych. Ale nawet w teorii prawdopodobieństwa nie
da się uniknąć rozważania ogólniejszych miar. Odpowiednikiem przestrzeni
probabilistycznej w ogólnej teorii miary jest przestrzeń mierzalna, czyli
trójka
gdzie M jest cr-ciałem podzbiorów zbioru X , a (j, jest
przeliczalnie addytywną funkcją określoną na. M , o wartościach w [0 , oo].
Nazywamy ją miarą. Elementy M nazywamy zbiorami mierzalnymi.
Przykładami miar są miara licząca, określona na wszystkich podzbiorach
N wzorem n {A ) = # A , oraz miara Lebesgue’a, która jest uogólnieniem
pojęcia objętości (długości, pola powierzchni).
Obie te miary w pewnym sensie niewiele się różnią od miar skończonych, są
mianowicie a-skończone. Oznacza to, że zbiór X daje się przedstawić w po­
staci przeliczalnej sumy zbiorów o mierze skończonej. Większość twierdzeń
o miarach skończonych przenosi się za pomocą oczywistych rozumowań na
miary cr-skończone.
Od tej chwili jednak ograniczamy się do miar probabilistycznych.
§C .l.
Twierdzenie o przedłużaniu miary
Tw ierdzenie 1 (O przedłużaniu m iary). Jeśli P jest skończenie addy- .
tywną i nieujemną funkcją na pewnym ciele A podzbiorów O, przy czym
P{£1) = 1 i spełniony jest jeden z równoważnych warunków:
(i) jeśli (A n) jest wstępującą rodziną zbiorów należących do A i jeśli
U,“ i A i = A e A, to lim ^oo P (A n) = P {A ),
(ii) Jeśli ( A n) jest zstępującą rodziną zbiorów należących do A i jeśli
Plfei A i - 0, to limn_»oo P { A n) = 0,
336
§c.l. Twierdzenie o przedłużaniu miary
337
to P przedłuża się jednoznacznie do prawdopodobieństwa na o-ciele gene­
rowanym przez A.
D o w ó d . Zaczniemy od dowodu równoważności (i) -i=> (ii).
(i) =$- {ii). Jeśli ( A n) jest rodziną zstępującą o pustym przecięciu, to (A'n)
jest wstępująca i ze wzorów de Morgana wynika, że (Jn A'n = O, zatem
1 = lim P(Ajl) = 1 - lim P (A n).
n
n
(ii) => (i). Jeśli (A n) jest rodziną wstępującą, to zbiory Bn = A \ An tworzą
rodzinę zstępującą, f|n Bn = 0, zatem
0 = lim P (B n) = P L 4 ) - l i m P ( ¿ n).
n
n
Dowód właściwego twierdzenia przeprowadzimy w trzech krokach:
I. Na wszystkich podzbiorach fi zdefiniujemy funkcję P *, która jest nieujemna, monotoniczna, subaddytywna i P *(Q ) = 1 (jest to tak zwana miara
zewnętrzna).
II. Zdefiniujemy klasę zbiorów mierzalnych w sensie Carathéodory’ego i po­
każemy, jest ona a-ciałem, a funkcja P * obcięta do niej jest przeliczalnie
addytywna.
III. Wykażemy, że P * jest (jedynym) rozszerzeniem P na klasę zbiorów
mierzalnych.
I. Dla A C O definiujemy miarę zewnętrzną P * wzorem
P*(A) = mîJ
2 P(An),
n
gdzie kres dolny bierzemy po wszystkich ciągach zbiorów A i, A 2, ■.. G A
stanowiących pokrycie zbioru A, tj. takich, że A C (Jn A nJest oczywiste, że P*(0) = 0, i że miara zewnętrzna jest nieujemna i mo­
notoniczna. Jest ona także subaddytywna:
n l M " ) < E pw n
n
Istotnie, na mocy definicji P* dla dowolnego ustalonego e > 0 istnieją zbiory
Bnk e A takie, że An C {Jfc Bnk, E t P (B nk) < P * (A n)+ e / 2 n. Wobec tego
Un An C Un,fc ^nk i
P’ f L K )
' n
'
< £P(B»fc) < ^ P W
n,k
co wobec dowolności e daje subaddytywność.
n
+ f ,
Dodatek C. Teoria miary i całki, przestrzenie L p
338
II. Zbiór A nazywamy P*-mierzalnym gdy dla każdego E C fi spełniony
jest warunek Caratheodory’ego:
P*( A
n E) + P*{A! C\E)= P*(E).
Z subaddytywności wynika, że ten warunek jest równoważny warunkowi
P * ( A D E ) + P * ( A 'r \ E ) ^ P * ( E ) .
(1)
Klasę zbiorów P*-mierzalnych oznaczymy przez M . Najpierw pokażemy,
że M jest ciałem i P * jest na nim skończenie addytywna. Jasne, że fi € M
i jeśli A € M to A! e M . Weźmy A, B e M . Wówczas dla dowolnego E:
P * (E ) = P * { B n E ) + P * ( B 'r \ E ) =
=
p * (A
+
(2)
n b n E ) + p * (a ' n b n E ) +
n B ' n E ) + P * (A ' n B ' n e ) >
P * (A
^ P * (A n B D E ) +
+
P * ((A '
n B n E ) u (A n b ' n E ) u (A! n B ' n E )) =
= P * i(A D B ) n E ) + P * ((A n B )' n E ),
czyli zachodzi (1) dla A fi B, zatem A n B € M
A ,B e M , AC\B =
to
P* ( A
i M. jest ciałem. Gdy
UB) = P ’ ( i n ( 4 U B) ) + P* ( A>n (A U B) ) = P*(A) + P*(B),
skąd przez indukcję otrzymujemy skończoną addytywność.
P * jest przeliczalnie addytywna na elementach M , bo gdy zbiory A n € M.,
n = 1, 2 , ... i są parami rozłączne, to ze skończonej addytywności i monotoniczności P * otrzymujemy
k
/
k
\
/ <x>
£ P * ( A n) = P * ( | J A A < P * ( U ^ n
n —1
'
^n=l
zatem
P * { A n) ^ -P *(U ^ li A »)- Nierówność przeciwna wynika z sub­
addytywności P*.
Pozostaje do wykazania, że M jest cr-ciałem. W tym celu udowodnimy, że
jeśli zbiory An e M , n = 1,2,... są parami rozłączne, to U ^ i ^ - n £ M
(gdyby nie były rozłączne, stosujemy standardową procedurę: jeśli Bn £ M ,
n = 1 ,2,..., to zbiory A n = Bn
f i . . . f lBi € M , są parami rozłączne
iu r=i£n=ur=x4,eA <).
Niech A = j j “= i A n. Musimy pokazać, że dla zbioru A zachodzi (1). Niech
Cn = Ufc=i A k- Mamy
n
p t (C n n E ) = Y , p * (A k n E ).
fc=l
(3)
§c.l. Twierdzenie o przedłużaniu miary
339
Dla n — 1 równość (3) jest oczywista, dalej dowodzimy indukcyjnie. Zakła­
damy, że (3) ma miejsce dla n i sprawdzamy ją dla n + 1.
p * ( c n+1
n E) = P * ( cn n c n+i n E) + p*(c'n n c n+l n e ) =
= P*{Cn n E ) + P * ( A n+1 n f i } =
n
= ^ ] p ł (J4 , n s ) + p * (A n+1 n £ ) .
k=l
Stąd
p*(£) =
P * ( £ n c n) + p * { e
n C'n)
=
n
= Y s p *{A ki~\E ) + p * { E n c 'n) >
it=i
n
^ Y , p *(A k n E ) + p ’, (E n A ')k=i
Biorąc n —►oo mamy
oo
P * (E ) >
P * (A k n E ) + p , ( E n A') > P * ( E n A ) + p * ( E n A' ) ’
k= i
czyli udowodniliśmy ( 1 ).
I I I . Pokażemy, że .A C M i P* = P na A. Zatem P * jest rozszerzeniem P
na a (A ). Jednoznaczność rozszerzenia wynika z lematu o ir- i A-układach.
Weźmy A € A i dowolny zbiór E C fi. Dla dowolnego ustalonego e > 0
weźmy zbiory Bk £ A takie, że E C Ufc -O*, SfcLi p (Bk) < P * (E ) + £.
Wtedy Ef\A C ( J i ^ n A ) i Er\A! c Ufc(-B*nA') oraz Ą n A , P fcn,4' G A
więc z definicji P * i z przeliczalnej addytywności P na A (co wynika z (i)
lub (m), patrz dowód tw. 1.1.7 o ciągłości) mamy
p*(Er\A) + p * ( E n A ' ) ii
^ F (B t n i) + £ p (Ą n A ') =
k
k
= Y , p ( B* ) ś p * (E ) +
s’
k
czyli zachodzi (1) co oznacza, że A € M , zatem A C M .
Weźmy ył € .4. Z definicji P * mamy P * (A ) ^ p ( A )- Gdy A c U n A ",
A n € .A to korzystając z subaddytywności i monotoniczności P na A'.
p (A ) ź Y l p
P
{
n
czyli P*(A) ^ P (A ), co daje P* = P na A. ■
-A »)>
n
340
§ C.2.
Dodatek C. Teoria miary i całki, przestrzenie L v
Całka względem miary probabilistycznej
Definicja całki. Niech (ii, T , P ) będzie przestrzenią probabilistyczną. Bę­
dziemy zakładać, że wszystkie funkcje są ^-mierzalne, czyli są zmiennymi
losowymi.
Definicja 1. Gdy X jest funkcją prostą, czyli przyjmującą skończenie wiele
wartości, to można ją zapisać w postaci
n
(i)
k= 1
gdzie x\ ,. . . , xn są różnymi wartościami przyjmowanymi przez X , zaś F k =
= {w :X (ui) = Xk} 6 jF. Wtedy całkę definiujemy wzorem:
(2)
Gdy X : fi -+ [0, oo], to przyjmujemy
(3)
gdzie supremum jest brane po wszystkich funkcjach prostych Z ^ X .
Wyrażenie f n X d P nazywamy całką funkcji X względem P . Gdy X jest
funkcją prostą, to supremum, prawej strony (3) jest osiągane przez X , więc
(3) daje tę samą definicję całki, co (2).
Należy zwrócić uwagę, że f ^ X d P £ [0 ,oo]. Ponieważ dopuszczamy nie­
skończone wartości całek, przyjmiemy też umowę, że oo • 0 = 0 • oo = 0 .
Całkę z X po zbiorze A definiujemy wzorem:
D efinicja 2. Całką z dowolnej mierzalnej funkcji X nazywamy wielkość
o ile choć jedna z całek f a X +dP, Jn X
dP jest skończona.
Mówimy, że X jest całkowalna, gdy f n |X|dP < oo.
W łasn o ści całki funkcji nieujem nej. Zaczniemy od najprostszych.
§ C.2. Całka względem miary probabilistycznej
Twierdzenie 3.
341
(a) Jeśli 0 ^ X ^ Y, to f n X d P < Jn YdP.
( b) Jeśli X ^ 0, c jest stałą to f n cX dP = c f n X d P .
(c) Jeśli X ^ 0, A, B e T , A c B to f A X d P ą JB X d P .
(d) Jeśli X ^ 0, A 6 T , f A X d P = 0, to X = 0 p.n. na A.
D o w ó d , (a), (b) i (c) otrzymujemy bezpośrednio z definicji.
(d) Niech
= {w e A: X(w ) > l/n}, n = 1,2,.... Wtedy z (a) mamy
ip (A „ ) ^
71
f X d P ^ f X d P = 0,
An
JA
JJAn
J
a
zatem P {A n) = 0. Ponieważ {w e A: X (io) > 0} = L£Li A n, to P (A ) = 0. ■
Lem at 4. Jeśli X ^ 0, to istnieje taki ciąg funkcji prostych ( Z n), że
Z n(w) f X(u>) gdy n -> oo.
D o w ó d . Definiujemy
^n
k- 1
2n
Hi
k= 1
Oczywiście Z jest mierzalna i jest funkcją prostą. Dla w g f i , gdy n > X ( oj) ,
to 0 < Z n(u>) — X(w ) ii
Zatem gdy X jest ograniczona, to ciąg Z n
zmierza do X jednostajnie. ■
Udowodnimy teraz twierdzenie o monotonicznym przechodzeniu do granicy
pod znakiem całki, zwane też twierdzeniem o zbieżności monotonicznej.
Jedno z dwóch
Twierdzenie 5 (Lebesgue’a -B e p p o Leviego). Jeśli (X n) jest niema- najczęściej
lejącym ciągiem nieujemnych funkcji mierzalnych, czyli 0 < X n(u ) f X ( uj) używanych
twierdzeń teorii
gdy n —> oo, to
całki.
lim f X nd P =
n- ° ° Jn
f XdP.
Jn
D o w ó d . Z twierdzenia 3(a) wynika, że ciąg całek f n X n jest niemalejący
i ograniczony z góry przez f n XdP. Zatem wystarczy udowodnić, że
f X d P < lim f X ndP.
J(l
n-»oo J q
Weźmy funkcje prostą Z taką, że 0 < Z < X i niech K < oo będzie
stałą ograniczającą Z (taka stała istnieje, bo Z jest funkcją prostą). Dla
dowolnego n i e > 0 mamy wtedy:
Z - X n < K 1 [Z^x „+ e} + £,
342
Dodatek C. Teoria miary i całki, przestrzenie L p
skąd
/Z d P iC K P { Z
Ja
> X n + e) + e +
i X ndP.
Ja
Biorąc n -+ oo, ze zbieżności p.n. _X”n do X i z tego, że Z ^ X otrzymujemy
/ ZdP ^ e +
Jn
la
lim / X ndP,
a ponieważ e > 0 było dowolne, mamy
f Z d P ^ lim [ X ndP.
Jn
I ostatecznie z (3) w definicji 1:
/ XdP<
Ja
lim f X ndP. •
Jn
Do dowodu następnego twierdzenia potrzebny będzie z pozoru dziwny
Lem at 6 . Jeśli X > 0 jest funkcją prostą, to
v■ĄA)
(A )=
% /I X d P
JA
A
jest skończenie addytywną funkcją zbioru.
D o w ó d . Niech X = 52i=1a:ilsi , A = J4 1 U . . . U A n , gdzie Ai są rozłączne.
Wtedy
k
k
n
v (A ) = Y s X iP {B i n A ) = Y , x i E
¿=1
n
p (Bi n A ) =
¿=1
n
k
=jE
E xip(B*nAi)=E^)■
—1i —1
j= l
Tw ierdzenie 7. Jeśli X , Y ^ 0, to
f (X + Y )d P = f X d P + [ YdP.
J ęi
J ęi
J
(4)
ii
D o w ó d . Gdy X = J2k x>^Fk i Y — Y^j dA g ,- są funkcjami prostymi, to
Nie ma gwarancji,
że liczby x k + Vj
będą różne. Lemat
6 umożliwia
ominięcie tej
trudności.
X + Y = J > fc + yj^Fk^Gjk,j
§ C.2. Całka względem miary probabilistycznej
343
Ponieważ na zbiorze F k fi G j suma X + Y przyjmuje tylko jedną wartość,
to
f
(X + Y ) d P = ( x k + yj )P (F k n G j ) =
J F kn a .
= x kP ( F k n G j ) + V j P { F k n G j ) =
=
f
XdP+ f
YdP,
l F kc\Gj
J
F kn G j
JFunGi
JFtnGi
a na mocy lematu 6 powyższa równość zachodzi po podstawieniu ił w miej­
sce F k fi G j ; zatem (4) zachodzi dla funkcji prostych.
Dla dowolnych X , Y ^ 0 istnieją na mocy lematu 4 ciągi funkcji prostych
Z n, Vn takie, że 0 ^ Z n(ui) | X (u ) i 0 < Vn(u ) f K(w). Wtedy
0 4 Z n + Vn T X + Y.
Korzystając z twierdzenia o zbieżności monotonicznej możemy teraz przejść
do granicy w równości (4) prawdziwej dla Z n iV n, otrzymując w efekcie (4)
dla dowolnych X , Y ^ 0. ■
Twierdzenie 8 . Jeśli X n: Q —> [0, oo] oraz X =
J
X n, to
x d P = Y' / x HdP.
Ja
D o w ó d . Niech Ym = X i + . . . + X rn. Z zasady indukcji zastosowanej do
(4) mamy
i YmdP = V
Jn
i X ndP.
Jn
(5)
Ponieważ Ym t X to korzystając z twierdzenia o zbieżności monotonicznej
przechodzimy w (5) z m do granicy i otrzymujemy tezę. ■
Twierdzenie 9 (Lem at Fatou). Jeśli X n : Q —> [0, oo], to
( lim inf X ndP ^ lim inf f X ndP.
Jn
”-*oo JQ
D o w ó d . Niech Yn = m ik^n X k. Wtedy Yn ^ X n i Yn | liminfn_ 00 X n.
Zatem z twierdzenia o zbieżności monotonicznej
lim inf
f
Ja
X ndP ^ lim inf
f
n- ,0° J n
YndP = łim
f
YrldP =
[
liminf X„dP. m
Jn n^ °°
Dodatek O. Teoria miary i całki, przestrzenie L p
344
W łasności całki dla dowolnej funkcji X . Udowodnimy drugie z najczę­
ściej używanych twierdzeń z teorii całki, umożliwiające przejścia graniczne
pod znakiem całki — twierdzenie Lebesgue’a o zbieżności zmajoryzowanej
(zdominowanej, ograniczonej).
Twierdzenie 10. Jeśli funkcje X i Y są całkowalne, to:
(a) X + Y jest całkowalna i f n( X + Y )d P = f n X d P + /n YdP.
( b) Jeśli c jest stałą, to Jn cX d P = c Jn X d P .
(c) Jeśli X Sj Y , to
XdP
YdP.
{d)\Sn x d P \ ^ j n \x\dP.
(e) Jeśli A n € T
=
są parami rozłączne i |Jn A n =
fi, to Jn X d P
=
H r J AnX d P -
(/) Jeśli f A X d P = 0 dla każdego A e T , to X = 0 p.n. na fi.
D o w ó d , (a) Dla X , Y ^ 0 teza jest treścią twierdzenia 7. W ogólnym
przypadku korzystając z twierdzenia 3(o) otrzymujemy całkowalność sumy
X + Y:
[ \X + Y \ d P ^ [ \X\dP+ [ \Y\dP < oo.
Jn
J fi
Jn
Ponadto
(X + Y ) + - ( X + Y )~ = X + Y = X + - X ~ + Y + - Y ~ ,
a więc
(X + Y ) + + X - + Y ~ = (X + Y )~ + X + + Y + ,
zatem z twierdzenia 7
f ( X + Y ) + dP + Jfn X ~ d P /n[Y ~ d P
+
=
Jn
=
f {X + Y ) - d P + [ X + d P + [ Y + dP.
Jn
Jn
Jn
Przenosząc odpowiednie składniki na stronę przeciwną otrzymujemy tezę.
( 6) Korzystamy z twierdzenia 3(6) i z tego, że ( - a ) + = a~.
(c) Korzystamy z twierdzenia 3(a) i z tego, że X + < Y + i X ~ ^ Y ~ .
(d) X ^ |X|, więc teza oczywista z (c).
(e) Gdy X ^ 0, to biorąc X n =
ją do X + i X ~ .
otrzymujemy tezę tw. 7 i stosujemy
(/ ) Gdy A = {oj: X (w ) > 0}, to JA X + dP = f A X d P = 0 z założenia, więc
z twierdzenia 3d) mamy X + = 0 p.n. Podobnie dowodzimy, że X ~ = 0
p.n. ■
§ C-3. Miara produktowa i twierdzenie Fubiniego
345
Twierdzenie 11 (Lebesgue’a o zbieżności zm ajoryzow anej). Jeżeli
dla pewnej funkcji całkowalnej Y zachodzą nierówności \Xn\ ^ Y , n 6 N ,
to wszystkie funkcje X n są całkowalne, a jeśli ponadto X n
całkowalna i
X , to X jest
lim f \Xn -X \ d P = Q
n^ °°Ja
( 6)
lim f X nd P =
(7)
oraz
n- ,°° J a
[ XdP.
Jn
D o w ó d . X jest .F-mierzalna jako granica funkcji ^-mierzalnych, \X\ < Y,
więc X jest całkowalna. Dalej, \Xn — X\ ^ 2Y , zatem z lematu Fatou
zastosowanego do 2Y — \Xn — X\ otrzymujemy
f 2Y d P < liminf f (2Y - \Xn - X\)dP =
Ja
n -> c a
Jn
= f 2YdP + lim inf ( — f \Xn - X\dP) =
Ja
n~*°°
Ja
= f 2YdP —lim sup [ \Xn - X\dP.
Ja
n—>oo Jn
Wobec tego lim s u p ^ ^ /n \Xn-X \ d P < 0, co daje ( 6): granica górna ciągu
liczb nieujemnych, który nie jest zbieżny do zera, jest dodatnia. Wreszcie
(7) otrzymujemy z ( 6) i z twierdzenia 10(d) zastosowanego do X n — X . m
Na zakończenie uwaga o zapisywaniu całek: wszystkie podane niżej napisy
oznaczają tę samą całkę.
i X d P = [ X{u})dP(u) = [ X (io )P (d u ).
Ja
§ C.3.
Ja
Ja
M iara produktowa i twierdzenie Fubiniego
Dane są dwie przestrzenie probabilistyczne: (fti,.F i,P i) i ( ^ 2 , ^ 2i P i)- Na
produkcie ił = iii x ii 2 z cr-ciałem A4, będącym najmniejszym cr-ciałem
zawierającym prostokąty mierzalne, czyli zbiory postaci A x B , gdzie A £
€ T\, B G T 2 zdefiniujemy miarę probabilistyczną P taką, że
P (A x B ) = P 1(A )P 2(B ).
c-ciało M często oznaczamy symbolem T \ ® T 2 i nazywamy cr-ciałem pro­
duktowym.
Dodatek C. Teoria miary i całki, przestrzenie L p
346
Dla zbioru C 6 M zdefiniujemy jego przekroje: wi-przekrój
CU1 == {o.>2 ■( ^ 1 ,^ 2) £ C },
oraz W2-przekrój
C “ 4 f { Wl: ( U l, U 2) 6 C }.
Zaczniemy od lematu o mierzalności:
Lem at 1. Jeśli zbiór C należy do M , to
(i) dla każdego
e iii jego uii-przekrój CUl jest Jr2 -mierżalny.
(ii) dla każdego o>2 £ ^2 jego u>2 -przekrój C “ 2 jest Ti-mierżalny.
Niech funkcja X : ii —* R będzie M-mierzalna. Wtedy
(iii) dla każdego u>i £ iii przekrój X U1 zadany wzorem
X LJ1(UJ2) = X(ui,W 2)
jest Ti-mierzalny.
(iv ) dla każdego 0J2 £ ^ 2 przekrój X U2 zadany wzorem
X ^ (w l ) = X (u 1,w2)
jest T i -mierzalny.
(v) jeśli ponadto X ^ 0, to całka
f
X u l(w2)P2(du>2),
Jn2
i odpowiednio
[ X u*{u1)P 1(du1)
Jiii
jest Ti-mierzalna (odpowiednio T 2 -mierzalna).
D o w ó d , (i) Niech G będzie klasą zbiorów z M dla których wi-przekrój
jest J^-mierzalny. Jest oczywiste, że prostokąty mierzalne należą do Q. Po­
nieważ ( C % , = (CU1)' i dla C7<B> £ M mamy | J „ c f f = (U n C'(n))wi> t0
G jest (T-cialem. Zatem Q = M .
( ii) Dowodzimy analogicznie jak (i).
(iii) Dla D e S (R ) mamy, na mocy (i):
§ C.3. Miara produktowa i twierdzenie Fubiniego
347
(iv) Dowodzimy analogicznie jak (iii).
(v) Gdy X = 1axBi gdzie A e T Ł, B e J-2 to X(u>i,uj2 ) = 1a(w1 )1b(w2) '
zatem całka
X Ul(u 2 )P 2 {dw2 ) jest .Pi-mierzalna. Stąd, gdy X jest funk­
cją prostą, to całka jest ^-i-mierzalna, a z twierdzenia o zbieżności monotonicznej i z tego, że każda funkcja nieujemna jest granicą funkcji prostych
wynika teza. ■
Twierdzenie 2 (O istnieniu m iary produktow ej). Funkcja P , zdefi­
niowana na cr-ciele M wzorem
P (C )^ [
\ j lc^M Ą M lJ M d w i)
Jq.2
(1)
jest jedyną miarą probabilistyczną spełniającą warunek: dla A € T\, B € J-%
P (A x B ) = P l (A )P 2(B ).
(2)
Mamy także
p (G ) =
{ j n 1 C.2K ) A ( d o ; 1 ) ] p 2(da;2)
(3)
Miarę P nazywamy produktem miar Pi i P 2. Często oznaczamy ją symbo­
lem Pi ® P 2.
D o wó d . Z lematu 1 wynika, że całka wewnętrzna we wzorze (1) jest
.Fi-mierzalna, więc P jest dobrze określona na cr-ciele M . Oczywiście P ^ 0
i zachodzi (2). Zatem P (il\ x i?2 ) = 1. Gdy
€ M i są parami rozłączne,
to
P(|JC<n)) = /
n
Jcil
=
[/
1(U c(n)) (W2)P2(dW2)]Ą (d Wi) =
n
JOl Yl[i
1 Cw ( w2) f ’2(dW2) ] i ,l(rfWl) =
n Jci2
więc P jest miarą probabilistyczną na cr-ciele M .
Jedyność wynika z tego, że prostokąty mierzalne tworzą 7r-układ i z uwagi
5.3.9. Gdy zdefiniujemy
Q(C)=Jn [Jn l c „ > i ) P l (c M ]P 2(du,2),
Dodatek C. Teoria miary i całki, przestrzenie L v
348
to analogicznie sprawdzamy, że jest to miara probabilistyczna na cr-ciele
B 6 T 2.
M , spełniająca warunek Q (A x B ) = P \ (A )P 2{B), A e
Korzystając jeszcze raz z tego, że prostokąty mierzalne tworzą 7r-układ i z
uwagi 5.3.9 otrzymujemy P = Q, czyli (3). ■
Tw ierdzenie 3 (F ubin iego). Niech X będzie funkcją
Jr2-mierzalną.
(a) Jeśli X ^ 0, to
(4)
(b) Jeśli
lub
to X jest całkowalna względem P \ ® P 2.
(c) Jeśli X jest całkowalna względem P \ ® P2, czyli.
to
(5)
P2{{^2- f I^(wi, w2)|-Pl(dwi) < oo}) = 1,
Jcii
oraz zachodzi (4).
D o w ó d . Z lematu 1 wynika, że całki we wzorach (4) i (5) są mierzalne,
(o) Z definicji miary produktowej
J fi i
J 0,2
§ C.3. Miara produktowa i twierdzenie Fubiniego
349
a z definicji całki
Pi {C)= f
Pi ®
J
XÍÍ2
lc(u,uU2)Pi®P2{dwi,dw2)-
Zatem pierwsza część (4) zachodzi dla C e T i ® T 2, czyli zachodzi dla
funkcji prostych, a z twierdzenia o zbieżności monotonicznej otrzymujemy
ją dla X nieujemnych. Drugą część (4) otrzymujemy w taki sam sposób.
(6) Stosujemy punkt (a) do |X|.
(c) Z założenia
X + ( uji, w2) P i ® P 2(dwi,dw2) < co,
/
JOiXf?2
a także
X ~ (u i,w 2) P i ® P2{<kJi,dw2) < oo.
/
J0ix02
Z punktu (a)
j
^
X + { u i,u 2)P2{dui2ĄPi(<kjJi)
=
=
/
X + {ui,w2) P i ® P2(du>i,duj2) < oo.
«/fij xf22
Zatem z własności całki f a X + (ui,u>2)P 2(du>2) < oo
P i —p.n. Analogicz­
nie otrzymujemy taką własność dla X ~ , i dlatego
P i(W i: [
Jsi2
\ X (ui,u2)\P2(dw2) < oo}) = 1 .
Wobec tego poza zbiorem N zerowej miary Pi zachodzi równość:
I X (u ii,u 2)P 2(dw2) = I X^~(wi,u}2)P 2(duj2) — j X
Jsii
JQi
Ja?
J02
JO2
JO2
Przyjmując, że dla wi € N całki są równe zeru mamy
jf
[ji
(uii,u}2)P 2(dio2).
X(w u u2)P 2{du2)\Pi{d ui) =
= Ja [ f Q X + {wi,V2)P2(dw2)^Pi(dLOi) +
- [
f i
X-(u>i,w 2)P 2(dul2)]P i(d w i) =
Jo1 l Jo2
=
/
J Í2j XÍÍ2
J
X + (W1 ,W2) Ą ® P 2( ^ W l , ^ 2) +
—
X~(uji,u>2) P i ® P 2(<kúi,dhj2) =
Jííj XfŹ2
=
/
J o 1 xílo
X(w!,o; 2) Pi ® P2(dcji,du>2).
Dodatek C. Teoria miary i całki, przestrzenie L p
350
Analogicznie dowodzi się, że
f
Jn1xn2
X(uJ1,U]2) Pl®P2(doJl,duJ2) = i
J qi
\ (
X(t01,UJ2)P2{duJ2)\Pl{duJl),
co kończy dowód (4). ■
Uogólnienie powyższych rozważań na przypadek produktu n miar jest oczy­
wiste. Odnotujmy jeszcze, że prawdziwe jest twierdzenie o istnieniu przeli­
czalnego produktu miar probabilistycznych, z którego jednak w tej książce
nie korzystamy.
§ C.4.
Twierdzenie Kołmogorowa o rozkładach zgod­
nych
Niech T będzie zbiorem wskaźników. Rozpatrzmy klasę £ skończonych pod­
zbiorów T z naturalnym częściowym porządkiem zadanym przez relację za­
wierania. Załóżmy, że dla każdego L € C dana jest miara probabilistyczna
P L na
Mówimy, że rodzina miar { P l } l g c jest zgodna, gdy dla dowolnych L i, L 2 6
G C, L i C L 2 i A € S ( R Ll) zachodzi
P l M ) = P l 2( A x R ł ^ ) .
Zgodną rodzinę miar tworzą na przykład rozkłady brzegowe wektora loso­
wego o wartościach w R n. Do otrzymania niezgodnej rodziny miar wystar­
czy T = { 1,2} — pozostawiamy to jako proste ćwiczenie.
Podzbiór R t , który można przedstawić w postaci A x R T’'L, gdzie L G C,
A €
nazywamy zbiorem cylindrycznym (o podstawie A ). Niech
B (R T) oznacza cr-ciało podzbiorów R T generowane przez zbiory cylin­
dryczne.
Twierdzenie 1 (Kołm ogorowa o zgodności). Jeśli rodzina miar pro­
babilistycznych { P l } l e c jest zgodna, to na (R T,B (R T)) istnieje dokładnie
jedna miara probabilistyczna P taka, że dla każdego L G C, A G B (R L):
P { A x R T\L) = P l {A).
D o w ó d . Jak łatwo sprawdzić, zbiory cylindryczne tworzą ciało. Zdefiniu­
jemy miarę P na zbiorach cylindrycznych (cylindrach), a potem pokażemy,
że można ją rozszerzyć na całe B (R T). Dla A G B{ R L) niech C (A ) oznacza
cylinder o podstawie A, czyli zbiór
C {A ) = A x R t \l .
§ C.4. Twierdzenie Kolmogorowa o rozkładach zgodnych
351
Zdefiniujmy P na cylindrach:
P { C ( A ) ) ^ P L {A).
I. Najpierw wykażemy, że definicja jest poprawna, czyli że P {C {A )) nie
zależy od sposobu przedstawienia cylindra. Istotnie, jeśli C ( A l ) = C ( A l 1),
gdzie A l £ S (R L), A l 1 E B (R L l), to biorąc L 2 takie, że L C L 2, L i C L 2
znajdujemy A L2 E B ( R 1,2) takie, że A L x R Ł2\£ = A L2 = A Ll x R 1,2^ 1.
Wtedy korzystając z warunków zgodności mamy
P l 2(A l 2) = PL2(A L x R ł *\ł ) = P l (A l )
i analogicznie
P l 2{A l 2) = P l A A l ^ ,
zatem P l ^ A ^ ) = P l ( A l ) II. P jest skończenie addytywna. Weźmy dwa rozłączne zbiory cylindryczne
Ai x R t \l \ A 2 x R ^ 1,2. Wtedy biorąc L = L i U L 2 mamy
P (A i x R n L l u A 2 x R 1”^ 2) =
= P ({ A i x R ^
1 U A 2 x R L\i2) x R n i ) =
= P { A X x R L\Ll U A 2 x R ^ 2) = P l (A i x R L\L l) + P l {A 2 x R ^ 1,2) =
= P { A i x R T\L l) + P {A 2 x R 1" ^ 2).
III. P rozszerza się jednoznacznie na B ( R T). Wykażemy, że zachodzi wa­
runek (ii) z twierdzenia C .l.l (o przedłużaniu prawdopodobieństwa).
Niech Bn będzie zstępującym ciągiem cylindrów. Pokażemy, że jeśli dla
pewnego 5 > 0 zachodzi P (B n) > 8, n = 1,2,..., to zbiór B = fl^=i Bn
jest niepusty. To, że Bn jest zstępującym ciągiem cylindrów oznacza, że
przedstawienie Bn = A n x R T\Ln spełnia warunki L n C L n+i i A n+i n
n R Ł" C A n, n = 1,2,__ Bez straty ogólności można zakłada«, że L n =
{ i i ,. • ■, tn}.
Dla każdego A n E B (R Ln) istnieje zbiór zwarty K n taki, że K n C A n,
PLn(A n — K n) < 6 / 2n (wynika to z regularności rozkładów prawdopodo­
bieństwa — patrz zad. 5.2.1). Dlatego
P (B n \ C (K n)) = P Ln(A n \ K n) < 5/2-.
Rozpatrzmy cylinder D n = f]£=i C (K n) C Bn. Ponieważ
n
Bn \ D n c { J (B k \ C (K n)),
k=1
Dodatek C. Teoria miary i całki, przestrzenie L p
352
to
n
P(Bn\Dn) ^ J 2 P (Bk\C(K^ < 6’
k= 1
a więc P ( D n) > P ( B n) — S > 0. Zatem D n =£ 0.
Dla każdego n weźmy element x^n'> g D n. Gdy n > A;, to
€ .Dfc (bo
ciąg D n jest zstępujący). Dlatego (x[™\. . . , x ^ ) € K k dla n > k. Dla
każdego k ciąg ( a : ^ , x [2
J , . . . ) jest ciągiem elementów z K k. Stosując metodę
przekątniową (korzystamy ze zwartości zbiorów Ku) można znaleźć podciąg
Tii taki, że granica lim;
—■* (xt!
istnieje dla każdego k i jest równa x tk. Wtedy
xtk) £ Kk, a to oznacza, że dla każdego k
.
E = {y 6 R T :ytl = xt l ,y t2 = Xt2, - - - } C C (K k) C D kStąd 0 i E C f T = i D n C B. m
Rozpatrzmy przestrzeń probabilistyczną (R T ,B (R T ), P ). Dla każdego t
określmy na niej odwzorowanie Z t wzorem
Z t {u ) = u (t).
Z t jest zmienną losową i B ( R T) = a (Z t:t € T ). Proces stochastyczny
(Z t)t<:T nazywamy procesem kanonicznym. Mamy
P L (A ) = P ( ( Z t l , . . . , Z tn) € A )
dla L — { i i , . . . , £ n}, A e B ( R L). Zatem z twierdzenia 1 otrzymujemy
natychmiast
Tw ierdzenie 2 (K ołm ogorow a o istnieniu procesu). Jeśli { P l } l £C
jest zgodną rodziną miar probabilistycznych, to na pewnej przestrzeni proba­
bilistycznej istnieje proces stochastyczny ( X t) teT, którego rozkładami skoń­
czenie wymiarowymi są rozkłady { P l } l 6£-
§ C.5.
Przestrzenie LP
W twierdzeniach o zmiennych losowych często narzuca się warunek istnie­
nia wartości oczekiwanej, drugiego czy też (rzadziej) czwartego momentu.
Definiuje się także zbieżność według p-tego momentu. Wszystko to w na­
turalny sposób prowadzi do przestrzeni zmiennych losowych całkowalnych
w p-tej potędze. Warto znać ogólne własności takich przestrzeni.
Wszystkie rozpatrywane poniżej zmienne losowe będą określone na ustalo­
nej przestrzeni probabilistycznej (fl, T , P ).
Dla 0 < p < oo zdefiniujemy p-tą normę zmiennej losowej X jako
p-ta norma jest
prawdziwą normą
dla p 1 .
§C.5. Przestrzenie L p
353
m \ p £ ( J a \ x \ > d p y p,
zaś przestrzeń zmiennych losowych, których p-ta norma jest skończona,
będziemy oznaczać przez L P(S}, T , P ).
Można udowodnić, że gdy p —> oo, to ||X||P —>ess sup |X|, dlatego definiuje ess supZ =
się
= in f{t:F x {t) =
ll-^||oo = ess sup jX|,
i odpowiednio do tego L °°(il, T , P ).
Funkcja || ■||p ma następujące własności:
(i ) II/IIp = 0 wtedy i tylko wtedy, gdy / = 0 p.n.,
(ii) \\cf\\p = |c| ■H/llp, c e R, / € I ? ( a , F , P ) ,
(iii) ||/ + g\\p < ||/||p + Hsllp, f,g € L P (il, T , P ), p > 1 (nierówność
Minkowskiego).
(™) 11/ + slip < 2p(||/ ||p + Hsllp, f , g e L p( i P ) , p > 0.
Warunki (ż) i (ii) są oczywiste; warunek (iv ) wynika z elementarnej nie­
równości: jeśli x , y,p > 0 , to (x + y)p < 2p~1(x p + yp).
Z (ii) i (iv) wynika, że przestrzeń 1^(0., F ^ P ) jest przestrzenią liniową.
Warunki ( i ) - ( i i i ) pokazują, że dla p > 1 jest to przestrzeń unormowana,
a 11•||pjest normą. Dokładniejsza analiza warunku (i) pokazuje, że formalnie
rzecz biorąc, elementami tej przestrzeni są nie zmienne losowe, ale klasy
równoważności zmiennych losowych: zmienne losowe X i Y należą do tej
samej klasy, gdy X = Y p.n.
Z nierówności Minkowskiego (iii) (patrz zad. 5.7.8) wynika także, że p-ta
norma jest funkcją ciągłą na przestrzeni L P(Q, T , P ), jeśli p > 1.
Tw ierdzenie 1 . Przestrzeń ^ ( i i j J - j P ) jest zupełna dla 1 < p < oo.
D o w ó d . Zaczniemy od przypadku 1 < p < oo. Niech (X n) będzie ciągiem
Cauchy’ego w L P (il,T ,P ). Wybierzmy z niego taki podciąg (X nk), że
l l ^ +1 - X nJ | p < 2- fc,
* = 1 ,2,...
Niech
k
Yh = ^ \ X nk+1- X nk\,
~—•
Y = lim Yfc.
fe—»oo
Dodatek C. Teoria miary i całki, przestrzenie L v
354
Wtedy ||lfc||p < 1 dla k = 1,2,___Z lematu Fatou wynika, że ||Y||P ^ 1,
a w szczególności Y < oo p.n., skąd wynika zbieżność bezwzględna p.n.
szeregu
OO
Xri! +
~ -^nt)
k=1
do zmiennej losowej X ; zbieżność sum częściowych tego szeregu oznacza,
że Xnk —>X p.n.
Lp
Pozostaje do wykazania, że X n — * X . Wybierzmy e > 0. Wtedy istnieje
takie N , że dla m ,n > N jest \\Xn —X m\lP < e. Stosując lemat Fatou przy
ustalonym m otrzymujemy
S\X - X m\P < lim ixń£\Xni - X m\P < e*.
i —>oo
Wynika stąd, że X — X m e I ? (ii, T , P ), więc i X = (X — X m) + X m e
6 Lp(f i, T , P ), i że ||X — X m\\p —» 0 dla m —> oo.
Żeby udowodnić twierdzenie w L °°, weźmy ciąg Cauchy’ego (X n) i zdefi­
niujmy zbiory
=
\Xk{u)\ > ||Xfc| U },
P n,m = {w € fi: |Xm(w) - X n(w)\ > \\Xn - Xnll«,}.
Suma E tych zbiorów, gdy k = 1,2,..., oo, m, n = 1,2,..., oo ma miarę
zero, zaś poza E zmienne losowe X n zmierzają jednostajnie do ograniczonej
zmiennej losowej X , co kończy dowód. ■
§ C.6.
Przestrzenie Hilberta
Szczególną pozycję wśród przestrzeni L p(fi, F , P ) zajmuje L 2 (fi,.F, P ), bo­
wiem norma jest w niej zadana przez iloczyn skalarny, zdefiniowany dla
X , Y £ L 2 (fi,:F, P ) wzorem
(X , Y ) = £ X Y = f X Y dP.
Jn
Wtedy
||X||2 = %/ ( ^ X ) .
Przestrzeń L 2(fi, T , P ) jest zatem przestrzenią liniową unitarną (czyli wy­
posażoną w iloczyn skalarny) i zupełną. Takie przestrzenie nazywamy prze­
strzeniami Hilberta. Dobrze znane przykłady przestrzeni Hilberta to prze­
strzenie euklidesowe (R n, (•,•)); ich bezpośrednim uogólnieniem jest l 2 —
przestrzeń ciągów (an) sumowalnych z kwadratem, gdzie (a, b) = J2a,ibi.
§ C.6. Przestrzenie Hilberta
355
Potrzebny nam będzie fragment teorii przestrzeni Hilberta nad ciałem liczb
rzeczywistych, zawierający twierdzenie o rzucie ortogonalnym, nierówność
Bessela i równość Parsevala. Ta ostatnia w kontekście zespolonych prze­
strzeni Hilberta występuje tylko raz w rozdziale o funkcjach charaktery­
stycznych i jest zresztą, udowodniona bez odwoływania się do pojęcia prze­
strzeni Hilberta.
Iloczyn skalarny. Iloczynem skalarnym nazywamy funkcję, która każdej
parze elementów x,y przestrzeni liniowej H przypisuje liczbę rzeczywistą
(x,y), przy czym spełnione są następujące warunki:
(i) (x, y) = (y, x) dla x,y € H,
(ii) (ax + by, z) = a ( x , z) + b (y, z) dla x ,y ,z & H, a,b G R,
(iii) (x, x ) > 0 dla x € H; (x, x) = 0 wtedy i tylko wtedy, gdy x — 0.
Normę w przestrzeni Hilberta H definiujemy za pomocą iloczynu skalarnego:
||x|| =
(x, x),
x € H.
Sprawdzenie własności normy z § C.5 jest łatwe. Łatwo też udowodnić nie­
równość Schwarza:
I (x,y) |< ||a:[| • \\y\\,
x,y € H,
badając funkcję kwadratową f ( t ) = (x + ty ,x + ty), t e R.
Z nierówności Schwarza wynika, że iloczyn skalarny jest ciągłą funkcją obu
argumentów.
R egu ła równoległoboku. Z własności iloczynu skalarnego wynika na­
tychmiast, że
IIa- + 3/||2 + I I * — 2/[|2 = 2 ||x ||2 + 2 ||j/||2.
Można udowodnić, że jeśli norma spełnia ten warunek, to jest zadana przez
iloczyn skalarny.
Dopełnienie ortogonalne. Elementy x, y prziestrzeni Hilberta H nazy­
wamy ortogonalnymi (prostopadłymi), gdy (a:, y) = 0. Piszemy wtedy x±y.
Niech X 1- = {y € H: yJ~x}. Innymi słowy, X 1- jest przeciwobrazem zera przy
odwzorowaniu liniowym i ciągłym y
{x., y), dlatego jest podprzestrzenią
liniową domkniętą.
Teraz dla dowolnej podprzestrzeni liniowej M c H możemy zdefiniować jej
dopełnienie ortogonalne jako
M n M 1 = {0}.
x£M
356
Dodatek C. Teoria miary i całki, przestrzenie L p
Jest to oczywiście dom knięta podprzestrzeń H , składająca się z elementów
ortogonalnych do każdego x G M .
Przypomnijmy, że podzbiór C przestrzeni liniowej nazywamy wypukłym,
jeśli wraz z punktami x, y G C do C należą wszystkie punkty postaci
tx + (1 - t)y ,
t G (0 ,1 ).
Lem at 1. Każdy niepusty zbiór wypukły i domknięty C w przestrzeni Hilberta H zawiera dokładnie jeden element o najmniejszej normie.
D o w ó d . Jednoznaczność wynika z reguły równoległoboku: niech x ,y G C
będą dwoma elementami o minimalnej normie, niech d = inf{||ił||:w G C }.
Reguła równoległoboku zastosowana do
i | y daje
(1 )
(2 )
więc x = y, bowiem ||a:)| = |jyj) = d.
Weźmy teraz ciąg ( yn) taki, że ||2/n|| —> d (taki ciąg istnieje na mocy definicji
liczby d). Podstawiając yn i ym do (2) widzimy, że spełniony jest warunek
Cauchy’ego, i z zupełności przestrzeni H wynika, że yn —> yo, a ponadto —
z domkniętości C — yo G C. Jest to żądany element o minimalnej normie,
jako że ||j/n|| -+ I M I - ■
U k ła d y ortonorm alne. Układem ortonormalnym w przestrzeni Hilberta
H nazywamy zbiór wektorów (es) sgj, który spełnia następujący warunek:
dla s = i,
dla s ytt.
Każdy układ ortonormalny jest liniowo niezależny, co wynika z prostej
uwagi: jeśli x = ^ ”= 1 CieSi, to ||a;||2 = Y^i=i ci- Wśród układów ortonormalnych szczególną rolę odgrywają układy ortonormalne zupełne, czyli
takie, że jeśli (x, es) = 0 dla każdego s 6 I , to x = 0. Są one odpowiednikiem
bazy w przestrzeni skończenie wymiarowej (patrz uwaga 8).
Twierdzenie 2 (O rzucie ortogonalnym ). Niech M będzie domkniętą
podprzestrzenią przestrzeni liniowej H . Wtedy istnieje dokładnie jedna para
odwzorowań P , Q o następujących własnościach:
( i ) P : H —> M , Q : H -> M 1
§ C.6. Przestrzenie Hilberta
357
(U ) Dla każdego x £ H jest x = P x + Qx.
Odwzorowania te mają ponadto następujące własności:
(iii) Dla x £ M mamy P x = x, Qx = 0;
dla x £ M x mamy P x = O, Qx = x,
(iv) P x jest tym elementem M , który jest najbliższy elementowi x,
(w) |M|2 = ||Pai|2 + ||Qa;[|2,
(vi) P i Q są liniowe i ciągłe.
Odwzorowania P i Q są rzutami ortogonalnymi na podprzestrzenie M i
M x . Z twierdzenia wynika, że P 2 = P i Q2 = Q — jest to własność
charakteryzująca rzut.
D o w ó d . Ponieważ dla każdego x £ H zbiór x + M = {x + y.y £ M \ jest
wypukły i domknięty, zgodnie z lematem 1 zawiera dokładnie jeden element
0 najmniejsze normie: będzie to Qx, w takim razie definiujemy P x = x —Qx.
Wtedy spełniony jest warunek (ii) . Zauważmy, że Qx £ x + M , zatem
P x = x - Qx € M .
Wykażemy teraz, że dla wszystkich y £ M jest (Qx, y) — 0. Można założyć
bez straty ogólności, że ||2/|| = 1. Wtedy, korzystając z tego, że Qx jest
elementem o minimalnej normie w M + x, otrzymujemy dla każdego i € R:
(Qx, Qx) ^ |\Qx - ty \|2 = (Qx, Qx) + i 2 - 2t (Q x , y) ,
zatem dla każdego i e R
i 2 - 21 (Qx, y) > 0,
skąd wynika natychmiast (po podstawieniu t — {Q x,y )), że (Q x,y ) = 0.
Udowodniliśmy zatem, że Q działa z H w M x ; tym samym dowód (i) został
zakończony.
Wykażemy teraz, że P, Q jest jedyną parą odwzorowań spełniających (¿)
1(ii). Niech x = X
o gdzie xo £ M , x i £ M ^ . Wtedy xq —P x £ M , ale
x0 — P x = Qx — x\ £ M ł . Ponieważ M fi M L = {0 }, musi być xq = Px,
xi = Qx.
Ten sam pomysł daje dowód liniowości P i Q. Pisząc (ii) dla x, y £ H i dla
ax + by otrzymujemy
P (a x + by) - aPx - bPy = aQx + bQy — Q(ax + by),
gdzie lewa strona należy do M , prawa do M x , zatem obie muszą być zerowe.
Dalej, (iii) wynika z (i); warunek (iv) posłużył do zdefiniowania P ; (v)
wynika z (i), bowiem (P x ,Q x ) = 0.
Dodatek C. Teoria miary i całki, przestrzenie L v
358
Dalej, (iii) wynika z (i); warunek (iv ) posłużył do zdefiniowania P ; (t;)
wynika z (i), bowiem ( P x ,Q x ) = 0.
Wreszcie z (w) wynika, że ||Px|| < ||x||, ||<5x|| < ||x||, zatem np.
\\Px - Py|| = ||P(x - y)|| < ||x - 2/||,
operatory P i Q są więc ciągłe. ■
U w a g a 3. Jeśli M ^ H, to istnieje niezerowy wektor y e M L (czyli
y l M ) . W tym celu wystarczy wziąć x g M i y = Qx.
U w a g a 4. Jeśli wektory el5... en tworzą układ ortonormalny, rzut orto­
gonalny na podprzestrzeń M = [ei, . . . , en] jest opisany wzorem
P x = (x ,e i) ei + ... + (x ,e n) e n.
(3)
Istotnie, wtedy (x, ej) = (P x , e*), i = 1 , 2 ,n, zatem
(x - P x , aie i + ... + anen) = 0,
co oznacza, że (x — P x)A .M .
U w a g a 5. Nierówność ||Px|| < ||x|| zastosowana do rzutu z poprzedniej
uwagi daje
¿ ( x , ei)2 < ||x||2.
i=l
(4)
Z ostatniej uwagi wynika
T w ierdzenie 6 (N ierów ność Bessela). Jeśli (es) s€/ jest układem orto-
normalnym w H, to
Bessela czy
Bessla,
Sztencela czy
Sztencla,
Knasfcera czy
Knastra,
Nasera czy...
Miara licząca to
taka, że
J 2 ( x , e s) 2 < ||x||2.
sei
(5)
Zwróćmy uwagę, że zbiór wskaźników może być nieprzeliczalny, w związku
z tym sumę nieujemnych składników po lewej stronie wzoru (5) należy
interpretować jako kres górny sum po skończonych podzbiorach I. Innymi
słowy, jest to całka względem miary liczącej na I. Takie rozumienie sumy
pozwala rozpatrywać sumy składników o dowolnych znakach.
Oznaczmy przez [A] powłoką liniową zbioru A, czyli część wspólną wszyst­
= # A - kich podprzestrzeni liniowych, zawierających A. Nietrudno zobaczyć, że [AJ
jest zbiorem skończonych kombinacji liniowych elementów z A.
Tw ierdzenie 7. Dla układu ortonormalnego (es) sej w przestrzeni Hilberta
H następujące warunki są równoważne:
§ C.6. Przestrzenie Hilberta
359
(¿) (es)s£i jest układem ortonormalnym zupełnym,
(ii) Zbiór S = [es: s £ Jj jest gęsty w H,
(iii) Dla każdego x € H mamy J2sel (x, es) 2 = ||a;||2.
(iv ) Dla x,y £ H mamy £ sei ( * , es} (y,es) = (x,y).
D o w ó d , (i) => (ii). Oznaczmy M = S. Jeśli S nie jest gęsty w H, to
M ^ H, zatem M Ł zawiera — na naocy uwagi 3 — niezerowy wektor, co
przeczy zupełności (es) sej.
(ii) => (iii). Ustalmy x £ H i e > 0. Istnieje wtedy wektor
dla którego ]\z — x|| < e. Tym bardziej ||Px - a:|| < e, gdzie P jest rzutem
ortogonalnym na [eSl, . ,. , esJ (uwaga 4). Jak łatwo sprawdzić, ||Px||2 =
ET =1 (x ’ esi)2>a ponadto ||x|| < ||Px|| 4- e, dlatego
n
Ponieważ e > 0 było dowolne, (iii) wynika z powyższego i z nierówności
Bessela.
(iii) =$- (iv). Wystarczy podstawić do (iii) x + y.
(iv) =>• (i). Jeśli istnieje taki wektor x £ H, że x / 0, ale (x, es} = 0 dla
wszystkich s £ I, to biorąc x = y otrzymujemy ||x[|2 = 0 — sprzeczność. ■
U w a g a 8 . Z tego twierdzenia wynika, że jeśli ( en) jest przeliczalnym ukła­
dem ortonormalnym zupełnym — na przykład rozważanym w rozdz. 13
układem Haara w L 2[0,1] — to każdy wektor x przedstawia się w postaci:
oo
n=l
Krótko mówiąc, taki układ ortonormalny zupełny jest bazą Schaudera w H.
Dodatek D
Funkcje analityczne i metoda
residuów
Czytelnik znajdzie poniżej informacje niezbędne do obliczania całek metodą
residuów: definicję funkcji holomorficznej i kilka podstawowych twierdzeń
o takich funkcjach1.
§ D .l.
Funkcje holomorficzne
Różniczkowanie. Niech f odwzorowuje zbiór otwarty G C C w C. Po­
chodną funkcji / w punkcie z definiuje się standardowo:
f '{ z ) = lim
h—*o
z,z + h £ G , h e C .
h,
Okazuje się jednak, w przeciwieństwie do funkcji określonych na podzbio­
rach R, że funkcja, która ma pochodną w każdym punkcie z € G, czyli
funkcja holomorficzna w zbiorze G, musi być tak regularna, że ma pochodne
dowolnie wysokiego rzędu i rozwija się w szereg potęgowy w otoczeniu każ­
dego punktu z £ G, czyli jest analityczna.
Zbiór funkcji holomorficznych w zbiorze G będziemy oznaczać przez H (G ).
P rzy k ład 1. Wszystkie wielomiany i funkcja ez są holomorficzne na C.
Sumy, iloczyny, ilorazy (jeśli tylko mianownik jest różny od zera) i złożenia
funkcji holomorficznych są holomorficzne.
Funkcja 1¡z jest holomorficzna na C \ {0 }. Jeśli f ( z ) = Y ^=o a^ (z ~ zo)n>
to / jest holomorficzna w pewnym kole otwartym
D {z0, r ) = {z e C: |z - z0\< r},
■'■Systematyczny wykład zawierają na przykład następujące podręczniki: Andrzej Birkholc, A naliza m atematyczna — fun k cje wielu zmiennych , P W N , Warszawa 1986 (roz.
3); Franciszek Leja, Funkcje zespolone , P W N , Warszawa 1973, Jewgienij Borysowicz
Szabat, Wstęp do analizy zespolonej, PW N , Warszawa 1974.
360
§D.l. Funkcje holomorficzne
361
gdzie r jest promieniem zbieżności szeregu potęgowego.
Natomiast nie jest holomorficzna funkcja z. Istotnie, niech i e R . Wtedy
dla ustalonego z e C
= 1,
ale
lim
i->0
z + it —z
it
it
= -1
it
Iloraz różnicowy zależy zatem od kierunku, z jakiego zmierzamy do zera. ■
Nietrudno otrzymać warunek konieczny i dostateczny różniczkowalności,
czyli
R ów nania Cauchy’ego-R iem anna2. Z każdą funkcją /: C —* C można
związać dwie funkcje u, v: R 2 —> R 2, tak, by
f { x + iy) = u (x ,y ) + iv (x ,y ),
x,y € R.
Funkcja / jest różniczkowalna wtedy i tylko wtedy, gdy istnieją jej pochodne
cząstkowe ux,u y,vx,vy, i spełniają równania Cauchy’ego-Riemanna:
V/X -- Vyj
Uy --
V■
Zauważmy jeszcze, że jeśli u i v mają ciągłe pochodne drugiego rzędu, to
z powyższych równań wynika, że
czyli zarówno u, jak i v mają laplasjan równy zeru. Później otrzymamy
ten wynik bez ograniczającego założenia. Wystarczy bowiem, by u i v były
odpowiednio częścią rzeczywistą i urojoną funkcji holomorficznej, która —
jak się okaże — ma pochodne wszystkich rzędów.
Powiemy, że funkcja /: G —> C rozwija się w szeregi potęgowe w G, jeśli
dla każdego koła D(a, r ) c G istnieje szereg potęgowy
an(z ~ ®)n
zbieżny do / w D (a ,r). Zwróćmy uwagę, że:
1. Wymagamy tu istnienia odpowiedniego szeregu potęgowego dla każ­
dego koła D(a, r ) c G, jest to więc własność nieco mocniejsza, niż
lokalna przedstawialność / w postaci szeregów potęgowych.
2. Jeśli / rozwija się w G w szeregi potęgowe, to jest holomorficzna,
a ponadto, na mocy dobrze znanego z analizy twierdzenia o zbieżności
szeregów potęgowych, /' także rozwija się w G w szeregi potęgowe.
2Augustin Cauchy ł Bernhard Riemann byli twórcami teorii funkcji analitycznych.
Funkcje analityczne i metoda residuów
362
Następne twierdzenie zawiera ogólną metodę otrzymywania funkcji rozwijalnych
w szeregi potęgowe. W jego sformułowaniu występują całki względem miar o war­
tościach zespolonych. Teoria całki względem takich miar różni się niewiele od zwy­
kłej teorii miary (patrz [RUD-1], rozdz. 6). Należy jedynie wiedzieć, że na mocy
samej definicji każda miara n o wartościach zespolonych na (U, F ) ma skończoną
wariację, czyli
sup ^ | i i ( A i ) | < oo,
gdzie kres górny bierze się po wszystkich przeliczalnych rozbiciach przestrzeni fi
na zbiory z T . Okazuje się, że wariacja miary ¡1 , zdefiniowana wzorem
|/j1(£ ) = s u p ^ M A in .E )| ,
E ef,
jest miarą skończoną. Z twierdzenia Radona-Nikodyma wynika wtedy, że ¡ 1 =
= hdP, gdzie h jest pewną (ograniczoną) funkcją mierzalną o wartościach zespo­
lonych, a P — zwykłą miarą probabilistyczną, równą (/¿|/[//((fi).
T w ierdzen ie 2. Niech fi będzie miarą o wartościach zespolonych na prze­
strzeni mierzalnej
tp: fi —* C — funkcją mierzalną, G — otwartym
podzbiorem C, przy czym G fi ip(Q) ~ 0- Wtedy funkcja
m
= f
fl{d°
zeG
,
Jn <p(C) — *
rozwija się w szeregi potęgowe w G.
D o w ó d . Niech D (a ,r ) C G. Wtedy dla każdego z £ D (a ,r ) i C e O
2 —a
¥ > (()-a
\z —al
--------l < 1 -
r
i dlatego szereg geometryczny
{z - a)n
^
_
1
(<?(() - a)n+1 ~ H O - z
jest zbieżny jednostajnie dla ( £ ft przy ustalonym z £ D (a ,r). Całkując
obie strony względem n otrzymujemy
2 £ D (a ,r),
f ( z) =
gdzie
-/
M <K)
Jeśli Czytelnik
n = 0, 1 , 2 , ___ 1
wie, co to jest
Jn
n(v>( C ) - o ) n+1’
całka
krzywoliniowa, to C ałkow anie w zd łu ż krzywych. Czytelnik zechce zauważyć, że wprowa­
pewnie wie i caią
dzane poniżej definicje są naturalnym przeformułowaniem definicji całki
resztę.
krzywoliniowej.
§D.l. Funkcje holomorficzne
363
Będziemy całkować funkcje zespolone po krzywych kawałkami gładkich.
Krzywą kawałkami gładką (klasy C 1), dalej zwaną krótko krzywą, nazwiemy
odwzorowanie
7: [a, fc] —> C,
ciągłe i przedziałami klasy C 1 , co oznacza, że istnieją takie liczby ax <
< 02 < ■ ■ ■ < an należące do [a, 6], że 7 ma ciągłą pochodną na przedzia­
łach (a,j-i,a,j) i pochodne jednostronne w punktach
gdzie j =
= 1 ,2,...,
T l
, do --
O j, &71
--
b ‘
Oznaczmy przez 7* obraz odcinka [a, b] przy odwzorowaniu 7 (w języku
potocznym on właśnie jest nazywany krzywą). Zdefiniujemy całkę z funkcji
ciągłej /: 7*
C:
f f(z )d z = f / (7 (i))7 '(i)d i
J7
Ja
Definiujemy długość krzywej 7:
L i l ) = / h'(t)\dt.
Jl
Wynika stąd od razu, że
I f / O ) dz < sup l / l -1,(7).
iJy
(1)
7*
Jeśli h: [a', 6'] —» [a, 6] jest odwzorowaniem klasy C 1 i h(a!) = a, h(b') = b,
to 7 o h jest krzywą, dla której
f f (z) d z = f
J ‘V
f(z)dz.
Jyoh
70 h
Pozwala to na pewną swobodę w wyborze parametryzacji. Zauważmy jed­
nak, że gdyby h(a!) = b, h(b') = a, znak całki po krzywej zmieniłby się na
przeciwny.
Krzywą 7 nazywamy zamkniętą, jeśli 7 (a) = 7(6). Dla takiej krzywej defi­
niujemy indeks względem punktu:
T w ie rd z e n ie 3. Jeśli 7 jest krzywą zamkniętą, G = C \ y * , i zdefiniujemy
l nd^
=
2
z e G>
to funkcja Ind7 przyjmuje wartości całkowite, jest stała na każdej składowej
zbioru G i równa się zeru na składowej nieograniczonej.
G ma dokładnie
jedną, składową
nieograniczoną.
Funkcje analityczne i metoda residuów
364
Intuicyjnie, indeks liczy, ile razy punkt 7 (i) obrócił się wokół 2 , gdy t zmieniło się
od a do b, jeśli obroty zgodne z kierunkiem ruchu wskazówek zegara uważamy za
dodatnie3.
Żeby to zobaczyć, przypuśćmy, że z = 0 i 7 : [0,2ir] —> C, 0 & 7 *. Wtedy
[d ± =
Jy
C
Z-2* 7 ' {t) dt
7W
Jo
Niech A(s) = f * T'7((ty - ■ Oczywiście A '(s) = 2^ . Z drugiej strony, 7 ( 4) =
= |7 (i)|e,arst7(t^, gdzie arga oznacza argument, zatem
log 7 (i) = log |7 (t) |+ i arg(7 (t))
a po zróżniczkowaniu
= [log |7 (i)|]' + i[arg(7 (i))]'.
W takim razie przyrost argumentu od 0 do s otrzymamy całkując obie strony
ostatniej równości w granicach od 0 do s:
A(s) = [log |7 (s)| - log |7 (0)|] + i [arg(7 (s)) - arg(7 ( 0) ) ] .
V
-/
V
— . -j
I
II
Jeśli krzywa jest zamknięta, to przyrost I w granicach od 0 do 2ir jest zerowy; I I
daje i • (kąt obrotu punktu 7 (t)). Ostatecznie
= i ■(kąt obrotu punktu 7 (i)).
o co chodziło.
Należy jednak mieć na uwadze, że powyższe rozumowanie nie ma charakteru
formalnego, choćby dlatego, że nie przedyskutowaliśmy sprawy niejednoznaczno­
ści argumentu. Ograniczymy się jedynie do stwierdzenia, że wszystko jest w po­
rządku, jeśli tylko arg 7 (i) zmienia się w sposób ciągły. Na szczęście w dowodzie
twierdzenia 3 nie będziemy w ogóle odwoływać się do pojęcia argumentu.
■Dowód twierdzenia 3. Ponieważ zj2m jest liczbą całkowitą wtedy i tylko
wtedy, gdy e2 = 1 , wystarczy wykazać, że funkcja
¥(i)- expU ii
gdzie t e [a, 6], przyjmuje w punkcie b wartość 1. Po zróżniczkowaniu mamy
\Ja l i s ) - z
/
7(t )- z '
3Ostatnio pojęcie indeksu krzywej względem punktu znalazło zastosowanie w grafice
komputerowej, bowiem jego własności wymienione w twierdzeniu pozwalają odróżnić ob­
szar położony wewnątrz krzywej zamkniętej (czyli składowe ograniczone) od zewnętrza.
§D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym
365
czyli
Inaczej mówiąc, [<,0/(7 - z)]' = 0 na [a, 6] \ S, gdzie S jest zbiorem skończo­
nym. Funkcja <p/(7 - z) jest ciągła, więc jest stała na [a, b].
Ale <p(a) = 1, czyli
V>(a)
_
7( a ) - 2
czyli <p(t) =
1
_
<p(t)
7 (a) - z
7( i ) —z ’
t £ [a,b\. Teraz
bowiem 7(a) = 7(6), jako że krzywa jest zamknięta.
Z tw. 2 wynika teraz, że Ind7 £ H(G). Ponieważ obraz ciągły zbioru spój­
nego jest spójny, a Ind7 przyjmuje wartości całkowite, musi być stały na
składowych G. N a dodatek [ Ind7(z)| < 1 dla dostatecznie dużych \z\. Dla­
tego Ind7(z) = 0 na składowej nieograniczonej. ■
§ D.2.
Twierdzenie Cauchy’ego w zbiorze wypukłym
Udowodnimy teraz, że całki z funkcji holomorficznych po krzywych za­
mkniętych są równe zeru. Do naszych celów wystarczy wykazanie tego dla
krzywych zawartych w zbiorze wypukłym, choć nie jest to najogólniejsza
wersja twierdzenia.
T w ie rd ze n ie 1 (O funkcji p ie rw o tn e j). Jeśli F jest funkcją holomor­
ficzną na G i ma ciągłą pochodną F ' na G , a 7 jest krzywą zamkniętą,
7* C G, to
F'{z) dz = 0.
7
D o w ó d . /7 F '(z ) dz =
F '(7 (t ))7 /(t) dt = F(-/(b)) - F { 7 (a )) = 0. ■
W n io sek 2. Jeśłi 7 jest krzywą zamkniętą, to f (z — a)n dz = 0 o ile
n 7^—1 (dła n — —2, —3,. . . nałeży dodatkowo założyć, że a £ 7*).
T w ie rd z e n ie 3 (C au ch y’ego d la tró jk ą ta ). Niech A
będzie trójkątem
domkniętym, zawartym w zbiorze otwartym G , niech p £ G i niech f będzie
ciągła w G, f £ H (G \ {p }). Wtedy
S A oznacza brzeg
trójkąta.
Funkcje analityczne i metoda residuów
366
D o w ó d . Twierdzenie jest oczywiście prawdziwe dla trójkąta zdegenerowanego. Dalej będziemy zatem zakładać, że trójkąt nie jest zdegenerowany.
Rozważymy następujące przypadki:
1. p $ A . Niech a,b, c oznaczają wierzchołki trójkąta, zaś a', b' i c'
— środki odcinków [b, c], [c, a] i [a, 6]. Rozpatrzmy cztery trójkąty
wyznaczone przez uporządkowane trójki punktów:
Oznaczmy I = JgA f ( z ) dz. Wtedy I jest sumą całek po powyższych
czterech trójkątach. Wybieramy ten trójkąt, na którym moduł całki
jest największy — musi on być nie mniejszy niż |||. W ten sposób
możemy otrzymać rekurencyjnie zbiór trójkątów A D A i D Aj,. . .
o następujących własnościach:
(i) n £ i A < = zo,
( ii) |Z| < 4n\
f ( z) dz\
(iii) Obwód trójkąta A n wynosi 2 nL, gdzie L jest obwodem A .
Ponieważ / jest różniczkowalna w z0, dla ustalonego e > 0 istnieje
r > 0 takie że dla z € D ( zq, r ):
|f ( z ) - f ( z 0) - f ( z 0)(z - zq) | < e\z - z0\.
Niech A n będzie trójkątem zawartym w D (z 0,r). Wtedy z wniosku 2
wynika, że
/
/ (z) dz =
JdAn
f
lf(z) - f( z 0) - f ( z 0)(z - z0)] dz.
JdAn
Z oszacowań (ii), D . l ( l ) i nierówności |z — zo| < 2 nL dla z e A n
wynika, że
Stąd |/| < eL 2, zatem 1 = 0.
2. p — a (czyli jednemu z wierzchołków trójkąta). Wybierzmy x na boku
[o, b] i y na boku [a, c], oba blisko a. Wtedy f gA f ( z ) dz jest sumą całek
po brzegach trójkątów wyznaczonych przez trójki { a , x , y } , { x , b , y }
i {b, c, yj . Dwie ostatnie całki są równe zeru, bo trójkąty nie zawie­
rają punktu p. Pierwsza całka może być dowolnie mała, jeśli tylko
wybierzemy odpowiednio x i y, bowiem / jest ograniczona. Dlatego
Id a / ( * ) dz = °:
§D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym
367
3. p € A \ {a, b, c}. Wystarczy zastosować wynik poprzedniego punktu
do trójkątów wyznaczonych przez {a,b,p}, {b, c,p} i {c,a,p}. m
Twierdzenie 4 (C auchy’ego dla zbioru w ypukłego). Niech G będzie
otwartym i wypukłym podzbiorem C, / — funkcją ciągłą w G i holomor­
ficzną na G\ {p }. Wtedy
7
dla każdej krzywej zamkniętej 7, gdzie 7* C G.
D o w ó d . Ustalmy a 6 G i zdefiniujmy
F (z )= [
J[a,z]
f(0 d C
z € G. F jest dobrze określona, bo zbiór G jest wypukły, i jest funkcją
pierwotną dla /.
Z twierdzenia Cauchy’ego dla trójkąta wynika, że
czyli
F (z ) - F (z 0
Z - zQ
i z ciągłości / w zq wynika, że dla ustalonego e > 0 istnieje a > 0, że
1/(0 — f{zo)\ < £, o ile |C — zol < er- Dlatego dla dostatecznie małych
\z — zo\ prawa strona nie przekracza e. Zatem F ' — f i z twierdzenia 1
otrzymujemy tezę. ■
Twierdzenie 5 (W z ó r całkowy Cauchy’ego w zbiorze w y p u k ły m ).
Niech 7 będzie krzywą zamkniętą w otwartym i wypukłym zbiorze G C C,
f e H (G ). Wtedy
D o w ó d . Niech
d la<eG ,C ^,
dla C = z.
Wtedy g spełnia warunki twierdzenia 4 (Cauchy’ego) i teza wynika stąd, że
Funkcje analityczne i metoda residuów
368
U w a g a 6 . Niech 7 (t) = a + re2i, t G [0, 2tt] (jest to dodatnio zorientowany
okrąg o środku a i promieniu r). Jeśli D (a ,r ) C G, to dla / € H (G ):
Stąd i z tw. D.1.2 wynika, że / rozwija się w szeregi potęgowe w G, jest za­
tem różniczkowalna nieskończenie wiele razy. Wystarczy wziąć fi = [0, 2tt],
<p = 7 , d/j,(t) =
dt. Współczynniki szeregu zależą tylko od a.
U w a g a 7. Pisząc powyższą całkę w postaci
f(a) = Ł l
) ' ireitdt=Ł l
f^ +^ d t
(1)
otrzymujemy własność wartości średniej: wartość funkcji holomorficznej /
w środku okręgu zawartego w G jest równa średniej z jej wartości na okręgu.
Funkcje harmoniczne. Własność wartości średniej wiąże się z funkcjami
harmonicznymi-, f jest harmoniczna w zbiorze otwartym G, gdy jej część
Probabilistyczny
sposób produkcji rzeczywista i urojona spełnia tam równanie
funkcji
harmonicznych
Ujxx “t” 'ayy — 0.
można zobaczyć w
roz. 13 Wszystkie funkcje holomorficzne w G są także harmoniczne, ponieważ funk­
(zagadnienie
cja holomorficzna ma pochodne wszystkich rzędów i spełnia równania CauDirichleta).
chy’ego-Riemanna (por. §D.l). Można udowodnić, że jeśli / jest harmo­
niczna w G i a € G, to własność wartości średniej (1) jest spełniona dla
wszystkich takich r > 0 , że D (a , r ) C G. Odwrotnie, jeśli ( 1 ) zachodzi dla
pewnego ciągu r n —» 0 i / jest ciągła w G, to jest harmoniczna.
Uwagi 6 i 7 pokazują głębokie konsekwencje różniczkowalności w sensie
zespolonym, w odróżnieniu od różniczkowalności w sensie rzeczywistym.
§ D.3.
Zera i bieguny
Lem at 1 (O zerach). Jeśli zbiór G C C jest otwarty i spójny, a f £
G H (G ), przy czym f jest różna od stałej zerowej, to zbiór Z zer funkcji f
jest co najwyżej przeliczalny i nie ma punktu skupienia; wtedy dla każdego
a e Z istnieje m € N , m > 1, takie, że
Í
f ( z ) = ( z - a ) m -g (z ),
g € H (G ),g {a ) ± 0.
(1)
Jeśli zachodzi (1), mówimy, że / ma w punkcie a £ Z zero rzędu m . '
Albo zero
m-krotne.
D o w ó d . Oznaczmy przez A zbiór punktów skupienia zbioru Z , należących
do G. Niech a & Z. Funkcja / rozwija się w szereg w pewnym otoczeniu
§ D.3. Zera i bieguny
369
D{a, r) C G. Niech f ( z ) =
cn(z —a)n. Są teraz dwie możliwości: albo
wszystkie cn = 0 i wtedy a leży we wnętrzu A, albo jeden ze współczynników
o numerze 1,2... jest różny od zera. Niech pierwszym takim współczynni­
kiem będzie cm. Definiujemy funkcję
(z - a) mf(z ),
dla z £ a,
dla z = a.
oczywiście zachodzi wtedy (1). Ponieważ g(z ) = cm + cm+i(z — a) + ...,
funkcja g jest holomorficzna na G. Ponieważ g(a ) ^ 0, to a jest na mocy
( 1 ) i ciągłości g izolowanym punktem zerowym funkcji /.
Jeśli a £ A, musi zatem zachodzić pierwsza możliwość — a jest punktem we­
wnętrznym A, zatem zbiór A jest otwarty. Jednocześnie jest on domknięty,
więc ze spójności zbioru G wnioskujemy, że A = 0 lub A = G. To ostatnie
jest niemożliwe z założenia, wobec tego A = 0, wszystkie zera są izolowane
i jest ich przeliczalnie wiele. ■
W niosek 2. Jeśli f ,g £ H (G ), gdzie G jest otwarty i spójny, oraz f(z ) =
= g (z) na zbiorze, który ma punkt skupienia w G, to f ( z ) = g(z) dla z £ G.
Oznacza to, że funkcja holomorficzna w zbiorze otwartym i spójnym G
jest jednoznacznie wyznaczona przez swoje wartości na ciągu o różnych
wyrazach, zbieżnym w G (jest to bowiem „minimalny” przykład zbioru
z punktem skupienia).
Zajmiemy się teraz klasyfikacją osobliwości. Twierdzenia 3 i 4 nie są nie­
zbędne do dowodu tw. D.4.2 o residuach, ale dzięki nim dowód jest krótszy.
Jeśli funkcja / £ H (G \ {a }) da się przedłużyć do funkcji holomorficznej na
G , mówimy, że osobliwość w a jest usuwalna.
W dalszym ciągu D '(a, r ) będzie oznaczać sąsiedztwo punktu a o promieniu
r, czyli zbiór D (a ,r) \ { a}.
Twierdzenie 3. Jeżeli a £ G, / £ H (G \ {a }), to zachodzi jeden z trzech
przypadków:
(a) osobliwość w a jest usuwalna,
( b) istnieją takie c\, c%,..., Cm, m > 0, cm ^ 0, że funkcja
m
ma usuwalną osobliwość w a,
(c) obraz każdego zbioru D '(a ,r) c G przy odwzorowaniu f jest gęsty na
płaszczyźnie.
Funkcje analityczne i metoda residuów
370
Jeśli zachodzi przypadek ( 6), mówimy, że / ma w punkcie a biegun rzędu
Ck{z —a)~k. Jeśli zachodzi (c) mówimy, że punkt
m z częścią główną
Na przykład
a jest istotnie osobliwy.
funkcja
ma punkt istotnie
osobliwy z = 1.
Do dowodu twierdzenia 3 potrzebne będzie
T w ierdzenie 4 (R iem an n a). Jeśli f £ H (G \ { a } ) i f jest ograniczona
w D '(a , r ) dla pewnego r > 0, to ma usuwalną osobliwość w a.
D o w ó d . Niech
hfz\ = f (z - a)2f { z )
\0
dla z £ a,
dla z = a.
Wtedy (z ograniczoności) h!(a) = 0, dlatego h £ H (G ), zatem
OO
2 € D ( a’
K z) = Y
71 = 2
Ponieważ / (z) = J2n=oc™+z(z ~ a) n> z e D '(a ,r ), wystarczy rozszerzyć /
kładąc f(a ) = c2. ■
D o w ó d twierdzenia 3 o klasyfikacji: Jeśli (c) nie zachodzi, to istnieją w £
£ C, r > 0 i <7 > 0 takie, że |/(z) — w\ > o na D '{a ,r). Niech
g(z)= f (z )-w ’
z e D ' ( a’ r )-
(3)
Teraz g £ H (D '(a , r)), a ponadto \g\ < 1/<t. W takim razie osobliwość jest
usuwalna i g £ H (D (a , r)). Jeśli g(a) ^ 0, to / jest ograniczona w pewnym
otoczeniu D (a ,s ), więc zachodzi (a).
Jeśli g ma zero rzędu m w punkcie a, to z lematu 1 o zerach wynika, że
g (z) = (z - a)mg i(z ),
gx £ H (D (a , r )),
i gi nie ma zer w D ’ (a ,r). Niech h = 1/gi- Wtedy znów h £ H (D (a ,r )) i
/(z) - w = (z - a)~mh(z)
ale h(z) =
o
~ a) n’ bo ¥= 0, z £ D(a, r), czyli
OO
/ ( z ) - W = ^ b n( z - a ) n- m.
7 1 =0
Otrzymaliśmy ( 6), gdzie ck =
fc = 1,2,... ,m. ■
Możemy teraz sformułować dwa twierdzenia, pozwalające na rozpoznawanie
biegunów i ich rzędów.
§ D.3. Zera i bieguny
371
Twierdzenie 5. Funkcja f ma w punkcie a biegun rzędu m > 1 wtedy
i tylko wtedy, gdy zależność
(z - a)"
jest spełniona w pewnym sąsiedztwie D '(a ,r), przy czym f i jest holomor­
ficzna w D (a ,r ) i fi(a ) ^ 0.
D o w ó d . =>■ Wynika to natychmiast z (2), bowiem istnieje taka funkcja
g e H (D (a ,r )) (dla pewnego r > 0), że
\—k+m (z - a)~
ir(z)(z - a )m + Y c k(z - a)~
k= 1
J
a stąd f i ( z ) = J2n=o dn(z - a)71 dla z € D (a ,r ) i f i (a) = d0 = Cm ^ 0.
4= Wystarczy rozwinąć f i w szereg potęgowy wokół punktu a. m
W zastosowaniach probabilistycznych (do obliczania funkcji charaktery­
stycznych) jest 99,9% szans na to, że badana funkcja / jest ilorazem funk­
cji holomorficznych. Wtedy zera mianownika są biegunami lub punktami
pozornie osobliwymi funkcji /. Wykluczone są natomiast punkty istotnie
osobliwe.
Twierdzenie 6 . Jeśli f = g/h, gdzie funkcje g ih są holomorficzne w pew­
nym kole D(a, r) i h(z) j^Oai D '(a , r), zaś a jest m-krotnym zerem licznika
i n-krotnym zerem mianownika, to
(a)
punkt a jest (n —m)-krotnym biegunem f , o ile m < n,
(b)
punkt a jest pozornie osobliwy, o ile m ^ n.
D o w ó d . Jeśli g(z) = (z —a)mg1(z), h(z) = (z — a )nh i(z ), gdzie gi i hi są
holomorficzne w D (a ,r), ffi(a) ^ 0, h\(a) / 0, to
fM =
/ ,W
(z — a)n~m ’
gdzie /i e H (D (a ,r )), fi{a ) ^ 0, i wystarczy skorzystać z poprzedniego
twierdzenia. ■
P rzykład 7. Niech t € R będzie ustalone. Funkcja
e itz
1 + z2
Jeśli g (a ) ^ 0, to
mówimy, ze g ma
0-krotne zero w a.
Funkcje analityczne i metoda residuów
372
ma bieguny jednokrotne w punktach i, —i. Funkcja
eiu
ez + e ~ z
ma bieguny jednokrotne w punktach ak = (2k + 1) f •
pojawią się jeszcze w dalszym ciągu tego paragrafu. ■
§ D.4.
k £ Z. Funkcje te
Residua
Definicja 1. Jeśli funkcja f ma w punkcie a biegun z częścią główną
m
k=i
to współczynnik ci nazywamy residuum funkcji f w punkcie a i oznaczamy
Res(/;a).
„Residuum” znaczy po łacinie „pozostałość”. Z wniosku D.2.2 i tw. D.2.4
wynika, że po scałkowaniu funkcji po dodatnio zorientowanym okręgu obie­
gającym biegun „pozostałością” jest współczynnik ci z części głównej. A do­
kładniej, mamy.
Twierdzenie 2 (O residuach). Niech G będzie wypukły i otwarty, niech
f £ H (G \ { a i , .. .an}), gdzie at są różnymi punktami z G , w których f ma
bieguny.
Niech 7 będzie krzywą zamkniętą, 7 *
C
G, i niech 7 * fi { o j , ... an} = 0.
Wtedy
[ f(z )d z = ¿ R e s ( / ; a fc) -Ind7 (ofc).
J~<
k= 1
(1)
D o w ó d . Funkcja / — (Q i + ■■- + Qk), gdzie Qk jest częścią główną bieguna
w ak, ma w punktach a%,... ak osobliwości usuwalne. Wobec tego na mocy
tw. Cauchy’ego D.2.4
f f(z )d z = i (Q i + ... + Qk)dz ,
J 'y
J 'y
i ostatnia całka pokrywa się — na mocy wniosku D.2.2 i tw. D.1.3 — z prawą
stroną wzoru ( 1 ). ■
Twierdzenie to pozwala obliczać całki, które w inny sposób bardzo trudno
byłoby uzyskać. Praktyczne metody obliczania residuów zawiera następne
twierdzenie.
§ D.4. Residua
373
Twierdzenie 3. Jeśli a jest biegunem jednokrotnym funkcji f , to
Res ( f ; a) = lim (z — a) f( z) .
(2)
z —*a
Jeśli funkcje f i g są holomorficzne w otoczeniu punktu a, g(a) = O, g '(a ) ^
£ O, to
Res (//ff;a) = M
9W
-
(3)
D o w ó d . W pierwszym przypadku istnieje taka funkcja holomorficzna Q,
ze
lim (z — a )f{z ) = lim (z — d) Q{z) + -
Cl
— ci = Res (f;a ).
W drugim przypadku stwierdzamy, że na mocy tw. D.3.5 biegun w punkcie
a jest jednokrotny i korzystamy ze wzoru ( 2 ):
,
,f{z )
f(z )
f(a )
hm (z - <i)—7—r = hm j — --------------------- - = —
■
g(z)
* - a (g(z) - g(a))/(z - a)
g'(a)
U w a g a 4. Można wykazać, że jeśli a jest biegunem rzędu k, to
Obliczanie całek za pomocą residuów zilustrujemy za pomocą funkcji z przy­
kładu D.3.7.
P rzyk ład 5 (F . ch. rozkładu Cauchy’ego). Najpierw obliczymy całkę
<p(t) =
i
r°° p1
r°° eitzdz
i
t > 0
l /
^ J —oo 1 + z2
W tym celu obliczymy całkę po krzywej 7 , złożonej z przedziału [—ii, ii] i
półokręgu Rels, s £ [0, 7r]. Łatwo stwierdzić, że dla ustalonego t > 0 całka
z funkcji /(z) = eIi2/(l + z2) po półokręgu jest równa
rn ęitRt
Jo ~
+ R?e2is
-iR elsds,
zatem jej moduł nie przekracza R/(R? — 1), o ile R > 1, a to wyrażenie
zmierza do zera przy R —> 00, zatem / f(z)d z —>
f(x )d x .
Funkcja podcałkowa / ma w górnej półpłaszczyźnie jedno residuum w
punkcie Res(/; i) = e_t/2i, skąd <p(t) = e- i , i > 0, a korzystając z syme­
trii rozkładu otrzymujemy ostatecznie:
< p( i ) =e- ^. ■
Funkcje analityczne i metoda residuów
374
P rzykład
6
(F . ch. rozkładu cosinusa hiperbolicznego). Obliczymy
całkę
, ,
1
eifz dz
>p(t) = — /
-------------,
* J - ooez + e ~ z ’
t > 0.
Teraz będziemy całkować funkcję f ( z ) = eUz/( e z + e- z ) po prostokącie
o wierzchołkach - R , R, R + iR , - R + iR ■ Oszacujemy kres górny |/| na
trzech bokach:
1. Na [ii, R + iR\ mamy dla R > 1:
\f(R + is)\
gKg*S
g—itg —1
ea -
1
To samo oszacowanie dostajemy na [—ii, —R + iR].
2. Na [—ii + iR , r + iR] mamy, jeśli tylko R = 2nir, n 6 N :
\f(R + is)\
g iR g - s _|_ e - i R e s
Żeby otrzymać zbieżność do zera całek po rozpatrywanych bokach wystar­
czy wziąć i > 0 i R = 2 n7T, n e N . Stąd wniosek, że całka
i
J —O
ez + e~
■dz,
t > 0
jest równa sumie residuów funkcji / w górnej półpłaszczyźnie, pomnożonej
przez 2iri.
Funkcja podcałkowa / ma bieguny rzędu 1 w punktach ak = (2 k + 1)| i,
k e Z (jest to zbiór rozwiązań równania e2z = —1). Mamy teraz
-7Ti(fc+1/ 2 )
pitak
Res ( / ; ak)
g a fc
_
q
_e
— a ję
e (fc + l/2 )-jr i _
g — (M -l/2 )ir i
7rt(fc+i/2)_
2i
Obliczamy sumę residuów w górnej półpłaszczyźnie pomnożoną przez 2ni:
2iri
^ R e s ( / ;a fc ) = 7re i7r,/2 J ^ ( - e
k-
0
—7rt\k .
7re
- tn/ 2
1 + e~,rt
fc=o
Ostatecznie otrzymujemy funkcję charakterystyczną
<?(i) =
1
cosh(i7r/2)
cosh(i7r/2)
Dodatek E
Funkcja tworząca momenty
(transformata Laplace’a)
§E.l.
Definicja i przykłady
Zamieszczamy tu podstawowe informacje o funkcjach tworzących momenty,
które stosuje się w wielu zagadnieniach praktycznych, szczególnie tam, gdzie
występują nieujemne zmienne losowe. Przykłady takich zastosowań, m.in.
do teorii odnowienia, teorii ryzyka, zagadnienia ruiny w złożonym procesie
Poissona można znaleźć w [FELL], t. II, roz. XIII-XIV . My pokażemy dwa
zastosowania teoretyczne: do dowodu centralnego twierdzenia granicznego
(tw. 1 2 ) i do oszacowania szybkości zbieżności w mocnym prawie wielkich
liczb (§ E.2).
Jeśli X jest zmienną losową, a n x jej rozkładem prawdopodobieństwa, to
definiujemy funkcję tworzącą momenty zmiennej losowej X (rozkładu n x )
jako
/
OO
(1)
e tsV x (d s ).
■OO
Funkcja tworząca momenty jest określona dla tych t, dla których istnieje
powyższa wartość oczekiwana (czyli całka po prawej stronie).
Jeśli X przyjmuje wartości całkowite nieujemne, funkcja M x jest związana
z opisaną w dodatku B funkcją tworzącą g x w następujący sposób:
Jak kto woli,
9 x ( s ) = S sx = £ [(elogs)x ] = M x (logs),
s
6
(0,1].
Funkcja tworząca momenty jest określona na przedziale zawierającym zero,
który poza tym może być dowolny, jak pokazują przykłady 2 i 5.
Jeśli przedział ten zawiera otoczenie zera o dodatniej długości, to funkcja
M x wyznacza momenty zmiennej losowej X . Dokładniej, mamy
Twierdzenie 1. Jeśli funkcja tworząca momenty M x ( t ) zmiennej losowej
X jest określona dla t e (—tg, to), t0 > 0, to
375
Mx(t) = sx(et).
Dodatek E. Funkcja tworząca momenty (transformata Laplace’a)
376
(i) Istnieją wszystkie momenty zmiennej losowej X , czyli £\X\k < oo dla
k = 1, 2 ,....
°° f k c v t c
(ii) M x ( t ) = Y , — JT\— >
1*1 < io’
fc=o
(¿ii)
m
£ ] (0) = £ X k,
k = 1,2, —
D o w ó d , (i) Z nierówności
Oczywiste oszacowanie:
< es + e _t wynika, że £e^x l <
0
00
dla t < to.
< i < i0,
(2 )
fc= 0
gwarantuje teraz istnienie wszystkich momentów.
(ii) Dzięki oszacowaniu (2) można zastosować twierdzenie Lebesgue’a o
zbieżności monotonicznej:
\fc= 0
'
/
fc= 0
c < ‘ < ‘»-
(3>
W efekcie twierdzenie Lebesgue’a o zbieżności zmajoryzowanej pozwala na
usprawiedliwienie poniższych przejść granicznych:
^ )= £ (\k=0
e ^ )/ = k=D
E ^ , |i|<i0-
(4)
(iii) Wystarczy obliczyć pochodne szeregu potęgowego po prawej stronie
(4). ■
P rzykład 2. Zmienna losowa o gęstości C e " ^ 1/a ma wszystkie momenty,
ale jej funkcja tworząca momenty jest określona tylko w zerze. ■
Uwaga 3. Czasami w literaturze można się spotkać z nieco innym nazew­
nictwem, mianowicie funkcję tworzącą momenty nazywa się (dwustronną)
transformatą Laplace’a. My nazwaliśmy transformatą Laplace’a (por. zad.
13.4.2) funkcję
L(X) = £ e ~ x x , gdzie X > 0, A > 0. ■
U w aga 4. Twierdzenie Kaca (zad. 9.4.1), zawierające kryterium niezależ­
ności ograniczonych zmiennych losowych, da się nieco wzmocnić, a miano­
wicie: jeśli zmienne losowe X i Y mają funkcje tworzące momenty określone
w pewnym otoczeniu zera, oraz £ X kY l = £ X k£ Y l dla k, l G N , to X i Y
są niezależne. Dowód wymaga oczywistej adaptacji argumentu podanego
w rozwiązaniu zadania. ■
§ E.l. Definicja i przykłady
377
Przykład 5. Oto funkcje tworzące momenty dla kilku rozkładów.
1
. Rozkład A f (0,1):
/
OO
i
et e - *
2/ 2
= e*2/ 2,
i
6
( - 0 0 , 0 0 ),
•oo V
a stąd otrzymujemy hurtem parzyste momenty, bowiem
J
> ,2
= V
^
k ~ 0
I
f i .') k = V
fc! V' 2 '/
1 ■3 ■... ■(2k — 1) 2fe
(2*0!
'
k =O
v
wobec tego £ X 2k = 1 ■3 •. .. •(2fc — 1) = (2fc — 1)!!.
2. Rozkład wykładniczy:
/•oo
\
J°
00
X~ ł
t^ o X
zatem O T * =
3. Rozkład Poissona:
" * « > = E T T e" ‘ = E
fc=0
fc=0
T
T
' " = 0AI' ' " ‘ )-
‘
6
< - 00' ” )•
Stąd już nieco trudniej wyznaczać momenty. Wygodniej jest obliczyć bez­
pośrednio £ X ( X — 1) • ... •( X — k + 1).
Za pomocą gęstości postaci cl[lj00 )a;- 2 , cl[loo)a;~2 e~a:!: oraz wykładniczych
i normalnych można skonstruować przykłady funkcji tworzących określo­
nych w dowolnym przedziale (lewo-/prawostronnie domkniętym/otwartym)
zawierającym zero. ■
Przy wykonywaniu działań na zmiennych losowych funkcje tworzące mo­
menty zachowują się analogicznie do funkcji charakterystycznych. Zachodzi
równość
M ax+b(t) = ebtM x {a t),
a ,6 e R .
Prawdziwe jest także podstawowe
Twierdzenie
6
(O m nożeniu). Jeśli zmienne losowe X
i Y są nieza­
leżne, a ich funkcje tworzące momenty M x i M y są określone w pewnym
otoczeniu zera (—to,to), ¿o > O, to w tym samym otoczeniu zera istnieje
funkcja tworząca momenty sumy, M x + y , oraz
M x + y ( t ) = M x (t)M y (t),
t
6
(—to, to),
to > 0.
378
Dodatek E. Funkcja tworząca momenty (transformata Laplace’a)
D o w ó d . Jeśli t £ (—to ,t0), to zmienna losowa eł(x + y ) = et x etY jest
całkowalna jako iloczyn niezależnych i całkowalnych zmiennych losowych
(uwaga c po tw. 5.8.15); z samego tw. 5.8.15 wynika, że
M x + y ( t ) = £ e t(-x + Y ) = £ e tX £ e tY = M x (t)M y ( t). »
Tw ierdzenie 7. Jeśli funkcje tworzące momenty zmiennych losowych X
i Y są równe na przedziale (—to, to), to > 0, to X i Y mają ten sam rozkład.
D o w ó d . Na mocy tw. 1 obie zmienne losowe mają te same momenty. W y­
każemy, że ich funkcje charakterystyczne są równe.
Z tw. A .1.1 wynika, że
Stąd
gdzie prawa strona zmierza do zera zgodnie z (3). Ze wzoru na pochodne
funkcji charakterystycznej (tw. 9.1.7) otrzymujemy:
Tę samą równość spełnia
tpy.
Niech teraz t = 0. Wtedy <p^(0) = ik£ X k = ik£ Y k = ^y^(O) dla k =
= 0 , 1 , 2 . . . , zatem obie funkcje charakterystyczne pokrywają się na prze­
dziale (—to, to).
Powtarzając to rozumowanie z punktami startowymi t = ± t o /2 otrzymu­
jemy równość ipx — <Py n& przedziale (—|i0, fio), etc. — a więc wszędzie.
Stąd X i Y muszą mieć ten sam rozkład. ■
U w aga 8 . W powyższym dowodzie nie odwoływaliśmy się do teorii funkcji
analitycznych. Można jednak po prostu zauważyć, że funkcje
M x ( z ) = £ e zX ,
M Y ( z ) = £ e zY
są holomorficzne w pasie —i 0 < Re z < t 0 i są równe na odcinku ( —t o , t 0 ) ,
czyli na mocy tw. D.3.2 — wszędzie, co daje równość funkcji charaktery­
stycznych, bowiem M x ( i t ) = < p x ( t ) , t £ R.
E .l. Definicja i przykłady
379
Uwaga 9. Jeśli rozkład prawdopodobieństwa fj, ma wszystkie momenty,
a jego funkcja tworząca momenty istnieje w pewnym otoczeniu zera o do­
datniej długości, to nie istnieje inny rozkład prawdopodobieństwa o tych
samych momentach (wynika to z (3) i powyższego twierdzenia).
Mówi się wtedy, że rozkład jest wyznaczony przez swoje momenty. Podamy
teraz przykład sytuacji przeciwnej — dwóch różnych rozkładów o tych sa­
mych momentach.
Oznaczmy przez / gęstość rozkładu logarytmicznie-normalnego:
Wtedy
rO O
/
Kfc/(s)sin(27rlog3;) dx = 0,
k = 0,1,2,...,
Jo
gdyż podstawienie log x = ,s + fc przekształca tę całkę do postaci
i
- ■.— ek
\/27T
r°°
/
e~ s ^ sin 27rsds,
i -oo
która jest równa zeru, jako że funkcja podcałkowa jest nieparzysta. W takim
razie funkcje f ( x ) oraz /(x)[l-t-sin(27rloga:)] są parą różnych gęstości o tych
samych momentach.
Twierdzenie 10. Niech X , X i , X 2, . . . będzie ciągiem zmiennych losowych,
których funkcje tworzące momenty, M x i M x k, k = 1 , 2 , . . . są określone
na przedziale (—to, to), to >
0
-
Jeśli M x n{ t ) ------- ►M x ( t ) dla t £ (—to, to), to X n
X.
Tl— *-00
D o wó d . Jędmość ciągu rozkładów zmiennych losowych X n można otrzy­
mać z wykładniczej nierówności Czebyszewa 5.7.6(c) i ze zbieżności ciągu
funkcji tworzących momenty:
P ( |X„| > a ) < £
\
/
e ~ a t ------- > M x (t)e~at,
n—►
oo
|i| < tQ.
Dalsze rozumowanie przebiega tak, jak w dowodzie twierdzenia Levy’ego-Cramera o ciągłości — po wyborze podciągu zbieżnego według rozkładu
dowodzimy, korzystając z poprzedniego twierdzenia o jednoznaczności, że
rozkładem granicznym jest n x i że cały ciąg jest słabo zbieżny do tego
rozkładu prawdopodobieństwa. ■
Uwaga 11. Przy założeniach tw. 10 nietrudno otrzymać zbieżność mo­
mentów:
£ X k ------- >£ X k, k = 0,1, 2 , . . . .
n—»oo
380
Dodatek E. Funkcja tworząca momenty (transformata Laplace’a)
Istotnie, wynika to z kryterium z zad. 8.3.9, bowiem dla każdego k =
a wyrażenie w nawiasie kwadratowym po prawej stronie jest ograniczone,
ponieważ zawiera wyrazy ciągu zbieżnego.
Odwrotnie, w zad. 8.3.8 udowodniliśmy, że jeśli rozkład X jest wyznaczony
przez swoje momenty i zachodzi zbieżność momentów, to X n -5-» X . Dla­
tego też mówi się o dowodzie CTG metodą momentów.
Udowodnimy teraz najprostszą wersję centralnego twierdzenia granicznego:
Tw ierdzenie 12. Niech X , X i , X 2, ■. ■ będą niezależnymi zmiennymi loso­
wymi o tym samym rozkładzie, £ X = 0 , T>2X = 1, i niech M x { t ) będzie
określona na przedziale I = ( —to, to) o dodatniej długości. Wtedy
y/n
JV(0 , 1 ).
D o w ó d . Wystarczy udowodnić zbieżność funkcji tworzących momenty do
funkcji e*2 / 2 co najmniej na przedziale I . Ze wzoru (4) otrzymujemy
M x (t) = l + i + o ( t 2).
Z twierdzenia o mnożeniu wynika, że funkcja tworząca momenty po lewej
stronie jest określona co najmniej na przedziale (—y/n t0, \/nto), oraz:
71— »OO
Zbieżność ma miejsce faktycznie dla każdego t € R . ■
Powyższy dowód stosuje się w szczególności do ograniczonych zmiennych
Przypomina to co losawyck- Można otrzymać z niego dowód twierdzenia Lindeberga-Levy’ego
prawda wyścigi 1 0 .2 . 1 metodą ucinania (której zastosowanie widzieliśmy w dowodzie mocw workach, nego prawa wielkich liczb).
§ E.2.
Transformata Cramera. Oszacowanie szybkości
zbieżności w mocnym prawie wielkich liczb
Oszacowanie odchyleń od średniej w nierówności Bernsteina (7.4.2) zawdzię­
czamy temu, że funkcja tworząca momenty liczby sukcesów Sn w schemacie
Bernoulliego istnieje w przedziale o dodatniej długości. Rozwiniemy tę ideę
§E.2. Transformata Cramera. Szybkość zbieżności w MPWL
381
i otrzymamy nierówności maksymalne, dające oszacowanie szybkości zbież­
ności w prawie wielkich liczb.
Załóżmy, że zmienna losowa X spełnia warunek Cramera: istnieje takie
A > 0, że £exlx l < oo. Wtedy oczywiście jej funkcja tworząca momenty,
M x i j est określona co najmniej na przedziale [—A, A].
Warunek Cramera jest równoważny z tym, że ogon rozkładu zmiennej loso­
wej X maleje wykładniczo: P(|X| > i) < e~ at dla pewnego a > 0 i wszyst­
kich t > 0 . Jest on spełniony przez wszystkie ograniczone zmienne losowe,
a także przez zmienne losowe o rozkładach: geometrycznym, wykładniczym,
Poissona i normalnym.
Niech teraz
A = {i £ R: M x (t) < oo}.
Zbiór A zawiera otoczenie zera. Definiujemy funkcję
i>{t) = log M x(t),
t e A.
(1)
Funkcja ip jest wypukła (i ściśle wypukła, jeśli X nie jest z prawdopodo­
bieństwem 1 stała). Istotnie, dla 0 < a < 1 otrzymujemy ż nierówności
Holdera z wykładnikami p = l /a i q = 1/(1 — a):
ip(at +
(1
— a)s) = log£ (eatx < log ( S e ^ - ^ Y
= a ■log£etx +
(1
^ e(i-» )* ^ -(i/(i-o ))y ~ 0 =
— a) •log£esJli = aip(t) +
(1
— a)tp(s).
Mamy ^(0) = 0, ip'(0) = £ X = m,ip"(t) > 0, jako że funkcja 4> Jest wypukła
i dwukrotnie różniczkowalna.
Przedłużymy tp na cały zbiór liczb rzeczywistych, kładąc ip(t) = oo dla
t # A.
Jesteśmy teraz gotowi do zdefiniowania transformaty Cramera:
Definicja
1.
Transformatą Cramera rozkładu ¡j,x zmiennej losowej X na­
zywamy funkcję
H(a) = sup[ai — ip{t)],
ie R
gdzie funkcja ip została zdefiniowana równością ( 1 ).
Funkcja H jest wypukła. Istotnie, niech A + /i = 1, t, s >
H (\ a + fib) = sup[(Ao + /j,b)t — \ip(t) —
0
. Wtedy
<
ie R
< Asup[oi — ip{ij] + /isup[6 i — ip(t)] = AH (a) + [iH (b ).
ten
ter
382
Dodatek E. Funkcja tworząca momenty (transformata Laplace’a)
Ponadto H jest nieujemna, bowiem ^(0) = 0, i wreszcie H (a) = 0 wtedy
i tylko wtedy, gdy a = ^>'(0 ) = m.
Istotnie,
0) = 0, z wypukłości wynika, że prosta o równaniu y = ax
przecina wykres funkcji w zerze i jeszcze jednym punkcie. Dla a ^ m zawsze
istnieje takie x , ż e a x > '4>{x), a jeśli a = V,,(0 ), to prosta y = ax jest styczna
do wykresu ip w punkcie 0, więc leży cała pod wykresem ip i H (m ) = 0.
a > ^'(O) =4* H {a) = sup[ai — il>(t)\,
t> o
a < ip'(0 ) ==> H (a) = supfai — ip(t)\,
t< o
Oszacujemy teraz szybkość zbieżności w MPWL.
Tw ierdzenie 2. Niech X , X \ , X 2, ■■■będą niezależnymi zmiennymi loso­
wymi o tym samym rozkładzie, spełniającymi warunek Cramerą. Wtedy
P ( sup
\k^n
Sk
gdzie m = £ X , a H jest transformatą Cramera zmiennej łosowej X .
D o w ó d . Niech a , A spełniają, warunek
Aa — logM(A) > 0.
(2 )
Ustalmy n > 1. Niech r = inf{fc > n :S k /k > a} (zwróćmy uwagę, że
r = oo, gdy zawsze S k /k < a). Mamy
P ^sup ^
> a^j = P
> a, r < oo^ = P (e XSr > eAaT, r < oo) =
= P(eA'S,’'-TloSM(A) > e*ar—rlogM(A)^T < ^
^
<
<
p ( e * S T- r l o g M ( A ) >
en (\ a -log M (\ ))i T <
^
< P(supeASfc- fclogAi(A) > en(Xa-l°gmX))^T <
k^n
Oznaczmy Z k = eA,Sfc-fclogM(A) i niech Tk — < r (X i,. . . ,X k )- Wtedy ciąg
{Z k,T k) jest nieujemnym martyngałem, co nietrudno sprawdzić. Ponieważ
Z k = Z k- l e ^ - k s M W ,
mamy
£ {Zk |T k-
1) =
Zk-1£
(eA^ - logM(A) |
=
= Zfc_ 1 - M ( A ) - e - logMW = Z fc_ 1.
Zk_ l£ ^ x k-iosM{x) =
§ E. 2. Transformata Cramera. Szybkość zbieżności w MPWL
383
Ponadto £ Z k = 1, k = 1 , 2 , __
Z nierówności maksymalnej 11.4.1 otrzymujemy, przy spełnieniu (2),
P ( sup — > a') < P ( supe.XSk~ kl° s M(A) > en(Aa-iogM(A)A <
\k^n k
\k^n
J
J
sg e-n(Ao-logAf(A))
Jeśli a > m , funkcja / (A) = Aa — logM(A) spełnia następujące warunki:
/(O) = 0 , /'( 0 ) = a — m > 0, zatem istnieje takie A > 0, że spełniony jest
warunek (2). Zatem dla a > m mamy
P (sup — > a ) < e~nsupx>0 [Aa—logAi(A)] = e~nff(a)
\fc>n k
)
Zupełnie analogicznie dla a < m mamy
P ( inf — < a^l < g—n.supA<0 [Aa—log M(A)] _
k
J
e -n H (a )
Ostatecznie
P ( sup
Sk
> £ j) < P I( sup
S ^ > r n 4 - £ ) - ( - P ( i n f ^ < m —£j <
\k>n
k
I
\k^n k
1
/'
\k
\fc^n
< 2Q-nmin(H(m+ S)>H(7n- e))
P rzykład 3. Jeśli X , X i , X 2 , . . . jest ciągiem Bernoulliego, to M x ( t ) —
= cosht i nietrudno obliczyć, że funkcja a t —log coshi przyjmuje maksimum
dla t = ar tgha = | log
o ile |a| < 1 , a jeśli |a| > 1 , jej kresem górnym
jest oo. W takim razie
H (a) = / sK 1 + ®)
I, oo
+ a) + (1 - “ ) k g i 1 “ «)]
dla M <
w p.p.
1
Rozwijając logarytm w szereg potęgowy widzimy, że H (a) > |a2. Wobec
tego
P
sup
\k>n
Dodatek F
Teoria optymalnego
stopowania
§F.l.
Rozkład Dooba nadmartyngalów
W tym paragrafie będziemy rozpatrywać nadmartyngały, podmartyngały
i procesy (ciągi) prognozowalne względem ustalonej filtracji {T n)nL0.
Twierdzenie 1 (O rozkładzie D o o b a ). Każdy nadmartyngał (Un)%L0
ma jednoznaczne z dokładnością do równości p.n. przedstawienie
(1)
Un — M n —
gdzie (M n ) ^
=0
jest martyngałem, (A n)^=0 — niemalejącym ciągiem pro-
gnozowalnym, A 0 = 0.
D o w ó d . Najpierw zdefiniujemy proces (A n). Niech Ao = 0 i dla n > 1:
n—1
A n = J 2 [ U k - £ ( U k+ il^fc)].
fc=o
Oczywiście zmienna losowa A n jest T n- \ -mierzalna. Proces (A n) jest niemalejący, bowiem wyrazy sumy po prawej stronie są nieujemne, jako że
(U«) jest nadmartyngałem.
Teraz nie mamy już wyboru — M 0 = Uq 'i M n = Un + A n. Jest oczywiste,
że zmienna losowa M n jest ^„-mierzalna, ponadto
Mn = ^n + 1
Un “i“ A n +
1
An
Un-)-X
£ (Un+I 1 n) ,
i po wzięciu warunkowej wartości oczekiwanej obu stron widać, że (M „ )
jest martyngałem:
£ (M n+ i — M n |J-n) = £ ( Un+i — £ (Un+ 1 1J-n) |Fn) = 0-
384
§F.l. Rozkład Dooba nadmartyngaiów
385
Pozostała do wykazania jednoznaczność. Niech (M^), ( A 'n) stanowią inną
parę procesów spełniających warunki z tw. 1. Wtedy M n - A n = M'n - A 'n,
n > 0, i gdy X n = M n - M'n, to
X n = M n - M'n = A n - A'n,
n > 0.
Z pierwszej równości wynika, że proces {X n) jest martyngałem, z drugiej
— że jest prognozowalny, co daje kolejno równości poniżej:
X n = £ ( X n+11T n) = X „ + i,
n > 0,
a ponieważ X o = 0, to X n = 0 dla n = 1 , 2 , . . . , czyli M „ = M'n oraz
A n = A'n . m
Niech teraz (Un)%L0 będzie podmartyngałem. Z poprzedniego twierdzenia
zastosowanego do nadmartyngalu (—Un)%L.0 otrzymujemy natychmiast
W n iosek 2. Każdy podmartyngał ([/n)^L0 ma dokładnie jedno przedsta­
wienie Un = M n + A n, gdzie (M n)^L0 jest martyngałem, zaś (^4n ) ^ =0 niemalejącym ciągiem prognozowalnym, takim, że A q = 0.
Uwaga 3. Dowolny ciąg ( X n) adaptowanych i całkowalnych zmiennych lo­
sowych można przedstawić w postaci X n = M n 4 - A n, gdzie (M n) jest mar­
tyngałem, zaś (j4n) — procesem prognozowalnym, niekoniecznie rosnącym.
Widać to z dowodu tw. 1. Dopiero założenie, że (X n) jest nadmartyngałem
lub podmartyngałem, zapewnia monotoniczność procesu ( A „ ) .
Uwaga 4. Proces (A n)%L0 jest niemalejący, więc ma granicę w szerszym
sensie, czyli istnieje A ^ = linin-,«, A n. Jest to na ogól niewłaściwa zmienna
losowa, bowiem może przyjmować wartość oo.
Proces (yłn)^L0 nazywamy kompensatorem procesu (Un)^L0, gdyż kom­
pensuje on (Un)^L0 do martyngału.
Rozkład Dooba odgrywa szczególną rolę przy badaniu martyngałów ( X n)
całkowalnych z kwadratem (takich, że £X% < oo, n = 0 , 1 , 2 , . . . ) . Wtedy
ciąg ( X 2) jest podmartyngałem i na mocy wniosku 2 ma rozkład Dooba:
= M n + A n. Niemalejący proces A oznaczamy przez (X ) i nazywamy
potocznie nawiasem skośnym martyngału X . Wiele własności martyngału
(X n) da się zbadać za pomocą nawiasu skośnego (X ), co zobaczymy na
kilku przykładach.
Zaczniemy od najprostszych:
Stwierdzenie
5.
Niech ( X n)%L0 będzie martyngałem. Wtedy
(a) Jeśłi dla pewnego p > 1 w rozkładzie Dooba \Xn \p — M „ + A n mamy
EAoo < oo, to ciąg (X n) jest zbieżny w LP.
Dodatek F. Teoria optymalnego stopowania
386
(ib) (X n) jest ograniczony w L 2 ( czyli supn X
gdy £ ( X ) (X < oo.
2
< oo) wtedy i tylko wtedy,
D o w ó d , (a) wynika z tw. 11.5.6, bowiem
£\X n\* = £ M n + £ A n = £ M 0 + £ A n,
i dalej:
su p £ IX n lp = £ M 0 + s u p £ A n < £ M 0 + E A ^ < oo.
Ti
n
(6 ). Konieczność: wynika z (a) dla p = 2. Dostateczność:
£{X )o o = su p£ ( X ) n = s u p f (X% - X q ) < oo. ■
n
n
Otrzymamy teraz pewną pożyteczną reprezentację nawiasu skośnego. Po­
nieważ {X n) jest martyngałem, to dla k > l
£ ( ( X k - X tf |Ti) = £ { X l - 2 X kX t + X f |T
i)
=
= 5 ( X 2 |T t) - 2 X t£ ( X k |f i ) + X ? =
= £ [ X l - X 2 1T ) =
= £ ( M k + ( X ) k - M l - ( X ) l \ T l) =
= £ « X ) k - ( X ) l \Tl) .
Oznaczając A X k = X k — X k- i i kładąc l = k — 1 otrzymujemy stąd
£ ( ( A X kf |T k- t) = <X ) k -
a to daje
{x )n = j r £ ( ( a ^ ) 2!^ --!).
(2 )
j~ i
P rzykład
£ 6
T n
6
. Jeśli
, £2 , ■■•jest ciągiem niezależnych zmiennych losowych,
= 0. £ & < OO, i = l , 2 , . . . , X n = h + . . . + ę n, X o = 0, To = { 0 , 0 } ,
= <t(£i,...,( .n ) dla n > 1, to ciąg ( X 2, T n ) % L o jest podmartyngałem i
<^„ = ¿ £ ( $
j= i
1 ^ - 0
=
¿
2^
,
j'= i
zatem nawias skośny jest procesem deterministycznym (nielosowym). ■
Wiadomo (tw. 7.3.2), że zbieżność szeregu
pociąga za sobą
zbieżność p.n. szeregu
Jeśli ponadto |^| < C p.n. dla i = 1 , 2, . . . ,
to zachodzi również wynikanie odwrotne.
Ostatnią uwagę można uogólnić (patrz tw.
8
). Przedtem udowodnimy
§F-1. Rozkład Dooba nadmartyngałów
387
Twierdzenie 7. Niech (X n) będzie nieujemnym podmartyngałem, X q = 0,
i niech X n = M n + A n będzie jego rozkładem Dooba. Wtedy
{Aoo < oo} C {p f „ ) zbieżny p.n.} c {su pX „ < oo}.
n
„Zbieżny p.n.” oznacza dokładniej „zbieżny p.n. do granicy skończonej” .
Taką umowę przyjmujemy też dalej.
D o w ó d . Prawa inkluzja jest oczywista, dowodzimy łewą. Niech a > 0
i ra = inf{n > 1 : A n+i > a}. Jest to moment stopu (który może przyjmować
wartość oo, bowiem inf 0 = oo), co wynika z prognozowalności A .
Z twierdzenia Dooba 11.2.8 zastosowanego do martyngału M (Mo =
definicji ra wynika, że
S X n/\Ta
0)
iz
S M nATa “f" SAnhTa -- 0 “i“ £ AfiATa ^
Niech Y £ = X nATa. Jest to na mocy twierdzenia Dooba (nieujemny) podmartyngał, ponadto sup„ E Y £ < a < oo, więc na mocy twierdzenia o zbież­
ności podmartyngałów (Y “) jest zbieżny p.n. Dlatego
{ A tc < a} = { t 0 = oo} C { ( X„ ) zbieżny p.n.},
ponieważ na zbiorze { ra = oo} jest X n = X nAoo = Y £. Stąd
OO
OO
{ A ao < oo} = ( J {A «, < a} = ( J {ra = oo} C { ( X n) zbieżny p.n.},
a=l
a=l
co kończy dowód. ■
Twierdzenie
8
. Niech (X n) będzie martyngałem całkowalnym z kwadra­
tem. Wtedy
(a) { { X ) co < oo} C {(X „ ) zbieżny p.n.}.
(b) Jeśli ponadto (X n) ma przyrosty wspólnie ograniczone, tj. |AXn|< K
p.n. dla n = 1,2 , . . to {X ) 00(ui) < oo p.n. na zbiorze
{ ( X n) zbieżny p.n.}.
D o w ó d . (a). Proces ( X 2) jest nieujemnym podmartyngałem, więc z tw. 7
wynika, że
{{X)oo < oo} C { { X l ) zbieżny p.n.}.
Proces ( X n+ 1 ) 2 jest także nieujemnym podmartyngałem i (X + l ) n = ( X ) n
(por. (2)). Dlatego
{POoo < oo} C { ( X 2) zbieżny p.n.} n { ( ( X n + l ) 2) zbieżny p.n.} =
= {( X n) zbieżny p.n.}.
388
Dodatek F. Teoria optymalnego stopowania
(b). Zdefiniujemy moment stopu
7
C= inf{n: \Xn\ > c}. Wtedy
£ [X 2
nMc - { X ) nM c) = 0.
Ponieważ
< le n ili +
- * £ ■ ll < C + K ,
to
£ { X U l c = £ X ^ c < ( c + K ) 2.
(3)
Gdyby teraz P ( ( X ) oa = oo,supn |Xn| < oo) > 0, to istniałaby taka stała
c > 0 , że P { j c = oo, (X)oo — oo) > 0 , a to stoi w sprzeczności z (3). ■
W n io sek 9. Jeśli X n =
+ . . . + £n, £n > 0, ££„, < oo dla n = 1, 2, . .
a ponadto ciąg (£n) jest adaptowany do filtracji (T n), to
< oo^ C { ( X n) zbieżny p.n.}.
D o w ó d . Wystarczy zastosować tw. 7 do nieujemnego podmartyngału ( X n)
i zauważyć, że (patrz dowód tw. 1 ):
71— 1
An = ' £ , £ ( & + ! I * * ) - "
*=0
U w aga 10. Wniosek 9 jest warunkową wersją pierwszej części lematu Borela-Cantelliego. Żeby to zobaczyć, wystarczy wziąć
= 1 b „ , gdzie (B n)
jest ciągiem zdarzeń.
§ F.2.
Zagadnienie optymalnego stopowania
Przedstawimy zagadnienie optymalnego stopowania w najprostszej sytu­
acji. W pewnej grze w kolejnych chwilach t = 0 , 1 , 2 , . . . , T wypłaca się
kwotę Z t , która jest nieujemną wielkością losową. Gracz może w każdej
chwili t wycofać się z gry, inkasując kwotę Z t , może też odrzucić tę propo­
zycję i czekać na lepszy kąsek. Decyzję podejmuje na podstawie dotychcza­
sowego przebiegu gry.
Jaką strategię powinien przyjąć gracz, by zoptymalizować swoją wypłatę?
Jeśli przez (J~t) oznaczymy cr-ciało zdarzeń, które możemy zaobserwować
do chwili t, to ciąg (Jrt)t^T jest filtracją, a proces (Z t)t^T jest adaptowany
do tej filtracji. Strategia, czyli moment wycofania się z gry, jest zmienną
losową t , przy czym { r — t} G Tt, bowiem zdarzenie to powinno zależeć
tylko od obserwacji procesu (Zt) do chwili t. Krótko mówiąc, r powinna być
momentem stopu względem filtracji {Tt)\ odwrotnie, każdy taki moment
stopu jest dającą się zrealizować strategią.
§ F.2. Zagadnienie optymalnego stopowania
389
Podsumowując: Z q, Z i , Z2, . . . , Z t jest ciągiem kolejnych wypłat w pewnej
grze, w chwilach 0, 1, 2,... T. Zakładamy, że ciąg (Z t)t^ r jest adaptowany
do pewnej filtracji ( t y t ^ T , przy czym
Ponadto zakładamy,
że Z t > 0 i £ Z t < oo dla t — 0 , 1 , 2 , . . . , T.
Sprecyzujemy jeszcze cel gracza: chce on wycofać się z gry w takiej chwili,
by jego średnia wypłata była jak największa. Stąd następująca definicja.
Definicja 1. M oment stopu v nazywamy optymalnym dla ciągu (Z t)t^T,
gdy
£ Z v = su p £ Z r ,
gdzie 0 jest zbiorem momentów stopu o wartościach w zbiorze { 0 , 1 , . . . , T } .
Naszym celem jest podanie reguł pozwalających znajdować momenty opty­
malne. Wprowadzimy pomocniczy proces — obwiednię Snelła (Ut) ciągu
zdefiniowaną w następujący sposób:
Ut = max(Z t , £ (Ut+ 1 1F t)),
t < T -
1,
UT = ZT .
Z definicji widać, że Zt < Ut dla O < i < T , czyli (Ut) dominuje (Z t).
Stwierdzenie
2
. Obwiednia Snella (Ut) jest nadmartyngalem. Jest to naj­
mniejszy nadmartyngal dominujący wyjściowy ciąg (Z t), czyli gdy ( X t) jest
nadmartyngalem i X t > Zt dla O < t < T , to również X t >
Ut dla
O< t < T .
D o w ó d . Oczywiście Ut > Zt , O < t < T . Sprawdzimy, że (Ut) jest nadmartyngałem. Istotnie, mamy
Ut- i = max (Z t- i , £ ( U t \F t- i ) ) > £ { U t \T t- i ) •
Pozostaje wykazać, że (Ut) jest najmniejszym nadmartyngalem dominującym (Z t). Niech zatem (It) będzie innym nadmartyngalem o tej własności.
Wtedy I t > Z t = Ut , a gdy I t > Ut , to
wobec tego
It - 1 > max(Zt_ i , £ (Ut |T t- i ) ) = Ut- u
gdzie równość wynika z definicji U t - 1 Indukcja wsteczna pokazuje teraz, że dla każdego t G { 1 , . . . T } zachodzi
nierówność It > Ut, więc (Ut) jest najmniejszym nadmartyngalem dominu­
jącym (Z t). m
Dodatek F. Teoria optymalnego stopowania
390
Tw ierdzenie 3.
= min{i > 0: Ut = Z t} jest optymalnym momentem
vq
stopu, czyli
U0 = £ Z vo = sup £ Z r .
t£©
D o w ó d . Zdarzenie {vę, > j } = {^o < j ~ 1}/ € T j - i , oraz
~ u? -i) I ^ - i ) = 5
£
- £ y , |^ - i ) ) |^ _ i ) =
= l {vo>j}£ m
- £ (Uj I ^ _ 0 ) I
= 0,
tak więc ciąg o wyrazach
t
u T° = c/tA,„ = u 0 + Y , h m i ( U ? - U P . J
j =i
jest martyngałem. Ponieważ moment stopu
vq
< T , więc
U0 = U%° = £ U ? = £U Uo = < f ^ 0.
Jeśli teraz weźmiemy dowolny moment stopu v e 9 , to ciąg (C/„) jest
nadmartyngałem i
i/o ^ £ U V ^ £ Z V. ■
Wbrew pozorom, metodę otrzymywania optymalnego momentu stopu za po­
mocą obwiedni Snella można postarać się zrozumieć intuicyjnie. W tym celu
rozpatrzmy (kompletnie bezsensowną dla obu stron) grę, w której wypłaty są
nielosowe: zmienne losowe Zt są stałymi zt. Wtedy obwiednia Snella jest naj­
mniejszym ciągiem nierosnącym (ut) dominującym ciąg (zt), a optymalny mo­
ment stopu z twierdzenia 3 jest takim (nielosowym) wskaźnikiem v , dla którego
uo = z„ = maxt^T zt ■
Podamy teraz charakteryzację momentów optymalnych. Widać z niej, że
jest minimalnym momentem optymalnym.
uq
Tw ierdzenie 4. M om ent stopu v jest optymalny dla ciągu (Z t) wtedy
i tylko wtedy, gdy spełnione są dwa warunki:
(i) Z v = Uv ;
(ii) ciąg (U t)tś,T j est martyngałem.
D o w ó d . =>- Jeśli v jest optymalny, to £ Z „ = TJq, a ponieważ ('JJt)t^T jes*
nadmartyngałem i U dominuje Z , to
§F.2. Zagadnienie optymalnego stopowania
391
czyli £ Uv = £ Z U, co daje Z v — Uv (z dominacji wiemy już, że Zv < Uu).
Udowodniliśmy (¿).
Żeby udowodnić (ii), skorzystamy z tego, że (U%)t^T Jest nadmartyngałem.
Mamy kolejno
UvM > £ ( £ W \ T t) = £ (Uv |T t) ,
(1)
i
£ U V = Uq ^ £ U vm
¿2
£ U V,
stąd
£ U vM = £U v = E (£ {fJ v \F t)),
co razem z (1 ) daje UuAt = £ (Uv |T t) , więc ciąg (UuM)t^T jest martyngałem, co kończy dowód (ii).
<= Z (n) i (i) mamy kolejno I/ 0 = £U „ = £ Z V. Dla dowolnego momentu
stopu r G 0 ciąg (U ^)n jest nadmartyngałem, więc
Uq ¿z £U r ¿z £ Z t \
ostatnia nierówność wynika z tego, że U dominuje Z . Zatem
£ Z V = Uq = sup £ Z T. m
r۩
P rzykład 5. Na pewien egzamin, do którego przystępuje n studentów,
przygotowano n zestawów pytań. Wchodzący losuje jeden zestaw, który nie
jest już wykorzystywany powtórnie. Paweł nauczył się odpowiedzi na k ze­
stawów i teraz obserwuje, które zestawy już się pojawiły, by zdecydować,
kiedy wejść na egzamin. Jaką powinien wybrać strategię, by zmaksymali­
zować średnią szansę zdania egzaminu?
Zdarzeniami elementarnymi są ciągi zero-jedynkowe ui = ( a i , . . . , an), gdzie
przy czym a, = 1, gdy Paweł zna odpowiedź na ¿-te pytanie.
Zdarzenia elementarne są jednakowo prawdopodobne. Niech Xi(u>) = a*,
i = 1 , 2 , . . . n. Obserwując egzamin do chwili l Paweł zna X i , X 2 , •■-, X i
i na podstawie tej wiedzy decyduje, czy w następnej chwili ma się wycofać
— czyli zakończyć grę wchodząc na egzamin. Innymi słowy, chwila wyco­
fania się jest momentem stopu względem filtracji (Ti), gdzie T q = { 0 , 0 },
Ti = a ( X i , . . . , X t), i = 1 , 2 , . . . n.
127=1 ai ~
Jeśli przez Yt oznaczymy szansę zdania egzaminu przy wejściu w chwili
l + 1, l = 0 , 1 , . . . , n — 1 , to zadanie Pawła sprowadzi się do optymalnego
zastopowania ciągu Yq, Yi, . . . , Yn- j . Jest oczywiste, ż e Y 0 = k /n i
Y
k - E U ,**
n —i
Z=
Dodatek F. Teoria optymalnego stopowania
392
Wyznaczymy obwiednię Snella ([/¿) ciągu (li). Jak zwykle, Un- i = l ^ - i ,
Un- 2 = max(yn_ 2, f (Yn- i |F n~ 2 ))- Zachodzi równość:
* - ( X r + . . . + X n_i)
£ (y„_11 .Fn_ 2) = £
n — (n — 1)
= * - ( X x + . . . + X n_ 2) - £ ( X „ _ ! |J-n_ 2) .
Żeby wyznaczyć ostatnie wyrażenie, obliczymy (nieco ogólniej) £ (X ;+ i |Ti)
dla ¡ = 0, l , . . . n —1. Ponieważ cr-ciało Ti jest skończone, zatem generowane
przez atomy, dla w € { X i = a j , . . . , X i = a j = A , oznaczając j =
»i,
mamy
£ (X i+ l |Ti) (w) = -
P (in {iw
Jfł+idP =
= i})
P (A )
(fc-to'+i)) _ k — j _ k — (X i + . . . + X i) _
( r j)
n -i
~ n - l ~
Stąd
£
(y n_ !
|^ n_ 2) =
k
-
(* 1
+
W takim razie Un - 2 — Yn-
. . . +
X n_ 2) -
k
( X
l
+
-
+
X
n - 2 )
=
^
2-
Można podejrzewać, że ciąg ( Yi ) jest martyngałem i w konsekwencji i/, = Yj
dla i = 0 , . . . , n. Istotnie,
n —l
k
- { X
i
+
. . .
n — (1 +
= Y
+
X
n -(l +
n —i
vn — (i + 1)
1
t )
1)
1)
F ,=
1
n — (i + 1) ,
li-
Z twierdzenia Dooba wynika więc, że dla każdego momentu stopu r jest
£ Y t = Y0 =
n
zatem każda reguła stopu jest jednakowo dobra.
§ F.3.
Opcje amerykańskie
Rozważmy rynek finansowy opisany w § 11.8. Istnieją na nim także opcje
typu amerykańskiego, czyli takie, które można realizować w dowolnej chwili
t € { 0 , 1 , . . . , T } . Oznaczmy przez Z t zysk z realizacji opcji w chwili t.
§ F.3. Opcje amerykańskie
393
Wtedy możemy utożsamić opcję z ciągiem (Zt)t^T nieujemnych zmiennych
losowych, adaptowanym do filtracji
Przykładami mogą być ame­
rykańskie opcje kupna (sprzedaży) z ceną wykonania K na akcje o cenie
opisanej przez proces S: Z t = (St - K ) + (odp. Z t = ( K — S t)+ ).
Podamy sposób wyceny takiej opcji. Ograniczymy się do opisanego w § 11.8
modelu Coxa-Rossa-Rubinsteina (CRR), choć idea przenosi się na przypa­
dek ogólny.
Przedtem kilka słów o tym, ile powinna w chwili t kosztować wypłata X ,
która nastąpi w momencie T. W tw. 11.8.2 wykazaliśmy, że wypłata X
jest replikowana za pomocą jednoznacznie określonego portfela, i gdy Vt
jest procesem wartości tego portfela, to W t = Vt/ B t jest martyngałem
względem miary P (zwanej miarą martyngałową), a W 0 = Vq jest ceną Bt = ^_ + r)t
w chwili 0 za wypłatę X w chwili T . Zatem wypłata X jest w chwili t warta
bowiem
Wracamy teraz do kwestii wyceny opcji amerykańskich. W chwili T jej
wartością jest U ? = Z t - W chwili T — 1 wystawca opcji musi mieć tyle, by
zabezpieczyć wypłatę Z t - i w momencie T — 1 lub Z T w momencie T. Ta
ostatnia wypłata jest w chwili T — 1 warta
Tyle trzeba mieć, by zabezpieczyć wypłatę Z t
opcji amerykańskiej w chwili T — 1 jest równa
w
chwili T . Dlatego cena
Cenę opcji dla t = 1 , 2 , . . . , T definiujemy indukcyjnie wzorem
Okazało się, że ciąg zdyskontowanych cen opcji amerykańskich (Ł/t*) jest
obwiednią Snella ciągu Z*t zdyskontowanych wypłat, czyli (?7tł ) jest naj­
mniejszym nadmartyngałem dominującym (Z *). Wobec tego otrzymujemy
jako wniosek z wyników § E.2
Dodatek F. Teoria optymalnego stopowania
394
Twierdzenie 1. Cena opcji amerykańskiej w chwili 0 jest równa
t/ 0 = t/0* = su p £Z T
*,
a ponadto U0 = £ Z „ , gdzie v = min{i: Ut = Z t}•
Jak wystawca opcji powinien zabezpieczyć wypłatę? Ponieważ U*
jest nadmartyngałem, to ma rozkład Dooba U f — M t — A t. Istnieje taki
portfel
że Vr = V r($) = B t M t (tw. 11.8.2). Z kolei ciąg o wyrazach
W t = Vt/ B t jest martyngałem, więc
W t = £ (W T \Tt) = £ ( M t |F t) = M t .
Zatem U* = W t — A t , tzn. Ut = Vt — A tB t,
Dlatego wystawca opcji może zabezpieczyć się w sposób doskonały: gdy
otrzyma zapłatę Uo = Vó($), to za pomocą portfela $ generuje bogactwo
Vt = Vt(<I>), które w chwili t jest nie mniejsze niż Ut , zatem nie mniejsze
niż Z t.
Kiedy zrealizować opcję?
A . Z punktu widzenia nabywcy nie ma sensu realizacja w chwili t, jeśli
Ut > Z t , bo za walor wart Ut otrzymamy tylko Z t \ lepiej wtedy sprzedać
opcję za Ut na rynku. Optymalny moment realizacji r spełnia równanie
UT = Z T (ponieważ Ut > Z t i U t = Z t ) , więc U* = Z *.
Nie ma też sensu realizacja opcji po chwili
^ = min{ j : A j + i ^
0
},
bowiem sprzedaż w chwili v daje Uw — V^($) i gdy od tej chwili korzystamy
z portfela
to mamy więcej niż wartość opcji w chwilach v + 1, . . T ,
jako że Ut = Vt($) — A tB t i A t > 0 dla t > v.
Zatem r < v, co pozwala stwierdzić, że U*T jest martyngałem:
Uta n = ^ r A n
A rAn — M TAn,
ponieważ r A n < v i w efekcie j4TAn = 0.
Podsumowując, najlepszy moment realizacji opcji jest optymalnym momen­
tem stopu dla ciągu zdyskontowanych wypłat (Z ?), bowiem spełnione są
warunki (i) i (ii) twierdzenia F.2.4.
B . Z punktu widzenia wystawcy opcji: wystawca korzysta z portfela $ , a jeśli
nabywca opcji zrealizuje ją w momencie r innym niż optymalny, to U* > Z *
lub A T > 0 (jeśli A t = 0, to (U*At) jest martyngałem; jeśli ponadto U* =
Z * , to r jest momentem optymalnym). Zatem w innym, nieoptymalnym
momencie r wystawca opcji ma dodatni zysk
kt($) - zT= (uT+ a t b t ) - z
r=
b t (u *
-
z;)
+ a t b t > o,
§F.3. Opcje amerykańskie
395
bo składniki sumy po prawej strome są nieujemne, i przynajmniej jeden
z nich jest dodatni.
Stwierdzenie 2. Niech ( Ct) będzie procesem wartości opcji amerykańskiej
opisanej przez ciąg adaptowany (Zt)t^.T, a (ct) — opcji europejskiej, zdefi­
niowanej przez zmienną losową h = Z t ■ Wtedy C t ^ c t .
Ponadto, jeśli ct > Zt dla każdego t e { 0 , 1 , . . . , T } , to ct = C t dla każdego
t e { 0 , 1 , . . . , T}.
Uwaga 3. Nierówności C t > ct należało się spodziewać, bowiem opcje
amerykańskie dają posiadaczowi więcej praw niż europejskie.
D o w ó d . Ponieważ Ct* jest nadmartyngałem względem miary martyngałowej P i C t = Z t = cr, to
C ; > £ { C * T \j i ) = £ ( 4 | j r t) = ct*.
Udowodniliśmy pierwszą część stwierdzenia. Jeśli teraz Ct > Z t dla każdego
f, to c* > Z l , a ponieważ (c*) jest martyngałem, więc tym bardziej nad­
martyngałem, to Ct* < Cj, bowiem C£ jest najmniejszym nadmartyngałem
dominującym (Z l). Stąd wynika równość Ct* = c*t . ■
Przykład 4. Ceny opcji kupna europejskiej i amerykańskiej są równe.
Przypomnijmy, że B t — (1 + r)‘ , Z t = (St — K ) + . Oznaczmy przez ct i odp.
Ct ceny europejskiej i odp. amerykańskiej opcji kupna z terminem T i ceną
wykonania K . Wtedy
ct = J ^ H
( S T -K r
\ T t)>
> £ (S t — K ( 1 + r )~ T \T t) = S*t - K ( 1 + r )~ T.
Ostatnia równość wynika z faktu, że (Sf*) jest martyngałem. Stąd
C t> S t - K { i + r ) -T + t> S t - K .
Ponieważ ct >
0
, mamy ct > (St — K ) + = Z t i ze stw.
1
wynika, że
ct = C t. •
W innych przypadkach (np. opcji sprzedaży, opcji kupna na aktywa przy­
noszące dywidendy) równość nie zachodzi.
Odpowiedzi i wskazówki
1. Opis doświadczenia losowego
I.1. Przykłady. Aksjomaty teorii prawdopodobieństwa
(A n B' n C ) u (4 'n B n C ) u (A' riB 'n
b ) ( A n s n C ) u (A n B ‘ n C) u (A 1 n B n C ).
1. Odp. a)
C).
c) suma zdarzenia z poprzedniego punktu i A fi B fi C.
2. Wsk. Należy skorzystać z tw. 5, W7 i zasady indukcji, a dla przeliczalnie
wielu składników także z tw. 7.
3. Wsk. Patrz tw. 5, W7.
4. Rozw. P (B ) = P (A U B) + P (A n B) - P(A) = ±, stąd P {B ') = f .
P(A n B')
=
P(A \ A n B)
=
P ( B \ A ) = P( 8 \ A n B ) =
5.
UB)
\ A) = |.
Rozw. P (A
= P {B
=
P(A
P(A)
-
P(A n F )
= g.
0.
\ B) + P (B \ A) + P {A
n
B), stąd
P(A
\ B) =
P (A ) = P {A \ B) + P (A n B) = §.
6
. Rozw. P(B) = P (A U B )+ P (A n B ) —P(A) = § + j
ze wzoru de Morgana).
P(A' fi B) = P (B)
- P (A
—5
= f i (skorzystaliśmy
n B) = ±.
7. Rozw. P(A U B) = P(A) + P(B) = 1, poza tym A' U B = A' i A U B' — B '.
8.
Rozw.
1 > P(BuC) = P (B )+ P (C )-P (B nC ) > 5P(A )-P(A nB ) > 4P(A).
P(A U B llC ) ^ 6P(A).
I ograniczenie dolne: 1 = P(fl) =
9. Rozw. Zdarzenie meszka pojawi się najpóźniej w ra-tym rzucie” składa się z n
zdarzeń elementarnych i ma zerowe prawdopodobieństwo. Z drugiej strony,
dopełnieniem zdarzenia „reszka pojawi się w skończoriej liczbie rzutów” jest
zdarzenie jednoelementowe, które znów ma prawdopodobieństwo równe zeru,
zatem szansa, że reszka pojawi się w skończonej liczbie rzutów wynosi 1 .
Przeczy to przeliczalnej addytywności i zdrowemu rozsądkowi.
I I. Rozw. Istotnie, jeśli x G U 4- u i x € U + w, to x = u% + u = « 2 + w, gdzie
Ui,U 2 G U. Ale « 1 = U2 + (w —u) oznacza, że Ui ~ U2 , co stoi w sprzeczności
z definicją zbioru U.
12.
Rozw. Niech x € [0,1]. Rozpatrzmy klasę abstrakcji [*]. Wtedy Uf\[x] = {xo},
gdzie xo € [0,1]. Oznacza to, że xo — x jest liczbą wymierną Wj z przedziału
[—1,1], czyli x € U + W j .
396
do rozdziału 1
397
13. Rozw. Z poprzedniego zadania
CO
[ - 1, 2 ] d U(C/ + ^ ) 3 [ 0 , 1 ] .
1=1
Wobec tego
oo
3 ^ ^ n(U + Wi) ^ 1.
i=l
To jest jednak niemożliwe: zbiory U + Wi są rozłączne na mocy wyniku zada­
nia 11 i mają jednakowe miary, bowiem miara fi jest przesuwałna. Sprzecz­
ność kończy dowód.
1.2. Przeliczalny zbiór zdarzeń elementarnych
1.
Odp. J2T=1 2~km = (2m - l ) " 1.
2. Rozw. Paradoks wynika z faktu, że nie istnieje rozkład prawdopodobieństwa,
który przypisuje każdej liczbie naturalnej to samo prawdopodobieństwo (dla­
czego?). Natomiast gdyby ograniczyć zbiór liczb, z których maszyna losuje,
do zbioru skończonego, to rozumowanie graczy prowadzące do paradoksu
byłoby fałszywe.
3. Rozw. Niech B będzie zbiorem liczb parzystych, i niech C składa się z liczb
parzystych z przedziałów postaci [2 2n, 2 2" +1], ra ^ 0 , i liczb nieparzystych
z przedziałów postaci [22n+1 , 2 2n+2], n ^ 0. Wtedy 23, C ę.Q r-ate B U C ^ S -
1.3. Prawdopodobieństwo geometryczne
1. Odp. Wszystkie funkcje są równe zeru dla a ^ 0 i 1 dla o ^ 1. Natomiast na
odcinku (0 , 1 ) mamy:
f(a) =
a
1
dla a $ 5 ,
dla a > |,
h(a) = 2 a — a2,
g(a)
dla a $ |,
dla a > |,
k(a) = a2.
2. Odp. a) §, b) f.
3. Odp. g (jak otrzymać ten wynik bez obliczeń?).
4. Odp. i.
5. Rozw. Ponieważ jest wszystko jedno, w którym kwadracie znajdzie się środek
monety, przyjmiemy, że fi = [0, a] x [0, a] i P(A) =
Resztę wyjaśnia
rysunek.
398
Odpowiedzi i wskazówki
7. Rozw. W bardziej abstrakcyjnym sformułowaniu zamiast podłogi występuje
nieskończona płaszczyzna i zbiór równoległych prostych, przy czym odległość
między sąsiednimi prostymi wynosi a. Żeby wiedzieć, czy igła przetnie któ­
rąkolwiek prostą, trzeba znać odległość d środka igły od najbliższej prostej
u dołu ( 0 ^ d < a) i kąt a, jaki tworzy prosta z igłą ( 0 ^ a < w, ponieważ
nie rozróżniamy końców igły). Przyjmiemy w takim razie Q = [0, n) x [0, a)
i P(A) =
Igła nie przecina prostej wtedy i tylko wtedy, gdy spełniony jest układ nie­
równości
f d + - sin a < a
| d — | sina > 0 .
Odpowiedni podzbiór fi został na rysunku pomalowany na szaro; jest to
zdarzenie przeciwne do podanego w zadaniu. Rysunek odpowiada sytuacji,
gdy l a. Wtedy łatwo obliczyć pole obszaru, który nie został pomalowany
na szaro:
n
5 = 2 I
Jo
l
- sin ada = 21.
Zatem szukane prawdopodobieństwo wynosi
*9. Rozw. Załóżmy, że wielokąt przecina jedną z prostych. Wtedy prostą prze­
cinają dokładnie dwa boki, co wynika z wypukłości i z faktu, że średnica
wielokąta nie przekracza 1. Oznaczymy przez Aij zdarzenie, polegające na
do rozdziału 2
399
tym, że prostą przecinają boki i i j , zaś przez ptj jego prawdopodobieństwo.
Niech A = Ui^icjin
Ponieważ zdarzenia Aij wykluczają się, mamy
=
~
^ 12
^ I3
+ •■■+ i'1’1) +
l^i <j^n
+ ( p 2 3 +P 2 4 + - . - + P 2 n ) + - . . + P n - l , n .
Zdarzenie Ai = JJ. Aij polega na tym, że ¿-ty bok przecina prostą. Jeśli
jego długość oznaczymy przez k (k < 1 , ponieważ średnica wielokąta jest
mniejsza od 1), to z poprzedniego zadania mamy P(Ai) = 2li/-K. Z drugiej
strony P(Ai) = y~^n_, p^, gdzie przyjmujemy Pu = 0. Ponieważ Pij = Pji, to
i—1 j=l
i=l
1=1
Jak widać, prawdopodobieństwo zależy wyłącznie od obwodu S wielokąta,
a nie od liczby boków i ich długości. Dlatego wynik przenosi się na wypukłe
krzywe zamknięte: każda taka krzywa jest granicą wielokątów wypukłych.
10. Odp. 1/3.
*11. Rozw. Niech I będzie ustalonym podprzedziałem o długości £. Wtedy
P (I nie zawiera żadnego punktu) ^
{i P (I nie zawiera n pierwszych punktów) ^ (1 —e)n —>0,
gdy n —> oo. Dalej należy rozważyć wszystkie przedziały o końcach wymier­
nych.
2. Klasyczna definicja prawdopodobieństwa
2.2. Typowe błędy
1. Odp. 22! ~ 1,124 •1021. Osobom o zacięciu sportowym proponujemy wyzna­
czenie wszystkich cyfr tej liczby przy użyciu np. wzoru Stirlinga (dodatek A)
i kalkulatora z wyświetlaczem 1 0 -cyfrowym.
2. Odp. a) 2 •5 •8!/10! = 1/9; b)
3-
0 d P-
8
- 3! •7!/10!.
(I) (?)/(!)-
4. Odp. b.
5. Odp. Łatwo obliczyć prawdopodobieństwo p, że będą same czerwone karty:
p = (g6) / ( 562)- Szukane prawdopodobieństwo to 1 — 2p.
6
. Odp.413/ © .
7. Odp. a) p = (“ ) ( ? ) ( “ ) (“ ) / ( S ) ; b) 24p; c) 12 ■(“ ) ( » ) !2 ( » ) / ( $ ;
8
<ł) 4 - ( ? ) ’ ( ? ) / © •
. Odp.
.
9. Odp. Tyle, ile konfiguracji n nierozróżnialnych kul w 6 komórkach.
W 2a widać teraz,
że rachunki były
niepotrzebne.
Odpowiedzi i wskazówki
400
10
. Odp. Tyle, ile wszystkich podziałów a) 8 ; b) 4 pączków pomiędzy 4 osoby.
11.
Odp. ( " + ; - 1)-
12. Odp. a) (£) ; b) (£).
13. Odp. Zdrowy rozsądek wskazuje, że próbka 100 ryb, zawierająca 8 ryb ozna­
kowanych, jest miniaturą całej populacji. Zatem ryb jest mniej więcej n =
= 200 ■ ijp = 2500. Można udowodnić, że dla takiego n szansa otrzymania
8 oznakowanych ryb w próbce 1 0 0 ryb jest największa.
4 !-^
14. Odp. a)
■ b) Należy obliczyć prawdopodobieństwa, że ustalony gracz
(1 3 !)4
nie ma pików, że ustaleni dwaj (trzej) gracze nie mają pików, a następnie
skorzystać ze wzoru włączeń i wyłączeń, c) Patrz b.
15. Odp. Wszystkich zdarzeń elementarnych jest (2S4) , a oto liczba zdarzeń sprzy­
jających dla poszczególnych konfiguracji: para —
6
•(4)
■43; dwie pary —
(2) (2 ) 2 ' 16; straight — 2(45 - 4); trójka — 6 •(3 ) •(*) •42; fuli —
kareta — 6 ■20 = 120, kolor — 4 •4 = 16, poker — 4 -2 = 8 .
6
•(3 ) •5 •(*).
16. Odp. (4g) / ( 4g) ■Żeby otrzymać ten wynik, wyobraźmy sobie, że kule z wylo­
sowanymi liczbami pomalowano na czarno, a reszta kul jest biała. Ustawiamy
w rząd 43 białe kule i wybieramy 6 z 44 luk (42 pomiędzy nimi, dwie przed
i za), w których umieszczamy czarne kule.
17. Odp. Zbiór n-elementowy można rozbić na k zbiorów, których liczba elemen­
tów wynosi n , T2 , ..., r/t, na
rilr-2! •.. rk\
sposobów (patrz przykład 11). Konfigurację wymienioną w zadaniu można
otrzymać na
10!
7!
2!6!l!l! ' 3!2!1!1!
sposobów. Stosujemy tu wzór z przykładu 11 dwukrotnie: po raz pierwszy,
dzieląc piętra na cztery kategorie ze względu na liczbę pasażerów, i po raz
drugi — dzieląc pasażerów pomiędzy piętra. Wszystkich zdarzeń elementar­
nych jest oczywiście 1 0 7.
Konfiguracje podanego typu można bez trudu wypisać (jest ich 15).
18. Odp. W pierwszym przypadku prawdopodobieństwo wynosi 1 — ( 1 — g) 4 ¡a
« 0,5177, w drugim — 1 — (1 — jg ) 24 ~ 0,4914. Obie liczby są wyrazami
znanego ciągu, przybliżającego liczbę 1—e_ s . Warto się zastanowić, dlaczego
de Mere mógł uważać oba prawdopodobieństwa za równe.
19. Odp. Prawdopodobieństwo w pierwszym przypadku jest równe 1 —
/
~ 0,665, w drugim — 1 — [|u- + 12 •
+ 18 •fis +
(*2
as
as 0,619, w trzecim — 1 — [|rs +
) fra] ^ 0,5838.
20. Odp. Gdyby kostki zachowywały się jak obiekty nierozróżnialne, oba praw­
dopodobieństwa byłyby równe 6/56. Dla kostek rozróżnialnych
Wystarczy im
teoretyczna
możliwość
pomalowania?
401
do rozdziału 3
Obiekty makroskopowe w naturze są rozróżnialne. Kostki zachowują się tak,
jakby były pomalowane na różne kolory.
21. Odp. 1— (1 —355 )", gdzie n — liczba osób. Prawdopodobieństwo to przekracza
5 dla n ^ 253.
22. Odp. Szanse co najmniej jednej koincydencji, czyli 1 - po, można wyznaczyć
ze wzoru włączeń i wyłączeń. Dalej, obliczanie pk można sprowadzić do obli­
czania po- Ostatecznie pfc = ^ [l —1 + 55 —. . . ± ^ ¿ 551] i limn^oc,Pfc = ii e - 1 •
23. Odp. a) 4 •(l?) (369); b) niech pi oznacza szanse otrzymania 6 pików, a p2 —
6 pików i 6 trefli. Wtedy szukane prawdopodobieństwo jest równe 4pi - 6 p2
na mocy wzoru włączeń i wyłączeń.
24. Odp. Wszystkich rozmieszczeń jest (j?) •6 !; wolny pokój dwuosobowy można
otrzymać na 7 •6 ! sposobów, a trzyosobowy na 6 ! sposobów.
25. Odp. (l+ x )n = Efc=o (fc)®*, zatem po zróżniczkowaniu mamy n (l+ x ) " _ 1 =
= X ^ = 1 k(£)xk~ l. Jeśli n > 1, to wzór ma sens dla x = —1 i jest to żądana
tożsamość.
26. Odp. Zastanowić się, ile komisji z przewodniczącym (i ew. zastępcą) można
wybrać spośród n osób. W (1) otrzymujemy n2n_1, w (2) n(n — l)2n~2.
27. Odp. (2^ ) . Tyle samo jest podziałów zbioru n kul białych i n kul czerwonych
na dwie równe części.
3. Prawdopodobieństwo warunkowe
3.1. Definicja i przykłady
2. Odp. 1/2.
3. Odp. Trzeba pokazać, że
P (A \ D )> P (A ),
P(B\D) > P (B ),
P(A
n B\D)
< P (A
n B).
Przykładem takiej sytuacji może być doświadczenie polegające na wycią­
gnięciu jednej karty z talii 52 kart. Niech zdarzenie A polega na wyciągnięciu
pika lub kiera, zdarzenie B — trefla lub kiera, natomiast zdarzeniu D sprzyja
wyciągnięcie asa, lub króla kier, lub trefla nie będącego asem, lub pika nie
będącego asem.
5. Odp. Niech p oznacza prawdopodobieństwo nadania chłopcu drugiego imienia
Franek. Wtedy szukane prawdopodobieństwo wynosi
Zauważmy, że dla
p = 1 otrzymujemy 1/3, czyli odpowiedź z przykładu 3.
6
. Odp. a $ 1/2.
7. Odp. a) 3/11, b) 5/13, c) 3/7.
8
. Odp. P(A\B) =
P(A\C) =
9. Odp. ( - ) / ( - ) .
10.
O d p . a ) © ( - ) / ( S ) , b ) a / ( f 3).
P{A\D) =
Odpowiedzi i wskazówki
402
11. Odp. a) ( « ) / ( ( « ) - ( « ) ) = ( « ) / ( « ) ; b) ( « ) / ( ( « ) - Q ) ;
Schemat jest
wszędzie ten sam:
w liczniku mamy
ilość układów bez
asa, w
mianowniku
wykluczamy
układy a) z asem
pik; b) z dwoma
czarnymi asami;
c) z czterema
asami.
c) ( f ,) /( ( S ) - (?))•
12. o d p . i - 3 [ ( S ) / ( ” ) - G S ) ( S ) / ( ! S ) ( ? S ) l -
13. Rozw. Źle konstruuje model, wybierając zdarzenia elementarne. Nie bierze
pod uwagę wariantów odpowiedzi strażnika. Strażnik mówi, że zostaje B
z prawdopodobieństwem 1, gdy zostają A i B, a z prawdopodobieństwem
1/2, gdy zostają B i C. Analogicznie, strażnik mówi, że zostaje C z praw­
dopodobieństwem 1, gdy zostają A i C, a z prawdopodobieństwem 1/2, gdy
zostają B i C. Stąd prawdopodobieństwo warunkowe, że wyjdzie A, gdy zna
odpowiedź strażnika, jest równe
a nie 1/2, jak sądził A (skorzystaliśmy z definicji prawdopodobieństwa wa­
runkowego i ze wzoru na prawdopodobieństwo całkowite). Tego należało się
spodziewać, gdyż informacja strażnika z punktu widzenia A nic nie wnosi.
Wiadomo, że co najmniej jeden z więźniów B i C zostaje.
Warto zastanowić się nad uogólnieniem tego zadania: strażnik może loso­
wać odpowiedzi z prawdopodobieństwami różnymi od 1 / 2 albo w ogóle nie
losować, tylko np. wybierać alfabetycznie1.
3.2. W zór na prawdopodobieństwo całkowite i wzór Bayesa
x
x.
(1—x ) _
dx
-fi ---------------------. Bayes próbował udowodnić, że są duże szanse na
J
x m ( l - x ) n ~ m dx
to, że p jest bliskie m /n i podał metodę obliczania prawdopodobieństwa, że
' p e [a, b] przy znanej liczbie sukcesów i porażek.
2. Ortp. 0,76.
3. Odp. 7/15.
4. Odp. 3/5.
5. Odp. 2k/(3n — k).
6
. Wsk. Patrz przykład 8 . Odp. 1/2.
7. Odp. Po wylosowaniu kuli białej należy losować z tej samej urny, po wyloso­
waniu czarnej — z drugiej urny.
8
. Odp. 4/15.
9. Odp. Lepiej posłuchać Pawła: prawdopodobieństwo, że poda dobrą odpo­
wiedź jest równe 5/8.
10. Odp. 2/3.
1
Obszerną dyskusję dylematu więźnia można znaleźć w: Jerzy Łukaszewicz, Problem
Serbelloni, czyli o warunkowym prawdopodobieństwie ułaskawienia skazańca, W iadom o­
ści Matematyczne, X X IX .2 (1992), ss. 179—187.
do rozdziału 4
403
XI. Odp. Wydaje się to być sprzeczne z intuicją, gdyż na mocy wzoru na praw­
dopodobieństwo całkowite P(A|B) jest średnią z P(A\Br\C) i P(A\Br\C'),
a P(A\B') jest średnią z P(A\B' flC) i P(A\B'
Ale odpowiednie wagi
mogą być różne i w rezultacie (1) i (2) mogą zachodzić jednocześnie. Gdy
zdarzenia B i C są niezależne, to paradoks nie może zajść.
12. Odp. Można to udowodnić indukcyjnie, lub wykorzystując symetrię zauwa­
żyć, że prawdopodobieństwo wyciągnięcia za ra-tym razem kuli czarnej, gdy
nie znamy wyników poprzednich losowań, jest równe prawdopodobieństwu
wyciągnięcia za pierwszym razem kuli czarnej.
1o
O J .
i a ’
„
_
Pk.n — \k) ■
c(c+d)-
.. (.c+d(k-l)).b(b+d)-....(b+(n-k-l)d)) _
( o + !> ) ( c + 6 + < i ) - . . . - ( c + i > + ( n - l ) < i )
~
Uwaga. Dla a f R definiujemy
(
i ){n -k )
(~ (c + (,)/d ^
•
.
14. Odp. Korzystając ze wzoru na prawdopodobieństwo całkowite należy napisać
równania rekurencyjne na qa, a = 0, 1, 2, . . . , c. Gdy p = 1/2, to prawdopo­
dobieństwo qa ruiny gracza A jest równe qa = 1 —a/c, gdy p ^ 1/2 to
„
qa
gdzie q =
1
(g/p)a - (<j/pT
1-
(g /p r
'
—p.
Zaskakujące są wyniki liczbowe np. gdy a = 500, c = 550, to dla p = 1/2,
qa = 1/11, a dla p = 18/38 (ruletka amerykańska) q„ rs 0,99485.
15. Odp. Można skorzystać z poprzedniego zadania, należy jedynie uzasadnić
przejście graniczne przy c —>oo — patrz przykład 11.2.16B.
Niech q = 1 —p. Gdy p ^ q to prawdopodobieństwo P (W ) wygranej gracza
A jest równe P (W ) = 1, a gdy p < q to P (W ) = (p/q)b np. w ruletce
amerykańskiej (p = 18/38) prawdopodobieństwo wygrania 50 zł przez gracza
A jest równe (0,9 ) 50 & 0,00515.
15a. Odp. 7/8. Jest to szczególny przypadek poprzedniego zadania.
16. Odp. 1/2“-1 .
17. O d p . ( l - p ) ^ ^ 18. Odp. Psychologowie (D. Kahneman, A. Tversky) stwierdzili, że typowa od­
powiedź oscyluje w pobliżu 80%; faktycznie szansa wynosi ok. 41%.
19. Odp. Około połowy respondentów twierdzi, że 95%. Mniej niż jedna piąta
udzieliła prawidłowej odpowiedzi: 2 %.
4. Niezależność zdarzeń
4.1. Definicja i przykłady
3. Odp. a), b) nie.
4. Odp. 10p(l - p)9.
5. Odp. a) p", b) (1 —p)n, c) np(l —p)"-1 .
6
. Odp. 4/7, 2/7, 1/7.
Odpowiedzi i wskazówki
404
7. Odp. Lepszy — słabszy — lepszy.
8
. Odp. ^ ( A r G
)3( i )4
«0,0027.
9. Odp. Niech q = 1 - p. a) q2\q + q2 - ę3], b) (1 - p2)q{ 1 - p3).
10. Wsk. Dowód niewprost. Gdyby istniała taka dyskretna przestrzeń probabili­
styczna, to dla każdej u) £ ii mielibyśmy P(ui) = 0.
11. Odp. ^ - < ¡ - ^ , 1 = 0 , 1, . . .
12. Odp. a.
13. Odp. Jest to efekt losowania. Pojawienie się wypadku nie ma wpływu na
prawdopodobieństwo, ale jest wskazówką, że wybrana losowo osoba ma więk­
szą skłonność do wypadków.
14. Odp. 0,0165.
4.2. Schemat Bernoulliego
1
. O4 , . a ) l - ( f ) 10 ,b) ( ^ ( ^ ( f ) 7.
2- Odp. (2: ) ± 3. Odp. a)
b) |.
4. Odp.
*5. Odp. Niech so =
i niech Si i S2 będą sumami wyrazów po
staci odpowiednio (3fc" J i (3fc+2) ’ ta^ ^ s° + Sl + 32 ~ 2"- Dalej, niech
ei = cos ^ + i sin ^ oraz e2 = e\ = cos ^ + i sin 4^ będą zespolonymi
pierwiastkami trzeciego stopnia z jedności. Wtedy
5o 4- eisi + C2S2 = (1 -j- e i)n
so + e2Si + ei s2 = (1 + 62)".
Stąd można wyznaczyć
Jeśli n —» 0 0 , szansa otrzymania liczby sukcesów podzielnej przez k zmierza
do l /k , co widać z powyższych wzorów dla k = 3,4. W ogólnym przypadku
też tak będzie, jednak wyprowadzenie odpowiednich wzorów nie jest łatwe.
6
. Odp.
7. Odp. Gdyby kontynuowano grę, szansa wygranej gracza A wyniosłaby
405
do rozdziału 5
Rozsądnie byłoby podzielić stawkę proporcjonalnie do prawdopodobieństw
wygranej, czyli w stosunku r : 1 —r, bowiem wtedy, jak pisano już w XVII
wieku, „nadzieja moralna” , równa wysokości stawki pomnożonej przez szanse
jej wygrania, jest dla obu graczy równa. Analiza takich zagadnień doprowa­
dziła do pojęcia wartości oczekiwanej (patrz rozdz. 5).
8-
0dP-
i a + i d la P = 9 1
u
p
d la
P i 1'
Sd z ie 2 =
■
9. Odp. 5/11.
4.3. Lemat Borela-Cantelliego
1. Odp. 0, chyba że P(A¡) = 0 dla i = 1,2,... — wtedy 1.
*2. Odp. Szkic rozwiązania. Niech Bk = U,:1<¿2<
n •■■n -''k*)- Wtedy
Dfcli Bk = limsup An; Bk jest zstępującym ciągiem zdarzeń, więc
OO
P ( f ) B k) =
* *
k ~ 1
lim P {B k).
k —* o o
Niech Cn będzie zdaizeniem polegajacym na tym, że w ciągu prób Bernoulliego liczba reszek jest równa liczbie orłów po raz pierwszy w ri-tym kroku
i niech C =
Cn- Zatem wystarczy pokazać, że
a) P (B k) = [P{C)]k dla k = 1,2,...
b) P ( C W i ) = 0, P(C2n) = j í t r í 2" " 1) •5 *¿=r.
więc P (C) = ^3“ =1 P(C„) = 1, bo P(C 2 n) jest równe współczynnikowi przy
s 2n w rozwinięciu Taylora funkcji f(s) = 1 — (1 — s2) 5.
(2 p )w
3. Odp. Jeśli p < i, to P(yln) < 2’lp", a gdy p ^
i korzystamy z lematu Borela-CanteUiego.
4
. odp. 0 = 1 - p (u r = i a " ) =
korzystamy z lematu Borela-Cantelliego.
to P(An) > 1 — e 2n
a st^
= °°>1
5. Zmienne losowe
5.1. Definicja; rozkład zmiennej losowej
1. Rozw. Oto przykład. Niech B C R będzie zbiorem niemierzalnym. Niech
X a(u>) — 1{„}(w) dla a g B = A. Wtedy supa£B X a = Ib Już w przedszkolu
2. Rozw. Niech X ma rozkład jednostajny na (0,1). Wystarczy wziąć ip(x) =
wiedzą, że c-cia lo
= 1a (x ), gdzie A jest mierzalny w sensie Lebesgue’a, ale nie jest zbiorem borelowskie jest
borelowskim.
mniejsze od klasy
3. Odp. => Rzut Tii'. R ” —>R, zdefiniowany zależnością ttí(x i , .. ■x n) = Xi, jest zbiorów
mierzalnych
funkcją borelowską.
w sensie
■$= Wystarczy zauważyć, że zbiory postaci B i x . . . x B n, gdzie Bi € B( R), Lebesgue’a.
generują # (R n).
4. Odp. a) a(X) = {{2 ,4 , 6 }, {1,3,5}, 0, «}.
b) cr(X) — klasa pierścieni o środku w punkcie a.
Odpowiedzi i wskazówki
406
5. Odp. P (X = fc) = p( 1 — p)k l , k = 1, 2, —
P(K = k ) = p ( l - p ) * , fc = 0, 1, 2,. . ..
6
. Odp. P (X n > t) — (1 —A
Ponieważ Y = X — 1 , to
------->e_xt, gdzie i ^ 0, A > 0. Stąd natych71—»OO
miast wyznaczamy dystrybuantę graniczną. Jest to dystrybuanta rozkładu
wykładniczego, którego gęstością jest
f(t) = Ae-Xtl [0,oo)(i),
A > 0.
7. Rozw. Niech A „ = { x : /u.({ar}) ^ A}. Wtedy # A „ ^ n i
punktów skokowych.
8
A n jest zbiorem
. Odp. Rozkład ¡i ma nieciągłą dystrybuantę, zatem nie może być ciągły. Jed­
nocześnie ma tylko jeden punkt skokowy (0 ), ale skok dystrybuanty w tym
punkcie jest równy 1 / 2 , rozkład nie może być zatem dyskretny.
10. Rozw. => Wystarczy zauważyć, że jeśli rozkład fjt jest skupiony na zbiorze
przeliczalnym S, to fj,j jest skupiony na 7r3-(S ), gdzie i oznacza rzut na j-tą
współrzędną.
<= Jeśli rozkład brzegowy fj,j jest skupiony na przeliczalnym zbiorze Sj, j =
1 , 2, . . . n, to
x ... x S n) = 1 , czyli rozkład fj, jest skupiony na podzbiorze
zbioru przeliczalnego.
11. Rozw. Skorzystać z twierdzenia Fubiniego.
12. Rozw. Niech fj. będzie miarą Lebesgue’a skoncentrowaną na przekątnej kwa­
dratu jednostkowego.
13. Rozw. Niech e e [0, J]. Z tabeli widać, że rozkład łączny zależy od e, a roz­
kłady brzegowe nie.
II
o
X =
I
0
1
2
+e
0
§ -*
Y = 1
4
£
4
3
8
3
8
1
2
1
2
Proponujemy kolejne zadanie: znaleźć rozkład, którego rozkłady brzegowe są
jednostajne na [0 , 1 ], ale sam nie jest rozkładem jednostajnym na kwadracie.
Wskazówka — rozkład jednostajny na brzegu odpowiedniego prostokąta.
14. Odp. Jednostajny na sferze jednostkowej (por. własność pasa wyciętego ze
sfery w zadaniu o grubej monecie).
16. Wsk. Jeśli rozkład ciągły o dystrybuancie F ma własność braku pamięci, to
ogon rozkładu, czyli funkcja G(t) = 1 - F{t), spełnia równanie
G(t + s) = G(t)G(s).
Ponieważ G jest ciągła, musi być postaci G(t) — ect. Założenie o ciągłości
można osłabić, trzeba jednak w tym celu wiedzieć, że jedynym mierzalnym
w sensie Lebesgue’a rozwiązaniem równania funkcyjnego
f ( x + y) = f(x ) + f(y )
jest funkcja liniowa.
do rozdziału 5
407
17. Odp. Przy losowaniu z rocznika statystycznego (ale już nie z tablic mate­
matyczno-fizycznych) najczęstszą pierwszą cyfrą znaczącą jest 1 (ok. 30%
próbki). Teoretycznie szansa pojawienia się k jako pierwszej cyfry znaczącej
wynosi log10(fc + 1) - log10 k. Oto szkic wyjaśnienia: niech zmienna losowa
X reprezentuje liczbę z rocznika. Pierwszą cyfrą znaczącą będzie k, gdy dla
pewnego całkowitego n
k •1 0 " ^ X < (k +
1)
•1 0 ” ,
czyli
logio k + n ^ log10 X < log10 (k + 1) + n,
co sprowadza się do warunku Y = log10 X(mod 1) e [log10 k, log10(fc + 1)).
Ale można się spodziewać, że zmienna losowa logl0 X ma gęstość g różną od
zera na długim przedziale i niewielkie maksimum. Dlatego gęstość zmiennej
losowej Y , wyrażająca się wzorem
OO
g v (x )=
^ 2 g(x + k)
k~
—c o
różni się niewiele od gęstości rozkładu jednostajnego (podobne zjawisko wy­
stępuje w ruletce: liczba obrotów kola zredukowana modulo 2tt powinna mieć
rozkład jednostajny).
5.2. Własności dystrybuanty rozkładu na R
1. Rozw. Należy najpierw sprawdzić, że definicja ¡i jest poprawna. Istotnie,
każdy niepusty zbiór z A przedstawia się jednoznacznie w postaci sumy niepustych przedziałów półotwartych o rozłącznych domknięciach. Żeby to zo­
baczyć, rozpatrzmy niepusty zbiór A, który ma dwa różne przedstawienia:
Tl
TTŁ
A = {J(a i,bi] - (J
j=1
i=1
gdzie
ttł
b\
. . . dn ^ bn,
Cl
dl ’C . . . Cn
d,n,
a suma m + n jest dla tego zbioru minimalna. Wobec tego przedziały (an, 6 n]
i (cm,dm\ są różne. Gdyby bowiem były równe, można by było je usunąć,
zachowując równość: otrzymalibyśmy wtedy zbiór B, dla którego m + n jest
mniejsze, co przeczyłoby minimalności zbioru A.
Ponieważ bn € A , dla pewnego j ^ n mamy dj ^ bn. Analogicznie b* ^ dm.
Zatem
hi ^ dm i? dj "'Z- b7l.
a stąd j — to, i = n, bn = dm. Wobec tego lewe końce odcinków (o„, 6 ^]
i (Cm,dm] muszą być różne. Niech, dla ustalenia uwagi, cm < an. Wtedy
jednak 6 „_i < an, i element x e (max(6 „- i , cin),an] jednocześnie należy
i nie należy do A — sprzeczność.
Ponieważ F jest niemałejąca, że fi jest poprawnie zdefiniowaną nieujemną
miarą na ciele A . Żeby móc skorzystać z twierdzenia 1 . 1 .8 o przedłużaniu
Odpowiedzi i wskazówki
408
miary i przedłużyć na c-ciało generowane przez skończone sumy odcinków,
czyli cr-ciało zbiorów borelowskich, musimy wykazać, że jeśli (An) jest zstę­
pującym ciągiem zbiorów z A i f"]” i A i — ®> to [¿(A n) ------->0. Idea dowodu
Tl—*00
jest prosta: ustalamy dodatnią liczbę 5 i do każdego A n dobieramy taki zbiór
zwarty K n, żeby K n C A n, A n \ K „ C Bn, gdzie fi(Bn) < S2~n. Możli­
wość takiej konstrukcji wynika z prawostronnej ciągłości funkcji F , i jeśli
A = UJLl (<ii,6 i], to K n = Ur=> i + £«>&«] dla odpowiednio dobranych Si.
Rodzina (K n) nie jest na ogól zstępująca, ale jeśli dla n = 1, 2, .. . zdefiniu­
jemy H „ = K i n . . . n K n, to (H „ ) będzie już zstępującą rodziną zbiorów
zwartych o pustym przecięciu, zatem dla pewnego m mamy H\f\.. .n Hm = 0,
skąd K i fi . .. fi K m = 0- Jest oczywiste, że A m = A\ fi . .. fi A m niewiele
różni się od zbioru pustego, a dokładniej:
m
Am
m
/
m
c P)[(Ai \ Ki) U Ki] C P)[Bł U KĄ C
1=1
i= l
\
f ] Ki
\ i= l
/
m
U I[j B
/
\ i= l
Wynika stąd, że
ft{Am)
5.
Udowodniliśmy zatem, że dla każdej liczby dodatniej S istnieje takie m, że
fj.(An) < S dla n > m. Innymi słowy, limn_oo ¡J.{An) = 0, czego należało
dowieść.
Tym samym udowodniliśmy, że /i przedłuża się na cr-ciało borelowskie. Po­
nieważ
ju((—0 0 , i]) = F(t) — F ( —0 0 ) = F (t),
lim F(t) = 1,
t—
+OO
widać, że ¿j(R.) = 1 i F jest dystrybuantą fi.
2. Rozw. Pouczające jest wykonanie wykresu / , jeśli F ma odcinki stałości
i skoki. Wystarczy wykazać, że f(s ) ^ i wtedy i tylko wtedy, gdy s Si F(t).
a) jeśli / (s) ^ i, to sup{u: F(u) < s} ^ i, więc u > t implikuje F(u) ^ s, co
na mocy prawostronnej ciągłości daje przy u \. t nierówność F(t) JS s.
b) jeśli F(t) ^ s, to gdyby sup{u: F(u) < s} = t + e > t, mielibyśmy u„ t t + e
i F(un) < s, a ponieważ F jest niemalejąca, byłoby F(t) < s — sprzeczność.
3. Rozw. ¿¿((-oo, x)) = /^|J~= 1 ( - o o , a ; - i ] j = limn
.
4. Odp. 0,3; 0,9; 0,85.
6
{
. Rozw. Wystarczy wyznaczyć dystrybuantę.
f0
„
/ - l ,
-aaa
\ 3 y l l l -—
ee- ' s
F y (t)-F x ,
dla t ^ —5,
,, , ^ ,
dla t > —5.
7. Rozw. Ustawiamy zbiór liczb wymiernych w ciąg r„ i definiujemy
CO
F (x ) = ^
n=l
2" 1
(~ 00 ,!El(r" ) =
S
{ n :r n < x }
2" '
do rozdziału 5
409
8. Odp. Oto dystrybuanty:
0
¡
dla t <
0,
dla t ^
2,
1
dla t < 1 ,
dla 1 ^ t < 2 ,
dla t ^ 2 .
5.3. Własności dystrybuanty rozkładu na R ”
1. Wsk. Skorzystać z lematu o 7r- i A-ukladach.
2. Rozw. Przykładem jest funkcja
_ f
' ’"
1
10
dla x + y >
w p.p.
0
Jest ona monofoniczna ze względu na każdą ze współrzędnych, jednak dla
1 , X2 = s/2 = 2 nie zachodzi (1 ).
x i = yi = -
3. Rozw. Niech G będzie jednocześnie 7r- i A-układem. Rodzina G jest niepusta
(war. (i) z def. 4). Jeśli A € G, to A ' = ii \ A 6 G na mocy war. (i) i (ii)
z def. 4. Wobec tego jeśli A, B 6 G, to A U B = (A' n B ')' € Q. Wynika
stąd, że rodzina Q jest zamknięta ze względu na skończone sumy. Niech teraz
Ai 6 G dla i = 1 , 2 , — Mamy
= U"=1 Ą 6 5 i z war. (iii) (o rodzinie
wstępującej) [J“ i A , = U “ i B iź G 5.4. Dystrybuanta a gęstość
1. Rozw. a) W świetle zad. 5.3.1 wystarczy wykazać, że
= [
9
(s)ds,
t e R.
J—
03
Niech </„ = g l ( _ ni0o). Wtedy
/
/
ff(s)ds = hm /
g„(s)ds =
n —»oo /
—oo
—oo
= lim f
n —+oo I
—71
g(s)ds = lim (F(i) - F ( —n)) = .F(i).
7i—»oo
Skorzystaliśmy z tw. Lebesgue’a-Leviego o zbieżności monotonicznej i z pod­
stawowego twierdzenia rachunku całkowego (patrz np. [RUD-2], tw. 6.16; ta
wersja pokazuje zresztą, że zamiast ciągłości g wystarczy całkowalność w sen­
sie Riemanna na przedziałach ograniczonych).
b) Z jest przeliczalny, zatem R \ Z = Ui^-oo(a*>&*)> Przy czym przedziały
(a,i,bi) są niepuste i rozłączne. Rozumowanie z punktu a) pokazuje, że jeśli
[a, b] C (a,,bi), to F(b) — F(a) = f a g(t)dt. Wystarczy teraz skorzystać
z ciągłości F.
2. Wsk. Zamiast podstawowego twierdzenia rachunku całkowego użyć tw. 8.21
z [RUD-1]: jeśli F jest różniczkowalna wszędzie na [a, b) i F ' jest całkowalna,
to F(x) — F(a) = J * F'(t)dt dla x S [a, 6].
Całkowalność F ' w naszej sytuacji wynika natychmiast z lematu 1 .
Odpowiedzi i wskazówki
410
3. Odp. $(t) oznacza dystrybuantę standardowego rozkładu normalnego.
a) Fy(t) = <£>(logi) dla t Jł 0. Dystrybuanta jest różniczkowalna wszędzie
poza i = 0 ; różniczkując otrzymujemy
f
< ^ty/2,
’ o"
\
b) Fy(t) =
2 $(Vi)
-
1,
t^
0,
e ~ (lo g t > /2
d l a i > 0’
dla i < 0 .
<?y(i) = ^ e - ‘ / 2 l [0 ,oc)(i).
4. Odp. Z nie ma gęstości. Z tw. 3 można otrzymać gęstość Y , daną wzorem
fO
dla
(0 , 2 ),
dla i € (0 , 1 ),
dla i 6 [1, 2).
9Y{t) = -S ( l / 6 )i—2 /3
U /2
5.5. Gęstość a odwzorowania gładkie
1
. Rozw. Np. X ma rozkład jednostajny na (0,1), ip (x) = l j i j^ i).
2. Rozw. Całka jest funkcją ciągłą jako funkcja górnej granicy całkowania.
3. Rozw. g(y) = a e ~ a v ■^ •l(0lOO)(y).
4. Wsk. Należy powtórzyć rozumowanie z dowodu stwierdzenia 1 na każdym Ik
z osobna.
5. Rozw. Skorzystać z wielowymiarowej wersji twierdzenia o całkowaniu przez
podstawienie.
6
15 (5yt + 52/1 + 6yiy2) ; b) gęstość jest taka
. Odp. a) .M j/i , 2/2 ) = ¿exp
sama, jak wyjściowa.
5.6. Parametry rozkładów
1. Rozw. Pręt podparty w środku ciężkości powinien pozostawać w równowadze,
zatem łączny moment siły powinien być zerowy. Daje to warunek
2
>
- m )Pi9 =
0,
i= 1
gdzie m jest współrzędną środka ciężkości, a g przyspieszeniem w jedno­
rodnym polu grawitacyjnym. Stąd m =
XiPi- Moment bezwładności
układu względem punktu m wynosi X )S i(:Ei —m )2Pi-
2. Rozw. (4) W świetle stw. 11 wystarczy wykazać, że J0°° P (X = t)dt = 0, a to
jest oczywiste, ponieważ funkcja podcałkowa jest różna od zera na zbiorze
co najwyżej przeliczalnym.
(5) Zamiana kolejności sumowania w poniższych rachunkach jest możliwa,
bowiem składniki są nieujemne (jest to wniosek z twierdzenia Fubiniego):
OO
OO
OO
£p(X >n) = £ £ > (* :
n = l
n=l
k= n
OO
+
1)
= ^
k= 1
kP(k ^ X < k + 1) iC
do rozdziału 5
411
^
[•^{fcsSJCdc+l}] = £ X ^
k= 0
CO
^ ^ 2 ^ [(^ + 1) 1{fciX<fc+l>] =
fc=0
oo
= ^ ( f c + 1)P(k fi X < k + 1) =
k=0
oo
=
y
n=l
oo
p (x > n) + Y p (fc ^ x < k + 1)=
fc=0
oo
= ^ F ( x ^ ra) +
1.
■
n=l
3. Wsk. Skorzystać ze stwierdzenia 11 i zauważyć, że P ( X T > t) = P ( X > i1/V).
4. Wsk. Uogólnić metodę rozwiązania poprzedniego zadania.
5. Rozw. Na rysunku widać standardowy sposób, stosowany przez hydrologów.
W rzeczywistości z tabeli odczytujemy coś w rodzaju ogona rozkładu, wobec
tego stosujemy odpowiednik wzoru ze stw. 11 i całkujemy funkcję przedsta­
wioną na rysunku.
Pole (km2)
głębokość
Objętość jest równa zakreskowanej powierzchni, przy czym 1 mm2 odpowiada
0,001 km3. Otrzymujemy wtedy 1,5613 km3.
6 . Wsk. ip jest funkcją kwadratową.
7. Rozw. Zdefiniujemy funkcję
r(t) = V 2 X t = t2 V 2 X o + (1 - i)2® 2* ! + 2 i(l - t)p (X o,X i)t/ v 2 X ó & X ^ .
Odpowiedzi i wskazówki
412
Jest to funkcja kwadratowa, osiągająca minimum dla
V 2X ! - p (X 0, X 1) V V 2X 0V 2X 1
min
£>2X i + V 2X 2 - 2p(X0, X 1) V V 2X 0T>2X1 '
W naszym przypadku imin = 6/7 i y ^ X t min m 0,0196. W odniesieniu
do papierów wartościowych oznacza to, że portfel złożony z papierów obu
rodzajów w proporcji 6 : 1 ma ryzyko niższe, niż każdy z papierów. Jego
stopa zwrotu będzie równa £ X tinin ~ 0,0528. Widać, że taki portfel jest
lepszy niż papier opisywany przez zmienną losową Xo, ma bowiem wyższą
stopę zwrotu i niższe ryzyko. Nie da się go natomiast porównać z papierem
opisywanym przez X i, dopóki nie zdecydujemy, jak duże ryzyko opłaca się
ponieść w zamian za wyższą stopę zwrotu.
Pouczające jest wykonanie wykresu ryzyko/zysk dla rozmaitych współczyn­
ników korelacji.
Stopa
zwrotu
Wsk)
Punkty A i B odpowiadają rozpatrywanym papierom wartościowym. Odci­
nek A B reprezentuje przypadek doskonałej korelacji dodatniej (p(X o, X\) =
= 1). Łamana A Z B — doskonałej korelacji ujemnej (p (X o,X i) = —1). Wi­
dzimy, że przy odpowiednio dobranym składzie portfela ryzyko jest zerowe
(punkt Z). Wreszcie krzywa A C B reprezentuje przypadek podobny do rozpa­
trywanego w zadaniu. Punkt C odpowiada portfelowi o minimalnym ryzyku.
Widać także, że nie ma sensu brać pod uwagę portfeli z łuku A C , bowiem
dla każdego takiego portfela znajdziemy na łuku C B portfel o tym samym
ryzyku, ale z większą stopą zwrotu. W związku z tym portfele z łuku C B
nazywa się portfelami efektywnymi.
Analizę przypadku więcej niż dwóch papierów wartościowych można znaleźć
na przykład w książce K. i T. Jajugi, Jak inwestować w papiery wartościowe,
PWN, Warszawa 1994, i w wielu innych dostępnych na rynku książkach,
poświęconych analizie portfelowej.
do rozdziału 5
8
413
. Rozw.
oo
co
k
= ]T /c P (X = fc) =
= fc) =
k=Q
oo
fc=l n.—1
co
oo
=EEp(x=fe)=Ep(x^n)u = lfc = n
n=l
9. Odp. £ X = l/p.
10. Rozw. Jeśli X jest liczbą rzutów, to X = . Xi +X 2 + . . . + X 6 , gdzie X i = 1, zaś
X i, i = 2, . . . 6 jest czasem oczekiwania na i-ty wynik różny od pierwszych
(i — 1) wyników i ma rozkład geometryczny z parametrem (7 — i ) / 6 . £ X =
= 14,7.
11.
Odp. Nie. Oto przykład: fi = {a,b,c}, zdarzenia elementarne są jednakowo
prawdopodobne, X(a) = 2, X(b) = 1, X(c) — 0; Y(a) = 0, Y ( 6 ) = 2,
Y(c) = 1. Wtedy £ ( ^ ) = §, £ ( * £ , ) = §.
12. Rozw. a) „rozpisujemy” wzory po współrzędnych i korzystamy z definicji
wartości oczekiwanej wektora,
b) wynika z definicji macierzy kowariancji i punktu a).
13. Rozw. Należy zmierzyć sumę długości prętów, składając je razem, a potem —
różnicę, układając je obok siebie. Wynikami pomiarów będą zmienne losowe
S = x + y + U,
D = x - j/ + V,
gdzie x i y to długości prętów, zaś U i V — błędy pomiarów. Jako oszacowanie
x przyjmiemy
S+D
2
U +V
~
X +
~
V
2
’
a jako oszacowanie y:
, U -V
S -D
2
2
'
Jak widać, wariancje błędów są dwukrotnie mniejsze niż przy zwykłym spo­
sobie mierzenia.
14. Odp. 2.
15. Odp. a) —|, b) 0, c) 6 .
16. Odp. a = cov(X,Y)/V 2 X , b = £ Y — a£X.
19. Rozw. Liczebności cząstek w kolejnych pokoleniach można przedstawić za
pomocą następujących zmiennych losowych:
Zo = X
Z1 = x % = x l 1\
Z2 = x i 2)
+ ... + x£\
=x1
(" ) + ... + x £ )_i,
Odpowiedzi i wskazówki
414
gdzie
jest ciągiem podwójnym niezależnych zmiennych losowych,
przyjmujących wartości m i 0 z prawdopodobieństwami p i g. Ponieważ
zmienne losowe ciągu (X kn'l)^ =1 nie zależą od Zn~ i, mamy
OO
szn
=
£x^_i
/
=
fc=l
= j r ,k P ( Z n -
fc
\
i= l
/
i
1
=
\
= k )£X [n) =
k=l
= £ X [n) ■£ Z n - 1 = prn •££„_i = (pm)n.
5.7. Nierówności związane z momentami
1
. Wsk. Wtedy P (X = 0) = 1.
2. Wsi:. Sprawdzić, kiedy zachodzi równość w nierówności Younga (4).
3. Wsk. Skorzystać z nierówności Hóldera.
4. Rozw. Niech A = { X > X £X }. Wtedy
£ X = £ { X l A) + £ { X 1 a. ) ^ [£X 2 ■P(A)]i + \£X .
6
. Rozw. I = £ ( s / X ■^
^ ( £ X ■£ ( ± ) ) K
7. Rozw. Dowód uzyskujemy natychmiast z nierówności Czebyszewa.
8
. Rozw. Dla p = 1 nierówność jest oczywista. Jeśli p > 1, niech g- 1 = 1 —p_1.
Bez straty ogólności można zakładać, że X , Y ^ 0. Z nierówności Hóldera
mamy
£ X (X + Y ) p_1
(£ X p)1/p - ( £ { X + Y ) (p ~ l k ) 1 /9
i podobną nierówność ze zmiennymi X , Y zamienionymi rolami. Po dodaniu
stronami obydwu nierówności otrzymujemy
£ ( X + Y )p ^ [(£Xp)1/p + (£ Y p)l,v} - { £ { X +
Zauważmy, że (p — l)ę = p, wobec tego po podzieleniu obu stron przez
drugi czynnik po prawej stronie otrzymujemy żądaną nierówność. Gdyby ten
czynnik był równy zeru, to i lewa strona byłaby zerowa i nierówność byłaby
automatycznie spełniona.
5.8. Niezależne zmienne losowe
2. Rozw. Powtórzyć rozumowanie z twierdzenia 7.
3. Rozw. a) Jest to zmienna losowa min(X, Y ) o rozkładzie wykładniczym z pa­
rametrem a +
patrz przykł. 5.8.4.
b) Mamy
P (X < Y ) ~ m x , Y ) ( { { x , y ) - . x < y } ) =
=
f
i
J J/ o<
0<x<y
g x( x ) g 2( y ) d x d y =
/
J J0<x<v
J0 < x < y
ae~OLXiJ,e'~fXydxdy ■
a
p + a'
do rozdziału 5
415
Aby obliczyć to prawdopodobieństwo, musieliśmy skorzystać z rozkładu łącz­
nego (X, Y).
4. Rozw. Ej = {A i} - 7r-układ. Ej niezależne, więc z twierdzenia 12 wynika, że
<t(S;) = a(Ai), i € I są niezależne.
5. Rozw. Weźmy io
postaci Ai = B lH
— skończony, i dowolne Ai £ Ej dla i E Io- At są
Bln . Z niezależności <r-ciai Tt otrzymujemy
C I, Io
Ai)=F(f i n ^ ) = 1 1 1 1 ^ ) = n p^ ¿€/o
6
3
*€ *0
i
3
*€/o
. Odp. a) np. X\ ~ W(0,1), X 2 = X?; b) jeśli X ma rozkład jednostajny na
[0 , l ] i / n ( x ) = sgnsin27rni, to (fn (X )) jest ciągiem Bernoulliego. Otrzyma­ Funkcje f n
rozpatrywane na
liśmy cały ciąg niezależnych zmiennych losowych.
[0,1] nazywamy
7. Wsk. W celu otrzymania gęstości zastosować indukcję i wzór na splot. Praw­ funkcjami
dziwość wzoru na G n sprawdzić przez różniczkowanie.
Rademachera.
8
. Rozw. Niech X (odp. Y) przyjmuje wartości w R m (odp. R fc)
P (X
6
A ,( X ,Y )
£ B) =
f
l B { x , y ) l A xR k(x,y)fHx,Y)(dx,dy) =
JRm+fc
Ili
1BdflY dfix-
J a J R fc
9. Wsk. Być może nieco wygodniej jest operować zmiennymi losowymi X n =
= (Un + l)/2 zamiast U„ i obliczyć P (X ^ t) dla dwójkowo-wymiemych t.
10. Wsk. Skorzystać z zadań 5.2.2 i 9. Ciąg Bernoulliego (Un) można przenumerować tak, by otrzymać tablicę (Un,k), n = 1,2,..., k — 1, 2, __ Wystarczy
dla odpowiednio dobranych funkcji F„ zdefiniować zmienne losowe
X n = Fn ( ^
11.
2-
fcl/n,fc) .
Odp. Gęstość jest dana wzorem
%g{x)
1
-
dla 0 ^ x <
_ iŁzłi!
dla
1
1,
< x s$ 2 ,
dla 2 < x ^ 3,
dla x $ [0,3],
0
12. Wsk. Zdefiniować splot gęstości z dowolną miarą:
(9 * /*)(*) = f
JR
*13. Rozw. Z = X + Y , gdzie X =
i Y są niezależne.
14. Odp. Gęstość: (A/2)e_A'tL
9
( t - x)fi(dx).
^ 2n/ 2 n ma rozkład jednostajny, a X
Odpowiedzi i wskazówki
416
15. Wsk. U ma rozkład wykładniczy z par. 2A, V = \X — Y |, więc ma rozkład
wykładniczy z par. A (korzystamy z zad. 14). Wykazać, całkując gęstość
(X ,Y ) po odpowiednim obszarze, że F(U V)(s, t) = Fu(t)Fv(s).
16. Wsk. Jeśli A G R n, i a jest permutacją zbioru {1 ,2 , . . . , n } , zdefiniujmy
= {(¡ni,■••,£„) e Rn: ( i » ( i ) , - " . ^ ( r . ) ) e A } oraz A = (Jcse^O4)’
gdzie sumowanie odbywa się po zbiorze wszystkich permutacji S. Jasne jest,
że dla A C A n zbiory er(A) są (prawie) rozłączne, zatem A(A) = n!A(A).
Zatem
. . . , U(n)) € A) = P{{UU . . . , [ / „ ) e A) = n!A(A), A C A„.
Nie jest trudno wyznaczyć dystrybuanty statystyk pozycyjnych i obliczyć, że
£ X W =fc/(n + l).
Numery trzech taksówek w Grybowie zostały wybrane losowo ze zbioru
l , 2 . . . , n . Doświadczenie to przypomina losowy i niezależny wybór trzech
punktów z odcinka [0 , 1 ]. Średnio podzielą go one na cztery równe czę­
ści. Dlatego można argumentować, że taksówek jest najprawdopodobniej
| max{27,11,3} = 36. Dokładniejsze rachunki, uwzględniające dyskretny
charakter zagadnienia, dają nieco inny wynik.
17. Wsk. Załóżmy dla uproszczenia, że A = 1. Żeby się nie zaplątać w rachun­
kach, warto zauważyć, że gęstość rozkładu wektora (X i , . . . , X nĄ.\) jest równa
e- ( i 1+.,.+i„ł i) na Piórze wyznaczonym nierównościami
Xi ^
0 ,...
x n-f-i ^
0.
Wobec tego gęstość rozkładu wektora (Si , . . . , SW+i) jest równa e~ x,,+ 1 na
zbiorze A wyznaczonym przez nierówności 0 ^ xi ^
^
^ Zn+iNiech teraz A C A„. Mamy
P ( (S i/ S n + i,...,S n/Sn+i) £ A) =
[ e - x’'+1 dx 1 . . . d x n + 1 =
Ja
t\(A)e~tdt = A(A).
gdzie A jest stożkiem wyznaczonym przez A , o wierzchołku w (0, . . . , 0).
Wszystkie przekroje stożka, tj. zbiory A n {xn+i = c) są podobne, gęstość
jest stała na zbiorach {x n+i = c}, więc wynik całkowania musi być propor­
cjonalny do A(A) — miary Lebesgue’a zbioru A, czego należało dowieść.
18. Wsk. Należy rozumować podobnie, jak w zad. 17.
19. Rozw. Skorzystamy z intuicyjnie oczywistego argumentu, którego ścisłe uza­
sadnienie można znaleźć w rozdziale 6 (jako uogólnienie wzoru na prawdo­
podobieństwo całkowite).
Jeśli wiadomo, że do chwili to pojawiło się k autobusów, to zgodnie z zad.
18 średni czas, jaki upłynął od chwili przyjazdu ostatniego autobusu wy­
.e"**0.
nosi to / (k + 1). Szansa na pojawienie się k autobusów wynosi
Ostatecznie średni czas od przyjazdu ostatniego autobusu jest równy
do rozdziału 5
417
20. Wsk. Niech X ~ JV"(0,1). Zdefiniujmy
Pć'. Y) = (X, -X)l{xg(_o,a]} + [X, X)l(X€[-a,al}Dla dużych a kowariancja zmiennych losowych X i Y jest dodatnia, dla
małych o jest ujemna, więc dla pewnego a jest zerem.
21. Odp. Niech zdarzenia A, B, C będą parami niezależne, ale nie wzajemnie
niezależne. Kontrprzykład tworzą rodziny {A, B } i {C }.
*22. Rozw. Niech A > 0. Wtedy funkcja eXx jest rosnąca i mamy
= P { ^ Sn > eArv/") SC
_ e~Xr-/n
= e“ ^
^
^
1) " =
+ e
Skorzystaliśmy z wykładniczej nierówności Czebyszewa, niezależności zmien­
nych losowych eXUi oraz elementarnej nierówności ¿(e* + e~A) ^ eA /2. Wy­
bieramy teraz A = r /y/n , co minimalizuje ostatnie wyrażenie po prawej stro­
nie i daje żądane oszacowanie.
Z symetrii zmiennych losowych Un wynika, że P(|Sn/0 i| > r) ^
12■
23. Rozw. Niech e > 0. Wtedy
P f —■
V\/2 nlogra
N
> 1 + e'] ^
ra~(1+e) < oo,
/
'
'
n= l
zatem na mocy lematu Borela-Cantelliego z prawdopodobieństwem 1 zacho­
dzi tylko skończenie wiele zdarzeń {(Sn/V 2 n logn) > 1 + e}.
|24. Wsk. Rozważyć krzywą Peano, przekształcającą odcinek [0,1] w sposób cią­
gły na kwadrat.
25. Rozw. Niech X lt X 2 oznaczają wylosowane liczby; pierwszą z nich znamy.
Zgodnie z warunkami zadania są to niezależne zmienne losowe o tym sa­
mym rozkładzie z ciągłą dystrybuantą (i dlatego nie musimy się przejmować Rozkład z ciągłą
dystrybuantą
zdarzeniem X\ = X 2, które ma zerowe prawdopodobieństwo).
spleciony z
Żeby zwiększyć szanse wygranej, należy urządzić sobie prywatne losowanie, dowolnym innym
generując zmienną losową o rosnącej dystrybuancie. Oznaczmy wynik loso­ ma ciągłą
wania przez Z. Decyzję podejmujemy tak: jeśli X\ > Z, uznajemy, że X i jest dystrybuantę.
większa; w przeciwnym razie uznajemy, że jest mniejsza. Łatwo zobaczyć, że
szansa wygranej minus szansa przegranej jest wtedy równa
P {Z e (mm.{XuX 2 ),m a x{X u X 2))) > 0,
(1)
możemy więc wygrać z prawdopodobieństwem większym niż 1/2. Istotnie,
oto wszystkie możliwe uporządkowania X i , X 2
Plus oznacza wygraną,
minus przegraną.
Odpowiedzi i wskazówki
418
1
2
3
4
5
Xr < X 2 < Z
Z < Xi < x2
X2 < Z < X 1
Z <X 2<X 1
x 2< x 1< z
Xi < z < x 2
6
Uporządkowania 1 i 5, 2 i 4, oraz 3 i
skąd wynika wzór ( 1 ).
+
-
+
+
-
+
mają równe prawdopodobieństwa,
6
Jeśli wszystkie trzy zmienne losowe mają ten sam rozkład, szansa wygranej
wynosi 2/3.
5.9. Różne rodzaje zbieżności zmiennych losowych
1
. Wsk. Skorzystać z tego, że granica funkcji mierzalnych jest mierzalna lub
wprost
oo
{w :
limX n(u>)
=
X (to)}
=
f|
oo
U
oo
f i
~
X l ^
l/k
k=l N ^ l n = N
3. Wsk. Zastosować lemat Borela-Cantelliego.
4. Wsk. P(\Xn - x \ ^ e ) ^ P ( n r = J I ^ - X \ ś 4 ) p
p
5. Rozw. Jeśli X n — > X , X n — >Y, to dla każdego e > 0
P(|X - Y| > e) < P(\Xn - X \ > e/2) + P(|Y - X„| > e / 2 ) -------►0.
n —+oo
Wobec tego P(\X — y| > 0) = 0.
9.
Skorzystać z twiei'dzenia 8 .
11. Rozw. Jeśli w pierwszym rzucie wypadł orzeł, łączna wygrana wyniesie co
najmniej 2/3, jeśli wypadnie reszka — co najwyżej 1/3. Wobec tego dystrybuanta F x przyjmuje na przedziale (1/3,2/3) wartość 1 / 2 . Rozpatrując drugi,
trzeci i dalsze rzuty widzimy, że dystrybuanta jest stała na wszystkich prze­
działach wyłączonych podczas konstrukcji zbioru Cantora. Ponieważ łączna
miara tych przedziałów jest równa 1 , dystrybuanta rośnie na zbiorze miary
zero i nie istnieje gęstość.
Żeby wyznaczyć dystrybuantę w pozostałych punktach, czyli na zbiorze Can­
tora C, przypomnimy znaną funkcję <p przekształcającą C na odcinek [0,1]:
jeśli i G C i t = 52^1 IJTi gdzie m = 0 lub Ui = 1 , i — 1,2,..., to
OO
**> = £ § ■
¿=i
Tak zdefiniowana funkcja jest jednostajnie ciągła i rosnąca na C. Mamy teraz
P (X ^ t) = P(ip(X) ^ tp(t)) = ip(t),
ponieważ >p{X) ma rozkład jednostajny na [0,1].
do rozdziału 5
419
Dalej,
FX =
2
2 £ Ui =
^
3i
i= l
2
^
— — 3*
2
’
i= l
gdzie zmienne losowe po prawej są niezależne, P(Ui = 1) = P(Ui = 0) =
¿ = 1,2,.... Wymaga to jednak uzasadnienia; prościej zauważyć, że
x~lu, + ix.
gdzie Ui jest niezależna od X . Stąd otrzymujemy nie tylko £ X = i , ale
i V 2X =
bowiem V 2X = §X>2 Ł/i + \ V 2X .
12. Rozw. Gdy teza nie zachodzi, to istnieje a ^ £ Y i podciąg (nk) taki, że
£ (Y - X ) s$ lim inf £ (Ynk - X „ k) = lim inf £ Ynk - £ X
tzn. £ Y ^ lim inf £Yn. Podobnie £ (Z — Y ) ^ £ Z —lim inf £Ynk, zatem £ Y ^
lim inf £Yn. Czyli £ Y = lim inf £Yn = a, sprzeczność.
13. Rozw. Z założenia y /X „ — >Y . Niech X — Y 2. Z nierówności Schwarza
£\Xn - X \ ^ ( £ \ V X ^ - \ /X \ 2) i { £ (y/X ^ + V x ) 2)^ -------> 0,
n—*oo
bo £ ( y p u + V x ) 2 ^ K <
00.
14. Rozw. Wystarczy pokazać, że dla dowolnego e > 0
limP(max|Xi| ^ en) =
n
0.
Faktycznie,
n
P(maxjXi| ^ en) ^
^
P(\Xi\ Ą en) = nP(\Xi\ ^ en) ^
i= l
—
c
»o,
n—>oo
bo £\Xi\ < oo.
15. iJozu;. sup(£ (|Xt|l{|Xt|>c}) ^ £ ( n {y>c})
nia Lebesgue’a o zbieżności zmajoryzowanej).
0, gdy C —» oo (z twierdze­
16. Rozw. Niech e > 0. Weźmy C takie, by dla z '¡i C zachodziło
G(z)
z
M
e
tzn. z ^ e M ~ 1G(z). Wtedy
£
$ sM l£ (G(Xtl{|xt|>c})) < e-
Odpowiedzi i wskazówki
420
17. Rozw. => (ii) wynika z nierówności
£ (|Xt|U) ^ C P ( A ) + £ ( |Xt|l{,Xt|>c}) .
Z tej nierówności, biorąc A = fi i C dostatecznie duże otrzymujemy (i).
4= Weźmy dowolne e > 0. Dobierzmy 8 z punktu (ii). Z nierówności Czebyszewa i z (i) dla i € I P(|Xt| > C) ^ C -1 sup( £|Xt| ^ 5 dla dostatecznie
dużych C, zatem (ii) daje £ (|Xt|l{|xt|>c}) ^ £ dla t € I.
18. Wsk. =t- (i) oczywiste z nierówności Czebyszewa; (ii) są spełnione warunki
zadania 17, korzystamy z tego, że £ (1 a \Xu — X|p) ^ £ (|Xn — X\p).
<= Skorzystać z zadania 16 i oszacowania
£ (\X„ - X|p) < C p + £ (|X„ - X|pl {|x„_x|>C}) ^
^
Cp+
2P
l £ ((| X „| P +
|X|P) 1 {| x „ -a :| > c })-
5.10. Przegląd ważniejszych rozkładów
1. Rozw. Wystarczy wykazać, że x2(l) jest rozkładem 7 1 / 2 ,1/2 i udowodnić rów­
ność (1), §5.10:
/
°°
Z,ai+a2
X 1 (0 ,0 0 )( i -
= c )l(0 ,o o ) (l)d l =
f*
L a !+ a 2
Loi+a2
Z*4
=f k ^ ) t
e i
tai+a2-le-M / ( l _ u)“X - V 2- łdu =
r(ai)r(a2)
Ja
^ +a»g(ai,a2 ) . 1+Ba- x - w
r(ai)r(02)
2
r(ai+a2)
. iioziw. Niech C będzie macierzą ortonormalną o wszystkich elementach pierw­
szego wiersza równych \/yfn. Oznaczmy X = (Xi,. . . X„), V = C X . Wtedy
Yi =
zaś
n sl = ¿ X 12 - nx2 = Y , Y? - yi2 = Yi = ■■■+ Yn ■
¿=1
t=i
Przedostatnia równość wynika stąd, że przekształcenie ortonormalne zacho­
wuje długość wektora.
Widać teraz, że 2 i s2 są niezależne jako funkcje od niezależnych zmiennych
losowych, a ponadto n s j ma rozkład X n -i 3. Wsk. Zróżniczkować wszystkie trzy wyrażenia.
421
do rozdziału 6
4. Wsk. Wykazać, że jeśli wektor losowy (Z\, Z2) ma standardowy rozkład nor­
malny w R 2, to promień R = \JZ\ + Zf ma ten sam rozkład, co \J—21ogA
(por. zad. 1 i 2), zaś kąt 0, jaki tworzy wektor (Zi, Z2) z osią O X ma rozkład
jednostajny na przedziale [0, 2tt] i jest niezależny od promienia.
Wynika stąd, że wektory losowe (R, 9) i (•/—2logX, 2wY) mają ten sam
rozkład: jest on wyznaczony jednoznacznie przez rozkłady współrzędnych,
bowiem na mocy niezależności jest ich produktem.
W konsekwencji, zmienne losowe h(R,&) i h(^/—2 lo g X ,2 n Y ) mają ten sam
rozkład, zależny już tylko od h. Biorąc h(r, tp) = (r cos tp, r sin ip) widzimy, że
(Zi, Z2) = (ii cos6, R sin6) i (U, V) mają ten sam rozkład, i jest to standar­
dowy rozkład normalny w R 2.
5. Rozw. Udowodnimy to dla standardowej wersji rozkładu Cauchy’ego, o gę­
stości Ą ■
i
r
|a|dx > i
7r./_ 00 1+a: 2 ' *
r n dx
h
X
6. Warunkowa wartość oczekiwana
6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego
1. Odp. P (X = 1, Y — 2) = 0,1, £ X = 2,4, i wreszcie
F (X I
^ _= 2
£(X|a(F)
) - | 26 dlay
2. Odp. a)
£ if i
_ / 3
dla u> G [0, \),
dla w € [1,1].
b)
f-g
£ (f
l^) = i - p
l-f
dla
lu
€
[0, 5),
dlawe [i, i),
dla w 6 [5 , 1 ]-
3. Odp.
^—,
r a)' P- + 71—
p’ b)> -p + i + 1—p • W rozdziale o łańcuchach Markowa
udowodnimy ogólne twierdzenie na ten temat (zad. 12.1.14-17).
4. Odp. S ji( l + £).
5. Wsk. Zauważyć, że (stw. 5.6.11)
£ (x \x > t ) = p{x>t)£ (*1{x>t}) =
= ' + r ę k t ) S ~ e i x > ’ >0*Oznaczając P (X > s) =
1
;
m( s )
otrzymujemy równanie
u(s)ds = cu(t),
c > 0,.«(0) = 1.
Odpowiedzi i wskazówki
422
Lewa strona jest różniczkowalna, jako całka z funkcji ciągłej, możemy zatem
zróżniczkować obie strony, otrzymując dobrze znane równanie
—u(t) = cu! (i),
u(0) = 1,
którego rozwiązaniem jest funkcja u(t) = e- c i, gdzie c > 0.
6.3. Definicja ogólna
1. Wsk. Skorzystać z twierdzenia 6.3.4(e), a dokładniej — powtórzyć rozumo­
wanie prowadzące do otrzymania lematu Fatou z twierdzenia o zbieżności
monotonicznej.
2. Wsk. Skorzystać z zadania 1.
5. Rozw. Możemy założyć, że X ^ 0. Jeśli G € G, F £ J7, to
[
£ {X \ < r(G ,F ))d P =
JF n G
f
X d P = £ {{X 1 F)1G) = £ (X 1 F) P(G) =
JF n G
= £ (1 f £ (X |F )) P(G) = i
£ { X \ F ) dP.
J FnG
Zbiory postaci F fi G tworzą 7r-układ generujący
a ( F ,G ) zdefiniowane dla H € o(T,G') wzorami
u { H )= [ £(X\ * (F ,t))d P ,
G), zatem miary na
yiH )= f £(X \ f)d P ,
JH
JH
są równe.
6 . Wsk. Niech B e S (R ). Obliczyć
f ( X , Y ) d P przenosząc całkowanie
d o R 2.
7. Odp. £ ( X |Y ) = Y + 3.
8 . Wsk. V 2X = £ (£ [X - £ ( X |F ) + £ (X \F ) - £ X ]2 |f ) .
9. Rozw. Symetria i fakt, że £ ( X \X + Y) musi być funkcją zmiennej losowej
X + Y sugerują, że £ (X \X + Y ) = | (X + Y). Wystarczy teraz sprawdzić,
że dla każdego A e cr(X + Y)
J XdP = j
\ { X + Y)dP,
czyli
i X d P = i YdP.
Ja
Ja
Zbiór A musi być postaci { X + Y € B } dla pewnego B G S (R ), zatem
powyższą równość można przepisać w postaci
£ ( X ■1{X+Y€B}) = £ ( Y ■1 {X+Y€B}) ■
Równość wynika stąd, że £<p(X, Y) zależy tylko od łącznego rozkładu pary
(X, Y). W naszym przypadku pary (X , Y) i (Y ,X ) mają ten sam rozkład —
do rozdziału 6
423
mianowicie produkt dwóch egzemplarzy tego samego rozkładu — ponieważ X
i Y są niezależne i mają ten sam rozkład. Jak widać, założenie o niezależności
pełni tu kluczową rolę.
Inne, być .może bardziej naturalne rozwiązanie polega na przetransportowa­
niu zadania do R 2. Wtedy należy udowodnić równość
/
xn(dx)fi(dy) = /
J {x+ y£ B ]
yn(dx)n(dy).
J {x+ y€ B }
10. Odp. £ (Xi |X\ + . .. + X n) =
dowodu w przypadku n = 2.
+ . . . + X n). Dowód jest analogiczny do
11. Wsk. Nie ma co liczyć na wynik podobny do zad. 9.
12. Odp. a) |, b) 0, c) ^y.
13. Rozw. T n = <?(Sn, X n+1, X „+2 , - więc korzystając kolejno z zadania 5
(cr(Xi , Sn) jest niezależne od a(X n+ i , X n + 2 , ■■■)) i 10 otrzymujemy:
£ {X x |F n) = £ { X l 1S„) = — = £ ( ¿ « ¡ X ,
6.4. Prawdopodobieństwo warunkowe — uogólnienie
1. Odp. a) M (t/2, A2/2 ), b) W[0,i], c) B(t, 1/2) dla i 6 N U {0};
d) £ £ £ ; e) » ' ¿ - C ' ;
f) Af (tX2/(X2 + /i2), A2/(A 2 + /i2)); g) gęstość g(z) = a I ^ (1_ e- ( * - r t - ) l [(),t
h) 0(t, A/(A + ix)) dla t e N U {0}.
2. OdP. } X \y { v \\) =
£ (y |
= ¿) = / / *
\ y 2dy = ę .
3. Odp. P(^4) = £ (P(A\X)) = —1 + 21og2, gdzie X jest współrzędną pierw­
szego złamania.
4. O dp.a) £ ( u \ v ) = % ,£ ( v \ u ) = n f , b)
;;g p .
5. Wsfc. (X, Y) jest obrazem liniowym (U, V") ~ W (0,1). Obliczyć £ (U |aU + bV).
6 . Odp. Ujemny rozkład dwumianowy z parametrami a, b / (6 + 1 ).
7. Odp. £ (A |X = n) = (a + n)/(6 + 1); rozkładem warunkowym jest rozkład
gamma z parametrami a + n, 6 4- 1.
8 . Odp. Prognozą dla X n+i jest zmienna losowa
Sn nu2
v2
+ mn nu2 + v2
nu2 + v2
Widać tu wpływ średniej dla całej populacji klientów, czyli m, oraz średniej
wartości roszczeń dla obserwowanego klienta, czyli Sn/n .
9. Wsk. Odpowiedź powinna być ta sama, co w zad. 8, z uwagi na przykład 6.
Odpowiedzi i wskazówki
424
10. Rozw. Ze wzoru Bayesa i z tego, że n x jest rozkładem dyskretnym mamy:
£ (g(X) |B) = J 2 9 {<H)PB{Ai) =
=1
i= l
*11. Należy postępować podobnie, jak w dowodzie tw. 3.
12. Rozw. Trzeba pokazać, że dla dowolnego A 6 Q mamy
f XZdP=
Ja
f £ q (X| G ) £ p ( Z \ Q)d.P.
Ja
Ale
i X Z d P = [ X dQ = j £ q ( X \G)dQ = j £ q ( X \ G) ZdP =
Ja
Ja
=
Ja
Ja
f £P (£Q ( X \ G ) Z \ G ) d P =
Ja
i £Q ( X \ G )£ P (Z\G)dP.
Ja
6.5. Regularne rozkłady warunkowe
*1. Wsk. Niech dla r wymiernego Fr (u>) = P (X ^ rl^7) ^ ) . Pokazać, że istnieje
zbiór A miary zero, taki że F (x ,u ) = lrav,ix Fr(ui) dla u> 0 A i F(x,u>) =
= G(x) dla ui e A, gdzie G — dowolna ustalona dystrybuanta, ma własności:
(i) dla każdego u 6 fi, F(-,ui) jest dystrybuantą,
(ii) dla każdego i C R , F(x,u>) = P ( X
x\F)(u).
Następnie pokazać, że Px ^ (B ,u i) = f B F (dx,u), gdzie całkę rozumiemy
jako całkę Lebesgue’a-Stieltjesa, spełnia warunki twierdzenia.
*2. Rozw. Niech fi = [0,1], B = B([0,1]), A — miara Lebesgue’a. Niech A C [0,1)
będzie zbiorem niemierzalnym takim, że
\‘ (A) = inf {A(5): B D A } = 1
B€B
i
A,(A) = sup{A(B): B C A } = 0.
Bet3
Istnienie takiego zbioru wymaga oczywiście osobnego dowodu.
Niech F = a(B, A). Nietrudno zobaczyć, że F jest rodziną zbiorów postaci
(Si HA) U (B 2 A'), gdzie S i, B 2 € B, B i C A, B2 C A '. Zdefiniujemy teraz
P na T wzorem
p ((B i n A) u (b 2 n A')) = i(A(Bi) + A(B 2))
dla B i ,B 2 € B. Oczywiście P (B ) — A(B) dla B € B i
P(A) = P((Q n A) u (0 n A')) = i .
Wykażemy nie wprost, że nie istnieje regularny rozkład warunkowy Pb(-, •)
na fi x T względem B. Załóżmy, że Pb(-,-) istnieje. Dla B € B zachodzi
P(B\B) = I b , więc
PB(u,{ui}) = 1{„ } H
= 1,
(2)
425
do rozdziału 7
bowiem {u>} 6 B. Ponieważ dla B 6 B mamy
£
P(A\B)P{dko)
=
P(A
n B) = iP(B) =
J
\dP
więc Pb (w ,A ) = P(A\B) = | P-p.n. Analogicznie P(A'|£?) = ^ P-p.n. Stąd,
gdy w e A, to Pb(u), {u;}) ^ Pe(w, A) = §, a gdy u 6 A', to
Pe( ^ M K P e (a;,A') = i .
Sprzeczność z (2).
7. Sumy niezależnych zmiennych losowych
7.2. Prawo zero-jedynkowe Kołmogorowa
2. Wsfc. Zbadać dystrybuantę.
3. Wsk. Skorzystać z zadania 2.
*7. Sofcie dowodu. Z zadania 6 dobieramy takie A*,, by P(AAAfc) ------->0. Biorąc
fc—*oo
permutację
TTn • 7 T t i ( : E l , ¿Z-2, ■ • ■) —
, 3 ^ 1 + 2 , ■ • • , "^ 2ra j 3 . 1 , - ■ . ,
^ 2 t ł + 1 , 3 .2 7 1 - {" 2 , • •
otrzymujemy niezależność A„ i -!rn(An), więc
P(An n 7Tn(A„)) = P(A„)P(7r„(A„)).
Przechodząc z n do nieskończoności otrzymujemy P(A) = P 2(A) (korzy­
stamy z zad. 8).
7.3. Zbieżność szeregów niezależnych zmiennych losowych
1. Odp. a) zbieżny p.n., b) rozbieżny p.n.
2. Odp. Istnieje takie e > 0, że P(|Xi| > e) > 0, a wtedy ^ 2 -PG-^”"! > s) = co.
4. Wsk. Skorzystać z lematu Borela-Cantelliego.
5. Niech A = {maxi^fc^„ \Xi + . .. + X k\ r}. Zdarzenie to można podzielić
na kawałki, zależnie od tego, dla jakiego wskaźnika k po raz pierwszy ma
miejsce nierówność \Xi + . .. +X¡¡\ ^ r ). Wprowadźmy w tym celu zmienną
losową (niewłaściwą, bo przekroczenia wartości r możemy się nie doczekać):
r = inf{fc: \Xi + . .. 4- Xk\ S-Í
1 Sí k Si n}.
Jednak na zbiorze A zmienna losowa r przyjmuje wartości 1 , 2 , . . . , n. Mamy
teraz, oznaczając
Sk = X i + . . . + Xk,
Rk —
+ . . . + Xki
Ak = A fi { t = fc},
Odpowiedzi i wskazówki
426
następujące oszacowanie:
£ ( S ^ lAfc) = £ ( ( & + Kfc)2l ^ t ) =
(3)
= £ (’Sfil.4fc) + £ (-RfclAfc) + 2£ (SkRkl-Ak) -S
> £ ( S l l Ak) > r 2 - P ( A k),
gdzie przedostatnia nierówność wynika stąd, że £ (R kl At ) ^ 0, zaś zmienne
losowe
i Rk są niezależne, jako że pierwsza z nich zależy tylko od
X i . . . , X k> druga — od Xk+ 1 , . . . , X k. W takim razie
£ (Skl Ak ■Rk) = £ (Skl Ak) ■£ R k = 0.
Wystarczy teraz dodać stronami nierówności (3) dla k = 1,2, . . . , n, żeby
otrzymać tezę:
£ S l> £
■J2£Sn1 > J2r2P^ =r2P^ -
£ (£
Ak
<==1
fc=l
Drugą część twierdzenia dowodzimy biorąc A jak wyżej i
A fc = {|5i| ^ e,i = 1,2,..., fe — 1, |Sfc| > e}.
Wtedy
£ (S2
nl A) ^ £ S l - e2P (A') = £ S 2 - e 2 + e2P(A).
(4)
Ponieważ |Sk| ^ |5,fc_r[ + |Xfc| ^ £ + C n a A k, to
n
n
£S2
n1A = J 2 £ i5 *1*»)
fc=1
n
ś ( e + C)2 E
~ 5fc)2] ^
k= 1
(5)
n
p (Ak)
+£
p (A*)e (Sn -S k )2 s:
;=1
{e + C f + Y £ X k= 1
P(A).
Z (4) i (5) otrzymujemy
Ostatnią
nierówność chyba
najlepiej
sprawdzić
brutalnie mnożąc
„na krzyż” .
P(A) >
£ S l-e 2
{s + C )2 + £ S l - e 2
> 1 -
(e + C f
£Sl
'
6. Szkic dowodu. Z założenia dla każdego e > 0 istnieje takie N , że
P(max\SN+i — S n \> e) < - .
i^O
Z
(6)
Z drugiej strony, z tw. 6
P( ma* |SN+i - SN\> e) > 1 - ■ (e +n C )2 .
^^
2^fi=N+lCA'i
Zatem gdyby szereg
z (6).
£%n byl rozbieżny, otrzymalibyśmy sprzeczność
do rozdziału 7
427
7. Wsk. Wykorzystać zasadą symetryzacji: rozważyć ciąg niezależnych zmien­
nych losowych (Yn) takich, że ciągi (X n)n i (Yn)n są niezależne oraz X n ~ Yn,
n = 1, 2, __ Wtedy
też jest zbieżny p.n., a więc
(X n—Yn) jest
zbieżny p.n., £ (X n - Yn) = 0 i P(\Xn-Y„\ ^ 2c) = 1, n = 1,2,.... Z zadania
6 wynika, że
® 2(^n —Yn) < oo, zatem
~D2X n < oo. Z twierdze­
nia 2 wynika, że
—£ X n) jest zbieżny p.n., a więc
£ X n < oo.
8. Szkic rozwiązania. Ze zbieżności X^L i Xn wynika, że X n —> 0 p.n., więc
£P (|X„| > c) < oo dla każdego c > 0, zatem X n(u) = X„(u)) dla n ^ n(u)
(korzystamy dwa razy z lematu Borela-Cantelliego). Stąd wynika, że
jest zbieżny p.n. i korzystamy z zadania 7.
9. Odp. 0 6 (|, 1].
10. Rozw. Wynika to natychmiast z twierdzenia o trzech szeregach.
11. Zdefiniujmy r jak w dowodzie nierówności Kołmogorowa, tzn.
r = inf{fe ^ 1: [5fc| > i}.
Niech Ak = { t = k}, Bk = {maxjŁ<j^„ |Sj - Sk\> r } , C = {max^n \Xj\ ^
^ s}, Dk = Ak n Bk n C, k = 1, . . . , n. Wtedy mamy
n
E = {max|5fc|> s + £ + r } n C c
D k.
fc = l
Istotnie, na Ak ii C zachodzą nierówności |5fc| > i, |5t_i| ^ t, \Xk\ < s, a
więc |5it| ^ t + s, a dla u g i i l i i mamy dla pewnego l = l(u>):
s + 1 + r < |5,| ^ \Sk\+ \Si - Sfc|$ t + s + \Si - Sk\,
więc maxt<j^„ |5j - Sk\> r, tzn.
oj
€ Bk i stąd
n
n
£ = £ n ( | j Ą ) c (Jr>Ł.
fc = l
fc = l
Z niezależności A k i Bk wynika, że
P (D k) ^ P (A k n Bk) = P (A k)P(Bk) ^ P (A k) max P {B k).
fc^n
A ponieważ max/t^n P(Bk) ^ P({maxfc,., |Ą- —5fe| > r}) to
n
P(max|Sfc| > s-t-i + r) ^ P(max|Xfc| > s) + P(l JD k) ^
kś-n
k^n
v'~'
fc = l
^ P(max|X/t| > s) +
Tl
+ P({max |5,- - Sk\> r}) V
k,j
—J
k=i
P {A k),
co daje pierwszą nierówność tezy, bo {maxfc^„ |Sł| > t} = U*=i Ak- Druga
wynika z tego, że {|Ą —Sk\ > r} C {|5„ —Sk| > r / 2} U {|5„ —Sj\ > r / 2). ■
Odpowiedzi i wskazówki
428
7.4. Prawa wielkich liczb
2. Rozw.
P (|^f -p| > e) < 2 Z)r=i e_!i^ < °°-
3. Rozw. £ “=1
jest zbieżny p.n., bo £ (&$=*) = 0,
V 2( ^ £ ) =
= pqY2n ^? < °°- Skorzystać z lematu 6 (Kroneckera).
4. Rozw. P(
^ e) ^
b) mamy V 2Sn ^ n ■const.
co dowodzi pkt. a), a przy założeniu punktu
5. Rozw. V 2Sn i; 3nC i skorzystać z twierdzenia 4.
6. Rozw. Ve > 0 3 N \g(Xi,Xj)\ < s, o ile \i — j\ > N . Dla n dostatecznie
dużych V 2Sn ^ K n + 2Cn2e, gdzie K jest stalą zależną tylko od N i C.
7. Rozw. Korzystamy z zadania 5.6.1 i definiujemy Yn jak w dowodzie MPWL.
Pokazujemy, że lim„ v (Yi+~ + Yn) _ q j korzystamy z twierdzenia 4.
8. Rozw. Niech X n będą takie, że
P (X n =
n 4) =
P (X n =
Wtedy V 2X n = 2n6 i
- n 4) =
^
,
1 -
P (X n =
0) =
1 -
J j.
Xn Jest bieżny p.n. (lemat Borela-Cantelliego).
9. Rozw. Jedyne ograniczenie to pn £ [0, |], by rozkład prawdopodobieństwa
był dobrze zdefiniowany.
10. Rozw. Zachodzi SPWL, bowiem limn T>n*n = 0; ale
P(\x n\ > n) = oo,
więc P(lim
= 0) = 0, czyli nie może zachodzić MPWL.
11. Rozw. Skorzystać z MPWL.
12. Rozw. Dla c > 0 niech
Sn = £ l ^ s j c } ^ i=l
Wtedy
lim inf — ^ lim inf — = £ (X i 1 ¡x , <c>)
n
—>00
n
n
— 00
n
'
p.n.
1
oraz
lim £ p i i l ^ ^ c } ] =
C— +OQ
więc P(limn ^
=
00)
L
00,
J
= 1.
13. Rozw. Oznaczmy V 2X\ = a2. Wtedy £ (5Z"=1^ t ) 4 = ^ ( 2 ) ^ + nc ^ ar*2
dla wszystkich n i pewnej stałej a. Z nierówności Markowa (5.7.6)
i ponieważ szereg J2 (fijr jest zbieżny, na mocy lematu Borela-Cantelliego
z prawdopodobieństwem 1 zachodzi tylko skończenie wiele zdarzeń w nawia­
sie,’ co oznacza,' że -n i—j%
Y'ln— l, Xił ------->0.
429
do rozdziału 7
*14. Rozw. Można założyć dla 1 Sj p < 2, że £X\ = 0. Trzeba udowodnić, że
n
i=i
Niech Yn =
P’n-
Wtedy
oo
oo
5 ] P ( X n i Yn) = ^ P ( | X 1|P > n) < f|Xx|p < oo.
n = l
n = l
Zatem na mocy lematu Borela-Cantelliego i lematu Kroneckera wystarczy
udowodnić, że szereg
jest zbieżny p.n. Dla p < 1 korzystając
z twierdzenia Fubiniego mamy:
e i £ > -1/p|Yn| = £ > “1/p£
\ n
/
<
n
s? c /
r 1/p£ (|Jri|i{|Xl|<ti/p}) * < C i f I ^ r < oo.
Jo
Dla p = 1 korzystamy z MPWL.
Rozważmy teraz przypadek 1 < p < 2. Na mocy tw. o dwóch szeregach wy­
starczy udowodnić, że są zbieżne szeregi
£ ( n ~ l/ p Y n ) i
V 2 ( n ~ 1/pY n ) .
Ponieważ £ X n = 0, to £ Y n = —£ (X„l{|Xii|>ni /,) ) , zatem
/• oo
^ /
r 1/p£ (|Xi|l{|Xl|>ti / , }) dt ś C£\Xi\p < oo.
Jo
Podobnie
J 2 & f r ~ X/PY*) ś Y s n~2/P £(X 'h \ x i\ ^ /* } ) ^
n
n
ŚC f
t~2/p£ (A-?l{|Xl|łiti / , }) dt s: CiE\Xi\v <
OO.
Jo
15. Wsk. Pata przykład 18.
Odp. a) ^
b) /(| ), c) / ( i ) .
16. Rozw. Oznaczmy K = P(t/ ^ f(Y )/C g (Y )).
P ( X < t) = P(Y ^ t|l7 i= / ( y ) / C ff(y)) =
P(Y ii i, U ś f(Y )/C g (Y )\ Y = y)g(y) dy _
P(U Ą f(Y )/C g (Y ))
I-ooM )'9^ ^ f-°° f(-y)dy
K
KC
Biorąc i —> oo, otrzymujemy K = ^ , a zatem P (X ^ i) =
17. Odp. Tak, weźmy np. g(x) = 1(0,i)(:e), wtedy C =
¿U-
Odpowiedzi i wskazówki
430
18. Rozw. Mamy
■(
f(x
i)
_ y ' /(») . I _ ™
\ m (X i) J
'
Zatem z MPWL
7
¿—i m(i )
n
n'
1=1
/Ui)
Z^i=i m (X i)
-----------------►w
p.n.
19. .Roztu. Mamy
e z x = P ( / ( X 0 > yo = /
J
/
l[o,i](a:)l[o,i](y)<iy<ia:= /
J {/(*)>»}
{/(* )> »}
f(x )d x
-'o
i korzystamy z MPWL.
20. ilozw. Patrz przykład 17.
*21. Rozw. Ponieważ
i X ~ spełniają założenia twierdzenia, to wystarczy je
udowodnić dla X n ^ 0. Niech Yi = X i l S X =
Yi i kn = [an] dla
a > 1.
Wtedy należy kolejno udowodnić, że
_
o* _cg*
i ° E T -i p d
H
> £) ^
< °°-
S*
2 °£ X i = limn -*rŁ p.n. (z lematu Borela-Cantelliego)
3“E ” i p (x n / K ) $ £ X i < oo, więc lim„ % - = f ^ p.n.
4cGdy /(n) jest takie, że &;(„) ^ n < fci(n)+i, to z monotoniczności S„:
—£X\ ij liminf
CK
‘(n) •
Ti
liminf —
n
limsup —
Tl
n
a£Xi
^
i biorąc a —» 1 otrzymujemy tezę.
*22. Wsk. Patrz zad. 9.1.14.
7.5. Twierdzenie Poissona
1. Odp. Można badać proporcje liczby „szóstek” do „piątek”, „czwórek” , etc.
Jeśli na przykład gracze unikają skreślania liczb na brzegu kwadratu, bę­
dziemy mieli do czynienia z wyborem 6 liczb z 22 i proporcje szans otrzyma­
nia obu rodzajów wygranych będą inne niż przy wyborze 6 z 49. Oczywiście
gracze nie zachowują się aż tak prosto, ale podany test działa.
2. Rozw. Zgodnie ze wzorem P (A n B fi C) = P(C\A fi B)P(B\A)P(A) szansa,
że ustalony znak będzie po obu korektach błędny wynosi
0,001 ■0,1 •0,5 = 5 •10-5 = p .
wobec tego liczba błędów ma rozkład zbliżony do rozkładu Poissona z para­
metrem A = np = 5. Szukane prawdopodobieństwo wynosi
A* \
— e“ A = 0,26503 ± 0,00025,
fc=0
fc!
gdzie oszacowanie błędu wynika z twierdzenia 2.
do rozdziału 7
431
3. Rozw. Oznaczmy przez p i r szanse zauważenia błędu przez pierwszego i dru­
giego korektora. Jeśli n oznacza liczbę błędów, to średnio pierwszy korektor
zauważy np błędów, drugi — nr, a błędów zauważonych przez obu będzie
npr. Z zależności
np = 91
nr = 53
npr = 39
wyliczamy p = || ~ 0,74 i r = §| fs 0,43. Zwolnienie z pracy wygląda na
Sami straciliśmy
usprawiedliwione, szczególnie w drugim przypadku.
4. Odp. Niestety, aż log 100 ~ 4,605.
5. Odp. e-1 .
7.6. Twierdzenie de Moivre’a—Laplace’a
Odpowiedzi do zadań podano zgodnie z najprostszą wersją przybliżenia de Moivre’a-Laplace’a, czyli wzorem 7.6(10), bez poprawki z 7.6(9).
1. Wsk. Dowody obu zależności są prawie identyczne. Trzeba uzasadnić za­
mianę kolejności przejść granicznych względem n i b, co można zrobić np.
zauważając, że
P (s ; > a) = P ( & ^ a, 5 ; e i-b , 6]) + P(S*n > a , S l Ź [-6,6]).
Należy teraz wybrać tak duże b, by drugi składnik po prawej stronie był
dostatecznie mały i skorzystać z tw. de Moivre’a-Laplace’a.
2. Odp. Około 1 - $(2,582) = 0,005.
3. Odp. Szansa, że zabraknie miejsc: 2[1 —$(2,83)] = 0,0023. Żeby zredukować
to prawdopodobieństwo do 0,001, należałoby przygotować po 124 miejsca.
4. Odp. Jeśli p jest szansą pokonania Bolka w pojedynczej serii, średnia liczba
serii wynosi l/p. Przybliżenie de Moivre’a-Laplace’a daje p ai 1 —$(5,4) ^
4-10” 8, na mocy oszacowania (2) z § 5.10. Ale oszacowanie (12) z § 7.6 nie jest
zbyt dobre: pokazuje tylko, że błąd przybliżenia nie przekracza 0,1. Można
zatem podejrzewać, że przybliżenie l/p na tej podstawie będzie obarczone
dużym błędem. Z kolei nierówność Bernsteina 7.4.2 daje p ^ 0,162. Pozosta­
wiamy Czytelnikowi zastosowanie nierówności Bernsteina 7.6.4.
5. Odp. Tw. de Moivre’a-Laplace’a daje dla n = 10 ok. 1 — $(0,63) = 0,264;
dla n = 100: ok. 1 - $(2) = 0,023; dla n = 1000: ok. 1 - $(6,32), co jest
praktycznie zerem.
6. Rozw. a) Szansa, że dany użytkownik w danej chwili chce skorzystać z poczty
wynosi p = 9/1440 = 1/160. Liczba takich użytkowników jest zmienną losową.
X o rozkładzie (z grubsza) Poissona z parametrem A = np = 320/160 = 2.
Należy teraz wyznaczyć (metodą prób i błędów) najmniejsze takie fc, żeby
P (X < fc) 0,95. Jest to fc = 5.
szansę ustalenia,
ile naprawdę
błędów zawierało
pierwsze wydanie,
bo nie
skorzystaliśmy
z tej recepty.
Odpowiedzi i wskazówki
432
b) Ma być P(Sn < k) > 0,95, gdzie Sn ma rozkład Bernoulliego z par.
n = 320, p = 1/160. Ponieważ $(1,65) = 0,95, powinno być
k ~—nP
^ 1,65,
- ^
y/npg
skąd k ^ 4,33 i należy przyjąć k = 5.
7. Ąozu). a) Jeśli X oznacza liczbę dzwoniących w danej chwili, to ma być
P (X ^ 2) = §. Zakładamy, że X ma (w przybliżeniu) rozkład Pois(A),
zatem
i + A + y = |e\
Rozwiązanie najszybciej znajduje się metodą prób i błędów: A « 1,7273.
Zatem każdy korzysta z połączenia średnio przez 1440p = 1440(A/n) = 12,44
minuty dziennie.
b) Ponieważ $(0,68) = 0,75, podobnie jak w rozwiązaniu poprzedniego za­
dania mamy
^ = 0 ,6 8 ,
y/npq
przy czym k = 2; rozwiązując równanie kwadratowe otrzymujemy p = 0,0062
i p = 0,01604; ten ostatni pierwiastek daje średni czas korzystania z połą­
czenia ok. 23 minuty na dobę. Dokładność jest problematyczna.
8. Odp. Przy standardowych oznaczeniach ze schematu Bernoulliego: wiemy,
że p ^ 0,005, naszym oszacowaniem ułamka chorych będzie Sn/n, powinno
zatem być
p
( 1 ~ - p | <0, 001) >0,95.
Po przekształceniach otrzymujemy
- np
y/ńpą
Ponieważ $(1,96) = 0,975 (wtedy bowiem $(1,96) —$ ( —1,96) = 0,95), liczba
n powinna spełniać warunek
y /n > 1,96 •1000i/pę.
Ale p Ą 0,005, zatem iloczyn p(l -p ) jest największy dla p = 0,005. Ostatecz­
nie n ^ 19112. Gdybyśmy nie mieli dodatkowej informacji o p, trzeba by było
skorzystać z nierówności p(l —p ) ^ j , 0 ^ p ^ l , co znacznie pogorszyłoby
oszacowanie liczby n.
9. Wsk. Zastosować metodę z poprzedniego zadania.
10. Rozw. Niech £, będzie zmienną losową, przyjmującą wartość 1, gdy i-ty no­
worodek jest chłopcem, i 0 w przeciwnym razie. Wtedy
P(5. + •■.+ £ . ™ > « 5000) - F ( S- f 9;8 7 1;0 « - | ś ) =•
= 0,0004.
=
433
do rozdziału 8
Przybliżenie de Moivre’a-Laplace’a daje wartość praktycznie równą zeru.
Oczywiście nie wiemy na razie nic o błędzie przybliżenia, ale zastosowanie
jednego ze znanych oszacowań (nierówność Bernsteina, tw. Berry-Esseena)
prowadzi do wniosku, że szukane prawdopodobieństwo jest małe.
W wielu zadaniach przyjmuje się, że prawdopodobieństwo urodzenia chłopca
wynosi 1/2 i nie popełnia się wielkiego błędu, jeśli tylko liczba „prób” jest
niewielka. Ale nie tu. Gdyby szansa urodzenia chłopca była równa dokładnie
1/2, prawdopodobieństwo, że urodzi się nie więcej chłopców niż dziewcząt
byłoby bliskie 1/2, a nie zeru. Jak widać, czasem dokładne określenie praw­
dopodobieństwa zdarzenia jest istotne.
8. Zbieżność rozkładów
8.1. Przykłady i definicja
1. Rozw. Dowód nie wprost: gdyby dla pewnej funkcji / ciągłej i ograniczonej
na E istniał taki podciąg nk, że infit |£ f ( X nk) —£f(X )\ > 0, to ponieważ
X , można by było wybrać z niego podciąg nkl, taki że X nil[ — * X
(patrz tw. 5.9.8). Stosując twierdzenie Lebesgue’ao zbieżności zmajoryzowanej otrzymujemy sprzeczność.
X nk
2. Wsk. Wykorzystać fakt, że istnieją różne zmienne losowe o tym samym roz­
kładzie.
3. Rozw. Jeśli zdefiniujemy funkcję f(x) =
q(x
,
c)
A 1, to
£ [e(X„, c) A 1]------ >£ [g(c, c)Al] = 0,
n —» c o '
, jeśli 0 < e < 1, co nie zmniejsza ogólności, mamy:
P(g(Xn, c) > e) < P (e(X n, c) A 1 > e A 1) =
=
P (e(X n ,c)
A!>£)<•
£ [g( X „ , c ) Al } ____ , n
czyli X n - ^ X .
4. Rozw. Weźmy / ciągłą i ograniczoną na E , wtedy h(x) = / (ax + 6) jest także
ciągła i ograniczona, wobec tego
£ f(a X n + b ) = £h(Xn) -> £h (X ) = £ f ( a X + b).
5. Wsk. Wykorzystać funkcje g-n.(x) = 1 + cos2irnx.
6. Rozw. Konieczność — patrz rozw. zad. 9b.
Dostateczność: należy rozumować tak, jak w przykładzie 4 i zauważyć, że dla
ustalonych e > 0 i m i dostatecznie dużych n sumy Y^k=i Pk * Sfc=i Pn<k
większe od 1 —e, więc odpowiednie „ogony” nie przekraczają e.
7. Rozw. Dla dowolnego A:
|V[A) - un(A )|
/ |/ - / „ |dp < / |/ - fn\dnJa
Jn
Odpowiedzi i wskazówki
434
Niech gn = / - / « ■ Wtedy g t -> 0 fi-p.n., 0 < g t < / , / jest całkowalna, więc
Jn d
i >0 z tw- Lebesgue’a. Ponadto / n 3+ cfyi - Jn g~dji = Jn gnd/j, = 0.
Dlatego
/ |s„|d/ii= /
/ g~d/j, = 2 / ę/Jd/i ^ 0.
Jn
8 . Wsi:. Zastosować tw. Scheffe’go dla miary Lebesgue’a.
9. Wsk. a) Zastosować tw. Scheffe’go do miary liczącej ¡j, lub przeformułować
argument z zadania 8; b) dla punktu xo wziąć takie jego otoczenie o promie­
niu e, w którym nie ma innych punktów zbioru S i rozpatrzyć całki z funkcji
f ( x ) = (p(^g(x,xo)), gdzie ip jest zdefiniowana wzorem 8.1(2).
10. Wsk. -i= spełnione są założenia przykładu 6, => nie wprost.
11. R ozuj. a) Weźmy dowolne u > 0. Niech f ( x ) = <p(u — |x|), gdzie funkcja ip
jest zdefiniowana wzorem 8.1(2). Wtedy
limsupP(|Xt| > u) < lim£ f ( X n) = £ f ( X ) < -PG^I > u — 1) —> 0,
n
gdy u —>bo.
b) Wystarczy wziąć f ( x ) = <p(u—||x||), gdzie ||-|| oznacza normę euklidesową
w R n.
12. Rachunki z przykładu A .2.2 pokazują, że X n ma gęstość
On - (1 - x 2)(n~ 1) /2l [ _ M 1(x).
Wobec tego
(
x 2 \ (" _1)/2
1
i zastosowanie wyniku zad. 8 kończy dowód.
Jeśli rozkłady jednostajne na kuli zastąpimy rozkładami jednostajnymi na
sferze, wynik będzie ten sam. Można przeprowadzić rachunki analogiczne do
pokazanych wyżej, można też skorzystać z faktu, że dla dużych n praktycznie
cała objętość kuli n-wymiarowej jest skupiona blisko jej'powierzchni.
8.2. C h arak teryzacje sła b ej zbieżności rozk ładów
1. Wsk. Patrz przykład 8.1.1.
2. Rozw. Pokażemy, że zachodzi warunek (ii) twierdzenia 1. Weźmy funkcję
jednostajnie ciągłą / , ograniczoną przez M. Na mocy jednostajnej ciągłości
dla dowolnego e > 0 istnieje 5 > 0 taka, że jeśli |x—y\ < S to \f(x)—f(y)\ < e.
Wtedy
I £ f ( X n + Yn) - £ f ( X n ) \ ^ sP(\f(Xn + Yn) - f (Xn) |< s) +
+ 2MP(\f(Xn + Y n)~ f ( X n ) \ ^ e ) ^
^ £ + 2MP(\Yn\ ź 5).
PCKnl > ¿) -------> 0, jako że Yn
n—»cc
0 (zad. 8.1.3). Ponieważ X n
mamy:
lim £ /(X „ + Yn) = lim £ f ( X n) = £ f ( X ) ,
X,
do rozdziału 8
435
3. Wsk. Z zadania 8.1.4 X n + c
X + c, Yn — c
0 i teza wynika z zad. 2.
4. Wsk. Można np. skorzystać z tego, że istnieją różne zmienne losowe o tym
samym rozkładzie.
5. Rozw. P(\XnYn\> e) < P(\Xn\> A) + P(\Yn\> e/A ) dla dowolnego A.
6. Rozw. X nY„ = X n(Yn - a) + aXn.
7. Wsk. Niech g(x) = f(x) — /(O) - f'(0)x. Wtedy
X n(f(Y„) -
/(O)) =
f'(0 )X nYn + X ng(Yn).
*8. Wsk. Udowodnić, że spełniony jest warunek (iv ) twierdzenia 1. Niech G
będzie zbiorem otwartym w F . Wtedy
/i_1(G) nAcInt (|J O hk l (G))m k^m
9. Rozw. Oznaczmy p = 1 —q. Skorzystamy z poprzedniego zadania o owadzie
(4.1.11) i z faktu, że splot rozkładów Poissona jest rozkładem Poissona z pa­
rametrem równym sumie wyjściowych parametrów, czyli Pois(a) * Pois(6) =
= Pois(a + b), otrzymujemy rozkłady liczebności jaj w kolejnych krokach:
• Pois(a),
• Pois(ap) * Pois(a), czyli Pois(a(l +p)),
• Pois(a(l + p)p) * Pois(a), czyli Pois(a(l + p + p2)), etc.
Rozkładem granicznym jest Pois(o/l —p) = Pois(a/q). Żeby to zobaczyć,
trzeba udowodnić, że jeśli an —» a, to Pois(a„)
Pois(a). Można to zrobić
korzystając z wyników tego rozdziału, ale najwygodniej jest użyć funkcji
charakterystycznych.
8.3. Zbieżność rozkładów a zbieżność dystrybuant
1. Rozw. Niech Yn = X n + (a — an). Wtedy Yn — y X (zad. 8.2.2) i
P {X n sCan) = P(Yn s: a) -> P (X ^ a).
Można też skorzystać z zadania 8.2.5.
2. Wsk. Niech e = l / m i niech F(a,k) = k/m , k = 1,2, .. . m —1. Dla dostatecz­
nie dużych n wszystkie liczby |F„(ofc) —jF(ajb)| są mniejsze niż e. Wystarczy
teraz skorzystać z monotoniczności, żeby otrzymać odpowiednie oszacowanie
na całej prostej.
3. Wsk. Jeśli d(Fn, F) —>0 i x jest punktem ciągłości F , wybieramy e > 0, dła
którego F(x) —F(x —e) < e i F(x + e) —F(x) < e. Dla dostatecznie dużych
n mamy
F(x —e ) — e < Fn(x) < F (x + e ) + e.
Dowód twierdzenia odwrotnego można uzyskać adaptując dowód tw. 1
Niezłym kandydatem na przeliczalny zbiór gęsty jest zbiór miar postaci
Y ^aił>wi, gdzie sumy są skończone, a liczby uj; i a, — wymierne.
Odpowiedzi i wskazówki
436
4. Pfofc. Jeśli fi i ^ są rozkładami prawdopodobieństwa na (^,B(£?)), to defi­
niujemy
d(n,v) = mf{e:V.FC.ElF domknięty /i(i?) < v(Fe) + e, J'(-F’) $ fi{Fc) + e}.
Ustalmy e > 0. Jeśli d(//„,/u) —» 0, to dla dostatecznie dużych n mamy
fin(F) < fi(Fs) + e. Wystarczy teraz wziąć granicę górną obu stron i e —t 0.
sł
Jeśli z kolei ¡j,n — ►fJ. i F jest domknięty, to lim sup//„ (F) <
przy ustalonym e > 0 dla dostatecznie dużych n
F), zatem
fin(F) < n(F) + e 4 n(Fe) + e.
Mamy też liminf fin(Fe) ^ ¿¿(Pe), czyli dla dost, dużych n jest nn(Fe) >
> jjt(FE) - e, skąd
fi{F) < /i(Fe) < fJ.n(Fe) + e.
Przeliczalny zbiór gęsty w metryce d można otrzymać, wybierając przeli­
czalny zbiór gęsty S C B i rozpatrując takie miary probabilistyczne fi o no­
śnikach skończonych, zawartych w 5 , że /¿({a}) € Q dla a € S .
Nie zaszkodzi
przypomnieć
sobie, że
w ^ F(sc)
X(w) ^
5. Rozw. Wykorzystamy konstrukcję uogólnionej funkcji odwrotnej do dystrybuanty (zad. 5.2.2): niech X ,X i ,X 2 , ■■■ będą takimi funkcjami dla dystrybuant F, F\, Fz,... miar
— Wykażemy, że X n(oj) —>X(w), jeśli w
jest punktem ciągłości X .
Ustalmy u e (0,1). Niech £ > 0. Wybierzmy takie x, żeby /t/({z}) = 0
i X(w) — £ < x < X(u>). Wtedy F(x) < u> i ze zbieżności Fn(x) do F(x)
wynika, że dla dostatecznie dużych n mamy Fn{x) < w, a stąd X(cu) —e <
< x < X n(u>). Zatem liminfX„(w) > X(w).
Niech a; < oj', e > 0. Wybieramy u, dla którego X(u') < u < X (o/) +
+ £ i ¿¿({u}) = 0. Mamy uj < w' < F(X(ui')) SJ F(u), wobec tego u ^
< Fn(u) dla dostatecznie dużych n, a stąd X n{u>) Ą u $ X(ui') + £. Dlatego
limsup X„(oj) < X ( cj), jeśli X jest ciągła w punkcie u.
Wystarczy teraz zauważyć, że X ma zbiór punktów nieciągłości co najwyżej
przeliczalny i położyć na nim X = X n = 0. Nie zmienia to rozkładu zmien­
nych losowych X , X i, X 2 , ..., a daje zbieżność ciągu (X n) do X na całym
przedziale (0 , 1 ).
6
. Wsk. Zastosować lemat Fatou i wynik z poprzedniego zadania.
7. Wsk. Skorzystać z twierdzenia Skorochoda (zad. 5) i zad. 6 .
8
. Rozw. P(|Xn| > e) < £~2 supn £ X „ , zatem ciąg (X„) jest jędrny i dowolny
podciąg zawiera podciąg (Xnk ) słabo zbieżny, powiedzmy do Y . Wtedy (zad.
7) £Xnk dąży do £ Y T, r = 1 ,2 ,..., bo dla każdego r X£ są jednostajnie
całkowalne (zad. 5.9.16). Ale £Xnk —> £ X r, więc £ X r = EYT i z założenia
X~Y.
'
9. Rozw. \Xn\p są jednostajnie całkowalne (por. zad. 5.9.16), \Xn\p
\X\P,
X % -2-> X p (z tw. 8.2.4) i skorzystać z zadania 7.
10. Wsk. Oto ogólna wskazówka: należy naśladować dowody dla przypadku rze­
czywistego, odpowiednio interpretując oznaczenia. Zamiast przedziałów na­
leży rozważać ich k-wymiarowe odpowiedniki, tj. zbiory postaci
(0 1 , 61] x . . . x [ak,bk].
437
do rozdziału 9
Relacja mniejszości „tłumaczy” się następująco: jeśli u = (u\,.. - Uk),v =
= (vi,... Vk), to u < v oznacza, że u; < Vi, i = 1 , 2 , . . . k.
*11.
Wsk. Przestrzeń metryczna, ośrodkowa i zupełna da się zanurzyć homeomorficznie w R°°.
12. Rozw. Dla t > 0 mamy:
*V» (i) = P(Xn ś t) = 1 - P(min(X1, . . . , X n) > t/n) =
zatem ciąg (K„) jest zbieżny według rozkładu do zmiennej losowej o rozkła­
dzie wykładniczym.
9. Funkcje charakterystyczne
9.1. Definicja i przykłady
1. Rozw. b) Mamy U = cos t X + i sin tX ,£ U = £ cos tX + i£ sin tX . Korzystając
z analogicznego związku dla V i Y i niezależności par zmiennych losowych
cos tX i cos tY oraz sin tX i sin tY otrzymujemy
£U V =
= £ (cos tX cos tY —sin tX sin ty) + i£ (cos tX sin tY —sin tX cos tY ) =
= £ co stX £ c o stY - f sin tX £ sin tY + i(£ c o s tX £ siniF —£ sm tX £ costY)
= £ U£V.
2. Rozw. a) £eitXY = £ {£ (eitXY |Y )) =
(skorzystaliśmy
tu z faktu, że £exx* = ^ 5 = 5 5 dla A < §, i z tego, że £ (f { X , Y ) |Y = t) =
£ f( X , t) dla niezależnych X i Y; patrz zad. 6.3.6).
b) -^===. Pojawia się oczywiście problem, który pierwiastek z liczby zespo­
lonej wybrać. Wiemy, że funkcja charakterystyczna jest ciągła i przyjmuje
w zerze wartość 1. Obie te własności zostaną zachowane, gdy wybierzemy
pierwiastek o dodatniej części rzeczywistej (por. zad. 13.4.2). Formalne uza­
sadnienie takiego wyboru uzyskamy, gdy uogólnimy wzór wykorzystany w a)
na zespolone wartości A. W tym celu wystarczy udowodnić, że
f
Jo
y/u
2
jeśli Re« > 0 i y/u oznacza taką liczbę zespoloną w, że w2 = u i Rew > 0.
Niech u =
e 2ts
(co nie zmniejsza ogólności).
438
Odpowiedzi i wskazówki
Parametryzacje Fs i IV.
r s ,Ts(i) = (R —i)eis,7Ś (i) = —eis;
73: [0, ii] -
72: [0 , s] -> r 2 , 7 2 (i) = Re%t,^'2(t) =
Wtedy f r e~z dz = 0 = f r^ e~z dz+Jr^ e~*2 d z + fr e-
f
f
^
e~*2 dz — — f
3
dz. Jeśli R —> 0 0 ,
f e ^ dx = f ;
io
Jri
Jr
*2
~ /Jo v
Jo
[
= -V E
e~
I
dt-
ul
Jo
Jo
“ *2 e2<y s * =
e ut dt;
Natomiast
e~‘ 2 dz si f
i
Jr2
"o
[e-R2e2,t ■Rieił\dt = R f le -*2^
Jo
2^
1" 21)! dt =
R / e~
Jo
ponieważ 0 < s < J, więc cos 2 1 > cos 2 s > 5 >
do zera, gdy R —» 0 0 .
/ 0°° e * dx = y/u-
Ostatecznie
0,
i ostatnia całka zmierza
e~ut^dt.
c) Wystarczy obliczyć następującą całkę, stosując podstawienie biegunowe:
£e
¡tx/r
= Ł j I eitX/ye~^dxdy =
1/ —
-OOO
O
«/
•/ — C
OO
-UT"
p 2 7C
/»OO
e «
C tg
re “5" drdip =
i t C tg
i
Z-00
eiiu J
_ ^ J-Oo 1+
“2
=
do rozdziału 9
439
Otrzymaliśmy funkcję charakterystyczną rozkładu Cauchy’ego (równą e ^
— por. dodatek D).
d) Rozkład tej zmiennej losowej jest taki sam, jak w a), ponieważ wektory
losowe (X ,Y ) i
, X^ f ) mają ten sam rozkład. Wynika to z niezmienniczości gęstości gaussowskiej ze względu na obroty (zad. 5.6.6).
e) z a) i tw. 9 wynika, że funkcją charakterystyczną jest
— dwustronny wykładniczy (por. tabela 2 ).
a rozkładem
/ . \ n/ 2
3. Odp. pY(t) = ( i i j
•
5. Rozw. (i)=^ (iii). Z (i) wynika, że / ^ ( l — cossx)fi(dx) = 0, a ponieważ
1 —cos sx > 0 , miara fi musi być skoncentrowana tam, gdzie 1 —cos sx = 0 ,
czyli sx = 2irk, gdzie k jest całkowite. To daje (iii).
(iii)=> (ii). Jeśli zachodzi (iii), to ip(t) = ^ p „ e 2' mí’, , , czyli ma okres s.
(ii)=$> (i). TVywialne.
6
. Wsk. Jeśli |v>(s)| = 1, to dla pewnego b mamy ¡p(t) = e“ 6 i można zastosować
twierdzenie z zadania 5 do funkcji charakterystycznej ip(t)e~lłb.
7. Wsk. do a) Sposób I. Różniczkując pod znakiem całki i całkując przez części
otrzymujemy ip'(t) = —t<p(t)\ ponieważ <^(0 ) = 1 , to logtp(t) = —\t2.
Sposób II. Wykazać (indukcyjnie lub za pomocą funkcji gamma), że moment
rzędu 2n rozkładu Af(0,1) jest równy (2n — 1)!! = 1 •3 • . .. ■ (2n - 1), a
następnie skorzystać z tego, że £e,tX = J^kLo
■
Odp. do b) e ^ - i " 2*2.
8
. Odp. Wystarczą dwie niezależne zmienne losowe X i Y o rozkładzie Cau­
chy’ego. Wtedy 2X ~ X + Y.
9. Wsk. Wszystkie te funkcje są funkcjami charakterystycznymi. Odpowiednie
rozkłady można wyznaczyć przedstawiając funkcje w postaci sum ^]pte“ Łl10. Wsk. Jeśli fii, ..., ß„ są wyjściowymi rozkładami, wystarczy rozważyć roz­
kład prawdopodobieństwa pißi + . . . + pnßn11. Odp.
12.
Odp. a) Tak, jest to f.ch. fi* fi\
b) Tak, wystarczy wykorzystać wynik zad. 10 i to, że Rßz = |(z + ź).
A bardziej poglądowo: wyobraźmy sobie „maszynkę do losowania” złożoną
z symetrycznej monety i zmiennych losowych X i —X . Rzucamy monetą
i jeśli wypadnie orzeł, wybieramy X , w przeciwnym razie wybieramy —X.
Czytelnik zechce opisać otrzymany rozkład.
c) Tak, jeśli Xi i X 2 są dwiema niezależnymi zmiennymi losowymi o rozkła­
dzie fi, to \tp\2 jest funkcją charakterystyczną X i —Xid) Niekoniecznie. Jak się wydaje, wystarczy wzięcie pierwszej z brzegu funk­
cji charakterystycznej. Prosty dowód otrzymujemy na przykład w takiej sy­
tuacji: niech P (X = 0) =
P(X = 1) = |. Wtedy 1px(t) = § + |eli.
Przypuśćmy teraz, że |ipx (t) |= ¡fiy (i). Wtedy
ip\(t) = <px (t)ipx(-t) = ipx (t)ip-x(t).
Z wyjątkiem
symetrycznej
stabilnej (def.
9.2.6). Chodzi
o to, by
\‘Px\
#
‘f ix -
O dpowiedzi i wskazówki
440
Stąd, oznaczając przez Yi, Y2 (odp. X i, ^ 2 ) niezależne kopie zmiennej loso­
wej Y (odp. X ) otrzymujemy
Yi + Y2 ~ X i —X 2 .
Rozkład X i —X 2 jest skupiony na zbiorze { —1 ,0 , 1 }, skąd wynika, że rozkład
Yi musi być skupiony na zbiorze { —|, 5i }}.. Niech a = P(Yi = §)
|), i = 1,2.
Wtedy
P (Y i +
P(Yi +
y 2 =
y 2
1) =
a* =
P (X i
-
X 2 =
1) =
= -1 ) = (1 - a) 2 = P(Xi - X 2 = - 1 ) = | .
Stąd a2 = (1 — a)2, czyli a = i , a jednocześnie a2 = |. Otrzymana sprzecz­
ność dowodzi, źe zmienna losowa Y o postulowanych własnościach nie ist­
nieje.
13. Odp. Załóżmy, że istnieje pochodna <p('2\ 0). Mamy
(2 )
V
,•
(0) =
<p(h) - 2ip(0) + <p(-h)
f°° eihx - 2 + e~ihx
fJ ,
-------------- V -------------- = I“ oJ■/ —OO-------- — >---------- » “ W =
= - 2 l™0 /
--r g-S - ^ W
.
\/ —00
Z drugiej strony, z lematu Fatou otrzymujemy
f
x2nx{dx) =
2
f
J —00
lim -—
hxnx (dx) $
— OO
< 2 Iiminf i
-— ~
— nx (dx) = —<^(2>(0),
— OO
czyli £ X 2 <
00.
14. Odp. Wartość oczekiwana nie istnieje. Wykażemy istnienie pochodnej funkcji
charakterystycznej ip w zerze. Ponieważ |1 —cosx| < min(x2 ,2), to
/
<
2
OO
(cos hx — l)f(x)dx\ <
p2/h
p2/h
/
(xh)2f(x)dx +
Jo
2
•OO
foo
/
2 f(x)dx = h + h .
J2/I1
Teraz dla 0 < h < 2/e
/>e
-
/*2 / h
Ii $; 2 /i2 / x2 /(x)dx + h •2C-§- /
Jo
fc Je
r
<
9
r
1
c / i
log(2 //i) J2/fc x2
A ponieważ
1
r
dx
log(2 /fo)'
,
r ^ -,
do rozdziału 9
441
to
lim Mft) ~ I1 = o
h—*0
h
więc ip'(0 ) =
0.
15. Rozw. (px(t) = ^ ssZe'i'sP (X = s). Mnożymy obie strony przez e~*kt/2n
i całkujemy na przedziale [—ir,ir]. Teza wynika z faktu, że (e~lfcl)t jest ukła­
dem ortonormałnym na przedziale [—7r,7r] z miarą A/2ir, gdzie A oznacza
miarę Lebesgue’a.
16. Rozw. Niech / będzie gęstością rozkładu X . Dla e > 0 istnieje funkcja
schodkowa h =
otkl(ak,bk] taka, że J^°oa\f(x) - h(x)\dx < e. Wtedy
I<Px(t) —
h(x)e%txdx\ < e, a ponieważ
/
h(x)eltxdx
1
I J —C
£ dk~
__
p£i«fc
it
gdy |i| —>oo, to \ipx{t)\ < 2 e dla dużych |t|.
9.2. Twierdzenie Levy’ego—Cramera o ciągłości
1. Wsk. Skorzystać z tw. 3.
2. Wsk. Skorzystać z poprzedniej wskazówki i jędrności ciągu (Xn) lub zad.
8.3.5.
3. Rozw.
lP X „ + Y n { t )
=
PYn ( t )
—►<PXo(t)<PYo(t) = ¥>Xo+ K0(i),
w równościach korzystaliśmy z niezależności.
Bez niezależności twierdzenie nie jest prawdziwe (zad. 8.2.4). Gdyby było,
oznaczałoby to w szczególności, że X ~ Xo i Y ~ Vo pociąga za sobą iden­
tyczność rozkładów zmiennych losowych X + Y i Xo + Vo•Tak nie jest: niech
na przykład (X, Y) ma rozkład jednostajny na kwadracie jednostkowym, a
(Xo, Yo) — rozkład jednostajny na jego przekątnej.
4. Rozw. <pxn(t) —>0 dla każdego t / 0.
f5. Jeśli a £ (0, f), rozkład jest osobliwy. Dla a 6 (|, 1) zmienna losowa X a
może nie mieć rozkładu ciągłego, ale dla prawie wszystkich a z tego prze­ Byliśmy
przekonani, że jest
działu rozkład jest ciągły.
to problem Haara!
Problem ten został rozwiązany przez specjalistę od układów dynamicznych,
Borisa Solomyaka2.
2W: On the random series ±A* (an Erdos problem), Annals of Math., 142 (1995), ss.
611-625. Prostszy dowód: Y. Peres, B. S., Absolute continuity of Bernoulli convolutions,
a simple proof, Math. Res. Letters 3 (1996), ss. 231-239. Uogólnienie w: Duke Math. J.
102 (2000), ss. 193-251. Artykuł przeglądowy: Y. Peres, W. Schlag, B. S., Sixty years of
Bernoulli convolutions, fractals and Stochastics II, Progress in Probability 46, ss. 39-65,
Birkhauser, 2000.
Odpowiedzi i wskazówki
442
Od dość dawna3 była znana charakteryzacja zbioru S tych a, dla których
funkcja charakterystyczna X a zmierza do zera w nieskończoności (w świetle
tw. Riemanna-Lebesgue’a (zad. 9.1.16) jest to warunek konieczny na cią­
głość rozkładu). Mianowicie, a € S wtedy i tylko wtedy, gdy l / a jest liczbą
algebraiczną całkowitą, której sprzężone (oprócz niej samej) mają moduł
mniejszy od jedności.
6 .
Rozw. X = Y i + Y-i + . . . 4 - Y n, gdzie Y i są niezależnymi zmiennymi losowymi
o rozkładzie geometrycznym. Stąd
<P2 x P(t) = <px(2pt) = ( r _ ^
l )e2pity
-
(1 - 2i i ) - " ,
gdy p —» 0 , a więc 2 X p zmierza do zmiennej losowej o rozkładzie gamma.
*7. Wsk. Niech (t/„) będzie ciągiem Bernoulliego. Gdy X =
, to
^ ( i ) = ( n “ ic °s ^ K at
* 8 . Rozw. Dla pewnego a > 0 mamy £ea ( y + z ) 2 < oo, więc z twierdzenia Fubiniego wynika, że dla pewnego c € R jest £e“(y+c) < oo, zatem funkcja
charakterystyczna zmiennej losowej Y + c na mocy lematu 9.2.4 jest całko­
wita. To samo odnosi się do Y, więc i do Z. Ponieważ tpYVz = ‘p x, funkcje
charakterystyczne zmiennych losowych y i Z nie mają zer, a zatem obie te
zmienne losowe mają rozkłady normalne.
9. Rozw. Mamy
2
1
+ e*2 '
+ e- *
1
2
2
~ e
'
Przypuśćmy, że <j>jest funkcją charakterystyczną. Drugi czynnik iloczynu po
lewej jest także f. ch., a to oznacza, że f. ch. rozkładu normalnego rozkłada się
na iloczyn niegaussowskich funkcji charakterystycznych, co jest niemożliwe
na mocy zad. 8 .
10. Wsk. (p"(0) = 0. Jaka jest wariancja odpowiedniej zmiennej losowej?
11.
Wsk. Z tabeli 2, §9.1, wiadomo, że funkcja <pa(t) = a- 1 (l-| x | /a )-l[_a,0](a:),
gdzie a > 0 , jest funkcją charakterystyczną i spełnia warunki zadania (jej
wykres ma kształt trójkąta). Wykazać, że każda funkcja spełniająca warunki
zadania jest postaci
P l f ai (t)+ ...+ P n < P a n(t),
gdzie pi > 0, i — 1 ,2 ,... ,n, J^pi = 1.
12. Wsk. Każda taka funkcja jest granicą funkcji charakterystycznych z poprzed­
niego zadania.
13. Odp.
Vi(t) = {
^
dla V J i , " 2’ ’
W ® = ^ ~ W)1 !—M]W-
3J.-P. Kahane, R. Salem, Sur la convolution d ’une infinité de distributions de B er­
noulli. Colloquium Math. 6 (1958), ss. 193-202, R. Salem, Sets o f uniqueness and sets
o f multiplicity, Trans. Amer. Math. Soc. 54 (1943), ss. 218-228.
443
do rozdziału 9
14. Odp. Niech ip oznacza funkcję charakterystyczną siły grawitacji pochodzącej
od pojedynczej gwiazdy. Wtedy
tr
. .
tr , ,
cos r-nrrr + *sm .
, |dr ■
= — / cosir_#Jdr = 1 + — / (cos tr_/3 — l)dr =
n Jo
n Jo
cos tu — 1
= i + -~ r
n/3 L -g M1+1//3
Podstawiając v — |i|u otrzymujemy
cos v — 1
«i+i/P
cos v — 1
„1+1//3
dv
Pierwsza całka jest zbieżna, gdy 1//? > 0 (co gwarantuje zbieżność w nie­
skończoności) i gdy 1//3 < 2 (istotnie, w otoczeniu zera cos« — 1 = 0 (v 2),
musi więc być 2 — (1 + 1//?) > —1, czyli 1//3 < 2).
Z powyższego wynika, że gdy 0 < 1//3 < 2, druga całka zmierza do zera, gdy
n -t o o . Niech C(/3) = | / “ ^rrTjrdu. Wtedy
¥>(*)
Ostatecznie, funkcja charakterystyczna (pn siły grawitacji pochodzącej od n
gwiazd da się zapisać jako
V>n(t) =
1+
n
— +o( i
\n
Wystarczy teraz zmienić parametr skali i skorzystać z twierdzenia Levy’ego,
by zobaczyć, że
jest funkcją charakterystyczną dla 0 < a < 2 .
15. Odp. Ponieważ <px(t) = 1 + o(i),
IPX i + . . . + X n ( i ) =
1.
l+ o
Rozkład graniczny jest zatem skupiony w zerze, a z zad. 8.1.3 wynika, że ma
miejsce również zbieżność według prawdopodobieństwa.
16. Odp. Ponieważ y?x(i) = 1 — ^ + o(i2),
<px 1+...+xT1 (i) =
,
r
/ r
1 — o ----Hol —
2n
—i
/2
\n
Rozkładem granicznym jest jV (0,1).
17. Wsi:. Rozważyć zmienne losowe X n = ([/„ —p)/y/pg, gdzie U„ jest liczbą
sukcesów w ra-tym doświadczeniu.
Odpowiedzi i wskazówki
444
9.3. T w ierdzenie B och n era i w zory na od w rócen ie
1.
Rozw. Z tożsamości Parsevala zastosowanej do pary rozkładów
U(—a,a)
i ich funkcji charakterystycznych: <p i x) = sin ax/ax (dla x = 0 oczywiście
ip(0) = 1 ) otrzymujemy
f
1
—ics / \j
sin(a(a;
f
c)) ,
.
Funkcja podcałkowa po prawej stronie jest ograniczona co do modułu przez
1 i gdy a —> oo, zmierza do zera dla x ^ c. Żeby zakończyć dowód, wystarczy
zastosować twierdzenie Lebesgue’a o zbieżności zmajoryzowanej.
2.
Rozw. Na mocy zadania 1 szukaną granicą jest atom w zerze symetryzacji
rozkładu ¡i (jest to °(i = fj, * /i, gdzie p.(A) = fi(—A), A 6 B(R)). Wystarczy
teraz zauważyć, że jeśli ma atomy cj, C2 , ..., to °// ma w zerze atom o masie
Y2k <?k- W szczególności, dla rozkładu bezatomowego szukana granica jest
równa zeru.
3. Rozw. Patrz zad. 2.
f4. Wsk. Można skorzystać z dodatniej określoności funkcji min(a:, y ) (por. z f.
kowariancji procesu Wienera, rozdz. 13).
9.4. Wielowymiarowe funkcje charakterystyczne
1. Rozw. Zmienne losowe X , Y są ograniczone, więc z nierówności A .1.1 wynika,
że <px(t) =
o ^ % -£ X k (to samo zachodzi dla Y). Ponieważ £ X k£ Y l —
= £ (X kY l), k ,l e N, mamy:
W szystkie szeregi
są bezwzględnie
zbieżne, więc
sumy podw ójne
m ają sens i można
zmieniać kolejność
sumowania.
W istocie
korzystamy z
wersji tw.
Fubiniego.
wx,n«,.) - £( W
”) -
£(£
■t l¥ ^ -
\fc -o
=£i\k,lt
=0
_
^
fc,i=0
i=o
/
y
<xV>=
fc,i= 0
^
^
/=0
fo )ł£ r ł
^
= vx(t)v>y(s),
zatem X i K są niezależne. Możliwe jest uogólnienie tego twierdzenia, por.
tw. E .l.l, uw. E.1.4 i dowód tw. E.1.7.
*2. Rozw. Ponieważ Nt — Ns = N((s,t]), to ze stwierdzenia 5 wynika nieza­
leżność przyrostów procesu Poissona i to, że Nt — N3 ma rozkład Poissona
z parametrem A(i — s).
Dowód stwierdzenia 5. Ponieważ
do rozdziału 9
445
to stosując lemat 4 do funkcji hj(u) = ets^ Bj(u\ otrzymujemy
-1 )
£ e isj N ( Bj ) —
Iloczyn hi ■h? ■... ■hn też spełnia założenia lematu, a ponieważ
h\ •h%• ... •hn — 1 — (h\ — 1 ) -t-. . . -ł- (hn ~ 1 ))
to
£ e*nW (Bi)+iS2AT(B2)+...iSl,W(B„))
=n
i=1
i twierdzenie
2
daje tezę. ■
Dowód lematu 4. Ponieważ Sk -> oo p.n. (patrz zad. 7.3.2), to h(Sk) = 1 dla
wszystkich k od pewnego miejsca, więc Y jest dobrze określone oraz \Y\ ^ 1.
Wystarczy udowodnić, że
lim £ U
Tl—*-00
W
=
/0°°W«)-!)**
Otóż
= i h(xi)h{xi + x 2) ■■■. •h(xi + ... + s„)Ane x(-xl+" +Xn)d x i. ■-dxn =
Jr"
= I
J0^txi
h(ui)h{u2 ) ■ ■ h(un)\ne~Xundui... dun =
...^un
yi
POC
= ^ZTjyj J
= (^T ijT
flun
ł>un
J
-J
h(ui)h(u2)
J {J h(s)ds)
■■■■■h(un-i)d u i .. .dun-ih(un)e~'
h(u)e~>"‘du =
Najpierw skorzystaliśmy z tego, że X t są niezależne o rozkładzie wykładni­
czym, później zamieniliśmy zmienne na
U l = X l ,
U 2 = X l + X 2 , . . . , U n = X l
+
. . . + X n
(jakobian tego przekształcenia jest równy 1). Aby otrzymać trzecią rów­
ność wystarczy zauważyć, że funkcja podcałkowa jest symetryczna względem
zmiennych iii, u2, ■■■, unGdy A = f£°(h(u) -
1 )du,
to dla u ^ uo mamy
Odpowiedzi i wskazówki
446
Niech Ci = Jo°+A s” le Xsds > C2 = f “° (
h(u)e Xudu. Po­
h(s)ds'j
nieważ
r 00
/• o o
/ (u + A)n- l^ Xudu = /
«/ xiQ
* uo-\-A
= eXA[J^
=
s” - 1 e_Aa< is-C ,i ],
to
,
(n
-
1)!
\n
^"
i
C 2 - e nXAC
C l 1 +IerXA7 ---------—
J
(n - 1)!
L
srn_l e ~^SJ
ds =
Ostatnia równość wynika z tego, że (n — 1)! = T(n) =
A
f°°(H u )-l)d u
lim I, = e Jo
--------- r r r + e *,4
(n - 1)!
sn Le Sds. Zatem
.1
n ~ *oo
10. Centralne twierdzenie graniczne
10.1. Wprowadzenie
2. Wsk. Wykazać, że suma w warunku Lmdeberga jest równa f ( X 2 l{|X|>r n/H})
i skorzystać z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej.
3. Wsk. Jeśli |X| > e, to I* ! ' 5 > e5, i
£(\X\2l lm > ; }) ś ¿£(|X | 2+ il {,x|>e}) ^ ¿£|X|2+i.
4. Rozw. |X„[ ^ K , sn —> 0 0 , więc dla każdego k, |Xfc — £ X k\ < rsn dla n
dostatecznie dużych.
10.2. Twierdzenie Lindeberga-Levy’ego
1
Jeśli
/•P2X = 100, co
można powiedzieć
o średnim
dziennym obrocie,
czyli £\X\?
. Odp. Szansa uzyskania takiego wyniku w pojedynczej serii wynosi ok. 1 —
$(2,93)
0,0017, a średni czas oczekiwania jest równy odwrotności tej liczby.
2. Odp. Jeśli a oznacza zawartość kasy rano, to powinno być
$(-a/crv/n) Ą 0 ,0 1 ,
czyli $(a/<T-v/n) ^ 0,99, gdzie o = 100, n = 100. Okazuje się, że a Ki 2330.
Jest to z grubsza 2% średniego dziennego obrotu. W przypadku 100 urzędów
pocztowych wystarczy wziąć n = 10000. Wtedy a wzrośnie tylko dziesięcio­
krotnie.
3. Odp. $(1,67) - $(-1,67) = 2$(1,67) - 1 « 0,9.
4. Odp. Dla a < 0 granica jest równa 1. Gdy a ^ 0, granica jest równa 1 dla
a<
2 ( 1 — $(a/cr)) dla 0 = ^ , 0 dla a >
5. Odp. Dla 1 grosza zagrożenie jest poważne: szansa wynosi 1—$(0,496)
Dla 3 groszy spada do ok. 7%.
0,31.
do rozdziału 10
6
447
. Odp. Można wyliczyć, jaka jest w obu przypadkach szansa uzyskania jeszcze
lepszego (czyli bardziej oddalonego od teoretycznej średniej) wyniku. Dla
Jasia jest to ok. 1 — $(8,19), dla Stasia ok. 1 — $(3). Większe zdolności
telekinetyczne ma Jaś.
7. Odp. Prawdopodobieństwa otrzymania obu układów kości wynoszą pi =
= 0,5177 i P2 = 0,4914. Naturalny pomysł polega na wykonaniu n razy obu
doświadczeń. Podejrzanie duża różnica częstości występowania obu układów
jest argumentem za tym, że pi ^ P2 , ale jeśli nawet pi = P2 , to duża różnica
częstości może pojawić się przypadkiem. Jak wybierać krytyczną wartość dla
różnicy częstości? Można zauważyć, że jeśli pi = p2 = p, to (Sn —Tn)/2y/npq
ma dla dużych n rozkład bliski jV (0 ,1) (S„ i Tn oznacza liczby sukcesów
w obu seriach doświadczeń). Wobec tego z prawdopodobieństwem 0,99 (ta
liczba została wybrana zupełnie dowolnie; w podręcznikach statystyki po­
jawiają się w takiej sytuacji zwyczajowo wartości 0,9, 0,95 i 0,99) liczba
|5n —T„| nie przekroczy i„ = 5,16 ■y/npq. Jeśli tę ostatnią liczbę uznamy za
krytyczną, to w sytuacji, gdy pi = p2 szansa popełnienia błędu wyniesie ok.
0,01. Można teraz przypomnieć sobie zadanie o noworodkach (7.6.10), gdzie
zresztą prawdopodobieństwo urodzenia chłopca było bliskie pi, by zauważyć,
że np. dla n = 1 0 0 0 0 szansa otrzymania różnicy częstości przekraczającej
wartość krytyczną jest praktycznie równa 1. Wystarczy zatem 10000 partii,
co dla nałogowego hazardzisty nie jest problemem.
8
. Wsk. Wykazać, że spełniony jest warunek Lapunowa.
9. Odp. a) war. L. jest spełniony; b) war. L. nie jest spełniony, ponieważ ciąg
(s„) jest ograniczony (por. zad. 10.1.4). Jeśli założymy, że
= 1, to
rozkładem granicznym jest rozkład sumy szeregu
gdzie zmienne
losowe Uk są niezależne i mają ten sam rozkład jednostajny na [-1,1]. Nie
jest to rozkład normalny, bo jego funkcja charakterystyczna ma zera.
10. Odp. Niech £/„ = n + . .. + rn, gdzie (rj) jest ciągiem Bernoulliego. Z le­
matu Borela-Cantelliego wynika, że ciągi (Un/y /n ) i (Sn/\ /n ) z prawdo­
podobieństwem 1 są od pewnego miejsca (losowego!) identyczne. Dlatego
S „/y/n
M (0,1). Co ciekawe, V 2(Sn/y/n) —* 2.
11. Wsk. Rozkładem granicznym jest M (0,1). Wystarczy zbadać funkcję cha­
rakterystyczną.
*12. Wsk. Skorzystać z wyniku zadania 11. Rozwiązanie czysto analityczne ist­
nieje, ale rachunki są trudne.
13. Wsk. Zadanie jest łatwe. Można się zastanawiać, który sposób jest szybszy:
skorzystanie z CTG, czy obliczenie funkcji charakterystycznej.
14. Wsk. Un = —
• x !t+ " + x z • Pierwszy czynnik zmierza według roz­
kładu do A/”(0,1), drugi — według prawdopodobieństwa do 1. Iloczyn (por.
zad. 8.2.6) zmierza według rozkładu do JV(0,1). Podobnie można postąpić
w przypadku Vn.
*15. Wsk. Skorzystać z twierdzenia 1.
a) Pokazać, że zmienne losowe X n<k — liczba inwersji elementu k, k =
= 1 , . . . ,n, są niezależne i mają rozkłady P(Xrl:k —i) = 1 /k ,j = Q ,...,k —1 .
Odpowiedzi i wskazówki
448
b) Jeśli X„,fc(w) = 1, gdy fc-ty element przedstawienia cyklicznego permutacji uj kończy cykl, X n,k(u>) = 0 w p.p., to X „ ,i,... ,X n,n są niezależne
0 rozkładzie P (X n,k = 1) = n_]c+1' ■
16. Wsk. Zbadać IogZ„. Odp. Granicą jest ev , gdzie Y ~ M (0, log2 a ).
17. Wsk. Niech Q będzie macierzą kowariancji wektora losowego X , zaś U —
wektorem losowym o rozkładzie J\f (0, Q). Wystarczy zauważyć, że
¥>z„(i) = £ei<t'* 1+- +'w '/ "> -> e ' i £ ( t 'x ) 2 = e- i <QM),
zatem rozkładem granicznym jest rozkład wektora losowego U. W zasadzie
tak samo rozumuje się, stosując metodę Cramera-Wolda z tw. 9.4.3.
18. Wsk. W (ii) skorzystać z zadania 11, a w (iii) z zad. 8.3.9.
19. Rozw. V2 •£ X = £ Y + £Z, a stąd £ X = y/2£X, zatem £ X = 0. Iterując
warunek (ii) otrzymujemy
v
X 1 + X 2 + ... + X 2»
A ~ ------------- ■==-----------,
\/2"
gdzie Xi, i = 1, 2, . . . są niezależnymi kopiami X . Z centralnego twierdzenia
granicznego wynika, że prawa strona zmierza według rozkładu do Ai (0 , er'2) ,
zatem X ~ N (0,<r2).
20. Rozw. Z CTG y/nYn — > jV(0, a2) i zastosować zad. 8.2.7 dla X n = y/n
1 Yn.
11. M artyn gały
11.1. Momenty stopu
1. Odp. a) tak; b) nie; c) tak.
2
. Rozw. Zbiór {r ^ t} jest albo pusty, albo równy fi.
3. Rozw. {ti A T2 ^ i} = {n $ i} U {r2 śi t}. Odwracając symbole „A” i U”
otrzymujemy dowód drugiego stwierdzenia.
4. Rozw. a) Niech <x = inf{n: n > r, X n € B}. Wykażemy, że a jest momentem
stopu. Mamy
{er = t} = [ J { t = s} n {X u 0 B dla s < u < t, X t € B } e Tu
S<t
co kończy dowód.
b) Tfc = inf{n:.n > Tk-\,Xn € B}. To, że n, jest momentem stopu, wynika
natychmiast z punktu a.
5. Rozw. P( t > n) — P (X i + . .. + X n < 1) = ¿ , skąd Sr = e. Druga równość
wyraża fakt, że objętość n-wymiarowego sympleksu, rozpiętego na wektorach
jednostkowych, jest równa
do rozdziału 11
449
6. Rozw. a) Niech A € Tr. Wtedy A! n {r $ i} = {r 4 t} \ (A n {r 4 ¿}) € Tt,
zatem A! £ Tt . Z kolei jeśli Ai £ Tr dla i = 1 , 2 , . . to mamy
/ oo
\
oo
I (J Ai | n {r ^ t} = y (Ai n {r ^ i}) € Tt,
\i= 1
/
i= l
zatem U S i Ai £ Tr.
b) Jeśli t = i, warunek z definicji Tr przybiera postać:
A € T t «• Vs £ T
,4 0 {i < s} 6 Ts,
jednak zbiór {i ^ 5 } jest albo pusty, albo równy Cl, dlatego warunek po
prawej stronie jest równoważny temu, że A £ Tt.
7. Rozw. a) Rozumowanie jest identyczne jak w dowodzie lematu 5;
b) Wystarczy udowodnić twierdzenie dla {r = cr} i { t > <7 }.
1° {r == a} n {r = i} = {r = i} n
i { t = a} £ T„.
{<7
= t} € Tt, zatem { t = cr} £ Tr
2° {r > 0} n { t = t} = Us<i{cr = «} n {r = i} £ T t.
8. Rozw. Niech A £ TTJl. Wtedy A fi {r2 ^ i} = (A n {n ^ t}) n { t 2
t} £ Tt-
9. Rozw. Na rysunku pokazano 3 generatory cr-ciała T t (które wobec tego ma
23 elementów).
Zaznaczono, jakie są wartości zmiennych losowych X\ i X 2 na poszczególnych
zbiorach. Bezpośrednio widać, że każdy zbiór A, będący generatorem T t
spełnia warunek
A n {ril}£fi
i A n { 7- $ 2} £ T 2.
Zbiór {r ^ 1} (który tu przypadkiem pokrywa się z {r ^ 2}) został poma­
lowany na szaro.
Można też zobaczyć, że zdarzenia uwidocznione na rysunku mają następującą
własność: wiadomo, czy zaszły, czy nie, jeśli obserwować proces do chwili r.
10. Rozw. Wystarczy wziąć jako t moment stopu z poprzedniego zadania.
11. Rozw. Przypuśćmy, że warunek jest spełniony i rozpatrzmy zbiór
B=
{£1
= 1, ...
,£ 7
= 1,?8 = -1,^9 = —l,$io = —1} G Tx0.
Wtedy
A = {<77
10} n B £ Tw.
Odpowiedzi i wskazówki
450
Zbiór A musi być niepusty, bowiem zawiera podzbiór
{ i i
= •••=
£7
= 1, - 1 = £s =
£9
= ••.}•
Ale jedynym niepustym podzbiorem zbioru B, należącym do T\o jest on sam,
zatem { 0 7 ^ 10} D B. Stoi to w sprzeczności z faktem, że zbiór
{£l = 1, . . .
,£ 7
= 1,^8 = —1j£9 = —l,£lO = —l,£ll = l,£l 2 = 1,^13 = 1}>
będący podzbiorem B, nie jest podzbiorem zbioru
{0 7
^ 10}.
12. Rozw. P(r < 00) = 1, więc P(ST = 1) = 1 i £ST — 1. Gdyby £r < 00, to
z tożsamości Walda wynikałoby, że 1 = £ST = £X\£r = 0, sprzeczność.
13. Rozw. Niech. X n będzie wynikiem n-tego rzutu, a <Jliczbą rzutów. Wtedy cr
jest momentem stopu i z tożsamości Walda otrzymujemy £ S „ — £ X \ £ a =
3,5 •14,7 = 51,45 (por. zad. 5.6.10).
11.2. Martyngały, nadmartyngały, podmartyngały
1. Rozw. Całkowalność wynika z równości £ \Zn+iZn\= £ \Zn+i\£\Zn\; dalej,
£ (Xn+1 - X n \?rn ) = £ (Zn+iZn |Fn) = Z„£ (Zn+i |Tn) = Zn£Zn+1 = 0.
2. Rozw. Wystarczy sprawdzić, że spełnione są założenia tw. 15: niech Zo = 0,
Zn = Sn - n£X 1. Wtedy
£
(| Z n+1
- Zn
11
Tn)
=
£
^
2£fXil
£ X x\| T n )
(| X „+ i -
=
£\ X n + i - £ X l \ ą
00 .
<
Wtedy z tw. 15 otrzymujemy £ZT = 0, czyli tożsamość Walda.
3. Rozw. Z tw. Dooba wynika, że
£S rA n
n = 1,2,...
= £ (t A n ) £ X i,
W szczególności
su p ii^ n < 00 .
(7)
£S2
TAn $ £S 2
t,
(8)
Jeśli teraz udowodnimy, że
to z lematu Fatou otrzymamy
lim inf £ (r A n) ■£X\ = liminf £ 5 2A„ ^ £Ś\ =
n
n
= £lim inf52Arl
n
= lim inf £
n
(t
liminffS^/sn =
n
A n) ■£ -Xf,
i teza wyniknie natychmiast stąd, że lim infn£ (r A n) = £r.
do rozdziału 11
451
Pozostaje więc do udowodnienia nierówność (8), która sprowadza się do nie­
równości
£ ('S,rŁl{r>n}) ^ £ (STl { r>n}) •
Do zachodzenia tej ostatniej wystarczy, by
|*S,TT.|l{T>fŁ} ^ £ (|tSV||-^n) l{-r>n} i
(9)
bowiem na zbiorze {r > n} zachodzą wtedy nierówności
S,n <[£(|Sr||i-„)]2 ^ £ ( S ? | ^ „ ) ;
druga z nich jest nierównością Jensena 6.3.6. W konsekwencji
e { s h {r>n})
s [£
(s? I T n) i {T>n}] =
e
(s 2v >n}) .
Pozostaje więc dowód (9). Ustalmy A £
i m > n. Wtedy n ^ r A m na
zbiorze {r > n}. Skorzystamy także z tego, że ciąg (|:Sn|) jest podmartyngałem (por. zad. 7 i 8). Mamy
i
\Sn\ d P ś i
\SrAm\dPś
J ACt{T>n}
J An{T>n\
a
f
JAn{m^r>n}
|5T|dP+ i
\STAm\dP.
J^4fl{r>m}
Widać teraz, że pierwszy składnik zmierza do f An^T>ny |ST|dP na mocy tw.
Lebesgue’a, drugi zmierza do zera.
Żeby to zobaczyć, skorzystamy z oszacowania w stylu nierówności Czebyszewa. Jeśli B = {|STAm[ > a}, to na B jest ~SlAm > |STAm|, dlatego
szacując osobno całki po zbiorach A n {r > m} n B i A n { t > m} n B'
otrzymujemy
cq2
L
|5TAm|dP ^
+ aP(r > m).
A n{-r>m )
Ustalmy e > 0. Z (7) wynika, że licznik pierwszego składnika jest ograniczony
przez stałą. Wystarczy teraz wybrać dostatecznie duże a, wtedy dla dużych
m prawa strona będzie mniejsza niż e. Kończy to dowód wzoru (9) i całego
twierdzenia.
Dowód wzoru (8) może wydawać się mało intuicyjny. Naturalny dowód tej
wersji tożsamości Wałda można otrzymać z nierówności Dooba (zad. 11.4.4).
4. Rozw. Wykorzystać tożsamość Walda z poprzedniego zadania.
5. Rozw. Zastosować wynik z przykładu 5.
6. Rozw. Ponieważ £Dn = 0, n = 0,1,..., wystarczy wykazać, że £DmDn = 0
dla 1
m < n. Ta wartość średnia istnieje, bowiem przyrosty są także
całkowalne z kwadratem i \DmDn\^ \{Dm + D„). Dalej,
£ DmDn = £ (£ (DmDn |.F„-i)) = £ (Dm£ {Dn \Tn-r)) = 0.
452
Odpowiedzi i wskazówki
7. Rozw. Niech tp będzie taką funkcją wypukłą, że zmienne losowe tp(Xn) są
całkowalne. Załóżmy najpierw, że [Xn,Tn) jest martyngałem. Wtedy z nie­
równości Jensena (6.3.6)
£ (<p(Xn+1) |Tn) > tp(£ (Xn+11J-n)) = <p{Xn).
Jeśli (X„,.Fn) jest podmartyngałem, a tp jest dodatkowo malejąca, równość
w powyższym wzorze można zamienić na nierówność.
8. Odp. a) podmartyngał; b) nadmartyngał; c) podmartyngał.
9. Rozw. Ponieważ Zn = X nl { T>rlj +
widać, że zmienna losowa Zn
jest .^„-mierzalna, a ponadto £ \Zn\^ £\Xn\+ £\Yn\, jest więc całkowalna.
Dalej,
£ (Zn+l I /n ) = l {r>n}£ (X»+l |Fn) + l {r<n>£ (Yn+1 |?n ) +
+ £ ((Yn+l - X n+l)l{T=n+l} |Tn) = Zn,
ponieważ ostatni składnik sumy jest równy zeru, jako że X T = YT.
10. Rozw. Niech r będzie jednym z momentów stopu n. Ustalmy e > 0 i do­
bierzmy S z warunków równoważnych jednostajnej całkowalności (zad. 5.9.17,
warunek (U)). Ponieważ r jest p.n. ograniczony, to dla dostatecznie du­
żych n mamy P(r > n) < S, wobec tego dla dostatecznie dużych n jest
£ (|Xn|l{T>„}) < e, co kończy dowód warunku (3).
Żeby udowodnić (2), określmy X * = X^=i 1^*1- Wtedy \XT\ ^ X*. Ponie­
waż X *An T X * p.n., wystarczy wykazać, że wartości oczekiwane £X *An są
ograniczone, a następnie skorzystać z tw. Lebesgue’a. I rzeczywiście, z jed­
nostajnej całkowalności ciągu (X n) wynika, że supn £\Xn\< oo. Mamy teraz
£X*rAn =
f
\Xi\dP + . . . +
*/{ r = 1 }
< i
J{ r ^ n }
f
J{ r = n }
\Xn\dP^
|Xn|dF<supf|X„|.
71
Skorzystaliśmy z tego, że (|Xn|) jest podmartyngałem, więc dla A g Tk
i k ^ n mamy f A \Xk\dP ^ JA \Xn\dP. Warunek (3) został udowodniony.
11. Rozw. Biorąc r = n otrzymujemy całkowalność X n. Niech s < t, A € 3-sZdefiniujmy
_ ( u dla oj € A,
Ua~ \ T dla u 0 A.
u a jest momentem stopu dla u ^ s. Ponadto dla
s mamy
/ X udP = i X UAdP - i
XrdP = — i
X TdP.
Ja
Ja
Jn-A
Jn-A
W ostatniej równości skorzystaliśmy z założenia £ X r = 0 dla dowolnego
momentu stopu przyjmującego dwie wartości. Zatem biorąc najpierw u = t,
potem u = $ mamy £ (XtlA) = - f n^A X TdP = £ (Jtjl^). A € T s było
dowolne, więc £ (X t ] Ts) = X s.
do rozdziału 11
453
11.3. Twierdzenie o zbieżności nadmartyngałów
1. Rozw. Całkowalność jest oczywista, a ponieważ
Z n +l
• eaUn
=
wystarczy wykazać, że £ V n+\
+ l ~ i a2
=
Zn .
K n+1>
1, co sprowadza się do nierówności
którą łatwo udowodnić rozwijając funkcję wykładniczą; w szereg Taylora.
L
0, tj.
0.
Dla a 0 mamy 0 < £V„ = q < 1, stąd £ Zn = Qn
n —»oo
Ciąg (Zn) jest zbieżny p.n. jako nieujemny nadmartyngał. Jeśli a = 0, to
Zn = 1, n = 1,2,— Dla a / 0 jest limsupV„ ^ 1 lub liminfVn / 1,
dlatego też lim Zn = 0, bowiem np. lim sup Z„+i = lim Zn lim sup V„+i.
2. Rozw. Niech Zn = Xy + . . . + X n i Tn = a (X i, . . . , X n) ■Wtedy (Zn, T„) “ t
jest martyngałem, ponadto
£\Zn\^ £\Zn\2 + 1 = 1 + Y , £ X nWobec tego supn £\Zn \ < oo i twierdzenie wynika z twierdzenia o zbieżności
martyngałów.
3. Rozw. Wybierzmy A € Tn- Ponieważ Y ° jest nadmartyngałem, mamy
Funkcja podcałkowa jest nieujemna, dzięki czemu mogliśmy skorzystać z tw.
Fubiniego.
4. Rozw. Oznaczmy \iran-^-o=,£Xn = o < oo (rosnący ciąg ( f X n)n€_Ń Jes*
zbieżny do granicy, być może nieskończonej). Można zakładać, że X n ^ 0
dla n e —Ń, co wynika z równości
X n = £ (X0 \T n ) + (Xn ~ £ (X0 |T n ))Istotnie, ciąg (£ (X01Tn)) jest jednostajnie całkowalny i wystarczy udowod­
nić jednostajną całkowalność drugiego.
Dzięki nieujemności zmiennych losowych X n wystarczy przy sprawdzaniu
jednostajnej całkowalności z def. 5.9.13 rozpatrywać całki po zbiorach postaci
{X n > r} (zamiast {|X„| > r}). Z definicji nadmartyngału mamy dla n ^ k,
n,k 6 —Ń
X ndP = £X rl {Xn >r}
/
X nd P ą £ X n
I
XkdP
{Xn<ir}
(10)
O dpowiedzi i wskazówki
454
Ustalmy teraz e > 0 i wybierzmy taki wskaźnik k G —N, że
£ X n - £ X k = \£Xn - £ X k\^ e/2
(11)
dla wszystkich n < k.
Z nierówności Czebyszewa P (X n > r) ^ £ X n/r ^ a/r dla wszystkich n €
£ —Ń, i po zastosowaniu kryterium jednostajnej całkowalności z zad. 5.9.17
do jednoelementowej rodziny { X k} wnioskujemy, że
sup
/
X kdP < e/2
n e -Ń J {X n >r}
dla dostatecznie dużych r. Na mocy (10) i (11)
sup I
X ndP < e
n< k J {X n> r}
dla dostatecznie dużych r. Oznacza to, że rodzina {X k -i, X k~2 , ■•■} jest
jednostajnie całkowalna i pozostaje taka po dołączeniu skończonej rodziny
{X o ,X ~ i, . . . , X -k }.
5. Rozw. Rozumowanie jest takie, jak w dowodzie tw. 1: zmienne losowe [/£
i Ua[m] oznaczają teraz liczbę przejść w górę przez przedział [a, 6] odpowied­
nio ciągu nieskończonego (X „)Ite_Ń i skończonego X - m, X - m+1, . ,.X i,X o Z lematu 3 zastosowanego do nadmartyngału (X „,T n)n =-m i oczywistego
przejścia granicznego wynika, że
eu l ^
(Xo - a)~ .
Stąd otrzymujemy zbieżność p.n. ciągu (X _ n)ngN do granicy X , być może
nieskończonej.. Ale z założenia i z lematu udowodnionego w zad. 4 wynika
jednostajna całkowalność powyższego ciągu, zatem
£\X\
liminf £|X_n|^ sup £ |X„| < oo.
,l_>oc
n£-Ń
Zbieżność w L1 wynika z jednostajnej całkowalności i zbieżności p.n. (zad.
5.9.18).
Pozostaje do udowodnienia „nowa” część twierdzenia. Niech (X„, Jr„)ne_ 5 !
będzie martyngałem. Ponieważ
X k = £ (Xo |F k) ,
k 6 -Ń ,
to po wzięciu warunkowej wartości oczekiwanej względem
rzystaniu z zawierania Tk D P|^=o -P~n otrzymujemy
i sko­
do rozdziału 11
455
Biorąc k —> oo i korzystając z ciągłości warunkowej wartości oczekiwanej
jako operatora z L1 w L1 (w zasadzie jest to inne sformułowanie własności
6.3.4(c)) otrzymujemy:
X = £ \X
P) T - n I = £ ( X 0
n i ­
gdzie pierwsza równość wynika z mierzalności X względem
^ ~ n ^a^"
tycznie, X -k ,
... są mierzalne — wraz ze swoją granicą X — wzglę­
dem -F-ł). Kończy to dowód twierdzenia.
11.4. Nierówności martyngałowe
1. Rozw. Druga nierówność wynika stąd, że X n ^ X rf . Udowodnimy teraz
pierwszą nierówność: niech r = inf{k'.Xk $ —r}. Z tw. Dooba dla ogra­
niczonych momentów stopu:
£X() ^ £ X TAni
a to oznacza, że
/
J
X ndP + /
XTd,P :
J
f
X ndP + [
J/{m
i m in
i i ifcs£n
fc c - X
X ffc>
c > —r>
—r }
J{mink^
-Tir
n X k^ - r }
ś £ ( x n l{m int< „ x t > - r } ) - r P ( m m X k < - r ) ,
co po uporządkowaniu daje pierwszą nierówność.
2. Wsk. Skorzystać z tw. 1 i zad. 1.
3. Rozw. Dowód analogiczny do dowodu tw. 1 i zadań 1, 2.
4. Rozw. Niech Y„ = supfc^„ \Xk\ i q =
Gdy £\Xn\p < oo, to z nierówności
Jensena £\Xk |p < oo dla k ^ n i wtedy 0 < £Y P < oo. Korzystając z zadania
5.6.3, tw. 1, a na zakończenie z nierówności Hóldera otrzymujemy
/•OO
poo
p
£YP = p
e^ P iY n > t)dt ś p
tp~2 /
\Xn\dPdt =
Jo
Jo
J{Yn^t}
= p [ |Xn| [ " tp- 2dtdP = q£((\Xn\ Y r 1)^ q (£ \ X n\p)1/p{£Y p)l /’1.
Jsi
lii
Jo
Stąd teza.
11.5. Zbieżność martyngałów w Lp
1. Rozw. Gdy Y jest inną zmienną losową mierzalną względem a (Ti, JF2, ...)
dla której X n = £ (Y |Tn), to dla dowolnego A € T„, n € N mamy
i YdP = i X„dP = [ XdP.
Ja
Ja
Ja
Odpowiedzi i wskazówki
456
Klasa zbiorów dla których JA YdP = JA XdP jest A-układem, a ponieważ
równość zachodzi dla zbiorów z klasy \_}n Tn, która jest 7r-układem, więc
z lematu o it- i A-ukladach X = Y p.n.
2. Rozw. Gdy
j = 1 , . . . , kn —1) to (X n, f « ) » jest martyn-
gałem takim, że £|Xn| iś
f(z)dz < oo. Teraz skorzystać z twierdzenia 2
i zadania 1 (X„ = £ ( f 1Fn)) i z tego, że £ ( / |o-((Jn .F„)) = / .
3. Rozw. (i)=ź(ii) Z nierówności Dooba (zad. 11.4.4) mamy £ supn \Xn\p < oo.
Wobec tego ciąg zmiennych losowych (\X„\p)n jest jednostajnie całkowalny
na mocy wyniku zad. 5.9.15.
(m)=> (iii) Z nierówności Holdera i jednostajnej całkowalności ciągu (\Xn\p)n
mamy:
supf|Xn|^ sup(f|X„|p)1/p < oo,
n
n
dlatego martyngał (X„) jest zbieżny p.n., więc tym bardziej według praw­
dopodobieństwa, co w połączeniu z jednostajną całkowalnością (patrz zad.
5.9.18) daje (iii).
(iii)=$~ (iv) Ponieważ £ (Xn+m |Tn) — X n dla m, n € N , wystarczy wziąć
m —> oo i skorzystać z ciągłości warunkowej wartości oczekiwanej jako ope­
ratora z Lp w Lp, co jest oczywistym wnioskiem z nierówności Jensena dla
9 (t) = |t|p.
(u;)=4>(i) Korzystając jeszcze raz z nierówności Jensena otrzymujemy
£\Xn\v = £\£ (Y |Tn) \p ^ £ ( £ (|r|p 1Tn)) = £\Y\P < oo,
czyli (i).
Załóżmy teraz, że spełnione są warunki (i)-(iv). Udowodniliśmy, że wtedy
ciąg (Xn) jest zbieżny p.n. i w Lp do zmiennej losowej X € Lp, przy czym
X n — £ (X |i'«), n = 1, 2, — Żeby zobaczyć, że X jest jedyną zmienną
losową mierzalną względem a(To,
. ■.), dla której ta równość zachodzi,
wystarczy skorzystać z zad. 1.
4. Rozw. (ii)=>(iii): jest to tw. 2(i).
(iii)=$-(iv): To samo rozumowanie, co w zad. 3.
(iv)=>(ii): jest to lemat 1.
Pozostała część twierdzenia to jeszcze raz tw. 2 i wynik zad. 1.
11.6. Twierdzenie Radona—Nikodyma
1. Wsk. Bez zmniejszenia ogólności można zakładać, że / jest określona na
przedziale [0,1], /(O) = 0, /(1) = 1. W takim razie / rozszerza się do dystrybuanty pewnego rozkładu prawdopodobieństwa fi, skupionego na [0,1] (zad.
5.2.1 lub 2). Zgodnie z tw. 11.6.1 istnieje taki zbiór S C [0,1] o zerowej mierze
Lebesgue’a oraz całkowalna funkcja borelowska g: [0,1] —* R, że
f{t) = fi({Q,t}) = fi([0,t}n S )+ f g(s)ds = f s(t) + f c(t),
(K isCl.
Jo
W ten sposób uzyskaliśmy rozkład funkcji / na część osobliwą f s i absolutnie
ciągłą / c. Metodami analitycznymi (por. [BILL], roz. 6, [RUD-1], roz. 9) da
do rozdziału 11
457
się udowodnić, że / ' = 0 prawie wszędzie (zwróćmy uwagę, że f s rośnie tylko
na zbiorze S o zerowej mierze Lebesgue’a), zaś /'(i) = g(t) p.w.
Uwaga. Funkcję g: [a, 6] —> R nazywamy absolutnie ciągłą na przedziale
[a, 6], gdy dla każdego e > 0 istnieje 5 > 0 o następującej własności: jeśli
- a0 <
Ym Li )s(a0 _
< e> 0 ile przedziały [oj.bjj są
rozłączne i zawierają się w [a, 6],
11.7. Miary produktowe i zastosowania w statystyce
1. Rozw. Gęstością warunkową zmiennej losowej X n+\ przy danych X i ,.. ■X n
jest pn+i/pn, zatem
£
( A „ + l I X\ = XI, . . . X n = I „ ) =
.....
= [
Qn+i(xi, •■. ,x n,y)
L „
_
^
V~
Qn(.Xi, •■•, Xn)
Pn(xi, . . . jXn)
zatem £ (A„+ i |X i, . . . , X n) = A„. Teraz
£
(A n+ i | A i , . . . , A „) =
£ {£
(A „ + i | X i , . . . , X n) | A i , . . . , A „) =
“ £ (An i Al, . . . , An) = An,
ponieważ cr(Ai,. . . , A„) C cr(Xi
, . . . ,
X n).
Udowodniliśmy zatem, że (A„,<t(Ai , . . . , An)) jest martyngałem; jako martyngał nieujemny jest on zbieżny p.n., przy czym
’ ( lim A,») $5 lim £A„
\n
—»00
/
Tl—* OO
2. Rozw. Jest to zagadnienie dyskryminacji z przykładu 4, przy czym ze względu
na symetrię założeń a = b. Dlatego reguła decyzyjna jest prosta: czaszka
o obwodzie l jest kwalifikowana jako męska, jeśli f(l) > g(l), gdzie / , g są odp.
gęstościami rozkładów Ai (57,42) i Ai (54,32) . Rachunki sprowadzają się do
rozwiązania nierówności kwadratowej i okazuje się, że warunek f(l) ^ g(l)
jest równoważny z l 0 (44,52;55,76). Interesujące, że czaszka o obwodzie 44
cm zostanie uznana za męską. Prawdopodobieństwo uznania czaszki męskiej
za kobiecą wynosi 0,377, kobiecej za męską — 0,280. Wobec tego szansa
popełnienia błędu jest równa 0,3285.
3. Rozw. Znów mamy do czynienia z zagadnieniem dyskryminacji. Niech fi =
= { 0 ,R } n. Na przestrzeni SI dane są dwa rozkłady prawdopodobieństwa:
P odpowiada monecie symetrycznej i przypisuje każdemu punktowi miarę
2_ " , Q — monecie niesymetrycznej; jeśli ciąg ui = (u>i,. . . ,u>„) zawiera k
orłów i n — k reszek, to <2({w}) = pkqn~k. Regułę decyzyjną otrzymamy
rozwiązując równanie ^ ^ 1, czyli
Odpowiedzi i wskazówki
458
skąd
k ii—k
P <?
ci—n,
> 2
,
i dalej
fclogp 4- (n —k) logq ^ —nlog 2 .
Ponieważ p = 3/4, otrzymujemy ostatecznie
, ,, l o g f + l o g 2
k ś rc----- 7— ------ m 36,91.
log 3
Reguła jest zdroworozsądkowa: mniej niż 37 orłów świadczy o asymetrii mo­
nety. Być może teraz lepiej widać, dlaczego reguła odwołująca się np. do
parzystości liczby orłów jest nonsensowna.
11.8. Zastosowania w matematyce finansowej
1. Szkic rozw. Z (3), § 11.8 wynika, że
równoważność:
Yt+i - Yt > 0
^ 0 wtedy i tylko wtedy, gdy zachodzi
Zt+i - Z t ^Q,
bowiem Wt = Y t. Ponieważ
Zt+i — Zt
0
St+i = (1 -t- b)St,
Rt+i — b
to trzeba udowodnić, że na zbiorze {ili+i = b} zachodzi
£
((S T
- K )+
| T t+ 1) >
£
((Sr -
K )+
| T t) ,
a na zbiorze {iit+i = a} zachodzi nierówność przeciwna.
Niech Wt = 1 + Rt- Wtedy W t są niezależne i St = ITi=i ^ i- Zatem korzy­
stając z zadania 6.3.6 mamy
£((ST- K)+I Tt) =£^ x II W^j -Kj |_s a to pozwala już uzyskać żądane nierówności na zbiorach {Rt+i — 6} i
{iit+i = a}.
12. Łańcuchy Markowa
12.1. Definicja i przykłady
1. Rozw. Ponieważ X n i Un są niezależne, mamy
P { X n Ą -1 — 5 n + l| -^ n . ^
—
S ra ) =
Pif-pn^S-n-iUn) =
P ^tpn ^ S n )
Un) —
S n .+ l| -X "n =
Sn) —
S n -f-l)-
Jednak z podobnych powodów (niezależność Un od X n, X n~i, ...) mamy
również
P (X n + l =
5 n + l |-^n =
= Sn+l)i
co kończy dowód.
S n , X n —1 — Sn.—1 1 • • •-^0 = ^ o ) = P{ *Pn (Sn? U n ) =
do rozdziału 12
459
2. Wsk. Przyjąć, że (Un) jest ciągiem niezależnych zmiennych losowych o roz­
kładzie U(0,1). Przy odpowiednim wyborze funkcji ipn otrzymamy wystar­
czająco uniwersalną „maszynkę do losowania”, należy mianowicie zdefiniować
tp n (sic,t) — S i,
jeśli
t £
bkln),
gdzie odcinki [aa ,, bkin) powinny być dla ustalonych n i k rozłączne i mieć
odpowiednie długości, wyznaczone przez prawdopodobieństwa przejścia.
Można też naśladować dowód twierdzenia o istnieniu przestrzeni probabili­
stycznej dla nieskończonego ciągu prób Bernoulliego (przykład 4.2.2) i po­
dzielić przedział [0, 1 ] na przeliczalnie wiele rozłącznych przedziałów o dłu­
gościach pi = P(Xo = i), i = 1 ,2 ,..., a następnie podzielić i-ty przedział na
rozłączne podprzedziały o długościach pi ■pij, j = 1 , 2 , .. . , itd.
3. Odp. a) Tak, b) Nie.
4. Wsk. Rozważyć niesymetryczne błądzenie przypadkowe (Xn) na Z, gdzie
Xo = 1 , X n+i — X n + U„, zaś (Un) jest ciągiem niezależnych zmiennych
losowych, P(Un = —1) = P =£■ 5 , P{Un = 1) = 1 —p. Wtedy (X%) nie jest
łańcuchem Markowa.
6 . Odp. a) Pi,i+1 = p*p i^ j+ oraz p0i = 1 pi,i-i = 1 - Pi,s+1 , dla i ^ 1.
b) poo = p, Poi = <?; Pi,i+1 = q, Pi,i-1 = p dla i ^ 1.
7. Odp. Nie, np. wystarczy wziąć X i Z z poprzedniego zawiania.
8 . Rozw. Macierz przejścia:
Jeśli pn, qn i Tn oznaczają prawdopodobieństwa znalezienia się w pierwszym,
drugim i trzecim wierzchołku w chwili n, to
wobec tego np.
Pn+1 “ Qn+ 1 = —(qn “ Pn).
Przy założeniu, że po = 1, wynika stąd natychmiast, że
9. Wsk. Obliczyć bezpośrednio lub skorzystać z twierdzenia 8a.
11. Odp. i - I(p - ,)»;
Pij = 0 dla pozostałych j.
P(Xn = 1) = i + i(p - , ) “ (2r - 1).
Odpowiedzi i wskazówki
460
13. Rozw.
P (Xn+l = h, Yn+1 = k\Xn = i ,Y n = j ) =
P{Xn+1 = h,Yn+1 = k ,X n = ¿,yn = j)
P (Xn = l,Yn = j)
P (X n+1 = h ,X n = i) P(Yn+1 = k,Y„ = j)
P(Xn = i)
P (K =j)
gdzie w przedostatniej równości skorzystaliśmy z niezależności X, Y.
*14. Rozw. Sposób I. Niech t a oznacza chwilę pierwszego pojawienia się wzorca
A o długości k w ciągu rzutów monetą4 i niech f(ń) oznacza liczbę ciągów
0 długości n bez wzorca A na końcu, zaś ¡ a (n) — liczbę ciągów o długości n
z wzorcem A na końcu. Rozpatrzmy zbiór ciągów n-elementowych bez wzorca
A na końcu i dopiszmy do każdego ciągu ten wzorzec. Teraz podzielimy
otrzymane ciągi na k klas ze względu na pierwsze wystąpienie A, które może
nastąpić w chwili n + 1, n + 2, . .., n + k.
Zauważmy, że jeśli wzorzec wystąpił przed chwilą n + k, oznacza to, że po­
krywa się on ze swoim przesunięciem w lewo. Oto przykład:
Niech A = OROR, n = 6. W ciągu RORROROROR wzorzec A pojawia się
po raz pierwszy w chwili 8; w chwili 10 pojawia się po raz drugi.
Mamy w związku z tym, pisząc 5,t zamiast Sk(A,A):
f(n) —fA^n + l)5i2 1 + fa(u + 2 )62^ 2 + . •. + fA(n + k)Sk2 k.
Mnożymy obie strony przez 2~n, otrzymując
f(n)-2~n = /A (n + l)i12 - (n+1)+ / A(n+2)i22 - (" +2)+ . . ,+ / A(„-)-fc)42-<"+,;),
czyli
P (ta
> n) =
P { ta
=
n
+ l)5x +
P ( r A = n + 2 )<52
+ ... +
P ( t a = n + k)ók-
Sumując ostatnią równość dla wszystkich n ^ 0 otrzymujemy korzystając ze
wzoru na S t a z zad. 5.6.8 i z tego, że P ( t a = i) = 0 dla i = 0, 1, . . . , fc — 1:
Sta =
¿1
-f . .. + ¿fc = A : A.
Sposób U. Podamy teraz metodę odwołującą się do teorii martyngałów5.
Formalizację pozostawimy Czytelnikowi.
Przypuśćmy, że w kasynie rzuca się monetą aż do chwili otrzymania wzorca
OROR. Przed każdym rzutem jeden z graczy stawia 1 zł na to, że wzorzec po­
jawi się w najbliższych czterech rzutach. Jeśli w najbliższym rzucie pojawi się
orzeł, gracz wygrywa 2 zł i stawia je na reszkę w drugim rzucie, itd., aż do
pierwszej przegranej lub otrzymania wzorca — wtedy gracz zatrzymuje wy­
graną. Ponieważ gracze rozgrywają grę sprawiedliwą, w każdej chwili średni
zysk kasyna jest zerowy. Średnio wpłaty graczy wynoszą C t o r o r , natomiast
suma wypłat po zakończeniu gry wynosi 16+4=20 (wygrają gracze pierwszy
1 trzeci). Stąd S t o r o r = 20.
4Za: L. J. Guibas, A. M. Odłyzko, String Overlaps, Pattern Matching, and Non-transitive Games, Journal of Combinatorial Theory, ser. A, vol. 30 (1981), ss. 183-208.
5Za: S.-Y. R. Li, A Martingale Approach to the Study of Occurrence of Sequence
Patterns in Repeated Experiments, Annals of Probability, 8 (1980), ss. 1171-1176.
do rozdziału 12
461
*15. Wsk. Wykazać, że
Pa ■A : A +
pb
■B : A = ps ■B : B +
pa
■A : B,
gdzie pa oznacza szansę wygranej dla wzorca A. W tym celu można zasto­
sować metodę użytą w poprzednim zadaniu, a mianowicie rozważyć zbiór
ciągów o długości n, w których nie występuje ani A , ani B, a następnie dopi­
sać na końcu każdego ciągu wzorzec A (odp. B). W ten sposób da się obliczyć
dwoma sposobami f min( t a , t b ) , skąd wyniknie wzór Conwaya.
*16. Rozw. Patrz: L. J. Guibas, A. M. Odlyzko, op. cit.
*17. Wsk. Patrz [GKP], §8.4.
19. Wsk. Martyngał z zadania 18 jest już znany.
20. Wsk. Należy uwzględnić fakt, że nie wszystkie prawdopodobieństwa warun­
kowe muszą być dobrze określone.
12.2. Klasyfikacja stanów
1. Odp. 0.
2. Rozw. => Wziąć Uo = Xo, Un = X „ - X n~i dla n ^ 1.
-i= Korzystając z zadania 12.1.1 otrzymujemy, że X n jest łańcuchem Mar­
kowa, a proste rachunki pokazują, że Pi,i+k = Pk3. Rozw. =*- Oczywiste.
-ś= Niewprost. Istnieją k,j takie, że ->(j —> k). Wtedy C = {i.j —> ?} jest
zamkniętym zbiorem stanów i k $ C.
4. Odp. a) 1 — stan pochłaniający, 4 — nieistotny; S, {2,3} zbiory stanów
zamkniętych,
b) 4 — stan pochłaniający, 1,2,3 — stany nieistotne,
c) łańcuch nieprzywiedlny.
12.3. Stany chwilowe i powracające
1. Rozw. Dla l > n zdarzenia {X n = j } i {r = ¡}, gdzie t jest momentem
pierwszego dojścia łańcucha Markowa do stanu j są rozłączne, stąd
OO
Pkj{n) =
P{Xn = j\r = m ,X o = k)P(r = m\Xa = k) =
m=l
n
n —1
= ^ 2 fkj(m)pjj(n - m) =
f kj(n - m)pj j (m).
m=l
m=0
2. Odp. Otrzymujemy takie same wyniki, jak dla błądzenia opisanego w przy­
kładzie 7.
3. Wsk. Wykazać, że funkcje tworzące (dodatek B) ciągów
=
P3 3 (n)zn i ciągu (/,-,•( n ) ) ^ : Fjj{z) spełniają zależność
Pj{‘ )
1 + Pj(z)
i wziąć z —> 1.
Pj(z) =
462
Odpowiedzi i wskazówki
4. Rozw. Z dowodu stwierdzenia 6 wynika, że
P‘i(n) = FijP i> a z założeń
Fij > 0, Pj = oo.
5. Wsk. Wykazać, że jeśli i ^ j, to funkcje tworzące Pij (z) ciągu (pij(n))^Li
i Fij (z) ciągu (/y(n))~=1 spełniają
Pij(z) = Fij(z)(Pj{z) + 1).
6. Rozw.
OO
OO
71
Fjj = Y ' f j j ( k ) = (1 -Po) + y^ po. - - Pf c- i ( l -P k) = 1 z y
fc = l
z
^
fcsa 1
Zatem
7.
lim TTpfc.
m —» o o - * - - * fc = 0
wtedy i tylko wtedy, gdy n r =1p * = o -
Gdy S = { 1 , 2 , . . . , fc}, to
Py(n) =
wi(Sc istnieje takie j, że
-f* 0, czyli j jest stanem powracającym.
Gdy S = { 1 , 2 , . . . }, to prawdopodobieństwa Pi,i+i = 1 określają łańcuch
Markowa o samych stanach chwilowych.
Pij(n)
8. Rozw. 4= (patrz uwaga 12.3.4b)
=4> Niewprost. Niech stan j komunikuje się ze stanami ki, k2, ■■., ki i tworzy
z nimi łańcuch nieprzywiedlny. Z zadania 7 wynika, że jeden ze stanów jest
powracający, więc wszystkie stany j, ki, k2, . . . , ki są powracające, zatem j
jest powracający. Sprzeczność.
Gdy S = { 1 , 2 , . . . }, to istnieje łańcuch nieprzywiedlny o samych stanach
chwilowych, które nie są nieistotne (np. patrz zad. 6).
9. Rozw. Stan j jest powracający, więc P(łimsup„{X„ = j}\Xo = j ) = 1. Stąd
Pji(m )
= P ( { X m = i } n limsup{Xn = j}l^ o = i) ^
n
^
— ¿i X m+i 7^ j, •■■) X n„ i ^ j , X n — j\X$ = j ) ~
v
71> 771
= ^
Pji(m)fij(ji - m) = pji(m)Fij.
n>m
Ponieważ istnieje takie m, że Pji{m) > 0 to Fij = 1.
10. Rozw. (X?l,Xn) jest symetrycznym błądzeniem przypadkowym po Z2, za­
tem jest powracającym łańcuchem Markowa, więc dotrze do każdego punktu
(c, c), c £ Z z prawdopodobieństwem 1.
12.4. Łańcuchy okresowe
1. Odp. a) tak, b) nie, o(2) = 1.
2. Rozw. Istnieje stan i oraz n, m takie, że Pij(n) > 0, Pji(m) > 0, z czego
wynika, iepjj{n + m) > 0. Takżep jj(n +m + \) > 0. Liczby n +m , ra+m + 1
są względnie pierwsze, więc j jest stanem nieokresowym, zatem z nieprzywiedlności cały łańcuch jest taki.
3. Rozw. Nie, na przykład:
'0
i
|
n
?1
do rozdziału 12
463
12.5. Rozkłady stacjonarne i twierdzenia ergodyczne
1. Odp. 2~e.
2. Odp. tr =■<*(£, ¿ , 0 , 0 ) + (1 - a)(0,0, ¿, ±), a e [0,1].
3. Rozw. Jeśli j — stan chwilowy, to A
py (to) ------- >0. (stw. 12.3.6)
Tl—* OO
Jeśli j jest stanem powracającym zerowym, to jak wiemy z tw. 12,
n
i=l
dąży do zera, czyli £ X^m=i
nym, to dla każdego n
(m) ~ ’ n 0-
^ i63* rozkładem stacjonar­
-Kj = '^2,vipii(n).
Stąd
Tl
^ 7 1
**=nE E
m = l i€ S
<m
>=E7r‘-jE p«w
ig jS
0
m =l
z twierdzenia Lebesgue’a, co kończy dowód.
4. Rozw. Na mocy twierdzenia 5 istnieje jedyny rozkład -Ki taki, że 7T; = WiP^ ■
Oczywiście kombinacja wypukła miar (iii) jest miarą stacjonarną. Gdy tt
jest miarą stacjonarną, to jeśli a; = J2jes 7r(-?) >
^ na & zdefiniowane
wzorem Wi(j) =
spełnia 7f¿P^ = 7f{, więc 7Ti = 7?; jest miarą stacjonarną
na Si oraz tt = J^i€/ «¿7^.
5 . Rozw.
-K j
= i
= £ " =1 i p y = 5 3 "=1 TTiP«.
6. Rozw. Kolumny macierzy sumują się do jedności, więc Wi = j jest rozkładem
stacjonarnym. Zatem z twierdzenia ergodycznego limn^oo P (Xn = i) = ]:■
7. Rozw. Ten fakt został udowodniony w twierdzeniu 12.5.15.
8. Rozw. Wielkości foo(n) obliczyliśmy w przykładzie 12.3.1. Korzystając z tego
mamy
OO
A»o = y ^ n / 00(ra) = 3,
n = l
3
Mi = j A więc oba stany są niezerowe.
*9. Rozw. Pokażemy, że jeśli i jest stanem dodatnim i i —* j , to j jest stanem
dodatnim. Istnieją mi,m2 takie, że
> 0, Pji{m2) > 0. Wtedy dla
c = Pij{mi)Pji(m2 ) > 0 mamy
+ m-2 + n) ^ cpa(n). Zatem
.. +, m.2 +, „_\
C!m1+m2+n(iij)
1 \y pij /(mi
—
m) =. ---------------------------------------------^
n
n
n
m=1
C
7i
n
Odpowiedzi i wskazówki
464
Biorąc
n
—> oo otrzym ujem y z twierdzenia 12 zbieżność lewej strony do ^ 1,
a prawej do Cyti“ 1 > 0, czyli
0.
fij >
*10. Rozw. => Jest to treść twierdzeń 5 i 15.
Udowodnimy, że -Ki — ¡xj1 dla i £ S definiuje rozkład stacjonarny. Za­
czniemy od przypadku, gdy 5 jest zbiorem skończonym. Ponieważ
jes
to z twierdzenia 12 otrzymujemy
1
= lim
n
n -*oo
=
j€S
y'
jes
lim
=
n
n —*00
y±,
' Lii
i€S ™
czyli 7rjest rozkładem prawdopodobieństwa. 7r jest rozkładem stacjonarnym,
bo
= n j l = lim
3
=
j
=
71
n —»oo
Umy
n —»co
GJi,k)pkj =
71
'
k€S
um
:
» n
—»00
/l
' —^
kes
kes
kes
Gdy S jest zbiorem nieskończonym, to biorąc zbiór skończony F C S mamy
"llk€F ^k 1 ^ 1 (przechodzimy s n - i o o i nierówności ^
^ 1 ),
a stąd
= c_ 1 ^ 1. Postępując podobnie jak w dowodzie (12)
otrzymujemy dla j € S: J2k£F fik1Pkj ^ ftj1’ a st4 d
(13)
y i ^ P k j < H j1kes
Sumujemy po j: ^2jeS ^ X ^
wi?c w (13) zachodzi równość.
Zatem ir, = c ^ 1 dla i £ S definiuje rozkład stacjonarny. Musimy jeszcze
pokazać, że c = 1. Jeśli 7 jest rozkładem stacjonarnym, to 7 = 7 Gn/n, gdzie
G„ jest macierzą Gn = (Gn(i,j))ij^s i jak wiemy
a zatem
■yj =
czyli c musi być równe 1 .
*11. Rozw. 4= Stan powracający może być dodatni lub zerowy. Gdyby był dodatni,
to wszystkie stany byłyby dodatnie i lim„_oo Pjj(n) = irj > 0 , sprzeczność.
=> Bez straty ogólności można założyć, że (X n) jest nieprzywiedlnym nieokresowym łańcuchem Markowa. Niech j będzie stanem powracającym zerowym.
Wtedy Zn = (Xn, Yn) jest nieprzywiedlnym i nieokresowym łańcuchem Mar­
kowa. Gdy [j,j) jest stanem chwilowym, to
P(Zn = (j,j)\Z0 = (j, j)) = p K n ) -------►0 ,
n —*00
ze stwierdzenia 12.3.6. Gdy (j , j ) jest stanem powracającym, to z dowodu
twierdzenia 5 punkt (U) mamy:
\Pij(n) ~ P k j { n ) \
-+ 0
gdy
n
-> 00
(14)
465
do rozdziału 13
dla i,j, k £ S. Niech P* będzie punktem skupienia ciągu (Pn)„ w przestrzeni
[0, l]ooxo°. Istnieje ciąg (nk) taki, że P nk zmierza do P* dla każdej współ­
rzędnej. Z (14) wnioskujemy, że wszystkie wiersze P * są identyczne, a stąd
P P * = P*. Dalej Prlk+1 = p p nk _> p p * = p* (z twierdzenia Lebesgue’a o
zbieżności zmajoryzowanej), więc z lematu Fatou
PP" = ( lim Pnk)P sj lim PnkP = P*,
fc—»oo
k—*oo
gdzie nierówność rozumiemy jako nierówność współrzędnych. Niech p(i) bę­
dzie wierszem P* i niech 5 = '¿2i p[i) ^ 1 (z lematu Fatou). Gdyby 5 > O, to
Vi = p(i)/(5 jest rozkładem prawdopodobieństwa na 5 oraz vP Sj i>. Ponieważ
ViPij = ]T\ Uj, to i>P = v, a więc v jest rozkładem stacjonarnym dla
(Z „), sprzeczność bo (X„) jest powracający zerowy (patrz zad. 10). Zatem
5 = 0 tzn. lim„_00py(w) = p(j) = 0 dla każdych i,j.
12. Rozw. limn-.oo Poo(n) = 0 i skorzystać z poprzednich zadań.
13. Odp. Stan 0 powracający:
CO
oo
co
^ w / 00(n) = ^ ł i - p o , n - i =
n=l
■. _
. - = oo 44- a e (1,2].
n —2
n=l
Łańcuch jest nieprzywiedlny, więc wszystkie stany są tego samego typu.
12.6. Łańcuchy pochłaniające
1. Rozw. Skorzystać z twierdzenia 1. m2 (l) = 17/6.
2. Rozw. Dobrać odpowiedni łańcuch Markowa i skorzystać z twierdzenia 1
(oczywiście można to zadanie rozwiązać nie korzystając z teorii łańcuchów
Markowa). Średnia liczba posiłków pchły przed śmiercią jest równa 4. Praw­
dopodobieństwo, że pchła zginie na czczo jest równe 1/3.
3. Rozw. Niech 1 będzie stanem pochłaniającym. Gdy Ai jest zdarzeniem po­
legającym na tym, że łańcuch nie wraca do stanu i, i ^ 2, to
P(Ai\Xo = i) > P(3ra: X n = 1|X0 = i) ź Pa{ni) > 0,
gdzie rii = min{n:pii(n) > 0}.
13. Proces W ienera
13.1. Definicja i konstrukcja
1. Rozw. Niech 0 < ii < t2 < ■■■ < tn. Wektor U = (Wtx, Wt2,■■■, Wtn) jest
obrazem wektora V = (Wti, Wt^—Wt^, - - •
—Wt„- i ) przy przekształceniu
liniowym X :R n —>R ", gdzie
T (x
1 , . . . ,X n) =
(x i,x i
+
X 2 , ■■■, X i
+ ... +
Xn )-
Wektor V ma, na mocy niezależności przyrostów, rozkład normalny z gęsto­
ścią
9v{x 1, •■■,Xn) —
■ i E r - i * ? 7“ *- “ - 1’ .
Odpowiedzi i wskazówki
466
Ponieważ detT = 1, zgodnie z zad. 5.5.5 gu{x) = gv{T 1x) ■|detT 1|, tj.
g v ( x X, . . . , % n ) —
fń ~ \ n TTn
(v 2 7 r )
/f
_ i
'~ e
t_1
ti —1
2. Wsk. Rozważyć proces Poissona.
3. Odp. K (t, s) = min(f, s) - is.
4. Rozw. =!> zad. 1.
Obraz liniowy
wektora
gaussowskiego jest
gaussowski.
-£= £Xo = 0, wobec tego Xo = 0 p.n. Ponieważ wektor (X t l , X tn) ma roz­
kład normalny o średniej zero i macierzy kowariancji
to argu­
ment podobny do tego z zad. 1 pokazuje, że (X tl, X t2 —X tl, . . . , X tn —X tn_ 1)
ma rozkład normalny o diagonalnej macierzy kowariancji, skąd otrzymujemy
(przykład 5.8.8c) niezależność przyrostów.
5. Wsk. Wszystkie procesy mają ciągłe trajektorie i skończenie wymiarowe roz­
kłady normalne o średniej zero. Wystarczy zatem obliczyć funkcję kowarian­
cji. W przypadku Y wykazać, że z prawdopodobieństwem 1 sup0<s<t Ys —» 0,
gdy i —>0, skąd wyniknie, że prawie wszystkie trajektorie są ciągłe w zerze.
6. Wsk. Proces W ma ciągłe trajektorie; sprawdzić niezależność przyrostów i
pokazać, że Wt+U — Wu ~ N (0, i), t, u ^ 0.
7. Wsk. Skorzystać z wyniku zad. 3.
8. Wsk. Wynika to natychmiast z zad. 5c.
9. Wsk. Wynika to natychmiast z zadania 8.
XI. Rozw. Kres górny ciągłej trajektorii na odcinku [0, i] jest równy jej kresowi
górnemu na zbiorze przeliczalnym [0, i] n B, zatem
{supWs ^ c} = { sup Wa ^ c } =
s ' ?4
^
[o .tin B
1,1
O
{W s < c} e Ft-
„
se [o ,t]n B
13.2. Własności trajektorii
1. Rozw. Niech Z
■jV (0, X). Wtedy
771Ti
e (S„ - (b - a )f = £(Z 2 - 1)2 ]T (4 "> - i ^ ) 2 ^
k=
1
^ £(Z 2 — 1)211"Pn11 - (6 — a) —» 0,
ponieważ HPnll —►0.
Druga część wynika z lematu Borela-Cantelliego i oszacowania
¿ P ( | 5 „ - ( 6 - a)| > £)
,
^
^
)
f2. Wsk. Zamiast kwadratowej nierówności Czebyszewa, jak w zad. 1, użyć wy­
kładniczej.
do rozdziału 13
467
3. Rozw. Niech V będzie wahaniem trajektorii procesu Wienera na [a, b]. Jest
to nieujemna niewłaściwa zmienna losowa (dopuszczamy wartości nieskoń­
czone); oznaczmy A = {u; £ f2:F(w) < oo} i przypuśćmy, że P(A) > 0.
Wtedy mamy
{ f c : ( f c . - l ) 2 - TŁ, f c 2 - T l6 ( o , 6 ] }
^ V(u)
sup
IWk2-n(u) - W{k_ 1)2- n(w)l
{fc:(/c—1)2“n,fc2“n6[a,6]}
Dla uj E A prawa strona zmierza do zera, gdy n —» oo, ponieważ trajektorie
są jednostajnie ciągłe na [a, 6j. Lewa strona zmierza p.n. do (b —a) na mocy
wyniku zadania 1 — sprzeczność.
Inny sposób: jeśli funkcja ma wahanie skończone, to jest różniczkowalna pra­
wie wszędzie.
13.3. Zasada odbicia
1. Odp. f(x) = y /2/( 7rtje_l2/2il[0,oo) (*)•
2. Wsk. Dla a > 0 skorzystać z zasady odbicia:
P(Ta ą t) = 2P(Wt > a ) = 2P(VtWi > a ) = 2(1 - $(a/V i)),
t > 0.
Różniczkując pi&wą. stronę otrzymujemy gęstość:
ga(t) = - ^ = r 3/ 2e - “2/ 2il [0.oo)(i).
v 27T
W ogólnym przypadku wystaiczy zastąpić a przez |a|.
3. Wsk. Skorzystać z zadania 1.
13.4. Mocna własność Markowa
1. Rozw. Z twierdzenia Dynkina-Hunta wynika, że proces Wienera po dojściu
do a rozpoczyna się od nowa i jest w szczególności niezależny od ra. Dlatego
dla każdego n € N
rW + . . . + r W ~ r M .
1
Z drugiej strony
P{ra ś t ) = 2P(Wt ź a) = 2P(VtWi ź a) =
= 2P(Wi ^ a/y/i) = P(ra/Vi ^ 1) = P(tra/Vi SCt).
Udowodniliśmy więc, że ra ~ tra
dowód.
a w szczególności r„a ~ n2ra, co kończy
2. Odp. Gęstość ra jest równa (zad. 13.3.2)
-= 4
e
l[ 0 ,oo)(i).
V
Ponieważ t„ ~ a2rlt ograniczymy się do tej ostatniej zmiennej losowej.
Odpowiedzi i wskazówki
468
a) W celu obliczenia transformaty Laplace’a skorzystamy z interesującego
spostrzeżenia ([FICH], t. II, roz. XIII, s. 524):
dx
- i r
/ ( u 2) du,
a, b > 0 ,
a Jo
przy założeniu, że jedna z całek jest zbieżna.
Mamy teraz (podstawiając x2 = 1/(21)):
- ( I2+S/(2x2))
e - sti - 3/2e - 1/2t di
->/55_2
=
/ '
* Ja
dx = e
2
-■/2s
dx ■
i
b) Podstawienie s = it powoduje kłopot w wyborem jednego z dwóch pier­
wiastków z liczby zespolonej. Wobec tego obliczymy część rzeczywistą i uro­
joną funkcji charakterystycznej. Skorzystamy z następujących tożsamości:
i
e~x cos(c2/ x 2)dx = ^ - e ~ c^ cos(cV2),
c > 0,
e~x sin(c2/ x 2)dx = ^ ^ e _cV^sin(cV/2),
c > 0.
Jo
j
Jo
Można je otrzymać przez dwukrotne zróżniczkowanie względem c obu całek
i rozwiązanie otrzymanego równania różniczkowego ([FICH], t. II, roz. XIV,
s. 626).
Niech s > 0. Mamy, podstawiając i = l/(2 x 2):
Rev?Tj(s) =
£ c o s (s ti)
2
= —-= I
=
J
cos(st)t~3/'2e~1/' ^ dt =
f°°
2
cos(s/2x2)e~x dx = eT^cos^/s.
V 71 Jo
Analogicznie obliczamy część urojoną. Uwzględniając parzystość funkcji cosinus i nieparzystość funkcji sinus otrzymujemy dla dowolnego s
VT1( s ) = e - <
-1- iseils)^ 7K
Liczba (1 — ¿sgn^y^si jest pierwiastkiem głównym liczby —2is. Jeśli z =
= |z|e,Argz, gdzie Arg z € [—ir,w] i jest zwany argumentem głównym, to
pierwiastkiem głównym liczby z jest y /jźfe^,Arg2)/2.
3. Rozw. Rozumowanie podobne do przeprowadzonego w zadaniu 1 pokazuje,
że VT<i musi mieć symetryczny rozkład 1-stabilny. Jedynym takim rozkła­
dem jest rozkład Cauchy’ego. Nie wiadomo jednak, jaki jest parametr skali.
do rozdziału 13
469
W takim razie należy przeprowadzić bezpośrednie rachunki:
/•OO
P(VTa iC s) = /
P(Vt ś s ) ^ = r 3/2e -a2/2tdi =
v27T
Jo
/•oo /»s
= /
/
t - 1/2~ e - x2' n - ^ = t - 3/2e~a2/2tdxdt =
Jo i-oo
V2w
/
s
ada:
oo ’r(a2 + s 2)'
4. P02 «;. Niech r = inf{s ^ 0: Ws ^ r}, r ^ 0, rj = (t —r) V 0. Wtedy
P(sup Ws ^ r) = P(r ^ i) = P(r ^ i, iyt ^ r) + P(r ^ i, Wt ^ r) =
s<i
= 2P ( W t źr),
ponieważ {W t ^ r] C {r ^ i} oraz
P(r ^ i, Wt ^ r) = P(t ^ t, Wt > r).
Ostatnia równość wynika stąd, że Wt = WT + £?,, = r + Bv, gdzie B jest
procesem Wienera niezależnym od Tt .
5. Wsk. Niech rn = ([2"r] + l )/ 2" . Wtedy ze znanej już tożsamości Walda
zastosowanej do martyngału (W j/2n)j wynika, że £W Tn = 0. Ale
WTn = W T + (Wr„ - WT) = WT + Un.
Należy wykazać, że £Un —>0. Ale z tw. Dynkina-Hunta Un = Bv„, gdzie B
jest innym procesem Wienera i 0 $ T)n ^ 2_n, zatem \U„\ ^ sup5^j |WS| £
€ L1, n = 1,2,__ Podobny argument stosuje się do drugiej tożsamości.
6. Rozw. a) jest oczywiste, b) również, bowiem dla każdego zbioru A € Tn
mamy f A hn+idP = 0.
Od tej chwili przyjmiemy, że Q = o(To,Ti, ...).
7. Rozw. Jeśli m > n, to z zad. 5 wynika, że
£h„hm = £ (£ (hnhm \Fm-i)) = £ (hn£ (hm \
= 0.
Wykażemy teraz zupełność. Niech f będzie dowolną funkcją z L2(Q.,Q,P).
Jeśli £fh n = 0 dla n = 1,2,... i /„ = £ ( / 1Fn), to / „ =
aihi, bowiem
funkcje ho, h i,. . . , hn są, jako ortogonalne, liniowo niezależne i tworzą bazę
w (n + l)-wymiarowej przestrzeni L2(Cl,F„,P).
Dlatego £ (f f n) = 0 dla każdego n, a ponieważ na mocy twierdzenia 11.6.6
o zbieżności martyngałów w Lp mamy f n ~~~> / , ostatecznie £ f 2 = 0, czyli
/ = 0 p.n.
8. Wsk. Przyjąć aj = £fhi i skorzystać z twierdzenia o zbieżności martyngałów
w Lp.
9. Wsk. X = P •(cos£/,sini/), gdzie zmienne losowe R i U są niezależne, a i/
ma rozkład W[0,27r].
10. PFsfc. Skorzystać z poprzedniego zadania.
*11. Wsk. Rozważyć moment to dojścia procesu do okręgu o środku x, zawartego
w G i skorzystać z tego, że w chwili To proces Wienera zaczyna się od nowa.
Odpowiedzi i wskazówki
470
13.5. Konstrukcja procesu Wienera...
1. Rozw. Ustalmy u, v € [0,1], u < v, weźmy / S Lp[0,1], Niech q = p* (czyli
l/p + 1/q = 1). Oznaczmy d = v — u. Wtedy
r(a) •\(Raf)(v) -
(Raf)(u)\ =
(v - i )a_1 / (t)dt ~ i
Ja
(u —t)a l)f(t)d t
+
JU
[ V( v - t ) (a- 1)qdt
JU
1 /9
f I( v - t ) ° - 1 ~ { u - t ) ° - l\qdt
+
Ja
W ostatnim wierszu skorzystaliśmy z nierówności Hóldera.
Oszacujemy teraz wyrażenia I i II. Mamy
1=
1
{a — l)q + l
1 /9
ponieważ [(a — 1)q + 1] •l/g = a — 1 + 1/g = a + l/p = A, a w szczególności
(a — l)g + 1 > 0.
Co do II, podstawiamy najpierw s = u —i, a następnie z = s/d:
1 /9
II =
[ \ { d + s)
Ja
/•OO
/
yo
1 /9
1(1 + z)“- 1
Wykażemy zbieżność ostatniej całki. W otoczeniu zera funkcja podcałkowa
jest rzędu z^a_1^ , gdzie (a — l)ę > —1. W nieskończoności funkcja podcał­
kowa szacuje się z twierdzenia o wartości średniej:
|(1 + z)“- 1 - z“" 1!9 ^ \a - 2\q\9 + z|(a~2\
6 G (0,1).
Dla dużych z prawa strona jest rzędu |z[(‘^_2)', , gdzie (a — 2)q < - 1 , skąd
wynika zbieżność całki.
Wykazaliśmy zatem, że
! ( * . / ) ( « ) - ( R a f ) ( u ) | ^ K a,„\\f\\Lv\u-v\\
co kończy dowód.
do rozdziału 13
471
2. Rozw. Oznaczmy
J
Vb,n(s) = (Rbe„)(s) =
(s - t)b 1en(t)dt.
Wtedy, zamieniając kolejność całkowania i korzystając z tego, że ^ “ ¡7*
~ ( £ « ? r 7 i, otrzymujemy
N
^ ^ yb,nP{n
n=M
LplO,l]
,e f
ds ■
Y , ybAshr.
Jo
P /2
■£\h
ds■
'Jo
Wykażemy teraz, że gdy M ,N —> oo, to całka po prawej stronie zmierza do
zera. W tym celu zauważmy, że liczba yb,n(s) da się przedstawić jako iloczyn
skalarny w Ł2[0,1] funkcji e„(i) oraz
ha(f) = -Mm pj^y(s ~ t)b l Wobec tego z równości Parsevala otrzymujemy
00
fs
i
y yU s ) = iih.(t)iiŁai0il] =
n=l
/
(s -tf^ d t-
r2(6) 2 6 - 1
i dalej:
Jg
ds = r(b)~p{2b-l)~p/2
s(26- 1)p/2ds < oo,
ponieważ 6 > 1/2. Dzięki temu można zastosować tw. Lebesgue’a o zbieżności
zmajoryzowanej i otrzymać zbieżność do zera całek w (15), co kończy dowód.
3. Wsk. Przy odpowiedniej interpretacji oznaczeń (| •|oznacza normę) dowody
przenoszą się bez zmian na przypadek wektorowy.
Skorowidz
e-sieć, 189
minimalna, 189
A-układ, 71
Tr-ukiad, 71
niezależność, 100
cr-ciała
niezależne, 46
rodzina niemalejąca, 221
<T-ciało, 9
JFT, 223
generowane przez rodzinę zbio­
rów, 13
generowane przez zmienną lo­
sową, 60
ogonowe (resztkowe), 146
produktowe, 345
Borowkow, Aleksander Aleksiejewicz,
484
Bortkiewicz, Władysław (1868-1931),
168
brak pamięci, 65, 66, 104, 107, 115,
117, 128
Brillat-Savarin, Anthelme
(1755-1826), 67
Brojer, Wojciech, 29
Brown, Robert, 304
Buffon, Georges Louis Leclerc de
(1707-1788), 21, 67
Całka, 340
wzdłuż krzywej, 363
Casanova, Giovanni Giacomo
(1725-1798), 229
Cauchy, Augustin Louis (1789-1857),
361
centralne twierdzenie graniczne, 203,
380
w wielu wymiarach, 219
Chandrasekhar, S., 305
Chinczyn, Aleksander Jakowlewicz
(1894-1959), 203
ciąg
Bemoulliego, 99, 106, 151, 200,
213, 241, 383, 415
prognozowalny, 228
uogólniony, 248
Cichocki, Bogdan, 304
Ciesielski, Zbigniew, 319
Cramera
transformata, 380, 381
warunek, 381
cykle w permutacji, 219
Czebyszew, Pafnutij Lwowicz
(1821-1894), 92
częstość, 8
Adaptowana rodzina zmiennych lo­
sowych, 222
aksjomat wyboru, 15
aksjomaty teorii prawdopodobieństwa,
10
Alembert, Jean Le Rond d’
(1717-1783), 22
argument, 364
główny, 468
Bayes, Thomas (1702-1761), 39
baza Schaudera, 318, 359
Bennett, Deborah J., 42
Bernoulli, Jakub (1654-1705), 154
Bernstein, S. N., 175
biegun funkcji, 370
Billingsley, Patrick, 484
Birkholc, Andrzej, 360
błądzenie przypadkowe
na prostej, 264, 281
w R ", 281
z barierami elastycznymi, 269
Bojdecki, Tomasz, 484
472
Skorowidz
częstość przebywania łańcucha Mar­
kowa w danym stanie, 295
Długość krzywej, 363
Doeblin, W., 203
Doktór, Jan, 29
Doob, Joseph Leo, 229-231, 244, 384
dopełnienie ortogonalne, 355
dylemat więźnia, 36
Dynkin, Jewgienij Borysowicz, 71
dystrybuanta, 63, 67, 70
Cantora, 113
empiryczna, 161
ułomna, 186
Einstein, Albert (1879-1955), 304
estymator, 90
Euler, Leonard (1707-1783), 330
Exner, Feliks, 305
Feller, William (1906-1970), 282,484
Fermat, Pierre de (1601-1665), 53
Fichtenholz, Grigorij Michajłowicz,
484
filtracja, 2 2 1
naturalna, 2 2 2
rodzina zmiennych losowych
adaptowana do, 2 2 2
funkcja
absolutnie ciągła, 73, 457
analityczna, 191, 360
beta, 325
borelowska, 59
charakterystyczna, 190, 335
losowej sumy, 198
rozkładu Cauchy’ego, 373
rozkładu cosinusa hiperbolicznego,
374
wielowymiarowa, 208
dodatnio określona, 192
gamma, 325
harmoniczna, 318, 368
dla łańcucha Markowa, 274
holomorficzna, 360
kowariancji procesu, 305
prosta, 340
tworząca, 330, 375
ciągu, 330
dla ogonów, 331
473
funkcja tworząca
momenty, 375
zmiennej losowej, 330
funkcje
Haara, 317
Rademachera, 415
Schaudera, 320
Gauss, Carl Friedrich (1777-1855),
118
Gersonides, Leon (1288-1344), 24
gęstość
rozkładu prawdopodobieństwa,
61, 62
warunkowa, 138
Gleichgewicht, B., 168
Graham, Ronald L., 484
Graunt, John (1620-1674), 66
Grimmett, GeoSrey R., 484
gruba moneta, 18, 21
Guibas, L. J., 460
Hacking, łan, 6 6
Halley, Edmund (1656-1742), 67
Hoffmann-j0 rgensen, j 0 rgen, 484
Huygens, Christian (1629-1695), 67,
79
Igła Buffona, 21
uogólnienie, 21
iloczyn skalarny, 354, 355
iloraz wiarogodności, 258
indeks krzywej względem punktu, 363
inwersje w permutacji, 219
Itô, K., 319
Jahwe, 29
Jajuga, K. i T., 412
jednostajna całkowalność, 113, 244
jędrność rodziny rozkładów, 179
Juszkiewicz, A. P., 484
Kac, Marek (1914-1984), 210, 376
Kahane, Jean-Pierre, 442
Kahneman, D., 403
Knuth, Donald E., 484
koincydencje, 31
Kołmogorow, Andriej Nikołajewicz
(1903-1987), 10
474
kombinacje, 24
z powtórzeniami, 26
kompensator, 385
Kordos, Marek, 78, 484
Kos, Bohdan, 29
kowariancja, 86
z próby, 90
kryterium Pólya, 202
krzywa, 363
Peano, 417
regresji liniowej, 90
zamknięta, 363
Kucharczyk, J., 168
kurtoza, 85
kwantyle, 487
Kwapień, Stanisław, 149, 211, 321,
484
Laplace, Pierre Simon de (1749-1827),
21,
39, 170, 375
laplasjan, 361
Leja, Franciszek (1885-1979), 200,
360
lemat
Borela-Cantelliego, 54, 55
Fatou, 80, 343
wersja warunkowa, 136
Halla o małżeństwach, 189
Kroneckera, 156
o 7T- i A-układach, 71, 96, 183,
250, 255, 270
Toeplitza, 156
Levy, Paul (1886-1971), 203
Li, S.-Y. R., 460
liczby
Bernoulliego, 329
losowe, 121, 164
normalne, 162
Lindeberg, J. W., 213
Lipski, Witold, 189
Łańcuch Markowa, 264
chwilowy, 284
ergodyczny, 291
jednorodny w czasie, 268
i
przestrzeni, 277
nieprzywiedlny, 275
okresowy, 284
pochłaniający, 301
Skorowidz
łańcuch Markowa
powracający, 282
Łukaszewicz, Jerzy, 402
Macierz
kowariancji, 87
podwójnie stochastyczna, 298
przejścia, 267, 271
stochastyczna, 268
Majstrów, Leonid Jefimowicz, 484
Marcinkiewicz, Józef (1910-1940), 164
Marek, Wiktor, 189
Markiewicz, Wojciech, 79
martyngał, 226
prawostronnie domknięty, 227,
244
z czasem ciągłym, 311
z czasem odwróconym, 242
zatrzymany, 227
Mere, kawaler de (wł. Antoine Gombaud), 31, 218
metody Monte Carlo, 160, 216, 319
metryka Levy’ego, 188
miara, 336
a-skończona, 181, 336
cylindryczna, 320, 321
Haara, 189
Lebesgue’a, 61, 336
licząca, 336, 358
produktowa, 254, 345
przesuwalna, 15
zewnętrzna, 337
mierzalność
w sensie Caratheodory’ego, 337
Mises, Richard von (1883-1953), 159
model
Coxa-Rossa-Rubinsteina, 260,
393
dyfuzji, 273
Ehrenfestów, 287
Pólya, 41, 240
moduł ciągłości, 94, 307
modyfikacja stochastyczna procesu,
306
Moivre, Abraham de (1667-1754),
170, 330
moment, 85, 375
absolutny, 85
centralny, 85
Skorowidz
moment stopu (zatrzymania, Mar­
kowa), 222, 293
optymalny, 389
momenty
wyznaczające rozkład, 379
zbieżność, 189, 379
most Browna, 310
Nadciąg, 263
nadmartyngał, 226
nadzieja
matematyczna, 79
moralna, 405
następstwa pozorne, 48, 49, 141
nawias skośny martyngału, 385
Neumann, John von (1903-1957), 18
Niemiro, Wojciech, 141
nieprzywiedlna klasa stanów, 303
nierówność
Bernsteina, 175
dla schematu Bernoulliego, 154
symetryczna, 107
Bessela, 355, 358
Cauchy’ego-Buniakowskiego-Schwarza, 91
Czebyszewa
uogólniona, 93
wykładnicza, 93
Czebyszewa-Bienayme, 93
Dooba, 244, 451, 456
Höldera, 92
Hardy’ego-Littlewooda, 107, 241
Hoffmanna-j0 rgensena, 153, 308
Jensena, 91
dla warunkowej wartości ocze­
kiwanej, 133
Kołmogorowa, 153
Levy’ego-Ottavianiego, 149
maksymalna dla podmartyngałów, 242
Markowa, 93
Minkowskiego, 353
Schwarza, 355
Younga, 92
niezależność
7r-układów, 100
cr-ciał, 46, 95
zdarzeń, 43
zmiennych losowych, 95
475
Nisio, M., 319
norma, 353
p-ta, 352
w przestrzeni Hilberta, 355
Obwiednia Snella, 389, 393
odchylenie standardowe, 85
Odlyzko, A. M., 460
ogon rozkładu, 406
opcja
amerykańska, 392
europejska, 258, 395
operator Riemanna-Liouville’a, 321
osobliwość usuwalna, 369
Ostwald, Wilhelm (1853-1932), 304
Owczarow, L. A., 175
Paradoks
Bertranda, 19
czasu oczekiwania, 107
d’Alemberta, 22
kawalera de Mere, 31
losowych liczb naturalnych, 16
Simpsona, 41
Pascal, Blaise (1623-1663), 24, 53
Patashnik, Oren, 484
Pepys, Samuel (1633-1703), 31
Peres, Y., 441
permutacje, 23
skończone, 148
z powtórzeniami, 27
Petty, William (1623-1687), 67
pierwiastek główny, 468
Pietsch, Albrecht, 321
Platon (429-348 p.n.e.), 29
podklasy cykliczne, 303
podmartyngał, 226
nierówność maksymalna, 242
Poisson, Simeon D. (1781-1840), 166
poker, 27
portfel, 58, 89, 259
efektywny, 412
replikujący, 260, 261
powłoka
liniowa, 358
wypukła, 18
prawdopodobieństwo, 8, 10
a •priori i a posteriori, 40
asymptotyczne, 17
476
prawdopodobieństwo
definicja klasyczna, 22
dojścia do zbioru stanów, 299
geometryczne, 17
warunkowe, 34
uogólnienie, 137
prawo
małych liczb, 168
wielkich liczb, 146
Bernoulliego, 154
Bernoulliego, mocne, 155
Bernsteina, 164
Chinczyna, 164, 203
dla procesu Wienera, 311
Etemadiego, 165
Kolmogorowa, mocne, 157,
158
mocne, 246
słabe, 155
zero-jedynkowe
Hewitta-Savage’a, 148
Kołmogorowa, 146, 246
problem
Haara, 200
Serbelloni, 402
proces
gałązkowy, 334
Poissona, 104, 210
stochastycznie ciągły, 308
stochastyczny, 104
Wienera, 64, 202, 305
prognoza wysokości roszczeń, 141
prosta regresji, 90
przeliczalna addytywność, 10
przestrzeń
Banacha, 64
euklidesowa, 354
Hilberta, 64, 130, 354
liniowa, 355
mierzalna, 336
polska, 64
probabilistyczna, 10
unitarna, 354
unormowana, 353
zupełna, 354
przyrosty martyngałowe, 236
pseudometryka, 148
Puszkin, Aleksander (1799-1837), 272
Skorowidz
Regresja
liniowa, 90, 139
reguła
równolegloboku, 355
trzech sigm, 95, 175
residuum, 372
Riemann, Bernhard (1826-1866), 361
rozbicie
przeliczalne, 37
skończone, 37
zbioru a, 37
rozkład
1/2-stabilny, 316
X2(n ), 120, 196
ściśle stabilny, 202
absolutnie ciągły, 62
arcusa sinusa, 118
arytmetyczny, 196, 197
Bernoulliego (dwumianowy), 114
beta, 118
bezatomowy, 208
brzegowy, 65
Cauchy’ego, 118, 421
ciągły, 62
Dooba nadmartyngału, 384
dwupunktowy, 114
dyskretny, 63
Erlanga, 104
gamma, 117
geometryczny, 64, 115, 332
hipergeometryczny, 116
jednopunktowy (delta Diraca),
65, 114
jednostajny, 65
na podzbiorze R ” , 117
liczby szkód, 141
logarytmicznie-normalny, 211, 379
normalny (Gaussa), 118,377,421
a jednostajny na sferze, 181
jednowymiarowy, 118
momenty, 325
standardowy, 118
wielowymiarowy, 119
osobliwy (singularny), 163
Pólya, 41, 116
Pascala, 116
pierwszej cyfry znaczącej, 65
początkowy łańcucha Markowa,
268
Skorowidz
rozkład
Poissona, 105, 115, 132, 377
prawdopodobieństwa, 61
gęstość, 14
zmiennej losowej, 60, 61
równomierny, 17
stabilny, 202
stacjonarny, 286
sumy niezależnych zmiennych lo­
sowych, 103
symetryczny, 192
trójkątny, 103
ujemny dwumianowy, 116
unimodalny, 118
warunkowy, 137
regularny, 142, 144
wielomianowy, 115
wykładniczy, 64, 117, 377
dwustronny, 106
wyznaczony przez momenty, 189,
379
zdarzeń rzadkich, 168
rozkłady
skończenie wymiarowe
łańcucha Markowa, 268
procesu, 305
zgodne, 306
równania
Cauchy’ego-Riemanna, 361
Chapmana-Kołmogorowa, 271
równość (tożsamość) Parsevala, 355
równoważność stochastyczna proce­
sów, 308
ruch Browna, 305
Rudin, Walter, 484
Rusiniak, Bożenna, 78
Rutherford, Ernest (1871-1937), 168
ryzyko, 89, 257
rzut ortogonalny, 356
Salem, Raphael, 442
sąsiedztwo punktu, 369
schemat
Bernoulliego, 49
Pólya, 41
serii, 211
znormalizowany, 212, 213, 215
Schlag, B. S., 441
Sierpiński, Wacław (1882-1969), 71
477
Słonimski, Antoni (1895-1976), 139
Smoluchowski, Marian (1872-1917),
304
Snell, James Laurie, 389, 485
Solomyak, Boris, 441
splot
funkcji, 103
gęstości, 103
rozkładów, 103
stan
chwilowy, 278, 303
dodatni, 298, 303
istotny, 303
nieistotny, 275, 279, 303
niezerowy, 303
okresowy, 284
osiągalny, 275
pochłaniający, 303
powracający, 278, 303
zerowy, 298, 303
stany komunikujące się, 275
statystyka
Bosego-Einsteina, 26
Fermiego-Diraca, 26
Maxwella-Boltzmanna, 26
statystj'ki pozycyjne, 106
Steinhaus, Hugo (1887-1972), 168
Stewart, łan, 25
Stirling, James (1692-1770), 327
Stirzaker, David R., 484, 485
supremum istotne, ess sup, 92
symetryzacja rozkładu, 205, 444
Szabat, Jewgienij Borysowicz, 360
Sziriajew, Albert Nikołajewicz, 485
sztuczka karciana, 291
Średni czas dojścia do zbioru sta­
nów, 299
średnia
ważona, 79, 156
z próby, 120
Świtała, Filip, 21
Tartaglia, Niccolo (1500-1557), 24
tożsamość
Parsevala, 204
Plancherela, 205
Walda, 224, 232, 235
dla procesu Wienera, 317
478
trajektoria procesu, 104, 305
transformata
Cramera, 380, 381
Fouriera, 190
Laplace’a, 316, 335, 375
dwustronna, 376
martyngałowa, 228, 229, 261
Tuwim, Julian (1894-1953), 139
Tversky, A., 403
twierdzenie
Berry-Esseena, 175, 212
Bochnera, 192, 206
Borela o liczbach normalnych,
162
Cauchy’ego
dla trójkąta, 365
dla zbioru wypukłego, 367
Cramera, 201
de Moivre’a-Laplace’a
integralne, 173
lokalne, 171
Diniego, 188
Dooba, 229-231, 450, 455
wersja wzmocniona, 230
Dynkina-Hunta, 314
ergodyczne, 291
Fellera, 215
Fishera, 121
Fubiniego, 345, 348
Gliwenki-Cantelliego, 162
Hadamarda, 200
Hewitta-Savage’a, 148
Kaca, 210, 376
Kakutaniego, 254
Kołmogorowa
o istnieniu procesu, 352
o rozkładach zgodnych, 350
o trzech szeregach, 151
o zgodności, 350
Levy’ego-Cramera o ciągłości,
199
Lebesgue’a o zbieżności zmajoryzowanej, 80, 345
Lebesgue’a-Leviego o zbieżno­
ści monotonicznej, 80, 341
Marcinkiewicza, 164
o całkowaniu przez podstawie­
nie, 75
o ciągłości, 12
Skorowidz
twierdzenie
o ciągłości warunkowej warto­
ści oczekiwanej, 245
o dwóch szeregach, 150
o funkcji pierwotnej, 365
o istnieniu miary Haara, 189
o istnieniu miary produktowej,
347
o mnożeniu prawdopodobieństw,
35
o odwrotnym przekształceniu
Fouriera, 205
o przedłużaniu miary, 13, 336
o reprezentacji martyngału, 260
o rozkładzie na podklasy cyklicz­
ne, 285
o rzucie ortogonalnym, 130, 356
o zbieżności martyngalów
w L1, 244
w Lp, 247
z czasem odwróconym, 242
o zbieżności nadmartyngałów,
237
o zbieżności zmajoryzowanej
wersja warunkowa, 136
Poissona, 166
Pratta, 113
Prochorowa, 186, 188
Radona-Nikodyma-Lebesgue’a,
129, 248
Riemanna-Lebesgue’a, 198
Riesza, 110
SchefFe’go, 181
Sheppa, 208
Skorochoda, 188
Stone’a-Weierstrassa, 195
Układ
ortonormalny, 356
Haara, 317, 359
zupełny, 356
Ułam, Stanisław (1909-1984), 160
Wallis, John (1616-1703), 327
wariacja kwadratowa, 311
wariacje
bez powtórzeń, 23
z powtórzeniami, 23
wariancja, 84
Skorowidz
wariancja
warunkowa, 136
z próby, 90, 120
wartość średnia (oczekiwana), 79
warunkowa, 122
warunek
Carathéodory’ego, 338
Cramera, 381
Lapunowa, 213
Lindeberga, 212, 213, 215
warunkowa wartość oczekiwana
pod warunkiem { Y = y), 134
względem cr-ciała, 126, 128
wektor losowy, 59
Wentzel, E. S., 175
Wentzell, Aleksander Dmitriewicz, 485
wielomiany
Bernsteina, 94
Wiener, Norbert (1894-1964), 306
Williams, David, 485
wizyta w zbiorze borelowskim, 223
własność
Markowa, 264, 293
mocna, 293, 314
wartości średniej, 368
Woyczyński, Wojbor A., 484
współczynnik
asymetrii (skośności), 85
korelacji, 86
spłaszczenia, 85
współrzędne barycentryczne, 267
wstępująca rodzina
zbiorów, 336
zdarzeń, 12
wzór
Bayesa, 39
uogólnienia, 141
całkowy Cauchy’ego, 367
Conwaya, 274
na prawdopodobieństwo całko­
wite, 37, 124
wersja wyrafinowana, 38
Stirlinga, 52, 170, 171, 219, 327
włączeń i wyłączeń, 11
Wallisa, 328
Zadanie
Banacha o zapałkach, 53
o dniach urodzin, 25
479
zadanie
o konkurencji, 176
o owadzie, 132
i mrówkach, 185
o pchle, 303
o podziale stawki, 53
o ruinie gracza, 41, 233
o taksówkach, 416
o
wystąpieniach wzorca, 273
Samuela Pepysa, 31
zagadnienie
Dirichleta, 318, 368
dyskryminacji, 257
optymalnego stopowania, 388
portfela inwestycyjnego, 89
prognozy, 135
Zakrzewski, Marek, 175
zamknięta klasa stanów, 303
zasada
odbicia, 313
symetryzacji, 427
zbiór
cylindryczny, 350
krytyczny, 257
mierzalny, 336
niemierzalny, 15
stanów, zamknięty, 275
wypukły, 356
zbieżność
dystrybuant (słaba), 185
prawie na pewno, 108
rozkładów (słaba), 180, 182
według
p-tego momentu (w Lp), 108
prawdopodobieństwa, 108
rozkładu, 180
zdarzenia, 8, 9
alternatywa, 8, 14
elementarne, 9
koniunkcja, 14
niezależne, 43
niezależne parami, 44
wykluczające się, 10
wzajemnie niezależne, 44
zdarzenie
niemożliwe, 9, 14
permutowalne, 148
pewne, 9, 14
przeciwne do danego, 14
480
zera funkcji holomorficznej, 368
zgodna rodzina miar, 350
zjawiska masowe, 7
zmienna losowa, 58
n-wymiarowa, 59
niewłaściwa, 220
o wartościach w przestrzeni pol­
skiej, 64
symetryczna, 192
Skorowidz
zmienne losowe
nieskorelowane, 87, 102
zstępująca rodzina
zbiorów, 336
zdarzeń, 12
Zubrzycki, Stefan, 485
zysk, 89
Żak, Tomasz, 175
Wykaz ważniejszych oznaczeń
ar
y
j
o
- **
ozn
= — równe z aeiinicji; = — oznacza;
N — zbiór liczb naturalnych. N = {1,2, . .. }, N U {0} °= Ń.
Z — zbiór liczb całkowitych.
C — zbiór liczb zespolonych.
R — zbiór liczb rzeczywistych. R + = [0,oo).
To wcale nie
oznacza, że
oznaczenia, o
których
zapomnieliśmy, są
mniej ważne.
R n = { ( z i , .. .,x n)\Xi G R, i = 1 ,2 ,... n}.
A A B = (A \ B) U (B \ A) — różnica symetryczna zbiorów A i B.
[.x] — część całkowita liczby x.
loga x — logarytm przy podstawie o liczby x\ domyślną podstawą jest e, czyli
log x jest logarytmem naturalnym.
an T oo — niemalejący ciąg (an) zmierza do nieskończoności. Analogicznie pi­
szemy bn i b.
o-n ~ bn — asymptotycznie równe, tj. lim j— = 1.
n —» o o
bn
o{x) — piszemy: f(x) = o(xn), gdy funkcja / jest określona w otoczeniu zera, i
lima;_o
= 0, n = 0,1,2,....
M ożna używać
0 (x) — piszemy: f(x) = 0(xn), gdy funkcja / jest określona w otoczeniu zera, ogólniejszych
a wyrażenie
jest ograniczone w tym otoczeniu zera, n = 0,1,2, —
oznaczeń: o(h (x))
(ut)teT — ciąg uogólniony, indeksowany elementami zbioru T.
A ł — transpozycja macierzy A
n! = n(n — 1) •... •2 •1; n!! = n(n — 2) - . . gdzie n € Ń, a mnożenia wykonuje
się, dopóki czynniki są dodatnie.
71' jty — symbol Newtona; wzór ma sens dla n = 0, 1, 2, . . . i k =
= 0, 1, .. . n. W postaci
(a\ _ a(a - 1) •... •(a — k + 1)
\k) ~
k\
ma sens dla dowolnego a £ R.
481
i 0 ( h (x ) ).
Wykaz ważniejszych oznaczeń
482
(fi, F , P) — przestrzeń probabilistyczna, fi jest zbiorem, T — cr-ciałem jesgo
podzbiorów, P — prawdopodobieństwem. Podobnie, jeśli p jest dowolną
miarą, mamy przestrzeń mierzalną: (X ,M ,p ).
13(B) — cr-cialo borelowskich podzbiorów przestrzeni metrycznej E. Najczęściej
E = R ".
F , Q, M. — typowe oznaczenia c-ciat.
A(yl) (wyjątkowo |j4|) — miara Lebesgue’a zbioru A.
|j4.| — objętość zbioru A.
U, V, W, X , Y,
— typowe oznaczenia zmiennych losowych.
¿¿, 1/ — typowe oznaczenia miar i rozkładów prawdopodobieństwa.
p ® v — produkt miar.
p®n, n®T — produkt n (a nawet T, gdzie T jest zbiorem indeksów) egzemplarzy
miary p.
p * u, f * g — splot miar i funkcji.
|/x| — pełna wariacja miary (ze znakiem) p.
X ~ p — zmienna losowa X ma rozkład p
Zmienna losowa X ma rozkład px, dystrybuantę Fx (jest to również dystrybuanta F^ rozkładu p) i funkcję charakterystyczną tpx \ może mieć gęstość.gx ,
a generuje <j-ciało cr(X).
ess supX = inf{t: Fx (t) = 1} — supremum istotne zmiennej losowej X .
£ X — wartość oczekiwana (średnia) zmiennej losowej X .
V 2X — wariancja.
cov(X ,Y ) — kowariancja zmiennych losowych X i Y.
p(X, Y) — współczynnik korelacji.
£ (X |F ) — warunkowa wartość oczekiwana zmiennej losowej X pod warunkiem
(j-ciała T.
V 2(X\F) — wariancja warunkowa.
£ (X |Y) — warunkowa wartość oczekiwana zmiennej losowej X pod warunkiem
zmiennej losowej Y.
£ ( X \ Y = y) — warunkowa wartość oczekiwana zmiennej losowej X pod warun­
kiem Y = y.
P(A\3r) — prawdopodobieństwo warunkowe zdarzenia A pod warunkiem <7-ciała
T.
P(A\Y = y) — prawdopodobieństwo warunkowe zdarzenia A pod warunkiem
Y
=
y.
PT — regularny rozkład warunkowy pod warunkiem T.
Px\F — regularny rozkład warunkowy X pod warunkiem T.
W ykaz ważniejszych oznaczeń
483
X(k) — A-ta statystyka pozycyjna ciągu (ATi,. .. X n)6a .— rozkład jednopunktowy skupiony w punkcie a (delta Diraca).
B(n,p) — rozkład Bernoulliego z parametrami n, p.
Pois(A) — rozkład Poissona z parametrem A.
U [a, b] — rozkład jednostajny na odcinku [a, 6].
AT (a, b) — jednowymiarowy rozkład normalny o średniej a i wariancji b
N (m, S) — wielowymiarowy rozkład normalny o wektorze wartości średniej m
i macierzy kowariancji E.
$ — dystrybuanta rozkładu Ai (0 , 1 ).
Różne rodzaje zbieżności:
p
X n — >X — ciąg zmiennych losowych (Xn) jest zbieżny do X według prawdo­
podobieństwa.
X — prawie na pewno.
Xn
X n — > X — według p-tych momentów (w Lp).
X — według rozkładu.
Xn
sł
/j,n — >ji — ciąg miar (/x„) jest słabo zbieżny do /i.
Fn -—t F — ciąg dystrybuant (F„) jest słabo zbieżny do F.
X , (Xt), (Xt)t, (Xt)t€T — różne oznaczenia tej samej rodziny zmiennych loso­
wych, indeksowanej parametrem t e T, czyli procesu stochastycznego.
X T — ciąg (proces) zatrzymany w chwili r, tj. X „ = X nAT.
|[a;|| — norma elementu x.
{x, y) — iloczyn skalamy x i y.
dA = A
nA
— brzeg zbioru A.
H{G) — zbiór funkcji holomorficznych na zbiorze otwartym G.
D(a,r) — otoczenie punktu o.
D'(a,r) — sąsiedztwo punktu a.
Res(/; a) — residuum funkcji / w punkcie a.
Jeśli 7 jest krzywą, czyli odpowiednim odwzorowaniem z [a, 6] w C, to
obrazem odcinka [a, 6] przy tym odwzorowaniu.
Ind-, (a) — indeks krzywej
7
względem punktu a.
7*
jest
Tablice rozkładu normalnego
Tablica 1. Dystrybuanta rozkładu Af (0,1)
Ze względu na
zależność
# ( - t ) = l - $ (t)
wystarczą
wartości dla t > 0.
/2 dx
t
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 ,53983 ,54380 ,54776 ,55172 ,55567 ,55962 ,56356 ,56749 ,57142 ,57535
0,2 ,57926 ,58317 ,58706 ,59095 ,59483 ,59871 ,60257 ,60642 ,61026 ,61409
0,3 ,61791 ,62172 ,62552 ,62930 ,63307 ,63683 ,64058 ,64431 ,64803 ,65173
0,4 ,65542 ,65910 ,66276 ,66640 ,67003 ,67364 ,67724 ,68082 ,68439 ,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 ,72575 ,72907 ,73237 ,73565 ,73891 ,74215 ,74537 ,74857 ,75175 ,75490
0,7 ,75804 ,76115 ,76424 ,76730 ,77035 ,77337 ,77637 ,77935 ,78230 ,78524
0,8 ,78814 ,79103 ,79389 ,79673 ,79955 ,80234 ,80511 ,80785 ,81057 ,81327
0,9 ,81594 ,81859 ,82121 ,82381 ,82639 ,82894 ,83147 ,83398 ,83646 ,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 ,86433 ,86650 ,86864 ,87076 ,87286 ,87493 ,87698 ,87900 ,88100 ,88298
1,2 ,88493 ,88686 ,88877 ,89065 ,89251 ,89435 ,89617 ,89796 ,89973 ,90147
1,3 ,90320 ,90490 ,90658 ,90824 ,90988 ,91149 ,91308 ,91466 ,91621 ,91774
1,4 ,91924 ,92073 ,92220 ,92364 ,92507 ,92647 ,92785 ,92922 ,93056 ,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 ,94520 ,94630 ,94738 ,94845 ,94950 ,95053 ,95154 ,95254 ,95352 ,95449
1,7 ,95543 ,95637 ,95728 ,95818 ,95907 ,95994 ,96080 ,96164 ,96246 ,96327
1,8 ,96407 ,96485 ,96562 ,96638 ,96712 ,96784 ,96856 ,96926 ,96995 ,97062
1,9 ,97128 ,97193 ,97257 ,97320 ,97381 ,97441 ,97500 ,97558 ,97615 ,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 ,98214 ,98257 ,98300 ,98341 ,98382 ,98422 ,98461 ,98500 ,98537 ,98574
2,2 ,98610 ,98645 ,98679 ,98713 ,98745 ,98778 ,98809 ,98840 ,98870 ,98899
2,3 ,98928 ,98956 ,98983 ,99010 ,99036 ,99061 ,99086 ,99111 ,99134 ,99158
2,4 ,99180 ,99202 ,99224 ,99245 ,99266 ,99286 ,99305 ,99324 ,99343 ,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 ,99534 ,99547 ,99560 ,99573 ,99585 ,99598 ,99609 ,99621 ,99632 ,99643
2,7 ,99653 ,99664 ,99674 ,99683 ,99693 ,99702 ,99711 ,99720 ,99728 ,99736
2,8 ,99744 ,99752 ,99760 ,99767 ,99774 ,99781 ,99788 ,99795 ,99801 ,99807
2,9 -,99813 ,99819 ,99825 ,99831 ,99836 ,99841 ,99846 ,99851 ,99856 ,99861
484
Tablice rozkładu normalnego
485
Tablica 1. Dystrybuanta rozkładu U (0,1) (c.d.)
t
0,00
0,01
0,02
0,03
0,04
3.0
3.1
3.2
3.3
3.4
0,99865
,93032
,9S313
,93517
,93663
0,99869
,93064
,93336
,93533
,93675
0,99874
,93096
,93359
,93550
,93687
0,99878
,93126
,93381
,93566
,93698
0,99882
,93155
,93402
,93581
,93709
3.5
3.6
3.7
3.8
3.9
0,93767
,93841
,93892
,94276
,94519
0,93776
,93847
,93896
,94305
,94538
0,93784
,93853
,94004
,94333
,94557
0,93792
,93858
,94042
,94359
,94575
0,93800
,93864
,94080
,94385
,94592
4.0
4.1
4.2
4.3
4.4
0,94683
,94793
,94866
,95145
,95458
4.5 0,95660
4.6 ,95789
4.7 ,95870
4.8 ,9*206
4,91 ,9S520
0,07
0,08
0,09
0,99886 0,99889
,93184 ,93211
,93423 ,93443
,93596 ,93610
,93720 ,93730
0,99893
,93238
,93462
,93624
,93740
0,99896
,93264
,93481
,93638
,93749
0,99900
,93289
,93499
,93650
,93758
0,93807
,93869
,94116
,94409
,94609
0,93815
,93874
,94150
,94433
,94625
0,93821
,93879
,94184
,94456
,94640
0,93828
,93883
,94216
,94478
,94655
0,93835
,93888
,94247
,94499
,94669
0,94696
,94802
,94872
,95183
,95483
0,94709 0,94721 0,94733 0,94744 0,94755
,94810 ,94819 ,94826 ,94834 ,94841
,94878 ,94883 .,94888 ,94893 ,94898
,95219 ,9S254 ,9S287 ,95319 ,95349
,95506 ,95528 ,9S550 ,9S570 ,95590
0,94765
,94848
,95022
,9S378
,95609
0,94775
,94854
,95065
,95406
,95626
0,94784
,94860
,9S106
,95433
,9S644
0,95676
,95798
,95876
,96244
,96544
0,95691
,95808
,95882
,96281
,9e567
0,9S756
,95849
,96078
,96441
,9S665
0,95767
,9S856
,96122
,9e469
,9S682
0,95778
,95863
,96165
,96495
,9S698
0,007
0,008
0,009
0,9S705
,95817
,95888
,9®316
,96588
0,95718
,95826
,95893
,96350
,96609
0,05
0,96732
,95834
,95898
,9e382
,96628
0,06
0,95744
,9S842
,96031
,96412
,9e647
Uwaga. 0,93123 = 0,999123, 0,94321 = 0,9999321, etc.
Tablica 2. Kwantyle rozkładu M (0,1)
up = $ _1(p)
p
0,000
0,001
0,002
0,003
0,004
0,005
0,006
0,50 0,00000 0,00251 0,00501 0,00752 0,01003 0,01253 0,01504
0,51 ,02507 ,02758 ,03008 ,03259 ,03510 ,03761 ,04012
0,52 ,05015 ,05266 ,05517 ,05768 ,06019 ,06271 ,06522
0,53 ,07527 ,07778 ,08030 ,08281 ,08533 ,08784 ,09036
0,54 ,10043 ,10295 ,10547 ,10799 ,11052 ,11304 ,11556
0,01755 0,02005 0,02256
,04263 ,04513 ,04764
,06773 ,07024 ,07276
,09288 ,09540 ,09791
,11809 ,12061 ,12314
0,55
0,56
0,57
0,58
0,59
0,12566
,15097
,17637
,20189
,22755
0,14337 0,14590
,16874 ,17129
,19422 ,19678
,21983 ,22240
,24559 ,24817
0,14843
,17383
,19934
,22497
,25076
0,60
0,61
0,62
0,63
0,64
0,25335 0,25594 0,25853 0,26112 0,26371 0,26631
,27932 ,28193 ,28454 ,28715 ,28976 ,29238
,30548 ,30811 ,31074 ,31337 ,31600 ,31864
,33185 ,33450 ,33716 ,33981 ,34247 ,34513
,35846 ,36113 ,36381 ,36649 ,36917 ,37186
0,26891 0,27151 0,27411
,29499 ,29761 ,30023
,32128 ,32392 ,32656
,34779 ,35045 ,35312
,37454 ,37723 ,37993
0,27671
.*30285
,32921
,35579
,38262
0,12819 0,13072 0,13324 0,13577 0,13830 0,14084
,15350 ,15604 ,15858 ,16112 ,16366 ,16620
,17892 ,18147 ,18402 ,18657 ,18912 ,19167
,20445 ,20701 ,20957 ,21214 ,21470 ,21727
,23012 ,23269 ,23527 ,23785 ,24043 ,24301
Tablice rozkładu normalnego
486
Tablica 2. Kwantyle rozkładu M (0,1) (c.d.)
0,002
0,003
0,004
p
0,000
0,001
0,65
0,66
0,67
0,68
0,69
0,38532
,41246
,43991
,46770
,49585
0,38802
,41519
,44268
,47050
,49869
0,39073 0,39343
,41793 ,42066
,44544 ,44821
,47330 ,47610
,50153 ,50437
0,39614 0,39886
,42341 ,42615
,45099 ,45376
,47891 ,48173
,50722 ,51007
0,70
0,71
0,72
0,73
0,74
0,52440
,55338
,58284
,61281
,64334
0,52728
,55631
,58581
,61584
,64643
0,53016 0,53305
,55924 ,56217
,58879 ,59178
,61887 ,62191
,64952 ,65262
0,53594 0,53884 0,54174
,56511 ,56805 ,57100
,59477 ,59776 ,60076
,62496 ,62801 ,63106
,65573 ,65884 ,66196
0,75
0,76
0,77
0,78
0,79
0,67449
,70630
,73885
,77219
,80642
0,67764 0,68080
,70952 ,71275
,74214 ,74545
,77557 ,77897
,80990 ,81338
0,80
0,81
0,82
0,83
0,84
0,84162
,87790
,91537
,95416
,99446
0,84520
,88159
,91918
,95813
,99858
0,84879 0,85239 0,85600 0,85962 0,86325 0,86689 0,87055 0,87422
,88529 ,88901 ,89273 ,89647 ,90023 ,90399 ,90777 ,91156
,92301 ,92686 ,93072 ,93459 ,93848 ,94238 ,94629 ,95022
,96210 ,96609 ,97009 ,97411 ,97815 ,98220 ,98627 ,99036
1,00271 1,00687 1,01104 1,01522 1,01943 1,02365 1,02789 1,03215
0,85
0,86
0,87
0,88
0,89
1,03643
,08032
,12639
,17499
,22653
1,04073
,08482
,13113
,18000
,23187
1,04505
,08935
,13590
,18504
,23724
1,04939
,09390
,14069
,19012
,24264
1,05375
,09847
,14550
,19522
,24809
1,05812
,10306
,15035
,20036
,25357
1,06252
,10768
,15522
,20553
,25908
1,06694
,11232
,16012
,21073
,26464
1,07138
,11699
,16505
,21596
,27024
1,07584
,12168
,17000
,22123
,27588
0,90
0,91
0,92
0,93
0,94
1,28155
,34075
,40507
,47579
,55477
1,28727
,34694
,41183
,48328
,56322
1,29303
,35317
,41865
,49085
,57179
1,29884
,35946
,42554
,49852
,58047
1,30469
,36581
,43250
,50626
,58927
1,31058
,37220
,43953
,51410
,59819
1,31652
,37866
,44663
,52203
,60725
1,32251
,38517
,45380
,53007
,61644
1,32854
,39175
,46106
,53820
,62576
1,33462
,39838
,46838
,54643
,63524
0,95
0,96
0,97
0,98
0,99
1,64485
,75069
,88079
2,05375
,32634
1,65463
,76241
,89570
2,07485
,36561
1,66456 1,67466 1,68494 1,69540 1,70604 1,71688 1,72793 1,73920
,77438 ,78661 ,79912 ,81191 ,82501 ,83843 ,85218 ,86629
,91103 ,92684 ,94314 ,95996 ,97737 ,99539 2,01409 2,03352
2,09693 2,12007 2,14441 2,17009 2,19728 2,22621 ,25713 ,29036
,40892 ,45727 ,51213 ,57583 ,65209 ,74777 ,87815 3,09024
0,005
0,68396 0,68713 0,69031
,71599 ,71923 ,72248
,74876 ,75208 ,75541
,78237 ,78577 ,78919
,81687 ,82038 ,82389
0,006
0,007
0,008
0,40157 0,40429 0,40701
,42889 ,43164 ,43440
,45654 ,45933 ,46211
,48454 ,48736 ,49019
,51293 ,51579 ,51866
0,54464 0,54755
,57395 ,57691
,60376 ,60678
,63412 ,63719
,66508 ,66821
0,009
0,40974
,43715
,46490
,49302
,52153
0,55046
,57987
,60979
,64027
,67135
0,69349 0,69668 0,69988 0,70309
,72574 ,72900 ,73228 ,73556
,75875 ,76210 ,76546 ,76882
,79262 ,79606 ,79950 ,80296
,82742 ,83095 ,83450 ,83805
Nota bibliograficzna
Pisząc książkę korzystaliśmy z wielu źródeł, w tym oczywiście z podręczników,
z których sami uczyliśmy się rachunku prawdopodobieństwa. Oto najważniejsze
z nich:
[BIL] Patrick Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987
[BOJ] Tomasz Bojdecki, Martyngaly z czasem dyskretnym, zarys teorii i przy­
kłady zastosowań, Wyd. UW, Wyd. I, Warszawa 1977
[BOR] Aleksander Aleksiejewicz Borowkow, Rachunek prawdopodobieństwa,
PWN, Warszawa 1975
[FEL] William Feller, Wstęp do rachunku prawdopodobieństwa, t. I i II, wyd.
II zmienione, PWN, Warszawa 1966 (od tej pory były dalsze wydania)
[FICH] Grigorij Michajłowicz Fichtenholz, Rachunek różniczkowy i całkowy,
t. I-III, wyd. IV, PWN, Warszawa 1966
[GKP] Ronald L. Graham, Donald E. Knuth, Oren Patashnik, Matematyka
konkretna, Wydawnictwo Naukowe PWN, Warszawa 1996
[GRS] Geoffrey R. Grimmett, David R. Stirzaker, Probability and Random Pro­
cesses, wyd. II, Oxford University Press, Oxford-New York-Toronto
1992
[HIS] Historia matematyki pod red. A. P. Juszkiewicza, PWN, Warszawa,
1975
[HJ] Jörgen Hoffmann-j0rgensen, Probability with a View toward Statistics,
t. I—II, Chapman and Hall, London-New York 1994
[KOR] Marek Kordos, Wykłady z historii matematyki, Wyd. Szkolne i Pedago­
giczne, Warszawa 1994
[KWA] Stanisław Kwapień, Wojbor A. Woyczyński, Random Series and Sto­
chastic Integrałs: Single and Multiple, Birkhäuser, Boston-Basel-Berlin
1992
[MAJ-1] Leonid Jefimowicz Majstrów, Teorija wierojatnostiej, Istoriczeskij oczerk,
Nauka, Moskwa 1967 (przekład angielski: Probability Theory: A Histo­
rical Sketch)
[MAJ-2] — , Razwitije poniatija wierojatnosti, Nauka, Moskwa 1980
[RUD-1] Walter Rudin, Real and Complex Analysis, McGraw-Hill, London, New
York, Toronto 1970 (przekład polski wydania II: Analiza rzeczywista
i zespolona, PWN, Warszawa 1986)
487
488
Nota bibliograficzna
[RUD-2] — , Podstawy analizy matematycznej, PW N , Warszawa 1969
[SNE] James Laurie Snell, Introduction to Probability, Random House, New
York 1988
[STI] David R. Stirzaker, Probability and Random Variables: A Beginners Gu­
ide, Oxford Univ. Press, 1999
[SZI] Albert Nikołajewicz Sziriajew, Wierojatnost, Nauka, Moskwa 1980
[WIL] David Williams, Probability with Martingales, Oxford University Press
1991
[WEN] Aleksander Dmitriewicz Wentzell, Wykłady z teorii procesów stocha­
stycznych., PWN, Warszawa 1980
[ZUB] Stefan Zubrzycki, Wykłady z rachunku prawdopodobieństwa i statystyki
matematycznej, PWN, Warszawa 1970
'i
f
Spis treści
P rzedm ow a........................................................................................................
5
1
Opis
§1.1.
§ 1.2.
§ 1.3.
doświadczenia losowego................................................................
Przykłady. Aksjomaty teorii prawdopodobieństwa.........................
Przeliczalny zbiór zdarzeń elementarnych........................................
Prawdopodobieństwo geometryczne.................................................
7
7
16
17
2
Klasyczna definicja prawdopodobieństwa........................................
§2.1. Podstawowe schematy kombinatoryczne........................................
§ 2.2. Typowe błędy......................................................................................
22
22
28
3
Prawdopodobieństwo warunkowe........................................................
33
§3.1. Definicja i przykłady..........................................................................
33
§ 3.2. Wzór na prawdopodobieństwo całkowite i wzór Bayesa............... 37
4
Niezależność zdarzeń ................................................................................
§4.1. Definicja i przykłady..........................................................................
§ 4.2. Schemat Bernoulliego..........................................................................
§4.3. Lemat Borela-Cantelliego.................................................................
5
Zmienne lo s o w e .........................................................................................
58
§5.1. Definicja; rozkład zmiennej losowej..................................................
58
§ 5.2. Własności dystrybuanty rozkładu na R .........................................67
§ 5.3. Własności dystrybuanty rozkładu na R n ................ . . . . . . . .
69
§ 5.4. Dystrybuanta a gęstość.......................................................................
73
75
§ 5.5. Gęstość a odwzorowania gładkie ........................................................
§ 5.6. Parametry rozkładów..........................................................................
77
§ 5.7. Nierówności związane z momentami..................................................
91
§ 5.8. Niezależne zmienne losowe.................................................................
95
§ 5.9. Różne rodzaje zbieżności zmiennych losowych............................... 108
§ 5.10. Przegląd ważniejszych rozkładów.....................................................114
6
Warunkowa wartość oczekiwana...........................................................122
§6.1. Wprowadzenie...................................................................................... 122
§ 6.2. Warunkowa wartość oczekiwana względem rozbicia przeliczalnego 123
489
43
43
49
54
490
Spis treści
§6.3. Definicja og óln a .................................................................................... 128
§ 6.4. Prawdopodobieństwo warunkowe — uogólnienie............................ 137
§6.5. Regularne rozkłady w arunkow e........................................................ 142
7
Su m y niezależnych zm iennych lo s o w y c h ............................................146
§7.1. Wprowadzenie....................................................................................... 146
§ 7.2. Prawo zero-jedynkowe K ołm ogorow a...............................................146
§ 7.3. Zbieżność szeregów niezależnych zmiennych losow ych...................149
§ 7.4. Prawa wielkich l i c z b ...........................................................................154
§7.5. Twierdzenie Poissona...........................................................................166
§ 7.6. Twierdzenie de Moivre’a-Laplace’a .................................................. 169
8
Z b ie żn o ść r o z k ł a d ó w ................................................................................. 177
§8.1. Przykłady i d e fin icja ...........................................................................177
§ 8.2. Charakteryzacje słabej zbieżności rozkładów .................................. 182
§ 8.3. Zbieżność rozkładów, a zbieżność dystrybuant............................... 185
9
F u nkcje charakterystyczne .................................................................... 190
§9.1. Definicja i p rzyk łady...........................................................................190
§ 9.2. Twierdzenie Levy’ego-Cramera o ciąg łości..................................... 198
§ 9.3. Twierdzenie Bochnera i wzory na o d w ró c e n ie ............................... 203
§ 9.4. Wielowymiarowe funkcje charakterystyczne .................................. 208
10 C en traln e tw ierdzenie g r a n ic z n e ........................................................... 211
§ 10.1. Wprowadzenie....................................................................................... 211
§ 10.2. Twierdzenie Lindeberga-Levy’e g o ..................................................... 213
11 M a r t y n g a ł y ................................................................................................... 220
§ 11.1. Momenty s t o p u ....................................................................................220
§ 11.2. Martyngały, nadmartyngały, podmartyngały ...................................226
§ 11.3. Twierdzenie o zbieżności nadm artyngałów..................................... 237
§11.4. Nierówności martyngałowe................................................................. 242
§ 11.5. Zbieżność martyngałów w Lp ........................................................... 244
§ 11.6. Twierdzenie Radona-Nikodyma............................ ........................... 248
§ 11.7. Miary produktowe i zastosowania w statystyce............................... 252
§ 11.8. Zastosowania w matematyce finansowej............................................258
12 Ł ań cu ch y M a r k o w a ....................................................................................263
§ 12.1. Definicja i p rzyk ład y .......................................................................... 263
§ 12.2. Klasyfikacja stanów ............................................................................. 274
§ 12.3. Stany chwilowe i pow racające........................................................... 277
§ 12.4. Łańcuchy okresow e............................................................................. 284
§ 12.5. Rozkłady stacjonarne i twierdzenia e rg o d y cz n e ............................ 286
§ 12.6. Dojście do ustalonego zbioru s t a n ó w ...............................................299
13 P r o ce s W i e n e r a ..........................................................................................304
§ 13.1. Definicja i konstrukcja....................................................................... 304
§ 13.2. Własności trajek torii.........................._..............................................311
Spis treści
491
§ 13.3. Zasada o d b i c i a ........................................................................................ 313
§ 13.4. Mocna własność M ark ow a..................................................................... 314
§ 13.5. Konstrukcja procesu Wienera za pomocą układów ortonormalnych 319
D o d a t k i ............................................................................................................. 323
A Kilka faktów z a n a liz y ............................................................................ 323
§A.l. Pożyteczne nierówności...................................................................... 323
§ A.2. Funkcje gamma i b e t a ...................................................................... 325
§ A.3. Wzór Stirlinga .................................................................................. 327
B Funkcje tworzące ..................................................................................... 330
§B.l. Definicja i podstawowe własności.................................................... 330
§ B.2. Funkcja tworząca sumy niezależnych składników............................332
C Teoria
§ C.l.
§ C.2.
§ C.3.
§ C.4.
§C.5.
§ C.6.
miary i całki, przestrzenie Lp ................................................. 336
Twierdzenie o przedłużaniu miary.................................................... 336
Całka względem miary probabilistycznej........................................ 340
Miara produktowa i twierdzenie Fubiniego..................................... 345
Twierdzenie Kolmogorowa o rozkładach zgodnych......................... 350
Przestrzenie Lp .................................................................................. 352
Przestrzenie Hilberta......................................................................... 354
D Funkcje analityczne i metoda residuów ........................................... 360
§D.l. Funkcje holomorficzne...................................................................... 360
§ D.2. Twierdzenie Cauchy’ego w zbiorze wypukłym............................... 365
§D.3. Zera i bieguny..................................................................................... 368
§D.4. Residua.............................................................................................. 372
E Funkcja tworząca momenty (transformata Laplace’a) ................375
§E.l. Definicja i przykłady......................................................................... 375
§ E.2. Transformata Cramera. Oszacowanie szybkości zbieżności w moc­
nym prawie wielkich lic z b ................................................................ 380
F Teoria
§F.l.
§F.2.
§ F.3.
optymalnego stopowania.......................................................... 384
Rozkład Dooba nadmartyngałów.................................................... 384
Zagadnienie optymalnego stopowania.............................................. 388
Opcje amerykańskie ......................................................................... 392
Odpowiedzi i wskazówki............................................................................... 396
Skorowidz.......................................................................................................... 472
Wykaz ważniejszych ozn aczeń ................................................................... 481
Tablice rozkładu normalnego...................................................................... 484
Nota bibliograficzna
..................................................................................... 487
Download
Study collections