Uploaded by Piotr Biskup

calyzbior

advertisement
POLITECHNIKA KRAKOWSKA
IM. TADEUSZA KOŚCIUSZKI
WYDZIAŁ FIZYKI MATEMATYKI I INFORMATYKI STOSOWANEJ
ELEMENTY PROBABILISTYKI
W ZADANIACH
Margareta Wiciak
2
Kraków 2008
Spis treści
1. Definicja i własności prawdopodobieństwa
1.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
1.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
7
7
11
12
2. Prawdopodobieństwo klasyczne
2.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
2.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
15
15
20
24
3. Prawdopodobieństwo geometryczne
3.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
3.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
37
37
39
41
4. Prawdopodobieństwo warunkowe...
4.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
4.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
47
47
50
52
5. Wzór na prawdopodobieństwo
esa
5.1. Teoria i zadania . . . . . . . .
5.2. Wskazówki . . . . . . . . . .
5.3. Odpowiedzi i rozwiazania
. .
,
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
57
57
60
63
6. Zmienne losowe i ich rozkłady
6.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
6.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
71
71
76
77
7. Dystrybuanta
7.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
7.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
7.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
81
81
83
84
całkowite. Wzór Bay-
4
SPIS TREŚCI
8. Parametry zmiennych losowych
8.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
8.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
8.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
89
89
94
95
9. Funkcje zmiennych losowych
9.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . .
9.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . .
9.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . .
,
107
107
109
110
10.Zmienne losowe niezależne.
10.1. Teoria i zadania . . . . . .
10.2. Wskazówki . . . . . . . .
10.3. Odpowiedzi i rozwiazania
,
Wektory
. . . . . .
. . . . . .
. . . . . .
losowe
117
. . . . . . . . . . 117
. . . . . . . . . . 122
. . . . . . . . . . 124
11.Funkcje wektorów losowych
133
11.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 133
11.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 135
11.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . . 136
,
12.Funkcja charakterystyczna
147
12.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 147
12.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 150
12.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . . . . 151
,
13.Twierdzenie Poissona.
Centralne twierdzenie
niczne
13.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . .
13.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . .
13.3. Odpowiedzi i rozwiazania
. . . . . . . . . . . . . .
,
14.Przykładowe zestawy sprawdzające
gra163
. . 163
. . 167
. . 169
177
15.Tablica dystrybuanty standardowego rozkładu normalnego N (0, 1)
183
Wstęp
Niniejszy zbiór zadań powstał na podstawie ćwiczeń z rachunku
prawdopodobieństwa, jakie prowadziłam na kierunku Matematyka
na Wydziale Fizyki, Matematyki i Informatyki Stosowanej Politechniki Krakowskiej. Zawarte w zbiorze zadania pogrupowano w trzynastu rozdziałach, w których kolejno analizowane są: definicja i własności prawdopodobieństwa, prawdopodobieństwo klasyczne, geometryczne, prawdopodobieństwo warunkowe, niezależność zdarzeń,
schemat Bernoullego, wzór na prawdopodobieństwo całkowite, wzór
Bayesa, a następnie zmienne losowe i rozkłady prawdopodobieństwa,
dystrybuanta, parametry zmiennych losowych, funkcje zmiennych losowych, niezależność zmiennych losowych, funkcja charakterystyczna
i w końcu centralne twierdzenie graniczne. Większość przestawionych zadań to zadania typowe, pochodzące z istniejących zbiorów zadań z rachunku prawdopodobieństwa, choć niektóre nie są dostępne
w języku polskim. Dla wygody Czytelnika zebraliśmy je w niniejszej pozycji. Część z nich, to zadania, które poznałam dzięki moim
nauczycielom rachunku prawdopodobieństwa: profesorowi Markowi
Capińskiemu i profesorowi Wojciechowi Słomczyńskiemu.
Struktura niniejszego zbioru zadań ma zachęcić Czytelnika i możliwie ułatwić samodzielną pracę. Każdy rozdział składa się z trzech
podrozdziałów. W pierwszym podrozdziale przypominamy podstawowe definicje i twierdzenia, z których będziemy korzystać rozwiązując zadania. Następnie proponujemy średnio kilkanaście zadań do
rozwiązania. Część z nich zwykle rozwiązujemy na ćwiczeniach, pozostałe, to zadania do samodzielnego rozwiązania. Drugi podrozdział
zawiera wskazówki, jak rozwiązywać poszczególne zadania i wskazuje
na analogie między nimi. Trzeci, składa się z rozwiązań i odpowiedzi
do zadań.
Ostatni rozdział zawiera przykładowe zadania ze sprawdzianów
i egzaminów, jakie odbyły się w latach ubiegłych.
6
Wstęp
Mam nadzieję, że taki układ podręcznika umożliwi, z jednej strony
lepsze przygotowanie się do zajęć, z drugiej da możliwość sprawdzenia
poprawności samodzielnych rozwiązań. Oczywiście należy pamiętać,
że wiele zadań można rozwiązać na kilka sposobów.
1. Definicja i własności prawdopodobieństwa
1.1. Teoria i zadania
Niech Ω bedzie
dowolnym zbiorem niepustym, zaś P(Ω) oznacza
,
rodzine, podzbiorów Ω.
Rodzine, Σ ⊂ P(Ω) nazywamy σ-algebra,
, jeśli spełnione sa,
nastepuj
ace
warunki:
,
,
1) Σ 6= ∅,
2) jeśli A ∈ Σ, to A0 = Ω \ A ∈ Σ,
3) jeśli A1 , A2 , . . . ∈ Σ, to
∞
S
Ai ∈ Σ.
i=1
Łatwo zauważyć, że warunek (1) można zastapić
jednym z warunków:
,
Ω ∈ Σ lub ∅ ∈ Σ. W zwiazku
z tym, najmniejsza, możliwa, σ-algebra,
,
jest {∅, Ω}. Elementy Σ nazywamy zdarzeniami lub zbiorami mierzalnymi. Ω nazywamy zdarzeniem pewnym, ∅ zdarzeniem niemożliwym.
Jeśli A ∈ Σ, to A0 nazywamy zdarzeniem przeciwnym do A. Jeśli A,
B ∈ Σ i A ∩ B = ∅, to mówimy że zdarzenia A i B wykluczaja, sie,
wzajemnie. Pare, (Ω, Σ) nazywamy przestrzenia, mierzalna.
,
Niech A ∈ Σ bedzie
zbiorem
niepustym
i
A
=
6
Ω.
Oczywiście
ro,
0,
dzina {∅, Ω, A} nie jest σ-algebra,
ale
wystarczy
j
a
uzupełnić
o
A
,
,
aby tworzyła σ-algebre.
, Ogólnie, jeśli A ⊂ P(Ω), to σ-algebra, generowana, przez rodzine, podzbiorów A nazywamy najmniejsza, σ-algebre,
zawierajac
, a, rodzine, A. Oznaczamy ja, symbolem σ(A).
W szczególności, gdy Ω = Rn , zaś A oznacza rodzine, zbiorów
otwartych w Rn , to σ(A) nazywamy rodzina, zbiorów borelowskich
w Rn . Rodzine, zbiorów borelowskich w Rn oznaczamy B(Rn ).
Rozważmy przestrzeń mierzalną (Ω, Σ). Prawdopodobieństwem
(miara, probabilistyczna)
, nazywamy dowolna, funkcje, P : Σ →
[0, +∞), która spełnia nastepuj
ace
aksjomaty:
,
,
i) P (Ω) = 1 (warunek unormowania),
8
Definicja i własności prawdopodobieństwa
ii) jeśli A1 , A2 , . . . ∈ Σ parami sie, wykluczaja,
, to
P(
∞
[
Ai ) =
i=1
∞
X
P (Ai )
(przeliczalna addytywność).
i=1
Każda, miare, probabilistyczna, określona, na przestrzeni mierzalnej
(Rn , B(Rn )) nazywamy rozkładem prawdopodobieństwa.
Rozkładami prawdopodobieństwa bedziemy
sie, zajmować w rozdziale 6
,
i nastepnych.
,
Trójke, (Ω, Σ, P ) nazywamy przestrzenia, probabilistyczna.
,
Odnotujmy nastepuj
ace
własności prawdopodobieństwa:
,
,
a) P (∅) = 0, P (A) ∈ [0, 1] dla każdego A ∈ Σ;
b) jeśli zdarzenia A1 , . . . , An ∈ Σ parami sie, wykluczaja,
to
,
n
n
S
P
P ( Ai ) =
P (Ai ) (skończona addytywność);
i=1
i=1
c) P (A0 ) = 1 − P (A);
d) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) dla dowolnych A, B ∈ Σ.
Własność d) można uogólnić na dowolna,
, skończona, liczbe, składników, jest to tzw. wzór włacz-wył
acz
,
,
P
n
[
i=1
!
Ai
=
n
X
P (Ai ) −
i=1
X
P (Ai ∩ Aj ) + . . .
1≤i<j≤n
(1)
+(−1)n+1 P (A1 ∩ . . . ∩ An )
dla dowolnych A1 , . . . , An ∈ Σ.
Niech dana będzie rodzina zdarzeń (An )n∈N . Mówimy, że rodzina
jest wstepuj
aca,
gdy An ⊂ An+1 dla każdego n ∈ N, zaś zstepuj
aca,
,
,
,
,
gdy An+1 ⊂ An dla każdego n ∈ N.
1.1. Teoria i zadania
9
Twierdzenie o ciagłości
prawdopodobieństwa. Jeśli (An )n∈N
,
jest wstepuj
ac
a
rodzin
a
zdarzeń,
to
, ,
,
,
!
[
P
(2)
An = lim P (An ).
n∈N
n→∞
Jeśli (An )n∈N jest zstepuj
ac
, a, rodzina, zdarzeń, to
,
!
\
P
An = lim P (An ).
n∈N
n→∞
(3)
Zad.1.1. Niech Ω = {1, 2, 3, 4}. Które z podanych rodzin podzbiorów
tworza, σ-algebry:
F1 = {∅, {1, 2}, {3, 4}};
F2 = {∅, Ω, {1}, {2, 3, 4}, {1, 2}, {3, 4}};
F3 = {∅, Ω, {1}, {2}, {1, 2}, {3, 4}, {2, 3, 4}, {1, 3, 4}}?
Zad. 1.2. Niech Ω = (0, 1). Które z podanych rodzin podzbiorów
tworza, σ-algebry:
F1 = {∅, (0, 1), (0, 21 ), ( 12 , 1)};
F2 = {∅, (0, 1), (0, 21 ), [ 12 , 1), (0, 32 ], ( 23 , 1)};
F3 = {∅, (0, 1), (0, 32 ), [ 23 , 1)}?
Zad. 1.3. Niech a, b ∈ R, (a < b). Wykazać, że nastepuj
ace
zbiory sa,
,
,
borelowskie w R: (a, b), [a, +∞), [a, b], (a, b], {a}, dowolony zbiór
przeliczalny, N, zbiór liczb niewymiernych.
Zad. 1.4. Wykazać, że jeśli A ⊂ D ⊂ P(Ω), to σ(A) ⊂ σ(D).
Zad. 1.5. Niech A ⊂ P(R) oznacza rodzine, otwartych przedziałów
w R. Wykazać, że σ(A) = B(R).
Zad. 1.6. Niech D ⊂ P(R) oznacza rodzine, domknietych
przedziałów
,
w R. Wykazać, że σ(D) = B(R).
Zad. 1.7. Dane sa, zdarzenia A, B, C. Zapisać za pomoca, działań na
zbiorach nastepuj
ace
zdarzenia:
,
,
10
Definicja i własności prawdopodobieństwa
a) zachodzi tylko zdarzenie A;
b) zachodzi dokładnie jedno ze zdarzeń A, B, C;
c) zachodza, dokładnie dwa spośród zdarzeń A, B, C;
d) zachodza, co najmniej dwa ze zdarzeń A, B, C;
e) nie zachodzi żadne ze zdarzeń A, B, C.
Zad. 1.8. Wiadomo, że P (A) = 0, 7, a P (B) = 0, 8 dla pewnych
zdarzeń A i B. Pokazać, że wtedy P (A ∩ B) ≥ 0, 3.
Zad. 1.9. Wiadomo, że P (A ∪ B) = 0, 8, a P (A \ B) = 0, 3 dla
pewnych zdarzeń A i B. Pokazać, że wtedy P (B) ≤ 0, 6.
Zad. 1.10. Niech P (A ∪ B) = 23 , P (A ∩ B) = 41 , P (A0 ) = 31 dla
pewnych zdarzeń A i B. Obliczyć P (B 0 ), P (A ∩ B 0 ), P (B \ A).
Zad. 1.11. Dane sa, P (A∪B) = 21 i P (A∩B) = 14 . Ponadto spełniony
jest warunek P (A \ B) = P (B \ A). Obliczyć P (A), P (B \ A).
Zad. 1.12. Wiadomo, że A ∪ B ∪ C = Ω, P (B) = 2P (A), P (C) =
3P (A), P (A ∩ B) = P (B ∩ C). Pokazać, że 61 ≤ P (A) ≤ 41 .
Zad. 1.13. Dane sa, P (A) = 14 i P (B) = 43 , A ∩ B = ∅. Uporzadkować
,
rosnaco:
P (A ∪ B), P (A0 ∪ B), P (A ∪ B 0 ).
,
Zad.1.14. Wykazać twierdzenie o ciagłości
prawdopodobieństwa, (2),
,
(3).
Zad. 1.15. Wykazać subaddytywność prawdopodobieństwa, tzn. jeśli
A1 , A2 , . . . ∈ Σ, to
∞
∞
[
X
P ( Ai ) ≤
P (Ai ).
i=1
i=1
1.2. Wskazówki
11
1.2. Wskazówki
1.1. Patrz definicja σ-algebry (s. 7).
1.2. Patrz definicja σ-algebry (s. 7).
1.3. Patrz definicja σ-algebry i rodziny zbiorów borelowskich w R
(s. 7).
1.4. Patrz definicja σ-algebry generowanej przez zadana, rodzine, podzbiorów (s. 7).
1.5. Skorzystać z zad. 1.4. Zauważyć, że dowolny zbiór otwarty U
można przedstawić
[
U = {(a, b) : a, b ∈ Q, (a, b) ⊂ U }.
(4)
1.6. Skorzystać z zad. 1.3 i 1.4. Zauważyć, że dla dowolnych a, b ∈ R
takich, że a < b
(a, b) =
∞
[
n=1
[a +
1
1
, b − ].
n
n
(5)
1.7. Skorzystać z odpowiednich działań na zbiorach: sumy, iloczynu,
dopełnienia zbioru.
1.8. Skorzystać z własności prawdopodobieństwa d), a) (s. 7, 8).
1.9. A ∪ B = (A \ B) ∪ B.
1.10. Skorzystać z własności d) prawdopodobieństwa i zauważyć, że
A = (A ∩ B) ∪ (A ∩ B 0 ), A0 = A0 ∩ B ∪ (A ∪ B)0 .
1.11. Zapisać zdarzenia A ∪ B oraz A jako sumy stosownych zdarzeń,
porównać zad. 1.9, 1.10.
1.12. W celu uzyskania górnego oszacowania skorzystać ze skończonej
subaddytywności prawdopodobieństwa (porównać zad. 1.15).
Aby otrzymać oszacowanie dolne, szacować prawdopodobieństwo P (B ∪ C).
12
Definicja i własności prawdopodobieństwa
1.13. Jeśli A ∩ B = ∅, to B ⊂ A0 i A ⊂ B 0 .
S
1.14. W przypadku (2), przedstawić ∞
n=1 An jako sume, zdarzeń
rozłacznych.
Przypadek
(3)
sprowadzić
do przypadku (2). Mia,
nowicie, rozważyć rodzine, dopełnień danych zdarzeń i zauważyć,
że jest rodzina, wstepuj
ac
, a.
,
,
1.15. Udowodnić najpierw skończona, subaddytywność, tzn.
P(
n
[
Ai ) ≤
i=1
n
X
P (Ai ).
i=1
Nastepnie
przejść do granicy,
,
o ciagłości
prawdopodobieństwa.
,
korzystajac
z twierdzenia
,
1.3. Odpowiedzi i rozwiazania
,
1.1. F3 .
1.2. F3 .
1.3. Przedział (a, b) jest zbiorem otwartym, wiec
, jest borelowski.
[a, +∞) = (−∞, a)0 i dopełnienie zbioru borelowskiego jest zbio0
rem borelowskim. Podobnie [a, b] = ((−∞, a)
S ∪ (b, +∞))1 oraz
0
{a} = ((−∞, a) ∪ (a, +∞)) . Z kolei (a, b] = n∈N (a, b + n ) jest
borelowski jako przeliczalna suma zbiorów borelowskich. Jeśli A jest zbiorem przeliczalnym, to S
elementy A można ustawić
w ciag,
A
=
{a
,
a
,
.
.
.},
czyli
A
=
1
2
n∈N {an } jest zbiorem bo,
relowskim. Stad
w
szczególności
N
jest
borelowski. Podobnie
,
0
Q jest borelowski, zatem Q czyli zbiór liczb niewymiernych jest
też borelowski.
1.4. Skoro A ⊂ D i oczywiście D ⊂ σ(D), to A ⊂ σ(D). Ale σ(A)
jest najmniejsza, σ-algebra, zawierajac
, a, rodzinę A, zatem σ(A) ⊂
σ(D).
1.3. Odpowiedzi i rozwiazania
,
13
1.5. Rodzina A ⊂ top R, zatem zgodnie z zad. 1.4, σ(A) ⊂ B(R).
Aby wykazać inkluzje, przeciwną zauważmy, że zgodnie z przedstawieniem (4), top R ⊂ σ(A), wiec
, z definicji B(R), B(R) ⊂
σ(A).
1.6. W zad. 1.3 uzasadnialiśmy, że każdy przedział domkniety
jest
,
borelowski, stad
, w oparciu o zad. 1.4, σ(D) ⊂ B(R). Z kolei, zgodnie z przedstawieniem (5), A ⊂ D, czyli σ(A) ⊂ σ(D)
i w konsekwencji B(R) ⊂ σ(D).
1.7. a) A ∩ B 0 ∩ C 0 ;
b) A ∩ B 0 ∩ C 0 ∪ A0 ∩ B ∩ C 0 ∪ A0 ∩ B 0 ∩ C;
c) D = A ∩ B ∩ C 0 ∪ A ∩ B 0 ∩ C ∪ A0 ∩ B ∩ C;
d) D ∪ A ∩ B ∩ C;
e) A0 ∩ B 0 ∩ C 0 .
1.8. 1 ≥ P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Stad
, P (A ∩ B) ≥
0, 5 > 0, 3.
1.9. P (B) = 0, 5 ≤ 0, 6.
1.10. P (B 0 ) = 34 , P (A ∩ B 0 ) =
5
12 ,
P (B \ A) = 0.
1.11. P (B \ A) = 18 , P (A) = 38 .
1
1.12. 1 = P (A ∪ B ∪ C) ≤ P (A) + P (B) + P (C), stad
, 6 ≤ P (A).
Z drugiej strony 1 ≥ P (B ∪ C) ≥ 4P (A), czyli P (A) ≤ 41 .
1.13. P (A ∪ B 0 ), P (A0 ∪ B), P (A ∪ B).
1.14. Zakładamy, że (An )n∈N jest wstepuj
ac
, a, rodzina, zdarzeń. Niech
,
B1 = A1 , Bn = An \ An−1 dla n ≥ 2. Zdarzenia Bn parami sie,
n
∞
∞
[
[
[
wykluczaja,
Bk = An oraz
Bk =
Ak . Zatem
, ponadto
k=1
P(
∞
[
k=1
Ak ) = P (
∞
[
Bk ) =
k=1
= lim
n→∞
n
X
k=1
k=1
∞
X
k=1
P (Bk )
k=1
P (Bk ) = lim P (
n→∞
n
[
k=1
Bk ) = lim P (An ).
n→∞
14
Definicja i własności prawdopodobieństwa
Jeśli teraz rodzina (An )n∈N jest zstepuj
aca,
to zdarzenia
,
,
(A0n )n∈N tworza, rodzine, wstepuj
ac
a.
St
ad
, ,
,
,
P(
∞
\
An ) = 1 − P (
n=1
∞
[
A0n ) = 1 − lim P (A0n ) = lim P (An ).
n→∞
n=1
n→∞
1.15. Najpierw dowodzimy skończoną subaddytywność, korzystajac
,
np. z zasady indukcji matematycznej.
W
przypadku
przeliczalS
nym, oznaczmy Bn = nk=1 Ak i zauważmy, że rodzina (Bn )n∈N
jest wstepuj
aca.
Nastepnie,
korzystajac
,
, z twierdzenia o ciagłości
,
,
,
i przypadku skończonego, mamy
P(
∞
[
Ak ) = P (
k=1
∞
[
Bk ) = lim P (Bn ) = lim P (
k=1
≤
lim
n→∞
n
X
k=1
n→∞
P (Ak ) =
n→∞
∞
X
k=1
P (Ak ).
n
[
k=1
Ak )
2. Prawdopodobieństwo klasyczne
2.1. Teoria i zadania
Niech Ω bedzie
zbiorem skończonym, Ω = {ω1 , . . . , ωn }, a Σ
,
rodzina, wszystkich podzbiorów
zbioru Ω. Dany jest ciag
liczb
,
Pn
p1 , . . . , pn > 0 takich, że i=1 pi = 1. Połóżmy P ({ωi }) = pi . Wtedy
prawdopodobieństwo dowolnego zdarzenia A ⊂ Ω możemy zdefiniować
X
P (A) =
pi ,
gdzie I = {i : ωi ∈ A}.
i∈I
Jeśli dodatkowo przyjmiemy, że zdarzenia elementarne sa, jednakowo
prawdopodobne, tzn. P ({ω1 }) = . . . = P ({ωn }), to oczywiście pi = n1
dla i = 1, . . . n. Wtedy
P (A) =
#A
#A
=
.
n
#Ω
(6)
Prawdopodobieństwo zdarzenia A określone wzorem (6) nazywamy
prawdopodobieństwem klasycznym.
Schemat rozwiazania
typowego zadania jest nastepuj
acy:
usta,
,
,
lamy przestrzeń zdarzeń elementarnych Ω, a nastepnie
określamy
,
interesujace
nas zdarzenie A ⊂ Ω. W ustaleniu tych zbiorów
,
najcześciej
pomaga próba formalnego opisu wyniku doświadczenia
,
losowego, z którym mamy do czynienia. W końcu, stosujemy wzór
(6), do obliczenia prawdopodobieństwa. W prostszych przypadkach
można po prostu wypisać elementy przestrzeni Ω i zdarzenia A, i je
policzyć. W ogólnej sytuacji przydatne sa, pewne wzory kombinatoryczne.
Niech dany bedzie
zbiór n-elementowy A.
,
Permutacja, zbioru A nazywamy dowolna, bijekcje, f : A → A.
Łatwo zauważyć, że jeśli przez Pn oznaczymy liczbe, permutacji zbioru
n-elementowego, to
Pn = n! .
(7)
16
Prawdopodobieństwo klasyczne
Dowolna, funkcje, f : {1, 2, . . . , k} → A nazywamy k-elementowa,
wariacja, z powtórzeniami. Jeśli liczbe, k-elementowych wariacji z powtórzeniami oznaczymy Wnk , to
Wnk = nk .
(8)
Dowolna, injekcje, f : {1, 2, . . . , k} → A nazywamy k-elementowa,
wariacja, bez powtórzeń (k = 1, . . . , n). Jeśli liczbe, k-elementowych
wariacji bez powtórzeń oznaczymy Vnk , to
Vnk =
n!
.
(n − k)!
(9)
Dowolny k-elementowy podzbiór zbioru A (k = 0, 1, . . . n) nazywamy k-elementowa, kombinacja.
, Jeśli liczbe, k-elementowych kombinacji oznaczymy Cnk , to
n
n!
k
Cn =
=
.
(10)
k
k!(n − k)!
W pewnych przypadkach wygodniej jest liczyć moc zdarzenia przeciwnego i korzystać z własności c) prawdopodobieństwa (s. 8).
W przypadku, gdy zdarzenie, którego prawdopodobieństwo obliczamy, jest sumą zdarzeń, stosujemy wzór włącz-wyłącz (wzór
(1), s. 8).
Zad. 2.1. Jakie jest prawdopodobieństwo, że układajac
, losowo litery
M, A, T, E, M, A, T, Y, K, A utworzy sie, słowo MATEMATYKA?
Zad. 2.2. Liczby 1, 2, . . . , n ustawiamy losowo w ciąg.
prawdopodobieństwo, że liczby:
Obliczyć
a) 1 i 2 nie sasiaduj
a, ze soba;
,
,
b) 1, 2 i 3 nie tworza, trzech kolejnych wyrazów (niezależnie od
porzadku);
,
c) 1, 2 i 3 bed
, a, ustawione jedna obok drugiej w kolejności wzrastania.
2.1. Teoria i zadania
Zad. 2.3. Na ile sposobów można posadzić n osób dookoła okragłego
,
stołu? Dwa rozmieszczenia, w których każdy ma tych samych
sasiadów
uważamy za jednakowe.
,
Zad. 2.4. Dwanaście osób, w tym Ania i Basia, siada losowo przy
okragłym
stole. Jaka jest szansa, że Ania i Basia usiad
,
, a, obok siebie?
Zad. 2.5. Winda z 7 pasażerami zatrzymuje sie, na 10 pietrach.
Obli,
czyć prawdopodobieństwo, że żadnych dwóch pasażerów nie wysiadzie
,
na tym samym pietrze.
,
Zad. 2.6. Jakie jest prawdopodobieństwo, że w grupie 30-osobowej
znajda, sie, osoby, które obchodza, urodziny tego samego dnia? Obliczyć to samo dla grupy 24- i 40-osobowej.
Zad. 2.7. Spośród 100 losów dwa wygrywaja.
, Kupiono jednocześnie
pieć
, losów. Obliczyć prawdopodobieństwo, że wśród nich znajduje sie:
,
a) jeden los wygrywajacy;
,
b) dwa losy wygrywajace;
,
c) co najmniej jeden los wygrywajacy.
,
Zad. 2.8. Rzucamy dwiema symetrycznymi kostkami do gry. Niech A
oznacza zdarzenie, że suma wyrzuconych oczek jest liczba, parzysta,
,
B – zdarzenie, że jedynka wypadnie na co najmniej jednej kostce.
Obliczyć P (A ∪ B), P (A ∩ B).
Zad.2.9. Z talii 52 kart wylosowano kolejno 13 kart, za każdym razem
zwracajac
, karte, do talii. Jakie jest prawdopodobieństwo, że dwie
z wylosowanych kart bed
, a, czerwone?
Zad. 2.10. Rzucamy czterema kostkami do gry. Jakie jest prawdopodobieństwo, że na wszystkich wypadnie ta sama liczba oczek?
Zad. 2.11. Obliczyć prawdopodobieństwo, że z liczb naturalnych
mniejszych od 107 wylosujemy:
a) liczbe, 13;
b) liczbe, 7-cyfrowa, o różnych cyfrach.
17
18
Prawdopodobieństwo klasyczne
Zad. 2.12. Spośród liczb: 2, 4, 6, 7, 8, 11, 12 i 13 wybrano dwie i utworzono ułamek. Obliczyć prawdopodobieństwo, że ułamek da sie, skrócić.
Zad. 2.13. Ze zbioru {a, b, c, d, e} wybrano pewien podzbiór. Jakie
jest prawdopodobieństwo, że wybrany podzbiór ma dokładnie k elementów?
n X
n
= 2n .
Zad. 2.14. Wykazać, że
k
k=0
Zad. 2.15. Wykazać, że dla n > 1
n
X
k−1
(−1)
k=1
n
k
= 0,
k
n
X
n
k
= n · 2n−1 .
k
k=1
Zad. 2.16. Wykazać wzór Van der Monde’a:
k X
m
n
m+n
=
i
k−i
k
(11)
i=0
dla m, n, k ∈ N takich, że k ≤ min{m, n}.
Zad. 2.17. Ustawiono w losowej kolejności n osób, jedna za druga,
,
a w tej liczbie osoby A i B.
a) Obliczyć prawdopodobieństwo, że pomiedzy
osobami A i B bedzie
,
,
stać dokładnie r osób.
b) Pokazać, że jeżeli n osób posadzono przy okrągłym stole, to prawdopodobieństwo, że pomiedzy
osobami A i B usiądzie dokładnie
,
r osób nie zależy od r.
Zad. 2.18. Obliczyć prawdopodobieństwo, że spośród n osób siadajacych:
,
a) na ławce;
b) przy okragłym
stole,
,
k określonych osób usiadzie
jedna obok drugiej w dowolnym porzadku.
,
,
2.1. Teoria i zadania
Zad. 2.19. Na ile sposobów można podzielić n-elementowy zbiór na
k podzbiorów zawierajacych
odpowiednio r1 , . . . , rk elementów, gdzie
,
r1 + . . . + rk = n?
Zad. 2.20. Na ile sposobów można rozdać n paczków
k osobom?
,
Zad. 2.21. n rozróżnialnych kul umieszczono n komórkach. Jaka jest
szansa, że dokładnie jedna komórka zostanie pusta?
Zad. 2.22. Na ile sposobów można wylosować k kul z urny, w której
znajduje sie, m kul, gdy losujemy:
a) ze zwracaniem i z uwzglednianiem
kolejności;
,
b) ze zwracaniem i bez uwzgledniania
kolejności;
,
c) bez zwracania i bez uwzgledniania
kolejności;
,
d) bez zwracania i z uwzglednianiem
kolejności?
,
Zad. 2.23. Do pociagu
złożonego z 10 wagonów wsiada 15 pasażerów,
,
którzy wybieraja, wagony losowo. Obliczyć prawdopodobieństwo, że
do każdego wagonu wsiadzie
przynajmniej jeden pasażer.
,
Zad. 2.24. Do zdjecia
pozuja, cztery pary małżeńskie, ustawiajac
, sie,
,
w rzedzie.
Obliczyć prawdopodobieństwo, że żadna żona nie stoi obok
,
swojego meża.
,
Zad.2.25. Obliczyć prawdopodobieństwo, że w piecioosobowej
grupie
,
wybranej z pieciu
par
małżeńskich,
nie
ma
żadnego
małżeństwa.
,
Zad. 2.26. Grupę składającą się z pięciu pań i dziesięciu panów podzielono na trzyosobowe zespoły. Jaka jest szansa, że w każdym zespole znajdzie się pani?
Zad. 2.27. Przy okragłym
stole stoi 6 krzeseł, na których siada 2
,
Anglików, 2 Francuzów i 2 Turków. Obliczyć prawdopodobieństwo,
że osoby tej samej narodowści nie siedza, obok siebie.
Zad. 2.28. Na półce stoi 12 ksiażek.
Obliczyć prawdopodobień,
stwo, że wybierajac
5
ksi
ażek
z
półki,
nie
zabierzemy żadnych dwóch
,
,
stojacych
wcześniej
obok
siebie.
,
19
20
Prawdopodobieństwo klasyczne
Zad. 2.29. Przy okragłym
stole siedzi 12 Rycerzy. W czasie obrad
,
każdych dwóch siedzacych
obok
siebie pokłóciło sie.
,
, Król Artur musi
posłać w misje, 5 Rycerzy. Jakie jest prawdopodobieństwo, że wśród
wysłanych bed
, a, jacyś Rycerze, którzy wcześniej sie, pokłócili?
Zad. 2.30. Przez pustynie, idzie karawana złożona z pieciu
,
wielbładów.
Jaka jest szansa, że zmieniajac
,
, kolejność wielbładów
,
w karawanie, przed żadnym wielbładem
nie bedzie
szedł ten co po,
,
przednio?
Zad. 2.31. Na imprezie mikołajkowej, podczas której każdy z 20
uczestników ma dostać prezent, wszystkie prezenty pozbawiono karteczek z imieniem adresata, losowo wymieszano i rozdano uczestnikom.
Obliczyć prawdopodobieństwo, że dokładnie 8 osób dostanie własny
prezent.
Zad. 2.32. Na ile sposobów można pokolorować wszystkie boki kwadratu majac
różnych kolorach?
, farby w pieciu
,
Uwaga: dwa pokolorowania kwadratu uważamy za identyczne, jeżeli
da sie, je nałożyć na siebie za pomoca, obrotu płaszczyzny, w której
leży kwadrat.
Zad. 2.33. Przy kwadratowym stole posadzono cztery pary małżeńskie w ten sposób, że przy każdym boku stołu siedza, dwie osoby.
Obliczyć prawdopodobieństwo, że kobiety i meżczyźni
siedza, na prze,
mian, przy czym żadna para nie siedzi ani obok siebie (na tym samym
boku lub na sasiednim),
ani dokładnie naprzeciw siebie.
,
Zad. 2.34. Dziewieć
, kul (trzy białe, trzy czerwone i trzy czarne)
ustawiamy losowo w ciag.
Obliczyć prawdopodobieństwo, że żadne
,
dwie kule tego samego koloru nie bed
, a, stały obok siebie.
Uwaga: kule tego samego koloru traktujemy jako nierozróżnialne.
2.2. Wskazówki
2.1. Doświadczenie losowe polega na przestawianiu liter: A, A, A, E,
K, M, M, T, T, Y. Każde przestawienie, to ciag
, 10-elementowy,
czyli permutacja zbioru 10-elementowego.
2.2. Wskazówki
2.2. W przypadku a) i b) wygodnie posłużyć sie, zdarzeniem przeciwnym. Jeśli pewne elementy maja, sasiadować,
to można je
,
traktować jako jednen obiekt.
2.3. Zbadać liczbe, rozwiazań
dla n = 2 i n = 3.
,
2.4. Porównać zad. 2.2 i 2.3.
2.5. Jak zapisać wynik doświadczenia losowego, z którym mamy tu
do czynienia?
2.6. Zauważyć, że mamy ten sam schemat rozwiazania,
co w zad. 2.5.
,
Tym razem jednak trudność polega na znalezieniu wartości liczbowej prawdopodobieństwa. Wynik można oszacować korzy−x ≈ 1 − x.
stajac
, z przybliżenia e
2.7. Zauważmy, że kolejność w rozważanym doświadczeniu losowym
nie jest istotna, a wiec
, wybieramy podzbiory 5-elementowe ze
zbioru stuelementowego.
2.8. Wynikiem doświadczenia losowego jest tu ciąg dwuelementowy:
(wynik na pierwszej kostce, wynik na drugiej kostce). Można
wypisać zdarzenia A i B oraz A ∪ B i A ∩ B.
2.9. Zbiór Ω to zbiór ciągów 13-elementowych ze zbioru 52 elementów, przy czym elementy ciągów mogą się powtarzać. Zdarzenie
sprzyjające, to każdy ciąg, który zawiera dwie spośród 26 czerwonych kart.
2.10. Porównać zad. 2.8.
2.11. Ile jest liczb naturalnych mniejszych od 107 ?
2.12. Można wypisać zbiór Ω i zdarzenia sprzyjające.
2.13. Ile jest wszystkich podzbiorów zbioru n-elementowego? W zadaniu n = 5.
2.14. Można przeprowadzić dowód kombinatoryczny, tzn. nadać
kombinatoryczny sens lewej i prawej stronie równości. Można
21
22
Prawdopodobieństwo klasyczne
też skorzystać ze wzoru dwumianowego Newtona
n X
n k n−k
n
(a + b) =
a b
dla a, b ∈ R.
k
(12)
k=0
2.15. Zauważyć, że k nk = n · n−1
k−1 dla k = 1, . . . , n i skorzystać ze
wzoru Newtona (12) dla b = 1 i stosownie dobranego a.
Można też obliczyć pochodną funkcji x 7→ (1 + x)n .
2.16. Wzór można wykazać kombinatorycznie. Można też porównać współczynniki przy xk w rozwinięciu obu stron równości
(1 + x)m+n = (1 + x)m (1 + x)n .
2.17. Porównać zad. 2.2, 2.3.
2.18. Porównać zad. 2.17.
2.19. Aby dokonać takiego podziału, można wybierać kolejno podzbiory r1 , . . . , rk -elementowe.
2.20. Należy przyjąć, że pączki są nierozróżnialne. W takim razie itej osobie możemy przyporządkować liczbę ri pączków, które ta
osoba dostanie, gdzie ri = 0, . . . , n, co oznacza, że każda osoba
może dostać od zera do n pączków. Zadanie polega więc na
obliczeniu, ile jest ciągów (r1 , . . . , rk ), spełniających warunek
r1 + . . . + rk = n.
Ten sam problem można sformułować: na ile sposobów można
rozmieścić n nierozróżnialnych kul w k komórkach.
2.21. Skoro kule są rozróżnialne, to każdej kuli możemy przyporządkować numer komórki, do której trafi. Jeśli dokładnie jedna
komórka zostanie pusta, to w innej muszą znaleźć się dwie kule.
2.22. a) Wynikiem doświadczenia jest ciąg k-elementowy, wybrany
ze zbioru m-elementowego, przy czym elementy ciągu mogą się
powtarzać, porównać zad. 2.5.
b) Porównać zad. 2.20.
c) Porównać zad. 2.7.
2.2. Wskazówki
d) Wynikiem doświadczenia jest ciąg k-elementowy, wybrany ze
zbioru m-elementowego, przy czym każdy element może pojawić
się w ciągu tylko raz, porównać zad. 2.5.
2.23. Rozważyć zdarzenie przeciwne, które jest sumą zdarzeń Ai , że
do i-tego wagonu, i = 1, . . . , 10, nie wsiądzie żaden pasażer.
Zastosować wzór włącz-wyłącz (1).
2.24. Porównać zad. 2.23.
2.25. Wybieramy 5 osób spośród 10, przy czym kolejność nie ma znaczenia. Aby wśród wybranych osób nie było ani jednego małżeństwa, z każdej pary możemy wybrać męża lub żonę, tworzymy
więc ciągi 5-elementowe ze zbioru 2-elementowego.
2.26. Porównać zad. 2.19.
2.27. Porównać zad. 2.24, uwzględnić fakt, że osoby sadzamy przy
okrągłym stole, patrz zad. 2.3.
2.28. Można obliczyć prawdopodobieństwo zdarzenia przeciwnego
korzystając ze wzoru włącz-wyłącz. Można też liczyć wprost,
przeprowadzając doświadczenie „odwrotne”, zamiast zabierać
książki z półki, wkładać je w 8 miejsc pomiędzy 7 książkami.
2.29. Porównać zad. 2.28, pamietając, że Rycerze siedzą przy okrągłym stole. Ustalić jednego z Rycerzy, a następnie rozpatrzyć
dwa przypadki, w zależności od tego, czy ustalony Rycerz został
posłany w misję czy nie.
2.30. Obliczyć prawdopodobieństwo zdarzenia przeciwnego ze wzoru
(1). Porównać zad. 2.23.
2.31. Najpierw wybieramy 8 osób, które dostaną swoje prezenty,
a następnie pozostałym 12 osobom trzeba rozdać prezenty tak,
aby żadna z nich nie dostała swojego prezentu.
2.32. Rozważyć przypadki kiedy używamy:
• jednego koloru, wtedy wszystkie boki są tego samego koloru;
23
24
Prawdopodobieństwo klasyczne
• czterech kolorów, wtedy każdy bok jest innego koloru;
• dwóch kolorów, wtedy mamy po dwa boki tego samego
koloru, lub trzy boki tego samego koloru i jeden inny;
• trzech kolorów, wtedy jeden kolor musi się powtarzać.
2.33. Czym rozważana sytuacja różni się od tej, gdy osoby sadzalibyśmy przy okrągłym stole? Zauważyć, że jeśli kobiety i mężczyźni
siedzą na przemian, przy czym żadna para nie siedzi ani obok
siebie ani dokładnie naprzeciw siebie, to rozmieszczenie kobiet
determinuje rozmieszczenie mężczyzn.
2.34. Ustawiać kolejno kule poszczególnych kolorów. Porównać zad.
2.28.
2.3. Odpowiedzi i rozwiazania
,
2.1. Ω to zbiór permutacji 10-elementowych, wiec
, #Ω = 10!. Aby
ułożyć żadany
wyraz
każda
litera
musi
trafić
na swoje miejsce,
,
z tym, że litery M możemy przestawiać na dwóch miejscach (na
2! sposobów), A na trzech (3!), T na dwóch (2!). Stad
,
P (M AT EM AT Y KA) =
2! · 3! · 2!
1
=
≈ 6, 61 · 10−6 .
10!
151200
2.2. Ω jest zbiorem permutacji n-elementowych.
Niech A bedzie
zdarzeniem polegającym na tym, że 1 i 2 nie
,
0
sasiaduj
a
ze
sob
a.
,
,
, Wtedy A oznacza, że 1 i 2 występują obok
siebie. Ponieważ ich kolejność jest dowolna, moga, wystapić
jako:
,
1,2 lub 2,1 (2! sposobów). Mamy wiec
do
ustawienia
n
−2
,
pozostałe liczby i obiekt złożony z 1 i 2, czyli n − 1 elementów.
Stad
,
P (A) = 1 − P (A0 ) = 1 −
2 · (n − 1)!
2
=1− .
n!
n
2.3. Odpowiedzi i rozwiazania
,
25
Można też rozumować nastepuj
aco:
odkładamy 1 i 2 na bok
,
,
i ustawiamy na 2! sposobów, zaś pozostałe elementy na (n − 2)!
sposobów. Teraz dokładamy układ złożony z 1 i 2, mamy dla
niego n−1 miejsc. Zatem #A0 = 2!·(n − 2)!·(n−1). Oczywiście
otrzymujemy ten sam wynik co poprzednio.
Jeśli B oznacza, że 1,2,3 nie sasiaduj
a,
,
, niezależnie od porzadku,
,
to analogicznie jak w punkcie a), otrzymujemy
P (B) = 1 − P (B 0 ) = 1 −
6
.
n(n − 1)
W przypadku c)
P (C) =
1
.
n(n − 1)
Zauważmy, że w punkcie a) n ≥ 2, zaś w b) i c) n ≥ 3.
2.3. Odpowiedź: (n − 1)!.
Można to uzasadnić indukcyjnie. Dla n = 1 wzór jest oczywisty.
Jeśli założymy, że zachodzi dla pewnego n, to ustawiajac
, n+1
osób, możemy ustawić najpierw n osób, z założenia indukcyjnego na (n − 1)! sposobów, a nastepnie
zauważyć, że dla (n + 1),
szej osoby mamy n miejsc. Stad
rozwi
azanie
(n − 1)! · n = n!.
,
,
Można też ustawić n osób w ciag,
na n! sposobów, tak jakby
,
miejsca przy stole były numerowane, a nastepnie
zrezygnować
,
z numeracji miejsc. Wtedy n!
=
(n
−
1)!.
n
2.4. P (A) =
2! · 10!
2
= .
11!
11
2.5. Każdej osobie możemy przyporzadkować
numer pietra,
na któ,
,
rym wysiadła. Zatem Ω to zbiór ciagów
7-elementowych
ze
,
zbioru 10-elementowego, przy czym elementy ciagu
mog
a
si
e,
,
,
7
7
powtarzać, czyli #Ω = W10 = 10 . Jeśli zdarzenie A polega
na tym, że żadnych dwóch pasażerów nie wysiadzie
na tym sa,
mym pietrze,
tzn. A składa sie, z tych ciagów
ze zbioru Ω, które
,
,
7 = 10! = 4 · 5 . . . 10.
posiadaja, różne wyrazy, czyli #A = V10
3!
Zatem
189
P (A) =
≈ 0, 06.
3125
26
Prawdopodobieństwo klasyczne
2.6. Załóżmy dla uproszczenia, że każdy rok ma 365 dni, dni w roku
numerujemy od 1 do 365. Każdej osobie przyprządkowujemy
numer dnia urodzin. Zatem, tak jak w zadaniu poprzednim,
#Ω = 36530 , #A0 = 365!
335! , gdzie A jest zdarzeniem, że grupie
znajdą się osoby, które obchodzą urodziny tego samego dnia,
czyli
365 · . . . · 336
1
29
0
P (A ) =
= 1−
· ... · 1 −
.
36530
365
365
Prawdopodobieństwo to oszacujemy, korzystając z przybliżenia
1 − x ≈ e−x ,
1
29
P (A0 ) ≈ e− 365 · . . . · e− 365 = e−
1+2+...+29
365
435
= e− 365 ≈ e−1,192
≈ 0, 304.
Zatem P (A) ≈ 0, 696.
Podobnie obliczamy, że w przypadku grupy 24-osobowej, szukane prawdopodobieństwo wynosi 0, 538, zaś przy 40 osobach
wzrasta do 0, 893.
2.7. Ω to zbiór kombinacji 5-elementowych ze zbioru 100-elementowego. W przypadku a) losujemy jeden los wygrywajacy,
tzn.
,
jeden spośród 2 i cztery przegrywajace,
tzn. cztery spośród 98.
,
Zatem
C 1C 4
95
P (A) = 2 5 98 =
≈ 0, 096.
990
C100
Jeśli B oznacza zdarzenie, że trafiono na dwa losy wygrywajace,
,
a C co najmiej jeden los wygrywajacy,
to
,
P (B) =
1
≈ 0, 002,
495
P (C) = 1 − P (C 0 ) = 1 −
5
C98
≈ 0, 098,
5
C100
przy czym zdarzenie przeciwne C 0 oznacza, że żaden z wylosowanych losów nie jest wygrywajacy.
,
2.8. #Ω = 62 = 36, P (A ∪ B) = 32 , P (A ∩ B) =
13
13 26
2.9.
≈ 0, 005.
2 5213
5
36 .
2.3. Odpowiedzi i rozwiazania
,
2.10.
27
1
6
= 3.
4
6
6
2.11. Niech A oznacza zdarzenie, że wylosowano liczbę 13, B - wylosowano liczbę 7-cyfrową o różnych cyfrach. Wtedy
P (A) =
1
≈ 10−7 ,
107 − 1
P (B) =
9·9·8·7·6·5·4
≈ 0, 054.
107 − 1
5
14
≈ 0, 357.
1 5
2.13. 5
dla k = 0, 1, . . . , 5.
2 k
2.12.
2.14. I sposób. Rozważmy zbiór n-elementowy. Liczba podzbio
n
rów k-elementowych,
dla
k
=
0,
1,
.
.
.
,
n,
jest
równa
. Zak
Pn
n
tem k=0 k oznacza liczbę wszystkich podzbiorów zbioru nelementowego, ale takich podzbiorów jest 2n , stąd dowodzona
równość jest prawdziwa.
II sposób. Przyjmując we wzorze dwumianowym Newtona (12)
a = b = 1, otrzymujemy bezpośrednio dowodzony wzór.
Oczywiście można też przeprowadzić dowód indukcyjny.
2.15. I sposób. Zauważmy, że dla k = 1, . . . , n zachodzi
n
n−1
k
=n·
.
k
k−1
Stąd
n
X
k−1
(−1)
k=1
n
X
n
n−1
k−1
k·
=
(−1) n ·
k
k−1
k=1
n−1
X
n−1
= n
(−1)l
l
l=0
i korzystając ze wzoru (12)
n
n−1
X
l=0
l
(−1)
n−1
l
= n(1 − 1)n−1 = 0.
28
Prawdopodobieństwo klasyczne
Podobnie
X
n
n
n−1
X
X n − 1
n
n−1
k·
=
n·
=n
= n2n−1 .
k
k−1
l
k=1
k=1
l=0
II sposób. Równość
n X
n
k=0
k
xk = (1 + x)n ,
która zachodzi dla każdego x ∈ R, różniczkujemy stronami
względem zmiennej x, i otrzymujemy
n X
n
kxk−1 = n(1 + x)n−1 .
k
k=1
Przyjmując x = −1, otrzymujemy pierwszy wzór, zaś wstawiając x = 1, drugi.
2.16. I sposób. Rozważmy (n + m)-elementowy zbiór A, przy czym
A = B ∪ C i #B = m, #C = n. Losujemy k elementów
m+n
zbioru A. Można to zrobić na
sposobów. Z drugiej
k
strony, jeśli k ≤ min{m, n}, to losowanie można zrealizować
następująco: losujemy i elementów ze zbioru B oraz k − i ze
zbioru C, dla każdego i = 0, 1, . . . , k. Takich możliwości jest
k X
m
n
więc
, czyli prawdziwy jest wzór (11).
i
k−i
i=0
II sposób. Obie strony równości (1 + x)m+n = (1 + x)m (1 + x)n
rozwijamy ze wzoru Newtona (12) i porównujemy współczynniki
przy xk dla k ≤ min{m, n}. Stąd
m+n
k
=
X
i=0,...,m
j=0,...,n
i+j=k
X
k m n
m
n
=
.
i
j
i
k−i
i=0
2.17. a) #Ω = n!. Niech W oznacza zdarzenie, że pomiędzy A i B
będzie stać dokładnie r osób. Liczbę elementów zbioru W możemy obliczyć następująco: osoby A i B ustawiamy w kolejności
2.3. Odpowiedzi i rozwiazania
,
29
AB lub BA (dwie możliwości), następnie spośród n − 2 osób
wybieramy r i ustawiamy w dowolnej kolejności, n−2
r r! możliwości. Każdy taki układ, złożony z r+2 osób, ustawiamy łącznie
z pozostałymi n − r − 2 osobami, permutacja ((n − r − 2) + 1)!
elementów. Stąd
n−2
#W = 2
r!(n − r − 1)!.
r
Moc zbioru W można też policzyć w inny sposób. Mianowicie, ustawiamy osobę A na pierwszym miejscu, zostawiamy r
wolnych miejsc i ustawiamy osobę B. Ten układ możemy przesuwać w prawo, przy czym A może zająć najdalej (n − r − 1)-sze
miejsce. Zmieniając kolejność na BA, mamy 2(n − r − 1) możliwości. W końcu ustawiamy pozostałe n − 2 osoby na wolnych
miejscach. W ten sposób otrzymujemy
#W = 2(n − r − 1)(n − 2)!,
ten sam wynik co poprzednio. Ostatecznie
P (W ) =
2(n − r − 1)
.
n(n − 1)
b) #Ω = (n − 1)!. Niech V oznacza zdarzenie, że pomiędzy
A i B przy okrągłym stole usiądzie dokładnie r osób. Podobnie
jak poprzednio
n−2
2
.
#V = 2
r!(n−r−1−1)! = 2(n−2)!, P (V ) =
r
n(n − 1)
2.18. P (A) =
k!(n − k)!
k!(n − k + 1)!
, P (B) =
.
n!
(n − 1)!
2.19. I sposób. Wybieramy
najpierw r1 spośród n elementów, można
n
to zrobić na r1 sposobów. Następnie r2 spośród pozostałych
n − r1 elementów, itd. Łącznie
n
n − r1
n − r1 − . . . − rk−1
n!
·
· ... ·
=
.
r2
rk
r1
r1 ! · . . . · rk !
30
Prawdopodobieństwo klasyczne
II sposób. Zadanie można też sformułować następująco. Ile
ciągów można utworzyć z elementów zbioru A = {a1 , . . . , ak },
jeśli element ai powtarza się ri razy, przy czym r1 +. . .+rk = n?
Liczbę takich ciągów możemy obliczyć, jako liczbę permutacji
zbioru A∗ = {a11 , . . . , a1r1 , . . . , ak1 , . . . , akrk }, czyli n!. Ale ponieważ elementy i-tej grupy ai1 , . . . , airi uważamy za nierozróżnialne, liczbę tę należy podzielić, przez liczbę permutacji każdej
grupy ri !, i = 1, . . . , k. Otrzymujemy
n!
.
r1 ! · . . . · rk !
Otrzymaliśmy wzór na permutacje z powtórzeniami.
2.20. I sposób. Zamiast rozdawać n pączków k osobom, wygodniej
będzie rozmieścić n kul w k komórkach, przy czym zakładamy,
że kule, podobnie jak pączki są nierozróżnialne. Każde możliwe
rozmieszczenie możemy schematycznie przedstawić, jako układ
kółek i kresek, gdzie kółka reprezentują kule, zaś kreski, przegródki między komórkami. Na przykład, umieszczając 6 kul w 5
komórkach, możliwe są następujące rozkłady:
| ◦ ◦ ◦ | | ◦ ◦| | ◦ |
|◦|◦|◦|◦|◦◦◦|
W pierwszym przypadku umieściliśmy 3 kule w pierwszej komórce, dwie w trzeciej, jedną w piątej, zaś druga i czwarta komórka zostały puste. Natomiast w przypadku drugim mamy po
jednej kuli w każdej komórce, z wyjątkiem piątej, w której są
trzy kule.
Zauważmy w takim razie, że każde możliwe rozmieszczenie możemy uzyskać jako permutację n + k − 1 obiektów, tj. n kółek
i k + 1 − 2 kresek (od liczby kresek odejmujemy 2, ponieważ nie
przestawiamy kresek zewnętrznych, byłoby to niezgodne z interpretacją). Oczywiście w ten sposób otrzymaliśmy za dużo
rozwiązań, niepotrzebnie uwzględniliśmy kolejność kółek i kresek. Zatem liczba możliwych ustawień wyraża się wzorem
(n + k − 1)!
n+k−1
n+k−1
=
=
.
n!(k − 1)!
n
k−1
2.3. Odpowiedzi i rozwiazania
,
31
Otrzymaliśmy wzór na kombinacje z powtórzeniemi.
II sposób.
Zadanie polega na wylosowaniu n osób, którym
damy pączki, spośród k osób, przy czym niektóre osoby mogą
być wylosowane wielokrotnie, niektóre mogą nie zostać wylosowane wcale. Niech A = {a1 , . . . , ak } oznacza zbiór osób. Do tego
zbioru dodajmy n − 1 elementów: ak+1 , . . . , ak+n−1 , tych, które
ewentualnie mogą się powtarzać. Zatem losujemy n elemetów
ze zbioru A∗ = {a1 , . . . , ak+n−1 }, można to zrobić na
n+k−1
n
sposobów. To rozwiązanie tłumaczy nazwę - kombinacje z powtórzeniemi.
2.21. Jeśli n rozróżnialnych kul rozmieszczamy w n komórkach, to
wynikiem doświadczenia losowego jest ciąg n-elementowy, którego wyrazy wybrane ze zbioru n-elemetowego mogą się powtarzać (kuli przyporządkowujemy numer komórki), czyli wariacja
z powtórzeniami. Stąd #Ω = nn . Niech A oznacza, że dokładnie jedna komórka zostanie pusta, tym samym w innej komórce
znajdą się dwie kule. Takie zdarzenie
możemy zrealizować wyn
bierając dwie spośród n kul, na 2 sposobów, natępnie wybierając komórkę pustą i komórkę, w której będą dwie kule, na
n(n − 1) sposobów, i w końcu układając pozostałe n − 2 kule
w pozostałych n − 2 komórkach, (n − 2)! sposobów. Stąd
n
n
#A =
n(n − 1)(n − 2)! = n!
,
2
2
czyli
P (A) =
n(n − 1)n!
.
2nn
Uwaga. W zadaniu tym łatwo popełnić błąd, rozumując następująco. Wybierzmy komórkę, która zostanie pusta, i odłóżmy
jedną kulę, można to zrobić na n · n sposobów. Pozostałe n − 1
kul rozłóżmy w n − 1 komórkach na (n − 1)! sposobów. W końcu
wybierzmy komórkę, w której znajdą się dwie kule, mamy n − 1
możliwości, i dołóżmy tam wcześniej odłożoną kulę. Zatem
#A = n2 (n − 1)!(n − 1).
32
Prawdopodobieństwo klasyczne
To rozumowanie nie jest poprawne, bo na przykład, korzystając
z niego w przypadku n = 2, mamy #Ω = 22 , #A = 4, czyli
P (A) = 1. Tymczasem łatwo zauważyć, oznaczając kule ◦, •, że
możliwe są jedynie konfiguracje:
| ◦ •| |
oraz
| | ◦ •|
więc powinno być P (A) = 21 .
Widać stąd, że błąd jaki popełniliśmy, polega na wyróżnieniu odkładanej na początku kuli. W ten sposób niepotrzebnie uwzględniliśmy kolejność wkładania kul do komórki. Zauważmy, że rozumowanie można poprawić, dzieląc uzyskany wynik przez 2.
2.22. a) mk .
Zauważmy, że liczba ta reprezentuje również liczbę sposobów,
na które można rozmieścić k rozróżnialnych cząstek w m komórkach. Tak sformułowane zadanie jest ważne z punktu widzenia
mechaniki statystycznej, która bada układy k cząstek w przestrzeni fazowej, którą można podzielić na m stanów fazowych.
W klasycznej mechanice statystycznej przyjmuje się, że cząstki
różnią się między sobą i wszystkie rozmieszczenia są jednakowo
prawdopodobne. Taki model zachowania cząstek nazywamy statystyką Maxwella-Boltzmanna, podlegają jej np. molekuły gazu.
b) m+k−1
.
k
Równoważne sformułowanie tego zadania brzmi: na ile sposobów można rozmieścić k nierozróżnialnych cząstek w m komórkach (patrz zad. 2.20). Okazuje się, że przy założeniu, że wszystkie możliwe rozmieszczenia są jednakowo prawdopodobne, taki
model dobrze opisuje zachowanie np. fotonów i jąder atomowych. Model ten nazywamy statystyką Bosego-Einsteina.
c) m
k .
Okazuje się, że ten wzór ma również zastosowanie przy opisie
zachowania cząstek elementarnych. Mamy tu do czynienia z sytuacją, gdy k nierozróżnialnych cząstek rozmieszczamy w m komórkach, przy czym w każdej komórce może znajdować się co
najwyżej jedna cząstka i wszystkie rozkłady spełniające to wymaganie są jednakowo prawdopodobne. W ten sposób zacho-
2.3. Odpowiedzi i rozwiazania
,
33
wują się np. elektrony, protony, neutrony. Model ten nazywamy
statystyką Fermiego-Diraca.
d) m
k k!.
2.23. Niech A oznacza zdarzenie, że do każdego wagonu wsiądzie
przynajmniej jeden pasażer, zaś Ai , że do i-tego wagonu
nie
S
A
wsiądzie żaden pasażer, i = 1, . . . , 10. Wtedy A = Ω \ 10
i=1 i ,
czyli
!
10
[
P (A) = 1 − P
Ai ,
i=1
przy czym zdarzenia Ai nie wykluczają się wzajemnie. Zatem,
aby obliczyć prawdopodobieństwo, zastosujemy wzór włączwyłącz (1). W tym celu zauważmy, że
15
9
P (Ai ) =
,
dla i = 1, . . . , 10,
10
15
8
,
dla 1 ≤ i < j ≤ 10,
P (Ai ∩ Aj ) =
10
...
P (A1 ∩ . . . ∩ A10 ) = 0.
Stąd
15
P (A) = 1 − 10 · (0, 9)
10
10
15
+
· (0, 8) −
· (0, 7)3 + . . .
2
3
10
−
· (0, 1)15 ≈ 0, 04595.
9
Uwaga. Rozwiązanie typu: najpierw 10 pasażerów wsiada po
jednym do każdego wagonu, a potem pięciu dowolnie się dosiada,
kryje podobną pułapkę, jak zadanie 2.21.
2.24. Niech A będzie zdarzeniem polegającym na tym, że żadna żona
nie stoi obok swojego męża, zaś Ai , że i-ta żona stoi obok swojego męża, i = 1, 2, 3, 4. Wtedy
A=Ω\
4
[
i=1
Ai .
34
Prawdopodobieństwo klasyczne
Prawdopodobieństwo zdarzenia
włącz-wyłącz (1). Zauważmy, że
P (Ai ) =
P (Ai ∩ Aj ) =
P (Ai ∩ Aj ∩ Ak ) =
P (A1 ∩ A2 ∩ A3 ∩ A4 ) =
S4
i=1 Ai
obliczymy ze wzoru
2 · 7!
1
=
dla i = 1, . . . , 4,
8!
4
1
22 · 6!
=
dla 1 ≤ i < j ≤ 4,
8!
14
23 · 5!
1
=
dla 1 ≤ i < j < k ≤ 4,
8!
42
1
24 · 4!
=
.
8!
105
Ostatecznie
P (A) = 1 − P
4
[
!
Ai
i=1
4 1
4 1
4 1
37
4 1
−
+
−
=
.
=1−
2 14
3 42
4 105
105
1 4
2.25. Oczywiście #Ω = 10
5 = 252. Niech A oznacza zdarzenie, że
wśród pięciu wybranych osób nie ma żadnego małżeństwa.
I sposób. Z każdej pary wybieramy jedną osobę, męża lub żonę.
Elementów zbioru A jest więc tyle, ile ciągów 5-elementowych
ze zbioru 2-elementowego,
#A = 25 = 32.
Zatem P (A) =
32
252
=
8
63 .
II sposób. Prawdopodobieństwo zdarzenia przeciwnego do A
można obliczyć ze wzoru włącz-wyłącz (1). Jeśli przez Ai oznaczymy zdarzenie, że wybrano i-tą parę, to
0
P (A ) =
5
X
i=1
=
1
252
P (Ai ) −
X
P (Ai ∩ Aj )
1≤i<j≤5
5
8
5
220
·
−
·6 =
.
1
3
2
252
2.3. Odpowiedzi i rozwiazania
,
35
III sposób. Wybieramy jedną osobę z dziesięciu, jego żonę lub
jej mężą, wykluczamy z dalszego losowania. Następnie wybieramy jedną osobę z ośmiu, i znowu współmałżonka wykluczamy
z dalszego losowania, itd. Z tym, że wybierając w ten sposób,
wybrane osoby ustawiliśmy w ciąg, a nie powinniśmy tego robić.
Stąd
10 · 8 · 6 · 4 · 2
#A =
= 25 .
5!
2.26. #Ω =
2.27.
10!
15!
, #A =
· 5!, P (A) ≈ 0, 08.
5
(3!)
(2!)5
11
.
15
2.28. Niech A będzie zdarzeniem polegającym na wybraniu pięciu
książek, z których żadne dwie nie stały wcześniej obok siebie.
I sposób. Ponumerujmy książki w kolejności, w jakiej stoją na
półce. Jeśli Ak oznacza, że wśród wybranych książek są k-ta
i (k + 1)-sza, dla k = 1, . . . , 11, to
A0 = A1 ∪ . . . ∪ A11
i P (A0 ) obliczamy ze wzoru włącz-wyłącz. Otrzymujemy w ten
7
sposób P (A) = 99
.
II sposób. Elementy zbioru A możemy policzyć przeprowadzając
w pewnym sensie doświadczenie „odwrotne”, zamiast wybierać
książki z półki, będziemy je tam układać. Mianowicie, zabieramy 5 książek, na półce zostało 7 książek, czyli 8 miejsc pomiędzy nimi, w tym przed pierwszą i za ostatnią książką. W te
8 miejsc wkładamy 5 książek, każdą w inne miejsce, czyli wybieramy 5 miejsc spośród 8. Stąd
8
5
#A = C8 =
5
i, konsekwentnie,
8
5
12
5
P (A) =
=
7
.
99
36
Prawdopodobieństwo klasyczne
2.29.
21
.
22
53
.
120
1 1
1
1
1
1
2.31.
.
− + ... +
−
+
8! 2! 3!
10! 11! 12!
2.30.
2.32. 165.
2.33.
1
.
820
2.34.
29
.
280
3. Prawdopodobieństwo geometryczne
3.1. Teoria i zadania
Rozważmy model przestrzeni probabilistycznej, w którym Ω jest
zbiorem nieprzeliczalnym. Niech Ω ⊂ Rn bedzie
zbiorem borelowskim,
,
takim że 0 < m(Ω) < ∞, gdzie m oznacza miare, Lebesgue’a w Rn .
Jako σ-algebre, przyjmijmy rodzine, śladów zbiorów borelowskich w Ω,
tzn. Σ = {B ∩ Ω : B ∈ B(Rn )}. Funkcje, P : Σ → [0, 1] zadana,
wzorem
m(A)
P (A) =
m(Ω)
nazywamy prawdopodobieństwem geometrycznym. W tej sytuacji,
rozwiazanie
zadania sprowadza sie, do wyznaczenia miary (długości,
,
pola, objetości)
stosownego podzbioru Rn .
,
Zad. 3.1. W kwadrat o boku a wpisano koło. Jaka jest szansa, że wybierajac
również
, losowo punkt kwadratu, wybierzemy punkt należacy
,
do koła?
Zad. 3.2. Wylosowano dwie liczby z przedziału [0, 1]. Obliczyć
prawdopodobieństwo, że ich suma również należy do przedziału [0, 1].
Zad. 3.3. Niech x, y oznaczaja, liczby rzeczywiste losowo wybrane
z przedziału [0, 1]. Wyznaczyć funkcje zmiennej a ∈ R:
a) f (a) = P (max{x, 31 } < a);
b) g(a) = P (min{x, 12 } < a);
c) h(a) = P (min{x, y} < a);
d) k(a) = P (max{x, y} < a).
Zad. 3.4. Na odcinku o długości l wybrano losowo jeden punkt. Jakie
jest prawdopodobieństwo, że z otrzymanych dwóch odcinków i odcinka
o długości 21 l można zbudować trójkat?
,
38
Prawdopodobieństwo geometryczne
Zad. 3.5. Na odcinku [0, 1] wybrano losowo punkty A i B. Obliczyć
prawdopodobieństwo, że
a) środek odcinka AB należy do przedziału [0, 13 ] ;
b) z A jest bliżej do zera niż do B.
Zad.3.6. Na odcinku [0, 1] wybrano losowo punkty A, B, C. Obliczyć
prawdopodobieństwo, że A ≤ B ≤ C.
Zad. 3.7. Na odcinku [0, 1] wybrano losowo dwa punkty, które podzieliły go na trzy odcinki. Jakie jest prawdopodobieństwo, że z tych
odcinków da sie, zbudować trójkat?
,
Zad. 3.8. Na odcinku o długości 1 wybrano losowo dwa punkty. Jakie
jest prawdopodobieństwo, że odległość miedzy
nimi jest nie mniejsza
,
od x, 0 < x < 1?
Zad. 3.9. Na odcinku AB o długości 1 umieszczono losowo punkty L
i M . Jaka jest szansa, że z L jest bliżej do M niż do A?
Zad. 3.10. Dany jest okrag
, o promieniu R. Wybieramy losowo trzy
punkty. Jakie jest prawdopodobieństwo, że trójkat
, przez nie zadany
jest ostrokatny?
,
Zad. 3.11. Jakie jest prawdopodobieństwo, że suma dwóch liczb losowo wybranych z przedziału [0, 1] jest niewieksza
od 1, a ich iloczyn
,
2
jest niewiekszy
od 9 ?
,
Zad. 3.12. Narysowano pieć
o promieniach
, koncentrycznych okregów
,
odpowiednio kr (k = 1, . . . , 5). Koło o promieniu r i dwa pierścienie o zewnetrznych
promieniach 3r i 5r sa, zakreskowane. W kole
,
o promieniu 5r wybrano losowo punkt. Obliczyć prawdopodobieństwo, że punkt znajdzie sie, w obszarze zakreskowanym.
Zad. 3.13. Ala i Ola umówiły sie, miedzy
19.00 a 20.00 na Rynku.
,
Ustaliły, że Ala, jeśli przyjdzie pierwsza, zaczeka na Ole, 15 minut, ale
Ola zadeklarowała, że zaczeka na Ale, tylko 5 minut. Jaka jest szansa,
że dojdzie do spotkania?
Zad. 3.14. Zakładamy, że na moście znajduja, sie, w jednej chwili dwa
samochody. Masa każdego z nich jest wielkościa, losowa, i wynosi od 2
do 5 ton. Obliczyć prawdopodobieństwo, że całkowita masa pojazdów
na moście przekroczy 6 ton.
3.2. Wskazówki
Zad.3.15. Dwa parowce podpływaja, do tego samego nabrzeża. Czasy
przybicia do brzegu obu parowców sa, od siebie niezależne i jednakowo
możliwe w ciagu
całej doby. Obliczyć prawdopodobieństwo, że jeden
,
z parowców bedzie
musiał czekać na zwolnienie sie, miejsca na na,
brzeżu, jeśli czas postoju pierwszego parowca wynosi jedna, godzine,
,
a drugiego – dwie godziny.
Zad. 3.16. Wyznaczyć prawdopodobieństwo, że pierwiastki równania
kwadratowego x2 + 2ax + b = 0 sa, rzeczywiste, jeśli współczynniki
moga, przyjać
, z jednakowym prawdopodobieństwem każda, z wartości
w prostokacie
−k ≤ a ≤ k, −l ≤ b ≤ l.
,
Zad. 3.17. Zadanie o igle Buffona. Igłe, o długości l rzucono na
podłoge, z desek o szerokości a (l < a). Jaka jest szansa, że igła
przetnie krawedź
deski?
,
3.2. Wskazówki
3.1. Naszkicować zbiór Ω w R2 i zdarzenie sprzyjające A.
3.2. Jak zapisać wynik doświadczenia losowego, polegajacego
na wy,
losowaniu dwóch liczb z przedziału [0, 1]? Wykonać rysunek.
3.3. W przypadkach a) i b) Ω ⊂ R, ponadto zauważmy, że 31 ≤
max{x, 13 } ≤ 1, 0 ≤ min{x, 21 } ≤ 12 . W przypadkach c) i d)
Ω ⊂ R2 .
3.4. Kiedy z trzech odcinków można zbudować trójkat?
,
3.5. Wybieramy dwa punkty z odcinka [0, 1], czyli Ω ⊂ R2 .
3.6. Ω ⊂ R3 .
3.7. Porówn. zad. 3.4.
3.8. Porówn. zad. 3.5 b).
3.9. Porówn. zad. 3.5 b).
39
40
Prawdopodobieństwo geometryczne
3.10. Każdy wybór trzech punktów na okregu
można jednoznacznie
,
opisać przez podanie długości dwóch spośród trzech łuków, na
które punkty dziela, okrag.
Kat
,
, wpisany w okrag
, jest ostry, jeśli
jest oparty na łuku mniejszym od półokregu.
,
3.11. Porówn. zad. 3.2 i wykonać odpowiedni rysunek.
3.12. Wykonać odpowiedni rysunek.
3.13. Wynik doświadczenia losowego można zapisać jako parę liczb
(t1 , t2 ), gdzie t1 oznacza czas przybycia na miejsce spotkania Ali,
zaś t2 czas przybycia Oli.
Uwaga: Zadanie to przytoczono w takim sformułowaniu, w jakim zwykle występuje w podręcznikach. W tego typu zadaniach
zakłada się, że losowe wielkości zmieniają się zgodnie z miarą
Lebesgue’a, tzn. szansa, że Ala (Ola) przyjdzie na spotkanie
w przedziale czasu [τ, s] jest równa długości tego przedziału. To
założenie można też wypowiedzieć następująco: czas przybycia
Ali (Oli) na spotkanie ma rozkład jednostajny (patrz rozdział
6).
Drugie założenie ukryte w treści zadania, to niezależność zdarzeń (patrz rozdział 4. i 10.). Dokładniej, jeśli A oznacza zdarzenie, że Ala przyjdzie na spotkanie w przedziale [τ1 , s1 ], zaś
B, że Ola przyjdzie w przedziale [τ2 , s2 ], to
P (A ∩ B) = (s1 − τ1 )(s2 − τ2 ) = P (A)P (B).
Uwaga powyższa odnosi się również do zadań 3.14, 3.15, 3.16.
3.14. Wynikiem doświadczenia losowego jest para liczb z przedziału
[2, 5]. Patrz zad. 3.13.
3.15. Porównać zad. 3.13.
3.16. Patrz zad. 3.13. Wynikiem doświadczenia losowego jest para
liczb (a, b). Kiedy równanie kwadratowe ma pierwiastki rzeczywiste?
Uwaga: liczby k, l sa, w zadaniu dane.
3.3. Odpowiedzi i rozwiazania
,
41
3.17. Modelem podłogi z desek może być płaszczyzna, na której
poprowadzono rodzine, prostych równoległych, odległych od siebie o a. Położenie igły na takiej płaszczyźnie można opisać
podajac
, np. odległość środka igły od najbliższej prostej, np.
z dołu, oraz kat
, jaki tworzy ta prosta z igła.
, W takim razie wystarczy rozpatrywać układ tylko dwóch takich prostych. Wtedy
m(Ω) < ∞.
Sformułować warunki, przy których igła nie przecina ani dolnej
ani górnej prostej.
3.3. Odpowiedzi i rozwiazania
,
3.1. Przy stosownym doborze układu współrzednych
zbiór Ω można
,
zapisać
h a ai h a ai
Ω= − ,
× − ,
,
2 2
2 2
zaś
a2
2
2
A = (x, y) ∈ Ω : x + y ≤
.
4
Zatem
m(A)
π
P (A) =
= .
m(Ω)
4
rys. do zad.3.1
rys. do zad.3.2
42
Prawdopodobieństwo geometryczne
3.2. W wyniku doświadczenia losowego, otrzymamy pare, liczb, zatem
Ω = [0, 1]2 . Z kolei, A = {(x, y) ∈ Ω : 0 ≤ x + y ≤ 1}, m(Ω) = 1,
m(A) = 12 . Czyli P (A) = 21 .
3.3.


1


 0 dla a ≤ 3 ,
 0
1
a
a dla 3 < a ≤ 1,
f (a) =
g(a) =




1 dla a > 1,
1


dla a ≤ 0,


 0
 0
2
2a − a dla 0 < a ≤ 1, k(a) =
a2
h(a) =




1
dla a > 1,
1
dla a ≤ 0,
dla 0 < a ≤ 21 ,
dla a > 12 ,
dla a ≤ 0,
dla 0 < a ≤ 1,
dla a > 1.
3.4. Ω = [0, l]. Z odcinków o długości x, l − x, 21 można zbudować
l
trójkat,
, jeśli spełnione sa, nierówności trójkata:
,
2 < x + l − x,
l 3l
1
l − x < x + 2l , x < 2l + l − x. Stad
, A = ( 4 , 4 ), czyli P (A) = 2 .
3.5. Ω = [0, 1]2 .
a+b
1
2
∈ [0, ]}, P (A) = .
2
3
9
1
B = {(a, b) ∈ Ω : a < |b − a|}, P (B) = .
4
A = {(a, b) ∈ Ω :
zbiór A
zbiór B
3.6. Ω = [0, 1]3 , m(Ω) = 1. A = {(x, y, z) : x ∈ [0, 1], y ∈ [x, 1], z ∈
[y, 1]}, m(A) to objetość
ostrosłupa o polu podstawy 21 i wyso,
1
kości 1. Czyli P (A) = 6 .
3.3. Odpowiedzi i rozwiazania
,
3.7.
43
1
.
4
3.8. (1 − x)2 .
3.9.
3
.
4
3.10. Oznaczmy punkty wybrane na okregu:
A, B, C. Niech l1
,
oznacza długość łuku AB, l2 długość łuku AC. Para liczb
(l1 , l2 ) opisuje wynik rozważanego doświadczenia losowego, jeśli
l1 + l2 < 2πR.
zbiór A
Stad
,
Ω = {(l1 , l2 ) : l1 , l2 ∈ (0, 2πR), l1 + l2 < 2πR}.
Trójkat
jeśli każdy jego kat
, jest ostrokatny,
,
, jest oparty na łuku
mniejszym od półokregu,
wi
ec
,
,
A = {(l1 , l2 ) ∈ Ω : l1 + l2 > πR, l1 + (2πR − (l1 + l2 )) > πR,
l2 + (2πR − (l1 + l2 )) > πR}.
1
Stad
, P (A) = 4 .
3.11.
1
(5 + 4 ln 2).
18
44
Prawdopodobieństwo geometryczne
3.12. Zbiór Ω to koło o środku w punkcie O i promieniu 5r. Zbiór A
zaznaczono na rysunku.
3
P (A) = .
5
3.13. Ω = [0, 1]2 , A = {(t1 , t2 ) ∈ Ω : t1 ≤ t2 ≤ t1 + 41 , t2 ≤ t1 ≤
1
}.
t2 + 12
P (A) =
1 − 21 (1 − 14 )2 − 12 (1 −
1
rys. do zad. 3.12
3.14.
1 2
12 )
=
101
.
144
rys. do zad. 3.13
7
.
9
1
1
1
1
3.15. 1 − (1 − )2 − (1 − )2 .
2
12
2
24
3.16. Ω = [−k, k] × [−l, l]. Równanie ma pierwiastki rzeczywiste,
2
jeśli ∆ = 4a2 − 4b ≥ 0, wiec
, A = {(a, b) ∈ Ω : b ≤ a }. Należy
rozpatrzyć dwa przypadki:
√
I przypadek: gdy l ≤ k 2 , to m(A) = 4kl − 43 l l. Czyli P (A) =
√
1−
l
3k .
II przypadek: gdy l ≥ k 2 , to m(A) = 2kl + 23 k 3 . Czyli P (A) =
1
k2
2 + 6l .
3.3. Odpowiedzi i rozwiazania
,
45
Przypadek I
Przypadek II
3.17. Niech d oznacza odległość środka igły od najbliższej prostej
z dołu, zaś α kat,
, jaki tworzy ta prosta z igła.
, Oczywiście α ∈
[0, π). Zatem Ω = [0, π)×(0, a). Igła nie przecina prostej z góry,
gdy
l
d + sin α < a
2
i z dołu, gdy
l
d − sin α > 0.
2
Powyższe nierówności określaja, zdarzenie przeciwne do rozpatrywanego w zadaniu. Zdarzenie A zaznaczono na rysunku.
Z
m(A) = 2
0
2l
Zatem P (A) =
.
aπ
π
l
sin αdα = 2l.
2
4. Prawdopodobieństwo warunkowe i niezależność
zdarzeń. Schemat Bernoullego
4.1. Teoria i zadania
Ustalmy przestrzeń probabilistyczna, (Ω, Σ, P ). Niech B bedzie
,
zdarzeniem, dla którego P (B) > 0. Prawdopodobieństwem warunkowym zdarzenia A przy założeniu, że zaszło zdarzenie B, nazywamy
liczbe,
P (A ∩ B)
P (A|B) =
.
P (B)
Mówimy, że zdarzenia A1 , . . . , An ∈ Σ sa, niezależne, jeśli
P (Ai1 ∩ . . . ∩ Aik ) = P (Ai1 ) · . . . · P (Aik )
dla każdego k = 2, . . . , n oraz 1 ≤ i1 < i2 < . . . < ik ≤ n.
W szczególności, dla dwóch zdarzeń A, B ∈ Σ, niezależność oznacza,
że
P (A ∩ B) = P (A) · P (B).
W przypadku nieskończonego ciagu
zdarzeń mówimy, że
,
A1 , A2 , . . . sa, niezależne, gdy zdarzenia A1 , . . . An sa, niezależne dla
każdego n ∈ N.
Schematem Bernoullego nazywamy ciag
, niezależnych powtórzeń
tego samego doświadczenia losowego o dwu możliwych wynikach, nazywanych umownie sukcesem i porażka.
, Pojedyncze doświadczenie
w schemacie Bernoullego, tzw. próbe, Bernoullego, modeluje bardzo
prosta przestrzeń probabilistyczna (Ω, Σ, P ), mianowicie, Ω = {0, 1},
przy czym 1 oznacza sukces, 0 porażke,
, Σ jest σ-algebra, wszystkich
podzbiorów Ω, w tym wypadku jest to po prostu rodzina czteroelementowa, zaś P ({1}) = p ∈ (0, 1), P ({0}) = 1 − p. Dla ciągu n niezależnych prób Bernoullego przestrzeń probabilistyczna jest n-krotnym
iloczynem kartezjańskim powyższych przestrzeni. W szczególności
prawdopodobieństwo uzyskania k sukcesów w n próbach Bernoullego
(0 ≤ k ≤ n) wyraża sie, wzorem
n k
p (1 − p)n−k .
(13)
k
48
Prawdopodobieństwo warunkowe...
Odpowiednio, w przypadku nieskończonego schematu Bernoullego,
czyli gdy niezależne próby powtarzane sa, nieskończenie wiele razy, modelem doświadczenia jest przeliczalny iloczyn kartezjański przestrzeni
opisujacej
pojedyncza, próbe.
,
, Prawdopodobieństwo, że pierwszy sukces pojawi sie, w k-tej próbie wynosi wtedy
(1 − p)k−1 p.
(14)
Zad. 4.1. Rzucamy trzema kostkami. Jakie jest prawdopodobieństwo, że na żadnej kostce nie wypadła szóstka, jeżeli na każdej kostce
wypadła inna liczba oczek?
Zad. 4.2. a) W partii brydża przed licytacja, gracz E widzi, że nie ma
asa. Jaka jest szansa, że jego partner ma 2 asy?
b) Gracz E widzi, że ma 8 pików. Jaka jest szansa, że jego partner
nie ma pików?
Zad. 4.3. Czterej gracze dostali po 13 kart. Jeden z nich zobaczył
przypadkowo u sasiada
,
a) asa pik;
b) jakiegoś asa czarnego koloru;
c) jakiegoś asa.
Jaka jest szansa, że ten gracz nie ma asa?
Zad. 4.4. Jaka jest szansa, że każdy z graczy S, E i W ma co najmniej
jednego asa, jeśli wiadomo, że N nie ma żadnego?
Zad. 4.5. Zdarzenia A1 , . . . , An sa, niezależne i maja, jednakowe
prawdopodobieństwo p. Jaka jest szansa, że
a) zajda, wszystkie naraz;
b) nie zajdzie żadne z nich;
c) zajdzie dokładnie jedno?
4.1. Teoria i zadania
49
Zad. 4.6. A, B sa, niezależne i A ∪ B = Ω. Wykazać, że P (A) = 1
lub P (B) = 1.
Zad. 4.7. Zdarzenia A, B, C sa, parami niezależne, ale wszystkie trzy
nie moga, zajść równocześnie. Ponadto P (A) = P (B) = P (C) = x
oraz P (A ∪ B ∪ C) = 43 . Wyznaczyć x.
Zad. 4.8. Podać przykład trzech zdarzeń A, B, C, które sa, niezależne
parami, ale nie sa, niezależne oraz takich, dla których zachodzi P (A ∩
B ∩ C) = P (A)P (B)P (C), ale nie sa, niezależne.
Zad. 4.9. Udowodnić nastepuj
ace
twierdzenie o mnożeniu:
,
,
Jeśli A1 , . . . , An ∈ Σ i P (A1 ∩ · · · ∩ An−1 ) > 0, to
P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 )P (A2 |A1 ) · . . . · P (An |A1 ∩ . . . ∩ An−1 ).
Zad. 4.10. Dwóch strzelców, dla których prawdopodobieństwa trafienia do celu wynosza, odpowiednio 0, 7 i 0, 8, oddaje po jednym strzale.
Obliczyć prawdopodobieństwo, że cel został trafiony.
Zad. 4.11. Tenisista musi wygrać dwa mecze pod rzad
, z trzech. Może
grać
a) z lepszym, ze słabszym i znów z lepszym;
b) ze słabszym, z lepszym i znów ze słabszym.
Który wybór daje wieksze
szanse, jeśli wyniki kolejnych meczów sa,
,
niezależne?
Zad. 4.12. Rzucono dziesieć
,
, razy symetryczna, kostka.
szansa otrzymania
Jaka jest
a) „6” co najmniej raz;
b) „5” dokładnie trzy razy?
Zad. 4.13. Z talii 52 kart wylosowano kolejno 13 kart, za każdym
razem zwracajac
, karte, do talii. Jakie jest prawdopodobieństwo, że
dwie z wylosowanych kart bed
, a, czerwone?
Zad. 4.14. Rzucamy czterema kostkami do gry. Jakie jest prawdopodobieństwo, że na wszystkich wypadnie ta sama liczba oczek?
50
Prawdopodobieństwo warunkowe...
Zad. 4.15. Dwie osoby rzucaja, po n razy symetryczna, moneta.
, Jakie
jest prawdopodobieństwo, że każda z nich otrzyma te, sama, liczbe,
orłów?
Zad. 4.16. Obliczyć prawdopodobieństwo otrzymania parzystej
liczby sukcesów w ciagu
n prób Bernoullego z prawdopodobieństwem
,
sukcesu w pojedynczej próbie p.
Zad. 4.17. Zadanie Banacha o zapałkach. Pewien matematyk
nosi w kieszeniach, lewej i prawej, po jednym pudełku zapałek. Ilekroć
chce zapalić papierosa, siega
do losowo wybranej kieszeni. Zakładamy,
,
że w chwili poczatkowej
matematyk ma dwa pełne pudełka. Niech m
,
oznacza liczbe, zapałek w pełnym pudełku, k = 0, . . . , m. Jaka jest
szansa, że gdy matematyk po raz pierwszy wyciagnie
puste pudełko,
,
w drugim bedzie
k zapałek?
,
Zad. 4.18. Zadanie o podziale stawki.
Szansa wygrania pojedynczej partii gry przez gracza A wynosi p, i do zakończenia całej gry brakuje mu a wygranych partii, jego przeciwnikowi brakuje
b wygranych partii. Niestety pojedynek musi zostać przerwany. Jak
sprawiedliwie podzielić stawke?
,
4.2. Wskazówki
4.1. Jeśli A oznacza zdarzenie, że na żadnej kostce nie wypadła
szóstka, zaś B, że na każdej kostce wypadła inna liczba oczek,
to należy obliczyć prawdopodobieństwo P (A|B).
4.2. a) Jeśli gracz E nie ma asa wśród swoich 13 kart, tzn. że jego
partner dostał 13 kart spośród pozostałych 39, wśród których sa, 4 asy.
b) Jeśli zaś E widzi, że ma 8 pików, to znaczy, że do rozdania
zostało jeszcze 5 pików.
4.3. Interesuje nas P (A|B), gdzie A oznacza zdarzenie, że gracz nie
ma asa, zaś B odpowiednio, że
4.2. Wskazówki
a) sąsiad ma asa pik;
b) sąsiad ma jakiegoś czarnego asa;
c) sąsiad ma jakiegoś asa.
W przypadku a) prawdopodobieństwo można obliczyć prościej
korzystając z obserwacji, że jeśli gracz zobaczył u sasiada
asa
,
pik, to znaczy, że sam nie ma tego asa.
4.4. Można obliczyć prawdopodobieństwo zdarzenia przeciwnego,
tzn. że któryś z graczy S, E, W nie ma asa. Skorzystać ze
wzoru włacz-wył
acz.
,
,
4.5. Porównać zad. 1.7 i skorzystać z definicji zdarzeń niezależnych.
4.6. Skorzystać z definicji zdarzeń niezależnych i faktu, że P (Ω) = 1.
4.7. Zdarzenia sa, parami niezależne jeśli P (A ∩ B) = P (A) · P (B),
P (A ∩ C) = P (A) · P (C), P (B ∩ C) = P (B) · P (C). Natomiast,
to że nie moga, zajść jednocześnie oznacza, że A ∩ B ∩ C = ∅.
4.8. Załóżmy, że w urnie sa, cztery kule o numerach: 2, 3, 5, 30. Wylosowano jedna, kule.
, Niech A oznacza zdarzenie, że numer wylosowanej kuli dzieli sie, przez 2, B – dzieli sie, przez 3, C – dzieli
sie, przez 5. Wykazać, że zdarzenia sa, parami niezależne, ale nie
sa, niezależne.
Rozważmy rzut dwoma kostkami do gry. Niech A oznacza zdarzenie, że na drugiej kostce wypadła 1, 2 lub 5, B – na drugiej
kostce wypadła 4, 5 lub 6, C – suma wyrzuconych oczek wynosi
9. Sprawdzić, że P (A ∩ B ∩ C) = P (A)P (B)P (C), ale zdarzenia
A, B, C nie sa, niezależne.
Oczywiście można też podać wiele innych przykładów.
4.9. Skorzystać z definicji prawdopodobieństwa warunkowego po prawej stronie wzoru. Najpierw zauważyć dlaczego prawa strona
wzoru ma sens.
4.10. Jeśli A oznacza, że trafił pierwszy strzelec, B – drugi, to interesuje nas P (A ∪ B).
4.11. Jeśli l oznacza prawdopodobieństwo wygrania z lepszym, zaś g
z gorszym graczem, to 0 ≤ l < g ≤ 1. Sensownie jest ponadto
51
52
Prawdopodobieństwo warunkowe...
założyć, że l > 0, bo w przeciwnym wypadku, niezależnie od
wybranej strategii, prawdopodobieństwo wygranej wynosi zero.
Narysować drzewko w każdym z przypadków.
4.12. Zastosować schemat Bernoullego.
4.13. To zadanie już rozwiązywaliśmy, patrz zad. 2.9. Tym razem
zastosować schemat Bernoullego.
4.14. Porównać zadania 4.13, 2.10.
4.15. W n próbach dwie osoby moga, mieć jednocześnie k = 0, 1, . . . , n
orłów.
4.16. Niech pk oznacza prawdopodobieństwo, że w k próbach Bernoullego otrzymano parzystą liczbę sukcesów. Zapisać zależność
pk od pk−1 . Otrzymane równanie rekurencyjne rozwiązać z warunkiem początkowym p0 = 1.
4.17. Przypuśćmy, że matematyk po raz pierwszy wyciagnie
puste
,
pudełko z prawej kieszeni. Przyjmijmy wybór prawej kieszeni
jako sukces. Określić liczbe, prób i sukcesów w schemacie Bernoullego. Jak uwzglednić
możliwość, że pierwsze puste pudełko
,
może pochodzić z lewej kieszeni?
4.18. Stawka zostanie podzielona sprawiedliwie, jeśli każdy z graczy
dostanie cześć
nagrody proporcjonalna, do szansy swojej wygra,
nej. Obliczajac
, prawdopodobieństwo wygranej gracza A należy
uwzglednić
wszystkie przypadki, że wygra a − 1 partii spośród
,
a − 1, . . . , a + b − 2 rozegranych partii oraz, że wygra ostatnia,
partie.
,
4.3. Odpowiedzi i rozwiazania
,
4.1. P (A|B) =
P (A ∩ B)
3·4·5
1
=
= .
P (B)
4·5·6
2
4.3. Odpowiedzi i rozwiazania
,
4.2. a)
4
2
b)
·
35
11
53
39
13
34
13
39 ≈
13
≈ 0, 31.
0, 11.
4.3. a) Niech A oznacza zdarzenie, że gracz nie ma asa, B sąsiad ma
asa pik. Jeśli wiemy, że zaszło zdarzenie B, to znaczy, że
gracz nie może już mieć asa pik.
48
13
51
13
P (A|B) =
≈ 0, 41.
b) Niech B oznacza zdarzenie, że sąsiad ma jakiegoś czarnego
asa. Wtedy
#(A ∩ B)
P (A|B) =
,
#B
przy czym
#(A ∩ B) =
#B =
=
48
13
50
13
39
13
39
13 −
39
13 −
52
13 −
37
13 ,
37
+
13
50
13 .
2
50
12
38
12
Stąd
P (A|B) ≈ 0, 39.
c) Niech teraz B oznacza, że sąsiad ma jakiegoś asa. Wtedy
P (A|B) ≈ 0, 36.
Zauważmy, że w każdym przypadku zdarzenie B zwiększa szanse
zdarzenia A, P (A) ≈ 0, 3 < 0, 36 < 0, 39 < 0, 41.
!
4.4. 1 − 3
4.5. a) pn ,
35
13
39
13
−
35
13
39
13
·
22
13
26
13
b) (1 − p)n ,
≈ 0, 48.
c) n(1 − p)n−1 p.
54
Prawdopodobieństwo warunkowe...
4.6. Skoro A ∪ B = Ω i zdarzenia A, B są niezależne, to
1 = P (A ∪ B) = P (A) + P (B) − P (A) · P (B).
Stąd
(1 − P (A)) · (1 − P (B)) = 0,
czyli P (A) = 1 lub P (B) = 1.
1
4.7. x = .
2
4.9. Zauważmy, że A1 ∩ . . . ∩ An−1 ⊂ . . . ⊂ A1 ∩ A2 ⊂ A1 . Jeśli więc
P (A1 ∩ . . . ∩ An−1 ) > 0, to prawdopodobieństwa wszystkich
kolejnych iloczynów sa, dodatnie: P (A1 ∩ . . . ∩ An−2 ) > 0, . . . ,
P (A1 ∩ A2 ) > 0, P (A1 ) > 0. Korzystajac
, teraz z definicji prawdopodobieństwa warunkowego, otrzymujemy
P (A1 )P (A2 |A1 ) · . . . · P (An |A1 ∩ . . . ∩ An−1 ) =
= P (A1 )
P (A2 ∩ A1 )
P (An ∩ A1 ∩ . . . ∩ An−1 )
· ... ·
=
P (A1 )
P (A1 ∩ . . . ∩ An−1 )
= P (A1 ∩ A2 ∩ . . . ∩ An ).
4.10. 0, 94.
4.11. Niech l oznacza prawdopodobieństwo wygrania z lepszym, zaś
g z gorszym graczem, przy czym 0 < l < g ≤ 1. Prawdopodobieństwo wygrania dwóch meczów pod rząd wynosi:
a) 2lg − lg 2 ,
b) 2lg − l2 g.
Strategia a) daje więc wieksz
a, szanse, na wygrana.
,
,
4.12. Zastosujemy schemat Bernoullego dla n = 10, p = 16 .
0 10
10
1
5
a) 1 −
,
0
6
6
3 7
10
1
5
b)
.
3
6
6
4.3. Odpowiedzi i rozwiazania
,
55
13
13
1
4.13.
.
2
2
4
1
4.14. 6 ·
.
6
4.15. Sumujemy kolejno prawdopodobieństwa otrzymania przez obie
osoby: 0, 1, . . . , n orłów
n
k n−k !2 X
n 2 n
n
X
1
n
1
2n
1
n
1
=
=
.
2
2
k
4
n
4
k
k=0
k=0
W ostatniej równości skorzystaliśmy ze wzoru Van der Monde’a
(11).
4.16. Niech pk oznacza prawdopodobieństwo, że w k próbach Bernoullego otrzymano parzystą liczbę sukcesów. Jest to możliwe
w sytuacji, gdy w pierwszych k−1 próbach zdarzyła się parzysta
liczba sukcesów i w k-tej próbie porażka lub, gdy w pierwszych
k − 1 próbach otrzymano nieparzystą liczbę sukcesów i w k-tej
próbie sukces. Stąd
pk = pk−1 (1 − p) + (1 − pk−1 )p
dla
k = 1, . . . , n.
Ponadto p0 = 1. Otrzymane w ten sposób równanie rekurencyjne możemy rozwiązać przekształcając do postaci
1
1
= (1 − 2p)(pk−1 − ) dla k = 1, . . . , n
2
2
i mnożąc otrzymane równania stronami. Stąd
pk −
pn =
4.17.
2m − k
m
1 + (1 − 2p)n
.
2
m m−k
1
1
.
2
2
4.18. Prawdopodobieństwo wygranej gracza A wynosi
a+b−1
X k − 1
pa (1 − p)k−a
a−1
k=a
i taka, cześć
wygranej powinien otrzymać.
,
5. Wzór na prawdopodobieństwo całkowite.
Wzór Bayesa
5.1. Teoria i zadania
Niech (Ω, Σ, P ) bedzie
przestrzenia, probabilistyczna,
, I co naj,
wyżej przeliczalnym zbiorem wskaźników. Rodzine, zdarzeń (Bi )i∈I
nazywamy rozbiciem przestrzeni
Ω, jeśli zdarzenia tej rodziny wzaS
jemnie sie, wykluczaja, oraz i∈I Bi = Ω.
Wzór na prawdopodobieństwo całkowite. Jeśli (Bi )i∈I jest
rozbiciem przestrzeni Ω, takim, że P (Bi ) > 0 dla każdego i ∈ I, to
dla A ∈ Σ
X
P (A) =
P (A|Bi )P (Bi ).
(15)
i∈I
Wzór (15) jest szczególnie przydatny w sytuacji, gdy mamy do czynienia z doświadczeniem wieloetapowym. Łacznie
z twierdzeniem o mno,
żeniu (patrz zad. 4.9) uzasadnia on metode, drzewek stochastycznych,
wygodna, przy rozwiazywaniu
wielu zadań.
,
W przypadku, gdy znamy wynik doświadczenia, a pytamy o jego
przebieg, możemy korzystać ze wzoru Bayesa.
Wzór Bayesa. Jeśli (Bi )i∈I jest rozbiciem przestrzeni Ω, takim,
że P (Bi ) > 0 dla każdego i ∈ I oraz A ∈ Σ i P (A) > 0, to dla każdego
j∈I
P (A|Bj )P (Bj )
P (Bj |A) = P
.
(16)
i∈I P (A|Bi )P (Bi )
Zad. 5.1. Na strzelnicy jest dziewieć
, strzelb, z których tylko dwie
sa, dobre. Prawdopodobieństwo trafienia do celu z dobrej strzelby
wynosi 0,8, a ze strzelby wadliwej 0,1. Strzelono z wzietej
na chybił
,
trafił strzelby i trafiono do celu. Obliczyć prawdopodobieństwo, że
strzelano z dobrej strzelby, i że strzelano z wadliwej strzelby.
58
Wzór na prawdopodobieństwo całkowite. Wzór Bayesa
Zad. 5.2. W dziewieciu
z dziesieciu
jednakowych urn znajduja, sie,
,
,
po 2 czarne i 2 białe kule, a w dziesiatej
5 białych i 1 czarna kula.
,
Z losowo wybranej urny wylosowano biała, kule.
, Jakie jest prawdopodobieństwo, że kula ta została wylosowana z dziesiatej
urny?
,
Zad. 5.3. W zbiorze 100 monet jedna ma po obydwu stronach orły,
pozostałe sa, prawidłowe. W wyniku 10 rzutów losowo wybrana, moneta, otrzymano 10 orłów. Obliczyć prawdopodobieństwo, że była to
moneta z orłami po obu stronach.
Zad. 5.4. W urnie znajduja, sie, dwie białe i trzy czarne kule. Dwaj
gracze, po kolei, wyciagaj
a, z urny po jednej kuli (bez zwracania).
,
Wygra ten, który pierwszy wyciagnie
kule, biała.
,
, Znaleźć prawdopodobieństwo, że wygra pierwszy gracz.
Zad. 5.5. W urnie znajduja, sie, dwie białe i trzy czarne kule. Dwaj
gracze, po kolei, wyciagaj
a, z urny po jednej kuli, za każdym razem
,
zwracając kulę do urny. Wygra ten, który pierwszy wyciagnie
kule,
,
biała.
Znaleźć
prawdopodobieństwo,
że
wygra
pierwszy
gracz.
,
Zad. 5.6. Adam, Bolek i Czesio rzucaja, po kolei moneta.
, Wygrywa
ten, który pierwszy wyrzuci orła. Obliczyć prawdopodobieństwo wygranej dla każdego z graczy.
Zad. 5.7. Test na rzadka, chorobe,
jest średnio jedna
, która, dotknieta
,
osoba na tysiac,
daje
fałszyw
a
pozytywn
a
odpowiedź
w 5% przypad,
,
,
ków, u osoby chorej daje zawsze odpowiedź pozytywna.
Jaka jest
,
szansa, że osoba, u której test dał odpowiedź pozytywna,
jest
faktycz,
nie chora? Zakładamy, że nic nie wiemy o innych objawach u badanej
osoby.
Zad. 5.8. Prognoza pogody jest prawdziwa 2 na 3 razy. Pan X bierze
parasol zawsze, gdy zapowiedza, deszcz, a także raz na trzy razy, gdy
zapowiedza,
, że nie będzie padać. Obliczyć prawdopodobieństwo, że
zmoknie, oraz że niepotrzebnie weźmie parasol.
Zad. 5.9. W pudełku znajduje sie, 15 piłek do tenisa, z których 9 jest
nieużywanych. Do pierwszej gry losuje sie, trzy piłki, które zostaja,
zwrócone do pudełka po zakończeniu gry. Do drugiej gry losuje sie,
także trzy piłki. Jakie jest prawdopodobieństwo, że podczas drugiej
gry bedzie
sie, grało tylko używanymi piłkami?
,
5.1. Teoria i zadania
Zad. 5.10. Podczas klasówki z historii Piotr i Paweł siedzieli obok
siebie. Miedzy
innymi mieli napisać dwie daty. Piotr je pamietał,
ale
,
,
nie wiedział jak je przyporzadkować.
Zapytał Pawła, wiedzac,
,
, że w 3
przypadkach na 4 Paweł zna prawidłowa, odpowiedź, chociaż Paweł
uważał, że zawsze wie dobrze. Jednak Paweł w 3 przypadkach na
5 oszukuje Piotra. Co jest lepsze dla Piotra: posłuchać Pawła czy
odpowiedzieć losowo?
Zad. 5.11. A powiedział, że B powiedział, że C powiedział, że D
skłamał. Jakie jest prawdopodobieństwo, że D rzeczywiście skłamał,
jeżeli każdy z nich zwykł mówić prawde, z prawdopodobieństwem p,
gdzie 0 < p < 1.
Zad. 5.12. Towarzystwo ubezpieczeniowe ma 85% stałych klientów,
którzy powoduja, – w ciagu
roku – wypadek z prawdopodobieństwem
,
0, 01 i 15% nowych klientów, powodujacych
wypadek z prawdopo,
dobieństwem 0, 4. Prawdopodobieństwo, że dany klient bedzie
miał
,
w ciagu
roku wypadek jest dla niego niezmienne, niezależne od tego
,
czy miał wypadek poprzednio czy nie. Obliczyć prawdopodobieństwo,
że wybrany losowo klient bedzie
miał wypadek. Obliczyć prawdopo,
dobieństwo, że wybrany losowo klient bedzie
miał drugi wypadek, jeśli
,
wiadomo, że jeden już miał.
Zad. 5.13. Załóżmy, że kierowcy dziela, sie, na ostrożnych (jest ich
95%, i taki kierowca powoduje w ciagu
roku wypadek z prawdopodo,
bieństwem 0, 01) i piratów (jest ich 5%, szansa na wypadek w ciagu
,
roku – 0, 5). Wybrany losowo kierowca nie spowodował wypadku
w roku 2006 ani 2007. Jaka jest szansa, że spowoduje wypadek w roku
2008?
Zad. 5.14. Pani Smith, podróżując samolotem z Krakowa do Cairns,
musi się dwukrotnie przesiadać. Prawdopodobieństwo, że jej bagaż
nie zostanie załadowany do właściwego samolotu w Krakowie wynosi
0, 1, zaś w kolejnych miejscach przesiadki, odpowiednio 0, 2 i 0, 1.
Okazało się, że bagaż pani Smith nie dotarł do Cairns. Obliczyć
prawdopodobieństwo, że bagaż zaginął już w Krakowie.
Zad.5.15. W mieście działaja, dwa przedsiebiorstwa
taksówkowe: Zie,
lone Taxi (85% samochodów) i Niebieskie Taxi (15%). Świadek nocnego wypadku zakończonego ucieczka, kierowcy twierdzi, że samochód
59
60
Wzór na prawdopodobieństwo całkowite. Wzór Bayesa
był niebieski. Eksperymenty wykazały, że świadek poprawnie rozpoznaje kolor w 80% przypadków. Jaka jest szansa, że w wypadku
uczestniczyła niebieska taksówka?
Zad.5.16. Student zaliczajac
chiński” musi kolejno:
, przedmiot „ jezyk
,
zdobyć zaliczenie z ćwiczeń, zdać egzamin pisemny i zdać egzamin
ustny (zakładamy, że sa, to zdarzenia niezależne). Prawdopodobieństwa pozytywnego przejścia kolejnych etapów procedury egzaminacyjnej wynosza, kolejno: 90%, 80% i 90%; przy czym przejście jednego etapu stanowi warunek konieczny przystapienia
do nastepnego.
,
,
Student X bedzie
musiał
w
przyszłym
roku
powtórnie
zaliczać
jezyk
,
,
chiński. Czy bardziej jest prawdopodobne, że oblał egzamin pisemny,
czy że odpadł na którymś z pozostałych etapów?
Zad. 5.17. Paradoks Simpsona. W pewnej miejscowości pracuja,
dwie pary małżeńskie, których roczny dochód jest taki sam. Pierwszy
maż
wiecej
(procentowo) ze swojej pensji niż drugi, również
, oszczedza
,
,
pierwsza żona jest bardziej od drugiej oszczedna.
Mimo to druga para
,
oszczedza
więcej
pieni
edzy.
Wyjaśnić
paradoks.
,
,
Zad. 5.18. Zadanie o ruinie gracza. Gracz rzuca moneta.
, Jeśli
wypadnie reszka, to wygrywa on 1 zł, a jeśli orzeł – to traci 1 zł.
Na poczatku
gry gracz ma x zł. Gra sie, kończy, gdy gracz wygra
,
z góry ustalona, kwote, a zł albo przegra wszystkie pieniadze.
Jakie
,
jest prawdopodobieństwo zrujnowania sie, gracza?
5.2. Wskazówki
5.1. Jeśli przez T oznaczymy trafienie z losowo wybranej strzelby, to
prawdopodobieństwo zdarzenia T obliczymy ze wzoru na prawdopodobieństwo całkowite. Tu natomiast wiemy, że zaszło T
i pytamy o prawdopodobieństwo „przyczyny”. Należy wiec
, zastosować wzór Bayesa.
5.2. Porównać zad. 5.1.
5.2. Wskazówki
5.3. Porównać zad. 5.1.
5.4. Narysować stosowne drzewko. Zauważyć, że w kolejnych etapach
prawdopodobieństwo wylosowania kuli białej zmienia się.
5.5. Porównać zad. 5.4. Tym razem prawdopodobieństwo wylosowania kuli białej na każdym etapie jest takie samo, a gra może
trwać nieskończenie długo.
5.6. Adam wygra, jeśli za pierwszym razem wyrzuci orła albo, gdy
wyrzuci reszke,
, Bolek i Czesio też wyrzuca, reszki, a nastepnie
,
Adam wyrzuci orła itd. Zauważmy, że gra może trwać nieskończenie długo, a obliczajac
, prawdopodobieństwo otrzymamy do
wysumowania szereg.
Podobnie dla pozostałych chłopców.
5.7. Narysować drzewko, odczytać prawdopodobieństwo, że test dał
wynik pozytywny (wzór na prawdopodobieństwo całkowite).
W rozwiazaniu
uwzglednić
informacje, o zdarzeniu, które zaszło,
,
,
tzn. że test dał wynik pozytywny (wzór Bayesa).
5.8. Zauważmy, że pan X zmoknie tylko wtedy, gdy bedzie
padał
,
deszcz. Można wiec
, narysować stosowne drzewko, przy założeniu, że bedzie
padać.
Zdarzenia: prognoza pogody sprawdza
,
sie, (zapowiedzieli deszcz) lub nie (zapowiedzieli, że nie bedzie
,
padać), stanowia, wtedy rozbicie przestrzeni Ω. Przy każdej
z powyższych hipotez znamy prawdopodobieństwo, że pan X
nie weźmie parasola. Wystarczy zastosować wzór (15).
Podobnie, pan X niepotrzebnie weźmie parasol tylko wtedy, gdy
nie bedzie
padać.
,
5.9. Mamy do czynienia z doświadczeniem dwuetapowym. Przeanalizować możliwość wyboru piłek używanych w drugiej grze, w zależności od wyboru piłek do pierwszej gry.
5.10. Należy obliczyć prawdopodobieństwo, że Piotr dobrze odpowie,
jeśli posłucha Pawła. Skorzystać ze wzoru na prawdopodobieństwo całkowite.
61
62
Wzór na prawdopodobieństwo całkowite. Wzór Bayesa
5.11. Narysować drzewko, zaczynajac
, od tego, co zdarzyło sie, najpierw, czyli, co powiedział D. Z drzewka odczytać prawdopodobieństwo, że A powiedział, że B powiedział, że C powiedział,
że D skłamał. Natepnie
obliczyć prawdopodobieństwo, że D
,
rzeczywiście skłamał, jeśli wiemy, że zaszło powyższe zdarzenie.
5.12. Porównać zad. 5.7.
5.13. Porównać zad. 5.12.
5.14. Narysować stosowne drzewko. Interesuje nas prawdopodobieństwo, że bagaż zginął w Krakowie, jeśli już wiemy, że gdzieś
zginał.
,
5.15. W wypadku uczestniczyła niebieska lub zielona taksówka, i to
dyktuje rozbicie przestrzeni Ω. W każdym przypadku świadek
mógł rozpoznać kolor lub nie. Aby uwzglednić
informacje,
,
, że
świadek twierdzi, że taksówka była niebieska, zastosować wzór
Bayesa.
5.16. Porównać zad. 5.14.
5.17. Wykazać, że dla A, B, Hi ∈ Σ, takich żeSP (B), P (Hi ) > 0 dla
i = 1, . . . , n, Hi ∩ Hj = ∅ dla i 6= j oraz ni=1 Hi = Ω, zachodzi
wzór
n
X
P (A|B) =
P (A|B ∩ Hi ) · P (Hi |B).
(17)
i=1
Następnie, zauważyć, że może się zdarzyć, że
P (A|B ∩ C) ≥ P (A|B 0 ∩ C),
P (A|B ∩ C 0 ) ≥ P (A|B 0 ∩ C 0 ),
a jednocześnie
P (A|B) < P (A|B 0 ).
W zadaniu interesuje nas szansa zaoszczędzenia złotówki dla
pierwszej i drugiej pary.
5.18. Wyznaczyć rekurencyjne równanie na prawdopodobieństwo ruiny gracza, w zależności od kapitału poczatkowego.
Zastosować
,
wzór na prawdopodobieństwo całkowite.
5.3. Odpowiedzi i rozwiazania
,
63
5.3. Odpowiedzi i rozwiazania
,
5.1. Niech D oznacza, że wybrano strzelbe, dobra,
, W – wybrano
strzelbe, wadliwa.
, Zauważmy, że zdarzenia D i W stanowia, rozbicie przestrzeni Ω. Wiemy, że
2
P (D) = ,
9
oraz
P (T |D) =
8
,
10
P (W ) =
7
9
P (T |W ) =
1
.
10
Korzystajac
, ze wzoru (16)
P (D|T ) =
=
P (T |D)P (D)
P (T |D)P (D) + P (T |W )P (W )
8
2
16
10 · 9
8
2
1
7 = 23 .
10 · 9 + 10 · 9
Analogicznie P (W |T ) =
5
.
23
5.3. 0, 91.
5.2.
3
.
5
5
5.5. .
8
5.4.
8
.
23
64
Wzór na prawdopodobieństwo całkowite. Wzór Bayesa
5.6. Jeśli A oznacza wygrana, Adama, to korzystajac
, ze wzoru na
sume, szeregu geometrycznego
1 1 1 1
1 1
4
P (A) = + · 2 · + . . . =
= .
1
2 2 2 2
21− 8
7
2
1
Podobnie P (B) = , P (C) = .
7
7
5.7. Oznaczmy: A wybrana losowo osoba jest chora, B wybrana losowo osoba jest zdrowa, C test dał wynik pozytywny. Interesuje
nas P (A|C), stosujemy wzór (16).
P (A|C) =
=
P (C|A) · P (A)
P (C|A) · P (A) + P (C|B) · P (B)
0, 001
≈ 0, 02.
0, 001 + 0, 999 · 0, 05
2
5
,
.
9
9
5.9. Niech pi oznacza prawdopodobieństwo, że do pierwszej gry wylosowano i piłek nieużywanych, i = 0, 1, 2, 3. Wtedy
6
9
6
4
27
3
1 · 2
= ,
p0 = 15 = , p1 =
15
91
91
3
3
9
9
· 6
432
12
3
= .
p2 = 2 151 =
, p3 = 15
910
65
3
3
5.8.
Niech A oznacza zdarzenie, że w drugiej grze grano tylko piłkami
używanymi.
7
8
9
6
P (A) = p0 ·
3
15
3
+ p1 ·
3
15
3
+ p2 ·
3
15
3
+ p3 ·
3
15 .
3
5.3. Odpowiedzi i rozwiazania
,
65
5.10. Niech A oznacza zdarzenie, że Piotr poda dobra, odpowiedź, D –
Paweł zna prawidłowa, odpowiedź, Z – Paweł zna zła, odpowiedź.
Oczywiście zdarzenia D i Z tworza, rozbicie przestrzeni Ω.
3
P (D) = ,
4
1
P (Z) = .
4
Jeśli Paweł zna dobra, odpowiedź, to Piotr odpowie dobrze
wtedy, gdy Paweł go nie oszuka, P (A|D) = 52 . Jeśli natomiast
Paweł zna zła, odpowiedź, to Piotr odpowie dobrze, gdy Paweł
go oszuka, P (A|Z) = 53 .
Korzystajac
, ze wzoru (15)
P (A) = P (A|D) · P (D) + P (A|Z) · P (Z) =
9
.
20
1
9
Ponieważ
< , to lepiej, jeżeli Piotr odpowie losowo zamiast
20
2
słuchać Pawła.
5.11. Niech D oznacza zdarzenie, że D skłamamł, zaś A, że A powiedział, że B powiedział, że C powiedział, że D skłamał.
Oznaczmy 1 − p = q. Na każdym etapie drzewka „+” i „−”
oznaczają odpowiednio oryginalną lub zmienioną wiadomość.
66
Wzór na prawdopodobieństwo całkowite. Wzór Bayesa
5.3. Odpowiedzi i rozwiazania
,
Interesuje nas P (D|A). Zatem
P (D|A) =
P (D ∩ A)
p2 + 3q 2
=
.
P (A)
4(p2 + q 2 )
5.12. Wybrany losowo klient może być stałym klientem (zdarzenie A)
lub nowym klientem (zdarzenie B). Jeśli W oznacza, że klient
bedzie
miał wypadek, to
,
P (W ) = P (W |A)P (A) + P (W |B)P (B)
= 0, 85 · 0, 01 + 0, 15 · 0, 4 = 0, 0685.
Jeśli D oznacza, że klient bedzie
miał drugi wypadek, to
,
P (D|W ) =
=
5.13. 0, 0165.
5.14.
100
≈ 0, 284.
352
5.15.
12
≈ 0, 414.
29
P (D ∩ W )
P (W )
0, 85 · 0, 01 · 0, 01 + 0, 15 · 0, 4 · 0, 4
≈ 0, 352.
0, 0685
67
68
Wzór na prawdopodobieństwo całkowite. Wzór Bayesa
5.16. Prawdopodobieństwo, że student nie uzyskał zalicznia, jeśli
wiemy, że musi powtarzać przedmiot wynosi 0, 284, w tej samej
sytuacji prawdopodobieństwo, że oblał egzamin pisemny wynosi
0, 511, zaś ustny – 0, 205. Zatem najbardziej prawdopodobne
jest, że oblał pisemny.
5.17. Możliwe są przykładowo następujące wartości liczbowe:
oszczędności
para I
para II
żona
40%
20%
mąż
10%
5%
razem
50%
25%
Zarówno mąż, jak i żona w parze I oszczędzają więcej. Przypuśćmy, że łączny dochód obydwu par wynosi 10 000, a zarobki
rozłożone są następująco:
dochód
para I
para II
oszczędności
para I
para II
żona
2000
8000
mąż
8000
2000
razem
10 000
10 000
800
1600
800
100
1600
1700
Widać więc, że para II oszczędza łącznie więcej niż para I. Jest to
zgodne ze wzorem (17). Jeśli A oznacza zaoszczędzenie złotówki,
5.3. Odpowiedzi i rozwiazania
,
69
B złotówkę zarobioną przez parę I, C złotówkę zarobioną przez
żonę, to
P (A|B) = P (A|B ∩ C) · P (C|B) + P (A|B ∩ C 0 ) · P (C 0 |B)
= 0, 4 · 0, 2 + 0, 1 · 0, 8 = 0, 16,
0
0
P (A|B ) = P (A|B ∩ C) · P (C|B 0 ) + P (A|B 0 ∩ C 0 ) · P (C 0 |B 0 )
= 0, 2 · 0, 8 + 0, 05 · 0, 2 = 0, 17.
Stąd faktycznie
0, 4 = P (A|B ∩ C) ≥ P (A|B 0 ∩ C) = 0, 2,
0, 1 = P (A|B ∩ C 0 ) ≥ P (A|B 0 ∩ C 0 ) = 0, 05,
ale
P (A|B) < P (A|B 0 ).
Paradoks związany jest z różnymi wagami, przez które mnożone
są prawdopodobieństwa we wzorze (17).
5.18. Niech p(x) oznacza prawdopodobieństwo zrujnowania sie, gracza, jeśli na poczatku
gry ma x złotych. Oczywiście
,
p(0) = 1, p(a) = 1.
(18)
Przez B oznaczmy zdarzenie, że gracz wygra w pierwszym rzucie, przez A – ruine, gracza, gdy na początku gry ma x złotych.
Wtedy
1
P (B) = ,
P (A) = p(x),
2
P (A|B) = p(x + 1), P (A|B 0 ) = p(x − 1).
Ze wzoru na prawdopodobieństwo całkowite:
1
1
p(x) = p(x + 1) + p(x − 1)
dla 0 ≤ x ≤ a.
2
2
Rozwiazaniem
powyższego równania rekurencyjnego jest funk,
cja
p(x) = C1 + C2 x,
przy czym stałe C1 , C2 wyznacamy z warunków brzegowych
(18). Ostatecznie
x
p(x) = 1 − .
a
6. Zmienne losowe i ich rozkłady
6.1. Teoria i zadania
Niech (Ω, Σ, P ) bedzie
przestrzenia, probabilistyczna.
, Funkcje, ξ :
,
Ω → Rn nazywamy (n-wymiarowa)
zmienn
a
losow
a,
jeżeli
jest funkcja,
,
,
,
mierzalna, wzgledem
σ-algebry Σ, tzn.
,
ξ −1 (B) = {ω ∈ Ω : ξ(ω) ∈ B} ∈ Σ
dla każdego B ∈ B(Rn ). Każda zmienna losowa wyznacza rozkład
prawdopodobieństwa (rozkład zmiennej losowej), czyli miare, probabilistyczna, Pξ : B(Rn ) → [0, 1], taka, że
Pξ (B) = P (ξ −1 (B))
dla B ∈ B(Rn ). Na odwrót, jeśli Q jest rozkładem prawdopodobieństwa, to istnieje przestrzeń probabilistyczna (Ω, Σ, P ) oraz zmienna
losowa ξ : Ω → Rn taka, że Q = Pξ .
Mówimy, że rozkład prawdopodobieństwa P jest dyskretny, jeżeli
istnieje zbiór K ∈ B(Rn ) taki, że
P (K) = 1
oraz
P ({x}) > 0
dla każdego x ∈ K.
Dowodzi sie,
, że zbiór K jest zbiorem co najwyżej przeliczalnym. Możemy wiec
Jeśli zatem K = {xi : i ∈ I},
,
, ustawić elementy K w ciag.
gdzie I = {1, . . . , N } lub I = N, i pi = P ({xi }), to
X
pi = 1 oraz pi > 0 dla każdego i ∈ I.
i∈I
Zauważmy, że ciag
, (xi , pi )i∈I wyznacza rozkład dyskretny P w sposób
jednoznaczny.
Mówimy, że rozkład prawdopodobieństwa P jest absolutnie ciagły,
,
jeśli jest absolutnie ciagły
wzgl
edem
miary
Lebesgue’a,
tzn.
,
,
m(A) = 0 =⇒ P (A) = 0
dla każdego A ∈ B(Rn ).
72
Zmienne losowe i ich rozkłady
Z twierdzenia Radona-Nikodyma wynika, że istnieje wówczas funkcja
całkowalna f : Rn → R taka, że dla każdego A ∈ B(Rn )
Z
P (A) =
f (x)dx.
A
Funkcje, f nazywamy gestości
a, rozkładu prawdopodobieństwa P . Do,
wodzi sie, nastepuj
ace
własności
gestości:
,
,
,
i) f ≥ 0 p.w. (wzgledem
miary Lebesgue’a)
,
Z
ii)
f (x)dx = 1.
Rn
Na odwrót, każda funkcja o powyższych własnościach jest gestości
a,
,
,
czyli wyznacza rozkład absolutnie ciagły.
,
W tym i dwu nastepnych
rozdziałach bedziemy
sie, zajmować jed,
,
nowymiarowymi zmiennymi losowymi, czyli przypadkiem, gdy n = 1.
Przypadkiem, gdy n > 1, czyli tzw. wektorami losowymi zajmiemy
sie, w rozdziałach 10 i 11.
Zad. 6.1. W urnie znajduje sie, 7 kul ponumerowanych od 1 do 7.
Losujemy jednocześnie 5 kul. Niech ξ oznacza najwiekszy
spośród
,
numerów kul w wylosowanej próbce. Znaleźć rozkład ξ.
Zad. 6.2. Na trasie samochodu znajduja, sie, 4 sygnalizatory świetlne,
z których każdy z prawdopodobieństwem 0, 5 przepuszcza lub zatrzymuje ruch. Znaleźć rozkład liczby sygnalizatorów, które minał
, samochód przed pierwszym zatrzymaniem sie.
,
Zad. 6.3. Z partii 100 wyrobów, z których 10 jest wybrakowanych, losujemy 5 wyrobów do sprawdzenia. Znaleźć rozkład zmiennej losowej
ξ, która jest równa liczbie wybrakowanych wyrobów w próbce.
Zad. 6.4. Trzej chłopcy Adam, Bolek i Czesio graja, w nastepuj
ac
, a,
,
gre:
, złożyli sie, po jednej monecie, po czym Adam podrzuca te monety do góry, a gdy spadna, zabiera te, które spadły orłami do góry.
Nastepnie
Bolek zbiera pozostałe monety, podrzuca je i zabiera te,
,
które spadły orłami do góry. Pozostałe monety zabiera Czesio. Niech
6.1. Teoria i zadania
73
ξ1 oznacza liczbe, monet wygranych przez Adama, ξ2 oznacza liczbe,
monet wygranych przez Bolka, ξ3 oznacza liczbe, monet, które przypadły Czesiowi. Wyznaczyć rozkłady prawdopodobieństwa zmiennych
losowych ξ1 , ξ2 , ξ3 .
Zad. 6.5. Rozkład jednopunktowy. Funkcja ξ : Ω → R dana
jest wzorem ξ(ω) = c dla każdego ω ∈ Ω. Wyznaczyć najmniejsza,
σ-algebre,
Wyznaczyć rozkład
,
, przy której ξ jest zmienna, losowa.
zmiennej losowej ξ.
Zad. 6.6. Rozkład dwupunktowy. Niech A ∈ Σ i 0 < P (A) < 1.
Funkcja ξ : Ω → R dana jest wzorem
(
1 dla ω ∈ A,
ξ(ω) =
0 dla ω ∈ A0 .
Wyznaczyć najmniejsza, σ-algebre,
,
, przy której ξ jest zmienna, losowa.
Wyznaczyć rozkład zmiennej losowej ξ.
Zad. 6.7. Rozkład Bernoullego o parametrach n, p, B(n, p). Niech
n ∈ N, p ∈ (0, 1). Wykazać, że rozkład
n k
P ({k}) =
p (1 − p)n−k , k = 0, 1, . . . , n
k
jest rozkładem dyskretnym.
Zad.6.8. Rozkład geometryczny z parametrem p. Niech p ∈ (0, 1).
Wykazać, że rozkład
P ({k}) = (1 − p)k−1 p,
k = 1, 2, . . .
jest rozkładem dyskretnym.
Zad. 6.9. Rozkład Poissona z parametrem λ. Niech λ > 0. Wykazać, że rozkład
P ({k}) =
jest rozkładem dyskretnym.
λk −λ
e ,
k!
k = 0, 1, . . .
74
Zmienne losowe i ich rozkłady
Zad. 6.10. Niech N, M, n ∈ N, przy czym M < N , n ≤ M , n ≤
N − M . Wykazać, że równość
P (ξ = m) =
M
m
N −M
n−m
N
n
dla m = 0, 1, . . . , n.
(19)
definiuje rozkład prawdopodobieństwa zmiennej losowej ξ. Rozkład
ten nazywamy rozkładem hipergeometrycznym o parametrach N ,
M
= p ∈ (0, 1), to
M , n. Wykazać ponadto, że jeśli lim
N →∞ N
n m
lim P (ξ = m) =
p (1 − p)n−m
N →∞
m
dla każdego m ∈ {0, 1, . . . , n}.
Zad. 6.11. Wykazać, że funkcja określona wzorem

 1
dla x ∈ [a, b],
1
b−a
f (x) =
1[a,b] (x) =

b−a
0
dla x ∈
/ [a, b]
jest gestości
a, rozkładu prawdopodobieństwa. Rozkład ten nazywamy
,
rozkładem jednostajnym na odcinku [a, b].
Zad. 6.12. Niech λ > 0. Wykazać, że funkcja określona wzorem
f (x) = 1[0,∞) (x)λe−λx
dla x ∈ R, jest gestości
a, rozkładu prawdopodobieństwa. Rozkład ten
,
nazywamy rozkładem wykładniczym z parametrem λ.
Zad. 6.13. Niech m ∈ R, σ > 0. Wykazać, że funkcja określona
wzorem
(x−m)2
1
f (x) = √
e− 2σ2
2πσ
dla x ∈ R, jest gestości
a, rozkładu prawdopodobieństwa. Rozkład
,
ten nazywamy rozkładem normalnym o parametrach m, σ. Klase,
takich rozkładów bedziemy
oznaczać N (m, σ).
,
6.1. Teoria i zadania
75
Zad. 6.14. Zmienna losowa η ma rozkład o gestości
,
f (x) =
0
2
Axe−2x
dla x ≤ 0,
dla x > 0.
Wyznaczyć stała, A. Obliczyć P (η < 3).
Zad. 6.15. Zmienna losowa η ma rozkład o gestości
,

 0
dla x ≤ 0,
A
f (x) =

dla x > 0.
1 + x2
√
Wyznaczyć stała, A. Obliczyć P (0 ≤ η <
3
3 ).
Zad. 6.16. Dobrać stała, A tak, aby funkcja f (x) = xA2 dla 1 ≤ |x| ≤
2, f (x) = 0 dla pozostałych x, była gestości
a, prawdopodobieństwa
,
zmiennej losowej ξ. Obliczyć P (|ξ| < 23 ).
Zad. 6.17. Niech N ∈ N, Pk bed
rozkładami prawdopodobieństwa,
, a,P
N
λk > 0 dla k ∈ {1, . . . , N } oraz
k=1 λk = 1. Wykazać, że P =
PN
k=1 λk Pk jest rozkładem prawdopodobieństwa.
Zad. 6.18. Niech P = 31 δ0 + 32 P1 , gdzie δ0 jest miara, Diraca, tzn.
dla dowolnego a ∈ R
(
δa (A) =
1 gdy a ∈ A,
0 gdy a ∈
/ A,
a rozkład prawdopodobieństwa P1 ma gestość
f = 12 1[1,3] . Obliczyć
,
P ([0, 2]).
Zad. 6.19. Niech P = 14 δ0 + 12 δ2 + 41 P2 , gdzie rozkład prawdopodobieństwa P2 ma gestość
f (x) = e−x 1(0,+∞) (x). Obliczyć P ([0, 1]),
,
P ([0, 2]).
76
Zmienne losowe i ich rozkłady
6.2. Wskazówki
6.1. Ustalić jakie wartości przyjmuje zmienna losowa ξ, a nastepnie
,
wyliczyć prawdopodobieństwa, z jakimi sa, one przyjmowane.
Rozkład prawdopodobieństwa wygodnie jest przedstawić w tabelce.
6.2. Porównać zad. 6.1.
6.3. Porównać zad. 6.1. Obliczjąc P (ξ = k) skorzystać ze schematu
Bernoullego.
6.4. Zmienne losowe ξ1 , ξ2 , ξ3 przyjmuja, wartości 0, 1, 2, 3. Prawdopodobieństwa w rozkładzie ξ1 można obliczyć stosujac
, schemat
1
Bernoullego dla n = 3, p = 2 . Obliczajac
, prawdopodobieństwa
w rozkładach zmiennych ξ2 , ξ3 należy dodatkowo uwzglednić
wy,
niki poprzednich rzutów.
6.5. Wyznaczyć wszystkie możliwe przeciwobrazy zbiorów borelowskich.
6.6. Porównać zad. 6.5.
6.7. Zgodnie z definicja, wystarczy
wskazać co najwyżej przeliczalny
P
zbiór K i wykazać, że k∈K P ({k}) = 1. Skorzystać ze wzoru
dwumianowego Newtona, (12).
6.8. Skorzystać ze wzoru na sume, szeregu geometrycznego.
6.9. Skorzystać z rozwiniecia
eλ w szereg Taylora.
,
6.10. Aby wykazać, że wzór (19) definiuje rozkład prawdopodobieństwa, wystarczy skorzystać ze wzoru Van der Monde’a, (11).
W celu obliczenia granicy należy rozpisać P (ξ = m) z definicji
i odpowiednio pogrupować wyrazy.
R
6.11. Wystarczy sprawdzić, że f ≥ 0 oraz R f (x)dx = 1.
6.12. Porównać zad. 6.11.
1
6.13. Skorzystać z faktu, że √
2π
Z
R
1 2
e− 2 x dx = 1.
6.3. Odpowiedzi i rozwiazania
,
77
6.14. Stała, A dobieramy tak, aby f ≥ 0 oraz
R3
P (η < 3) = −∞ f (x)dx.
R
R f (x)dx
= 1.
6.15. Porównać zad. 6.14.
6.16. Porównać zad. 6.14.
6.17. Wystarczy zauważyć, że P (R) = 1.
6.18. Dla dowolnego A ∈ B(R): P (A) = 13 δ0 (A) + 23 P1 (A).
6.19. Porównać zad. 6.18.
6.3. Odpowiedzi i rozwiazania
,
6.1. Najmniejsza wartość, jaką może przjąć zmienna losowa ξ wynosi
5, to w sytuacji, gdy wylosujemy kule o numerach: 1, 2, 3, 4, 5.
Stąd
1
1
P (ξ = 5) = 5 = .
21
C7
C54
C64
5
5
oraz
P
(ξ
=
7)
=
=
= .
5
5
21
7
C7
C7
Rozkład prawdopodobieństwa można podać w tabelce:
Podobnie P (ξ = 6) =
6.2.
6.3.
6.4.
ξ
5
6
7
p
1
21
5
21
15
21
ξ
0
1
2
3
4
p
1
2
1
4
1
8
1
16
1
16
ξ
p
0
0,584
1
0,34
2
0,07
ξ1
0
1
2
3
p
1
8
3
8
3
8
1
8
3
6,4 ·10−3
4
2,5 ·10−4
ξ2
0
1
2
3
p
27
64
27
64
9
64
1
64
5
3,3 ·10−6
78
Zmienne losowe i ich rozkłady
ξ3
0
1
2
3
p
343
512
147
512
21
512
1
512
6.5. Niech B ∈ B(R). Wtedy
(
ξ
−1
(B) =
Ω, jeśli c ∈ B,
∅,
jeśli c ∈
/ B.
Zatem, jeśli σ(ξ) oznacza najmniejszą σ-algebrę, przy której ξ
jest zmienną losową, to σ(ξ) = {∅, Ω}. Warto zauważyć, że ξ
jest zmienna, losowa, przy dowolnie wybranej σ-algebrze, gdyż
każda σ-algebra zawiera ∅ i Ω. Stad
, również
(
P (Ω) = 1, jeśli c ∈ B,
−1
Pξ (B) = P (ξ (B)) =
P (∅) = 0, jeśli c ∈
/ B.
Zatem Pξ = δc , gdzie δc oznacza miare, Diraca skoncentrowana,
w punkcie c, tzn.
(
1, jeśli c ∈ B,
δc (B) =
0, jeśli c ∈
/ B.
6.6. σ(ξ) = {∅, Ω, A, A0 }.
Niech p = P (A) ∈ (0, 1). Wtedy Pξ = pδ1 + (1 − p)δ0 .
6.7. K = {0, 1, . . . , n}. Zgodnie ze wzorem (12)
n
n X
X
n k
P ({k}) =
p (1 − p)n−k = (p + 1 − p)n = 1.
k
k=0
k=0
6.8. K = N,
X
P ({k}) =
k∈N
∞
X
(1 − p)k−1 p = p
k=1
1
= 1.
1 − (1 − p)
6.9. K = {0, 1, . . .},
∞
X
k=0
P ({k}) =
∞
X
λk
k=0
k!
e−λ = e−λ · eλ = 1.
6.3. Odpowiedzi i rozwiazania
,
79
6.10. Korzystając ze wzoru Van der Monde’a, mamy
n
X
m=0
n 1 X M
N −M
P (ξ = m) = N = 1,
m
n−m
n
m=0
zatem (19) zadaje rozkład prawdopodobieństwa.
M
= p, grupujemy wyrazy po prawej stroN →∞ N
Zakładając, że lim
nie (19),
P (ξ = m)
n!
M!
(N − M )!
(N − n)!
=
·
·
·
m!(n − m)! (M − m)! (N − M − n + m)!
N!
n
M M −1
M −m+1
·
=
·
· ... ·
·
m
N N −1
N −m+1
N −M N −M −1
N −M −n+m+1
·
·
· ... ·
N −m N −m−1
N −n+1
n m
−→
p (1 − p)n−m , gdy N → ∞.
m
Warto zauważyć, że z rozkładem hipergeometrycznym mamy
do czynienia w sytuacji, gdy ze zbioru N -elementowego,
który zawiera M wyróżnionych elementów, losujemy próbkę nelementową. Zmienna losowa ξ wyrażająca liczbę elementów
wyróżnionych w próbce ma rozkład hiperboliczny.
Wykazaną w zadaniu implikację można w takim razie zinterpretować następująco. Jeśli losujemy z dużego zbioru, to szansa,
że wśród wylosowanych n elementów znajdzie się m elementów
wyróżnionych (losowanie bez zwracania) jest podobna do szansy
m-krotnego wylosowania wyróżnionego elementu spośród n elementów w losowaniu ze zwracaniem.
Z
Z b
1
6.11. Oczywiście f ≥ 0, ponadto
f (x)dx =
dx = 1.
b−a a
R
Z
Z ∞
6.12.
f (x)dx =
λe−λx dx = 1 i f ≥ 0.
R
0
80
Zmienne losowe i ich rozkłady
6.13. Wprowadzając nową zmienną całkowania t = x−m
σ , otrzymujemy
Z
Z
(x−m)2
t2
1
1
−
2
√
e 2σ dx = √
e− 2 dt = 1.
2πσ R
2π R
Z 3
Z
2
4xe−x dx = 1 − e−18 .
f (x)dx =
6.14. A = 4, P (η < 3) =
0
(−∞,3)
6.15. A =
2
, P (0 ≤ η <
π
√
3
3 )
= 31 .
6.16. Rozważana funkcja f jest parzysta, zatem
Z
Z
Z 2
A
dx
f (x)dx =
dx = 2A
= A,
2
2
R
1≤|x|≤2 x
1 x
czyli A = 1. Podobnie
P
6.17. P (R) =
3
|ξ| <
2
PN
k=1 λk Pk (R)
=
3
2
Z
=2
1
PN
k=1 λk
dx
2
= .
2
x
3
= 1.
6.18. Zauważmy, że δ0 ([0, 2]) = 1, bo 0 ∈ [0, 2], natomiast
Z
P1 ([0, 2]) =
f (x)dx =
[0,2]
Zatem
6.19. P ([0, 1]) =
Z
1
2
1
1
dx = .
2
2
1
2
2
P ([0, 2]) = δ0 ([0, 2]) + P1 ([0, 2]) = .
3
3
3
1
1
1
− , P ([0, 2]) = 1 − 2 .
2 4e
4e
7. Dystrybuanta
7.1. Teoria i zadania
Dystrybuanta, nazywamy funkcje, F : R
nastepuj
ace
warunki:
,
,
→
R spełniajac
, a,
i) F jest niemalejaca,
,
ii) F jest prawostronnie ciagła,
,
iii)
lim F (x) = 1, lim F (x) = 0.
x→+∞
x→−∞
Jeśli P jest jednowymiarowym rozkładem prawdopodobieństwa, to
funkcja
F (x) = P ((−∞, x]) dla x ∈ R
(20)
jest dystrybunata.
, Mówimy wtedy, że rozkład P ma dystrybuante,
F . Na odwrót, jeśli F jest dystrybuanta,
, to istnieje dokładnie jeden rozkład prawdopodobieństwa P taki, że zachodzi (20). Zatem
dystrybuanta wyznacza rozkład prawdopodobieństwa w sposób jednoznaczny.
W przypadku, gdy rozkład P jest dyskretny, zadany przez ciag
,
(xi , pi )i∈I , I = {1, . . . , N }, N ∈ N lub I = N, dystrybuanta jest
funkcja, schodkowa,
, dana, wzorem:
X
F (x) =
pi , gdzie I(x) = {i ∈ I : xi ≤ x}.
i∈I(x)
Jeśli natomiast rozkład P jest absolutnie ciagły
o gestości
f , to
,
,
Z x
F (x) =
f (t)dt dla x ∈ R.
−∞
W tym przypadku dystrybuanta jest funkcja, ciagł
, a,
, a nawet różniczkowalną, w tych punktach, w których f jest ciągła oraz
F 0 (x) = f (x) p.w.
(21)
82
Dystrybuanta
Zad. 7.1. Wyznaczyć i naszkicować dystrybuanty rozkładów zdefiniowanych w zadaniach 6.1, 6.2.
Zad. 7.2. Wyznaczyć i naszkicować dystrybuante, rozkładu: jednostajnego na odcinku [a, b], wykładniczego z parametrem λ > 0.
Zad. 7.3. Wyznaczyć i naszkicować dystrybuanty rozkładów zdefiniowanych w zadaniach 6.14, 6.15, 6.16.
Zad. 7.4. Wyznaczyć dystrybunate, zmiennej losowej ξ o gestości
,

 2· 1
dla |x| ≤ 1
π x2 + 1
f (x) =

0
dla |x| > 1.
Obliczyć P (|ξ| < 23 ).
Zad.7.5. Obliczyć P (ξ ≤ 1, 5) oraz P (|ξ| < 2, 5), jeśli zmienna losowa
ξ ma rozkład
a) N (0, 1) (standardowy rozkład normalny),
b) N (1, 2).
Zad.7.6. Zbadać czy funkcja F (x) = A cos x+B, x ∈ [0, π2 ], może być
rozszerzona do dystrybuanty pewnej zmiennej losowej. Zaproponować
ewentualne rozszerzenie.
Zad. 7.7. Wyznaczyć stałe A, B tak, aby funkcja
2
A + Be−x dla x > 0,
F (x) =
0
dla x ≤ 0
była dystrybuanta, rozkładu absolutnie ciagłego.
Wyznaczyć gestość
,
,
tego rozkładu. Obliczyć P (|ξ| = 1) oraz P (|ξ| ≤ 1), jeśli ξ jest
zmienna, losowa, o powyższym rozkładzie.
Zad. 7.8. Wyznaczyć dystrybuante, rozkładu P = 13 δ0 + 23 P1 , gdy P1
jest rozkładem prawdopodobieństwa o gestości
f = 21 1[1,3] .
,
Zad. 7.9. Wyznaczyć dystrybuante, rozkładu P = 14 δ0 + 12 δ2 +
1
f (x) =
,
4 P2 , gdy P2 jest rozkładem prawdopodobieństwa o gestości
e−x 1(0,+∞) (x).
7.2. Wskazówki
83
Zad. 7.10. Wykazać, że funkcja F : R → [0, 1] zadana wzorem
F (x) =
0
dla x < 0,
1 −x
1 − 4e
dla 0 ≤ x
jest dystrybuanta, rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład.
Zad. 7.11. Wykazać, że funkcja F : R → [0, 1] zadana wzorem
F (x) =

 0
dla x < 0,
+ 12 x dla x ∈ [0, 1),

1
dla x ≥ 1
1
2
jest dystrybuanta, rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład.
7.2. Wskazówki
7.1. Skorzystać ze wzoru na dystrybuante, w przypadku dyskretnym.
7.2. Skorzystać ze wzoru na dystrybuante, w przypadku absolutnie
ciagłym.
,
7.3. Porównać zad. 7.2.
7.4. Porównać zad. 7.2.
7.5. Zapisać każde z szukanych prawdopodobieństw za pomoca, dystrybuanty i skorzystać z tablic dystrybuanty standardowego rozkładu normalnego. W przypadku b) zauważyć, że jeśli ξ ma rozkład N (1, 2), to zmienna losowa ξ−1
2 ma standardowy rozkład
normalny.
7.6. Czy można tak dobrać stałe A, B, żeby funkcja F spełniała aksjomaty i) – iii)?
84
Dystrybuanta
7.7. Dobrać stałe A, B tak, aby funkcja F spełniała aksjomaty i) –
iii), a jednocześnie była ciagła.
Skorzystać ze zwiazku
dystry,
,
buanty z gestości
a, (21).
,
7.8. Należy rozważyć dystrybuante, na przedziałach: (−∞, 0), [0, 1),
[1, 3) oraz [3, +∞).
7.9. Rozważyć przypadki, gdy x ∈ (−∞, 0), x ∈ [0, 2), x ∈ [2, +∞).
7.10. Sprawdzić, że funkcja F spełnia aksjomaty i) – iii) definicji
dystrybuanty. Dystrybuanta F nie jest funkcja, schodkowa, ani
funkcja, ciagł
jej rozkład nie jest wiec
, a,
, odpowiadajacy
,
, dyskretny
ani absolutnie ciagły.
Jest kombinacja, takich rozkładów, porów,
nać zad. 7.8, 7.9. Nastepnie
zauważyć, że F ma skok w punkcie
,
x = 0, przy czym F (0) − lim F (x) = 3/4. Za taki skok odx→0−
powiada miara δ0 z odpowiednio dobranym współczynnikiem.
Cześć
absolutnie ciagł
, a, odczytać z porównania z dystrybuanta,
,
rozkładu wykładniczego lub z zależności f (x) = F 0 (x) p.w.
7.11. Porównać zad. 7.10.
7.3. Odpowiedzi i rozwiazania
,
7.1. W zadaniu 6.1:

0





1



21
F (x) =

6




21



1
dla x < 5,
dla 5 ≤ x < 6,
dla 6 ≤ x < 7,
dla 7 ≤ x,
w zadaniu 6.2:


0
dla





1


dla


2




3


dla

4
F (x) =

7


dla


8




15


dla


16



 1
dla
x < 0,
0 ≤ x < 1,
1 ≤ x < 2,
2 ≤ x < 3,
3 ≤ x < 4,
4 ≤ x.
7.3. Odpowiedzi i rozwiazania
,
85
7.2. Dystrybuanta rozkładu jednostajnego na odcinku [a, b]:


0


Z x
 x−a
f (t)dt =
F (x) =
b−a

−∞


 1
dla x < a,
dla a ≤ x < b,
dla x ≥ b.
Dystrybuanta rozkładu wykładniczego z parametrem λ:
(
F (x) =
0
dla x < 0,
−λx
1−e
Dystrybuanta rozkł. jednostajnego
dla x ≥ 0.
Dystrybuanta rozkł. wykładniczego
7.3. W zadaniu 6.14:
(
F (x) =
0
Rx
0
dla x < 0,
2
4te−2t dt
=1−
2
e−2x
dla x ≥ 0.
W zadaniu 6.15:

 0
dla x < 0,
F (x) =
2
 arctg x dla x ≥ 0.
π
86
Dystrybuanta
W zadaniu 6.16:

0





1 1


− −


x 2



1
F (x) =

2




 −1 + 3



x 2



1
Dystrybuanta rozkł. z zad. 6.15
dla x < −2,
dla − 2 ≤ x < −1,
dla − 1 ≤ x < 1,
dla 1 ≤ x < 2,
dla 2 ≤ x.
Dystrybuanta rozkł. z zad. 6.16
7.4.

0
dla x < −1,




1 2
F (x) =
+ arctg x dla − 1 ≤ x < 1,
 2 π



1
dla x ≥ 1.
P
3
|ξ| <
2
3
3
=F
−F −
= 1.
2
2
7.3. Odpowiedzi i rozwiazania
,
Dystrybuanta rozkładu z zad. 7.4
7.5. a) Korzystamy z tablic dystrybuanty
standardowego rozkładu
Z x
1 2
1
normalnego Φ(x) = √
e− 2 t dt oraz z faktu, że Φ(x) +
2π −∞
Φ(−x) = 1.
P (ξ ≤ 1, 5) = Φ(1, 5) ≈ 0, 93,
P (|ξ| < 2, 5) = Φ(2, 5) − Φ(−2, 5) = 2Φ(2, 5) − 1 ≈ 0, 99.
1, 5 − 1
b) P (ξ ≤ 1, 5) = P (η ≤
) = Φ(0, 25) ≈ 0, 60, gdzie
2
ξ−1
η=
ma standardowy rozkład normalny. Podobnie
2
7
3
P (|ξ| < 2, 5) = P (− < η < ) = Φ(0, 75)+Φ(1, 75)−1 ≈ 0, 73.
4
4
7.6. Można przyjać
, na przykład A = −1, B = 1 i wtedy F (x) = 0
dla x < 0 oraz F (x) = 1 dla x > π2 .
Inny przykład: A = − 12 , B = 1, F (x) = 0 dla x < 0 oraz
F (x) = 1 dla x > π2 .
7.7. Stałe A, B spełniaja, układ równań
A + B = 0,
A
= 1,
czyli A = 1, B = −1. Zgodnie z (21) f (x) = F 0 (x) p.w., czyli
(
0
dla x ≤ 0,
f (x) =
2
2xe−x dla x > 0.
P (|ξ| = 1) = 0, P (|ξ| ≤ 1) = F (1) − F (−1) = 1 − e−1 .
87
88
Dystrybuanta
7.8.

0





1



3
F (x) =
x





3



1
7.9.
dla x < 0,
dla 0 ≤ x < 1,
dla 1 ≤ x < 3,
dla x ≥ 3.

0





 1 e−x
−
F (x) =
2
4



−x


 1− e
4
Dystrybuanta rozkładu z zad. 7.8
dla x < 0,
dla 0 ≤ x < 2,
dla x ≥ 2.
Dystrybuanta rozkładu z zad. 7.9
3
1
7.10. P = δ0 + P3 , gdzie P3 oznacza rozkład wykładniczy z para4
4
metrem 1.
1
1
δ0 + P4 , gdzie P4 jest rozkładem jednostajnym na od2
2
cinku [0, 1].
7.11. P =
8. Parametry zmiennych losowych
8.1. Teoria i zadania
Niech (Ω, Σ, P ) bedzie
przestrzenia, probabilistyczn
a,
, ξ: Ω → R
,
R
zmienna, losowa, całkowalna,
, tzn. taka,
, że Ω |ξ|dP < ∞. Wtedy wartościa, oczekiwana, (wartościa, średnia)
, zmiennej losowej ξ nazywamy
liczbe,
Z
Eξ =
ξdP.
Ω
Zgodnie z powyższa, definicja, wartość oczekiwana ma te same własności, co całka, w szczególności liniowość i zachowanie przy przejściach
granicznych.
Niech g : R → R bedzie
funkcja, borelowska,
, tzn. mierzalna,
,
wzgledem
σ-algebry zbiorów borelowskich. Wtedy złożenie g ◦ξ : Ω →
,
R, oznaczane tradycyjnie przez g(ξ), jest zmienna, losowa, i, zgodnie
z twierdzeniem o zamianie miary w całce,
Z
E(g(ξ)) =
g(x)dPξ (x),
R
przy czym równość oznacza tu, że jeśli całka po jednej stronie istnieje,
to istnieje także całka po drugiej stronie i zachodzi równość.
W szczególności, jeśli ξ ma rozkład dyskretny, zadany przez ciag
,
(xi , pi )i∈I , I = {1, . . . , N }, N ∈ N, lub I = N, to
Eξ =
X
xi pi .
(22)
i∈I
Mamy również
E(g(ξ)) =
X
g(xi )pi
(23)
i∈I
dla dowolnej funkcji borelowskiej, przy czym w przypadku, gdy zbiór
I jest przeliczalny, należy założyć zbieżność bezwzgledn
a, powyższych
,
szeregów.
90
Parametry zmiennych losowych
Jeśli natomiast
ξ ma rozkład absolutnie ciagły
o gestości
f :R→
,
,
R
[0, +∞) i R |x|f (x)dx < ∞, to wartość oczekiwana ξ istnieje i wyraża
sie, wzorem
Z
Eξ =
xf (x)dx.
(24)
R
Dla dowolnej funkcji borelowskiej g takiej, że
mamy
Z
E(g(ξ)) =
g(x)f (x)dx.
R
R |g(x)|f (x)dx
< ∞,
(25)
R
Liczby
E((ξ − c)k ) i E(|ξ − c|k )
nazywamy odpowiednio momentem i momentem bezwzglednym
rzedu
,
,
k zmiennej losowej ξ wzgledem
stałej
c.
Jeśli
c
=
0
mówimy
o
mo,
mentach zwykłych, jeśli c = Eξ – centralnych. Zauważmy, że Eξ jest
momentem zwykłym rzedu
pierwszego. Natomiast moment centralny
,
rzedu
drugiego
nazywamy
wariancj
a, zmiennej losowej ξ i oznaczamy
,
2
D ξ, tzn.
D2 ξ = E(ξ − Eξ)2 .
Czasem wariancje, wygodnie jest wyliczać ze wzoru
D2 ξ = Eξ 2 − (Eξ)2 .
(26)
Warto też zauważyć, że
D2 (aξ + b) = a2 D2 ξ
∀a, b ∈ R.
(27)
Ponieważ dla każdej zmiennej losowej (dla której wariancja istnieje)
D2 ξ ≥ 0, można zdefiniować odchylenie standardowe
p
σ = D2 ξ.
Niech ξ będzie dowolną zmienną losową, dla której wariancja istnieje
i σ > 0. Zauważmy, że jeśli
η=
ξ − Eξ
σ
to Eη = 0, zaś D2 η = 1. Wykonaliśmy w ten sposób tzw. standaryzację zmiennej losowej ξ.
8.1. Teoria i zadania
91
Wariancja i odchylenie standardowe sa, parametrami rozkładu,
które mierza, rozrzut rozkładu wokół wartości średniej. Inne parametry, które określaja, sposób koncentracji rozkładu wokół wartości
średniej, to:
• współczynnik asymetrii (skośność):
α3 =
E(ξ − Eξ)3
,
σ3
• współczynnik spłaszczenia (kurtoza):
α4 =
E(ξ − Eξ)4
− 3.
σ2
Skoro wartość oczekiwana jest całką, to prawdziwa jest nierówność
Schwarza:
p
|E(ξη)| ≤ Eξ 2 · Eη 2 ,
(28)
patrz rozdział 9, 10.
Udowadnia się również:
nierówność Markowa. Jeśli ξ : Ω → R jest zmienną losową
nieujemną, ε > 0, k ∈ N, to
P (ξ ≥ ε) ≤
Eξ k
,
εk
(29)
nierówność Czebyszewa. Jeśli Eξ istnieje, to dla każdego ε > 0
P (|ξ − Eξ| ≥ ε) ≤
D2 ξ
.
ε2
(30)
Zad. 8.1. Obliczyć wartości oczekiwane i wariancje zmiennych losowych o rozkładach:
1. dwupunktowym,
2. Bernoullego,
92
Parametry zmiennych losowych
3. Poissona,
4. geometrycznym,
5. jednostajnym na odcinku [a, b],
6. wykładniczym,
7. normalnym.
Zad. 8.2. Wykazać, że jeśli ξ ma rozkład Cauchy’ego o parametrach m ∈ R, a > 0, czyli o gęstości
f (x) =
1
a
π a2 + (x − m)2
dla x ∈ R, to wartość oczekiwana ξ nie istnieje.
Zad. 8.3. Wykazać, że E(ξ − m)2k = Cσ 2k dla k ∈ N, jeśli zmienna
losowa ξ ma rozkład normalny o parametrach m, σ, zaś C ∈ R jest
stosownie dobraną stałą.
Zad. 8.4. Wykazać wzory (26), (27).
Zad. 8.5. Na loterii jest N losów, w tym M losów wygrywajacych.
,
Kupiono n losów. Jaka jest średnia liczba losów wygrywajacych
wśród
,
zakupionych?
Zad. 8.6. Włamywacz ma n kluczy, z których dokładnie jeden jest
kluczem właściwym. Wybiera on klucze losowo i nie pamieta,
które
,
z nich były już próbowane. Obliczyć średnia, liczbe, prób potrzebnych
do otwarcia drzwi.
Zad. 8.7. Posiadam n kluczy w peku
i usiłuje, otworzyć drzwi do
,
mieszkania. Tylko jeden klucz pasuje do zamka, ale niestety jest
ciemno i nie potrafie, rozróżnić kluczy miedzy
soba.
, Jaka jest wartość
,
oczekiwana i wariancja liczby prób koniecznych do otwarcia drzwi, jeżeli klucze, które nie pasowały do zamka nie biora, udziału w dalszych
próbach?
Zad. 8.8. Sekretarka napisała 3 listy do 3 różnych adresatów, włożyła
je do kopert, zakleiła, po czym na każdej kopercie nakleiła jeden z adresów, na które trzeba było listy wysłać. Obliczyć wartość oczekiwana,
i wariancje, liczby listów zaadresowanych prawidłowo.
8.1. Teoria i zadania
93
Zad. 8.9. Przy okragłym
stole zasiadło w sposób losowy trzech fi,
zyków, dwóch matematyków i jeden informatyk. Jaka jest oczekiwana liczba fizyków siedzacych
pomiedzy
matematykami po tej stro,
,
nie stołu, po której nie siedzi informatyk?
Zad. 8.10. Pewien matematyk ma dwa pudełka zapałek, w lewej
i prawej kieszeni po jednym. W każdym z nich sa, cztery zapałki.
Wyciagaj
ac
,
, zapałki na chybił trafił z jednej lub drugiej kieszeni,
stwierdza w pewnym momencie, że pudełko, do którego siegn
ał
, jest
,
puste. Niech zmienna losowa ξ oznacza liczbe, zapałek w drugim pudełku. Wyznaczyć rozkład ξ i obliczyć Eξ.
Zad. 8.11. Jeden z pracowników Instytutu Matematyki zadaje na
egzaminie trzy pytania. Ocenia każde z nich z osobna w skali: 1, 2,
3, 4, 5 i skreśla najwyższa, oraz najniższa, ocene.
, Ta, która zostanie
jest ocena, końcową. Jeżeli prawdopodobieństwo otrzymania dowolnej
oceny jest w przypadku każdego z pytań takie samo i równe 51 oraz
oceny z poszczególnych pytań sa, niezależne, to jak wyglada
rozkład
,
oceny końcowej i ile wynosi jej wartość oczekiwana?
Zad. 8.12. Wyznaczyć współczynnik asymetrii zmiennych losowych
o gestościach:
,
a) f (x) = 12x(1 − x)2 dla 0 < x < 1, f (x) = 0 dla x ∈
/ (0, 1);
b) g(x) = 12x2 (1 − x) dla 0 < x < 1, f (x) = 0 dla x ∈
/ (0, 1);
c) zmiennej losowej o standardowym rozkładzie normalnym.
Zad. 8.13. Wyznaczyć kurtoze,
a) zmiennej losowej o rozkładzie jednostajnym na odcinku [−a, a];
b) zmiennej losowej o standardowym rozkładzie normalnym;
1
1
≤E
.
Zad. 8.14. Wykazać, że jeśli X > 0, EX > 0, to
EX
X
Zad. 8.15. Zmienna losowa ξ ma rozkład gamma o parametrach
α, λ > 0, jeśli ma gęstość
f (x) =
λα α−1 −λx
x
e
1(0,∞) (x).
Γ(α)
94
Parametry zmiennych losowych
Przypomnijmy, że Γ oznacza funkcję gamma Eulera i
Z ∞
y α−1 e−y dy dla α > 0.
Γ(α) =
0
Wykazać, że jeśli ξ ma rozkład gamma o parametrach α = m + 1,
m
λ = 1, m ∈ N, to P (ξ < 2(m + 1)) >
.
m+1
Zad. 8.16. Wykazać, że jeśli EX ≥ 0, EX 2 > 0, to P (X > 0) ≥
(EX)2
.
EX 2
Zad. 8.17. Wykazać, że jeśli E(epX ) istnieje dla p > 0, to P (X ≥ ε)
E(eλX )
≤
dla każdego ε > 0 oraz λ ∈ [0, p].
eλε
8.2. Wskazówki
8.1. Aby obliczyć wartość oczekiwaną, w przypadku zmiennych losowych o rozkładach 1 - 4, skorzystać ze wzoru (22), w pozostałych
przypadkach ze wzoru (24). Wariancję obliczyć ze wzoru (26)
oraz odpowiednio (23) lub (25), dla funkcji g(x) = x2 dla x ∈ R.
R
8.2. Wykazać, że warunek R |x|f (x)dx < ∞ nie jest spełniony.
8.3. Porównać zad. 8.1, punkt 7. Obliczyć E(ξ −m)4 , odgadnąć stałą
C. Wzór udowodnić stosując zasadę indukcji.
8.4. Skorzystać z definicji wariancji, liniowości wartości oczekiwanej
i faktu, że Eξ = c, jeśli ξ = c p.n.
8.5. Jeśli ξ oznacza liczbę losów wygrywających wśród n losów
zakupionych, to ξ ma rozkład hipergeometryczny, porównać
zad. 6.10. Należy obliczyć Eξ.
8.6. Zauważyć, że jeśli ξ oznacza numer próby, przy której uda się
otworzyć drzwi, to ξ ma rozkład geometryczny. Chodzi o obliczenie Eξ.
8.3. Odpowiedzi i rozwiazania
,
95
8.7. Porównać zad. 8.6. Wyznaczyć stosowny rozkład.
8.8. Wyznaczyć rozkład prawdopodobieństwa liczby listów zaadresowanych prawidłowo.
8.9. Porównać zad. 2.27.
8.10. Porównać zad. 4.17.
8.11. Wyznaczyć rozkład oceny końcowej.
8.12. E(ξ − Eξ)3 obliczyć korzystając z liniowości wartości oczekiwanej.
8.13. Porównać zad. 8.12.
8.14. Skorzystać z nierówności Schwarza (28).
8.15. Skorzystać z nierówności Czebyszewa (30).
8.16. Skorzystać z nierówności Schwarza dla całki
A = {X > 0}.
R
Ω 1A XdP ,
gdzie
8.17. Skorzystać z nierówności Markowa (29).
8.3. Odpowiedzi i rozwiazania
,
8.1.
1. Jeśli X ma rozkład dwupunktowy z parametrem p, to
P (X = 1) = p, P (X = 0) = 1 − p. Zatem
EX = 1 · p + 0 · (1 − p) = p
D2 X = EX 2 − (EX)2 = p − p2 = p(1 − p).
96
Parametry zmiennych losowych
2. Niech X ma rozkład
Bernoullego o parametrach n, p, tzn.
n k
P (X = k) =
p (1 − p)n−k dla k = 0, . . . , n.
k
n
X
n k
EX =
k
p (1 − p)n−k
k
k=0
=
n
X
k=1
= np
n
X
k=1
n!
pk (1 − p)n−k
(k − 1)!(n − k)!
(n − 1)!
pk−1 (1 − p)n−1−(k−1)
(k − 1)!(n − 1 − (k − 1))!
n−1
X
(n − 1)!
pl (1 − p)n−1−l
l!(n − 1 − l)!
l=0
n−1
X n − 1
= np
pl (1 − p)n−1−l
l
= np
l=0
= np(p + (1 − p))n−1 = np.
Podobnie obliczamy, że EX 2 = n(n − 1)p2 + np, i stąd
D2 X = np(1 − p).
P
Można też zauważyć, że X = ni=1 ξi , gdzie
1, gdy w i-tej próbie pojawił się sukces,
ξi =
0, gdy i-ta próba zakończyła się porażką.
Wtedy zmienne losowe ξi mają rozkład dwupunktowy z parametrem p (i = 1, . . . , n). Zatem korzystając z liniowości
wartości oczekiwanej
EX =
n
X
Eξi = np.
i=1
Obliczając wariancję X korzystamy z niezależności zmiennych losowych ξi i wzoru (37), rozdział 10,
D2 X =
n
X
i=1
D2 ξi = np(1 − p).
8.3. Odpowiedzi i rozwiazania
,
97
3. Załóżmy, że X ma rozkład Poissona z parametrem λ, czyli
λk −λ
P (X = k) =
e dla k = 0, 1, . . . .
k!
∞
∞
X
X
λk −λ
λk−1
−λ
EX =
k e =e λ
k!
(k − 1)!
k=0
= e−λ λ
k=1
∞
X
λl
l=0
l!
= e−λ λ · eλ = λ.
Analogicznie EX 2 = λ + λ2 , i konsekwentnie
D2 X = λ.
4. Zakładamy, że X ma rozkład geometryczny z parametrem
p, P (X = k) = p(1 − p)k−1 dla k ∈ N.
EX =
∞
X
kp(1 − p)k−1 = p
k=1
∞
X
k(1 − p)k−1 .
k=1
Ostatnią sumę można obliczyć grupując stosownie wyrazy
(można to zrobić, bo wyrazy są dodatnie) i stosując wzór
na sumę nieskończonego ciągu geometrycznego.
∞
X
k(1 − p)k−1
k=1
= 1 + (1 − p) + (1 − p)2 + . . .
+(1 − p) + (1 − p)2 + . . .
+(1 − p)2 + . . .
+...
1 1 − p (1 −
1
+
... = 2.
= +
p
p
p
p
P∞
k−1
Można też wyznaczyć
P∞ k sumę szeregu k=1 kx , różniczkując szereg k=1 x , dla |x| < 1 zbieżny bezwzględnie i
jednostajnie, a następnie podstawić argument x = 1 − p.
Ostatecznie
1
EX = .
p
p)2
98
Parametry zmiennych losowych
Aby wyznaczyć wariancję, zauważmy, że
EX 2 =
= p(1 − p)
∞
X
∞
X
k 2 p(1 − p)k−1
k=1
∞
X
k(k − 1)(1 − p)k−2 + p
k=1
k(1 − p)k−1 .
k=1
Dalszy rachunek jest analogiczny jak poprzednio. Ostatecznie
EX 2 = p(1 − p)
1
2
+
3
p
p
D2 X =
i
1−p
.
p2
5. Niech X ma rozkład jednostajny na odcinku [a, b], tj. roz1
1 . Zgodnie ze wzorem (24)
kład o gęstości f =
b − a [a,b]
Z
EX =
b
Z
xf (x)dx =
a
R
x
1 b2 − a2
a+b
dx =
·
=
.
b−a
b−a
2
2
Podobnie, korzystając z (25),
Z
2
b
EX =
a
x2
a2 + ab + b2
dx =
,
b−a
3
stąd
D2 X = EX 2 − (EX)2 =
(b − a)2
.
12
6. Rozważamy zmienną losową X o gęstości f (x)
λe−λx 1[0,+∞) (x). Całkując przez części, otrzymujemy
∞
Z
EX =
λxe−λx dx = lim
A
Z
A→+∞ 0
0
=
lim (−xe−λx |A
0
A→+∞
= lim (−Ae−λA −
A→+∞
Z
+
λxe−λx dx
A
e−λx dx)
0
1 −λx A
1
e
|0 ) = .
λ
λ
=
8.3. Odpowiedzi i rozwiazania
,
99
Podobnie obliczamy całkę
Z ∞
2
λx2 e−λx dx
EX =
0
=
lim (−x2 e−λx |A
0
A→+∞
i konsekwentnie
D2 X =
Z
+2
A
xe−λx dx) =
0
2
,
λ2
1
.
λ2
7. Zauważmy najpierw, że jeśli X ma standardowy rozkład
1 2
1
normalny, czyli rozkład o gęstości f (x) = √ e− 2 x dla
2π
x ∈ R, to
Z
EX =
xf (x)dx = 0,
R
jako całka z funkcji nieparzystej po R. Wariancję obliczamy
całkując przez części i pamiętając, że całka po R z gęstości
wynosi 1.
D2 X = EX 2
A
1 2
2
x2 f (x)dx = √
lim
x · xe− 2 x dx
2π A→+∞ 0
R
Z A
1 2
2
− 21 x2 A
=√
lim (−xe
e− 2 x dx)
|0 +
A→+∞
2π
Z 0
1 2
1
=√
e− 2 x dx = 1.
2π R
Z
=
Z
Jeśli Y ma rozkład N (m, σ), to
Z
(x−m)2
1
EY = √
xe− 2σ2 dx,
2πσ R
Z
(x−m)2
1
D2 Y = √
(x − m)2 e− 2σ2 dx,
2πσ R
i podstawienie y = x−m
σ sprowadza obliczenia do identycznych jak poprzednio. Ostatecznie,
EY = m,
D2 Y = σ 2 .
100
Parametry zmiennych losowych
Z
1
a|x|
dx jest rozbieżna. W tym celu,
2
2
R π a + (x
Z − m)
|y|
dy jest rozbieżna. Istotnie,
wystarczy zauważyć, że
2
R 1+y
Z +∞
Z
|y|
y
dy
=
2
dy
2
1
+
y
1
+
y2
R
0
Z +∞
Z +∞
y
1
≥ 2
dy ≥
dy,
2
1+y
y
1
1
8.2. Pokażemy, że
a ostatnia całka jest rozbieżna.
8.3. W zad. 8.1 obliczyliśmy, że E(ξ − m)2 = σ 2 . Załóżmy, że dla
k∈N
E(ξ − m)2k = 1 · 3 · . . . · (2k − 1)σ 2k .
Pokażemy, że
E(ξ − m)2k+2 = 1 · 3 · . . . · (2k + 1)σ 2k+2 .
Istotnie, jeśli f jest gęstością rozkładu normalniego o parametrach m, σ, to
0
2
σ − (x−m)
2
− √ e 2σ
= (x − m)f (x).
2π
Zauważając, że
lim (x − m)2k+1 e−
(x−m)2
2σ 2
x→+
−∞
= 0,
całkujemy przez części
2k+2
Z
E(ξ − m)
= (x − m)2k+2 f (x)dx
R
Z
= (x − m)2k+1 (x − m)f (x)dx
R
= (2k + 1)σ 2
Z
(x − m)2k f (x)dx = (2k + 1)σ 2 E(ξ − m)2k
R
i korzystamy z założenia indukcyjnego
E(ξ − m)2k+2 = (2k + 1)σ 2 · 1 · 3 · . . . · (2k − 1)σ 2k
= 1 · 3 · . . . · (2k + 1)σ 2k+2 .
8.3. Odpowiedzi i rozwiazania
,
101
Zgodnie z zasadą indukcji matematycznej wykazaliśmy więc, że
dla każdego k ∈ N zachodzi wzór
E(ξ − m)2k = Cσ 2k ,
gdzie C = 1 · 3 · . . . · (2k − 1) = (2k − 1)!!.
8.4. Korzystając z liniowości wartości oczekiwanej, mamy
D2 ξ = E((ξ − Eξ)2 ) = E(ξ 2 − 2ξEξ + (Eξ)2 )
= Eξ 2 − 2(Eξ)2 + (Eξ)2 = Eξ 2 − (Eξ)2
i podobnie
D2 (aξ + b) = E((aξ + b − E(aξ + b))2 ) = E((aξ + b − aEξ − b)2 )
= a2 E((ξ − Eξ)2 ) = a2 D2 ξ.
8.5. Niech ξ oznacza liczbę losów wygrywających wśród n zakupionych. Wtedy
M N −M
m
P (ξ = m) =
n−m
N
n
dla m = 0, . . . , M,
czyli ξ ma rozkład hipergeometryczny, porównać zad. 6.10.
Niech m0 = min{M, n}.
m0
m0 M N −M
X
M X
M −1 N −M
m
n−m
Eξ =
=
m
N
N
m−1
n−m
n
n m=1
m=0
m0 −1 M X
M −1
N −M
= N
.
k
n−k−1
n
k=0
Oczywiście, dla każdego x ∈ R
(1 + x)N −1 = (1 + x)N −M (1 + x)M −1 .
Stąd, porównując współczynniki przy xn−1 po obydwu stronach
równości, otrzymujemy tożsamość
N −1
n−1
=
m
0 −1 X
k=0
M −1
k
N −M
.
n−k−1
102
Parametry zmiennych losowych
Zatem
M N −1
Mn
Eξ = N =
.
N
n−1
n
Podobnie oblicza się, że
Eξ 2 =
Mn
(M n − M + N − n),
N (N − 1)
i w konsekwencji
D2 ξ =
M n (N − M )(N − n)
.
N
N (N − 1)
8.6. Niech ξ oznacza numer próby, przy której włamywacz otworzy
drzwi. Prawdopodobieństwo wybrania właściwego klucza w dowolnej próbie wynosi p = n1 . Stąd
P (ξ = k) = (1 − p)k−1 p =
(n − 1)k−1
nk
dla k = 1, 2, . . . ,
czyli zmienna losowa ξ ma rozkład geometryczny z parametrem
p = n1 . Zgodnie z zad. 8.1, punkt 4,
Eξ =
1
= n.
p
8.7. Niech η oznacza liczbę prób potrzebnych do otwarcia drzwi. Ponieważ klucze, które nie pasowały do zamka nie biorą udziału
w dalszych próbach, prawdopobieństwo pk = P (η = k) obliczamy dla każdego k = 1, . . . , n. Mianowicie
p1 =
n−1
1
1
·
= , ...
n
n−1
n
1
1
1
n−1
pn =
·
... · · 1 = .
n
n−1
2
n
1
,
n
p2 =
Jest to rozkład równomierny. Zatem
Eη =
D2 η =
1
n+1
(1 + 2 + . . . + n) =
,
n
2
(n + 1)2 (4n − 3)
.
12
8.3. Odpowiedzi i rozwiazania
,
103
8.8. Niech X oznacza liczbę listów zaadresowanych prawidłowo. Rozkład X podaje tabelka:
X
0
1
3
p
1
3
1
2
1
6
EX = 1, D2 X = 1.
Ogólniejszą wersję tego zadania rozwiążemy w rozdziale 10 (zad.
10.9).
8.9. Niech X oznacza liczbę fizyków siedzących pomiędzy matematykami, po tej stronie stołu, po której nie siedzi informatyk. Rozkład zmiennej losowej X przedstawia tabelka (porównać zad.
2.27):
X
0
1
2
3
p
2
5
3
10
1
5
1
10
Zatem EX = 1.
8.10. Rozkład zmiennej losowej ξ przedstawia tabelka (porównać zad.
4.17):
ξ
0
1
2
3
4
p
35
27
35
27
30
27
20
27
8
27
i konsekwentnie Eξ =
187
128 .
8.11. Niech X oznacza ocenę końcową. Wtedy
EX = 3.
X
1
2
3
4
5
p
13
125
31
125
37
125
31
125
13
125
104
Parametry zmiennych losowych
8.12. Oznaczmy µ3 = E(ξ − Eξ)3 . Zgodnie z definicją α3 =
Korzystając z liniowości wartości oczekiwanej, mamy
µ3
.
σ3
µ3 = Eξ 3 − 3Eξ 2 Eξ + 3Eξ(Eξ)2 − (Eξ)3 = Eξ 3 − 3EξD2 ξ − (Eξ)3 .
a)
zmienna losowa ξ ma rozkład
f , to Eξ =
R 1 Jeśli
R 1 o gęstości
2 (1 − x)2 dx = 2 , Eξ 2 =
3 (1 − x)2 dx = 1 ,
12x
12x
5
5
0
0
R1
1
4
Eξ 3 = 0 12x4 (1 − x)2 dx = 35
, stąd D2 ξ = 25
i zgodnie
2
z wyprowadzonym wzorem µ3 = 875
≈ 0, 0023. Ostatecznie
2
α3 = 7 ≈ 0, 28 > 0. Jest to tzw. asymetria prawa.
b) α3 = − 72 ≈ −0, 28 < 0. Asymetria lewa.
c) Jeśli ξ ma standardowy rozkład normalny, to Eξ = Eξ 3 = 0,
D2 ξ = 1. Stąd µ3 = 0 i α3 = 0. Symetria.
8.13. Oznaczmy µ4 = E(ξ − Eξ)4 . Wtedy α4 =
ponadto, że
µ4
σ4
− 3. Zauważmy
µ4 = Eξ 4 − 4EξEξ 3 + 6Eξ 2 (Eξ)2 − 4Eξ(Eξ)3 + (Eξ)4 .
a) Skoro ξ ma rozkład jednostajny na odcinku [−a, a], to f =
1
a2
a4
3
2
4
2a 1[−a,a] . Zatem Eξ = Eξ = 0, Eξ = 3 , Eξ = 5 . Stąd
µ4 = 59 , czyli α4 = − 65 .
b) Eξ = Eξ 3 = 0, Eξ 2 = 1, Eξ 4 = 3. Konsekwentnie α4 = 0.
√
8.14. Skoro X > 0, to X · √1X = 1. Zatem, stosując nierówność
Schwarza
s
√
√
1
1
1 = E1 = E( X √ ) ≤ E( X)2 · E( √ )2 ,
X
X
czyli
1
).
X
Dzieląc stronami przez EX otrzymujemy żądaną nierówność.
1 ≤ EX · E(
8.15. Jeśli ξ ma rozkład gamma o parametrach α = m + 1 i λ = 1,
to
α
α
Eξ = = m + 1, D2 ξ = 2 = m + 1.
λ
λ
8.3. Odpowiedzi i rozwiazania
,
105
Zatem korzystając z nierówności Czebyszewa, dla ε = m + 1,
otrzymujemy
P (|ξ − (m + 1)| ≥ m + 1) ≤
1
.
m+1
Stąd dla zdarzenia przeciwnego, mamy
P (|ξ − (m + 1)| < m + 1) ≥
m
.
m+1
Ponieważ P (ξ ≤ 0) = 0, oznacza to, że
P (ξ < 2(m + 1)) ≥
m
.
m+1
R
8.16. Niech A = {X > 0}. Ponieważ A0 XdP ≤ 0, to
Z
Z
Z
XdP +
XdP ≤
1A XdP.
EX =
A
A0
Ω
Korzystając z nierówności Schwarza
Z
Z
(EX)2 ≤
12A dP ·
X 2 dP = P (A) · EX 2 .
Ω
Ω
8.17. Zauważmy, że {ω ∈ Ω : X(ω) ≥ ε} = {ω ∈ Ω : eX(ω) ≥ eε }.
Ponadto eX > 0, zatem korzystając z nierowności Markowa dla
k = λ,
P (X ≥ ε) = P (eX ≥ eε ) ≤
E(eX )λ
EeλX
=
.
(eε )λ
eλε
9. Funkcje zmiennych losowych
9.1. Teoria i zadania
Niech (Ω, Σ, P ) bedzie
przestrzenia, probabilistyczna,
, ξ : Ω → R
,
zmienna, losowa,
g
:
R
→
R
funkcj
a
borelowsk
a.
Wtedy
złożenie g ◦ ξ
,
,
,
jest zmienna, losowa, o rozkładzie
Pg(ξ) (B) = Pξ (g −1 (B))
dla dowolnego B ∈ B(R). W praktyce jednak, rozkład prawdopodobieństwa zadany jest przez dystrybuante,
lub ciag
, opisujacy
,
, gestość
,
rozkład dyskretny. W tej sytuacji rozkład g(ξ) wyznacza sie, zwykle
znajdujac
(jeśli istnieje) wyraża
, dystrybuante, tego rozkładu. Gestość
,
sie, wówczas wzorem (21) z dokładnościa, do zbioru miary zero.
Zad. 9.1. Niech zmienna losowa X ma standardowy rozkład normalny, a, b ∈ R, a > 0. Wykazać, że aX + b ma rozkład normalny
N (b, a).
Zad.9.2. Zmienna losowa X ma rozkład N (0, 1). Wyznaczyć rozkład
zmiennej Y = eX (rozkład lognormalny).
Zad. 9.3. Niech zmienna losowa ξ ma rozkład o gestości
f :R→R
,
spełniającej warunek f (x) > 0, x ∈ R. Wyznaczyć gestość
zmiennej
,
2
losowej η = ξ .
Zad. 9.4. Wykazać twierdzenie:
Jeśli zmienna losowa ξ ma rozkład absolutnie ciagły
,
o gestości
f i ξ(Ω) ⊂ (a, b), funkcja g : (a, b) → R jest
,
klasy C 1 oraz g 0 (x) 6= 0 dla x ∈ (a, b), to zmienna losowa
η = g(ξ) ma rozkład absolutnie ciagły
o gestości
,
,
h(x) =
dla x ∈ R.
1
f (g −1 (x))1g((a,b)) (x)
|g 0 (x)|
108
Funkcje zmiennych losowych
Zad. 9.5. Zmienna losowa X ma rozkład o gestości
f : R → R danej
,
wzorem f (x) = x dla 0 ≤ x ≤ 1, f (x) = 2 − x dla 1 ≤ x ≤ 2, f (x) = 0
dla x < 0 lub x > 2. Znaleźć rozkład zmiennej
0
dla X ≤ 1,
Y =
X − 1 dla X > 1.
Zad. 9.6. X ma rozkład wykładniczy z parametrem λ. Wyznaczyć
1
rozkład Y = .
X
Zad. 9.7. Zmienna losowa ξ ma rozkład jednostajny na przedziale
[−1, 1]. Wyznaczyć rozkłady zmiennych losowych η = 2ξ 2 + 1, ζ = 1ξ .
Zad. 9.8. Zmienna losowa ξ ma rozkład normalny N (0, 1). Wyznaczyć rozkład zmiennej losowej η danej wzorem
ξ, gdy |ξ| < 1
η=
−ξ, gdy |ξ| ≥ 1.
Zad. 9.9. X ma rozkład jednostajny na przedziale [0, 1]. Niech η =
min {ξ, 1 − ξ}. Wyznaczyć rozkład zmiennej losowej η. Obliczyć Eη.
Zad. 9.10. X ma rozkład jednostajny na przedziale [0, 2]. Znaleźć
rozkłady zmiennych losowych Y = min {X, X 2 }, Z = max {1, X}.
Zad. 9.11. ξ ma rozkład jednostajny na przedziale [−π, π]. Wykazać,
1
że zmienna losowa η = tg ξ (a > 0) jest absolutnie ciagła
i wyzna,
a
czyć jej gestość.
,
Zad. 9.12. Załóżmy, że rozmowa telefoniczna trwa średnio 1 minutę,
a jej długość ma rozkład wykładniczy. Załóżmy również, że minuta
rozmowy kosztuje złotówkę. Ile średnio zapłacimy za rozmowę, jeśli
operator stosuje rozliczenie
a) minutowe;
b) co 30 sekund?
9.2. Wskazówki
9.2. Wskazówki
9.1. Wyznaczyć dystrybuantę zmiennej losowej aX + b. Skorzystać
ze wzoru (21).
9.2. Wyznaczyć dystrybuantę zmiennej losowej eX . Zauważyć, że
eX ≤ x wtedy i tylko wtedy, gdy X ≤ ln x, dla x > 0.
9.3. Porównać zad. 9.2.
9.4. Wyznaczyć dystrybuantę zmiennej losowej η. Wyznaczając ξ
z nierówności g(ξ) ≤ y (y ∈ R) skorzystać z faktu, że g jest
funkcją monotoniczną, skoro g ∈ C 1 i g 6= 0.
9.5. Zmienna losowa Y dana jest wzorem Y = 0, gdy X ≤ 1 lub
Y = X − 1, gdy X > 1. To narzuca rozbicie przestrzeni Ω
na sumę dwóch rozłącznych podzbiorów {X ≤ 1} i {X > 1}.
Obserwację tę wykorzystać wyznaczając dystrybuantę Y .
9.6. Zauważyć, że P (X > 0) = 1 i wobec tego P (Y ≤ y) = P (X ≥ y1 )
dla y > 0.
9.7. Porównać zad. 9.3 i 9.6.
9.8. Rozważyć rozbicie przestrzeni Ω na podzbiory rozłączne,
{|ξ| < 1}, {|ξ| ≥ 1}.
9.9. Porównać zad. 9.8.
9.10. Porównać zad. 9.8.
9.11. Rozwiązać nierówność tg ξ ≤ ax, gdy ξ ∈ [−π, π]. Sorzystać ze
wzoru (21).
9.12. Jeśli zmienna losowa X oznacza długość rozmowy, to z treści
zadania wynika, że X ma rozkład wykładniczy z parametrem
λ = 1. Niech Y oznacza czas rozmowy mierzony w naliczonych
„impulsach” minutowych (30-sekundowych). Należy wyznaczyć
rozkład Y i obliczyć EY .
109
110
Funkcje zmiennych losowych
9.3. Odpowiedzi i rozwiazania
,
1 2
1
9.1. Zmienna losowa X ma rozkład o gęstości f (t) = √ e− 2 t dla
2π
t ∈ R. Wyznaczymy dystrybuantę zmiennej losowej aX + b.
Niech x ∈ R.
Z x−b
a
x−b
F (x) = P (aX + b ≤ x) = P (X ≤
f (t)dt.
)=
a
−∞
Wprowadzając nową zmienną y = at+b w ostatniej całce, mamy
dalej
Z x
Z x
(y−b)2
1
y−b
1
F (x) =
e− 2a2 dy.
f
dy = √
a
a 2π −∞
−∞ a
Stąd gęstość zmiennej losowej aX + b ma postać:
(x−b)2
1
g(x) = √ e− 2a2
a 2π
dla x ∈ R,
czyli aX + b ma rozkład normalny N (b, a).
9.2. Wyznaczymy dystrybuantę zmiennej losowej eX . Niech x ∈ R.
P (X ≤ ln x) dla x > 0,
X
F (x) = P (e ≤ x) =
0
dla x ≤ 0.
Załóżmy więc, że x > 0, wtedy
Z ln x
Z x
1
1
1 − 1 (ln s)2
− 21 t2
P (X ≤ ln x) = √
e
dt = √
e 2
ds.
2π −∞
2π 0 s
Zatem gęstość g zmiennej losowej eX wyraża się wzorem
(
1
2
√1 e− 2 (ln x)
dla x > 0,
x 2π
g(x) =
0
dla x ≤ 0.
Jest to gęstość zmiennej losowej o rozkładzie lognormalnym.
Zauważmy, że korzystając z własności funkcji logarytm, dla
x > 0, możemy też zapisać
g(x) = √
1
2πx2+ln x
.
9.3. Odpowiedzi i rozwiazania
,
111
9.3. Niech F oznacza dystrybuantę zmiennej losowej η = ξ 2 , x ∈ R.
F (x) = P (η ≤ x) = P (ξ 2 ≤ x)
√
√
P (− x ≤ ξ ≤ x)
=
0
dla x ≥ 0,
dla x < 0.
Jeśli x ≥ 0, to
√
√
P (− x ≤ ξ ≤ x) =
√
Z
x
√
− x
Z x
=
0
f (t)dt
√
√
1
√ (f ( s) + f (− s))ds.
2 s
Stąd
(
fη (x) =
√
1
√
(f ( x)
2 x
√
+ f (− x))
0
dla x ≥ 0,
dla x < 0.
9.4. Zgodnie z założeniem g 0 < 0 lub g 0 > 0. Załóżmy, że g 0 > 0, czyli
funkcja g jest rosnąca. Niech y ∈ g((a, b)), tzn. g(a) < y < g(b).
Z g−1 (y)
−1
Fη (y) = P (g(ξ) ≤ y) = P (a < ξ ≤ g (y)) =
f (t)dt.
a
Stosując twierdzenie o całkowaniu przez podstawienie,
Z y
Z y
−1
−1 0
Fη (y) =
f (g (x)) · |(g ) (x)|dx =
f (g −1 (x)) ·
g(a)
g(a)
1
g 0 (x)
dx.
Jeśli y ≤ g(a), to P (g(ξ) ≤ y) = P (∅) = 0, natomiast dla
y ≥ g(b), P (g(ξ) ≤ y) = P (ξ ∈ (a, b)) = 1. Zatem gęstość h
zmiennej losowej η wyraża się wzorem:
(
1
dla x ∈ g((a, b)),
f (g −1 (x)) · g0 (x)
h(x) =
0
dla x ∈
/ g((a, b)).
9.5. Zauważmy, że jeśli FX oznacza dystrybuantę zmiennej losowej
X, to

0
dla x < 0,



 1 x2
dla 0 ≤ x < 1,
2
FX (x) =
1
2

2x − 2 x − 1 dla 1 ≤ x < 2,



1
dla x ≥ 2.
112
Funkcje zmiennych losowych
Ponadto definicja zmiennej losowej Y narzuca rozbicie przestrzeni Ω na sumę dwóch rozłącznych składowych: Ω =
{X ≤ 1} ∪ {X > 1}.
Niech y < 0. Wtedy
P (Y ≤ y) = P (0 ≤ y, X ≤ 1) + P (X − 1 ≤ y, X > 1)
= P (∅) + P (∅) = 0.
Jeśli 0 ≤ y < 1, to
FY (y) = P (0 ≤ y, X ≤ 1) + P (X − 1 ≤ y, X > 1)
= P (X ≤ 1) + P (1 < X ≤ 1 + y) = FX (1) + FX (1 + y) − FX (1)
1
1
1
= 2(1 + y) − (1 + y)2 − 1 = − y 2 + y + .
2
2
2
Jeśli natomiast y ≥ 1, to
FY (y) = FX (1) + P (1 < X ≤ 1 + y) = FX (1 + y) = 1.
Łącznie zmienna losowa Y ma rozkład o dystrybuancie:

0
dla y < 0,



1
1 2
− 2 y + y + 2 dla 0 ≤ y < 1,
FY (y) =



1
dla y ≥ 1.
9.6. Przypomnimy, że
FX (x) =
0
1 − e−λx
dla x < 0,
dla x ≥ 0.
9.3. Odpowiedzi i rozwiazania
,
113
Jeśli y ≤ 0, to
FY (y) = P (
1
≤ y) = P (X ≤ 0) = 0.
X
Niech teraz y > 0. Wtedy
1
1
1
≤ y) = P ( ≤ 0) + P (0 <
≤ y)
X
X
X
λ
1
1
= P (X ≤ 0) + P (X ≥ ) = 1 − FX ( ) = e− x .
y
y
FY (y) = P (
Ostatecznie
(
FY (x) =
0
λ
e− x
dla x ≤ 0,
dla x > 0.
Zauważmy, że funkcja FY jest ciągła w zerze, co więcej rozkład
zmiennej losowej Y jest absolutnie ciągły, o gęstości
f (x) =
λ −λ
e x 1(0,∞) (x).
x2
9.7.

0
dla x < 1,
 √
x − 1 dla 1 ≤ x < 2,
Fη (x) =

1
dla x ≥ 2.
Fζ (x) =

1

 − 2x
dla x < −1,
1
2


1−
dla − 1 ≤ x < 1,
1
2x
dla x ≥ 1.
9.8. Rozważmy rozbicie przestrzeni Ω na dwa podzbiory rozłączne,
Ω = {|ξ| < 1} ∪ {|ξ| ≥ 1}. Niech F oznacza dystrybuantę
zmiennej losowej η, jak zwykle Φ jest dystrybuantą standardowego rozkładu normalnego. Niech x ∈ R.
F (x) = P (ξ ≤ x, |ξ| < 1) + P (−ξ ≤ x, |ξ| ≥ 1).
114
Funkcje zmiennych losowych
Obliczamy kolejno składniki.

dla x < −1,
 0
P (−1 < ξ ≤ x) dla − 1 ≤ x < 1,
P (ξ ≤ x, |ξ| < 1) =

P (−1 < ξ < 1) dla x ≥ 1,

dla x < −1,
 0
Φ(x) − Φ(−1) dla − 1 ≤ x < 1,
=

Φ(1) − Φ(−1) dla x ≥ 1,

dla x < −1,
 0
Φ(x) + Φ(1) − 1 dla − 1 ≤ x < 1,
=

2Φ(1) − 1
dla x ≥ 1.
Analogicznie

dla x < −1,
 Φ(x)
1 − Φ(1)
dla − 1 ≤ x < 1,
P (−ξ ≤ x, |ξ| ≥ 1) =

Φ(x) − 2Φ(1) + 1 dla x ≥ 1.
Łącznie
F (x) = Φ(x) dla x ∈ R,
czyli zmienna losowa η ma standardowy rozkład normalny.
9.9. Niech F oznacza dystrybuantę zmiennej losowej η, x ∈ R.
Wtedy, uwzględniając rozbicie przestrzeni Ω = {ξ ≤ 1 − ξ} ∪
{1 − ξ < ξ}, mamy
F (x) = P (min{ξ, 1 − ξ} ≤ x)
1
1
= P (ξ ≤ x, ξ ≤ ) + P (1 − ξ ≤ x, ξ > ).
2
2
Ale
1
P (ξ ≤ x, ξ ≤ ) =
2
(
P (ξ ≤ x)
dla x < 21 ,
P (ξ ≤ 12 )

 0 dla
x dla
=
 1
dla
2
dla x ≥ 12 ,
x < 0,
0 ≤ x < 21 ,
x ≥ 21 ,
9.3. Odpowiedzi i rozwiazania
,
115
i podobnie

 0
1
x
P (1 − ξ ≤ x, ξ > ) =
 1
2
2
Zatem

 0
2x
F (x) =

1
dla x < 0,
dla 0 ≤ x < 21 ,
dla x ≥ 21 .
dla x < 0,
dla 0 ≤ x < 12 ,
dla x ≥ 21 ,
czyli zmienna losowa η ma rozkład jednostajny na przedziale
[0, 21 ]. Konsekwentnie Eη = 14 .
9.10.
FY (x) =

0


 1√
2
x
1
x


 2
1

 0
1
x
FZ (x) =
 2
1
dla
dla
dla
dla
x < 0,
0 ≤ x < 1,
1 ≤ x < 2,
x ≥ 2,
dla x < 1,
dla 1 ≤ x < 2,
dla x ≥ 2.
9.11. Skoro zmienna losowa ξ ma rozkład jednostajny na przedziale
1
[−π, π], to ma gęstość f = 2π
1[−π,π] . Niech F oznacza dystrybuantę zmiennej losowej η, x ∈ R.
!
[ π
F (x) = P (tg ξ ≤ ax) = P ξ ∈
(− + kπ, arctg ax + kπ]
2
k∈Z
X
π
=
P (ξ ∈ (− + kπ, arctg ax + kπ])
2
k∈Z
Z
X
1
=
dt.
π
2π
(− +kπ,arctg ax+kπ]∩[−π,π]
k∈Z
2
W zależności od znaku x, ostatnia suma redukuje się do dwóch
lub trzech składników.
Jeśli x < 0, to
1
F (x) =
2π
Z
arctg ax
Z
arctg ax+π
dt +
− π2
!
dt
π
2
=
1
1
arctg ax + .
π
2
116
Funkcje zmiennych losowych
Natomiast dla x ≥ 0, mamy
F (x) =
=
1
2π
Z
arctg ax−π
Z
arctg ax
dt +
π
dt +
− π2
−π
Z
!
dt
π
2
1
1
arctg ax + .
π
2
Zatem dla każdego x ∈ R
F (x) =
1
1
arctg ax + .
π
2
Funkcja F jest klasy C 1 i
F 0 (x) =
1
a
π 1 + a2 x2
dla x ∈ R. Zmienna losowa η ma więc rozkład absolutnie ciągły.
Jest to rozkład Cauchy’ego (patrz zad. 8.2).
9.12. a) Niech zmienna losowa X oznacza faktyczną długość rozmowy, zaś Y czas rozmowy mierzony w naliczonych „impulsach”
minutowych. Skoro X ma rozkład wykładniczy i EX = 1, to parametr rozkładu λ = 1. Natomiast zmienna losowa Y przyjmuje
wartości naturalne i dla k ∈ N mamy
Z k
e−x dx = e−k+1 (1 − e−1 ).
P (Y = k) = P (k − 1 < X ≤ k) =
k−1
Jak widać Y ma rozkład geometryczny z parametrem p =
1 − e−1 . Zatem
EY =
1
e
=
≈ 1, 58.
p
e−1
Za rozmowę zapłacimy średnio 1, 58 złotych.
b) Zadanie rozwiązujemy podobnie jak poprzednio. Tym razem
Y ma rozkład geometryczny z parametrem 1 − √1e . Rozmowa
√
e−1
≈ 2, 54 impulsy, więc zapłacimy za nią
trwa średnio √
e
1, 27 złotych.
10. Zmienne losowe niezależne. Wektory
losowe
10.1. Teoria i zadania
Rozważmy zmienne losowe ξ1 , . . . , ξn na przestrzeni probabilistycznej (Ω, Σ, P ). Mówimy, że zmienne losowe ξ1 , . . . , ξn sa, niezależne,
jeśli dla dowolnych zbiorów borelowskich B1 , . . . , Bn
P (ξ1 ∈ B1 , . . . , ξn ∈ Bn ) = P (ξ1 ∈ B1 ) · . . . · P (ξn ∈ Bn ).
Zmienne losowe ξ1 , ξ2 , . . . sa, niezależne, jeśli dla każdego k ∈ N
zmienne losowe ξ1 , . . . , ξk sa, niezależne.
Niech ξ, η : Ω → R bed
, a, zmiennymi losowymi. Wtedy zestawienie
tych zmiennych losowych tworzy wektor losowy (ξ, η). Niech P(ξ,η)
oznacza rozkład tego wektora. W ogólnej sytuacji, mamy cześciowy
,
zwiazek
mi
edzy
rozkładem
wektora
(ξ,
η),
tzw.
rozkładem
łącznym,
,
,
a rozkładami zmiennych losowych ξ oraz η, mianowicie
Pξ (A) = P(ξ,η) (A × R),
Pη (B) = P(ξ,η) (R × B)
dla dowolnych zbiorów borelowskich A, B, przy czym Pξ , Pη nazywamy rozkładami brzegowymi.
W szczególności, jeśli rozkład P(ξ,η) jest dyskretny, zadany przez
ciag
, ((xi , yj ), rij ) i∈I , to rozkłady brzegowe sa, dyskretne i
j∈J
Pξ (xi ) =
X
j∈J
rij = pi , Pη (yj ) =
X
rij = qj .
(31)
i∈I
Jeśli natomiast rozkład P(ξ,η) jest absolutnie ciagły
o gestości
h :
,
,
R2 → [0, +∞), to rozkłady brzegowe Pξ , Pη sa, absolutnie ciagłe
,
o gestościach,
odpowiednio
,
Z
R
f (x) =
h(x, y)dy, g(y) = R h(x, y)dx.
(32)
R
Funkcje f i g nazywamy gestościami
brzegowymi.
,
118
Zmienne losowe niezależne. Wektory losowe
Jeśli zmienne losowe sa, niezależne, to zachodza, również zwiazki
,
odwrotne. Mianowicie, jeśli zmienne losowe ξ, η sa, niezależne i maja,
rozkłady dyskretne
Pξ (xi ) = pi ,
Pη (yj ) = qj
dla i ∈ I, j ∈ J,
to zestawienie (ξ, η) ma rozkład dyskretny i zachodzi wzór
P(ξ,η) (xi , yj ) = pi · qj
dla (i, j) ∈ I × J.
Jeśli zaś zmienne losowe ξ, η sa, niezależne i maja, rozkłady absolutnie
ciagłe
o gestościach
f, g, to zestawienie (ξ, η) ma rozkład absolutnie
,
,
ciagły
o gestości
,
,
h(x, y) = f (x)g(y)
(33)
dla (x, y) ∈ R2 .
Niech ξ, η : Ω → R bed
, a, zmiennymi losowymi o skończonych wartościach oczekiwanych i wariancjach D2 ξ = σξ2 > 0, D2 η = ση2 > 0.
Kowariancja, zmiennych losowych ξ, η nazywamy liczbe,
cov (ξ, η) = E((ξ − Eξ)(η − Eη)).
Kowariancję zwykle obliczamy ze wzoru
cov (ξ, η) = E(ξη) − Eξ · Eη,
(34)
przy czym jeśli (ξ, η) ma rozkład dyskretny, zadany przez ciąg
((xi , yj ), rij ), to
X
xi yj rij ,
(35)
E(ξη) =
i∈I
j∈J
jeśli (ξ, η) ma rozkład absolutnie ciągły o gęstości f : R2 → R, to
Z
E(ξη) =
xyf (x, y)dxdy.
(36)
R2
Współczynnikiem korelacji zmiennych losowych ξ, η nazywamy liczbe,
cov (ξ, η)
ρ(ξ, η) = p
.
D2 ξD2 η
10.1. Teoria i zadania
119
Zgodnie z nierównością Schwarza, (28), |ρ(ξ, η)| ≤ 1, czyli
p
|cov (ξ, η)| ≤ D2 ξ · D2 η.
Mówimy, że zmienne losowe ξ, η sa, nieskorelowane, jeśli cov (ξ, η) = 0.
Dowodzi sie,
, że jeśli zmienne losowe sa, niezależne, to sa, nieskorelowane. Odwrotne twierdzenie jest nieprawdziwe.
Zad. 10.1. Wykazać, że jeśli zmienne losowe X, Y sa, niezależne, to
X 2 i Y 2 też sa, niezależne.
Zad. 10.2. Wykazać twierdzenia:
i) jeśli zmienne losowe X1 , . . . , Xn sa, niezależne, a funkcje ϕ1 , . . . , ϕn : R → R są borelowskie, to zmienne losowe
ϕ1 (X1 ), . . . , ϕn (Xn ) są niezależne.
ii) jeśli zmienne losowe X11 , . . . , X1k1 , . . . , Xn1 , . . . , Xnkn sa, niezależne, a funkcje ϕj : Rkj → R dla j = 1, . . . n są borelowskie,
i Yj = ϕj (Xj1 , . . . , Xjkj ) dla j = 1, . . . n, to zmienne losowe Y1 , . . . , Yn
są niezależne.
Zad. 10.3. Wykazać, że jeśli zmienne losowe ξ1 , . . . , ξn mają wariancje, to
2
D (ξ1 + . . . + ξn ) =
n
X
X
D2 ξi + 2
i=1
cov (ξi , ξj ).
1≤i<j≤n
W szczególności, jeśli zmienne losowe ξ1 , . . . , ξn są niezależne, to
D2 (ξ1 + . . . + ξn ) =
n
X
D2 ξi .
(37)
i=1
Zad. 10.4. Obliczyć Eξ, Eη oraz D2 η, jeśli ξ = X 2 − Y 2 , η = 1 −
X + 2Y , zmienne losowe X, Y sa, niezależne i EX = −3, EY = 4,
D2 X = 21 , D2 Y = 2.
Zad. 10.5. Wykazać, że jeśli zmienne losowe X, Y sa, niezależne
i EX = EY = 0, to D2 (XY ) = D2 X · D2 Y .
120
Zmienne losowe niezależne. Wektory losowe
Zad. 10.6. Zbadać, czy jeśli zmienne losowe X, Y sa, niezależne, to
X + Y i X − Y też sa, niezależne.
Zad. 10.7. Wykazać wzór (34).
Zad. 10.8. Dany jest wektor losowy (X, Y ). Niech ξ = aX + b,
η = cY + d, gdzie a, b, c, d ∈ R, ac =
6 0. Wykazać, że ρ(ξ, η) =
sgn (ac)ρ(X, Y ).
Zad. 10.9. Sekretarka napisała n listów do n różnych adresatów, włożyła je do kopert, zakleiła, po czym na każdej kopercie nakleiła jeden
z adresów, na które trzeba było listy wysłać. Obliczyć wartość oczekiwana, i wariancje, liczby listów zaadresowanych prawidłowo.
Zad. 10.10. Rozpatrujemy rzut dwiema symetrycznymi monetami.
Niech X oznacza liczbe, uzyskanych orłów, Y liczbe, uzyskanych reszek.
Wyznaczyć rozkład wektora (X, Y ) oraz rozkłady brzegowe. Zbadać
niezależność zmiennych X, Y . Wyznaczyć cov (X, Y ).
Zad. 10.11. Rzucamy dwiema kostkami do gry. Niech X oznacza
wieksz
a,
, zaś Y mniejsza, liczbe, oczek jakie wypadły na kostkach. Wy,
znaczyć rozkład wektora (X, Y ) oraz rozkłady brzegowe. Zbadać niezależność zmiennych X, Y .
Zad. 10.12. Rozpatrujemy wielokrotny rzut symetryczna, moneta.
,
Przypuśćmy, że orzeł pojawi sie, po raz pierwszy po X rzutach, reszka
po Y . Wykazać, że (X, Y ) jest dyskretnym wektorem losowym. Znaleźć rozkład P(X,Y ) oraz rozkłady brzegowe.
Zad. 10.13. Dany jest rozkład
P(X,Y ) ({(m, n)}) =
1
2m+1
0
dla m ≥ n
dla m < n,
m, n = 1, 2, . . .. Wyznaczyć rozkłady brzegowe PX , PY .
Zad. 10.14. Mówimy, że wektor losowy (X1 , . . . , Xk ) ma rozkład
wielomianowy o parametrach p1 , . . . , pk , n, jeśli
P (X1 = n1 , . . . , Xk = nk ) =
n!
pn1 . . . pnk k ,
n1 ! . . . n k ! 1
gdzie pi ∈ (0, 1), i = 1, . . . , k, p1 + . . . + pk = 1, n1 + . . . + nk = n.
Rozważmy wektor losowy (X, Y ) o rozkładzie wielomianowym o parametrach p, q, n. Wyznaczyć cov (X, Y ), ρ(X, Y ).
10.1. Teoria i zadania
Zad. 10.15. Niech wektor losowy (ξ, η) ma rozkład jednostajny
w zbiorze {(x, y) ∈ R2 : x2 + y 2 ≤ 1}. Napisać wzór na gestość
,
(ξ, η) oraz wyznaczyć gestości
brzegowe.
,
Zad. 10.16. Wektor losowy (ξ, η) ma rozkład o gestości
,
Ae−y dla 0 ≤ x ≤ y,
f (x, y) =
0
dla pozostałych (x, y) ∈ R2 .
Wyznaczyć stała, A, rozkłady brzegowe oraz dystrybuantę wektora
losowego (ξ, η).
Zad. 10.17. Wektor losowy (ξ, η) ma rozkład o gestości
,
2
2
Ax dla 1 ≤ x + y ≤ 4, x ≥ 0, y ≥ 0
f (x, y) =
0
dla pozostałych (x, y) ∈ R2 .
Wyznaczyć stała, A oraz rozkłady brzegowe ξ, η.
Zad. 10.18. Wektor losowy (ξ, η) ma rozkład o gestości
,
A(x + y)e−x−y dla x ≥ 0, y ≥ 0,
f (x, y) =
0
dla pozostałych (x, y) ∈ R2 .
Wyznaczyć stała, A oraz dystrybuante, wektora losowego (ξ, η). Wyznaczyć rozkłady brzegowe ξ, η.
Zad. 10.19. Wektor losowy (X, Y ) ma rozkład o gestości
,
x + y dla 0 ≤ x, y ≤ 1,
f (x, y) =
0
w przeciwnym wypadku.
Obliczyć ρ(X, Y ).
Zad. 10.20. Rozważmy zmienne losowe X1 , . . . , Xn o standardowym
rozkładzie normalnym. Wykazać, że X1 , . . . , Xn są niezależnie wtedy
i tylko wtedy, gdy wektor losowy (X1 , . . . , Xn ) ma n-wymiarowy rozkład normalny o wektorze średnich m = 0 i jednostkowej macierzy
kowariancji Q.
Zad. 10.21. Niech wektor losowy (ξ, η) ma dwuwymiarowy rozkład
normalny. Wyznaczyć rozkłady brzegowe. Kiedy ξ i η sa, niezależne?
121
122
Zmienne losowe niezależne. Wektory losowe
10.2. Wskazówki
10.1. Skorzystać z faktu, że przeciwobraz zbioru borelowskiego poprzez odwzorowanie x 7→ x2 jest zbiorem borelowskim.
10.2. Porównać zad. 10.1.
10.3. Wariancję obliczyć ze wzoru (26), dodatkowo skorzystać ze
wzoru na kwadrat sumy n skladników.
10.4. Obliczajac Eξ, Eη skorzystać z liniowości wartości oczekiwanej.
Wariancję zmiennej losowej η obliczyć ze wzoru (27), korzystając
wcześniej z faktu, że zmienne losowe −X, 2Y są niezależne.
10.5. Obliczyć wariancję z definicji. Skorzystać z zad. 10.1.
10.6. Rozważyć zmienne losowe X, Y z zad. 10.4.
10.7. Porównać zad. 8.4.
10.8. Skorzystać z definicji współczynnika korelacji.
10.9. Porównać zad. 8.8. Zmienną losową X, oznaczającą liczbę listów zaadresowanych prawidłowo, przedstawić jako sumę zmiennych ξi , gdzie ξi = 1, gdy i-ty list został zaadresowany prawidłowo i ξi = 0, w przeciwnym wypadku. Obliczając wariancję
skorzystać ze wzoru z zad. 10.3.
10.10. Wyniki możliwe w rzucie dwoma monetami to: (O, O), (O, R),
(R, O), (R, R). Rozkład wektora losowego (X, Y ) najwygodniej
przedstawić w tabelce.
10.11. Porównać zad. 10.10.
10.12. Jakie wartości może przyjmować wektor losowy (X, Y )? Zauważyć, że zbiór K tych wartości jest przeliczalny. Wykazać, że
P(X,Y ) (K) = 1.
10.13. Porównać zad. 10.12.
10.14. Wyznaczyć rozkłady brzegowe, a następnie obliczyć kowariancję ze wzoru (34).
10.2. Wskazówki
123
10.15. Wektor losowy X : Ω → Rn ma rozkład jednostajny w zbiorze
A ∈ B(Rn ) (0 < m(A) < ∞), jeśli gęstość tego wektora f :
Rn → [0, +∞) dana jest wzorem
f=
1
1A .
m(A)
10.16. Funkcja f : Rn → R jest gęstoscią
R n-wymiarowego rozkładu
prawdopodobieństwa, jeśli f ≥ 0 i Rn f (x)dx = 1 (patrz rozdział 6). Gęstości brzegowe wyliczyć zgodnie z (32). Dystrybuantę wyznaczyć z zależności
Z x Z y
F (x, y) =
f (s, t)dtds.
−∞
−∞
10.17. Porównać zad. 10.16.
10.18. Porównać zad. 10.16.
10.19. Wyznaczyć gęstości brzegowe, a następnie ich parametry:
wartości oczekiwane i odchylenia standardowe. Wartość oczekiwaną iloczynu X · Y , obliczyć ze wzoru (36).
10.20. Wektor losowy (X1 , . . . , Xn ) ma n-wymiarowy rozkład
normalny, ozn. N (m, Q), jeśli ma gęstość
1
f (x) = p
1
(2π)n det Q
−1 (x−m)|x−mi
e− 2 hQ
(38)
dla x ∈ Rn , przy czym h·|·i oznacza iloczyn skalarny w Rn ,
m ∈ Rn jest wektorem wartości średnich, Q jest macierzą nieosobliwą, symetryczną (macierz
 W zadaniu należy
 kowariancji).
1 ... 0


..
przyjąć m = 0 oraz Q = I = 
 i skorzystać z (33).
.
0 ... 1
10.21. Wektor losowy (ξ, η) ma dwuwymiarowy rozkład normalny,
jeśli ma gęstość:
f (x, y) =
1√
×
2πσ1 σ2 1−ρ2
(x−m1 )2
1
1
× exp − 2(1−ρ
− 2ρ x−m
2)
σ1 ·
σ2
1
x−m2
σ2
+
(y−m2 )2
σ22
124
Zmienne losowe niezależne. Wektory losowe
dla (x, y) ∈ R2 , gdzie σ1 , σ2 > 0, ρ2 < 1, m1 , m2 ∈ R. Patrz
zad. 10.20.
10.3. Odpowiedzi i rozwiazania
,
10.1. Niech A, B ∈ B(R). Oznaczmy f : R 3 x 7→ x2 ∈ E. Wtedy
P (X 2 ∈ A, Y 2 ∈ B) = P (X ∈ f −1 (A), Y ∈ f −1 (B)),
ale ponieważ funkcja f jest borelowska, to f −1 (A), f −1 (B) ∈
B(R), zatem z niezależności X, Y ,
P (X ∈ f −1 (A), Y ∈ f −1 (B)) = P (X ∈ f −1 (A)) · P (Y ∈ f −1 (B))
= P (X 2 ∈ A) · P (Y 2 ∈ B),
czyli zmienne losowe X 2 , Y 2 są niezależne.
10.2. Dowód i) jest analogiczny jak dowód w zad. 10.1. W dowodzie
ii) skorzystać dodatkowo z faktu, że
jeśli zmienne losowe X11 , . . . , X1k1 , . . . , Xn1 , . . . , Xnkn sa, niezależne, to wektory losowe (X11 , . . . , X1k1 ), . . . , (Xn1 , . . . , Xnkn ) są
niezależne.
10.3. Załóżmy, że D2 (ξ1 + . . . ξn ) istnieje. Wtedy
n
n
X
X
D2 (ξ1 + . . . + ξn ) = E((
ξi )2 ) − (E(
ξi ))2
i=1
=
n
X
X
Eξi2 + 2
i=1
E(ξi ξj ) −
=
i=1
(Eξi2 − (Eξi )2 ) + 2
i=1
X
(Eξi )2 − 2
i=1
1≤i<j≤n
n
X
n
X
Eξi Eξj
1≤i<j≤n
X
(E(ξi ξj ) − Eξi Eξj )
1≤i<j≤n
=
n
X
i=1
D2 ξi + 2
X
1≤i<j≤n
cov (ξi , ξj ).
10.3. Odpowiedzi i rozwiazania
,
125
Z wykazanej równości wynika, że jeśli istnieją wariancje D2 ξi
(i = 1, . . . , n), to istnieje wariancja D2 (ξ1 + . . . ξn ).
10.4. Eξ = −
17
,
2
Eη = 12,
D2 η =
17
.
2
10.5. Ponieważ EX = EY = 0, to z definicji wariancji D2 (XY ) =
E(X 2 · Y 2 ). Zgodnie z zad. 10.1 zmienne losowe X 2 , Y 2 są niezależne, stąd
E(X 2 · Y 2 ) = E(X 2 ) · E(Y 2 ) = D2 X · D2 Y.
10.6. Niech X, Y będą jak w zadaniu 10.4. Gdyby X + Y , X − Y
były niezależne, to
E(X 2 −Y 2 ) = E((X +Y )(X −Y )) = E(X +Y )·E(X −Y ) = −7,
17
ale w zadaniu 10.4 wyliczyliśmy, że E(X 2 −Y 2 ) = − . Sprzecz2
ność. Mamy więc przykład niezależnych zmiennych losowych
X, Y takich, że X + Y, X − Y nie są niezależne.
10.7. cov (ξ, η) = E((ξ − Eξ)(η − Eη)) = E(ξη − ξEη − ηEξ + EξEη) =
E(ξη) − EξEη.
10.8. Z definicji kowariancji i z liniowości wartości oczekiwanej
cov (ξ, η) = E((ξ − Eξ)(η − Eη))
= E((aX + b − aEX − b)(cY + d − cEY − d))
= ac · E((X − EX)(Y − EY )) = ac · cov (X, Y ).
Z kolei ze wzoru (27),
D2 ξ = D2 (aX + b) = a2 D2 X,
czyli σξ = |a|σX . Podobnie, ση = |c|σY . W końcu podstawiając
do definicji współczynnika korelacji
ρ(ξ, η) =
ac · cov (X, Y )
= sgn (ac)ρ(X, Y ).
|a||c|σX σY
126
Zmienne losowe niezależne. Wektory losowe
10.9. To zadanie już raz rozwiązywaliśmy dla n = 3, patrz zad.
8.8. Niech XP
oznacza liczbę listów zaadresowanych prawidłowo.
Wtedy X = ni=1 ξi , gdzie ξi = 1, gdy i-ty list został zaadresowany prawidłowo i ξi = 0, w przeciwnym wypadku. Oczywiście
P (ξi = 1) = n1 dla i = 1, . . . , n. Wtedy:
Eξi =
1
,
n
D2 ξi =
n−1
,
n2
cov (ξi , ξj ) =
1
− 1)
n2 (n
dla i 6= j, i, j = 1, . . . , n. Stąd EX = 1, zaś korzystając ze wzoru
z zad. 10.3,
D2 X = n
n−1
n(n − 1)
1
+2
= 1.
2
2
n
2
n (n − 1)
10.10.
Rozkład wektora (X, Y ):
Y
.. X
.
0
1
Rozkłady brzegowe, wyznaczamy
zgodnie ze wzorem (31):
2
X
0
1
2
p
1
4
1
2
1
4
0
0
0
1
4
1
0
1
2
0
Y
0
1
2
2
1
4
0
0
p
1
4
1
2
1
4
Zmienne losowe X, Y nie są niezależne, bo np.
P (X = 0, Y = 0) = 0 6=
1 1
· = P (X = 0)P (Y = 0).
4 4
Obliczmy kowariancję, korzystając ze wzoru (34). Zmienna losowa X · Y ma rozkład:
X ·Y
0
1
2
4
p
7
16
4
16
4
16
1
16
Zatem
cov (X, Y ) = 1 − 1 = 0.
10.3. Odpowiedzi i rozwiazania
,
127
10.11. Rozkład wektora (X, Y ):
Y
.. X
.
1
2
3
4
5
6
1
1
36
2
36
2
36
2
36
2
36
2
36
2
0
1
36
2
36
2
36
2
36
2
36
3
0
0
1
36
2
36
2
36
2
36
4
0
0
0
1
36
2
36
2
36
5
0
0
0
0
1
36
2
36
6
0
0
0
0
0
1
36
Rozkłady brzegowe:
X
1
2
3
4
5
6
p
11
36
9
36
7
36
5
36
3
36
1
36
Y
1
2
3
4
5
6
p
1
36
3
36
5
36
7
36
9
36
11
36
Zmienne losowe X, Y nie są niezależne.
10.12. P (X = 0, Y = n) =
1
2n+1
, P (X = m, Y = 0) =
1
2m+1
dla
n, m ∈ N, P (X = m, Y = n) = 0 w pozostałych przypadkach.
Wektor losowy (X, Y ) ma rozkład dyskretny, ponieważ
∞
X
=
∞
X
n=1
P (X = m, Y = n)
n,m=0
∞
X
P (X = 0, Y = n) +
m=1
∞
X
=2
n=1
P (X = m, Y = 0)
1
2n+1
=2·
1
= 1.
2
128
Zmienne losowe niezależne. Wektory losowe
Rozkłady brzegowe:
1
1
P (X = k) = k+1 , P (Y = k) = k+1 dla k = 0, 1, 2, . . ..
2
2
10.13. Rozkład jest dyskretny, gdyż
∞
X
P (X = m, Y = n) =
m,n=1
X
m≥n
1
2m+1
= 1.
Rozkłady brzegowe:
P (X = k) =
∞
X
P (X = k, Y = m) =
m=1
k
X
m=1
dla k ∈ N. Podobnie P (Y = k) =
k
2k+1
1
k
= k+1
2k+1
2
dla k ∈ N.
10.14. Wyznaczamy rozkłady brzegowe, zgodnie ze wzorem (31).
P (X = k) =
n
X
P (X = k, Y = j)
j=0
n k n−k
p q
,
= P (X = k, Y = n − k) =
k
n k n−k
P (Y = k) =
q p
k
dla k = 0, 1, . . . , n, czyli X, Y mają rozkłady Bernoullego o parametrach odpowiednio n, p oraz n, q. Zatem
EX = np,
EY = nq,
D2 X = D2 Y = npq.
Korzystając z (35) i ze wzoru dwumianowego Newtona obliczamy
n
X
n k n−k
E(XY ) =
k(n − k)
p q
k
=
k=0
n−1
X
k=1
n!
pk q n−k
(k − 1)!(n − k − 1)!
= n(n − 1)pq(p + q)n−2 = n(n − 1)pq.
10.3. Odpowiedzi i rozwiazania
,
129
Stąd
cov (X, Y ) = n(n − 1)pq − np · nq = −npq,
i w konsekwencji
ρ(X, Y ) =
10.15.
( 1
f (x, y) =
π
0
−npq
= −1.
npq
dla x2 + y 2 ≤ 1,
dla pozostałych (x, y) ∈ R2 .
Gęstości brzegowe wyliczamy ze wzoru (32).
√
Z
1
fξ (x) =
f (x, y)dy =
π
R
Z
1−x2
√
− 1−x2
dy =
2p
1 − x2
π
dla −1 ≤ x ≤ 1 oraz fξ (x) = 0 dla |x| > 1. Analogicznie
2p
1 − y 2 dla |y| ≤ 1,
π
fη (y) =
0
dla |y| > 1.
10.16. A = 1, gęstości brzegowe:
R ∞ −y
−x
dla x ≥ 0,
x e dy = e
fξ (x) =
0
dla x < 0,
R y −y
−y
dla y ≥ 0,
0 e dx = ye
fη (y) =
0
dla y < 0.
Rx Ry
Jeśli x < 0 lub y < 0, to F (x, y) = −∞ −∞ f (s, t)dtds = 0, bo
funkcja podcałkowa się zeruje.
Jeśli x ≥ 0, 0 < y < x, to
Z yZ
F (x, y) =
0
y
e−t dtds = 1 − e−y (1 + y).
s
Jeśli natomiast 0 < x ≤ y, to
Z xZ y
F (x, y) =
e−t dtds = 1 − e−x − xe−y .
0
s
130
Zmienne losowe niezależne. Wektory losowe
10.17. A = 37 , gęstości brzegowe:

dla x < 0 lub x > 2,

 0 √
√
3
2
2
dla 0 ≤ x < 1,
fξ (x) =
7 x( 4 − x − 1 − x )

 3 √
2
dla 1 ≤ x ≤ 2,
7x 4 − x

dla y < 0 lub y > 2,

 0 p
p
3
2
1 − y 2 ) dla 0 ≤ y < 1,
fη (y) =
7 y( 4 − y −

 3 p
2
dla 1 ≤ y ≤ 2,
7y 4 − y
10.18. A = 21 , dystrybuanta:
1
−(x+y) (2 + x + y) − e−x (2 + x) − e−y (2 + y))

 2 (2 + e
dla x > 0, y > 0,
F (x, y) =


0
dla x ≤ 0 lub y ≤ 0.
Gęstości brzegowe:
fξ (x) =
1 −x
2 e (x
fη (y) =
0
+ 1)
dla x < 0,
dla x ≥ 0,
+ 1)
dla y < 0,
dla y ≥ 0.
0
1 −y
2 e (y
10.19. Niech fX , fY oznaczają odpowiednio gęstości zmiennych losowych X, Y . Wtedy
(
0
dla x ∈
/ [0, 1],
fX (x) =
1
x+
dla x ∈ [0, 1],
2
(
0
dla y ∈
/ [0, 1],
fY (y) =
1
y+
dla y ∈ [0, 1].
2
Zatem X, Y mają ten sam rozklad i
√
7
11
EX = EY = , σX = σY =
.
12
12
Następnie, zgodnie z (36),
Z
Z
E(XY ) =
xyf (x, y)dxdy =
R2
0
1Z 1
0
1
xy(x + y)dxdy = .
3
10.3. Odpowiedzi i rozwiazania
,
131
Stąd
cov (X, Y ) = E(XY ) − EXEY =
1
1
72
− 2 =− 2
3 12
12
i ostatecznie
ρ(X, Y ) =
cov (X, Y )
1 122
1
=− 2 ·
=− .
σX σY
12
11
11
10.20. Niech fi oznacza gęstość zmiennej losowej Xi dla i = 1, . . . , n,
x = (x1 , . . . , xn ) ∈ Rn . Wtedy
f1 (x1 ) · . . . · fn (xn ) =
1 2
1 2
√1 e− 2 x1 · . . . · √1 e− 2 xn
2π
2π
=√
1
1
e− 2 hx|xi .
(2π)n
Stąd zmienne losowe X1 , . . . , Xn są niezależne, wtedy i tylko
wtedy, gdy wektor losowy (X1 , . . . , Xn ) ma gęstość f (x) =
f1 (x1 )·. . .·fn (xn ), czyli, zgodnie z (38), rozkład normalny o wektorze średnich m = 0 i macierzy kowariancji Q = I.
10.21. Jeśli wektor losowy (ξ, η) ma dwuwymiarowy rozkład normalny, to jego gęstość wyraża sie wzorem
f (x, y) =
2πσ1 σ2
1
exp − 2(1−ρ
2)
1
p
1 − ρ2
(x−m1 )2
σ12
×
1
− 2ρ x−m
σ1 ·
x−m2
σ2
+
(y−m2 )2
σ22
dla (x, y) ∈ R2 , gdzie σ1 , σ2 > 0, ρ2 < 1, m1 , m2 ∈ R.
Niech fξ , fη będą gęstościami brzegowymi. Wyznaczymy fη ,
Z
fη (y) =
f (x, y)dx
R
dla y ∈ R. Przekształcamy wykładnik w funkcji podcałkowej
(x − m1 )2
x − m1 x − m2 (y − m2 )2
1
·
+
−
− 2ρ
2(1 − ρ2 )
σ1
σ2
σ12
σ22
2
1
σ1
1
=−
x − m1 − ρ (y − m2 ) − 2 (y − m2 )2 .
2
2
σ2
2(1 − ρ )σ1
2σ2
132
Zmienne losowe niezależne. Wektory losowe
Podstawiając teraz w całce
t= p
1
(1 − ρ2 )σ1
σ1
x − m1 − ρ (y − m2 )
σ2
otrzymujemy
fη (y) =
1√
2πσ1 σ2
1−ρ2
p
R
2
t2
2)
exp − (y−m
(1 − ρ2 )σ1 R e− 2 dt
2σ22
1
(y − m2 )2
=√
exp −
.
2σ22
2πσ2
Analogicznie
1
(x − m1 )2
fξ (x) = √
exp −
.
2σ12
2πσ1
Zatem rozkłady brzegowe są rozkładami normalnymi, ξ ma rozkład N (m1 , σ1 ), η – N (m2 , σ2 ). Zmienne losowe ξ, η są niezależne wtedy i tylko wtedy, gdy f (x, y) = fξ (x)fη (y) dla
(x, y) ∈ R2 , czyli w tej sytuacji, wtedy i tylko wtedy, gdy ρ = 0.
11. Funkcje wektorów losowych
11.1. Teoria i zadania
Niech ξ : Ω → Rn bedzie
wektorem losowym na przestrzeni pro,
babilistycznej (Ω, Σ, P ), zaś γ : Rn → R funkcja, borelowska.
, Wtedy
złożenie γ ◦ ξ ma rozkład (jednowymiarowy)
Pγ(ξ) (B) = Pξ (γ −1 (B))
dla dowolnego B ∈ B(R) i podobnie jak w przypadku jednowymiarowym, rozkład ten wyznacza sie, na ogół poprzez dystrybuante.
,
W szczególności, jeśli zmienne losowe ξ, η sa, niezależne i maja, rozkłady o gestościach
f, g to zmienna losowa ξ + η ma rozkład o gestości
,
,
Z
f (x − y)g(y)dy.
(39)
h(x) =
R
Funkcje, określona, wzorem (39) nazywamy splotem funkcji f i g oraz
oznaczamy symbolem h = f ∗ g.
Zad. 11.1. Wykazać wzór (39).
Zad. 11.2. Znaleźć rozkład sumy dwóch niezależnych zmiennych losowych o rozkładzie jednostajnym na przedziale [0, 1].
Zad. 11.3. Zmienne losowe X i Y sa, niezależne i maja, rozkład jednostajny na odcinku (c − 12 , c + 12 ), gdzie c ∈ R. Wykazać, że różnica
X − Y ma rozkład niezależny od c i wyznaczyć jego gestość.
,
Zad. 11.4. Niech ξ i η bed
, a, niezależnymi zmiennymi losowymi, o rozkładach ξ ∈ N (m1 , σ1 ), η ∈ N (m2 , σ2 ). Znaleźć gestość
zmiennej
,
losowej ξ + η.
Zad. 11.5. Niech ξ i η bed
, a, niezależnymi zmiennymi losowymi o rozkładzie Poissona z parametrem odpowiednio λ i µ. Wyznaczyć rozkład zmiennej losowej ξ + η.
134
Funkcje wektorów losowych
Zad. 11.6. X, Y sa, niezależnymi zmiennymi losowymi o rozkładzie
wykładniczym z parametrem λ. Wyznaczyć rozkład zmiennej losowej
η =X +Y.
Zad. 11.7. X, Y sa, niezależnymi zmiennymi losowymi o rozkładzie
wykładniczym z parametrem λ = 1. Wyznaczyć rozkład zmiennej
X
losowej ζ = X+Y
.
Zad. 11.8. Zmienne losowe X, Y maja, rozkład geometryczny z parametrem p i sa, niezależne. Niech T = X + Y , Z = max{X, Y }.
Wyznaczyć rozkłady zmiennych losowych T , Z.
Zad. 11.9. Niech ξ i η bed
, a, niezależnymi zmiennymi losowymi
o standardowym rozkładzie normalnym. Znaleźć gestość
zmiennej
,
2
2
losowej ξ + η .
√ , η =
Zad. 11.10. Znaleźć rozkład (ξ, η) wiedzac,
że ξ = X+Y
,
2
X ma rozkład N (0, 1), Y ∈ N (0, 2) oraz X, Y sa, niezależne.
X−Y
√
2
,
Zad. 11.11. Niech ξ, η, ζ bed
, a, niezależnymi zmiennymi losowymi
ξ + ηζ
jest zmienna, losowa, o tym
o rozkładzie N (0, 1). Dowieść, że p
1 + ζ2
samym rozkładzie.
Zad.11.12. Zakładamy, że na moście znajduja, sie, w jednej chwili dwa
samochody. Masa każdego z nich ma rozkład jednostajny i zmienia
się od 2 do 5 ton. Ponadto masy ich są niezależne. Obliczyć prawdopodobieństwo, że całkowita masa pojazdów na moście przekroczy
6 ton.
Zad. 11.13. Współczynniki trójmianu kwadratowego
Q(x) = ax2 + 2bx + c
są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na
przedziale [−1, 1]. Obliczyć prawdopodobieństwo, że Q ma dokładnie
dwa pierwiastki rzeczywiste.
Zad.11.14. Czas obsługi klienta przy okienku pocztowym ma rozkład
wykladniczy i średnio wynosi 2 minuty. Ponadto zakładamy, że czasy
obsługi poszczególnych klientów są niezależne. Jaka jest szansa, że
w kolejce, w której stoją przed nami dwie osoby będziemy czekać
dłużej niż 5 minut?
11.2. Wskazówki
135
Zad. 11.15. W supermarkecie są dwie kasy, przy czym zakładamy,
że czas oczekiwania do każdej z nich ma rozkład jednostajny od 0 do
5 minut i nie zależy od tego co dzieje się przy drugiej kasie. Para
klientów robiąc wspólnie zakupy często ustawia się w kolejkach do
dwóch kas i wybiera tę, w której czeka się krócej. Obliczyć średni
czas oczekiwania do kasy przy takiej strategii.
11.2. Wskazówki
11.1. Wyznaczyć dystrybuantę zmiennej losowej ξ + η.
11.2. Skorzystać ze wzoru (39).
11.3. Wyprowadzić
w zad. 11.1.
wzór
na
gęstość
różnicy,
podobnie
jak
11.4. Skorzystać ze wzoru (39) i cierpliwie liczyć całkę. Zauważyć,
że korzystając z liniowości warości oczekiwanej i niezależności
zmiennych losowych ξ, η,
E(ξ + η) = m1 + m2 ,
D2 (ξ + η) = σ12 + σ22 .
11.5. Obliczyć P (ξ + η = n), gdzie n należy do zbioru wartości, jakie
przyjmuje zmienna losowa ξ + η.
11.6. Skorzystać ze wzoru (39) lub wyznaczyć dystrybuantę X + Y .
11.7. Wyznaczyć dystrybuantę zmiennej losowej ζ.
11.8. Rozkład zmiennej T wyznaczyć podobnie jak w zad. 11.5. Dla
zmiennej Z zauważyć, że
{Z = n} = {X = n, Y ≤ n} ∪ {Y = n, X < n}
dla n ∈ N. W rachunkach zastosować wzór na sumę skończoną
wyrazów ciągu geometrycznego.
136
Funkcje wektorów losowych
11.9. Można bezpośrednio wyznaczyć dystrybuantę zmiennej losowej
ξ 2 + η 2 , korzystając ze współrzędnych biegunowch w odpowiedniej całce. Albo też można wyznaczyć splot gęstości zmiennych
losowych ξ 2 , η 2 .
11.10. Wyznaczyć dystrybuantę wektora losowego (ξ, η).
ξ + ηζ
11.11. Wyznaczyć dystrybuantę zmiennej losowej p
.
1 + ζ2
11.12. Porównać zad. 3.14. Niech Xi oznacza masę i-tego samochodu (i = 1, 2). Interesuje nas P ((X1 , X2 ) ∈ A), gdzie
A = {(x, y) ∈ R2 : x + y ≥ 6}. Prawdopodobieństwo to można
obliczyć całkując gęstość wektora losowego (X1 , X2 ). Można też
liczyć P (X1 + X2 ≥ 6) znając gęstość zmiennej losowej X1 + X2 ,
patrz zad. 11.2.
11.13. Równanie ma dwa pierwiastki rzeczywiste wtedy i tylko
wtedy, gdy a 6= 0 i ∆ = 4b2 − 4ac > 0. Z treści zadania wynika,
że wektor losowy (a, b, c) ma rozkład jednostajny w sześcianie
[−1, 1]3 . Obliczyć P (b2 > ac). Porównać zad. 3.16
11.14. Porównać zad. 9.12, 11.12, 11.6.
11.15. Jeśli X oznacza czas oczekiwania do pierwszej kasy, a Y do
drugiej, to interesuje nas EZ, gdzie Z = min{X, Y }. Porównać
zad. 9.10.
11.3. Odpowiedzi i rozwiazania
,
11.1. Zakładamy, że zmienne losowe ξ, η są niezależne i mają rozkłady o gęstościach odpowiednio f, g, zatem wektor losowy (ξ, η)
ma gęstość ψ(x, y) = f (x)g(y) dla (x, y) ∈ R2 . Niech a ∈ R i F
będzie dystrybuantą zmiennej losowej ξ + η. Wtedy
Z
F (a) = P (ξ + η ≤ a) = P ((ξ, η) ∈ A) =
ψ(x, y)dxdy, (40)
A
11.3. Odpowiedzi i rozwiazania
,
137
gdzie A = {(x, y) ∈ R2 : x + y ≤ a}. Ostatnią całkę
obliczamy stosując kolejno twierdzenie o zamianie zmiennych
w całce i twierdzenie Fubiniego:
Z
a−y
a
ψ(x, y)dxdy =
ψ(x, y)dxdy
A
Z a RZ −∞
ψ(z − y, y)dzdy =
ψ(z − y, z)dydz.
−∞
−∞
Z Z
=
R
Z Z
(41)
R
Porównując (40) i (41), otrzymujemy
Z
Z
h(z) =
ψ(z − y, y)dy =
f (z − y)g(y)dy,
R
R
Stąd
h = f ∗ g.
11.2. Niech f, g oznaczają gęstości zmiennych ξ, η, h gęstość ξ + η.
Wtedy f = g = 1[0,1] i korzystając ze wzoru (39) otrzymujemy
Z
h(x) = (f ∗ g)(x) =
Z
f (x − t)g(t)dt =
R
Z x
Z
=
f (τ )dτ =
x−1
1
f (x − t)dt
0
dt.
[x−1,x]∩[0,1]
Zatem

 0
x
h(x) =

2−x
dla x < 0 lub x > 2,
dla 0 ≤ x ≤ 1,
dla 1 < x ≤ 2.
11.3. Niech h oznacza gęstość różnicy X − Y , f, g gęstości X i odpowiednio Y . Podobnie jak wzór (39), dowodzi się, że
h = f ∗ ι(g),
gdzie ι : R 3 x 7→ −x ∈ R,
czyli równoważnie
Z
h(x) =
f (x + y)g(y)dy
R
dla x ∈ R.
138
Funkcje wektorów losowych
Zatem
Z
h(x) =
c+ 21
Z
f (x + y)dy =
c− 12
x+c+ 12
f (t)dt
x+c− 12
Z
=
dt,
[x+c− 12 ,x+c+ 12 ]∩[c− 12 ,c+ 12 ]
i podobnie jak w zad. 11.2

 0
x+1
h(x) =

1−x
dla x < −1 lub x > 1,
dla − 1 ≤ x < 0,
dla 0 ≤ x ≤ 1.
Zmienna losowa X − Y ma rozkład trójkątny, którego gęstość
nie zależy od c.
11.4. Niech f oznacza gęstość zmiennej losowej ξ, g gęstość η, zaś h
gęstość zmiennej losowej ξ + η. Wtedy
−
1
e
f (x) = √
2πσ1
(x−m1 )2
2
2σ1
−
1
, g(x) = √
e
2πσ2
(x−m2 )2
2
2σ2
,
i korzystając ze wzoru (39), otrzymujemy
Z
h(x) = (f ∗ g)(x) =
f (y)g(x − y)dy
R
Z
1
z2
(x − z − m)2
=
exp − 2 −
dz,
2πσ1 σ2 R
2σ1
2σ22
gdzie z = y − m1 , m = m1 + m2 . Następnie, przekształcamy
wykładnik w powyższej całce, do postaci
2
p
σ12
2
2
z σ1 + σ2 − (x − m) √ 2 2
σ1 +σ2
(x − m)2
−
.
−
2σ12 σ22
2(σ12 + σ22 )
Podstawiając nową zmienną całkowania
z
t=
p
σ12 + σ22 − (x − m) √
σ1 σ2
σ12
σ12 +σ22
,
11.3. Odpowiedzi i rozwiazania
,
139
obliczamy
t2
(x − m)2
exp − −
dt
2
2(σ12 + σ22 )
R
Z
2
(x − m)2
1
1
− t2
√
·
exp(−
)
·
e
=p
dt
2(σ12 + σ22 )
2π R
2π(σ12 + σ22 )
(x − m)2
1
·
exp(−
=p
).
2(σ12 + σ22 )
2π(σ12 + σ22 )
p
Stąd zmienna losowa ξ + η ma rozkład N (m1 + m2 , σ12 + σ22 ).
1
σ σ
p 1 2
h(x) =
2πσ1 σ2 σ12 + σ22
Z
11.5. Zmienne losowe ξ, η mają rozkłady dyskretne,
µk −µ
λk −λ
e , P (η = k) =
e ,
k!
k!
dla k = 0, 1, . . ., ponadto są niezależne. Stąd zmienna ξ + η
przyjmuje wartości n ∈ {0, 1, . . .}, z prawdopodobieństwami
P (ξ = k) =
P (ξ + η = n) =
n
X
P (ξ = k, η = n − k)
k=0
=
n
X
P (ξ = k)P (η = n − k).
k=0
Podstawiając
P (ξ + η = n) = e−(λ+µ)
=
e−(λ+µ)
n!
n X
n
k=0
k
λk µn−k =
n
X
λk µn−k
k!(n − k)!
k=0
−(λ+µ)
e
n!
(λ + µ)n .
Zatem ξ + η ma rozkład Poissona z parametrem λ + µ.
11.6. Niech h oznacza gęstość zmiennej losowej X + Y . Wtedy h =
f ∗ g, gdzie f (x) = g(x) = λe−λx 1{x≥0} . Zatem
Z +∞
Z x
−λy
h(x) =
λe
g(x − y)dy =
λe−λ(x−z) g(z)dz
0
−∞
0
dla x < 0,
=
λ2 xe−λx dla x ≥ 0.
140
Funkcje wektorów losowych
Można też wyznaczyć dystrybuantę zmiennej losowej X + Y
całkując gęstość wektora losowego (X, Y ), h(x, y) =
λ2 e−λ(x+y) 1{x≥0,y≥0} , po zbiorze {(x, y) ∈ R2 : x + y ≤ a},
a ∈ R.
11.7. Skoro zmienne losowe X, Y są niezależne i mają rozkład wykładniczy z parametrem 1, to wektor losowy (X, Y ) ma gęstość
−(x+y)
e
dla x, y ≥ 0,
h(x, y) =
0
dla x < 0 lub y < 0.
Niech a ∈ R, F oznacza dystrybuantę zmiennej losowej ζ, A =
x
{(x, y) ∈ R : x+y
≤ a}. Wtedy
Z
F (a) = P ((X, Y ) ∈ A) =
h(x, y)dxdy
A
Z
=
e−(x+y) dxdy.
A∩{x≥0,y≥0}
Jeśli a ≤ 0, to zbiór, po którym całkujemy, jest zbiorem pustym
lub zbiorem miary zero w R2 , zatem F (a) = 0.
Jeśli 0 < a < 1, to A = {(x, y) : 1−a
a x ≤ y}, i stąd
Z +∞ Z +∞
Z +∞
x
F (a) =
e−x−y dydx =
exp(− )dx = a.
1−a
a
0
x
0
a
Jeśli w końcu a ≥ 1, to
Z
F (a) =
0
1−a
a
≤0i
+∞ Z +∞
e−x−y dxdy = 1.
0
Łącznie

 0 dla a ≤ 0
a dla 0 < a < 1
F (a) =

1 dla a ≥ 1,
czyli zmienna losowa ζ ma rozkład jednostajny na odcinku [0, 1].
11.8. Wiemy, że P (X = k) = P (Y = k) = p(1 − p)k−1 dla k ∈ N.
Ponadto z niezależności zmiennych X, Y :
P (X = k, Y = l) = p2 (1 − p)k+l−2 dla k, l ∈ N.
11.3. Odpowiedzi i rozwiazania
,
141
Zatem
P (X + Y = n) =
n−1
X
P (X = k, Y = n − k)
k=1
=
n−1
X
p2 (1 − p)n−2 = (n − 1)p2 (1 − p)n−2
k=1
dla n = 2, 3, . . ..
Jeśli Z = max{X, Y }, to Z przyjmuje wartości w zbiorze N
z prawdopodobieństwami
P (Z = n)
= P (X = n, Y ≤ n) + P (Y = n, X < n)
n
n−1
X
X
=
P (X = n)P (Y = k) +
P (Y = n)P (X = k)
k=1
k=1
= 2p2 (1 − p)n−2
n
X
(1 − p)k − p2 (1 − p)n+n−2
k=1
= p(1 − p)n−1 (2 − (2 − p)(1 − p)n−1 )
dla n ∈ N.
11.9. I sposób. Ponieważ zmienne losowe ξ, η są niezależne, wektor
losowy (ξ, η) ma gęstość
h(x, y) =
x2 + y 2
1
exp(−
) dla (x, y) ∈ R2 .
2π
2
Niech a ∈ (0, +∞) i A = {(x, y) ∈ R2 : x2 + y 2 ≤ a}. Niech F
oznacza dystrybuantę ξ 2 + η 2 . Wtedy
F (a) = P (ξ 2 + η 2 ≤ a) = P ((ξ, η) ∈ A)
Z
1
x2 + y 2
=
exp(−
)dxdy
2π A
2
Z √a Z 2π
1 2
1
1
=
re− 2 r dϕdr = 1 − e− 2 a .
2π 0
0
142
Funkcje wektorów losowych
Jeśli natomiast a ≤ 0, to F (a) = 0. Stąd, jeśli f oznacza gęstość
zmiennej losowej ξ 2 + η 2 , to
(
0
dla x ≤ 0,
f (x) =
1 −1x
e 2
dla x > 0.
2
II sposób.
Zgodnie z zad. 9.3 zmienne losowe ξ 2 , η 2 mają
rozkłady o gęstościach, odpowiednio
(
0
dla x ≤ 0,
1
g2 (x) = h2 (x) =
−
x
1
√
e 2
dla x > 0.
2πx
Skoro ξ, η są niezależne, to zgodnie z zad. 10.1, zmienne losowe
ξ 2 , η 2 również są niezależne. Zatem gęstość zmiennej losowej
ξ 2 + η 2 jest splotem f = g2 ∗ h2 ,
Z +∞
1
1
√
f (x) =
e− 2 y g2 (x − y)dy
2πy
0
Z x
1
1
1
√
= √
e− 2 (x−z) g2 (z)dz.
2π −∞ x − z
Jeśli x ≤ 0, to f (x) = 0, jeśli natomiast x > 0, to
Z x
1
1
1
dz
1
p
f (x) =
· e− 2 x =
· π · e− 2 x .
2π 0
2π
(x − z)z
Warto zauważyć, że ξ 2 + η 2 ma rozkład wykładniczy z parametrem λ = 12 , jest to jednocześnie rozkład χ2 (chi kwadrat) o 2
stopniach swobody. Ogólniej:
jeśli zmienne losowe ξ1 , . . . , ξn są niezależne i mają standardowe
rozkłady normalne, to mówimy, że zmienna losowa ξ12 + . . . + ξn2
ma rozkład χ2 o n stopniach swobody.
Można wykazać, że gęstość rozkładu χ2 o n stopniach swobody
wyraża się wzorem
n
1
1 2 n −1 − 1 x
x 2 e 2 1[0,+∞) (x),
f (x) =
Γ( n2 ) 2
gdzie Γ oznacza funkcję gamma Eulera, patrz zad. 8.15.
11.3. Odpowiedzi i rozwiazania
,
143
11.10. Wektor losowy (X, Y ) ma gęstość
h(x, y) =
1
4x2 + y 2
exp(−
)
4π
8
dla (x, y) ∈ R2 .
Niech (a, b) ∈ R2 , F oznacza dystrybuantę wektora (ξ, η).
Wtedy
X +Y
X −Y
F (a, b) = P (ξ ≤ a, η ≤ b) = P ( √
≤ a, √
≤ b)
2
2
= P ((X, Y ) ∈ A),
√
√
gdzie A = {(x, y) ∈ R2 : x + y ≤ a 2, x − y ≤ b 2}. Zatem
Z
Z a Z b
u+v u−v
F (a, b) =
h(x, y)dxdy =
h( √ , √ )dudv,
2
2
A
−∞ −∞
czyli gęstość wektora losowego (ξ, η) wyraża się wzorem
1
1
u+v u−v
exp(− (5u2 + 6uv + 5v 2 )),
f (u, v) = h( √ , √ ) =
4π
16
2
2
jest to gęstość dwuwymiarowego rozkładu normalnego.
11.11. Zmienne losowe ξ, η, ζ są niezależne, zatem wektor losowy
(ξ, η, ζ) ma gęstość
1
1
f (x, y, z) = √
exp(− (x2 + y 2 + z 2 ))
3
2
( 2π)
dla (x, y, z) ∈ R3 .
x + yz
Niech a ∈ R. Oznaczając A = {(x, y, z) ∈ R3 : √
≤ a},
1 + z2
można obliczyć
!
Z
ξ + ηζ
1
1
p
√
P
≤a =
exp(− (x2 + y 2 + z 2 ))dxdydz
3
2
2
( 2π) A
1+ζ
Z a
1 2
1
=√
e− 2 t dt.
2π −∞
ξ + ηζ
Stąd zmienna losowa p
ma standardowy rozkład nor1 + ζ2
malny.
144
Funkcje wektorów losowych
11.12. Niech Xi oznacza masę i-tego samochodu (i = 1, 2).
I sposób. Zmienne losowe X1 , X2 są niezależne, więc wektor
losowy (X1 , X2 ) ma gęstość f (x, y) = 91 1[2,5]2 (x, y). Niech
A = {(x, y) ∈ R2 : x + y ≥ 6}. Zatem
Z
Z
1
7
f (x, y)dxdy =
dxdy = .
P ((X1 , X2 ) ∈ A) =
9 A∩[2,5]2
9
A
II sposób. Zmienna losowa X1 + X2 ma gęstość

0
dla x < 4 lub x > 10,




 1
(x − 4)
dla 4 ≤ x ≤ 7,
h(x) =
9




 1 (10 − x) dla 7 < x ≤ 10,
9
patrz zad. 11.2. Zatem
Z
6
P (X1 + X2 ≥ 6) = 1 − P (X1 + X2 < 6) = 1 −
h(x)dx
−∞
1
=
9
Z
4
6
7
(x − 4)dx = .
9
11.13. Wektor losowy (a, b, c) ma rozkład jednostajny w sześcianie
[−1, 1]3 , czyli rozkład o gęstości f (x, y, z) = 81 1[−1,1]3 (x, y, z).
Równanie ma dwa pierwiastki rzeczywiste wtedy i tylko wtedy,
gdy a 6= 0 i ∆ = 4b2 − 4ac > 0. Oczywiście P (a 6= 0)=1.
Obliczamy
Z Z Z
1
1
dxdydz = .
P (b2 > ac) =
8
2
3
2
[0,1] ∩{(x,y,z):y >xz}
Zatem szukane prawdopodobieństwo wynosi 12 .
11.14. Niech Xi oznacza czas obsługi i-tej osoby (i = 1, 2). Ponieważ
Xi ma rozkład wykładniczy i EXi = 2, to λ = 12 . Zmienne
losowe X1 , X2 są niezależne, więc zgodnie z zad. 11.6, gęstość
zmiennej losowej X1 + X2 jest postaci
1
1
h(x) = xe− 2 x 1[0,∞) (x).
4
11.3. Odpowiedzi i rozwiazania
,
145
Zatem
Z
1 5 −1x
P (X1 + X2 > 5) = 1 − P (X1 + X2 ≤ 5) = 1 −
xe 2 dx
4 0
3 5
= e− 2 ≈ 0, 123.
2
11.15. Niech X oznacza czas oczekiwania do pierwszej kasy, a Y do
drugiej. Zmienne losowe X, Y mają ten sam rozkład jednostajny
na odcinku [0, 5] i są niezależne. Niech Z = min{X, Y } i 0 <
z ≤ 5. Wtedy
P (min{X, Y } ≤ z) = 1 − P (min{X, Y } > z)
= 1 − P (X > z, Y > z) = 1 − P (X > z)P (Y > z)
= 1 − (1 − P (X ≤ z))(1 − P (Y ≤ z))
2
Z
1 5
1
=1− 1−
dx = z(10 − z).
5 0
25
Stąd dystrybuanta Z





F (z) =




wyraża się wzorem
dla z ≤ 0,
0
1
z(10 − z)
25
1
czyli mamy wzór na gęstość Z

 1 (10 − 2z)
25
f (z) =

0
dla 0 < z ≤ 5,
dla z > 5,
dla 0 < z < 5
dla z ≤ 0 lub z ≥ 5.
5
Zatem EZ = . Zauważmy, że obliczony średni czas oczekiwania
3
jest w tej sytuacji krótszy, niż średni czas oczekiwania w jednej
kolejce.
12. Funkcja charakterystyczna
12.1. Teoria i zadania
Niech P : B(R) → [0, 1] bedzie
rozkładem prawdopodobieństwa.
,
Funkcja, charakterystyczna, rozkładu P nazywamy funkcje, ϕ : R → C,
dana, wzorem
Z
eitu dP (u),
ϕ(t) =
R
gdzie i2 = −1. Jeśli zmienna losowa ξ : Ω → R ma rozkład Pξ ,
to funkcja, charakterystyczna, zmiennej losowej ξ nazywamy funkcje,
charakterystyczna, rozkładu Pξ . Zgodnie z twierdzeniem o zamianie
miary w całce
ϕξ (t) = E(eitξ ).
(42)
W szczególności, jeśli ξ ma rozkład dyskretny zadany przez ciag
,
(xk , pk )k∈I , to
X
ϕξ (t) =
eitxk pk .
(43)
k∈I
Jeśli ξ ma rozkład absolutnie ciagły
o gestości
f , to
,
,
Z
f (x)eitx dx.
ϕξ (t) =
(44)
R
Przypomnijmy podstawowe własności funkcji charakterystycznej.
1. ϕ(0) = 1, |ϕ(t)| ≤ 1 dla t ∈ R.
2. ϕ jest funkcja, jednostajnie ciagł
, a.
,
3. Jeśli ξ jest zmienna, losowa, i a, b ∈ R, to ϕaξ+b (t) = eitb ϕξ (at).
4. Jeśli E|ξ|n < ∞, n ∈ N, to n-ta pochodna funkcji charaktery(n)
stycznej ϕξ istnieje, jest jednostajnie ciagła
oraz
,
(n)
ϕξ (0) = in Eξ n .
148
Funkcja charakterystyczna
5. Twierdzenie o jednoznaczności.
Jeśli ϕ1 , ϕ2 są
funkcjami charakterystycznymi rozkładów prawdopodobieństwa
P1 , P2 i ϕ1 = ϕ2 , to P1 = P2 .
Z ostatniego twierdzenia wynika, że funkcja charakterystyczna wyznacza jednoznacznie rozkład prawdopodobieństwa. W ogólnej sytuacji
mamy nastepuj
acy
wzór na odwracanie. Jeśli F oznacza dystrybuante,
,
,
rozkładu P i jest ciagła
w punktach a, b ∈ R, a < b, zaś ϕ jest funkcja,
,
charakterystyczna, tego rozkładu, to
Z c −ita
1
e
− e−itb
F (b) − F (a) =
lim
ϕ(t)dt.
(45)
2π c→∞ −c
it
Warto pamiętać następujące twierdzenie Fouriera o odwracaniu.
Jeśli funkcja
charakterystyczna ϕ zmiennej losowej X jest całkoR
walna, tzn. R |ϕ(t)|dt < ∞, to X jest absolutnie ciągła i ma gęstość
Z
1
f (x) =
e−itx ϕ(t)dt.
2π R
Jeśli X : Ω → Rn jest wektorem losowym, to funkcja, charakterystyczna, tego wektora nazywamy funkcje, ϕX : Rn → C, dana, wzorem
ϕX (u) = E(eihu|Xi )
dla u ∈ Rn , gdzie h·|·i oznacza iloczyn skalarny w Rn .
Zad. 12.1. Wyznaczyć funkcje, charakterystyczna, zmiennej losowej
bed
liczba, orłów uzyskanych w trzykrotnym rzucie moneta, syme,
, acej
tryczna.
,
Zad. 12.2. Wyznaczyć funkcje, charakterystyczna, zmiennej losowej
o rozkładzie:
a) geometrycznym;
b) jednostajnym na odcinku [a, b];
c) Laplace’a, t.j. o gestości
f (x) = 12 e−|x| dla x ∈ R;
,
12.1. Teoria i zadania
149
d) wykładniczym;
e) o gestości
f (x) = 1 − |x| dla |x| ≤ 1 oraz f (x) = 0 dla |x| > 1;
,
f ) normalnym o parametrach m, σ;
g) gamma o parametrach α, λ.
1
Zad.12.3. Wyznaczyć funkcje, charakterystyczna, rozkładu P = δ0 +
2
1
P1 , gdzie P1 – rozkład jednostajny na odcinku [−1, 1].
2
Zad. 12.4. Wyrazić wariancje, zmiennej losowej za pomoca, jej funkcji
charakterystycznej.
Zad. 12.5. Wykazać własności 1 - 3 funkcji charakterystycznej.
Zad. 12.6. Wykazać, że funkcja charakterystyczna zmiennej losowej
X, takiej że P (X ∈ Z) = 1, jest okresowa o okresie 2π.
Zad. 12.7. Wykazać, że dla zmiennej losowej X, takiej że P (X ∈
Z) = 1
Z 2π
1
P (X = n) =
e−itn ϕ(t)dt ∀n ∈ Z.
2π 0
Zad. 12.8. Wykazać, że jeśli ϕ jest funkcją charakterystyczną zmiennej losowej X i ϕ(2π) = 1, to P (X ∈ Z) = 1.
Zad. 12.9. Znaleźć rozkład prawdopodobieństwa, którego funkcja
charakterystyczna wyraża sie, wzorem:
a) ϕ(t) = cos t, t ∈ R;
b) ϕ(t) = cos 2t , t ∈ R;
c) ϕ(t) = e−|t| , t ∈ R;
d) ϕ(t) = 12 e−it +
√
e) ϕ(t) = 13 eit
f ) ϕ(t) =
2
1
3
+ 16 e2it , t ∈ R;
√
+ 23 eit
3,
2
, t ∈ R.
−1
3eit
t ∈ R;
150
Funkcja charakterystyczna
Zad. 12.10. Wykazać twierdzenie: Zmienne losowe X1 , . . . , Xn sa,
niezależne wtedy i tylko wtedy, gdy
ϕ(X1 ,...,Xn ) (t1 , . . . , tn ) = ϕX1 (t1 ) · . . . · ϕXn (tn ).
Zad. 12.11. Wykazać twierdzenie: Jeśli zmienne losowe X1 , . . . , Xn
sa, niezależne, to
ϕX1 +...+Xn (t) = ϕX1 (t) · . . . · ϕXn (t).
Zad. 12.12. Wyznaczyć funkcję charakterystyczną n-wymiarowego
rozkładu normalnego.
Zad. 12.13. Wykazać, że jeśli zmienne losowe ξ, η o rozkładzie
N (m, σ) sa, niezależne, to zmienne losowe ξ + η, ξ − η sa, niezależne.
√ , η =
Zad. 12.14. Znaleźć rozkład (ξ, η) wiedzac,
że ξ = X+Y
,
2
X ma rozkład N (0, 1), Y ∈ N (0, 2) oraz X, Y sa, niezależne.
X−Y
√
2
,
12.2. Wskazówki
12.1. Rozważana zmienna losowa ma rozkład dyskretny, należy więc
zastosować wzór (43).
12.2. Stosować odpowiednio wzór (43) lub (44).
12.3. Zauważyć, że jeśli Pk są rozkładami prawdopodobieństwa
o funkcjach charakterystycznych ϕk dla k ∈ I (I - P
zbiór co najwyżej przeliczalny),
zaś
liczby
λ
>
0
są
takie,
że
k
k∈I λk = 1,
P
to funkcja ϕ
=
λ
ϕ
jest
funkcją
charakterystyczną
rozk∈I k k
P
kładu P = k∈I λk Pk .
12.4. Skorzystać z własności 4 funkcji charakterystycznej.
12.5. Skorzystać ze wzoru (42).
12.6. Wystarczy wykazać, że ϕ(t + 2π) = ϕ(t) dla dowolnego t ∈ R.
12.3. Odpowiedzi i rozwiazania
,
151
12.7. Wzór (43) pomnożyć stronami przez e−itn , a następnie obliczyć
całkę względem zmiennej t w granicach od 0 do 2π.
12.8. Z faktu, że ϕ(2π) = 1 wywnioskować, że P (cos 2πX = 1) = 1,
a stąd P (X ∈ Z) = 1.
12.9. W przykładach a), d), f) zastosować wzór z zad. 12.7. Wartości
jakie przyjmuje zmienna losowa X ustalić zgodnie z zad. 12.3
i twierdzeniem o jednoznaczności. W przykładzie b) rozważyć
najpierw zmienną losową Y = 2X i skorzystać z własności 3
funkcji charakterystycznej. W przykładzie c) zastosować twierdzenie Fouriera. W przykładzie e) zastosować wzór (45) lub
wniosek z zad. 12.3.
12.10. Skorzystać z definicji funkcji charakterystycznej wektora losowego oraz z faktu, że zmienne losowe niezależne są nieskorelowane.
12.11. Porównać zad. 12.10.
12.12. Patrz zadania 10.20, 12.2 f).
12.13. Wyznaczyć funkcje charakterystyczne zmiennych losowych
ξ + η, ξ − η oraz wektora losowego (ξ + η, ξ − η), a następnie
skorzystać z zad. 12.10.
12.14. To zadanie już raz rozwiązywaliśmy, patrz zad. 11.10. Korzystając z twierdzenia o jednoznaczności, rozkład wektora losowego (ξ, η) można też znaleźć wyznaczając jego funkcję charakterystyczną.
12.3. Odpowiedzi i rozwiazania
,
12.1. Zmienna losowa ξ ma rozkład:
3 1
P (ξ = k) =
k 23
dla k = 0, 1, 2, 3.
152
Funkcja charakterystyczna
Zgodnie ze wzorem (43)
itξ
ϕ(t) = E(e ) =
3 X
3 1
1
eitk = (1 + eit )3
k 8
8
k=0
dla t ∈ R.
Ogólniej, jeśli ξ ma rozkład Bernoullego o parametrach n, p, to
dla t ∈ R
p it n
n
e
.
ϕ(t) = (1 − p) 1 +
1−p
12.2. a) Zmienna losowa ξ ma rozkład geometryczny, tzn.
P (ξ = k) = p(1 − p)k−1
dla k = 1, 2, . . . .
Wtedy dla dowolnego t ∈ R, mamy
ϕ(t) =
∞
X
∞
itk
e
k−1
p(1 − p)
k=1
=
p X it
=
(e (1 − p))k
1−p
k=1
peit
1 − (1 − p)eit
.
b) Zmienna losowa ξ ma rozkład jednostajny na odcinku [a, b],
1
1[a,b] . Korzystając ze wzoru (44), mamy
czyli o gęstości f = b−a
Z
ϕ(t) =
itx
f (x)e
R
1
dx =
b−a
Z
b
eitx dx.
a
Stąd



1 eitb − eita
b−a
it
ϕ(t) =


1
c) Zgodnie z (44), ponieważ
Z
ϕ(t) =
R
R
dla t 6= 0,
dla t = 0.
−|x| sin txdx
Re
1 −|x| itx
1
e
e dx =
2
2
Z
R
= 0,
e−|x| cos tx dx.
12.3. Odpowiedzi i rozwiazania
,
153
Stosując dalej wzór na całkowanie przez części
Z ∞
1
e−x cos tx dx =
ϕ(t) =
1 + t2
0
dla t ∈ R.
d) ϕ(t) =
λ
dla t ∈ R.
λ − it
e)

 2 1 − cos t
t2
ϕ(t) =

1
dla t 6= 0,
dla t = 0.
f ) Wyznaczymy najpierw funkcję charakterystyczną standardox2
1
wego rozkładu normalnego. Niech f (x) = √ e− 2 dla x ∈ R.
2π
Stosując wzór (44), mamy
Z
t2
1
ϕ(x) = √
eixt e− 2 dt
2π
Z
Z R
2
t
t2
1
1
−2
dt + i √
=√
cos xte
sin xte− 2 dt.
2π R
2π R
Korzystając z nieparzystości funkcji podcałkowej w drugim oraz
parzystości funkcji podcałkowej w pierwszym składniku powyższej sumy, otrzymujemy
Z ∞
t2
2
ϕ(x) = √
cos xte− 2 dt.
2π 0
Zgodnie z własnością 4 funkcja ϕ jest różniczkowalna. Ponadto
t2
∂
funkcja
(cos xte− 2 ) jest ciągła i posiada całkowalną majo∂x2
t
rantę: te− 2 . Zatem
Z ∞
t2
2
0
ϕ (x) = − √
t sin xte− 2 dt.
2π 0
Stosując wzór na całkowanie przez części
Z ∞
t2
2
0
ϕ (x) = − √
x cos xte− 2 dt.
2π 0
154
Funkcja charakterystyczna
Ostatecznie funkcja charakterystyczna standardowego rozkładu
normalnego spełnia równanie różniczkowe
ϕ0 (x) = −xϕ(x)
z warunkiem początkowym
ϕ(0) = 1.
Ale jedynym rozwiązaniem powyższego zagadnienia Cauchy’ego,
jest funkcja x 7→ e−
x2
2
. Zatem
ϕ(x) = e−
x2
2
.
Niech teraz zmienna losowa η ma rozkład normalny N (m, σ),
η−m
ma standardowy rozkład normalny. Korzywtedy ξ =
σ
stając z własności 3 funkcji charakterystycznej
1
ϕη (x) = ϕσξ+m (x) = eixm ·ϕξ (σx) = eixm ·e− 2 σ
g) ϕ(t) =
λ
λ − it
2 x2
1
= eixm− 2 σ
2 x2
.
α
dla t ∈ R.
12.3. Niech Pk będą rozkładami prawdopodobieństwa o funkcjach
charakterystycznych ϕP
k dla k ∈ I (I - zbiór co najwyżej przeliczalny).
Niech
P
=
k∈I λk Pk , gdzie liczby λk > 0 są takie,
P
że
k∈I λk = 1, zaś ϕ oznacza funkcję charakterystyczną P .
Wtedy zgodnie z definicją
Z
X Z
X
itx
ϕ(t) =
e dP (x) =
λk
eitx dPk (x) =
λk ϕk (t)
R
R
k∈I
dla t ∈ R, czyli
ϕ=
X
k∈I
λk ϕk .
k∈I
W szczególności, jeśli ϕ1 jest funkcją charakterystyczną rozkładu δ0 , a ϕ2 funkcją charakterystyczną rozkładu P1 , to
1
1
ϕ = ϕ 1 + ϕ2 .
2
2
12.3. Odpowiedzi i rozwiazania
,
155
Zauważmy, że ϕ1 (t) = 1 dla każdego t ∈ R. Ogólniej
ϕδc (t) = eitc .
Natomiast, zgodnie z zadaniem 12.2 b),
( sin t
dla t 6= 0,
ϕ2 (t) =
t
1
dla t = 0.
Łącznie

 1 + sin t
2
2t
ϕ(t) =

1
dla t 6= 0,
dla t = 0.
12.4. D2 ξ = Eξ 2 − (Eξ)2 = −ϕ00 (0) + (ϕ0 (0))2 , jednocześnie ϕ(0) = 1,
stąd
D2 ξ = −(ln ϕ)00 (0).
12.5. 1. ϕ(0) = E(e0 ) = 1, |ϕ(t)| = |Eeitξ | ≤ E|eitξ | = 1 dla t ∈ R.
2. Niech t, h ∈ R. Korzystając z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej
|ϕ(t + h) − ϕ(t)| = |E((eihξ − 1)eitξ )| ≤ E|eihξ − 1| → 0,
gdy h → 0.
3. Niech a, b ∈ R, t ∈ R.
ϕaξ+b (t) = E(eit(aξ+b) ) = E(eitb ·eitaξ ) = eitb E(eitaξ ) = eitb ϕξ (at).
12.6. Niech pk = P (X = k) dla k ∈ Z. Ustalmy dowolne t ∈ R.
Ponieważ ei2πk = 1 dla każdego k ∈ Z, mamy
X
X
ϕ(t + 2π) =
ei(t+2π)k pk =
eitk pk = ϕ(t).
k∈Z
k∈Z
12.7. Niech pk = P (X = k) dla k ∈ Z. Wtedy funkcja charakterystyczna zmiennej losowej X wyraża się wzorem
X
ϕ(t) =
eitk pk
k∈Z
156
Funkcja charakterystyczna
dla dowolnego t ∈ R. Niech n ∈ N. Mnożąc powyższą równość
stronami przez e−itn , a następnie całkując stronami względem
t, otrzymujemy
Z
2π
2π
Z
e−itn ϕ(t)dt =
0
0
X
eit(k−n) pk dt =
XZ
2π
eit(k−n) pk dt.
k∈Z 0
k∈Z
(46)
Zauważmy, że
Z
pk
2π
it(k−n)
e
dt =
0
2πpn
0
dla k = n,
dla k =
6 n,
zatem w sumie po prawej stronie (46), tylko jeden wyraz jest
niezerowy, i
Z 2π
e−itn ϕ(t)dt = 2πpn .
0
Stąd
pn =
1
2π
Z
2π
e−itn ϕ(t)dt.
0
12.8. Skoro ϕ(2π) = 1, to zgodnie z (42),
E(ei2πX ) = E(cos 2πX) + iE(sin 2πX) = 1,
Z
(1 − cos 2πX)dP =
czyli E(cos 2πX) = 1. Oznacza to, że
Ω
0, a ponieważ 1 − cos 2πx ≥ 0 dla każdego x ∈ R, to P (1 −
cos 2πX = 0) = 1. Stąd P (cos 2πX = 1) = 1, czyli P (X ∈ Z) =
1.
12.9. a) Oczywiście funkcja ϕ jest okresowa, o okresie 2π i ϕ(2π) =
1, zatem zgodnie z zad. 12.8, P (X ∈ Z) = 1. Możemy więc
e−it + eit
stosować wzór z zad. 12.7. Zauważmy, że cos t =
,
2
zatem
Z 2π
1
1
P (X = −1) =
eit cos tdt = ,
2π 0
2
Z 2π
1
1
P (X = 1) =
e−it cos tdt = .
2π 0
2
12.3. Odpowiedzi i rozwiazania
,
157
Zmienna losowa X ma więc rozkład:
1
P (X = −1) = P (X = 1) = .
2
b) Tym razem ϕ(2π) = −1, ale przyjmując Y = 2X, zgodnie
z własnością 3 funkcji charakterystycznej
ϕY (t) = ϕ2X (t) = ϕ(2t) = cos t.
Zatem korzystając z zad. 12.9 a), otrzymujemy
1
1
P (Y = −1) = P (X = − ) = ,
2
2
1
1
P (Y = 1) = P (X = ) = ,
2
2
stąd
1
1
1
P (X = − ) = P (X = ) = .
2
2
2
c) Zauważmy, że
Z
Z
|ϕ(t)|dt = 2
+∞
e−t dt = 2 < ∞,
0
R
czyli zgodnie z twierdzeniem Fouriera zmienna losowa X ma
rozkład absolutnie ciągły o gęstości
Z
1
f (x) =
e−itx e−|t| dt
2π R
Z 0
Z +∞
1
t(1−ix)
−t(1+ix)
=
e
dt +
e
dt
2π
−∞
0
1
1
1
1
=
+
=
.
2π 1 − ix 1 + ix
π(1 + x2 )
Zmienna losowa X ma więc rozkład Cauchy’ego.
d) Ponieważ ϕ(2π) =
z zad. 12.7.
1
2
+
1
3
+
1
6
= 1, możemy stosować wzór
Z 2π
1
1
1 1
eit ( e−it + + e2it )dt
2π 0
2
3 6
Z 2π
1
1 1
1
1
=
( + eit + e3it )dt = .
2π 0 2 3
6
2
P (X = −1) =
158
Funkcja charakterystyczna
Podobnie
1
P (X = 0) = ,
3
1
P (X = 2) = .
6
Możemy też zauważyć, że ϕ = 12 ϕ1 + 31 ϕ2 + 16 ϕ3 , gdzie ϕ1 jest
funkcją charakterystyczną rozkładu δ−1 , ϕ2 rozkładu δ0 , a ϕ3
rozkładu δ2 . Zgodnie z zad. 12.3 i twierdzeniem o jednoznaczności
1
1
1
P = δ−1 + δ0 + δ2 .
2
3
6
e) Tym razem ϕ(2π) R6= 1, niespełnione jest również założenie
twierdzenia Fouriera, R |ϕ(t)|dt < ∞. Możemy natomiast zauważyć, że ϕ = 13 ϕ1 + 23 ϕ2 , gdzie ϕ1 jest funkcją charakterystyczną rozkładu δ√2 , a ϕ2 funkcją charakterystyczną δ√3 .
Zgodnie z twierdzeniem o jednoznaczności szukany rozkład ma
postać
1
2
P = δ√2 + δ √3 .
3
3
Można też zastosować ogólny wzór (45). Mianowicie, niech
x, y ∈ R będą punktami ciągłości dystrybuanty F rozkładu P ,
x < y. Wtedy
1
F (y) − F (x) =
lim
2π c→∞
Z
c
−c
e−itx − e−ity
ϕ(t)dt.
it
Obliczmy
Z
lim
c
c→∞ −c
Z c −it(x−a)
e
− e−it(y−a)
e−itx − e−ity ita
e dt = lim
dt
c→∞ −c
it
it
Z c
sin t(y − a) − sin t(x − a)
= lim
dt
c→∞ −c
t
!
Z c(y−a)
Z c(x−a)
sin τ
sin τ
= lim
dτ −
dτ
c→∞
−c(y−a) τ
−c(x−a) τ
0,
jeśli x, y > a lub x, y < a,
=
2π, jeśli x < a < y,
12.3. Odpowiedzi i rozwiazania
,
159
√
2 lub a = 3. Podstawiając do (45) otrzymujemy
√
√

0, jeśli x, y < 2 lub x, y√> 3


√


lub 2 < x, y < 3,


√
√
1
F (y) − F (x) =
, jeśli x < 2 < y < 3,

3


 2

 , jeśli √2 < x < √3 < y.
3
√ √
√
Funkcja
F jest więc stała na przedziałach (−∞, 2), ( 2, 3),
√
( 3, +∞). √Ostatecznie,
uwzględniając skoki dystrybuanty
√
w punktach 2, 3 otrzymujemy rozkład:
dla a =
√
P (X =
√
1
2) = ,
3
P (X =
√
2
3) = .
3
f ) Zauważmy, że ϕ(2π) = 1, zatem zmienna losowa przyjmuje
wyłącznie wartości całkowite. Ponadto, stosując wzór na sumę
nieskończonego ciągu geometrycznego,
−it
ϕ(t) =
2e 3
1−
e−it
3
=2
∞ −it k
X
e
3
k=1
∞
X
2 −itk
=
e
.
3k
k=1
Stąd, podobnie jak w zad. 12.9 d)
P (X = −k) =
2
3k
dla k ∈ N.
12.10. Załóżmy, że zmienne losowe X1 , . . . , Xn są niezależne. Niech
(t1 , . . . , tn ) ∈ Rn . Zgodnie z definicją
ϕ(X1 ,...,Xn ) (t1 , . . . , tn ) = E(eih(t1 ,...,tn )|(X1 ,...,Xn )i )
n
Y
n
= E(ei k=1 tk Xk ) = E(
eitk Xk ).
P
k=1
Z niezależności X1 , . . . , Xn wynika niezależność zmiennych losowych eit1 X1 , . . . , eitn Xn , zatem
E(
n
Y
k=1
itk Xk
e
)=
n
Y
k=1
itk Xk
E(e
)=
n
Y
k=1
ϕXk (tk ).
160
Funkcja charakterystyczna
Stąd
ϕ(X1 ,...,Xn ) (t1 , . . . , tn ) =
n
Y
ϕXk (tk ).
(47)
k=1
Z drugiej strony, produkt rozkładów PX1 , . . . , PXn , czyli rozkład
prawdopodobieństwa P taki, że
P (B1 × . . . × Bn ) = PX1 (B1 ) · . . . · PXn (Bn )
dla B1 , . . . , Bn ∈ B(R) ma funkcję charakterystyczną
ϕ(t1 , . . . , tn ) = ϕX1 (t1 ) · . . . · ϕXn (tn )
dla (t1 , . . . , tn ) ∈ Rn . Jeśli więc zachodzi (47), to ϕ = ϕ(X1 ,...,Xn )
i z twierdzenia o jednoznaczności wynika, że P = P(X1 ,...,Xn ) ,
a to oznacza, że zmienne losowe X1 , . . . , Xn są niezależne.
12.11. Dowód analogiczny jak w zad. 12.10.
12.12. Załóżmy najpierw, że X = (X1 , . . . , Xn ) ma rozkład N (0, I).
Niech t = (t1 , . . . , tn ) ∈ Rn . Wtedy, zgodnie z zadaniami 10.20
i 12.2f)
ϕX (t) = E(eiht|Xi ) = E(ei(t1 X1 +...+tn Xn ) )
1
= ϕX1 (t1 ) . . . ϕXn (tn ) = e− 2 ht|ti .
Jeśli Y ma rozkład N (m, Q), to Y = AX + m, gdzie X ma
rozkład N (0, I), zaś A · AT = Q. Korzystając z odpowiednika
własności 3
ϕAX+b (t) = eiht|bi ϕX (AT t)
dla b ∈ Rn , A macierzy stopnia n, t ∈ Rn mamy
1
ϕY (t) = eiht|mi ϕX (AT t) = eiht|mi− 2 hQt|ti
dla każdego t ∈ Rn .
12.13. Oznaczmy X = ξ + η, Y = ξ − η. Z zad. 12.3 f)
1
ϕξ (t) = ϕη (t) = eitm− 2 σ
2 t2
.
12.3. Odpowiedzi i rozwiazania
,
161
Natomiast z definicji funkcji charakterystycznej wektora losowego w R2
ϕ(X,Y ) (u, v) = E(eih(u,v)|(X,Y )i ) = E(ei(u+v)ξ ei(u−v)η ).
Skoro ξ, η są niezależne, to również
ei(u+v)ξ , ei(u−v)η są niezależne. Zatem
zmienne
losowe
ϕ(X,Y ) (u, v) = E(ei(u+v)ξ )E(ei(u−v)η )
= ϕξ (u + v) · ϕη (u − v) = ei2um−σ
2 (u2 +v 2 )
.
Zgodnie z zad. 12.11
ϕX (u) = ϕξ (u)ϕη (u) = e2ium−σ
2 u2
−σ 2 v 2
ϕY (v) = ϕξ (v)ϕη (−v) = e
,
.
Zatem
ϕ(X,Y ) (u, v) = ϕX (u) · ϕY (v),
a to zgodnie z zad. 12.10 oznacza, że zmienne losowe X, Y są
niezależne.
12.14. Niech (s, t) ∈ R2 .
√
√
s+ X−Y
t)
i( X+Y
ϕ(ξ,η) (s, t) = E(eih(ξ,η)|(s,t)i ) = E(e
2
√ X
i s+t
2
= E(e
2
√ Y
i s−t
2
·e
)
).
Zmienne losowe X, Y są niezależne, zatem
√ X
i s+t
2
E(e
√ Y
i s−t
·e
√ )2
− 21 ( s+t
=e
2
2
s+t
s−t
) = ϕX ( √ ) · ϕ Y ( √ )
2
2
√ )2
− 21 4( s−t
·e
2
1
= e− 4 (5s
2 −6st+5t2 )
.
Zgodnie z zad. 12.12 jest
to funkcja
charakterystyczna rozkładu
1
5 −3
N (0, Q), gdzie Q =
. Porównać zad. 11.10.
2 −3 5
13. Twierdzenie Poissona. Centralne
twierdzenie graniczne
13.1. Teoria i zadania
Rozkład Bernoullego B(n, p) dla dużych n i małych p może być
przybliżany rozkładem Poissona. Mówi o tym nastepuj
ace
,
,
Twierdzenie Poissona. Niech liczby pn > 0 tworza, ciag
, taki, że
lim npn = λ (λ > 0). Wtedy
n→∞
n k
λk −λ
lim
pn (1 − pn )n−k =
e ,
n→∞ k
k!
k = 0, 1, . . . .
Centralne twierdzenie graniczne bedziemy
stosować w dwóch
,
wersjach.
Twierdzenie Lindeberga - Lévy’ego. Niech ξ1 , ξ2 , . . . bed
, a,
niezależnymi zmiennymi losowymi na tej samej przestrzeni probabilistycznej (Ω, Σ, P ). Załóżmy, że wszystkie one maja, ten sam rozkład
o skończonej wartości oczekiwanej Eξk = m i wariancji
D2 ξk = σ 2 ,
Pn
dla k ∈ N, przy czym σ > 0. Oznaczmy Sn = k=1 ξk . Wtedy dla
każdego x ∈ R
Sn − nm
√
lim P (
≤ x) = Φ(x),
(48)
n→∞
σ n
gdzie Φ oznacza dystrybuante, standardowego rozkładu normalnego.
Zauważmy, że zmienną losową
Tn =
Sn − nm
Sn − ESn
√
=
D 2 Sn
σ n
otrzymujemy poprzez standaryzację zmiennej losowej Sn , zaś zbieżność w (48) oznacza zbieżność ciagu
dystrybuant zmiennych losowych
,
Tn . Jeśli dodatkowo założymy, że zmienne losowe ξk maja, rozkład
164
Twierdzenie Poissona. Centralne twierdzenie graniczne
dwupunktowy, otrzymujemy
Twierdzenie Moivre’a - Laplace’a.
Niech ξ1 , ξ2 , . . . bed
, a,
niezależnymi zmiennymi losowymi o tym samym rozkładzie dwupunktowym z parametrem p > 0. Wtedy dla każdego x ∈ R
Sn − np
lim P ( p
≤ x) = Φ(x).
np(1 − p)
n→∞
(49)
Zad. 13.1. W skład pewnej złożonej aparatury wchodzi 500 elementów. Prawdopodobieństwo uszkodzenia w ciagu
roku każdego z nich
,
jest równe 0, 002 i nie zależy od stanu pozostałych elementów. Obliczyć prawdopodobieństwo uszkodzenia w ciagu
roku dokładnie jed,
nego elementu.
Zad. 13.2. Przedsiebiorstwo
transportowe posiada 200 autobusów.
,
Prawdopodobieństwo, że wybrany losowo autobus jest sprawny wynosi 0, 99. Obliczyć prawdopodobieństwo, że w losowo wybranej chwili
dokładnie jeden autobus jest niesprawny.
Zad. 13.3. Artykuł zawiera 100 tys. znaków. W trakcie przepisywania każdy znak może być zmieniony z prawdopodobieństwem 0,001.
Recenzent znajduje bład
, z prawdopodobieństwem 0,9, po czym tekst
wraca do autora, który znajduje pozostałe błedy
z prawdopodobień,
stwem 0,5. Jaka jest szansa, że po dwóch korektach artykuł zawiera
nie wiecej
niż 3 błedy?
,
,
Zad. 13.4. Ksiażka
zawiera 500 stron, na których jest 50 błedów.
,
,
Oszacować prawdopodobieństwo, że na wylosowanej stronie sa, co najmniej 3 błedy.
,
Zad. 13.5. Ile rodzynków trzeba podczas wyrabiania ciasta średnio
przeznaczyć na bułeczke,
, aby losowo wybrana bułeczka zwierała przynajmniej jeden rodzynek z prawdopodobieństwem 0,95 lub wiekszym?
,
Zad. 13.6. Obliczyć prawdopodobieństwo, że rzucając 2000 razy
niesymetryczną monetą, dla której prawdopodobieństwo wypadnięcia orła wynosi 34 , liczba uzyskanych orłów jest zawarta między 1465
a 1535.
13.1. Teoria i zadania
Zad. 13.7. Ile razy należy rzucić symetryczna, moneta,
, aby mieć co
najmniej 95% pewność, że stosunek liczby orłów do liczby wszystkich
rzutów zawiera sie, w przedziale (0, 45; 0, 55]?
Zad. 13.8. Ile razy należy rzucić prawidłowa, kostka, do gry, aby mieć
99% pewność, że szóstka pojawi sie, co najmniej w 15% wszystkich
rzutów?
Zad. 13.9. Jakie jest prawdopodobieństwo, że przy 1000 rzutach
symetryczna, moneta, różnica miedzy
liczba, orłów i reszek bedzie
wy,
,
nosić co najmniej 100? Porównać wynik uzyskany korzystajac
, z nierówności Czebyszewa oraz z tw. Moivre’a - Laplace’a.
Zad.13.10. Wiadomo, że prawdopodobieństwo urodzenia sie, chłopca
wynosi w przybliżeniu 0, 512. Jakie jest prawdopodobieństwo, że
wśród 10 000 noworodków bedzie
nie mniej dziewczynek niż chłop,
ców? Jakie jest prawdopodobieństwo, że wśród 10 000 noworodków
bedzie
co najmniej o 200 chłopców wiecej
niż dziewczynek?
,
,
Zad. 13.11. Aby stwierdzić, jak wielu wyborców popiera partię ABC,
losujemy spośród wyborców reprezentatywną próbę i na niej przeprowadzamy sondaż. Jak duża powinna być próba, aby uzyskany wynik
różnił się od rzeczywisego poparcia dla partii ABC nie więcej niż 3%
z prawdopodobieństwem co najmniej 0, 95?
Zad. 13.12. W wyborach prezydenckich w X uczestniczy dwóch
kandydatów. Zakładajac,
że pierwszego kandydata popiera α% gło,
sujacych,
jak
wiele
osób
trzeba
przebadać w sondażu przedwybor,
czym, żeby określić liczbe, α z błedem
nie wiekszym
niż 4, 5% z praw,
,
dopodobieństwem co najmniej 0, 95?
Zad. 13.13. 1 stycznia bieżacego
roku na terenie Polski zostało
,
skradzionych 216 samochodów osobowych. Oszacuj możliwie najdokładniej prawdopodobieństwo odzyskania co najmniej połowy z nich
w ciagu
bieżacego
roku, jeżeli wiadomo, że rocznie w Polsce znajduje
,
,
sie, średnio 400 z 1000 skradzionych w danym roku aut.
Zad. 13.14. Cztery firmy przewozowe A, B, C i D obsługuja,
połaczenie
autokarowe z Krakowa do Paryża. Statystyka podaje, że
,
miesiecznie
łacznie
2000 pasażerów korzysta z usług tych firm, w tym
,
,
165
166
Twierdzenie Poissona. Centralne twierdzenie graniczne
30% wybiera firme, A, 20% – firme, B, 15% – firme, C i 35% – firme, D.
Ile przejazdów powinna zorganizować firma A, (która dysponuje autokarem z 40 miejscami) aby prawdopodobieństwo odesłania klienta
do konkurentów było mniejsze od 1% ?
Zad. 13.15. Na campusie uniwersyteckim sa, dwie restauracje. Wiadomo, że codziennie 200 osób bedzie
chciało zjeść obiad, a wyboru
,
restauracji dokonuja, losowo. Ile miejsc należy przygotować w każdej
restauracji, aby prawdopodobieństwo, że w którejś restauracji zabraknie miejsc było mniejsze od 0, 001?
Zad. 13.16. Miasto K liczy sobie 160 000 obywateli. Kasa chorych
działajaca
na jego terenie podpisała kontrakty z 50 lekarzami rodzin,
nymi, z których każdy może obsługiwać co najwyżej 3300 pacjentów.
Czy ta liczba lekarzy bedzie
wystarczajaca,
jeżeli chcemy, by praw,
,
dopodobieństwo, że mieszkaniec K nie zostanie zarejestrowany u wybranego przez siebie lekarza było mniejsze od 0, 05, zakładajac,
że
,
obywatele miasta K dokonuja, wyboru lekarza w sposób całkowicie
losowy i niezależny?
Zad. 13.17. Wykonano 10 000 dodawań, każde z dokładnościa,
10−8 . Znaleźć przedział, w którym z prawdopodobieństwem 0,99 lub
wiekszym
zawiera sie, bład
, sumy.
,
Zad. 13.18. W Polsce jest 24,6 mln podatników i każdy z nich myli
sie, przy wypełnianiu zeznania podatkowego. Wartość błedu
dla i-tego
,
2
podatnika jest zmienna, losowa, Xi , gdzie EXi = 0 i D Xi = 10 000
(złotych). Ponadto zakładamy, niezależność zmiennych Xi . Jaka jest
szansa, że straty państwa w wyniku tych błedów
przekrocza, 1 grosz
,
na podatnika?
Zad. 13.19. 60% ludzi woli gorzką czekolade, od mlecznej. Osoba organizujaca
przyjecie
dla 100 osób, z których każda ma otrzymać jako
,
,
prezent pudełeczko czekoladek, przygotowuje 70 pudełeczek z czekoladkami gorzkimi i 45 z mlecznymi. Jakie jest prawdopodobieństwo,
że każdy z gości bedzie
mógł sobie wybrać taki rodzaj czekoladek, jaki
,
mu odpowiada?
13.2. Wskazówki
13.2. Wskazówki
13.1. Zauważyć, że mamy do czynienia ze schematem Bernoullego,
w którym pojedynczą próbę powtarzamy n = 500 razy. W celu
obliczenia prawdopodobieństwa skorzystać z twierdzenia Poissona.
13.2. Porównać zad. 13.1.
13.3. Pojedyncza próba Bernoullego określa czy po dwóch korektach
i-ty znak jest błędny. Jeśli wystąpienie błędu przyjąć jako sukces w pojedynczej próbie, to prawdopodobieństwo sukcesu p obliczyć jako prawdopodobieństwo iloczynu zdarzeń, że błąd popełni autor, nie znajdzie recenzent ani autor przy ponownym
czytaniu. Ze względu na dużą liczbę prób i małe prawdopodobieństwo p, szukane prawdopodobieństwo obliczyć z twierdzenia
Poissona.
13.4. Jako pojedynczą próbę Bernoullego rozważyć doświadczenie,
w którym i-ty błąd znajdzie się na wylosowanej stronie lub nie.
Szukane prawdopodobieństwo przybliżyć korzystając z twierdzenia Poissona.
13.5. Porównać zad. 13.4. Tym razem rozważyć zdarzenie kiedy i-ty
rodzynek znajdzie się w wylosowanej bułeczce.
13.6. Skorzystać z twierdzenia Moivre’a - Laplace’a oraz z faktu, że
dla dowolnej zmiennej losowej η oraz liczb a, b ∈ R, a < b, zachodzi P (a < η ≤ b) = F (b) − F (a), gdzie F oznacza dystrybuantę
η.
13.7. Porownać zad. 13.6. Tym razem prawdopodobieństwo jest zadane, należy natomiast wyznaczyć liczbę prób n.
13.8. Prawdopodobieństwo P (Sn ≥ 0, 15n) obliczyć przez prawdopodobieństwo zdarzenia przeciwnego. Ale w tablicach dystrybuanty rozkładu N (0, 1) na ogół nie znajdziemy wartości x, dla
której Φ(x) = 0, 01. Wynika to z faktu, że takie x < 0. Wobec
tego, należy odczytać y = −x takie, że 1 − Φ(x) = Φ(y) = 0, 99.
167
168
Twierdzenie Poissona. Centralne twierdzenie graniczne
13.9. Nierówność Czebyszewa – patrz wzór (30). Korzystając z twierdzenia Moivre’a - Laplace’a rozważyć zdarzenie przeciwne.
13.10. Porównać zad. 13.9.
13.11. Porównać zad. 13.7. Jeśli p oznacza nieznane, faktyczne poparcie dla partii ABC, to otrzymane wyrażenie zawierające p
można oszacować z nierówności (2p − 1)2 ≥ 0.
13.12. Porównać zad. 13.11.
13.13. Liczba odzyskanych samochodów jest zmienną losową. Jaki
ma rozkład?
13.14. Liczba pasażerów, którzy wybiorą firmę A jest zmienną losową. Firma A będzie odysłać do konkurencji, jeśli liczba ta
przewyższy liczbę przygotowanych miejsc.
13.15. Porównać zad. 13.14.
13.16. Porównać zad. 13.14.
13.17. Błąd w i-tym dodawaniu opisać zmienną losową ξi , przyjmując, że ξi ma rozkład jednostajny na odcinku [− 21 ·10−8 ; 21 ·10−8 ].
Prawdopodobieństwo przybliżyć z twierdzenia Lindeberga Lévy’ego.
13.18. Porównać zad. 13.17.
13.19. Zauważmy, że liczba gości na przyjęciu, którzy wolą czekoladę gorzką jest zmienną losową, oznaczmy ją chwilowo X. Jaki
X ma rozkład? Każdy gość będzie mógł wybrać taki rodzaj
czekoladek, jaki mu odpowiada, jeśli X ≤ 70 i jednocześnie
100 − X ≤ 45.
13.3. Odpowiedzi i rozwiazania
,
169
13.3. Odpowiedzi i rozwiazania
,
13.1. Rozważmy ciąg niezależnych zmiennych losowych
1, gdy i-ty element został uszkodzony,
ξi =
0, gdy i-ty element nie jest uszkodzony
dla i = 1, . . . , n, n = 500, przyPczym p = P (ξi = 1) = 0, 002.
Wówczas zmienna losowa Sn = ni=1 ξi oznacza liczbę uszkodzonych elementów. Interesujące nas prawdopodobieństwo uszkodzenia dokładnie jednego elementu, możemy wyrazić za pomocą
schematu Bernoullego
n
P (Sn = 1) =
p(1 − p)n−1 .
1
Prawdopodobieństwo to, przybliżamy korzystając z twierdzenia
Poissona, przyjmując
λ = np = 1,
mianowicie
P (Sn = 1) =
λ −λ
e = e−1 ≈ 0, 37.
1!
Obliczając wprost P (Sn = 1) = (0, 998)499 zauważmy, że błąd
powyższego przybliżenia jest mniejszy niż 3, 69 · 10−4 .
13.2.
2
≈ 0, 27.
e2
13.3. Ustalmy i-ty znak w arytkule, i = 1, . . . , 100 000. Niech zdarzenie A oznacza, że i-ty znak został zmieniony podczas przepisywania artykułu, B, że recenzent nie znajdzie błędu, zaś C
zdarzenie, że autor nie znajdzie błędu przy powtórnym czytaniu.
Przy tych oznaczeniach
P (A) = 0, 001,
P (B|A) = 0, 1,
P (C|A ∩ B) = 0, 5,
zatem
p = P (A ∩ B ∩ C) = P (C|A ∩ B) · P (B|A) · P (A) = 5 · 10−5
170
Twierdzenie Poissona. Centralne twierdzenie graniczne
jest prawdopodobieństwem, że i-ty znak po dwóch korektach jest
błędny. Mamy więc schemat Bernoullego, w którym pojedynczą
próbę opisuje zmienna losowa
1, gdy i-ty znak po dwóch korektach jest błędny,
ξi =
0, gdy i-ty znak po dwóch korektach jest poprawny,
Pn
P (ξi = 1) = p, natomiast Sn =
i=1 ξi , n = 100 000, oznacza liczbę błędów w artykule po dwóch korektach. Korzystając
z twierdzenia Poissona,
λ=n·p=5
i ostatecznie
P (Sn ≤ 3) ≈ e−5
3
X
5k
k=0
k!
≈ 0, 265.
13.4. Rozważmy ciąg zmiennych losowych
1, gdy i-ty błąd znajduje się na wylosowanej stronie,
ξi =
0, gdy i-tego błędu nie ma na tej stronie
1
dla i = 1, . . . , n, n = 50. Oczywiście p = P (ξi = 1) = 500
,
zaś Sn oznacza liczbę błędów na wylosowanej stronie. Niech
λ = np = 0, 1. Wtedy
P (Sn ≥ 3) = 1 − P (Sn < 3)
(0, 1)2
−0,1
≈ 1− e
(1 + 0, 1 +
) = 0, 0002.
2
13.5. Co najmniej 3 rodzynki na bułeczkę.
13.6. Rozważmy ciąg zmiennych losowych o rozkładzie dwupunktowym z parametrem p = 43 ,
1, gdy w i-tym rzucie wypadnie orzeł,
ξi =
0, gdy w i-tym rzucie wypadnie reszka.
Oczywiście
zmienne losowe ξi są niezależne. Zmienna losowa
P
Sn = ni=1 ξi oznacza w takim razie liczbę orłów w n rzutach.
13.3. Odpowiedzi i rozwiazania
,
171
Rozważamy n = 2000. Szukamy P (1465 < Sn ≤ 1535). W tym
celu skorzystamy z twierdzenia Moivre’a - Laplace’a.
P (1465 < Sn ≤ 1535) = P (Sn ≤ 1535) − P (Sn ≤ 1465).
W obydwu powyższych składnikach standaryzujemy zmienną losową Sn .
=
P ( √Sn −np
np(1−p)
≤
1535−1500
√
)
375
P (1465 < Sn ≤ 1535)
√
− P ( √Sn −np ≤ 1465−1500
)
375
np(1−p)
= P (Tn ≤ 1, 8) − P (Tn ≤ −1, 8).
Dla n = 2000 stosujemy przybliżenie (49),
P (1465 < Sn ≤ 1535) ≈ Φ(1, 8) − Φ(−1, 8),
następnie z własności dystrybuanty standardowego rozkładu
normalnego,
P (1465 < Sn ≤ 1535) ≈ 2Φ(1, 8) − 1.
Wartość dystrybuanty Φ(1, 8) odczytujemy z tablic. Ostatecznie
P (1465 < Sn ≤ 1535) ≈ 0, 928.
13.7. Rozważamy ciąg niezależnych zmiennych losowych o rozkładzie
dwupunktowym, jak w zad. 13.6, przy czym p = P (ξi = 1) =
0, 5. Zmienna losowa Snn oznacza stosunek liczby otrzymanych
orłów do wszystkich rzutów. Wyznaczymy n tak, aby
P (0, 45 <
Sn
≤ 0, 55) ≥ 0, 95.
n
Standaryzując zmienną losową Sn , otrzymujemy
P (0, 45 <
Sn
n
= P ( √Sn −np
≤ 0, 55)
np(1−p)
czyli
≤
0,55n−0,5n
√
)
0,5 n
− P ( √Sn −np
np(1−p)
≤
0,45n−0,5n
√
),
0,5 n
√
√
P (Tn ≤ 0, 1 n) − P (Tn ≤ −0, 1 n) ≥ 0, 95.
172
Twierdzenie Poissona. Centralne twierdzenie graniczne
Przy założeniu, że n jest duże prawdopodobieństwa po lewej
stronie ostatniej nierówności przybliżamy z twierdzenia Moivre’a
- Laplace’a.
√
√
Φ(0, 1 n) − Φ(−0, 1 n) ≥ 0, 95,
stąd
√
2Φ(0, 1 n) − 1 ≥ 0, 95.
Z tablic dystrybuanty standardowego rozkładu normalnego, korzystając z faktu, że dystrybuanta jest funkcją niemalejącą, odczytujemy najmniejszy argument, dla którego
√
Φ(0, 1 n) ≥ 0, 975,
to jest
√
0, 1 n ≥ 1, 96.
Zatem, najmniejsze n ∈ N wynosi 385.
13.8. n ≥ (23, 3)2 · 5 i n ∈ N, stąd n = 2715.
13.9. Niech
ξi =
1,
0,
gdy w i-tym rzucie wypadnie orzeł,
gdy w i-tym rzucie wypadnie reszka.
1
Oczywiście zmienne losowe
Pn ξi są niezależne, P (ξi = 1) = 2 ,
zmienna losowa Sn = i=1 ξi oznacza liczbę orłów, zaś n − Sn
liczbę reszek w n rzutach, przy czym n = 1000. Będziemy szacować prawdopodobieństwo zdarzenia przeciwnego do tego, o którym mowa w zadaniu,
{|Sn − (n − Sn )| ≥ 100}0 = {|Sn −
n
| < 50}.
2
Korzystając z twierdzenia Moivre’a - Laplace’a
n
| < 50) = P (450 ≤ Sn < 550)
2
√
√
√
≈ Φ( 10) − Φ(− 10) = 2Φ( 10) − 1 = 0, 9984,
P (|Sn −
zatem
P (|Sn − (n − Sn )| ≥ 100) ≈ 0, 0016.
13.3. Odpowiedzi i rozwiazania
,
173
Korzytając natomiast z nierówności Czebyszewa (30), otrzymujemy
D2 Sn
P (|Sn − (n − Sn )| ≥ 100) ≤
= 0, 1.
502
Zauważmy, że twierdzenie Moivre’a - Laplace’a umożliwia lepsze
oszacowanie.
13.10. Jeśli Sn oznacza liczbę chłopców wśród n noworodków, p =
0, 512, to
P (n − Sn ≥ Sn ) ≈ Φ(−2, 4) = 0, 0082.
P (Sn ≥ 200 + n − Sn ) ≈ Φ(0, 4) = 0, 655.
13.11. Niech p ∈ (0, 1) oznacza faktyczne, nieznane poparcie dla partii ABC, zaś n szukaną liczność próby. Zakładamy, że zmienne
losowe
1, gdy i-ta osoba w sodażu popiera partię ABC,
ξi =
0, gdy i-ta osoba nie popiera ABC
są niezależne i P (ξi = 1) = p. Wtedy zmienna losowa Snn oznacza poparcie dla partii ABC wyznaczone w oparciu o sondaż.
Szukamy n takiego, że
P (|
Sn
− p| ≤ 0, 03) ≥ 0, 95.
n
Przybliżając prawdopodobieństwo po lewej stronie, z twierdzenia Moivre’a - Laplace’a, mamy
√
0, 03 n
2Φ( p
) − 1 ≥ 0, 95.
p(1 − p)
Zatem z tablic dystrybuanty rozkładu normalnego standardowego, odczytujemy
n≥
1, 96
0, 03
2
· p(1 − p).
174
Twierdzenie Poissona. Centralne twierdzenie graniczne
W nierówności tej występuje ciągle nieznane p, ale ponieważ
p(1 − p) ≤ 14 dla każdego p ∈ R, wystarczy wziąć n ∈ N takie,
że
1, 96 2 1
n≥
· , czyli n ≥ 1067.
0, 03
4
Warto zauważyć, że jeśli dysponujemy dodatkowymi informacjami dotyczącymi faktycznego poparcia p, np. jeśli w oparciu
o wcześniejsze badania wiemy, że p ≤ 0, 2, to p(1 − p) ≤ 0, 16,
i konsekwentnie w sondażu wystarczy przebadać 683 wyborców.
13.12. Wystarczy przebadać 475 głosujących.
13.13. Niech Sn oznacza liczbę odzyskanych samochodów, p = 0, 4,
n = 216.
P (Sn ≥ 108) = 1 − P (Sn < 107) ≈ 0, 0033.
13.14. Niech
ξi =
1,
0,
gdy i-ta osoba wybiera firmę A,
gdy i-ta osoba wybiera firmę B, C lub D,
p = 0, 3, n = 2000. Zakładamy, że zmienne losowe są niezależne.
Jeśli k oznacza liczbę zorganizowanych przejazdów, to firma A
będzie musiała odesyłać klientów do konkurencji, jeśli Sn > 40k.
Szukamy takiego k, że
P (Sn > 40k) < 0, 01,
czyli P (Sn ≤ 40k) ≥ 0, 99.
Przybliżając powyższe prawdopodobieństwo z twierdzenia
Moivre’a - Laplace’a, otrzymujemy n ≥ 16, 19. Firma A powinna więc zorganizować 17 przejazdów.
13.15. 122 miejsca.
13.16. Tak.
13.17. Jeśli ξi oznacza błąd w i-tym dodawaniu, i = 1, . . . , 10 000,
to przyjmujemy, że ξi ma rozkład jednostajny na odcinku
1
[− 21 · 10−8 ; 12 · 10−8 ]. Wtedy Eξi = 0, D2 ξi = 12
10−8 . Zmienna
13.3. Odpowiedzi i rozwiazania
,
P
losowa Sn = ni=1 ξi , n = 104 , oznacza łączny błąd sumy. Zadanie polega na wyznaczeniu przedziału [−α, α], czyli takiej liczby
α, że
P (|Sn | ≤ α) ≥ 0, 99.
Prawdopodobieństwo po lewej stronie przybliżamy stosując
twierdzenie Lindeberga - Lévy’ego.
P (|Sn | ≤ α) = P (Sn ≤ α) − P (Sn < −α)
√
√
Sn − nm
Sn − nm
= P( √
≤ 2 3 · 106 · α) − P ( √
≤ −2 3 · 106 · α)
nσ
nσ
≈ Φ(β) − Φ(−β) = 2Φ(β) − 1,
√
gdzie β = 2 3 · 106 · α. Zatem
2Φ(β) − 1 ≥ 0, 99
i z tablic dystrybuanty standardowego rozkładu normalnego, odczytujemy
β ≥ 2, 58,
czyli α ≥ 0, 745 · 10−6 .
13.18. 1 − Φ(0, 49) = 0, 312.
13.19. Niech
ξi =
1,
0,
gdy i-ty gość woli czekoladę gorzką,
gdy i-ty gość woli czekoladę mleczną.
Wtedy p = P (ξi = 1) = 0, 6, a zmienna losowa Sn oznacza
liczbę gości na przyjęciu, którzy wolą czekoladę gorzką, n = 100.
Każdy gość będzie mógł wybrać taki rodzaj czekoladek, jaki mu
odpowiada, jeśli Sn ≤ 70 i jednocześnie n − Sn ≤ 45, czyli
Sn ≥ 55. Zatem
P (55 ≤ Sn ≤ 70) = P (54 < Sn ≤ 70)
√
√
3
5
5 6
6
= P (− √ < Tn ≤ √ ) ≈ Φ(
) − Φ(−
)
6
2
6
6
= Φ(2, 04) + Φ(1, 22) − 1 = 0, 979 + 0, 889 − 1 = 0, 868.
175
14. Przykładowe zestawy sprawdzające
Sprawdzian I (rozdział 1 i 2)
Zad.1. Dane sa, P (A ∪ B) = 12 i P (A ∩ B) = 14 . Ponadto spełniony
jest warunek P (A \ B) = P (B \ A). Obliczyć P (A), P (B \ A).
k X
m
n
m+n
Zad.2. Wykazać, że
=
.
i
k−i
k
i=0
Zad.3. Obliczyć prawdopodobieństwo, że gdy rozdamy 12 paczków
4
,
osobom, każda osoba dostanie przynajmniej jednego paczka.
,
Zad.4. Z talii 52 kart wylosowano 13. Jaka jest szansa otrzymania dokładnie jednego układu złożonego z sześciu kart tego samego koloru?
Zad.5. Dwanaście osób, w tym Jan, Łukasz i Mateusz, siada losowo
przy okrągłym stole. Obliczyć prawdopodobieństwo, że Jan, Łukasz
i Mateusz usiądą jeden obok drugiego, w dowolnym porządku.
Sprawdzian II (rozdział 3 i 4)
Zad.1. Niech x oznacza liczbe, rzeczywista, losowo wybrana, z przedziału [0, 1]. Obliczyć P (max{x, 14 } < 12 ).
Zad.2. Na płaszczyźnie poprowadzono nieskończona, liczbe, prostych
równoległych, odległych od siebie na przemian o 3 i 16 cm. Jakie
jest prawdopodobieństwo, że rzucone w sposób losowy na płaszczyzne,
koło o promieniu 5 cm nie przetnie ani jednej prostej?
Zad.3. Zdarzenia A, B sa, niezależne. Wykazać, że A, B 0 też sa,
niezależne.
Zad.4. Co jest bardziej prawdopodobne przy grze z przeciwnikiem
równej klasy z wykluczeniem remisów: wygranie trzech z czterech
partii, czy wygranie pieciu
z ośmiu partii?
,
178
Przykładowe zestawy sprawdzające
Zad.5. Podczas gry w brydża jeden z graczy nie dostał ani jednego asa
w trzech kolejnych rozdaniach. Czy ma on podstawe, do uskarżania
sie,
, że nie idzie mu karta?
Sprawdzian III (rozdział 5, 6 i 8)
Zad.1. Niech zmienna losowa ξ oznacza liczbe, jedynek uzyskanych
w trzykrotnym rzucie kostka, do gry. Wyznaczyć rozkład ξ. Obliczyć
wartość oczekiwana, i odchylenie standardowe.
Zad.2. Rozpatrujemy rodziny mające po dwoje dzieci. Obliczyć prawdopodobieństwo, że rodzina ma dwóch synów, jeżeli wiadomo, że co
najmniej jedno dziecko jest chłopcem.
Zad.3. Gracz dostał 13 kart z 52, obejrzał 8 z nich i stwierdził, że nie
ma asa. Jaka jest szansa, że w ogóle nie ma asa?
Zad.4. Mam trzy karty: czerwona, z obu stron, biała, z obu stron
i biało-czerwona.
, Losuje, jedna, z nich i kłade, na stole. Na wierzchu
karty jest kolor czerwony. Jakie jest prawdopodobieństwo, że tak samo
jest i pod spodem?
Zad.5. Wyznaczyć najmniejsza, σ-algebre,
, przy której funkcja X :
R → R dana wzorem X = 1[0,1] jest zmienna, losowa.
,
Sprawdzian IV (rozdział 7, 8 i 9)
Zad.1. Dobrać stałe A, B ∈ R i rozszerzyć funkcję F (x) = A cos x+B,
x ∈ [0, π2 ], tak, aby była dystrybuantą rozkładu prawdopodobieństwa,
który nie jest absolutnie ciągły. Ewentualnie uzasadnić, że taki wybór
jest niemożliwy.
Zad.2. Niech ξ ma standardowy rozkład normalny. Wyznaczyć rozkład zmiennej losowej ξ 2 .
Zad.3. Wykazać, że jeśli X ∈ N (m, σ), to E(X − EX)4 = 3σ 4 .
179
Zad.4. Obliczyć EX, D2 X, jeśli X ma rozkład Poissona z parametrem
λ > 0.
Zad.5. Wykazać, że funkcja
 1
x

 4e

1
F (x) =
2



1 − 14 e−x
dla x < 0,
dla 0 ≤ x < 1,
dla x ≥ 1
jest dystrybuantą pewnego rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład, jego część dyskretną i absolutnie ciągłą.
Sprawdzian V (rozdział 10 i 11)
Zad.1. Niech ξ i η bed
, a, niezależnymi zmiennymi losowymi o rozkładzie
Bernoullego o parametrach n, p. Wyznaczyć rozkład zmiennej losowej
ξ + η.
Zad.2. Wykazać, że jeśli zmienne losowe X, Y sa, niezależne, to etX
i etY też sa, niezależne, t ∈ R.
Zad.3. Zmienne losowe X i Y sa, niezależne i maja, rozkład jednostajny
na odcinku (− 23 , 23 ). Wyznaczyć gestość
zmiennej losowej X − Y .
,
Zad.4. Dany jest wektor losowy (X, Y ). Niech ξ = aX +b, η = cY +d,
gdzie a, b, c, d ∈ R, ac 6= 0. Wykazać, że ρ(ξ, η) = sgn (ac)ρ(X, Y ).
Zad.5. Gestość
wektora losowego (ξ, η) dana jest wzorem
,
(
1 dla 0 ≤ x ≤ 1, x ≤ y ≤ 2 − x;
f (x, y) =
0 dla pozostałych (x, y) ∈ R2 .
Wyznaczyć gestości
brzegowe. Zbadać niezależność zmiennych loso,
wych ξ oraz η.
180
Przykładowe zestawy sprawdzające
Sprawdzian VI (rozdział 8, 12 i 13)
Zad.1. Wyznaczyć funkcje, charakterystyczna, zmiennej losowej o rozkładzie:
a) Bernoullego o parametrach n, p;
b) jednostajnym na odcinku [0, 1].
Zad.2. Znaleźć rozkład prawdopodobieństwa, którego funkcja charakterystyczna wyraża sie, wzorem ϕ(t) = cos2 t dla t ∈ R.
Zad.3. Posługujac
, sie, funkcja, charakterystyczna,
, wykazać, że jeśli
zmienne losowe ξ, η o rozkładzie N (m, σ) sa, niezależne, to zmienne
losowe ξ + η, ξ − η sa, niezależne.
(EX)2
Zad.4. Wykazać, że jeśli EX ≥ 0, EX 2 > 0, to P (X > 0) ≥
.
EX 2
Zad.5. Pewne tanie linie lotnicze gubią 1% przewożonych bagaży.
Samolotem Boeing 737, należącym do tych linii, podróżuje 180 pasażerów. Jaka jest szansa, że co najmniej 4 z nich nie znajdzie swojego
bagażu po przylocie, jeśli każdy pasażer podróżuje z jedną sztuką bagażu?
Zaliczenie - semestr I
Zad.1. Rzucamy moneta, n-krotnie. Prawdopodobieństwo wypadniecia
orła wynosi p. Niech A oznacza zdarzenie „w pierwszym
,
rzucie wypadł orzeł”, zaś Ak - „w n rzutach wypadło dokładnie k orłów”. Dla jakich k, n, p zdarzenia A i Ak sa, niezależne? (0 ≤ p ≤ 1;
0 ≤ k ≤ n; k, n ∈ N)
Zad.2. Znaleźć prawdopodobieństwo, że pierwiastki równania kwadratowego x2 + 2bx + a = 0 sa, rzeczywiste, jeżeli wartości współczynników moga, przyjmować z jednakowym prawdopodobieństwem każda,
z wartości w prostokacie
|a| ≤ 2, |b| ≤ 1.
,
Zad.3. W dziewieciu
z dziesieciu
jednakowych urn znajduja, sie, po 2
,
,
czarne i 2 białe kule, a w dziesiatej
5 białych i 1 czarna kula. Z losowo
,
181
wybranej urny wylosowano biała, kule.
Jakie jest prawdopodobień,
stwo, że kula ta została wylosowana z dziesiatej
urny?
,
Zad.4. Urna zawiera 2 czarne i 3 białe kule. Wyjmujemy losowo
z urny po jednej kuli tak długo, dopóki nie wyjmiemy kuli czarnej.
Niech ξ oznacza liczbe, kul wyjetych
z urny. Wyznaczyć rozkład praw,
dopodobieństwa zmiennej losowej ξ. Obliczyć Eξ, D2 ξ. Wyznaczyć
i naszkicować dystrybuante.
,
Zad.5. Wyznaczyć wszystkie zmienne losowe na przestrzeni probabilistycznej (Ω, Σ, P ), jeśli Ω jest dowolnym zbiorem niepustym, Σ =
σ(A), gdzie A jest właściwym podzbiorem Ω, zaś P (A) = p ∈ (0, 1).
Zaliczenie - semestr II
Zad.1. Wykazać, że jeśli X ma rozkład N (m, σ), to
m + σ2
),
σ
gdzie Φ jest dystrybuantą standardowego rozkładu normalnego.
1
2
E(eX 1{X≥0} ) = em+ 2 σ Φ(
Zad.2. Znaleźć rozkład prawdopodobieństwa, którego funkcja charak2
terystyczna wyraża sie, wzorem ϕ(t) = it
dla t ∈ R.
3e − 1
Zad.3. Wektor losowy (ξ, η) ma rozkład jednostajny w trójkącie
o wierzchołkach (−1, 0), (1, 0), (0, 1). Napisać wzór na gestość
tego
,
wektora. Wyznaczyć gestości
brzegowe.
,
Zad.4. Zmienne losowe X, Y są niezależne i mają rozkład wykładniczy z parametrami odpowiednio λ, µ. Wyznaczyć rozkład zmiennej
losowej X + Y .
Zad.5. Wykazać, że funkcja
 1 x

 4e
1
1
F (x) =
2 + 4x


1
dla x ≤ 0,
dla 0 < x ≤ 1,
dla x > 1.
jest dystrybuantą pewnego rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład, jego część absolutnie ciągłą i dyskretną.
182
Przykładowe zestawy sprawdzające
Egzamin
Zad.1. Statystyki podają, że 30% dorosłych Polaków pali papierosy.
Obliczyć prawdopodobieństwo, że w firmie, która zatrudnia 100 osób,
pracuje co najmniej 30 palaczy.
Zad.2. Wyznaczyć rozkład prawdopodobieństwa zmiennej losowej
X 2 + 1, jeśli X ma rozkład jednostajny na odcinku [−1, 1].
Zad.3. X, Y sa, niezależne i mają rozkład Bernoullego o parametrach, odpowiednio n, p oraz m, p. Wyznaczyć rozkład zmiennej losowej X + Y .
1
2
Zad.4. Wykazać, że jeśli X ma rozkład N (m, σ), to E(eX ) = em+ 2 σ .
Zad.5. Lotnisko w K, które obsługuje tanie linie lotnicze dysponuje
jednym pasem startowym. Manewr lądowania zajmuje pilotowi Linii
Lotniczych Easy 15 minut, a pilotowi LL Cool 20 minut. Z powodu
strajków na lotniskach w L, dwa samoloty lecące z L do K, jeden LL
Easy i drugi LL Cool, są spóźnione i przylecą do K w losowej chwili
miedzy godz. 10 a 12. Jaka jest szansa, że jeden z samolotów będzie
musiał czekać w powietrzu aż wyląduje drugi?
Zad.6. Aby zdobyć licencję pilota pan Smith zdaje egzamin złożony
z czterech kolejnych testów. Prawdopodobieństwo, że pan Smith zda
pierwszy test wynosi p (0 < p < 1), zaś że zda kolejny p lub p2 ,
w zależności od tego czy zdał poprzedni, czy też nie. Pan Smith
zdobędzie licencję pilota, jeżeli zda co najmniej trzy testy pod rzad.
,
Wiemy, że pan Smith zdał co najmniej trzy testy. Jakie jest prawdopodobieństwo, że otrzymał licencję pilota?
15. Tablica dystrybuanty standardowego
rozkładu normalnego N (0, 1)
1
Φ(x) = √
2π
Z
x
−∞
t2
e− 2 dt.
Literatura
[1] M. Capiński, T. Zastawniak, Probability Through Problems,
Springer-Verlag, New York 2001.
[2] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa,
Wydanie II, Script, Warszawa 2001.
[3] F. Mosteller, Fifty Challenging Problems in Probability with Solutions, Addison-Wesley, Massachusets 1965.
[4] J. Ombach, Rachunek prawdopodobieństwa wspomagany komputerowo – MAPLE, Wydawnictwo Uniwersytetu Jagiellońskiego,
Kraków 2000.
[5] K. A. Rybnikow, Analiza kombinatoryczna w zadaniach, PWN,
Warszawa 1988.
[6] J. Stojanow, I. Mirazczijski, C. Ignatow, M. Tanuszew, Zbiór
zadań z rachunku prawdopodobieństwa, PWN, Warszawa 1982.
[7] E. Stachowski, Wybrane zagadnienia z kombinatoryki i elementarnej teorii prawdopodobieństwa, WSiP, Biblioteczka Delty,
Warszawa 1984.
[8] N. J. Wilenkin, Kombinatoryka, PWN, Warszawa 1972.
Download