POLITECHNIKA KRAKOWSKA IM. TADEUSZA KOŚCIUSZKI WYDZIAŁ FIZYKI MATEMATYKI I INFORMATYKI STOSOWANEJ ELEMENTY PROBABILISTYKI W ZADANIACH Margareta Wiciak 2 Kraków 2008 Spis treści 1. Definicja i własności prawdopodobieństwa 1.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 1.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 7 7 11 12 2. Prawdopodobieństwo klasyczne 2.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 2.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 15 15 20 24 3. Prawdopodobieństwo geometryczne 3.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 3.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 37 37 39 41 4. Prawdopodobieństwo warunkowe... 4.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 4.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 47 47 50 52 5. Wzór na prawdopodobieństwo esa 5.1. Teoria i zadania . . . . . . . . 5.2. Wskazówki . . . . . . . . . . 5.3. Odpowiedzi i rozwiazania . . , . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 60 63 6. Zmienne losowe i ich rozkłady 6.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 6.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 71 71 76 77 7. Dystrybuanta 7.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 7.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 7.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 81 81 83 84 całkowite. Wzór Bay- 4 SPIS TREŚCI 8. Parametry zmiennych losowych 8.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 8.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 8.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 89 89 94 95 9. Funkcje zmiennych losowych 9.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 9.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 9.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . , 107 107 109 110 10.Zmienne losowe niezależne. 10.1. Teoria i zadania . . . . . . 10.2. Wskazówki . . . . . . . . 10.3. Odpowiedzi i rozwiazania , Wektory . . . . . . . . . . . . . . . . . . losowe 117 . . . . . . . . . . 117 . . . . . . . . . . 122 . . . . . . . . . . 124 11.Funkcje wektorów losowych 133 11.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 133 11.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 135 11.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . 136 , 12.Funkcja charakterystyczna 147 12.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . . . 147 12.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . . . 150 12.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . . . 151 , 13.Twierdzenie Poissona. Centralne twierdzenie niczne 13.1. Teoria i zadania . . . . . . . . . . . . . . . . . . . . 13.2. Wskazówki . . . . . . . . . . . . . . . . . . . . . . 13.3. Odpowiedzi i rozwiazania . . . . . . . . . . . . . . , 14.Przykładowe zestawy sprawdzające gra163 . . 163 . . 167 . . 169 177 15.Tablica dystrybuanty standardowego rozkładu normalnego N (0, 1) 183 Wstęp Niniejszy zbiór zadań powstał na podstawie ćwiczeń z rachunku prawdopodobieństwa, jakie prowadziłam na kierunku Matematyka na Wydziale Fizyki, Matematyki i Informatyki Stosowanej Politechniki Krakowskiej. Zawarte w zbiorze zadania pogrupowano w trzynastu rozdziałach, w których kolejno analizowane są: definicja i własności prawdopodobieństwa, prawdopodobieństwo klasyczne, geometryczne, prawdopodobieństwo warunkowe, niezależność zdarzeń, schemat Bernoullego, wzór na prawdopodobieństwo całkowite, wzór Bayesa, a następnie zmienne losowe i rozkłady prawdopodobieństwa, dystrybuanta, parametry zmiennych losowych, funkcje zmiennych losowych, niezależność zmiennych losowych, funkcja charakterystyczna i w końcu centralne twierdzenie graniczne. Większość przestawionych zadań to zadania typowe, pochodzące z istniejących zbiorów zadań z rachunku prawdopodobieństwa, choć niektóre nie są dostępne w języku polskim. Dla wygody Czytelnika zebraliśmy je w niniejszej pozycji. Część z nich, to zadania, które poznałam dzięki moim nauczycielom rachunku prawdopodobieństwa: profesorowi Markowi Capińskiemu i profesorowi Wojciechowi Słomczyńskiemu. Struktura niniejszego zbioru zadań ma zachęcić Czytelnika i możliwie ułatwić samodzielną pracę. Każdy rozdział składa się z trzech podrozdziałów. W pierwszym podrozdziale przypominamy podstawowe definicje i twierdzenia, z których będziemy korzystać rozwiązując zadania. Następnie proponujemy średnio kilkanaście zadań do rozwiązania. Część z nich zwykle rozwiązujemy na ćwiczeniach, pozostałe, to zadania do samodzielnego rozwiązania. Drugi podrozdział zawiera wskazówki, jak rozwiązywać poszczególne zadania i wskazuje na analogie między nimi. Trzeci, składa się z rozwiązań i odpowiedzi do zadań. Ostatni rozdział zawiera przykładowe zadania ze sprawdzianów i egzaminów, jakie odbyły się w latach ubiegłych. 6 Wstęp Mam nadzieję, że taki układ podręcznika umożliwi, z jednej strony lepsze przygotowanie się do zajęć, z drugiej da możliwość sprawdzenia poprawności samodzielnych rozwiązań. Oczywiście należy pamiętać, że wiele zadań można rozwiązać na kilka sposobów. 1. Definicja i własności prawdopodobieństwa 1.1. Teoria i zadania Niech Ω bedzie dowolnym zbiorem niepustym, zaś P(Ω) oznacza , rodzine, podzbiorów Ω. Rodzine, Σ ⊂ P(Ω) nazywamy σ-algebra, , jeśli spełnione sa, nastepuj ace warunki: , , 1) Σ 6= ∅, 2) jeśli A ∈ Σ, to A0 = Ω \ A ∈ Σ, 3) jeśli A1 , A2 , . . . ∈ Σ, to ∞ S Ai ∈ Σ. i=1 Łatwo zauważyć, że warunek (1) można zastapić jednym z warunków: , Ω ∈ Σ lub ∅ ∈ Σ. W zwiazku z tym, najmniejsza, możliwa, σ-algebra, , jest {∅, Ω}. Elementy Σ nazywamy zdarzeniami lub zbiorami mierzalnymi. Ω nazywamy zdarzeniem pewnym, ∅ zdarzeniem niemożliwym. Jeśli A ∈ Σ, to A0 nazywamy zdarzeniem przeciwnym do A. Jeśli A, B ∈ Σ i A ∩ B = ∅, to mówimy że zdarzenia A i B wykluczaja, sie, wzajemnie. Pare, (Ω, Σ) nazywamy przestrzenia, mierzalna. , Niech A ∈ Σ bedzie zbiorem niepustym i A = 6 Ω. Oczywiście ro, 0, dzina {∅, Ω, A} nie jest σ-algebra, ale wystarczy j a uzupełnić o A , , aby tworzyła σ-algebre. , Ogólnie, jeśli A ⊂ P(Ω), to σ-algebra, generowana, przez rodzine, podzbiorów A nazywamy najmniejsza, σ-algebre, zawierajac , a, rodzine, A. Oznaczamy ja, symbolem σ(A). W szczególności, gdy Ω = Rn , zaś A oznacza rodzine, zbiorów otwartych w Rn , to σ(A) nazywamy rodzina, zbiorów borelowskich w Rn . Rodzine, zbiorów borelowskich w Rn oznaczamy B(Rn ). Rozważmy przestrzeń mierzalną (Ω, Σ). Prawdopodobieństwem (miara, probabilistyczna) , nazywamy dowolna, funkcje, P : Σ → [0, +∞), która spełnia nastepuj ace aksjomaty: , , i) P (Ω) = 1 (warunek unormowania), 8 Definicja i własności prawdopodobieństwa ii) jeśli A1 , A2 , . . . ∈ Σ parami sie, wykluczaja, , to P( ∞ [ Ai ) = i=1 ∞ X P (Ai ) (przeliczalna addytywność). i=1 Każda, miare, probabilistyczna, określona, na przestrzeni mierzalnej (Rn , B(Rn )) nazywamy rozkładem prawdopodobieństwa. Rozkładami prawdopodobieństwa bedziemy sie, zajmować w rozdziale 6 , i nastepnych. , Trójke, (Ω, Σ, P ) nazywamy przestrzenia, probabilistyczna. , Odnotujmy nastepuj ace własności prawdopodobieństwa: , , a) P (∅) = 0, P (A) ∈ [0, 1] dla każdego A ∈ Σ; b) jeśli zdarzenia A1 , . . . , An ∈ Σ parami sie, wykluczaja, to , n n S P P ( Ai ) = P (Ai ) (skończona addytywność); i=1 i=1 c) P (A0 ) = 1 − P (A); d) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) dla dowolnych A, B ∈ Σ. Własność d) można uogólnić na dowolna, , skończona, liczbe, składników, jest to tzw. wzór włacz-wył acz , , P n [ i=1 ! Ai = n X P (Ai ) − i=1 X P (Ai ∩ Aj ) + . . . 1≤i<j≤n (1) +(−1)n+1 P (A1 ∩ . . . ∩ An ) dla dowolnych A1 , . . . , An ∈ Σ. Niech dana będzie rodzina zdarzeń (An )n∈N . Mówimy, że rodzina jest wstepuj aca, gdy An ⊂ An+1 dla każdego n ∈ N, zaś zstepuj aca, , , , , gdy An+1 ⊂ An dla każdego n ∈ N. 1.1. Teoria i zadania 9 Twierdzenie o ciagłości prawdopodobieństwa. Jeśli (An )n∈N , jest wstepuj ac a rodzin a zdarzeń, to , , , , ! [ P (2) An = lim P (An ). n∈N n→∞ Jeśli (An )n∈N jest zstepuj ac , a, rodzina, zdarzeń, to , ! \ P An = lim P (An ). n∈N n→∞ (3) Zad.1.1. Niech Ω = {1, 2, 3, 4}. Które z podanych rodzin podzbiorów tworza, σ-algebry: F1 = {∅, {1, 2}, {3, 4}}; F2 = {∅, Ω, {1}, {2, 3, 4}, {1, 2}, {3, 4}}; F3 = {∅, Ω, {1}, {2}, {1, 2}, {3, 4}, {2, 3, 4}, {1, 3, 4}}? Zad. 1.2. Niech Ω = (0, 1). Które z podanych rodzin podzbiorów tworza, σ-algebry: F1 = {∅, (0, 1), (0, 21 ), ( 12 , 1)}; F2 = {∅, (0, 1), (0, 21 ), [ 12 , 1), (0, 32 ], ( 23 , 1)}; F3 = {∅, (0, 1), (0, 32 ), [ 23 , 1)}? Zad. 1.3. Niech a, b ∈ R, (a < b). Wykazać, że nastepuj ace zbiory sa, , , borelowskie w R: (a, b), [a, +∞), [a, b], (a, b], {a}, dowolony zbiór przeliczalny, N, zbiór liczb niewymiernych. Zad. 1.4. Wykazać, że jeśli A ⊂ D ⊂ P(Ω), to σ(A) ⊂ σ(D). Zad. 1.5. Niech A ⊂ P(R) oznacza rodzine, otwartych przedziałów w R. Wykazać, że σ(A) = B(R). Zad. 1.6. Niech D ⊂ P(R) oznacza rodzine, domknietych przedziałów , w R. Wykazać, że σ(D) = B(R). Zad. 1.7. Dane sa, zdarzenia A, B, C. Zapisać za pomoca, działań na zbiorach nastepuj ace zdarzenia: , , 10 Definicja i własności prawdopodobieństwa a) zachodzi tylko zdarzenie A; b) zachodzi dokładnie jedno ze zdarzeń A, B, C; c) zachodza, dokładnie dwa spośród zdarzeń A, B, C; d) zachodza, co najmniej dwa ze zdarzeń A, B, C; e) nie zachodzi żadne ze zdarzeń A, B, C. Zad. 1.8. Wiadomo, że P (A) = 0, 7, a P (B) = 0, 8 dla pewnych zdarzeń A i B. Pokazać, że wtedy P (A ∩ B) ≥ 0, 3. Zad. 1.9. Wiadomo, że P (A ∪ B) = 0, 8, a P (A \ B) = 0, 3 dla pewnych zdarzeń A i B. Pokazać, że wtedy P (B) ≤ 0, 6. Zad. 1.10. Niech P (A ∪ B) = 23 , P (A ∩ B) = 41 , P (A0 ) = 31 dla pewnych zdarzeń A i B. Obliczyć P (B 0 ), P (A ∩ B 0 ), P (B \ A). Zad. 1.11. Dane sa, P (A∪B) = 21 i P (A∩B) = 14 . Ponadto spełniony jest warunek P (A \ B) = P (B \ A). Obliczyć P (A), P (B \ A). Zad. 1.12. Wiadomo, że A ∪ B ∪ C = Ω, P (B) = 2P (A), P (C) = 3P (A), P (A ∩ B) = P (B ∩ C). Pokazać, że 61 ≤ P (A) ≤ 41 . Zad. 1.13. Dane sa, P (A) = 14 i P (B) = 43 , A ∩ B = ∅. Uporzadkować , rosnaco: P (A ∪ B), P (A0 ∪ B), P (A ∪ B 0 ). , Zad.1.14. Wykazać twierdzenie o ciagłości prawdopodobieństwa, (2), , (3). Zad. 1.15. Wykazać subaddytywność prawdopodobieństwa, tzn. jeśli A1 , A2 , . . . ∈ Σ, to ∞ ∞ [ X P ( Ai ) ≤ P (Ai ). i=1 i=1 1.2. Wskazówki 11 1.2. Wskazówki 1.1. Patrz definicja σ-algebry (s. 7). 1.2. Patrz definicja σ-algebry (s. 7). 1.3. Patrz definicja σ-algebry i rodziny zbiorów borelowskich w R (s. 7). 1.4. Patrz definicja σ-algebry generowanej przez zadana, rodzine, podzbiorów (s. 7). 1.5. Skorzystać z zad. 1.4. Zauważyć, że dowolny zbiór otwarty U można przedstawić [ U = {(a, b) : a, b ∈ Q, (a, b) ⊂ U }. (4) 1.6. Skorzystać z zad. 1.3 i 1.4. Zauważyć, że dla dowolnych a, b ∈ R takich, że a < b (a, b) = ∞ [ n=1 [a + 1 1 , b − ]. n n (5) 1.7. Skorzystać z odpowiednich działań na zbiorach: sumy, iloczynu, dopełnienia zbioru. 1.8. Skorzystać z własności prawdopodobieństwa d), a) (s. 7, 8). 1.9. A ∪ B = (A \ B) ∪ B. 1.10. Skorzystać z własności d) prawdopodobieństwa i zauważyć, że A = (A ∩ B) ∪ (A ∩ B 0 ), A0 = A0 ∩ B ∪ (A ∪ B)0 . 1.11. Zapisać zdarzenia A ∪ B oraz A jako sumy stosownych zdarzeń, porównać zad. 1.9, 1.10. 1.12. W celu uzyskania górnego oszacowania skorzystać ze skończonej subaddytywności prawdopodobieństwa (porównać zad. 1.15). Aby otrzymać oszacowanie dolne, szacować prawdopodobieństwo P (B ∪ C). 12 Definicja i własności prawdopodobieństwa 1.13. Jeśli A ∩ B = ∅, to B ⊂ A0 i A ⊂ B 0 . S 1.14. W przypadku (2), przedstawić ∞ n=1 An jako sume, zdarzeń rozłacznych. Przypadek (3) sprowadzić do przypadku (2). Mia, nowicie, rozważyć rodzine, dopełnień danych zdarzeń i zauważyć, że jest rodzina, wstepuj ac , a. , , 1.15. Udowodnić najpierw skończona, subaddytywność, tzn. P( n [ Ai ) ≤ i=1 n X P (Ai ). i=1 Nastepnie przejść do granicy, , o ciagłości prawdopodobieństwa. , korzystajac z twierdzenia , 1.3. Odpowiedzi i rozwiazania , 1.1. F3 . 1.2. F3 . 1.3. Przedział (a, b) jest zbiorem otwartym, wiec , jest borelowski. [a, +∞) = (−∞, a)0 i dopełnienie zbioru borelowskiego jest zbio0 rem borelowskim. Podobnie [a, b] = ((−∞, a) S ∪ (b, +∞))1 oraz 0 {a} = ((−∞, a) ∪ (a, +∞)) . Z kolei (a, b] = n∈N (a, b + n ) jest borelowski jako przeliczalna suma zbiorów borelowskich. Jeśli A jest zbiorem przeliczalnym, to S elementy A można ustawić w ciag, A = {a , a , . . .}, czyli A = 1 2 n∈N {an } jest zbiorem bo, relowskim. Stad w szczególności N jest borelowski. Podobnie , 0 Q jest borelowski, zatem Q czyli zbiór liczb niewymiernych jest też borelowski. 1.4. Skoro A ⊂ D i oczywiście D ⊂ σ(D), to A ⊂ σ(D). Ale σ(A) jest najmniejsza, σ-algebra, zawierajac , a, rodzinę A, zatem σ(A) ⊂ σ(D). 1.3. Odpowiedzi i rozwiazania , 13 1.5. Rodzina A ⊂ top R, zatem zgodnie z zad. 1.4, σ(A) ⊂ B(R). Aby wykazać inkluzje, przeciwną zauważmy, że zgodnie z przedstawieniem (4), top R ⊂ σ(A), wiec , z definicji B(R), B(R) ⊂ σ(A). 1.6. W zad. 1.3 uzasadnialiśmy, że każdy przedział domkniety jest , borelowski, stad , w oparciu o zad. 1.4, σ(D) ⊂ B(R). Z kolei, zgodnie z przedstawieniem (5), A ⊂ D, czyli σ(A) ⊂ σ(D) i w konsekwencji B(R) ⊂ σ(D). 1.7. a) A ∩ B 0 ∩ C 0 ; b) A ∩ B 0 ∩ C 0 ∪ A0 ∩ B ∩ C 0 ∪ A0 ∩ B 0 ∩ C; c) D = A ∩ B ∩ C 0 ∪ A ∩ B 0 ∩ C ∪ A0 ∩ B ∩ C; d) D ∪ A ∩ B ∩ C; e) A0 ∩ B 0 ∩ C 0 . 1.8. 1 ≥ P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Stad , P (A ∩ B) ≥ 0, 5 > 0, 3. 1.9. P (B) = 0, 5 ≤ 0, 6. 1.10. P (B 0 ) = 34 , P (A ∩ B 0 ) = 5 12 , P (B \ A) = 0. 1.11. P (B \ A) = 18 , P (A) = 38 . 1 1.12. 1 = P (A ∪ B ∪ C) ≤ P (A) + P (B) + P (C), stad , 6 ≤ P (A). Z drugiej strony 1 ≥ P (B ∪ C) ≥ 4P (A), czyli P (A) ≤ 41 . 1.13. P (A ∪ B 0 ), P (A0 ∪ B), P (A ∪ B). 1.14. Zakładamy, że (An )n∈N jest wstepuj ac , a, rodzina, zdarzeń. Niech , B1 = A1 , Bn = An \ An−1 dla n ≥ 2. Zdarzenia Bn parami sie, n ∞ ∞ [ [ [ wykluczaja, Bk = An oraz Bk = Ak . Zatem , ponadto k=1 P( ∞ [ k=1 Ak ) = P ( ∞ [ Bk ) = k=1 = lim n→∞ n X k=1 k=1 ∞ X k=1 P (Bk ) k=1 P (Bk ) = lim P ( n→∞ n [ k=1 Bk ) = lim P (An ). n→∞ 14 Definicja i własności prawdopodobieństwa Jeśli teraz rodzina (An )n∈N jest zstepuj aca, to zdarzenia , , (A0n )n∈N tworza, rodzine, wstepuj ac a. St ad , , , , P( ∞ \ An ) = 1 − P ( n=1 ∞ [ A0n ) = 1 − lim P (A0n ) = lim P (An ). n→∞ n=1 n→∞ 1.15. Najpierw dowodzimy skończoną subaddytywność, korzystajac , np. z zasady indukcji matematycznej. W przypadku przeliczalS nym, oznaczmy Bn = nk=1 Ak i zauważmy, że rodzina (Bn )n∈N jest wstepuj aca. Nastepnie, korzystajac , , z twierdzenia o ciagłości , , , i przypadku skończonego, mamy P( ∞ [ Ak ) = P ( k=1 ∞ [ Bk ) = lim P (Bn ) = lim P ( k=1 ≤ lim n→∞ n X k=1 n→∞ P (Ak ) = n→∞ ∞ X k=1 P (Ak ). n [ k=1 Ak ) 2. Prawdopodobieństwo klasyczne 2.1. Teoria i zadania Niech Ω bedzie zbiorem skończonym, Ω = {ω1 , . . . , ωn }, a Σ , rodzina, wszystkich podzbiorów zbioru Ω. Dany jest ciag liczb , Pn p1 , . . . , pn > 0 takich, że i=1 pi = 1. Połóżmy P ({ωi }) = pi . Wtedy prawdopodobieństwo dowolnego zdarzenia A ⊂ Ω możemy zdefiniować X P (A) = pi , gdzie I = {i : ωi ∈ A}. i∈I Jeśli dodatkowo przyjmiemy, że zdarzenia elementarne sa, jednakowo prawdopodobne, tzn. P ({ω1 }) = . . . = P ({ωn }), to oczywiście pi = n1 dla i = 1, . . . n. Wtedy P (A) = #A #A = . n #Ω (6) Prawdopodobieństwo zdarzenia A określone wzorem (6) nazywamy prawdopodobieństwem klasycznym. Schemat rozwiazania typowego zadania jest nastepuj acy: usta, , , lamy przestrzeń zdarzeń elementarnych Ω, a nastepnie określamy , interesujace nas zdarzenie A ⊂ Ω. W ustaleniu tych zbiorów , najcześciej pomaga próba formalnego opisu wyniku doświadczenia , losowego, z którym mamy do czynienia. W końcu, stosujemy wzór (6), do obliczenia prawdopodobieństwa. W prostszych przypadkach można po prostu wypisać elementy przestrzeni Ω i zdarzenia A, i je policzyć. W ogólnej sytuacji przydatne sa, pewne wzory kombinatoryczne. Niech dany bedzie zbiór n-elementowy A. , Permutacja, zbioru A nazywamy dowolna, bijekcje, f : A → A. Łatwo zauważyć, że jeśli przez Pn oznaczymy liczbe, permutacji zbioru n-elementowego, to Pn = n! . (7) 16 Prawdopodobieństwo klasyczne Dowolna, funkcje, f : {1, 2, . . . , k} → A nazywamy k-elementowa, wariacja, z powtórzeniami. Jeśli liczbe, k-elementowych wariacji z powtórzeniami oznaczymy Wnk , to Wnk = nk . (8) Dowolna, injekcje, f : {1, 2, . . . , k} → A nazywamy k-elementowa, wariacja, bez powtórzeń (k = 1, . . . , n). Jeśli liczbe, k-elementowych wariacji bez powtórzeń oznaczymy Vnk , to Vnk = n! . (n − k)! (9) Dowolny k-elementowy podzbiór zbioru A (k = 0, 1, . . . n) nazywamy k-elementowa, kombinacja. , Jeśli liczbe, k-elementowych kombinacji oznaczymy Cnk , to n n! k Cn = = . (10) k k!(n − k)! W pewnych przypadkach wygodniej jest liczyć moc zdarzenia przeciwnego i korzystać z własności c) prawdopodobieństwa (s. 8). W przypadku, gdy zdarzenie, którego prawdopodobieństwo obliczamy, jest sumą zdarzeń, stosujemy wzór włącz-wyłącz (wzór (1), s. 8). Zad. 2.1. Jakie jest prawdopodobieństwo, że układajac , losowo litery M, A, T, E, M, A, T, Y, K, A utworzy sie, słowo MATEMATYKA? Zad. 2.2. Liczby 1, 2, . . . , n ustawiamy losowo w ciąg. prawdopodobieństwo, że liczby: Obliczyć a) 1 i 2 nie sasiaduj a, ze soba; , , b) 1, 2 i 3 nie tworza, trzech kolejnych wyrazów (niezależnie od porzadku); , c) 1, 2 i 3 bed , a, ustawione jedna obok drugiej w kolejności wzrastania. 2.1. Teoria i zadania Zad. 2.3. Na ile sposobów można posadzić n osób dookoła okragłego , stołu? Dwa rozmieszczenia, w których każdy ma tych samych sasiadów uważamy za jednakowe. , Zad. 2.4. Dwanaście osób, w tym Ania i Basia, siada losowo przy okragłym stole. Jaka jest szansa, że Ania i Basia usiad , , a, obok siebie? Zad. 2.5. Winda z 7 pasażerami zatrzymuje sie, na 10 pietrach. Obli, czyć prawdopodobieństwo, że żadnych dwóch pasażerów nie wysiadzie , na tym samym pietrze. , Zad. 2.6. Jakie jest prawdopodobieństwo, że w grupie 30-osobowej znajda, sie, osoby, które obchodza, urodziny tego samego dnia? Obliczyć to samo dla grupy 24- i 40-osobowej. Zad. 2.7. Spośród 100 losów dwa wygrywaja. , Kupiono jednocześnie pieć , losów. Obliczyć prawdopodobieństwo, że wśród nich znajduje sie: , a) jeden los wygrywajacy; , b) dwa losy wygrywajace; , c) co najmniej jeden los wygrywajacy. , Zad. 2.8. Rzucamy dwiema symetrycznymi kostkami do gry. Niech A oznacza zdarzenie, że suma wyrzuconych oczek jest liczba, parzysta, , B – zdarzenie, że jedynka wypadnie na co najmniej jednej kostce. Obliczyć P (A ∪ B), P (A ∩ B). Zad.2.9. Z talii 52 kart wylosowano kolejno 13 kart, za każdym razem zwracajac , karte, do talii. Jakie jest prawdopodobieństwo, że dwie z wylosowanych kart bed , a, czerwone? Zad. 2.10. Rzucamy czterema kostkami do gry. Jakie jest prawdopodobieństwo, że na wszystkich wypadnie ta sama liczba oczek? Zad. 2.11. Obliczyć prawdopodobieństwo, że z liczb naturalnych mniejszych od 107 wylosujemy: a) liczbe, 13; b) liczbe, 7-cyfrowa, o różnych cyfrach. 17 18 Prawdopodobieństwo klasyczne Zad. 2.12. Spośród liczb: 2, 4, 6, 7, 8, 11, 12 i 13 wybrano dwie i utworzono ułamek. Obliczyć prawdopodobieństwo, że ułamek da sie, skrócić. Zad. 2.13. Ze zbioru {a, b, c, d, e} wybrano pewien podzbiór. Jakie jest prawdopodobieństwo, że wybrany podzbiór ma dokładnie k elementów? n X n = 2n . Zad. 2.14. Wykazać, że k k=0 Zad. 2.15. Wykazać, że dla n > 1 n X k−1 (−1) k=1 n k = 0, k n X n k = n · 2n−1 . k k=1 Zad. 2.16. Wykazać wzór Van der Monde’a: k X m n m+n = i k−i k (11) i=0 dla m, n, k ∈ N takich, że k ≤ min{m, n}. Zad. 2.17. Ustawiono w losowej kolejności n osób, jedna za druga, , a w tej liczbie osoby A i B. a) Obliczyć prawdopodobieństwo, że pomiedzy osobami A i B bedzie , , stać dokładnie r osób. b) Pokazać, że jeżeli n osób posadzono przy okrągłym stole, to prawdopodobieństwo, że pomiedzy osobami A i B usiądzie dokładnie , r osób nie zależy od r. Zad. 2.18. Obliczyć prawdopodobieństwo, że spośród n osób siadajacych: , a) na ławce; b) przy okragłym stole, , k określonych osób usiadzie jedna obok drugiej w dowolnym porzadku. , , 2.1. Teoria i zadania Zad. 2.19. Na ile sposobów można podzielić n-elementowy zbiór na k podzbiorów zawierajacych odpowiednio r1 , . . . , rk elementów, gdzie , r1 + . . . + rk = n? Zad. 2.20. Na ile sposobów można rozdać n paczków k osobom? , Zad. 2.21. n rozróżnialnych kul umieszczono n komórkach. Jaka jest szansa, że dokładnie jedna komórka zostanie pusta? Zad. 2.22. Na ile sposobów można wylosować k kul z urny, w której znajduje sie, m kul, gdy losujemy: a) ze zwracaniem i z uwzglednianiem kolejności; , b) ze zwracaniem i bez uwzgledniania kolejności; , c) bez zwracania i bez uwzgledniania kolejności; , d) bez zwracania i z uwzglednianiem kolejności? , Zad. 2.23. Do pociagu złożonego z 10 wagonów wsiada 15 pasażerów, , którzy wybieraja, wagony losowo. Obliczyć prawdopodobieństwo, że do każdego wagonu wsiadzie przynajmniej jeden pasażer. , Zad. 2.24. Do zdjecia pozuja, cztery pary małżeńskie, ustawiajac , sie, , w rzedzie. Obliczyć prawdopodobieństwo, że żadna żona nie stoi obok , swojego meża. , Zad.2.25. Obliczyć prawdopodobieństwo, że w piecioosobowej grupie , wybranej z pieciu par małżeńskich, nie ma żadnego małżeństwa. , Zad. 2.26. Grupę składającą się z pięciu pań i dziesięciu panów podzielono na trzyosobowe zespoły. Jaka jest szansa, że w każdym zespole znajdzie się pani? Zad. 2.27. Przy okragłym stole stoi 6 krzeseł, na których siada 2 , Anglików, 2 Francuzów i 2 Turków. Obliczyć prawdopodobieństwo, że osoby tej samej narodowści nie siedza, obok siebie. Zad. 2.28. Na półce stoi 12 ksiażek. Obliczyć prawdopodobień, stwo, że wybierajac 5 ksi ażek z półki, nie zabierzemy żadnych dwóch , , stojacych wcześniej obok siebie. , 19 20 Prawdopodobieństwo klasyczne Zad. 2.29. Przy okragłym stole siedzi 12 Rycerzy. W czasie obrad , każdych dwóch siedzacych obok siebie pokłóciło sie. , , Król Artur musi posłać w misje, 5 Rycerzy. Jakie jest prawdopodobieństwo, że wśród wysłanych bed , a, jacyś Rycerze, którzy wcześniej sie, pokłócili? Zad. 2.30. Przez pustynie, idzie karawana złożona z pieciu , wielbładów. Jaka jest szansa, że zmieniajac , , kolejność wielbładów , w karawanie, przed żadnym wielbładem nie bedzie szedł ten co po, , przednio? Zad. 2.31. Na imprezie mikołajkowej, podczas której każdy z 20 uczestników ma dostać prezent, wszystkie prezenty pozbawiono karteczek z imieniem adresata, losowo wymieszano i rozdano uczestnikom. Obliczyć prawdopodobieństwo, że dokładnie 8 osób dostanie własny prezent. Zad. 2.32. Na ile sposobów można pokolorować wszystkie boki kwadratu majac różnych kolorach? , farby w pieciu , Uwaga: dwa pokolorowania kwadratu uważamy za identyczne, jeżeli da sie, je nałożyć na siebie za pomoca, obrotu płaszczyzny, w której leży kwadrat. Zad. 2.33. Przy kwadratowym stole posadzono cztery pary małżeńskie w ten sposób, że przy każdym boku stołu siedza, dwie osoby. Obliczyć prawdopodobieństwo, że kobiety i meżczyźni siedza, na prze, mian, przy czym żadna para nie siedzi ani obok siebie (na tym samym boku lub na sasiednim), ani dokładnie naprzeciw siebie. , Zad. 2.34. Dziewieć , kul (trzy białe, trzy czerwone i trzy czarne) ustawiamy losowo w ciag. Obliczyć prawdopodobieństwo, że żadne , dwie kule tego samego koloru nie bed , a, stały obok siebie. Uwaga: kule tego samego koloru traktujemy jako nierozróżnialne. 2.2. Wskazówki 2.1. Doświadczenie losowe polega na przestawianiu liter: A, A, A, E, K, M, M, T, T, Y. Każde przestawienie, to ciag , 10-elementowy, czyli permutacja zbioru 10-elementowego. 2.2. Wskazówki 2.2. W przypadku a) i b) wygodnie posłużyć sie, zdarzeniem przeciwnym. Jeśli pewne elementy maja, sasiadować, to można je , traktować jako jednen obiekt. 2.3. Zbadać liczbe, rozwiazań dla n = 2 i n = 3. , 2.4. Porównać zad. 2.2 i 2.3. 2.5. Jak zapisać wynik doświadczenia losowego, z którym mamy tu do czynienia? 2.6. Zauważyć, że mamy ten sam schemat rozwiazania, co w zad. 2.5. , Tym razem jednak trudność polega na znalezieniu wartości liczbowej prawdopodobieństwa. Wynik można oszacować korzy−x ≈ 1 − x. stajac , z przybliżenia e 2.7. Zauważmy, że kolejność w rozważanym doświadczeniu losowym nie jest istotna, a wiec , wybieramy podzbiory 5-elementowe ze zbioru stuelementowego. 2.8. Wynikiem doświadczenia losowego jest tu ciąg dwuelementowy: (wynik na pierwszej kostce, wynik na drugiej kostce). Można wypisać zdarzenia A i B oraz A ∪ B i A ∩ B. 2.9. Zbiór Ω to zbiór ciągów 13-elementowych ze zbioru 52 elementów, przy czym elementy ciągów mogą się powtarzać. Zdarzenie sprzyjające, to każdy ciąg, który zawiera dwie spośród 26 czerwonych kart. 2.10. Porównać zad. 2.8. 2.11. Ile jest liczb naturalnych mniejszych od 107 ? 2.12. Można wypisać zbiór Ω i zdarzenia sprzyjające. 2.13. Ile jest wszystkich podzbiorów zbioru n-elementowego? W zadaniu n = 5. 2.14. Można przeprowadzić dowód kombinatoryczny, tzn. nadać kombinatoryczny sens lewej i prawej stronie równości. Można 21 22 Prawdopodobieństwo klasyczne też skorzystać ze wzoru dwumianowego Newtona n X n k n−k n (a + b) = a b dla a, b ∈ R. k (12) k=0 2.15. Zauważyć, że k nk = n · n−1 k−1 dla k = 1, . . . , n i skorzystać ze wzoru Newtona (12) dla b = 1 i stosownie dobranego a. Można też obliczyć pochodną funkcji x 7→ (1 + x)n . 2.16. Wzór można wykazać kombinatorycznie. Można też porównać współczynniki przy xk w rozwinięciu obu stron równości (1 + x)m+n = (1 + x)m (1 + x)n . 2.17. Porównać zad. 2.2, 2.3. 2.18. Porównać zad. 2.17. 2.19. Aby dokonać takiego podziału, można wybierać kolejno podzbiory r1 , . . . , rk -elementowe. 2.20. Należy przyjąć, że pączki są nierozróżnialne. W takim razie itej osobie możemy przyporządkować liczbę ri pączków, które ta osoba dostanie, gdzie ri = 0, . . . , n, co oznacza, że każda osoba może dostać od zera do n pączków. Zadanie polega więc na obliczeniu, ile jest ciągów (r1 , . . . , rk ), spełniających warunek r1 + . . . + rk = n. Ten sam problem można sformułować: na ile sposobów można rozmieścić n nierozróżnialnych kul w k komórkach. 2.21. Skoro kule są rozróżnialne, to każdej kuli możemy przyporządkować numer komórki, do której trafi. Jeśli dokładnie jedna komórka zostanie pusta, to w innej muszą znaleźć się dwie kule. 2.22. a) Wynikiem doświadczenia jest ciąg k-elementowy, wybrany ze zbioru m-elementowego, przy czym elementy ciągu mogą się powtarzać, porównać zad. 2.5. b) Porównać zad. 2.20. c) Porównać zad. 2.7. 2.2. Wskazówki d) Wynikiem doświadczenia jest ciąg k-elementowy, wybrany ze zbioru m-elementowego, przy czym każdy element może pojawić się w ciągu tylko raz, porównać zad. 2.5. 2.23. Rozważyć zdarzenie przeciwne, które jest sumą zdarzeń Ai , że do i-tego wagonu, i = 1, . . . , 10, nie wsiądzie żaden pasażer. Zastosować wzór włącz-wyłącz (1). 2.24. Porównać zad. 2.23. 2.25. Wybieramy 5 osób spośród 10, przy czym kolejność nie ma znaczenia. Aby wśród wybranych osób nie było ani jednego małżeństwa, z każdej pary możemy wybrać męża lub żonę, tworzymy więc ciągi 5-elementowe ze zbioru 2-elementowego. 2.26. Porównać zad. 2.19. 2.27. Porównać zad. 2.24, uwzględnić fakt, że osoby sadzamy przy okrągłym stole, patrz zad. 2.3. 2.28. Można obliczyć prawdopodobieństwo zdarzenia przeciwnego korzystając ze wzoru włącz-wyłącz. Można też liczyć wprost, przeprowadzając doświadczenie „odwrotne”, zamiast zabierać książki z półki, wkładać je w 8 miejsc pomiędzy 7 książkami. 2.29. Porównać zad. 2.28, pamietając, że Rycerze siedzą przy okrągłym stole. Ustalić jednego z Rycerzy, a następnie rozpatrzyć dwa przypadki, w zależności od tego, czy ustalony Rycerz został posłany w misję czy nie. 2.30. Obliczyć prawdopodobieństwo zdarzenia przeciwnego ze wzoru (1). Porównać zad. 2.23. 2.31. Najpierw wybieramy 8 osób, które dostaną swoje prezenty, a następnie pozostałym 12 osobom trzeba rozdać prezenty tak, aby żadna z nich nie dostała swojego prezentu. 2.32. Rozważyć przypadki kiedy używamy: • jednego koloru, wtedy wszystkie boki są tego samego koloru; 23 24 Prawdopodobieństwo klasyczne • czterech kolorów, wtedy każdy bok jest innego koloru; • dwóch kolorów, wtedy mamy po dwa boki tego samego koloru, lub trzy boki tego samego koloru i jeden inny; • trzech kolorów, wtedy jeden kolor musi się powtarzać. 2.33. Czym rozważana sytuacja różni się od tej, gdy osoby sadzalibyśmy przy okrągłym stole? Zauważyć, że jeśli kobiety i mężczyźni siedzą na przemian, przy czym żadna para nie siedzi ani obok siebie ani dokładnie naprzeciw siebie, to rozmieszczenie kobiet determinuje rozmieszczenie mężczyzn. 2.34. Ustawiać kolejno kule poszczególnych kolorów. Porównać zad. 2.28. 2.3. Odpowiedzi i rozwiazania , 2.1. Ω to zbiór permutacji 10-elementowych, wiec , #Ω = 10!. Aby ułożyć żadany wyraz każda litera musi trafić na swoje miejsce, , z tym, że litery M możemy przestawiać na dwóch miejscach (na 2! sposobów), A na trzech (3!), T na dwóch (2!). Stad , P (M AT EM AT Y KA) = 2! · 3! · 2! 1 = ≈ 6, 61 · 10−6 . 10! 151200 2.2. Ω jest zbiorem permutacji n-elementowych. Niech A bedzie zdarzeniem polegającym na tym, że 1 i 2 nie , 0 sasiaduj a ze sob a. , , , Wtedy A oznacza, że 1 i 2 występują obok siebie. Ponieważ ich kolejność jest dowolna, moga, wystapić jako: , 1,2 lub 2,1 (2! sposobów). Mamy wiec do ustawienia n −2 , pozostałe liczby i obiekt złożony z 1 i 2, czyli n − 1 elementów. Stad , P (A) = 1 − P (A0 ) = 1 − 2 · (n − 1)! 2 =1− . n! n 2.3. Odpowiedzi i rozwiazania , 25 Można też rozumować nastepuj aco: odkładamy 1 i 2 na bok , , i ustawiamy na 2! sposobów, zaś pozostałe elementy na (n − 2)! sposobów. Teraz dokładamy układ złożony z 1 i 2, mamy dla niego n−1 miejsc. Zatem #A0 = 2!·(n − 2)!·(n−1). Oczywiście otrzymujemy ten sam wynik co poprzednio. Jeśli B oznacza, że 1,2,3 nie sasiaduj a, , , niezależnie od porzadku, , to analogicznie jak w punkcie a), otrzymujemy P (B) = 1 − P (B 0 ) = 1 − 6 . n(n − 1) W przypadku c) P (C) = 1 . n(n − 1) Zauważmy, że w punkcie a) n ≥ 2, zaś w b) i c) n ≥ 3. 2.3. Odpowiedź: (n − 1)!. Można to uzasadnić indukcyjnie. Dla n = 1 wzór jest oczywisty. Jeśli założymy, że zachodzi dla pewnego n, to ustawiajac , n+1 osób, możemy ustawić najpierw n osób, z założenia indukcyjnego na (n − 1)! sposobów, a nastepnie zauważyć, że dla (n + 1), szej osoby mamy n miejsc. Stad rozwi azanie (n − 1)! · n = n!. , , Można też ustawić n osób w ciag, na n! sposobów, tak jakby , miejsca przy stole były numerowane, a nastepnie zrezygnować , z numeracji miejsc. Wtedy n! = (n − 1)!. n 2.4. P (A) = 2! · 10! 2 = . 11! 11 2.5. Każdej osobie możemy przyporzadkować numer pietra, na któ, , rym wysiadła. Zatem Ω to zbiór ciagów 7-elementowych ze , zbioru 10-elementowego, przy czym elementy ciagu mog a si e, , , 7 7 powtarzać, czyli #Ω = W10 = 10 . Jeśli zdarzenie A polega na tym, że żadnych dwóch pasażerów nie wysiadzie na tym sa, mym pietrze, tzn. A składa sie, z tych ciagów ze zbioru Ω, które , , 7 = 10! = 4 · 5 . . . 10. posiadaja, różne wyrazy, czyli #A = V10 3! Zatem 189 P (A) = ≈ 0, 06. 3125 26 Prawdopodobieństwo klasyczne 2.6. Załóżmy dla uproszczenia, że każdy rok ma 365 dni, dni w roku numerujemy od 1 do 365. Każdej osobie przyprządkowujemy numer dnia urodzin. Zatem, tak jak w zadaniu poprzednim, #Ω = 36530 , #A0 = 365! 335! , gdzie A jest zdarzeniem, że grupie znajdą się osoby, które obchodzą urodziny tego samego dnia, czyli 365 · . . . · 336 1 29 0 P (A ) = = 1− · ... · 1 − . 36530 365 365 Prawdopodobieństwo to oszacujemy, korzystając z przybliżenia 1 − x ≈ e−x , 1 29 P (A0 ) ≈ e− 365 · . . . · e− 365 = e− 1+2+...+29 365 435 = e− 365 ≈ e−1,192 ≈ 0, 304. Zatem P (A) ≈ 0, 696. Podobnie obliczamy, że w przypadku grupy 24-osobowej, szukane prawdopodobieństwo wynosi 0, 538, zaś przy 40 osobach wzrasta do 0, 893. 2.7. Ω to zbiór kombinacji 5-elementowych ze zbioru 100-elementowego. W przypadku a) losujemy jeden los wygrywajacy, tzn. , jeden spośród 2 i cztery przegrywajace, tzn. cztery spośród 98. , Zatem C 1C 4 95 P (A) = 2 5 98 = ≈ 0, 096. 990 C100 Jeśli B oznacza zdarzenie, że trafiono na dwa losy wygrywajace, , a C co najmiej jeden los wygrywajacy, to , P (B) = 1 ≈ 0, 002, 495 P (C) = 1 − P (C 0 ) = 1 − 5 C98 ≈ 0, 098, 5 C100 przy czym zdarzenie przeciwne C 0 oznacza, że żaden z wylosowanych losów nie jest wygrywajacy. , 2.8. #Ω = 62 = 36, P (A ∪ B) = 32 , P (A ∩ B) = 13 13 26 2.9. ≈ 0, 005. 2 5213 5 36 . 2.3. Odpowiedzi i rozwiazania , 2.10. 27 1 6 = 3. 4 6 6 2.11. Niech A oznacza zdarzenie, że wylosowano liczbę 13, B - wylosowano liczbę 7-cyfrową o różnych cyfrach. Wtedy P (A) = 1 ≈ 10−7 , 107 − 1 P (B) = 9·9·8·7·6·5·4 ≈ 0, 054. 107 − 1 5 14 ≈ 0, 357. 1 5 2.13. 5 dla k = 0, 1, . . . , 5. 2 k 2.12. 2.14. I sposób. Rozważmy zbiór n-elementowy. Liczba podzbio n rów k-elementowych, dla k = 0, 1, . . . , n, jest równa . Zak Pn n tem k=0 k oznacza liczbę wszystkich podzbiorów zbioru nelementowego, ale takich podzbiorów jest 2n , stąd dowodzona równość jest prawdziwa. II sposób. Przyjmując we wzorze dwumianowym Newtona (12) a = b = 1, otrzymujemy bezpośrednio dowodzony wzór. Oczywiście można też przeprowadzić dowód indukcyjny. 2.15. I sposób. Zauważmy, że dla k = 1, . . . , n zachodzi n n−1 k =n· . k k−1 Stąd n X k−1 (−1) k=1 n X n n−1 k−1 k· = (−1) n · k k−1 k=1 n−1 X n−1 = n (−1)l l l=0 i korzystając ze wzoru (12) n n−1 X l=0 l (−1) n−1 l = n(1 − 1)n−1 = 0. 28 Prawdopodobieństwo klasyczne Podobnie X n n n−1 X X n − 1 n n−1 k· = n· =n = n2n−1 . k k−1 l k=1 k=1 l=0 II sposób. Równość n X n k=0 k xk = (1 + x)n , która zachodzi dla każdego x ∈ R, różniczkujemy stronami względem zmiennej x, i otrzymujemy n X n kxk−1 = n(1 + x)n−1 . k k=1 Przyjmując x = −1, otrzymujemy pierwszy wzór, zaś wstawiając x = 1, drugi. 2.16. I sposób. Rozważmy (n + m)-elementowy zbiór A, przy czym A = B ∪ C i #B = m, #C = n. Losujemy k elementów m+n zbioru A. Można to zrobić na sposobów. Z drugiej k strony, jeśli k ≤ min{m, n}, to losowanie można zrealizować następująco: losujemy i elementów ze zbioru B oraz k − i ze zbioru C, dla każdego i = 0, 1, . . . , k. Takich możliwości jest k X m n więc , czyli prawdziwy jest wzór (11). i k−i i=0 II sposób. Obie strony równości (1 + x)m+n = (1 + x)m (1 + x)n rozwijamy ze wzoru Newtona (12) i porównujemy współczynniki przy xk dla k ≤ min{m, n}. Stąd m+n k = X i=0,...,m j=0,...,n i+j=k X k m n m n = . i j i k−i i=0 2.17. a) #Ω = n!. Niech W oznacza zdarzenie, że pomiędzy A i B będzie stać dokładnie r osób. Liczbę elementów zbioru W możemy obliczyć następująco: osoby A i B ustawiamy w kolejności 2.3. Odpowiedzi i rozwiazania , 29 AB lub BA (dwie możliwości), następnie spośród n − 2 osób wybieramy r i ustawiamy w dowolnej kolejności, n−2 r r! możliwości. Każdy taki układ, złożony z r+2 osób, ustawiamy łącznie z pozostałymi n − r − 2 osobami, permutacja ((n − r − 2) + 1)! elementów. Stąd n−2 #W = 2 r!(n − r − 1)!. r Moc zbioru W można też policzyć w inny sposób. Mianowicie, ustawiamy osobę A na pierwszym miejscu, zostawiamy r wolnych miejsc i ustawiamy osobę B. Ten układ możemy przesuwać w prawo, przy czym A może zająć najdalej (n − r − 1)-sze miejsce. Zmieniając kolejność na BA, mamy 2(n − r − 1) możliwości. W końcu ustawiamy pozostałe n − 2 osoby na wolnych miejscach. W ten sposób otrzymujemy #W = 2(n − r − 1)(n − 2)!, ten sam wynik co poprzednio. Ostatecznie P (W ) = 2(n − r − 1) . n(n − 1) b) #Ω = (n − 1)!. Niech V oznacza zdarzenie, że pomiędzy A i B przy okrągłym stole usiądzie dokładnie r osób. Podobnie jak poprzednio n−2 2 . #V = 2 r!(n−r−1−1)! = 2(n−2)!, P (V ) = r n(n − 1) 2.18. P (A) = k!(n − k)! k!(n − k + 1)! , P (B) = . n! (n − 1)! 2.19. I sposób. Wybieramy najpierw r1 spośród n elementów, można n to zrobić na r1 sposobów. Następnie r2 spośród pozostałych n − r1 elementów, itd. Łącznie n n − r1 n − r1 − . . . − rk−1 n! · · ... · = . r2 rk r1 r1 ! · . . . · rk ! 30 Prawdopodobieństwo klasyczne II sposób. Zadanie można też sformułować następująco. Ile ciągów można utworzyć z elementów zbioru A = {a1 , . . . , ak }, jeśli element ai powtarza się ri razy, przy czym r1 +. . .+rk = n? Liczbę takich ciągów możemy obliczyć, jako liczbę permutacji zbioru A∗ = {a11 , . . . , a1r1 , . . . , ak1 , . . . , akrk }, czyli n!. Ale ponieważ elementy i-tej grupy ai1 , . . . , airi uważamy za nierozróżnialne, liczbę tę należy podzielić, przez liczbę permutacji każdej grupy ri !, i = 1, . . . , k. Otrzymujemy n! . r1 ! · . . . · rk ! Otrzymaliśmy wzór na permutacje z powtórzeniami. 2.20. I sposób. Zamiast rozdawać n pączków k osobom, wygodniej będzie rozmieścić n kul w k komórkach, przy czym zakładamy, że kule, podobnie jak pączki są nierozróżnialne. Każde możliwe rozmieszczenie możemy schematycznie przedstawić, jako układ kółek i kresek, gdzie kółka reprezentują kule, zaś kreski, przegródki między komórkami. Na przykład, umieszczając 6 kul w 5 komórkach, możliwe są następujące rozkłady: | ◦ ◦ ◦ | | ◦ ◦| | ◦ | |◦|◦|◦|◦|◦◦◦| W pierwszym przypadku umieściliśmy 3 kule w pierwszej komórce, dwie w trzeciej, jedną w piątej, zaś druga i czwarta komórka zostały puste. Natomiast w przypadku drugim mamy po jednej kuli w każdej komórce, z wyjątkiem piątej, w której są trzy kule. Zauważmy w takim razie, że każde możliwe rozmieszczenie możemy uzyskać jako permutację n + k − 1 obiektów, tj. n kółek i k + 1 − 2 kresek (od liczby kresek odejmujemy 2, ponieważ nie przestawiamy kresek zewnętrznych, byłoby to niezgodne z interpretacją). Oczywiście w ten sposób otrzymaliśmy za dużo rozwiązań, niepotrzebnie uwzględniliśmy kolejność kółek i kresek. Zatem liczba możliwych ustawień wyraża się wzorem (n + k − 1)! n+k−1 n+k−1 = = . n!(k − 1)! n k−1 2.3. Odpowiedzi i rozwiazania , 31 Otrzymaliśmy wzór na kombinacje z powtórzeniemi. II sposób. Zadanie polega na wylosowaniu n osób, którym damy pączki, spośród k osób, przy czym niektóre osoby mogą być wylosowane wielokrotnie, niektóre mogą nie zostać wylosowane wcale. Niech A = {a1 , . . . , ak } oznacza zbiór osób. Do tego zbioru dodajmy n − 1 elementów: ak+1 , . . . , ak+n−1 , tych, które ewentualnie mogą się powtarzać. Zatem losujemy n elemetów ze zbioru A∗ = {a1 , . . . , ak+n−1 }, można to zrobić na n+k−1 n sposobów. To rozwiązanie tłumaczy nazwę - kombinacje z powtórzeniemi. 2.21. Jeśli n rozróżnialnych kul rozmieszczamy w n komórkach, to wynikiem doświadczenia losowego jest ciąg n-elementowy, którego wyrazy wybrane ze zbioru n-elemetowego mogą się powtarzać (kuli przyporządkowujemy numer komórki), czyli wariacja z powtórzeniami. Stąd #Ω = nn . Niech A oznacza, że dokładnie jedna komórka zostanie pusta, tym samym w innej komórce znajdą się dwie kule. Takie zdarzenie możemy zrealizować wyn bierając dwie spośród n kul, na 2 sposobów, natępnie wybierając komórkę pustą i komórkę, w której będą dwie kule, na n(n − 1) sposobów, i w końcu układając pozostałe n − 2 kule w pozostałych n − 2 komórkach, (n − 2)! sposobów. Stąd n n #A = n(n − 1)(n − 2)! = n! , 2 2 czyli P (A) = n(n − 1)n! . 2nn Uwaga. W zadaniu tym łatwo popełnić błąd, rozumując następująco. Wybierzmy komórkę, która zostanie pusta, i odłóżmy jedną kulę, można to zrobić na n · n sposobów. Pozostałe n − 1 kul rozłóżmy w n − 1 komórkach na (n − 1)! sposobów. W końcu wybierzmy komórkę, w której znajdą się dwie kule, mamy n − 1 możliwości, i dołóżmy tam wcześniej odłożoną kulę. Zatem #A = n2 (n − 1)!(n − 1). 32 Prawdopodobieństwo klasyczne To rozumowanie nie jest poprawne, bo na przykład, korzystając z niego w przypadku n = 2, mamy #Ω = 22 , #A = 4, czyli P (A) = 1. Tymczasem łatwo zauważyć, oznaczając kule ◦, •, że możliwe są jedynie konfiguracje: | ◦ •| | oraz | | ◦ •| więc powinno być P (A) = 21 . Widać stąd, że błąd jaki popełniliśmy, polega na wyróżnieniu odkładanej na początku kuli. W ten sposób niepotrzebnie uwzględniliśmy kolejność wkładania kul do komórki. Zauważmy, że rozumowanie można poprawić, dzieląc uzyskany wynik przez 2. 2.22. a) mk . Zauważmy, że liczba ta reprezentuje również liczbę sposobów, na które można rozmieścić k rozróżnialnych cząstek w m komórkach. Tak sformułowane zadanie jest ważne z punktu widzenia mechaniki statystycznej, która bada układy k cząstek w przestrzeni fazowej, którą można podzielić na m stanów fazowych. W klasycznej mechanice statystycznej przyjmuje się, że cząstki różnią się między sobą i wszystkie rozmieszczenia są jednakowo prawdopodobne. Taki model zachowania cząstek nazywamy statystyką Maxwella-Boltzmanna, podlegają jej np. molekuły gazu. b) m+k−1 . k Równoważne sformułowanie tego zadania brzmi: na ile sposobów można rozmieścić k nierozróżnialnych cząstek w m komórkach (patrz zad. 2.20). Okazuje się, że przy założeniu, że wszystkie możliwe rozmieszczenia są jednakowo prawdopodobne, taki model dobrze opisuje zachowanie np. fotonów i jąder atomowych. Model ten nazywamy statystyką Bosego-Einsteina. c) m k . Okazuje się, że ten wzór ma również zastosowanie przy opisie zachowania cząstek elementarnych. Mamy tu do czynienia z sytuacją, gdy k nierozróżnialnych cząstek rozmieszczamy w m komórkach, przy czym w każdej komórce może znajdować się co najwyżej jedna cząstka i wszystkie rozkłady spełniające to wymaganie są jednakowo prawdopodobne. W ten sposób zacho- 2.3. Odpowiedzi i rozwiazania , 33 wują się np. elektrony, protony, neutrony. Model ten nazywamy statystyką Fermiego-Diraca. d) m k k!. 2.23. Niech A oznacza zdarzenie, że do każdego wagonu wsiądzie przynajmniej jeden pasażer, zaś Ai , że do i-tego wagonu nie S A wsiądzie żaden pasażer, i = 1, . . . , 10. Wtedy A = Ω \ 10 i=1 i , czyli ! 10 [ P (A) = 1 − P Ai , i=1 przy czym zdarzenia Ai nie wykluczają się wzajemnie. Zatem, aby obliczyć prawdopodobieństwo, zastosujemy wzór włączwyłącz (1). W tym celu zauważmy, że 15 9 P (Ai ) = , dla i = 1, . . . , 10, 10 15 8 , dla 1 ≤ i < j ≤ 10, P (Ai ∩ Aj ) = 10 ... P (A1 ∩ . . . ∩ A10 ) = 0. Stąd 15 P (A) = 1 − 10 · (0, 9) 10 10 15 + · (0, 8) − · (0, 7)3 + . . . 2 3 10 − · (0, 1)15 ≈ 0, 04595. 9 Uwaga. Rozwiązanie typu: najpierw 10 pasażerów wsiada po jednym do każdego wagonu, a potem pięciu dowolnie się dosiada, kryje podobną pułapkę, jak zadanie 2.21. 2.24. Niech A będzie zdarzeniem polegającym na tym, że żadna żona nie stoi obok swojego męża, zaś Ai , że i-ta żona stoi obok swojego męża, i = 1, 2, 3, 4. Wtedy A=Ω\ 4 [ i=1 Ai . 34 Prawdopodobieństwo klasyczne Prawdopodobieństwo zdarzenia włącz-wyłącz (1). Zauważmy, że P (Ai ) = P (Ai ∩ Aj ) = P (Ai ∩ Aj ∩ Ak ) = P (A1 ∩ A2 ∩ A3 ∩ A4 ) = S4 i=1 Ai obliczymy ze wzoru 2 · 7! 1 = dla i = 1, . . . , 4, 8! 4 1 22 · 6! = dla 1 ≤ i < j ≤ 4, 8! 14 23 · 5! 1 = dla 1 ≤ i < j < k ≤ 4, 8! 42 1 24 · 4! = . 8! 105 Ostatecznie P (A) = 1 − P 4 [ ! Ai i=1 4 1 4 1 4 1 37 4 1 − + − = . =1− 2 14 3 42 4 105 105 1 4 2.25. Oczywiście #Ω = 10 5 = 252. Niech A oznacza zdarzenie, że wśród pięciu wybranych osób nie ma żadnego małżeństwa. I sposób. Z każdej pary wybieramy jedną osobę, męża lub żonę. Elementów zbioru A jest więc tyle, ile ciągów 5-elementowych ze zbioru 2-elementowego, #A = 25 = 32. Zatem P (A) = 32 252 = 8 63 . II sposób. Prawdopodobieństwo zdarzenia przeciwnego do A można obliczyć ze wzoru włącz-wyłącz (1). Jeśli przez Ai oznaczymy zdarzenie, że wybrano i-tą parę, to 0 P (A ) = 5 X i=1 = 1 252 P (Ai ) − X P (Ai ∩ Aj ) 1≤i<j≤5 5 8 5 220 · − ·6 = . 1 3 2 252 2.3. Odpowiedzi i rozwiazania , 35 III sposób. Wybieramy jedną osobę z dziesięciu, jego żonę lub jej mężą, wykluczamy z dalszego losowania. Następnie wybieramy jedną osobę z ośmiu, i znowu współmałżonka wykluczamy z dalszego losowania, itd. Z tym, że wybierając w ten sposób, wybrane osoby ustawiliśmy w ciąg, a nie powinniśmy tego robić. Stąd 10 · 8 · 6 · 4 · 2 #A = = 25 . 5! 2.26. #Ω = 2.27. 10! 15! , #A = · 5!, P (A) ≈ 0, 08. 5 (3!) (2!)5 11 . 15 2.28. Niech A będzie zdarzeniem polegającym na wybraniu pięciu książek, z których żadne dwie nie stały wcześniej obok siebie. I sposób. Ponumerujmy książki w kolejności, w jakiej stoją na półce. Jeśli Ak oznacza, że wśród wybranych książek są k-ta i (k + 1)-sza, dla k = 1, . . . , 11, to A0 = A1 ∪ . . . ∪ A11 i P (A0 ) obliczamy ze wzoru włącz-wyłącz. Otrzymujemy w ten 7 sposób P (A) = 99 . II sposób. Elementy zbioru A możemy policzyć przeprowadzając w pewnym sensie doświadczenie „odwrotne”, zamiast wybierać książki z półki, będziemy je tam układać. Mianowicie, zabieramy 5 książek, na półce zostało 7 książek, czyli 8 miejsc pomiędzy nimi, w tym przed pierwszą i za ostatnią książką. W te 8 miejsc wkładamy 5 książek, każdą w inne miejsce, czyli wybieramy 5 miejsc spośród 8. Stąd 8 5 #A = C8 = 5 i, konsekwentnie, 8 5 12 5 P (A) = = 7 . 99 36 Prawdopodobieństwo klasyczne 2.29. 21 . 22 53 . 120 1 1 1 1 1 1 2.31. . − + ... + − + 8! 2! 3! 10! 11! 12! 2.30. 2.32. 165. 2.33. 1 . 820 2.34. 29 . 280 3. Prawdopodobieństwo geometryczne 3.1. Teoria i zadania Rozważmy model przestrzeni probabilistycznej, w którym Ω jest zbiorem nieprzeliczalnym. Niech Ω ⊂ Rn bedzie zbiorem borelowskim, , takim że 0 < m(Ω) < ∞, gdzie m oznacza miare, Lebesgue’a w Rn . Jako σ-algebre, przyjmijmy rodzine, śladów zbiorów borelowskich w Ω, tzn. Σ = {B ∩ Ω : B ∈ B(Rn )}. Funkcje, P : Σ → [0, 1] zadana, wzorem m(A) P (A) = m(Ω) nazywamy prawdopodobieństwem geometrycznym. W tej sytuacji, rozwiazanie zadania sprowadza sie, do wyznaczenia miary (długości, , pola, objetości) stosownego podzbioru Rn . , Zad. 3.1. W kwadrat o boku a wpisano koło. Jaka jest szansa, że wybierajac również , losowo punkt kwadratu, wybierzemy punkt należacy , do koła? Zad. 3.2. Wylosowano dwie liczby z przedziału [0, 1]. Obliczyć prawdopodobieństwo, że ich suma również należy do przedziału [0, 1]. Zad. 3.3. Niech x, y oznaczaja, liczby rzeczywiste losowo wybrane z przedziału [0, 1]. Wyznaczyć funkcje zmiennej a ∈ R: a) f (a) = P (max{x, 31 } < a); b) g(a) = P (min{x, 12 } < a); c) h(a) = P (min{x, y} < a); d) k(a) = P (max{x, y} < a). Zad. 3.4. Na odcinku o długości l wybrano losowo jeden punkt. Jakie jest prawdopodobieństwo, że z otrzymanych dwóch odcinków i odcinka o długości 21 l można zbudować trójkat? , 38 Prawdopodobieństwo geometryczne Zad. 3.5. Na odcinku [0, 1] wybrano losowo punkty A i B. Obliczyć prawdopodobieństwo, że a) środek odcinka AB należy do przedziału [0, 13 ] ; b) z A jest bliżej do zera niż do B. Zad.3.6. Na odcinku [0, 1] wybrano losowo punkty A, B, C. Obliczyć prawdopodobieństwo, że A ≤ B ≤ C. Zad. 3.7. Na odcinku [0, 1] wybrano losowo dwa punkty, które podzieliły go na trzy odcinki. Jakie jest prawdopodobieństwo, że z tych odcinków da sie, zbudować trójkat? , Zad. 3.8. Na odcinku o długości 1 wybrano losowo dwa punkty. Jakie jest prawdopodobieństwo, że odległość miedzy nimi jest nie mniejsza , od x, 0 < x < 1? Zad. 3.9. Na odcinku AB o długości 1 umieszczono losowo punkty L i M . Jaka jest szansa, że z L jest bliżej do M niż do A? Zad. 3.10. Dany jest okrag , o promieniu R. Wybieramy losowo trzy punkty. Jakie jest prawdopodobieństwo, że trójkat , przez nie zadany jest ostrokatny? , Zad. 3.11. Jakie jest prawdopodobieństwo, że suma dwóch liczb losowo wybranych z przedziału [0, 1] jest niewieksza od 1, a ich iloczyn , 2 jest niewiekszy od 9 ? , Zad. 3.12. Narysowano pieć o promieniach , koncentrycznych okregów , odpowiednio kr (k = 1, . . . , 5). Koło o promieniu r i dwa pierścienie o zewnetrznych promieniach 3r i 5r sa, zakreskowane. W kole , o promieniu 5r wybrano losowo punkt. Obliczyć prawdopodobieństwo, że punkt znajdzie sie, w obszarze zakreskowanym. Zad. 3.13. Ala i Ola umówiły sie, miedzy 19.00 a 20.00 na Rynku. , Ustaliły, że Ala, jeśli przyjdzie pierwsza, zaczeka na Ole, 15 minut, ale Ola zadeklarowała, że zaczeka na Ale, tylko 5 minut. Jaka jest szansa, że dojdzie do spotkania? Zad. 3.14. Zakładamy, że na moście znajduja, sie, w jednej chwili dwa samochody. Masa każdego z nich jest wielkościa, losowa, i wynosi od 2 do 5 ton. Obliczyć prawdopodobieństwo, że całkowita masa pojazdów na moście przekroczy 6 ton. 3.2. Wskazówki Zad.3.15. Dwa parowce podpływaja, do tego samego nabrzeża. Czasy przybicia do brzegu obu parowców sa, od siebie niezależne i jednakowo możliwe w ciagu całej doby. Obliczyć prawdopodobieństwo, że jeden , z parowców bedzie musiał czekać na zwolnienie sie, miejsca na na, brzeżu, jeśli czas postoju pierwszego parowca wynosi jedna, godzine, , a drugiego – dwie godziny. Zad. 3.16. Wyznaczyć prawdopodobieństwo, że pierwiastki równania kwadratowego x2 + 2ax + b = 0 sa, rzeczywiste, jeśli współczynniki moga, przyjać , z jednakowym prawdopodobieństwem każda, z wartości w prostokacie −k ≤ a ≤ k, −l ≤ b ≤ l. , Zad. 3.17. Zadanie o igle Buffona. Igłe, o długości l rzucono na podłoge, z desek o szerokości a (l < a). Jaka jest szansa, że igła przetnie krawedź deski? , 3.2. Wskazówki 3.1. Naszkicować zbiór Ω w R2 i zdarzenie sprzyjające A. 3.2. Jak zapisać wynik doświadczenia losowego, polegajacego na wy, losowaniu dwóch liczb z przedziału [0, 1]? Wykonać rysunek. 3.3. W przypadkach a) i b) Ω ⊂ R, ponadto zauważmy, że 31 ≤ max{x, 13 } ≤ 1, 0 ≤ min{x, 21 } ≤ 12 . W przypadkach c) i d) Ω ⊂ R2 . 3.4. Kiedy z trzech odcinków można zbudować trójkat? , 3.5. Wybieramy dwa punkty z odcinka [0, 1], czyli Ω ⊂ R2 . 3.6. Ω ⊂ R3 . 3.7. Porówn. zad. 3.4. 3.8. Porówn. zad. 3.5 b). 3.9. Porówn. zad. 3.5 b). 39 40 Prawdopodobieństwo geometryczne 3.10. Każdy wybór trzech punktów na okregu można jednoznacznie , opisać przez podanie długości dwóch spośród trzech łuków, na które punkty dziela, okrag. Kat , , wpisany w okrag , jest ostry, jeśli jest oparty na łuku mniejszym od półokregu. , 3.11. Porówn. zad. 3.2 i wykonać odpowiedni rysunek. 3.12. Wykonać odpowiedni rysunek. 3.13. Wynik doświadczenia losowego można zapisać jako parę liczb (t1 , t2 ), gdzie t1 oznacza czas przybycia na miejsce spotkania Ali, zaś t2 czas przybycia Oli. Uwaga: Zadanie to przytoczono w takim sformułowaniu, w jakim zwykle występuje w podręcznikach. W tego typu zadaniach zakłada się, że losowe wielkości zmieniają się zgodnie z miarą Lebesgue’a, tzn. szansa, że Ala (Ola) przyjdzie na spotkanie w przedziale czasu [τ, s] jest równa długości tego przedziału. To założenie można też wypowiedzieć następująco: czas przybycia Ali (Oli) na spotkanie ma rozkład jednostajny (patrz rozdział 6). Drugie założenie ukryte w treści zadania, to niezależność zdarzeń (patrz rozdział 4. i 10.). Dokładniej, jeśli A oznacza zdarzenie, że Ala przyjdzie na spotkanie w przedziale [τ1 , s1 ], zaś B, że Ola przyjdzie w przedziale [τ2 , s2 ], to P (A ∩ B) = (s1 − τ1 )(s2 − τ2 ) = P (A)P (B). Uwaga powyższa odnosi się również do zadań 3.14, 3.15, 3.16. 3.14. Wynikiem doświadczenia losowego jest para liczb z przedziału [2, 5]. Patrz zad. 3.13. 3.15. Porównać zad. 3.13. 3.16. Patrz zad. 3.13. Wynikiem doświadczenia losowego jest para liczb (a, b). Kiedy równanie kwadratowe ma pierwiastki rzeczywiste? Uwaga: liczby k, l sa, w zadaniu dane. 3.3. Odpowiedzi i rozwiazania , 41 3.17. Modelem podłogi z desek może być płaszczyzna, na której poprowadzono rodzine, prostych równoległych, odległych od siebie o a. Położenie igły na takiej płaszczyźnie można opisać podajac , np. odległość środka igły od najbliższej prostej, np. z dołu, oraz kat , jaki tworzy ta prosta z igła. , W takim razie wystarczy rozpatrywać układ tylko dwóch takich prostych. Wtedy m(Ω) < ∞. Sformułować warunki, przy których igła nie przecina ani dolnej ani górnej prostej. 3.3. Odpowiedzi i rozwiazania , 3.1. Przy stosownym doborze układu współrzednych zbiór Ω można , zapisać h a ai h a ai Ω= − , × − , , 2 2 2 2 zaś a2 2 2 A = (x, y) ∈ Ω : x + y ≤ . 4 Zatem m(A) π P (A) = = . m(Ω) 4 rys. do zad.3.1 rys. do zad.3.2 42 Prawdopodobieństwo geometryczne 3.2. W wyniku doświadczenia losowego, otrzymamy pare, liczb, zatem Ω = [0, 1]2 . Z kolei, A = {(x, y) ∈ Ω : 0 ≤ x + y ≤ 1}, m(Ω) = 1, m(A) = 12 . Czyli P (A) = 21 . 3.3. 1 0 dla a ≤ 3 , 0 1 a a dla 3 < a ≤ 1, f (a) = g(a) = 1 dla a > 1, 1 dla a ≤ 0, 0 0 2 2a − a dla 0 < a ≤ 1, k(a) = a2 h(a) = 1 dla a > 1, 1 dla a ≤ 0, dla 0 < a ≤ 21 , dla a > 12 , dla a ≤ 0, dla 0 < a ≤ 1, dla a > 1. 3.4. Ω = [0, l]. Z odcinków o długości x, l − x, 21 można zbudować l trójkat, , jeśli spełnione sa, nierówności trójkata: , 2 < x + l − x, l 3l 1 l − x < x + 2l , x < 2l + l − x. Stad , A = ( 4 , 4 ), czyli P (A) = 2 . 3.5. Ω = [0, 1]2 . a+b 1 2 ∈ [0, ]}, P (A) = . 2 3 9 1 B = {(a, b) ∈ Ω : a < |b − a|}, P (B) = . 4 A = {(a, b) ∈ Ω : zbiór A zbiór B 3.6. Ω = [0, 1]3 , m(Ω) = 1. A = {(x, y, z) : x ∈ [0, 1], y ∈ [x, 1], z ∈ [y, 1]}, m(A) to objetość ostrosłupa o polu podstawy 21 i wyso, 1 kości 1. Czyli P (A) = 6 . 3.3. Odpowiedzi i rozwiazania , 3.7. 43 1 . 4 3.8. (1 − x)2 . 3.9. 3 . 4 3.10. Oznaczmy punkty wybrane na okregu: A, B, C. Niech l1 , oznacza długość łuku AB, l2 długość łuku AC. Para liczb (l1 , l2 ) opisuje wynik rozważanego doświadczenia losowego, jeśli l1 + l2 < 2πR. zbiór A Stad , Ω = {(l1 , l2 ) : l1 , l2 ∈ (0, 2πR), l1 + l2 < 2πR}. Trójkat jeśli każdy jego kat , jest ostrokatny, , , jest oparty na łuku mniejszym od półokregu, wi ec , , A = {(l1 , l2 ) ∈ Ω : l1 + l2 > πR, l1 + (2πR − (l1 + l2 )) > πR, l2 + (2πR − (l1 + l2 )) > πR}. 1 Stad , P (A) = 4 . 3.11. 1 (5 + 4 ln 2). 18 44 Prawdopodobieństwo geometryczne 3.12. Zbiór Ω to koło o środku w punkcie O i promieniu 5r. Zbiór A zaznaczono na rysunku. 3 P (A) = . 5 3.13. Ω = [0, 1]2 , A = {(t1 , t2 ) ∈ Ω : t1 ≤ t2 ≤ t1 + 41 , t2 ≤ t1 ≤ 1 }. t2 + 12 P (A) = 1 − 21 (1 − 14 )2 − 12 (1 − 1 rys. do zad. 3.12 3.14. 1 2 12 ) = 101 . 144 rys. do zad. 3.13 7 . 9 1 1 1 1 3.15. 1 − (1 − )2 − (1 − )2 . 2 12 2 24 3.16. Ω = [−k, k] × [−l, l]. Równanie ma pierwiastki rzeczywiste, 2 jeśli ∆ = 4a2 − 4b ≥ 0, wiec , A = {(a, b) ∈ Ω : b ≤ a }. Należy rozpatrzyć dwa przypadki: √ I przypadek: gdy l ≤ k 2 , to m(A) = 4kl − 43 l l. Czyli P (A) = √ 1− l 3k . II przypadek: gdy l ≥ k 2 , to m(A) = 2kl + 23 k 3 . Czyli P (A) = 1 k2 2 + 6l . 3.3. Odpowiedzi i rozwiazania , 45 Przypadek I Przypadek II 3.17. Niech d oznacza odległość środka igły od najbliższej prostej z dołu, zaś α kat, , jaki tworzy ta prosta z igła. , Oczywiście α ∈ [0, π). Zatem Ω = [0, π)×(0, a). Igła nie przecina prostej z góry, gdy l d + sin α < a 2 i z dołu, gdy l d − sin α > 0. 2 Powyższe nierówności określaja, zdarzenie przeciwne do rozpatrywanego w zadaniu. Zdarzenie A zaznaczono na rysunku. Z m(A) = 2 0 2l Zatem P (A) = . aπ π l sin αdα = 2l. 2 4. Prawdopodobieństwo warunkowe i niezależność zdarzeń. Schemat Bernoullego 4.1. Teoria i zadania Ustalmy przestrzeń probabilistyczna, (Ω, Σ, P ). Niech B bedzie , zdarzeniem, dla którego P (B) > 0. Prawdopodobieństwem warunkowym zdarzenia A przy założeniu, że zaszło zdarzenie B, nazywamy liczbe, P (A ∩ B) P (A|B) = . P (B) Mówimy, że zdarzenia A1 , . . . , An ∈ Σ sa, niezależne, jeśli P (Ai1 ∩ . . . ∩ Aik ) = P (Ai1 ) · . . . · P (Aik ) dla każdego k = 2, . . . , n oraz 1 ≤ i1 < i2 < . . . < ik ≤ n. W szczególności, dla dwóch zdarzeń A, B ∈ Σ, niezależność oznacza, że P (A ∩ B) = P (A) · P (B). W przypadku nieskończonego ciagu zdarzeń mówimy, że , A1 , A2 , . . . sa, niezależne, gdy zdarzenia A1 , . . . An sa, niezależne dla każdego n ∈ N. Schematem Bernoullego nazywamy ciag , niezależnych powtórzeń tego samego doświadczenia losowego o dwu możliwych wynikach, nazywanych umownie sukcesem i porażka. , Pojedyncze doświadczenie w schemacie Bernoullego, tzw. próbe, Bernoullego, modeluje bardzo prosta przestrzeń probabilistyczna (Ω, Σ, P ), mianowicie, Ω = {0, 1}, przy czym 1 oznacza sukces, 0 porażke, , Σ jest σ-algebra, wszystkich podzbiorów Ω, w tym wypadku jest to po prostu rodzina czteroelementowa, zaś P ({1}) = p ∈ (0, 1), P ({0}) = 1 − p. Dla ciągu n niezależnych prób Bernoullego przestrzeń probabilistyczna jest n-krotnym iloczynem kartezjańskim powyższych przestrzeni. W szczególności prawdopodobieństwo uzyskania k sukcesów w n próbach Bernoullego (0 ≤ k ≤ n) wyraża sie, wzorem n k p (1 − p)n−k . (13) k 48 Prawdopodobieństwo warunkowe... Odpowiednio, w przypadku nieskończonego schematu Bernoullego, czyli gdy niezależne próby powtarzane sa, nieskończenie wiele razy, modelem doświadczenia jest przeliczalny iloczyn kartezjański przestrzeni opisujacej pojedyncza, próbe. , , Prawdopodobieństwo, że pierwszy sukces pojawi sie, w k-tej próbie wynosi wtedy (1 − p)k−1 p. (14) Zad. 4.1. Rzucamy trzema kostkami. Jakie jest prawdopodobieństwo, że na żadnej kostce nie wypadła szóstka, jeżeli na każdej kostce wypadła inna liczba oczek? Zad. 4.2. a) W partii brydża przed licytacja, gracz E widzi, że nie ma asa. Jaka jest szansa, że jego partner ma 2 asy? b) Gracz E widzi, że ma 8 pików. Jaka jest szansa, że jego partner nie ma pików? Zad. 4.3. Czterej gracze dostali po 13 kart. Jeden z nich zobaczył przypadkowo u sasiada , a) asa pik; b) jakiegoś asa czarnego koloru; c) jakiegoś asa. Jaka jest szansa, że ten gracz nie ma asa? Zad. 4.4. Jaka jest szansa, że każdy z graczy S, E i W ma co najmniej jednego asa, jeśli wiadomo, że N nie ma żadnego? Zad. 4.5. Zdarzenia A1 , . . . , An sa, niezależne i maja, jednakowe prawdopodobieństwo p. Jaka jest szansa, że a) zajda, wszystkie naraz; b) nie zajdzie żadne z nich; c) zajdzie dokładnie jedno? 4.1. Teoria i zadania 49 Zad. 4.6. A, B sa, niezależne i A ∪ B = Ω. Wykazać, że P (A) = 1 lub P (B) = 1. Zad. 4.7. Zdarzenia A, B, C sa, parami niezależne, ale wszystkie trzy nie moga, zajść równocześnie. Ponadto P (A) = P (B) = P (C) = x oraz P (A ∪ B ∪ C) = 43 . Wyznaczyć x. Zad. 4.8. Podać przykład trzech zdarzeń A, B, C, które sa, niezależne parami, ale nie sa, niezależne oraz takich, dla których zachodzi P (A ∩ B ∩ C) = P (A)P (B)P (C), ale nie sa, niezależne. Zad. 4.9. Udowodnić nastepuj ace twierdzenie o mnożeniu: , , Jeśli A1 , . . . , An ∈ Σ i P (A1 ∩ · · · ∩ An−1 ) > 0, to P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 )P (A2 |A1 ) · . . . · P (An |A1 ∩ . . . ∩ An−1 ). Zad. 4.10. Dwóch strzelców, dla których prawdopodobieństwa trafienia do celu wynosza, odpowiednio 0, 7 i 0, 8, oddaje po jednym strzale. Obliczyć prawdopodobieństwo, że cel został trafiony. Zad. 4.11. Tenisista musi wygrać dwa mecze pod rzad , z trzech. Może grać a) z lepszym, ze słabszym i znów z lepszym; b) ze słabszym, z lepszym i znów ze słabszym. Który wybór daje wieksze szanse, jeśli wyniki kolejnych meczów sa, , niezależne? Zad. 4.12. Rzucono dziesieć , , razy symetryczna, kostka. szansa otrzymania Jaka jest a) „6” co najmniej raz; b) „5” dokładnie trzy razy? Zad. 4.13. Z talii 52 kart wylosowano kolejno 13 kart, za każdym razem zwracajac , karte, do talii. Jakie jest prawdopodobieństwo, że dwie z wylosowanych kart bed , a, czerwone? Zad. 4.14. Rzucamy czterema kostkami do gry. Jakie jest prawdopodobieństwo, że na wszystkich wypadnie ta sama liczba oczek? 50 Prawdopodobieństwo warunkowe... Zad. 4.15. Dwie osoby rzucaja, po n razy symetryczna, moneta. , Jakie jest prawdopodobieństwo, że każda z nich otrzyma te, sama, liczbe, orłów? Zad. 4.16. Obliczyć prawdopodobieństwo otrzymania parzystej liczby sukcesów w ciagu n prób Bernoullego z prawdopodobieństwem , sukcesu w pojedynczej próbie p. Zad. 4.17. Zadanie Banacha o zapałkach. Pewien matematyk nosi w kieszeniach, lewej i prawej, po jednym pudełku zapałek. Ilekroć chce zapalić papierosa, siega do losowo wybranej kieszeni. Zakładamy, , że w chwili poczatkowej matematyk ma dwa pełne pudełka. Niech m , oznacza liczbe, zapałek w pełnym pudełku, k = 0, . . . , m. Jaka jest szansa, że gdy matematyk po raz pierwszy wyciagnie puste pudełko, , w drugim bedzie k zapałek? , Zad. 4.18. Zadanie o podziale stawki. Szansa wygrania pojedynczej partii gry przez gracza A wynosi p, i do zakończenia całej gry brakuje mu a wygranych partii, jego przeciwnikowi brakuje b wygranych partii. Niestety pojedynek musi zostać przerwany. Jak sprawiedliwie podzielić stawke? , 4.2. Wskazówki 4.1. Jeśli A oznacza zdarzenie, że na żadnej kostce nie wypadła szóstka, zaś B, że na każdej kostce wypadła inna liczba oczek, to należy obliczyć prawdopodobieństwo P (A|B). 4.2. a) Jeśli gracz E nie ma asa wśród swoich 13 kart, tzn. że jego partner dostał 13 kart spośród pozostałych 39, wśród których sa, 4 asy. b) Jeśli zaś E widzi, że ma 8 pików, to znaczy, że do rozdania zostało jeszcze 5 pików. 4.3. Interesuje nas P (A|B), gdzie A oznacza zdarzenie, że gracz nie ma asa, zaś B odpowiednio, że 4.2. Wskazówki a) sąsiad ma asa pik; b) sąsiad ma jakiegoś czarnego asa; c) sąsiad ma jakiegoś asa. W przypadku a) prawdopodobieństwo można obliczyć prościej korzystając z obserwacji, że jeśli gracz zobaczył u sasiada asa , pik, to znaczy, że sam nie ma tego asa. 4.4. Można obliczyć prawdopodobieństwo zdarzenia przeciwnego, tzn. że któryś z graczy S, E, W nie ma asa. Skorzystać ze wzoru włacz-wył acz. , , 4.5. Porównać zad. 1.7 i skorzystać z definicji zdarzeń niezależnych. 4.6. Skorzystać z definicji zdarzeń niezależnych i faktu, że P (Ω) = 1. 4.7. Zdarzenia sa, parami niezależne jeśli P (A ∩ B) = P (A) · P (B), P (A ∩ C) = P (A) · P (C), P (B ∩ C) = P (B) · P (C). Natomiast, to że nie moga, zajść jednocześnie oznacza, że A ∩ B ∩ C = ∅. 4.8. Załóżmy, że w urnie sa, cztery kule o numerach: 2, 3, 5, 30. Wylosowano jedna, kule. , Niech A oznacza zdarzenie, że numer wylosowanej kuli dzieli sie, przez 2, B – dzieli sie, przez 3, C – dzieli sie, przez 5. Wykazać, że zdarzenia sa, parami niezależne, ale nie sa, niezależne. Rozważmy rzut dwoma kostkami do gry. Niech A oznacza zdarzenie, że na drugiej kostce wypadła 1, 2 lub 5, B – na drugiej kostce wypadła 4, 5 lub 6, C – suma wyrzuconych oczek wynosi 9. Sprawdzić, że P (A ∩ B ∩ C) = P (A)P (B)P (C), ale zdarzenia A, B, C nie sa, niezależne. Oczywiście można też podać wiele innych przykładów. 4.9. Skorzystać z definicji prawdopodobieństwa warunkowego po prawej stronie wzoru. Najpierw zauważyć dlaczego prawa strona wzoru ma sens. 4.10. Jeśli A oznacza, że trafił pierwszy strzelec, B – drugi, to interesuje nas P (A ∪ B). 4.11. Jeśli l oznacza prawdopodobieństwo wygrania z lepszym, zaś g z gorszym graczem, to 0 ≤ l < g ≤ 1. Sensownie jest ponadto 51 52 Prawdopodobieństwo warunkowe... założyć, że l > 0, bo w przeciwnym wypadku, niezależnie od wybranej strategii, prawdopodobieństwo wygranej wynosi zero. Narysować drzewko w każdym z przypadków. 4.12. Zastosować schemat Bernoullego. 4.13. To zadanie już rozwiązywaliśmy, patrz zad. 2.9. Tym razem zastosować schemat Bernoullego. 4.14. Porównać zadania 4.13, 2.10. 4.15. W n próbach dwie osoby moga, mieć jednocześnie k = 0, 1, . . . , n orłów. 4.16. Niech pk oznacza prawdopodobieństwo, że w k próbach Bernoullego otrzymano parzystą liczbę sukcesów. Zapisać zależność pk od pk−1 . Otrzymane równanie rekurencyjne rozwiązać z warunkiem początkowym p0 = 1. 4.17. Przypuśćmy, że matematyk po raz pierwszy wyciagnie puste , pudełko z prawej kieszeni. Przyjmijmy wybór prawej kieszeni jako sukces. Określić liczbe, prób i sukcesów w schemacie Bernoullego. Jak uwzglednić możliwość, że pierwsze puste pudełko , może pochodzić z lewej kieszeni? 4.18. Stawka zostanie podzielona sprawiedliwie, jeśli każdy z graczy dostanie cześć nagrody proporcjonalna, do szansy swojej wygra, nej. Obliczajac , prawdopodobieństwo wygranej gracza A należy uwzglednić wszystkie przypadki, że wygra a − 1 partii spośród , a − 1, . . . , a + b − 2 rozegranych partii oraz, że wygra ostatnia, partie. , 4.3. Odpowiedzi i rozwiazania , 4.1. P (A|B) = P (A ∩ B) 3·4·5 1 = = . P (B) 4·5·6 2 4.3. Odpowiedzi i rozwiazania , 4.2. a) 4 2 b) · 35 11 53 39 13 34 13 39 ≈ 13 ≈ 0, 31. 0, 11. 4.3. a) Niech A oznacza zdarzenie, że gracz nie ma asa, B sąsiad ma asa pik. Jeśli wiemy, że zaszło zdarzenie B, to znaczy, że gracz nie może już mieć asa pik. 48 13 51 13 P (A|B) = ≈ 0, 41. b) Niech B oznacza zdarzenie, że sąsiad ma jakiegoś czarnego asa. Wtedy #(A ∩ B) P (A|B) = , #B przy czym #(A ∩ B) = #B = = 48 13 50 13 39 13 39 13 − 39 13 − 52 13 − 37 13 , 37 + 13 50 13 . 2 50 12 38 12 Stąd P (A|B) ≈ 0, 39. c) Niech teraz B oznacza, że sąsiad ma jakiegoś asa. Wtedy P (A|B) ≈ 0, 36. Zauważmy, że w każdym przypadku zdarzenie B zwiększa szanse zdarzenia A, P (A) ≈ 0, 3 < 0, 36 < 0, 39 < 0, 41. ! 4.4. 1 − 3 4.5. a) pn , 35 13 39 13 − 35 13 39 13 · 22 13 26 13 b) (1 − p)n , ≈ 0, 48. c) n(1 − p)n−1 p. 54 Prawdopodobieństwo warunkowe... 4.6. Skoro A ∪ B = Ω i zdarzenia A, B są niezależne, to 1 = P (A ∪ B) = P (A) + P (B) − P (A) · P (B). Stąd (1 − P (A)) · (1 − P (B)) = 0, czyli P (A) = 1 lub P (B) = 1. 1 4.7. x = . 2 4.9. Zauważmy, że A1 ∩ . . . ∩ An−1 ⊂ . . . ⊂ A1 ∩ A2 ⊂ A1 . Jeśli więc P (A1 ∩ . . . ∩ An−1 ) > 0, to prawdopodobieństwa wszystkich kolejnych iloczynów sa, dodatnie: P (A1 ∩ . . . ∩ An−2 ) > 0, . . . , P (A1 ∩ A2 ) > 0, P (A1 ) > 0. Korzystajac , teraz z definicji prawdopodobieństwa warunkowego, otrzymujemy P (A1 )P (A2 |A1 ) · . . . · P (An |A1 ∩ . . . ∩ An−1 ) = = P (A1 ) P (A2 ∩ A1 ) P (An ∩ A1 ∩ . . . ∩ An−1 ) · ... · = P (A1 ) P (A1 ∩ . . . ∩ An−1 ) = P (A1 ∩ A2 ∩ . . . ∩ An ). 4.10. 0, 94. 4.11. Niech l oznacza prawdopodobieństwo wygrania z lepszym, zaś g z gorszym graczem, przy czym 0 < l < g ≤ 1. Prawdopodobieństwo wygrania dwóch meczów pod rząd wynosi: a) 2lg − lg 2 , b) 2lg − l2 g. Strategia a) daje więc wieksz a, szanse, na wygrana. , , 4.12. Zastosujemy schemat Bernoullego dla n = 10, p = 16 . 0 10 10 1 5 a) 1 − , 0 6 6 3 7 10 1 5 b) . 3 6 6 4.3. Odpowiedzi i rozwiazania , 55 13 13 1 4.13. . 2 2 4 1 4.14. 6 · . 6 4.15. Sumujemy kolejno prawdopodobieństwa otrzymania przez obie osoby: 0, 1, . . . , n orłów n k n−k !2 X n 2 n n X 1 n 1 2n 1 n 1 = = . 2 2 k 4 n 4 k k=0 k=0 W ostatniej równości skorzystaliśmy ze wzoru Van der Monde’a (11). 4.16. Niech pk oznacza prawdopodobieństwo, że w k próbach Bernoullego otrzymano parzystą liczbę sukcesów. Jest to możliwe w sytuacji, gdy w pierwszych k−1 próbach zdarzyła się parzysta liczba sukcesów i w k-tej próbie porażka lub, gdy w pierwszych k − 1 próbach otrzymano nieparzystą liczbę sukcesów i w k-tej próbie sukces. Stąd pk = pk−1 (1 − p) + (1 − pk−1 )p dla k = 1, . . . , n. Ponadto p0 = 1. Otrzymane w ten sposób równanie rekurencyjne możemy rozwiązać przekształcając do postaci 1 1 = (1 − 2p)(pk−1 − ) dla k = 1, . . . , n 2 2 i mnożąc otrzymane równania stronami. Stąd pk − pn = 4.17. 2m − k m 1 + (1 − 2p)n . 2 m m−k 1 1 . 2 2 4.18. Prawdopodobieństwo wygranej gracza A wynosi a+b−1 X k − 1 pa (1 − p)k−a a−1 k=a i taka, cześć wygranej powinien otrzymać. , 5. Wzór na prawdopodobieństwo całkowite. Wzór Bayesa 5.1. Teoria i zadania Niech (Ω, Σ, P ) bedzie przestrzenia, probabilistyczna, , I co naj, wyżej przeliczalnym zbiorem wskaźników. Rodzine, zdarzeń (Bi )i∈I nazywamy rozbiciem przestrzeni Ω, jeśli zdarzenia tej rodziny wzaS jemnie sie, wykluczaja, oraz i∈I Bi = Ω. Wzór na prawdopodobieństwo całkowite. Jeśli (Bi )i∈I jest rozbiciem przestrzeni Ω, takim, że P (Bi ) > 0 dla każdego i ∈ I, to dla A ∈ Σ X P (A) = P (A|Bi )P (Bi ). (15) i∈I Wzór (15) jest szczególnie przydatny w sytuacji, gdy mamy do czynienia z doświadczeniem wieloetapowym. Łacznie z twierdzeniem o mno, żeniu (patrz zad. 4.9) uzasadnia on metode, drzewek stochastycznych, wygodna, przy rozwiazywaniu wielu zadań. , W przypadku, gdy znamy wynik doświadczenia, a pytamy o jego przebieg, możemy korzystać ze wzoru Bayesa. Wzór Bayesa. Jeśli (Bi )i∈I jest rozbiciem przestrzeni Ω, takim, że P (Bi ) > 0 dla każdego i ∈ I oraz A ∈ Σ i P (A) > 0, to dla każdego j∈I P (A|Bj )P (Bj ) P (Bj |A) = P . (16) i∈I P (A|Bi )P (Bi ) Zad. 5.1. Na strzelnicy jest dziewieć , strzelb, z których tylko dwie sa, dobre. Prawdopodobieństwo trafienia do celu z dobrej strzelby wynosi 0,8, a ze strzelby wadliwej 0,1. Strzelono z wzietej na chybił , trafił strzelby i trafiono do celu. Obliczyć prawdopodobieństwo, że strzelano z dobrej strzelby, i że strzelano z wadliwej strzelby. 58 Wzór na prawdopodobieństwo całkowite. Wzór Bayesa Zad. 5.2. W dziewieciu z dziesieciu jednakowych urn znajduja, sie, , , po 2 czarne i 2 białe kule, a w dziesiatej 5 białych i 1 czarna kula. , Z losowo wybranej urny wylosowano biała, kule. , Jakie jest prawdopodobieństwo, że kula ta została wylosowana z dziesiatej urny? , Zad. 5.3. W zbiorze 100 monet jedna ma po obydwu stronach orły, pozostałe sa, prawidłowe. W wyniku 10 rzutów losowo wybrana, moneta, otrzymano 10 orłów. Obliczyć prawdopodobieństwo, że była to moneta z orłami po obu stronach. Zad. 5.4. W urnie znajduja, sie, dwie białe i trzy czarne kule. Dwaj gracze, po kolei, wyciagaj a, z urny po jednej kuli (bez zwracania). , Wygra ten, który pierwszy wyciagnie kule, biała. , , Znaleźć prawdopodobieństwo, że wygra pierwszy gracz. Zad. 5.5. W urnie znajduja, sie, dwie białe i trzy czarne kule. Dwaj gracze, po kolei, wyciagaj a, z urny po jednej kuli, za każdym razem , zwracając kulę do urny. Wygra ten, który pierwszy wyciagnie kule, , biała. Znaleźć prawdopodobieństwo, że wygra pierwszy gracz. , Zad. 5.6. Adam, Bolek i Czesio rzucaja, po kolei moneta. , Wygrywa ten, który pierwszy wyrzuci orła. Obliczyć prawdopodobieństwo wygranej dla każdego z graczy. Zad. 5.7. Test na rzadka, chorobe, jest średnio jedna , która, dotknieta , osoba na tysiac, daje fałszyw a pozytywn a odpowiedź w 5% przypad, , , ków, u osoby chorej daje zawsze odpowiedź pozytywna. Jaka jest , szansa, że osoba, u której test dał odpowiedź pozytywna, jest faktycz, nie chora? Zakładamy, że nic nie wiemy o innych objawach u badanej osoby. Zad. 5.8. Prognoza pogody jest prawdziwa 2 na 3 razy. Pan X bierze parasol zawsze, gdy zapowiedza, deszcz, a także raz na trzy razy, gdy zapowiedza, , że nie będzie padać. Obliczyć prawdopodobieństwo, że zmoknie, oraz że niepotrzebnie weźmie parasol. Zad. 5.9. W pudełku znajduje sie, 15 piłek do tenisa, z których 9 jest nieużywanych. Do pierwszej gry losuje sie, trzy piłki, które zostaja, zwrócone do pudełka po zakończeniu gry. Do drugiej gry losuje sie, także trzy piłki. Jakie jest prawdopodobieństwo, że podczas drugiej gry bedzie sie, grało tylko używanymi piłkami? , 5.1. Teoria i zadania Zad. 5.10. Podczas klasówki z historii Piotr i Paweł siedzieli obok siebie. Miedzy innymi mieli napisać dwie daty. Piotr je pamietał, ale , , nie wiedział jak je przyporzadkować. Zapytał Pawła, wiedzac, , , że w 3 przypadkach na 4 Paweł zna prawidłowa, odpowiedź, chociaż Paweł uważał, że zawsze wie dobrze. Jednak Paweł w 3 przypadkach na 5 oszukuje Piotra. Co jest lepsze dla Piotra: posłuchać Pawła czy odpowiedzieć losowo? Zad. 5.11. A powiedział, że B powiedział, że C powiedział, że D skłamał. Jakie jest prawdopodobieństwo, że D rzeczywiście skłamał, jeżeli każdy z nich zwykł mówić prawde, z prawdopodobieństwem p, gdzie 0 < p < 1. Zad. 5.12. Towarzystwo ubezpieczeniowe ma 85% stałych klientów, którzy powoduja, – w ciagu roku – wypadek z prawdopodobieństwem , 0, 01 i 15% nowych klientów, powodujacych wypadek z prawdopo, dobieństwem 0, 4. Prawdopodobieństwo, że dany klient bedzie miał , w ciagu roku wypadek jest dla niego niezmienne, niezależne od tego , czy miał wypadek poprzednio czy nie. Obliczyć prawdopodobieństwo, że wybrany losowo klient bedzie miał wypadek. Obliczyć prawdopo, dobieństwo, że wybrany losowo klient bedzie miał drugi wypadek, jeśli , wiadomo, że jeden już miał. Zad. 5.13. Załóżmy, że kierowcy dziela, sie, na ostrożnych (jest ich 95%, i taki kierowca powoduje w ciagu roku wypadek z prawdopodo, bieństwem 0, 01) i piratów (jest ich 5%, szansa na wypadek w ciagu , roku – 0, 5). Wybrany losowo kierowca nie spowodował wypadku w roku 2006 ani 2007. Jaka jest szansa, że spowoduje wypadek w roku 2008? Zad. 5.14. Pani Smith, podróżując samolotem z Krakowa do Cairns, musi się dwukrotnie przesiadać. Prawdopodobieństwo, że jej bagaż nie zostanie załadowany do właściwego samolotu w Krakowie wynosi 0, 1, zaś w kolejnych miejscach przesiadki, odpowiednio 0, 2 i 0, 1. Okazało się, że bagaż pani Smith nie dotarł do Cairns. Obliczyć prawdopodobieństwo, że bagaż zaginął już w Krakowie. Zad.5.15. W mieście działaja, dwa przedsiebiorstwa taksówkowe: Zie, lone Taxi (85% samochodów) i Niebieskie Taxi (15%). Świadek nocnego wypadku zakończonego ucieczka, kierowcy twierdzi, że samochód 59 60 Wzór na prawdopodobieństwo całkowite. Wzór Bayesa był niebieski. Eksperymenty wykazały, że świadek poprawnie rozpoznaje kolor w 80% przypadków. Jaka jest szansa, że w wypadku uczestniczyła niebieska taksówka? Zad.5.16. Student zaliczajac chiński” musi kolejno: , przedmiot „ jezyk , zdobyć zaliczenie z ćwiczeń, zdać egzamin pisemny i zdać egzamin ustny (zakładamy, że sa, to zdarzenia niezależne). Prawdopodobieństwa pozytywnego przejścia kolejnych etapów procedury egzaminacyjnej wynosza, kolejno: 90%, 80% i 90%; przy czym przejście jednego etapu stanowi warunek konieczny przystapienia do nastepnego. , , Student X bedzie musiał w przyszłym roku powtórnie zaliczać jezyk , , chiński. Czy bardziej jest prawdopodobne, że oblał egzamin pisemny, czy że odpadł na którymś z pozostałych etapów? Zad. 5.17. Paradoks Simpsona. W pewnej miejscowości pracuja, dwie pary małżeńskie, których roczny dochód jest taki sam. Pierwszy maż wiecej (procentowo) ze swojej pensji niż drugi, również , oszczedza , , pierwsza żona jest bardziej od drugiej oszczedna. Mimo to druga para , oszczedza więcej pieni edzy. Wyjaśnić paradoks. , , Zad. 5.18. Zadanie o ruinie gracza. Gracz rzuca moneta. , Jeśli wypadnie reszka, to wygrywa on 1 zł, a jeśli orzeł – to traci 1 zł. Na poczatku gry gracz ma x zł. Gra sie, kończy, gdy gracz wygra , z góry ustalona, kwote, a zł albo przegra wszystkie pieniadze. Jakie , jest prawdopodobieństwo zrujnowania sie, gracza? 5.2. Wskazówki 5.1. Jeśli przez T oznaczymy trafienie z losowo wybranej strzelby, to prawdopodobieństwo zdarzenia T obliczymy ze wzoru na prawdopodobieństwo całkowite. Tu natomiast wiemy, że zaszło T i pytamy o prawdopodobieństwo „przyczyny”. Należy wiec , zastosować wzór Bayesa. 5.2. Porównać zad. 5.1. 5.2. Wskazówki 5.3. Porównać zad. 5.1. 5.4. Narysować stosowne drzewko. Zauważyć, że w kolejnych etapach prawdopodobieństwo wylosowania kuli białej zmienia się. 5.5. Porównać zad. 5.4. Tym razem prawdopodobieństwo wylosowania kuli białej na każdym etapie jest takie samo, a gra może trwać nieskończenie długo. 5.6. Adam wygra, jeśli za pierwszym razem wyrzuci orła albo, gdy wyrzuci reszke, , Bolek i Czesio też wyrzuca, reszki, a nastepnie , Adam wyrzuci orła itd. Zauważmy, że gra może trwać nieskończenie długo, a obliczajac , prawdopodobieństwo otrzymamy do wysumowania szereg. Podobnie dla pozostałych chłopców. 5.7. Narysować drzewko, odczytać prawdopodobieństwo, że test dał wynik pozytywny (wzór na prawdopodobieństwo całkowite). W rozwiazaniu uwzglednić informacje, o zdarzeniu, które zaszło, , , tzn. że test dał wynik pozytywny (wzór Bayesa). 5.8. Zauważmy, że pan X zmoknie tylko wtedy, gdy bedzie padał , deszcz. Można wiec , narysować stosowne drzewko, przy założeniu, że bedzie padać. Zdarzenia: prognoza pogody sprawdza , sie, (zapowiedzieli deszcz) lub nie (zapowiedzieli, że nie bedzie , padać), stanowia, wtedy rozbicie przestrzeni Ω. Przy każdej z powyższych hipotez znamy prawdopodobieństwo, że pan X nie weźmie parasola. Wystarczy zastosować wzór (15). Podobnie, pan X niepotrzebnie weźmie parasol tylko wtedy, gdy nie bedzie padać. , 5.9. Mamy do czynienia z doświadczeniem dwuetapowym. Przeanalizować możliwość wyboru piłek używanych w drugiej grze, w zależności od wyboru piłek do pierwszej gry. 5.10. Należy obliczyć prawdopodobieństwo, że Piotr dobrze odpowie, jeśli posłucha Pawła. Skorzystać ze wzoru na prawdopodobieństwo całkowite. 61 62 Wzór na prawdopodobieństwo całkowite. Wzór Bayesa 5.11. Narysować drzewko, zaczynajac , od tego, co zdarzyło sie, najpierw, czyli, co powiedział D. Z drzewka odczytać prawdopodobieństwo, że A powiedział, że B powiedział, że C powiedział, że D skłamał. Natepnie obliczyć prawdopodobieństwo, że D , rzeczywiście skłamał, jeśli wiemy, że zaszło powyższe zdarzenie. 5.12. Porównać zad. 5.7. 5.13. Porównać zad. 5.12. 5.14. Narysować stosowne drzewko. Interesuje nas prawdopodobieństwo, że bagaż zginął w Krakowie, jeśli już wiemy, że gdzieś zginał. , 5.15. W wypadku uczestniczyła niebieska lub zielona taksówka, i to dyktuje rozbicie przestrzeni Ω. W każdym przypadku świadek mógł rozpoznać kolor lub nie. Aby uwzglednić informacje, , , że świadek twierdzi, że taksówka była niebieska, zastosować wzór Bayesa. 5.16. Porównać zad. 5.14. 5.17. Wykazać, że dla A, B, Hi ∈ Σ, takich żeSP (B), P (Hi ) > 0 dla i = 1, . . . , n, Hi ∩ Hj = ∅ dla i 6= j oraz ni=1 Hi = Ω, zachodzi wzór n X P (A|B) = P (A|B ∩ Hi ) · P (Hi |B). (17) i=1 Następnie, zauważyć, że może się zdarzyć, że P (A|B ∩ C) ≥ P (A|B 0 ∩ C), P (A|B ∩ C 0 ) ≥ P (A|B 0 ∩ C 0 ), a jednocześnie P (A|B) < P (A|B 0 ). W zadaniu interesuje nas szansa zaoszczędzenia złotówki dla pierwszej i drugiej pary. 5.18. Wyznaczyć rekurencyjne równanie na prawdopodobieństwo ruiny gracza, w zależności od kapitału poczatkowego. Zastosować , wzór na prawdopodobieństwo całkowite. 5.3. Odpowiedzi i rozwiazania , 63 5.3. Odpowiedzi i rozwiazania , 5.1. Niech D oznacza, że wybrano strzelbe, dobra, , W – wybrano strzelbe, wadliwa. , Zauważmy, że zdarzenia D i W stanowia, rozbicie przestrzeni Ω. Wiemy, że 2 P (D) = , 9 oraz P (T |D) = 8 , 10 P (W ) = 7 9 P (T |W ) = 1 . 10 Korzystajac , ze wzoru (16) P (D|T ) = = P (T |D)P (D) P (T |D)P (D) + P (T |W )P (W ) 8 2 16 10 · 9 8 2 1 7 = 23 . 10 · 9 + 10 · 9 Analogicznie P (W |T ) = 5 . 23 5.3. 0, 91. 5.2. 3 . 5 5 5.5. . 8 5.4. 8 . 23 64 Wzór na prawdopodobieństwo całkowite. Wzór Bayesa 5.6. Jeśli A oznacza wygrana, Adama, to korzystajac , ze wzoru na sume, szeregu geometrycznego 1 1 1 1 1 1 4 P (A) = + · 2 · + . . . = = . 1 2 2 2 2 21− 8 7 2 1 Podobnie P (B) = , P (C) = . 7 7 5.7. Oznaczmy: A wybrana losowo osoba jest chora, B wybrana losowo osoba jest zdrowa, C test dał wynik pozytywny. Interesuje nas P (A|C), stosujemy wzór (16). P (A|C) = = P (C|A) · P (A) P (C|A) · P (A) + P (C|B) · P (B) 0, 001 ≈ 0, 02. 0, 001 + 0, 999 · 0, 05 2 5 , . 9 9 5.9. Niech pi oznacza prawdopodobieństwo, że do pierwszej gry wylosowano i piłek nieużywanych, i = 0, 1, 2, 3. Wtedy 6 9 6 4 27 3 1 · 2 = , p0 = 15 = , p1 = 15 91 91 3 3 9 9 · 6 432 12 3 = . p2 = 2 151 = , p3 = 15 910 65 3 3 5.8. Niech A oznacza zdarzenie, że w drugiej grze grano tylko piłkami używanymi. 7 8 9 6 P (A) = p0 · 3 15 3 + p1 · 3 15 3 + p2 · 3 15 3 + p3 · 3 15 . 3 5.3. Odpowiedzi i rozwiazania , 65 5.10. Niech A oznacza zdarzenie, że Piotr poda dobra, odpowiedź, D – Paweł zna prawidłowa, odpowiedź, Z – Paweł zna zła, odpowiedź. Oczywiście zdarzenia D i Z tworza, rozbicie przestrzeni Ω. 3 P (D) = , 4 1 P (Z) = . 4 Jeśli Paweł zna dobra, odpowiedź, to Piotr odpowie dobrze wtedy, gdy Paweł go nie oszuka, P (A|D) = 52 . Jeśli natomiast Paweł zna zła, odpowiedź, to Piotr odpowie dobrze, gdy Paweł go oszuka, P (A|Z) = 53 . Korzystajac , ze wzoru (15) P (A) = P (A|D) · P (D) + P (A|Z) · P (Z) = 9 . 20 1 9 Ponieważ < , to lepiej, jeżeli Piotr odpowie losowo zamiast 20 2 słuchać Pawła. 5.11. Niech D oznacza zdarzenie, że D skłamamł, zaś A, że A powiedział, że B powiedział, że C powiedział, że D skłamał. Oznaczmy 1 − p = q. Na każdym etapie drzewka „+” i „−” oznaczają odpowiednio oryginalną lub zmienioną wiadomość. 66 Wzór na prawdopodobieństwo całkowite. Wzór Bayesa 5.3. Odpowiedzi i rozwiazania , Interesuje nas P (D|A). Zatem P (D|A) = P (D ∩ A) p2 + 3q 2 = . P (A) 4(p2 + q 2 ) 5.12. Wybrany losowo klient może być stałym klientem (zdarzenie A) lub nowym klientem (zdarzenie B). Jeśli W oznacza, że klient bedzie miał wypadek, to , P (W ) = P (W |A)P (A) + P (W |B)P (B) = 0, 85 · 0, 01 + 0, 15 · 0, 4 = 0, 0685. Jeśli D oznacza, że klient bedzie miał drugi wypadek, to , P (D|W ) = = 5.13. 0, 0165. 5.14. 100 ≈ 0, 284. 352 5.15. 12 ≈ 0, 414. 29 P (D ∩ W ) P (W ) 0, 85 · 0, 01 · 0, 01 + 0, 15 · 0, 4 · 0, 4 ≈ 0, 352. 0, 0685 67 68 Wzór na prawdopodobieństwo całkowite. Wzór Bayesa 5.16. Prawdopodobieństwo, że student nie uzyskał zalicznia, jeśli wiemy, że musi powtarzać przedmiot wynosi 0, 284, w tej samej sytuacji prawdopodobieństwo, że oblał egzamin pisemny wynosi 0, 511, zaś ustny – 0, 205. Zatem najbardziej prawdopodobne jest, że oblał pisemny. 5.17. Możliwe są przykładowo następujące wartości liczbowe: oszczędności para I para II żona 40% 20% mąż 10% 5% razem 50% 25% Zarówno mąż, jak i żona w parze I oszczędzają więcej. Przypuśćmy, że łączny dochód obydwu par wynosi 10 000, a zarobki rozłożone są następująco: dochód para I para II oszczędności para I para II żona 2000 8000 mąż 8000 2000 razem 10 000 10 000 800 1600 800 100 1600 1700 Widać więc, że para II oszczędza łącznie więcej niż para I. Jest to zgodne ze wzorem (17). Jeśli A oznacza zaoszczędzenie złotówki, 5.3. Odpowiedzi i rozwiazania , 69 B złotówkę zarobioną przez parę I, C złotówkę zarobioną przez żonę, to P (A|B) = P (A|B ∩ C) · P (C|B) + P (A|B ∩ C 0 ) · P (C 0 |B) = 0, 4 · 0, 2 + 0, 1 · 0, 8 = 0, 16, 0 0 P (A|B ) = P (A|B ∩ C) · P (C|B 0 ) + P (A|B 0 ∩ C 0 ) · P (C 0 |B 0 ) = 0, 2 · 0, 8 + 0, 05 · 0, 2 = 0, 17. Stąd faktycznie 0, 4 = P (A|B ∩ C) ≥ P (A|B 0 ∩ C) = 0, 2, 0, 1 = P (A|B ∩ C 0 ) ≥ P (A|B 0 ∩ C 0 ) = 0, 05, ale P (A|B) < P (A|B 0 ). Paradoks związany jest z różnymi wagami, przez które mnożone są prawdopodobieństwa we wzorze (17). 5.18. Niech p(x) oznacza prawdopodobieństwo zrujnowania sie, gracza, jeśli na poczatku gry ma x złotych. Oczywiście , p(0) = 1, p(a) = 1. (18) Przez B oznaczmy zdarzenie, że gracz wygra w pierwszym rzucie, przez A – ruine, gracza, gdy na początku gry ma x złotych. Wtedy 1 P (B) = , P (A) = p(x), 2 P (A|B) = p(x + 1), P (A|B 0 ) = p(x − 1). Ze wzoru na prawdopodobieństwo całkowite: 1 1 p(x) = p(x + 1) + p(x − 1) dla 0 ≤ x ≤ a. 2 2 Rozwiazaniem powyższego równania rekurencyjnego jest funk, cja p(x) = C1 + C2 x, przy czym stałe C1 , C2 wyznacamy z warunków brzegowych (18). Ostatecznie x p(x) = 1 − . a 6. Zmienne losowe i ich rozkłady 6.1. Teoria i zadania Niech (Ω, Σ, P ) bedzie przestrzenia, probabilistyczna. , Funkcje, ξ : , Ω → Rn nazywamy (n-wymiarowa) zmienn a losow a, jeżeli jest funkcja, , , , mierzalna, wzgledem σ-algebry Σ, tzn. , ξ −1 (B) = {ω ∈ Ω : ξ(ω) ∈ B} ∈ Σ dla każdego B ∈ B(Rn ). Każda zmienna losowa wyznacza rozkład prawdopodobieństwa (rozkład zmiennej losowej), czyli miare, probabilistyczna, Pξ : B(Rn ) → [0, 1], taka, że Pξ (B) = P (ξ −1 (B)) dla B ∈ B(Rn ). Na odwrót, jeśli Q jest rozkładem prawdopodobieństwa, to istnieje przestrzeń probabilistyczna (Ω, Σ, P ) oraz zmienna losowa ξ : Ω → Rn taka, że Q = Pξ . Mówimy, że rozkład prawdopodobieństwa P jest dyskretny, jeżeli istnieje zbiór K ∈ B(Rn ) taki, że P (K) = 1 oraz P ({x}) > 0 dla każdego x ∈ K. Dowodzi sie, , że zbiór K jest zbiorem co najwyżej przeliczalnym. Możemy wiec Jeśli zatem K = {xi : i ∈ I}, , , ustawić elementy K w ciag. gdzie I = {1, . . . , N } lub I = N, i pi = P ({xi }), to X pi = 1 oraz pi > 0 dla każdego i ∈ I. i∈I Zauważmy, że ciag , (xi , pi )i∈I wyznacza rozkład dyskretny P w sposób jednoznaczny. Mówimy, że rozkład prawdopodobieństwa P jest absolutnie ciagły, , jeśli jest absolutnie ciagły wzgl edem miary Lebesgue’a, tzn. , , m(A) = 0 =⇒ P (A) = 0 dla każdego A ∈ B(Rn ). 72 Zmienne losowe i ich rozkłady Z twierdzenia Radona-Nikodyma wynika, że istnieje wówczas funkcja całkowalna f : Rn → R taka, że dla każdego A ∈ B(Rn ) Z P (A) = f (x)dx. A Funkcje, f nazywamy gestości a, rozkładu prawdopodobieństwa P . Do, wodzi sie, nastepuj ace własności gestości: , , , i) f ≥ 0 p.w. (wzgledem miary Lebesgue’a) , Z ii) f (x)dx = 1. Rn Na odwrót, każda funkcja o powyższych własnościach jest gestości a, , , czyli wyznacza rozkład absolutnie ciagły. , W tym i dwu nastepnych rozdziałach bedziemy sie, zajmować jed, , nowymiarowymi zmiennymi losowymi, czyli przypadkiem, gdy n = 1. Przypadkiem, gdy n > 1, czyli tzw. wektorami losowymi zajmiemy sie, w rozdziałach 10 i 11. Zad. 6.1. W urnie znajduje sie, 7 kul ponumerowanych od 1 do 7. Losujemy jednocześnie 5 kul. Niech ξ oznacza najwiekszy spośród , numerów kul w wylosowanej próbce. Znaleźć rozkład ξ. Zad. 6.2. Na trasie samochodu znajduja, sie, 4 sygnalizatory świetlne, z których każdy z prawdopodobieństwem 0, 5 przepuszcza lub zatrzymuje ruch. Znaleźć rozkład liczby sygnalizatorów, które minał , samochód przed pierwszym zatrzymaniem sie. , Zad. 6.3. Z partii 100 wyrobów, z których 10 jest wybrakowanych, losujemy 5 wyrobów do sprawdzenia. Znaleźć rozkład zmiennej losowej ξ, która jest równa liczbie wybrakowanych wyrobów w próbce. Zad. 6.4. Trzej chłopcy Adam, Bolek i Czesio graja, w nastepuj ac , a, , gre: , złożyli sie, po jednej monecie, po czym Adam podrzuca te monety do góry, a gdy spadna, zabiera te, które spadły orłami do góry. Nastepnie Bolek zbiera pozostałe monety, podrzuca je i zabiera te, , które spadły orłami do góry. Pozostałe monety zabiera Czesio. Niech 6.1. Teoria i zadania 73 ξ1 oznacza liczbe, monet wygranych przez Adama, ξ2 oznacza liczbe, monet wygranych przez Bolka, ξ3 oznacza liczbe, monet, które przypadły Czesiowi. Wyznaczyć rozkłady prawdopodobieństwa zmiennych losowych ξ1 , ξ2 , ξ3 . Zad. 6.5. Rozkład jednopunktowy. Funkcja ξ : Ω → R dana jest wzorem ξ(ω) = c dla każdego ω ∈ Ω. Wyznaczyć najmniejsza, σ-algebre, Wyznaczyć rozkład , , przy której ξ jest zmienna, losowa. zmiennej losowej ξ. Zad. 6.6. Rozkład dwupunktowy. Niech A ∈ Σ i 0 < P (A) < 1. Funkcja ξ : Ω → R dana jest wzorem ( 1 dla ω ∈ A, ξ(ω) = 0 dla ω ∈ A0 . Wyznaczyć najmniejsza, σ-algebre, , , przy której ξ jest zmienna, losowa. Wyznaczyć rozkład zmiennej losowej ξ. Zad. 6.7. Rozkład Bernoullego o parametrach n, p, B(n, p). Niech n ∈ N, p ∈ (0, 1). Wykazać, że rozkład n k P ({k}) = p (1 − p)n−k , k = 0, 1, . . . , n k jest rozkładem dyskretnym. Zad.6.8. Rozkład geometryczny z parametrem p. Niech p ∈ (0, 1). Wykazać, że rozkład P ({k}) = (1 − p)k−1 p, k = 1, 2, . . . jest rozkładem dyskretnym. Zad. 6.9. Rozkład Poissona z parametrem λ. Niech λ > 0. Wykazać, że rozkład P ({k}) = jest rozkładem dyskretnym. λk −λ e , k! k = 0, 1, . . . 74 Zmienne losowe i ich rozkłady Zad. 6.10. Niech N, M, n ∈ N, przy czym M < N , n ≤ M , n ≤ N − M . Wykazać, że równość P (ξ = m) = M m N −M n−m N n dla m = 0, 1, . . . , n. (19) definiuje rozkład prawdopodobieństwa zmiennej losowej ξ. Rozkład ten nazywamy rozkładem hipergeometrycznym o parametrach N , M = p ∈ (0, 1), to M , n. Wykazać ponadto, że jeśli lim N →∞ N n m lim P (ξ = m) = p (1 − p)n−m N →∞ m dla każdego m ∈ {0, 1, . . . , n}. Zad. 6.11. Wykazać, że funkcja określona wzorem 1 dla x ∈ [a, b], 1 b−a f (x) = 1[a,b] (x) = b−a 0 dla x ∈ / [a, b] jest gestości a, rozkładu prawdopodobieństwa. Rozkład ten nazywamy , rozkładem jednostajnym na odcinku [a, b]. Zad. 6.12. Niech λ > 0. Wykazać, że funkcja określona wzorem f (x) = 1[0,∞) (x)λe−λx dla x ∈ R, jest gestości a, rozkładu prawdopodobieństwa. Rozkład ten , nazywamy rozkładem wykładniczym z parametrem λ. Zad. 6.13. Niech m ∈ R, σ > 0. Wykazać, że funkcja określona wzorem (x−m)2 1 f (x) = √ e− 2σ2 2πσ dla x ∈ R, jest gestości a, rozkładu prawdopodobieństwa. Rozkład , ten nazywamy rozkładem normalnym o parametrach m, σ. Klase, takich rozkładów bedziemy oznaczać N (m, σ). , 6.1. Teoria i zadania 75 Zad. 6.14. Zmienna losowa η ma rozkład o gestości , f (x) = 0 2 Axe−2x dla x ≤ 0, dla x > 0. Wyznaczyć stała, A. Obliczyć P (η < 3). Zad. 6.15. Zmienna losowa η ma rozkład o gestości , 0 dla x ≤ 0, A f (x) = dla x > 0. 1 + x2 √ Wyznaczyć stała, A. Obliczyć P (0 ≤ η < 3 3 ). Zad. 6.16. Dobrać stała, A tak, aby funkcja f (x) = xA2 dla 1 ≤ |x| ≤ 2, f (x) = 0 dla pozostałych x, była gestości a, prawdopodobieństwa , zmiennej losowej ξ. Obliczyć P (|ξ| < 23 ). Zad. 6.17. Niech N ∈ N, Pk bed rozkładami prawdopodobieństwa, , a,P N λk > 0 dla k ∈ {1, . . . , N } oraz k=1 λk = 1. Wykazać, że P = PN k=1 λk Pk jest rozkładem prawdopodobieństwa. Zad. 6.18. Niech P = 31 δ0 + 32 P1 , gdzie δ0 jest miara, Diraca, tzn. dla dowolnego a ∈ R ( δa (A) = 1 gdy a ∈ A, 0 gdy a ∈ / A, a rozkład prawdopodobieństwa P1 ma gestość f = 12 1[1,3] . Obliczyć , P ([0, 2]). Zad. 6.19. Niech P = 14 δ0 + 12 δ2 + 41 P2 , gdzie rozkład prawdopodobieństwa P2 ma gestość f (x) = e−x 1(0,+∞) (x). Obliczyć P ([0, 1]), , P ([0, 2]). 76 Zmienne losowe i ich rozkłady 6.2. Wskazówki 6.1. Ustalić jakie wartości przyjmuje zmienna losowa ξ, a nastepnie , wyliczyć prawdopodobieństwa, z jakimi sa, one przyjmowane. Rozkład prawdopodobieństwa wygodnie jest przedstawić w tabelce. 6.2. Porównać zad. 6.1. 6.3. Porównać zad. 6.1. Obliczjąc P (ξ = k) skorzystać ze schematu Bernoullego. 6.4. Zmienne losowe ξ1 , ξ2 , ξ3 przyjmuja, wartości 0, 1, 2, 3. Prawdopodobieństwa w rozkładzie ξ1 można obliczyć stosujac , schemat 1 Bernoullego dla n = 3, p = 2 . Obliczajac , prawdopodobieństwa w rozkładach zmiennych ξ2 , ξ3 należy dodatkowo uwzglednić wy, niki poprzednich rzutów. 6.5. Wyznaczyć wszystkie możliwe przeciwobrazy zbiorów borelowskich. 6.6. Porównać zad. 6.5. 6.7. Zgodnie z definicja, wystarczy wskazać co najwyżej przeliczalny P zbiór K i wykazać, że k∈K P ({k}) = 1. Skorzystać ze wzoru dwumianowego Newtona, (12). 6.8. Skorzystać ze wzoru na sume, szeregu geometrycznego. 6.9. Skorzystać z rozwiniecia eλ w szereg Taylora. , 6.10. Aby wykazać, że wzór (19) definiuje rozkład prawdopodobieństwa, wystarczy skorzystać ze wzoru Van der Monde’a, (11). W celu obliczenia granicy należy rozpisać P (ξ = m) z definicji i odpowiednio pogrupować wyrazy. R 6.11. Wystarczy sprawdzić, że f ≥ 0 oraz R f (x)dx = 1. 6.12. Porównać zad. 6.11. 1 6.13. Skorzystać z faktu, że √ 2π Z R 1 2 e− 2 x dx = 1. 6.3. Odpowiedzi i rozwiazania , 77 6.14. Stała, A dobieramy tak, aby f ≥ 0 oraz R3 P (η < 3) = −∞ f (x)dx. R R f (x)dx = 1. 6.15. Porównać zad. 6.14. 6.16. Porównać zad. 6.14. 6.17. Wystarczy zauważyć, że P (R) = 1. 6.18. Dla dowolnego A ∈ B(R): P (A) = 13 δ0 (A) + 23 P1 (A). 6.19. Porównać zad. 6.18. 6.3. Odpowiedzi i rozwiazania , 6.1. Najmniejsza wartość, jaką może przjąć zmienna losowa ξ wynosi 5, to w sytuacji, gdy wylosujemy kule o numerach: 1, 2, 3, 4, 5. Stąd 1 1 P (ξ = 5) = 5 = . 21 C7 C54 C64 5 5 oraz P (ξ = 7) = = = . 5 5 21 7 C7 C7 Rozkład prawdopodobieństwa można podać w tabelce: Podobnie P (ξ = 6) = 6.2. 6.3. 6.4. ξ 5 6 7 p 1 21 5 21 15 21 ξ 0 1 2 3 4 p 1 2 1 4 1 8 1 16 1 16 ξ p 0 0,584 1 0,34 2 0,07 ξ1 0 1 2 3 p 1 8 3 8 3 8 1 8 3 6,4 ·10−3 4 2,5 ·10−4 ξ2 0 1 2 3 p 27 64 27 64 9 64 1 64 5 3,3 ·10−6 78 Zmienne losowe i ich rozkłady ξ3 0 1 2 3 p 343 512 147 512 21 512 1 512 6.5. Niech B ∈ B(R). Wtedy ( ξ −1 (B) = Ω, jeśli c ∈ B, ∅, jeśli c ∈ / B. Zatem, jeśli σ(ξ) oznacza najmniejszą σ-algebrę, przy której ξ jest zmienną losową, to σ(ξ) = {∅, Ω}. Warto zauważyć, że ξ jest zmienna, losowa, przy dowolnie wybranej σ-algebrze, gdyż każda σ-algebra zawiera ∅ i Ω. Stad , również ( P (Ω) = 1, jeśli c ∈ B, −1 Pξ (B) = P (ξ (B)) = P (∅) = 0, jeśli c ∈ / B. Zatem Pξ = δc , gdzie δc oznacza miare, Diraca skoncentrowana, w punkcie c, tzn. ( 1, jeśli c ∈ B, δc (B) = 0, jeśli c ∈ / B. 6.6. σ(ξ) = {∅, Ω, A, A0 }. Niech p = P (A) ∈ (0, 1). Wtedy Pξ = pδ1 + (1 − p)δ0 . 6.7. K = {0, 1, . . . , n}. Zgodnie ze wzorem (12) n n X X n k P ({k}) = p (1 − p)n−k = (p + 1 − p)n = 1. k k=0 k=0 6.8. K = N, X P ({k}) = k∈N ∞ X (1 − p)k−1 p = p k=1 1 = 1. 1 − (1 − p) 6.9. K = {0, 1, . . .}, ∞ X k=0 P ({k}) = ∞ X λk k=0 k! e−λ = e−λ · eλ = 1. 6.3. Odpowiedzi i rozwiazania , 79 6.10. Korzystając ze wzoru Van der Monde’a, mamy n X m=0 n 1 X M N −M P (ξ = m) = N = 1, m n−m n m=0 zatem (19) zadaje rozkład prawdopodobieństwa. M = p, grupujemy wyrazy po prawej stroN →∞ N Zakładając, że lim nie (19), P (ξ = m) n! M! (N − M )! (N − n)! = · · · m!(n − m)! (M − m)! (N − M − n + m)! N! n M M −1 M −m+1 · = · · ... · · m N N −1 N −m+1 N −M N −M −1 N −M −n+m+1 · · · ... · N −m N −m−1 N −n+1 n m −→ p (1 − p)n−m , gdy N → ∞. m Warto zauważyć, że z rozkładem hipergeometrycznym mamy do czynienia w sytuacji, gdy ze zbioru N -elementowego, który zawiera M wyróżnionych elementów, losujemy próbkę nelementową. Zmienna losowa ξ wyrażająca liczbę elementów wyróżnionych w próbce ma rozkład hiperboliczny. Wykazaną w zadaniu implikację można w takim razie zinterpretować następująco. Jeśli losujemy z dużego zbioru, to szansa, że wśród wylosowanych n elementów znajdzie się m elementów wyróżnionych (losowanie bez zwracania) jest podobna do szansy m-krotnego wylosowania wyróżnionego elementu spośród n elementów w losowaniu ze zwracaniem. Z Z b 1 6.11. Oczywiście f ≥ 0, ponadto f (x)dx = dx = 1. b−a a R Z Z ∞ 6.12. f (x)dx = λe−λx dx = 1 i f ≥ 0. R 0 80 Zmienne losowe i ich rozkłady 6.13. Wprowadzając nową zmienną całkowania t = x−m σ , otrzymujemy Z Z (x−m)2 t2 1 1 − 2 √ e 2σ dx = √ e− 2 dt = 1. 2πσ R 2π R Z 3 Z 2 4xe−x dx = 1 − e−18 . f (x)dx = 6.14. A = 4, P (η < 3) = 0 (−∞,3) 6.15. A = 2 , P (0 ≤ η < π √ 3 3 ) = 31 . 6.16. Rozważana funkcja f jest parzysta, zatem Z Z Z 2 A dx f (x)dx = dx = 2A = A, 2 2 R 1≤|x|≤2 x 1 x czyli A = 1. Podobnie P 6.17. P (R) = 3 |ξ| < 2 PN k=1 λk Pk (R) = 3 2 Z =2 1 PN k=1 λk dx 2 = . 2 x 3 = 1. 6.18. Zauważmy, że δ0 ([0, 2]) = 1, bo 0 ∈ [0, 2], natomiast Z P1 ([0, 2]) = f (x)dx = [0,2] Zatem 6.19. P ([0, 1]) = Z 1 2 1 1 dx = . 2 2 1 2 2 P ([0, 2]) = δ0 ([0, 2]) + P1 ([0, 2]) = . 3 3 3 1 1 1 − , P ([0, 2]) = 1 − 2 . 2 4e 4e 7. Dystrybuanta 7.1. Teoria i zadania Dystrybuanta, nazywamy funkcje, F : R nastepuj ace warunki: , , → R spełniajac , a, i) F jest niemalejaca, , ii) F jest prawostronnie ciagła, , iii) lim F (x) = 1, lim F (x) = 0. x→+∞ x→−∞ Jeśli P jest jednowymiarowym rozkładem prawdopodobieństwa, to funkcja F (x) = P ((−∞, x]) dla x ∈ R (20) jest dystrybunata. , Mówimy wtedy, że rozkład P ma dystrybuante, F . Na odwrót, jeśli F jest dystrybuanta, , to istnieje dokładnie jeden rozkład prawdopodobieństwa P taki, że zachodzi (20). Zatem dystrybuanta wyznacza rozkład prawdopodobieństwa w sposób jednoznaczny. W przypadku, gdy rozkład P jest dyskretny, zadany przez ciag , (xi , pi )i∈I , I = {1, . . . , N }, N ∈ N lub I = N, dystrybuanta jest funkcja, schodkowa, , dana, wzorem: X F (x) = pi , gdzie I(x) = {i ∈ I : xi ≤ x}. i∈I(x) Jeśli natomiast rozkład P jest absolutnie ciagły o gestości f , to , , Z x F (x) = f (t)dt dla x ∈ R. −∞ W tym przypadku dystrybuanta jest funkcja, ciagł , a, , a nawet różniczkowalną, w tych punktach, w których f jest ciągła oraz F 0 (x) = f (x) p.w. (21) 82 Dystrybuanta Zad. 7.1. Wyznaczyć i naszkicować dystrybuanty rozkładów zdefiniowanych w zadaniach 6.1, 6.2. Zad. 7.2. Wyznaczyć i naszkicować dystrybuante, rozkładu: jednostajnego na odcinku [a, b], wykładniczego z parametrem λ > 0. Zad. 7.3. Wyznaczyć i naszkicować dystrybuanty rozkładów zdefiniowanych w zadaniach 6.14, 6.15, 6.16. Zad. 7.4. Wyznaczyć dystrybunate, zmiennej losowej ξ o gestości , 2· 1 dla |x| ≤ 1 π x2 + 1 f (x) = 0 dla |x| > 1. Obliczyć P (|ξ| < 23 ). Zad.7.5. Obliczyć P (ξ ≤ 1, 5) oraz P (|ξ| < 2, 5), jeśli zmienna losowa ξ ma rozkład a) N (0, 1) (standardowy rozkład normalny), b) N (1, 2). Zad.7.6. Zbadać czy funkcja F (x) = A cos x+B, x ∈ [0, π2 ], może być rozszerzona do dystrybuanty pewnej zmiennej losowej. Zaproponować ewentualne rozszerzenie. Zad. 7.7. Wyznaczyć stałe A, B tak, aby funkcja 2 A + Be−x dla x > 0, F (x) = 0 dla x ≤ 0 była dystrybuanta, rozkładu absolutnie ciagłego. Wyznaczyć gestość , , tego rozkładu. Obliczyć P (|ξ| = 1) oraz P (|ξ| ≤ 1), jeśli ξ jest zmienna, losowa, o powyższym rozkładzie. Zad. 7.8. Wyznaczyć dystrybuante, rozkładu P = 13 δ0 + 23 P1 , gdy P1 jest rozkładem prawdopodobieństwa o gestości f = 21 1[1,3] . , Zad. 7.9. Wyznaczyć dystrybuante, rozkładu P = 14 δ0 + 12 δ2 + 1 f (x) = , 4 P2 , gdy P2 jest rozkładem prawdopodobieństwa o gestości e−x 1(0,+∞) (x). 7.2. Wskazówki 83 Zad. 7.10. Wykazać, że funkcja F : R → [0, 1] zadana wzorem F (x) = 0 dla x < 0, 1 −x 1 − 4e dla 0 ≤ x jest dystrybuanta, rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład. Zad. 7.11. Wykazać, że funkcja F : R → [0, 1] zadana wzorem F (x) = 0 dla x < 0, + 12 x dla x ∈ [0, 1), 1 dla x ≥ 1 1 2 jest dystrybuanta, rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład. 7.2. Wskazówki 7.1. Skorzystać ze wzoru na dystrybuante, w przypadku dyskretnym. 7.2. Skorzystać ze wzoru na dystrybuante, w przypadku absolutnie ciagłym. , 7.3. Porównać zad. 7.2. 7.4. Porównać zad. 7.2. 7.5. Zapisać każde z szukanych prawdopodobieństw za pomoca, dystrybuanty i skorzystać z tablic dystrybuanty standardowego rozkładu normalnego. W przypadku b) zauważyć, że jeśli ξ ma rozkład N (1, 2), to zmienna losowa ξ−1 2 ma standardowy rozkład normalny. 7.6. Czy można tak dobrać stałe A, B, żeby funkcja F spełniała aksjomaty i) – iii)? 84 Dystrybuanta 7.7. Dobrać stałe A, B tak, aby funkcja F spełniała aksjomaty i) – iii), a jednocześnie była ciagła. Skorzystać ze zwiazku dystry, , buanty z gestości a, (21). , 7.8. Należy rozważyć dystrybuante, na przedziałach: (−∞, 0), [0, 1), [1, 3) oraz [3, +∞). 7.9. Rozważyć przypadki, gdy x ∈ (−∞, 0), x ∈ [0, 2), x ∈ [2, +∞). 7.10. Sprawdzić, że funkcja F spełnia aksjomaty i) – iii) definicji dystrybuanty. Dystrybuanta F nie jest funkcja, schodkowa, ani funkcja, ciagł jej rozkład nie jest wiec , a, , odpowiadajacy , , dyskretny ani absolutnie ciagły. Jest kombinacja, takich rozkładów, porów, nać zad. 7.8, 7.9. Nastepnie zauważyć, że F ma skok w punkcie , x = 0, przy czym F (0) − lim F (x) = 3/4. Za taki skok odx→0− powiada miara δ0 z odpowiednio dobranym współczynnikiem. Cześć absolutnie ciagł , a, odczytać z porównania z dystrybuanta, , rozkładu wykładniczego lub z zależności f (x) = F 0 (x) p.w. 7.11. Porównać zad. 7.10. 7.3. Odpowiedzi i rozwiazania , 7.1. W zadaniu 6.1: 0 1 21 F (x) = 6 21 1 dla x < 5, dla 5 ≤ x < 6, dla 6 ≤ x < 7, dla 7 ≤ x, w zadaniu 6.2: 0 dla 1 dla 2 3 dla 4 F (x) = 7 dla 8 15 dla 16 1 dla x < 0, 0 ≤ x < 1, 1 ≤ x < 2, 2 ≤ x < 3, 3 ≤ x < 4, 4 ≤ x. 7.3. Odpowiedzi i rozwiazania , 85 7.2. Dystrybuanta rozkładu jednostajnego na odcinku [a, b]: 0 Z x x−a f (t)dt = F (x) = b−a −∞ 1 dla x < a, dla a ≤ x < b, dla x ≥ b. Dystrybuanta rozkładu wykładniczego z parametrem λ: ( F (x) = 0 dla x < 0, −λx 1−e Dystrybuanta rozkł. jednostajnego dla x ≥ 0. Dystrybuanta rozkł. wykładniczego 7.3. W zadaniu 6.14: ( F (x) = 0 Rx 0 dla x < 0, 2 4te−2t dt =1− 2 e−2x dla x ≥ 0. W zadaniu 6.15: 0 dla x < 0, F (x) = 2 arctg x dla x ≥ 0. π 86 Dystrybuanta W zadaniu 6.16: 0 1 1 − − x 2 1 F (x) = 2 −1 + 3 x 2 1 Dystrybuanta rozkł. z zad. 6.15 dla x < −2, dla − 2 ≤ x < −1, dla − 1 ≤ x < 1, dla 1 ≤ x < 2, dla 2 ≤ x. Dystrybuanta rozkł. z zad. 6.16 7.4. 0 dla x < −1, 1 2 F (x) = + arctg x dla − 1 ≤ x < 1, 2 π 1 dla x ≥ 1. P 3 |ξ| < 2 3 3 =F −F − = 1. 2 2 7.3. Odpowiedzi i rozwiazania , Dystrybuanta rozkładu z zad. 7.4 7.5. a) Korzystamy z tablic dystrybuanty standardowego rozkładu Z x 1 2 1 normalnego Φ(x) = √ e− 2 t dt oraz z faktu, że Φ(x) + 2π −∞ Φ(−x) = 1. P (ξ ≤ 1, 5) = Φ(1, 5) ≈ 0, 93, P (|ξ| < 2, 5) = Φ(2, 5) − Φ(−2, 5) = 2Φ(2, 5) − 1 ≈ 0, 99. 1, 5 − 1 b) P (ξ ≤ 1, 5) = P (η ≤ ) = Φ(0, 25) ≈ 0, 60, gdzie 2 ξ−1 η= ma standardowy rozkład normalny. Podobnie 2 7 3 P (|ξ| < 2, 5) = P (− < η < ) = Φ(0, 75)+Φ(1, 75)−1 ≈ 0, 73. 4 4 7.6. Można przyjać , na przykład A = −1, B = 1 i wtedy F (x) = 0 dla x < 0 oraz F (x) = 1 dla x > π2 . Inny przykład: A = − 12 , B = 1, F (x) = 0 dla x < 0 oraz F (x) = 1 dla x > π2 . 7.7. Stałe A, B spełniaja, układ równań A + B = 0, A = 1, czyli A = 1, B = −1. Zgodnie z (21) f (x) = F 0 (x) p.w., czyli ( 0 dla x ≤ 0, f (x) = 2 2xe−x dla x > 0. P (|ξ| = 1) = 0, P (|ξ| ≤ 1) = F (1) − F (−1) = 1 − e−1 . 87 88 Dystrybuanta 7.8. 0 1 3 F (x) = x 3 1 7.9. dla x < 0, dla 0 ≤ x < 1, dla 1 ≤ x < 3, dla x ≥ 3. 0 1 e−x − F (x) = 2 4 −x 1− e 4 Dystrybuanta rozkładu z zad. 7.8 dla x < 0, dla 0 ≤ x < 2, dla x ≥ 2. Dystrybuanta rozkładu z zad. 7.9 3 1 7.10. P = δ0 + P3 , gdzie P3 oznacza rozkład wykładniczy z para4 4 metrem 1. 1 1 δ0 + P4 , gdzie P4 jest rozkładem jednostajnym na od2 2 cinku [0, 1]. 7.11. P = 8. Parametry zmiennych losowych 8.1. Teoria i zadania Niech (Ω, Σ, P ) bedzie przestrzenia, probabilistyczn a, , ξ: Ω → R , R zmienna, losowa, całkowalna, , tzn. taka, , że Ω |ξ|dP < ∞. Wtedy wartościa, oczekiwana, (wartościa, średnia) , zmiennej losowej ξ nazywamy liczbe, Z Eξ = ξdP. Ω Zgodnie z powyższa, definicja, wartość oczekiwana ma te same własności, co całka, w szczególności liniowość i zachowanie przy przejściach granicznych. Niech g : R → R bedzie funkcja, borelowska, , tzn. mierzalna, , wzgledem σ-algebry zbiorów borelowskich. Wtedy złożenie g ◦ξ : Ω → , R, oznaczane tradycyjnie przez g(ξ), jest zmienna, losowa, i, zgodnie z twierdzeniem o zamianie miary w całce, Z E(g(ξ)) = g(x)dPξ (x), R przy czym równość oznacza tu, że jeśli całka po jednej stronie istnieje, to istnieje także całka po drugiej stronie i zachodzi równość. W szczególności, jeśli ξ ma rozkład dyskretny, zadany przez ciag , (xi , pi )i∈I , I = {1, . . . , N }, N ∈ N, lub I = N, to Eξ = X xi pi . (22) i∈I Mamy również E(g(ξ)) = X g(xi )pi (23) i∈I dla dowolnej funkcji borelowskiej, przy czym w przypadku, gdy zbiór I jest przeliczalny, należy założyć zbieżność bezwzgledn a, powyższych , szeregów. 90 Parametry zmiennych losowych Jeśli natomiast ξ ma rozkład absolutnie ciagły o gestości f :R→ , , R [0, +∞) i R |x|f (x)dx < ∞, to wartość oczekiwana ξ istnieje i wyraża sie, wzorem Z Eξ = xf (x)dx. (24) R Dla dowolnej funkcji borelowskiej g takiej, że mamy Z E(g(ξ)) = g(x)f (x)dx. R R |g(x)|f (x)dx < ∞, (25) R Liczby E((ξ − c)k ) i E(|ξ − c|k ) nazywamy odpowiednio momentem i momentem bezwzglednym rzedu , , k zmiennej losowej ξ wzgledem stałej c. Jeśli c = 0 mówimy o mo, mentach zwykłych, jeśli c = Eξ – centralnych. Zauważmy, że Eξ jest momentem zwykłym rzedu pierwszego. Natomiast moment centralny , rzedu drugiego nazywamy wariancj a, zmiennej losowej ξ i oznaczamy , 2 D ξ, tzn. D2 ξ = E(ξ − Eξ)2 . Czasem wariancje, wygodnie jest wyliczać ze wzoru D2 ξ = Eξ 2 − (Eξ)2 . (26) Warto też zauważyć, że D2 (aξ + b) = a2 D2 ξ ∀a, b ∈ R. (27) Ponieważ dla każdej zmiennej losowej (dla której wariancja istnieje) D2 ξ ≥ 0, można zdefiniować odchylenie standardowe p σ = D2 ξ. Niech ξ będzie dowolną zmienną losową, dla której wariancja istnieje i σ > 0. Zauważmy, że jeśli η= ξ − Eξ σ to Eη = 0, zaś D2 η = 1. Wykonaliśmy w ten sposób tzw. standaryzację zmiennej losowej ξ. 8.1. Teoria i zadania 91 Wariancja i odchylenie standardowe sa, parametrami rozkładu, które mierza, rozrzut rozkładu wokół wartości średniej. Inne parametry, które określaja, sposób koncentracji rozkładu wokół wartości średniej, to: • współczynnik asymetrii (skośność): α3 = E(ξ − Eξ)3 , σ3 • współczynnik spłaszczenia (kurtoza): α4 = E(ξ − Eξ)4 − 3. σ2 Skoro wartość oczekiwana jest całką, to prawdziwa jest nierówność Schwarza: p |E(ξη)| ≤ Eξ 2 · Eη 2 , (28) patrz rozdział 9, 10. Udowadnia się również: nierówność Markowa. Jeśli ξ : Ω → R jest zmienną losową nieujemną, ε > 0, k ∈ N, to P (ξ ≥ ε) ≤ Eξ k , εk (29) nierówność Czebyszewa. Jeśli Eξ istnieje, to dla każdego ε > 0 P (|ξ − Eξ| ≥ ε) ≤ D2 ξ . ε2 (30) Zad. 8.1. Obliczyć wartości oczekiwane i wariancje zmiennych losowych o rozkładach: 1. dwupunktowym, 2. Bernoullego, 92 Parametry zmiennych losowych 3. Poissona, 4. geometrycznym, 5. jednostajnym na odcinku [a, b], 6. wykładniczym, 7. normalnym. Zad. 8.2. Wykazać, że jeśli ξ ma rozkład Cauchy’ego o parametrach m ∈ R, a > 0, czyli o gęstości f (x) = 1 a π a2 + (x − m)2 dla x ∈ R, to wartość oczekiwana ξ nie istnieje. Zad. 8.3. Wykazać, że E(ξ − m)2k = Cσ 2k dla k ∈ N, jeśli zmienna losowa ξ ma rozkład normalny o parametrach m, σ, zaś C ∈ R jest stosownie dobraną stałą. Zad. 8.4. Wykazać wzory (26), (27). Zad. 8.5. Na loterii jest N losów, w tym M losów wygrywajacych. , Kupiono n losów. Jaka jest średnia liczba losów wygrywajacych wśród , zakupionych? Zad. 8.6. Włamywacz ma n kluczy, z których dokładnie jeden jest kluczem właściwym. Wybiera on klucze losowo i nie pamieta, które , z nich były już próbowane. Obliczyć średnia, liczbe, prób potrzebnych do otwarcia drzwi. Zad. 8.7. Posiadam n kluczy w peku i usiłuje, otworzyć drzwi do , mieszkania. Tylko jeden klucz pasuje do zamka, ale niestety jest ciemno i nie potrafie, rozróżnić kluczy miedzy soba. , Jaka jest wartość , oczekiwana i wariancja liczby prób koniecznych do otwarcia drzwi, jeżeli klucze, które nie pasowały do zamka nie biora, udziału w dalszych próbach? Zad. 8.8. Sekretarka napisała 3 listy do 3 różnych adresatów, włożyła je do kopert, zakleiła, po czym na każdej kopercie nakleiła jeden z adresów, na które trzeba było listy wysłać. Obliczyć wartość oczekiwana, i wariancje, liczby listów zaadresowanych prawidłowo. 8.1. Teoria i zadania 93 Zad. 8.9. Przy okragłym stole zasiadło w sposób losowy trzech fi, zyków, dwóch matematyków i jeden informatyk. Jaka jest oczekiwana liczba fizyków siedzacych pomiedzy matematykami po tej stro, , nie stołu, po której nie siedzi informatyk? Zad. 8.10. Pewien matematyk ma dwa pudełka zapałek, w lewej i prawej kieszeni po jednym. W każdym z nich sa, cztery zapałki. Wyciagaj ac , , zapałki na chybił trafił z jednej lub drugiej kieszeni, stwierdza w pewnym momencie, że pudełko, do którego siegn ał , jest , puste. Niech zmienna losowa ξ oznacza liczbe, zapałek w drugim pudełku. Wyznaczyć rozkład ξ i obliczyć Eξ. Zad. 8.11. Jeden z pracowników Instytutu Matematyki zadaje na egzaminie trzy pytania. Ocenia każde z nich z osobna w skali: 1, 2, 3, 4, 5 i skreśla najwyższa, oraz najniższa, ocene. , Ta, która zostanie jest ocena, końcową. Jeżeli prawdopodobieństwo otrzymania dowolnej oceny jest w przypadku każdego z pytań takie samo i równe 51 oraz oceny z poszczególnych pytań sa, niezależne, to jak wyglada rozkład , oceny końcowej i ile wynosi jej wartość oczekiwana? Zad. 8.12. Wyznaczyć współczynnik asymetrii zmiennych losowych o gestościach: , a) f (x) = 12x(1 − x)2 dla 0 < x < 1, f (x) = 0 dla x ∈ / (0, 1); b) g(x) = 12x2 (1 − x) dla 0 < x < 1, f (x) = 0 dla x ∈ / (0, 1); c) zmiennej losowej o standardowym rozkładzie normalnym. Zad. 8.13. Wyznaczyć kurtoze, a) zmiennej losowej o rozkładzie jednostajnym na odcinku [−a, a]; b) zmiennej losowej o standardowym rozkładzie normalnym; 1 1 ≤E . Zad. 8.14. Wykazać, że jeśli X > 0, EX > 0, to EX X Zad. 8.15. Zmienna losowa ξ ma rozkład gamma o parametrach α, λ > 0, jeśli ma gęstość f (x) = λα α−1 −λx x e 1(0,∞) (x). Γ(α) 94 Parametry zmiennych losowych Przypomnijmy, że Γ oznacza funkcję gamma Eulera i Z ∞ y α−1 e−y dy dla α > 0. Γ(α) = 0 Wykazać, że jeśli ξ ma rozkład gamma o parametrach α = m + 1, m λ = 1, m ∈ N, to P (ξ < 2(m + 1)) > . m+1 Zad. 8.16. Wykazać, że jeśli EX ≥ 0, EX 2 > 0, to P (X > 0) ≥ (EX)2 . EX 2 Zad. 8.17. Wykazać, że jeśli E(epX ) istnieje dla p > 0, to P (X ≥ ε) E(eλX ) ≤ dla każdego ε > 0 oraz λ ∈ [0, p]. eλε 8.2. Wskazówki 8.1. Aby obliczyć wartość oczekiwaną, w przypadku zmiennych losowych o rozkładach 1 - 4, skorzystać ze wzoru (22), w pozostałych przypadkach ze wzoru (24). Wariancję obliczyć ze wzoru (26) oraz odpowiednio (23) lub (25), dla funkcji g(x) = x2 dla x ∈ R. R 8.2. Wykazać, że warunek R |x|f (x)dx < ∞ nie jest spełniony. 8.3. Porównać zad. 8.1, punkt 7. Obliczyć E(ξ −m)4 , odgadnąć stałą C. Wzór udowodnić stosując zasadę indukcji. 8.4. Skorzystać z definicji wariancji, liniowości wartości oczekiwanej i faktu, że Eξ = c, jeśli ξ = c p.n. 8.5. Jeśli ξ oznacza liczbę losów wygrywających wśród n losów zakupionych, to ξ ma rozkład hipergeometryczny, porównać zad. 6.10. Należy obliczyć Eξ. 8.6. Zauważyć, że jeśli ξ oznacza numer próby, przy której uda się otworzyć drzwi, to ξ ma rozkład geometryczny. Chodzi o obliczenie Eξ. 8.3. Odpowiedzi i rozwiazania , 95 8.7. Porównać zad. 8.6. Wyznaczyć stosowny rozkład. 8.8. Wyznaczyć rozkład prawdopodobieństwa liczby listów zaadresowanych prawidłowo. 8.9. Porównać zad. 2.27. 8.10. Porównać zad. 4.17. 8.11. Wyznaczyć rozkład oceny końcowej. 8.12. E(ξ − Eξ)3 obliczyć korzystając z liniowości wartości oczekiwanej. 8.13. Porównać zad. 8.12. 8.14. Skorzystać z nierówności Schwarza (28). 8.15. Skorzystać z nierówności Czebyszewa (30). 8.16. Skorzystać z nierówności Schwarza dla całki A = {X > 0}. R Ω 1A XdP , gdzie 8.17. Skorzystać z nierówności Markowa (29). 8.3. Odpowiedzi i rozwiazania , 8.1. 1. Jeśli X ma rozkład dwupunktowy z parametrem p, to P (X = 1) = p, P (X = 0) = 1 − p. Zatem EX = 1 · p + 0 · (1 − p) = p D2 X = EX 2 − (EX)2 = p − p2 = p(1 − p). 96 Parametry zmiennych losowych 2. Niech X ma rozkład Bernoullego o parametrach n, p, tzn. n k P (X = k) = p (1 − p)n−k dla k = 0, . . . , n. k n X n k EX = k p (1 − p)n−k k k=0 = n X k=1 = np n X k=1 n! pk (1 − p)n−k (k − 1)!(n − k)! (n − 1)! pk−1 (1 − p)n−1−(k−1) (k − 1)!(n − 1 − (k − 1))! n−1 X (n − 1)! pl (1 − p)n−1−l l!(n − 1 − l)! l=0 n−1 X n − 1 = np pl (1 − p)n−1−l l = np l=0 = np(p + (1 − p))n−1 = np. Podobnie obliczamy, że EX 2 = n(n − 1)p2 + np, i stąd D2 X = np(1 − p). P Można też zauważyć, że X = ni=1 ξi , gdzie 1, gdy w i-tej próbie pojawił się sukces, ξi = 0, gdy i-ta próba zakończyła się porażką. Wtedy zmienne losowe ξi mają rozkład dwupunktowy z parametrem p (i = 1, . . . , n). Zatem korzystając z liniowości wartości oczekiwanej EX = n X Eξi = np. i=1 Obliczając wariancję X korzystamy z niezależności zmiennych losowych ξi i wzoru (37), rozdział 10, D2 X = n X i=1 D2 ξi = np(1 − p). 8.3. Odpowiedzi i rozwiazania , 97 3. Załóżmy, że X ma rozkład Poissona z parametrem λ, czyli λk −λ P (X = k) = e dla k = 0, 1, . . . . k! ∞ ∞ X X λk −λ λk−1 −λ EX = k e =e λ k! (k − 1)! k=0 = e−λ λ k=1 ∞ X λl l=0 l! = e−λ λ · eλ = λ. Analogicznie EX 2 = λ + λ2 , i konsekwentnie D2 X = λ. 4. Zakładamy, że X ma rozkład geometryczny z parametrem p, P (X = k) = p(1 − p)k−1 dla k ∈ N. EX = ∞ X kp(1 − p)k−1 = p k=1 ∞ X k(1 − p)k−1 . k=1 Ostatnią sumę można obliczyć grupując stosownie wyrazy (można to zrobić, bo wyrazy są dodatnie) i stosując wzór na sumę nieskończonego ciągu geometrycznego. ∞ X k(1 − p)k−1 k=1 = 1 + (1 − p) + (1 − p)2 + . . . +(1 − p) + (1 − p)2 + . . . +(1 − p)2 + . . . +... 1 1 − p (1 − 1 + ... = 2. = + p p p p P∞ k−1 Można też wyznaczyć P∞ k sumę szeregu k=1 kx , różniczkując szereg k=1 x , dla |x| < 1 zbieżny bezwzględnie i jednostajnie, a następnie podstawić argument x = 1 − p. Ostatecznie 1 EX = . p p)2 98 Parametry zmiennych losowych Aby wyznaczyć wariancję, zauważmy, że EX 2 = = p(1 − p) ∞ X ∞ X k 2 p(1 − p)k−1 k=1 ∞ X k(k − 1)(1 − p)k−2 + p k=1 k(1 − p)k−1 . k=1 Dalszy rachunek jest analogiczny jak poprzednio. Ostatecznie EX 2 = p(1 − p) 1 2 + 3 p p D2 X = i 1−p . p2 5. Niech X ma rozkład jednostajny na odcinku [a, b], tj. roz1 1 . Zgodnie ze wzorem (24) kład o gęstości f = b − a [a,b] Z EX = b Z xf (x)dx = a R x 1 b2 − a2 a+b dx = · = . b−a b−a 2 2 Podobnie, korzystając z (25), Z 2 b EX = a x2 a2 + ab + b2 dx = , b−a 3 stąd D2 X = EX 2 − (EX)2 = (b − a)2 . 12 6. Rozważamy zmienną losową X o gęstości f (x) λe−λx 1[0,+∞) (x). Całkując przez części, otrzymujemy ∞ Z EX = λxe−λx dx = lim A Z A→+∞ 0 0 = lim (−xe−λx |A 0 A→+∞ = lim (−Ae−λA − A→+∞ Z + λxe−λx dx A e−λx dx) 0 1 −λx A 1 e |0 ) = . λ λ = 8.3. Odpowiedzi i rozwiazania , 99 Podobnie obliczamy całkę Z ∞ 2 λx2 e−λx dx EX = 0 = lim (−x2 e−λx |A 0 A→+∞ i konsekwentnie D2 X = Z +2 A xe−λx dx) = 0 2 , λ2 1 . λ2 7. Zauważmy najpierw, że jeśli X ma standardowy rozkład 1 2 1 normalny, czyli rozkład o gęstości f (x) = √ e− 2 x dla 2π x ∈ R, to Z EX = xf (x)dx = 0, R jako całka z funkcji nieparzystej po R. Wariancję obliczamy całkując przez części i pamiętając, że całka po R z gęstości wynosi 1. D2 X = EX 2 A 1 2 2 x2 f (x)dx = √ lim x · xe− 2 x dx 2π A→+∞ 0 R Z A 1 2 2 − 21 x2 A =√ lim (−xe e− 2 x dx) |0 + A→+∞ 2π Z 0 1 2 1 =√ e− 2 x dx = 1. 2π R Z = Z Jeśli Y ma rozkład N (m, σ), to Z (x−m)2 1 EY = √ xe− 2σ2 dx, 2πσ R Z (x−m)2 1 D2 Y = √ (x − m)2 e− 2σ2 dx, 2πσ R i podstawienie y = x−m σ sprowadza obliczenia do identycznych jak poprzednio. Ostatecznie, EY = m, D2 Y = σ 2 . 100 Parametry zmiennych losowych Z 1 a|x| dx jest rozbieżna. W tym celu, 2 2 R π a + (x Z − m) |y| dy jest rozbieżna. Istotnie, wystarczy zauważyć, że 2 R 1+y Z +∞ Z |y| y dy = 2 dy 2 1 + y 1 + y2 R 0 Z +∞ Z +∞ y 1 ≥ 2 dy ≥ dy, 2 1+y y 1 1 8.2. Pokażemy, że a ostatnia całka jest rozbieżna. 8.3. W zad. 8.1 obliczyliśmy, że E(ξ − m)2 = σ 2 . Załóżmy, że dla k∈N E(ξ − m)2k = 1 · 3 · . . . · (2k − 1)σ 2k . Pokażemy, że E(ξ − m)2k+2 = 1 · 3 · . . . · (2k + 1)σ 2k+2 . Istotnie, jeśli f jest gęstością rozkładu normalniego o parametrach m, σ, to 0 2 σ − (x−m) 2 − √ e 2σ = (x − m)f (x). 2π Zauważając, że lim (x − m)2k+1 e− (x−m)2 2σ 2 x→+ −∞ = 0, całkujemy przez części 2k+2 Z E(ξ − m) = (x − m)2k+2 f (x)dx R Z = (x − m)2k+1 (x − m)f (x)dx R = (2k + 1)σ 2 Z (x − m)2k f (x)dx = (2k + 1)σ 2 E(ξ − m)2k R i korzystamy z założenia indukcyjnego E(ξ − m)2k+2 = (2k + 1)σ 2 · 1 · 3 · . . . · (2k − 1)σ 2k = 1 · 3 · . . . · (2k + 1)σ 2k+2 . 8.3. Odpowiedzi i rozwiazania , 101 Zgodnie z zasadą indukcji matematycznej wykazaliśmy więc, że dla każdego k ∈ N zachodzi wzór E(ξ − m)2k = Cσ 2k , gdzie C = 1 · 3 · . . . · (2k − 1) = (2k − 1)!!. 8.4. Korzystając z liniowości wartości oczekiwanej, mamy D2 ξ = E((ξ − Eξ)2 ) = E(ξ 2 − 2ξEξ + (Eξ)2 ) = Eξ 2 − 2(Eξ)2 + (Eξ)2 = Eξ 2 − (Eξ)2 i podobnie D2 (aξ + b) = E((aξ + b − E(aξ + b))2 ) = E((aξ + b − aEξ − b)2 ) = a2 E((ξ − Eξ)2 ) = a2 D2 ξ. 8.5. Niech ξ oznacza liczbę losów wygrywających wśród n zakupionych. Wtedy M N −M m P (ξ = m) = n−m N n dla m = 0, . . . , M, czyli ξ ma rozkład hipergeometryczny, porównać zad. 6.10. Niech m0 = min{M, n}. m0 m0 M N −M X M X M −1 N −M m n−m Eξ = = m N N m−1 n−m n n m=1 m=0 m0 −1 M X M −1 N −M = N . k n−k−1 n k=0 Oczywiście, dla każdego x ∈ R (1 + x)N −1 = (1 + x)N −M (1 + x)M −1 . Stąd, porównując współczynniki przy xn−1 po obydwu stronach równości, otrzymujemy tożsamość N −1 n−1 = m 0 −1 X k=0 M −1 k N −M . n−k−1 102 Parametry zmiennych losowych Zatem M N −1 Mn Eξ = N = . N n−1 n Podobnie oblicza się, że Eξ 2 = Mn (M n − M + N − n), N (N − 1) i w konsekwencji D2 ξ = M n (N − M )(N − n) . N N (N − 1) 8.6. Niech ξ oznacza numer próby, przy której włamywacz otworzy drzwi. Prawdopodobieństwo wybrania właściwego klucza w dowolnej próbie wynosi p = n1 . Stąd P (ξ = k) = (1 − p)k−1 p = (n − 1)k−1 nk dla k = 1, 2, . . . , czyli zmienna losowa ξ ma rozkład geometryczny z parametrem p = n1 . Zgodnie z zad. 8.1, punkt 4, Eξ = 1 = n. p 8.7. Niech η oznacza liczbę prób potrzebnych do otwarcia drzwi. Ponieważ klucze, które nie pasowały do zamka nie biorą udziału w dalszych próbach, prawdopobieństwo pk = P (η = k) obliczamy dla każdego k = 1, . . . , n. Mianowicie p1 = n−1 1 1 · = , ... n n−1 n 1 1 1 n−1 pn = · ... · · 1 = . n n−1 2 n 1 , n p2 = Jest to rozkład równomierny. Zatem Eη = D2 η = 1 n+1 (1 + 2 + . . . + n) = , n 2 (n + 1)2 (4n − 3) . 12 8.3. Odpowiedzi i rozwiazania , 103 8.8. Niech X oznacza liczbę listów zaadresowanych prawidłowo. Rozkład X podaje tabelka: X 0 1 3 p 1 3 1 2 1 6 EX = 1, D2 X = 1. Ogólniejszą wersję tego zadania rozwiążemy w rozdziale 10 (zad. 10.9). 8.9. Niech X oznacza liczbę fizyków siedzących pomiędzy matematykami, po tej stronie stołu, po której nie siedzi informatyk. Rozkład zmiennej losowej X przedstawia tabelka (porównać zad. 2.27): X 0 1 2 3 p 2 5 3 10 1 5 1 10 Zatem EX = 1. 8.10. Rozkład zmiennej losowej ξ przedstawia tabelka (porównać zad. 4.17): ξ 0 1 2 3 4 p 35 27 35 27 30 27 20 27 8 27 i konsekwentnie Eξ = 187 128 . 8.11. Niech X oznacza ocenę końcową. Wtedy EX = 3. X 1 2 3 4 5 p 13 125 31 125 37 125 31 125 13 125 104 Parametry zmiennych losowych 8.12. Oznaczmy µ3 = E(ξ − Eξ)3 . Zgodnie z definicją α3 = Korzystając z liniowości wartości oczekiwanej, mamy µ3 . σ3 µ3 = Eξ 3 − 3Eξ 2 Eξ + 3Eξ(Eξ)2 − (Eξ)3 = Eξ 3 − 3EξD2 ξ − (Eξ)3 . a) zmienna losowa ξ ma rozkład f , to Eξ = R 1 Jeśli R 1 o gęstości 2 (1 − x)2 dx = 2 , Eξ 2 = 3 (1 − x)2 dx = 1 , 12x 12x 5 5 0 0 R1 1 4 Eξ 3 = 0 12x4 (1 − x)2 dx = 35 , stąd D2 ξ = 25 i zgodnie 2 z wyprowadzonym wzorem µ3 = 875 ≈ 0, 0023. Ostatecznie 2 α3 = 7 ≈ 0, 28 > 0. Jest to tzw. asymetria prawa. b) α3 = − 72 ≈ −0, 28 < 0. Asymetria lewa. c) Jeśli ξ ma standardowy rozkład normalny, to Eξ = Eξ 3 = 0, D2 ξ = 1. Stąd µ3 = 0 i α3 = 0. Symetria. 8.13. Oznaczmy µ4 = E(ξ − Eξ)4 . Wtedy α4 = ponadto, że µ4 σ4 − 3. Zauważmy µ4 = Eξ 4 − 4EξEξ 3 + 6Eξ 2 (Eξ)2 − 4Eξ(Eξ)3 + (Eξ)4 . a) Skoro ξ ma rozkład jednostajny na odcinku [−a, a], to f = 1 a2 a4 3 2 4 2a 1[−a,a] . Zatem Eξ = Eξ = 0, Eξ = 3 , Eξ = 5 . Stąd µ4 = 59 , czyli α4 = − 65 . b) Eξ = Eξ 3 = 0, Eξ 2 = 1, Eξ 4 = 3. Konsekwentnie α4 = 0. √ 8.14. Skoro X > 0, to X · √1X = 1. Zatem, stosując nierówność Schwarza s √ √ 1 1 1 = E1 = E( X √ ) ≤ E( X)2 · E( √ )2 , X X czyli 1 ). X Dzieląc stronami przez EX otrzymujemy żądaną nierówność. 1 ≤ EX · E( 8.15. Jeśli ξ ma rozkład gamma o parametrach α = m + 1 i λ = 1, to α α Eξ = = m + 1, D2 ξ = 2 = m + 1. λ λ 8.3. Odpowiedzi i rozwiazania , 105 Zatem korzystając z nierówności Czebyszewa, dla ε = m + 1, otrzymujemy P (|ξ − (m + 1)| ≥ m + 1) ≤ 1 . m+1 Stąd dla zdarzenia przeciwnego, mamy P (|ξ − (m + 1)| < m + 1) ≥ m . m+1 Ponieważ P (ξ ≤ 0) = 0, oznacza to, że P (ξ < 2(m + 1)) ≥ m . m+1 R 8.16. Niech A = {X > 0}. Ponieważ A0 XdP ≤ 0, to Z Z Z XdP + XdP ≤ 1A XdP. EX = A A0 Ω Korzystając z nierówności Schwarza Z Z (EX)2 ≤ 12A dP · X 2 dP = P (A) · EX 2 . Ω Ω 8.17. Zauważmy, że {ω ∈ Ω : X(ω) ≥ ε} = {ω ∈ Ω : eX(ω) ≥ eε }. Ponadto eX > 0, zatem korzystając z nierowności Markowa dla k = λ, P (X ≥ ε) = P (eX ≥ eε ) ≤ E(eX )λ EeλX = . (eε )λ eλε 9. Funkcje zmiennych losowych 9.1. Teoria i zadania Niech (Ω, Σ, P ) bedzie przestrzenia, probabilistyczna, , ξ : Ω → R , zmienna, losowa, g : R → R funkcj a borelowsk a. Wtedy złożenie g ◦ ξ , , , jest zmienna, losowa, o rozkładzie Pg(ξ) (B) = Pξ (g −1 (B)) dla dowolnego B ∈ B(R). W praktyce jednak, rozkład prawdopodobieństwa zadany jest przez dystrybuante, lub ciag , opisujacy , , gestość , rozkład dyskretny. W tej sytuacji rozkład g(ξ) wyznacza sie, zwykle znajdujac (jeśli istnieje) wyraża , dystrybuante, tego rozkładu. Gestość , sie, wówczas wzorem (21) z dokładnościa, do zbioru miary zero. Zad. 9.1. Niech zmienna losowa X ma standardowy rozkład normalny, a, b ∈ R, a > 0. Wykazać, że aX + b ma rozkład normalny N (b, a). Zad.9.2. Zmienna losowa X ma rozkład N (0, 1). Wyznaczyć rozkład zmiennej Y = eX (rozkład lognormalny). Zad. 9.3. Niech zmienna losowa ξ ma rozkład o gestości f :R→R , spełniającej warunek f (x) > 0, x ∈ R. Wyznaczyć gestość zmiennej , 2 losowej η = ξ . Zad. 9.4. Wykazać twierdzenie: Jeśli zmienna losowa ξ ma rozkład absolutnie ciagły , o gestości f i ξ(Ω) ⊂ (a, b), funkcja g : (a, b) → R jest , klasy C 1 oraz g 0 (x) 6= 0 dla x ∈ (a, b), to zmienna losowa η = g(ξ) ma rozkład absolutnie ciagły o gestości , , h(x) = dla x ∈ R. 1 f (g −1 (x))1g((a,b)) (x) |g 0 (x)| 108 Funkcje zmiennych losowych Zad. 9.5. Zmienna losowa X ma rozkład o gestości f : R → R danej , wzorem f (x) = x dla 0 ≤ x ≤ 1, f (x) = 2 − x dla 1 ≤ x ≤ 2, f (x) = 0 dla x < 0 lub x > 2. Znaleźć rozkład zmiennej 0 dla X ≤ 1, Y = X − 1 dla X > 1. Zad. 9.6. X ma rozkład wykładniczy z parametrem λ. Wyznaczyć 1 rozkład Y = . X Zad. 9.7. Zmienna losowa ξ ma rozkład jednostajny na przedziale [−1, 1]. Wyznaczyć rozkłady zmiennych losowych η = 2ξ 2 + 1, ζ = 1ξ . Zad. 9.8. Zmienna losowa ξ ma rozkład normalny N (0, 1). Wyznaczyć rozkład zmiennej losowej η danej wzorem ξ, gdy |ξ| < 1 η= −ξ, gdy |ξ| ≥ 1. Zad. 9.9. X ma rozkład jednostajny na przedziale [0, 1]. Niech η = min {ξ, 1 − ξ}. Wyznaczyć rozkład zmiennej losowej η. Obliczyć Eη. Zad. 9.10. X ma rozkład jednostajny na przedziale [0, 2]. Znaleźć rozkłady zmiennych losowych Y = min {X, X 2 }, Z = max {1, X}. Zad. 9.11. ξ ma rozkład jednostajny na przedziale [−π, π]. Wykazać, 1 że zmienna losowa η = tg ξ (a > 0) jest absolutnie ciagła i wyzna, a czyć jej gestość. , Zad. 9.12. Załóżmy, że rozmowa telefoniczna trwa średnio 1 minutę, a jej długość ma rozkład wykładniczy. Załóżmy również, że minuta rozmowy kosztuje złotówkę. Ile średnio zapłacimy za rozmowę, jeśli operator stosuje rozliczenie a) minutowe; b) co 30 sekund? 9.2. Wskazówki 9.2. Wskazówki 9.1. Wyznaczyć dystrybuantę zmiennej losowej aX + b. Skorzystać ze wzoru (21). 9.2. Wyznaczyć dystrybuantę zmiennej losowej eX . Zauważyć, że eX ≤ x wtedy i tylko wtedy, gdy X ≤ ln x, dla x > 0. 9.3. Porównać zad. 9.2. 9.4. Wyznaczyć dystrybuantę zmiennej losowej η. Wyznaczając ξ z nierówności g(ξ) ≤ y (y ∈ R) skorzystać z faktu, że g jest funkcją monotoniczną, skoro g ∈ C 1 i g 6= 0. 9.5. Zmienna losowa Y dana jest wzorem Y = 0, gdy X ≤ 1 lub Y = X − 1, gdy X > 1. To narzuca rozbicie przestrzeni Ω na sumę dwóch rozłącznych podzbiorów {X ≤ 1} i {X > 1}. Obserwację tę wykorzystać wyznaczając dystrybuantę Y . 9.6. Zauważyć, że P (X > 0) = 1 i wobec tego P (Y ≤ y) = P (X ≥ y1 ) dla y > 0. 9.7. Porównać zad. 9.3 i 9.6. 9.8. Rozważyć rozbicie przestrzeni Ω na podzbiory rozłączne, {|ξ| < 1}, {|ξ| ≥ 1}. 9.9. Porównać zad. 9.8. 9.10. Porównać zad. 9.8. 9.11. Rozwiązać nierówność tg ξ ≤ ax, gdy ξ ∈ [−π, π]. Sorzystać ze wzoru (21). 9.12. Jeśli zmienna losowa X oznacza długość rozmowy, to z treści zadania wynika, że X ma rozkład wykładniczy z parametrem λ = 1. Niech Y oznacza czas rozmowy mierzony w naliczonych „impulsach” minutowych (30-sekundowych). Należy wyznaczyć rozkład Y i obliczyć EY . 109 110 Funkcje zmiennych losowych 9.3. Odpowiedzi i rozwiazania , 1 2 1 9.1. Zmienna losowa X ma rozkład o gęstości f (t) = √ e− 2 t dla 2π t ∈ R. Wyznaczymy dystrybuantę zmiennej losowej aX + b. Niech x ∈ R. Z x−b a x−b F (x) = P (aX + b ≤ x) = P (X ≤ f (t)dt. )= a −∞ Wprowadzając nową zmienną y = at+b w ostatniej całce, mamy dalej Z x Z x (y−b)2 1 y−b 1 F (x) = e− 2a2 dy. f dy = √ a a 2π −∞ −∞ a Stąd gęstość zmiennej losowej aX + b ma postać: (x−b)2 1 g(x) = √ e− 2a2 a 2π dla x ∈ R, czyli aX + b ma rozkład normalny N (b, a). 9.2. Wyznaczymy dystrybuantę zmiennej losowej eX . Niech x ∈ R. P (X ≤ ln x) dla x > 0, X F (x) = P (e ≤ x) = 0 dla x ≤ 0. Załóżmy więc, że x > 0, wtedy Z ln x Z x 1 1 1 − 1 (ln s)2 − 21 t2 P (X ≤ ln x) = √ e dt = √ e 2 ds. 2π −∞ 2π 0 s Zatem gęstość g zmiennej losowej eX wyraża się wzorem ( 1 2 √1 e− 2 (ln x) dla x > 0, x 2π g(x) = 0 dla x ≤ 0. Jest to gęstość zmiennej losowej o rozkładzie lognormalnym. Zauważmy, że korzystając z własności funkcji logarytm, dla x > 0, możemy też zapisać g(x) = √ 1 2πx2+ln x . 9.3. Odpowiedzi i rozwiazania , 111 9.3. Niech F oznacza dystrybuantę zmiennej losowej η = ξ 2 , x ∈ R. F (x) = P (η ≤ x) = P (ξ 2 ≤ x) √ √ P (− x ≤ ξ ≤ x) = 0 dla x ≥ 0, dla x < 0. Jeśli x ≥ 0, to √ √ P (− x ≤ ξ ≤ x) = √ Z x √ − x Z x = 0 f (t)dt √ √ 1 √ (f ( s) + f (− s))ds. 2 s Stąd ( fη (x) = √ 1 √ (f ( x) 2 x √ + f (− x)) 0 dla x ≥ 0, dla x < 0. 9.4. Zgodnie z założeniem g 0 < 0 lub g 0 > 0. Załóżmy, że g 0 > 0, czyli funkcja g jest rosnąca. Niech y ∈ g((a, b)), tzn. g(a) < y < g(b). Z g−1 (y) −1 Fη (y) = P (g(ξ) ≤ y) = P (a < ξ ≤ g (y)) = f (t)dt. a Stosując twierdzenie o całkowaniu przez podstawienie, Z y Z y −1 −1 0 Fη (y) = f (g (x)) · |(g ) (x)|dx = f (g −1 (x)) · g(a) g(a) 1 g 0 (x) dx. Jeśli y ≤ g(a), to P (g(ξ) ≤ y) = P (∅) = 0, natomiast dla y ≥ g(b), P (g(ξ) ≤ y) = P (ξ ∈ (a, b)) = 1. Zatem gęstość h zmiennej losowej η wyraża się wzorem: ( 1 dla x ∈ g((a, b)), f (g −1 (x)) · g0 (x) h(x) = 0 dla x ∈ / g((a, b)). 9.5. Zauważmy, że jeśli FX oznacza dystrybuantę zmiennej losowej X, to 0 dla x < 0, 1 x2 dla 0 ≤ x < 1, 2 FX (x) = 1 2 2x − 2 x − 1 dla 1 ≤ x < 2, 1 dla x ≥ 2. 112 Funkcje zmiennych losowych Ponadto definicja zmiennej losowej Y narzuca rozbicie przestrzeni Ω na sumę dwóch rozłącznych składowych: Ω = {X ≤ 1} ∪ {X > 1}. Niech y < 0. Wtedy P (Y ≤ y) = P (0 ≤ y, X ≤ 1) + P (X − 1 ≤ y, X > 1) = P (∅) + P (∅) = 0. Jeśli 0 ≤ y < 1, to FY (y) = P (0 ≤ y, X ≤ 1) + P (X − 1 ≤ y, X > 1) = P (X ≤ 1) + P (1 < X ≤ 1 + y) = FX (1) + FX (1 + y) − FX (1) 1 1 1 = 2(1 + y) − (1 + y)2 − 1 = − y 2 + y + . 2 2 2 Jeśli natomiast y ≥ 1, to FY (y) = FX (1) + P (1 < X ≤ 1 + y) = FX (1 + y) = 1. Łącznie zmienna losowa Y ma rozkład o dystrybuancie: 0 dla y < 0, 1 1 2 − 2 y + y + 2 dla 0 ≤ y < 1, FY (y) = 1 dla y ≥ 1. 9.6. Przypomnimy, że FX (x) = 0 1 − e−λx dla x < 0, dla x ≥ 0. 9.3. Odpowiedzi i rozwiazania , 113 Jeśli y ≤ 0, to FY (y) = P ( 1 ≤ y) = P (X ≤ 0) = 0. X Niech teraz y > 0. Wtedy 1 1 1 ≤ y) = P ( ≤ 0) + P (0 < ≤ y) X X X λ 1 1 = P (X ≤ 0) + P (X ≥ ) = 1 − FX ( ) = e− x . y y FY (y) = P ( Ostatecznie ( FY (x) = 0 λ e− x dla x ≤ 0, dla x > 0. Zauważmy, że funkcja FY jest ciągła w zerze, co więcej rozkład zmiennej losowej Y jest absolutnie ciągły, o gęstości f (x) = λ −λ e x 1(0,∞) (x). x2 9.7. 0 dla x < 1, √ x − 1 dla 1 ≤ x < 2, Fη (x) = 1 dla x ≥ 2. Fζ (x) = 1 − 2x dla x < −1, 1 2 1− dla − 1 ≤ x < 1, 1 2x dla x ≥ 1. 9.8. Rozważmy rozbicie przestrzeni Ω na dwa podzbiory rozłączne, Ω = {|ξ| < 1} ∪ {|ξ| ≥ 1}. Niech F oznacza dystrybuantę zmiennej losowej η, jak zwykle Φ jest dystrybuantą standardowego rozkładu normalnego. Niech x ∈ R. F (x) = P (ξ ≤ x, |ξ| < 1) + P (−ξ ≤ x, |ξ| ≥ 1). 114 Funkcje zmiennych losowych Obliczamy kolejno składniki. dla x < −1, 0 P (−1 < ξ ≤ x) dla − 1 ≤ x < 1, P (ξ ≤ x, |ξ| < 1) = P (−1 < ξ < 1) dla x ≥ 1, dla x < −1, 0 Φ(x) − Φ(−1) dla − 1 ≤ x < 1, = Φ(1) − Φ(−1) dla x ≥ 1, dla x < −1, 0 Φ(x) + Φ(1) − 1 dla − 1 ≤ x < 1, = 2Φ(1) − 1 dla x ≥ 1. Analogicznie dla x < −1, Φ(x) 1 − Φ(1) dla − 1 ≤ x < 1, P (−ξ ≤ x, |ξ| ≥ 1) = Φ(x) − 2Φ(1) + 1 dla x ≥ 1. Łącznie F (x) = Φ(x) dla x ∈ R, czyli zmienna losowa η ma standardowy rozkład normalny. 9.9. Niech F oznacza dystrybuantę zmiennej losowej η, x ∈ R. Wtedy, uwzględniając rozbicie przestrzeni Ω = {ξ ≤ 1 − ξ} ∪ {1 − ξ < ξ}, mamy F (x) = P (min{ξ, 1 − ξ} ≤ x) 1 1 = P (ξ ≤ x, ξ ≤ ) + P (1 − ξ ≤ x, ξ > ). 2 2 Ale 1 P (ξ ≤ x, ξ ≤ ) = 2 ( P (ξ ≤ x) dla x < 21 , P (ξ ≤ 12 ) 0 dla x dla = 1 dla 2 dla x ≥ 12 , x < 0, 0 ≤ x < 21 , x ≥ 21 , 9.3. Odpowiedzi i rozwiazania , 115 i podobnie 0 1 x P (1 − ξ ≤ x, ξ > ) = 1 2 2 Zatem 0 2x F (x) = 1 dla x < 0, dla 0 ≤ x < 21 , dla x ≥ 21 . dla x < 0, dla 0 ≤ x < 12 , dla x ≥ 21 , czyli zmienna losowa η ma rozkład jednostajny na przedziale [0, 21 ]. Konsekwentnie Eη = 14 . 9.10. FY (x) = 0 1√ 2 x 1 x 2 1 0 1 x FZ (x) = 2 1 dla dla dla dla x < 0, 0 ≤ x < 1, 1 ≤ x < 2, x ≥ 2, dla x < 1, dla 1 ≤ x < 2, dla x ≥ 2. 9.11. Skoro zmienna losowa ξ ma rozkład jednostajny na przedziale 1 [−π, π], to ma gęstość f = 2π 1[−π,π] . Niech F oznacza dystrybuantę zmiennej losowej η, x ∈ R. ! [ π F (x) = P (tg ξ ≤ ax) = P ξ ∈ (− + kπ, arctg ax + kπ] 2 k∈Z X π = P (ξ ∈ (− + kπ, arctg ax + kπ]) 2 k∈Z Z X 1 = dt. π 2π (− +kπ,arctg ax+kπ]∩[−π,π] k∈Z 2 W zależności od znaku x, ostatnia suma redukuje się do dwóch lub trzech składników. Jeśli x < 0, to 1 F (x) = 2π Z arctg ax Z arctg ax+π dt + − π2 ! dt π 2 = 1 1 arctg ax + . π 2 116 Funkcje zmiennych losowych Natomiast dla x ≥ 0, mamy F (x) = = 1 2π Z arctg ax−π Z arctg ax dt + π dt + − π2 −π Z ! dt π 2 1 1 arctg ax + . π 2 Zatem dla każdego x ∈ R F (x) = 1 1 arctg ax + . π 2 Funkcja F jest klasy C 1 i F 0 (x) = 1 a π 1 + a2 x2 dla x ∈ R. Zmienna losowa η ma więc rozkład absolutnie ciągły. Jest to rozkład Cauchy’ego (patrz zad. 8.2). 9.12. a) Niech zmienna losowa X oznacza faktyczną długość rozmowy, zaś Y czas rozmowy mierzony w naliczonych „impulsach” minutowych. Skoro X ma rozkład wykładniczy i EX = 1, to parametr rozkładu λ = 1. Natomiast zmienna losowa Y przyjmuje wartości naturalne i dla k ∈ N mamy Z k e−x dx = e−k+1 (1 − e−1 ). P (Y = k) = P (k − 1 < X ≤ k) = k−1 Jak widać Y ma rozkład geometryczny z parametrem p = 1 − e−1 . Zatem EY = 1 e = ≈ 1, 58. p e−1 Za rozmowę zapłacimy średnio 1, 58 złotych. b) Zadanie rozwiązujemy podobnie jak poprzednio. Tym razem Y ma rozkład geometryczny z parametrem 1 − √1e . Rozmowa √ e−1 ≈ 2, 54 impulsy, więc zapłacimy za nią trwa średnio √ e 1, 27 złotych. 10. Zmienne losowe niezależne. Wektory losowe 10.1. Teoria i zadania Rozważmy zmienne losowe ξ1 , . . . , ξn na przestrzeni probabilistycznej (Ω, Σ, P ). Mówimy, że zmienne losowe ξ1 , . . . , ξn sa, niezależne, jeśli dla dowolnych zbiorów borelowskich B1 , . . . , Bn P (ξ1 ∈ B1 , . . . , ξn ∈ Bn ) = P (ξ1 ∈ B1 ) · . . . · P (ξn ∈ Bn ). Zmienne losowe ξ1 , ξ2 , . . . sa, niezależne, jeśli dla każdego k ∈ N zmienne losowe ξ1 , . . . , ξk sa, niezależne. Niech ξ, η : Ω → R bed , a, zmiennymi losowymi. Wtedy zestawienie tych zmiennych losowych tworzy wektor losowy (ξ, η). Niech P(ξ,η) oznacza rozkład tego wektora. W ogólnej sytuacji, mamy cześciowy , zwiazek mi edzy rozkładem wektora (ξ, η), tzw. rozkładem łącznym, , , a rozkładami zmiennych losowych ξ oraz η, mianowicie Pξ (A) = P(ξ,η) (A × R), Pη (B) = P(ξ,η) (R × B) dla dowolnych zbiorów borelowskich A, B, przy czym Pξ , Pη nazywamy rozkładami brzegowymi. W szczególności, jeśli rozkład P(ξ,η) jest dyskretny, zadany przez ciag , ((xi , yj ), rij ) i∈I , to rozkłady brzegowe sa, dyskretne i j∈J Pξ (xi ) = X j∈J rij = pi , Pη (yj ) = X rij = qj . (31) i∈I Jeśli natomiast rozkład P(ξ,η) jest absolutnie ciagły o gestości h : , , R2 → [0, +∞), to rozkłady brzegowe Pξ , Pη sa, absolutnie ciagłe , o gestościach, odpowiednio , Z R f (x) = h(x, y)dy, g(y) = R h(x, y)dx. (32) R Funkcje f i g nazywamy gestościami brzegowymi. , 118 Zmienne losowe niezależne. Wektory losowe Jeśli zmienne losowe sa, niezależne, to zachodza, również zwiazki , odwrotne. Mianowicie, jeśli zmienne losowe ξ, η sa, niezależne i maja, rozkłady dyskretne Pξ (xi ) = pi , Pη (yj ) = qj dla i ∈ I, j ∈ J, to zestawienie (ξ, η) ma rozkład dyskretny i zachodzi wzór P(ξ,η) (xi , yj ) = pi · qj dla (i, j) ∈ I × J. Jeśli zaś zmienne losowe ξ, η sa, niezależne i maja, rozkłady absolutnie ciagłe o gestościach f, g, to zestawienie (ξ, η) ma rozkład absolutnie , , ciagły o gestości , , h(x, y) = f (x)g(y) (33) dla (x, y) ∈ R2 . Niech ξ, η : Ω → R bed , a, zmiennymi losowymi o skończonych wartościach oczekiwanych i wariancjach D2 ξ = σξ2 > 0, D2 η = ση2 > 0. Kowariancja, zmiennych losowych ξ, η nazywamy liczbe, cov (ξ, η) = E((ξ − Eξ)(η − Eη)). Kowariancję zwykle obliczamy ze wzoru cov (ξ, η) = E(ξη) − Eξ · Eη, (34) przy czym jeśli (ξ, η) ma rozkład dyskretny, zadany przez ciąg ((xi , yj ), rij ), to X xi yj rij , (35) E(ξη) = i∈I j∈J jeśli (ξ, η) ma rozkład absolutnie ciągły o gęstości f : R2 → R, to Z E(ξη) = xyf (x, y)dxdy. (36) R2 Współczynnikiem korelacji zmiennych losowych ξ, η nazywamy liczbe, cov (ξ, η) ρ(ξ, η) = p . D2 ξD2 η 10.1. Teoria i zadania 119 Zgodnie z nierównością Schwarza, (28), |ρ(ξ, η)| ≤ 1, czyli p |cov (ξ, η)| ≤ D2 ξ · D2 η. Mówimy, że zmienne losowe ξ, η sa, nieskorelowane, jeśli cov (ξ, η) = 0. Dowodzi sie, , że jeśli zmienne losowe sa, niezależne, to sa, nieskorelowane. Odwrotne twierdzenie jest nieprawdziwe. Zad. 10.1. Wykazać, że jeśli zmienne losowe X, Y sa, niezależne, to X 2 i Y 2 też sa, niezależne. Zad. 10.2. Wykazać twierdzenia: i) jeśli zmienne losowe X1 , . . . , Xn sa, niezależne, a funkcje ϕ1 , . . . , ϕn : R → R są borelowskie, to zmienne losowe ϕ1 (X1 ), . . . , ϕn (Xn ) są niezależne. ii) jeśli zmienne losowe X11 , . . . , X1k1 , . . . , Xn1 , . . . , Xnkn sa, niezależne, a funkcje ϕj : Rkj → R dla j = 1, . . . n są borelowskie, i Yj = ϕj (Xj1 , . . . , Xjkj ) dla j = 1, . . . n, to zmienne losowe Y1 , . . . , Yn są niezależne. Zad. 10.3. Wykazać, że jeśli zmienne losowe ξ1 , . . . , ξn mają wariancje, to 2 D (ξ1 + . . . + ξn ) = n X X D2 ξi + 2 i=1 cov (ξi , ξj ). 1≤i<j≤n W szczególności, jeśli zmienne losowe ξ1 , . . . , ξn są niezależne, to D2 (ξ1 + . . . + ξn ) = n X D2 ξi . (37) i=1 Zad. 10.4. Obliczyć Eξ, Eη oraz D2 η, jeśli ξ = X 2 − Y 2 , η = 1 − X + 2Y , zmienne losowe X, Y sa, niezależne i EX = −3, EY = 4, D2 X = 21 , D2 Y = 2. Zad. 10.5. Wykazać, że jeśli zmienne losowe X, Y sa, niezależne i EX = EY = 0, to D2 (XY ) = D2 X · D2 Y . 120 Zmienne losowe niezależne. Wektory losowe Zad. 10.6. Zbadać, czy jeśli zmienne losowe X, Y sa, niezależne, to X + Y i X − Y też sa, niezależne. Zad. 10.7. Wykazać wzór (34). Zad. 10.8. Dany jest wektor losowy (X, Y ). Niech ξ = aX + b, η = cY + d, gdzie a, b, c, d ∈ R, ac = 6 0. Wykazać, że ρ(ξ, η) = sgn (ac)ρ(X, Y ). Zad. 10.9. Sekretarka napisała n listów do n różnych adresatów, włożyła je do kopert, zakleiła, po czym na każdej kopercie nakleiła jeden z adresów, na które trzeba było listy wysłać. Obliczyć wartość oczekiwana, i wariancje, liczby listów zaadresowanych prawidłowo. Zad. 10.10. Rozpatrujemy rzut dwiema symetrycznymi monetami. Niech X oznacza liczbe, uzyskanych orłów, Y liczbe, uzyskanych reszek. Wyznaczyć rozkład wektora (X, Y ) oraz rozkłady brzegowe. Zbadać niezależność zmiennych X, Y . Wyznaczyć cov (X, Y ). Zad. 10.11. Rzucamy dwiema kostkami do gry. Niech X oznacza wieksz a, , zaś Y mniejsza, liczbe, oczek jakie wypadły na kostkach. Wy, znaczyć rozkład wektora (X, Y ) oraz rozkłady brzegowe. Zbadać niezależność zmiennych X, Y . Zad. 10.12. Rozpatrujemy wielokrotny rzut symetryczna, moneta. , Przypuśćmy, że orzeł pojawi sie, po raz pierwszy po X rzutach, reszka po Y . Wykazać, że (X, Y ) jest dyskretnym wektorem losowym. Znaleźć rozkład P(X,Y ) oraz rozkłady brzegowe. Zad. 10.13. Dany jest rozkład P(X,Y ) ({(m, n)}) = 1 2m+1 0 dla m ≥ n dla m < n, m, n = 1, 2, . . .. Wyznaczyć rozkłady brzegowe PX , PY . Zad. 10.14. Mówimy, że wektor losowy (X1 , . . . , Xk ) ma rozkład wielomianowy o parametrach p1 , . . . , pk , n, jeśli P (X1 = n1 , . . . , Xk = nk ) = n! pn1 . . . pnk k , n1 ! . . . n k ! 1 gdzie pi ∈ (0, 1), i = 1, . . . , k, p1 + . . . + pk = 1, n1 + . . . + nk = n. Rozważmy wektor losowy (X, Y ) o rozkładzie wielomianowym o parametrach p, q, n. Wyznaczyć cov (X, Y ), ρ(X, Y ). 10.1. Teoria i zadania Zad. 10.15. Niech wektor losowy (ξ, η) ma rozkład jednostajny w zbiorze {(x, y) ∈ R2 : x2 + y 2 ≤ 1}. Napisać wzór na gestość , (ξ, η) oraz wyznaczyć gestości brzegowe. , Zad. 10.16. Wektor losowy (ξ, η) ma rozkład o gestości , Ae−y dla 0 ≤ x ≤ y, f (x, y) = 0 dla pozostałych (x, y) ∈ R2 . Wyznaczyć stała, A, rozkłady brzegowe oraz dystrybuantę wektora losowego (ξ, η). Zad. 10.17. Wektor losowy (ξ, η) ma rozkład o gestości , 2 2 Ax dla 1 ≤ x + y ≤ 4, x ≥ 0, y ≥ 0 f (x, y) = 0 dla pozostałych (x, y) ∈ R2 . Wyznaczyć stała, A oraz rozkłady brzegowe ξ, η. Zad. 10.18. Wektor losowy (ξ, η) ma rozkład o gestości , A(x + y)e−x−y dla x ≥ 0, y ≥ 0, f (x, y) = 0 dla pozostałych (x, y) ∈ R2 . Wyznaczyć stała, A oraz dystrybuante, wektora losowego (ξ, η). Wyznaczyć rozkłady brzegowe ξ, η. Zad. 10.19. Wektor losowy (X, Y ) ma rozkład o gestości , x + y dla 0 ≤ x, y ≤ 1, f (x, y) = 0 w przeciwnym wypadku. Obliczyć ρ(X, Y ). Zad. 10.20. Rozważmy zmienne losowe X1 , . . . , Xn o standardowym rozkładzie normalnym. Wykazać, że X1 , . . . , Xn są niezależnie wtedy i tylko wtedy, gdy wektor losowy (X1 , . . . , Xn ) ma n-wymiarowy rozkład normalny o wektorze średnich m = 0 i jednostkowej macierzy kowariancji Q. Zad. 10.21. Niech wektor losowy (ξ, η) ma dwuwymiarowy rozkład normalny. Wyznaczyć rozkłady brzegowe. Kiedy ξ i η sa, niezależne? 121 122 Zmienne losowe niezależne. Wektory losowe 10.2. Wskazówki 10.1. Skorzystać z faktu, że przeciwobraz zbioru borelowskiego poprzez odwzorowanie x 7→ x2 jest zbiorem borelowskim. 10.2. Porównać zad. 10.1. 10.3. Wariancję obliczyć ze wzoru (26), dodatkowo skorzystać ze wzoru na kwadrat sumy n skladników. 10.4. Obliczajac Eξ, Eη skorzystać z liniowości wartości oczekiwanej. Wariancję zmiennej losowej η obliczyć ze wzoru (27), korzystając wcześniej z faktu, że zmienne losowe −X, 2Y są niezależne. 10.5. Obliczyć wariancję z definicji. Skorzystać z zad. 10.1. 10.6. Rozważyć zmienne losowe X, Y z zad. 10.4. 10.7. Porównać zad. 8.4. 10.8. Skorzystać z definicji współczynnika korelacji. 10.9. Porównać zad. 8.8. Zmienną losową X, oznaczającą liczbę listów zaadresowanych prawidłowo, przedstawić jako sumę zmiennych ξi , gdzie ξi = 1, gdy i-ty list został zaadresowany prawidłowo i ξi = 0, w przeciwnym wypadku. Obliczając wariancję skorzystać ze wzoru z zad. 10.3. 10.10. Wyniki możliwe w rzucie dwoma monetami to: (O, O), (O, R), (R, O), (R, R). Rozkład wektora losowego (X, Y ) najwygodniej przedstawić w tabelce. 10.11. Porównać zad. 10.10. 10.12. Jakie wartości może przyjmować wektor losowy (X, Y )? Zauważyć, że zbiór K tych wartości jest przeliczalny. Wykazać, że P(X,Y ) (K) = 1. 10.13. Porównać zad. 10.12. 10.14. Wyznaczyć rozkłady brzegowe, a następnie obliczyć kowariancję ze wzoru (34). 10.2. Wskazówki 123 10.15. Wektor losowy X : Ω → Rn ma rozkład jednostajny w zbiorze A ∈ B(Rn ) (0 < m(A) < ∞), jeśli gęstość tego wektora f : Rn → [0, +∞) dana jest wzorem f= 1 1A . m(A) 10.16. Funkcja f : Rn → R jest gęstoscią R n-wymiarowego rozkładu prawdopodobieństwa, jeśli f ≥ 0 i Rn f (x)dx = 1 (patrz rozdział 6). Gęstości brzegowe wyliczyć zgodnie z (32). Dystrybuantę wyznaczyć z zależności Z x Z y F (x, y) = f (s, t)dtds. −∞ −∞ 10.17. Porównać zad. 10.16. 10.18. Porównać zad. 10.16. 10.19. Wyznaczyć gęstości brzegowe, a następnie ich parametry: wartości oczekiwane i odchylenia standardowe. Wartość oczekiwaną iloczynu X · Y , obliczyć ze wzoru (36). 10.20. Wektor losowy (X1 , . . . , Xn ) ma n-wymiarowy rozkład normalny, ozn. N (m, Q), jeśli ma gęstość 1 f (x) = p 1 (2π)n det Q −1 (x−m)|x−mi e− 2 hQ (38) dla x ∈ Rn , przy czym h·|·i oznacza iloczyn skalarny w Rn , m ∈ Rn jest wektorem wartości średnich, Q jest macierzą nieosobliwą, symetryczną (macierz W zadaniu należy kowariancji). 1 ... 0 .. przyjąć m = 0 oraz Q = I = i skorzystać z (33). . 0 ... 1 10.21. Wektor losowy (ξ, η) ma dwuwymiarowy rozkład normalny, jeśli ma gęstość: f (x, y) = 1√ × 2πσ1 σ2 1−ρ2 (x−m1 )2 1 1 × exp − 2(1−ρ − 2ρ x−m 2) σ1 · σ2 1 x−m2 σ2 + (y−m2 )2 σ22 124 Zmienne losowe niezależne. Wektory losowe dla (x, y) ∈ R2 , gdzie σ1 , σ2 > 0, ρ2 < 1, m1 , m2 ∈ R. Patrz zad. 10.20. 10.3. Odpowiedzi i rozwiazania , 10.1. Niech A, B ∈ B(R). Oznaczmy f : R 3 x 7→ x2 ∈ E. Wtedy P (X 2 ∈ A, Y 2 ∈ B) = P (X ∈ f −1 (A), Y ∈ f −1 (B)), ale ponieważ funkcja f jest borelowska, to f −1 (A), f −1 (B) ∈ B(R), zatem z niezależności X, Y , P (X ∈ f −1 (A), Y ∈ f −1 (B)) = P (X ∈ f −1 (A)) · P (Y ∈ f −1 (B)) = P (X 2 ∈ A) · P (Y 2 ∈ B), czyli zmienne losowe X 2 , Y 2 są niezależne. 10.2. Dowód i) jest analogiczny jak dowód w zad. 10.1. W dowodzie ii) skorzystać dodatkowo z faktu, że jeśli zmienne losowe X11 , . . . , X1k1 , . . . , Xn1 , . . . , Xnkn sa, niezależne, to wektory losowe (X11 , . . . , X1k1 ), . . . , (Xn1 , . . . , Xnkn ) są niezależne. 10.3. Załóżmy, że D2 (ξ1 + . . . ξn ) istnieje. Wtedy n n X X D2 (ξ1 + . . . + ξn ) = E(( ξi )2 ) − (E( ξi ))2 i=1 = n X X Eξi2 + 2 i=1 E(ξi ξj ) − = i=1 (Eξi2 − (Eξi )2 ) + 2 i=1 X (Eξi )2 − 2 i=1 1≤i<j≤n n X n X Eξi Eξj 1≤i<j≤n X (E(ξi ξj ) − Eξi Eξj ) 1≤i<j≤n = n X i=1 D2 ξi + 2 X 1≤i<j≤n cov (ξi , ξj ). 10.3. Odpowiedzi i rozwiazania , 125 Z wykazanej równości wynika, że jeśli istnieją wariancje D2 ξi (i = 1, . . . , n), to istnieje wariancja D2 (ξ1 + . . . ξn ). 10.4. Eξ = − 17 , 2 Eη = 12, D2 η = 17 . 2 10.5. Ponieważ EX = EY = 0, to z definicji wariancji D2 (XY ) = E(X 2 · Y 2 ). Zgodnie z zad. 10.1 zmienne losowe X 2 , Y 2 są niezależne, stąd E(X 2 · Y 2 ) = E(X 2 ) · E(Y 2 ) = D2 X · D2 Y. 10.6. Niech X, Y będą jak w zadaniu 10.4. Gdyby X + Y , X − Y były niezależne, to E(X 2 −Y 2 ) = E((X +Y )(X −Y )) = E(X +Y )·E(X −Y ) = −7, 17 ale w zadaniu 10.4 wyliczyliśmy, że E(X 2 −Y 2 ) = − . Sprzecz2 ność. Mamy więc przykład niezależnych zmiennych losowych X, Y takich, że X + Y, X − Y nie są niezależne. 10.7. cov (ξ, η) = E((ξ − Eξ)(η − Eη)) = E(ξη − ξEη − ηEξ + EξEη) = E(ξη) − EξEη. 10.8. Z definicji kowariancji i z liniowości wartości oczekiwanej cov (ξ, η) = E((ξ − Eξ)(η − Eη)) = E((aX + b − aEX − b)(cY + d − cEY − d)) = ac · E((X − EX)(Y − EY )) = ac · cov (X, Y ). Z kolei ze wzoru (27), D2 ξ = D2 (aX + b) = a2 D2 X, czyli σξ = |a|σX . Podobnie, ση = |c|σY . W końcu podstawiając do definicji współczynnika korelacji ρ(ξ, η) = ac · cov (X, Y ) = sgn (ac)ρ(X, Y ). |a||c|σX σY 126 Zmienne losowe niezależne. Wektory losowe 10.9. To zadanie już raz rozwiązywaliśmy dla n = 3, patrz zad. 8.8. Niech XP oznacza liczbę listów zaadresowanych prawidłowo. Wtedy X = ni=1 ξi , gdzie ξi = 1, gdy i-ty list został zaadresowany prawidłowo i ξi = 0, w przeciwnym wypadku. Oczywiście P (ξi = 1) = n1 dla i = 1, . . . , n. Wtedy: Eξi = 1 , n D2 ξi = n−1 , n2 cov (ξi , ξj ) = 1 − 1) n2 (n dla i 6= j, i, j = 1, . . . , n. Stąd EX = 1, zaś korzystając ze wzoru z zad. 10.3, D2 X = n n−1 n(n − 1) 1 +2 = 1. 2 2 n 2 n (n − 1) 10.10. Rozkład wektora (X, Y ): Y .. X . 0 1 Rozkłady brzegowe, wyznaczamy zgodnie ze wzorem (31): 2 X 0 1 2 p 1 4 1 2 1 4 0 0 0 1 4 1 0 1 2 0 Y 0 1 2 2 1 4 0 0 p 1 4 1 2 1 4 Zmienne losowe X, Y nie są niezależne, bo np. P (X = 0, Y = 0) = 0 6= 1 1 · = P (X = 0)P (Y = 0). 4 4 Obliczmy kowariancję, korzystając ze wzoru (34). Zmienna losowa X · Y ma rozkład: X ·Y 0 1 2 4 p 7 16 4 16 4 16 1 16 Zatem cov (X, Y ) = 1 − 1 = 0. 10.3. Odpowiedzi i rozwiazania , 127 10.11. Rozkład wektora (X, Y ): Y .. X . 1 2 3 4 5 6 1 1 36 2 36 2 36 2 36 2 36 2 36 2 0 1 36 2 36 2 36 2 36 2 36 3 0 0 1 36 2 36 2 36 2 36 4 0 0 0 1 36 2 36 2 36 5 0 0 0 0 1 36 2 36 6 0 0 0 0 0 1 36 Rozkłady brzegowe: X 1 2 3 4 5 6 p 11 36 9 36 7 36 5 36 3 36 1 36 Y 1 2 3 4 5 6 p 1 36 3 36 5 36 7 36 9 36 11 36 Zmienne losowe X, Y nie są niezależne. 10.12. P (X = 0, Y = n) = 1 2n+1 , P (X = m, Y = 0) = 1 2m+1 dla n, m ∈ N, P (X = m, Y = n) = 0 w pozostałych przypadkach. Wektor losowy (X, Y ) ma rozkład dyskretny, ponieważ ∞ X = ∞ X n=1 P (X = m, Y = n) n,m=0 ∞ X P (X = 0, Y = n) + m=1 ∞ X =2 n=1 P (X = m, Y = 0) 1 2n+1 =2· 1 = 1. 2 128 Zmienne losowe niezależne. Wektory losowe Rozkłady brzegowe: 1 1 P (X = k) = k+1 , P (Y = k) = k+1 dla k = 0, 1, 2, . . .. 2 2 10.13. Rozkład jest dyskretny, gdyż ∞ X P (X = m, Y = n) = m,n=1 X m≥n 1 2m+1 = 1. Rozkłady brzegowe: P (X = k) = ∞ X P (X = k, Y = m) = m=1 k X m=1 dla k ∈ N. Podobnie P (Y = k) = k 2k+1 1 k = k+1 2k+1 2 dla k ∈ N. 10.14. Wyznaczamy rozkłady brzegowe, zgodnie ze wzorem (31). P (X = k) = n X P (X = k, Y = j) j=0 n k n−k p q , = P (X = k, Y = n − k) = k n k n−k P (Y = k) = q p k dla k = 0, 1, . . . , n, czyli X, Y mają rozkłady Bernoullego o parametrach odpowiednio n, p oraz n, q. Zatem EX = np, EY = nq, D2 X = D2 Y = npq. Korzystając z (35) i ze wzoru dwumianowego Newtona obliczamy n X n k n−k E(XY ) = k(n − k) p q k = k=0 n−1 X k=1 n! pk q n−k (k − 1)!(n − k − 1)! = n(n − 1)pq(p + q)n−2 = n(n − 1)pq. 10.3. Odpowiedzi i rozwiazania , 129 Stąd cov (X, Y ) = n(n − 1)pq − np · nq = −npq, i w konsekwencji ρ(X, Y ) = 10.15. ( 1 f (x, y) = π 0 −npq = −1. npq dla x2 + y 2 ≤ 1, dla pozostałych (x, y) ∈ R2 . Gęstości brzegowe wyliczamy ze wzoru (32). √ Z 1 fξ (x) = f (x, y)dy = π R Z 1−x2 √ − 1−x2 dy = 2p 1 − x2 π dla −1 ≤ x ≤ 1 oraz fξ (x) = 0 dla |x| > 1. Analogicznie 2p 1 − y 2 dla |y| ≤ 1, π fη (y) = 0 dla |y| > 1. 10.16. A = 1, gęstości brzegowe: R ∞ −y −x dla x ≥ 0, x e dy = e fξ (x) = 0 dla x < 0, R y −y −y dla y ≥ 0, 0 e dx = ye fη (y) = 0 dla y < 0. Rx Ry Jeśli x < 0 lub y < 0, to F (x, y) = −∞ −∞ f (s, t)dtds = 0, bo funkcja podcałkowa się zeruje. Jeśli x ≥ 0, 0 < y < x, to Z yZ F (x, y) = 0 y e−t dtds = 1 − e−y (1 + y). s Jeśli natomiast 0 < x ≤ y, to Z xZ y F (x, y) = e−t dtds = 1 − e−x − xe−y . 0 s 130 Zmienne losowe niezależne. Wektory losowe 10.17. A = 37 , gęstości brzegowe: dla x < 0 lub x > 2, 0 √ √ 3 2 2 dla 0 ≤ x < 1, fξ (x) = 7 x( 4 − x − 1 − x ) 3 √ 2 dla 1 ≤ x ≤ 2, 7x 4 − x dla y < 0 lub y > 2, 0 p p 3 2 1 − y 2 ) dla 0 ≤ y < 1, fη (y) = 7 y( 4 − y − 3 p 2 dla 1 ≤ y ≤ 2, 7y 4 − y 10.18. A = 21 , dystrybuanta: 1 −(x+y) (2 + x + y) − e−x (2 + x) − e−y (2 + y)) 2 (2 + e dla x > 0, y > 0, F (x, y) = 0 dla x ≤ 0 lub y ≤ 0. Gęstości brzegowe: fξ (x) = 1 −x 2 e (x fη (y) = 0 + 1) dla x < 0, dla x ≥ 0, + 1) dla y < 0, dla y ≥ 0. 0 1 −y 2 e (y 10.19. Niech fX , fY oznaczają odpowiednio gęstości zmiennych losowych X, Y . Wtedy ( 0 dla x ∈ / [0, 1], fX (x) = 1 x+ dla x ∈ [0, 1], 2 ( 0 dla y ∈ / [0, 1], fY (y) = 1 y+ dla y ∈ [0, 1]. 2 Zatem X, Y mają ten sam rozklad i √ 7 11 EX = EY = , σX = σY = . 12 12 Następnie, zgodnie z (36), Z Z E(XY ) = xyf (x, y)dxdy = R2 0 1Z 1 0 1 xy(x + y)dxdy = . 3 10.3. Odpowiedzi i rozwiazania , 131 Stąd cov (X, Y ) = E(XY ) − EXEY = 1 1 72 − 2 =− 2 3 12 12 i ostatecznie ρ(X, Y ) = cov (X, Y ) 1 122 1 =− 2 · =− . σX σY 12 11 11 10.20. Niech fi oznacza gęstość zmiennej losowej Xi dla i = 1, . . . , n, x = (x1 , . . . , xn ) ∈ Rn . Wtedy f1 (x1 ) · . . . · fn (xn ) = 1 2 1 2 √1 e− 2 x1 · . . . · √1 e− 2 xn 2π 2π =√ 1 1 e− 2 hx|xi . (2π)n Stąd zmienne losowe X1 , . . . , Xn są niezależne, wtedy i tylko wtedy, gdy wektor losowy (X1 , . . . , Xn ) ma gęstość f (x) = f1 (x1 )·. . .·fn (xn ), czyli, zgodnie z (38), rozkład normalny o wektorze średnich m = 0 i macierzy kowariancji Q = I. 10.21. Jeśli wektor losowy (ξ, η) ma dwuwymiarowy rozkład normalny, to jego gęstość wyraża sie wzorem f (x, y) = 2πσ1 σ2 1 exp − 2(1−ρ 2) 1 p 1 − ρ2 (x−m1 )2 σ12 × 1 − 2ρ x−m σ1 · x−m2 σ2 + (y−m2 )2 σ22 dla (x, y) ∈ R2 , gdzie σ1 , σ2 > 0, ρ2 < 1, m1 , m2 ∈ R. Niech fξ , fη będą gęstościami brzegowymi. Wyznaczymy fη , Z fη (y) = f (x, y)dx R dla y ∈ R. Przekształcamy wykładnik w funkcji podcałkowej (x − m1 )2 x − m1 x − m2 (y − m2 )2 1 · + − − 2ρ 2(1 − ρ2 ) σ1 σ2 σ12 σ22 2 1 σ1 1 =− x − m1 − ρ (y − m2 ) − 2 (y − m2 )2 . 2 2 σ2 2(1 − ρ )σ1 2σ2 132 Zmienne losowe niezależne. Wektory losowe Podstawiając teraz w całce t= p 1 (1 − ρ2 )σ1 σ1 x − m1 − ρ (y − m2 ) σ2 otrzymujemy fη (y) = 1√ 2πσ1 σ2 1−ρ2 p R 2 t2 2) exp − (y−m (1 − ρ2 )σ1 R e− 2 dt 2σ22 1 (y − m2 )2 =√ exp − . 2σ22 2πσ2 Analogicznie 1 (x − m1 )2 fξ (x) = √ exp − . 2σ12 2πσ1 Zatem rozkłady brzegowe są rozkładami normalnymi, ξ ma rozkład N (m1 , σ1 ), η – N (m2 , σ2 ). Zmienne losowe ξ, η są niezależne wtedy i tylko wtedy, gdy f (x, y) = fξ (x)fη (y) dla (x, y) ∈ R2 , czyli w tej sytuacji, wtedy i tylko wtedy, gdy ρ = 0. 11. Funkcje wektorów losowych 11.1. Teoria i zadania Niech ξ : Ω → Rn bedzie wektorem losowym na przestrzeni pro, babilistycznej (Ω, Σ, P ), zaś γ : Rn → R funkcja, borelowska. , Wtedy złożenie γ ◦ ξ ma rozkład (jednowymiarowy) Pγ(ξ) (B) = Pξ (γ −1 (B)) dla dowolnego B ∈ B(R) i podobnie jak w przypadku jednowymiarowym, rozkład ten wyznacza sie, na ogół poprzez dystrybuante. , W szczególności, jeśli zmienne losowe ξ, η sa, niezależne i maja, rozkłady o gestościach f, g to zmienna losowa ξ + η ma rozkład o gestości , , Z f (x − y)g(y)dy. (39) h(x) = R Funkcje, określona, wzorem (39) nazywamy splotem funkcji f i g oraz oznaczamy symbolem h = f ∗ g. Zad. 11.1. Wykazać wzór (39). Zad. 11.2. Znaleźć rozkład sumy dwóch niezależnych zmiennych losowych o rozkładzie jednostajnym na przedziale [0, 1]. Zad. 11.3. Zmienne losowe X i Y sa, niezależne i maja, rozkład jednostajny na odcinku (c − 12 , c + 12 ), gdzie c ∈ R. Wykazać, że różnica X − Y ma rozkład niezależny od c i wyznaczyć jego gestość. , Zad. 11.4. Niech ξ i η bed , a, niezależnymi zmiennymi losowymi, o rozkładach ξ ∈ N (m1 , σ1 ), η ∈ N (m2 , σ2 ). Znaleźć gestość zmiennej , losowej ξ + η. Zad. 11.5. Niech ξ i η bed , a, niezależnymi zmiennymi losowymi o rozkładzie Poissona z parametrem odpowiednio λ i µ. Wyznaczyć rozkład zmiennej losowej ξ + η. 134 Funkcje wektorów losowych Zad. 11.6. X, Y sa, niezależnymi zmiennymi losowymi o rozkładzie wykładniczym z parametrem λ. Wyznaczyć rozkład zmiennej losowej η =X +Y. Zad. 11.7. X, Y sa, niezależnymi zmiennymi losowymi o rozkładzie wykładniczym z parametrem λ = 1. Wyznaczyć rozkład zmiennej X losowej ζ = X+Y . Zad. 11.8. Zmienne losowe X, Y maja, rozkład geometryczny z parametrem p i sa, niezależne. Niech T = X + Y , Z = max{X, Y }. Wyznaczyć rozkłady zmiennych losowych T , Z. Zad. 11.9. Niech ξ i η bed , a, niezależnymi zmiennymi losowymi o standardowym rozkładzie normalnym. Znaleźć gestość zmiennej , 2 2 losowej ξ + η . √ , η = Zad. 11.10. Znaleźć rozkład (ξ, η) wiedzac, że ξ = X+Y , 2 X ma rozkład N (0, 1), Y ∈ N (0, 2) oraz X, Y sa, niezależne. X−Y √ 2 , Zad. 11.11. Niech ξ, η, ζ bed , a, niezależnymi zmiennymi losowymi ξ + ηζ jest zmienna, losowa, o tym o rozkładzie N (0, 1). Dowieść, że p 1 + ζ2 samym rozkładzie. Zad.11.12. Zakładamy, że na moście znajduja, sie, w jednej chwili dwa samochody. Masa każdego z nich ma rozkład jednostajny i zmienia się od 2 do 5 ton. Ponadto masy ich są niezależne. Obliczyć prawdopodobieństwo, że całkowita masa pojazdów na moście przekroczy 6 ton. Zad. 11.13. Współczynniki trójmianu kwadratowego Q(x) = ax2 + 2bx + c są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na przedziale [−1, 1]. Obliczyć prawdopodobieństwo, że Q ma dokładnie dwa pierwiastki rzeczywiste. Zad.11.14. Czas obsługi klienta przy okienku pocztowym ma rozkład wykladniczy i średnio wynosi 2 minuty. Ponadto zakładamy, że czasy obsługi poszczególnych klientów są niezależne. Jaka jest szansa, że w kolejce, w której stoją przed nami dwie osoby będziemy czekać dłużej niż 5 minut? 11.2. Wskazówki 135 Zad. 11.15. W supermarkecie są dwie kasy, przy czym zakładamy, że czas oczekiwania do każdej z nich ma rozkład jednostajny od 0 do 5 minut i nie zależy od tego co dzieje się przy drugiej kasie. Para klientów robiąc wspólnie zakupy często ustawia się w kolejkach do dwóch kas i wybiera tę, w której czeka się krócej. Obliczyć średni czas oczekiwania do kasy przy takiej strategii. 11.2. Wskazówki 11.1. Wyznaczyć dystrybuantę zmiennej losowej ξ + η. 11.2. Skorzystać ze wzoru (39). 11.3. Wyprowadzić w zad. 11.1. wzór na gęstość różnicy, podobnie jak 11.4. Skorzystać ze wzoru (39) i cierpliwie liczyć całkę. Zauważyć, że korzystając z liniowości warości oczekiwanej i niezależności zmiennych losowych ξ, η, E(ξ + η) = m1 + m2 , D2 (ξ + η) = σ12 + σ22 . 11.5. Obliczyć P (ξ + η = n), gdzie n należy do zbioru wartości, jakie przyjmuje zmienna losowa ξ + η. 11.6. Skorzystać ze wzoru (39) lub wyznaczyć dystrybuantę X + Y . 11.7. Wyznaczyć dystrybuantę zmiennej losowej ζ. 11.8. Rozkład zmiennej T wyznaczyć podobnie jak w zad. 11.5. Dla zmiennej Z zauważyć, że {Z = n} = {X = n, Y ≤ n} ∪ {Y = n, X < n} dla n ∈ N. W rachunkach zastosować wzór na sumę skończoną wyrazów ciągu geometrycznego. 136 Funkcje wektorów losowych 11.9. Można bezpośrednio wyznaczyć dystrybuantę zmiennej losowej ξ 2 + η 2 , korzystając ze współrzędnych biegunowch w odpowiedniej całce. Albo też można wyznaczyć splot gęstości zmiennych losowych ξ 2 , η 2 . 11.10. Wyznaczyć dystrybuantę wektora losowego (ξ, η). ξ + ηζ 11.11. Wyznaczyć dystrybuantę zmiennej losowej p . 1 + ζ2 11.12. Porównać zad. 3.14. Niech Xi oznacza masę i-tego samochodu (i = 1, 2). Interesuje nas P ((X1 , X2 ) ∈ A), gdzie A = {(x, y) ∈ R2 : x + y ≥ 6}. Prawdopodobieństwo to można obliczyć całkując gęstość wektora losowego (X1 , X2 ). Można też liczyć P (X1 + X2 ≥ 6) znając gęstość zmiennej losowej X1 + X2 , patrz zad. 11.2. 11.13. Równanie ma dwa pierwiastki rzeczywiste wtedy i tylko wtedy, gdy a 6= 0 i ∆ = 4b2 − 4ac > 0. Z treści zadania wynika, że wektor losowy (a, b, c) ma rozkład jednostajny w sześcianie [−1, 1]3 . Obliczyć P (b2 > ac). Porównać zad. 3.16 11.14. Porównać zad. 9.12, 11.12, 11.6. 11.15. Jeśli X oznacza czas oczekiwania do pierwszej kasy, a Y do drugiej, to interesuje nas EZ, gdzie Z = min{X, Y }. Porównać zad. 9.10. 11.3. Odpowiedzi i rozwiazania , 11.1. Zakładamy, że zmienne losowe ξ, η są niezależne i mają rozkłady o gęstościach odpowiednio f, g, zatem wektor losowy (ξ, η) ma gęstość ψ(x, y) = f (x)g(y) dla (x, y) ∈ R2 . Niech a ∈ R i F będzie dystrybuantą zmiennej losowej ξ + η. Wtedy Z F (a) = P (ξ + η ≤ a) = P ((ξ, η) ∈ A) = ψ(x, y)dxdy, (40) A 11.3. Odpowiedzi i rozwiazania , 137 gdzie A = {(x, y) ∈ R2 : x + y ≤ a}. Ostatnią całkę obliczamy stosując kolejno twierdzenie o zamianie zmiennych w całce i twierdzenie Fubiniego: Z a−y a ψ(x, y)dxdy = ψ(x, y)dxdy A Z a RZ −∞ ψ(z − y, y)dzdy = ψ(z − y, z)dydz. −∞ −∞ Z Z = R Z Z (41) R Porównując (40) i (41), otrzymujemy Z Z h(z) = ψ(z − y, y)dy = f (z − y)g(y)dy, R R Stąd h = f ∗ g. 11.2. Niech f, g oznaczają gęstości zmiennych ξ, η, h gęstość ξ + η. Wtedy f = g = 1[0,1] i korzystając ze wzoru (39) otrzymujemy Z h(x) = (f ∗ g)(x) = Z f (x − t)g(t)dt = R Z x Z = f (τ )dτ = x−1 1 f (x − t)dt 0 dt. [x−1,x]∩[0,1] Zatem 0 x h(x) = 2−x dla x < 0 lub x > 2, dla 0 ≤ x ≤ 1, dla 1 < x ≤ 2. 11.3. Niech h oznacza gęstość różnicy X − Y , f, g gęstości X i odpowiednio Y . Podobnie jak wzór (39), dowodzi się, że h = f ∗ ι(g), gdzie ι : R 3 x 7→ −x ∈ R, czyli równoważnie Z h(x) = f (x + y)g(y)dy R dla x ∈ R. 138 Funkcje wektorów losowych Zatem Z h(x) = c+ 21 Z f (x + y)dy = c− 12 x+c+ 12 f (t)dt x+c− 12 Z = dt, [x+c− 12 ,x+c+ 12 ]∩[c− 12 ,c+ 12 ] i podobnie jak w zad. 11.2 0 x+1 h(x) = 1−x dla x < −1 lub x > 1, dla − 1 ≤ x < 0, dla 0 ≤ x ≤ 1. Zmienna losowa X − Y ma rozkład trójkątny, którego gęstość nie zależy od c. 11.4. Niech f oznacza gęstość zmiennej losowej ξ, g gęstość η, zaś h gęstość zmiennej losowej ξ + η. Wtedy − 1 e f (x) = √ 2πσ1 (x−m1 )2 2 2σ1 − 1 , g(x) = √ e 2πσ2 (x−m2 )2 2 2σ2 , i korzystając ze wzoru (39), otrzymujemy Z h(x) = (f ∗ g)(x) = f (y)g(x − y)dy R Z 1 z2 (x − z − m)2 = exp − 2 − dz, 2πσ1 σ2 R 2σ1 2σ22 gdzie z = y − m1 , m = m1 + m2 . Następnie, przekształcamy wykładnik w powyższej całce, do postaci 2 p σ12 2 2 z σ1 + σ2 − (x − m) √ 2 2 σ1 +σ2 (x − m)2 − . − 2σ12 σ22 2(σ12 + σ22 ) Podstawiając nową zmienną całkowania z t= p σ12 + σ22 − (x − m) √ σ1 σ2 σ12 σ12 +σ22 , 11.3. Odpowiedzi i rozwiazania , 139 obliczamy t2 (x − m)2 exp − − dt 2 2(σ12 + σ22 ) R Z 2 (x − m)2 1 1 − t2 √ · exp(− ) · e =p dt 2(σ12 + σ22 ) 2π R 2π(σ12 + σ22 ) (x − m)2 1 · exp(− =p ). 2(σ12 + σ22 ) 2π(σ12 + σ22 ) p Stąd zmienna losowa ξ + η ma rozkład N (m1 + m2 , σ12 + σ22 ). 1 σ σ p 1 2 h(x) = 2πσ1 σ2 σ12 + σ22 Z 11.5. Zmienne losowe ξ, η mają rozkłady dyskretne, µk −µ λk −λ e , P (η = k) = e , k! k! dla k = 0, 1, . . ., ponadto są niezależne. Stąd zmienna ξ + η przyjmuje wartości n ∈ {0, 1, . . .}, z prawdopodobieństwami P (ξ = k) = P (ξ + η = n) = n X P (ξ = k, η = n − k) k=0 = n X P (ξ = k)P (η = n − k). k=0 Podstawiając P (ξ + η = n) = e−(λ+µ) = e−(λ+µ) n! n X n k=0 k λk µn−k = n X λk µn−k k!(n − k)! k=0 −(λ+µ) e n! (λ + µ)n . Zatem ξ + η ma rozkład Poissona z parametrem λ + µ. 11.6. Niech h oznacza gęstość zmiennej losowej X + Y . Wtedy h = f ∗ g, gdzie f (x) = g(x) = λe−λx 1{x≥0} . Zatem Z +∞ Z x −λy h(x) = λe g(x − y)dy = λe−λ(x−z) g(z)dz 0 −∞ 0 dla x < 0, = λ2 xe−λx dla x ≥ 0. 140 Funkcje wektorów losowych Można też wyznaczyć dystrybuantę zmiennej losowej X + Y całkując gęstość wektora losowego (X, Y ), h(x, y) = λ2 e−λ(x+y) 1{x≥0,y≥0} , po zbiorze {(x, y) ∈ R2 : x + y ≤ a}, a ∈ R. 11.7. Skoro zmienne losowe X, Y są niezależne i mają rozkład wykładniczy z parametrem 1, to wektor losowy (X, Y ) ma gęstość −(x+y) e dla x, y ≥ 0, h(x, y) = 0 dla x < 0 lub y < 0. Niech a ∈ R, F oznacza dystrybuantę zmiennej losowej ζ, A = x {(x, y) ∈ R : x+y ≤ a}. Wtedy Z F (a) = P ((X, Y ) ∈ A) = h(x, y)dxdy A Z = e−(x+y) dxdy. A∩{x≥0,y≥0} Jeśli a ≤ 0, to zbiór, po którym całkujemy, jest zbiorem pustym lub zbiorem miary zero w R2 , zatem F (a) = 0. Jeśli 0 < a < 1, to A = {(x, y) : 1−a a x ≤ y}, i stąd Z +∞ Z +∞ Z +∞ x F (a) = e−x−y dydx = exp(− )dx = a. 1−a a 0 x 0 a Jeśli w końcu a ≥ 1, to Z F (a) = 0 1−a a ≤0i +∞ Z +∞ e−x−y dxdy = 1. 0 Łącznie 0 dla a ≤ 0 a dla 0 < a < 1 F (a) = 1 dla a ≥ 1, czyli zmienna losowa ζ ma rozkład jednostajny na odcinku [0, 1]. 11.8. Wiemy, że P (X = k) = P (Y = k) = p(1 − p)k−1 dla k ∈ N. Ponadto z niezależności zmiennych X, Y : P (X = k, Y = l) = p2 (1 − p)k+l−2 dla k, l ∈ N. 11.3. Odpowiedzi i rozwiazania , 141 Zatem P (X + Y = n) = n−1 X P (X = k, Y = n − k) k=1 = n−1 X p2 (1 − p)n−2 = (n − 1)p2 (1 − p)n−2 k=1 dla n = 2, 3, . . .. Jeśli Z = max{X, Y }, to Z przyjmuje wartości w zbiorze N z prawdopodobieństwami P (Z = n) = P (X = n, Y ≤ n) + P (Y = n, X < n) n n−1 X X = P (X = n)P (Y = k) + P (Y = n)P (X = k) k=1 k=1 = 2p2 (1 − p)n−2 n X (1 − p)k − p2 (1 − p)n+n−2 k=1 = p(1 − p)n−1 (2 − (2 − p)(1 − p)n−1 ) dla n ∈ N. 11.9. I sposób. Ponieważ zmienne losowe ξ, η są niezależne, wektor losowy (ξ, η) ma gęstość h(x, y) = x2 + y 2 1 exp(− ) dla (x, y) ∈ R2 . 2π 2 Niech a ∈ (0, +∞) i A = {(x, y) ∈ R2 : x2 + y 2 ≤ a}. Niech F oznacza dystrybuantę ξ 2 + η 2 . Wtedy F (a) = P (ξ 2 + η 2 ≤ a) = P ((ξ, η) ∈ A) Z 1 x2 + y 2 = exp(− )dxdy 2π A 2 Z √a Z 2π 1 2 1 1 = re− 2 r dϕdr = 1 − e− 2 a . 2π 0 0 142 Funkcje wektorów losowych Jeśli natomiast a ≤ 0, to F (a) = 0. Stąd, jeśli f oznacza gęstość zmiennej losowej ξ 2 + η 2 , to ( 0 dla x ≤ 0, f (x) = 1 −1x e 2 dla x > 0. 2 II sposób. Zgodnie z zad. 9.3 zmienne losowe ξ 2 , η 2 mają rozkłady o gęstościach, odpowiednio ( 0 dla x ≤ 0, 1 g2 (x) = h2 (x) = − x 1 √ e 2 dla x > 0. 2πx Skoro ξ, η są niezależne, to zgodnie z zad. 10.1, zmienne losowe ξ 2 , η 2 również są niezależne. Zatem gęstość zmiennej losowej ξ 2 + η 2 jest splotem f = g2 ∗ h2 , Z +∞ 1 1 √ f (x) = e− 2 y g2 (x − y)dy 2πy 0 Z x 1 1 1 √ = √ e− 2 (x−z) g2 (z)dz. 2π −∞ x − z Jeśli x ≤ 0, to f (x) = 0, jeśli natomiast x > 0, to Z x 1 1 1 dz 1 p f (x) = · e− 2 x = · π · e− 2 x . 2π 0 2π (x − z)z Warto zauważyć, że ξ 2 + η 2 ma rozkład wykładniczy z parametrem λ = 12 , jest to jednocześnie rozkład χ2 (chi kwadrat) o 2 stopniach swobody. Ogólniej: jeśli zmienne losowe ξ1 , . . . , ξn są niezależne i mają standardowe rozkłady normalne, to mówimy, że zmienna losowa ξ12 + . . . + ξn2 ma rozkład χ2 o n stopniach swobody. Można wykazać, że gęstość rozkładu χ2 o n stopniach swobody wyraża się wzorem n 1 1 2 n −1 − 1 x x 2 e 2 1[0,+∞) (x), f (x) = Γ( n2 ) 2 gdzie Γ oznacza funkcję gamma Eulera, patrz zad. 8.15. 11.3. Odpowiedzi i rozwiazania , 143 11.10. Wektor losowy (X, Y ) ma gęstość h(x, y) = 1 4x2 + y 2 exp(− ) 4π 8 dla (x, y) ∈ R2 . Niech (a, b) ∈ R2 , F oznacza dystrybuantę wektora (ξ, η). Wtedy X +Y X −Y F (a, b) = P (ξ ≤ a, η ≤ b) = P ( √ ≤ a, √ ≤ b) 2 2 = P ((X, Y ) ∈ A), √ √ gdzie A = {(x, y) ∈ R2 : x + y ≤ a 2, x − y ≤ b 2}. Zatem Z Z a Z b u+v u−v F (a, b) = h(x, y)dxdy = h( √ , √ )dudv, 2 2 A −∞ −∞ czyli gęstość wektora losowego (ξ, η) wyraża się wzorem 1 1 u+v u−v exp(− (5u2 + 6uv + 5v 2 )), f (u, v) = h( √ , √ ) = 4π 16 2 2 jest to gęstość dwuwymiarowego rozkładu normalnego. 11.11. Zmienne losowe ξ, η, ζ są niezależne, zatem wektor losowy (ξ, η, ζ) ma gęstość 1 1 f (x, y, z) = √ exp(− (x2 + y 2 + z 2 )) 3 2 ( 2π) dla (x, y, z) ∈ R3 . x + yz Niech a ∈ R. Oznaczając A = {(x, y, z) ∈ R3 : √ ≤ a}, 1 + z2 można obliczyć ! Z ξ + ηζ 1 1 p √ P ≤a = exp(− (x2 + y 2 + z 2 ))dxdydz 3 2 2 ( 2π) A 1+ζ Z a 1 2 1 =√ e− 2 t dt. 2π −∞ ξ + ηζ Stąd zmienna losowa p ma standardowy rozkład nor1 + ζ2 malny. 144 Funkcje wektorów losowych 11.12. Niech Xi oznacza masę i-tego samochodu (i = 1, 2). I sposób. Zmienne losowe X1 , X2 są niezależne, więc wektor losowy (X1 , X2 ) ma gęstość f (x, y) = 91 1[2,5]2 (x, y). Niech A = {(x, y) ∈ R2 : x + y ≥ 6}. Zatem Z Z 1 7 f (x, y)dxdy = dxdy = . P ((X1 , X2 ) ∈ A) = 9 A∩[2,5]2 9 A II sposób. Zmienna losowa X1 + X2 ma gęstość 0 dla x < 4 lub x > 10, 1 (x − 4) dla 4 ≤ x ≤ 7, h(x) = 9 1 (10 − x) dla 7 < x ≤ 10, 9 patrz zad. 11.2. Zatem Z 6 P (X1 + X2 ≥ 6) = 1 − P (X1 + X2 < 6) = 1 − h(x)dx −∞ 1 = 9 Z 4 6 7 (x − 4)dx = . 9 11.13. Wektor losowy (a, b, c) ma rozkład jednostajny w sześcianie [−1, 1]3 , czyli rozkład o gęstości f (x, y, z) = 81 1[−1,1]3 (x, y, z). Równanie ma dwa pierwiastki rzeczywiste wtedy i tylko wtedy, gdy a 6= 0 i ∆ = 4b2 − 4ac > 0. Oczywiście P (a 6= 0)=1. Obliczamy Z Z Z 1 1 dxdydz = . P (b2 > ac) = 8 2 3 2 [0,1] ∩{(x,y,z):y >xz} Zatem szukane prawdopodobieństwo wynosi 12 . 11.14. Niech Xi oznacza czas obsługi i-tej osoby (i = 1, 2). Ponieważ Xi ma rozkład wykładniczy i EXi = 2, to λ = 12 . Zmienne losowe X1 , X2 są niezależne, więc zgodnie z zad. 11.6, gęstość zmiennej losowej X1 + X2 jest postaci 1 1 h(x) = xe− 2 x 1[0,∞) (x). 4 11.3. Odpowiedzi i rozwiazania , 145 Zatem Z 1 5 −1x P (X1 + X2 > 5) = 1 − P (X1 + X2 ≤ 5) = 1 − xe 2 dx 4 0 3 5 = e− 2 ≈ 0, 123. 2 11.15. Niech X oznacza czas oczekiwania do pierwszej kasy, a Y do drugiej. Zmienne losowe X, Y mają ten sam rozkład jednostajny na odcinku [0, 5] i są niezależne. Niech Z = min{X, Y } i 0 < z ≤ 5. Wtedy P (min{X, Y } ≤ z) = 1 − P (min{X, Y } > z) = 1 − P (X > z, Y > z) = 1 − P (X > z)P (Y > z) = 1 − (1 − P (X ≤ z))(1 − P (Y ≤ z)) 2 Z 1 5 1 =1− 1− dx = z(10 − z). 5 0 25 Stąd dystrybuanta Z F (z) = wyraża się wzorem dla z ≤ 0, 0 1 z(10 − z) 25 1 czyli mamy wzór na gęstość Z 1 (10 − 2z) 25 f (z) = 0 dla 0 < z ≤ 5, dla z > 5, dla 0 < z < 5 dla z ≤ 0 lub z ≥ 5. 5 Zatem EZ = . Zauważmy, że obliczony średni czas oczekiwania 3 jest w tej sytuacji krótszy, niż średni czas oczekiwania w jednej kolejce. 12. Funkcja charakterystyczna 12.1. Teoria i zadania Niech P : B(R) → [0, 1] bedzie rozkładem prawdopodobieństwa. , Funkcja, charakterystyczna, rozkładu P nazywamy funkcje, ϕ : R → C, dana, wzorem Z eitu dP (u), ϕ(t) = R gdzie i2 = −1. Jeśli zmienna losowa ξ : Ω → R ma rozkład Pξ , to funkcja, charakterystyczna, zmiennej losowej ξ nazywamy funkcje, charakterystyczna, rozkładu Pξ . Zgodnie z twierdzeniem o zamianie miary w całce ϕξ (t) = E(eitξ ). (42) W szczególności, jeśli ξ ma rozkład dyskretny zadany przez ciag , (xk , pk )k∈I , to X ϕξ (t) = eitxk pk . (43) k∈I Jeśli ξ ma rozkład absolutnie ciagły o gestości f , to , , Z f (x)eitx dx. ϕξ (t) = (44) R Przypomnijmy podstawowe własności funkcji charakterystycznej. 1. ϕ(0) = 1, |ϕ(t)| ≤ 1 dla t ∈ R. 2. ϕ jest funkcja, jednostajnie ciagł , a. , 3. Jeśli ξ jest zmienna, losowa, i a, b ∈ R, to ϕaξ+b (t) = eitb ϕξ (at). 4. Jeśli E|ξ|n < ∞, n ∈ N, to n-ta pochodna funkcji charaktery(n) stycznej ϕξ istnieje, jest jednostajnie ciagła oraz , (n) ϕξ (0) = in Eξ n . 148 Funkcja charakterystyczna 5. Twierdzenie o jednoznaczności. Jeśli ϕ1 , ϕ2 są funkcjami charakterystycznymi rozkładów prawdopodobieństwa P1 , P2 i ϕ1 = ϕ2 , to P1 = P2 . Z ostatniego twierdzenia wynika, że funkcja charakterystyczna wyznacza jednoznacznie rozkład prawdopodobieństwa. W ogólnej sytuacji mamy nastepuj acy wzór na odwracanie. Jeśli F oznacza dystrybuante, , , rozkładu P i jest ciagła w punktach a, b ∈ R, a < b, zaś ϕ jest funkcja, , charakterystyczna, tego rozkładu, to Z c −ita 1 e − e−itb F (b) − F (a) = lim ϕ(t)dt. (45) 2π c→∞ −c it Warto pamiętać następujące twierdzenie Fouriera o odwracaniu. Jeśli funkcja charakterystyczna ϕ zmiennej losowej X jest całkoR walna, tzn. R |ϕ(t)|dt < ∞, to X jest absolutnie ciągła i ma gęstość Z 1 f (x) = e−itx ϕ(t)dt. 2π R Jeśli X : Ω → Rn jest wektorem losowym, to funkcja, charakterystyczna, tego wektora nazywamy funkcje, ϕX : Rn → C, dana, wzorem ϕX (u) = E(eihu|Xi ) dla u ∈ Rn , gdzie h·|·i oznacza iloczyn skalarny w Rn . Zad. 12.1. Wyznaczyć funkcje, charakterystyczna, zmiennej losowej bed liczba, orłów uzyskanych w trzykrotnym rzucie moneta, syme, , acej tryczna. , Zad. 12.2. Wyznaczyć funkcje, charakterystyczna, zmiennej losowej o rozkładzie: a) geometrycznym; b) jednostajnym na odcinku [a, b]; c) Laplace’a, t.j. o gestości f (x) = 12 e−|x| dla x ∈ R; , 12.1. Teoria i zadania 149 d) wykładniczym; e) o gestości f (x) = 1 − |x| dla |x| ≤ 1 oraz f (x) = 0 dla |x| > 1; , f ) normalnym o parametrach m, σ; g) gamma o parametrach α, λ. 1 Zad.12.3. Wyznaczyć funkcje, charakterystyczna, rozkładu P = δ0 + 2 1 P1 , gdzie P1 – rozkład jednostajny na odcinku [−1, 1]. 2 Zad. 12.4. Wyrazić wariancje, zmiennej losowej za pomoca, jej funkcji charakterystycznej. Zad. 12.5. Wykazać własności 1 - 3 funkcji charakterystycznej. Zad. 12.6. Wykazać, że funkcja charakterystyczna zmiennej losowej X, takiej że P (X ∈ Z) = 1, jest okresowa o okresie 2π. Zad. 12.7. Wykazać, że dla zmiennej losowej X, takiej że P (X ∈ Z) = 1 Z 2π 1 P (X = n) = e−itn ϕ(t)dt ∀n ∈ Z. 2π 0 Zad. 12.8. Wykazać, że jeśli ϕ jest funkcją charakterystyczną zmiennej losowej X i ϕ(2π) = 1, to P (X ∈ Z) = 1. Zad. 12.9. Znaleźć rozkład prawdopodobieństwa, którego funkcja charakterystyczna wyraża sie, wzorem: a) ϕ(t) = cos t, t ∈ R; b) ϕ(t) = cos 2t , t ∈ R; c) ϕ(t) = e−|t| , t ∈ R; d) ϕ(t) = 12 e−it + √ e) ϕ(t) = 13 eit f ) ϕ(t) = 2 1 3 + 16 e2it , t ∈ R; √ + 23 eit 3, 2 , t ∈ R. −1 3eit t ∈ R; 150 Funkcja charakterystyczna Zad. 12.10. Wykazać twierdzenie: Zmienne losowe X1 , . . . , Xn sa, niezależne wtedy i tylko wtedy, gdy ϕ(X1 ,...,Xn ) (t1 , . . . , tn ) = ϕX1 (t1 ) · . . . · ϕXn (tn ). Zad. 12.11. Wykazać twierdzenie: Jeśli zmienne losowe X1 , . . . , Xn sa, niezależne, to ϕX1 +...+Xn (t) = ϕX1 (t) · . . . · ϕXn (t). Zad. 12.12. Wyznaczyć funkcję charakterystyczną n-wymiarowego rozkładu normalnego. Zad. 12.13. Wykazać, że jeśli zmienne losowe ξ, η o rozkładzie N (m, σ) sa, niezależne, to zmienne losowe ξ + η, ξ − η sa, niezależne. √ , η = Zad. 12.14. Znaleźć rozkład (ξ, η) wiedzac, że ξ = X+Y , 2 X ma rozkład N (0, 1), Y ∈ N (0, 2) oraz X, Y sa, niezależne. X−Y √ 2 , 12.2. Wskazówki 12.1. Rozważana zmienna losowa ma rozkład dyskretny, należy więc zastosować wzór (43). 12.2. Stosować odpowiednio wzór (43) lub (44). 12.3. Zauważyć, że jeśli Pk są rozkładami prawdopodobieństwa o funkcjach charakterystycznych ϕk dla k ∈ I (I - P zbiór co najwyżej przeliczalny), zaś liczby λ > 0 są takie, że k k∈I λk = 1, P to funkcja ϕ = λ ϕ jest funkcją charakterystyczną rozk∈I k k P kładu P = k∈I λk Pk . 12.4. Skorzystać z własności 4 funkcji charakterystycznej. 12.5. Skorzystać ze wzoru (42). 12.6. Wystarczy wykazać, że ϕ(t + 2π) = ϕ(t) dla dowolnego t ∈ R. 12.3. Odpowiedzi i rozwiazania , 151 12.7. Wzór (43) pomnożyć stronami przez e−itn , a następnie obliczyć całkę względem zmiennej t w granicach od 0 do 2π. 12.8. Z faktu, że ϕ(2π) = 1 wywnioskować, że P (cos 2πX = 1) = 1, a stąd P (X ∈ Z) = 1. 12.9. W przykładach a), d), f) zastosować wzór z zad. 12.7. Wartości jakie przyjmuje zmienna losowa X ustalić zgodnie z zad. 12.3 i twierdzeniem o jednoznaczności. W przykładzie b) rozważyć najpierw zmienną losową Y = 2X i skorzystać z własności 3 funkcji charakterystycznej. W przykładzie c) zastosować twierdzenie Fouriera. W przykładzie e) zastosować wzór (45) lub wniosek z zad. 12.3. 12.10. Skorzystać z definicji funkcji charakterystycznej wektora losowego oraz z faktu, że zmienne losowe niezależne są nieskorelowane. 12.11. Porównać zad. 12.10. 12.12. Patrz zadania 10.20, 12.2 f). 12.13. Wyznaczyć funkcje charakterystyczne zmiennych losowych ξ + η, ξ − η oraz wektora losowego (ξ + η, ξ − η), a następnie skorzystać z zad. 12.10. 12.14. To zadanie już raz rozwiązywaliśmy, patrz zad. 11.10. Korzystając z twierdzenia o jednoznaczności, rozkład wektora losowego (ξ, η) można też znaleźć wyznaczając jego funkcję charakterystyczną. 12.3. Odpowiedzi i rozwiazania , 12.1. Zmienna losowa ξ ma rozkład: 3 1 P (ξ = k) = k 23 dla k = 0, 1, 2, 3. 152 Funkcja charakterystyczna Zgodnie ze wzorem (43) itξ ϕ(t) = E(e ) = 3 X 3 1 1 eitk = (1 + eit )3 k 8 8 k=0 dla t ∈ R. Ogólniej, jeśli ξ ma rozkład Bernoullego o parametrach n, p, to dla t ∈ R p it n n e . ϕ(t) = (1 − p) 1 + 1−p 12.2. a) Zmienna losowa ξ ma rozkład geometryczny, tzn. P (ξ = k) = p(1 − p)k−1 dla k = 1, 2, . . . . Wtedy dla dowolnego t ∈ R, mamy ϕ(t) = ∞ X ∞ itk e k−1 p(1 − p) k=1 = p X it = (e (1 − p))k 1−p k=1 peit 1 − (1 − p)eit . b) Zmienna losowa ξ ma rozkład jednostajny na odcinku [a, b], 1 1[a,b] . Korzystając ze wzoru (44), mamy czyli o gęstości f = b−a Z ϕ(t) = itx f (x)e R 1 dx = b−a Z b eitx dx. a Stąd 1 eitb − eita b−a it ϕ(t) = 1 c) Zgodnie z (44), ponieważ Z ϕ(t) = R R dla t 6= 0, dla t = 0. −|x| sin txdx Re 1 −|x| itx 1 e e dx = 2 2 Z R = 0, e−|x| cos tx dx. 12.3. Odpowiedzi i rozwiazania , 153 Stosując dalej wzór na całkowanie przez części Z ∞ 1 e−x cos tx dx = ϕ(t) = 1 + t2 0 dla t ∈ R. d) ϕ(t) = λ dla t ∈ R. λ − it e) 2 1 − cos t t2 ϕ(t) = 1 dla t 6= 0, dla t = 0. f ) Wyznaczymy najpierw funkcję charakterystyczną standardox2 1 wego rozkładu normalnego. Niech f (x) = √ e− 2 dla x ∈ R. 2π Stosując wzór (44), mamy Z t2 1 ϕ(x) = √ eixt e− 2 dt 2π Z Z R 2 t t2 1 1 −2 dt + i √ =√ cos xte sin xte− 2 dt. 2π R 2π R Korzystając z nieparzystości funkcji podcałkowej w drugim oraz parzystości funkcji podcałkowej w pierwszym składniku powyższej sumy, otrzymujemy Z ∞ t2 2 ϕ(x) = √ cos xte− 2 dt. 2π 0 Zgodnie z własnością 4 funkcja ϕ jest różniczkowalna. Ponadto t2 ∂ funkcja (cos xte− 2 ) jest ciągła i posiada całkowalną majo∂x2 t rantę: te− 2 . Zatem Z ∞ t2 2 0 ϕ (x) = − √ t sin xte− 2 dt. 2π 0 Stosując wzór na całkowanie przez części Z ∞ t2 2 0 ϕ (x) = − √ x cos xte− 2 dt. 2π 0 154 Funkcja charakterystyczna Ostatecznie funkcja charakterystyczna standardowego rozkładu normalnego spełnia równanie różniczkowe ϕ0 (x) = −xϕ(x) z warunkiem początkowym ϕ(0) = 1. Ale jedynym rozwiązaniem powyższego zagadnienia Cauchy’ego, jest funkcja x 7→ e− x2 2 . Zatem ϕ(x) = e− x2 2 . Niech teraz zmienna losowa η ma rozkład normalny N (m, σ), η−m ma standardowy rozkład normalny. Korzywtedy ξ = σ stając z własności 3 funkcji charakterystycznej 1 ϕη (x) = ϕσξ+m (x) = eixm ·ϕξ (σx) = eixm ·e− 2 σ g) ϕ(t) = λ λ − it 2 x2 1 = eixm− 2 σ 2 x2 . α dla t ∈ R. 12.3. Niech Pk będą rozkładami prawdopodobieństwa o funkcjach charakterystycznych ϕP k dla k ∈ I (I - zbiór co najwyżej przeliczalny). Niech P = k∈I λk Pk , gdzie liczby λk > 0 są takie, P że k∈I λk = 1, zaś ϕ oznacza funkcję charakterystyczną P . Wtedy zgodnie z definicją Z X Z X itx ϕ(t) = e dP (x) = λk eitx dPk (x) = λk ϕk (t) R R k∈I dla t ∈ R, czyli ϕ= X k∈I λk ϕk . k∈I W szczególności, jeśli ϕ1 jest funkcją charakterystyczną rozkładu δ0 , a ϕ2 funkcją charakterystyczną rozkładu P1 , to 1 1 ϕ = ϕ 1 + ϕ2 . 2 2 12.3. Odpowiedzi i rozwiazania , 155 Zauważmy, że ϕ1 (t) = 1 dla każdego t ∈ R. Ogólniej ϕδc (t) = eitc . Natomiast, zgodnie z zadaniem 12.2 b), ( sin t dla t 6= 0, ϕ2 (t) = t 1 dla t = 0. Łącznie 1 + sin t 2 2t ϕ(t) = 1 dla t 6= 0, dla t = 0. 12.4. D2 ξ = Eξ 2 − (Eξ)2 = −ϕ00 (0) + (ϕ0 (0))2 , jednocześnie ϕ(0) = 1, stąd D2 ξ = −(ln ϕ)00 (0). 12.5. 1. ϕ(0) = E(e0 ) = 1, |ϕ(t)| = |Eeitξ | ≤ E|eitξ | = 1 dla t ∈ R. 2. Niech t, h ∈ R. Korzystając z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej |ϕ(t + h) − ϕ(t)| = |E((eihξ − 1)eitξ )| ≤ E|eihξ − 1| → 0, gdy h → 0. 3. Niech a, b ∈ R, t ∈ R. ϕaξ+b (t) = E(eit(aξ+b) ) = E(eitb ·eitaξ ) = eitb E(eitaξ ) = eitb ϕξ (at). 12.6. Niech pk = P (X = k) dla k ∈ Z. Ustalmy dowolne t ∈ R. Ponieważ ei2πk = 1 dla każdego k ∈ Z, mamy X X ϕ(t + 2π) = ei(t+2π)k pk = eitk pk = ϕ(t). k∈Z k∈Z 12.7. Niech pk = P (X = k) dla k ∈ Z. Wtedy funkcja charakterystyczna zmiennej losowej X wyraża się wzorem X ϕ(t) = eitk pk k∈Z 156 Funkcja charakterystyczna dla dowolnego t ∈ R. Niech n ∈ N. Mnożąc powyższą równość stronami przez e−itn , a następnie całkując stronami względem t, otrzymujemy Z 2π 2π Z e−itn ϕ(t)dt = 0 0 X eit(k−n) pk dt = XZ 2π eit(k−n) pk dt. k∈Z 0 k∈Z (46) Zauważmy, że Z pk 2π it(k−n) e dt = 0 2πpn 0 dla k = n, dla k = 6 n, zatem w sumie po prawej stronie (46), tylko jeden wyraz jest niezerowy, i Z 2π e−itn ϕ(t)dt = 2πpn . 0 Stąd pn = 1 2π Z 2π e−itn ϕ(t)dt. 0 12.8. Skoro ϕ(2π) = 1, to zgodnie z (42), E(ei2πX ) = E(cos 2πX) + iE(sin 2πX) = 1, Z (1 − cos 2πX)dP = czyli E(cos 2πX) = 1. Oznacza to, że Ω 0, a ponieważ 1 − cos 2πx ≥ 0 dla każdego x ∈ R, to P (1 − cos 2πX = 0) = 1. Stąd P (cos 2πX = 1) = 1, czyli P (X ∈ Z) = 1. 12.9. a) Oczywiście funkcja ϕ jest okresowa, o okresie 2π i ϕ(2π) = 1, zatem zgodnie z zad. 12.8, P (X ∈ Z) = 1. Możemy więc e−it + eit stosować wzór z zad. 12.7. Zauważmy, że cos t = , 2 zatem Z 2π 1 1 P (X = −1) = eit cos tdt = , 2π 0 2 Z 2π 1 1 P (X = 1) = e−it cos tdt = . 2π 0 2 12.3. Odpowiedzi i rozwiazania , 157 Zmienna losowa X ma więc rozkład: 1 P (X = −1) = P (X = 1) = . 2 b) Tym razem ϕ(2π) = −1, ale przyjmując Y = 2X, zgodnie z własnością 3 funkcji charakterystycznej ϕY (t) = ϕ2X (t) = ϕ(2t) = cos t. Zatem korzystając z zad. 12.9 a), otrzymujemy 1 1 P (Y = −1) = P (X = − ) = , 2 2 1 1 P (Y = 1) = P (X = ) = , 2 2 stąd 1 1 1 P (X = − ) = P (X = ) = . 2 2 2 c) Zauważmy, że Z Z |ϕ(t)|dt = 2 +∞ e−t dt = 2 < ∞, 0 R czyli zgodnie z twierdzeniem Fouriera zmienna losowa X ma rozkład absolutnie ciągły o gęstości Z 1 f (x) = e−itx e−|t| dt 2π R Z 0 Z +∞ 1 t(1−ix) −t(1+ix) = e dt + e dt 2π −∞ 0 1 1 1 1 = + = . 2π 1 − ix 1 + ix π(1 + x2 ) Zmienna losowa X ma więc rozkład Cauchy’ego. d) Ponieważ ϕ(2π) = z zad. 12.7. 1 2 + 1 3 + 1 6 = 1, możemy stosować wzór Z 2π 1 1 1 1 eit ( e−it + + e2it )dt 2π 0 2 3 6 Z 2π 1 1 1 1 1 = ( + eit + e3it )dt = . 2π 0 2 3 6 2 P (X = −1) = 158 Funkcja charakterystyczna Podobnie 1 P (X = 0) = , 3 1 P (X = 2) = . 6 Możemy też zauważyć, że ϕ = 12 ϕ1 + 31 ϕ2 + 16 ϕ3 , gdzie ϕ1 jest funkcją charakterystyczną rozkładu δ−1 , ϕ2 rozkładu δ0 , a ϕ3 rozkładu δ2 . Zgodnie z zad. 12.3 i twierdzeniem o jednoznaczności 1 1 1 P = δ−1 + δ0 + δ2 . 2 3 6 e) Tym razem ϕ(2π) R6= 1, niespełnione jest również założenie twierdzenia Fouriera, R |ϕ(t)|dt < ∞. Możemy natomiast zauważyć, że ϕ = 13 ϕ1 + 23 ϕ2 , gdzie ϕ1 jest funkcją charakterystyczną rozkładu δ√2 , a ϕ2 funkcją charakterystyczną δ√3 . Zgodnie z twierdzeniem o jednoznaczności szukany rozkład ma postać 1 2 P = δ√2 + δ √3 . 3 3 Można też zastosować ogólny wzór (45). Mianowicie, niech x, y ∈ R będą punktami ciągłości dystrybuanty F rozkładu P , x < y. Wtedy 1 F (y) − F (x) = lim 2π c→∞ Z c −c e−itx − e−ity ϕ(t)dt. it Obliczmy Z lim c c→∞ −c Z c −it(x−a) e − e−it(y−a) e−itx − e−ity ita e dt = lim dt c→∞ −c it it Z c sin t(y − a) − sin t(x − a) = lim dt c→∞ −c t ! Z c(y−a) Z c(x−a) sin τ sin τ = lim dτ − dτ c→∞ −c(y−a) τ −c(x−a) τ 0, jeśli x, y > a lub x, y < a, = 2π, jeśli x < a < y, 12.3. Odpowiedzi i rozwiazania , 159 √ 2 lub a = 3. Podstawiając do (45) otrzymujemy √ √ 0, jeśli x, y < 2 lub x, y√> 3 √ lub 2 < x, y < 3, √ √ 1 F (y) − F (x) = , jeśli x < 2 < y < 3, 3 2 , jeśli √2 < x < √3 < y. 3 √ √ √ Funkcja F jest więc stała na przedziałach (−∞, 2), ( 2, 3), √ ( 3, +∞). √Ostatecznie, uwzględniając skoki dystrybuanty √ w punktach 2, 3 otrzymujemy rozkład: dla a = √ P (X = √ 1 2) = , 3 P (X = √ 2 3) = . 3 f ) Zauważmy, że ϕ(2π) = 1, zatem zmienna losowa przyjmuje wyłącznie wartości całkowite. Ponadto, stosując wzór na sumę nieskończonego ciągu geometrycznego, −it ϕ(t) = 2e 3 1− e−it 3 =2 ∞ −it k X e 3 k=1 ∞ X 2 −itk = e . 3k k=1 Stąd, podobnie jak w zad. 12.9 d) P (X = −k) = 2 3k dla k ∈ N. 12.10. Załóżmy, że zmienne losowe X1 , . . . , Xn są niezależne. Niech (t1 , . . . , tn ) ∈ Rn . Zgodnie z definicją ϕ(X1 ,...,Xn ) (t1 , . . . , tn ) = E(eih(t1 ,...,tn )|(X1 ,...,Xn )i ) n Y n = E(ei k=1 tk Xk ) = E( eitk Xk ). P k=1 Z niezależności X1 , . . . , Xn wynika niezależność zmiennych losowych eit1 X1 , . . . , eitn Xn , zatem E( n Y k=1 itk Xk e )= n Y k=1 itk Xk E(e )= n Y k=1 ϕXk (tk ). 160 Funkcja charakterystyczna Stąd ϕ(X1 ,...,Xn ) (t1 , . . . , tn ) = n Y ϕXk (tk ). (47) k=1 Z drugiej strony, produkt rozkładów PX1 , . . . , PXn , czyli rozkład prawdopodobieństwa P taki, że P (B1 × . . . × Bn ) = PX1 (B1 ) · . . . · PXn (Bn ) dla B1 , . . . , Bn ∈ B(R) ma funkcję charakterystyczną ϕ(t1 , . . . , tn ) = ϕX1 (t1 ) · . . . · ϕXn (tn ) dla (t1 , . . . , tn ) ∈ Rn . Jeśli więc zachodzi (47), to ϕ = ϕ(X1 ,...,Xn ) i z twierdzenia o jednoznaczności wynika, że P = P(X1 ,...,Xn ) , a to oznacza, że zmienne losowe X1 , . . . , Xn są niezależne. 12.11. Dowód analogiczny jak w zad. 12.10. 12.12. Załóżmy najpierw, że X = (X1 , . . . , Xn ) ma rozkład N (0, I). Niech t = (t1 , . . . , tn ) ∈ Rn . Wtedy, zgodnie z zadaniami 10.20 i 12.2f) ϕX (t) = E(eiht|Xi ) = E(ei(t1 X1 +...+tn Xn ) ) 1 = ϕX1 (t1 ) . . . ϕXn (tn ) = e− 2 ht|ti . Jeśli Y ma rozkład N (m, Q), to Y = AX + m, gdzie X ma rozkład N (0, I), zaś A · AT = Q. Korzystając z odpowiednika własności 3 ϕAX+b (t) = eiht|bi ϕX (AT t) dla b ∈ Rn , A macierzy stopnia n, t ∈ Rn mamy 1 ϕY (t) = eiht|mi ϕX (AT t) = eiht|mi− 2 hQt|ti dla każdego t ∈ Rn . 12.13. Oznaczmy X = ξ + η, Y = ξ − η. Z zad. 12.3 f) 1 ϕξ (t) = ϕη (t) = eitm− 2 σ 2 t2 . 12.3. Odpowiedzi i rozwiazania , 161 Natomiast z definicji funkcji charakterystycznej wektora losowego w R2 ϕ(X,Y ) (u, v) = E(eih(u,v)|(X,Y )i ) = E(ei(u+v)ξ ei(u−v)η ). Skoro ξ, η są niezależne, to również ei(u+v)ξ , ei(u−v)η są niezależne. Zatem zmienne losowe ϕ(X,Y ) (u, v) = E(ei(u+v)ξ )E(ei(u−v)η ) = ϕξ (u + v) · ϕη (u − v) = ei2um−σ 2 (u2 +v 2 ) . Zgodnie z zad. 12.11 ϕX (u) = ϕξ (u)ϕη (u) = e2ium−σ 2 u2 −σ 2 v 2 ϕY (v) = ϕξ (v)ϕη (−v) = e , . Zatem ϕ(X,Y ) (u, v) = ϕX (u) · ϕY (v), a to zgodnie z zad. 12.10 oznacza, że zmienne losowe X, Y są niezależne. 12.14. Niech (s, t) ∈ R2 . √ √ s+ X−Y t) i( X+Y ϕ(ξ,η) (s, t) = E(eih(ξ,η)|(s,t)i ) = E(e 2 √ X i s+t 2 = E(e 2 √ Y i s−t 2 ·e ) ). Zmienne losowe X, Y są niezależne, zatem √ X i s+t 2 E(e √ Y i s−t ·e √ )2 − 21 ( s+t =e 2 2 s+t s−t ) = ϕX ( √ ) · ϕ Y ( √ ) 2 2 √ )2 − 21 4( s−t ·e 2 1 = e− 4 (5s 2 −6st+5t2 ) . Zgodnie z zad. 12.12 jest to funkcja charakterystyczna rozkładu 1 5 −3 N (0, Q), gdzie Q = . Porównać zad. 11.10. 2 −3 5 13. Twierdzenie Poissona. Centralne twierdzenie graniczne 13.1. Teoria i zadania Rozkład Bernoullego B(n, p) dla dużych n i małych p może być przybliżany rozkładem Poissona. Mówi o tym nastepuj ace , , Twierdzenie Poissona. Niech liczby pn > 0 tworza, ciag , taki, że lim npn = λ (λ > 0). Wtedy n→∞ n k λk −λ lim pn (1 − pn )n−k = e , n→∞ k k! k = 0, 1, . . . . Centralne twierdzenie graniczne bedziemy stosować w dwóch , wersjach. Twierdzenie Lindeberga - Lévy’ego. Niech ξ1 , ξ2 , . . . bed , a, niezależnymi zmiennymi losowymi na tej samej przestrzeni probabilistycznej (Ω, Σ, P ). Załóżmy, że wszystkie one maja, ten sam rozkład o skończonej wartości oczekiwanej Eξk = m i wariancji D2 ξk = σ 2 , Pn dla k ∈ N, przy czym σ > 0. Oznaczmy Sn = k=1 ξk . Wtedy dla każdego x ∈ R Sn − nm √ lim P ( ≤ x) = Φ(x), (48) n→∞ σ n gdzie Φ oznacza dystrybuante, standardowego rozkładu normalnego. Zauważmy, że zmienną losową Tn = Sn − nm Sn − ESn √ = D 2 Sn σ n otrzymujemy poprzez standaryzację zmiennej losowej Sn , zaś zbieżność w (48) oznacza zbieżność ciagu dystrybuant zmiennych losowych , Tn . Jeśli dodatkowo założymy, że zmienne losowe ξk maja, rozkład 164 Twierdzenie Poissona. Centralne twierdzenie graniczne dwupunktowy, otrzymujemy Twierdzenie Moivre’a - Laplace’a. Niech ξ1 , ξ2 , . . . bed , a, niezależnymi zmiennymi losowymi o tym samym rozkładzie dwupunktowym z parametrem p > 0. Wtedy dla każdego x ∈ R Sn − np lim P ( p ≤ x) = Φ(x). np(1 − p) n→∞ (49) Zad. 13.1. W skład pewnej złożonej aparatury wchodzi 500 elementów. Prawdopodobieństwo uszkodzenia w ciagu roku każdego z nich , jest równe 0, 002 i nie zależy od stanu pozostałych elementów. Obliczyć prawdopodobieństwo uszkodzenia w ciagu roku dokładnie jed, nego elementu. Zad. 13.2. Przedsiebiorstwo transportowe posiada 200 autobusów. , Prawdopodobieństwo, że wybrany losowo autobus jest sprawny wynosi 0, 99. Obliczyć prawdopodobieństwo, że w losowo wybranej chwili dokładnie jeden autobus jest niesprawny. Zad. 13.3. Artykuł zawiera 100 tys. znaków. W trakcie przepisywania każdy znak może być zmieniony z prawdopodobieństwem 0,001. Recenzent znajduje bład , z prawdopodobieństwem 0,9, po czym tekst wraca do autora, który znajduje pozostałe błedy z prawdopodobień, stwem 0,5. Jaka jest szansa, że po dwóch korektach artykuł zawiera nie wiecej niż 3 błedy? , , Zad. 13.4. Ksiażka zawiera 500 stron, na których jest 50 błedów. , , Oszacować prawdopodobieństwo, że na wylosowanej stronie sa, co najmniej 3 błedy. , Zad. 13.5. Ile rodzynków trzeba podczas wyrabiania ciasta średnio przeznaczyć na bułeczke, , aby losowo wybrana bułeczka zwierała przynajmniej jeden rodzynek z prawdopodobieństwem 0,95 lub wiekszym? , Zad. 13.6. Obliczyć prawdopodobieństwo, że rzucając 2000 razy niesymetryczną monetą, dla której prawdopodobieństwo wypadnięcia orła wynosi 34 , liczba uzyskanych orłów jest zawarta między 1465 a 1535. 13.1. Teoria i zadania Zad. 13.7. Ile razy należy rzucić symetryczna, moneta, , aby mieć co najmniej 95% pewność, że stosunek liczby orłów do liczby wszystkich rzutów zawiera sie, w przedziale (0, 45; 0, 55]? Zad. 13.8. Ile razy należy rzucić prawidłowa, kostka, do gry, aby mieć 99% pewność, że szóstka pojawi sie, co najmniej w 15% wszystkich rzutów? Zad. 13.9. Jakie jest prawdopodobieństwo, że przy 1000 rzutach symetryczna, moneta, różnica miedzy liczba, orłów i reszek bedzie wy, , nosić co najmniej 100? Porównać wynik uzyskany korzystajac , z nierówności Czebyszewa oraz z tw. Moivre’a - Laplace’a. Zad.13.10. Wiadomo, że prawdopodobieństwo urodzenia sie, chłopca wynosi w przybliżeniu 0, 512. Jakie jest prawdopodobieństwo, że wśród 10 000 noworodków bedzie nie mniej dziewczynek niż chłop, ców? Jakie jest prawdopodobieństwo, że wśród 10 000 noworodków bedzie co najmniej o 200 chłopców wiecej niż dziewczynek? , , Zad. 13.11. Aby stwierdzić, jak wielu wyborców popiera partię ABC, losujemy spośród wyborców reprezentatywną próbę i na niej przeprowadzamy sondaż. Jak duża powinna być próba, aby uzyskany wynik różnił się od rzeczywisego poparcia dla partii ABC nie więcej niż 3% z prawdopodobieństwem co najmniej 0, 95? Zad. 13.12. W wyborach prezydenckich w X uczestniczy dwóch kandydatów. Zakładajac, że pierwszego kandydata popiera α% gło, sujacych, jak wiele osób trzeba przebadać w sondażu przedwybor, czym, żeby określić liczbe, α z błedem nie wiekszym niż 4, 5% z praw, , dopodobieństwem co najmniej 0, 95? Zad. 13.13. 1 stycznia bieżacego roku na terenie Polski zostało , skradzionych 216 samochodów osobowych. Oszacuj możliwie najdokładniej prawdopodobieństwo odzyskania co najmniej połowy z nich w ciagu bieżacego roku, jeżeli wiadomo, że rocznie w Polsce znajduje , , sie, średnio 400 z 1000 skradzionych w danym roku aut. Zad. 13.14. Cztery firmy przewozowe A, B, C i D obsługuja, połaczenie autokarowe z Krakowa do Paryża. Statystyka podaje, że , miesiecznie łacznie 2000 pasażerów korzysta z usług tych firm, w tym , , 165 166 Twierdzenie Poissona. Centralne twierdzenie graniczne 30% wybiera firme, A, 20% – firme, B, 15% – firme, C i 35% – firme, D. Ile przejazdów powinna zorganizować firma A, (która dysponuje autokarem z 40 miejscami) aby prawdopodobieństwo odesłania klienta do konkurentów było mniejsze od 1% ? Zad. 13.15. Na campusie uniwersyteckim sa, dwie restauracje. Wiadomo, że codziennie 200 osób bedzie chciało zjeść obiad, a wyboru , restauracji dokonuja, losowo. Ile miejsc należy przygotować w każdej restauracji, aby prawdopodobieństwo, że w którejś restauracji zabraknie miejsc było mniejsze od 0, 001? Zad. 13.16. Miasto K liczy sobie 160 000 obywateli. Kasa chorych działajaca na jego terenie podpisała kontrakty z 50 lekarzami rodzin, nymi, z których każdy może obsługiwać co najwyżej 3300 pacjentów. Czy ta liczba lekarzy bedzie wystarczajaca, jeżeli chcemy, by praw, , dopodobieństwo, że mieszkaniec K nie zostanie zarejestrowany u wybranego przez siebie lekarza było mniejsze od 0, 05, zakładajac, że , obywatele miasta K dokonuja, wyboru lekarza w sposób całkowicie losowy i niezależny? Zad. 13.17. Wykonano 10 000 dodawań, każde z dokładnościa, 10−8 . Znaleźć przedział, w którym z prawdopodobieństwem 0,99 lub wiekszym zawiera sie, bład , sumy. , Zad. 13.18. W Polsce jest 24,6 mln podatników i każdy z nich myli sie, przy wypełnianiu zeznania podatkowego. Wartość błedu dla i-tego , 2 podatnika jest zmienna, losowa, Xi , gdzie EXi = 0 i D Xi = 10 000 (złotych). Ponadto zakładamy, niezależność zmiennych Xi . Jaka jest szansa, że straty państwa w wyniku tych błedów przekrocza, 1 grosz , na podatnika? Zad. 13.19. 60% ludzi woli gorzką czekolade, od mlecznej. Osoba organizujaca przyjecie dla 100 osób, z których każda ma otrzymać jako , , prezent pudełeczko czekoladek, przygotowuje 70 pudełeczek z czekoladkami gorzkimi i 45 z mlecznymi. Jakie jest prawdopodobieństwo, że każdy z gości bedzie mógł sobie wybrać taki rodzaj czekoladek, jaki , mu odpowiada? 13.2. Wskazówki 13.2. Wskazówki 13.1. Zauważyć, że mamy do czynienia ze schematem Bernoullego, w którym pojedynczą próbę powtarzamy n = 500 razy. W celu obliczenia prawdopodobieństwa skorzystać z twierdzenia Poissona. 13.2. Porównać zad. 13.1. 13.3. Pojedyncza próba Bernoullego określa czy po dwóch korektach i-ty znak jest błędny. Jeśli wystąpienie błędu przyjąć jako sukces w pojedynczej próbie, to prawdopodobieństwo sukcesu p obliczyć jako prawdopodobieństwo iloczynu zdarzeń, że błąd popełni autor, nie znajdzie recenzent ani autor przy ponownym czytaniu. Ze względu na dużą liczbę prób i małe prawdopodobieństwo p, szukane prawdopodobieństwo obliczyć z twierdzenia Poissona. 13.4. Jako pojedynczą próbę Bernoullego rozważyć doświadczenie, w którym i-ty błąd znajdzie się na wylosowanej stronie lub nie. Szukane prawdopodobieństwo przybliżyć korzystając z twierdzenia Poissona. 13.5. Porównać zad. 13.4. Tym razem rozważyć zdarzenie kiedy i-ty rodzynek znajdzie się w wylosowanej bułeczce. 13.6. Skorzystać z twierdzenia Moivre’a - Laplace’a oraz z faktu, że dla dowolnej zmiennej losowej η oraz liczb a, b ∈ R, a < b, zachodzi P (a < η ≤ b) = F (b) − F (a), gdzie F oznacza dystrybuantę η. 13.7. Porownać zad. 13.6. Tym razem prawdopodobieństwo jest zadane, należy natomiast wyznaczyć liczbę prób n. 13.8. Prawdopodobieństwo P (Sn ≥ 0, 15n) obliczyć przez prawdopodobieństwo zdarzenia przeciwnego. Ale w tablicach dystrybuanty rozkładu N (0, 1) na ogół nie znajdziemy wartości x, dla której Φ(x) = 0, 01. Wynika to z faktu, że takie x < 0. Wobec tego, należy odczytać y = −x takie, że 1 − Φ(x) = Φ(y) = 0, 99. 167 168 Twierdzenie Poissona. Centralne twierdzenie graniczne 13.9. Nierówność Czebyszewa – patrz wzór (30). Korzystając z twierdzenia Moivre’a - Laplace’a rozważyć zdarzenie przeciwne. 13.10. Porównać zad. 13.9. 13.11. Porównać zad. 13.7. Jeśli p oznacza nieznane, faktyczne poparcie dla partii ABC, to otrzymane wyrażenie zawierające p można oszacować z nierówności (2p − 1)2 ≥ 0. 13.12. Porównać zad. 13.11. 13.13. Liczba odzyskanych samochodów jest zmienną losową. Jaki ma rozkład? 13.14. Liczba pasażerów, którzy wybiorą firmę A jest zmienną losową. Firma A będzie odysłać do konkurencji, jeśli liczba ta przewyższy liczbę przygotowanych miejsc. 13.15. Porównać zad. 13.14. 13.16. Porównać zad. 13.14. 13.17. Błąd w i-tym dodawaniu opisać zmienną losową ξi , przyjmując, że ξi ma rozkład jednostajny na odcinku [− 21 ·10−8 ; 21 ·10−8 ]. Prawdopodobieństwo przybliżyć z twierdzenia Lindeberga Lévy’ego. 13.18. Porównać zad. 13.17. 13.19. Zauważmy, że liczba gości na przyjęciu, którzy wolą czekoladę gorzką jest zmienną losową, oznaczmy ją chwilowo X. Jaki X ma rozkład? Każdy gość będzie mógł wybrać taki rodzaj czekoladek, jaki mu odpowiada, jeśli X ≤ 70 i jednocześnie 100 − X ≤ 45. 13.3. Odpowiedzi i rozwiazania , 169 13.3. Odpowiedzi i rozwiazania , 13.1. Rozważmy ciąg niezależnych zmiennych losowych 1, gdy i-ty element został uszkodzony, ξi = 0, gdy i-ty element nie jest uszkodzony dla i = 1, . . . , n, n = 500, przyPczym p = P (ξi = 1) = 0, 002. Wówczas zmienna losowa Sn = ni=1 ξi oznacza liczbę uszkodzonych elementów. Interesujące nas prawdopodobieństwo uszkodzenia dokładnie jednego elementu, możemy wyrazić za pomocą schematu Bernoullego n P (Sn = 1) = p(1 − p)n−1 . 1 Prawdopodobieństwo to, przybliżamy korzystając z twierdzenia Poissona, przyjmując λ = np = 1, mianowicie P (Sn = 1) = λ −λ e = e−1 ≈ 0, 37. 1! Obliczając wprost P (Sn = 1) = (0, 998)499 zauważmy, że błąd powyższego przybliżenia jest mniejszy niż 3, 69 · 10−4 . 13.2. 2 ≈ 0, 27. e2 13.3. Ustalmy i-ty znak w arytkule, i = 1, . . . , 100 000. Niech zdarzenie A oznacza, że i-ty znak został zmieniony podczas przepisywania artykułu, B, że recenzent nie znajdzie błędu, zaś C zdarzenie, że autor nie znajdzie błędu przy powtórnym czytaniu. Przy tych oznaczeniach P (A) = 0, 001, P (B|A) = 0, 1, P (C|A ∩ B) = 0, 5, zatem p = P (A ∩ B ∩ C) = P (C|A ∩ B) · P (B|A) · P (A) = 5 · 10−5 170 Twierdzenie Poissona. Centralne twierdzenie graniczne jest prawdopodobieństwem, że i-ty znak po dwóch korektach jest błędny. Mamy więc schemat Bernoullego, w którym pojedynczą próbę opisuje zmienna losowa 1, gdy i-ty znak po dwóch korektach jest błędny, ξi = 0, gdy i-ty znak po dwóch korektach jest poprawny, Pn P (ξi = 1) = p, natomiast Sn = i=1 ξi , n = 100 000, oznacza liczbę błędów w artykule po dwóch korektach. Korzystając z twierdzenia Poissona, λ=n·p=5 i ostatecznie P (Sn ≤ 3) ≈ e−5 3 X 5k k=0 k! ≈ 0, 265. 13.4. Rozważmy ciąg zmiennych losowych 1, gdy i-ty błąd znajduje się na wylosowanej stronie, ξi = 0, gdy i-tego błędu nie ma na tej stronie 1 dla i = 1, . . . , n, n = 50. Oczywiście p = P (ξi = 1) = 500 , zaś Sn oznacza liczbę błędów na wylosowanej stronie. Niech λ = np = 0, 1. Wtedy P (Sn ≥ 3) = 1 − P (Sn < 3) (0, 1)2 −0,1 ≈ 1− e (1 + 0, 1 + ) = 0, 0002. 2 13.5. Co najmniej 3 rodzynki na bułeczkę. 13.6. Rozważmy ciąg zmiennych losowych o rozkładzie dwupunktowym z parametrem p = 43 , 1, gdy w i-tym rzucie wypadnie orzeł, ξi = 0, gdy w i-tym rzucie wypadnie reszka. Oczywiście zmienne losowe ξi są niezależne. Zmienna losowa P Sn = ni=1 ξi oznacza w takim razie liczbę orłów w n rzutach. 13.3. Odpowiedzi i rozwiazania , 171 Rozważamy n = 2000. Szukamy P (1465 < Sn ≤ 1535). W tym celu skorzystamy z twierdzenia Moivre’a - Laplace’a. P (1465 < Sn ≤ 1535) = P (Sn ≤ 1535) − P (Sn ≤ 1465). W obydwu powyższych składnikach standaryzujemy zmienną losową Sn . = P ( √Sn −np np(1−p) ≤ 1535−1500 √ ) 375 P (1465 < Sn ≤ 1535) √ − P ( √Sn −np ≤ 1465−1500 ) 375 np(1−p) = P (Tn ≤ 1, 8) − P (Tn ≤ −1, 8). Dla n = 2000 stosujemy przybliżenie (49), P (1465 < Sn ≤ 1535) ≈ Φ(1, 8) − Φ(−1, 8), następnie z własności dystrybuanty standardowego rozkładu normalnego, P (1465 < Sn ≤ 1535) ≈ 2Φ(1, 8) − 1. Wartość dystrybuanty Φ(1, 8) odczytujemy z tablic. Ostatecznie P (1465 < Sn ≤ 1535) ≈ 0, 928. 13.7. Rozważamy ciąg niezależnych zmiennych losowych o rozkładzie dwupunktowym, jak w zad. 13.6, przy czym p = P (ξi = 1) = 0, 5. Zmienna losowa Snn oznacza stosunek liczby otrzymanych orłów do wszystkich rzutów. Wyznaczymy n tak, aby P (0, 45 < Sn ≤ 0, 55) ≥ 0, 95. n Standaryzując zmienną losową Sn , otrzymujemy P (0, 45 < Sn n = P ( √Sn −np ≤ 0, 55) np(1−p) czyli ≤ 0,55n−0,5n √ ) 0,5 n − P ( √Sn −np np(1−p) ≤ 0,45n−0,5n √ ), 0,5 n √ √ P (Tn ≤ 0, 1 n) − P (Tn ≤ −0, 1 n) ≥ 0, 95. 172 Twierdzenie Poissona. Centralne twierdzenie graniczne Przy założeniu, że n jest duże prawdopodobieństwa po lewej stronie ostatniej nierówności przybliżamy z twierdzenia Moivre’a - Laplace’a. √ √ Φ(0, 1 n) − Φ(−0, 1 n) ≥ 0, 95, stąd √ 2Φ(0, 1 n) − 1 ≥ 0, 95. Z tablic dystrybuanty standardowego rozkładu normalnego, korzystając z faktu, że dystrybuanta jest funkcją niemalejącą, odczytujemy najmniejszy argument, dla którego √ Φ(0, 1 n) ≥ 0, 975, to jest √ 0, 1 n ≥ 1, 96. Zatem, najmniejsze n ∈ N wynosi 385. 13.8. n ≥ (23, 3)2 · 5 i n ∈ N, stąd n = 2715. 13.9. Niech ξi = 1, 0, gdy w i-tym rzucie wypadnie orzeł, gdy w i-tym rzucie wypadnie reszka. 1 Oczywiście zmienne losowe Pn ξi są niezależne, P (ξi = 1) = 2 , zmienna losowa Sn = i=1 ξi oznacza liczbę orłów, zaś n − Sn liczbę reszek w n rzutach, przy czym n = 1000. Będziemy szacować prawdopodobieństwo zdarzenia przeciwnego do tego, o którym mowa w zadaniu, {|Sn − (n − Sn )| ≥ 100}0 = {|Sn − n | < 50}. 2 Korzystając z twierdzenia Moivre’a - Laplace’a n | < 50) = P (450 ≤ Sn < 550) 2 √ √ √ ≈ Φ( 10) − Φ(− 10) = 2Φ( 10) − 1 = 0, 9984, P (|Sn − zatem P (|Sn − (n − Sn )| ≥ 100) ≈ 0, 0016. 13.3. Odpowiedzi i rozwiazania , 173 Korzytając natomiast z nierówności Czebyszewa (30), otrzymujemy D2 Sn P (|Sn − (n − Sn )| ≥ 100) ≤ = 0, 1. 502 Zauważmy, że twierdzenie Moivre’a - Laplace’a umożliwia lepsze oszacowanie. 13.10. Jeśli Sn oznacza liczbę chłopców wśród n noworodków, p = 0, 512, to P (n − Sn ≥ Sn ) ≈ Φ(−2, 4) = 0, 0082. P (Sn ≥ 200 + n − Sn ) ≈ Φ(0, 4) = 0, 655. 13.11. Niech p ∈ (0, 1) oznacza faktyczne, nieznane poparcie dla partii ABC, zaś n szukaną liczność próby. Zakładamy, że zmienne losowe 1, gdy i-ta osoba w sodażu popiera partię ABC, ξi = 0, gdy i-ta osoba nie popiera ABC są niezależne i P (ξi = 1) = p. Wtedy zmienna losowa Snn oznacza poparcie dla partii ABC wyznaczone w oparciu o sondaż. Szukamy n takiego, że P (| Sn − p| ≤ 0, 03) ≥ 0, 95. n Przybliżając prawdopodobieństwo po lewej stronie, z twierdzenia Moivre’a - Laplace’a, mamy √ 0, 03 n 2Φ( p ) − 1 ≥ 0, 95. p(1 − p) Zatem z tablic dystrybuanty rozkładu normalnego standardowego, odczytujemy n≥ 1, 96 0, 03 2 · p(1 − p). 174 Twierdzenie Poissona. Centralne twierdzenie graniczne W nierówności tej występuje ciągle nieznane p, ale ponieważ p(1 − p) ≤ 14 dla każdego p ∈ R, wystarczy wziąć n ∈ N takie, że 1, 96 2 1 n≥ · , czyli n ≥ 1067. 0, 03 4 Warto zauważyć, że jeśli dysponujemy dodatkowymi informacjami dotyczącymi faktycznego poparcia p, np. jeśli w oparciu o wcześniejsze badania wiemy, że p ≤ 0, 2, to p(1 − p) ≤ 0, 16, i konsekwentnie w sondażu wystarczy przebadać 683 wyborców. 13.12. Wystarczy przebadać 475 głosujących. 13.13. Niech Sn oznacza liczbę odzyskanych samochodów, p = 0, 4, n = 216. P (Sn ≥ 108) = 1 − P (Sn < 107) ≈ 0, 0033. 13.14. Niech ξi = 1, 0, gdy i-ta osoba wybiera firmę A, gdy i-ta osoba wybiera firmę B, C lub D, p = 0, 3, n = 2000. Zakładamy, że zmienne losowe są niezależne. Jeśli k oznacza liczbę zorganizowanych przejazdów, to firma A będzie musiała odesyłać klientów do konkurencji, jeśli Sn > 40k. Szukamy takiego k, że P (Sn > 40k) < 0, 01, czyli P (Sn ≤ 40k) ≥ 0, 99. Przybliżając powyższe prawdopodobieństwo z twierdzenia Moivre’a - Laplace’a, otrzymujemy n ≥ 16, 19. Firma A powinna więc zorganizować 17 przejazdów. 13.15. 122 miejsca. 13.16. Tak. 13.17. Jeśli ξi oznacza błąd w i-tym dodawaniu, i = 1, . . . , 10 000, to przyjmujemy, że ξi ma rozkład jednostajny na odcinku 1 [− 21 · 10−8 ; 12 · 10−8 ]. Wtedy Eξi = 0, D2 ξi = 12 10−8 . Zmienna 13.3. Odpowiedzi i rozwiazania , P losowa Sn = ni=1 ξi , n = 104 , oznacza łączny błąd sumy. Zadanie polega na wyznaczeniu przedziału [−α, α], czyli takiej liczby α, że P (|Sn | ≤ α) ≥ 0, 99. Prawdopodobieństwo po lewej stronie przybliżamy stosując twierdzenie Lindeberga - Lévy’ego. P (|Sn | ≤ α) = P (Sn ≤ α) − P (Sn < −α) √ √ Sn − nm Sn − nm = P( √ ≤ 2 3 · 106 · α) − P ( √ ≤ −2 3 · 106 · α) nσ nσ ≈ Φ(β) − Φ(−β) = 2Φ(β) − 1, √ gdzie β = 2 3 · 106 · α. Zatem 2Φ(β) − 1 ≥ 0, 99 i z tablic dystrybuanty standardowego rozkładu normalnego, odczytujemy β ≥ 2, 58, czyli α ≥ 0, 745 · 10−6 . 13.18. 1 − Φ(0, 49) = 0, 312. 13.19. Niech ξi = 1, 0, gdy i-ty gość woli czekoladę gorzką, gdy i-ty gość woli czekoladę mleczną. Wtedy p = P (ξi = 1) = 0, 6, a zmienna losowa Sn oznacza liczbę gości na przyjęciu, którzy wolą czekoladę gorzką, n = 100. Każdy gość będzie mógł wybrać taki rodzaj czekoladek, jaki mu odpowiada, jeśli Sn ≤ 70 i jednocześnie n − Sn ≤ 45, czyli Sn ≥ 55. Zatem P (55 ≤ Sn ≤ 70) = P (54 < Sn ≤ 70) √ √ 3 5 5 6 6 = P (− √ < Tn ≤ √ ) ≈ Φ( ) − Φ(− ) 6 2 6 6 = Φ(2, 04) + Φ(1, 22) − 1 = 0, 979 + 0, 889 − 1 = 0, 868. 175 14. Przykładowe zestawy sprawdzające Sprawdzian I (rozdział 1 i 2) Zad.1. Dane sa, P (A ∪ B) = 12 i P (A ∩ B) = 14 . Ponadto spełniony jest warunek P (A \ B) = P (B \ A). Obliczyć P (A), P (B \ A). k X m n m+n Zad.2. Wykazać, że = . i k−i k i=0 Zad.3. Obliczyć prawdopodobieństwo, że gdy rozdamy 12 paczków 4 , osobom, każda osoba dostanie przynajmniej jednego paczka. , Zad.4. Z talii 52 kart wylosowano 13. Jaka jest szansa otrzymania dokładnie jednego układu złożonego z sześciu kart tego samego koloru? Zad.5. Dwanaście osób, w tym Jan, Łukasz i Mateusz, siada losowo przy okrągłym stole. Obliczyć prawdopodobieństwo, że Jan, Łukasz i Mateusz usiądą jeden obok drugiego, w dowolnym porządku. Sprawdzian II (rozdział 3 i 4) Zad.1. Niech x oznacza liczbe, rzeczywista, losowo wybrana, z przedziału [0, 1]. Obliczyć P (max{x, 14 } < 12 ). Zad.2. Na płaszczyźnie poprowadzono nieskończona, liczbe, prostych równoległych, odległych od siebie na przemian o 3 i 16 cm. Jakie jest prawdopodobieństwo, że rzucone w sposób losowy na płaszczyzne, koło o promieniu 5 cm nie przetnie ani jednej prostej? Zad.3. Zdarzenia A, B sa, niezależne. Wykazać, że A, B 0 też sa, niezależne. Zad.4. Co jest bardziej prawdopodobne przy grze z przeciwnikiem równej klasy z wykluczeniem remisów: wygranie trzech z czterech partii, czy wygranie pieciu z ośmiu partii? , 178 Przykładowe zestawy sprawdzające Zad.5. Podczas gry w brydża jeden z graczy nie dostał ani jednego asa w trzech kolejnych rozdaniach. Czy ma on podstawe, do uskarżania sie, , że nie idzie mu karta? Sprawdzian III (rozdział 5, 6 i 8) Zad.1. Niech zmienna losowa ξ oznacza liczbe, jedynek uzyskanych w trzykrotnym rzucie kostka, do gry. Wyznaczyć rozkład ξ. Obliczyć wartość oczekiwana, i odchylenie standardowe. Zad.2. Rozpatrujemy rodziny mające po dwoje dzieci. Obliczyć prawdopodobieństwo, że rodzina ma dwóch synów, jeżeli wiadomo, że co najmniej jedno dziecko jest chłopcem. Zad.3. Gracz dostał 13 kart z 52, obejrzał 8 z nich i stwierdził, że nie ma asa. Jaka jest szansa, że w ogóle nie ma asa? Zad.4. Mam trzy karty: czerwona, z obu stron, biała, z obu stron i biało-czerwona. , Losuje, jedna, z nich i kłade, na stole. Na wierzchu karty jest kolor czerwony. Jakie jest prawdopodobieństwo, że tak samo jest i pod spodem? Zad.5. Wyznaczyć najmniejsza, σ-algebre, , przy której funkcja X : R → R dana wzorem X = 1[0,1] jest zmienna, losowa. , Sprawdzian IV (rozdział 7, 8 i 9) Zad.1. Dobrać stałe A, B ∈ R i rozszerzyć funkcję F (x) = A cos x+B, x ∈ [0, π2 ], tak, aby była dystrybuantą rozkładu prawdopodobieństwa, który nie jest absolutnie ciągły. Ewentualnie uzasadnić, że taki wybór jest niemożliwy. Zad.2. Niech ξ ma standardowy rozkład normalny. Wyznaczyć rozkład zmiennej losowej ξ 2 . Zad.3. Wykazać, że jeśli X ∈ N (m, σ), to E(X − EX)4 = 3σ 4 . 179 Zad.4. Obliczyć EX, D2 X, jeśli X ma rozkład Poissona z parametrem λ > 0. Zad.5. Wykazać, że funkcja 1 x 4e 1 F (x) = 2 1 − 14 e−x dla x < 0, dla 0 ≤ x < 1, dla x ≥ 1 jest dystrybuantą pewnego rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład, jego część dyskretną i absolutnie ciągłą. Sprawdzian V (rozdział 10 i 11) Zad.1. Niech ξ i η bed , a, niezależnymi zmiennymi losowymi o rozkładzie Bernoullego o parametrach n, p. Wyznaczyć rozkład zmiennej losowej ξ + η. Zad.2. Wykazać, że jeśli zmienne losowe X, Y sa, niezależne, to etX i etY też sa, niezależne, t ∈ R. Zad.3. Zmienne losowe X i Y sa, niezależne i maja, rozkład jednostajny na odcinku (− 23 , 23 ). Wyznaczyć gestość zmiennej losowej X − Y . , Zad.4. Dany jest wektor losowy (X, Y ). Niech ξ = aX +b, η = cY +d, gdzie a, b, c, d ∈ R, ac 6= 0. Wykazać, że ρ(ξ, η) = sgn (ac)ρ(X, Y ). Zad.5. Gestość wektora losowego (ξ, η) dana jest wzorem , ( 1 dla 0 ≤ x ≤ 1, x ≤ y ≤ 2 − x; f (x, y) = 0 dla pozostałych (x, y) ∈ R2 . Wyznaczyć gestości brzegowe. Zbadać niezależność zmiennych loso, wych ξ oraz η. 180 Przykładowe zestawy sprawdzające Sprawdzian VI (rozdział 8, 12 i 13) Zad.1. Wyznaczyć funkcje, charakterystyczna, zmiennej losowej o rozkładzie: a) Bernoullego o parametrach n, p; b) jednostajnym na odcinku [0, 1]. Zad.2. Znaleźć rozkład prawdopodobieństwa, którego funkcja charakterystyczna wyraża sie, wzorem ϕ(t) = cos2 t dla t ∈ R. Zad.3. Posługujac , sie, funkcja, charakterystyczna, , wykazać, że jeśli zmienne losowe ξ, η o rozkładzie N (m, σ) sa, niezależne, to zmienne losowe ξ + η, ξ − η sa, niezależne. (EX)2 Zad.4. Wykazać, że jeśli EX ≥ 0, EX 2 > 0, to P (X > 0) ≥ . EX 2 Zad.5. Pewne tanie linie lotnicze gubią 1% przewożonych bagaży. Samolotem Boeing 737, należącym do tych linii, podróżuje 180 pasażerów. Jaka jest szansa, że co najmniej 4 z nich nie znajdzie swojego bagażu po przylocie, jeśli każdy pasażer podróżuje z jedną sztuką bagażu? Zaliczenie - semestr I Zad.1. Rzucamy moneta, n-krotnie. Prawdopodobieństwo wypadniecia orła wynosi p. Niech A oznacza zdarzenie „w pierwszym , rzucie wypadł orzeł”, zaś Ak - „w n rzutach wypadło dokładnie k orłów”. Dla jakich k, n, p zdarzenia A i Ak sa, niezależne? (0 ≤ p ≤ 1; 0 ≤ k ≤ n; k, n ∈ N) Zad.2. Znaleźć prawdopodobieństwo, że pierwiastki równania kwadratowego x2 + 2bx + a = 0 sa, rzeczywiste, jeżeli wartości współczynników moga, przyjmować z jednakowym prawdopodobieństwem każda, z wartości w prostokacie |a| ≤ 2, |b| ≤ 1. , Zad.3. W dziewieciu z dziesieciu jednakowych urn znajduja, sie, po 2 , , czarne i 2 białe kule, a w dziesiatej 5 białych i 1 czarna kula. Z losowo , 181 wybranej urny wylosowano biała, kule. Jakie jest prawdopodobień, stwo, że kula ta została wylosowana z dziesiatej urny? , Zad.4. Urna zawiera 2 czarne i 3 białe kule. Wyjmujemy losowo z urny po jednej kuli tak długo, dopóki nie wyjmiemy kuli czarnej. Niech ξ oznacza liczbe, kul wyjetych z urny. Wyznaczyć rozkład praw, dopodobieństwa zmiennej losowej ξ. Obliczyć Eξ, D2 ξ. Wyznaczyć i naszkicować dystrybuante. , Zad.5. Wyznaczyć wszystkie zmienne losowe na przestrzeni probabilistycznej (Ω, Σ, P ), jeśli Ω jest dowolnym zbiorem niepustym, Σ = σ(A), gdzie A jest właściwym podzbiorem Ω, zaś P (A) = p ∈ (0, 1). Zaliczenie - semestr II Zad.1. Wykazać, że jeśli X ma rozkład N (m, σ), to m + σ2 ), σ gdzie Φ jest dystrybuantą standardowego rozkładu normalnego. 1 2 E(eX 1{X≥0} ) = em+ 2 σ Φ( Zad.2. Znaleźć rozkład prawdopodobieństwa, którego funkcja charak2 terystyczna wyraża sie, wzorem ϕ(t) = it dla t ∈ R. 3e − 1 Zad.3. Wektor losowy (ξ, η) ma rozkład jednostajny w trójkącie o wierzchołkach (−1, 0), (1, 0), (0, 1). Napisać wzór na gestość tego , wektora. Wyznaczyć gestości brzegowe. , Zad.4. Zmienne losowe X, Y są niezależne i mają rozkład wykładniczy z parametrami odpowiednio λ, µ. Wyznaczyć rozkład zmiennej losowej X + Y . Zad.5. Wykazać, że funkcja 1 x 4e 1 1 F (x) = 2 + 4x 1 dla x ≤ 0, dla 0 < x ≤ 1, dla x > 1. jest dystrybuantą pewnego rozkładu prawdopodobieństwa. Wyznaczyć ten rozkład, jego część absolutnie ciągłą i dyskretną. 182 Przykładowe zestawy sprawdzające Egzamin Zad.1. Statystyki podają, że 30% dorosłych Polaków pali papierosy. Obliczyć prawdopodobieństwo, że w firmie, która zatrudnia 100 osób, pracuje co najmniej 30 palaczy. Zad.2. Wyznaczyć rozkład prawdopodobieństwa zmiennej losowej X 2 + 1, jeśli X ma rozkład jednostajny na odcinku [−1, 1]. Zad.3. X, Y sa, niezależne i mają rozkład Bernoullego o parametrach, odpowiednio n, p oraz m, p. Wyznaczyć rozkład zmiennej losowej X + Y . 1 2 Zad.4. Wykazać, że jeśli X ma rozkład N (m, σ), to E(eX ) = em+ 2 σ . Zad.5. Lotnisko w K, które obsługuje tanie linie lotnicze dysponuje jednym pasem startowym. Manewr lądowania zajmuje pilotowi Linii Lotniczych Easy 15 minut, a pilotowi LL Cool 20 minut. Z powodu strajków na lotniskach w L, dwa samoloty lecące z L do K, jeden LL Easy i drugi LL Cool, są spóźnione i przylecą do K w losowej chwili miedzy godz. 10 a 12. Jaka jest szansa, że jeden z samolotów będzie musiał czekać w powietrzu aż wyląduje drugi? Zad.6. Aby zdobyć licencję pilota pan Smith zdaje egzamin złożony z czterech kolejnych testów. Prawdopodobieństwo, że pan Smith zda pierwszy test wynosi p (0 < p < 1), zaś że zda kolejny p lub p2 , w zależności od tego czy zdał poprzedni, czy też nie. Pan Smith zdobędzie licencję pilota, jeżeli zda co najmniej trzy testy pod rzad. , Wiemy, że pan Smith zdał co najmniej trzy testy. Jakie jest prawdopodobieństwo, że otrzymał licencję pilota? 15. Tablica dystrybuanty standardowego rozkładu normalnego N (0, 1) 1 Φ(x) = √ 2π Z x −∞ t2 e− 2 dt. Literatura [1] M. Capiński, T. Zastawniak, Probability Through Problems, Springer-Verlag, New York 2001. [2] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa, Wydanie II, Script, Warszawa 2001. [3] F. Mosteller, Fifty Challenging Problems in Probability with Solutions, Addison-Wesley, Massachusets 1965. [4] J. Ombach, Rachunek prawdopodobieństwa wspomagany komputerowo – MAPLE, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2000. [5] K. A. Rybnikow, Analiza kombinatoryczna w zadaniach, PWN, Warszawa 1988. [6] J. Stojanow, I. Mirazczijski, C. Ignatow, M. Tanuszew, Zbiór zadań z rachunku prawdopodobieństwa, PWN, Warszawa 1982. [7] E. Stachowski, Wybrane zagadnienia z kombinatoryki i elementarnej teorii prawdopodobieństwa, WSiP, Biblioteczka Delty, Warszawa 1984. [8] N. J. Wilenkin, Kombinatoryka, PWN, Warszawa 1972.