Uploaded by drifttd

Кулешов теория вероятности

advertisement
Е.Л. Кулешов
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Лекции для физиков
Владивосток
2021
Е.Л. Кулешов
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Лекции для физиков
Учебное пособие
Владивосток
Издательский дом Дальневосточного федерального университета
2021
1
УДК 519.21
ББК 22.3
К90
Рецензенты:
д.ф.-м.н., профессор К.В. Нефедев
к.ф.-м.н., доцент А.В. Мишаков
К90
Кулешов, Е.Л.
Теория вероятностей.Лекции для физиков. – Владивосток : Издательский дом Дальневост. федерал. ун-та, 2021. – 120с.
В основу учебного пособия положен семестровый курс лекций, читаемый
автором студентам Школы естественных наук ДВФУ. Излагаются разделы:
«Случайные события», «Случайные величины» и «Случайные векторы».
Для студентов старших курсов, инженеров и научных работников.
© Издательский дом Дальневосточного
федерального университета,
оформление, 2021
2
Оглавление
Глава 1. Случайные события
1. Опыт со случайным исходом
2. Статистическая устойчивость
3. Понятие вероятности
4. Алгебра событий
5. Основная терминология в алгебре событий
6. Принцип двойственности для событий
7. Условные вероятности
8. Формула сложения вероятностей
9. Формула умножения вероятностей
10. Обобщение формулы сложения вероятностей
11. Обобщение формулы умножения вероятностей
12. Формула полной вероятности
13. Формула Байеса
14. Пространство элементарных событий
15. Аксиомы теории вероятностей
16. Дискретное вероятностное пространство
17. Примеры  - алгебры
18. Условная вероятность и вероятностное пространство
19. Основные формулы комбинаторики
20. Системы частиц в статистической физике
21. Последовательность независимых испытаний
22. Наивероятнейшее число в распределении Бернулли
23. Полиномиальное распределение
24. Гипергеометрическое распределение
25. Асимптотика Пуассона
26. Поток случайных событий на оси времени
27. Локальная теорема Муавра-Лапласа
28. Интегральная теорема Муавра-Лапласа
Глава 2. Случайные величины
29. Случайные величины
30. Функция распределения вероятностей
31. Основные свойства функции распределения вероятностей
32. Функция распределения вероятностей дискретной
случайной величины
33. Плотность распределения вероятностей
34. Плотность распределения вероятностей дискретной
случайной величины
35. Примеры плотностей и функций распределения вероятностей
36. Сингулярные случайные величины
5
6
7
8
13
15
16
17
18
19
19
21
22
23
24
26
26
29
31
34
36
39
40
41
43
44
46
48
55
53
54
56
57
59
60
63
3
37. Математическое ожидание случайной величины
38. Примеры вычисления математического ожидания
случайной величины
39. Свойства математического ожидания
40. Дисперсия случайной величины
41. Моменты случайной величины
42. Неравенство Чебышева
43. Коэффициент асимметрии
44. Коэффициент эксцесса
45. Среднеквадратическая ошибка
46. Характеристическая функция
47. Основные свойства характеристической функции
48. Примеры вычисления характеристической функции
49. Моменты, кумулянты и характеристическая функция
Глава 3. Случайные векторы
50. Функция распределения вероятностей двух случайных
величин
51. Совместная плотность распределения вероятности двух
случайных величин
52. Условная функция распределения вероятностей
53. Условная плотность вероятности
54. Числовые характеристики двумерного случайного вектора
55. Верхняя и нижняя границы корреляции и ковариации
56. Ковариация и независимость двух случайных величин
57. Ковариация и геометрия линий равного уровня плотности
вероятности
58. Коэффициент корреляции
59. Коэффициент корреляции и расстояние
60. Функция распределения вероятностей случайного вектора
61. Плотность вероятности случайного вектора
62. Многомерное нормальное распределение
63. Характеристическая функция случайного вектора
64. Распределение вероятностей функций случайных величин
65. Распределение вероятностей функции одной
случайной величины
66. Преобразование нескольких случайных величин
67. Хи - квадрат распределение вероятностей
68. Хи - квадрат распределение и распределение
Максвелла по скоростям
Литература
65
68
70
71
73
75
77
78
79
80
81
83
83
86
88
90
91
92
94
95
97
98
100
101
102
104
106
107
108
112
114
117
119
4
Глава 1
СЛУЧАЙНЫЕ СОБЫТИЯ
1. Опыт со случайным исходом
Пусть U - множество условий, при которых выполняется эксперимент
(опыт) G . Будем предполагать, что при фиксированном U опыт G может
быть выполнен неограниченное число раз, причем при повторении опыта G
его результаты могут быть различными. Таким образом, речь идет об эксперименте со случайным исходом (или результатом). Основная особенность
такого эксперимента состоит в том, что его результат невозможно точно
предсказать, а также в том, что наблюдаются нерегулярные изменения результатов в последовательности опытов, хотя каждый из них выполняется
при одинаковом комплексе условий U .
Очевидно, что множество условий U не содержит все факторы,
влияющие на исход опыта G . Поскольку иначе при каждом повторении
опыта G (для фиксированного U ) был бы получен один и тот же результат.
Множество U - это комплекс контролируемых условий. Кроме них на исход
опыта влияет множество неконтролируемых факторов, учесть которые в
принципе невозможно.
Теория вероятностей изучает математические модели экспериментов
со случайным исходом. Рассмотрим примеры таких экспериментов.
1. Бросание монеты. Здесь результат каждого опыта - это выпадение
герба, или обратной стороны монеты - «решётки». Таким образом, всего
имеется два возможных исхода опыта.
Всякий результат эксперимента со случайным исходом в теории вероятностей принято называть событием (или случайным событием). Поэтому в
данном эксперименте результатами являются случайное событие A - выпадение герба при бросании монеты и событие B - выпадение «решетки».
2. Бросание игральной кости. Игральная кость - это кубик из однородного материала, шесть граней которого перенумерованы числами от 1 до 6.
Здесь в качестве результата эксперимента можно рассматривать шесть случайных событий: A1 - выпадение грани с номером 1, ... , A 6 - выпадение
грани с номером 6. Однако в данном случае не обязательно исходом эксперимента считать выпадение одной из шести граней. Можно, например, условиться, что эксперимент имеет не шесть, а лишь три исхода: событие A - это
выпадение любой грани с номером 1, 2 или 3, B - выпадение одной из граней с номером 4 или 5 и, наконец, C - выпадение грани с номером 6. Но и в
этом случае удобно выделить события A i - выпадение грани с номером i , а
все остальные события описывать через A i . Дело в том, что события A i в
данном опыте являются самыми простыми или, как говорят, элементарными.
Кроме того, ни один из элементарных исходов A i , i =1, ... , 6, нельзя считать
5
более предпочтительным или более вероятным, чем другой. Поэтому каждому элементарному исходу естественно приписать одинаковую вероятность
1/6.
3. Стрельба по мишени. Пусть мишень состоит из центрального круга и
9 концентрических колец. В данном случае результат опыта - это одно из событий: попадание в круг, попадание в любое из 9 колец или мимо мишени;
всего 11 случайных событий.
4. На отрезок [a, b] , длины b  a наугад случайным образом бросается
точка. В качестве исхода опыта можно взять событие A , состоящее в том,
что точка попадет на отрезок  ,   , содержащийся в [a, b] .
5. На отрезок [a, b] , длины b  a наугад случайным образом бросаются
2 точки. Такой опыт эквивалентен тому, что на квадрат [a, b]  [a, b] бросается наугад одна точка. В данном случае результат опыта - это попадание точки в заданную область S из квадрата [a, b]  [a, b] .
2. Статистическая устойчивость
В последовательности экспериментов со случайным исходом невозможно точно предсказать результаты отдельных опытов, так как в этих результатах обнаруживаются нерегулярные случайные колебания, не поддающиеся точному учету. Однако, если рассматривать последовательность в целом, а не отдельные результаты, то можно обнаружить чрезвычайно важное
явление: несмотря на нерегулярное изменение результатов в отдельных опытах, средние результаты в достаточно длинной последовательности экспериментов со случайным исходом обнаруживают устойчивость.
Пусть в результате эксперимента G событие A может произойти или
не произойти. Если выполнено N экспериментов G , в которых событие A
произошло n раз, то число
  A 
n
N
(2.1)
называется частотой появления события A .
Экспериментально установлено, что при увеличении N частота   A
имеет тенденцию сходиться к некоторому постоянному значению. Об этом
экспериментальном факте говорят как об устойчивости частоты, или о статистической устойчивости. Однако, не следует думать, что всякий эксперимент
со случайным исходом обладает свойством устойчивости частоты. В теории
вероятностей речь идет только об экспериментах, обладающих этим свойством. Отметим также свойство частоты, которое следует из её определения
(2.1) и согласуется со свойством статистической устойчивости. Пусть  N частота события A в последовательности из N опытов . Выполним ещё
один опыт и вычислим  N 1 - частоту события A в последовательности из
6
N  1 опытов. Несложно показать, что  N 1  N  N  1 . Таким образом,
1
при увеличении числа опытов на единицу частота изменяется на величину не
1
более, чем  N  1 . Поэтому с ростом N изменение частоты
 N 1   N  0 . В качестве иллюстрации свойства статистической устойчивости рассмотрим график зависимости частоты  появления герба при бросании монеты от числа N опытов, представленный на рис.2.1. Для построения этого графика выполнялось бросание монеты 30 раз, в каждом опыте
фиксировался исход и вычислялась частота  по формуле (2.1), где N - число опытов, из которых в n опытах появился герб.
Рис. 2.1. График частоты появления герба как функции числа
бросаний монеты
Естественно выдвинуть предположение о существовании предела
n
p
(2.2)
N  N
частоты с увеличением числа N опытов. Однако, это предположение не моlim
жет быть доказано или отвергнуто опытом. Но опыт подтверждает более
слабое утверждение об устойчивости частоты появления события. Факт статистической устойчивости и является эмпирической основой теории вероятностей и математической статистики.
3. Понятие вероятности
3.1. Теория вероятностей - это математическая теория, которая дает
описание опытов со случайными исходами, обладающих свойством статистической устойчивости. Теория вероятностей строится как аксиоматическая
теория, то есть в ее основу положена система аксиом. В свою очередь аксиомы сформулированы на основе опытных данных, а именно на свойствах частоты и, в частности, на факте статистической устойчивости, состоящем в
7
тенденции частоты   A появления события A стать постоянной и равной
некоторому числу P A при большом числе повторений N опыта G .
Таким образом, при построении теории необходимо ввести число
P A называемое вероятностью события A , что реализуется с помощью одной из аксиом, которая называется аксиомой существования вероятности.
Далее необходимо рассмотреть основные свойства частот и выразить эти
свойства как утверждения относительно свойств вероятностей. Эти утверждения вместе с постулатом существования вероятности образуют систему
аксиом теории вероятностей.
Частоту   A можно рассматривать как результат измерения (оценивания) вероятности P A по экспериментальным данным. Таким образом, равенство P A  p означает, что при большом числе N опытов   A  p , а
ошибка   A  p имеет тенденцию снижаться с увеличением N . Поскольку
0  n  N , то частота   A  n N появления события A в серии из N опытов удовлетворяет условию
0   ( A)  1.
(3.1)
Аналогичному условию должна удовлетворять и вероятность:
(3.2)
0  P( A)  1.
Рассмотрим значения вероятности на границах интервала 0,1 . Пусть
P A  0 , тогда событие A называется невозможным. Если P A  1, то событие A называется достоверным. Введём обозначения. Пусть  - невозможное событие и E - достоверное событие. Тогда P  0 и PE   1 .
3.2. Классическая вероятностная схема. Пусть N  - число шаров в
урне, каждый из которых имеет свой номер от 1 до N  . Пусть наудачу из
урны извлекается один шар. Исход этого опыта – одно из событий
A1 ,..., AN , где событие Ai - это извлечение шара с номером i . Вероятность
события Ai определяется соотношением:
P( Ai ) 
1
N
.
(3.3)
Таким образом, события Ai равновероятны - их вероятности P( Ai ) равны
для любого i . Всякий опыт, для которого множество всех исходов – это конечное множество равновероятных событий, называется классической вероятностной схемой или схемой урн.
Пусть из общего числа N  шаров в урне имеются N A белых шаров и
событие A - наудачу извлечь белый шар. Тогда вероятность P A вычисляется по формуле классической вероятности:
8
P( A) 
NA
.
N
(3.4)
3.3. Геометрические вероятности. Пусть опыт G состоит в том, что
точка случайным образом бросается в область  на плоскости. Здесь множество U контролируемых условий обеспечивает в каждом опыте G появление события: «точка попала в область  ». Это событие обозначим также
символом  . Очевидно,  - достоверное событие. Пусть событие A - попадание точки в подобласть A области  и вероятность события A пропорциональна площади этой подобласти и не зависит от её местоположения на
 . При этих условиях справедлива формула геометрической вероятности:
SA
,
(3.5)
S
где S A , S - площади областей A и  . Формулу (3.5) можно понимать в
обобщенном смысле, а именно, область  может быть не только двумерной,
P( A) 
как в данном примере, но и одномерной, трехмерной и т.д. Задачи на геометрические вероятности могут быть как относительно простыми, так и достаточно сложными, поскольку для высоких размерностей и непростых конфигураций областей A ,  вычисление величин S A , S становится весьма
сложной задачей.
4. Алгебра событий
Рассмотрим основные операции над событиями и понятие алгебры событий. Пусть A - некоторое событие.
4.1. Дополнением события A называется событие A , состоящее в том,
что событие A не произошло.
Операциям над событиями можно давать простую геометрическую интерпретацию. Рассмотрим такую интерпретацию операции дополнения.
Пусть эксперимент состоит в случайном бросании точки на плоскость, при
этом множество условий U таково, что исход каждого опыта – это попадание точки в область E плоскости, рис.4.1. Реализовать такой опыт можно,
бросая шарик радиуса r в сосуд с плоским дном. При этом область E – это
та часть дна сосуда, в которую может попасть центр шарика, то есть области
E не принадлежит только полоса шириной r около стенки сосуда. Пусть A
– подобласть области E . Множества E и A точек плоскости можно рассматривать как события: E – событие, состоящее в том, что случайно брошенная на плоскость точка попадет в область E , и событие A – это попадание точки в область A . По условию событие E появляется в каждом опыте,
его вероятность P( E )  1, следовательно, E – достоверное событие. По определению A – это событие, состоящее в том, что A не произошло. Поэтому
9
в данной интерпретации A – это непопадание точки в область A , то есть A
– попадание точки в заштрихованную область, рис. 4.1.
Рис. 4.1. Событие A и его дополнение A
4.2. Объединением (или суммой) двух событий A и B называется
третье событие C , состоящее в том, что произошло хотя бы одно из событий
A или B . Для объединения будем использовать обозначение
C  A  B или C  A  B .
(4.1)
Признаком операции объединения двух событий может служить союз "или"
между ними. Операции объединения, аналогично дополнению, можно дать
геометрическую интерпретацию. Пусть A – событие, состоящее в том, что
случайно брошенная на плоскость точка попала в область, обозначенную
также A , рис. 4.2. Аналогично событие B – это попадание точки в область
Рис. 4.2. События A , B и их объединение C
B . Тогда событие C – это попадание точки в заштрихованную область,
рис. 4.2.
Операция объединения определяется для произвольного числа событий. Например, событие
C  A  B 
(4.2)
состоит в том, что происходит хотя бы одно из событий A , B , … . Событие
10
n
D   Ai
i 1
(4.3)
состоит в том, что происходит хотя бы одно из событий A1 … An . Очевидно
операция объединения коммутативна по определению:
A B  B  A
(4.4)
и ассоциативна, что также следует из определения:
( A  B)  C  A  ( B  C ) .
(4.5)
4.3. Пересечением (или произведением) двух событий A и B называется третье событие C , состоящее в том, что произошли оба события A и B .
Для обозначения операции пересечения будем использовать обозначения
(4.6)
C  A  B или C  AB .
Геометрическая интерпретация операции пересечения представлена на рис.
4.3., где A и B – события и C – их пересечение – заштрихованная область.
Операция пересечения, также как и операция объединения, определяется для произвольного числа событий. Например, событие
C  A  B 
(4.7)
состоит в том, что происходят все события A, B,  . Событие
n
D   Ai
i 1
состоит в том, что происходят все события
A1 ,..., An .
(4.8)
(4.9)
По определению операция пересечения коммутативна, то есть выполняется условие:
A B  B  A,
(4.10)
а также ассоциативна:
( A  B)  C  A  ( B  C ) .
(4.11)
Рис. 4.3. События A , B и их пересечение C
Операции объединения  и пересечения  взаимно дистрибутивны. В
частности, операция объединения дистрибутивна относительно пересечения:
11
(4.12)
A  ( B  C )  ( A  B)  ( A  C ) .
На рис. 4.4,а представлены события: B  C - горизонтальной штриховкой и
вся левая часть (4.12) - вертикальной штриховкой. Аналогично на рис. 4.4,б
представлены: событие A  B – горизонтальной штриховкой, событие
A  C – вертикальной штриховкой, вся правая часть (4.12) – штриховкой "в
клеточку".
а
б
Рис. 4.4. Геометрическая иллюстрация дистрибутивности объединения
относительно пересечения
Аналогично (4.12) операция пересечения дистрибутивна относительно
объединения:
A  ( B  C )  ( A  B)  ( A  C ) .
(4.13)
На рис. 4.5, а представлены: событие B  C – горизонтальной штриховкой и
левая часть соотношения (4.13) – штриховкой "в клеточку". На рис. 4.5,б: событие A  B – горизонтальной штриховкой, событие A  C – вертикальной
штриховкой и вся правая часть (4.13) – это вся заштрихованная область.
а
б
Рис. 4.5. Геометрическая иллюстрация дистрибутивности пересечения
относительно объединения
12
Отметим, что если в (4.13) для операции объединения использовать
знак "+", а для пересечения – отсутствие знака, то (4.13) принимает хорошо
знакомый вид:
(4.14)
AB  C    AB    AC 
– закона дистрибутивности умножения относительно сложения в алгебре чисел. В отличие от этого закон дистрибутивности (4.12) сложения относительно умножения не имеет аналога в алгебре чисел.
4.4. Рассмотренные операции над событиями носят алгебраический характер. Поэтому в теории вероятностей важное значение имеет алгебра событий, которая определяется следующим образом.
Система событий F называется алгеброй событий, если для любой
пары событий A и B из условий
(4.15)
A F , B  F
следует, что события A , B , A  B , A  B содержатся в F .
Говорят, что алгебра событий – это система событий, замкнутая относительно операций дополнения, пересечения и объединения.
5. Основная терминология в алгебре событий
1. Событие A называется невозможным, если P( A)  0 . Для обозначения невозможного события будем использовать символ .
2. Событие A называется достоверным, если P( A)  1 . Обозначается
достоверное событие символом E . Очевидно   E =,   E = E .
3. События A и A называются противоположными. Имеют место равенства A  A , A  A   , A  A  E .
4. События A и B называются несовместными, если A  B   . Поскольку AA   , то события A и A – несовместные.
5. События A1 , ..., An образуют полную группу, если
n
 Ai  E .
i 1
(5.1)
Это означает, что в результате опыта появится хотя бы одно из событий, образующих полную группу.
6. События A и B называются независимыми, если P(A) не зависит
от того произошло событие B или нет, и наоборот, P(B) не зависит от того
произошло или нет событие A .
7. Если событие A происходит всякий раз, когда происходит событие
B , то A называется следствием события B , это записывается в виде соотношения
13
(5.2)
B  A или A  B ,
что читается как "из B следует A " и " A есть следствие B ". Отношению
следствия можно дать геометрическую интерпретацию, рис. 5.1.
Рис. 5.1. Событие B и его следствие A
8. Если A  B и B  A , то события A и B называются эквивалентными, это записывается в виде A  B .
9. Событие C , состоящее в том, что событие A произошло, а событие
B не произошло, называется разностью событий A и B и обозначается
(5.3)
C  A\ B.
Из определения следует A \ B  A  B  B  A  B  A  B \ A , таким образом,
(5.4)
A \ B  A B  B \ A .


Если в первом равенстве (5.4) положить A  E , то E \ B  E  B  B .
Геометрическая интерпретация разности двух событий A и B представлена на рис. 5.2.
Рис. 5.2. События A , B и их разность C
14
6. Принцип двойственности для событий
В теории вероятностей и ее приложениях важную роль играет так называемый принцип двойственности, который может быть выражен соотношениями:
_______
A B  A  B ,
(6.1)
_______
A B  A  B .
(6.2)
Из равенства (6.1) следует (6.2) и наоборот. Например, выполним за__
__
_______
__
__
мену в (6.1) A  C , B  D , тогда (6.1) С  D  C  D или C  D  C  D ,
что совпадает с (6.2).
Возьмем в (6.1) дополнение в обеих частях и поменяем местами правую и левую части, тогда
(6.3)
A  B  A B,
теперь из (6.1) можно получить (6.3), если события A и B заменить на противоположные A и B , объединение на пересечение и наоборот – пересечение на объединение. Таким образом, для всякого утверждения, относящегося
к некоторой системе событий, может быть сформулировано эквивалентное
ему двойственное утверждение путем указанной замены событий и операций
над событиями.
К принципу двойственности следует отнести еще одно соотношение:
(6.4)
A B  A  B,
геометрическая интерпретация которого очевидна и представлена на рис.
6.1, где A отмечено горизонтальной штриховкой и B – вертикальной штриховкой.
Рис. 6.1. События A , B и их дополнения
Рассмотрим геометрическое доказательство соотношения (6.1). Его левую часть можно представить областью с горизонтальной штриховкой,
рис.6.2. Аналогично на рис. 6.3 выделены события: A – горизонтальной
15
Рис. 6.2. Дополнение объединения двух событий A и B
штриховкой, B – вертикальной штриховкой и A  B – штриховкой "в клеточку". Таким образом, левая и правая части соотношения (6.1) совпадают.
Рис. 6.3. Пересечение дополнений двух событий A и B
6. Условные вероятности
Пусть события A и B имеют вероятности P(A) и P(B ) . Рассмотрим
вероятность события A , если известно, что произошло событие B . При этом
в общем случае вероятность события A изменяется и становится отличной
от P(A) . Эта вероятность обозначается P( A / B) и называется условной вероятностью события A при условии, что B произошло, или просто – вероятностью A при условии B .
Следует различать две ситуации. 1) Если P( A)  P( A / B) , то события
A и B зависимые. 2) Если P( A)  P( A / B) , то события A и B независимые. Рассмотрим пример: бросание игральной кости. Пусть событие A - это
16
выпадение единицы, B - выпадение нечетного числа. Тогда P(A) =1/6, а
P( A / B ) =1/3, следовательно, A и B - зависимые события.
Если B - результат опыта, то P( A) называют доопытной или априорной вероятностью события A , а условную вероятность P( A / B) - послеопытной или апостериорной вероятностью события A .
8. Формула сложения вероятностей
Образуем из событий A и B с помощью операций дополнения и пересечения следующие четыре события:
(8.1)
AB, AB , A B, A B .
Система четырех событий (8.1) является полной группой несовместных событий. Действительно, пересечение любых двух событий из этой системы
является невозможным событием. Например, пересечение первого и второго
событий: ABA B  AAB B  AB B  A   . Таким образом, первое и второе события в (8.1) несовместны. Аналогично можно показать несовместность двух любых событий из (8.1). Теперь рассмотрим объединение всех
событий системы (8.1):
AB  AB  A B  A B  A( B  B )  A ( B  B )  AE  A E  ( A  A ) E  EE  E,
где E - достоверное событие. Поскольку (8.1) полная группа несовместных
событий, то в каждом опыте происходит одно и только одно событие из возможных четырех событий (8.1).
Пусть эксперимент G выполнялся N раз, и в качестве его исхода событие AB наблюдалось n1 раз, событие AB наблюдалось n2 раз, событие
A B - n3 раз и событие A B - n4 раз. Очевидно,
n1  n2  n3  n4  N .
(8.2)
Частоты появления событий (8.1) определяются соотношениями:
n1
n
n
n
(8.3)
,  ( AB )  2 ,  ( A B)  3 ,  ( A B )  4 .
N
N
N
N
Рассмотрим объединение первого и второго событий (8.1): AB  AB 
 ( AB) 
 A( B  B )  AE  A . Поэтому частота
 ( A)   ( AB  AB ) 
n1  n2
.
N
(8.4)
n1  n3
.
N
(8.5)
Аналогично AB  A B  ( A  A ) B  EB  B и частота  (B) события B имеет вид:
 ( B )   ( AB  A B) 
Теперь рассмотрим объединение первых трех событий системы (8.1):
17
AB  AB  A B  ( AB  AB )  ( AB  A B)  A  B .
Отсюда:
 ( A  B)   ( AB  AB  A B) 
n1  n2  n3
.
N
(8.6)
(8.7)
Сравнивая (8.3) - (8.5), (8.7), получаем равенство:
 ( A  B)   ( A)  ( B)  ( AB) ,
(8.8)
которое представляет собой формулу (или теорему) сложения частот.
Отсюда следует, что в аксиомах теории вероятностей должна быть определена формула сложения вероятностей, аналогичная соотношению (8.8):
(8.9)
P( A  B)  P( A)  P( B)  P( AB) .
Если события A и B несовместны, то P(AB ) =0 и формула сложения вероятностей принимает вид:
(8.10)
P( A  B)  P( A)  P( B) .
9. Формула умножения вероятностей
Объединение первых двух событий системы (8.1) AB  AB  A . В последовательности из N опытов событие AB появилось n1 раз, а событие
AB - n2 раз. Поэтому событие A появилось n1  n2 раз. Определим число
появлений события B при условии, что событие A произошло. Событие A
происходит, если происходит AB или AB , число таких исходов равно
n1  n2 , при этом событие B происходит, если происходит AB , число таких
исходов равно n1 . Таким образом, условная частота появления события B
при условии, что A произошло
 ( B / A) 
n1
.
n1  n2
(9.1)
Из соотношений (8.3), (8.4), (9.1) следует:
 ( AB)   ( A) ( B / A)
(9.2)
- формула умножения частот.
Эту формулу можно получить в другом виде. Аналогично (9.1)
 ( A / B) 
n1
,
n1  n3
(9.3)
поскольку событие B  AB  A B и появляется n1  n3 раз в последовательности из N опытов, при этом событие A происходит n1 раз. Из соотношений (9.3) и (8.3), (8.5) следует:
 ( AB)   ( B) ( A / B)
(9.4)
- второй вариант формулы умножения частот.
18
Из (9.2), (9.4) следует, что в аксиомах теории вероятностей должна
быть определена (или получена из аксиом) формула умножения вероятностей:
(9.5)
P( AB)  P( A) P( B / A)  P( B) P( A / B) .
Если события A и B независимые, то условные вероятности равны безусловным: P( B / A)  P( B), P( A / B)  P( A) , тогда (9.5) принимает вид:
(9.6)
P( AB)  P( A) P( B) .
10. Обобщение формулы сложения вероятностей
Равенство (8.9) несложно обобщить на случай произвольного конечного числа событий. Вероятность того, что произойдет хотя бы одно из событий A1 , A2 , ... , An равна
n
n
i 1
i 1
P(  Ai )   P( Ai )   P( Ai  A j ) 
Здесь, например

i j
 P( Ai  A j  A k )  ... 
i j k
...  (1)n 1 P( A1  ...  A n ) .
(10.1)
, означает тройную сумму по индексам i , j и k , кото-
i jk
рые пробегают значения 1, 2, ..., n и удовлетворяют условию i  j  k . Это
условие приводит к уменьшению числа слагаемых тройной суммы по сравнению с числом n 3 слагаемых в тройной сумме без ограничений на индексы
суммирования. Последнее слагаемое (10.1) можно также рассматривать как
n - кратную сумму по индексам i 1, i 2 ,..., i n при условии на индексы:
i 1  i 2  ...  i n , что и приводит к вырождению n - кратной суммы до одного
слагаемого (10.1).
Пусть события A1 , ..., A n являются несовместными, тогда из (10.1)
следует
n
n
P ( A i )   P ( A i )
i 1
(10.2)
i 1
- вероятность суммы несовместных событий равна сумме их вероятностей.
11. Обобщение формулы умножения вероятностей
Формула (9.5) умножения вероятностей обобщается на случай произвольного конечного числа событий. Вероятность того, что произойдет каждое из событий A1 , A 2 , ..., A n равна
19
n
n 1
i 1
i 1
P(  Ai )  P( A1 ) P( A 2 / A1 ) P( A3 / A1 A 2 )...P( A n /  Ai ) .
(11.1)
Рассмотрим важный частный случай формулы (11.1) для событий независимых в совокупности.
Определение. События A1 , A 2 , ..., A n называются независимыми в совокупности, если события A j и B  Ai1  Ai2  ...  Aik - независимые при
любом выборе событий
из данной совокупности, любом
Ai1 , ..., Aik
j  i1 , ..., j  ik и k  n  1.
Для независимых A j и B условные вероятности P( Aj / B)  P( Aj ) и
формула (11.1) принимает вид
n
n
i 1
i 1
P( Ai )   P( Ai ) .
(11.2)
Отметим, что из независимости событий в совокупности следует их
парная независимость. Но обратное утверждение неверно. Рассмотрим этот
факт на примере Бернштейна. Пусть три грани правильного тетраэдра окрашены соответственно в красный ( K ), зеленый ( З ) и синий ( С ) цвета, а четвертая - в три цвета ( КЗС ). Вероятность упасть тетраэдру гранью, на которой есть, например, красный цвет, равна P( K )  1 / 2 . Условная вероятность
оказаться на этой грани красному цвету при условии, что на ней есть уже зеленый равна P( K / 3)  1 / 2 . Таким образом, события К и З независимы.
Аналогично, рассматривая любую пару событий, получаем, что события К ,
З и С попарно независимы. Однако вероятность упасть гранью, на которой
есть все три цвета равна P( К  З  С )  1 / 4  1/ 8 = P(К ) P(З ) P(С ) . Отсюда
следует, что события К , З и С не являются независимыми в совокупности.
Рассмотрим примеры решения задач с использованием формул сложения и умножения вероятностей.
1. Определить вероятность разрыва цепочки из n параллельно соединенных элементов, если вероятность разрыва в каждом элементе одинакова и
равна p . Разрыв цепочки из n параллельных элементов означает наступление каждого из независимых в совокупности событий A i , i  1, ..., n , A i n
разрыв i -го элемента. Таким образом, необходимо определить P(  Ai ) . Соi 1
гласно формуле (11.2)
n
n
i 1
i 1
P( Ai )   P( Ai )  p n .
(11.3)
2. Определить вероятность разрыва цепочки из n последовательно соединенных элементов, если вероятность разрыва в каждом элементе одинакова и равна p . В данном случае разрыв цепочки означает наступление хотя
20
бы одного из независимых в совокупности событий A i , i  1, ..., n . Следоваn
тельно, необходимо определить P(  A i ) . Для этого можно воспользоваться
i 1
формулой (10.1). Однако более простой путь получения решения - это вычисление через дополнительное событие A i , которое состоит в том, что i -й
элемент остается в рабочем состоянии. Очевидно P( Ai )  1  p , откуда
n
P(  Ai )  (1  p) n - вероятность того, что каждый элемент в рабочем состояi 1
нии. Следовательно, вероятность выхода из строя хотя бы одного элемента
n
n
i 1
i 1
P(  Ai )  1  P(  Ai )  1  (1  p) n .
(11.4)
Представляет интерес сравнение результатов (11.3) и (11.4). Например,
при p  0,1 и n  4 получаем p n  10 4 и 1  (1  p)n  1  (0,9)4  0,344 .
12. Формула полной вероятности
Пусть H1 , ..., H m - полная группа несовместных событий. Тогда выполняются условия:
m
 Hj E
(12.1)
j 1
- достоверное событие и для любых i  j пересечение H i  H j   - невозможное событие. Представим некоторое событие A в виде
m
A  A E  A( H j).
j 1
(12.2)
Далее используем свойство дистрибутивности пересечения относительно
объединения, тогда
m
A   AH j .
j 1
(12.3)
Отметим, что при любых i  j события AH i и AH j несовместны. Действи-


тельно, AH i  AH j  A H i  H j  A   . Поэтому из (12.3) следует
m
P( A)   P( AH j )
(12.4)
j 1
или, выражая вероятность пересечения через произведение вероятностей согласно (9.5),
m
P( A)   P( H j ) P( A / H j ) .
(12.5)
j 1
Равенство (12.5) называется формулой полной вероятности.
21
В частном случае попарно независимых событий A и H j условные


вероятности P A H j  P A и (12.5) преобразуется следующим образом:
m
m
m
j 1
j 1
j 1
P( A)   P( H j ) P( A / H j )   P( H j ) P( A) P( A) P( H j ) P( A) .
Таким образом, для независимых событий A и H j формула (12.5) принимает вид P A  P A .
13. Формула Байеса
Пусть также как в п.12 несовместные события H1,..., H m образуют
полную группу и A - некоторое событие. Согласно формуле умножения вероятностей (9.5)
(13.1)
P( AH j )  P( A) P( H j / A)  P( H j ) P( A / H j ) .
Отсюда
P( H j ) P( A / H j )
P( H j / A) 
P( A)
.
(13.2)
Здесь знаменатель P( A) можно представить по формуле полной вероятности
(12.5). Тогда
P( H j ) P( A / H j )
.
(13.3)
P( H j / A)  m
 P( H j ) P( A / H j )
j 1
Формулы (13.2) и (13.3) называются формулами Байеса.
Формулам Байеса может быть дана следующая интерпретация. Пусть
событие A - это исход опыта. Тогда вероятности P( H j ) можно назвать априорными или доопытными, а вероятности P( H j / A) - апостериорными или
послеопытными. Таким образом, формула (13.3) связывает между собой априорные и апостериорные вероятности событий H j , j  1,..., m , т.е. позволяют учесть информацию, полученную в результате опыта и ее влияние на
вероятность событий H j .
Для
независимых
событий
и
A
H
j
условные
вероятности
PA H j   P A , тогда правая часть (13.3) преобразуется следующим образом:
P( H j ) P( A)
m
 P( H
j 1
j
 P( H j ) ,
) P( A)


 
и формула (13.3) принимает вид P H j A  P H j .
22
14. Пространство элементарных событий
14.1. При построении математической модели эксперимента со случайным исходом необходимо указать все элементарные исходы, удовлетворяющие двум условиям: 1) в результате эксперимента происходит один и
только один из этих исходов, 2) по смыслу элементарный исход неразложим
на «более элементарные». Каждый такой исход принято называть элементарным событием и обозначать символом  . Рассмотрим примеры элементарных событий.
1. В опыте с бросанием монеты элементарными событиями являются:
1 - выпадение герба,  2 - выпадение «решетки». При этом считается, что
стать на ребро монета не может.
2. В эксперименте с игральной костью элементарные события 1 , ..., 6
- это появление грани соответственно с номерами 1, ... , 6.
3. Последовательность из n бросаний монеты. Здесь элементарными
событиями являются последовательности вида:  j1 , j2 , ..., jn , где  jk  1
- появление герба или  jk   2 - появление «решетки». Число элементарных
событий (разных последовательностей) равно 2 n .
4. В эксперименте с бросанием точки на отрезок [a, b] элементарное
событие - это попадание точки в некоторую координату отрезка [a, b] , что
принято изображать точкой, расположенной в данной координате отрезка
[a, b] . Поэтому говорят, что элементарное событие в данном случае - это
точка отрезка [a, b] .
5. В эксперименте с бросанием двух точек на отрезок [a, b] элементарное событие - это пара точек на [a, b] или одна точка в квадрате
[a, b]  [a, b] .
14.2. Множество всех элементарных событий в теории вероятностей
принято называть пространством элементарных событий и обозначать буквой  . Элементарные события  называют точками пространства элементарных событий  .
14.3. Всякий результат эксперимента со случайным исходом принято
называть событием. Для каждого события A и каждого элементарного события  известно, влечет  наступление A или нет, т.е. выполняется условие
  A или нет. Тем самым совокупность тех  , которые влекут A , полностью определяют A . Обратно: произвольное множество A точек   
можно рассматривать как событие A , которое происходит или нет в зависимости от того, принадлежит или нет множеству A элементарное событие  ,
представляющее данный исход опыта. Таким образом, событие A можно
23
считать подмножеством  , состоящим из точек  , представляющих те исходы эксперимента, при которых происходит A . По этой причине нет различия между событием A и соответствующим подмножеством A   .
14.4. Рассмотрим примеры пространств элементарных событий. 1). В
эксперименте с бросанием монеты пространство элементарных событий
1  {1,2 } , где 1 - появление герба,  2 - появление «решетки». 2). При
бросании игральной кости пространство элементарных событий
 2  {1 , ..., 6 }, где  i - выпадение грани с номером i . 3). Если опыт состоит в бросании монеты n раз, то пространство элементарных событий  3
состоит из всех последовательностей вида  j1 , j2 ,..., jn , где  jk  1 - появление герба или  jk   2 - появление «решетки». Число всех последова-
тельностей (или точек пространства) равно 2 n . 4). В опыте с бросанием точки на отрезок [a, b] пространство элементарных событий  4 - это отрезок
[a, b] . 5). Наконец, при бросании двух точек на отрезок [a, b] пространство
элементарных событий 5 - это квадрат [a, b]  [a, b] .
15. Аксиомы теории вероятностей
Пусть  - пространство элементарных событий, F - алгебра событий
(алгебра подмножеств множества  ). В основании теории вероятностей лежат следующие пять аксиом.
1. Алгебра событий F является  - алгеброй событий.
Система событий F называется  - алгеброй, если для всякой после
довательности событий A j  F , j  1, 2, ... , их объединение A   A j , пеj 1

ресечение B   A j и дополнения A j , также принадлежат F , т.е. A , B , A j
j 1
являются также событиями. Таким образом,  - алгебра F - это система событий, замкнутая относительно операций дополнения, счетного объединения
и счетного пересечения.
2. На  - алгебре событий F для любого A  F определяется функция
P( A) , называемая вероятностью и принимающая числовые значения из интервала [0,1] : 0  P( A)  1.
24
Данная аксиома - это аксиома существования вероятности P( A) - как
функции на F со значениями из интервала [0, 1] . Следующие три аксиомы
определяют свойства функции P( A) .
3. Для любых двух событий A, B , таких, что A B  
P( A  B)  P( A)  P( B)
(15.1)
- аксиома сложения вероятностей.
Отсюда следует, что для конечного числа несовместных событий
A1 , ...., A n
PA1  ...  A n   P A1   ...  P A n  .
(15.2)
4. Пусть A j , j  1, 2, ... - попарно несовместные события: Ai  A j   .
Тогда


P ( A j )   P ( A j ) .
j 1
(15.3)
j 1
Соотношение (15.3) называется аксиомой счетной аддитивности вероятности или аксиомой непрерывности вероятности. Второе связано со следующей интерпретацией равенства (15.3). Событие

 Aj
следует понимать
j 1
n
как предел последовательности Bn   A j , n  1, 2, ... :
j 1

n
j 1
j 1
 A j  nlim
 Aj .

(15.4)
При этом равенство (15.3) можно понимать как свойство непрерывности
функции P( A) : P(lim Bn )  lim P( Bn ) или
n
n
n
n
P( lim  A j )  lim P( A j )
n
n
j 1
(15.5)
j 1
- которое позволяет операцию предела вынести за функцию P( A) . Это обусловлено тем, что из условия (15.5) следует (15.3):

n
n
n

P( A j )  P( lim  A j )  lim P( A j )  lim  P( A j )   P( A j ) .
j 1
n
j 1
n
j 1
n
j 1
(15.6)
j 1
5.
(15.7)
P()  1.
Пятая аксиома указывает на то, что пространство элементарных событий  - есть достоверное событие. Таким образом,  содержит в себе все
события, которые можно рассматривать в данной задаче.
25
Пространство элементарных событий  ,  - алгебра событий F и вероятность P на F , удовлетворяющие аксиомам 1-5, образуют так называемое вероятностное пространство, которое принято обозначать (, F , P) .
Отметим, что система аксиом 1-5 не противоречива, так как существуют ,F, P , удовлетворяющие этим аксиомам и не полна, так как вероятность
P можно определить многими способами в рамках аксиом 2-5. Понятие вероятностного пространства (или система аксиом 1-5) содержит лишь самые
общие требования, предъявляемые к математической модели случайного явления, и не определяет вероятность однозначно. Последнее возможно только
с учетом дополнительных условий, заданных в постановке рассматриваемой
задачи.
16. Дискретное вероятностное пространство
Вероятностное пространство , F , P  называется дискретным, если
  {1,2 ,...} конечно или счетно, F -  - алгебра всех подмножеств 
(включая  ), вероятность P определена для каждого одноточечного подмножества { j } пространства элементарных событий  :
P({ j })  p j , j  1, 2, ...,
(16.1)

 p j  1.
(16.2)
j 1
Для любого события A его вероятность P( A) определяется равенством
P( A)   p j .
(16.3)
j : j  A
17. Примеры  - алгебр
17.1. Пусть  - произвольное пространство элементарных событий, на
котором не заданы какие-либо события. Для построения  - алгебры согласно определению (п.15) необходимо рассмотреть все дополнения, объединения и пересечения заданных событий и включить их в  - алгебру. Поскольку в данном случае имеется единственное событие  , то возможно построить только его дополнение    . Теперь имеется система из двух событий
{ ,  }. Дальнейшее применение операций дополнения, объединения, пересечения не дает новых событий. Таким образом, в данном примере  - алгебра F  {, } .
17.2. Пусть  - пространство элементарных событий и A - некоторое
событие, не совпадающее с  , т.е. A   . Таким образом, имеется система
из двух событий { A, } . Эту систему можно расширять, включая в нее новые
26
события, которые получаются в результате операций дополнения, объединения, пересечения над событиями A,  . Процедуру расширения системы событий имеет смысл продолжить рекуррентно до прекращения появление новых событий. Предельная система событий называется  - алгеброй, порожденной системой событий { A, } .
Рассмотрим операцию дополнения над событиями системы. Ее результат A ,    - это новые события, не содержащиеся в исходной системе
{ A, } , включение которых дает новую систему событий
(17.1)
F  { A, A , , } .
Очевидно, последующие операции дополнения, объединения, пересечения
не дают новых событий, не содержащихся в (17.1). Таким образом, система
событий (17.1) является  - алгеброй, порожденной системой { A, } .
17.3. Усложним пример. Пусть  - пространство элементарных событий, A, B - два несовместных события: A B   . Таким образом, имеется
система трех событий { A, B, } . Операция объединения над событиями этой
системы приводит к появлению одного нового события A  B . Полученная
система четырех событий расширяется до восьми путем включения их дополнений. Несложно видеть, что применение операций дополнения, объединения, пересечения к этим восьми событиям не порождает новых событий.
Таким образом, система восьми событий
(17.2)
F  { A, B, A  B, ; A, B , A  B, }
является  - алгеброй, порожденной системой событий { A, B, } .
17.4. Рассмотрим  - пространство элементарных событий и два произвольных события A, B , рис. 17.1. Для построения  - алгебры, порожденной некоторой системой событий, во многих случаях удобно применить сле-
Рис. 17.1. Пространство элементарных событий и события A, B
дующий прием. На  выделим все несовместные события C1 , C2 , C3 , C4 ,
рис. 17.1. При этом   C1  C2  C3  C4 , A  C2  C3 , B  C3  C4 ,
A  C1  C4 , B  C1  C2 и т.д.  - алгебра будет содержать все события
27
C1 , C2 , C3 , C4 , все объединения событий C1 , C2 , C3 , C4 , а также невозможное событие  . Действительно, операция пересечения любых событий из
множества {C1, C2 , C3 , C4 } порождает единственное событие  . Операция
дополнения над событиями из множества {C1, C2 , C3 , C4 } порождает событие, которое выражается через объединение событий C1 , C2 , C3 , C4 . Следовательно, над событиями C1 , C2 , C3 , C4 достаточно рассмотреть только операцию объединения, вместо трех операций - дополнения, пересечения, объединения для исходной системы событий { A, B, }.
Теперь для построения  - алгебры рассмотрим события C1, C2 , C3 , C4 ,
все их объединения и выразим полученные события через исходные A, B .
Очевидно: C1  A  B , C2  A \ B , C3  AB , C4  B \ A . Парные объединения дают следующие
события: C1  C2  B , C1  C3  A  B  AB 
C2  C3  A ,
C2  C4  ( A  B) \ AB 
 A \ B  B \ A,
C1  C4  A ;
 A \ B  B \ A ; C3  C4  B . Тройные объединения: C1  C2  C3  B \ A ,
C1  C3  C4  A \ B , C1  C2  C4  AB , C2  C3  C4  A  B .
Таким образом,  - алгебра содержит события: A  B , A \ B , AB ,
B \ A ; B , A \ B  B \ A , A , A , A \ B  B \ A, B ; B \ A , A \ B , AB , A  B , а
также  и  - всего 16 событий.
Отметим, что при определении  - алгебры порождающая система событий, как правило, составляется из событий, наблюдаемых в опыте (заданных в условии задачи).
События C1 , C2 , C3 , C4 данного примера совпадают с событиями (8.1),
которые рассматривались при выводе формулы сложения для частот. Действительно, C3  AB , C2  A \ B  AB , C4  B \ A  AB и наконец, по формуле (6.1) C1  A  B  AB .
17.5. Рассмотрим обобщение примера 4. Пусть исходная система событий { A1,..., A n , } - содержит n произвольных событий A j , j  1, ... , n . Для
построения  - алгебры, подобно примеру 4, введем события вида
Ck  A1i1 Ai22  Ainn ,
(17.3)
где каждое ir  0 или ir  1 , причем A 0r  A r и A1r  A r . Поскольку каждое
ir может принимать два значения 0 или 1, то число всех событий вида Ck
равно 2 n . Эти события образуют полную группу несовместных событий. Таким образом, события Ck на  - алгебре выполняют роль ортогонального базиса, позволяющего представить произвольное событие B через несовместные (ортогональные в смысле операции пересечения) события Ck :
28
2n
B    k  Ck ,
k 1
 E , C k  B,
, Ck  B.
k  
Каждое слагаемое этой суммы может принимать одно из двух возможных
значений: Ck или  . Поэтому число разных событий вида B (число всех
n
событий  - алгебры в данном примере) не превышает 2 2 (включая  и
 ), причем число событий достигает максимального значения, когда все Ck
отличны от  (как в примере 4). Этот результат позволяет судить о высокой
скорости роста числа событий в  - алгебре в зависимости от n - числа событий в исходной системе. Для примера 4 число n  2 , следовательно, число
n
событий в  - алгебре равно 22  16 . Имеет место простое правило роста:
если число n событий в исходной системе увеличить на единицу до n  1 , то
максимальное число событий в  - алгебре увеличится с
n 1
 
22
n
до
2
 22 2  22 и, таким образом, равно квадрату от числа элементов  алгебры для n событий в исходной системе.
22
n
n
18. Условная вероятность и вероятностное пространство
18.1. Пусть (, F , P) - вероятностное пространство. Рассмотрим интерпретацию условной вероятности P( A / B) события A , если известно, что
произошло событие B , причем P( B)  0 . При этих условиях пространством
элементарных событий естественно считать не  , а B , поскольку тот факт,
что B произошло, означает, что речь идет лишь о тех элементарных событиях  , которые принадлежат множеству B . Среди элементарных событий
  B , только те из них влекут событие A , которые принадлежат A B .
Поскольку событие A отождествляется с множеством элементарных событий, влекущих A , то теперь (при условии, что B - произошло) событие A
следует отождествлять с множеством AB  A  B . Можно сказать, что множество AB  A  B есть событие A , рассматриваемое с точки зрения, согласно которой пространством элементарных событий объявлено событие
B.
18.2. На новом пространстве элементарных событий B  - алгебра событий FB определяется, или, как говорят, индуцируется  - алгеброй событий F , а именно FB состоит из событий вида AB  A  B , где A  F . Проверим, что FB действительно  - алгебра. Пусть AB , C B , C Bj , j  1, 2, ... - события из FB , где A, C , C j  F . Необходимо показать, что их объединения,
пересечения и дополнения также принадлежат FB .
Рассмотрим объединение
29
AB  CB  ( A  B)  (C  B) .
(18.1)
Операции объединения и пересечения взаимно дистрибутивны, поэтому отсюда следует
(18.2)
AB  CB  B  ( A  C )  ( A  C ) B .
Поскольку A  F , C  F , а F -  - алгебра, то и объединения A  C  F .
Поэтому ( A  C ) B  FB , а согласно (18.2) AB  CB  FB . Аналогично




j 1
j 1
j 1
j 1
 CBj   (C j  B)  (  C j )  B  (  C j ) B .
(18.3)

Следовательно,  C Bj  FB . Проверить факт AB  CB  FB не составляет труj 1
да, действительно,
(18.4)
AB  CB  ( A  B)  (C  B)  ( A  C ) B .
Наконец, рассмотрим дополнение. Поскольку B - достоверное событие, то
(18.5)
AB  AB  A  AB  ( A ) B ,
откуда следует AB  FB . Таким образом, FB является  - алгеброй событий
вида AB  A  B .
18.3. На  - алгебре FB вводится вероятность
P( AB ) P( A  B)
, AB  FB .
(18.6)
PB ( AB ) 

P( B)
P( B)
Отметим, что если положить B   , то AB  A    A , P( A  B)  P( A) ,
P( B)  1 . Поэтому в (18.6) знаменатель P(B) выполняет нормировку на новое пространство элементарных событий B .
Теперь тройка ( B, FB , PB ) является новым вероятностным пространством, построенным в связи с поставленной задачей, в которой событие B
обычно рассматривается как результат опыта. Причем вероятность PB на FB
(18.6) можно рассматривать и на F , при этом PB ( AB ) также является вероятностью и обозначается P( A / B) . Поэтому (18.6) можно представить:
P( A  B )
, A F .
(18.7)
P( A / B ) 
P( B )
Вероятность P( A / B) как функция на F называется условной вероятностью
события A при условии, что событие B произошло.
18.4. Отметим, что свойства условной вероятности аналогичны свойствам безусловной вероятности. В частности, имеют место соотношения:
P(  / B )  1 ,
(18.8)
P( A / B )  1  P( A / B ) ,
(18.9)
Равенство (18.8) следует из (18.7): P( / B)  P(B) P( B) 


 P( B) P( B) 1. Tеперь 1  P( / B)  P( A  A B)  P( A  A B) P B  
30



 


 P AB  AB P B   P AB   P AB P B   P A B   P A B , что совпадает с (18.9). Для несовместных событий A1 , A2
P( A1  A 2 / B)  P( A1 / B)  P( A 2 / B) ,
В общем для любых событий А, C
1
P( A  C / B ) 
P(( A  C )  B) ,
P( B )
(18.10)
(18.11)
Используя дистрибутивность пересечения и формулу сложения вероятностей, получим:
P(( A  C )  B)  P( A  B  C  B) 
 P( A  B)  P(C  B)  P( A  C  B) .
(18.12)
Подставим (18.12) в (18.11), тогда
1
[ P( A  B)  P(C  B)  P( A  C  B)] 
P( B )
(18.13)
 P( A / B)  P(C / B)  P( AC / B) .
P(( A  C ) / B) 
Это соотношение полностью аналогично формуле сложения безусловных вероятностей.
19. Основные формулы комбинаторики
Имеется большое число задач, в которых вычисление вероятностей выполняется с помощью комбинаторных формул. Рассмотрим основные комбинаторные формулы.
19.1. Перестановки. Пусть имеется n различных объектов x1 ,  , xn .
Эти объекты перенумерованы, и следовательно, образуют последовательность (или упорядоченное множество). Поменяем местами два объекта x1 и
x2 . Тогда получим новую последовательность x2 , x1 , x3 ,  , xn . Затем можно в исходной последовательности на первое место поставить x3 , а объект
x1 соответственно на третье и т.д., получая каждый раз новую последовательность из n объектов. Разные последовательности отличаются только порядком следования объектов, поэтому в общем случае последовательность,
полученная при перестановке объектов, имеет вид: x j1 ,  , x jn .
Возникает вопрос, чему равно число разных последовательностей
x j1 ,, x jn ? (Или просто чему равно число перестановок?) Ответ может быть
получен путем следующих рассуждений. Объект x j1 можно выбрать n способами, то есть в качестве x j1 можно взять любой объект среди x1 ,  , xn .
Если x j1 выбран, то x j 2 можно выбрать n  1 способом, поскольку в исходной последовательности осталось n  1 объектов, каждый из которых может
31
быть выбран в качестве второго объекта x j 2 новой последовательности и т.д.
Всего, таким образом, существует n! способов образовать последовательность x j1 ,  , x jn , выбирая объекты из совокупности x1 ,  , xn . Число n! называется числом перестановок n разных объектов.
19.2. Размещения. Усложним условие задачи. Пусть имеется n различных объектов x1 ,  , xn . Чему равно число разных последовательностей вида
x j1 ,  , x jk , k  n , полученных при извлечении k объектов из исходной последовательности x1 ,  , xn n разных объектов?
Аналогично как и в первой задаче, в данном случае объект x j1 можно
выбрать n способами. Если x j1 выбран, то объект x j 2 можно выбрать n  1
способом и т.д. Наконец, объект x j k можно выбрать n  k  1 способом. Таким образом, всего существует
n!
(19.1)
 Akn
(n  k )!
способов образовать последовательность из k объектов, выбирая объекты из
совокупности x1 ,  , xn . Иначе эту задачу можно сформулировать следующим образом: сколько существует способов размещения k из n различных
объектов по k местам. Число Akn (19.1) называется числом размещений из n
n(n  1)(n  k  1) 
по k . Отметим, что при k  n из (19.1) следует Ann  n! .
19.3. Сочетания. Пусть имеется n различных объектов x1 ,  , xn , из
которых выбирается k объектов (k  n) , образующих множество X k .
Сколькими способами можно образовать множество X k ?
В отличие от размещений результатом извлечений объектов из совокупности x1 ,, xn является не последовательность, а множество X k . В последовательности важен порядок расположения элементов, так две последовательности x1 , x2 , , xn и x2 , x1 , x3 ,  , xn - разные, они различаются расположением элементов x1 и x 2 . Если рассматривать два множества
A  {x1 , x2 ,, xn } и B  {x2 , x1 , x3 ,, xn } , то эти множества одинаковые:
A  B , поскольку порядок расположения элементов x j на множестве не
имеет значения. Важен только вопрос: содержится элемент x j в данном
множестве или нет? Таким образом, данная задача отличается от задачи на
число размещений тем, что извлекаемые k объектов образуют множество
32
X k , на котором не важен порядок расположения объектов, а важен только
факт наличия или отсутствия элемента x j в множестве X k .
Сочетанием из n элементов по k называется любое подмножество из k
элементов множества, содержащего n элементов. Число всех сочетаний обозначается записью C nk . Наша задача сводится к нахождению числа C nk . Если,
извлекая объекты из совокупности x1 ,  , xn , строить из них последовательность x j1 ,, x jk , то есть учитывая расположение объектов, то число разных
последовательностей равно числу Akn - размещений из n по k . В данной задаче интерес представляет множество {x j1 ,, x jk }, для которого разный порядок расположения k заданных элементов x j r дает одно и то же множество. Число перестановок k разных элементов равно k! . Поэтому число размещений Akn в k! больше числа сочетаний C nk . Из (19.1) следует
Cnk

Akn
k!

n!
.
k!(n  k )!
(19.2)
19.4. Перестановки с повторениями. Имеется n объектов, но не все
эти объекты разные, среди них имеются одинаковые объекты или неразличимые. Пусть среди n объектов k1 объектов 1-го типа, k 2 объектов 2-го типа, … , k m объектов m -го типа. Других объектов нет, так что
m
 ki  n .
(19.3)
i 1
Чему равно число Cn (k1 ,, k m ) разных последовательностей из n объектов, которые можно образовать, извлекая их из совокупности в n объектов?
Если все n объектов были бы разными, например, пронумерованы от 1
до n , то число разных последовательностей было бы равно n! . Поскольку
имеются k1 неразличимых объектов 1-го типа, то перестановка двух объектов 1-го типа между собой не дает новой последовательности. Это следует
учесть. Число перестановок между объектами 1-го типа равно k1! Поэтому за
счет неразличимости перестановок между объектами 1-го типа, общее число
разных последовательностей уменьшается в k1! раз. Аналогично следует
учесть неразличимые перестановки между объектами 2-го типа, их k 2 ! и т.д.
Таким образом, число Cn (k1 ,, k m ) разных перестановок совокупности из
n объектов, среди которых k1 объектов 1-го типа, k 2 объектов 2-го типа, …,
k m объектов m -го типа, равно
33
n!
.
(19.4)
k1! k m !
Из (19.4) следует при k1  1,  , k m  1, m  n , то есть при условии что
C n (k1 ,, k m ) 
все объекты разные,
Cn (1,,1)  n!
(19.5)
- число перестановок n разных объектов (или без повторения).
Из (19.4) можно получить другой частный случай при m  2 , k1  k ,
k2  n  k :
Cn (k , n  k ) 
n!
 Cnk ,
k!(n  k )!
(19.6)
что позволяет дать вторую интерпретацию числа сочетаний: Cnk - это число
перестановок n объектов, среди которых k объектов 1-го типа и n  k объектов 2-го типа.
19.5. Размещения с повторениями. Пусть имеется n разных объектов
x1 ,  , xn , из которых выбирается объект, фиксируется и возвращается обратно. Так извлекаются k объектов
(19.7)
x j1 ,  , x jk .
Последовательность (19.7) называется размещением с повторениями из n
(элементов) по k (местам). В последовательности (19.7) могут встречаться
одинаковые объекты, в отличие от размещения (без повторения), когда объекты извлекаются из исходной совокупности без возвращения.
Сколькими способами может быть образована последовательность
(19.7) при извлечении с возвращением? Поскольку первый объект x j1 может
быть выбран n способами, второй объект x j 2 - также n способами и т.д., то
существует n k размещений из n по k с повторениями. Например, так можно построить все трехзначные десятичные числа от числа 000 до 999. При
этом n  10 , k  3 и число размещений 10 3 .
20. Системы частиц в статистической физике
20.1. Система Максвелла-Больцмана. Характеризуется как система k
разных частиц, каждая из которых может находиться в одной из n ячеек (состояний) вне зависимости от того, где при этом находятся остальные частицы. Чему равно число различных размещений k частиц по n ячейкам в этой
системе? Первую частицу можем поместить в любую из n ячеек, то есть n
способами. Вторую частицу также можно поместить в любую из n ячеек и
т.д. Таким образом, имеется всего n k разных размещений k частиц по n
34
ячейкам. Если при этом все размещения (состояния системы) считаются равновероятными, то говорят, что система частиц подчиняется статистике Максвелла-Больцмана. Вероятность каждого состояния равна n  k .
20.2. Система Бозе-Эйнштейна. Определяется как система k неразличимых (тождественных, одинаковых) частиц, каждая из которых независимо
от остальных может находиться в одной из n ячеек (состояний частицы).
Поскольку частицы неразличимы, каждое состояние такой системы задается
"числами заполнения" k1 ,  , k n , где k j - число частиц в j ячейке. Подсчитаем число разных состояний системы, то есть число размещений частиц,
различающихся лишь числами заполнения.
20.2.1. Состояние системы частиц удобно представить рис.20.1, где черточкой изображается граница ячейки, а точкой — частица.
Рис. 20.1. Состояние системы частиц
Конфигурация (состояние) из k точек и n  1 границы полностью определяется положениями внутренних n  1 черточек. Две крайние черточки закреплены и перемещаться не могут. Отметим, что если поменять местами
любые две или несколько частиц, то конфигурация (состояние) не изменится
ввиду неразличимости частиц. Точно также конфигурация не изменится, если поменять местами две внутренние черточки. Однако каждый раз, когда
меняются местами частица и черточка, будет получено новое состояние системы. Число черточек и частиц равно n 1  k , а общее число перестановок
черточек и частиц равно (n  1  k )!. Из них существует (n  1)! перестановок
черточек межу собой, которые не приводят к новому состоянию, а также существует k! перестановок частиц между собой, не приводящие к новым состояниям. Поэтому число разных состояний системы равно:
(n  1  k )!
 Cnk1 k  Cnn11 k .
(n  1)!k!
(20.1)
Это число в комбинаторике называют числом сочетаний с повторениями из
k по n . Если все состояния системы равновероятны, то говорят, что система
частиц подчиняется статистике Бозе-Эйнштейна. При этом вероятность каждого состояния равна
p
1
C nk1 k
.
(20.2)
20.2.2. Если число частиц k  n - не меньше числа ячеек, то можно дополнительно потребовать, чтобы в каждом состоянии ни одна ячейка не оставалась пустой. При этом число возможных состояний уменьшится по сравнению с (20.1). Определим это число. Для этого "приклеим" к каждой из n
35
черточек справа по одной точке, исключив последнюю (n  1) -ю (правую)
черточку. Теперь, переставляя границу ячейки в виде "черточка + частица",
будем получать состояния, когда в каждой ячейке будет не менее одной частицы. Всего имеется, как и в первом случае, n  1 границ, которые можно
переставлять, а также (n  1  k )  n  k  1 - число границ плюс свободных
частиц, поскольку n частиц "приклеены". Общее число перестановок границ
и свободных частиц равно (k  1)!. Среди них (n  1)! перестановок между
собой границ, которые не приводят к новым состояниям, а также
[k  1  (n  1)]! (k  n)! перестановок между собой свободных частиц, которые также не дают новых состояний. Поэтому число разных состояний системы равно
(k  1)!
 Ckn11 , k  n .
(n  1)!(k  n)!
(20.3)
20.3. Система Ферми-Дирака. Определяется как система БозеЭйнштейна, в которой дополнительно действует принцип запрета (принцип
Паули), требующий, чтобы в каждой ячейке находилось не более одной частицы. Частицы и в этом случае неразличимы, поэтому состояние системы
характеризуется числами заполнения k j  0, 1 для j  1, 2,  , n . Очевидно,
в данном случае число частиц k  n - числа ячеек (состояний частицы). Состояние системы можно задать, выбирая k заполненных ячеек из общего
числа n ячеек. Число разных способов выбора равно C nk . Если все состояния
равновероятны, то говорят о статистике Ферми-Дирака. При этом вероятность каждого состояния равна
p
1
.
k
Cn
(20.4)
Статистике Максвелла-Больцмана подчинены системы молекул газа в
классической статистической физике. Системы частиц с целым и полуцелым
спином подчиняются соответственно статистикам Бозе-Эйнштейна и ФермиДирака.
21. Последовательность независимых испытаний
21.1. Пусть эксперимент G может быть повторен n раз. Тогда говорят о
последовательности (или серии) испытаний (опытов, экспериментов). Пусть
последовательность опытов характеризуется тем, что результат любого опыта не зависит от результатов остальных опытов данной последовательности.
Тогда говорят о последовательности независимых испытаний. Пусть опыт G
__
имеет два исхода - событие A или A . Тогда последовательность независимых испытаний называется вероятностной схемой Бернулли. Обычно исход
36
__
A условно называют успехом, а исход A - неудачей. Обозначим вероятность
__
успеха P( A)  p и вероятность неудачи P( A)  q . Очевидно p  q  1.
В качестве примеров схемы Бернулли можно привести опыт с бросанием монеты или игральной кости. В первом примере успех A - это выпадение
__
герба и неуспех A - выпадение решетки, при этом p  q  0,5 . Во втором
примере в качестве успеха A можно рассматривать выпадение грани с номе__
ром 1, тогда A - невыпадение номера 1, при этом p  1 / 6 и q  5 / 6 .
Определим в схеме Бернулли вероятность Pn (k ) того, что в серии из n
испытаний успех наступит k раз. Очевидно 0  k  n . Рассмотрим последовательность n опытов и будем фиксировать результат каждого опыта, то
__
есть событие A или A . Тогда последовательность исходов может иметь, например, вид
__
__
A,  , A, A,  , A ,
(21.1)
то есть ее первые k элементов - это события A и последующие n  k эле__
ментов - события A . Другими словами, в первых k опытах наступает успех
и в последующих n  k опытах - неуспех. По условию исходы в последовательности (21.1) - это независимые события, поэтому по формуле умножения
вероятность p1 появления последовательности вида (21.1) равна
p1  p k q nk .
(21.2)
При подсчете вероятности Pn (k ) следует учесть все возможные после__
довательности, состоящие из k событий A и n  k событий A . Вероятность
появления любой их этих последовательностей одинакова и равна p1 . Кроме
этого, последовательности являются несовместными событиями, поскольку в
каждой серии опытов реализуется только одна из этих последовательностей.
Поэтому по формуле сложения вероятностей:
Pn (k )   p1 ,
(21.3)
i
где суммирование ведется по всем последовательностям, содержащим k со__
бытий вида A и n  k событий A . Число этих последовательностей равно
Cnk , поскольку может быть определено как число различных перестановок
элементов последовательности (21.1), содержащей k элементов 1-го типа
37
__
(событий A ) и n  k элементов 2-го типа (событий A ) по формуле (19.6).
Таким образом, из (21.3) следует
Pn (k ) 
n!
p k q nk .
k!(n  k )!
(21.4)
Это соотношение называется формулой Бернулли или биномиальным распределением вероятностей. Последнее связано с тем, что Pn (k ) равно общему члену бинома ( p  q) n .
Рассмотрим пример. Бросается монета. Какова вероятность выпадения
0, 1, 2, 3, 4 раз герба при 4 бросаниях? Здесь вероятность успеха (появления
герба) в одном опыте равна p  1 / 2 , n  4 , k  0, 1, 2, 3, 4. По формуле
(21.4) вычисляем P4 (0)  1 / 16 , P4 (1)  4 / 16 , P4 (2)  6 / 16 , P4 (3)  4 / 16 ,
P4 (4)  1 / 16 . На рис. 21.1 представлен график зависимости P4 (k ) .
Рис. 21.1. График зависимости вероятности от числа
успехов в опыте с бросанием монеты
21.2. Вероятность Pn (k1  k  k 2 ) того, что в серии из n независимых
опытов число успехов k будет лежать в интервале [k1 , k 2 ] . В соответствии с
формулой сложения вероятностей
Pn (k1  k  k 2 ) 
k2
 Cnk p k q nk .
(21.5)
k  k1
Определим, какова вероятность появления хотя бы одного успеха в серии из n опытов. Очевидно, речь идет о вероятности того, что число успехов
k будет лежать в интервале [1, n] . Таким образом, искомая вероятность определится формулой (21.5) при k1  1 и k2  n :
38
n
Pn (1  k  n)   Pn (k ) .
(21.6)
k 1
Имеет место равенство
k 0 Pn (k )  1, поскольку его левая часть - это вероятn
ность достоверного события, состоящего в том, что число успехов k принимает значение из интервала [0, n] . Теперь (21.6) можно представить в виде:
Pn (1  k  n)  1  Pn (0)  1  q n  1  (1  p) n .
(21.7)
22. Наивероятнейшее число в распределении Бернулли
Число k  k 0 , для которого Pn (k ) (21.4) достигает максимального значения, называется наивероятнейшим числом в распределении Бернулли.
Очевидно, наивероятнейшее число k 0 определяется двумя условиями:
Pn (k 0 )
(22.1)
 1,
Pn (k 0  1)
Pn (k 0 )
(22.2)
 1.
Pn (k 0  1)
Для нахождения числа k 0 решим систему двух неравенств (22.1), (22.2)
относительно k 0 . Подставим в первое неравенство формулу (21.4), тогда
p k0 q nk0 (k 0  1)!(n  k 0  1)!
(22.3)

 1.
k 0 !(n  k 0 )!
p k0 1q nk0 1
После сокращения в левой части неравенство принимает вид:
p(n  k 0  1)
 1,
k0 q
откуда p(n  k 0  1)  k 0 (1  p) или
k 0  p(n  1) .
(22.4)
Аналогично решим второе неравенство:
p k0 q nk0 (k 0  1)!(n  k 0  1)!

 1.
k 0 !(n  k 0 )!
p k0 1q nk0 1
(22.5)
После сокращения
q(k 0  1)
 1,
p(n  k 0 )
откуда (1  p)(k 0  1)  p(n  k 0 ) или k 0 1  p  pn . Что сводится к выражению:
k0  p(n  1)  1 .
(22.6)
Таким образом, наивероятнейшее число k 0 в распределении Бернулли определяется двумя условиями (22.4) и (22.6):
39
(22.7)
p(n  1)  1  k 0  p(n  1) .
По условию задачи число k 0 – целое и согласно (22.7) лежит в единичном интервале. Поэтому решение (22.7) может быть единственным, если
p(n  1) – дробное число. Это реализуется в примере с бросанием монеты,
где n  4 , p  1 / 2 , тогда p(n  1)  2,5 . В соответствии с (22.7)
1,5  k0  2,5 , поэтому существует единственное наивероятнейшее число
k0  2 , что иллюстрирует график, представленный на рис.21.1.
Возможна иная ситуация, если p(n  1) – целое число. Тогда единичный
интервал (22.7) содержит два целых числа, следовательно, имеется два наивероятнейших числа в распределении Бернулли. Эту ситуацию можно рассмотреть также на примере с бросанием монеты. Пусть n  5 , тогда
p(n  1)  3 , следовательно (22.7) имеет вид: 2  k 0  3 , то есть имеется два
наивероятнейших числа k 0  2 и k 0  3 . При этом P5 (2)  P5 (3) и график
P5 (k ) имеет плоскую вершину.
23. Полиномиальное распределение
Рассмотрим обобщение схемы независимых испытаний, состоящее в
том, что исходом каждого опыта является одно из m несовместных событий
A1 , ... , A m , образующих полную группу. Пусть вероятность P( Ai )  pi ,
i  1, ... , m , тогда
m
 pi  1 .
(23.1)
i 1
Определим вероятность Pn (k1 ,..., k m )  P(C ) события C , состоящего в том,
что в серии из n независимых опытов событие A1 произойдет k1 раз, ..., событие A m произойдет k m раз. Поскольку исходом каждого опыта является
одно и только одно из событий A1 , ... , A m , то справедливо равенство:
m
 ki  n .
(23.2)
i 1
Рассмотрим следующую последовательность B1 исходов в серии из n
опытов. Пусть в первых k1 опытах исходом было событие A1 , в последующих k 2 опытах исходом было событие A 2 , ... , в последних k m опытах исходом было событие A m . Вероятность P( B1 ) появления этой последовательности определяется по формуле умножения:
P( B1 )  p1k1 p2k2 ... pmkm .
(23.3)
40
Если в последовательности B1 поменять местами первый исход A1 и
(k1  1)  й исход A2 , то получим новую последовательность B2 , которая
также состоит из k1 событий вида A1 , ... , k m событий A m . Вероятность появления этой последовательности P( B2 )  P( B1 ) и определяется также формулой (23.3). В общем, каждая последовательность Bi , полученная из B1 путем перестановок между событиями A1 , ... , A m , появляется с одинаковой вероятностью P( Bi )  P( B1 ) . Событие C означает, что происходит событие
B1 или B2 , ... . Таким образом,
(23.4)
С   Bi .
i
Теперь вероятность Pn (k1,..., km ) по формуле сложения вероятностей для несовместных событий Bi определяется соотношением:


(23.5)
Pn k1 ,..., k m   P  Bi    PBi  ,
 i
 i
где суммирование по i ведется по всем последовательностям Bi . Число таких последовательностей - это число перестановок с повторениями из n по
k1 , k 2 , ... , k m :
n!
Cn (k1 ,..., k m ) 
.
(23.6)
k1!k m !
Поэтому из (23.5) следует
Pn (k1 ,..., k m ) 
n!
p1k1  pmkm .
k1! k m !
(23.7)
Эта формула называется полиномиальным распределением вероятности. Такое название объясняется тем, что вероятность (23.7) является общим членом
полинома ( p1  ...  pm ) n .
Отметим, что при m  2 , p1  p , p2  q , k1  k , k 2  n  k из формулы (23.7) следует распределение Бернулли: Pn (k , n  k )  Pn (k ) .
Рассмотрим пример вычисления вероятности выпадения чисел
1, 2, ... , 6 при шести бросаниях игральной кости. Здесь имеется последовательность из шести опытов и результат каждого опыта - одно из шести возможных событий. Таким образом, вероятность вычисления по формуле
(23.7) при n  6 , k1  k 2  ...  k6  1, p1  p2  ...  p6  1/ 6 :
P6 (1,...,1) 
6! 6 5 1


66 6 6 6
Этот же результат может быть получен с использованием формулы умножения вероятностей (11.1). Действительно, здесь первый множитель 6 / 6  1 41
это вероятность того, что в первом опыте исходом будет любое число из
шести возможных 1, ... , 6 (достоверное событие). Второй множитель 5 / 6 это условная вероятность того, что при втором бросании появится любое
число кроме того, что выпало в первом опыте и т.д.
23. Гипергеометрическое распределение
Пусть дана совокупность N объектов, среди которых M отмеченных
(например бракованных изделий, белых шаров, выигрышных билетов и т.п.).
Извлекается наугад n объектов. Определить вероятность Pn , m того, что среди них окажется m отмеченных.
Постановка задачи требует уточнения. Можно рассматривать два следующих варианта дополнительных условий. 1). Извлечение с возвращением.
При этом извлечение каждого объекта - это отдельный опыт, после которого
объект возвращается в исходную совокупность с последующим перемешиванием всех объектов. Таким образом, задача укладывается в вероятностную
схему Бернулли с вероятностью успеха в одном опыте p  M / N и числом
опытов n . Вероятность Pn , m можно вычислить по формуле Бернулли. 2). Извлечение без возвращения. Этот вариант приводит к новой задаче. Рассмотрим ее решение.
Поскольку порядок расположения извлекаемых объектов не имеет
значения, то число способов выбора n объектов из совокупности N различных объектов равно
C Nn 
N!
n!( N  n )!
(24.1)
и представляет собой общее число возможных исходов опыта. Из M отмеm
ченных объектов можно выбрать m объектов C M
способами, причем каждому такому способу соответствует C Nn mM способов добрать еще n  m объектов до общего числа n , выбирая их из N  M неотмеченных. Следовательно, число способов, благоприятствующих появлению m отмеченных
m n m
объектов среди n выбранных, равно CM
CN  M . Поэтому
Pn,m
C Mm C NnmM

.
C Nn
(24.2)
Формула (24.2) называется гипергеометрическим распределением вероятностей.
Рассмотрим пример вычисления вероятностей выигрыша в игре
«спортлото». В данном случае N  49 (число номеров на карточке), M  6 число выигрышных номеров (т.е. отмеченных). По условию игрок выбирает
42
n  6 номеров из N  49 номеров. При этом игрок может угадать m выигрышных номеров, 0  m  6 .
Вероятность этого события P6, m можно вычислить по формуле (24.2).
При m  6 получим вероятность максимального выигрыша
0
C66 C43
1
6 5
1
P6,6 




 7,15 10 8 .
6
6
C49
C49 49 48 44
Отметим, что результат в виде произведения чисел 6/49, ... , 1/44 может быть
получен из формулы умножения вероятностей.
25. Асимптотика Пуассона
25.1. Формула Бернулли приводит при больших n к очень громоздким
вычислениям. Поэтому важное значение имеют приближенные, но более
простые формулы, которые можно получить из биномиального распределения. Часто встречаются задачи, в которых рассматривается большое число
независимых опытов, причем вероятность успеха в каждом отдельном опыте
мала. В этом случае вероятности Pn (k ) того, что в серии из n опытов число
успешных опытов будет равно k могут быть вычислены по формуле Пуассона, которая получается как асимптотика биномиального распределения,
при условии, что число опытов n  1, а вероятность успеха в отдельном
опыте p  1, так что параметр
(25.1)
  np  n .
Рассмотрим вывод формулы Пуассона. Из (25.1) выразим p   / n и
подставим в формулу Бернулли, тогда
n!

Pn (k ) 
 
k!(n  k )!  n 
k
 
1  
 n
nk
n(n  1)(n  k  1)   

 
k!
n
k
 
1  
 n
nk

nk
k
1
k 1   
(25.2)
 [1(1  )(1 
)]1   .
k!
n
n  n
При n  1 наивероятнейшее число k 0 распределения Бернули равно
k0  np , а согласно (25.1) k0  n . Это означает, что Pn (k ) имеет существенные значения только при k  n , а с увеличением k вероятность
Pn (k )  0 . Поэтому, полагая в (25.2) k  n , получаем
k


(1  ) n (1  )  k .
k!
n
n
Разложим в ряд Тейлора функцию ln( 1  x ) при малом x :
Pn (k ) 
(25.3)
43
1
1
ln( 1  x )  x  x 2  x 3   .
2
3
(25.4)
Используем эту формулу для преобразования выражения


1 2
ln(1  )  n ln(1  )  n( 
 )   
 .
n
n
n 2 n2
2 n
n
 1 2
(25.5)
Оставляя здесь только первое слагаемое, получим
n
 

1    e .
 n
(25.6)
Аналогично в таком же приближении

ln( 1  )
n
k

1 2
 k (  
 )  0 .
n 2 n2
(25.7)
Подставим (25.6), (25.7) в формулу (25.3), тогда
Pn (k ) 
k
k!
e   ,   np , k  0, 1, ... , n .
(25.8)
Это равенство называется асимптотической формулой Пуассона или распределением Пуассона.
Отметим, что асимптотику (25.8) можно рассматривать в пределе при
n   и p   / n  0 , где  не зависит от n . Тогда
P(k )  lim Pn (k ) 
n 
k
k!
e   , k  0, 1, ... .
(25.9)
Распределение вероятностей (25.9) удовлетворяет условию


k
 P ( k )  e  k!  e   e   1 .

k 0
(25.10)
k 0
25.2. Определим наивероятнейшее число k 0 распределения Пуассона
(25.9). Очевидно, число k 0 удовлетворяет двум условиям:
P ( k0 )
P ( k0 )
 1,
 1.
P( k0  1)
P( k0  1)
(25.11)
Подставим формулу (25.9) в первое неравенство, тогда
k 0 (k0  1)!
 1.
k0! k 0 1
(25.12)
Отсюда следует k0   . Аналогично решение второго неравенства сводится
к условию k0    1. Таким образом, наивероятнейшее число k 0 распределения Пуассона определяется условием:
  1  k0   .
(25.13)
44
26. Поток случайных событий на оси времени
Пусть на оси времени точками отображаются моменты наступления
некоторого случайного события. При этом само событие интереса не представляет, важным является только момент его наступления. Такая вероятностная схема называется потоком случайных событий. Примерами потоков
являются: 1) последовательность телефонных вызовов, поступающих на
коммутатор; 2) последовательность моментов распада атомов радиоактивного вещества; 3) поток претензий по страхованию и т.п.
Пусть вероятность появления хотя бы одного события потока за интервал времени t равна
(26.1)
t   (t ) ,
где  - интенсивность потока, t - вероятность появления одного события
за интервал t и  (t ) - вероятность появления двух или большего числа
событий за интервал t . Пусть поток дополнительно удовлетворяет следующим трем условиям. 1).  - величина постоянная, не зависимая от времени t , тогда поток называется стационарным. 2). В соотношении (26.1)
t   (t ) , при этом поток называется ординарным или потоком редких
событий. 3). Поток называется потоком с независимыми значениями, если
события потока независимы.
Стационарный ординарный поток с независимыми значениями называется простейшим потоком. Определим вероятность P(k , t ) появления k
событий простейшего потока за интервал времени длительности t . Для этого
интервал длительности t разделим на малые интервалы длительности
t 
t
,
n
(26.2)
t
n
(26.3)
где n  1. Тогда в соответствии с (26.1)
p
- вероятность появления одного события потока за интервал длительности
t . Теперь имеем последовательность n независимых опытов, каждый из
которых заключается в просмотре очередного интервала длительности t .
Результатом каждого опыта может быть появление события потока (с вероятностью p ) в интервале t или непоявление события потока (с вероятностью 1  p ). Поэтому P(k , t ) вычисляется по формуле Бернулли, как вероятность k успехов в серии из n опытов, если вероятность успеха p в одном
опыте определяется соотношением (26.3). Но учитывая, что n  1 и p  1
можно применить асимптотику Пуассона с параметром  , который определяется формулой (26.3):
  pn   t .
(26.4)
45
Таким образом,
(  t )k   t
P( k , t ) 
e .
k!
(26.5)
Ординарный поток с независимыми значениями называется пуассоновским потоком, т.е. пуассоновский поток не обязательно должен быть стационарным. Если поток нестационарный, то его интенсивность    (t ) является функцией времени. При этом вероятность P(k , t ) - появления k событий потока на интервале [0, t ] вычисляется по следующей формуле, обобщающей (26.5):
k
t

   (t ) dt 
t
   ( t ) dt
 e0
.
P(k , t )   0
k!
(26.6)
27. Локальная теорема Муавра-Лапласа
Как отмечалось в п.25, при большом числе испытаний вычисления вероятностей Pn (k ) по формуле Бернулли оказываются весьма громоздкими. Поэтому важное значение имеют приближенные, но более простые формулы,
которые можно получить из биномиального распределения. Одной из таких
приближенных формул является асимптотика Пуассона, полученная при условии, что число опытов n  1 , а вероятность успеха p  1 .
Рассмотрим другую асимптотическую формулу биномиального распределения при условиях:
(27.1)
n  1 , k  1, m  n  k  1.
Эти условия эквивалентны неравенству 0  p  1, которое означает, что вероятность успеха p в одном опыте не может быть слишком малой величиной p  1, так что величиной p невозможно пренебречь по сравнению с
единицей, а также p не может быть слишком большой величиной, то есть
неверным является предположение p  1 . Биномиальное распределение вероятностей имеет вид:
Pn (k ) 
n!
p k q nk .
k! n  k!
(27.2)
Для представления факториала используем формулу Стирлинга
n! 2nn n e  n .
(27.3)
Эта формула является асимптотикой факториала, то есть получена при
большом n ( n  1 ). Отметим достаточно высокую точность формулы (27.3)
даже при небольших n . Так в наихудшем случае при n  1 (27.3) дает относительную ошибку всего 8%, а при n  100 эта ошибка уменьшается до
46
0,08%. Для произвольного n отношение точного значения n! к асимптотическому, вычисленному по формуле (27.3), находится в интервале
1
1
n!
 e 12n .
n n
2nn e
Соотношение (27.3) подставим в (27.2), тогда
2nn n e n p k q nk
nn k  m p k q m
1
Pn (k ) 


2
2k k k e k 2mm m e m
2km k k m m
k
m
n  np   nq 
    .
km k   m 
(27.4)
Введем обозначения:
xk 
k  np

, 
npq .
(27.5)
Из (22.7) при n  1 следует, что наивероятнейшее число k 0  np , поэтому
числитель величины x k - это уклонение числа успехов k от наивероятнейшего числа k 0 .
Из (27.5) и условий (27.1) следует
k  np  xk  1,
(27.6)
а также
(27.7)
m  n  k  nq  xk  1.
Условия (27.6) и (27.7) приводят к ограничению на скорость роста второго слагаемого xk в выражениях (27.6), (27.7), а именно при большом n
(27.8)
x k ~ n ,   1,
то есть величина x k пропорциональна n , где число   1. Скорость роста
не может быть большей, то есть параметр  , характеризующий скорость
роста не может принимать значения   1. В противном случае нарушаются
условия (27.6), (27.7). Действительно, при   1 величина xk растет с уве-
личением n быстрее, чем первое слагаемое в (27.6) и в (27.7), при этом условие (27.6) выполняется: k  1, а условие (27.7) нарушается, поскольку число m становится отрицательным с ростом n .
Рассмотрим в (27.4) выражение под корнем, в котором числа k , m
представим в виде (27.6), (27.7), тогда
x
x
km 1
 (np  xk )(nq  xk )  n( p  k )(q  k ) .
n n
n
n
(27.9)
При большом n вторые слагаемые в скобках (27.9) являются малыми по
сравнению с первыми, поскольку выполняется условие (27.8). Поэтому при
n  1 из (27.9) следует
km
 npq   2 .
n
(27.10)
47
Рассмотрим два последних множителя в формуле (27.4), причем удобно
перейти к логарифму этого выражения:
np k nq m
k
m
(27.11)
) ( )  k ln
 m ln .
k
m
np
nq
В (27.11) подставим выражения для k и m (27.6) и (27.7). Тогда
x
x
np nq
ln( ) k ( ) m  (np  xk ) ln(1  k )  (nq  xk ) ln(1  k ) . (27.12)
k
m
np
nq
При малом y справедливо разложение в ряд:
1
(27.13)
ln(1  y )  y  y 2   ( y 2 ) ,
2
где  ( y 2 ) - величина, малая по сравнению с y 2 . Используем разложение с
точностью до y 2 в соотношении (27.12). Тогда
x 1 x
x 1 x
np nq
ln( ) k ( ) m  (np  xk )[ k  ( k ) 2 ]  (nq  xk )[ k  ( k ) 2 ] .
k
m
np 2 np
nq 2 nq
ln(
(27.14)
Введем для краткости обозначение a  xk , тогда правая часть (27.14) преобразуется следующим образом:
1 a 2 a 2 1 a3
1 a 2 a 2 1 a3
a
 
a
 

2 np np 2 (np) 2
2 nq nq 2 (nq) 2
a2  1 1  a3  1
1 
a2
a3 q2  p2


      2  2  2   

.
2n  p q  2n  p
2npq 2n 2 p 2 q 2
q 
(27.15)
Здесь второе слагаемое зависит от n через a 3 n 2 . Согласно (27.8) x k ~ n ,
  1, поэтому
a 3 a 2 a a 2 n
.
(27.16)

~
n n n n
n2
При   1 и n  1 выражение n n  1, поэтому второе слагаемое в (27.15)
является малой величиной по сравнению с первым, которое равно  x k2 2 .
Таким образом, (27.14) при n  1 имеет вид
np nq
1
(27.17)
ln( ) k ( ) m   x k2 .
k
m
2
Полученные результаты (27.10) и (27.17) подставим в (27.4), тогда
Pn (k ) 
1
e
2 

xk2
2
,   npq , xk 
k  np
.
npq
(27.18)
Формула (27.18) называется локальной асимптотикой Муавра-Лапласа. Этот
же результат может быть сформулирован как следующая локальная теорема
Муавра-Лапласа.
48
Если вероятность успеха p в одном опыте удовлетворяет условию
0  p  1, тогда вероятность Pn (k ) того, что в последовательности n независимых испытаний успех наступит k раз удовлетворяет условию:
Pn (k )
lim
 1.
xk2
n 
(27.19)

1
e 2)
2 
(
28. Интегральная теорема Муавра-Лапласа
Вероятность Pn (k1  k  k 2 ) того, что в последовательности n независимых испытаний число k успехов находится в интервале [k1 , k 2 ] определяется выражением
Pn (k1  k  k 2 ) 
k2
 Pn (k ) .
(28.1)
k k1
Получим асимптотику выражения (28.1) при тех же условиях, которые были
определены для локальной теоремы Муавра-Лапласа. При этом Pn (k ) определяется формулой (27.18). Подставим (27.18) в (28.1), тогда
Pn (k1  k  k 2 ) 
k2

k k1
x2
x2
k2
 k
1
1  2k
2
e 
e xk ,
2 
k k1 2
где
xk  xk 1  xk 
k  1  np


k  np


Поскольку   npq , то xk  0 при n   . Пусть
a  xk1 
k1  np

, b  xk 2 
1

.
k 2  np

(28.2)
(28.3)
.
(28.4)
Тогда при n   сумма в выражении (28.2) переходит в интеграл:
x2
1 b 2
lim Pn (k1  k  k 2 ) 
e dx .
n
2 a
(28.5)
Этот результат носит название интегральная теорема Муавра-Лапласа. Соотношение (28.5) можно представить через функцию Лапласа:
1
Ф( z ) 
2
z
e

x2
2
dx .
(28.6)

49
Практическое применение интегральной теоремы основано на приближенном равенстве:
(28.7)
Pn (k1  k  k2 )  Φb  Φa  .
Для функции Ф(z ) составлены подробные таблицы, которые обычно используются при решении задач. Вместо функции Лапласа (28.6) может быть
использован интеграл ошибок:
x2
1 z 2
Ψ(z) 
e dx .
2 0
(28.8)
Функции Ф(z ) и Ψ(z) связаны соотношением:
Φ(z) 
1
 Ψ(z) .
2
Если в таблицах даны значения Ф(z ) только для z  0 , тогда значения Ф(z )
при z  0 можно вычислить, используя очевидное равенство
Φ(z)  Φ(  z)  1 .
Рассмотрим примеры вычисления вероятностей с использованием теоремы Муавра-Лапласа.
1. Какова вероятность того, что при 200 бросаниях монеты герб выпадет
100 раз?
Для вычисления вероятности можно использовать локальную асимптотику (27.18). Здесь n  200 , k  100 , p  0.5 , q  0.5 ,   npq 
 200  0.5  7.05 . Поскольку k  np  100  0.5  200  0 , то xk  0 . Подставим полученные результаты в (27.18), тогда:
Pn (k ) 
1
e
2 

x k2
2

1
 0.057 .
6.28  7.05
2. Какова вероятность того, что при 200 бросаниях герб выпадет в интервале от 80 до 120 раз?
Решать эту задачу удобно, используя интегральную асимптотику из
(28.7). Здесь n  200 , p  q  0.5 , k1  80 , k 2  120 . Необходимо найти
Pn (k1  k  k2 ) . Определим по формулам (28.4)
80  100
 2.84 ,

7.05
k  np 120  100
b 2

 2.84 .

7.05
Теперь по (28.7): Pn (k1  k  k2 )  Ф(2.84) - Ф(2.84)  0.994 .
a
k1  np

50
Глава 2
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
28. Случайные величины
Выше рассматривались эксперименты, результаты которых являются
случайными событиями. Однако часто возникает необходимость количественного представления результатов эксперимента в виде некоторой величины  , которая называется случайной величиной. Случайная величина является вторым (после случайного события) основным объектом изучения теории вероятностей и обеспечивает более общий способ описания опыта со
случайным исходом, чем совокупность случайных событий.
Рассматривая эксперименты со случайным исходом, мы уже имели дело со случайными величинами. Так, число успехов k в серии из n испытаний - пример случайной величины. Другими примерами случайных величин
являются: число вызовов на телефонной станции за единицу времени; время
ожидания очередного вызова; число частиц с заданной энергией в системах
частиц, рассматриваемых в статистической физике; средняя суточная температура в данной местности и т.д.
Случайная величина характерна тем, что невозможно точно предсказать ее значение, которое она примет, но с другой стороны, множество ее
возможных значений обычно известно. Так для числа успехов в последовательности из n испытаний это множество конечно, поскольку число успехов
может принимать значения 0, 1, ... , n . Множество значений случайной величины может совпадать с вещественной полуосью [0, ) , как в случае времени ожидания и т.д.
Рассмотрим примеры экспериментов со случайным исходом, для описания которых обычно применяются случайные события, и введем эквивалентное описание с помощью задания случайной величины.
1). Пусть результатом опыта может быть событие A или событие A .
Тогда этому эксперименту можно поставить в соответствие случайную величину  , которая принимает два значения, например, 0 и 1 с вероятностями
P(  0) и P(  1) , причем имеют место равенства: P(  0)  P( A ) и
P(  1)  P( A) . Таким образом, опыт характеризуется двумя исходами A
и A с вероятностями P( A) и P( A ) , или этот же опыт характеризуется случайной величиной  , принимающей два значения   0 и   1 с вероятностями P(  0)  P( A ) и P(  1)  P( A) .
2). Рассмотрим опыт с бросанием игральной кости. Здесь исходом
опыта может быть одно из событий A1 , ... , A 6 , где A i - выпадение грани с
51
номером i . Вероятности P( Ai )  1/ 6 , i  1, ... , 6 . Введем эквивалентное
описание этого опыта с помощью случайной величины  , которая может
принимать значения 1, 2, ... , 6 с вероятностями P(  i)  P( Ai )  1/ 6 ,
i  1, ... , 6 .
3). Последовательность n независимых испытаний характеризуется
полной группой несовместных событий A 0 , A1 , ... , A n , где A k - событие, состоящее в появлении k успехов в серии из n опытов; причем вероятность
события A k определяется формулой Бернулли, т. е. P( A k )  Pn (k ) . Здесь
можно ввести случайную величину  - число успехов, которая принимает
значения k  0, 1, ... , n с вероятностями Pn (k ) . Таким образом, последовательность независимых испытаний характеризуется случайными событиями
A k с их вероятностями P( A k ) или случайной величиной  с вероятностями
того, что  принимает значения k : P(  k )  Pn (k ) , k  0, 1, ... , n .
4). Однако не для всякого опыта со случайным исходом существует
столь простое соответствие между случайной величиной и совокупностью
случайных событий. К примеру, рассмотрим эксперимент, в котором точка
наугад бросается на отрезок (a, b] . Здесь естественно ввести случайную величину  - координату на отрезке (a, b] , в которую попадает точка. Таким
образом, можно говорить о случайном событии   c , где c - число из
(a, b] . Однако вероятность этого события P(  c)  0 . Можно поступить
иначе - отрезок (a, b] разбить на конечное число непересекающихся отрезков (ai , bi ] и рассматривать случайные события, состоящие в том, что случайная величина  принимает значения из интервала (ai , bi ] . Тогда вероятности P(  (ai , bi ]) - конечные величины. Однако и этот способ имеет существенный недостаток, поскольку отрезки (ai , bi ] выбираются произвольным образом. Для того, чтобы устранить этот недостаток рассматривают отрезки вида (a, x ] , где переменная x  (a, b] . Тогда соответствующая вероятность
(29.1)
P(  (a, x])  P(  x)
является функцией аргумента x . Это усложняет математическое описание
случайной величины, но при этом описание (29.1) становится единственным,
устраняется неоднозначность выбора отрезков (ai , bi ] .
Для каждого из рассмотренных примеров несложно определить вероятностное пространство (Ω,F,P) , где Ω - пространство элементарных событий, F -  - алгебра событий (подмножеств Ω ), P - вероятность, определенная для любого A F . Например, в последнем примере Ω  (a, b] , F  - алгебра всех отрезков (ai , bi ] , содержащихся в (a, b] .
52
Рассмотренные примеры приводят к следующему определению случайной величины.
Пусть (Ω,F,P) - вероятностное пространство. Случайной величиной 
называется однозначная действительная функция  ( ) , определенная на Ω ,
для которой множество элементарных событий вида { :  ( )  x} является
событием (т.е. принадлежит F ) для каждого действительного числа x .
Таким образом, в определении требуется, чтобы для каждого вещественного x множество { :  ( )  x}  F , и это условие гарантирует, что для
каждого x определена вероятность события { :  ( )  x}. Это событие
принято обозначать более краткой записью {  x} .
30. Функция распределения вероятностей
Функция
F ( x)  P(  x) ,    x   ,
(30.1)
называется функцией распределения вероятностей случайной величины  .
Функция F (x) иногда называется кратко – функция распределения, а
также – интегральным законом распределения вероятностей случайной величины  . Функция F (x) является полной характеристикой случайной величины, то есть представляет собой математическое описание всех свойств
случайной величины и более детального способа описания этих свойств не
существует.
Отметим следующую важную особенность определения (30.1). Часто
функцию F (x) определяют иначе:
(30.2)
F ( x)  P(  x) ,    x   .
Согласно (30.1) функция F (x) является непрерывной справа. Этот вопрос подробнее будет рассмотрен ниже. Если же использовать определение
(30.2), то F (x) - непрерывна слева, что является следствием применения
строгого неравенства в соотношении (30.2). Функции (30.1) и (30.2) представляют собой эквивалентные описания случайной величины, поскольку не
имеет значения каким определением пользоваться как при изучении теоретических вопросов, так и при решении задач. Для определенности в дальнейшем будем использовать только определение (30.1).
Рассмотрим пример построения графика функции F (x) . Пусть случайная величина  принимает значения x1 , x2 , x3 с вероятностями
P(  xi )  pi , i  1, 2, 3 , причем p1  p2  p3  1. Таким образом, другие
значения, кроме указанных, данная случайная величина принимает с нулевой
вероятностью: P(  x)  0 , для любого x  xi , i  1, 2, 3 . Или, как говорят,
других значений кроме x1 , x2 , x3 случайная величина  не может прини53
мать. Пусть, для определенности, x1  x2  x3 . Найдем значения функции
F (x) для x из интервалов: 1) x  x1 , 2) x  x1 , 3) x1  x  x2 , 4) x  x2 , 5)
x2  x  x3 , 6) x  x3 , 7) x  x3 . На первом интервале x  x1 , поэтому функция
распределения
2)
Если
x  x1 , то
F ( x)  P(  x)  0 .
F ( x1 )  P(  x1 )  P(  x1    x1 ) . Очевидно случайные события   x1
и   x несовместны, поэтому по формуле сложения вероятностей
F ( x 1 )  P(  x 1 )  P(  x 1 ) . По условию событие   x1 невозможное и
P(  x1 )  0 , а P(  x 1 )  p1 . Поэтому F ( x1 )  p1 . 3) Пусть x1  x  x2 ,
тогда F ( x)  P(  x)  P(  x 1 )  P( x 1    x) . Здесь первое слагаемое
P(  x 1 )  F ( x 1 )  p1 , а второе P( x 1    x)  0 , поскольку событие
x 1    x - невозможное. Таким образом, F ( x)  p1 для любого x , удовx1  x  x2 .
x  x2 ,
4)
Пусть
тогда
F ( x 2 )  P(  x2 )  P(  x2 )  P(  x2 )  p1  p2 . 5) Если x2  x  x3 , то
летворяющего
условию
6)
При
F ( x)  P(  x)  P(  x2 )  P( x2    x)  F ( x2 )  p1  p2 .
x  x3 имеем F ( x3 )  P(  x3 )  P(  x3 )  P(  x3 )  p1  p2  p3  1.
7) Если x  x3 , то F ( x)  P(  x)  P(  x3 )  P( x3    x)  1. Результаты вычислений представлены на рис. 30.1 графиком функции F (x) . В точках
разрыва x1 , x2 , x3 указана непрерывность функции справа.
Рис. 30.1. График функции распределения вероятностей
54
30. Основные свойства функции распределения вероятностей
Рассмотрим основные свойства функции распределения, следующие
непосредственно из определения:
(31.1)
F ( x)  P(  x) .
1. Введем обозначение: F ( )  lim F ( x ) . Тогда из определения
x  
следует F ( )  lim P(  x )  P(  )  0 . Здесь выражение   
x  
рассматривается как невозможное событие с нулевой вероятностью.
2. Пусть F ()  lim F ( x) . Тогда из определения функции F (x ) слеx 
дует F ()  lim P(  x )  P(  )  1 . Случайное событие    являx 
ется достоверным и его вероятность равна единице.
3. Вероятность P( A) случайного события A  ( x1    x2 ) , состоящего в том, что случайная величина  принимает значение из интервала
( x1 , x2 ] при x1  x2 определяется через функцию F (x ) следующим равенством
(31.2)
P( x1    x2 )  F ( x2 )  F ( x1 ) .
Для доказательства этого равенства рассмотрим соотношение
P(  x2 )  P(  x1  x1    x2 ) .
(31.3)
События   x1 и x1    x2 несовместны, поэтому по формуле сложения
вероятностей из (31.3) следует
P(  x2 )  P(  x1 )  P( x1    x2 ) ,
(31.4)
что и совпадает с формулой (31.2), поскольку P(  x2 )  F ( x2 ) и
P(  x1 )  F ( x1 ) .
4. Функция F (x ) является неубывающей. Для доказательства рассмотрим x1  x2 . При этом справедливо равенство (31.2). Его левая часть
P( x1    x2 )  0 , поскольку вероятность принимает значения из интервала
[0,1] . Поэтому и правая часть равенства (31.2) неотрицательна:
F ( x2 )  F ( x1 )  0 или F ( x1 )  F ( x2 ) . Это соотношение получено при условии x1  x2 , поэтому F (x ) - неубывающая функция.
5. Функция F (x ) непрерывна справа в каждой точке x , т.е.
(31.5)
F ( x)  lim F ( xn ) ,
xn  x
где x1 , x2 , ... - любая последовательность, стремящаяся к x справа, т.е.
x  ...  xn  ...  x2  x1 и lim xn  x .
n 
F ( xn ) в виде:
F ( xn )  F ( x1 )  [ F ( x1 )  F ( x2 )]  [ F ( x2 )  F ( x3 )]  ...  [ F ( xn 1 )  F ( xn )] 
Для
доказательства
представим
функцию
55
 P(  x1 )  {P( x2    x1 )  P( x3    x2 )  ...  P( xn    xn 1 )} .
(31.5)
Отсюда
lim F ( xn )  P(  x1 )  {P( x2    x1 )  P( x3    x2 )  ...}. (31.6)
xn  x
Теперь, на основании аксиомы счетной аддитивности вероятности, выражение в фигурных скобках равно
P( x    x1 ) , таким образом,
lim F ( xn )  P(  x1 )  P( x    x1 )  P(  x)  F ( x) , что и доказывает
xn  x
непрерывность справа функции F (x ) .
Таким образом, каждая функция распределения вероятностей обладает
свойствами 1-5. Верно и обратное утверждение: если F (x ) ,    x   ,
удовлетворяет условиям 1-5, то она может рассматриваться как функция распределения некоторой случайной величины.
32. Функция распределения вероятностей дискретной случайной
величины
Случайная величина  называется дискретной, если множество ее значений конечно или счетно.
Для полного вероятностного описания дискретной случайной величины  , принимающей значения x1 , x2 , ... , достаточно задать вероятности
pk  P(  xk ) , k  1, 2, ...
(32.1)
того, что случайная величина  принимает значение xk . Если заданы xk и
pk , k  1, 2, ... , тогда функцию распределения вероятностей F (x ) дискретной случайной величины  можно представить в виде:
F ( x )   pk .
(32.2)
k: xk  x
Здесь суммирование ведется по всем индексам k , удовлетворяющим условию: xk  x .
Функцию распределения вероятностей дискретной случайной величины иногда представляют через так называемую функцию единичного скачка
0, x  0,
u ( x)  
1, x  0.
(32.3)
При этом F (x ) принимает вид
n
F ( x )   pk u( x  xk ) ,
(32.4)
k 1
56
если случайная величина  принимает конечное множество значений
x1 , ... , xn , и верхний предел суммирования в (32.4) полагается равным
n   , если случайная величина принимает счетное множество значений.
Пример построения графика функций распределения вероятностей
дискретной случайной величины был рассмотрен в п.30.
33. Плотность распределения вероятностей
Пусть случайная величина  имеет дифференцируемую функцию распределению вероятностей F (x ) , тогда функция
f ( x) 
dF ( x )
dx
(33.1)
называется плотностью распределения вероятностей ( или плотностью вероятности) случайной величины  , а сама случайная величина  называется
непрерывной случайной величиной.
Рассмотрим основные свойства плотности вероятности.
1. Из определения производной следует равенство:
F ( x  x )  F ( x )
.
(33.2)
x  0
x
Согласно
свойствам
функции
имеет
место
равенство
F (x )
F ( x  x)  F ( x)  P( x    x  x) . Поэтому (33.2) принимает вид:
P( x    x  x)
.
(33.3)
f ( x)  lim
x 0
x
Это соотношение объясняет название функции f (x ) . Действительно, согласно (33.3) функция f (x ) - это вероятность P( x    x  x) , приходящаяся на единицу интервала x в точке x , поскольку x  0 . Таким обраf ( x )  lim
зом, плотность вероятности, определяемая соотношением (33.3), аналогична
определениям плотностей других величин, известных в физике, таких как
плотность тока, плотность вещества, плотность заряда и т.д.
2. Поскольку F (x) - неубывающая функция, то ее производная
F ( x)  f ( x) - функция неотрицательная:
f ( x)  0 .
(33.4)
3. Из (33.1) следует
y


y
y
dF ( x)
f ( x)dx  
dx  F ( x)  F ( y ) ,
dx


поскольку F ()  0 . Таким образом, справедливо равенство
57
y
F ( y) 
 f ( x)dx .
(33.5)

4. Поскольку F ()  1 , то из соотношения (33.5) следует

 f ( x)dx  1
(33.6)

- равенство, которое называется условием нормировки. Его левая часть
F ()  P(  ) - это вероятность достоверного события.
5. Пусть a  b , тогда из (33.1) следует
b
 f ( x)dx  F (b)  F (a)  P(a    b) .
(33.7)
a
Это соотношение имеет важное значение для приложений, поскольку позволяет вычислить вероятность P(a    b) через плотность вероятности f (x)
Рис. 33.1. Примеры функции распределения вероятностей и плотности
вероятности
или через функцию распределения вероятностей F (x) . Если положить
a  , b   , то из (33.7) следует соотношение (33.6). На рис. 33.1 представлены примеры графиков функции распределения и плотности вероятности. Отметим, что плотность распределения вероятностей может иметь несколько максимумов. Значение x 1 аргумента x , при котором плотность
f (x) имеет максимум называется модой распределения случайной величины
 . Если плотность f (x) имеет более одной моды, то f (x) называется многомодальной. Число x  , определяемое условием
58
x
 f ( x)dx  F ( x )   ,

(33.8)


называется  -квантиль распределения. При   0,5 условие F x 0,5  0,5
определяет число x 0,5 , которое называется медианой распределения.
34. Плотность распределения вероятностей дискретной случайной
величины
Пусть случайная величина  принимает значения x 1 , ... , x n с вероятностями pk  P(  xk ) , k  1, ... , n . Тогда ее функция распределения вероятностей
n
F ( x)   pk u ( x  xk ) ,
(34.1)
k 1
где u (x) - функция единичного скачка. Определить плотность вероятности
f (x) случайной величины  по ее функции распределения F (x) можно с
учетом равенства f ( x)  F ( x) . Однако при этом возникают математические
сложности, связанные с тем, что функция единичного скачка u (x) , входящая
в (34.1), имеет разрыв первого рода при x  0 . Поэтому в точке x  0 не существует производная u(x) функции u (x) .
Для преодоления этой сложности вводится  -функция. Функцию единичного скачка можно представить через  -функцию следующим равенством:
x
u ( x  xk )    ( z  xk )dz .
(34.2)

Тогда формально производная
du( x  xk )
  ( x  xk )
dx
(34.3)
и плотность вероятности дискретной случайной величины определяется из
соотношения (34.1) как производная функции F (x) :
n
f ( x)   pk  ( x  xk ) .
(34.4)
k 1
Функция (34.4) обладает всеми свойствами плотности вероятности.
Рассмотрим пример. Пусть дискретная случайная величина  принимает
значения x 1 , ... , x 5 с вероятностями p1 , ... , p5 , и пусть x 1  a  x 2 ,
x 4  b  x 5 . Тогда вероятность P(a    b) - того, что случайная величина
59
 примет значение из отрезка (a, b] может быть вычислена, исходя из общих свойств плотности по формуле:
b
b 5
a
a k 1
5
b
k 1
a
P(a    b)   f ( x)dx    pk  ( x  xk )dx   pk   ( x  xk )dx .
Здесь
1, k  2,3,4,
0, k  1, 5,
b
  ( x  xk )dx  
a
поскольку особая точка  - функции, определяемая условием x  xk  0 , находится внутри области интегрирования при k  2, 3, 4 , а при k  1, 5 особая точка находится вне области интегрирования. Таким образом,
P ( a    b) 
4
 pk  p2  p3  p4 .
k 2
Для функции (34.4) также выполняется условие нормировки:



5
f ( x)dx   pk  1.
1
Отметим, что в математике запись вида (34.4) считается некорректной
(неправильной), а запись (34.2) - корректной. Это обусловлено тем, что  функция при нулевом аргументе  (0)   , и говорят, что  (0) не существует. С другой стороны, в (34.2)  -функция содержится под интегралом. При
этом правая часть (34.2) - конечная величина для любого x , т.е. интеграл от
 -функции существует. Несмотря на это в физике, технике и других приложениях теории вероятностей часто используется представление плотности в
виде (34.4), которое, во-первых, позволяет получать верные результаты,
применяя свойства  - функции, и во-вторых, имеет очевидную физическую
интерпретацию.
35. Примеры плотностей и функций распределения вероятностей
35.1. Случайная величина  называется равномерно распределенной на
отрезке [a, b] , если ее плотность распределения вероятностей
c, x  [a, b],
f ( x)  
0, x  [a, b],
(35.1)
где c - число, определяемое из условия нормировки:
60

 f ( x)dx  1 .
(35.2)

Подстановка (35.1) в (35.2) приводит к равенству, решение которого относительно c имеет вид: c  1 (b  a) .
Функция распределения вероятностей F (x) равномерно распределенной случайной величины может быть найдена по формуле (33.5), определяющей F (x) через плотность:
x  a,
 0,
x  a
F ( x)   f ( y )dy 
, a  x  b,
b

a


x  b.
 1,
x
(35.3)
На рис. 35.1 представлены графики функций f (x) и F (x) равномерно
распределенной случайной величины.
Рис. 35.1. Графики функции и плотности распределения
равномерно распределенной случайной величины
35.2. Случайная величина  называется нормальной (или гауссовой),
если ее плотность распределения вероятностей:
f ( x) 
1
e
2 

( x a)2
2 2
,
(35.4)
где a ,  - числа, называемые параметрами функции f (x) . При x  a функция f (x) принимает свое максимальное значение: f (a)  1
2  . Пара61
метр  имеет смысл эффективной ширины плотности f (x) : значение плот-
e в точках a   меньше, чем максимальное f (a)
e . Кроме этой геометрической интерпретации параметры a ,  имеют и
ности f (a   )  f (a)
в
вероятностную трактовку, которая будет рассмотрена в последующем.
Из (35.4) следует выражение для функции распределения вероятностей
F ( x) 
x
 f ( y)dy 

1
2 
x  ( y a)
2
e 2


xa
2
dy 
1
2


e

z2
2 dz

 xa
 
 , (35.5)
  
где (x) - функция Лапласа. На рис. 35.2 представлены графики функций
f (x) и F (x) нормальной случайной величины. Для обозначения того, что
случайная величина  имеет нормальное распределение с параметрами a и
 2 часто используется запись  ~ N (a, 2 ) .
Рис. 35.2. Графики плотности и функции распределения
нормальной случайной величины
35.3. Случайная величина  имеет плотность распределения вероятностей Коши, если
f ( x) 
1
.
 [1  ( x  x 0 ) 2 ]
(35.6)
Этой плотности соответствует функция распределения
F ( x) 
x
dy
  [1  ( y  x

2
0
) ]

1

arctg( y  x0 )  
x
1

arctg
(
x

x
)

.
0
 
2 
(35.7)
35.4. Случайная величина  называется распределенной по экспоненциальному закону, если ее плотность распределения вероятностей имеет вид:
62
e  x ,
f ( x)  
0,
x  0,
x  0.
(35.8)
Определим ее функцию распределения вероятностей. При x  0 из (35.8)
следует F ( x)  0 . Если x  0 , то
x
x

F ( x) 

f ( x)dx   e  y dy  1  e  x .
(35.9)
0
35.5. Релеевское распределение вероятностей случайной величины определяется плотностью вида
x2


 x 2 2 , x  0,
f ( x)   2 e

 0,
x  0.

Этой
плотности соответствует
F ( x)  0 при x  0 и равная
x
y
F ( x)  
0
при x  0 .
e
2

y
(35.10)
функция
распределения
x2
2
2 2 dy

1
2
2

e

z
2 dz
 1 e

вероятностей
x2
2 2
(35.11)
0
35.6. Рассмотрим пример построения функции распределения и плотности дискретной случайной величины. Пусть случайная величина  - это число успехов в последовательности из n независимых испытаний. Тогда случайная величина  принимает значения   k , k  0, 1,  , n с вероятностью P(  k ) , которая определяется формулой Бернулли:
P(  k )  Pn (k ) 
n!
pk qnk ,
k!(n  k )!
(35.12)
где p , q - вероятности успеха и неуспеха в одном опыте. Таким образом,
функция распределения вероятностей случайной величины  имеет вид
F ( x) 
n
n!
 k! n  k! p k q n  k u ( x  k ) ,
k 0
(35.13)
где u (x) - функция единичного скачка. Отсюда плотность распределения:
f ( x) 
u
n!
 k! n  k ! p k q n  k  ( x  k ) ,
(35.14)
k 0
где  ( x)  u( x) - дельта-функция.
63
36. Сингулярные случайные величины
Кроме дискретных и непрерывных случайных величин существуют еще
так называемые сингулярные случайные величины. Выяснить различие
свойств этих трёх типов случайных величин поможет понятие точки роста
функции F (x) . По определению, точкой роста xk функции F (x) называется
значение её аргумента x  xk такое, что производная F ( xk )  0 . 1). Для непрерывной случайной величины множество точек роста образует континуум. Например, это отрезок a, b - для равномерно распределённой на a, b
случайной величины; положительная полуось 0,   - для экспоненциально
распределённой величины; вся вещественная ось – для нормальной случайной величины и т. д. При этом функция F (x) - непрерывна (растёт без скачков). 2). Для дискретной случайной величины множество точек роста конечно или счётно (множество нулевой меры). При этом F ( x)  0 почти всюду,
а рост функции F (x) обусловлен её скачками. 3). Для сингулярной случайной величины множество точек роста – это множество нулевой меры и
F ( x)  0 почти всюду (как у дискретной величины), но при этом F (x) растёт без скачков (как у непрерывной случайной величины). Функцию F (x) ,
удовлетворяющую этому условию, также называют сингулярной.
Примером сингулярной функции распределения является кривая Кантора (рис. 36.1), которая строится следующим образом. Полагается F ( x)  0
Рис. 36.1. Построение кривой Кантора
при x  0 и F ( x)  1 при x  1. Затем интервал [0,1) разбивается на три
равных части (сегмента) и для внутреннего сегмента 1/ 3  x  2 / 3 определяется значение F ( x)  1 / 2 - как полусумма уже определенных значений на
ближайших сегментах справа и слева. На данный момент функция F (x) определена для x  0 , ее значение F ( x)  0 , и для x  1 со значением
F ( x)  1. Полусумма этих значений равна 1 / 2 и определяет значение F (x)
на внутреннем сегменте 1/ 3  x  2 / 3 . Затем рассматриваются отрезки
64
[0, 1 / 3) и [2 / 3, 1) , каждый из них разбивается на три равных сегмента и
функция F (x) определяется на внутренних сегментах как полусумма бли
жайших справа и слева заданных значений функции F (x) . Таким образом,
при 1/ 9  x  2 / 9 функция F ( x)  0.25 - как полусумма чисел 0 и 0.5 .
Аналогично на интервале 7 / 9  x  8 / 9 функция F ( x)  0.75 . Затем функция F (x) определяется на интервале 1 / 27  x  2 / 27 , на котором
F ( x)  1 / 8 и т.д. Суммарная длина всех внутренних сегментов равна
k
1 2 4
1   2
1 1
 
 ...     
1 .
2
3 9 27
3 k 0  3 
3
1
3
Поэтому, рассматривая интервал [0,1) , говорят что функция F (x) - постоянная на множестве меры 1, на множестве меры 0 растет, но без скачков.
Известна теорема Лебега. Любая функция распределения F (x) может
быть единственным образом представлена в виде суммы трех компонент:
дискретной, непрерывной и сингулярной. Сингулярные распределения практически не встречаются в реальных задачах и поэтому исключаются из нашего дальнейшего изучения.
36. Математическое ожидание случайной величины
37.1. Функция распределения вероятностей или плотность вероятности
являются полными вероятностными характеристиками случайной величины.
Однако, во многих задачах такая полная характеристика случайной величины, с одной стороны, может быть неизвестна для исследователя, а с другой
стороны и не обязательна, достаточно ограничиться знанием некоторых параметров распределения вероятностей, т. е. некоторых чисел (или числовых
характеристик). Здесь уместна аналогия с геометрическим описанием сложной формы твердого тела, когда ограничиваются такими характеристиками
(числами) как длина, ширина, высота, объем, момент инерции и т. д., а детальное описание сложной формы этого тела не рассматривается. Числовыми характеристиками случайных величин чаще всего служат так называемые
моменты распределения, простейшим из которых является математическое
ожидание случайной величины.
Прежде чем вводить определение математического ожидания случайной величины, рассмотрим выражение среднего арифметического результатов измерения дискретной случайной величины. Пусть случайная величина
 может принимать значения x 1 , ... , x n соответственно с вероятностями
p1 , ... , p n . Результат измерения случайной величины  в каждом опыте 65
это одно из чисел x 1 , ... , x n . Пусть выполнено N опытов, и среди них в k 1
опытах случайная величина  принимала значение x 1 , в k 2 опытах - значение x 2 , ... , в k n опытах - значение x n . Очевидно, k 1  k 2  ...  k n  N полное число опытов. Пусть x - среднее арифметическое результатов измерения случайной величины  в N опытах, тогда
x
n
n
ki
1 n
x
k

x

 i i  i N  x i (  x i ) ,
N i 1
i 1
i 1
(37.1)
где  (  x i )  k i / N - частота появления события   x i при измерении
случайной величины  в N опытах. С увеличением числа опытов N величина  (  x i ) приближается к числу pi  P(  x i ) . Поэтому для того,
чтобы определить теоретический аналог среднего арифметического x достаточно в формуле (37.1) частоту  (  x i ) заменить на вероятность pi . Это
приводит к следующему определению.
Математическим ожиданием (средним, статистическим средним) дискретной случайной величины  , принимающей значения x 1 , ... , x n с вероятностями p1 , ... , p n , называется число
n
M   x i pi .
(37.2)
i 1
Если множество значений дискретной случайной величины счетно:
x 1 , x 2 , ..., то в (37.2) полагается n   .
Пусть y   (x) - однозначная функция одной переменной,  - дискретная случайная величина, принимающая значения x 1 , ... , x n с вероятностями p1 , ... , p n . Тогда    ( ) - дискретная случайная величина, принимающая значения  ( x 1 ), ... ,  ( x n ) с вероятностями p1 , ... , p n . Поэтому из
определения (37.2) математического ожидания следует
n
M  M ( )   ( xi ) pi
(37.3)
i 1
- выражение, определяющее математическое ожидание функции  ( ) .
Математическим ожиданием непрерывной случайной величины  с
плотностью распределения вероятностей f (x) называется число
M 

 x f ( x)dx .
(37.4)

Аналогично определяется математическое ожидание случайной величины
 ( ) - как число
66

M ( )    ( x) f ( x)dx ,
(37.5)

где  - однозначная функция одной переменной, f (x) - плотность распределения вероятностей случайной величины  .
37.2. Определения (37.2) и (37.4) согласуются друг с другом. Соотношение (37.4) можно представить приближенно в виде интегральной суммы:
(37.6)
M   x i f ( x i )x ,
i


где x - малая величина. Тогда f ( x i )x  P x i    x i  x  pi , и, следовательно, (37.4) формально представимо суммой (37.2).
Если  - дискретная величина, принимающая значения x 1 , ... , x n с
вероятностями p1 , ... , p n , то ее плотность вероятности f (x) можно представить через  - функцию:
n
f ( x)   pi ( x  xi ) .
(37.7)
i 1
Подставим (37.7) в (37.4), тогда
M 

n
n

pi ( x  xi )dx  pi 
 x
i 1
i 1

n

x ( x  xi )dx   pi xi ,
(37.8)
i 1
что совпадает с (37.2). Таким образом, определение (37.4) математического
ожидания можно использовать как универсальное определение как для непрерывных, так и для дискретных случайных величин. Однако вычислять
математическое ожидание дискретной случайной величины, конечно, удобнее по формуле (37.2).
37.3. Выражение (37.4) можно представить через функцию распределения F (x) случайной величины  . Для этого выполним следующие преобразования: M 

0



0
 x f ( x)dx   xdF( x)   xd [1  F ( x)] . Далее используем
для вычисления интеграла способ «по частям»:
0

M  xF ( x)    F ( x)dx  x1  F ( x) 0   1  F ( x) dx .
0


Пусть
функция
F (x)
lim x [1  F ( x)]  0 , тогда
0
удовлетворяет
условиям:
lim xF ( x)  0 ,
x  
x 
67

0
M   [1  F ( x)] dx   F ( x)dx .
(37.9)

0
Это выражение позволяет вычислять математическое ожидание M через
функцию распределения F (x) .
38. Примеры вычисления математического ожидания случайной
величины
38.1. Пусть нормальная случайная величина  имеет плотность распределения вероятностей (35.4). Вычислим ее математическое ожидание.
Для этого подставим выражение (35.4) в формулу (37.4), тогда



( x a)2
x
2 2 dx .
e
(38.1)

 2 


Вместо переменной интегрирования x введем новую переменную
z  ( x  a) /  , dx  dz , тогда
M 
M 

z  a
e
2





xf ( x)dx 
z2
2 dz

2


 ze

z2
2 dz 

a
2
2
 z
e 2

dz .
(38.2)

Функция z exp(  z 2 / 2) является нечетной, поэтому интеграл в первом слагаемом (38.2) равен нулю. Во втором слагаемом
1
2
2
 z
e 2

dz  1 .
(38.3)

Это равенство представляет собой условие нормировки для гауссовой плотности распределения вероятностей (35.4) с параметрами: a  0 и   1. Таким образом, из (38.2) следует M  a - среднее гауссовой случайной величины является параметром плотности распределения вероятностей (35.4). В
данном случае M имеет геометрическую интерпретацию (рис. 35.2) как
значение аргумента x  a , при котором плотность (35.4) принимает максимальное значение. В дальнейшем символ a  M используется также и для
обозначения среднего любой случайной величины  .
38.2. Вычислим среднее случайной величины  , распределенной по
экспоненциальному закону (35.8):

M   xe
0
x
dx 
1
ze

z
dz .
(38.4)
0
Далее используем способ интегрирования «по частям»:
68
M  
1
z
 zde
0
1  z   z 
1
   ze
  e dz   e  z


0 0



0
1

.
(38.5)
38.3. Пусть  - число успехов в серии из n независимых опытов. Тогда
вероятности P(  k ) , k  0, 1, ... , n определяются формулой Бернулли. Поэтому
M 
n
n
n
k 0
k 0
k 1
 kP(  k )   kPn (k )   kPn (k ) .
(38.6)
Последнее равенство справедливо, поскольку kPn (k ) |k 0  0 . Подставим в
(38.6) формулу Бернулли, тогда:
n
n!
(n  1)!
(38.7)
p k q n  k  np
p k 1q n  k .
k
!
(
n

k
)!
(
k

1
)!
(
n

k
)!
k 1
k 1
Введем новый индекс суммирования m  k  1, тогда
n 1
n 1
(n  1)!
(38.8)
M  np 
p m q n 1 m  np  Pn 1 (m) .
m
!
(
n

1

m
)!
m0
m0
Поскольку Pn1 (m) - вероятность m успехов в серии из n  1 опытов, то
n
M   k
n 1
 Pn 1 (m)  1 - как вероятность достоверного события, состоящего в появ-
m0
лении любого числа успехов в интервале [0, n  1] . Поэтому из (38.8) следует
M  np .
(38.9)
38.4. Однако не у всякой случайной величины существует ее математическое ожидание. Причиной этого является расходимость интеграла (37.4),
что в свою очередь, обусловлено малой скоростью сходимости к нулю плотности f (x) при x   , так что для функции xf (x) не существует интеграл
вида (37.4). Для примера рассмотрим вычисление математического ожидания случайной величины  , распределенной по закону Коши:



xdx
zdz
dz
1  zdz
M  
 
 x0 
 
 x0 .
2
2
2
2


[
1

(
x

x
)
]

(
1

z
)

(
1

z
)
1

z
0




(38.10)
Здесь несобственный интеграл расходится, так как

zdz
1  dz 2
1
2



 1  z 2  1  z 2 2  1  z 2 2 ln(1  z )
0
0
0
z dz


0
 .
Следовательно, случайная величина  не имеет математического ожидания.
Однако, если интеграл в (38.10) понимать в смысле главного значения Коши,
то
69
z

1
zdz
zdz

lim
 1  z 2 z1   1  z 2  0 ,

 z1
поскольку функция z /(1  z 2 ) является нечетной. Следовательно, при этом
(38.11)
M  x0 .
39. Свойства математического ожидания
Основные свойства математического ожидания следуют непосредственно из свойств интеграла в определении (37.5):

M ( )    ( x) f ( x)dx .
(39.1)

1. Пусть  (x) представляет собой постоянную  (x)   , тогда из
(39.1) следует
M  

 f ( x)dx   ,
(39.2)

поскольку для плотности f (x) выполняется условие нормировки (33.6). Таким образом, математическое ожидание постоянной равно самой постоянной.
2. Пусть  ( x)   ( x) , где  - число и  (x) - однозначная функция
одной переменной, тогда из (39.1) следует


M ( )    ( x) f ( x)dx    ( x) f ( x)dx  M ( ) .

(39.3)

Таким образом, постоянный множитель  можно вынести за знак математического ожидания.
3. Пусть  ( x)   ( x)   ( x) , где  ,  - числа,  ,  - однозначные
функции одной переменной, тогда из (39.1) следует

M[ ( )   ( )]   [ ( x)   ( x)] f ( x)dx 



    ( x) f ( x)dx     ( x) f ( x)dx  M ( )  M ( ) .

(39.4)

70
Из этого равенства при   0 следует свойство 2, а при   0 и
 ( x)  1 - свойство 1.
Математическое ожидание M - это число, которое ставится в соответствие случайной величине  . Поэтому M можно рассматривать как
операцию (оператор, функцию) над случайной величиной  . В соответствии
со свойствами 1-3 оператор математического ожидания является линейным
оператором.
40. Дисперсия случайной величины
40.1. Дисперсией случайной величины  называется число
var   M(  M )2 .
(40.1)
Дисперсия является удобной характеристикой разброса значений  около ее
среднего значения M . Часто используется для обозначения дисперсии
символ  2  var  . Тогда   var  называется среднеквадратическим уклонением случайной величины  . Если дисперсия имеет размерность квадрата случайной величины, то размерность  совпадает с размерностью случайной величины. Из (40.1) в соответствии со свойствами математического
ожидания следует
var   M[ 2  2M  (M )2 ]  M 2  2(M )(M )  (M )2 . (40.2)
Таким образом,
var   M 2  (M )2 .
(40.3)
Если  дискретная случайная величина со значениями x1 , ... , x n и соответствующими вероятностями p1 , ... , p n , то ее дисперсия
n
var    ( x i  M ) 2 pi .
(40.4)
i 1
Если  - непрерывная случайная величина и f (x) - ее плотность вероятности, то

var    ( x  M ) 2 f ( x)dx .
(40.5)

40.2. Рассмотрим примеры. Вычислим дисперсию нормальной случайной величины. Ее плотность f (x) определяется формулой (35.4). Подставим
f (x) в (40.5), тогда
71
var  

 ( x  a)
1
e
2 
2


( x a)2
2 2
dx .
(40.6)
Пусть z  ( x  a) /  , тогда dx  dz ,
z2

(z ) 2  2
2
var   
e dz 
2

2



 ze
z2
2 d

2 
2  z
 
ze 2

2 


2

 z
e 2



z2
2

2
2


dz .




 zde
z2
2


(40.7)
Подстановка пределов в (40.7) дает нулевые результаты, а интеграл равен
2 . Поэтому
(40.8)
var    2 .
Таким образом, параметр  2 в плотности нормальной случайной величины
является дисперсией этой величины, а среднеквадратичное уклонение  определяет эффективную ширину плотности f (x) : значение f (a   ) в e
раз меньше значения f (a) - в точке максимума.
40.3. В некоторых случаях для вычисления дисперсии удобно использовать формулу (40.3). Например, для экспоненциально распределенной случайной величины  плотность имеет вид (35.8), а ее среднее M  1 /  . Вычислим

M   x e
2
2
 x
dx 
0

1

2
z
2 z
e dz .
(40.9)
0
Интеграл в (40.9) вычисляется по частям:



 2 z   z

z
z
 z e dz    z de   z e 0   e 2 zdz  2  e zdz  2  zde 
0
0

0

0
0





 2 z e  z   e  z dz  2e  z  2 .
0
0

0

Таким образом, M 2  2 / 2 . Полученный результат подставим в формулу
2 z

2
z
(40.3), тогда
var  
2

2

1

2

1
2
.
40.10)
40.4. Вычислим дисперсию числа успехов в вероятностной схеме Бернулли, как пример вычисления дисперсии дискретной случайной величины.
72
При этом также используем формулу (40.3), т. е. на первом шаге вычислим
среднее от квадрата M 2 , а затем, используя ранее полученный результат,
дисперсию по формуле (40.3). Итак, среднее от квадрата
M 
2
n
k
2
k 0
n
Pn (k )   k 2 Pn (k ) ,
(40.11)
k 1
где Pn (k ) - распределение вероятностей Бернулли, поэтому
n
n
n!
n!
(40.12)
pk qnk   k
pk qnk .
k
!
(
n

k
)!
(
k

1
)!
(
n

k
)!
k 1
k 1
Пусть m  k  1, тогда k  m  1 и
n 1
(n  1)!n
2
M   (m  1)
p m1 q n m1 
m!(n  1  m)!
m 0
n 1
n 1
 n 1

(n  1)!
m n  m 1
 np  (m  1)
p q
 np  mPn 1 (m)   Pn 1 (m) .(40.13)
m!(n  1  m)!
m  0
m0

m0
Здесь Pn1 (m) - вероятность появления m успехов в последовательности из
M 2   k 2
n  1 опытов. Поэтому
n 1
 Pn 1 (m)  1
как вероятность достоверного собы-
m0
тия, состоящего в том, что число успехов будет любым в интервале от m  0
n 1
до m  n  1. Первая сумма в (40.13)
 mPn 1 (m)  (n  1) p как математиче-
m0
ское ожидание числа успехов в последовательности из n  1 опытов в соответствии с формулой (38.9). Подставим эти результаты в (40.13), тогда
(40.14)
M 2  np[(n  1) p  1]  n2 p 2  np2  np .
Теперь
var   M 2  (M )2  np2  np  np(1  p)  npq . (40.15)
41. Моменты случайной величины
41.1. Математическое ожидание и дисперсия являются примерами моментов случайной величины, которые определяются следующим образом.
Начальным моментом порядка k непрерывной случайной величины с
плотностью распределения вероятностей f (x) называется число
mk  M 
k

x
k
f ( x)dx .
(41.1)

Порядок момента k - это неотрицательное целое число, т.е. k  0, 1, 2, ... .
73
Начальным моментом порядка k дискретной случайной величины  ,
принимающей значения x i с вероятностями pi  P(  x i ) , i  1, 2, ... , называется число

mk  M   x ik pi .
k
(41.2)
i 1
Определение (41.1) можно рассматривать как универсальное определение для непрерывных и для дискретных случайных величин. В последнем
случае плотность вероятности выражается через  - функцию согласно формуле (34.4). Однако на практике для вычисления момента дискретной величины удобнее использовать соотношение (41.2).
Центральным моментом порядка k случайной величины  называется
число
(41.3)
 k  M(  M ) k .
Для непрерывной случайной величины  с плотностью вероятности f (x)
центральный момент порядка k имеет вид:

 k  M(  M )   ( x  M ) k f ( x)dx .
k
(41.4)

41.2. Из всего множества начальных и центральных моментов обычно
используются моменты невысоких порядков, до k  4 включительно, как
более простые характеристики случайной величины. Применение моментов
высоких порядков, k  4 , ограничено. Во-первых, при больших k моменты
могут не существовать, поскольку могут расходиться интегралы (41.1),
(41.4). И во-вторых, интерпретация моментов высших порядков затруднена.
Рассмотрим начальные моменты, начиная с k  0 . При этом из (41.1)
следует
M 
0

 f ( x)dx  1.
(41.5)

Итак, начальный момент нулевого порядка M 0  1 для любой случайной
величины, следовательно, этот момент не отражает каких-либо свойств случайной величины, т. е. не является ее характеристикой. При k  1 из (41.1)
следует, что момент первого порядка - это математическое ожидание случайной величины. Разные случайные величины могут иметь разные математические ожидания, и поэтому число M является характеристикой случайной величины, в частности, число M указывает положение центра её плотности вероятности.
Момент второго порядка
74
M 
2

x
2
f ( x)dx
(41.6)

- это среднее квадрата  2 случайной величины, и т.д.
Рассмотрим аналогично центральные моменты (41.4). При k  0 получаем M(  M )0  1 - одинаковый результат для любой случайной величины. Поэтому данный момент не является характеристикой случайной величины, поскольку не отражает каких-либо ее свойств. При k  1
M(  M )  M  M(M )  M  M  0 . Этот результат также одинаков
для любой случайной величины, поэтому центральный момент первого порядка не является характеристикой случайной величины. При k  2 из (41.4)
получаем дисперсию

M(  M ) 
2
 ( x  M )
2
f ( x)dx   2
(41.7)

- важнейшую числовую характеристику случайной величины и т.д.
Моменты третьего и четвертого порядков будут рассмотрены в дальнейшем.
41. Неравенство Чебышева
42.1. Пусть случайная величина  имеет конечный момент второго порядка M 2 , тогда
P(   a   ) 
M(  a) 2
2
,
(42.1)
где a - любое действительное число и   0 . Соотношение (42.1) называют
неравенством Чебышева.
Сначала рассмотрим доказательство неравенства, следующего из (42.1)
при a  0 :
P(    ) 
M 2
2
.
(42.2)
Доказательство неравенства Чебышева удобнее рассматривать отдельно для
непрерывной и для дискретной случайных величин. При этом доказательства
являются относительно простыми, а ход доказательств вполне очевиден. В то
время как универсальное доказательство, справедливое и для непрерывной и
для дискретной случайных величин, оказывается значительно более сложным. Рассмотрим непрерывную случайную величину  с плотностью вероятности f (x) . Тогда в соотношении P(    )  P(     ) 
 P(    ) первое слагаемое можно представить в виде
75
P(     )  P(     ) 

 f ( x)dx ,

поэтому
P(    ) 





f ( x)dx   f ( x)dx 



x
2
 2
x2
 2


f ( x)dx  
2

M 2
f ( x)dx 
2

x2
f ( x)dx 
.
Здесь использовано неравенство 1  x 2 /  2 - справедливое на области интегрирования. Полученное выражение совпадает с неравенством (42.2). Аналогично выполняется доказательство для дискретной случайной величины.
Теперь случайную величину  в (42.2) можно заменить на случайную
величину   a , где a - любое действительное число, тогда из (42.2) следует
неравенство Чебышева (42.1). Это неравенство определяет границу сверху
для вероятности P(   a   ) или, как говорят, для вероятности больших
уклонений   a случайной величины  от числа a . Большие уклонения
понимаются в смысле их превышения над заданным числом  .
42.2. Пусть a  M , тогда неравенство Чебышева (42.1) имеет вид
P(   a   ) 
var 
2
.
(42.3)
Теперь минимальное уклонение  можно измерять в единицах среднеквадратического уклонения var  случайной величины  , т. е. положить
  k var  ,
(42.4)
где k - коэффициент пропорциональности. Подставим (42.4) в (42.3), тогда
P(   a  k var  ) 
1
.
k2
(42.5)
Если правая часть k 2  1, то (42.5) не представляет какого-либо ограничения на случайную величину, поскольку вероятность P не может выходить за
пределы интервала [0,1] . Поэтому коэффициент k в (42.5) имеет смысл рассматривать только большим: k  1. Отсюда очевидна интерпретация неравенства Чебышева как неравенства, определяющего границу сверху вероятности больших уклонений.
Пусть  - непрерывная случайная величина с плотностью вероятности
f (x) , тогда неравенству Чебышева (42.1) можно дать простую геометрическую интерпретацию, представленную на рис. 42.1.
76
Рис. 42.1. Иллюстрация к неравенству Чебышева
Здесь указаны числа a , a   и a   , заштрихованная площадь - это вероятность
P(   a   ) 
a 


f ( x)dx 

 f ( x)dx .
a 
43. Коэффициент асимметрии
Среднее и дисперсия случайной величины  - это числа, которые определяют такие свойства ее плотности вероятности f (x) как положение
центра и эффективную ширину. Очевидно, эти два числа не отражают всех
особенностей плотности, в частности, степень симметрии или асимметрии
плотности относительно математического ожидания - это новая характеристика, которую можно определить как некоторое число.
Для любой симметричной плотности f (x) центральные моменты нечетного порядка равны нулю (доказательство приводится ниже). Поэтому
простейший среди них - центральный момент третьего порядка - может характеризовать асимметрию плотности распределения:

M(  a)   ( x  a) 3 f ( x)dx   3 ,
3
(43.1)

где a  M - математическое ожидание случайной величины  .
Асимметрию принято характеризовать коэффициентом асимметрии
77
k
3
 23
,
(43.2)
где  2  M(  a) 2 - дисперсия случайной величины  .
Рассмотрим доказательство утверждения о том, что для симметричной
плотности f (x) центральные моменты нечетных порядков равны нулю.
1). Пусть f (x) - симметричная функция относительно некоторой точки x 0 , тогда

 ( x  x 0 ) f ( x)dx  0 ,
(43.3)

поскольку x  x 0 - антисимметричная функция относительно x 0 . Отсюда
следует:
x0 

 xf ( x)dx  M .
(43.4)

Таким образом, если f (x) - симметричная функция относительно точки x 0 ,
то x 0  M  a - точка симметрии плотности вероятности – это математическое ожидание случайной величины.
2). Пусть n - нечетное целое и f (x) - симметричная функция, тогда

M(  a)   ( x  a) n f ( x)dx  0 , поскольку f (x) - симметрична относиn

тельно математического ожидания a , и ( x  a) n - антисимметрична относительно a .
Выражение (43.2) для k можно представить через начальные моменты
m i  M i , i  1,2,... . Из определения следует:
 2  M(  a) 2  M[ 2  2a  a 2 ]  M 2  a 2  m 2  m 12 .
Аналогично центральный момент третьего порядка
M(  a) 3  M[ 3  3 2 a  3a 2  a 3 ]  m 3  3m 2 a  3m 1a 2  a 3 
 m 3  3m 2 m1  2m31 .
Пусть случайная величина  имеет плотность вероятности:
x2


 x 2 2 , x  0
,
f ( x)   2 e

 0,
x0

(43.6)
78
(распределение Рэлея), тогда вычисление m 1 , m 2 , m 3 и подстановка в (43.2)
приводит к результату k  0,63 .
Плотность вероятности с k  0 имеет более тяжелый «хвост» в области больших положительных аргументов, и наоборот, при k  0 более тяжелым является «хвост» плотности в области отрицательных аргументов.
44. Коэффициент эксцесса
Характеристикой степени сглаженности вершины плотности вероятности является число
 
4
 3,
 22
(44.1)
называемое коэффициентом эксцесса.
Определим  для нормального распределения. Поскольку  2 
 var    2 , то осталось вычислить
1
4 
2 
Пусть z  ( x  a) /  , тогда

4
 ( x  a) e

( x a )2
2 2
dx .

4
4 
2

z
4
e

z2
2
dz .

Вычислим интеграл способом «по частям»:


z2

z 4e 2 dz



z2

z 3de 2


z2


  z 3 e 2



2
 z
3 e 2





z dz  3 2 .


2
Таким образом,  4  3 4 . Подставим полученные результаты в (44.1), тогда
  0.
Если   0 , то плотность вероятности имеет более высокую и более
острую вершину, чем кривая плотности нормального распределения с той же
дисперсией. Если   0 , то вершина плотности распределения более плоская, чем у нормального распределения.
79
45. Среднеквадратическая ошибка
Пусть  - неизвестный параметр (число), характеризующий состояние
системы. Для определения параметра  проводится опыт (измерение). Ситуация осложняется тем, что в процессе измерения на величину  накладывается помеха. Таким образом, измерению подлежит не число  , а некоторая
случайная величина 0 , значения которой в каждом опыте точно предсказать
невозможно.
Случайную величину 0 будем называть оценкой параметра  . Тогда
0   - ошибка, также случайная величина. Характеристикой качества
оценки 0 является ее среднеквадратическая ошибка
 2  M(0   )2 .
(45.1)
Среднеквадратической ошибкой называют также и величину  . Преобразуем
выражение (45.1):
 2  M(0  M0  M0   ) 2  M(0  M0 ) 2 
(45.2)
 2M(0  M0 )(M0   )  M(M0   ) .
Величина M0   - детерминированная, поэтому ее можно вынести за оператор M , следовательно, второе слагаемое
M(0  M0 )(M0   )  (M0   )(M0  M(M0 ))  0
2
Первое слагаемое (45.2) по определению
M(0  M0 )2  var 0
- дисперсия случайной величины 0 . Введем обозначение
b  M0   .
(45.3)
Число b называется смещением оценки 0 . Таким образом, из (45.2) следует
 2  var 0  b 2
(45.4)
- среднеквадратическая ошибка является суммой двух неотрицательных слагаемых. Первое из них – дисперсия, или случайная ошибка, а второе – квадрат смещения – систематическая ошибка. Если b  0 , то оценка 0 называется несмещенной.
Пусть случайная величина 0 - имеет плотность вероятности f (x) .
Тогда процедуре измерения можно дать геометрическую интерпретацию. На
рис. 45.1 представлен график плотности вероятности оценки и показана систематическая ошибка | b | , и случайная ошибка var 0 .
Очевидно, идеальная процедура измерения (с нулевой среднеквадратической ошибкой) – это процедура, для которой плотность f (x) близка к
80
Рис. 45.1. Плотность вероятности оценки,
случайная и систематическая части ошибки
функции  ( x   ) . Тогда | b | 0 , точка M0   , а эффективная ширина
var 0  0 .
46. Характеристическая функция
Характеристической функцией случайной величины  называется
функция
(46.1)
Θ( )  Mei ,       .
Пусть  - непрерывная случайная величина с плотностью вероятности
f (x) , тогда ее характеристическая функция

Θ( )   eix f ( x)dx
(46.2)

- является интегральным преобразованием, которое называется преобразованием Фурье от плотности вероятности f (x) . Известно, что преобразование
Фурье является взаимно однозначным. Поэтому существует обратное преобразование, которое определяет плотность вероятности f (x) через характеристическую функцию Θ( ) . Это преобразование имеет вид
1
f ( x) 
2

e
 ix
Θ( )d .
(46.3)

Соотношения (46.2) и (46.3) образуют пару преобразований Фурье.
81
Для дискретной случайной величины  , принимающей значения
x 1 , ... , x n с вероятностями p1 , ... , p n характеристическая функция, как следует из (46.1), имеет вид
n
Θ( )   eixk pk .
(46.4)
k 1
Характеристическая функция является полной вероятностной характеристикой случайной величины, также как и функция распределения F (x)
или плотность вероятности f (x) . Смысл введения характеристической
функции в теории вероятностей состоит в том, что имеется класс задач, которые относительно просто решаются, если использовать преобразование
Фурье от плотности вероятности. Роль этого преобразования оказалась столь
велика, что в теории появился специальный термин «характеристическая
функция» для обозначения этого преобразования.
47. Основные свойства характеристической функции
Рассмотрим свойства функции Θ( ) для непрерывной случайной величины. Для дискретной величины эти свойства доказываются аналогично.
1). В общем случае характеристическая функция (46.2) является комплексной. Ее вещественная часть

 f ( x) cosxdx
Re Θ( ) 
(47.1)

- является cos -преобразованием от плотности вероятности, и мнимая часть
Im Θ( ) 

 f ( x) sin xdx
(47.2)

- является sin -преобразованием от f (x) . Если f (x) - четная функция, то
Im Θ( )  0 , тогда характеристическая функция Θ( )  Re Θ( ) и является
вещественной и четной функцией.
2). Θ(0)  1 . Это свойство следует из (46.2) и условия нормировки для
плотности:
Θ(0) 

 f ( x)dx  1.
(47.3)

3). Θ( )  Θ(0) - функция Θ( ) имеет глобальный максимум в точке
  0 . Доказательство следует из (46.2):
82
Θ( ) 

e
ix
f(x)dx 


e
ix

e
f ( x) dx 

ix

f ( x) dx 

 f ( x)dx  Θ(0) .

4). ( )   ( ) .
5). Характеристическая функция непрерывна. Для доказательства рассмотрим приращение  аргумента функции ( ) , такое, что    , где  положительное число. Тогда имеет место следующая цепочка преобразований:

Θ(  )  Θ( ) 
 f ( x)e
i (   ) x
e





ix
f ( x) e e
i
x
2
ix

dx   f ( x)e
ix
e
i
x
2
(e
i
x
2
e
i
x
2
)dx 



x
x
x
2i sin
dx  2  f ( x) sin
dx  2  f ( x)
dx 
2
2
2




 f ( x) x dx .
(47.4)

Пусть    и число
k

 f ( x) x dx ,
(47.5)

тогда из (47.4) следует
(  )  ( )  k   .
(47.6)
Таким образом, выполняется определение непрерывности функции ( ) :
для любого   0 можно выбрать положительное    / k , что из условия
   следует (  )  ( )   .
48. Примеры вычисления характеристической функции
48.1. Пусть  - случайная величина с характеристической функцией
Θ ( ) . Найти характеристическую функцию Θ ( ) случайной величины
  с  b ,
(48.1)
где c, b - числа. По определению
Θ ( )  Mei  Mei (c b )  eib Meic  eibΘ ( c) .
(48.2)
48.2. Найти характеристическую функцию Θ( ) гауссовой случайной
величины  ~ N (a, 2 ) . По формуле (46.2)
83



1
e
2 
Θ( )   eix f  x dx   eix


Выполним
замену переменной
z  ( x  a) /  , тогда x  z  a и
1
Θ( ) 
2

e
 x a 2
2 2
интегрирования
1
i (z  a ) z 2
2

eia
dz 
2

e
dx .
x
1
iz  z 2
2
(48.3)
на
переменную
dz .
(48.4)

Показатель в подынтегральном выражении преобразуем следующим образом:





1 2
1
2
2
2
z  2 zi  i   i    z  i    2 2 .
2
2
Подстановка этого результата в (48.4) приводит к выражению
Θ( )  e
i a 
 2 2
2
.
(48.5)
Отсюда следует, что характеристическая функция гауссовой случайной величины  при M  a  0 является вещественной и четной функцией.
49. Моменты, кумулянты и характеристическая функция
49.1. Вычислим производную порядка k характеристической функции
(46.1) при   0 :
d k Θ( )
d k
 0
 M(i ) k ei
 i k M k  i k mk ,
 0
(49.1)
где mk  M k - начальный момент k порядка случайной величины  .
Пусть существуют все моменты mk , k  0, 1, ... , тогда существуют производные (49.1) характеристической функции при   0 . Поэтому функцию
Θ( ) можно разложить в ряд Тейлора около точки   0 :
1 d k Θ( )
Θ( )  
k
k 0 k ! d


i k mk k
(49.2)
 .
 0   
k 0 k !
Отметим, что здесь первое слагаемое (i k mk k / k!) k 0  1 . Выражение (49.2)
k
называют иногда разложением характеристической функции по моментам,
имея ввиду тот факт, что коэффициенты при  k определяются начальными
моментами mk .
Для непрерывной случайной величины с плотностью вероятности
f (x) соотношение (49.1) можно представить в виде:
d k Θ( )
d k
dk
 0 
d k

e

ix
f ( x)dx  0  i

k
x
k
f ( x)dx .
(49.3)

84
Таким образом, существование производной порядка k характеристической
функции при   0 (или начального момента mk ) определяется поведением
плотности вероятности f (x) при x   , от которого зависит существование интеграла (49.3).
49.2. Функция
 ( )  ln Θ( )
(49.4)
называется кумулянтной функцией случайной величины  . Кумулянтная
функция является полной вероятностной характеристикой случайной величины, также, как и F ( x), f ( x), ( ) . Смысл введения кумулянтной фукнции
заключается в том, что эта функция зачастую оказывается наиболее простой
среди полных вероятностных характеристик, т. е. среди F , f , ,  . Например, для гауссовой случайной величины из (48.5) следует
 ( )  ia 
 2 2
2
.
(49.5)
Кумулянтную функцию можно представить рядом, аналогично соотношению (49.2) для характеристической функции:
 k
i k k
1 d k ln  
k
 ( )  


 k!  ,
d k
k  0 k!
k 0
 0

(49.6)
где число
1 d k ln Θ( )
k  k
i
d k
(49.7)
 0
называется кумулянтом k порядка случайной величины  . Из (49.7) следует
 0  ln Θ(0)  0 , поэтому суммирование в (49.6) можно начинать при k  1 .
Поскольку  0  0 для любой случайной величины, то  0 не является характеристикой случайной величины.
Вычислим кумулянты для гауссовой случайной величины. Из (49.7),
(49.5) следует
1 
1 d ( )
1
 ia   2
i d  0 i

1 d 2 ( )
2  2
   2
2
i
d  0



 a,
(49.8)
  2.
(49.9)
 0
 0
Для k  2 производная d k / d k  0 , следовательно, гауссова случайная
величина имеет только два кумулянта  1 и  2 отличных от нуля, остальные
кумулянты - нулевые. Поэтому ряд (49.6) для гауссовой величины состоит из
двух слагаемых.
85
Глава 3
СЛУЧАЙНЫЕ ВЕКТОРЫ
50. Функция распределения вероятностей двух случайных величин
В задачах со случайным исходом обычно приходится учитывать взаимодействие нескольких случайных величин. Это естественным образом приводит к понятию многомерных (векторных) случайных величин или совокупности нескольких случайных величин. Случайный вектор является третьим основным объектом изучения теории вероятностей (после случайного события и случайной величины). Целесообразно начать изучение случайных
векторов с рассмотрения двухмерных векторов, свойства которых сравнительно простые и наглядные.
Совместной функцией распределения вероятностей (или двумерной
функцией распределения вероятностей) случайных величин  ,  (или случайного вектора ( , ) ) называется функция
F2 ( x, y)  P(  x,  y) .
(50.1)
Следует иметь в виду, что P(  x,   y) - вероятность события
  x    y - пересечения двух событий:   x и   y . В записях вида
(50.1) принято вместо символа  использовать запятую.
50.1. Рассмотрим основные свойства функции F2 ( x, y) , следующие из
ее определения.
1). F2 ( x, )  F ( x) , где F ( x)  P(  x) - функция распределения
вероятностей случайной величины  . Действительно,    - достоверное
событие, поэтому F2 ( x, )  P(  x,   )  P(  x)  F ( x) . Аналогично F2 (, y)  F ( y) , где F ( y)  P(  y) - функция распределения вероят-
ностей случайной величины  .
2). F2 (, )  1, поскольку события    ,    - достоверные, следовательно их пересечение – достоверное событие и P(  ,   )  1.
3). F2 (, y)  0 , поскольку событие    - невозможное и
P(  ,   y)  0 . Аналогично F2 ( x,)  0 .
4). F2 ( x, y) - неубывающая функция аргумента x , а также неубывающая функция аргумента y .
5). F2 ( x, y) непрерывна справа по каждому аргументу.
6). Случайные величины  и  называются независимыми, если независимы случайные события   a и   b при любых числах a и b . Для независимых случайных величин  и  :
86
F2 ( x, y)  F ( x) F ( y) .
(50.2)
Доказательство следует из определений функций F2 и F , F . Поскольку 
и  - независимые случайные величины, то события вида:   x и   y независимые для любых x и y . Поэтому
F2 ( x, y)  P(  x,  y)  P(  x) P(  y)  F ( x) F ( y)
(50.3)
- справедливо равенство (51.10).
50.2. Рассмотрим геометрическую интерпретацию функции F2 ( x, y) .
Пусть случайные величины  ,  являются компонентами случайного вектора ( , ) . Тогда результат каждого опыта по измерению случайного вектора
( , ) можно рассматривать как точку на плоскости, а функция F2 ( x 1, y 1 )
определяет вероятность попадания точки в часть плоскости: (  x1 ,  y1 ) ,
выделенной на рис. 50.1 штриховкой.
Рис. 50.1. Геометрическая интерпретация функции F2 ( x 1 , y 1 )
Представим вероятность P( x 1    x 2 , y 1    y2 ) - попадания случайного
вектора ( , ) в прямоугольник ( x1 , y1 ) , ( x 1 , y2 ) , ( x 2 , y2 ) , ( x 2 , y1 ) , рис
50.2, через функцию F2 ( x, y) . Несложно определить, что
P( x 1    x 2 , y1    y2 )  F2 ( x 2 , y2 )  F2 ( x 1, y2 )  F2 ( x 2 , y1 )  F2 ( x 1, y1 )
(50.2)
Пусть x  x 2  x 1 , y  y2  y1 - малые величины и функция F2 ( x, y) имеет первые производные по x и y , а также вторую смешанную производную,
тогда из (50.2) следует:
P( x 1    x 2 , y1    y2 ) 
F2 ( x 1, y2 )
x 1
x 
F2 ( x 1, y1 )
x 1
x 
87

 2 F2 ( x 1 , y1 )
y1x 1
xy .
(50.3)
Отсюда:
lim
x0
P( x 1    x 2 , y1    y2 )
x y

 2 F2 ( x 1 , y1 )
y1x 1
y 0
.
(50.4)
Рис. 50.2. К вычислению вероятности попадания в прямоугольник
51. Совместная плотность распределения вероятности
двух случайных величин
Пусть у функции F2 ( x, y ) существуют производные по x , y , а также
вторая смешанная производная. Совместной (или двумерной) плотностью
распределения вероятностей случайных величин  и  называется функция
 2 F2 ( x, y )
f 2 ( x, y ) 
x y
.
(51.1)
Рассмотрим основные свойства двумерной плотности вероятности.
1. Справедливо соотношение:
x2
y2
x1
y1
P( x 1    x 2 , y1    y2 )   dx  dy f 2  x, y  .
(51.2)
Для доказательства используем равенство (51.1), тогда:
 2 F2 ( x, y ) 2 F2 ( x, y 2 ) F2 ( x, y1 )
 dx  dyf2 ( x, y)   dx  dy x y   dx[ x  x ] 
x1
y1
x1
y1
x1
x2
y2
x2
y2
x
88
 F2 ( x2 , y2 )  F2 ( x1 , y2 )  F2 ( x2 , y1 )  F2 ( x1 , y1 ) .
(51.3)
Теперь из равенства (50.2) следует (51.2). Это соотношение имеет практическое значение, поскольку позволяет вычислять вероятность
P( x 1    x 2 , y1    y2 ) - попадания двумерного вектора ( , ) в прямоугольник, определяемый отрезками ( x1 , x2 ] и ( y1 , y 2 ] через плотность вероятности f 2 ( x, y ) .
2. Рассмотрим частный случай соотношения (51.2). Пусть x 1   ,
x 2  x , y1   , y 2  y , тогда (51.2) принимает вид:
y
x
F2 ( x, y )   du  d f 2 (u, ) .

(51.4)

Это соотношение определяет функцию распределения вероятностей F2
через плотность вероятности f 2 и является обратным преобразованием по
отношению к определению плотности (51.1).
3. Рассмотрим (51.2) при условиях: x 1   , x 2   , y1   ,
y 2   , тогда из (51.2) следует равенство:
 
  f 2 ( x, y)dxdy  1 ,
(51.5)
 
поскольку P(    ,    )  1 - как вероятность достоверного события. Соотношение (51.5) называется условием нормировки для плотности
вероятности f 2 .
4. Если f 2 - плотность вероятности вектора ( , ) , и f  - плотность
вероятности случайной величины  , то
f  ( x) 

 f 2 ( x, y)dy .
(51.6)

Это равенство называется свойством согласованности плотности второго порядка f 2 и плотности первого порядка f  . Если известна плотность второго
порядка f 2 , то по формуле (51.6) можно вычислить плотность вероятности
f  - случайной величины  . Аналогично,
f ( y ) 

 f 2 ( x, y)dx .
(51.7)

Доказательство (51.6) получим на основе равенства
89
F2 ( x, )  F ( x) .
(51.8)
Представим F2 через плотность f 2 согласно (51.4), а F через f  , тогда из
(51.8) следует
x

x
 du  df 2 (u, )   f  (u)du .


(51.9)

Дифференцирование (51.9) по x приводит к равенству (51.6), что и завершает доказательство.
5. Для независимых случайных величин  и  справедливо соотношение: F2 ( x, y)  F ( x) F ( y) . Откуда, согласно (51.1), получаем следствие для
плотностей:
f 2 ( x, y)  f ( x) f ( y) .
(51.10)
6. Пусть G - произвольная область на плоскости ( x, y ) , тогда
P(( , )  G)   f 2 ( x, y )dxdy
(51.11)
G
- вероятность того, что вектор ( , ) принимает любые значения из области
G определяется интегралом по G от плотности вероятности f 2 .
Рассмотрим пример. Случайный вектор ( , ) называется равномерно
распределенным на прямоугольнике a  x  b, c  y  d , если его плотность f 2 x, y    - равна числу  на этом прямоугольнике и f 2 x, y   0 вне этого прямоугольника. Число  определяется из условия нормировки:

1
(b  a)(d  c)
.
52. Условная функция распределения вероятностей
Пусть случайные величины  и  имеют плотности вероятности f и
f соответственно и совместную плотность f 2 . Рассмотрим равенство:
P( x    x  x,  y)  P( x    x  x) P(  y / x    x  x) . (52.1)
Отсюда
P(  y / x    x  x) 
P( x    x  x,  y )
.
P( x    x  x)
(52.2)
Функция
90
F /  ( y / x)  lim P(  y / x    x  x)  P(  y /   x)
(52.3)
x0
называется условной функцией распределения вероятностей случайной величины  при условии, что случайная величина  принимает значение x
(  x) .
Подставим (52.2) в (52.3), тогда
P( x    x  x,  y )
.
x  0
P( x    x  x)
F /  ( y / x)  lim
(52.4)
Представим вероятности в (52.4) через плотности вероятностей, при этом
x  x
F /  ( y / x)  lim
x  0
y
 du  df 2 (u, )
x

x  x
y
 lim
x  df 2 ( x, )

xf ( x)
x  0
 f (u )du
y

 f 2 ( x, )d

f ( x )
.
x
Это соотношение определяет условную функцию F / 
(52.5)
через плотности f 2 и
f . Отметим, что для независимых случайных величин  и  совместная
плотность f 2 ( x, )  f  ( x) f ( ) . При этом, как следует из (52.5), условная
функция F /  ( y / x)  F ( y) - не зависит от аргумента x (т. е. не зависит от
событий вида   x) .
Аналогично (52.3) можно определить функцию F /  ( x / y) случайной
величины  при условии, что   y , и затем получить выражение аналогичное (52.5)
x
F /  ( x / y ) 
 f 2 (u, y)du

.
f ( y )
(52.6)
53. Условная плотность вероятности
Условной плотностью распределения вероятностей случайной величины  при условии   x называется функция:
f /  ( y / x) 
F /  ( y / x)
y
.
(53.1)
Для независимых величин  и  функция F /  ( y / x)  F ( y) , при этом
f /  ( y / x)  f ( y) . Соотношение (52.5) подставим в (53.1), тогда
91
f 2 ( x, y )
.
f ( x )
f /  ( y / x) 
Отсюда следует
(53.2)
f 2 ( x, y)  f ( x) f /  ( y / x) .
(53.3)
- формула умножения для плотностей. Эта формула аналогична формуле умножения вероятностей. Очевидно,
f ( y ) 


f 2 ( x, y )dx 


 f ( x) f /  ( y / x)dx .
(53.4)

Данное равенство является аналогом формулы полной вероятности.
Аналогично (53.1) вводится условная плотность распределения вероятности случайной величины  при условии   y как функция вида:
f /  ( x / y ) 
F /  ( x / y )
Отсюда и из (52.6) следуют соотношения:
f /  ( x / y ) 
f ( x ) 


f 2 ( x, y )dy 

x
.
(53.5)
f 2 ( x, y )
,
f ( y )
(53.6)

 f ( y) f /  ( x / y)dy .
(53.7)

В (53.6) подставим (53.3) и (53.4), тогда:
f /  ( x / y ) 
f ( x) f /  ( y / x)

.
(53.8)
 f ( x) f /  ( y / x)dx

Это соотношение аналогично формуле Байеса. Здесь случайные величины 
и  можно поменять местами, тогда получим также верное соотношение для
условной плотности f /  , которая определяется через функции f и f /  .
53. Числовые характеристики двумерного случайного вектора
54.1. Пусть случайные величины  и  имеют совместную плотность
вероятности f 2 ( x, y ) и  ( x, y) - функция двух переменных. Тогда  ( , ) случайная величина, полученная подстановкой случайных величин  и 
вместо аргументов x и y . Математическим ожиданием случайной величины
 ( , ) называется число
92
M ( , ) 

   ( x, y) f 2 ( x, y)dxdy .
(54.1)

Аналогично, если случайные величины  и  - дискретные, тогда математическим ожиданием случайной величины  ( , ) называется число
I
J
M ( , )    ( xi , y j ) pij ,
(54.2)
i 1 j 1
где
pij  P  xi ,  y j . Далее рассмотрим числовые характеристики
двумерного случайного вектора на примере непрерывных его компонент.
Если  ( x, y)  x n y m , n, m  0, 1, ... , тогда из (54.1) следует
M  
n
m

x
n
y m f 2 ( x, y )dxdy , n  0, 1, ... , m  0, 1, ... .
(54.3)

Числа M  называются начальными смешанными моментами порядка
n  m случайных величин  и  . Эти числа применяются в качестве статистических характеристик двумерного случайного вектора. Рассмотрим частные случаи (54.3). 1). n  0 , тогда M 0 m  M m - начальный момент порядка m случайной величины  . При дополнительном условии m  1 получаем M  a - математическое ожидание случайной величины  , при
n m
m  2 - M 2 - среднее ее квадрата и т.д. Таким образом, при n  0 смешанные моменты (54.3) совпадают с начальными моментами случайной величины  . 2). Если положить m  0 , тогда M n 0  M n - смешанные моменты
совпадают с начальными моментами случайной величины  . В обоих случаях получаем индивидуальные характеристики одной из случайных величин.
3). Для получения групповой характеристики (54.3), отражающей свойства
совокупности двух случайных величин, необходимо рассмотреть ненулевые
n, m . Наиболее простой вариант: n  1 , m  1. При этом из (54.3) следует
M 

  xyf2 ( x, y)dxdy  r .
(54.4)

Число r называется корреляцией случайных величин  и  и представляет
собой важнейшую характеристику совокупности двух случайных величин.
Если  и  - независимы, то f 2 ( x, y)  f ( x) f ( y) и (54.4) преобразуются следующим образом:
r  M 






  xyf ( x) f ( y)dxdy   xf ( x)dx  y f ( y)dy 
 M M  a a ,
(54.5)
93
где a  M и a  M . При этом r выражается через индивидуальные характеристики a и a , т. е. каких-либо групповых эффектов в r не проявляется, что является следствием независимости случайных величин  и  . Из
цепочки преобразований (54.5) следует равенство M  M M - математическое ожидание произведения двух независимых случайных величин
равно произведению их математических ожиданий.
54.2. Аналогично (54.3) числа
M(  a ) (  a ) 
n
m



n
m
 ( x  a ) ( y  a ) f 2 ( x, y)dx dy
(54.6)
называются центральными смешанными моментами, порядка n  m . Наиболее важной групповой характеристикой двух случайных величин среди чисел
(54.6) является ковариация
k  M(  a )(  a ) 

  ( x  a )( y  a ) f 2 ( x, y)dxdy ,
(54.7)

которая является центральным смешанным моментом порядка 1 1. Для ковариации используется также обозначение: k  cov( , ) . Если    , то
k  cov( , )  var    2 - совпадает с дисперсией случайной величины  .
Если  и  - независимы, то из (54.7) следует, что ковариация
k  M(  a )M(  a )  0 .
Обратное утверждение в общем случае неверно, т. е. из равенства k  0 в
общем не следует независимость случайных величин  и  . В частности,
обратное утверждение справедливо, если  и  - гауссовы случайные величины. Более подробно этот вопрос обсуждается ниже.
54.3. Найдем связь между корреляцией r и ковариацией k случайных
величин  и  . Из определения ковариации (54.6) следует
k  M  a   a   M  a  a  a a  
 M  a M  a M  a a  r  a a .
Таким образом, ковариация k и корреляция r связаны соотношением
(54.7)
k  r  a a .
55. Верхняя и нижняя границы корреляции и ковариации
55.1. Пусть случайные величины  и  имеют математические ожидания M  a , M  a , дисперсии  2 ,  2 , корреляцию r  M и ковариацию k  M(  a )(  a ) . Рассмотрим неравенство
94
 

M

 M 2
M 2

2

 0.


(55.1)
Возведем в квадрат, затем оператором математического ожидания подействуем на каждое слагаемое, тогда (55.1) принимает вид:
1
2M
M M
2
2
1  0 ,
что далее сводится к неравенству
 r  M 2M 2 .
(55.2)
Его левая часть  r может быть как положительной так и отрицательной,
правая часть - только положительна. Поэтому неравенство (55.2) обычно записывается в более сильном варианте:
r  M 2M 2 .
(55.3)
Таким образом, корреляция r случайных величин  и  принимает значения из интервала [ M 2M 2 , M 2M 2 ] .
Соотношение, аналогичное (55.3) можно получить и для ковариации
k , если в исходном выражении (55.1) вместо  подставить центрированную
случайную величину   a и вместо  соответственно   a . При этом необязательно выполнять все преобразования, аналогичные (55.1) - (55.3), достаточно учесть, что замена     a и     a приводит к замене M 2
на M(  a ) 2   2 , M 2 на M(  a ) 2   2 , а также r  M на
k  M(  a )(  a ) . Поэтому из (55.3) следует
k    .
(55.4)
55.2. Неравенства, определяющие область значений корреляции r и
ковариации k , аналогичные (55.3), (55.4), можно получить в другом виде на
основе следующего очевидного неравенства:
(55.5)
M(   )2  0 .
Отсюда M 2  M 2  2r , поэтому справедливо неравенство
M 2  M 2
.
r
2
(55.6)
Если в (55.5)  ,  заменить соответственно на   a и   a , то в

(55.6) r заменяется на k , M 2 на M   a

2
  2 и M 2 на  2 . Поэтому
(55.6) принимает вид:
95
k 
 2   2
2
.
(55.7)
Таким образом, модуль ковариации двух случайных величин не превышает
среднего геометрического, а также не превышает среднего арифметического
их дисперсий: соотношения (55.4) и (55.7) соответственно.
56. Ковариация и независимость двух случайных величин
случайных величин  и  ковариация
k  M(  a )M(  a )  0 . В отличие от этого рассмотрим другой крайний
случай, когда случайные величины  и  связаны функциональной зависимостью:
(56.1)
  c  b ,
где c, b - числа. Вычислим ковариацию k случайных величин  и  :
(56.2)
k  M(  a )(  a )  M(  a )(c  b  a ) .
Для
независимых
Из (56.1) следует a  M  cM  b  ca  b . Подставим этот результат в
(56.2), тогда
k  cM(  a ) 2  c 2 .
(56.3)
Из (56.1) определим дисперсию
 2  M(  a ) 2  M(c  ca ) 2  c 2 2 ,
(56.4)
откуда    c   . Это равенство подставим в (56.3), тогда
k
    , c  0,
c
    
c
     , с  0.
(56.5)
Таким образом, ковариация линейно связанных случайных величин  и 
принимает максимальное значение k     , если c  0 , или минимальное
значение k     , если c  0 , на отрезке [   ,   ] допустимых значений для k в общем случае (согласно формуле (55.4)).
В связи с этим можно выдвинуть предположение о том, что ковариация k является мерой статистической связи между случайными величинами
 и  . Действительно, для двух крайних случаев получены подходящие для
этого результаты, а именно: для независимых величин k  0 , а для линейно
связанных k максимален. Далее будет показано, что это предположение
верно, но не в общем, а только для статистической связи линейного типа. Эта
связь характерна тем, что при усилении этой связи растет k , и в пределе
связь вырождается в линейную зависимость (56.1).
Однако если связь имеет нелинейный характер, то величина k не отражает меру (степень) этой связи. Рассмотрим следующий пример. Пусть
96
  cos  ,   sin  , и  - случайная величина с равномерным на интервале
[0,2 ] распределением вероятностей. Случайные величины  и  связаны
между собой соотношением:  2   2  1 . Таким образом, между величинами
 и  существует функциональная связь, а не статистическая, и следовало
бы ожидать, что величина k максимальна. Однако прямые вычисления приводят к результату k  0 . Действительно,

M  M cos    cos f ( )d ,
(56.6)

где
 1
,   (0,2 ],
f ( )   2
 0,   (0,2 ]
- плотность распределения вероятностей случайной величины  . С учетом
этого (56.6) преобразуется:
1
M 
2
2
 cos  d  0 .
0
Аналогично
1 2
M  M sin  
sin  d  0 ,
2 0
теперь ковариация
1
1 2
k  M  M cos  sin   M sin 2 
sin 2 d  0 .
2
4 0
Таким образом, для нелинейной связи между случайными величинами их ковариация не может использоваться как мера статистической связи, поскольку
значение ковариации не отражает степень этой связи.
57. Ковариация и геометрия линий равного уровня плотности
вероятности
Ковариация случайных величин  и  определяется через их совместную плотность вероятности f 2 ( x, y ) соотношением:
k

  ( x a )( y  a ) f 2 ( x, y)dxdy .
(57.1)

97
Подынтегральная функция в (57.1) неотрицательна для таких x , y , при которых ( x  a )( y  a )  0 , то есть при x  a , y  a или x  a , y  a . И
наоборот, при x  a , y  a или x  a , y  a подынтегральная функция
Рис. 57.1. Линии равного уровня плотности
(57.1) отрицательна либо равна нулю. Знак ковариации зависит от того, какие значения, положительные или отрицательные, преобладают в подынтегральной функции. Поэтому знак числа k определяется расположением линий равного уровня плотности вероятности f 2 . На рис. 57.1 представлен
пример линий равного уровня функции f 2 ( x, y ) , для которой k  0 .
Штриховкой указана часть плоскости, на которой ( x  a )( y  a )  0 , и следовательно, неотрицательна подынтегральная функция. Поскольку в заштрихованной области (положительные значения подынтегральной функции)
плотность f 2 имеет в среднем большее значение, чем в нештрихованной области (отрицательные значения подынтегральной функции), то ковариация
k  0 . На рис. 57.2 представлены линии равного уровня плотности f 2 при
k  0 . Случай k  0 соответствует симметричному расположению линий
относительно прямой x  a (или y  a ). Например, эти линии могут быть
эллипсами, у которых большая полуось совпадает по направлению с прямой
x  a (или y  a ). Другой пример – линии являются окружностями с центром в точке (a , a ) .
98
Рис. 57.2. Линии равного уровня плотности
Отметим, что если k  0 , а линии равного уровня имеют ось симметрии, например, на рис. 57.1 линии – это эллипсы, тогда можно выполнить
преобразование (вращение) системы координат x, y , такое, что в новой системе ковариация k  0 . Это означает также и преобразование случайных величин  ,  с ненулевой ковариацией к новым случайным величинам, для
которых ковариация равна нулю.
58. Коэффициент корреляции
58.1. Коэффициентом корреляции двух случайных величин  и  называется число
 M
  a   a
.


(58.1)
Коэффициент корреляции является ковариацией:   M11 двух безразмерных случайных величин
  a
  a
, 1 
,
(58.2)


полученных из исходных величин  и  путем преобразования специально1 
го вида (58.2) (нормировки), которое обеспечивает нулевые средние
M1  0 , M1  0 и единичные дисперсии var 1  1 , var 1  1.
Коэффициент корреляции (58.1) можно представить через ковариацию
k случайных величин  и  :

k
 
.
(58.3)
Поскольку | k |     , то из (58.3) следует
|  | 1 .
(58.4)
99
Коэффициент корреляции является безразмерной величиной, принимает значения на интервале [1, 1] и поэтому используется как мера статистической связи линейного типа между случайными величинами  и  , в отличие от ковариации k , для которой интервал значений [    ,    ] зависит от дисперсий случайных величин. Рассмотрим примеры вычисления коэффициента корреляции, позволяющие выяснить свойства  как меры статистической связи между случайными величинами.
58.2. Пусть  - случайная величина с математическим ожиданием a ,
дисперсией  2 и   c  b . Ковариация случайных величин  и  определяется формулой (56.5): k      c c . Подставим это соотношение в (58.3),
тогда:

c 1, c  0 ,

| c |  1, c  0 .
(58.4)
Таким образом, для случайных величин  ,  , связанных линейной зависимостью коэффициент корреляции  принимает либо максимальное значение
  1, либо минимальное -   1.
58.3. Рассмотрим обобщение линейной функции, связывающей случайные величины  и  на линейную случайную функцию следующего вида:
(58.5)
  
где  и  - независимые случайные величины. В частном случае  - число
и (58.5) – линейная функция, определяющая  через  . Для детерминированной линейной связи |  | 1 - принимает максимальное значение. Если 
- случайная величина, то связь (58.5) становится статистической (стохастической, случайной), то есть не столь жесткой как детерминированная функциональная связь. Это приводит к |  | 1 . В зависимости от свойств случайной величины  статистическая связь между  и  может быть сильной,
|  | 1, или слабой, |  | 0 . Для того, чтобы ответить на вопрос, какова мера
связи между случайными величинами  и  (58.5), вычислим их коэффициент корреляции.
Пусть M  0 , var    2 , M  a  , var    2 . Тогда из (58.5) следует, в силу независимости  и  :
M  M  MM  0 .
Выразим дисперсию случайной величины  через параметры случайных величин  ,  :
100
 2  var  M 2  M 2 2   2 M 2   2 ( 2  a2 ) .
(58.6)
Теперь по формуле (58.3):

M
 

M 2
     a
2
2
2

a
   a
2
2
.
(58.7)
Если a 2   2 , то из (58.7) следует   0 , что соответствует слабой связи
между случайными величинами  и  . Если a 2   2 , из (58.7) следует
|  | 1, связь становится сильной и в пределе при a 2  2   переходит в
детерминированную линейную связь.
59. Коэффициент корреляции и расстояние
59.1. Пусть S  {x, y, z,...} - множество элементов x, y, z, ... . Расстоянием (метрикой) между элементами x, y множества S называется неотрицательная функция d ( x, y ) , удовлетворяющая следующим трем аксиомам:
1. d ( x, y)  0 , причем d ( x, y)  0  x  y .
2. d ( x, y)  d ( y, x) .
3. d ( x, z )  d ( x, y)  d ( y, z ) .
Вторая аксиома называется условием симметрии, а третья – неравенством
треугольника. Если аксиому 1 ослабить: d ( x, y)  0  x  y , тогда d ( x, y )
называется псевдометрикой. Для псевдометрики из условия d ( x, y)  0 не
обязательно следует x  y .
Пусть { ,,  ,...} - множество случайных величин. Для каждой пары
 ,  элементов этого множества можно также ввести расстояние d ( , ) вида
d 2 ( , )  M(   )2 .
(59.1)
Покажем, что функция d ( , ) является псевдометрикой. Аксиома 1 – очевидна: M(   ) 2  0 , причем из условия     0 следует M(   ) 2  0 .
Аксиома 2 также очевидна. Рассмотрим аксиому 3. Справедливы следующие
преобразования:
M(  )2  M(      )2  M(   )2  M(  )2  2M(   )(  )
(59.2)
Пусть r  M(   )(  ) - корреляция двух случайных величин    и
   . Известно, что r удовлетворяет неравенству (55.2)
r  M(   )2 M(   )2 .
(59.3)
Подставим (59.3) в (59.2), тогда
101
M(   ) 2  M(   ) 2  M(   ) 2  2 M(   ) 2 M(   ) 2 

 M(   )
2
 M(   ) 2

2
,
(59.4)
что и доказывает третью аксиому.
59.2. Пусть
1 
  a
  a
, 1 


(59.5)
- нормированные случайные величины. Рассмотрим квадрат расстояния между ними:
(59.6)
d 2 (1,1 )  M(1  1 )2  M12  M12  2M11  2(1   ) ,
где  - коэффициент корреляции случайных величин  и  . Из (59.6) следует равенство
d2
  1 ,
2
(59.7)
которое можно рассматривать как закон сохранения: величина d 2 / 2   постоянная для любых случайных величин  и  . Это равенство позволяет
дать интерпретацию коэффициента корреляции  как величины, дополняющей расстояние d 2 / 2 до единицы.
59. Функция распределения вероятностей случайного вектора
Во многих приложениях теории вероятностей возникает необходимость рассматривать совокупность n случайных величин (1 ,..., n ) , которая
называется многомерной ( n - мерной) случайной величиной  или n мерным случайным вектором  . Полное вероятностное описание n - мерного случайного вектора задается функцией распределения вероятностей Fn
(или плотностью вероятности f n , или характеристической функцией  n ).
Функция n аргументов
(60.1)
Fn x 1 ,..., x n  P(1  x1 ,..., n  xn )


называется функцией распределения вероятностей случайного вектора
  (1 ,..., n ) . Здесь случайное событие
n
1  x 1 , ... ,  n  x n   ( i  x i )
i 1
(60.2)
102
- представляет пересечение n событий вида  i  x i . В записях вида (60.1)
для краткости символ пересечения  принято заменять запятой.
Рассмотрим основные свойства функции распределения вероятностей.
1. Пусть 1 , ... ,  n - независимые случайные величины, тогда события
i  x i , i  1, ... , n - независимы и формула (60.1) принимает вид
n
n
i 1
i 1
Fn ( x 1 ,..., x n )   P( i  x i )   Fi ( x i ) ,
(60.3)
где F i - функция распределения вероятностей случайной величины  i . Таким образом, для независимых случайных величин их совместная функция
распределения Fn представима произведением одномерных функций F i .
2. Для любого 1  l  n
Fn ( x1 ,..., x l 1 , , x l 1 ,..., x n )  0 .
(60.4)
Доказательство следует из определения (60.1). Событие l   является
невозможным, поэтому и событие (60.2) - невозможное, его вероятность равна нулю, следовательно, выполняется соотношение (60.4).
3. Для любого 1  l  n
Fn ( x 1 ,..., x l 1 , , x l 1 ,..., x n )  Fn 1( x 1 ,..., x l 1 , x l 1 ,..., x n ) . (60.5)
Это равенство также следует из определения. Событие l   - достоверное
и в пересечении вида (60.2) это событие можно опустить, после чего из (60.1)
следует (60.5).
4. Если x i   для всех i  1, ... , n , то
Fn (,..., )  1,
(60.6)
как вероятность достоверного события.
5. Функция распределения Fn x1 ,..., xn  - непрерывна справа по каждому своему аргументу.
6. Пусть xi - приращение аргумента xi , i  1, ... , n и D n Fn - разность
порядка n функции Fn , определяемая соотношениями:
D1Fn ( x1 ,..., x n )  Fn ( x1  x1 , x2 ,..., x n )  Fn ( x1 ,..., x n ) ,
D 2 Fn ( x 1 ,..., x n )  D1 Fn ( x 1 , x 2  x 2 ,..., x n )  D1 Fn ( x 1 ,..., x n ) ,…
Из определения функции Fn , формула (60.1), следует
D n Fn ( x 1 ,..., x n )  D n P(1  x 1 ,..., n  x n ) 
(60.7)
 P( x1  1  x1  x1 ,..., x n   n  x n  x n )
- вероятность попадания случайного вектора  в n -мерный параллелепипед
со сторонами x 1 , ... , x n .
103
61. Плотность вероятности случайного вектора
Пусть случайный вектор   (1,..., n ) имеет функцию распределения
вероятностей Fn ( x 1,..., x n ) и существует частная производная
 n Fn ( x 1 ,..., x n )
x 1 x n
 f n ( x 1 ,..., x n ) ,
(61.1)
тогда функция f n называется плотностью распределения вероятностей случайного вектора   (1,..., n ) или n - мерной плотностью вероятности. При
этом функция Fn и сам вектор  называются непрерывными.
Рассмотрим основные свойства n - мерной плотности вероятности.
1. Пусть 1 , ... ,  n - независимые случайные величины, тогда функция
распределения вероятностей вектора  представима в виде произведения
одномерных функций, формула (60.3). Подставляя (60.3) в (61.1), получим
n
f n ( x1 ,..., xn )   f i ( xi ) ,
(61.2)
i 1
где
f i ( x i ) 
dF i ( x i )
dx i
(61.3)
- плотность вероятности случайной величины  i .
2. Пусть xi - малое приращение аргумента xi , i  1, ... , n . Тогда из
(61.1) следует приближённое равенство:
(61.4)
f n ( x 1 ,..., x n )x 1 x n  D n Fn ( x 1 ,..., x n ) .
Затем из (60.7) получаем вероятность попадания случайного вектора  в n мерный параллелепипед со сторонами x 1 , ... , x n :
f n x1 ,..., xn x1    x n  P( x1  1  x1  x1 ,..., x n   n  x n  x n ) . (61.5)
3. Из (61.5) следует
b1
bn
P(a1  1  b1 ,..., an   n  bn )     f n ( x 1 ,..., x n )dx1 dx n .
a1
(61.6)
an
4. Отсюда при ai   , bi  zi получаем
Fn ( z 1 ,..., z n ) 
z1
zn
   f n ( x 1 ,..., x n )dx1 dx n .

(61.7)

5. Условие нормировки для плотности вероятности f n также следует
из соотношения (61.6):
104


   f n ( x1 ,..., xn )dx1  xn  1.

(61.8)

6. Пусть G - область n - мерного пространства, тогда P(  G) - вероятность того, что n - мерный случайный вектор принимает значение из области G , определяется через плотность f n :
P(  G )     f n ( x 1 ,..., x n )dx1 dx n .
(61.9)
G
Доказательство этого соотношения следует из (61.6) с учетом того, что любая область G может быть покрыта n - мерными параллелепипедами при
условии, что max (bi  ai )  0 - наибольшая сторона параллелепипеда стре1 i  n
мится к нулю.
7. Для любого 1  l  n

 f n ( x 1 ,..., x n )dx l  f n1 ( x 1 ,..., x l 1 , x l 1 ,..., x n ) .
(61.10)

Это равенство называется свойством согласованности плотности: из плотности вероятности порядка n путем интегрирования по «лишнему» аргументу
xl может быть получена плотность вероятности порядка n  1. Для доказательства представим обе части равенства (60.5) через плотности, используя
(61.7), тогда (60.5) принимает вид:
xl 1
x1

xl 1
xn


xn

 dz1   dzl 1  dzl  dzl 1   dzn f n ( z1,..., zn ) 



xl 1
x1
xl 1
 dz1   dzl 1  dzl 1   dzn f n 1 ( z1,..., zl 1, zl 1,..., zn ) .



(61.11)

Продифференцируем
обе части этого равенства по
x 1 , ... , x l 1 , x l 1 , ... , x n , что приводит к выражению (61.10).
аргументам
62. Многомерное нормальное распределение
Случайный вектор   (1 ,..., n ) называется нормально распределенным, если его плотность вероятности
f n ( x1 ,..., xn )  (2 )

n
2
k

1
2
1 n n
exp[   ( xi  ai )kij1 ( x j  a j )] ,
2 i1 j 1
(62.1)
где ai  M i ; k - ковариационная матрица вектора  , элемент которой
kij  Mi  ai   j  a j  cov i ,  j является ковариацией случайных вели-




105
чин  i ,  j ; k - определитель матрицы k ; k 1  kij1 - матрица, обратная ковариационной.
Рассмотрим плотность вероятности f n в частном случае попарно некоррелированных случайных величин 1 , ... ,  n , для которых выполняется
условие
(62.2)
kij  M( i  ai )( j  a j )   i2 ij ,
где  ij - символ Кронекера. Таким образом, ковариационная матрица k является диагональной, поскольку ее элементы (62.2) вне главной диагонали нулевые. Следовательно, определитель
n
k    i2 .
(62.3)
i 1
Элемент
kij1
1
матрицы k , обратной ковариационной, можно найти по из-
вестной формуле:
kij1 
Ad k ji
k
,
(62.4)
где Ad k ji - алгебраическое дополнение элемента k ji матрицы k . Из (62.3)
следует
Ad k ii    2j ,
(62.5)
j i
а также Ad k ji  0 при i  j . Подстановка этих результатов в (62.4) приводит к выражению
kij1 
 ij
.
 i2
(62.6)
Подставим (62.3), (62.6) в (62.1), тогда

n
2

1 ( xi  ai ) 2
2  i2
 1 n ( xi  ai ) 2 
(2 )
f n ( x1 ,..., xn ) 
exp  

2
 1  n
2

i 1

i

n

i 1
1
e
2  i
n
  f  i ( xi ) ,
(62.7)
i 1
где f i - плотность вероятности случайной величины  i . Таким образом, для
нормального случайного вектора  из условия попарной некоррелированности его компонент  i , i  1, ... , n , следует условие (62.7) - независимости
компонент случайного вектора.
106
63. Характеристическая функция случайного вектора
63.1. Функция n переменных
Θn (1,...,n )  Mei (11 ... n n )
(63.1)
называется характеристической функцией случайного вектора   (1,..., n ) .
Если случайный вектор  является непрерывным, то его характеристическая функция (63.1) определяется через его плотность f n :

Θn (1,...,n ) 

  e

i (1 x1 ... n x n )
f n ( x 1 ,..., x n )dx1 dx n .
(63.2)

Это соотношение является n - мерным преобразованием Фурье от функции
f n . Поэтому плотность f n можно выразить через характеристическую
функцию Θn в виде обратного преобразования Фурье по отношению к
(63.2):
f n ( x 1 ,..., x n ) 
1
(2 )
n




  e
 (1 x1 ... n x n )
Θn (1 ,..., n )d1  d n . (63.3)
63.2. Несложно доказать следующие свойства характеристической
функции.
1. Θn (0,...,0)  1.
2. Θn (1 ,..., n )  1.
3. Для независимых случайных величин 1 , ... ,  n их совместная хаn
рактеристическая функция Θn (1 ,..., n )   Θ k ( k ) , где Θ k ( k ) - харакk 1
теристическая функция случайной величины  k .
4. Для любого целого l , 1  l  n , справедливо соотношение:
Θn (1 ,..., n )  0  Θn1 (1 ,..., l 1 , l 1 ,..., n ) .
l
63.3. Для нормально распределенного случайного вектора  его характеристическая функция находится подстановкой плотности вероятности f n
(62.1) в (63.2) и последующем вычислении n - мерного интеграла (63.2). Это
приводит к следующему выражению:
 n

1 n n
Θn (1 ,..., n )  exp i  ar r   k rj r j  ,
2 r 1 j 1
 r 1

где krj  cov( r , j ) - ковариация случайных величин  r и  j .
(63.3)
107
64. Распределение вероятностей функций случайных величин
Пусть 1 , ... ,  n - случайные величины, имеющие совместную плотность f n ( x1 ,..., xn ) и совместную функцию распределения вероятностей
Fn ( x1 ,..., xn ) . Пусть также заданы m функций z j ( x1 ,..., xn ) , j  1, ... , m переменных x1 , ... , x n . Вместо аргументов xi функции z j подставим случайные величины  i , тогда
1  z1 (1 ,...,  n ), ... ,  m  z m (1 ,...,  n )
(64.1)
- новые случайные величины. Задача состоит в том, чтобы по известным
функциям f n , Fn , z j , j  1, ..., m , найти функцию  m ( y1 ,..., ym ) и плот-
 m ( y1 ,..., ym ) распределения вероятностей случайного вектора
(1 ,...,m ) . Такая задача довольно часто возникает в приложениях теории
ность
вероятностей.
Сравнительно просто найти функцию распределения вероятностей
 m . Действительно, по определению:
(64.2)
 m ( y1 ,..., ym )  P(1  y1 ,...,m  ym ) .
Представим случайные величины 1 , ... ,  m через 1 , ... ,  n , используя соотношения (64.1), тогда
 m ( y1 ,..., ym )  P{z1 (1 ,...,  n )  y1 ,..., zm (1 ,...,  n )  ym }
(64.3)
Здесь вероятность можно представить в виде интеграла по области G от
плотности f n ( x1 ,..., xn ) :
 m ( y1 ,..., y m )     f n ( x1 ,..., xn )dx1...dxn
(64.4)
G
где область G содержит все n -мерные вектора x1 , ..., x n , удовлетворяющие
условию:
z1 ( x1 ,..., xn )  y1 ,..., z m ( x1 ,..., xn )  y m .
(64.5)
Плотность  m вектора (1 ,...,m ) можно определить из (64.4) по формуле:
 m  m ( y1 ,..., y m )
 m ( y1 ,..., y m ) 
.
y1 ...y m
(64.6)
Соотношения (64.4), (64.6) определяют всего лишь метод решения задачи, но не само решение. Задача в конкретной постановке может быть как
относительно простой, так и очень сложной, в зависимости от чисел n , m ,
плотности f n и вида функций z j , определяющих область G . Ниже рассмотрим примеры решения этой задачи для преобразования одной, двух и нескольких случайных величин.
108
65. Распределение вероятностей функции одной случайной
величины
65.1. Пусть случайная величина  имеет плотность вероятности f (x)
и функция одной переменной y  z (x) ,    x   , является взаимно однозначной, тогда плотность вероятности  ( y ) случайной величины   z ( )
определяется соотношением:
dz 1 ( y )
,
 ( y )  f ( z ( y ))
dy
1
(65.1)
где x  z 1 ( y ) - функция, обратная функции y  z (x) .
Вывод формулы (65.1) основан на соотношениях (64.4) и (64.6). Поскольку функция y  z (x) - взаимно однозначная, то эта функция или монотонно возрастающая ( z  0) или монотонно убывающая ( z  0) . Очевидны
соотношения:
(65.2)
P(  y)  P(  x), z  0 ,
(65.3)
P(  y)  P(  x), z  0 .
Пусть F (x) , Φ( y ) - функции распределения вероятностей случайных величин  и  . Если z  0 , тогда используя (65.2), получаем
Φ( y)  P(  y)  P( z   y) .
Поскольку функция z 1 монотонная возрастающая, то из условия z    y
следует   z 1  y  и
Φ( y )  P(  z ( y ))  F ( z ( y )) 
1
1
z 1 ( y )
 f ( x)dx .
(65.4)

Продифференцируем по y равенство (65.4), тогда
dz 1 ( y )
 ( y )  f ( z ( y ))
, z  0 .
dy
Аналогично при z   0 справедливо равенство (65.3), поэтому
1
(65.5)

Φ( y )  P(  y )  P( z    y )  P(  z ( y )) 
 f ( x)dx .
1
z
1
(65.6)
( y)
Отсюда:
dz 1 ( y )
 ( y )   f ( z ( y ))
, z  0 .
dy
1
(65.7)
Теперь из соотношений (65.5) и (65.7) следует (65.1).
Существенным условием при выводе формулы (65.1) является свойство взаимной однозначности функции y  z (x) . Примерами таких функций
109
являются: 1). Линейная функция y  ax  b , где a , b - числа, при этом обратная функция имеет вид x  z 1 ( y)  ( y  b) / a ; 2). Экспонента - y  e x ,
откуда обратная функция x  z 1 ( y)  ln y , 0  y   , и другие. Однако условие взаимной однозначности функции y  z (x) может нарушаться, например, для функции y  x 2 обратная функция x  z 1 ( y)   y , y  0 двузначная. При этом рассматриваются две функции
x 1 ( y) 
y
и
x 2 ( y)   y , y  0 , которые называются первая и вторая ветви обратного
преобразования z 1 . Более сложный пример: y  sin x . Здесь обратная
функция – многозначная.
65.2. Рассмотрим модификацию формулы (65.1) на случай многозначного обратного преобразования z 1 ( y ) . Для этого на области определения
функции y  z (x) выделим неперекрывающиеся интервалы (ak , bk ] , k - целое, на которых z ( x)  0 , тогда на интервалах вида (b j , a j 1 ] выполняется
условие z ( x)  0 . Функция y  z (x) , для x  (ak , bk ], монотонная возрастающая, а для x  (b j , a j 1 ] - монотонная убывающая. Поэтому для каждого
из указанных интервалов существует однозначная обратная функция по отношению к функции z (x) . Пусть функция y  z (x) для x  (ak , bk ] имеет
обратную функцию вида xk ( y ) , ak  xk ( y)  bk , очевидно xk ( y ) - монотонная возрастающая, поскольку обратная ей z (x) - монотонная возрастающая.
Аналогично обозначим через x j ( y ) - функцию со значениями
b j  x j ( y)  a j 1 , обратную к z (x) на интервале (b j , a j 1 ] . Очевидно x j ( y )
- монотонная убывающая. Функция xk ( y ) называется k -я ветвь обратного
преобразования функции y  z (x) . Теперь по формуле сложения вероятностей для несовместных событий:
P(  y) 

k:xk ( ak ,bk ]
P(ak    xk ( y)  bk ) 
 P(b j  x j ( y)    a j1 ) ,
j:x j ( b j ,a j 1 ]
(65.8)
где суммирование ведется по всем ветвям обратного преобразования.
На рис. 65.1. представлен простой пример функции z ( x)  x 2 , у которой
ветви
обратного
преобразования:
x 1 ( y) 
y
со
значениями
0  x1 ( y)   , и x 2 ( y)   y - со значениями    x2 ( y)  0 . На интервале (a2 , b2 )  (0, ) функция z ( x)  x 2 - монотонно возрастающая, а на ин110
Рис. 65.1. Пример преобразования случайной величины
тервале (b1 , a2 ]  (,0] функция z (x) - монотонная убывающая. Равенство
(65.8) в этом случае принимает вид:
P(  y)  P(0    y )  P( y    0) .
Представим вероятности в (65.8) через плотности вероятностей, тогда:
a j 1
xk ( y )
y
  ( )d  k  f ( x)dx  j  f ( x)dx .

ak
(65.9)
x j ( y)
Дифференцируя по y обе части (65.9), получим
 ( y )   f ( xk )
k
dx j
dxk
  f (x j )
dy
dy
j
(65.10)
dxk
,
dy
(65.11)
или
 ( y )   f ( xk )
k
где суммирование по k ведется по всем ветвям обратного преобразования.
65.3. Рассмотрим примеры вычисления плотности вероятности случайной величины   z ( ) по формуле (65.11). Пусть   a  b - линейное
преобразование случайной величины  . Функция y  ax  b - взаимно однозначная, поэтому обратное преобразование имеет одну ветвь и сумма в
(65.11) содержит одно слагаемое. Поскольку x  ( y  b) / a , то (65.11) принимает вид:
111
 y b 1
 .
 a a
 ( y)  f 
(65.12)
Рассмотрим квадратичное преобразование    2 . Обратное преобразование имеет две ветви x 1 
y и x 2   y . Поэтому сумма (65.11) состоит из двух слагаемых. Вычисляя dxk / dy для k  1, 2 , получаем:
 1
[ f ( y )  f ( y )], y  0 ,

(65.13)
 ( y)   2 y

y  0.
 0,
Пусть   a cos  и случайная величина  имеет равномерное распределение вероятностей на интервале [0,2 ] , с плотностью f ( x)  1 2 , если
0  x  2 , и f ( x)  0 при x  [0,2 ] . Обратное преобразование имеет две
x 1 ( y)  arccos( y / a), 0  x 1 ( y)   , а также
x 2 ( y)  2 
ветви:
 arccos( y / a),   x 2 ( y)  2 . Вычисление производных dxk / dy и подстановка в (65.11) приводит к результату:
 ( y) 
1
 y
a
a 1   
2
, | y | a .
(65.14)
На рис. 65.2. представлен график плотности  ( y ) косинус-преобразования
Рис. 65.2. Плотность вероятности косинус-преобразования
равномерно распределенной случайной величины. Таким образом, исходная
величина  и преобразованная величина   z ( ) могут иметь совершенно
непохожие плотности вероятности.
112
66. Преобразование нескольких случайных величин
66.1. Соотношение (65.11), определяющее плотность вероятности 
преобразованной величины   z ( ) через плотность f исходной случайной
величины  , можно обобщить на случай преобразования n случайных величин. Пусть случайные величины 1 , ... ,  n имеют совместную плотность
f n ( x 1,..., x n ) , и заданы n функций y j  z j ( x 1,..., x n ) , j  1, 2, ... , n переменных x 1 , ..., x n . Необходимо найти совместную плотность вероятности
 n ( y1 ,..., yn ) случайных величин:
1  z1 (1 ,...,  n ), ... ,  n  z n (1 ,...,  n ) .
(66.1)
Эта задача отличается от общей постановки, п. 6.4., условием m  n число исходных случайных величин равно числу преобразованных величин.
Преобразование, обратное (66.1), находится как решение системы уравнений
y j  z j ( x 1,..., x n ) , j  1, 2, ... , n , относительно переменных x 1 , ... , x n . При
этом каждое x j зависит от
y1 , ... , y n . Совокупность таких функций
x j ( y1 ,..., yn ) , j  1, 2, ... , n , образует обратное преобразование. В общем
случае обратное преобразование неоднозначно. Пусть x jk ( y1,..., yn ) ,
j  1, 2, ... , n , - k - я ветвь обратного преобразования k  1, 2, ... , тогда
справедливо соотношение:
 n ( y1 ,..., y n )   f n ( x1k ,..., x nk )
( x 1k ,..., x nk )
k
( y1 ,..., y n )
,
(66.2)
где сумма берется по всем ветвям обратного преобразования,
x1k
y1
 ( x1k ,..., x nk )
 ...
 ( y1 ,..., y n )
x nk
y1
x1k
y n
... ...
x nk
...
y n
...
(66.3)
- якобиан преобразования от случайных величин 1 , ... ,  n к величинам
1 , ... ,  n .
Если из каждой совокупности n случайных величин получается m  n
случайных величин 1 , ... ,  m , то формулой (66.2) можно воспользоваться,
дополнив систему 1 , ... ,  m до n случайных величин, например, такими величинами  m1   m1 , ... ,  n   n . Если же m  n , то m  n случайных ве113
личин из совокупности 1 , ... ,  m функционально связаны с остальными n
величинами, поэтому m - мерная плотность  m будет содержать m  n дельта-функций.
Соотношения (64.4), (64.6) и (66.2) определяют два метода решения задачи вычисления плотности  m совокупности случайных величин
1 , ... ,  m , полученных функциональным преобразованием исходных случайных величин 1 , ... ,  n с совместной плотностью вероятности f n . Основная трудность в применении первого метода состоит в вычислении n мерного интеграла по сложной области G . Во втором методе основная трудность – это нахождение всех ветвей обратного преобразования.
66.2. Рассмотрим простой пример вычисления плотности вероятности
суммы двух случайных величин 1 и  2 с плотностью f 2 по формуле (66.2).
Очевидно, в качестве первой преобразованной величины следует выбрать
сумму: 1  1   2 , а в качестве второй 2   2 (хотя можно взять и 2  1 ).
Таким образом, функциональное преобразование от  1 ,  2 к 1 ,  2 задается
системой уравнений:
y1  x 1  x 2 ,
y2  x 2
(66.4)
.
Обратное преобразование – это решение системы уравнений относительно
x1, x 2 :
x 1  y1  y 2 ,
x 2  y2
(66.5)
.
Обратное преобразование однозначно, поэтому в (66.2) сумма состоит из одного слагаемого. Найдем якобиан преобразования:
x1
y1
x2
y1
x1
y2 1  1

1 .
x2 0 1
y2
Теперь (66.2) для n  2 принимает вид:
 2 ( y1 , y2 )  f 2 ( y1  y2 , y2 ) .
(66.6)
Функция  2 ( y1 , y2 ) - это совместная плотность вероятности случайных величин 1  1   2 и 2   2 . Отсюда плотность вероятности  ( y ) суммы 1
находится из условия согласованности:

  y1     2  y1 , y2  dy 2 


 f 2 ( y1  y2 , y2 )dy 2 .
(66.7)

Рассмотрим первый метод решения этой же задачи. Из (64.4) следует:
114
Φ( y1 )  P(1  y1 ) 
 f 2 ( x1 , x2 )dx1dx2 .
66.8)
x1  x2  y1
Задача сводится к преобразованию интеграла по области G , определяемой
условием x1  x2  y1 . Этот интеграл можно представить в виде:
Φ( y1 ) 
y1  x2

 dx 2 



dx1 f 2 ( x 1 , x 2 )   dx1
y1  x1
 dx 2 f 2 ( x 1 , x 2 ) .

(66.9)

Отсюда плотность вероятности:
d y1  
  y1  
  f 2 ( y1  x2 , x2 )dx 2 ,
dy1

(66.10)
что совпадает с формулой (66.7).
66.
Хи-квадрат распределение вероятностей
67.1. Хи-квадрат распределением с n степенями свободы называется
распределение вероятностей случайной величины  n2  12  ...   n2 , где  i независимые случайные величины и все i ~ N (0,1) - гауссовы с математическим ожиданием Mi  0 и дисперсией Mi2  1. В соответствии с формулой (64.3) функция распределения вероятностей случайной величины  n2
равна
( z )  P(  n2  z )       f n  x1 ,..., xn dx1  dxn ,
(67.1)
n
 xi2  z
i 1
где f n ( x 1,..., x n ) - совместная плотность вероятности величин 1 , ... ,  n . По
условию  i - независимые, поэтому f n равна произведению одномерных
плотностей:
n
1
2
n
  2 i1 xi
 1
f n ( x1 ,..., xn )  
 e
 2 
.
(67.2)
Из (67.1), (67.2) следует, что плотность вероятности  (z ) случайной величины  n2 определяется выражением:
 ( z )dz  Pz   n2  z  dz   (2 )

n
2
  e

1 n 2
 xi
2 i 1
dx1  dxn .
(67.3)
n
z   xi2  z  dz
i 1
115
Анализ этого выражения, видимо, представляет собой наиболее простой способ нахождения  (z ) , поскольку здесь dz  0 и (67.3) можно представить в
виде:

n
2
 ( z )dz  (2 ) e

z
2
  dx1  dxn .
(67.4)
n
z   xi2  z  dz
i 1
Здесь интеграл равен объему dV области n - мерного пространства, заклюn

ченной между двумя гиперсферами:
i 1
- радиуса
x 2i
 z - радиуса
z и
нален ( z ) , т. е. V ~
n
z2 ,
 x 2i  z  dz
i 1
z  dz . Поскольку объем V гиперсферы радиуса
n
n
z пропорцио-
то
dV ~
n
1
z 2 dz
(67.5)
- объем между двумя гиперсферами с радиусами z и z  dz , что и определяет с точностью до множителя интеграл (67.4). Подставим (67.5) в (67.4),
тогда
 ( z )dz 
n
z
1 
2
2
cz e dz ,
(67.6)
где c - постоянная, которая может быть определена из условия нормировки:

  ( z )dz  1.
(67.7)
0
Подставим (67.6) в (67.7), тогда
 n 1  z
c z 2 e 2 dz

 1.
(67.8)
0
Пусть t  z / 2 , dz  2dt , тогда интеграл (67.8)
 n 1  z
z 2 e 2 dz

0


n
n
1 1
2 2 t 2 e t 2dt
0

n
n
22 
,
 
 2
(67.9)
 n
1
n
    t 2 e t dt ,
(67.10)
2
  0
где (n / 2) - гамма - функция аргумента n / 2 . Из (67.8) и (67.9) определяется постоянная c , подстановка которой в (67.6) приводит к результату
116
n
z
1 
 1
2
2
z e , z  0,
 n
 2 n
 ( z )   2  
2

0 , z  0 .
(67.11)
67.2. Вычислим математическое ожидание и дисперсию случайной величины  n2 . Из (67.11)

M   z ( z )dz 
2
n
0


1
n
2

z
2
 z e dz 
n
2
n 0
2  
2

1
n
t
 2t  2 e 2dt 
n
2
n 0
2  
2
n
1
2
2 n n
n 


1

   n .


n
n 2 2
2



n


 
2 2  
 2
2
 
2
(67.12)
Аналогично среднее квадрата величины  n2 равно

M (  n2 ) 2   z 2 ( z )dz

1
z
n
2
n
z
1 
2
2
e dz 
n
2
2
n


  2 
n

n 2
2 2  
2
2
n 0
2  
2
22  n  n  n 
2

  1    (n  2)n  n  2n .
n 2  2 2
  
2
0
(67.13)
Из (67.12), (67.13) дисперсия
var  n2  M(  n2 )2  (M n2 )2  2n .
(67.14)
67.3. В задачах математической статистики важное значение имеют
распределения вероятностей, связанные с нормальным распределением. Это
прежде всего  n2 - распределение (распределение Пирсона), t n - распределение (распределение Стьюдента) и Fk , m - распределение (распределение Фишера). Распределение  n2 - это распределение вероятностей случайной величины
n
 n2   i2 ,
(67.15)
i 1
где  i - независимы и все i ~ N (0,1) .
117
Распределением Стьюдента (или t n - распределением) называется
распределение вероятностей случайной величины
tn 

,

(67.16)
где  и  - независимые случайные величины,  ~ N (0,1) и    n2 / n .
Распределением Фишера ( Fk , m - распределением) с k , m степенями
свободы называется распределение вероятностей случайной величины
 k2  m2
 
k
/
m
,
(67.17)
где  k2 ,  m2 - независимые случайные величины.
68. Хи-квадрат распределение и распределение Максвелла
по скоростям
Распределение Максвелла по скоростям молекул идеального газа представляет собой плотность распределения вероятностей модуля скорости  и
определяется соотношением
2

dN
2 2
2 RT
f ( ) 

e
,
(68.1)
3/ 2
Nd
2 ( RT )
где N - число молекул газа, dN число молекул, модуль скорости которых
лежит в интервале ( ,  d ) , R - газовая постоянная, T - абсолютная температура газа. Отношение dN / N - это вероятность того, что модуль скорости молекулы лежит в интервале ( ,  d ) , тогда f ( )  dN /( Nd ) -
плотность вероятности модуля скорости.
Распределение (68.1) может быть получено на основе следующих двух
простых вероятностных положений, задающих модель идеального газа.
1). Проекции  x ,  y ,  z скорости на оси x, y, z декартовой системы координат являются независимыми случайными величинами. 2). Каждая проекция
скорости  x ,  y ,  z ~ N 0,  2 - гауссова случайная величина с нулевым


математическим ожиданием и дисперсией  2 . Параметр  2  M x2 задается на основе экспериментальных данных.
Определим плотность вероятности случайной величины
 
1

2
( x2   y2   z2 ) .
(68.2)
Очевидно,  имеет хи - квадрат распределение с тремя степенями свободы.
Поэтому ее плотность вероятности  (z ) определяется формулой (67.11) при
n  3:
118
1
z

1
(68.3)
 ( z) 
z 2e 2 , z  0,
2
поскольку (3 / 2)   / 2 . Итак,  (z ) (68.3) - это плотность вероятности
квадрата относительной скорости  /   .
Следующий шаг состоит в переходе от распределения квадрата скорости ( /  ) 2 к распределению ее модуля y   /  ,   0 . Функциональное
2
преобразование имеет вид: y  z , а обратное z  y 2 , для y  0 , z  0 . Таким образом, обратное преобразование однозначное. Поэтому по (65.1)
плотность распределения модуля  /  имеет вид
y2
y2

dz
1
2y2  2
2
 ( y)   ( z)

ye 2 y 
e .
dy
2
2
(68.4)
Последний шаг состоит в переходе от случайной величины y к новой случайной величине
(68.5)
  RT y .
Обратное преобразование y   / RT - однозначное, поэтому плотность вероятности f случайной величины  , согласно (65.1) принимает вид
2
2

dy
2 2
f ( )   ( y )

e 2 RT
d
2 RT

1
2 2
2 RT
,   0,

e
3/ 2
RT
2 ( RT )
(68.6)
что и совпадает с формулой (68.1).
Соотношение (68.5), определяющее связь относительной и абсолютной
скоростей y и  , следует из третьего положения модели идеального газа,
которое является чисто физическим условием, в отличие от первых двух вероятностных условий. Третье условие может быть сформулировано как утверждение относительно значения E средней кинетической энергии одной
молекулы в виде равенства
3
E  kT ,
2
(68.7)
где k - постоянная Больцмана и представляет, по сути, экспериментальный
факт. Пусть   cy , где c - постоянная, которая далее определяется условием (68.7). Для нахождения c определим из (68.4) среднее квадрата относительной скорости:

My   y 2 ( y )dy  3 .
2
(68.8)
0
Тогда
средняя
кинетическая
энергия
молекулы
E  mM 2 2 
 mc 2 My 2 2  3mc 2 2 , где m - масса молекулы, и с учетом (68.7)
mc 2  kT , или c  RT .
119
Литература
1. Аркашов Н.С. Теория вероятностей и случайные процессы. Новосибирск:
Изд-во НГТУ, 2014. - 238с.
2. Кремер Н.Ш. Теория вероятностей и математическая статистика. М.:
Юрайт, 2020. - 538с.
3. Гмурман В.Е. Теория вероятностей и математическая статистика. М.:
Юрай, 2015. - 479с.
4. Пытьев Ю.П., Шишмарев И.А. Курс теории вероятностей и математической статистики для физиков. М.: Изд-во Моск. ун-та, 1983. - 256с.
5. Пытьев Ю.П., Шишмарев И.А. Теория вероятностей, математическая статистика и элементы теории возможностей для физиков. М.: Изд-во Моск.
ун-та, 2010.. - 406с.
6. Кацман Ю.Я. Теория вероятностей и математическая статистика. М.:
Юрайт, 2020. - 130с.
7. Пугачев В.С. Теория вероятностей и математическая статистика. М.: Наука, 1979. - 496с.
8. Агекян Т.А. Теория вероятностей для астрономов и физиков. М.: Наука,
1974. - 264с.
9. Чистяков В.П. Курс теории вероятностей. М.: Наука, 1982. - 256с.
10. Левин Б.Р. Теоретические основы статистической радиотехники. Книга
первая. М.: Сов. Радио, 1974. - 552с.
11. Вентцель Е.С. Теория вероятностей: Учебник для вузов. М.: Высшая
школа, 1999. - 575с.
12. Вентцель Е.С., Овчаров Л.А. Теория вероятностей и ее инженерные приложения М.: Высшая школа, 2000. - 480с.
13. Колемаев В.А., Староверов О.В., Турундаевский В.Б. Теория вероятностей и математическая статистика. М.: Высшая школа, 1991. - 400с.
120
Download