Uploaded by alibbook

Тактаров Н.Г. - Теория вероятностей и математическая статистика - 2014

advertisement
Н. Г. ТАКТАРОВ
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА:
КРАТКИЙ КУРС С ПРИМЕРАМИ И РЕШЕНИЯМИ
Текст исправлен и дополнен
2
АННОТАЦИЯ
Книга является учебным пособием, в котором кратко, просто и доступно изложены основы теории, иллюстрируемые большим количеством
примеров с подробными решениями. Абстрактные доказательства и выводы
формул в большинстве случаев заменены наводящими пояснениями, значительная часть которых содержится в примерах. Благодаря этому достигается
упрощение изложения и появляется возможность, используя минимальные
теоретические сведения, переходить непосредственно к решению задач, что
может быть полезным, в частности, на практических занятиях в вузах, в особенности для студентов - заочников, самостоятельно изучающих предмет в
условиях ограниченного времени.
Издание предназначено в основном для студентов, аспирантов и преподавателей инженерно-технических, педагогических и экономических специальностей вузов, а также для самообразования.
© Тактаров Н. Г., 2014
3
ЧАСТЬ 1
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Глава 1.1 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
1.1.1 Испытания и события
Испытанием называют наблюдение (опыт, измерение, эксперимент),
осуществленное при определенной совокупности некоторых условий S.
Предполагается, что испытание можно многократно повторить с одним и тем
же объектом (с сохранением всякий раз условий S). Другой тип повторения
испытания состоит в однократном его проведении с каждым из достаточно
большого количества сходных (однородных) объектов. Результатом, исходом
испытания является событие. События обычно обозначают заглавными латинскими буквами А, В, С,…
Достоверным называют событие, которое непременно происходит при
каждом повторении некоторого испытания. Обозначение: U.
Невозможным называют событие, которое заведомо не может произойти ни при каком повторении испытания. Обозначение: V.
Случайным называется событие, которое может в данном испытании
либо произойти, либо не произойти по объективным, не зависящим от
наблюдателя причинам.
Разные случайные события имеют различную возможность появления.
Мерой такой возможности является некоторое число, называемое вероятностью случайного события.
Закономерности, появляющиеся при проведении достаточно большого
количества испытаний с каким-либо объектом, называются вероятностными
или стохастическими закономерностями. Например, невозможно заранее
предсказать результат одного бросания монеты, но можно утверждать, что
при достаточно большом числе бросаний примерно в половине случаев выпадет «герб» (соответственно «цифра»).
4
Теория вероятностей – раздел математики, в котором изучаются
свойства вероятностей появления случайных событий, подчиняющихся вероятностным закономерностям, и устанавливающий соотношения между вероятностями событий, связанных друг с другом каким-либо образом. Вычисление же вероятностей отдельных событий в общем случае не может быть
проведено средствами одной только теории вероятностей без привлечения
дополнительных соображений (таких как симметрия, однородность и т. п.).
Пример 1.1.1. Испытание: извлечение шара из урны, содержащей
только белые шары. Событие А – извлечен белый шар – достоверное. Событие В – извлечен черный шар – невозможное.
Пример 1.1.2. Испытание: однократное бросание игральной кости (изготовленного из однородного материала кубика, на гранях которого отмечены числа очков от 1 до 6). Событие А – выпадение, например, одного очка –
случайное, т.к. может либо произойти, либо нет.
Два события называются несовместными, если появление одного из
них в данном испытании исключает появление другого в этом же испытании.
Если же появление одного события не исключает появления другого в одном
и том же испытании, то эти события называются совместными. Более чем
два события называются несовместными, если они попарно несовместны.
Если в данном испытании обязательно происходит только одно из двух
несовместных событий, то эти события называются (взаимно) противоположными. Если А – одно из двух противоположных событий, то другое –
обозначают Ā (читается: не А). Очевидно, что А = А. Если событие А происходит, то Ā не происходит, и наоборот.
Пример 1.1.3. 1. Испытание: однократное бросание игральной кости.
Событие А – появление двух очков, В – трех очков, С – четного числа очков.
Здесь события А и В – несовместные, А и С – совместные.
2. События выпадения любого числа очков от 1 до 6 при одном бросании игральной кости несовместны.
5
Пример 1.1.4. 1. Испытание: однократное бросание монеты. Здесь события А – выпадения герба и В = Ā – выпадение цифры являются противоположными.
2. Попадание в мишень и промах при одном выстреле – события противоположные.
3. События выпадения четного и нечетного числа очков при одном
бросании игральной кости – противоположные.
4. Безотказная работа всех элементов некоторой системы и отказ хотя
бы одного из этих элементов – события противоположные.
1.1.2. Классическое определение вероятности
1. Определение и свойства вероятности. Совокупность событий образует полную группу событий в некотором испытании, если его исходом
непременно должно быть хотя бы одно из них. В частности, в полной группе
попарно несовместных событий при одном испытании реализуется одно и
только одно из этих событий. Попарно несовместные равновозможные (т.е.
имеющие одинаковые возможности появления) результаты испытания, образующие полную группу, называются элементарными исходами (элементарными событиями). В полной группе Е элементарных исходов Е1, Е2,…,
Еn в результате испытания появляется какой-либо один и только один элементарный исход.
Пример 1.1.5. 1. Испытание: однократное бросание игральной кости.
Элементарные исходы (равновозможные попарно несовместные события, образующие полную группу): Е1, Е2, Е3, Е4, Е5, Е6, где Еi означает событие выпадения i очков.
Здесь выпадение любого числа очков от 1 до 6 исключает появление
другого числа очков в одном и том же испытании (несовместность). При
этом в результате испытания непременно должно выпасть какое-то число оч6
ков (полная группа событий). Предположение равновозможности отдельных
исходов может быть оправдано лишь в случае однородной правильной по
форме игральной кости.
2. Событие А – выпадение герба и В = Ā – выпадение цифры при одном
бросании монеты является элементарными.
3. Событие Аi(i = 1, 2, …, n), где i – номер шара, появившегося при однократном извлечении шара из урны, содержащей n одинаковых пронумерованных шаров, являются элементарными.
Появление какого-либо одного, любого из элементарных событий Еi
(образующих полную группу) при каждом однократном испытании является
достоверным событием U.
Те элементарные исходы, при наступлении которых достоверно происходит интересующее нас событие А, называются благоприятными (или благоприятствующими) для события А. При этом событие А подразделяется
(распадается) на эти благоприятные для него исходы и представляет собой
реализацию одного из благоприятных событий. Благоприятные события являются составными элементами данного события А. Следует отметить, что
выявление равновероятных исходов, с которыми связано какое-либо событие
А может оказаться весьма непростой задачей.
Пример 1.1.6. Испытание: игральная кость брошена один раз. Событие
А – выпадение четного числа очков. Благоприятными для А являются элементарные исходы Е2, Е4, Е6, (см. пример 1.1.5). Остальные три элементарных исхода не благоприятны для А.
Вероятностью Р(А) события А называется отношение числа т, благоприятных для него элементарных исходов к общему числу п всех возможных
элементарных исходов:
Р ( А) =
7
m
n
(m ≤ n).
Для отдельных элементарных исходов имеем:
Р (Е1 ) = ... = Р ( Е n ) =
1
,
n
т.е. равновозможность означает их одинаковую вероятность.
Для достоверного события U, заключающегося в появлении при испытании какого-либо одного из элементарных исходов Еi (образующих полную
группу) вероятность Р(U) = 1 т.к. здесь все исходы Еi благоприятны для U и
m= n.
Примечание. В общем случае предположение о равновозможности
элементарных событий Е1,…, Еn , образующих полную группу, неприменимо.
При этом с каждым событием Еi связывается число рi ≥ 0. называемое его вероятностью. Числа рi не обязательно равные, но в сумме должны давать
единицу. Если некоторое событие А достоверно происходит при наступлении
одного из благоприятных для него событий Еα, Еβ ,…, Еγ, то вероятность Р(А)
события А полагают по определению равной
Р(А) = pα + pβ + … + pγ.
Отсюда, при условии pα = pβ = … = pγ =
1
, следует как частный случай,
n
приведенное выше классическое определение вероятности. Далее будем использовать только классическое определение вероятности.
Пример 1.1.7. 1. При однократном бросании однородной правильной
по форме (куб) игральной кости вероятность выпадения любого определенного числа очков (от 1 до 6) равна Р(Еi )= (i = 1, 2, 3, 4, 5, 6) , т.к. n = 6, m = 1.
1
6
Для неправильной и (или) неоднородной кости можно, в частности, положить
Р (Е1 ) = Р (Е 2 ) = Р ( Е 3 ) =
1
,
5
Р (Е 4 ) = Р (Е 5 ) = Р ( Е 6 ) =
2
.
15
При этом Р(Е1 ) + ... + Р(Е 6 ) = 1 .
8
2. Найдем вероятность выпадения четного числа очков в условиях
примера 1.1.6. Число благоприятных для А элементарных исходов m = 3, число всех возможных исходов n = 6. Следовательно, Р( А) =
m 1
= .
n 2
3. В урне имеется 4 белых и 3 черных шара. Испытание: извлечение
наугад одного шара. Событие А – извлечение белого шара, В – черного шара.
Полная группа исходов состоит из n = 7 равновозможных исходов. Здесь
m = 4 для события А. Следовательно Р( А) = . Аналогично, Р(В ) = .
4
7
3
7
4. Найдем вероятность выпадения цифры (событие А) при одном бросании монеты. Здесь n = 2, m = 1. Следовательно Р( А) = .
1
2
5. Испытание: однократное совместное бросание двух игральных костей. Событие А: выпадение в сумме 7 очков. Полная группа состоит из n =
62 = 36 равновозможных событий. Выпадение в сумме 7 очков возможно m
= 6 способами: 7 = 1 + 6 = 6 + 1 = 2 + 5 = 5 + 2 = 3 + 4 = 4 + 3. Следовательно,
Р ( А) =
m 1
= .
n 6
6. Испытание: однократное совместное бросание трех игральных костей. Событие А: суммарное выпадение 11 очков на трех костях. Найдем вероятность Р( А) . Здесь общее число всех равновозможных исходов n = 63 =
216. Выпадение в сумме 11 очков возможно m = 27 способами: 11 = 1 + 5 + 5
= 5 + 1 + 5 = 5 + 5 + 1 = 1 + 4 + 6 = 4 + 1 + 6 = 1 + 6 + 4 = …. Следовательно,
Р ( А) =
27
.
216
7. Монета брошена два раза. Найдем вероятность p выпадения герба
хотя бы один раз. Здесь общее число всех исходов n = 2 · 2 = 4. Число благоприятных исходов m = 3, а именно: (г, ц), (ц, г), (г, г), где буквами «г» и «ц»
3
4
обозначены герб и цифра соответственно. Следовательно, p = .
9
Свойства вероятности
1) Вероятность достоверного события
равна единице (наибольшее
значение вероятности): Р(U) = 1.
2) Вероятность невозможного события А равна нулю (наименьшее значение вероятности): Р(V) = 0.
3) Вероятность случайного события А удовлетворяет неравенствам:
0 < Р(А) < 1.
Следовательно, вероятность любого события А удовлетворяет неравенствам: 0 ≤ Р(А) ≤ 1.
Вероятность какого-либо события характеризует лишь возможность
его появления. Практическое значение имеют только те результаты теории
вероятностей, которые позволяют установить, что вероятность некоторого
события А близка к единице, или, что равносильно, вероятность противоположного события Ā близка к нулю. При этом используется, основанный на
результатах многочисленных опытов, «принцип пренебрежения маловероятными событиями», согласно которому практически можно полагать, что
в единичном испытании событие А наступит, а Ā – нет. Вопрос о том,
насколько близкой к единице (или к нулю) должна быть вероятность, чтобы
можно было полагать появление события практически достоверным (или невозможным) в одном испытании, решается в каждой конкретной задаче отдельно.
2. Основные сведения из комбинаторики.
Комбинаторика – раздел математики, изучающий задачи выбора и
расположения элементов некоторого конечного множества в виде определенных комбинаций элементов, составленных согласно заданным правилам.
Перестановками из n различных элементов называются комбинации,
состоящие из одних и тех же n элементов, но различающихся порядком их
расположения. Число всех перестановок из n элементов равно Рn = n!,где n!
≡ 1· 2 · 3 ··· n (читается: n – факториал). По определению, 0! = 1.
10
Пример 1.1.8. Три разные книги, стоящие на полке, можно переставить
Р3 = 3! = 1· 2 · 3 = 6 способами.
Размещениями из n различных элементов по m (m ≤ n) элементов
называются комбинации, состоящие из m элементов и отличающиеся друг
от друга составом элементов, либо их порядком. Число всех возможных
размещений равно
Аnm = n( n − 1)(n − 2)...( n − m + 1) ,
где число сомножителей в правой части равно m. Если m = n, то Аnn = Pn = n!
Пример 1.1.9. 1. Чему равно число телефонных номеров, состоящих из
пяти различных цифр, не равных нулю?
Р е ш е н и е. Искомое число равно А95 = 9 · 8 · 7 · 6 · 5 = 15 120 (здесь
m = 5, а n = 9 – числу всех цифр от 1 до 9).
2. Абонент, набиравший номер телефона, забыл две последние цифры и
набрал их наугад, помня лишь, что они разные. Найти вероятность правильного набора номера.
Р е ш е н и е. Число всех равновозможных событий равно числу размещений из 10 цифр по 2, т.е. А102 = 10 · 9 = 90. Число благоприятных исходов
m = 1. Искомая вероятность Р = 1 : А102 = 190 .
Сочетаниями из n различных элементов по m элементов называются
комбинации, составленные из m элементов и отличающиеся хотя бы одним
элементом (порядок расположения элементов при этом не учитывается). Число всех возможных сочетаний
С nm =
n!
n(n − 1)(n − 2) ⋅ ⋅ ⋅ (n − m + 1)
=
.
m! (n − m)!
1⋅ 2 ⋅ ⋅ ⋅ m
Выполняются равенства:
С nm = С nm−1 + С nm−−11 , С nm = С nn −m , С nn = 1, С n1 = n .
11
Для числа перестановок, размещений и сочетаний справедлива формула Аnm = Рm ⋅ C nm .
Значения факториалов
0! =
1! =
2! =
3! =
4! =
5! =
6! =
1
1
2
6
24
120
720
7! =
8! =
9! =
10! =
11! =
12! =
13! =
5040
40320
362880
3628800
39916800
479001600
6227020800
Таблица значений
1
2
3
4
5
6
7
8
9
10
0
1
1
1
1
1
1
1
1
1
1
1
1
2
3
4
5
6
7
8
9
10
2
3
4
5
6
7
8
9
10
1
3
6
10
15
21
28
36
45
1
4
10
20
35
56
84
120
1
5
15
35
70
126
210
1
6
21
56
126
252
1
7
28
84
210
1
8
36
120
1
9
45
1
10
1
Пример 1.1.10. 1. Сколькими способами можно выбрать 3 книги из пяти?
Р е ш е н и е. Искомое число равно С53 = 5! = 10 .
3! 2!
2. В урне находится 10 шаров, отмеченных номерами от 1 до 10. Найти
вероятность того, что среди наугад извлеченных четырех шаров окажется
шар № 2 (событие А).
Р е ш е н и е. Общее число всех равновозможных исходов равно
n = C104 . Благоприятными для события А являются такие события, в которых
среди 4 извлеченных шаров имеется шар № 2, а остальные три имеют другие
номера. Число m этих событий равно числу способов извлечения трех шаров
12
3
из оставшихся девяти, т.е. m = C 9 . Следовательно, искомая вероятность рав-
на
Р( А) = C 93 : C104 =
9!
10!
(1 ⋅ 2 ⋅ ⋅ ⋅ 9) ⋅ (1 ⋅ 2 ⋅ 3 ⋅ 4) 2
:
=
= .
3! 6! 4! 6! (1 ⋅ 2 ⋅ 3) ⋅ (1 ⋅ 2 ⋅ ⋅ ⋅ 9 ⋅ 10) 5
3. Из урны, содержащей 6 белых и 4 черных шара, наугад извлекают
два шара. Чему равна вероятность того, что оба они окажутся черными (событие А)?
Р е ш е н и е. Здесь n = C 6+2 4 = C102 , m = C 42 . Следовательно,
Р ( А) =
m
2
= C 42 : C102 = .
n
15
4. В урне находится N шаров, среди которых М белых и N – M черных.
Наугад извлечены n шаров (без возврата). Найти вероятность того, что среди
извлеченных шаров окажется ровно m белых. Предполагается, что m ≤ n,
m ≤ М, n – m ≤ N – M.
Р е ш е н и е. Число всех возможных элементарных событий равно C Nn .
Число благоприятных элементарных событий равно C Mm ⋅ C Nn−−mM т.к. m белых
шаров из M можно выбрать C Mm способами, а оставшиеся n - m черных шара
можно выбрать из N – M черных шаров C Nn −−mM способами. Искомая вероятность равна
С Мm ⋅ C Nn−−mM
p=
.
C Nn
Число перестановок из n элементов, среди которых имеются повторяющиеся m1, m2, …, mk раз (m1 + m2 + … + mk = n), равно
Рn ( m1 , m2 ,..., mk ) =
n!
.
m1 !m2 !...mk !
Например, буквы в слове «м а т е м а т и к а» можно переставить
Р10 ( 2,3,2,1,1,1) =
10!
= 151 200 способами.
2! 3! 2!1! 1! 1!
13
Два основных правила комбинаторики
1. Если некоторый выбор А может быть осуществлен m различными
способами, а для каждого такого способа какой-либо другой выбор В можно
осуществить n способами, то совместный выбор А и В в указанном порядке
можно осуществить m · n способами. Аналогично, если выбор Аi (i = 1,…, k)
можно осуществить ni способами, то совместный выбор А1,…, Аk в указанной
последовательности можно осуществить n1 · n2 · … · nk способами.
2. При этом выбор либо А, либо В можно осуществить m + n способами. Аналогично, выбор либо А1,…, либо Аk осуществляется n1 + n2 + … + nk
способами.
Пример 1.1.11. Сколько трехзначных чисел, в которых все цифры разные, можно составить из цифр 0, 1, 2, 3, 4?
Р е ш е н и е. Первую цифру числа, не равную нулю, можно выбрать 4
способами. Если первая цифра выбрана, то вторую можно выбрать 4 способами, третью – 3 способами. Следовательно, согласно основным правилам,
количество трехзначных чисел равно 4 · 4 · 3 = 48.
1.1.3. Статистическое определение вероятности
1. Недостатки классического определения вероятности, ограничивающие его практическое использование, обусловлены следующими предположениями:
1) число всех возможных элементарных исходов испытания конечно;
2) элементарные события равновозможны;
3) интересующее нас событие подразделяется на некоторое конечное
число элементарных исходов (благоприятных событий). Вместе с тем,
например, в случае неоднородной и (или) неправильной по форме игральной
кости предположение о равновозможности элементарных событий неприменимо.
14
2. Пусть произведена серия из n не зависимых друг от друга испытаний, в каждом из которых может произойти или не произойти случайное событие А (с точным воспроизведением в каждом испытании совокупности
условий S). Если при этом событие А появилось m (m ≤ n) раз, то относительной частотой события А в данной серии испытаний называется отношение
wn ( A) =
m
.
n
Вероятностью (статистической) события А называется число Р(А),
около которого группируются относительные частоты этого события при
увеличении числа п испытаний в очередной их серии. При многократном повторении серий испытаний относительная частота изменяется мало и притом
тем меньше, чем больше число испытаний в очередной серии, т.е. относительная частота в этом смысле устойчива. Оказалось при этом, что в тех
случаях, когда применимо классическое определение вероятности, относительные частоты wn(А) группируются около вероятности, найденной в соответствии с этим определением. Например, многочисленные опыты с бросанием монеты показали, что относительные частоты появления герба (соответственно, цифры) мало отличаются от числа 0,5 и это отличие тем меньше,
чем больше число бросаний. По значениям относительных частот можно
найти лишь приближенное значение вероятности [P(A) ≈ wn(А)], но при увеличении числа испытаний точность этого равенства возрастает.
Примечание. Отметим, что число P(A) не является пределом величины
wn(А) в смысле математического анализа: нельзя гарантировать, что начиная
с некоторого достаточно большого n отличие wn(А) от P(A) будет, меньше заданного значения. Однако значительные отклонения wn(А) от P(A) хотя и
возможны, но маловероятны.
При значительном расхождении величины относительной частоты и
ожидаемого «классического» значения вероятности следует проверить обос-
15
нованность предположений, используемых в классическом определении вероятности.
1.1.4. Геометрическое определение вероятности
Геометрическое определение вероятности дает возможность найти
вероятность попадания точки в некоторую область (отрезок прямой, область
на плоскости или в пространстве), т.е. оно применимо к испытаниям с бесконечным множеством возможных исходов.
1. Пусть отрезок прямой (L1) с длиной L1 является частью отрезка (L),
имеющего длину L. На отрезок (L) наугад ставят точку, вероятность ее попадания на (L1) пропорциональна длине L1 и не зависит от расположения отрезка (L1) на отрезке (L). Тогда вероятность попадания точки на отрезок (L1)
равна
Р=
L1
.
L
2. Пусть область (S1) на плоскости является частью области (S) на этой
же плоскости. На область (S) наугад ставят точку, вероятность ее попадания в
область (S1) пропорциональна площади S1 области (S1) и не зависит ни от
формы (S1) , ни от расположения (S1) в области (S). Тогда вероятность попадания точки в область (S1) равна
Р=
S1
.
S
3. Пусть область (V1) с объемом V1 в пространстве является частью области (V) с объемом V. В области V наугад ставят точку. Тогда вероятность ее
попадания в область (V1), при тех же предположениях, что и в п. 2, равна
Р=
V1
.
V
4. В общем случае, по определению, геометрическая вероятность попадания точки в область g при бросании наугад этой точки в область G, содержащую область g, равна
16
Р=
mes g
,
mes G
где mes – мера области (длина, площадь, объем).
Пример 1.1.12. 1. Внутрь круга наугад ставят точку. Найдем вероятность ее попадания внутрь вписанного в окружность квадрата. Площади круга и квадрата равны соответственно S = π R2 (R- радиус круга), S1 =
1
(2R)·
2
(2R) = 2 R2. Искомая вероятность Р = S1/ S = 2 / π .
2. Стержень длины l разламывают на две части в наугад выбранной на
нем точке. Найдем вероятность того, что длина меньшего из обломков не будет превышать одной трети l. Обозначим через х расстояние от одного, фиксированного конца стержня до точки разлома. Тогда интересующее нас событие произойдет только при условии, когда либо х ≤ l / 3, либо х ≥ 2 l / 3.
Искомая вероятность Р = (l / 3 + l / 3) : l =2 / 3.
Пример 1.1.13. (З а д а ч а о в с т р е ч е). Два лица А и В условились о
встрече между 12 и 13 часами в определенном месте. Пришедший первым
ждет второго в продолжение 1/3 часа и уходит. Найти вероятность их встречи, если каждый из них в продолжение указанного часа наугад приходит на
встречу, независимо от момента прихода другого.
Р е ш е н и е. Обозначим через х и у моменты прихода лиц А и В соответственно. Квадрат со сторонами 1 на плоскости Оxy (рис. 1.1.1) содержит
точки (х, у), изображающие все возможные исходы. Встреча возможна только
при условии |х - у| ≤ 1/3, т.е. при выполнении неравенств: - 1/3 ≤ х - у ≤ 1/3,
или у ≥ х – 1/3 и у ≤ х + 1/3. Оба последних неравенства выполняются совместно в заштрихованной области (S1), содержащей точки, соответствующие
благоприятным исходам. Искомая вероятность равна отношению площади S1
17
Рис. 1.1.1
заштрихованной области к площади квадрата S = 1:
1 2 2
2 3 3
5
9
Р = S1 : S = 1 – 2 ( ⋅ ⋅ ) = .
Пример 1.1.14. (З а д а ч а Б ю ф ф о н а).
На плоскость, разлинованную параллельными прямыми, отстоящими
друг от друга на расстоянии 2L, наугад бросают иглу длиной 2l(l ≤ L). Найти
вероятность того, что игла пересечет какую-либо из этих прямых.
Р е ш е н и е. Обозначим через φ и h соответственно угол наклона иглы
к направлению прямых и расстояние от ее центра С до ближайшей прямой
(рис. 1.1.2 а). Все возможные исходы испытания изображаются точками прямоугольника со сторонами π и L на плоскости Оφh и площадью S = πL (рис.
1.1.2 б). Событие пересечения иглы с одной из прямых возможно тогда и
только тогда, когда h ≤ l sin φ, т.е. когда соответствующая точка (φ, h) попадает в заштрихованную область прямоугольника, ограниченную сверху кривой h = l sin φ и имеющую площадь
π
S1 = ∫ lsinϕdϕ = −lcosϕ π = 2l .
0
0
18
Рис. 1.1.2
Искомая вероятность равна: Р = S1 / S = 2l / πL .
Примечание к примеру 1.1.14. При многократном бросании иглы на
разлинованную плоскость относительная частота пересечения иглы с какойлибо из прямых должна быть приближенно равной найденному значению
вероятности Р. Это дает, в частности, возможность опытного нахождения
числа π.
1.1.5. Алгебра событий
При изучении соотношений между какими-либо событиями предполагается, что все эти события происходят или не происходят после каждой реализации неизменной совокупности некоторых условий S.
1. Если появление события А делает достоверным событие В, то говорят, что событие В содержит в себе А или А влечет за собой В (обозначение:
А ⊂ В). В общем случае из А ⊂ В не следует В ⊂ А. Если А ⊂ В, то Р(А) ≤ Р(В).
Пример 1.1.15. Если при бросании игральной кости событие А – выпадение трех очков, а В – нечетного числа очков, то А ⊂ В. Обратное утвержде19
ние здесь неверно, т.к. появление нечетного числа не делает достоверным
появление трех очков.
Если, в частном случае, справедливы оба соотношения А ⊂ В и В ⊂ А,
то события А и В называют равносильными и пишут: А = В. При этом события А и В оба совместно происходят или оба не происходят.
2. Объединением (или суммой) двух событий А и В называют событие
С, состоящее в появлении хотя бы одного из событий А или В (т.е либо А,
либо В, либо обоих этих событий совместно). Обозначения: С = А + В
или С = А ∪ В. Если события А и В несовместны, то событие С = А + В состоит в появлении либо А, либо В (безразлично какого).
Объединением (или суммой) нескольких событий А1, А2, …, Аn называют событие A, состоящее в появлении хотя бы одного из них. Обозначения: А = А1 + А2 + …+ Аn или А = А1 ∪ А2 ∪ … ∪ Аn.
Пример 1.1.16. 1. Каждый из двух стрелков делает по одному выстрелу
в одну и ту же мишень. События А и В – попадание в мишень первым и вторым стрелком, тогда событие С = А + В состоит а попадании или только первым стрелком, или вторым, или обоими вместе.
2. Испытание: три выстрела по мишени. События: А0, А1, А2, А3 – соответственно ни одного попадания, ровно 1, 2, 3 попадания. Тогда событие
С1 = А0 + А1 – не более одного попадания, а С2 = А2 + А3 – не менее двух
попаданий.
3. Событие: А1 = Е2 + Е4 + Е6 (см. пример 1.1.5) состоит в выпадении
четного числа очков; А2 = Е1 + Е3 + Е5 – нечетного числа очков; А3 = Е1 + Е2 –
не более двух очков; А4 = Е3 + Е4 + Е5 + Е6 – не менее трех очков.
3. Пересечением (или произведением, или совмещением) нескольких
событий А1, А2,…, Аn называют событие A, состоящее в совместном появ-
20
лении всех этих событий. Обозначения: А = А1, А2, …, Аn или А = А1∩А2
∩…∩Аn.
Пример 1.1.17. 1. В условиях примера 1.1.16. 1 событие С = АВ означает совместное попадание в мишень обоими стрелками.
2. Пусть в условиях примера 1.1.16. 2 события В1, В2, В3 ( В1 , В 2 , В3 )
означают попадание (промах) при первом, втором и третьем выстреле соответственно. Тогда событие С1 = В1В2В3 означает ровно три попадания; С2 =
В1 В2 В3 – мишень не будет поражена ни разу; С3 = В1 В2 В3 + В1 В2 В3 + В1 В2 В3
– ровно одно попадание в мишень; С4 = В1 В2 В3 + В1 В2 В3 + В1 В2 В3 + В1 В2 В3
– не менее двух (т.е. 2 или 3) промахов, либо, что то же самое, не более одного попадания.
3. В условиях примера 1.1.16. 3 событие С = Е2 Е4 Е6 = V, т.е. является
невозможным т.к. Е2, Е4, Е6 – несовместные в одном испытании события.
4. Для любых событий А, В, С справедливы соотношения:
А + В = В + А, АВ = В А, А + В =А В + В,
А + А = А, АА = А,
(А + В) + С = А + (В + С), (А В) С = А(ВС),
(А + В) С = А С + В С, A + B = A B ,
A + B = AB , А A = V (невозможное событие),
А + A = U (достоверное событие), U = V,
А + V = А, А V = V, А + U = U, А U = А;
если В ⊂ А, то А + В = А и А В = В.
Если события А1, …, Аn образуют полную группу, то А1 + …+ Аn = U.
Разностью любых двух событий А и В (обозначение: А – В или А \ В)
называется событие С, означающее, что событие А происходит, а В не происходит. Для противоположных (иначе говоря, дополнительных друг к другу)
событий А и Ā справедливо: А = U – Ā, Ā = U – А (или А = U \ Ā, Ā = U \ А).
21
Примечание. В алгебре событий применимы также и другие соотношения теории множеств.
5. Если случайное событие понимать геометрически как попадание
точки в некоторую область на плоскости, то соотношения алгебры событий
допускают наглядное толкование. На рис. 1.1.3 каждый из восьми прямоугольников означает полную группу Е элементарных исходов испытания, так
что попадание точки в этот прямоугольник является достоверным событием
U, поскольку в результате испытания один из элементарных исходов обязательно произойдет. На рис. 1.1.3а изображены два несовместных (непересекающихся) события А и В; на рис. 1.1.3б объединение (сумма) событий А и В
заштриховано; пересечение событий изображено на рис. 1.1.3в заштрихованной общей частью областей А и В; на рис. 1.1.3г событие А изображено заштрихованной областью, а событие Ā – внешней к области А частью прямоугольника; на рис. 1.1.3д,е,ж,з изображены соответственно соотношения:
22
Рис. 1.1.3
А ⊂ В, А - В, В - А, А-В .
Площадь прямоугольника принимается равной единице, а площади областей внутри прямоугольника равны вероятностям соответствующих событий. Аналогично изображаются и соотношения между более чем двумя событиями.
1.1.6. Правила сложения и умножения вероятностей
1. Вероятность объединения (суммы) двух несовместных событий А и
В равна сумме вероятностей этих событий
Р(А + В) = Р(А) + Р(В).
23
Действительно, если событиям
и
элементарных исходов, а
и
благоприятны соответственно
– общее число всех элементарных исходов,
то
.
Для нескольких попарно несовместных (когда несовместны любые
два из них) событий А1, …, Аn справедливо равенство
n
Р(А1, …, Аn) = Р(А1) + … + Р(Аn) ≡
∑ Р( А ) .
i =1
i
Сумма вероятностей противоположных событий равна единице:
Р(А) + Р(Ā) = 1.
Если события А1, …, Аn образуют полную группу попарно несовместных событий, то
Р(А1) + … + Р( Аn) = 1.
Пример 1.1.18. 1. Испытание: однократное бросание игральной кости.
Вероятность выпадения какого-либо одного определенного числа очков от 1
до 6 равна 1/6. В частности, вероятность выпадения 3 (событие А) равно
Р (А) = 1 6 .
Вероятность невыпадения 3 (событие Ā) равна Р(Ā) = 1 - Р(А) = 1 1 5
= . Вероятность выпадения либо 3, либо 5 (события А, В) равна Р(А + В)
6 6
= Р(А) + Р(В) =
1 1 1
+ = .
6 6 3
2. В урне 30 шаров, из них 5 красных, 10 синих, 15 белых. Найти вероятность появления цветного (синего или красного) шара при извлечении одного шара.
Р е ш е н и е. Пусть А и В – события (несовместные) извлечения красного и синего шара соответственно. Тогда Р(А) = 5 30 , Р(В) = 10 30 . Искомая
вероятность Р(А + В) = 5 30 + 10 30 = 1 2 .
3. В урне n белых и черных шаров, из них m белых. Найти вероятность
того, что из k наугад извлеченных шаров есть хотя бы один белый.
24
Р е ш е н и е. Обозначим соответственно А и Ā противоположные события: «среди извлеченных шаров есть хотя бы один белый» и «все извлеk
ченные шары черные». Тогда Р(А) + Р(Ā) = 1. При этом Р(Ā) = C n −m
C nk
т.к
число всех исходов для Ā равно C nk , а число способов извлечения k черных
шаров из n-m черных равно C nk−m (k ≤ n - m). Следовательно,
k
Р(А) = 1 - Р(Ā) = 1 – C n −m
C nk
.
Этот пример имеет и другое решение. Событие А можно представить
как сумму несовместных событий А1, …, Аk, где Аi (i = 1, …, k) – событие извлечения i белых шаров среди k шаров (1 ≤ i ≤ k ≤ m). Тогда число исходов,
благоприятных для извлечения i белых шаров, равно С mi ⋅ C nk−−mi (см. пример
1.1.10.4). Число всех возможных исходов равно C nk . Следовательно,
k-i
Р(Аi) = С mi ⋅ C n −m
C nk
(i = 1,…, k).
Искомая вероятность Р(А) = Р(А1) + …+ Р(Аk).
2. Условная вероятность. Событие А называется независимым от
события В, если вероятность события А не зависит от появления или непоявления события В. В противном случае событие А называется зависимым от
события В. Независимость (зависимость) событий является взаимным свойством, т.е. можно сказать, что события А и В независимы (либо зависимы)
друг от друга, если появление одного, любого из них не изменяет (либо изменяет) вероятность появления другого. На практике независимость (зависимость) событий часто устанавливается из интуитивных соображений, основывающихся на опыте.
Вероятность события А, найденная при условии, что событие В уже
наступило, называется условной вероятностью события А и обозначается
Р(А|В) или РВ(А). Если события А и В независимы, то Р(А|В) = Р(А), Р(В|А) =
Р(В), т.е условная вероятность равна обычной безусловной вероятности, при
нахождении которой никаких других условий, кроме обычных условий S не
25
налагается; тогда как Р(А|В) вычисляется при дополнительном условии, что
произошло событие В. Если события А и В зависимы, то Р(А|В) ≠ Р(А), Р(В|А)
≠ Р(В). Из независимости событий А и В следует независимость событий А
и В, А и В , А и В .
Пример 1.1.19. 1. Две монеты брошены каждая по одному разу. События А и В выпадения герба на первой и второй монете соответственно независимы. При этом Р(А) = 1 2 , Р(В) = 1 2 .
2. Из урны, содержащей 4 белых и 3 черных шара, два лица М1 и М2 извлекают по одному шару. События: «лицо М1 извлекло белый шар» и «лицо
М2 извлекло черный шар» обозначим А и В соответственно. Если после из-
влечения каждого шара его возвращают обратно, то независимо от появления события А, вероятность события В равна Р(В) = 3 7 . Аналогично, независимо от события В, имеем Р(А) = 4 7 . Здесь А и В независимые события.
Пусть теперь извлеченные шары не возвращаются обратно. Тогда,
если произошло А, то Р(В|А) = 3 6 = 1 2 , т.к. в урне осталось 6 шаров, из которых 3 черных. Аналогично, Р(А|В) = 4 6 = 2 3 . Здесь события А и В зависимые,
т. к. вероятность каждого из них изменяется после того, как произошло другое. При этом Р(А|В) ≠ Р(А) = 4 7 и Р(В|А) ≠ Р(В) = 3 7 .
3. При бросании игральной кости вероятность появления пяти очков
(событие А) равна Р(А) = 1 6 . Если стало известно, что выпало нечетное число очков (событие В), то Р(А|В) = 13 .
4. Две игральные кости брошены по одному разу каждая. Событие А выпадение в сумме 5 очков. Найти вероятность события А, если стало известно, что в сумме выпало нечетное число очков (событие В).
Р е ш е н и е. Здесь общее число всех возможных исходов равно 6 · 6 =
36, из них число благоприятных для А равно 4. Следовательно, безусловная
вероятность Р(А) = 4 36 . Если стало известно, что произошло событие В, то 4
26
благоприятных для А события будут входить в состав уже 18 (но не 36) всех
возможных исходов, т.к. число всех нечетных сумм равно 18. Следовательно,
Р(А|В) = 418 ≠ Р(А). Здесь А и В – зависимы.
Условные вероятности определяются равенствами
,
.
Однако в некоторых задачах условные вероятности удается найти
непосредственно, что позволяет отыскать затем вероятность пресечения
случайных событий
и
(см. ниже).
3. Вероятность пересечения (совместного появления) двух зависимых событий
и
по определению условной вероятности равна произведе-
нию вероятности одного из них (любого) на условную вероятность другого,
вычисленную при условии, что первое событие уже произошло.
Р(АВ) = Р(А)Р(В|А) = Р(В)Р(А|В) = Р(ВА).
Если события А и В независимы, то
Р(АВ) = Р(А)Р(В).
И обратно, если это равенство выполняется, то события А и В независимы.
Правило умножения вероятностей обобщается на случай любого числа
событий:
Р(А1, А2,…, Аn) = Р(А1) Р (А2|А1) Р(А3|А1 А2) … Р(Аn|А1 А2… Аn-1).
Например, для трех событий А, В, С:
Р(АВС) = Р(А) Р(В|А)Р(С|АВ).
Здесь Р(С|АВ) – вероятность события С, вычисленная при условии, что
события А и В уже произошли. Порядок расположения событий А, В, С в вышеприведенной формуле может быть любым.
Пример 1.1.20. 1. Испытание: бросание игральной кости дважды.
Пусть события А и В – выпадение 5 очков при первом и втором бросании.
27
Тогда вероятность выпадения 5 очков дважды равна Р(АВ) = Р(А)Р(В) =
1 1 1
⋅ =
т.к. здесь А и В – независимы.
6 6 36
Событие С выпадения 5 очков точно один раз за два бросания кости
можно записать в виде С = А В + А В. По правилу сложения вероятностей
несовместных событий Р(С) = Р(А В ) + Р( А В) =
Р( А ) = Р ( В ) =
1 5 5 1 5
⋅ + ⋅ = , где
6 6 6 6 18
5
.
6
2. В условиях примера 1.1.19.1 вероятность выпадения герба дважды
1 1
2 2
1
4
равна Р(АВ) = Р(А)Р(В) = ⋅ = .
3. Два орудия сделали по одному выстрелу по цели. События попадания первым и вторым орудием обозначим А и В. Известно, что Р(А) = 0,9 и
Р(В) = 0,8. Здесь события А и В – независимые. Вероятность
совместного
попадания равна Р(АВ) = Р(А) Р(В) = 0,9 · 0,8 = 0,72.
4. Из урны, содержащей 4 белых и 3 черных шара, два раза подряд извлекают по одному шару. Найти вероятность того, что первым и вторым будут извлечены (без возвращения обратно) белый и черный шар соответственно (см. пример 1.1.19.2).
Р е ш е н и е. Здесь Р(А) = 4 7 , Р(В|А) = 1 2 . Следовательно, искомая вероятность
3 2
7 3
Р(АВ) = Р(А)Р(В|А) =
4 1 2
⋅ = . При этом Р(ВА) = Р(В)Р(А|В)
7 2 7
2
7
= ⋅ = , т.е. Р(АВ) = Р(ВА). Этот пример может быть решен также и непосредственно по определению вероятности Р(С) = Р(АВ) =
m 2
= , где общее
n 7
исходов n = А72 = 7 · 6 = 42, а число благоприятных исходов m = 4 · 3 = 12.
Если шары после извлечения возвращаются обратно, то Р(АВ) = Р(А)
Р(В) =
4 3 12
⋅ =
.
7 7 49
28
5. Три орудия делают по одному выстрелу в мишень с вероятностями
попадания р1 = Р(А1), р2 = Р(А2), р3 = Р(А3), где А1, А2, А3 – события попадания первым, вторым и третьим орудиями. Найти вероятность того, что при
этом будет точно одно попадание (событие В).
Р е ш е н и е. Событие В равно сумме трех несовместных событий В =
А1 А2 А3 + А1 А2 А3 + А1 А2 А3. Следовательно, Р(В) = Р(А1 А2 А3 ) + Р( А1 А2 А3 ) +
Р( А1 А2 А3) = р1 q2 q3 + q1 р2 q3 + q1 q2 р3, где qi = 1 – рi (i = 1, 2, 3).
6. Найти вероятность того, что при бросании монеты 2 n раз число выпадений цифр (n1) будет больше, чем выпадений гербов (n2), где n1 + n2 = 2 n.
Обозначим А, В, С события n1 > n2, n1 = n2 = n, n1 < n2 соответственно. Тогда
Р(А) + Р(В) + Р(С) = 1 и Р(А) = Р(С). Следовательно, Р(А) =
1
[1 - Р(В)]. Со2
бытие В состоит из С 2nn равновероятных событий, вероятность каждого из коn
n
2n
2n
1
1
1
1
торых равна   ⋅   =   . Следовательно, Р(В) = С 2nn ⋅   . Затем нахо2 2
2
2
дится Р(А).
7. В урне 8 белых и 4 черных шара. Наугад извлекают по одному три
шара без возврата. Найти вероятность того, что все они окажутся черными.
Р е ш е н и е. Пусть А1 А2 А3 –события извлечения первым, вторым и
третьим черного шара. Тогда Р(А1) = 412 , Р(А2|А1) = 311 , Р(А3|А1 А2) = 210 .
Искомая вероятность
Р(А1 А2 А3) = Р(А1)Р(А2|А1)Р(А3|А1 А2) =
4 3 2
1
⋅ ⋅ =
.
12 11 10 55
8. Известно, что Р(АВ) = 0,65 и Р(А В ) = 0,15. Найти Р(А).
Р е ш е н и е. Имеем А = AU = А(В + В )= АВ + А В . По правилу сложения вероятностей несовместных событий АВ и А В находим Р(А) = Р(АВ)+
Р(А В ) = 0,8.
29
Случайные события А1, А2, …, Аn называются независимыми в совокупности (или просто независимыми) если они попарно независимы (когда независимы любые два из них), а также независимы каждое событие и все возможные пересечения остальных. Из независимости в совокупности следует попарная независимость, но не наоборот. Для независимых в совокупности событий А1, …, Аn вероятность их пересечения равна
произведению вероятностей этих событий:
Р(А1 … Аn) = Р(А1) …Р(Аn).
Если события А1, …, Аn независимы в совокупности, то противоположные события Ā1, …, Ān также независимы в совокупности.
4. Вероятность появления хотя бы одного из событий. Пусть в результате испытания могут произойти либо все n независимых в совокупности
событий А1, …, Аn, имеющих вероятности появления р1 = Р(А1), …, рn = Р(Аn),
либо только некоторые из них (в частности, ни одного, либо только одно и т.
д.). Тогда событие А, состоящее в появлении хотя бы одного из А1, …, Аn и
событие А = А1 А2 … Аn (т.е непоявление ни одного события) противоположны и Р(А) + Р( А ) = 1. Отсюда следует:
Р(А) = 1 – q1 q2…qn,
где qi = 1 – рi (i = 1, 2,…, n). Если р1 = р2 = … = рn ≡ р, то Р(А) = 1 – qn (q = 1 –
р).
Пример 1.1.21. 1. Каждая из трех игральных костей брошена по одному разу. Найти вероятность выпадения одного очка хотя бы на одной кости
(событие А).
Р е ш е н и е. Событие А означает выпадение единицы либо только на
одной кости, либо на двух, либо на трех. События выпадения одного очка на
каждой из костей независимы в совокупности, вероятность каждого из них
р = 1 6 . Вероятности противоположных событий q = 1 – р = 5 6 .
Отсюда: Р(А) = 1 – q3 = 91 216 .
30
2. Пару игральных костей бросают 24 раза подряд. Найти вероятность
Р(А) выпадения хотя бы один раз двух пятерок (событие А).
Р е ш е н и е. Вероятность выпадения двух пятерок при одном бросании
р=
1 1 1
⋅ =
(см. пример 1.1.20,1). Вероятность того, что две пятерки ни разу
6 6 36
не выпадут при 24 бросаниях (событие А ) равна
24
Р( А ) = q
24
= (1 - р)
24
1
= 1 −  = 0,5086.
 36 
Искомая вероятность
Р(А) = 1 – Р(Ā) = 1 – 0,5086 = 0,4914.
Примечание. Для любого числа n событий А1, …, Аn, справедливо
 n

 n

P ∑ Ai  = 1 − Р ∏ Аi  .
 i =1 
 i =1 
Для независимых в совокупности событий отсюда следует
n
 n

Р ∑ Аi  = 1 − ∏ P(Ai ) .
 i =1 
i =1
5. Правило сложения вероятностей совместных событий.
Объединение А + В совместных событий А и В происходит при появлении одного из трех следующих несовместных событий: А В , А В, АВ.
По правилу сложения вероятностей несовместных событий
имеем
.
Справедливы равенства
,
,
где события
и
, а также
и
несовместны. Поэтому
,
.
31
Отсюда
,
.
С учетом двух последних равенств формула сложения вероятностей
совместных событий
и
записывается в виде
.
(1.1.1)
При этом события А и В могут быть либо зависимыми, либо независимыми. Для зависимых событий Р(АВ) = Р(А)Р(В|А) =Р(В)Р(А|В), для независимых Р(АВ) = Р(А)Р(В). Если события А и В несовместные, то Р(АВ) = 0, и
Р (А+В) = Р(А) + Р(В). Формуле (1.1.1) соответствует рис. 1.1.3,б.
Для случайных событий А1, А2, …, Аn справедлива формула
 n
 n
Р ∑ Аi  = ∑ Р(Аi ) − ∑ P(Аi A j ) + ∑ P(Аi A j Ak ) − ... + ( − 1 ) n −1 P(A1 A2 ...An ) .
1≤i < j ≤ n
1≤i < j < k ≤ n
 i =1  i =1
В частности, для трех совместных событий А,В,С:
Р(А + В + С) = Р(А) + Р(В) + Р(С) – Р(АВ) – Р(АС) – Р(ВС) + Р(АВС).
Для любых событий А и В:
Р(А – В) = Р(А) – Р(АВ),
Р(В – А) = Р(В) – Р(АВ).
Если А ⊂ В, то Р(В – А) = Р(В) – Р(А).
Пример 1.1.22. 1. Игральная кость брошена один раз. Найти вероятность выпадения четного, либо кратного трем числа очков.
Р е ш е н и е. Пусть А – событие выпадения четного числа очков, В –
кратного трем. События А и В совместны (выпадение 6 очков). Находим Р(А)
=
m 3
2
1
= , Р(В) = , Р(АВ) =
(вероятность выпадения 6 очков). По формуле
n 6
6
6
3
6
2
6
1
6
2
3
(1.1.1) находим Р(А+В) = + − = . Задача может быть решена также непосредственно с использованием определения вероятности. Благоприятными
для А являются исходы Е2, Е4, Е6; для В – исходы Е3, Е6; для А + В – исходы
Е2, Е3, Е4, Е6, т.е. m = 3 + 2 – 1 = 4, n = 6 и Р(А+В) =
32
m 2
= .
n 3
2. Вероятности попадания в одну цель первым и вторым орудием по
отдельности равны р1 = Р(А) = 0,8 и р2 = Р(В) = 0,9. Орудия сделали по одному выстрелу. Найти вероятность поражения цели хотя бы одним из орудий.
Р е ш е н и е. События А и В совместны и независимы. Искомая вероятность по формуле (1.1.1) равна Р(А+В) = р1 + р2 - р1 р2 = 0,98.
3. Вероятности попадания в мишень первым, вторым и третьим стрелком по отдельности равны: р1= Р(В1), р2 = Р(В2), р3 = Р(В3). Каждый из
стрелков сделал по одному выстрелу. События попадания в мишень В1, В2,
В3 – независимые. Найти вероятность ровно одного опадания в мишень (событие С).
Р е ш е н и е. Согласно примеру 1.1.17.2 имеем
С = В1 В2 В3 + В1 В2 В3 + В1 В2 В3 ,
т.е. событие С равносильно сумме трех несовместных (по условию задачи)
событий. Искомая вероятность равна
Р(С) = Р(В1 В2 В3 ) +Р( В1 В2 В3 ) + Р( В1 В2 В3) =
= р1 q2 q3 + q1 р2 q3 + q1 q2 р3,
где qi = 1 – рi (i = 1, 2, 3) – вероятность противоположных событий Вi .
1.1.7. Формула полной вероятности. Формулы Байеса
1. Пусть случайное событие А может произойти вместе с одним из попарно несовместных событий В1, В2, …, Вn, образующих полную группу. При
этом событие можно записать в виде суммы несовместных событий:
.
Тогда справедлива формула полной вероятности
Р(А) = Р(В1)Р(А|В1) + … + Р(Вn)Р(А|Вn).
(1.1.2)
Здесь Р(Вk) (k = 1, 2, …, n) – вероятность событий Вk, называемых гипотезами для события А, при этом Р(В1) + … + Р(Вn) = 1; Р(А|Вk) – условные
вероятности события А.
33
Пример 1.1.23. 1. Имеются две урны. В первой 3 белых и 4 черных шара. Во второй 2 белых и 6 черных. Найти вероятность того, что наугад извлеченный шар из наугад выбранной урны окажется белым.
Р е ш е н и е. Пусть событие В1 – выбрана первая урна, В2 – вторая. Поскольку урн всего две, то Р(В1) = 1 2 , Р(В2) = 1 2 . Условные вероятности
Р(А|В1) = 3 7 , Р(А|В2) = 2 8 , где А – событие извлечения белого шара. По
формуле (1.1.2) находим
1 3
2 7
1 2
2 8
Р(А) = ⋅ + ⋅ =
19
.
56
2. В первой урне 15 шаров, из них 4 черных, во второй 10 шаров, из них
3 черных. Из второй урны наугад извлечен 1 шар и помещен в первую.
Найти вероятность того, что шар, наугад извлеченный затем из первой урны,
окажется белым.
Р е ш е н и е. Обозначим А событие извлечения белого шара из первой
урны. Из второй урны извлекается либо белый шар (событие В1), либо черный (событие В2), с вероятностями Р(В1) = 7 10 , Р(В2) = 310 . Вероятность извлечения белого шара из первой урны при условии наступления события В1
равна Р(А|В1) = 1216 , аналогично Р(А|В2) = 1116 . Искомая вероятность равна
Р(А) = Р(В1)Р(А|В1) + Р(В2)Р(А|В2) =
7 12 3 11 117
⋅ + ⋅ =
.
10 16 10 16 160
2. Пусть вероятности гипотез, найденные до проведения испытания,
равны Р(Вk) (k = 1, 2,…, n). Имеем Р(АВk) = Р(А)Р(Вk|А) = Р(Вk )Р(А|Вk).
Отсюда следует
Р ( Вk ) P ( A Bk )
Р(Вk|А) =
P( A)
.
Подставляя в это равенство выражение Р(А) из (1.1.2), находим формулы Байеса
Р(Вk|А) =
Р(Вk )P(A Bk )
(k = 1, 2, …, n),
n
∑ P(B )P(A B
i =1
i
i
)
34
(1.1.3)
позволяющие найти условные вероятности гипотез Р(Вk|А) после испытания, при котором произошло событие А (переоценка вероятностей гипотез
по результатам испытаний). В частности, если Р(В1) = … = Р(Вn) = 1 n , то
формулы (1.1.3) упрощаются:
Р(Вk|А) =
P ( A Bk )
n
∑
i =1
.
P( A B i )
Пример 1.1.24. 1. Пусть в условиях примера 1.1.23. 1 после испытания
стало известно, что вынут белый шар (т.е. произошло событие А). Какова вероятность того, что шар вынут из первой урны? Из второй?
Р е ш е н и е. Вероятности гипотез В1 и В2 до испытания Р(В1) = Р(В2) =
1 . Согласно примеру 1.1.21.1 имеем Р(А|В1) = 3 , Р(А|В2) = 2 . Условные
2
7
8
вероятности гипотез после испытания находим по формулам (1.1.3):
Р(В1|А) =
(12 )⋅ (3 7 )
19
56
12
= , Р(В2|А) =
19
(12 )⋅ (2 8 )
19
56
=
7
.
19
2. Прибор, состоящий из двух узлов, при испытании выходит из строя,
если откажет хотя бы один из этих узлов. Вероятности отказа узлов равны р1
и р2 соответственно. При испытании прибор вышел из строя (событие А). Чему равна вероятность того, что это связано с одним только первым узлом?
Р е ш е н и е. Для событие А возможны следующие гипотезы: В1 – оба
узла исправны; В2 – первый исправен, второй нет; В3 – второй исправен, первый нет; В4 –оба узла неисправны.
При этом Р(В1) = q1 q2; Р(В2) = q1 р2; Р(В3) = р1 q2;
Р(В4) = р1 р2, где
qi = 1 – pi (i = 1, 2); Р(А|В1) = 0; Р(А|В2) = 1; Р(А|В3) = 1; Р(А|В4) = 1. Условные
вероятности гипотез после испытания:
Р(В1|А) = 0, Р(В2|А) =
q1 p2
pq
pp
, Р(В3|А) = 1 2 , Р(В4|А) = 1 2 ,
a
a
a
где а = q1 р2 + р1 q2 + р1 р2.
Искомая вероятность равна Р(В3|А) = р1 q2/а.
35
Глава 1.2 ПОВТОРЕНИЕ ИСПЫТАНИЙ
1.2.1. Формула Бернулли
Пусть некоторое испытание повторяется n раз. В каждом испытании
может произойти или не произойти случайное событие А. Пусть вероятность
р события А в каждом из этих испытаний одна и та же и не зависит от исходов других испытаний (независимые относительно А испытания). В частности, событие В, состоящее в появлении события А два раза в трех испытаниях, можно записать в виде следующей суммы несовместных произведений
независимых событий Аi, Аi (i = 1, 2, 3):
В = А1 А2 А3 + А1 А2 А3 + А1 А2А3,
где, например, А1 А2 А3 означает, что событие А произошло при первом и втором испытании и не произошло при третьем.
Вероятность появления события А (т.е. непоявления А) равна q = 1 – р
в каждом испытании. По правилу сложения вероятностей несовместных событий вероятность того, что в результате n испытаний событие А произойдет
точно m (0 ≤ m ≤ n) раз (и не произойдет n – m раз) находится по формуле
Бернулли


n!
Рn(m) = C nm p m q n-m C nm =
,0!= 1 .
m!(n-m)!


Вероятность наступления события А в n испытаниях: 1) менее m раз, 2)
более m раз, 3) не менее m раз, 4) не более m раз, находят по соответствующим формулам:
1) Рn(k < m) = Рn (0) + Рn (1) + … + Рn (m - 1),
2) Рn(k > m) = Рn (m + 1) + Рn (m + 2) + … + Рn (n),
3) Рn(k ≥ m) = Рn (m) + Рn (m + 1) + … + Рn (n),
4) Рn(k ≤ m) = Рn (0) + Рn (1) + … + Рn (m).
36
Пример 1.2.1. Монету бросают 5 раз. Найти вероятность того, что герб
выпадет: 1) менее двух раз, 2) не менее двух раз.
Р е ш е н и е.
0
5
1
4
1 1
1 1
1) Р5 (k < 2) = P5 (0) + P5 (1) = С ⋅     + С51 ⋅     =
2 2
2 2
5!
1
5! 1 1
3
=
⋅1 ⋅ +
⋅ ⋅ = .
0! 5! 32 1! 4! 2 16 16
0
5
2) Вероятность можно найти либо по формуле:
Р5 (k ≥ 2) = P5 (2) + P5 (3) + P5 (4) + P5 (5) , либо с учетом того, что собы-
тия в п.1 и 2 противоположны: Р5 (k ≥ 2) = 1 - P(k < 2) = 1 -
3 13
=
.
16 16
Вероятность Рn(m) в формуле Бернулли при увеличении m от 0 до n
сначала возрастает, а затем, после достижения максимума убывает. Значения
m= m0, при которых вероятность Рn(m)достигает максимума называются
наиболее вероятными и удовлетворяют неравенствам np – q ≤ m0 ≤ np + p.
При этом:
1) Если число (np – q) – целое, то наиболее вероятными будут два целых числа: m0 = np – q и m0′ = m0 + 1 = np + p;
2) Если число np – целое, то единственное наиболее вероятное значение m0′′ = np;
3) Если число (np – q) – дробное, то единственное наиболее вероятное
число m0 равно наименьшему целому числу, превышающему m0 = np – q.
Например, при бросании игральной кости n = 3 000 раз наиболее веро1
ятное число выпадений пяти очков равно m0′′ = np = 3 000 · = 500.
6
При этом вероятность Р3000 (500) ≈ 0,020. Всякое другое число появлений пяти очков имеет меньшую вероятность.
Примечание 1. Если вероятность появления события А изменяется от
опыта к опыту в n независимых испытаниях так, что вероятность появления
(соответственно, непоявления) А в i-ом испытании равна рi (соответственно,
37
qi = 1 - рi), то вероятность Рn(m) появления А ровно m раз в n испытаниях
равна коэффициенту при tm в выражении
n
∏
n
∑
(q i + p i t) ≡
m =0
i =1
 n

Pn (m ) t m  ∑ Pn(m) = 1 ,
 m =0

правая часть которого получается при раскрытии скобок в левой части. Если
все рi = р и qi = q, то
n
(q + pt )n = ∑ C nm p m q n-m t m .
m =0
Примечание 2. Пусть в каждом испытании может произойти одно и
только одно из k попарно несовместных событий А1, А2, …, Аk с вероятностями р1, р2, …, рk соответственно, где р1 + р2 + …+ рk = 1. Тогда вероятность
того, что в n независимых испытаниях события А1, А2, …, Аk произойдут соответственно точно m1, m2, …, mk раз, где m1 + m2 + … + mk = n, находится по
формуле полиномиального распределения:
Рn(m1, m2 , …, mk) =
n!
p1m1 p 2m2 ...p kmk .
m1!m2!...!mk !
1.2.2. Локальная предельная теорема Муавра – Лапласа
Вероятность того, что при n независимых испытаниях, в каждом из которых вероятность события А постоянна и равна р (0 < р < 1), это событие
произойдет ровно m раз, приближенно равна (тем точнее, чем больше n):
Pn (m ) ≈
1
npq

1

2π
ϕ(x), ϕ(x) =
2
e -x / 2 ,
х =
m-np 
.
npq 
Функция φ (х) – четная, т.е. φ (-х) = φ (х); ее значения приведены в табл.
1. График у = φ (х) см. на рис. 1.4.7 при σ = 1.
Примечание. Случайная величина с биномиальным распределением
имеет асимптотически (т.е. при больших n) нормальное распределение с
параметрами а = nр, σ =
npq .
38
Пример 1.2.2. Найти вероятность того, что событие А наступит точно
125 раз в 250 испытаниях; в каждом испытании Р(А) = 0,5.
Р е ш е н и е. По условию n = 250, m = 125, p = q = 0,5.
х = (125 – 0,5 · 250):
Величина
250 ⋅ 0,5 ⋅ 0,5 = 0,00.
По табл. 1 находим φ(0,00) = 0,3989.
Искомая вероятность Р250 (125) ≈ ( 1 7,93 ) · 0,3989 = 0,05.
1.2.3. Интегральная предельная теорема Муавра – Лапласа и ее
приложения
1. Вероятность того, что при n независимых испытаниях, в каждом из
которых вероятность события А одна и та же и равна р (0 < p < 1), это событие произойдет не менее m1 раз и не более m2 раз (т.е. m1 ≤ m ≤ m2), приближенно равна (тем точнее, чем больше n):
Рn (m1, m2) ≡ Рn (m1 ≤ m ≤ m2 ) ≈ Ф (х2) – Ф (х1),
x

m1 − np
m2 − np 
1
− z 2 /2
е
dz
,
х
=
,
х
=
Ф( x ) =
.
1
2
∫
2π 0
npq
npq 

Значения функции Лапласа Ф(х) приведены в табл. 2 Приложения для х
≥ 0, а график – на рис. 1.4.8. Функция Ф(х) нечетная, т.е. Ф(–х) = – Ф(х). При
х > 5 приближенно Ф(х) ≈ 0,5.
Пример 1.2.3. В условиях примера 1.2.2 найти вероятность того, что
число m примет какое-либо значение от m1 = 100 до m2 = 125.
Р е ш е н и е. Здесь х1 = (100 – 250 · 0,5) :
250 ⋅ 0,5 ⋅ 0,5 = – 3,15; х2 =
0,00. По табл. 2 находим Ф(– 3,15) = – Ф(3,15) = – 0,499; Ф(0,00) = 0,000. Искомая вероятность Р250 (100; 125) ≡ Р250 (100 ≤ m ≤ 125) ≈ Ф(х2) – Ф (х1) =
0,000 + 0,499 = 0,499.
2. Пусть производится n независимых испытаний, в каждом из которых
случайное событие А происходит с постоянной вероятностью р (0 < р < 1),
39
тогда вероятность того, что абсолютная величина отклонения относительной
частоты wn (А) = m/n от вероятности р = Р(А) не превышает заданного числа
ε > 0 приближенно равна

m

Р − p ≤ ε  ≈ 2Ф  ε
 n


n 
.
pq 
3. Пусть требуется найти наименьшее число п испытаний, при котором
с вероятностью, не меньшей δ, частота отклонялась бы от вероятности не
больше, чем на ε > 0. Искомое n находится из неравенства
m

Р − p ≤ ε  ≥ δ .
 n

Отсюда, для нахождения п получается неравенство

2Ф  ε

n 
≥δ ,
pq 
с учетом того, что функция Ф(х) – возрастающая.
4. Если для заданных n и δ требуется найти ε > 0, для которого
m

Р − p < ε  = δ , то искомое ε находится из уравнения
 n


2Ф  ε

n 
=δ .
pq 
Глава 1.3 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
1.3.1. Основные понятия
Случайной величиной называется действительная переменная величина, которая в результате испытания случайно принимает одно и только од-
40
но значение из множества еe возможных значений. При повторении испытаний случайная величина может принимать различные значения.
Например, число очков, выпавших при бросании игральной кости, является случайной величиной, принимающей какое-либо одно значение от 1
до 6. Случайная величина называется дискретной, если ее различные возможные значения можно перенумеровать. Множество возможных значений
может быть конечным, как в случае игральной кости, либо бесконечным
(счетным), как множество всех натуральных чисел 1, 2, 3, ... . Случайные величины обозначают обычно заглавными буквами Х, Y, Z, …, а их возможные
значения – соответствующими малыми буквами x, y, z, …, возможно с индексами. Каждому элементарному исходу Ei испытания ставится в соответствие
некоторое определенное число xi (возможное значение случайной величины
X). Приэтом в совокупность возможных значений входят только различные
значения xi если среди них имеются одинаковые. Например, в случае правильной игральной кости случайная величина Х – число очков, выпавшее
при одном бросании, принимает значения х1 = 1, …, х6 = 6, каждое с вероятностью 1/6. Если кость неправильная, то возможные значения Х будут теми
же, но их вероятности – другими. При этом сумма всех вероятностей также
будет равна единице.
Непрерывная случайная величина в результате испытания может
принимать любое значение из некоторого промежутка – конечного или бесконечного. Множество возможных значений непрерывной случайной величины бесконечно (несчетно). Примерами непрерывных случайных величин
являются:
а) расстояние, пролетаемое снарядом при выстреле из орудия;
б) время безотказной работы какого-либо устройства.
Законом распределения (или просто распределением) дискретной
случайной величины Х называется соответствие между каждым ее возможным значением хi и вероятностью его появления рi = Р(Х = хi).
41
Закон распределения дискретной случайной величины Х может быть
задан в виде формулы, выражающей рi как функцию от хi; а также в виде
таблицы, в которой перечислены все возможные значения хi и их вероятности рi:
Х
х1
х2
…
хn
Р
р1
р2
…
рn
где р1 + р2 + …+ рn = 1 т.к. события Х = х1, …, Х = хn образуют полную группу несовместных событий. Если множество возможных значений величины Х
∞
бесконечно (счетно), то ряд
∑р
i =1
i
= p1 + p 2 + ... должен быть сходящимся, а
его сумма равной 1.
Закон распределения можно изобразить также графически, если в прямоугольной системе координат с осями Охi и Орi построить точки (хi, рi) (i =
1, 2, …) (рис.1.3.1 а, б).
Рис. 1.3.1
42
С каждым случайным событием А можно связать специальную случайную величину IА, называемую индикатором этого события и принимающую
только два значения:
1, если А произошло,
IA = 
0, если А не произошло.
Индикатор события А, имеющего вероятность р = Р(А), является дискретной случайной величиной с законом распределения:
IА
0
1
Р
q=1- р
Р
Пример 1.3.1. 1. Для случайной величины Х – числа очков выпавших
при однократном бросании правильной игральной кости, закон распределения имеет вид:
Х
1
2
3
4
5
6
Р
1
6
1
6
1
6
1
6
1
6
1
6
Записать закон распределения случайной величины Х, возможными
значениями которой являются числа m выпадений герба при двух бросаниях
монеты.
1
2
Р е ш е н и е. Здесь р = q ≡ 1 – р = ; m = 0, 1, 2; n = 2. Следовательно,
возможными значениями Х будут х1 = 0, х2 =1, х3 = 2, а вероятности их появления находятся по формуле Бернулли: Р2(0) = С 20 q 2 = q 2 = 0,25;
1
2 2
Р2(1) = С 2 pq = 0,5; Р2(2)= С 2 p = 0,25.
Закон распределения:
Х
0
1
2
Р
0,25
0,5
0,25
43
2. Из урны, содержащей 3 черных и 15 белых шаров, извлекают последовательно по одному шару (без возврата) до появления белого шара. Число
извлеченных при этом шаров является дискретной случайной величиной Х.
Найти закон ее распределения.
Р е ш е н и е. Случайная величина Х имеет возможные значения х1 = 1,
х2 = 2, х3 = 3, х4 = 4 с вероятностями, найденными по правилу умножения вероятностей:
p1 = P(Х = х1) ≡ Р (б) =
p3 = P(ч, ч, б) =
15 5
= ;
18 6
p2 = P(ч, б) =
3 15 5
⋅ = ;
18 17 34
3 2 15
5
3 2 1 15
1
⋅ ⋅ =
; p4 = P(ч, ч, ч, б) =
⋅ ⋅ ⋅ =
;
18 17 16 272
18 17 16 16 816
где буквами б(ч) обозначено появление белого (черного) шара. Закон распределения величины Х:
хi
1
рi
5
6
2
5
34
3
5
4
272
1
816


 ∑ p i = 1 .
 i

1.3.2. Биномиальное распределение
Пусть производится n независимых испытаний, в каждом из которых
может произойти событие А с одной и той же вероятностью р, а вероятность
его непоявления q = 1 – р. Обозначим через Х дискретную случайную величину, возможными значениями которой являются числа m появления события А (в любой последовательности) в n испытаниях. При этом m = 0, 1, 2,
…, n–1, n. Соответствующие вероятности находятся по формуле Бернулли
Р(Х = m) ≡Pn(m)= С nm p m q n -m .
Закон распределения случайной величины Х может быть записан в виде таблицы:
44
Х
0
1
…
m
…
n
Р
qn
С n1 pq n -1
…
С nm p m q n -m
…
pn
При этом
n
∑ P ( m) = ( p
m =0
n
+ q ) n = 1n = 1 .
Случайная величина Х называется распределенной по биномиальному
закону с параметрами n и р.
Пример 1.3.2. Графически изобразить биномиальное распределение
при n = 4, р = q = 0,5.
Р е ш е н и е. Находим Р(Х = 0) = q4 = 0,0625; Р(Х = 1) = С41 pq 3 = 0,25;
Р(Х = 2) = 0,375; Р(Х = 3) = 0,25; Р(Х = 4) = 0,0625. График приведен на
рис. 1.3.2.
Рис. 1.3.2
45
1.3.3. Геометрическое распределение
Пусть вероятность появления события А в каждом из независимых испытаний постоянна и равна р(0 < p < 1), а вероятность непоявления А равна q
= 1 – р. Испытания заканчивают при первом появлении события А. Обозначим через Х случайную величину, каждое возможное значение хm которой
равно числу m испытаний, проведенных до первого появления А. При этом
х1 =1, х2 = 2, … Вероятность появления А в m-ом испытании и, соответственно, непоявления его в предыдущих m – 1 испытаниях равна, по правилу
умножения вероятностей независимых событий:
Р(Х =m) = qm-1 p(m=1, 2, …).
Значения вероятностей Р(Х = m) образуют бесконечную геометрическую прогрессию, сумма которой равна 1. Распределение величины Х называется геометрическим.
Пример 1.3.3. Бросают игральную кость до первого выпадения пяти
очков. Найти вероятность выпадения 5 очков при третьем бросании.
Р е ш е н и е. Вероятность выпадения 5 очков при одном бросании
р=
1
5
 q =  . Искомая вероятность
6
6
2
5
1 25
Р(Х = 3) =   ⋅ =
.
 6  6 216
1.3.4. Гипергеометрическое распределение
В урне находится N шаров одинакового размера, среди которых М белых (М ≤ N) и (N – M) черных. Из урны наугад извлекают один за другим n
(n ≤ N) шаров без возврата их обратно (поэтому формула Бернулли здесь неприменима). Обозначим через Х случайную величину, возможные значения
которой равны числу m белых шаров среди n извлеченных (m ≤ n, m ≤ М,
46
n - m ≤ N - М). Множество возможных значений Х: 0, 1, 2, …, min (M, n). Вероятность события Х = m равна (согласно классическому определению вероятности)
C Mm C Nn −−mM
Р ( Х = m) =
C Nn
(m = 0, 1, 2, …, min (M,n)).
Распределение вероятностей, определяемое этой формулой, называется
гипергеометрическим с параметрами N, М, n. Если числа N, М, N - М значительно превышают n (т.е. объем выборки достаточно мал), то гипергеометрическое распределение может быть приближенно заменено биномиальным, в
котором р = M/N, а выборки предполагаются возвратными.
Пример 1.3.4. Дано: N = 40, M = 10, n = 4, m = 2.
2
2
Имеем: Р(Х = 2) = С10 ⋅ С30
4
С 40
= 0,214.
1.3.5. Распределение Пуассона
1. Дискретная случайная величина Х, принимающая бесконечное счетное множество возможных значений Х = m = 0, 1, 2, … с вероятностями
а m −a
Р(Х = m)≡ Ра (m) = e ,
m!
где а > 0 – параметр распределения, называется распределенной по закону
∞
Пуассона. Справедливо равенство
∑ P (m) = 1.
m =0
a
Распределение Пуассона, являющееся асимптотическим для биномиального распределения при малых значениях р и больших значениях n = a/p
(при этом np = а постоянно), используется для приближенного вычисления
вероятностей в биномиальном распределении:
Рn(m) ≈ Ра(m).
47
( )
m
Значения функции Ра(m)= a m! e −a приведены в табл. 3 Приложения, а
значения суммы
n
n
m =0
m=0
( m!)e
m
∑ Pa (m) = ∑ a
−a
– в табл. 4 Приложения.
Пример 1.3.5. Вероятность повреждения каждого изделия при перевозке р = 0,001. Отправлено в перевозку n = 1000 изделий. Найти вероятность
того, что при перевозке будет повреждено изделий: 1) ровно два, 2) менее
двух, 3) более двух, 4) хотя бы одно.
Р е ш е н и е. Здесь а = np = 1000 · 0,001 = 1; n велико, р мало. Воспользуемся распределением Пуассона Ра (m).
1) m= 2, по табл. 3 находим Р(Х = 2) = Р1(2)= 0,1839;
2) По табл. 4 находим Р(Х < 2) = Р(Х = 0) + Р(Х = 1)= Р1(0) + Р1(1) =
0,7358;
3) Событие повреждения более двух изделий (Х > 2) противоположно
событию повреждения не более двух изделий (Х ≤ 2). Следовательно, Р(Х >
2) = 1 - Р(Х ≤ 2). По табл. 4 находим Р(Х > 2) = 1 – [Р1(0) + Р1(1) + Р1(2)] = 1 –
0,9197 = 0,0803;
4) События А – «повреждено хотя бы одно изделие» и Ā – «не повреждено ни одного изделия, т.е. Х = m = 0», противоположны. Следовательно,
Р(А)= 1 – Р(Ā) = 1 - Р(Х = 0) = 1 – Р1(0) = 1 – 0,3679 = 0,6321 (по табл. 3
Приложения).
Пример 1.3.6. Построить график распределения Пуассона при а = 0,5.
Р е ш е н и е. По табл. 3 Приложения находим значения Р(Х =
m)=Ра(m):
Р(Х = 0)= 0,6065; Р(Х = 1)= 0,3033; Р(Х = 2)= 0,0758; Р(Х = 3)= 0,0126 и т.д.
График приведен на рис. 1.3.3.
48
Рис. 1.3.3
2. Простейший (пуассоновский) поток событий
Потоком событий называется последовательность событий, происходящих одно за другим в случайные моменты времени. Поток событий называется простейшим (пуассоновским), если выполнены условия:
1) Стационарность. Вероятность появления m событий (m = 0, 1, 2,
…) за любой промежуток времени от τ до τ + t зависит только от числа m
и от длительности t промежутка времени, но не зависит от выбора τ (различные промежутки времени предполагаются при этом непересекающимися);
2) Отсутствие последействия. Вероятность появления m событий за
промежуток времени от от τ до τ + t не зависит от появления или непоявления событий до начала этого промежутка. Появления событий в непересекающиеся промежутки времени взаимно независимы;
3) Ординарность. Появление двух или более событий (m >1) за малый
промежуток времени практически невозможно (имеет пренебрежимо малую
вероятность по сравнению с вероятностью появления только одного события) т.е. Рm>1(∆t) = о(∆t). Где о(∆t) / ∆t → 0 при ∆t → 0.
49
Вероятность появления одного события за малый промежуток времени
∆t равна
Р1(∆t) = λ ∆t + о(∆t),
Вероятность появления ровно m событий простейшего потока за промежуток времени t находится по формуле Пуассона:
Рm (t) =
(λ t ) m − λ t
e
m!
(m = 0, 1, 2, …).
Здесь λ – среднее число событий, появляющихся в единицу времени.
Величина а = λt равна среднему числу событий за время t. Следует обратить
внимание на некоторое различие в обозначениях в формулах Ра(m) и Рm(t).
Из формулы Пуассона при m = 0 и m = 1 следует соответственно
Р0(t) = е − λt , Р1(t) = λt е − λt .
Вероятность появления двух или более событий
Рm>1(t) = 1 – Р0(t) – Р1(t) =
1
(λ
t ) 2 + ….
2
пренебрежимо мала по сравнению с вероятностью Р1(t) при малых t.
Пример 1.3.7. Среднее число вызовов, поступающих на телефонную
станцию в одну минуту, равно трем. Найти вероятность того, что за 2 минуты поступит: а) ровно четыре вызова, б) менее трех вызовов, в) не менее трех
вызовов.
Р е ш е н и е. Здесь λ = 3, t = 2, а = λ t = 6
6 4 e −6
а) m= 4, Рm(t) = Р4(2) =
= 0,134 (при этом в табл. 3 Приложения
4!
полагаем а = 6, m = 4);
б) Событие поступления менее трех вызовов (m < 3) означает наступление одного из следующих попарно несовместных событий: поступило
m= 0, m= 1, или m= 2 вызова. Следовательно,
Рm<3(2) = Р0(2) + Р1(2) + Р2(2) =
6 0 e −6 61 e −6 6 2 e −6
+
+
=
0!
1!
2!
Приложения);
50
0,0625 (по таб. 3
в) Событие поступления не менее трех вызовов (m ≥ 3) противоположно событию поступления менее трех вызовов (m<3). Следовательно,
Рm≥3 (2) =1 – [Р0 (2) + Р1(2) + Р2(2)] = 1 – 0,0625 = 0,9375.
Глава 1.4 НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
1.4.1. Интегральная функция распределения
1. Интегральной функцией распределения (или просто функцией
распределения) случайной величины Х называется функция F(x), равная вероятности того, что случайная величина примет какое-либо значение, строго
меньшее, чем заданное число х, т.е.
F(x) = Р(Х < x).
При изменении х величина F(x) в общем случае изменяется. Геометрически F(x) равна вероятности того, что случайная точка Х окажется на числовой оси Ох левее заданной точки х. Случайная величина называется непрерывной, если ее функция распределения F(x) является непрерывной и имеет
кусочно – непрерывную производную.
2. Для дискретной случайной величины Х функция распределения F(x)
равна сумме вероятностей всех ее возможных значений, строго меньших,
чем заданное число х:
F(x) =
∑p
xk < x
k
≡
∑ P( X = x
xk < x
k
).
В точках х = хk функция F(x) имеет разрывы первого рода. При этом
F(x) непрерывна слева в каждой точке хk.
Примечание. В общем случае произвольной случайной величины
функция F(x) может иметь точки разрыва первого рода, в промежутках между которыми она является непрерывной неубывающей функцией.
51
Пример 1.4.1. Для дискретной случайной величины Х, заданной законом распределения
Х
1
2
3
Р
0,2
0,3
0,5
,
найти функцию распределения F(x) и построить график.
Р е ш е н и е. Если х ≤ 1, то F(x) = Р(Х < x) = Р(Х < 1) = 0, т.к. левее
точки х = 1 нет возможных значений Х. Если 1 < х ≤ 2, то F(x) = Р(Х < 2) =
Р(Х = 1) = 0,2. Если 2 < х ≤ 3, то F(x) = Р(Х < 3) = Р(Х = 1) + Р(Х = 2) = 0,2 +
0,3 = 0,5 (по правилу сложения вероятностей несовместных событий). Если х
> 3, то F(x) = Р(Х = 1) + Р(Х = 2) + Р(Х = 3) = 0,2 + 0,3 + 0,5 = 1, т.к. левее точек х > 3 находятся все три возможных значения Х: 1; 2; 3.
Следовательно, F(x) можно записать в виде:
0 при х ≤ 1,
0,2 при 1 < х ≤ 2,
F(x) = 
0,5 при 2 < х ≤ 3,
1 при х > 3.
График у = F(x) приведен на рис.1.4.1.
Рис. 1.4.1
3. Свойства интегральной функции распределения
1. Функция F(x) – неубывающая, т .е. если х1 < х2, то F(x1) ≤ F(x2).
52
2. 0 ≤ F(x) ≤ 1.
3. Вероятность того, что случайная величина Х примет какое-либо значение в промежутке [a, b) равна Р(а ≤ Х < b) = F(b) – F(а).
4. Вероятность того, что непрерывная случайная величина Х примет
какое-либо одно определенное значение х0 равна нулю, т.е. Р(Х = х0) = 0. Однако это не означает, что событие Х = х0 невозможно. Хотя вероятность невозможного события равна нулю, в общем случае из равенства Р(А) = 0 не
следует невозможность появления события А, а из Р(А) = 1 не следует достоверность А. Вместе с тем, при классическом определении вероятности равенство нулю (единице) вероятности какого-либо события равносильно его невозможности (достоверности).
5. Для непрерывной случайной величины справедливы равенства: Р(а ≤
Х < b) = Р(а < Х < b) = Р (а < Х ≤ b) = Р(а ≤ Х ≤ b).
6. Если все возможные значения случайной величины Х расположены
только в интервале (а, b), то F(х) = 0 при х ≤ а и F(х) = 1 при х ≥ b. В частности, если возможные значения случайной величины расположены на всей
числовой оси (рис. 1.4.2), то
lim F ( x) = 0,
z →−∞
lim F ( x) = 1.
z → +∞
Рис. 1.4.2
7. Функция F(x) для дискретной случайной величины непрерывна слева
в любой точке х = х0:
53
lim F ( x) = F ( x0 ).
z → x0 −0
1.4.2. Дифференциальная функция распределения
Дифференциальной функцией распределения (плотностью распределения или плотностью вероятности) непрерывной случайной величины
Х с функцией распределения F(x) называется функция f(x), равная производной от F(x):
f(x) = F ′(x) .
Следовательно, F(x) – первообразная для f(x). Для малого промежутка
(х, х + ∆ х) справедливо равенство:
∆F = P(x < X < x + ∆х ) = f(x) ∆х + о(∆х)
где о(∆х) / ∆х→ 0 при ∆х → 0. Таким образом,
f(x) = ∆lim
x →0
P( x < X < x + ∆x)
.
∆x
Плотность распределения неотрицательна: f(x) ≥ 0. Величина f(x)dx
называется элементом вероятности.
Вероятность попадания случайной величины Х в промежуток (а, b)
равна площади заштрихованной криволинейной трапеции под графиком у =
f(x) (рис. 1.4.3):
b
Р(а < Х < b) = F(b) – F(a) =
∫ f ( x)dx .
a
Рис. 1.4.3
54
Из предыдущего равенства, в частности, следует
x
F(x) =
∫ f ( x)dx .
(1.4.1)
−∞
Для функции f(x) выполняется условие нормировки
∞
∫ f ( x)dx
= 1.
−∞
Пример 1.4.2. Дана плотность распределения непрерывной случайной
величины Х
0 при х ≤ 0,

f ( x) =  х при 0 < х ≤ 6,
18

0 при х > 6.
Определить вероятность попаданий случайной точки Х в интервал
(1;5). Найти функцию F(x).
Р е ш е н и е.
5
x
x2 5 2
= .
Р(1 < Х < 5) = ∫ dx =
18
36 1 3
1
Функцию F(x) находим по формуле (1.4.1). Если х ≤ 0, то f(х) = 0, следовательно, F(х) = 0. Если 0 < х ≤ 6, то
x
F(x) =
∫
−∞
0
x
x
x2
dx =
.
18
36
0
f ( x)dx = ∫ 0dx + ∫
−∞
Если х > 6, то
0
F(x) =
6
x
x
dx + ∫ 0dx = 1 .
18
0
6
∫ 0dx + ∫
−∞
Таким образом,
0 при х ≤ 0,
 2
F ( x) =  х
при 0 < х ≤ 6,
36

1 при х > 6.
55
1.4.3. Квантили
Квантиль Кр заданного порядка р (0 < р < 1) распределения случайной
величины Х, интегральная функция распределения F(x) которой непрерывна
и строго монотонна, определяется как такое значение х = Кр величины Х, для
которого F(Кр) = р. Из этого определения следует, что если р1 < р2, то вероятность Р( К Р < Х < К Р ) = р2 - р1.
1
2
В частности, квантиль K 1 называется медианой для Х; K 1 и K 3
2
4
4
называется нижней и верхней квартилью соответственно; квантили К0,1,
К0,2, …, К0,9 называются децилями. Для некоторых, часто используемых в
математической статистике распределений, имеются специальные таблицы квантилей.
1.4.4. Примеры непрерывных распределений
1. Равномерное распределение. Непрерывная случайная величина Х,
принимающая все свои возможные значения только на отрезке [а,b], называется равномерно распределенной, если ее плотность распределения равна:
0 при х < a,

1

f ( x ) = C =
при a ≤ х ≤ b,
b
−
a

0 при х > b.
На [а, b] функция f(x) постоянна, а вне [а, b] равна нулю. Постоянная С
находится из условия нормировки: Р(а ≤ Х ≤ b) = С(b - а) = 1. Равномерное
распределение Х на [а, b] соответствует понятию о выборе точки Х на отрезке
[а, b] наугад. Интегральная функция равна
56
0 при х < a,
х − а

F ( x) = 
при а ≤ х ≤ b,
b-а

1 при х > b.
Графики у = f(x) и у =F(x) приведены на рис. 1.4.4 и 1.4.5 соответствено.
Рис. 1.4.4
Рис. 1.4.5
2. Нормальное распределение (распределение Гаусса).
Непрерывная случайная величина Х, принимающая все свои возможные значения на промежутке (- ∞, + ∞), называется нормально распределенной, если ее плотность распределения имеет вид:
f ( x) =
 ( x − a) 2 
1
exp −
,
2σ 2 
σ 2π

где ехр t ≡ еt, а и σ > 0 – параметры распределения. Краткая запись нормального распределения: N (а; σ2). Общий вид графика у = f(x) при а ≠ 0 приведен
на рис. 1.4.6. Точка х = а является точкой максимума для f(x) и f(а) =
57
1
.
σ 2π
Рис. 1.4.6
График f(x) симметричен относительно прямой х = а. Абсциссы двух
точек перегиба равны (а - σ) и (а + σ). При х→ ± ∞ функция f(x) → 0. На рис.
1
2
1.4.7 изображены графики функций у = f(x) при а = 0 для σ = , σ =1, σ =2.
При а = 0, σ = 1 нормальное распределение N(0;1) называется нормированным и центрированным (стандартизованным).
График функции
Ф( x ) =
1
2π
x
∫e
−z
2
2
dz ,
0
используемой в интегральной предельной теореме Муавра-Лапласа и называемой функцией Лапласа (или интегралом Лапласа), изображен на
Рис. 1.4.7
58
рис. 1.4.8, а ее значения приведены в табл. 2. Иногда применяется также интеграл вероятности (или интеграл ошибок)
Рис. 1.4.8
2
x
е
π ∫
erf ( х) =
−t 2
|x| < ∞,
dt ,
0
связанный с функцией Лапласа.
Вероятность попадания нормально распределенной случайной величины Х в интервал (х1, х2) равна
1
Р(х1 < Х < х2) =
σ 2π
 ( х − а)2 
 х2 − а 
 х1 − а 
∫х ехр− 2σ 2 dх = Ф σ  − Ф σ  ,
1
х2
1
Ф(t ) =
2π
t
∫е
−z
2
2
dz .
0
В частности, вероятность осуществления события |Х - а| < δ, где δ > 0
– заданное число, равна
δ
Р(|Х - а| < δ) = 2Ф   .
σ 
Правило «трех сигм»: если случайная величина Х распределена нормально, то вероятность того, что абсолютная величина отклонения |Х - а|
превысит 3σ, равна 0,0027, т.е. такое событие практически невозможно.
59
Справедливо равенство
Р(|Х - а| < 3σ) = 2Ф(3) = 0,9973.
Таким образом, абсолютная величина отклонения |Х - а| нормально
распределенной величины Х с вероятностью, близкой к 1 не превышает 3σ,
т.е. практически возможные значения Х находятся в промежутке от (а - 3σ)
до (а + 3σ). Справедливы также следующие равенства: Р(а < Х < а + σ) =
0,3413; Р(а + σ < Х < а + 2σ) = 0,1359; Р(а + 2σ < Х < а + 3σ) = 0,0215.
Если случайная величина Х имеет нормальное распределение с параметрами а, σ, то распределение линейной функции Y = С1 + С2 Х также будет
нормальным с параметрами С1 + С2 а, |С2| · σ.
Всякая линейная комбинация Y = С1Х1 + … + Сn Xn независимых нормально распределенных величин Х1, …, Хn с параметрами а1,σ1; …, аn,σn имеет
нормальное
распределение
с
параметрами
С1а1
+…
+
Сnаn,
С12σ 12 + ... + Сn2σ n2 . Нормальное распределение полностью определено его ма-
тематическим ожиданием и дисперсией.
3.Показательное (экспоненциальное) распределение.
Непрерывная случайная величина Х называется экспоненциально
распределенной, если ее плотность вероятности имеет вид
0 при х < 0,
f ( x ) =  − λх
λе при х ≥ 0,
где λ – положительный параметр.
Интегральная функция F(x) имеет вид
0 при х < 0,
F ( x) = 
− λх
1 − е при х ≥ 0.
Графики у = f(x) и у = F(x) приведены на рис. 1.4.9 и 1.4.10 соответственно.
60
Рис. 1.4.9
Рис. 1.4.10
Глава 1.5 МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ И ДИСПЕРСИЯ
ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
1.5.1. Математическое ожидание
Математическим ожиданием М(Х) дискретной случайной величины Х
называется число, равное сумме произведений всех возможных значений xi
на их вероятности рi = Р(Х = xi):
n
М(Х) =
∑x
i =1
i
pi ≡ x1 р1 + x2 р2 + … + xn рn.
Если Х принимает бесконечное счетное множество значений xi, то
∞
М(Х) =
∑x
i =1
i
pi ,
если ряд сходится абсолютно (в противном случае математическое ожидание
не существует). Математическое ожидание не является случайной величиной.
Пусть дискретная случайная величина Х может принимать только конечное множество возможных значений x1, …, xn. Пусть в результате достаточно большого числа N испытаний каждое значение xi появилось Ni (i = 1,
…, n) раз, причем N1 + … + Nn = N. Тогда среднее арифметическое х всех
полученных значений xi равно
61
х=
При
N
N
1
( x1 N 1 + ... + x n N n ) = x1 1 + ... + x n n .
N
N
N
достаточно большом N
справедливо
Ni
≈ pi . Следовательно,
N
М(Х) ≈ x , т.е. математическое ожидание случайной величины приближенно
равно среднему арифметическому всех ее наблюдаемых значений. Это приближенное равенство тем точнее, чем больше N.
Математическое ожидание числа появлений случайного события А в
одном испытании равно вероятности этого события т.к. М(IА)= р, где IА – индикатор события А.
Пример 1.5.1. Для случайной величина Х – числа очков, выпавших при
одном бросании игральной кости (см. пример 1.3.1, 1) математическое ожидание равно
М(Х)=
1
(1 + 2 + 3 + 4 + 5 + 6) = 3,5 .
6
Свойства математического ожидания
1. Математическое ожидание постоянной величины С равно этой постоянной: М(С) = С.
2. Постоянный множитель С можно выносить за знак математического
ожидания: М(СХ) = С · М(Х).
3. Математическое ожидание суммы любых двух случайных величин Х
и Y равно сумме математических ожиданий этих величин: М(Х + Y) = М(Х) +
М(Y). Равенство справедливо для суммы любого конечного числа произвольных случайных величин (зависимых, либо независимых).
Примечание 1. Сумма Z = X + Y определяется как случайная величина
Z, возможные значения которой равны суммам всех возможных значений X и
Y. Аналогично – для суммы любого конечного числа случайных величин.
4. Математическое ожидание произведения двух независимых случайных величин Х и Y равно произведению математических ожиданий этих
величин: М(ХY) = М(Х) М(Y). Равенство справедливо для любого конечного
62
числа взаимно независимых случайных величин, например, М(Х Y Z) =
М(Х)М(Y)М(Z).
Примечание 2. Две случайные величины Х и Y называются независимыми, если закон распределения каждой из них не зависит от того, какие
возможные значения принимает другая. Несколько случайных величин называются взаимно независимыми (или просто, независимыми), если закон
распределения любого их числа не зависит от того, какие из возможных значений приняли остальные.
Примечание 3. Произведение Z = XY двух независимых случайных величин Х, Y определяется как случайная величина Z, возможные значения которой равны произведениям всех возможных значений X и Y. Аналогично –
для суммы любого числа взаимно независимых случайных величин.
Пример 1.5.2. 1. Математическое ожидание биномиально распределенной случайной величины Х:
n
n
m=0
m=0
M ( Х ) = ∑ mP ( X = m) = ∑ mPn (m) =
[
n
]
= ∑ mC nm p m q n − m = np q n −1 + ( n − 1) pq n − 2 + ... + p n −1 = np (q + p ) n −1 = np.
m=0
Следовательно, математическое ожидание числа появлений события А
в n независимых испытаниях равно произведению n р. Где р = Р(А) – вероятность появления А в каждом испытании. Если n достаточно велико, то в n
испытаниях событие А появится примерно n р раз.
2. Математическое ожидание случайной величины Х, распределенной
по геометрическому закону:
∞
∞
m =1
m =1
M ( Х ) = ∑ mP( X = m) = ∑ mq m −1 p = p + 2qp + 3q 2 p + ... + mq m−1 p +
′
 1 
p
1
 =
+ ... = p (1 + 2q + 3q + ...) = p (1 + q + q + ...)′ = p
= .
2
p
(1 − q )
1− q 
2
2
3. Для случайной величины Х, распределенной по закону Пуассона:
63
∞
∞
M ( Х ) = ∑ mP( X = m) = ∑ m
m=0
m=0
= ae − a (1 + a +
∞
а m −a
а m −a
e = ∑m
e =
m!
m!
m =1
2
a
+ ...) = ae − a e a = a.
2!
Пример 1.5.3. Найти математическое ожидание относительной частоты
w = m/n появления события А при n независимых испытаниях, в каждом из
которых вероятность р = Р(А) постоянна.
Р е ш е н и е. События w = m/n и Х = m из примера 1.5.2, 1 равновероятны, т.к. отличаются только постоянным множителем 1 n . Следовательно,
закон распределения для w = m/n имеет вид:
w
0
1
n
…
m
n
…
1
Р
qn
C n1 pq n −1
…
C nm p m q n − m
…
pn
Таким образом,
n
m
1 n
⋅ Pn ( m) = ∑ m ⋅ Pn ( m) = p .
n m =0
m =0 n
М(w) = ∑
1.5.2. Дисперсия
Дисперсией D(X) случайной величины Х называется математическое
o
ожидание квадрата отклонения Х = Х − М ( Х ) этой случайной величины от ее
математического ожидания М(Х) ≡ а:
o
[
]
D( X ) = M ( X 2 ) = M ( X − a ) = p1 ( x1 − a ) 2 + p 2 ( x2 − a ) 2 + ... + p n ( xn − a ) 2 ≡
2
n
≡ ∑ p i ( xi − a ) 2 .
i =1
64
Величина σ (Х) = D( X ) называется средним квадратическим отклонением (или стандартом) случайной величины Х.
Дисперсию можно вычислить также по формуле:
D (Х) = М(Х2) – [M(X)]2,
где М(Х2) = p1 x12 + p 2 x 22 + ... + p n x n2 .
Пример 1.5.4. Для случайной величины в условиях примера 1.3.1,1 с
учетом примера 1.5.1 находим:
D( X ) =
σ (X ) =
[
]
1
(1 − 3,5)2 + (2 − 3,5)2 + (3 − 3,5) 2 + (4 − 3,5) 2 + (5 − 3,5) 2 + (6 − 3,5) 2 = 35 ,
6
12
35
= 1,71.
12
Свойства дисперсии
1. Дисперсия постоянной С равна нулю, т.е. D(С) = 0.
2. Если С – постоянная, то D(С · Х) = С2 · D(Х).
3. Дисперсия суммы двух независимых случайных величин равна
сумме дисперсий этих величин: D(Х + Y) = D(Х) + D(Y). В частности, если
Y = С – постоянная, то D(Х + С) = D(Х). Дисперсия суммы любого конечного
числа взаимно независимых случайных величин равна сумме дисперсий этих
величин, например, D(Х + Y+ Z) = D(Х) + D(Y) + D(Z) (это свойство справедливо также и для суммы попарно независимых величин).
4. Для двух независимых случайных величин Х и Y справедливо D(Х –
Y) = D(Х) + D(Y), где Х – Y ≡ Х + (–1)Y.
Пусть Х1, Х2, …, Хn – попарно независимые случайные величины, имеющие одинаковые законы распределения [следовательно, одинаковые математические ожидания М(Хi) = а, дисперсии D(Хi) = σ2 (i = 1, 2, …, n) и т.д.].
Тогда
65
1

M ( X ) = M  ( X 1 + X 2 + ... + X n ) = a,
n

2
1
 σ
,
D( X ) = D  ( X 1 + X 2 + ... + X n ) =
n
 n
σ ( X ) = D( X ) =
σ
n
,
1
n
где X = ( X 1 + X 2 + ... + X n ).
Таким образом, дисперсия среднего арифметического большого числа
попарно независимых случайных величин уменьшается с увеличением числа
слагаемых.
Пример 1.5.5. 1. Для биномиального распределения дисперсия равна (с
учетом примера 1.5.2,1):
n
n
m=0
m=0
D( Х ) = ∑ [ m − M ( X )]2 Pn ( m) = ∑ ( m − np) 2Cnm p m q n−m = npq
Отсюда σ(Х) =
npq . См. также пример 1.5.5.4.
2. Для геометрического распределения (с учетом примера 1.5.2.2):
D(Х) = М(Х2) – [M(X)]2 = М(Х2) –
1
.
p2
m −1
Согласно 1.3.3 вероятность события Y = Х2 = m2 равна q p (m = 1, 2, …).
Следовательно,
М(Х2) = 12р + 22q р + 32q2р + … = р (12 + 22q + 32q2 + …) =
2− р
.
р2
Здесь использовано соотношение
12 + 22q + 32q2 + … =
1+ q
,
(1 − q ) 3
получающееся при помощи преобразований:
′
q

′  q 
d  2
1+ q
2
2 2
2
=
.
 ∫ 1 + 2 q + 3 q + … dq  = q 1 + 2q + 3q + … = 
2 
dq  0
(1 − q ) 3

 (1 − q) 
(
)
[(
)]
Следовательно, искомая дисперсия равна:
66
D(Х) =
Отсюда, σ(Х) =
2 − р 1 1− p
− 2 = 2 .
р2
p
p
1− p
.
p
3. Для распределения Пуассона (с учетом примера 1.5.2. 3):
D(Х) = М(Х2) – [M(X)]2 = М(Х2) – а2.
Имеем далее
∞
M (Х 2 ) = ∑ m2
m=0
∞
∞
а m −a
а m e −a
а m−1e − a
e = ∑ m2
= a ∑ [(m − 1)]
=
m!
m(m − 1)!
(m − 1)!
m =1
m =1
∞
 ∞ а k e −a
а k e −a 
2
= a ∑ k
+∑
 = a[a + 1] = a + a.
k!
k! 
k =0
 k =0
Следовательно, искомая дисперсия D(X) = а2 + а – a2 = а.
Отсюда, σ(Х)= a .
4. Дисперсия индикатора IА случайной величины А равна
D(IA) = М( I А2 ) – [M(IA)]2 = М( I А2 ) – p2.
Имеем М( I А2 ) = 02 · (1 – p) + 12 · р = р.
Следовательно, D(IA) = p - p2 = p (1 – p) = p q, где q = 1 – р.
Если случайная величина Х – число появлений события А в n независимых испытаниях, в каждом из которых вероятность р = Р(А) постоянна, то
D(X) = npq, где q = 1 – р (см. пример 1.5.5. 4), т.к. Х равна сумме n взаимно
независимых случайных величин – чисел появления события А в каждом отдельном испытании.
Глава 1.6 МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ, ДИСПЕРСИЯ,
МОДА И МЕДИАНА НЕПРЕРЫВНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ.
Пусть Х – непрерывная случайная величина с плотностью вероятности
f (x).
67
1. Математическое ожидание M(X) величины Х определяется равенством
M (X ) =
∞
∫ x ⋅ f ( x)dx
(1.6.1)
−∞
Предполагается, что несобcтвенный интеграл сходится абсолютно.
2. Дисперсия D(X) величины Х определяется равенством
∞
[a ≡ M(X)].
D(X) = ∫ (x − a) 2 f(x)dx,
(1.6.2)
−∞
Среднее квадратическое отклонение (стандарт) σ(X) величины Х определяется равенством
σ ( X ) = D(X) .
Дисперсия может быть вычислена также по формуле:
∞
∫x
D( X ) =
2
f ( x)dx − [M ( X )] .
2
−∞
Свойства математического ожидания и дисперсии дискретных случайных величин остаются в силе и для непрерывных величин.
o
3. Если M(X) = а, D(X) = σ , то случайная величина X ≡ X − a называ2
ется центрированной,
o
X
σ
– нормированной, а величина Y = X
σ , для ко-
торой М(Y) = 0, D(Y) = 1, называется центрированной и нормированной
(или стандартизованной).
Пример 1.6.1. Для равномерно распределенной случайной величины:
∞
xdx а + b
=
,
b−а
2
a
в
1. M ( X ) = ∫ x ⋅ f ( x)dx = ∫
−∞
2. D( X ) =
∞
∫[
−∞
2
]
а + b  dx
(b − а ) 2

x − M ( X ) f ( x)dx = ∫  x −
=
,

2  b−а
12
а
3. σ ( X ) = D(X ) =
2
b
b−а
.
2 3
Пример 1.6.2. Для нормально распределенной случайной величины:
68
1. M ( X ) =
∞
 ( x-а) 2 
x
еxр
- 2σ 2  dx = a ,
∫


−∞σ 2π
где несобственный интеграл сводится к интегралу Пуассона посредством замены переменной t = ( x − a) σ .
2. D( X ) =
∞
 ( x-a) 2 
( x-a) 2
2
ехр
∫−∞σ 2π − 2σ 2  dx = σ , σ (X ) = σ ,
где несобственный интеграл вычисляется путем замены переменной
t = ( x − a)
σ , a затем интегрированием по частям.
3. Функция распределения имеет вид
1
F ( x) =
σ 2π
 ( x-a) 2 
ехр
∫ − 2σ 2 dx .
−∞
x
При а = 0, σ = 1 получается функция распределения F0 (x) стандартизованной нормально распределенной величины. Справедливо равенство
1
F0 ( x) = 0,5 + Ф( х) , где Ф( x) =
2π
x
∫е
-z2
2
dz .
0
Пример 1.6.3. Для показательного распределения:
∞
∞
−∞
0
1. M ( X ) = ∫ x ⋅ f ( x)dx = ∫ λxe −λx dx =
1
λ
.
Здесь интегрирование выполнено по частям: u = х, dv = e − λx .
∞
2. D( X ) = M ( X ) − [M ( X )] = ∫ x f ( x)dx −
2
2
2
−∞
σ (X ) =
1
λ
1
λ
2
∞
= λ ∫ x 2e −λx dx −
0
1
λ
2
=
2
λ
2
−
1
λ
2
=
1
λ2
,
.
Здесь дважды проведено интегрирование по частям.
4. Мода и медиана.
Модой Mо(X) непрерывной случайной величины Х с плотностью распределения f(x) называется такое ее возможное значение, при котором функция f(x) достигает локального максимума. Случайная величина может иметь
одну, две или более мод.
69
Медианой Mе(X) непрерывной случайной величины Х называется такое ее возможное значение, которое определяется равенством:
Р[X< Ме(X)] = Р[X > Ме(X)].
Медиана делит площадь под кривой у = f(x) на две равные части.
Глава 1.7 ФУНКЦИИ ОДНОГО СЛУЧАЙНОГО АРГУМЕНТА
Пусть у = φ(х) – однозначная функция. Тогда функция Y = φ(X), ставящая в соответствие каждому возможному значению случайной величины Х
одно возможное значение случайной величины Y, называется функцией случайного аргумента Х. Например, Y =X2, Y = sin X.
Зная распределение величины Х, можно найти распределение величины Y. При этом, если Х – дискретная случайная величина с известным распределением и:
а) различным возможным значениям хi величины Х соответствуют различные значения уi = φ(хi) величины Y, то для вероятностей справедливы равенства Р(Y = yi) = P(X =xi);
б) различным значениям хi соответствуют одинаковые значения величины Y, то при записи распределения величины Y вероятности повторяющихся значений Y суммируются.
Если Х – непрерывная случайная величина с плотностью распределения f(x), а функция φ(х) дифференцируема и строго монотонна, то плотность
распределения g(y) величины Y определяется равенством:
g ( y ) d y = f ( x ) dx
или
g ( y ) = f (x )
dx
= f [ψ ( y )]⋅ ψ ′( y ) ,
dy
где х = ψ(у) – функция, обратная к у = φ(х).
70
В частности, для линейной функции Y = аХ + b справедливо
g(y) =
1  y −b
f
.
a  a 
При этом если величина Х распределена нормально, то и Y распределена нормально.
Если у = φ(х) не монотонна, то промежуток, на котором она определена, следует разбить на промежутки монотонности, выделить на каждом из
них однозначные ветви обратной функции х= ψ(у) и применить правило сложения вероятностей несовместных событий (как и для дискретных случайных величин при совпадении значений Y). При этом плотности распределения gi(y) для каждого из промежутков монотонности складываются, т.е.
g ( y ) = ∑ g i ( y ).
i
Например, для функции Y =X2 в промежутке - ∞ < x < + ∞, разбивая его
на два частичных промежутка (- ∞, 0) и (0, + ∞), найдем плотность распределения:
g ( y) =
1
2 y
[ f ( y ) + f (− y )] (при y ≥ 0),
при у < 0 полагаем g(y) = 0.
М а т е м а т и ч е с к о е о ж и д а н и е ф у н к ц и и Y = φ (X) случайного аргумента Х равно:
1. M(Y) = M[φ(X)] =
∑ ϕ ( x ) ⋅ P( X = x )
i
i
i
для дискретной случайной величины Х, при этом некоторые значения величины Y могут повторяться. Дисперсия величины Y вычисляется по формуле
D(Y) = М(Y2) – [M(Y)]2. Распределение величины Y2 по известному распределению Y находится согласно изложенному выше.
∞
2. M (Y ) = M [ϕ ( X )] = ∫ ϕ ( x ) f ( x) dx
−∞
71
для непрерывной случайной величины Х, с плотностью распределения f(x)
(при этом отыскание функции распределения g(y) величины Y не требуется);
функция f(x) может быть и немонотонной. Если g(y) известна, то
M (Y ) =
∞
∫ y ⋅ g ( y )dy .
−∞
В частности, если Y = a X + b, где а, b – постоянные, то
M(Y) = аМ(Х) + b.
Д и с п е р с и я ф у н к ц и и Y = φ(X) находится по формуле
∞
∞
1. D(Y ) = ∫ ( y − mY ) g ( y ) dy = ∫ y 2 g ( y ) dy − mY 2 ,
2
−∞
−∞
где g(y) – плотность распределения Y, mY ≡ М(Y); или по формуле
∞
2. D[ϕ ( X )] = ∫ [ϕ ( x) − M (Y )]2 f ( x) dx ,
−∞
где f(x) – плотность распределения Х.
Глава 1.8 МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
1.8.1. Основные понятия
1. Пусть Х1, Х2, …, Хn – случайные величины, тогда упорядоченная система (Х1, Х2, …, Хn) случайных величин называется многомерной случайной величиной (случайным вектором или случайной точкой в n – мерном
пространстве), а ее возможными значениями являются упорядоченные системы чисел (х1, х2, …, хn). В частности, для двумерной случайной величины
(X,Y) возможными значениями являются упорядоченные пары чисел. Двумерную случайную величину можно представить геометрически как случайную точку на плоскости Оху (т.е точку, имеющую случайные координаты).
Составляющие Х и Y случайного вектора могут быть дискретными, либо непрерывными. В общем случае многомерные случайные величины могут
иметь одновременно как дискретные, так и непрерывные составляющие. За72
коном распределения дискретной двумерной
случайной величины (Х, Y)
называется соответствие между упорядоченными парами чисел (хi, уj) всех ее
возможных значений и вероятностями их появления Р(Х = хi, Y = уj) ≡ Р(хi,
уj) = pij ≥ 0
(i = 1, 2, …, n; j = 1, 2, …, m). Для дискретной двумерной случайной величины закон распределения может быть задан в виде таблицы с двумя входами,
на пересечении строк и столбцов которой находятся вероятности рij появления пар возможных значений хi, уj; либо аналитически, при помощи формул,
задающих вероятности событий (Х = хi, Y = уj). При этом
n ,m
∑p
i , j =1
ij
= 1 т.к. сово-
купность всех событий (Х = хi, Y = уj) образует полную группу попарно
несовместных событий. Вероятность того, что случайная величина Х примет
значение хi равна Р(Х = хi) = Р(Х = хi, Y = у1) + Р(Х = хi, Y = у2) + …+ Р(Х =
m
хi, Y = уm) =
∑p
j =1
ij
.
Аналогично находится вероятность Р(Y = уj) =
n
∑p
i =1
ij
. Найдя вероятно-
сти Р(Х = хi) и Р(Y = уj), можно записать по отдельности законы распределения дискретных составляющих Х и Y случайной величины (Х , Y).
2. Функцией распределения (или интегральной функцией) двумерной случайной величины (Х, Y) (дискретной или непрерывной) называется
функция F(x, y), определяющая вероятность того, что X < x и Y < y для каждой заданной пары чисел (х, у):
F(x, y) = Р(X < x, Y < y).
Геометрически F(x, y) равна вероятности попадания случайной точки
(Х, Y) в бесконечный квадрант, расположенный левее и ниже каждой заданной точки (x, y).
Свойства функции распределения
1) 0 ≤ F (x, y) ≤ 1.
2) Если х1 < x2, то F(x1, y) ≤ F(x2, y);
73
если у1 < у2, то F(x, y1) ≤ F(x, y2).
3) F(– ∞, y) = 0, F(x, – ∞) = 0,
F(– ∞, – ∞) = 0, F(+ ∞, + ∞) = 1.
4) При у → + ∞ функция F(x, y) переходит в функцию распределения
величины Х:
F(x, + ∞) = F1(x);
при х → + ∞ функция F(x, y) переходит в функцию распределения величины
Y:
F(+ ∞, y) = F2 (y).
3. Вероятность попадания случайной точки в прямоугольник со
сторонами х = х1, х = х2, y = y1, y = у2 (x1 < х2, y1 < у2) равна:
Р(х1 ≤ Х < х2, у1 ≤ Y < y2) = [F(x2, y2) – F(x1, y2)] – [F(x2, y1) – F(x1, y1)].
Приращение функции распределения только по одному из аргументов
равно вероятности попадания случайной точки в соответствующую полуполосу:
Р(х1 ≤ Х < х2, Y < y) = F(x2, y) – F(x1, y);
Р(Х < х, у1 ≤ Y < y2) = F (x, y2) – F(x, y1).
4. Двумерная плотность распределения (или плотность совместного
распределения) f(x, y) двумерной непрерывной случайной величины (Х, Y)
определяется равенством
∂ 2 F ( x, y )
f(x, y) =
,
∂x∂y
если производная существует и кусочно непрерывна. Поверхность с уравнением z = f(x, y) называется поверхностью распределения.
Свойства функции f(x, y):
1. f(x, y) ≥ 0,
∞ ∞
2.
∫ ∫ f (x,y) dxdy = 1 .
− ∞− ∞
Здесь бесконечные пределы интегрирования соответствуют всей плоскости Оху.
74
Справедливо равенство:
y x
F ( x, y ) =
∫ ∫ f (x,y) dxdy
− ∞− ∞
5. Вероятность попадания случайной точки М ≡ (X,Y) в область G
на плоскости Oxy равна
Р ( M ∈ G ) = ∫∫ f ( x, y ) dxdy.
G
Выражение f(x, y)dxdy называемое элементом вероятности, является
главной частью (дифференциалом) вероятности попадания случайной точки
в прямоугольник с площадью dxdy и с вершиной в точке (x, y). Функцию f(x,
y) можно рассматривать как предел отношения вероятности попадания случайной точки в некоторую конечную область G к площади S этой области,
когда S → 0 при стягивании области G к точке (x, y).
6. Случайная величина (Х, Y) называется равномерно распределенной
в ограниченной области G (на плоскости Oxy) с площадью S, если плотность
ее распределения f(x, y) постоянна в G и равна нулю вне G:
C > 0, если точка ( х, y ) ∈ G,
f ( x, y ) = 
0, если точка ( х, y ) - вне G.
При этом вероятность попадания случайной точки М ≡ (X, Y) в какуюлибо часть G1 области G, пропорциональна площади S1 этой части: P(М ∈ G1)
= C · S1. Постоянная С находится из условия нормировки C · S = 1 и равна С
= 1 S . Следовательно, P(М ∈ G1) = S1 S .
7. Функции двух случайных аргументов.
Пусть v = φ (x, y) – однозначная функция. Тогда функция V = φ(X, Y),
ставящая в соответствие каждой паре (x, y) возможных значений случайных
величин X и Y одно возможное значение v случайной величины V, называется
функцией двух случайных аргументов X и Y.
а) Пусть X и Y – дискретные независимые случайные величины с распределениями:
75
xi
Х1
х2
…
рi
Р1
р2
…
;
yj
y1
y2
…
pj
p1
p2
…
Тогда, по определению, распределение произведения Z = XY имеет вид:
Z
х1 y1
х1 y2
х2 y1
x2 y2
…
Р
р1 p1
р1 p 2
р2 p1
р2 p 2
…
а распределение суммы V = X + Y:
V
х1 + y1
х1 + y2
х2 + y1
x2 + y2
…
Р
р1 p1
P1 p 2
р2 p1
р2 p 2
…
При этом возможные значения Z = XY равны произведениям каждого
значения Х на каждое значение Y. Аналогично определяется сумма V = X + Y.
Если некоторые произведения хi, уj (соответственно некоторые суммы хi + уj)
равны между собой, то при записи закона распределения вероятности совпадающих произведений (соответственно, сумм) складываются. В случае зависимых случайных величин X и Y вероятность совмещения возможных значений X и Y равна произведению вероятности появления одного из них на
условную вероятность другого.
Пример 1.8.1. Найти распределение суммы V = X + Y числа очков, выпавших при совместном бросании двух игральных костей.
Р е ш е н и е. Величины X и Y – числа очков, выпавших на первой и
второй кости, – независимы. Следовательно, вероятности совмещения равны
Р(Х =i, Y = j) = Р(Х = i) · Р(Y = j) =
1 1
⋅ , где i, j = 1, 2, 3, 4, 5, 6.
6 6
C учетом того, что некоторые из событий V = i + j повторяются, а их
вероятности складываются (например, i + j = 3 = 1 + 2 = 2 + 1), искомое распределение имеет вид
76
vk
2
3
4
5
6
7
8
9
10
11
12
pk
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
Здесь k = 1, …, 11;
∑р
k
= 1.
k
б) Пусть X и Y – непрерывные случайные величины. Тогда попадание
случайной величины V = φ(X, Y) в интервал (v, v + ∆v) равносильно попаданию случайной точки М ≡ (X, Y) в полосу G в области возможных значений,
ограниченную двумя линиями уровня φ(x, y) = v и φ(x, y) = v + ∆v на плоскости Oxy, т.е.
Р (v < V < v + ∆v) = Р ( M ∈ G ) = ∫∫ f ( x, y ) dxdy ,
G
где f(x, y) – плотность распределения для (X, Y).
Перейдем в этом двойном интеграле к переменным (u, v), где u = u (x, y)
– какое-либо однопараметрическое семейство кривых, пересекающих кривые
семейства v = φ (x, y). Выражая x, y через u и v: х = х(u, v), у = у(u, v), получим
P(v < V < v + ∆v ) = ∫∫
G
∂ ( х, у )
f ( x, y ) ⋅
dudv =
∂ (u , v)
v + ∆v
u2 ( v )
v
u1 ( v )
∂ ( х, у )
∫ dv ∫ f [x(u, v), y(u, v)]⋅ ∂(u, v) du,
где u1 (v) и u2 (v) – границы изменения координаты u на линии уровня f(x, y) =
v(u1 < u2); предполагается, что якобиан существует, непрерывен и отличен от
нуля. Отсюда следует, что величина V = φ (X, Y) имеет плотность распределения:
g (v ) =
∂ ( x, y )
u2 ( v )
∫ f [x(u, v), y(u, v)]⋅ ∂(u, v) du,
u1 ( v )
где интеграл вычисляется по линии уровня f(x, y) = v.
В частности, для суммы V = X + Y любых случайных величин X, Y положим u = х, v = х + y или х = u , у = v - u. Получим
∂ ( x, y )
= -1.
∂ (u , v)
77
Следовательно,
∞
∞
−∞
−∞
∫ f (u, v − u )du = ∫ f ( x, v − x)dx .
g (v ) =
Если X, Y независимы, то f(x, y) = f1(x) · f2(x) и выполняется равенство
g (v ) =
∞
∫
f 1 ( x) f 2 (v − x)dx =
−∞
∞
∫ f (v − y ) f
1
2
( y )dy .
−∞
Если возможные значения X,Y неотрицательны, то
v
v
0
0
g (v) = ∫ f 1 ( x) f 2 (v − x)dx = ∫ f1 (v − y ) f 2 ( y )dy .
Для произведения Z = XY (при условии X > 0,Y > 0) положим z = xy,
u = x. При этом f(x, y) ≠ 0 только при x > 0, y > 0. Получим
∞
∞
 z1
 z  dx
g ( z ) = ∫ f  u,  du = ∫ f  x,  ( z > 0) ,
 uu
 x x
0
0
g ( z ) = 0 при z < 0.
Если плотность распределения f(x, y) двумерной величины (X, Y) зави~
сит только от r = х 2 + y 2 , т.е. f(x, y) ≡ f (r), то для функции V = φ(X, Y) ≡
Ф ( X 2 + Y 2 ) плотность распределения в полярных координатах (r, θ) равна
2π
g (r ) =
∫
~
~
f (r )rdθ = 2π rf (r ) (r > 0),
0
т.к. якобиан в полярных координатах равен r, а переменная θ изменяется от
0 до 2 π на каждой линии уровня r = const.
8. Математическое ожидание функции φ(X, Y) от двух непрерывных
случайных величин X и Y определяется равенством
∞ ∞
M [ϕ ( X , Y )] =
∫ ∫ ϕ(x,y)f (x,y) dxdy ,
− ∞− ∞
где f(x, y) – плотность распределения системы (Х, Y).
Аналогично, для функции φ(Х1, …, Хn) любого числа случайных величин Х1, …, Хn:
∞
∞
−∞
−∞
M [ϕ ( X 1 ,..., X n )] = ∫ ... ∫ ϕ(x1 ,..., xn ) f (x1 ,..., xn ) dx1 ...dxn ,
78
где f(x1,…,хn) – плотность распределения системы (Х1, …, Хn).
Для двух дискретных случайных величин X,Y:
M [ϕ ( X , Y )] =
n ,m
∑ ϕ(x ,y
i , j =1
i
j
)pij ,
где pij = Р (Х = хi, Y = уj) – вероятность события (Х = хi, Y = уj); i = 1, …, n;
j = 1, …, m.
В частности, для функции Z = X + Y имеем М(Z) = M(X) + M(Y). Аналогичная формула справедлива для суммы любого конечного числа случайных величин (зависимых, либо независимых). Например, математическое
ожидание суммарного числа очков Х + Y, выпавших при одновременном
бросании двух игральных костей, равно М(Х + Y) = M(X) + M(Y) = 3,5 + 3,5 =
7(см. пример 1.5.1).
Пример 1.8.2. Случайная точка (X, Y) равномерно распределена (см.
п. 6) в круге радиуса а. Найти среднее значение (математическое ожидание)
расстояния этой точки до центра круга.
Р е ш е н и е. Требуется найти математическое ожидание
M ( R ) ≡ M ( X 2 + Y 2 ) . Здесь
g (r ) =
~
f (r ) = С =
1
при r < a;
πа 2
~
f (r ) = 0 при r > a;
2π r 2r
при r < a; g (r ) = 0 при r > a. Следовательно,
=
πа 2 а 2
a
M ( R) = ∫ rg (r )dr =
0
9. Плотности распределения f1(x) =
2
a.
3
dF1 ( x)
dF ( y )
и f2(y) = 2
непрерывdx
dy
ных составляющих X и Y системы (Х, Y) с плотностью распределения f(x, у)
находятся по формулам:
f1 ( x) =
∞
∫
f ( x, y )dy , f 2 ( y ) =
−∞
∞
∫ f(x,y ) dx .
−∞
Здесь F1(x) и F2(y) – интегральные функции распределения величин X и Y.
10. Для непрерывной многомерной случайной величины (Х1, …, Хn)
функция распределения определяется равенством
79
F(x1, …, xn) = Р (Х1 < х1,…, Xn < xn), а плотность распределения – равенством
f ( x1 ,..., x n ) =
∂ n F ( x1 ,..., x n )
.
∂x1 ...∂x n
Выражение f(x1, …, xn)dx1 …d xn называется элементом вероятности.
Для функции U = φ(X, Y, Z) трехмерной случайной величины (X, Y, Z)
плотность распределения находится по формуле
g (u ) =
∞ ∞
∂ ( x, y , z )
∫ ∫ f [x(u, v, w), y(u, v, w), z (u, v, w)] ∂(u, v, w) dvdw ,
− ∞− ∞
где f(x, y, z) плотность распределения системы (X, Y, Z); u = φ(x, y, z), v, w –
криволинейные координаты в области пространства Oxyz, содержащей возможные значения системы (X, Y, Z); интеграл вычисляется по поверхности
уровня φ (x, y, z) = u. В частности, для X плотность распределения равна
f X ( x) =
∞ ∞
∫ ∫ f ( x, y, z )dydz ,
− ∞− ∞
а для системы (X, Y)
f ( X ,Y ) ( x, y ) =
∞
∫ f ( x, y, z )dz .
−∞
1.8.2. Числовые характеристики системы двух случайных величин
1. Две случайные величины X и Y называются независимыми, если
закон распределения каждой из них не зависит от того, какие из возможных
значений приняла другая величина. В противном случае эти величины называются зависимыми. Для того чтобы непрерывные случайные величины X и
Y были независимыми, необходимо и достаточно выполнение одного из двух
следующих равенств
F(x, y)=F1(x)·F2(x) или f(x, y)=f1(x)·f2(y),
где F1, f1 и F2, f2 – функции распределения величин X и Y соответственно.
80
Аналогично, для n взаимно независимых случайных величин Х1, Х2, …,
Хn выполняются равенства (ср. с независимостью событий в совокупности,
1.1.6):
F(x1, x2, …, xn) = F1(x1)F2(x2)…Fn(xn),
f(x1, x2…, xn) = f1(x1)f2(x2)…fn(xn).
Для двух независимых дискретных случайных величин X и Y вероятность рij совместного появления событий Х = хi и Y = уj равна произведению
вероятностей этих событий:
рij = Р(Х = хi, Y = уj) = Р(Х = хi) Р(Y = уj) = p xi p y j .
Аналогичные равенства справедливы для любого конечного числа взаимно независимых величин.
2. Для описания системы двух любых (не обязательно независимых)
случайных величин X и Y наряду с их математическими ожиданиями и дисперсиями используют также к о р р е л я ц и о н н ы й м о м е н т (к о в а
- р и а ц и ю) и к о э ф ф и ц и е н т к о р р е л я ц и и.
Корреляционный момент (ковариация) µXY системы (X,Y) определяется равенством
μXY ≡ cov( X , Y ) = M {[X − M ( X )]⋅ [Y − M (Y )]}.
Для н е п р е р ы в н ы х величин X и Y:
μXY =
∞ ∞
∞ ∞
− ∞− ∞
− ∞− ∞
∫ ∫ [x − M ( X )][y − M (Y )]f ( x, y )dxdy =. ∫ ∫ xy f ( x, y )dxdy − M ( X ) M (Y ) ,
∞
∞
−∞
−∞
где M ( X ) = ∫ xf1 ( x)dx , M (Y ) = ∫ yf 2 ( y )dy .
Для дискретных величин X и Y:
µ XY = ∑∑ [xi − M ( X )][y j − M (Y )]pij .
n
m
i =1 j =1
Коэффициентом корреляции величин X и Y называется величина
rXY ≡ r =
µ XY
, σ ( X ) = D( X ) , σ (Y ) = D(Y ) ,
σ XσY
где
81
D(X) =
D(Y) =
∞
∞
−∞
−∞
∞
∞
−∞
−∞
2
2
2
∫ [x − M(X)] f1(x)dx = ∫ x f1(x)dx −[M(X)] ,
2
2
2
∫ [ y − M(Y)] f 2(y)dy = ∫ y f 2(y)dy −[M(Y)]
– дисперсии величин X и Y. Коэффициент корреляции не имеет размерности
и удовлетворяет неравенствам: –1≤ rXY ≤ 1. Для любых двух (не обязательно
независимых) случайных величин X ,Y справедливы равенства
M(XY) = M(X)M(Y) + rXY σX σY,
D(X±Y) = D(X) + D(Y) ± 2rXY σX σY.
Для произвольного числа слагаемых
 n
 n
D ∑ X k  = ∑ D( X k ) + 2∑ µij ,
i< j
 k =1  k =1
где µ ij - корреляционный момент величин Xi и Yj. Если все µij = 0 (i ≠ j), то
 n
 n
D ∑ X k  = ∑ D ( X k ) .
 k =1
 k =1
Для независимых величин X ,Y справедливо µXY = 0, rXY = 0. Две случайные величины X, Y, называются коррелированными, если rXY ≠ 0, и не-
коррелированными, если rXY = 0. Две коррелированные величины также и
зависимы. Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Две независимые величины также и
некоррелированы. Из некоррелированности величин в общем случае не следует их независимость. Для составляющих нормально распределенной системы двух случайных величин понятия некоррелированности и независимости равносильны.
3. Начальным моментом vmn порядка m + n системы непрерывных
случайных величин (X, Y) называется математическое ожидание произведения XmYn:
vmn = M ( X mY n ) =
∞ ∞
∫ ∫x
−∞ −∞
В частности, v10 = M(X), v01 = M(Y).
82
m
y n f ( x, y )dxdy. .
Центральным моментом µmn порядка m + n непрерывной системы (X,
называется математическое ожидание произведения степеней отклоне-
Y)
ний
0
0
X m Y n ≡ [ X − M ( X )] [Y − M (Y )] :
m
µ mn =
n
∞ ∞
∫ ∫ [x − M ( X )] [ y − M (Y )]
m
n
f ( x, y ) dxdy .
−∞ −∞
В том числе µ10 = M[X – M(X)] = 0, µ01 = M[Y – M(Y)] = 0, µ20 =
{
}
2
M {[X − M ( X )]2 }. = D( X ), µ02 = M [Y − M (Y )] . = D( X ) , µ11 = µXY. Для независимых
величин X и Y справедливо µ11 = 0.
Начальный и центральный моменты для системы дискретных величин
(X, Y) определяются соответственно по формулам:
v mn = ∑ xim y nj p ij ,
i, j
µ mn = ∑ [xi − M ( X )]m [y j − M (Y )]n pij .
i, j
1.8.3. Регрессии
1. Если случайные события А и В зависимы, то условная вероятность
Р(А|В) события А отличается от его безусловной вероятности Р(А) и находится по формуле Р(А|В) = Р(АВ)/Р(В). Аналогично, зависимость между составляющими X и Y случайного вектора (X, Y) с функцией распределения F (x, y)
характеризуется условным распределением.
Для двумерной дискретной случайной величины (X, Y) условный закон распределения составляющей Х при условии, что событие Y = уj, где j
(j = 1, 2, …, m) зафиксировано, уже произошло, является совокупностью
условных вероятностей
p( xi y j ) ≡ P( X = xi Y = y j ) =
83
pij
p( y j )
(i = 1, 2, …, n);
аналогично записывается условный закон распределения составляющей Y
при условии X = xi, где i (i = 1, 2, …, n) зафиксировано
p( y j xi ) ≡ P(Y = y j X = xi ) =
pij
p ( xi )
(j = 1, 2, …, m);
Здесь
pij ≡ P[( X , Y ) = ( xi , yi ) ] ; p( xi ) ≡ P( X = xi ) = ∑ pij ; p( y j ) ≡ P(Y = y j ) = ∑ pij .
m
n
j =1
i =1
При этом сумма всех вероятностей каждого условного распределения
равна единице:
n
∑ p( x
i =1
y j ) = 1 , j = 1, 2, …, m – зафиксировано;
i
m
∑ p( y
j =1
j
xi ) = 1 , i = 1, 2, …, n – зафиксировано.
Для двумерной н е п р е р ы в н о й случайной величины (X, Y) условные плотности распределения составляющих X и Y и записываются в виде
f ( x y) =
f ( x, y )
=
f 2 ( y)
f ( x, y )
∞
(Y = y – зафиксировано),
∫ f ( x, y )dx
−∞
f ( y x) =
f ( x, y )
=
f1 ( x)
f ( x, y )
∞
(X = x – зафиксировано).
∫ f ( x, y)dy
−∞
Для системы трех и более случайных величин вводятся как одномерные так и многомерные условные распределения. Например, для системы
(X, Y, Z) можно записать условную плотность распределения величины X при
условии Y = y, Z = z:
f ( x y, z ) =
f ( x, y , z )
=
g ( y, z )
f ( x, y , z )
∞
.
∫ f ( x, y, z)dx
−∞
2. Составляющие X и Y случайного вектора (X ,Y) могут быть связаны
между собой вероятностной (статистической) зависимостью, называемой
корреляционной зависимостью, и отличающейся от обычной функциональной зависимости. Если X и Y связаны корреляционной зависимостью, то
84
для каждого возможного значения х случайной величины Х, величина Y является случайной, с определенным, зависящим от значения х условным распределением вероятностей, аналогично тому, как для двух зависимых случайных
событий условная вероятность каждого из них при наступлении другого, отличается от обычной безусловной вероятности.
3. Условное математическое ожидание дискретной случайной величины Y при условии, что Х = хi (хi – определенное возможное значение Х)
определяется равенствoм
m
m
j =1
j =1
M (Y X = xi ) = ∑ y j P(Y = y j X = xi ) ≡ ∑ y j p( y j xi ) .
Аналогично,
n
M ( X Y = y j ) = ∑ xi p( xi y j ) .
i =1
Условные математические ожидания непрерывных случайных величин X и Y определяется равенствами
M (Y X = x) =
∞
∫ yf ( y x)dy ,
−∞
M ( X Y = y) =
∞
∫ xf ( x y)dx .
−∞
Функция ϕ ( x) ≡ M (Y X = x) , зависящая от аргумента х, называется (теоретической) функцией регрессии величины Y на величину Х (или регрессией Y на Х). Уравнение y = φ(x) называется уравнением регрессии Y на Х, а
соответствующий график – линией (или кривой) регрессии Y на Х (или Y по
Х). Регрессия Y на Х показывает, как в среднем изменяется Y при изменении
х. Аналогично рассматривается функция ψ( y ) ≡ M ( X Y = y ) , называемая регрессией Х на Y (или Х по Y), а также соответствующее уравнение x = ψ(y) и
график.
Условная дисперсия D(Y X = x) величины Y, вычисленная для каждого значения Х = х, характеризует точность, с которой уравнение регрессии Y
на Х описывает изменение Y в с р е д н е м при изменении х.
Основное свойство функции регрессии. Среди всех функций g(x)
минимум математического ожидания M {[Y − g ( X )]2 } достигается для функции
85
регрессии φ(x), которая, таким образом, минимизирует среднюю квадратическую ошибку прогноза величины Y, сделанную на основании значений величины Х. Отсюда, в частности, следует, что если известен вид функции регрессии φ(x), то ее неизвестные параметры могут быть найдены методом
наименьших квадратов из необходимого условия минимума математического
ожидания как функции от этих параметров, т.е. приравниванием к нулю соответствующих частных производных от M {[Y − ϕ (X )]2 }.
Согласно основному свойству, для каждого Х = х0 наилучшим прогнозируемым значением Y является значение y0 = φ(x0) функции регрессии.
В самом простом случае (теоретическая) линия регрессии Y на Х является прямой с уравнением
у = mY + rXY
σY
( x − mX ) .
σX
(1.8.1)
Здесь mX и mY – математические ожидания величин X и Y; σ X2 и σ Y2 –
µ
дисперсии величин Х и Y; rXY = XY (σ ⋅ σ ) – коэффициент корреляции X и Y.
X
Y
Аналогично записывается уравнение прямой регрессии Х на Y.
x = mX + rXY
σX
( y − mY ) .
σY
(1.8.2)
Если обе функции регрессии Х на Y и Y на Х линейны, то говорят, что
между величинами X и Y имеется линейная корреляционная зависимость
(кратко, линейная корреляция). Обе линии регрессии при этом будут прямыми (в общем случае разными), называемыми прямыми регрессии. Если
случайная величина (X, Y) имеет двумерное нормальное распределение, то
величины X и Y связаны линейной корреляционной зависимостью с уравнениями прямых (1.8.1), (1.8.2.).
В частности, если Х и Y связаны обычной функциональной зависимо2
стью Y = aX + b, то mY = amX + b, µ XY = aσ X ,
rXY =
a
= ±1 .
a
86
D (Y ) = a 2 D ( X ) = a 2σ X2 ,
Следовательно, функция регрессии Y на Х принимает вид y = ax + b.
Коэффициент корреляции rXY является оценкой силы линейной связи между
Х и Y: чем ближе | rXY | к единице, тем сильнее эта связь; чем ближе | rXY |
к нулю, тем эта связь слабее. При rXY = ± 1 величины связаны линейной
функциональной зависимостью; обе прямые регрессии при этом совпадают.
В общем случае истинные функции регрессии y = φ(x) и x = ψ(y) не являются линейными. Однако и в этом случае можно по методу наименьших
квадратов составить уравнения прямых (1.8.1) и (1.8.2), которые будут л и н е й н ы м и а п п р о к с и м а ц и я м и (п р и б л и ж е н и я м и) истинных функций регрессии. Аппроксимирующие функции могут быть и более
сложными, чем линейные, например, квадратичными, коэффициенты которых также ищутся по методу наименьших квадратов.
1.8.4. Нормальный закон распределения на плоскости
Нормальное распределение на плоскости Oxy (двумерное нормальное
распределение) системы случайных величин Х, Y определяется плотностью
распределения

 ( x − mX )2
1
( x − mX )( y − mY ) ( y − mY ) 2  
f ( x, y ) = C ⋅ exp−
2
r
−
+
,
XY

2
2
σ Xσ Y
σ Y2  
 2(1 − rXY )  σ X
C=
1
2
2πσ X σ Y 1 − rXY
,
зависящей от пяти параметров: mX, mY – математических ожиданий величин
X, Y; σ X и σ Y – средних квадратических отклонений, rXY – коэффициента
корреляции величин Х и Y.
Плотности распределения составляющих Х и Y равны соответственно
f X ( x) =
∞
∫ f ( x, y )dy = σ
−∞
87
1
X
 ( x − mX ) 2 
exp −
,
2σ X2 
2π

∞
fY ( y ) =
∫
f ( x, y )dx =
−∞
1
σY
 ( y − mY ) 2 
exp−
.
2σ Y2 
2π

Если составляющие X и Y нормально распределенной системы (X, Y)
некоррелированы т.е. rXY = 0, то
f ( x, y ) =
=
1
σX
 ( x − m X ) 2 ( y − mY ) 2 
exp −
−
=
2
2
σ
σ
2πσ X σ Y
2
2
X
Y


1
 ( x − mX )2 
 ( y − mY ) 2 
1
exp −
exp
⋅

−
 ≡ f X ( x) ⋅ f Y ( y )
2σ X2  σ Y 2π
2σ Y2 
2π


Для составляющих X и Y нормально распределенной системы (X, Y)
свойства некоррелированности и независимости равносильны, т.е. из одного
любого следует другое. Если rXY ≠ 0, то величины X и Y зависимы. При этом
условные плотности распределения составляющих X и Y имеют вид:
f ( x y) =
f ( y x) =
1
2
σ X 2π 1 − rXY
1
2
σ Y 2π 1 − rXY

 x − mX
y − mY
1

exp−
− rXY
2
σY
 2(1 − rXY )  σ X



2

;


 y − mY
x − mX
1

exp −
− rXY
2
σX
 2(1 − rXY )  σ Y



2

.

Если σ X = σ Y = σ , rXY = 0, то нормальное распределение на плоскости
называется нормальным круговым. При этом плотность распределения случайной величины R = X 2 + Y 2 – расстояния случайной точки (X, Y) от начала
координат (0; 0) равна
g (r ) =
где r =
r
σ2
 r2 
exp  − 2  (при r >0),
 2σ 
 r2 
х 2 + y 2 . Функция распределения F(r) = Р(R < r) = 1 - exp  − 2  (при
 2σ 
∞
r > 0). Математическое ожидание величины R равно M(R) = ∫ rg (r )dr = σ
0
π
2
.
Примечание. Понятие нормального распределения может быть обобщено на системы любого числа случайных величин. В частности, для системы трех взаимно независимых нормально распределенных величин X, Y, Z
88
(при условии mX = mY = mZ = 0, σX =σY =σZ = σ), плотность совместного распределения имеет вид:
 z 
 x2 
 y2 


 − 2  еxp  −
f ( x, y , z ) =
еxp
−
еxp
=
3
 2σ 2 
2


 2σ 
σ 2π
 2σ 
(
1
2
)
 x2 + y 2 + z 2 
=
еxp −
.
2σ 2
(σ 2π )3


1
Глава 1.9 ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ
1.9.1. Общие сведения
Характеристической функцией случайной величины Х называется
математическое ожидание случайной величины ехр (itX):
Ф(t) ≡ M(eitX) = M(cos tX) + iM(sin tX),
где i2 = -1, t(-∞ < t < +∞) – действительный параметр. Если X – дискретная величина с возможными значениями хk и их вероятностями рk = Р(Х = хk), то
Ф(t ) = ∑ e itxk pk .
k
Для непрерывной величины X с плотностью распределения f(x):
∞
Ф(t ) = ∫ e itx f ( x )dx .
−∞
Этот интеграл для всех функций распределения существует, сходится
абсолютно и |Ф(t)| ≤ 1. Функция Ф(t) является о б р а з о м Ф у р ь е (с точностью до числового множителя) функции f(x). Функция f(x) выражается при
помощи о б р а т н о г о п р е о б р а з о в а н и я Ф у р ь е:
1
f ( x) =
2π
∞
∫e
− itx
Ф (t ) dt .
−∞
По функции распределения случайной величины X всегда можно найти
ее характеристическую функцию.
89
Пример 1.9.1. 1. Характеристическая функция индикатора IА случайного события А равна
Ф(t) = еit· 0 · (1 – p) + еit· 1 · p = 1 – p + p еit.
2.Для нормально распределенной величины X с М(X) = a и D(X) = σ2:
1
Ф(t ) =
σ 2π
∞


( x − a) 2 
σ 2t 2 
∫−∞еxpitx − 2σ 2 dx = еxp iat − 2  .
При этом использована подстановка z =
+∞ − iβ
∫
e
−z2
2
x−a
σ
− itσ и интеграл Пуассона
dz = 2π .
− ∞ − iβ
3. Для дискретной величины
имеем:
, распределенной по закону Пуассона,
4. Для биномиального распределения:
n
Ф (t ) = ∑ e itm
m =0
n!
p m q n −m = ( pe it + q ) n .
m!( n − m)!
5. Для равномерно распределенной в промежутке [ − a, a] величины X:
a
Ф(t ) = ∫ еxp(itx) ⋅
−a
1
sin at
dx =
.
2а
at
6. Для геометрического распределения:
Ф (t ) =
p
.
1 − qe it
1.9.2. Свойства характеристических функций
1. Характеристическая функция равномерно непрерывна на всей числовой оси и удовлетворяет соотношениям:
Ф ( −t ) = Ф (t ) , Ф(0) = 1, | Ф (t ) | ≤ 1 (-∞ < t < +∞).
90
2. Если Y = aX + b, где а и b – постоянные, то ФY(t) = ФX(at) · eibt. Здесь
ФX, ФY – характеристические функции для X и Y.
3. Характеристическая функция суммы Z = X + Y н е з а в и с и м ы х
случайных величин равна произведению их характеристических функций
ФZ(t) = ФX(t)ФY(t).
Если подвергнуть функцию ФZ(t) обратному преобразованию Фурье, то
можно найти плотность распределения величины Z.
Примечание 1. Если в сумме Z = X1 + X2 + …+ Xn каждое слагаемое
независимо от суммы предыдущих, то ФZ(t) равна произведению характеристических функций всех слагаемых.
4. Если случайная величина X имеет начальный момент υn = M(Xn) порядка n, то характеристическая функция Ф(t) величины X дифференцируема
n раз по t и при k ≤ n:
Ф(k)(0) = ik M(Xk) или
υn = i-k Фk (0).
Примечание 2. Величина ik Ψ(n) (0), где Ψ(t) = lnФ(t), называется полуинвариантом
k-го
порядка
случайной
величины
X.
В
частности,
M ( X ) = i −1 Ψ ′(0) , D ( X ) = − Ψ ′′(0) .
1.9.3. Формула обращения и теорема единственности
Если Ф(t) и F(x) – характеристическая функция и интегральная функция распределения случайной величины X и x1, x2 – точки непрерывности
функции F(x), то справедлива следующая формула обращения
1
exp(−itx1 ) − exp(−itx2 )
F ( x2 ) − F ( x1 ) =
lim ∫
f (t )dt .
C
→
∞
2π
it
−C
C
Отсюда следует, что функция распределения F(x) в каждой точке непрерывности однозначно определяется своей характеристической функцией.
В частности, если X – непрерывная случайная величина и f(x) = F' (x) – плотность ее распределения, то
91
1
f ( x) =
2π
∞
∫e
− itx
Ф(t )dt .
−∞
Пример 1.9.2. 1. Найти распределение суммы Х = Х1 + Х2 независимых
случайных величин, распределенных по закону Пуассона
Р ( X 1 = m) =
a1m e − a1
,
m!
Р ( X 2 = m) =
a 2m e − a2
.
m!
Р е ш е н и е. Ф1 (t ) = exp{a1 [exp(it ) − 1]}, Ф 2 (t ) = exp{a 2 [exp(it ) − 1]} . Отсюда
для Х находим Ф (t ) = Ф1 (t )Ф 2 (t ) = exp{( a1 + a 2 )[exp(it ) − 1]} . Следовательно,
сумма Х имеет также распределение Пуассона с параметром а = а1 + а2.
2. Найти распределение суммы Х = Х1 + Х2 независимых, нормально
распределенных случайных величин Х1, Х2, для которых , M(X1) = a1, M(X2) =
a2, D(X1) = σ 12 , D(X2) = σ 22 .


σ 12t 
σ 22t 
Ф
(
t
)
=
exp
ia
t
−
t
ia
t
Ф
(
)
=
exp
−
Р е ш е н и е. 1
 1
, 2
 2
 . Для Х имеем
2 
2 


1


Ф(t ) = Ф1 (t )Ф 2 (t ) = exp it (a1 + a2 ) − (σ 12 + σ 22 )t  .
2


Следовательно, Х имеет также нормальное распределение
f ( x) =
 ( x-a) 2 
1
еxp 2 .
σ 2π
 2σ 
С параметрами а = а1 + а2, σ2 = σ 12 + σ 22 .
1.9.4 Характеристические функции многомерных случайных
величин
92
1. Характеристической функцией n-мерной случайной величины
(Х1, Х2, …, Хn) называется математическое ожидание случайной величины
 n

exp i ∑ t k X k  :
 k =1

  n

Ф(t1 , t 2 ,..., t n ) = M exp i ∑ t k X k  .

  k =1
Для непрерывной n-мерной случайной величины:
∞
  n

Ф(t1 , t 2 ,..., t n ) = ∫ .... ∫ exp i ∑ t k X k  f ( x1 ,..., xn )dx1 ...dxn .
 k =1

− ∞
Свойства характеристических функций
а) Характеристическая функция равномерно непрерывна во всем nмерном пространстве.
б) Ф(0, 0, …, 0) =1; | Ф (t1 , t 2 ,..., t n ) | ≤ 1 (-∞ < tk< ∞, k = 1, 2, …, n);
f (−t1 ,−t 2 ,...,−t n ) = f (t1 , t 2 ,..., t n ) .
2. Если компоненты Хk величины (Х1, …, Хn ) независимы, то ее характеристическая функция Ф равна произведению характеристических функций
Фk компонент:
Ф (t1 ,..., t n ) = Ф 1 (t1 )...Ф n (t n ) .
3. Если Ф(t1 ,..., t n ) – характеристическая функция n-мерной величины
(Х1, …, Хn ), то случайная величина (σ1Х1 + а1, …, σn Хn + an), где все аi, σi –
действительные постоянные, имеет характеристическую функцию
 n

exp i ∑ ak tk  ⋅ f (σ 1t1 ,...,σ ntn ).
 k =1

4. Если Ф (t1 ,..., t n ) – характеристическая функция величины (Х1, …, Хn),
то характеристическая функция суммы X = Х1 +… Хn равна
Ф Х (t ) = Ф(t , t ,..., t ) .
5. Функция распределения F(x1, …, хn) n-мерной случайной величины
однозначно определяется ее характеристической функцией.
93
Глава 1.10 ЗАКОН БОЛЬШИХ ЧИСЕЛ
Совокупность утверждений, носящих общее название закона больших
чисел, рассматривает условия, при выполнении которых совместное действие большого числа случайных факторов приводит к результату, практически не зависящему от случая.
1.10.1. Неравенство Чебышева
Вероятность отклонения случайной величины Х от ее математического
ожидания M(Х) удовлетворяет неравенству:
P( X − M ( X ) < ε ) ≥ 1 −
D( X )
ε2
,
где ε – любое положительное число, D(Х) дисперсия.
1.10.2. Теорема Чебышева
1. Пусть Х1, Х2, …, Хn… – какая-либо последовательность п о п а р н о
н е з а в и с и м ы х случайных величин с равномерно ограниченными сверху
дисперсиями, т.е. D(Хk) ≤ C (C – некоторое число) для любого k, тогда среднее арифметическое первых п из этих случайных величин
X=
1
( X 1 + X 2 + ... + X n )
n
сходится по вероятности к среднему арифметическому их ожиданий, т.е.
1 n

1 n
lim P  ∑ X k − ∑ M ( X k ) < ε  = 1 ,
n→∞
n k =1
 n k =1

где ε – любое положительное число.
94
Примечание. Говорят, что последовательность случайных величин
Х1, Х2, … сходится по вероятности к случайной величине Х, если для любого ε > 0 вероятность выполнения неравенства |Х-Хn| < ε стремится к единице при n → ∞. При этом для некоторых отдельных номеров n неравенство
может не выполняться, в отличие от сходимости последовательности к своему пределу в обычном смысле сходимости.
2. Частный случай теоремы Чебышева. Если все попарно независимые Хk имеют одинаковые математические ожидания M(Хk) = a, то
1 n

lim P ∑ X k − a < ε  = 1 .
n→∞
 n k =1

Частный случай теоремы Чебышева является теоретическим обоснованием практического приема измерения какой-либо величины, согласно которому производится несколько независимых измерений этой величины, а затем находится среднее арифметическое результатов измерений. Ошибкой
измерения называется разность между результатом измерения и истинным
(обычно, заранее неизвестным) значением измеряемой величины. Если при
измерении имеются лишь случайные ошибки, то математические ожидания
всех результатов измерения одинаковы и равны истинному значению измеряемой величины. Следовательно, при достаточно большом числе измерений,
их среднее арифметическое с вероятностью сколь угодно близкой к 1, будет,
как угодно мало отличаться от истинного значения измеряемой величины.
1.10.3. Теорема Бернулли
Пусть производится n независимых испытаний, в каждом из которых
вероятность появления события А постоянна и равна р = Р(А). Тогда, если
m – число появлений события А в этих испытаниях, то относительная частота m/n появления А стремится по вероятности к р, т.е.
95
m

lim P − p < ε  = 1 .
n →∞
 n

1.10.4. Теорема Пуассона
Пусть в последовательности независимых испытаний вероятность появления события А в k-м испытании равна рk. Тогда
 m р + р2 + ... + рn

lim P − 1
< ε  = 1 ,
n →∞
n
 n

где m – число появлений события А в первых n испытаниях.
1.10.4. Теорема Маркова
Если последовательность (возможно, зависимых) случайных величин
Х1, Х2, …, Хn, …, обладает свойством
1  n

D ∑ X k  → 0
2
n  k =1

при n → ∞,
то для любого числа ε > 0 справедливо
1 n

1 n
lim P ∑ X k − ∑ M ( X k ) < ε  = 1 .
n →∞
n k =1
 n k =1

Для попарно независимых величин Хk приведенное выше свойство
имеет вид
1
n2
n
∑ D( X
k =1
k
)→0
при n → ∞ .
1.10.6. Центральная предельная теорема
96
Сумма любого числа в з а и м н о н е з а в и с и м ы х нормально распределенных случайных величин Х1, Х2, …, Хn с различными, в общем случае, математическими ожиданиями M(Хi) = ai и дисперсиями D(Хi) = σ i2 (i = 1,
2, …, n) является также нормально распределенной случайной величиной с
параметрами a = a1 + a2 + … + an , σ 2 = σ 12 + σ 22 + … + σ n2 .
Справедливо и обратное утверждение: если сумма любого числа взаимно независимых случайных величин является нормальной случайной величиной, то каждая случайная величина (слагаемое) является нормальной.
Обобщением этих утверждений является центральная предельная теорема Ляпунова, формулируемая следующим образом.
Пусть Х1, Х2, …, Хn …-какая-либо последовательность в з а и м н о н е з а в и с и м ы х случайных величин (не обязательно одинаково распределенных), каждая из которых имеет конечное математическое ожидание M(Хi)
= ai, дисперсию D(Хi) = σ i2 , абсолютный центральный момент третьего по-
(
)
рядка M X − ai = γ i . Величины An = a1 + a2 + … + an и Bn2 = σ 12 + σ 22 + …
3
+ σ n2 являются математическим ожиданием и дисперсией соответственно для
случайной величины Sn = Х1 + X2 + … + Хn . Случайные величины
Zn =
S n − An
Bn
являются нормированными и центрированными, т.е. M(Zn) = 0, D(Zn) = 1.
Обозначим Fn(x) интегральную функцию распределения величины Zn:
 S − An

Fn ( x) = P n
< x  .
 Bn

Тогда, если при n → ∞ выполняется условие Ляпунова
n
∑γ
i =1
Bn3
97
i
→0,
то
1
lim Fn ( x) =
n →∞
2π
x
∫e
−z2
2
dz
(1.10.1)
−∞
равномерно по х. Таким образом, случайная величина Zn асимптотически
(при n → ∞) нормальна.
Примечание 1. Говорят, что функция f(x) является а с и м п т о т и ч
е- с к и м в ы р а ж е н и е м (или п р и б л и ж е н и е м) для функции g(x)
при x→ x0 (в частности, при x → ± ∞), если
lim
x → x0
g ( x)
=1
f ( x)
(в частности, при x → ± ∞).
Примечание 2. Доказательство центральной предельной теоремы основано на использовании свойств характеристических функций.
Если же число слагаемых в сумме Sn конечно, но достаточно велико, то
распределение величины Zn близко к нормальному.
Говорят, что к последовательности Х1, Х2, … применима центральная
предельная теорема, если при любом x выполняется соотношение (1.10.1).
Условие Ляпунова означает, что отдельные слагаемые (Xi – ai )/Bn, составляющие сумму Zn, равномерно малы по сравнению со значениями суммы.
Смысл центральной предельной теоремы состоит в том, что если рассматриваемая случайная величина является суммой большого числа взаимно независимых случайных величин, каждая из которых мала по сравнению со всей
суммой, то эта сумма имеет приблизительно нормальное распределение.
Например, на случайную ошибку, возникающую при измерении какой-либо
величины, влияет большое число не зависящих друг от друга случайных
причин. Если вклад каждой из этих причин в суммарную ошибку незначителен, то можно считать, что суммарная ошибка имеет распределение, близкое
к нормальному. При этом математическое ожидание случайной ошибки равно нулю (т.е. среднее арифметическое всех ошибок близко к нулю), а среднее
98
квадратическое отклонение, являющееся средней квадратической ошибкой,
характеризует точность измерений.
Глава 1.11 АСИММЕТРИЯ И ЭКСЦЕСС РАСПРЕДЕЛЕНИЯ
Для оценки отличия распределения какой-либо случайной величины Х
от нормального распределения f0(x), имеющего параметры а ≡ M(Х),
σ ≡ D( X ) и симметричного относительно прямой x = a, используются сле-
дующие безразмерные параметры:
1. Коэффициент асимметрии
As =
µ3
µ3
M [( X − a) 3 ]
≡
≡
,
(µ 2 )3 2 σ 3
σ3
2. Эксцесс
M [( X − a) 4 ]
µ4
µ4
Ex = 2 − 3 ≡ 4 − 3 ≡
−3,
µ2
σ
σ4
где µ2, µ3, µ4 – центральные (теоретические) моменты; а = M(Х), σ2 = D(Х) –
математическое ожидание и дисперсия величины Х.
Ограничимся далее случайными величинами, имеющими единственную моду Мо.
Такие распределения случайных величин называются одновершинными. Для нормального распределения: µ3 = 0, µ4 = 3σ4; следовательно, As =
0, Ex = 0 и a = Mo. В общем же случае As ≠ 0, Ex ≠ 0. В частности, для биномиального распределения:
µ 3 = M [( X − a ) 3 ] = M [( X − np ) 3 ] = npq ⋅ ( q − p ) .
Отсюда следует
As =
npq (q − p ) q − p
=
.
(npq )3 2
npq
99
Видно, что As → 0 при n → ∞, т.е. по мере приближения биномиального распределения к нормальному. Близость величины As какого-либо распределения к нулю характеризует степень симметричности графика этого
распределения. Чем больше величина | As |, тем более несимметричен график
плотности распределения f(x) величины Х. Если As > 0, то Мо < а ≡ M(Х)
(рис. 1.11.1 а), если же As < 0, то Мо > а (рис. 1.11.1 б).
Рис. 1.11.1
Если распределение симметрично, то Мо = M(Х) ≡ а и As = 0. Если для
некоторого симметричного распределения f(x) случайной величины Х справедливо Ex ≠ 0, то график этого распределения отличается от графика нормального распределения у = f0(x) с параметрами a, σ:
1. Если Ex > 0, то f(а) > f0(a), при этом график у = f(x) ýже, чем у = f0(x)
(рис. 1.11.2 а).
Рис. 1.11.2
100
2. Если Ex < 0, то f(а) < f0(a), при этом график у = f(x) шире, чем у
= f0(x) (рис. 1.11.2 б). Здесь предполагается, что а = M(Х), σ = D( X ) .
Пример 1.11.1. Найти величины As и Ex для распределения Пуассона.
Р е ш е н и е. Используя формулы из 2.2.4., получим:
υ1 ≡ M(Х) = а, υ2 = а2 + а, υ3 = а3 + 3а2 + а,
υ4 = а4 + 6а3 + 7а2 + а; µ1 = 0, µ2 ≡ σ2 = а, µ3 = а, µ4 = 3 а2 + а;
As =
µ3
а
1
= 32 =
,
3
а
σ
а
3а 2 + а
1
Ex =
−3= .
2
а
а
Здесь As > 0, следовательно, всегда Мо < M(Х) = а. Если M(Х) = а
малó, то As и Ex велики; если же M(Х) велико, то As и Ex малы и распределение Пуассона близко к нормальному распределению.
Глава 1.12 ЦЕПИ МАРКОВА
Цепи Марк о в а
являются обобщением с х е м ы н е з а в и с
и- м ы х и с п ы т а н и й (с х е м ы Б е р н у л л и) (см. 1.2.1), в
которой в результате каждого независимого испытания может произойти
только одно из двух противоположных событий либо А1 ≡ А, либо А2 ≡ Ā с
вероятностями р и q = 1 – р соответственно.
Пусть производится последовательность в общем случае зависимых
испытаний, исходом каждого из которых может быть одно и только одно из
несовместных событий
(
, индекс s означает номер испытания), образующих полную группу. Тогда говорят, что последовательность таких испытаний образует цепь Маркова, если условная вероятность
появления события
в
- м испытании
зависит только от того, какое из событий
произошло в предыдущем -м испытании и не зависит от исходов более ран101
них испытаний. Для
вероятностей
должно быть задано начальное распределение
В теории цепей Маркова используется также и другой подход к их изучению, согласно которому некоторая система, находящаяся в каждый момент
изменяет это свое состояние
времени в одном из состояний
только в определенные дискретные моменты времени
условная вероятность
ние
в момент
перехода системы в состоязависит только от
находилась в момент
моменты
При этом
и от состояния
, в котором она
и не зависит от состояния системы в
. В частности, система может остаться в прежнем состоянии,
т.е. перейти из состояния
в состояние
. Для момента
должно быть
задано начальное распределение вероятностей.
Примечание. Наряду с цепями Маркова с дискретным временем,
рассматриваются также цепи Маркова с непрерывным временем, в которых
изменение состояния системы может происходить в любой случайный момент времени.
Ограничимся далее однородными цепями Маркова, для которых
условная вероятность перехода системы из состояния Ai в состояние Aj не
зависит от номера s испытания (или момента ts), обозначается рij и называется
вероятностью перехода (или переходной вероятностью). Индексы i и j в
этом обозначении соответствуют предшествующему и последующему состояниям.
Матрица, составленная из вероятностей перехода какой-либо системы,
называется матрицей перехода
 p11
p
∏1=  ...21

 pk 1
p12
...
p22
...
...
...
pk 2 ...
p1k 
p2 k 
... 

pkk 
Элементы этой матрицы обладают свойствами:
102
1) 0 ≤ рij ≤ 1.
k
2)
∑p
j =1
ij
= 1 (i = 1, 2, …, k),
т.е. сумма всех элементов каждой строки равна единице т.к. в i-й строке матрицы находятся вероятности перехода из фиксированного состояния Ai в какое-либо возможное состояние Aj и эти переходы образуют полную группу.
Пример 1.12.1. Если некоторая система в каждый момент времени
находится в одном из трех возможных состояний, то ее матрица перехода, в
частности, может иметь вид
0,4 0,5 0,1
∏1 =  0,1 0,3 0,6 .
0,7 0,1 0,2
Здесь р11 = 0,4 – вероятность перехода из состояния A1 в это же состояние; р32 = 0,1 – вероятность перехода из состояния A3 в A2 и т.д.
Обозначим Pij(n) вероятность перехода системы из состояния Ai в s-м
испытании в состояние Aj в (s + n)-м испытании, т.е. через n испытаний. Тогда по формуле полной вероятности находим:
k
Рij (n) = ∑ Рir (m) ⋅ Рrj (n − m) .
r =1
Здесь Pir(m) – вероятность перехода за m испытаний (шагов) системы
из состояния Ai в некоторое промежуточное состояние Ar (1 ≤ r ≤ k); Prj(n –
m) – вероятность перехода за оставшиеся (n – m) шагов из состояния Ar в состояние Aj. При этом Pir(m) являются вероятностями гипотез, а Prj(n – m) –
условными вероятностями для наступления события перехода системы из состояния Ai в Aj за n шагов. Очевидно, что Pij(1) = рij, следовательно,
k
Рij (n) = ∑ рir ⋅ Рrj (n − 1) .
r =1
Обозначим через Пn матрицу перехода через n испытаний:
103
 P11 (n) P12 (n)
 P ( n) P ( n )
22
∏n =  21...
...

 Pk 1 (n) Pk 2 (n)
... P1k (n) 
... P2 k (n)
.
...
... 

... Pkk (n) 
Справедливо равенство ∏n = ∏m · ∏n-m (0 < m < n). Отсюда при n = 2
следует ∏2 = ∏1 · ∏1 =
∏
k
2
1
, или Рij (2) = ∑ рir ⋅ рrj . При n = 3 получим ∏3 = ∏1 ·
r =1
∏2 = ∏2 · ∏1 = ∏ 13 . В общем случае, ∏n = ∏ 1n , где ∏1 – матрица перехода за
одно испытание (за один шаг).
Найдем вероятность того, что через испытаний система придет в состояние
, если задано начальное распределение вероятностей
Обозначим искомую вероятность через
.
Через
шагов система непременно придет в некоторое промежуточное
состояние
с
вероятностью
, тогда по формуле полной вероятности находим
Здесь события
являются гипотезами для события
, а услов-
равны
.
ные вероятности события
Отсюда следуют рекуррентные формулы:
где
- элементы матрицы перехода
Пример 1.12.2. По заданной матрице перехода
0,7 0,3
0,4

∏ = 0,6
1
найти матрицу перехода за два шага ∏2 .
Р е ш е н и е.
 Р11 (2) Р12 (2)  0,7 0,3 0,7 0,3 0,67 0,33
=
⋅
=
.
 21 (2) Р22 (2) 0,6 0,4 0,6 0,4 0,66 0,34
∏ = Р
2
104
Глава 1.13 СЛУЧАЙНЫЕ ФУНКЦИИ
1.13.1. Понятие случайной функции
1. Случайной функцией Х(t) называется такая функция неслучайного
аргумента t, которая для каждого фиксированного значения своего аргумента
является случайной величиной с известным распределением вероятностей.
Если аргумент t может принимать лишь дискретные значения t1, t2, …, то
случайная функция называется случайной последовательностью. Случайные функции с непрерывно изменяющимся аргументом (которым, в частности, может быть время) называются случайными (стохастическими) процессами. В общем случае могут рассматриваться также и
многомерные
случайные функции Ā(t) = [X(t), Y(t), …].
Пример 1.13.1. 1. Высота поверхности моря в точке с фиксированными
координатами является случайной функцией времени t.
2. Диаметр нити, изготавливаемой прядильным станком, – случайная
функция от длины нити.
3. Число молекул газа внутри некоторого фиксированного объема с
проницаемой поверхностью является случайной функцией времени.
4. Если U и Ω – случайные величины, то X(t) = Ut3, Y(t) = UcosΩt
– случайные функции. При любом заданном значении t = t1 эти функции обращаются в случайные величины X1 = Ut13 и Y1 = Ucos Ω t13 .
5. Простейшие случайные функции имеют вид X(t) = U · φ(t), где U –
случайная величина, φ(t) – неслучайная (обычная) функция. Если в k-м испытании случайная величина U приняла возможные значения Uk, то реализация
(см. ниже) этой случайной функции имеет вид xk(t) = Uk · φ(t).
При каждом заданном значении t1 аргумента случайной функции X(t)
соответствует случайная величина X1 = X(t1), называемая сечением этой случайной функции. Сечение может быть как дискретной, так и непрерывной
случайной величиной. Таким образом, случайную функцию можно рассмат-
105
ривать как множество (конечное или бесконечное) случайных величин (сечений) {X(t)}, задаваемых параметром t, например
X1 = X(t1), X2 = X(t2), …, Xn = X(tn).
Случайные величины Х1, Х2, …, Хn в общем случае взаимозависимы.
Другой подход к изучению случайной функции состоит в том, что если
опыт поставлен один раз, то получается неизвестная заранее неслучайная
(обычная) функция, называемая реализацией (выборочной функцией, траекторией) случайной функции для некоторого промежутка [а, b] изменения
аргумента t. При многократном повторении опыта (с точным воспроизведением его условий) будем получать всякий раз новые реализации одной и той
же случайной функции (рис. 1.13.1). При фиксированном значении аргумента
случайная функция превращается в случайную величину, а в каждом опыте –
в обычную неслучайную функцию, которую можно графически изобразить в
виде некоторой линии, в отличие от случайной функции, изображаемой совокупностью реализаций. Реализации случайной функции X(t) обозначаются
x1(t), x2(t), …, xn(t), …,где n – номер опыта. Случайную функцию можно рассматривать как множество ее реализаций.
Рис. 1.13.1
106
2. Каждое сечение Xk = X(tk) (k = 1, 2, …, n) случайной функции X(t)
(рис. 1.13.1) характеризуется своим распределением, либо плотностью вероятности f1(xk) ≡ f1(xk, tk), где индекс 1 у символа f указывает на одномерность
плотности вероятности; xk – возможное значение величины Xk. При непрерывном аргументе t одномерная плотность вероятности обозначается f1(x, t).
В силу взаимной зависимости сечений, задания одних только функций
f1(xk, tk) в общем случае недостаточно. Для полного описания случайной
функции необходимо (и достаточно), чтобы были заданы все многомерные
(конечномерные) плотности вероятности
fm (x1, t1; x2, t2; …; xm, tm) (m = 1, 2, …, n)
для любых совокупностей значений t1, …, tn аргумента. Например, функция
f2(x1, x2) ≡ f2(x1, t1; x2, t2) описывает распределение системы двух случайных
величин (X1, X2) ≡ [X(t1), X(t2)]. Всякая плотность вероятности fm вполне определяет все предшествующие функции распределения fs(s < m). Каждая из
функций fm симметрична относительно перестановки местами любых двух
пар xi, ti.
3. Если распределение (плотность вероятности) случайной функции
X(t) не зависит от начала отсчета аргумента, то она называется стационарной (в узком смысле). Все вероятностные характеристики такой функции не
меняются со временем. В частности, распределение вероятностей для X(t)
при каждом t является одним и тем же. Стационарность случайного процесса
является отражением неизменности внешних условий, в которых протекает
этот процесс. Необходимое и достаточное условие стационарности случайной функции состоит в выполнении равенства
fn (x1, t1; x2, t2; …; xn, tn) = fn (x1, t1 + τ; x2, t2+ τ; …; xn, tn+ τ),
при любом τ и любых t1, …, tn. Следовательно, многомерные плотности вероятности для стационарной случайной функции зависят только от n – 1 разностей t2 – t1, t3 – t1, …, tn – t1, но не от t1, …, tn по отдельности. В частности, одномерная плотность вероятности при этом не зависит от t, т.к. приняв τ = - t,
получим
107
f1(x, t) = f1(x,t - t) = f1 (x, 0) ≡ f1 (x)
Случайный процесс X(t) называется:
а) Стохастически непрерывным в точке t0, если для любого ε > 0:
lim P[ X (t0 + ∆t ) − X (t0 ) > ε ] = 0 ,
∆t → 0
б) Чисто разрывным, если для любого промежутка [t0, t0 + ∆ t] функция X(t) остается постоянной и равной X(t0) с вероятностью 1 – [p(x, t0) · ∆t +
о(∆t)] и может изменяться только с вероятностью [p(x, t0) · ∆t + о (∆t)]. В случае чисто разрывного процесса функция X(t) может изменяться только скачкообразно. На рис. 1.13.2 изображена реализация такого процесса.
Пусть x1, x2, …, xn – значения, принимаемые непрерывным или дискретным случайным процессом X(t) в некоторой его реализации для любого
конечного множества t1 < t2 < … < tn. Тогда X(t) называется марковским
процессом (процессом без последействия), если условное распределение
имеет вид
f(xn, tn | x1, t1; …; xn-1, tn-1 = f(xn, tn | xn-1, tn-1),
т.е. зависит только от xn-1, tn-1.
Рис. 1.13.2
Марковский процесс полностью определяется своими двумерными плотностями вероятности
f n ( x1 , t1 ; x 2 , t 2 ;...; x n , t n ) = f 2 ( x1 , t1 ; x 2 , t 2 ) ⋅ f 2 ( x 2 , t 2 ; x3 , t 3 )... f 2 ( x n −1 , t n−1 ; x n , t n ) .
108
4. Более простой (но менее подробный) способ описания случайных
функций основан на использовании их моментов первого и второго порядка:
математического ожидания, дисперсии и корреляционной функции, являющихся неслучайными функциями.
1.13.2. Математическое ожидание случайной функции
Математическое ожидание случайной функции X(t) определяется
как неслучайная функция MX(t) от t, равная математическому ожиданию сечения X(t), являющегося случайной величиной для каждого фиксированного
значения t:
MX(t) = M[X(t)].
При графическом изображении на плоскости Otx различные реализации x = xi(t) случайной функции X(t) будут располагаться вблизи некоторой
«усредненной» кривой x = MX(t), ординаты которой равны средним значениям соответствующих сечений.
Свойства математического ожидания случайной функции.
Пусть φ(t) – неслучайная функция; X(t), Y(t) – случайные функции, тогда:
1. M[φ(t)] = φ(t).
2. M[φ(t) X(t)] = φ(t) M[X(t)] = φ(t) MX(t).
3. M[X(t) + Y(t)] = MX(t) + MY(t).
В частности, M[X(t) + φ(t)] = MX(t) + φ(t).
Равенство 3) обобщается на любое число слагаемых. Для стационарной
случайной функции величина MX ≡ M постоянна, т.к. не зависит от t.
o
o 
M
X
(
t
)
≡
0
4. 
, где отклонение X (t ) ≡ X (t ) − M X (t ) называется цен

трированной случайной функцией.
109
1.13.3. Дисперсия случайной функции
Дисперсия случайной функции X(t) является неслучайной неотрицательной функцией от t, определяемой при каждом фиксированном t как дисперсия соответствующего сечения:
 o2 
DX(t) = D[X(t)] = M  X (t ) ,


o
где X (t ) ≡ X (t ) − M X (t ) .
Среднее квадратическое отклонение случайной функции по
определению равно
σ X (t ) = DX (t ) .
Свойства дисперсии случайной функции.
Пусть φ(t), X(t) – неслучайная и случайная функция соответственно, тогда:
1. D[φ(t)] = 0.
2. D[X(t) + φ(t)] = DX(t).
3. D[X(t) · φ (t)] = φ2(t) · DX(t).
Для стационарной случайной функции величина DX ≡ D постоянна.
1.13.4. Корреляционная (автокорреляционная) функция случайной
функции
Корреляционная (автокорреляционная) функция случайной функции определяется как неслучайная функция RX(t1, t2) от двух независимых аргументов t1 и t2, равная для каждой пары фиксированных значений t1, t2
корреляционному моменту соответствующих сечений X1 = X(t1) и X2 = X(t2):
110
o
o

R X (t1 , t 2 ) = M  X (t1 ) ⋅ X (t 2 ) ,


o
где X (t ) = X (t ) − M X (t ) – отклонение.
В частности, для непрерывной случайной функции X(t):
R X (t1 , t 2 ) = M {[X (t1 ) − M X (t1 )][X (t 2 ) − M X (t 2 )]} =
=
∞ ∞
∫ ∫ [x
1
− M X (t1 ) ][x 2 − M X (t 2 )] f 2 ( x1 , t1 ; x 2 , t 2 ) dx1 dx 2
− ∞− ∞
Корреляционная функция является мерой зависимости двух различных
сечений случайной функции.
Свойства корреляционной функции.
Пусть φ(t), X(t) – неслучайная и случайная функция соответственно, тогда:
1. Если t1 = t2 = t, то RX (t, t) = DX (t).
2. RX (t1, t2 ) = RX (t2 , t1 ) .
3. Если Y (t ) = X (t ) + ϕ (t ) , то RY (t1 , t 2 ) = R X (t 2 , t1 ) .
4. Если Y (t ) = ϕ (t ) ⋅ X (t ) , то RY (t1 , t 2 ) = ϕ (t1 ) ⋅ ϕ (t 2 ) ⋅ RX (t1 , t 2 ) .
5. R X (t1 , t 2 ) ≤ D X (t1 ) ⋅ D X (t 2 ) .
Нормированной корреляционной функцией случайной функции
X(t) называется неслучайная функция
ρ X (t1 , t2 ) =
RX (t1 , t2 )
=
σ X (t1 ) ⋅ σ X (t2 )
RX (t1 , t2 )
RX (t1 , t1 ) RX (t2 , t2 )
При этом ρ X (t1, t2 ) ≤ 1 .
1.13.5. Взаимная корреляционная функция двух случайных
функций
111
Взаимная корреляционная функция двух случайных функций X(t)
и Y(t) является неслучайной функцией двух аргументов t1 и t2, определяемой
равенством
o
o

R XY (t1 , t 2 ) = M  X (t1 ) ⋅ Y (t 2 ) = M {[X (t1 ) − M X (t1 )][Y (t 2 ) − M Y (t 2 )]}


Для каждой пары значений фиксированных значений t1 и t2 величина
RXY (t1, t2) равна корреляционному моменту сечений X1 = X(t1) и Y2 = Y(t2):
случайных функций.
Две случайные функции X(t) и Y(t) называются коррелированными
(либо некоррелированными), если RXY (t1, t2) не равна (либо равна) тождественно нулю.
Свойства взаимной корреляционной функции.
Пусть φ(t), ψ(t) – неслучайные функции; X(t), Y(t) – случайные функции, тогда:
1. RXY (t1, t2 ) = RYX (t2, t1).
~
~
2. Если X (t ) = X (t ) + ϕ (t ), Y (t ) = Y (t ) + ψ (t ) , то
R X~Y~ (t1 , t 2 ) = R XY (t1 , t 2 )
3. Если X (t ) = X (t ) ⋅ ϕ (t ) , Y (t ) = Y (t ) ⋅ψ (t ) ,
то RXY (t1, t2 ) = ϕ (t1 )ψ (t2 ) RXY (t1, t2 )
4. RXY (t1 , t 2 ) ≤ DX (t1 ) ⋅ DY (t 2 ) .
Нормированной взаимной корреляционной функцией двух случайных функций X(t) и Y(t) называется неслучайная функция
ρ XY (t1 , t2 ) =
RXY (t1 , t2 )
=
DX (t1 ) ⋅ DY (t2 )
При этом ρ XY (t1 , t2 ) ≤ 1 .
112
RXY (t1 , t2 )
.
RX (t1 , t1 ) RY (t2 , t2 )
1.13.6. Моментные функции случайных функций
Пусть t1, t2, …, tn – какие-либо n произвольных значений аргумента t
случайного процесса (функции) X(t), а X(t1), …, X (tn) – соответствующие сечения X(t). Тогда математическое ожидание неслучайной функции Ψ[X(t1),
…, X(tn)] от перечисленных случайных величин, называемое средним по
множеству наблюдений, равное
M (Ψ ) ≡ M {Ψ[X (t1 ),..., X(t n )]} =
∞
∞
−∞
−∞
= ∫ ... ∫ Ψ ( x1 ,..., xn ) f n ( x1 , t1 ;...; xn , t n )dx1 ...dxn
будет неслучайной функцией от t1 , … , tn .
В частности, если Ψ(x) ≡ x, то предыдущее равенство дает математическое ожидание случайной функции X(t):
M X (t ) = M [ X (t ) ] =
∞
∫ x f ( x, t )dx .
1
−∞
Начальная n-мерная моментная функция случайной функции X(t)
определяется равенством
υ k k ...k n (t1 ,..., t n ) = M {X k (t1 ) X k (t 2 )...X k (t n )} =
1
2
n
1 2
∞
∞
−∞
−∞
= ∫ ... ∫ x1k1 ...xnkn f n ( x1 , t1 ;...; xn , t n )dx1 ...dxn ,
где сумма k1 + … + kn = k называется порядком моментной функции. Если в
предыдущей формуле заменить все X k (t i ) (i = 1, 2, …, n) на [X (t i ) − M X (t i )]k , а
i
xiki – на
[xi − M X (t i )]k ,
i
i
то получится выражение для центральной
113
n - мерной моментной функции µ k1k 2...k n (t1 , t 2 ,..., t n ) порядка k = k1 + k2 + …
+ kn .
В частности,
υ1(t) = MX(t), µ1(t) ≡ 0, µ2(t) = DX (t), µ11(t1, t2) = RX (t1, t2).
1.13.7. Математическое ожидание и корреляционная функция
суммы случайных функций
1. Математическое ожидание суммы Z(t) = X(t) + Y(t) двух л ю б ы х
случайных функций X(t) и Y(t) равно
MZ(t) = MX(t) + MY(t).
Это равенство обобщается на случай любого конечного числа слагаемых.
2. Если X(t) и Y – случайная функция и случайная величина соответственно, то математическое ожидание их суммы равно
M[X(t) + Y] = MX(t) + MY.
3. Если X(t), Y(t) – коррелированные случайные функции, т.е. RXY(t1, t2)
≠ 0 и Z(t) = X(t) + Y(t), то
RZ(t1, t2) = RX(t1, t2) + RY(t1, t2) + RXY(t1, t2) + RXY(t2, t1).
n
В общем случае, если X (t ) = ∑ X i (t ) , где все случайные функции Xi (t),
i =1
– попарно коррелированы, то
n
n
i =1
i , j =1
i≠ j
RX (t1 , t2 ) = ∑ RX i (t1 , t2 ) + ∑ RX iY j (t1 , t2 ) .
114
Если Xi(t) попарно некоррелированы, т.е. все взаимные корреляционные функции равны нулю, то
n
R X (t1 , t 2 ) = ∑ R X i (t1 , t 2 ) ,
i =1
n
а также D X (t ) = ∑ D X i (t ) .
i =1
4. Если Z(t) = X(t) + Y, где X(t), Y – случайная функция и случайная величина соответственно, то
RZ (t1 , t 2 ) = R X (t1 , t 2 ) + DY ,
где DY – дисперсия Y.
1.13.8. Комплексные случайные величины и случайные функции
1. Если X, Y – действительные случайные величины, то величина Z = X
+ iY(i – мнимая единица) называется комплексной случайной величиной.
Случайная величина Z = X − iY называется сопряженной к Z.
Математическое ожидание величины Z определяется равенством
MZ ≡ M(Z) = M(X) + iM(Y) ≡ MX + iMY.
Дисперсия величины Z по определению равна
 o
DZ ≡ D ( Z ) = M ( Z Z ) = M  Z


o o
o
2
o
o

 = M (X 2 +Y 2)


o
= M ( X ) + M (Y 2 ) = D ( X ) + D (Y ) ≡ D X + DY
2
o
Здесь Z = Z − M Z , черта означает комплексное сопряжение.
115
Корреляционный момент двух комплексных случайных величин
Zk = Xk + iYk (k = 1, 2) определяется равенством:
[
]
µ Z Z = M (Z1 − M Z )( Z 2 − M Z ) ≡
1 2
o
1
2
o
≡ M ( Z1 Z 2 ) = µ X Y + µ X Y + i( µ X Y − µ X Y ).
1 1
2 2
2 1
1 2
При Z1 = Z2 = Z = X + iY из предыдущего равенства следует
µ ZZ
 o
= M ( Z1 Z 2 ) = M  Z

o
o
2

 = DZ = D X + iDY

2. Если X(t), Y(t) – действительные случайные функции действительного аргумента t, то функция Z(t) = X(t) + iY(t) называется комплексной случайной функцией.
Математическое ожидание для Z(t) по определению равно
MZ(t) ≡ M[Z(t)] = M[X(t)] + iM[Y(t)] ≡ MX(t) + iMY(t).
Дисперсия для Z(t) определяется равенствами
o
 o 2
o

DZ (t ) = D[Z (t )] = M  Z (t ) Z (t )  = M  Z (t )  =




o
 o

 o

 o 
= M  X 2 (t ) + Y 2 (t )  = M  X 2 (t )  + M Y 2 (t ) ≡ D X (t ) + DY (t ).






Корреляционная (автокорреляционная) функция для Z(t) определяется выражением
o
o

RZ (t1 , t 2 ) = M  Z 1 (t1 ) Z (t 2 )  = R X (t1 , t 2 ) + RY (t1 , t 2 ) + i[R XY (t 2 , t1 ) − R XY (t1 , t 2 ) ],


Если X(t) и Y(t) не коррелированы, то
R Z (t1 , t 2 ) = R X (t1 , t 2 ) + RY (t1 , t 2 ) .
Если t1 = t2 = t, то
116
 o 2
o o 
RZ (t , t ) = M Z (t )Z (t ) = M  Z  = DZ (t ).


 
1.13.9. Стационарные случайные функции
Для стационарной (в узком смысле) случайной функции X(t):
1. Математическое ожидание (если оно существует) MX = M[X(t)] постоянно (не зависит от t).
2. Дисперcия DX = D[X(t)] постоянна.
3. Корреляционная функция RX (t1 , t2 ) = rX (t2 − t1 ) ≡ rX (τ ) зависит только
от разности τ = t2 – t1 и не зависит от t1 и t2 по отдельности. При этом
rX(0) = DX.
4. Корреляционная функция – четная, т.е. rX(τ) = rX(–τ).
5. | rX(τ) | ≤ rX(0) = DX.
6. Нормированная корреляционная функция определяется равенством
ρ X (τ ) =
rX (τ )
rX (0)
( ρ (τ ) ≤ 1) .
x
Примечание. Случайная величина X(t) называется стационарной в
широком смысле (или слабо стационарной), если ее математическое ожидание и дисперсия не зависят от аргумента t (т.е. постоянны), а корреляционная функция зависит только от разности t2 – t1 = τ. Из с т а ц и о н а р н о с
-т и в у з к о м с м ы с л е с л е д у е т с л а б а я с т а ц и о н а р н о с т ь
(т.е. в ш и р о к о м с м ы с л е), но не н а о б о р о т.
117
1.13.10. Эргодические стационарные случайные функции
1. Для любого случайного процесса (функции) X(t) среднее по времени
(по параметру) t от неслучайной функции Ψ [X(t1), …, X (tn)] случайных аргументов определяется как предел
Ψ ≡ Ψ[X (t1 ),..., X (tn )] = lim
T
1
Ψ[X (t1 + t ),..., X (tn + t ]dt ,
Τ→ ∞ T ∫
0
если он существует. При этом Ψ является случайной величиной для каждой
совокупности значений t1 , … , tn .
2. Стационарный (в узком смысле) случайный процесс X(t) называется
эргодическим, если среднее по времени Ψ равно среднему по множеству
наблюдений M(Ψ) с вероятностью 1, т.е.
P[ Ψ = M ( Ψ ) ] = 1
для каждой интегрируемой функции Ψ. Это соотношение можно рассматривать как приближенное равенство среднего значения некоторой функции,
связанной со случайным процессом, по совокупности всех его реализаций в
какой-либо один момент времени и ее среднего значения только по одной,
почти каждой реализации, но за достаточно большой промежуток времени.
При этом характеристики случайной функции приближенно находятся по
одной ее реализации за достаточно большой промежуток времени. Это обстоятельство применимо, в частности, для усреднения X(t), X2(t), X(t) · X(t+τ)
и прочих величин, используемых для нахождения математического ожидания, дисперсии, корреляционной функции и других характеристик стационарного случайного процесса.
Стационарный случайный процесс можно считать эргодическим, если
каждая его реализация протекает под воздействием совокупности одних и
тех же случайных факторов, и неэргодическим – если эти факторы изме118
няются от одной реализации к другой. Для эргодического процесса в качестве оценки математического ожидания для X(t) принимают среднее по времени от какой-либо одной ее реализации x(t) на промежутке наблюдения [0,
T]
M X∗ =
Т
1
x(t )dt ,
Т ∫0
а в качестве оценки корреляционной функции для X(t):
1
r (τ ) =
Т −τ
∗
X
T −τ
∫ x(t ) x(t + τ )dt − [M ] .
∗ 2
X
0
1.13.11. Производная и интеграл от случайной величины
1. Предел. Говорят, что последовательность Х1, Х2, …, Хn,… случайных
величин сходится в среднеквадратичном к случайной величине (пределу)
Х, если M[(Xn – X)2] → 0 при n → ∞. Обозначение:
ср.кв.
X n → X при n → ∞, или X = l.i.m. X n .
n →∞
Из сходимости в среднеквадратичном следует сходимость по вероятности, но не наоборот. Понятие непрерывности в среднеквадратичном случайной функции вводится по аналогии с обычной непрерывностью.
2. Производная. Если для случайной функции X(t) существует случайная функция X ′(t ) такая, что
X (t + ∆t ) − X (t ) ср.кв.
→ X ′(t ) при ∆ t → 0,
∆t
то функция X(t) называется среднеквадратично дифференцируемой, а
X ′(t ) – ее производной в точке t.
119
Свойства производной.
1) Математическое ожидание производной X ′(t ) равно производной математического ожидания от X(t), т.е.
M X ′ (t ) =
d
[M X (t )] ≡ M ′X (t ) .
dt
Следовательно, операции дифференцирования и нахождения математического ожидания перестановочны.
Примечание. Если X(t) достаточное число раз дифференцируема, то
можно рассматривать производные второго и последующих порядков. Свойство 1) применимо к производной любого порядка n:
M X ( n ) (t ) =
dn
[M X (t )] ≡ M X( n ) (t ) .
n
dt
2) Корреляционная функция производной X ′(t ) равна
o
∂ 2 R X (t1 , t 2 )
 o′

R X ′ (t1 , t 2 ) = M  X (t1 ) X ′(t 2 ) =
,
∂t1∂t 2


где R X (t1 , t 2 ) – корреляционная функция для X(t).
3) Взаимная корреляционная функция случайных функций X(t) и X ′(t )
равна
R X ′X (t1 , t 2 ) =
∂R X (t1 , t 2 )
,
∂t1
R XX ′ (t1 , t 2 ) =
∂R X (t1 , t 2 )
.
∂t 2
3. Интеграл. Если для случайной функции X(t), заданной на отрезке
[0, t], существует предел J(t) в среднеквадратичном от интегральной суммы
n
ср.кв.
t
J n = ∑ X (ξi )∆τ i → J (t ) ≡ ∫ X (τ )dτ
i =1
0
120
при max ∆τi → 0 (n → ∞), где ξ i – произвольная (не случайная) точка на отрезке ∆τi разбиения, то этот предел называется интегралом от случайной
функции X(t) на отрезке [0, t] и сам является случайной функцией.
Свойства интеграла
1) Математическое ожидание интеграла от случайной функции равно
интегралу от ее математического ожидания (т.е. операции нахождения математического ожидания и интеграла перестановочны):
t
 t
M J (t ) ≡ M  ∫ X (τ )dτ  = ∫ M X (τ )dτ .
0
 0
2) Корреляционная функция интеграла J(t) равна двойному интегралу
t1 t 2
o
o

RJ (t1 , t 2 ) ≡ M  J (t1 ) J (t 2 )  = ∫ ∫ R X (τ 1 ,τ 2 )dτ 1dτ 2 ,

 00
где RX (τ1τ 2 ) – корреляционная функция для X(τ).
3) Взаимная корреляционная функция случайных функций X(t) и J(t)
равна
t2
o
o

RXJ (t1 , t2 ) ≡ M  X (t1 ) J (t2 )  = ∫ RX (t1 ,τ )dτ ,

 0
t1
RJX (t1 , t 2 ) = ∫ R X (τ , t 2 )dτ .
0
1.13.12. Корреляционная теория стационарных случайных
функций
В приведенных ниже кратких сведениях из корреляционной теории
случайных функций, использующей для их изучения только моментные
функции первого и второго порядка (т.е. математическое ожидание, диспер-
121
сию и корреляционную функцию), под стационарностью случайной функции
понимается ее стационарность в широком смысле.
1. Производная и интеграл стационарной случайной функции. Поскольку из стационарности в узком смысле следует стационарность в широком смысле, в корреляционной теории остаются в силе все свойства стационарных (в узком смысле) случайных процессов (функций), к которым добавляются нижеперечисленные.
Пусть X(t) – стационарная в широком смысле случайная функция, тогда:
а) Корреляционная функция производной X ′(t ) дифференцируемой
случайной функции X(t) равна взятой со знаком минус второй производной
корреляционной функции rX(τ) (τ = t2 – t1) для X(t), т.е.
d 2 rX (τ )
rX ′ (τ ) = −
.
dτ 2
б) Взаимные корреляционные функции для X(t) и ее первых трех производных равны
rXX ′ (τ ) =
drX (τ )
dr (τ )
, rX ′X (τ ) = − X
,
dτ
dτ
rXX ′′ (τ ) = rX ′′X (τ ) =
rX ′X ′′ (τ ) = −
d 2 rX (τ )
,
dτ 2
d 3rX (τ )
d 3rX (τ )
r
(
)
=
τ
, X ′′X ′
,
dτ 3
dτ 3
d 3rX (τ )
d 3rX (τ )
rXX ′′′ (τ ) =
τ
r
(
)
=
−
, X ′′′X
.
dτ 3
dτ 3
в) Корреляционная функция интеграла J(t) от X(t) на отрезке [0, t] равна
t2
t1
t 2 − t1
0
0
0
RJ (t1 , t2 ) = ∫ (t2 − τ )rX (τ )dτ + ∫ (t1 − τ )rX (τ )dτ −
г) Дисперсия интеграла J(t) равна
122
∫ (t
2
− t1 − τ )rX (τ )dτ .
t
DJ (t ) = 2 ∫ (t − τ )rX (τ )dτ .
0
2. Две необязательно стационарные по отдельности случайной функции X(t) и Y(t) называются стационарно связанными (совместно стационарными), если их взаимная корреляционная функция зависит только от
разности τ = t2 – t1 аргументов, т.е.
R XY (t1 , t 2 ) = rXY (τ ) .
При этом rXY (τ ) = rYX (−τ ) . Не любые две стационарные функции являются стационарно связанными.
3. Спектральное разложение стационарной случайной функции.
Поскольку всякую случайную функцию X(t) можно записать в виде
o
o
X (t ) = X (t ) + M X (t ) , где X (t ) – центрированная случайная функция, для ко-
торой M o (t ) ≡ 0 , а M X (t ) – неслучайная функция; далее будем рассматривать
X
o
только центрированные функции, т.е. X (t ) ≡ X (t ) .
а) Пусть некоторая стационарная случайная функция X(t) может быть
записана
в виде суммы, называемой ее спектральным представлением
(или разложением):
n
n
k =1
k =1
X (t ) = ∑ X k (t ) ≡ ∑ [U k cosωk t + Vk sinωk t ] ,
(1.13.1)
где ωk - частоты (неслучайные действительные числа); Uk, Vk- центрированные некоррелированные случайные величины с попарно равными дисперсиями D(Uk) = D(Vk) ≡ Dk (k = 1, 2, …, n). Представление (1.13.1) можно записать также в виде
n
X (t ) = ∑ U k2 + Vk2 sin(ωk t + ϕk ),
k =1
123

U 
 tgϕ k = k  ,
Vk 

где
U k2 + Vk2 , φk - случайные функции; или в комплексной форме
n
X (t ) =
∑G e
k =−n
− iω k t
k
,
(1.13.2)
1
1
где Gk = (U k + iVk ) , G −k = (U k − iVk ) (k = 1, 2, …, n), ω-k = - ωk. При этом все
2
2
Gk центрированы и некоррелированы.
Корреляционная функция для суммы (1.13.1) равна
n
RX (t1 , t2 ) ≡ rX (τ ) = ∑ Dk cos ωkτ ,
k =1
(τ = t2 – t1).
n
Выполняется равенство D[X (t )] = ∑ Dk .
k =1
Совокупность всех дисперсий Dk отдельных слагаемых (гармоник) Xk(t)
суммы (1.13.1) называется дискретным спектром стационарной случайной
функции X(t). Спектр можно изобразить графически, если на оси абсцисс откладывать частоты ωk, а соответствующие ординаты (отрезки вертикальных
прямых, выходящих из точек ω = ωk) брать равными Dk .
б) Для стационарной случайной функции X(t), имеющей спектральное
представление вида
∞
∞
k =0
k =0
X (t ) = ∑ X k (t ) = ∑ [U k cos ωk t + Vk sin ωk t ] ,
где множество частот ωk = kω1≡ k
π
Т
(1.13.3)
(k = 1, 2, …) бесконечно (счетно); слу-
чайные величины Uk, Vk удовлетворяют тем же условиям, что и в п. 3а. Разложение (1.13.3) можно записать также в комплексном виде
X (t ) =
∞
∑G e
k = −∞
k
− iω k t
,
(1.13.4)
где G0 = U0 ; выражения для Gk при k ≠ 0 те же, что и в формуле (1.13.2).
124
Для корреляционной функции и дисперсии справедливы соотношения
∞
∞
rX (τ ) = ∑ Dk cos ωkτ ,
DX = rX (0) = ∑ Dk ,
k =0
k =0
если эти ряды сходятся. При этом
2
kπτ
Dk = ∫ rX (τ ) cos
dτ
Т 0
Т
Т
в силу четности rХ(τ).
При графическом изображении дискретного спектра здесь получается
бесконечное множество отрезков вертикальных прямых высотой Dk(k = 1, 2,
…), выходящих из равноотстоящих точек ω = ωk.
в) Если с помощью формального предельного перехода в выражении
(1.13.4), при условии, что T → ∞, ∆ω ≡ π Т → 0 стационарная случайная
функция X(t) может быть представлена в виде стохастического интеграла
X (t ) =
1
2π
∞
∫e
− iω t
dG (ω ) ,
−∞
где dG(ω) – некоторая центрированная комплексная случайная функция, зависящая от непрерывно изменяющейся действительной частоты ω(–∞ < ω <
+∞), то говорят, что X(t) имеет спектральное разложение с непрерывным
спектром.
Для корреляционной функции справедливо выражение
[
]
rX (τ ) = RX (0,τ ) = M X (0) ⋅ X (τ ) =
1
2π
∞
∫S
X
(ω )eiωτ dω ,
−∞
где неслучайная функция
S X (ω ) =
1
2π
∞
∫r
X
(τ )e − iωτ dτ
−∞
называется спектральной плотностью стационарной случайной функции
125
X(t).
В силу четности rХ (τ) выполняются равенства
∞
2
rX (τ ) =
(ω ) cos ωτ dω ,
∫r
(τ ) cos ωτ dτ ,
0
2
S X (ω ) =
X
∫S
π
π
∞
X
0
т.е. SX – также четная функция.
Дисперсия X(t) равна:
DX = rX (0) =
1
2π
∞
∫S
X
(ω )dω =
−∞
2
π
∞
∫S
X
(ω )dω .
0
Спектральная плотность описывает распределение дисперсии по частоте, при этом SX(ω) ≥ 0. Используется также нормированная спектральная
плотность:
1
S X (ω ) .
DX
S X∗ (ω ) =
Для стационарных по отдельности и одновременно совместно стационарных функций X(t), Y(t) взаимная корреляционная функция, а также взаимная спектральная плотность связаны соотношениями
rXY (τ ) =
S XY (ω ) =
1
2π
1
2π
∞
∫S
XY
(ω )eiωτ dω ,
−∞
∞
∫r
XY
(τ )e − iωτ dτ .
−∞
4. Преобразование стационарной случайной функции
линейной
стационарной динамической системой.
Линейной
стационарной
динамической
системой
называется
устройство, преобразующее входную случайную стационарную функцию
126
X(t) в выходную случайную функцию Y(t) и описываемое линейным дифференциальным уравнением с постоянными коэффициентами
Am(p)Y(t) = Вn(p)X(t),
где
Am(p) = аmpm + аm-1(p)m-1 + … + а1 p + а0,
Bn(p) = bnpn + bn-1pn-1 +… + b1 p + b0,
p≡
d
– оператор дифференцирования. Функция Y(t) предполагается с т а dt
ц и о н а р н о й п о о к о н ч а н и и п е р е х о д н о г о п р о ц е с с а. Математическое ожидание стационарных функций X(t) и Y(t) связаны соотношением
MY =
b0
MX .
а0
Отношение двух полиномов Bn(p) и Am(p):
Ф( р) =
Вn ( p )
Am ( p)
называется передаточной функцией динамической системы. Справедливо
равенство Y(t) = Ф(p) X(t). Функция (отношение двух полиномов)
Ф(iω ) =
Вn (iω )
Am (iω )
называется частотной характеристикой динамической системы.
Спектральные плотности входной и выходной функции связаны соотношением
SY (ω ) = S X (ω ) ⋅ Ф(iω ) ,
2
где SX(ω) может быть найдена по известной корреляционной функции rХ (τ).
127
Пример. 1.13.2. На вход линейной стационарной динамической системы, описываемой дифференциальным уравнением 2Y ′(t ) + 3Y (t ) = X ′(t ) + 2 X (t ) ,
поступает стационарная случайная функция X(t) с характеристиками: MX = 6,
rХ(τ) = 4 exp(–3 |τ|). Найти характеристики выходной функции Y(t) по окончании переходного процесса.
Р е ш е н и е.
1. Математическое ожидание выходной функции:
b0
2
М X = ⋅6 = 4 .
а0
3
MY =
2. Дисперсия входной функции: DX = rХ (0) = 4.
3. Спектральная плотность входной функции:
1
S X (ω ) =
2π
∞
∫r
X
(τ )e − iωτ dτ =
−∞
2
12
.
π ω2 + 9
⋅
4. Из операторной формы дифференциального уравнения (2р + 3)Y(t) =
(р + 2) X(t) следует
Y (t ) =
p+2
X (t ) .
2p + 3
Передаточная функция равна
Ф( р ) =
p+2
.
2p + 3
5. Частотная характеристика:
Ф (iω ) =
2 + iω
.
3 + 2iω
6. Спектральная плотность выходной функции:
SY (ω ) = S X (ω ) ⋅ Ф(iω ) =
2
7. Дисперсия выходной функции:
128
12(ω 2 + 4)
.
π (ω 2 + 9)( 4ω 2 + 9)
2
⋅
(ω 2 + 4)dω
DY =
⋅ SY (ω )dω =
π ∫0
π ∫0 (ω 2 + 9)(4ω 2 + 9)
2
∞
24 ∞
24  5 ∞ dω
7 ∞ dω 
= 1,259.
=
+
π  27 ∫0 ω 2 + 9 27 ∫0 4ω 2 + 9 
129
ЧАСТЬ 2
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Глава 2.1 ПРЕДМЕТ И МЕТОД МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
Математическая статистика – раздел математики, в котором рассматриваются методы сбора, классификации, обработки и анализа статистических сведений, полученных в результате наблюдений или опытов над объектами какой-либо достаточно обширной совокупности. Математическая
статистика, изучающая закономерности, которым подчиняются м а с с о в ы е с л у ч а й н ы е я в л е н и я , связана с теорией вероятностей, результаты которой используются в математической статистике. Но и сами вероятностные закономерности находят свое статистическое выражение в соответствии с законом больших чисел (вероятность события приближенно равна
его относительной частоте, а математическое ожидание случайной величины
– среднему арифметическому ее значений и т.п.).
2.1.1. Выборочный метод
Множество объектов, однородных относительно какого-либо количественного или качественного признака этих объектов, называется генеральной совокупностью (статистической совокупностью).
Генеральная совокупность может иметь дискретное (конечное или бесконечное) распределение признака, либо непрерывное его распределение.
Совокупность объектов, отобранных независимо друг от друга случайным образом из генеральной совокупности, называется простой выборкой (или конкретной выборкой, выборочной совокупностью).
130
Объемом совокупности (генеральной или выборочной) называется
число ее объектов. Выборка называется возвратной, если объект, после регистрации признака, возвращается обратно в генеральную совокупность. В
противном случае выборка называется безвозвратной. На практике генеральная совокупность часто имеет конечный объем, однако в теоретических
исследованиях могут использоваться генеральные совокупности с бесконечно большим объемом.
Выборочный метод представляет собой статистический метод исследования свойств генеральной совокупности на основе изучения лишь части
ее, т.е. простой выборки.
Если из генеральной совокупности случайным образом (наугад) извлечь один объект, а после регистрации и возвращения его обратно, наугад и
независимо от первого объекта извлечь второй и т.д., то значения изучаемого
количественного признака этих объектов можно рассматривать как значения
некоторой случайной величины X.
Пример 2.1.1. В качестве генеральной совокупности можно рассматривать совокупность деталей, изготовленных на одном и том же станке при
определенных неизменных условиях. Количественным признаком X здесь
является, например, какой-либо размер детали, а качественным признаком Y–
ее стандартность. Если деталь стандартная, то можно, например, принять Y =
1, а если нет, то Y = 0. Выборкой здесь можно считать любую совокупность
деталей, взятых из данной генеральной совокупности.
Пусть признак (т.е. случайная величина) X объекта генеральной совокупности имеет интегральную функцию распределения F(х). Из этой генеральной совокупности можно осуществить много возвратных независимых
простых выборок объема n, т.е. получать при каждой выборке различные
наборы конкретных значений x1, x2, …, xn признака для отoбранных n объектов.
131
Математической выборкой объема n называется упорядоченная система (случайный вектор) n в з а и м н о н е з а в и с и м ы х с л у ч а й н ы
х в е л и ч и н Х1, Х2, …, Хn с о д и н а к о в ы м и функциями распределения
F(х). Каждая простая возвратная выборка x1, x2, …, xn из данной генеральной
совокупности является конкретной числовой реализацией математической
выборки Х1, Х2, …, Хn. Для того, чтобы простая выборка достаточно правильно представляла свойства генеральной совокупности, отбор объектов должен
производиться случайно, т.е. все выборки одинакового объема должны иметь
равные вероятности быть выбранными. Если N и n – объемы генеральной и
выборочной совокупности соответственно, то число выборок равно числу сочетаний
С Nn =
N!
.
n!( N − n)!
В случае n << N применение возвратных и безвозвратных выборок равного объема дает практически одинаковые результаты. Это различие исчезает
совсем, если рассматривать теоретически бесконечную генеральную совокупность. Далее каждая простая выборка из генеральной совокупности конечного объема предполагается возвратной, если не оговорено противное.
2.1.2. Полигон и гистограмма
Пусть из генеральной совокупности с признаком X извлечена простая
выборка x1, x2, …, xk, в которой значение xi наблюдалось ni (i = 1, …, k) раз и
n1 + n2 + … + nk = n – объем выборки. Каждое значение xi называется вариантой. Набор вариант выборки, расположенных (пронумерованных) в порядке возрастания, называется вариационным рядом. Число ni называется частотой варианты xi, а ni /n = wi – ее относительной частотой.
132
Совокупность вариант простой выборки, расположенных в порядке
возрастания и соответствующих им частот или относительных частот называется статистическим распределением выборки (эмпирическим распределением). Статистическое распределение может быть задано также в виде
последовательности непересекающихся промежутков, каждому из которых
поставлена в соответствие сумма частот, попавших в него вариант. Для
наглядного графического представления распределения количественного
признака в простой выборке используют п о л и г о н и г и с т о г р а м м у.
На оси абсцисс откладывают значения вариант xi (i = 1, …, k) вариационного
ряда (в порядке возрастания), а на оси ординат – соответствующие им частоты ni (или относительные частоты wi). Ломаная, отрезки которой соединяют
точки (x1, n1), (x2, n2),…, (xk, nk), где x1 < x2 < …< xk [или точки (x1, w1), (x2,
w2),…, (xk, wk)],
называется полигоном частот [или полигоном относи-
тельных частот]. Если число различных вариант достаточно велико, то применяется гистограмма – столбчая фигура, которая строится следующим образом. Вариационный ряд x1, x2, …, xk, представляющий выборку, при помощи точек c0, c1, …, cr делится на промежутки (обычно одинаковой длины h).
На оси абсцисс отмечают точки c0 ≡ x1, c1, …, cr ≡ xk. Подсчитывают суммы mi
частот вариант, попавших в промежутки [ci-1; сi] для i = 1, 2 …, r; частоты вариант, совпавших с граничными точками соседних промежутков, делятся пополам и эти половины приписываются каждому из двух соседних промежутков так, что числа mi могут оказаться дробными. При этом следует учесть,
что гистограммы со слишком большими или слишком малыми промежутками не отражают достаточно точно существенных особенностей распределения. На отрезках [ci-1, сi] с длиной h строятся прямоугольники с высотами,
равными mi / h. Площадь i-го прямоугольника равна h (mi / h) = mi, а площадь
всей гистограммы равна объему выборки n = m1 + m2 + …+ mr. В результате
получается гистограмма частот. Для построения гистограммы относительных частот высоты прямоугольников берут равными (mi / n) /h. При
этом площадь i-го прямоугольника равна (mi / n), а площадь всей гистограм133
мы равна m1 / n + …+ mr / n = 1. Рассматриваются также гистограммы, в которых высоты прямоугольников равны mi, а площади mi h .
Пример 2.1.2. Построить гистограмму частот по данному распределению выборки объемом n = m1 + m2 + m3 + m4 + m5 = 100, приведенному в таблице:
I
[Ci-1; Ci]
mi
mi / h
1
[5; 10]
10
2
2
[10; 15]
20
4
3
[15; 20]
50
10
4
[20; 25]
15
3
5
[25; 30]
5
1
Р е ш е н и е. Строим на оси абсцисс 5 отрезков длиной h = c1 – c0 = 5,
причем c0 = 5, , c5 = 30. На этих отрезках строим прямоугольники с высотами
mi / h. Гистограмма изображена на рис. 2.1.1. ее площадь равна n = 100.
Рис. 2.1.1
2.1.3. Эмпирическая функция распределения
Пусть известно статистическое распределение какого-либо признака X
объектов простой выборки объема n, т.е. для каждой варианты xi известна ее
134
частота ni. Обозначим через mn(x) число вариант (т.е. сумму частот ni отдельных вариант), строго меньших данного действительного числа x (т.е. xi < x).
Эмпирической (т.е. наблюдаемой, взятой из опыта) функцией распределения (функцией распределения выборки) называется ступенчатая
функция Fn∗ (x) , определяемая для каждого заданного числа x равенством
Fn∗ ( x) =
mn ( x )
.
n
Следовательно, Fn∗ (x ) является относительной частотой события X < x.
Функция Fn∗ (x) изменяется при переходе от одной простой выборки объема
n к другой.
Функция распределения генеральной совокупности F(x) = P(X < x)
называется теоретической функцией распределения и по определению
равна вероятности события X < x. Если ni – частота варианты xi, а N – объем
(конечной) генеральной совокупности, то, согласно классическому определению, вероятность того, что X примет значение xi равна ni/N. Тогда вероятность события X < x равна сумме вероятностей ni/N для всех xi < x. Функцию
Fn∗ (x )
можно рассматривать как приближение (оценку) теоретической
функции распределения F(x) бесконечной генеральной совокупности, поскольку из теоремы Бернулли следует, что относительная частота Fn∗ (x) события X < x при n → ∞ стремится по вероятности к вероятности этого события F(x), т.е. вероятность выполнения неравенства |F(x) – Fn∗ (x) | < ε, где ε >
0, стремится к единице при n → ∞ так, что при достаточно большом номере n
значения F(x) и Fn∗ (x ) практически не отличаются друг от друга.
Пример
2.1.3.
Построить
график
эмпирической
∗
( x) по заданному распределению выборки
F ∗ (x ) ≡ F100
135
функции
xi
1
3
4
ni
30
20
50
Р е ш е н и е. Объем выборки n = 30 + 20 + 50 = 100. Варианта x1 = 1 –
∗
наименьшая и F (x) = 0 при x ≤ 1. Для X < 3 варианта x1 = 1 наблюдалась 30
∗
раз, т.е. m100 (3) = 30 и F (x) = 30/100 = 0,3 при 1 < x ≤ 3. Для X < 4 варианта
x1 = 1 наблюдалась 30 раз, а x2 = 3 – 20 раз; m100 (4) = 30 + 20 = 50, F ∗ (x) =
∗
50/100 = 0,5 при 3 < x ≤ 4. Варианта x2 = 4 – наибольшая; F (x) = (30 + 20 =
50)/ 100 = 1 при x > 4 . Следовательно,
0 при x ≤ 1,
0,3 при 1 < x ≤ 3,

∗
F ( x) = 
0,5 при 3 < x ≤ 4,
1 при x > 4.
График этой ступенчатой фигуры приведен на рис. 2.1.2.
Свойства эмпирической функции распределения
1. 0 ≤ Fn∗ (x) ≤ 1.
2. Fn∗ (x) – неубывающая функция.
∗
3. Если x1 и xk – наименьшая и наибольшая варианты, то Fn (x ) = 0 при
x ≤ x1, Fn∗ (x ) = 1 при x > xk.
136
Рис. 2.1.2
Глава 2.2 ТОЧЕЧНАЯ ОЦЕНКА ПАРАМЕТРОВ ГЕНЕРАЛЬНОЙ
СОВОКУПНОСТИ
2.2.1. Выборочные средние и дисперсии
Пусть дана математическая выборка Х1, Х2, …, Хn. Функция Y = f(Х1, Х2,
…, Хn), являющаяся случайной величиной, называется статистикой (функцией выборки). Для каждой числовой реализации x1, x2, …, xn математической выборки статистика Y принимает конкретное числовое значение y = f(x1,
x2, …, xn).
Функция выборки:
1) X B =
1 n
∑ X i называется выборочным средним случайной величиn i =1
2) DB =
1 n
( X i − X B ) 2 называется выборочной дисперсией величины X;
∑
n i =1
ны X;
137
3) S B2 =
n
1 n
DB =
∑ ( X i − X B ) 2 называется исправленной (несмеn −1
n − 1 i =1
щенной) выборочной дисперсией величины X.
2
Каждая из случайных величин X B , DB , S B для любой простой воз-
вратной выборки x1, x2, …, xn принимает конкретное числовое значение, равное соответственно:
x=
1 n
1 n
1 n
2
2
2
x
D
≡
σ
=
(
x
−
x
)
s
=
( xi − x ) 2 .
;
∑
∑
i ;
i
∑
n i =1
n − 1 i =1
n i =1
Здесь x называется эмпирическим средним для простой выборки
x1, x2, …, xn; D – эмпирической дисперсией; s2 – эмпирической несмещенной (исправленной) дисперсией и обычно используется в практических
расчетах; при наличии повторяющихся по величине вариант слагаемые под
знаками сумм имеют коэффициенты ni.
2.2.2. Точечные оценки
На практике функция распределения F(x) признака X генеральной совокупности (теоретическая функция распределения) обычно неизвестна. Известна лишь простая выборка, т.е. набор числовых значений x1, x2, …, xn
признака X, полученных из n наблюдений, предполагаемых независимыми.
Задача состоит в том, чтобы, зная эти числовые значения, получить числовую
оценку (приближенное значение) какого-либо неизвестного параметра (числа) β, характеризующего генеральную совокупность, например, математического ожидания β = M(X). Для решения этой задачи необходимо найти такую
функцию выборки (случайную величину) В = f(Х1, Х2, …, Хn), которая для
каждой простой выборки x1, x2, …, xn принимала бы числовое значение
β* = f(x1, x2, …, xn), в каком-либо определенном смысле близкое к параметру
138
β. Переходя от одной простой выборки к другой, будем получать всякий раз
различные значения β*, являющиеся возможными значениями случайной величины В. Такая случайная величина B называется точечной оценкой параметра β (т.к. параметр при этом оценивается одним числом β*). Точечная
оценка B = f(Х1, Х2, …, Хn) параметра β называется несмещенной, если ее математическое ожидание равно оцениваемому параметру при любом объеме
выборки, т.е. M(В) = β . В противном случае оценка называется смещенной.
Например X B является несмещенной оценкой математического ожидания
M(X) т.к.
1 n
 1 n
M (X B ) = M  ∑ X i  = ∑ M (X i ) = M (X ) ≡ M 0 ,
 n i =1
 n i =1
поскольку все Xi имеют по определению одинаковые функции распределения F(x). Следовательно, математическое ожидание выборочного среднего
равно математическому ожиданию M0 признака X генеральной совокупности.
Дисперсия выборочного среднего равна
[
]
1
2
D( X B ) = M (X B − M 0 ) = M  2
n
1
1
1
= 2 nD ( X ) = D ( X ) ≡ D0 .
n
n
n
n
∑(X
i =1
i

− M 0 )2  =

В силу независимости Xi и Xj (i ≠ j). Здесь D(X) ≡ D0 – дисперсия признака X генеральной совокупности.
Математическое ожидание выборочной дисперсии равно
1 n
2
M ( DB ) = M  ∑ ( X i − X B )  =
 n i =1

 n −1
1  n 
1 n
2 
= M ∑  ( X i − M 0 ) − ∑ ( X j − M 0 )   =
D.0
n  i =1 
n j =1
n
 
Величина DB является смещенной оценкой параметра D0 ≡ D(X) т.к.
M(DB) ≠ D0.
139
Для несмещенной выборочной дисперсии имеем
M ( S B2 ) =
n
n n −1
M ( DB ) =
⋅
D0 = D0 ,
n −1
n −1 n
т.е. M( S B2 ) = D0.
Несмещенная оценка B параметра β, имеющая при заданном объеме n
выборки наименьшую возможную дисперсию D(B) = M[(B – β)2], называется
эффективной. Оценка B параметра β, которая при n → ∞ стремится по вероятности к оцениваемому параметру β, называется состоятельной:
lim P(|B – β| < ε) = 1
(ε > 0).
n→∞
Состоятельной будет, например, несмещенная оценка, дисперсия которой стремится к нулю при n → ∞ .
2.2.3. Точечные оценки генерального среднего и дисперсии
Генеральным средним признака X генеральной совокупности называется число, равное математическому ожиданию этого признака: xΓ ≡ M (X ) .
В случае дискретной конечной генеральной совокупности, состоящей из N
объектов с различными значениями признака X, равными x1, x2, …, xN, вероятность извлечь наугад один объект с любым конкретным значением признака равна 1 N .
Тогда M ( X ) =
1
( x1 + x 2 + ... + x N ) . Точечной оценкой неизвестного геN
нерального среднего xΓ является выборочное среднее X B . Оценка X B – несмещенная, состоятельная, т.е. при увеличении объема n выборки она стремится по вероятности к xΓ (отсюда следует, что различные простые выборки
достаточно большого объема, извлеченные из некоторой генеральной сово140
купности, дадут примерно одинаковые эмпирические средние значения x ).
Чем больше объем выборки, тем меньше x отличается от xΓ .
Генеральной дисперсией признака X генеральной совокупности называется число, равное DГ ≡ D(X) = M[(X – xΓ )2]. Генеральным средним квадратическим отклонением (стандартом) называется число σ Γ = DΓ .
В случае дискретной конечной генеральной совокупности
DΓ =
1
N
N
∑ (x
i =1
i
− xΓ ) 2 .
Случайная величина S B2 является несмещенной оценкой для DГ, т.е.
Оценка
величины
M( S B2 )
=
M ( DB ) =
n −1
DΓ ≠ DΓ . На практике величиной
n
DГ.
DB
DГ
является
смещенной,
т.к.
S B2 обычно пользуются, когда
объем n выборки меньше 30, поскольку при достаточно больших n различие
2
между S B и DB незначительно.
2.2.4. Метод моментов точечной оценки параметров
1. Теоретические моменты. Начальным теоретическим моментом
порядка k (k – натуральное число) случайной величины X (дискретной или
непрерывной) называется математическое ожидание величины Xk :
νk = M(Xk).
В частности, M(X) = ν1, D(X) = ν2 – ν 1 .
2
Центральным теоретическим моментом порядка k случайной велиo
чины X называется математическое ожидание величины X k :
o
µk = M( X k ),
141
где
o
X = X − M ( X ) – отклонение случайной величины от математического
ожидания.
В частности, µ1 = M[X – M(X)] = 0, µ2 = D(X).
2
3
Справедливы соотношения: µ2 = ν 2 −ν 1 , µ3 = ν 3 − 3ν 1ν 2 + 2ν 1 ; µ4 =
ν 4 − 4ν 1ν 3 + 6ν 12ν 2 − 3ν 14 .
Для нахождения теоретических моментов необходимо иметь функцию
распределения случайной величины.
2. Выборочные и эмпирические моменты. Начальным выборочным моментом порядка k (k – натуральное) называется функция математической выборки:
1 n k
αk = ∑ Xi .
n i =1
В частности, α1 = X B .
Центральным выборочным моментом порядка k называется функция
математической выборки
1 n
mk =
( X i − X B )k .
∑
n − 1 i =1
2
В частности, m1 = 0, m2 = S B .
Конкретные числовые реализации выборочных моментов для каждой
простой возвратной выборки x1, x2, …, xn называются эмпирическими мо∗
∗
ментами и обозначаются α k и m k :
α k∗ =
∗
В частности, α1 = x ,
1 n k
∑ xi ;
n i =1
m2∗ =
mk∗ =
1 n
( xi − x ) k .
∑
n − 1 i =1
n
D ≡ s2 .
n −1
142
∗
При вычислении центральных эмпирических моментов m k удоб-
нее перейти от обычных равноотстоящих вариант xi к условным (вспомогательным) вариантам ui:
ui =
1
( xi − C ),
h
( xi = C + hu i ),
Где C – некоторое число, в качестве которого берут любую варианту,
расположенную примерно в середине вариационного ряда; h = x2 – x1 – шаг
(постоянная разность между любыми двумя соседними вариантами). Условные варианты ui – целые числа. В частности,
h n
x = C + ∑ ui .
n i =1
Для эмпирических характеристик справедливы равенства:
1) x =
1
h
n j x j = C + ∑ n ju j ,
∑
n j
n j
1
1
2) D = ∑ n j ( x j − x ) 2 = ∑ n j x 2j
n j
n j
1
= h  ∑ n j u 2j
 n j
2
1

−  ∑ n j u j 
n j

2

,

n
nh 2  1
 ∑ n j u 2j
D=
3) s =
n −1
n −1  n j

2
2
1

−  ∑ n j x j  = x 2 − ( x ) 2 =
n j

1

−  ∑ n j u j 
n j

2

.

Примечание. Если неравноотстоящие варианты xi – большие числа, то
удобно перейти к вариантам υi = xi – С, где C – любое число, близкое к x
(или совпадающее с x ). Формулы для вычисления x , D, s2 получаются при
этом из вышеприведенных формул 1), 2), 3), если в них заменить uj на υj и
положить h = 1.
Кроме вышеперечисленных используются также следующие эмпирические характеристики вариационного ряда:
143
1) модой mо называется варианта xi, имеющая наибольшую частоту ni;
2) медианой mе называется варианта, делящая вариационный ряд на
две части, равные по числу вариант, при n – четном mе определяется как полусумма центральных вариант;
3) размахом варьирования R называется разность между наибольшей
и наименьшей вариантами: R = xmax – xmin;
4) средним абсолютным отклонением называется число
Θ=
1 n
∑ ( xi − x ) ;
n i =1
5) коэффициентом вариации V называется выражение
V=
σ
x
⋅ 100%
(σ =
)
D ,
где D – эмпирическая дисперсия.
3. Метод моментов точечной оценки параметров генеральной совокупности. Метод состоит в замене теоретических моментов соответствующими выборочными моментами того же порядка и основан на том, что
начальные и центральные выборочные моменты являются состоятельными
оценками соответствующих теоретических моментов. Для нахождения конкретного числового значения точечной оценки (являющейся случайной величиной) необходимо найти значение соответствующего эмпирического момента (или нескольких моментов) для данной простой выборки x1, x2, …, xn и
приравнять его (или их) к соответствующему теоретическому моменту (или
к моментам). Пусть требуется оценить один неизвестный параметр β плотности распределения f(x, β) заданного вида. Для этого приравнивают какойлибо один теоретический момент к эмпирическому моменту того же порядка,
∗
например, v1 = α 1 (k=1). Рассматривая это равенство как уравнение для
нахождения параметра β, входящего в выражении для v1 = M(X) и решая это
144
уравнение, найдем числовую (точечную) оценку β* параметра β, выраженную
через значения вариант x1, x2, …, xn.
В качестве точечной оценки для математического ожидания M(X) и
дисперсии D(X) метод моментов дает соответственно величины:
2
1 n
1 n
2
X B = ∑ X i , SB =
∑ (X i − X B ) .
n i =1
n − 1 i =1
Обе эти оценки – несмещенные.
Пример 2.2.1. Найти методом моментов по выборке x1, x2, …, xn числовую (точечную) оценку α* неизвестного параметра a распределения Пуассона
a m -a
Pa ( X = m ) =
e (m = 0, 1, …).
m!
Р е ш е н и е. Для случайной величины X, распределенной по закону
∗
∗
Пуассона справедливо M(X) = а. Поскольку α 1 = x , из уравнения v1 = α 1
∗
находим, что α = x =
1
(x1 + ... + xn ) .
n
Пример 2.2.2. По данной выборке найти числовую (точечную) оценку
λ* параметра λ показательного распределения, плотность вероятности которого
f(x) = 0(x < 0), f(x) = λe -λx (x ≥ 0).
Р е ш е н и е. Здесь ν1 = M(X) = 1 λ , 1 ∗ = x , т.е. λ* = 1 x .
λ
Если плотность распределения f(x, β1, β2) зависит от двух параметров
∗
∗
β1, β2, то для нахождения их числовых оценок β1 , β 2 необходимо приравнять
два каких-либо теоретических момента к двум соответствующим эмпириче145
∗
∗
ским моментам, например, v1 = α 1 , µ2 = m2 . Здесь оценка m2 является состо-
ятельной и несмещенной.
Пример 2.2.3. Найти числовые (точечные оценки) a*, σ* неизвестных
параметров нормального распределения
 ( x − a )2 
1
f ( x, a, σ ) =
exp−
2 
σ 2π
 2σ 
(exp z ≡ e ).
z
Р е ш е н и е. Для нормального распределения ν1 = M(X), µ2 = D(X) = σ2.
Имеем два уравнения:
∗
∗
ν1 = a = α 1 = x ; µ2 = σ2 = m2 = s2.
Отсюда a* = x , σ* =
s 2 . Выражение s
2
через x1, x2, …, xn приведено в
2.2.1.
Примечание. Эмпирическая дисперсия D здесь не используется, т.к.
оценка DB – смещенная.
Пример 2.2.4. Найти числовые оценки параметров а и b равномерного
распределения с плотностью вероятности f(x) = 0 при x < a или x > b; f(x) =
(b – а)-1 при а ≤ x ≤ b.
Р е ш е н и е. Для равномерного распределения:
1
М ( X ) = ( а + b) ,
2
D( X ) =
1
(b − а ) 2 . Из условий ν1 = α 1∗ , µ2 = m 2∗ следует
12
1
1
(а + b) = x ,
(b − а) 2 = s 2 . Отсюда находим a ∗ = x − 3s 2 , b ∗ = x + 3s 2 .
2
12
4. Эмпирическая асимметрия и эксцесс находятся соответственно по
формулам:
m4∗
m3∗
∗
−3,
As = ∗ 3 2 , Ex =
2
( m2 )
m2∗
∗
∗
где mk =
( )
1
k
n j (x j − x ) , (k = 2, 3, 4).
∑
n −1 j
146
Если xj – равноотстоящие варианты, то переходя к условным вариантам
uj, получим
m2∗ =
m3∗ =
m4∗ =
[
( ) ],
n 2 ~∗ ~∗
h α 2 − α1
n −1
2
[
( ) ],
n 3 ~∗
h α 3 − 3α~1∗α~2∗ + 2 α~1∗
n −1
[
( )
3
( ) ],
2
n 4 ~∗
h α 4 − 4α~1∗α~3∗ + 6 α~1∗ α~2∗ - 3 α~1∗
n −1
4
k
~∗ 1
где α k = ∑ n j u j , (k = 2, 3, 4).
n j
2.2.5. Метод наибольшего правдоподобия
1. Дискретные случайные величины. Пусть задан вид закона распределения дискретной случайной величины X с неизвестным параметром β.
Требуется найти числовую оценку β* этого параметра по известной простой
выборке x1, x2, …, xk с частотами ni вариант (i = 1, …, k;
∑n
i
= n ).
i
Функцией правдоподобия дискретной случайной величины X называется следующая функция от β:
L ( x1 ,..., xn ; β ) = p n1 ( x1 ; β ) ⋅ p n2 ( x2 ; β ) ⋅ ... ⋅ p nk ( xk ; β ) ,
где р(xi; β) – вероятность того, что величина X примет значение xi. Здесь
k
∑ n ⋅p(x ; β ) ≠ 1, т.к. вероятности
i =1
i
i
относятся к выборке, но не к генеральной
совокупности.
Метод наибольшего (максимального) правдоподобия состоит в том,
что в качестве числовой оценки параметра β берется такое его значение β*,
при котором функция правдоподобия достигает максимума. Значение оценки наибольшего правдоподобия β* = β*( x1, …, xn ) находят решая относитель147
но β уравнение, выражающее необходимое условие максимума функции
правдоподобия
∂L
∂ ln L 1 ∂L
= 0 или
=
= 0.
L ∂β
∂β
∂β
Если функция правдоподобия зависит от нескольких неизвестных параметров βi(i = 1, 2, …, r), то для нахождения β i∗ решают систему уравнений
∂L
∂ ln L
= 0 или
= 0 (i = 1, 2, …, r).
∂β i
∂β i
В общем случае оценки, полученные по методу наибольшего правдоподобия и по методу моментов, не совпадают.
Пример 2.2.5. Методом наибольшего правдоподобия по заданной простой выборке x1, x2, …, xn найти значение оценки неизвестного параметра p
геометрического распределения P(Х = m) = p(1 – p)m-1 (m = 1; 2; …).
Р е ш е н и е. Функция правдоподобия имеет вид
L = p (1 − p ) 1 ⋅ p(1 − p )
x −1
x2 −1
⋅ ... ⋅ p (1 − p )
xn −1
.
Логарифм от функции правдоподобия:
ln L = n ⋅ ln p + [( x1 + x2 + ... + xn ) − n ] ⋅ ln(1 − p ) .
Необходимое условие максимума
∂ ln L n
1
= − [( x1 + x2 + ... + xn ) − n ]
=0
∂p
p
1− p
выполняется при p = 1 x . Вторая производная
∂ 2 ln L
n
1
= − 2 − [x n − n ]
<0
2
∂p
p
(1 − p )2
при p = 1 x . Следовательно, в точке p = 1 x достигается максимум функция
правдоподобия. Таким образом, искомое значение оценки p∗ = 1 x .
148
2. Непрерывные случайные величины. Пусть задан вид плотности
распределения f(x; β) непрерывной случайной величины X с неизвестным
параметром β. Требуется по заданной простой выборке x1, x2, …, xn из генеральной совокупности значений X найти значение оценки β* этого параметра.
Функцией правдоподобия непрерывной случайной величины называют следующую функцию от β:
L ( x1 ,..., xn ; β ) = f ( x1 ; β ) ⋅ f (x2 ; β ) ⋅ ... ⋅ f (xn ; β )
Значение оценки β* находят из уравнения
∂L
∂ ln L
= 0 или
= 0.
∂β
∂β
Если f (x; β1, …, βr) зависит от нескольких неизвестных параметров βi,
то для нахождения β ∗i решают систему уравнений:
∂L
∂ ln L
= 0 или
= 0 (i = 1, 2, …, r).
∂β i
∂β i
Пример 2.2.6.
Методом наибольшего правдоподобия по выборке
x1, x2, …, xn найти значения оценок неизвестных параметров а и σ нормального распределения (см. пример 2.2.3).
Р е ш е н и е. Функция правдоподобия :
L( x1 ,..., xn ; а, σ ) =
(σ
1
2π
)
n
 1
exp −
2
 2σ
n
∑ (x
i
i =1
2
− a)  .

Логарифм этой функции
ln L = − n ln σ − nln 2π −
n
1
2σ
2
∑ (x − a )
i =1
2
i
.
Для нахождения значений оценок а*, σ* имеем уравнения
∂ ln L 1  n

= 2  ∑ xi − na  = 0 ,
∂а
σ  i =1

149
∂ ln L
n 1 n
2
= − + 3 ∑ (xi − a ) = 0 ,
∂σ
σ σ i =1
решая которые, получим значения оценок
1 n
2
1 n
n −1 2
а = ∑ xi = x ; σ ∗ = ∑ ( xi − x )2 ≡ D ≡
s .
n i =1
n i =1
n
∗
Здесь оценка X B (с числовым значением x ) – несмещенная; тогда как
оценка DB =
n −1 2
S B (с числовым значением D) – смещенная, но она асимптоn
тически (при n → ∞) несмещенная, т.к. M(DB) → σ 2 при n → ∞.
3. Для весьма приближенной проверки предположения о том, что неизвестное распределение случайной величины X имеет определенный вид,
можно воспользоваться следующим простым приемом:
а) Если в результате n испытаний д и с к р е т н а я величина X приняла значение xi с эмпирической (наблюдаемой) частотой ni (i = 1, …, r;
∑n
i
= n ), то вычисляют теоретические частоты ni′ = n ⋅ pi = n ⋅ P( X = xi ) , исхо-
i
дя из того, что X имеет предполагаемое распределение, а затем на основании
сравнения частот ni и ni′ делают соответствующее заключение.
б) Пусть эмпирическое распределение н е п р е р ы в н о й величины X
задано в виде непересекающихся промежутков Λ i возможных значений и соответствующих им сумм частот mi вариант (i = 1, …, r), попавших в эти промежутки. Тогда вычисляют теоретические частоты mi′ = n ⋅ pi , где n = ∑ mi –
i
число испытаний, pi – вероятности попадания величины X в промежутки Λ i с
учетом предположения о виде распределения. На основании полученных
данных строят полигон эмпирических частот в системе координат Oximi, а
также соответствующую теоретическую кривую распределения, проходящую
через точки (xi, mi′ ) в этой же системе координат. На основании сравнения
этих двух линий делается соответствующее заключение.
150
Примечание. Оценки параметров предполагаемых распределений делаются по методу моментов, либо методом наибольшего правдоподобия.
Глава 2.3
ИНТЕРВАЛЬНАЯ ОЦЕНКА ПАРАМЕТРОВ ГЕНЕ-
РАЛЬНОЙ СОВОКУПНОСТИ
2.3.1. Основные понятия
Наряду с т о ч е ч н о й о ц е н к о й неизвестных параметров теоретического распределения, при которой параметры оцениваются отдельными
числами (точками), применяется также интервальная (доверительная)
оценка, представляющая собой некоторый интервал, содержащий в себе (или
покрывающий) значение оцениваемого параметра. В отличие от точечной,
интервальная оценка позволяет установить точность оценки и ее надежность.
Пусть дана математическая выборка X1, X2, …, Xn из некоторой генеральной совокупности объектов с признаком X с заданным видом распределения, содержащего неизвестный параметр β.
Доверительным интервалом для параметра β с надежностью (доверительной вероятностью или коэффициентом доверия) 1 – α, где α – заданное число (0 < α < 1) называется такой случайный интервал (B1; B2) с границами, определяемыми двумя функциями выборки
В1 = f 1 ( X 1 ,..., X n );
В2 = f 2 ( X 1 ,..., X n ); (B1 < B2),
для которого вероятность
Р(В1 < β < В2) = 1 – α.
Границы B1 и B2 интервала (случайные величины) называются доверительными границами. Для заданного значения α доверительный интервал
покрывает (т.е. содержит) неизвестное значение параметра β с вероятностью
151
γ = 1 – α. Вероятность того, что доверительный интервал не покроет истинное значение β, не превышает α. Доверительный интервал может быть записан также в виде (B– δ, B + δ) или B– δ < β < B + δ, где B и δ – случайные величины. Для каждой простой выборки x1, x2, …, xn (т.е. набора чисел) доверительный интервал (B1,B2) переходит в обычный числовой (эмпирический) ин-
(
)
∗
∗
тервал β1 , β 2 , где β1∗ = f1 ( x1 ,..., xn ) , β 2∗ = f 2 ( x1 ,..., xn ) , или в интервал (β*– δ*,
β*+δ*), где число δ*> 0 характеризует точность оценки (чем меньше δ*, тем
точнее оценка). Из всей совокупности эмпирических интервалов, найденных
для простых выборок, примерно γ · 100% покрывают истинное значение параметра β, а (1 – γ) · 100% – не перекрывают. Задаваемое значение α обычно
берут близким к нулю, соответственно γ = 1 – α близким к единице, а именно: 0,95; 0,99; 0,999.
Нахождение доверительного интервала с доверительной вероятностью
γ = 1–α равносильно выполнению проверки статистической гипотезы (см.
главу 2.6) при уровне значимости α (т.е. отысканию критической области).
При этом область принятия гипотезы совпадает с доверительным интервалом.
2.3.2. Интервальная оценка неизвестного параметра a нормального
распределения при известном σ
Пусть признак X генеральной совокупности распределен нормально с
известной дисперсией D(X) = σ2. Необходимо найти доверительный интервал
для оценки неизвестного математического ожидания a =M(X) по заданному
эмпирическому среднему x . Интервальная оценка здесь основана на том, что
если признак X распределен нормально, то выборочное среднее X B является
152
также нормально распределенной случайной величиной с параметрами распределения
M( X B ) = a; D ( X B ) =
σ2
n
; σ ( X B ) = D( X B ) =
σ
n
.
Для нормально распределенной величины X B можно записать
(
)
δ* n 
 = 2Φ (t ) ,
P X B − a < δ * = 2Φ

σ


(2.3.1)
где δ* > 0 – некоторое число, Ф(t) – функция Лапласа (см. табл. 2 Приложения),
t =δ∗ n
σ.
Соотношения (2.3.1) можно записать также в виде
(
)
P X B − δ ∗ < a < X B + δ ∗ = 2 Ф( t )
(2.3.2)
Соотношение (2.3.2) означает, что при заданной надежности (вероятности) γ = 2 Ф(t) доверительный интервал
t ⋅σ
t ⋅σ 

, XB +
 XB −

n
n

(2.3.3)
покрывает неизвестное значение a с вероятностью γ, где t находится из ра∗
венства Ф(t) = γ/2, причем точность оценки равна δ = t ⋅
σ
n
. Для каждой
простой выборки случайная величина X B принимает конкретное числовое
значение x , поэтому в каждом случае будем иметь интервал с определенныtσ  
tσ 

, x +
 , которые изменяются при пеми числовыми границами  x −
n 
n

реходе от одной простой выборки к другой. При увеличении γ величины t и
δ* возрастают (т.е. точность оценки уменьшается); при возрастании n величина δ* уменьшается (т.е. точность оценки увеличивается). Если заданы γ и
153
δ*, то наименьший объем выборки n, обеспечивающий требуемую точность,
равен n =
t 2σ 2
δ∗
2
.
Пример. 2.3.1. Найти доверительный интервал для оценки с надежностью γ = 0,99 неизвестного параметра а нормального распределения случайной величины X по эмпирическому среднему x = 9, дисперсии σ2 = 4, объему
выборки n = 40.
Р е ш е н и е. Из равенства Ф(t) = γ/2 = 0,495 находим t = 2,57 (см.
∗
табл.2 Приложения). Точность оценки δ = t ⋅
σ
n
= 2,57 ⋅
2
= 0,81 . Довери40
тельный интервал ( x – 0,81; x + 0,81) = (8,19; 9,81) с вероятностью 0,99 покрывает неизвестный параметр а.
2.3.3. Интервальная оценка неизвестного параметра а нормального
распределения при неизвестном параметре σ
Оценка основана на использовании случайной величины
XB −a
n
SB
( S B2 – исправленная выборочная дисперсия), имеющей так называемое р а с п р е д е л е н и е С т ь ю д е н т а (t – р а с п р е д е л е н и е) с (n – 1) степенями свободы. Пусть из генеральной совокупности, признак X которой
распределен нормально с неизвестными параметрами a, σ извлечена простая
выборка x1, x2, …, xn заданного объема n, по которой найдены: эмпирическое
среднее x и эмпирическая несмещенная дисперсия s2. Тогда доверительный
интервал, покрывающий с заданной надежностью (вероятностью) γ неизвестный параметр а, имеет вид
154
ts
ts

 x − γ , x + γ 
n
n

(2.3.4)
где величина tγ находится по табл. 5 Приложения по заданным значениям γ и
n. Если n ≥ 30, то с достаточной точностью вместо доверительного интервала
(2.3.4) можно использовать также доверительный интервал (2.3.2), заменив
приближенно σ на s.
Пример 2.3.2. Найти доверительный интервал, покрывающий с надежностью γ = 0,999 неизвестный параметр a нормального распределения, если
известно: x = 18,3; n = 10; s = 0,7.
Р е ш е н и е. По известным γ и n по табл. 5 Приложения находим tγ = t
(γ, n) = 4,78. Далее:
tγ s
n
=
4,78 ⋅ 0,7
= 1,06 . Доверительный интервал (17,24;
10
19,9) с вероятностью 0,999 покрывает неизвестный параметр а.
2.3.4. Интервальная оценка неизвестного параметра σ нормального
распределения по заданному значению s
Оценка основана на использовании случайной величины
(n − 1) S B2
σ2
, рас-
пределенной по так называемому закону χ 2 (хи – квадрат) с (n – 1) степенями
свободы. Пусть из генеральной совокупности, признак X которой распределен нормально, извлечена простая выборка объема n, по которой найдены
эмпирические величины x и s. Тогда доверительный интервал, покрывающий
неизвестный параметр σ (при этом параметр а также неизвестен) нормального распределения с заданной надежностью γ, имеет вид
s(1 – q) < σ < s(1 + q)
0 < σ < s(1 + q)
155
(для q < 1),
(для q > 1),
где q = q(γ, n) находится по табл. 6 Приложения по заданным γ и n.
Пример. 2.3.3. Дано: n = 15, s = 0,1. Найти доверительный интервал,
покрывающий неизвестный параметр σ нормального распределения с надежностью γ = 0,99.
Р е ш е н и е. По табл. 6 Приложения по данным γ и n находим q = q(γ,
n) = 0,73. Искомый доверительный интервал: 0,027 < σ < 0,173.
Глава 2.4 ОЦЕНКА НЕИЗВЕСТНОЙ ВЕРОЯТНОСТИ ПО
ОТНОСИТЕЛЬНОЙ ЧАСТОТЕ
2.4.1. Точечная оценка вероятности
Точечной оценкой вероятности p=P(A) события А является случайная
величина, называемая относительной частотой:
Wn ( A) =
Mn
,
n
где Mn – случайная величина, возможные значения которой равны числу m
(0 ≤ m ≤ n) появления события А в каждой серии из n независимых испытаний. Величина Mn в каждой серии испытаний случайно принимает различные
значения от m = 0 до m = n. Математическое ожидание величины Wn равно
 M  M ( M n ) np
M (Wn ) = M  n  =
=
=p
n
n
 n 
(см. пример 1.5.3), т.е. оценка Wn(A) – несмещенная. Дисперсия оценки Wn
равна
 M  D( M n ) npq pq
D(Wn ) = D n  =
=
=
n2
n
n2
 n 
156
(см. пример 1.5.5.1). Следовательно, σ = D(Wn ) =
pq
. Частота Wn(A) имеет
n
асимптотически, при n → ∞ (т.е для выборок достаточно большого объема)
нормальное распределение с плотностью вероятности f(x, a, σ), где а = p,
σ=
pq
(0 < p < 1).
n
2.4.2. Интервальная оценка вероятности
Оценка основана на том, что частота Wn(A) для достаточно больших
объемов n выборок (при условии, что вероятность p=P(A) не очень близка к 0
и 1) приближенно имеет нормальное распределение.
Если w– возможное значение (числовая реализация) случайной величины Wn(A) в конкретной серии из n испытаний, то с заданной надежностью
(вероятностью) γ доверительный интервал (p1, p2) покрывает неизвестную вероятность p(p1< p < p2), где
p1 =
n
t2
(
+
− Λ) ,
w
t2 + n
2n
n
t2
p2 = 2
(w +
+ Λ) ,
t +n
2n
 w(1 − w)  t  2 
Λ =t⋅
+  
 2n  
 n
1
2
Здесь значение t находится из условия Ф(t) = γ/2, где Ф(t) – функция
Лапласа (см. табл. 2 Приложения).
Пример 2.4.1. Произведено n = 100 независимых испытаний, в каждом
из которых неизвестная вероятность p появления события A одна и та же.
157
Событие A появилось m = 45 раз. Найти доверительный интервал, покрывающий вероятность p с надежностью γ = 0,99.
Р е ш е н и е. Частота w = m/n = 45/100 = 0,45. Из равенства Ф(t) = γ/2 =
0,495 по табл.2 Приложения находим t = 2,58. Доверительный интервал с
границами p1 = 0,330; p2 = 0,571 имеет вид 0,330 < p < 0,571.
Глава 2.5 АНАЛИЗ КОРРЕЛЯЦИИ И РЕГРЕССИИ ПО РЕЗУЛЬТАТАМ ВЫБОРОК
2.5.1. Оценка корреляционных и регрессионных параметров
В простейшем случае две случайные величины X и Y могут быть связаны обычной функциональной зависимостью Y = f(X), например Y = X2, когда
каждому возможному значению X соответствует определенное возможное
значение Y. Более сложной является вероятностная (статистическая) зависимость между случайными величинами X и Y, когда изменение одной из них
приводит к изменению закона распределения другой. Такая зависимость,
называемая корреляционной зависимостью (или просто корреляцией), появляется в том случае, когда среди совокупности случайных факторов, влияющих на X и Y есть общие для них факторы, действующие одновременно как
на X, так и на Y; а также в том случае, когда Y зависит не только от X, но и от
нескольких других случайных факторов.
Для изучения связи (зависимости) между случайными величинами X и
Y, образующими с л у ч а й н ы й в е к т о р (X, Y), делается выборка объема n, состоящая из n пар чисел (x1, y1), (x2, y2 ),…, (xn, yn ). Такие выборки
называются связанными, в отличие от независимых выборок по признакам
X и Y отдельно. При этом каждому возможному значению x величины X может соответствовать несколько возможных значений y величины Y (в зависи158
мости от случая). Оценкой условного математического ожидания M(Y | x)
является условное среднее y ( xi ) , равное среднему арифметическому всех ni
значений величины Y, наблюдаемых при X = xi:
y ( xi ) =
(
)
1
yi1 + yi 2 + ... + yini .
ni
Аналогично определяется условное среднее x ( y j ) .
Регрессия представляет собой зависимость условного математического
ожидания (условного среднего значения) какой-либо величины от одной или
нескольких других величин.
В самом простом случае (теоретические) функции регрессии, конкретизирующие вид корреляционной зависимости, являются линейными, а линии регрессии – прямыми. В этом случае величины X и Y называются линейно коррелированными. Для теоретических параметров, характеризующих
прямые регрессии, могут быть даны при этом нижеприведенные оценки по
результатам связанной выборки согласно методу моментов:
1. Оценки математических ожиданий mХ и mY равны соответственно
1 n
x = ∑ xi ,
n i =1
1 n
y = ∑ yi
n i =1
2. Оценки дисперсий D ( X ) = σ X2 и D(Y ) = σ Y2 - соответственно:
s X2 =
1 n
1 n
2
2
(
x
−
x
)
s
=
( yi − y )2 .
, Y
∑
∑
i
n − 1 i =1
n − 1 i =1
3. Оценка корреляционного момента (ковариации) µXY:
m XY
1 n
=
∑ (xi − x )( yi − y ) .
n − 1 i =1
4. Оценка коэффициента корреляции rXY:
n
m
r = XY =
s X sY
∑ (x − x )( y − y )
i =1
n
i
i
n
∑ (x − x ) ∑ ( y − y )
i =1
2
i
159
i =1
2
i
.
Оценки параметров 1 – 4 называются соответственно: 1) эмпирическими средними, 2) эмпирическими дисперсиями, 3) эмпирическим корреляционным моментом, 4) эмпирическим коэффициентом корреляции.
2.5.2. Эмпирические прямые регрессии
Для линейно коррелированных случайных величин X и Y уравнения
эмпирических (т.е. полученных на основании наблюдений) прямых регрессии получаются из теоретических уравнений (1.8.1) и (1.8.2) прямых регрессии посредством замены в последних всех теоретических параметров соответствующими эмпирическими оценками. Эмпирические прямые регрессии
на Y на X и X на Y (в общем случае разные), проходящие через точку ( x, y ),
имеют соответственно уравнения
y = y+r⋅
x = x +r⋅
sY
(x − x) ,
sX
sX
( y − y) .
sY
(2.5.1)
(2.5.2)
Уравнения (2.5.1), (2.5.2) применяют также в случае приближенной линейной корреляции X и Y. В большинстве случаев наличие даже приближенной линейной корреляции между X и Y не может быть установлено теоретически. На практике поступают следующим образом. Пусть (xi, yij) – точки
связанной выборки (эмпирические точки). Построим на плоскости Oxy точки
(xi, y ( xi)), где y ( xi) – условное среднее значение Y для заданного значения
X = xi. Если на основании полученного расположения эмпирических точек
можно сделать заключение о близости этого расположения к прямолинейному, то линию регрессии допустимо искать приближенно в виде прямой с
уравнением (2.5.1) или (2.5.2). Эмпирические прямые регрессии с уравнени160
ем (2.5.1) являются прямыми наилучшего среднеквадратичного приближения
к эмпирическим точкам (xi, yij), т.е. сумма квадратов отклонений
n
∑ [y
i =1
 sY

(
)
y
x
=
y
+
r
где
i
 sX
− y ( xi )] ,
2
i

( xi − x ) , минимальна по сравнению со всякой другой

прямой, отличающейся от прямой (2.5.1). Аналогично рассматривается сумма квадратов отклонений
n
∑ [x
i =1
− x( y i ) ] ,
2
i
где x(yi) находится по уравнению (2.5.2).
На этом свойстве эмпирических прямых регрессии основан метод
нахождения уравнений (2.5.1) и (2.5.2) для этих прямых, называемый методом наименьших квадратов, смысл которого заключается в следующем.
Пусть, например, пары значений (xi, yi) (i = 1, 2, …, n) наблюдались
только по одному разу каждая. Подберем параметры k и b искомой прямой
регрессии y = kx + b (рис. 2.5.1) так, чтобы функция
n
F (k , b ) = ∑ [ yi − (kxi + b)]
i =1
была минимальной.
161
2
Рис. 2.5.1.
Параметры k и b находятся из системы уравнений
n
∂F
= −2∑ [ yi − (kxi + b)]xi = 0 ,
∂k
i =1
n
∂F
= −2∑ [ yi − (kxi + b)] = 0 ,
∂b
i =1
решая которую, получим формулы:



n ⋅ ∑ xi y i −  ∑ xi  ∑ y i 
i
 i
 i

k=
2
,


2
n ⋅ ∑ xi −  ∑ xi 
i
 i


 
 
 

 ∑ xi2  ⋅  ∑ yi  −  ∑ xi  ⋅  ∑ xi yi 
  i
  i   i

b= i
.
2


2
n ⋅ ∑ xi −  ∑ xi 
i
 i 
Если же каждому xi соответствует несколько наблюдаемых значений
yij, то в правой части выражения для F(k, b) вместо yi должно стоять условное
среднее y ( xi). При этом уравнение прямой регрессии можно записать в виде
162
y − y = k(x − x) ,
где
∑n
k=
i, j
ij
x i y j − nx ⋅ y
[
n ⋅ x 2 − (x )
2
]
2
, x =
1
n( xi ) ⋅ xi2 ,
∑
n i
обозначения x , y , n( xi), nij описаны в примере 2.5.1.
Аналогично находится эмпирическое уравнение (2.5.2). Прямые с
уравнениями (2.5,1) и (2.5.2), проходящие через точку ( x, y ) в общем случае
различаются. Если регрессии Y на X и X на Y отличаются от линейных, то
уравнения (2.5.1) и (2.5.2), полученные методом наименьших квадратов, являются л и н е й н ы м и п р и б л и ж е н и я м и истинных уравнений регрессии. Если эмпирический коэффициент корреляции r являющийся оценкой коэффициента корреляции rXY генеральной совокупности, отличен от нуля, то на основании этого в общем случае нельзя делать вывод, что rXY ≠ 0.
Следовательно, возникает необходимость проверки гипотезы о значимости
(существенности) эмпирического коэффициента корреляции, т. е. гипотезы о
некоррелированности величин X и Y.
Если значения параметров X и Y заданы в виде равноотстоящих вариант, то вычисления удобнее вести с использованием условных вариант
ui =
1
(xi − C1 ) , v j = 1 ( y j − C 2 ),
h1
h2
где С1, С2 – варианты, расположенные примерно в середине вариационных рядов; h1, h2 – шаги вариант X и Y.
В более сложных случаях графиком регрессии может быть некоторая
кривая линия (криволинейная регрессия). При этом уравнение регрессии
часто записывается в виде полинома y = аn xn + аn-1 xn-1 + … + а1 x + а0 некоторой степени n (n = 2, 3, …), неизвестные коэффициенты а0, а1, …, аn которого ищутся методом наименьших квадратов аналогично вышеизложенному.
163
Наводящие соображения о виде (степени) этого полинома может дать характер расположения точек (xi, y ( xi)).
В частности, для полинома y = аx2 + b x + с коэффициенты находятся из
системы трех уравнений
1) a ∑ n( xi ) xi4 + b∑ n( xi ) xi3 + с ∑ n( xi ) xi2 = ∑ n( xi ) y ( xi )xi2 ,
i
i
i
i
2) a ∑ n( xi ) xi3 + b∑ n( xi ) xi2 + с∑ n( xi ) xi = ∑ n( xi ) y (xi )xi ,
i
i
i
i
3) a ∑ n( xi ) xi2 + b∑ n( xi ) xi + сn = ∑ n( xi ) y (xi ) .
i
i
i
В общем случае уравнение регрессии ищется в виде линейной комбинации некоторых заданных функций с неизвестными коэффициентами.
Пример 2.5.1. Найти эмпирическое уравнение прямой линии регрессии Y
на X по данным к о р р е л я ц и о н н о й т а б л и ц ы:
xi
1
2
4
5
n(yj)
3
10
0
10
0
20
6
5
0
0
5
10
8
0
4
16
0
20
n(xi)
15
4
26
5
n = 50
yj
В этой таблице приведены данные о выборке (объема n = 50) пар
наблюдаемых значений системы признаков (X,Y). В первой строке таблицы
приведены значения признака xi(i = 1, 2, 3, 4) признака X, в первом столбце
– значения yj(j = 1, 2, 3) признака Y. На пересечении строк и столбцов находятся частоты nij пар признаков. Например, пара чисел (x4 = 5; y2 = 6) наблюдалась n42 = 5 раз. Пара (2; 3) не наблюдалась ни разу (n21 = 0). В шестом
столбце записаны суммы частот n(yj) каждого из yj, наблюдавшегося сов164
местно с различными значениями X, например, y2 = 6 наблюдалось 10 раз. В
пятой строке указаны суммы частот n (xi) каждого xi, наблюдавшегося совместно с различными значениями Y, например, x3 = 4 наблюдалось 26 раз.
∑ n( x ) = ∑ n( y
При этом
i
i
j
) =n = 50 .
j
Р е ш е н и е. Найдем эмпирические параметры:
x=
1
1
1
(15 ⋅ 1 + 4 ⋅ 2 + 26 ⋅ 4 + 5 ⋅ 5) = 3,04 ;
xi = ∑ n( x j ) ⋅ x j =
∑
n i
n j
50
y=
1
1
1
(20 ⋅ 3 + 10 ⋅ 6 + 20 ⋅ 8) = 5,6 ;
y i = ∑ n( y j ) ⋅ y j =
∑
n i
n j
50
s X2 =
=
1
(xi − x )2 = 1 ∑ n( x j ) ⋅ (x j − x )2 =
∑
n −1 i
n −1 j
[
]
1
2
2
2
2
15 ⋅ (1 − 3,04 ) + 4 ⋅ (2 − 3,04 ) + 26 ⋅ (4 − 3,04 ) + 5 ⋅ (5 − 3,04 ) = 2,26.
49
sX = 1,50;
sY2 =
=
1
( yi − y )2 = 1 ∑ n( y j ) ⋅ (y j − y )2 =
∑
n −1 i
n −1 j
[
]
1
2
2
2
20 ⋅ (3 − 5,6) + 10 ⋅ (6 − 5,6) + 20 ⋅ (8 − 5,6) = 5,14;
49
m
sY = 2,27; r = XY =
s X sY
где сумму
∑n x y
ij i
j
∑ (x
i
i
− x )( yi − y )
(n − 1)s X sY
∑n
ij
=
i, j
xi y j − nx ⋅ y
(n − 1)s X sY
,
можно вычислить двумя способами
i, j


1) ∑ nij xi y j = ∑ xi  ∑ nij y j  = 1 ⋅ (10 ⋅ 3 + 5 ⋅ 6 + 0 ⋅ 8) + 2 ⋅ (0 ⋅ 3 + 0 ⋅ 6 + 4 ⋅ 8) +
i, j
i
 j

+ 4 ⋅ (10 ⋅ 3 + 0 ⋅ 6 + 16 ⋅ 8) + 5 ⋅ (0 ⋅ 3 + 5 ⋅ 6 + 0 ⋅ 8) = 906;


2) ∑ nij xi y j = ∑ y j  ∑ nij xi  = 3 ⋅ (10 ⋅ 1 + 0 ⋅ 2 + 10 ⋅ 4 + 0 ⋅ 5) +
i, j
j
 i

+ 6 ⋅ (5 ⋅ 1 + 0 ⋅ 2 + 0 ⋅ 4 + 5 ⋅ 5) + 8 ⋅ (0 ⋅ 1 + 4 ⋅ 2 + 16 ⋅ 4 + 0 ⋅ 5) = 906.
165
следовательно,
r=
Величина
906 − 50 ⋅ 3,04 ⋅ 5,6
= 0,33 .
49 ⋅1,50 ⋅ 2,27
rsY 0,33 ⋅ 2,27
=
= 0,50 .
1,50
sX
Уравнение эмпирической прямой регрессии Y на X имеет вид
y = 5,6 + 0,50 · (x – 3,04) = 0,50 x + 4,08.
Аналогично находится уравнение эмпирической прямой регрессии X
на Y.
Глава 2.6 ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ
2.6.1. Основные понятия
Статистической гипотезой называется предположение о неизвестных
параметрах распределений заданного вида или о виде неизвестного распределения
Пример 2.6.1. Рассмотрим следующие гипотезы о распределениях:
1) Дисперсии двух нормально распределенных генеральных совокупностей равны между собой,
2) Генеральная совокупность имеет геометрическое распределение
признака X.
Здесь в первой гипотезе сделано предположение о параметрах известных распределений, а во второй – о виде неизвестного распределения.
Совместно с предложенной (проверяемой) гипотезой H0, которую
называют нулевой (проверяемой, основной), рассматривают также гипотезу
166
H1, противоречащую основной и называемую конкурирующей (альтернативной). Если гипотезу H0 отвергают, то следует принять гипотезу H1, и
наоборот.
Пример 2.6.2. Если гипотеза H0 состоит в предположении равенства
σ 12 = σ 22 дисперсий двух нормальных распределений, то гипотеза H1 может
предполагать, например, что σ 12 ≠ σ 22 . Запись
H 0 : σ 12 = σ 22 ; H1 : σ 12 ≠ σ 22 .
Статистическая гипотеза называется простой, если она определяет
единственное распределение. В противном случае она называется сложной.
Сложная гипотеза состоит из конечного или бесконечного множества простых гипотез.
Пример 2.6.3. Гипотеза о том, что параметр распределения Пуассона
а = 2 – простая, т.к. распределение Пуассона определяется только одним параметром. Гипотеза H0 : а > 2 является сложной.
Пусть дана некоторая простая выборка (упорядоченный набор чисел)
x1, x2, …, xn объема n из генеральной совокупности. Правило, позволяющее
принять или отклонить данную гипотезу на основании результатов простой
выборки, называется статистическим критерием. Статистический критерий
не доказывает правильность или неправильность гипотезы, а устанавливает
лишь ее соответствие или несоответствие с данными наблюдений на принятом уровне значимости. Статистикой критерия называется случайная величина Т = f(X1, X2, …, Xn ) – подходящим образом подобранная, применительно
к данной задаче, функция математической выборки, которая служит для проверки гипотезы. Конкретное числовое значение t = f(x1, x2, …, xn ) статистики
Т, найденное (вычисленное) по каждой простой выборке, называется частным (эмпирическим, наблюдаемым) значением статистики. Множество
всех возможных значений статистики Т разбивают на два непересекающихся
167
подмножества: к р и т и ч е с к у ю о б л а с т ь и о б л а с т ь п р и н я ти я г и п о т е з ы. Множество значений статистики Т, при которых нулевую
гипотезу отклоняют, называется критической областью. Множество значений Т, при которых нулевую гипотезу принимают, называется областью
принятия гипотезы.
Последовательность проверки статистической гипотезы состоит в следующем: в зависимости от специфики конкретной задачи осуществляется
одна или несколько простых выборок, по которым вычисляется частное значение t статистики T критерия. Если t принадлежит критической области, то
гипотезу H0 отклоняют. Если t принадлежит области принятия гипотезы H0,
то ее принимают. Каждое возможное значение случайной величины T определяется одним числом t, следовательно, эти значения можно изобразить
точками на числовой оси Оt. Критической точкой (критическим значением) называется точка t0, отделяющая критическую область от области принятия гипотезы. Критические области могут быть следующего вида:
1) t > t0 > 0 (п р а в о с т о р о н н я я о б л а с т ь),
2) t < t0 < 0 (л е в о с т о р о н н я я о б л а с т ь),
3) t < t1 или t > t2, где t1 < t2 (д в у с т о р о н н я я о б л а с т ь, определяемая двумя критическими точками t1 и t2); в частности, t1 и t2 могут быть
симметричными относительно нуля.
Для нахождения критической области заранее задают уровень значимости (вероятность ошибки первого рода) α, являющийся достаточно малым
числом (равным, обычно 0,01 или 0,05). Величина 1 – α называется надежностью (доверительной вероятностью).
Затем ищут критические точки (одну или две) такие, что если нулевая
гипотеза верна, то вероятность попадания значения случайной величины Т в
соответствующие критические области равны значению α:
1) для правосторонней критической области
Р(Т > t0) = α,
168
2) для левосторонней критической области
Р(Т < t0) = α,
3) для двусторонней критической области
Р(Т < t1) + Р(Т > t2) = α.
В частности, для двусторонней симметричной области (t2 = – t1 = t0 > 0):
Р(Т > t0) =
α
2
.
Если наблюдаемое значение t статистики T попадает в критическую
область, то от гипотезы H0 отказываются. Однако значение t может попасть в
критическую область не только в случае ложности гипотез H0, но и по другим причинам, (например, из-за недостаточности объема выборки). Чем
меньше α, тем меньше вероятность совершения ошибки первого рода (при
которой отвергают правильную гипотезу H0). Вероятность совершения
ошибки первого рода равна α. Ложное отбрасывание правильной гипотезы
будет происходить при этом в α ·100 случаях из 100, в которых она верна.
Ошибка второго рода заключается в том, что не отвергается неправильная
гипотеза.
Если же значение t находится в области принятия гипотезы H0, то можно только заключить, что результаты наблюдений не противоречат гипотезе
и нет оснований эту гипотезу отвергать. Гипотеза принимается при этом с
надежностью вывода, равной 1– α.
Принятие гипотезы или отказ от нее не являются ее логическим доказательством или опровержением. Здесь возможны четыре случая:
1) Гипотеза H0 верна и принимается,
2) Гипотеза H0 неверна и отвергается,
3) Гипотеза H0 верна, но отвергается (ошибка первого рода),
4) Гипотеза H0 неверна, но принимается (ошибка второго рода).
Мощностью статистического критерия называется вероятность того,
что значение t величины T принадлежит критической области при условии
правильности конкурирующей гипотезы H1. Мощность критерия равна, та169
ким образом, вероятности того, что будет отвергнута нулевая гипотеза при
условии правильности конкурирующей гипотезы. Мощность критерия равна
1 – β, где β – вероятность ошибки второго рода. Следовательно, мощность
является вероятностью того, что не будет совершена ошибка второго рода.
При заданном уровне значимости α критическая область определяется
неоднозначно. Критическую область строят так, чтобы при заданном значении α, вероятность β была бы минимальной, т.е. чтобы мощность критерия
была максимальной.
Для одновременного умен ьше н ия вероятнос тей
о ш и б о к п е р в о г о и в т о р о г о р о д а с л е д у е т у в е л и ч ит ь о б ъ е м в ы б о р к и.
Ниже, в 2.6.2 – 2. 6.18 рассматриваются некоторые, наиболее часто
применяемые статистические критерии.
2.6.2. Сравнение дисперсий двух нормально распределенных
генеральных совокупностей. Критерий F
Пусть необходимо проверить гипотезу о равенстве двух генеральных
дисперсий H0 : D(X) = D(Y) при условии, что X и Y распределены нормально.
Из двух генеральных совокупностей производятся независимые выборки
объема n1 и n2 соответственно, по которым найдены эмпирические исправ2
2
ленные дисперсии s X и sY .
170
1. Для проверки гипотезы H0 : D(X) = D(Y) при заданном уровне значимости α и конкурирующей гипотезе H1 : D(X) > D(Y) находят наблюдаемое
значение
s X2
f = 2
sY
sY2
или f = 2
sX
(2.6.1)
статистики (случайной величины) F, равное отношению большего из чисел
2
s X2 и sY к меньшему. Величина F имеет так называемое распределение F
Фишера (или F– распределение) со степенями свободы k1 = n1 – 1, k2 = n2 –
1, где n1 – объем выборки, дающей большее значение исправленной дисперсии, т.к. необходимо выполнение условий, M( S X2 ) = D(X), M( S Y2 ) = D(Y), где
S X2 , S Y2 – исправленные выборочные дисперсии (случайные величины). Затем
по табл. 9 Приложения (Критические точки распределения F) для заданного
α и чисел k1 = n1 – 1, k2 = n2 – 1 (k1 – относится к большей исправленной дисперсии) находят критическую точку f0(α, k1, k2). Если наблюдаемое значение f
больше, чем f0, то гипотезу H0 отклоняют с вероятностью ошибки α. Если f <
f0, то нет оснований отклонять гипотезу H0. Здесь критическая область – правосторонняя.
2. Если конкурирующая гипотеза имеет вид H1: D(X) ≠ D(Y), то критическую точку f0(
сти
α
2
α
2
; k1, k2) ищут по табл. 9 Приложения по уровню значимо-
(т.е. вдвое меньше заданного) и числам степеней свободы k1 и k2. Кри-
тическая область здесь – двусторонняя. Если f > f0, то H0 отклоняют. Если f <
f0, то нет оснований отклонять H0.
Пример 2.6.4. Даны две независимые выборки (n1 = 10, n2 = 15) из
нормальных генеральных совокупностей X и Y, по которым вычислены ис2
2
правленные эмпирические дисперсии s X = 1,52 и s Y = 0,85. При уровне зна-
чимости α = 0,1 требуется проверить гипотезу H0 : D(X) = D(Y) при конкурирующей гипотезе H1: D(X) ≠ D(Y).
171
Р е ш е н и е. Наблюдаемое значение статистики F(отношение большей
дисперсии к меньшей) f = 1,52 0,85 = 1,79. Для отыскания (правой) критической
точки, по
табл. 9 Приложения берем
уровень
значимости равной
0,1 = 0,05 , а также k = n – 1 = 9, k = n – 1 = 14:
1
1
2
2
2
Поскольку f < f0 (1,79 < 2,65) – нет оснований отклонять гипотезу
2
2
H0 : D(X) = D(Y). Различие исправленных дисперсий s X , sY здесь может быть
объяснено случайными причинами, т.е. не являются значимым.
2.6.3. Сравнение исправленной эмпирической дисперсии с предполагаемой генеральной дисперсией нормальной совокупности. Критерий
хи – квадрат
Пусть из нормально распределенной генеральной совокупности с неизвестной дисперсией σ2 извлечена выборка объема n и по ней вычислена эмпирическая дисперсия s2.
1. При заданном уровне значимости α требуется проверить нулевую
гипотезу H0 : σ2 = σ 02 о равенстве неизвестной дисперсии предполагаемому
значению σ 02 , при конкурирующей гипотезе H1 : σ2 > σ 02 . Для этого надо вычислить наблюдаемое значение статистики
(
n − 1)S B2
,
χ =
2
2
σ0
являющейся случайной величиной, имеющей так называемое распределение
хи – квадрат (χ2) с k = n – 1 степенями свободы, т.к. необходимо выполнение
условия M( S B2 ) = σ2. Затем по табл. 7 Приложения (Критические точки распределения χ2) по заданной величине α и числу k = n – 1 находят критиче172
скую точку χ~02 (α, k). Если χ~ 2 > χ~02 , то гипотезу H0 отклоняют. Если χ~ 2 < χ~02 ,
то нет оснований отменять гипотезу H0.
2. В случае конкурирующей гипотезы H1 : σ2 < σ 0 критическое значе2
ние равно χ~02 (1 – α; k). При этом, если χ~ 2 > χ~02 , то нет оснований отвергать
гипотезу H0 . Если χ~ 2 < χ~02 , то гипотезу H0 отвергают.
α
2
3. При конкурирующей гипотезе H1 : σ2 ≠ σ 0 находят левую χ~12 (1– ;
2
α
k) и правую χ~22 ( ; k) критические точки. Если χ~12 < χ~ 2 < χ~22 , то нет основа2
ний отвергать гипотезу H0. Если же χ~ 2 < χ~12 или χ~ 2 > χ~22 , то нулевую гипотезу отвергают.
4. Если k = n – 1 > 30, то критическую точку χ~ (α; k) можно найти по
приближенной формуле
3

2
2 
χ~ (α ; k ) ≈ k 1 − + zα
 ,
9
k
9
k


2
0
где zα находят из равенства Ф(zα)=
1
– α (см. табл. 2 Приложения).
2
Пример 2.6.5. Из нормальной генеральной совокупности извлечена
выборка (n = 25, s2 = 11,3). При уровне значимости α = 0,025 проверить гипотезу H0 : σ2 = σ 02 =10, если конкурирующая гипотеза H1 : σ2 > σ 02 = 10.
Р е ш е н и е. Критическую точку находим по табл. 7 Приложения по
значению α = 0,025 и k = n – 1 = 25 – 1 = 24, имеем ~χ 02 (0,025; 24) = 39,4.
Наблюдаемое значение статистики
χ~ 2 =
(n − 1)s 2 = (25 − 1) ⋅11,3 = 27,12.
σ2
10
173
Поскольку χ~ 2 < χ~02 (27,12 < 39,4), то нет оснований отклонять гипотезу
о равенстве σ2 = 10. Различие между s2 = 11,3 и σ2 = 10 здесь может быть объяснено случайными причинами, т.е. не является значимым.
2.6.4. Сравнение генеральных средних двух нормальных совокупностей с неизвестными, но равными дисперсиями. Критерий Стьюдента
Пусть необходимо проверить нулевую гипотезу о равенстве генеральных средних (математических ожиданий) H0 : M(X) = M(Y) при условии, что X
и Y распределены нормально, с неизвестными, но равными дисперсиями
σ X2 = σ Y2 . Если нет оснований в истинности предположения σ X2 = σ Y2 , то
необходимо сначала его проверить. Пусть из генеральных совокупностей X, Y
извлечены независимые случайные выборки объемов n1, n2 соответственно,
по которым найдены эмпирические средние и исправленные эмпирические
2
2
дисперсии s X , sY .
1. Для проверки нулевой гипотезы H0 : M(X) = M(Y) при конкурирующей гипотезе H1 : M(X) ≠ M(Y)
вычисляют наблюдаемое значение t стати-
стики
T=
X B − YB
(n1 − 1)S X2 + (n2 − 1)SY2
n1n2 (n1 + n2 − 2)
,
n1 + n2
(2.6.2)
где S X2 , S Y2 – исправленные выборочные дисперсии, являющейся случайной
величиной, имеющей р а с п р е д е л е н и е С т ь ю д е н т а (t – распредлениее) с числом степеней свободы k1 = n1 + n2 – 2, т.к. на величины X B и YB
наложены два условия M( X B ) = M( YB ), σ( X B ) = σ( YB ),. Затем по табл. 8 Приложения (Критические точки распределения Стьюдента) для заданного уровня значимости α (находящегося в верхней строке таблицы) и числа степеней
174
свободы k = n1 + n2 – 2 ищут критическую точку t0(α; k); являющуюся правой
границей двухсторонней критической области. Если наблюдаемое значение t
удовлетворяет условию |t| > t0(α; k), то гипотезу H0 отвергают; если |t| < t0(α;
k), то нет оснований отвергать гипотезу Н0.
2. В случае конкурирующей гипотезы H1 : M(X) > M(Y) критическую
точку t0 (α; k) ищут по заданному значению α (находящемуся в нижней строке табл. 8) и числу степеней свободы k = n1 + n2 – 1. Если наблюдаемое значение t > t0 (α; k), то гипотезу Н0 отвергают. Если t < t0(α; k), то нет оснований отвергать гипотезу H0.
3. При конкурирующей гипотезе H1 : M(X) < M(Y) критическая точка t 0∗
находится из равенства t 0∗ = – t0(α; k), где величина t0(α; k) ищется по значени∗
ям α и k по схеме п.2. Если наблюдаемое значение t < t 0 , то гипотезу H0 от∗
вергают. Если t > t 0 , то нет оснований отвергать гипотезу H0.
Примечание 1. Если объемы выборок малы (n1 < 30, n2 < 30), то по
этим выборкам нельзя получить достаточно точные оценки генеральных дисперсий. При отсутствии уверенности (вытекающей из содержания задачи) в
2
2
истинности равенства σ X = σ Y , необходимо проверить гипотезу о равенстве
2
2
генеральных дисперсий при помощи критерия F. Если σ X ≠ σ Y
или
если гипотеза
2
« σ X2 = σ Y » отклоняется при ее проверке с помощью критерия F, то вместо
(2.6.2) используют статистику
Т=
X B − YB
1 2 1 2
S X + SY
n1
n2
.
Примечание 2. Случайная величина Т не очень чувствительна к условию нормальности распределения величин X и Y. Ее можно применять и в
случае, когда статистические распределения обеих выборок имеют по одной
175
вершине и достаточно симметричны, т.е. похожи на график функции f(x)
нормального распределения.
Пример 2.6.6. Из двух нормальных генеральных совокупностей X и Y
извлечены независимые выборки объема n1 = 7, n2 = 9 соответственно, по которым вычислены эмпирические средние и исправленные
дисперсии:
2
2
x = 5,4 ; y = 4,9 ; s X = 0,75; sY = 0,45. При уровне значимости α = 0,01 прове-
рить гипотезу H0 : M(X) =M(Y) при конкурирующей гипотезе H1 : M(X) ≠ M(Y).
Р е ш е н и е. Исправленные эмпирические дисперсии различаются,
однако в связи с малостью чисел n1 и n2 нельзя сделать заключения об оцен~
ках генеральных дисперсий. Проверим гипотезу H 0 : σ X2 = σ Y2 при помощи кри2
2
терия F. Имеем f = 0,75 0,45 = 1,67. Поскольку s X > sY , примем следующую
~
конкурирующую гипотезу H 1 : σ X2 > σ Y2 . По значениям величин α = 0,01; k1 = 7
– 1 = 6, k2 = 9 – 1 = 8 из табл. 9 Приложения находим критическую точку
f0(0,01; 6; 8) = 6,37. Поскольку f < f0 (1,67 < 6,37), нет оснований для отклоне~
ния гипотезы H 0 : σ X2 = σ Y2 . Учитывая теперь равенство генеральных дисперсий, переходим к рассмотрению гипотезы H0 : M(X) =M(Y). Для нахождения
наблюдаемого значения t величины T, подставим в (2.6.2) вместо X B , YB ,
S X2 , S Y2 данные значения x , y ,
t=
s X2 , sY2 , получим
5,4 − 4,9
7 ⋅ 9 ⋅ (7 + 9 − 2)
= 1,34.
7+9
6 ⋅ 0,75 + 8 ⋅ 0,45
Согласно п.1 для двусторонней критической области по значениям α =
0,01 и k = n1 + n2 – 2 = 7 + 9 – 2 = 14 находим критическую точку t0(α; k) =
t0(0,01; 14) = 2,98. Поскольку t < t0 (1,34 < 2,98), то нет оснований отвергать
нулевую гипотезу H0 о равенстве генеральных средних M(X) =M(Y). Различие
x и y незначимо (случайно).
176
2.6.5. Сравнение генеральных дисперсий нескольких нормальных
совокупностей. Критерий Кочрена
Пусть из нормально распределенных генеральных совокупностей X1,
X2, …, Xl (l ≥ 2) произведено l независимых простых выборок о д и н а к о в ог о о б ъ е м a n(n ≥ 2), по которым вычислены исправленные эмпирические
дисперсии s12 , s 22 ,..., sl2 . При заданным уровне значимости α необходимо проверить нулевую гипотезу о равенстве генеральных дисперсий H0 : D(X1) = D(X2)
= … = D(Xl). Для проверки гипотезы H0 используется случайная величина
(ст а т и с т и к а к р и т е р и я К о ч р е н а)
2
S max
С= 2
,
S1 + S 22 + ... + S l2
(2.6.3)
2
где S max
– максимальная исправленная выборочная дисперсия. Каждая из вы-
борочных дисперсий (являющихся случайными величинами) S i2 (i = 1, …, l)
имеет k = n – 1 степеней свободы, т.к. необходимо выполнение условий
( )
M S i2 = D ( X i ) (i = 1, …, l).
По заданным значениям уровня значимости α, а также k = n – 1 и l при
помощи табл. 10 Приложения (Критические точки распределения Кочрена)
находят критическую точку с0(α; k, l). Затем по формуле (2.6.3) вычисляют
наблюдаемое значение с случайной величины С. Если с > с0, то гипотезу H0
отклоняют. Если с < с0, то нет оснований отклонять гипотезу H0. В случае
справедливости нулевой гипотезы, в к а ч е с т в е о ц е н к и г е н е р а л ь
ной
дисперсии каждой совокупности берут сред
нее арифметическое всех исправленных эмпириче
с к и х д и с п е р с и й.
Пример 2.6.7. Дано l = 5 независимых выборок одинакового объема n
= 37 из нормальных генеральных совокупностей. Эмпирические дисперсии s2
177
равны: 0,31; 0,39; 0,28; 0,37; 0,38. При уровне значимости α = 0,01 проверить
гипотезу о равенстве генеральных дисперсий.
Р е ш е н и е. Наблюдаемое значение статистики равно, согласно (2.6.3):
с=
0,39
= 0,225,
0,31 + 0,39 + 0,28 + 0,37 + 0,38
2
= 0,39. По значениям α = 0,01; k = 37 – 1 = 36; l = 5 при помощи табл.
где s max
10 Приложения находим с0 (0,01; 36; 5) = 0,3351. Т.к. с < с0 (0,225 < 0,3351),
то нет оснований отклонять гипотезу Н0, т.е. различие эмпирических дисперсий незначимо (случайно). Оценка генеральной дисперсии:
σ2 =
1
(0,31 + 0,39 + 0,28 + 0,37 + 0,38) = 0,35.
5
2.6.6. Критерий W Вилкоксона (или Манна – Уитни)
Данный критерий применяется для проверки г и п о т е з ы о п р и н а д
лежности двух независимых выборок к одной и той
ж е г е н е р а л ь н о й с о в о к у п н о с т и. Нулевая гипотеза H0 : F1(x) ≡
F2(y) (при любых x = y) состоит в равенстве неизвестных функций распределения непрерывных случайных величин (каких-либо предположений о виде
распределений X и Y не делается) и проверяется при помощи одной выборки
x1, x2, …, x n из X и одной выборки y1, y2, …, y n из Y. При выполнении равен1
2
ства F1 ≡ F2 полагают, что обе выборки извлечены из одной и той же генеральной совокупности. Далее предполагается, что n1< n2. Этого можно всегда
достичь перестановкой выборок местами.
1. В качестве конкурирующей гипотезы возьмем H1 : F1(x) ≠ F2(y) (при
любых x = y). Для проверки нулевой гипотезы при заданном уровне значимости α (если n1 ≤ 25, n2 ≤ 25) располагают варианты обеих выборок в возрастающем порядке в одном и том же общем вариационном ряде, а затем находят
в этом ряде сумму порядковых номеров w всех вариант п е р в о й в ы б о р к
178
и; эта сумма и является наблюдаемым значением с т а т и с т и к и W к р
и т е р и я В и л к о к с о н а (М а н н а – У и т н и). Далее по табл. 11 Приложения (Критические точки распределения W) ищут:
1) нижнюю критическую точку wН(Q, n1, n2,), где Q = α /2;
2) верхнюю критическую точку wB = (n1 + n2+ 1)n1 – wH. Если wH < w <
wB, то нет оснований отклонять гипотезу H0. Если w < wH или w > wВ, то гипотезу H0 отклоняют.
Если конкурирующая гипотеза имеет вид: 1) H1: F1(x) < F2(y) для x = y,
либо 2) H1: F1(x) > F2(y) для x = y, то:
1) верхнюю критическую точку находят по формуле wB(Q, n1, n2,) = (n1
+ n2+ 1)n1 – wH (Q, n1, n2,), где Q = α; при w < wB нет оснований отклонять нулевую гипотезу; при w > wB нулевую гипотезу отклоняют.
2) находят wH(Q1, n1, n2,), где Q = α; при w > wH нет оснований отклонять нулевую гипотезу; при w < wH нулевую гипотезу отклоняют.
Если в какой-либо одной выборке имеется несколько одинаковых вариант, то в общем вариационном ряде их нумеруют как разные варианты. При
совпадении вариант разных выборок таким вариантам приписывают одинаковый номер, равный среднему арифметическому номеров (до совпадения)
этих вариант в общем вариационном ряде.
2. Если объем хотя бы одной выборки больше 25, то при конкурирующей гипотезы H1: F1(x) ≠ F2(y) нижняя критическая точка wH (Q, n1, n2,) равна
ц е л о й ч а с т и числа:
(n1 + n2 + 1)n1 − 1
n n (n + n2 + 1)
− z0 1 2 1
,
2
12
(2.6.4)
где Q = α /2, z0 находят по таблице значений функции Лапласа Ф(х) (табл. 2
1
Приложения) и равенства Ф ( z0 ) = (1 − α ) . Далее проверка нулевой гипотезы
2
проводится аналогично вышеизложенному.
179
Примечание. Целой частью [a] числа a называется наибольшее целое
число, не превосходящее a. Например, [4,7] = 4; [–3,1] = –4. Дробная часть
{a} числа a есть разность {a} = a – [a]. Причем 0 < {a} < 1.
Если конкурирующая гипотеза в условиях п. 2 имеет вид: 1) H1 : F1(x) <
F2(y) (x = y), либо 2) H1 : F1(x) > F2(y) (x = y), то находят нижнюю критическую точку wH(Q, n1, n2,) по формуле (2.6.4), где Q = α; z0 находят по таблице
значений функции Лапласа Ф(х) (табл. 2 Приложения) из равенства
Ф ( z0 ) =
1
(1 − 2α ) ; далее – аналогично п.1.
2
Пример 2.6.8. Даны две выборки из генеральных совокупностей X и Y с
с объемами n1 = 6, n2 = 7 (n1 < n2):
xi
1
2
2
4
7
8
-
yi
5
6
9
10
11
13
15
При уровне значимости α = 0,1 проверить гипотезу H0 : F1(x) = F2(y) при
конкурирующей гипотезе H1 : F1(x) ≠ F2(y) .
Р е ш е н и е. Расположим варианты обеих выборок в возрастающем
порядке в виде одного ряда (варианты xi подчеркнуты):
номера
вариант
1
2
3
4
5
6
7
8
9
10 11 12 13
Варианты
1
2
2
4
5
6
7
8
9
10 11 13 15
Сумма порядковых номеров подчеркнутых вариант первой выборки
рана w = 1 + 2 + 3 + 4 + 7 + 8 = 25. По значениям Q = α /2 = 0,05; n1 = 6; n2 = 7
при помощи табл. 11 Приложения находим: wH(0,05; 6; 7) = 30. Верхняя критическая точка: wB = (n1 + n2+ 1)n1 – wH = (6 + 7 + 1) · 6 – 30 = 54. Т.к. w < wH
(25 < 30), то гипотезу H0 отклоняем, т.е. выборки не принадлежат одной и той
же генеральной совокупности.
180
2.6.7. Критерий согласия хи-квадрат Пирсона
Критерии согласия служат для проверки гипотез о том, что неизвестный закон распределения случайной величины X имеет определенный вид
F0(x). Одним из таких, наиболее часто используемых критериев, является
к р и т е р и й х и-к в а д р а т (χ2) П и р с о н а, позволяющий, а частности,
проверить гипотезу о нормальном виде закона распределения. Критерий
Пирсона применим и для других гипотетических распределений как непрерывных, так и дискретных случайных величин.
1. Проверка гипотезы о нормальности распределения непрерывной
случайной величины при помощи критерия Пирсона. Пусть эмпирическое распределение непрерывной случайной величины X задано в виде конечного множества непересекающихся промежутков Λi (i = 1, …, r), обычно
одинаковой длины, и соответствующих им сумм mi частот nj вариант выборки xj (j = 1, 2, …, n), попавших в эти промежутки (т.е. mi равно числу вариант
в промежутке Λi):
Λi
Λ1=[b0, b1]
Λ2 =[b1, b2]
…..
Λr =[br-1, br]
mi
m1
m2
…..
mr
Примечание. Частоты вариант, попавших на границы b1, b2, …, br-1
промежутков Λi, приписываются пополам каждому из соседних промежутков
(при этом возможны дробные значения суммарных частот mi).
Объем выборки равен m1 + m2 + … + mr = n. Для того чтобы при помощи критерия Пирсона, при заданном уровне значимости α, проверить нулевую гипотезу H0 о нормальности распределения генеральной совокупности,
следует:
1) Найти середины ci всех промежутков Λi:
181
сi =
1
(bi −1 + bi ) (i= 1, 2, …, r)
2
и записать последовательность вариант ci вместе с их частотами, которые полагают равными mi:
с1 с2
... сr
m1 m2 ... mr
2) Для вариационного ряда сi (i = 1, 2, …, r), найти эмпирическое среднее с и эмпирическое среднее квадратическое отклонение σ (с) =
D(c) , тогда
для исходного вариационного ряда xj приближенно x ≈ c ; σ ( x ) ≈ σ (c) .
3) Найти теоретические вероятности pi = Ф( zi ) − Ф( zi −1 ) (i = 1, …, r), попадания случайной величины X в промежутки Λi при условии принятия гипотезы о нормальности распределения, где Ф(z) функция Лапласа (см. табл. 2
Приложения);
zj =
(b
j
−c)
σ (c) , j = 0, 1, 2, …, r; при этом наименьшее значе-
ние zj (т.е. z0) полагают равным – ∞, а наибольшее (т.е. zr) полагают равным +
∞ так, что
p1 = P(X < b1) = Ф(z1) – Ф(-∞) = Ф(z1) + 0,5;
pr = P(X > br-1) = Ф(+∞) – Ф(zr-1) = 0,5 – Ф(zr-1),
при этом
r
∑p
i =1
= 1.
i
4) Вычислить теоретические частоты mi′ (т.е. математические ожидания
частот) mi′ = n · pi, где n – объем выборки.
5) Найти наблюдаемое значение χ~ 2 хи-квадрат статистики Пирсона по
формуле
r
r
(
mi − mt′ )
mi2
2
~
χ =∑
≡∑
− n,
mi′
i =1
i =1 mi′
2
где
∑ m =∑ m′ =n .
i
i
i
i
182
(2.6.5)
6) По табл. 7 Приложения по заданному значению α и числу степеней
свободы k = r – 3 найти критическую точку χ~02 (α, k) правосторонней критической области. Если χ~ 2 > χ~02 , то нулевую гипотезу отклоняют. Если
χ~ 2 < χ~02 , то нет оснований отклонять гипотезу.
Примечание 1. Объем выборки должен быть достаточно большим
(n ≥ 50), а отдельные частоты mi должны удовлетворять неравенствам mi ≥ 5.
Промежутки, для которых mi < 5 следует укрупнять, объединяя их с соседними промежутками, складывая при этом частоты вариант. Число степеней
свободы находится по формуле k = r – 3, где в качестве r берется окончательное число промежутков, получившихся в результате объединения.
Примечание 2. Т.к. объем выборки достаточно велик (n ≥ 50), различием эмпирических дисперсий D и s2 пренебрегается, т.е. D ≈ s2.
Пример 2.6.9. При уровне значимости α = 0,05; используя критерий
Пирсона, проверить гипотезу о нормальности распределения непрерывной
случайной величины Х. Эмпирическое распределение выборки из Х объема
n = 100 задано в виде промежутков вариант и их суммарных частот mi в таблице:
Номер
Промежуток
Суммарная частота
промежутка
oт bi-1
до bi
mi
1
–5
0
6
2
0
5
7
3
5
10
16
4
10
15
43
5
15
20
17
6
20
25
6
7
25
30
5
183
Р е ш е н и е. 1) Найдем середины промежутков сi = (bi −1 + bi ), напри1
2
мер, с1 = (− 5 + 0) = −2,5 и запишем варианты сi с их частотами mi:
1
2
ci
–2,5
2,5
7,5
12,5
17,5
22,5
27,5
mi
6
7
16
43
17
6
5
2)
∑m
i
= n = 100; с =
i
1
∑ ci mi = 12,30;
n i
σ 2 (с ) =
1
(ci − c ) 2 mi = 49,50;
∑
n i
σ (с) = 49,50 = 7,00. Для вариант xj принимаем приближенно:
x ≈ c = 12,30; σ ( x) ≈ σ (c) = 7,00.
(b
3) Находим zj =
j
−c)
σ (c) :
z1 = (0 − 12,30 ) 7,00 = −1,76 ; z2 = – 1,04; z3 = – 0,33; z4 = 0,38; z5 = 1,1; z6 = 1,81.
Вероятности рi находим по табл. 2 Приложения:
р1 = Ф(z1) – Ф(–∞) = Ф(–1,76) + 0,5 = – 0,4608 + 0,5 = 0,0392;
р2 = – 0,3508 + 0,4608 = 0,11; р3= 0,2215; р4 = 0,2773; р5 = 0,2163;
р6 = 0,1006; р7 = Ф(+ ∞) – Ф(1,81) = 0,5 – 0,4649 = 0,0351.
Проверка:
∑р
= 1.
i
i
4) Теоретические частоты mi′ = npi :
m1′ = 100 ⋅ 0,0392 = 3,92;
m′2 = 11;
m3′ = 22,15;
m4′ = 27,73;
m5′ = 21,63;
m6′ = 10,06;
m7′ = 3,51 .
Проверка:
∑ m ′ = 100.
i
i
5) Наблюдаемое значение статистики Пирсона получим, подставляя в
(2.6.5.) значения mi и mi′ :
χ~ 2 = ∑
i
(mi − mi′ )2
mi′
184
= 15,75.
2
m
Проверка: χ~ 2 = ∑ i − n = 15,75.
i
mi′
6) По табл. 7 Приложения по значению α = 0,05 и k = r – 3 = 7 – 3 = 4
получим критическую точку χ~02 (0,05;4) = 9,5. Поскольку χ~ 2 > χ~02 (15,75 > 9,5), то
гипотезу о нормальном распределении генеральной совокупности отвергаем.
Различие эмпирических и теоретических частот здесь значимо (т.е. не может
быть объяснено случайностью).
2. Общая схема применения критерия Пирсона к непрерывным
случайным величинам.
Пусть по выборке из генеральной совокупности Х требуется с помощью критерия Пирсона при заданном уровне значимости α проверить правильность гипотезы Н0 : F0(x) ≡ F(x; β1, β2, …,βs), где F0(x) – функция распределения непрерывной случайной величины Х; β1, β2, …,βs – неизвестные параметры гипотетического распределения F0(x). Например, если F0(x) – нормальное распределение, то имеются два неизвестных параметра (а и σ). Если
F0(x) – показательное распределение, то неизвестен один параметр λ и т.д.
Для проверки гипотезы Н0 вначале по выборке объема n из Х при помощи метода наибольшего правдоподобия находят значения оценок параметров β1* , β 2∗ , ..., β s∗ и полагают, что F0(x) = F(x; β1* , β 2∗ , ..., β s∗ ). Затем область
возможных значений величины Х разбивают на конечное число непересекающихся промежутков Λi = [bi-1, bi] (i = 1,2,…,r) любой (не обязательно одинаковой) длины. Далее находят вероятности рi = P(bi-1≤ X ≤bi) = F0(bi) – F0(bi-1) и
теоретические частоты mi′ = npi (число выборочных значений в Λi равно mi),
по которым вычисляют наблюдаемое значение χ~ 2 статистики Пирсона по
формуле (2.6.5). Если известна плотность распределения f0(x) ≡ f(x;
β1* , β 2∗ , ..., β s∗ ), то вероятности находят приближенно по формуле рi = f0(ci) (bi –
bi-1). Число степеней свободы ищется по формуле k = r – s – 1, где r – число
промежутков Λi, s – число оцениваемых параметров функции распределения.
По табл. 7 Приложения по заданным значениям α и k находят критическую
185
точку χ~02 . Если χ~ 2 > χ~02 ( χ~ 2 < χ~02 ), то нулевую гипотезу Н0 отклоняют (принимают).
2а) Проверка с помощью критерия Пирсона гипотезы о равномерном распределении непрерывной случайной величины.
Пусть эмпирическое распределение непрерывной случайной величины
Х (генеральной совокупности) задано в виде конечного множества r промежутков
Λi = [bi-1, bi] (i = 1,2,…, r) и соответствующих им суммарных частот
mi вариант так, что
∑m
i
= n объем выборки. Пусть требуется при заданном
i
уровне значимости α проверить гипотезу о том, что случайная величина X
распределена равномерно.
Для этого следует:
1) Середины ci всех промежутков Λi принять в качестве новых вариант
с частотами mi. Для вариационного ряда ci вычислить эмпирическое среднее
с и эмпирическое среднее квадратическое отклонение σ (c).
2) Найти числовые оценки параметров a и b, являющихся концами
промежутка [a, b], в котором наблюдаются возможные значения величины X,
по формулам а∗ = x − σ (c) ⋅ 3 , b∗ = x + σ (c ) ⋅ 3
3) Записать плотность вероятности предполагаемого равномерного распределения (приняв а = а‫٭‬, b = b‫٭‬,):
f ( x) =
1
≡ C ∗.
b − a∗
∗
4) Вычислить теоретические частоты mi′ :
m1′ = n ⋅ p1 = n ⋅ C ∗ ⋅ (b1 − a ∗ );
m2′ = n ⋅ p 2 = n ⋅ C ∗ ⋅ (b2 − b1 );
…;
m ′r = n ⋅ p r = n ⋅ C ∗ ⋅ (b ∗ − br −1 ).
5) Найти наблюдаемое значение статистики Пирсона по формуле
(2.6.5).
6) При заданном α и числе степеней свободы k = r – 3 по табл. 7 Приложениея принять гипотезу, либо отклонить его (аналогично п. 1).
186
2б) Проверка с помощью критерия Пирсона гипотезы о показательном распределении непрерывной случайной величины.
Пусть, аналогично п. 2а, эмпирическое распределение непрерывной
случайной величины Х (генеральной совокупности) задано в виде множества
r промежутков Λi и соответствующих суммарных частот mi вариант xj; и
пусть требуется при заданном уровне значимости α проверить гипотезу о
том, что величина X распределена по показательному закону.
Для этого следует:
1) Ввести варианты ci с частотами mi (аналогично п. 2а) и вычислить
эмпирическое среднее с .
2) В качестве числовой оценки параметра λ показательного распределения взять λ∗ = 1 с .
3) Найти вероятность попадания величины Х в промежутки Λi; при
этом всегда b0 = 0, т.е. Λ1 = [0, b1]:
∗
−λ b
pi = P(bi −1 ≤ X ≤ bi ) = F (bi ) − F (bi −1 ) = е − λ b − e − λ b ; p1 = е 0 − e 1 , …
∗
i −1
∗
i
∗
Здесь F ( x) = 1 − е− λ x (х ≥ 0).
4) Вычислить теоретические суммарные частоты mi′ = n ⋅ pi .
5) Вычислить наблюдаемое значение статистики Пирсона по формуле
(2.6.5).
6) При заданном α и числе степеней свободы k = r – 2 по табл. 7 Приложения принять гипотезу, либо отклонить ее (аналогично п. 1).
3. Применение критерия Пирсона к дискретным случайным величинам. Схема применения критерия Пирсона к дискретным случайным величинам аналогична общей схеме его применения к непрерывным случайным величинам (см.п. 2).
Пусть эмпирическое распределение дискретной случайной величины Х
задано в виде последовательности вариант выборки и соответствующих им
частот (n1 + n2 + …+ nr = n – объем выборки):
187
xi
X1
x2
…
xr
ni
n1
n2
…
nr
Для того чтобы при помощи критерия Пирсона при заданном уровне
значимости α проверить нулевую гипотезу о заданном виде закона распределения генеральной совокупности X, следует:
1) По данной выборке найти методом моментов или методом наибольшего правдоподобия значения оценок параметров, от которых зависит заданный закон распределения.
2) Найти вероятности pi того, что случайной величина X примет значения x1, x2, …, xr, а также вычислить теоретические частоты ni′ = n ⋅ pi (i = 1, 2,
…, r).
3) Найти число степеней свободы по формуле k = r – s – 1, где r – число
(групп) разных вариант выборки, s – число оцениваемых параметров закона
распределения.
Примечание. При этом малые частоты (ni < 5) надо предварительно
объединить в группы (сложить). Складываются также и соответствующие
теоретические частоты ni′ . В каждой группе должно быть не менее 5 вариант.
Варианты с объединенными частотами принимают за одну группу при подсчете числа степеней свободы.
4) Найти наблюдаемое значение χ~ 2 статистики Пирсона по формуле
(2.6.5) для новых (объединенных) значений частот как эмпирических ni, так и
теоретических ni′ .
5) Аналогично п. 2 принять или отклонить нулевую гипотезу.
Пример 2.6.10. По данной выборке объема n = 200 из генеральной совокупности X:
xi
0
1
2
3
4
ni
119
51
23
4
3
188
требуется при уровне значимости α = 0,01 проверить гипотезу о том, что величина X распределена по закону Пуассона (см. пример 2.2.1).
Р е ш е н и е. 1) Закон распределения Пуассона
Ра ( Х = m) =
a m −a
e (m = 0, 1, …)
m!
зависит от одного параметра a, оценка которого по методу моментов имеет
вид
а∗ = x =
=
1
1
( x1 + x 2 + ... + xn ) = ∑ ni xi =
n
n i
1
(119 ⋅ 0 + 51 ⋅1 + 23 ⋅ 2 + 4 ⋅ 3 + 3 ⋅ 4) = 0,61.
200
2) Вычислим вероятности Pa(m), где a = 0,61; m = 0; 1; 2; 3; 4:
a 0 −a
e = e −0,61 = 0,5434 (0! = 1);
0!
p 0 = Pa (0) =
p 2 = 0,1011;
p3 = 0,0206;
p1 = Ра (1) =
a1 −a
e = 0,3315 ;
1!
p 4 = 0,0031.
Теоретические частоты ni′ = npi равны n0′ = 108,68 ; n1′ = 66,3 ; n′2 = 20,22 ;
n3′ = 4,12 ; n4′ = 0,62 . Объединим малые частоты: n~3 = n3 + n 4 = 7 ;
n~3 = n3′ + n ′4 = 4,74 .
3) Число степеней свободы k = r – s – 1 = 4 – 1 – 1 = 2, где r = 4 - число
групп вариант после объединения выборки, s = 1 - число оцениваемых параметров.
4) Наблюдаемое значение статистики Пирсона:
χ~ 2 =
(n0 − n0′ )2 (n1 − n1′ )2 (n2 − n′2 )2 (n~3 − n~3′ )2
n0′
+
n1′
+
n ′2
+
n3′
= 5,971.
5) По табл. 7 Приложения по значениям α = 0,01 и k = 2 находим критическую точку χ~02 . = 9,2. Т.к. χ~ 2 < χ~02 (5,971 < 9,2), то нет оснований отвергать
гипотезу о пуассоновском распределении величины Х.
3а) Проверка с помощью критерия Пирсона гипотезы о биномиальном распределении дискретной случайной величины. Произведено N
серий испытаний, по n независимых испытаний в каждой серии. Вероятность
189
p = P(A) появления события A в каждом испытании одна и та же. Для дискретной случайной величины Х – числа появлений события А в одной серии
получено эмпирическое распределение
xi
x1
x2
…
xr
ni
n1
n2
…
nr


 ∑ ni = N  ,
 i

где xi – число появлений (в порядке возрастания) события А в одной серии;
ni – число серий, в которых наблюдалось одно и тоже значение хi (в частности, наименьшее из хi может равняться нулю, а наибольшее хi – числу n. Для
того чтобы при помощи критерия Пирсона при заданном уровне значимости
α проверить нулевую гипотезу о биномиальном распределении величины Х,
следует:
1) Если вероятность p = P(A) неизвестна, то для ее оценки по выборке
следует принять, что р приближенно равно относительной частоте появления
А, которую можно найти как среднее арифметическое относительных частот
по всем N сериям испытаний.
2) По формуле Бернулли найти вероятности pi появления р о в н о хi
(i = 1, 2, …, r) событий А при n испытаниях, а также вычислить теоретические частоты ni′ = N ⋅ pi .
3) Если вероятность p задана, то число степеней свободы находится по
формуле k = r – 1, где r – число групп вариант после объединения малочисленных вариант. Если p оценена приближенно, то k = r – 2.
Далее – аналогично вышеизложенному.
2.6.8. Сравнение генеральных средних двух нормально распределенных случайных величин, дисперсии которых известны
Пусть из двух генеральных совокупностей Х и Y, распределенных нормально и имеющих известные генеральные дисперсии D(X), D(Y) (в общем
190
случае разные), извлечены независимые случайные выборки достаточно
больших объемов n1 > 30, n2 > 30 соответственно. И пусть требуется при заданном уровне значимости α и известных (вычисленных) эмпирических
средних x, y проверить нулевую гипотезу Н0 : M(X) = M(Y) или, что равносильно, M ( X B ) = M (YB ) о равенстве генеральных средних (математических
ожиданий) случайных величин X и Y при конкурирующей гипотезе:
1. Н1 : M(X) ≠ M(Y). Для этого следует найти наблюдаемое значение
статистики
X B − YB
Z=
D ( X B − YB )
=
X B − YB
D ( X ) D (Y )
+
n1
n2
,
равное
z=
x−y
D( X ) D(Y )
+
n1
n2
,
а затем по табл. 2 Приложения найти критическую точку z0 из уравнения
Ф( z0 ) =
1
(1 − α ). Если z < z 0 , то нет оснований отклонять нулевую гипотезу;
2
если же z > z 0 , то нулевую гипотезу отклоняют.
2. При конкурирующей гипотезе Н1 : M(X) > M(Y) критическую точку z0
1
2
находят из уравнения Ф( z0 ) = (1 − 2α ). Если z < z0 (z > z0), то нулевую гипотезу принимают (отклоняют).
3. При конкурирующей гипотезе Н1 : M(X) < M(Y) находят t0 из уравне1
2
ния Ф(t0 ) = (1 − 2α ). Критическая точка z0 = - t0. Если z > z0(z < z0), то нулевую
гипотезу принимают (отклоняют).
Примечание. Если величины X и Y не распределены нормально, то для
проверки нулевой гипотезы Н0 : M(X) = M(Y) при соответствующей конкурирующей гипотезе может использоваться приближенное наблюдаемое значение z ′ статистики Z:
191
z′ =
x−y
D1 D2
+
n1 n 2
,
где n1 > 30, n2 > 30 – объемы выборок; D1, D2 – эмпирические дисперсии для
первой и второй выборки соответственно.
Пример 2.6.11. Из генеральных совокупностей X и Y с дисперсиями
D(X)= 90 и D(Y)= 120 извлечены независимые выборки с объемами n1 = 45 и
n2 = 60 соответственно, для которых найдены эмпирические средние x = 135,
y = 140. Требуется проверить нулевую гипотезу Н0 : M(X) = M(Y) при уровне
значимости α = 0,01 и конкурирующей гипотезе Н1 : M(X) ≠ M(Y).
Р е ш е н и е. Наблюдаемое значение статистики Z равно
z=
135 − 140
= −2,5.
90 120
+
45 60
1
2
Из уравнения Ф( z0 ) = (1 − α ) = 0,495 по табл. 2 Приложения находим z0 =
2,58. Т.к. z = − 2,5 < z 0 = 2,58, то нет оснований отклонять нулевую гипотезу,
т.е. эмпирические средние различаются незначимо (случайно).
2.6.9. Проверка гипотезы о некоррелированности двух случайных
величин.
Пусть из двумерной нормально распределенной генеральной совокупности (X,Y) извлечена связанная выборка объема n и по ней найден эмпирический коэффициент корреляции r ≠ 0. Требуется при заданном уровне значимости α проверить нулевую гипотезу Н0 : rXY = 0 о некоррелированности
величин X,Y, при конкурирующей гипотезе Н1 : rXY ≠ 0. Если гипотеза Н0 принимается, то X,Y некоррелированы, т.е. коэффициент r незначимо (случайно)
отличается от нуля.
192
Для проверки (при заданном α) гипотезы H0 при конкурирующей гипотезе H1 следует вычислить наблюдаемое значение случайной величины (статистики) Т, имеющей распределение Стьюдента с k = n – 2 степенями свободы:
t=
r n−2
1− r2
(2.6.6)
.
Затем по заданным α и k = n – 2 найти критическую точку t0 (α; k) для
двусторонней критической области по табл. 8 Приложения. Тогда, если |t| <
t0, то нет оснований отклонять нулевую гипотезу. Если же |t| > t0, то нулевую
гипотезу отклоняют.
Пример 2.6.12. Предполагая, что в условиях примера 2.5.1 выборка
объема n = 50 осуществлена из нормальной двумерной совокупности, проверить при уровне значимости α нулевую гипотезу Н0 : rXY = 0 при конкурирующей гипотезе Н1 : rXY ≠ 0.
Р е ш е н и е. Найденное в примере 2.5.1, значение r = 0,33. Наблюдаемое значение статистики Т равно
t=
0,33 ⋅ 50 − 2
1 − 0,33 2
= 2,42.
По значениям α = 0,05 и k = n – 2 = 50 – 2 = 48 по табл. 8 Приложения
можно установить лишь, что 2,00 < t0 (0,05; 48) < 2,02 т.к. 40 < 48 < 60. Поскольку t > t0, нулевую гипотезу отклоняем. Следовательно, отличие коэффициента r от нуля значимо (неслучайно) и величины X и Y коррелированны.
2.6.10. Проверка гипотезы о среднем значении нормально распределенной генеральной совокупности при известной дисперсии
Нулевая гипотеза Н0 : a = a0 о равенстве параметра a нормального распределения (с известной дисперсией σ2) предполагаемому значению a0 про-
193
веряется по простой выборке объема n из нормальной генеральной совокупности с помощью статистики
U=
XB − a
σ
n,
где X B – выборочное среднее, имеющей нормальное распределение, для которого, при справедливости нулевой гипотезы, M(U) = 0, σ(U) = 1.
1. При альтернативной гипотезе Н1 : a ≠ a0 вычисляется эмпирическое
значение статистики
u=
x − a0
σ
n,
где x – эмпирическое среднее; для заданного уровня значимости α по табл. 2
Приложения находится критическая точка u0 двусторонней критической об1
2
ласти из уравнения Ф(u0 ) = (1 − α ). Гипотеза H0 принимается (соответственно, отклоняется), если u < u 0 (соответственно, u > u 0 ).
2. При альтернативной гипотезе Н1 : a > a0 критическая точка u0 правосторонней критической области находится по табл.2 Приложения из урав1
2
нения Ф(u0 ) = (1 − 2α ). Гипотеза H0 принимается (отклоняется), если u < u0(u
> u0).
3. При альтернативной гипотезе Н1 : a < a0 критическая точка u 0∗ = - u0
1
2
левосторонней критической области находится из уравнения Ф( u0 ) = (1 − 2α ).
∗
∗
Если u0 > u 0 (u < u 0 ), то гипотеза принимается (отклоняется).
Пример 2.6.13. Требуется при уровне значимости α = 0,01 проверить
гипотезу Н0 : a = a0 = 48 (известно, что σ = 3) по результатам выборки объема
n = 53, для которой x = 47, при конкурирующих гипотезах, приведенных в
пп. 1,2,3.
Р е ш е н и е. Эмпирическое значение статистики равно
u=
47 − 48
53 = −2,43.
3
194
1
2
1) Н1 : a ≠ 48. Из уравнения Ф(u 0 ) = (1 − 0,01) = 0,495 по табл. 2 Приложения находим u0 = 2,58. Т.к. u < u 0 ( − 2,43 < 2,58 ) , гипотезу Н0 принимаем
(здесь значения x и а0 различаются незначимо).
1
2
2) Н1 : a > 48. Из уравнения Ф(u 0 ) = (1 − 2 ⋅ 0,01) = 0,49 находим u0 = 2,33.
Т.к. u < u0 (–2,43 < 2,33), гипотезу Н0 принимаем.
3) Н1 : a < 48. Согласно п.2 u0 = 2,33; следовательно, u 0∗ = – 2,33. Т.к.
u < u 0∗ (–2,43 < 2,33), гипотезу Н0 принимаем.
Примечание. Наименьший объем выборки, при котором с вероятностью γ = 1 – α (α – уровень значимости) выполняется условие x − a0 < δ (δ > 0
– заданное число), находится по формуле n = u0 σ
2
2
δ2
, где u0 ищется из урав-
γ
нения Ф(u0 ) = .
2
2.6.11. Проверка гипотезы о среднем значении нормально распределенной генеральной совокупности при неизвестной дисперсии
Нулевая гипотеза Н0 : a = a0 о равенстве параметра a нормального распределения (с неизвестной дисперсией σ2) предполагаемому значению a0
проверяется по простой выборке объема n из нормальной генеральной совокупности с помощью статистики
T=
X B − a0
S B2
n,
где S B2 – исправленная выборочная дисперсия, имеющей распределение
Стьюдента с k = n – 1 степенями свободы.
195
1. При альтернативной гипотезе Н1 : a ≠ a0 вычисляется эмпирическое
значение статистики
t=
x − a0
s2
n,
где x – эмпирическое среднее, s2 – эмпирическая дисперсия; по заданному
уровню значимости α, находящемуся в верхней строке табл. 8 Приложения
(Критические точки распределения Стьюдента) и числу k = n – 1 находится
критическая точка t0(α,k) двусторонней критической области. Гипотеза Н0
принимается (соответственно, отклоняется), если |t| < t0 (соответственно, |t| >
t0).
2. При альтернативной гипотезе Н1 : a > а0 по заданному уровню значимости α, находящемуся в нижней строке табл. 8 Приложения и числу k = n
– 1 ищется критическая точка t0(α,k) правосторонней критической области.
Гипотеза Н0 принимается (отклоняется), если t < t0 ( t > t0).
3. При альтернативной гипотезе Н1 : a < а0 по заданному уровню значимости α, находящемуся в нижней строке табл. 8 Приложения и числу k
ищется критическая точка t0∗ (α , k ) = −t0 (α , k ) [здесь t0(α,k) ищется согласно п.
2] левосторонней критической области. Гипотеза
Н0 принимается (от-
клоняется), если t > – t0 (t < – t0).
Пример 2.6.14. Требуется при уровне значимости α проверить гипотезу
Н0 : a = a0 = 20 при альтернативной гипотезе Н1 : a ≠ 20. По выборке объема n
= 15 вычислены x =21,50 и s = s 2 = 1,35 .
Р е ш е н и е. Эмпирическое значение статистики равно
t=
21,50 − 20
15 = 4,30.
1,35
Критическая точка t0 (0,01; 14) = 2,98 (по табл. 8 Приложения). Т.к. t >
t0 (4,30 > 2,98), гипотеза Н0 отклоняется.
196
Примечание. Минимальный объем выборки, при котором с вероятностью γ = 1 – α (α – уровень значимости) выполняется условие x − a0 < δ (δ > 0
2 2
t s
– задано), находится по формуле n = 0
δ2
, где t0 находится согласно п. 1.
2.6.12. Проверка гипотезы о равенстве средних значений двух нормальных генеральных совокупностей с неизвестными дисперсиями при
помощи зависимых выборок
Пусть из двух нормально распределенных генеральных совокупностей
X и Y с неизвестными дисперсиями извлечены простые выборки xi и yi (i = 1,
2, …, n) одинакового объема, о которых известно, что их варианты с
одинаковыми номерами попарно зависимы. Нулевая гипотеза Н0 : M(X) =
M(Y) о равенстве генеральных средних значений этих совокупностей при
альтернативной гипотезе Н1 : M(X) ≠ M(Y) проверяется при помощи статистики Т, имеющей эмпирическое значение
t=
n ⋅ ∑δ i
i
nsδ
,
sδ =
2
 
1 
1
2
∑ δ i −  ∑ δ i   ,
n − 1  i
n  i  
где δ i = xi – yi (i = 1, 2, …, n). По табл. 8 Приложения (Критические точки
распределения Стьюдента) при заданном уровне значимости α, находящемуся в верхней строке таблицы, и числе степеней свободы k = n – 1 находится
критическая точка t0(α, k) двусторонней критической области. Гипотеза Н0
принимается (отклоняется), если |t| < t0 (|t| > t0).
Пример 2.6. 15. Требуется при помощи двух выборок одинакового
объема n = 6 с попарно зависимыми вариантами, извлеченных из нормальных
генеральных совокупностей с неизвестными дисперсиями:
197
xi
8
5
4
7
8
9
yi
7
6
4
8
7
8
при уровне значимости α = 0,02 проверить гипотезу о равенстве генеральных
средних для X и Y.
Р е ш е н и е. Здесь δ1 = x1 – y1 = 1, δ2 = – 1, δ3 = 0, δ4 = – 1, δ5 = 1, δ6 = 1;
1
1
δi = ;
∑
n i
6
∑δ
2
i
= 5 ; sδ =
i
1 
1 
 5 − ⋅ 1 = 0,98 ;
6 −1
6 
t=
6
= 0,42 . По табл. 8
6 ⋅ 0,98
при k = 6 – 1 = 5 находим t0 (0,02; 5) = 3,37. Т.к. t < t0 (0,43 < 3,37), гипотезу
принимаем. Здесь эмпирические средние x = 6,83 и y = 6,67 различаются
незначимо (случайно).
2.6.13. Проверка гипотезы о вероятности появления события в отдельном испытании при большом числе испытаний
Пусть m (0 ≤ m ≤ n) – число появлений события А в независимых испытаниях, в каждом из которых вероятность p = P(A) постоянна, но не
известна. Тогда нулевая гипотеза Н0 : p = p0 о равенстве неизвестной вероятности p предполагаемому значению p0 при заданном уровню значимости α
проверяется при помощи статистики T, распределенной при справедливости
гипотезы Н0 асимптотически (при n → ∞) нормально N(0; 1), эмпирические
значения которой вычисляются по формуле
t=
m

 − p0  n
m − np 0
n
 .
≡
np 0 (1 − p0 )
p0 (1 − p0 )
1. Для проверки гипотезы Н0 : p = p0 при альтернативной гипотезе Н1 :
p ≠ p0 вычисляют эмпирическое значение t статистики; по табл. 2 Приложения находят критическую точку t0 двусторонней критической области из
уравнения
198
1
Φ(t0) = (1 − α ). Гипотеза Н0 принимается (отклоняется), если |t| < t0 (|t| > t0).
2
2. При альтернативной гипотезе Н1: p > p0 критическую точку t0 право1
сторонней критической области находят из уравнения Ф(t0) = (1 − 2α ). Ги2
потеза Н0 принимается (отклоняется), если t < t0 (t > t0).
*
3. При альтернативной гипотезе Н1: p < p0 критическую точку t 0 = −t 0
1
левосторонней критической области находят из уравнения Ф(t0) = (1 − 2α ).
2
*
*
Гипотеза Н0 принимается (отклоняется), если t > t 0 (t < t 0 ).
Пример 2.6.16. В n = 144 независимых испытаниях событие А появилось 32 раза. При уровне значимости α = 0,02 проверить гипотезу Н0 : p = p0
= 0,25 при альтернативной гипотезе Н1 : p ≠ 0,25.
Р е ш е н и е. Относительная частота w( A) =
m 32
=
= 0,22 . Значение t
n 144
равно
t=
Из уравнения Ф(t0) =
32 − 144 ⋅ 0,25
= −0,77.
144 ⋅ 0,25 ⋅ (1 − 0,25)
1
(1 − 0,02) = 0,49 по табл. 2 Приложения находим
2
t0 = 2,33. Т.к. |t| < t0(|-0,77| < 2,33), по п. 1 гипотеза принимается. Здесь отличие относительной частоты w = 0,22 от предполагаемой вероятности p0 = 0,25
незначимо (случайно).
2.6.14. Критерий Бартлета
2
2
2
Гипотеза Н0 : σ 1 = σ 2 = ... = σ l о равенстве дисперсий l(l ≥ 2) нор-
мальных генеральных совокупностей X1, X2, …, Xl проверяется по результатам l простых независимых выборок из этих совокупностей xi1, xi2, …, xini (i =
1, 2, …, l), вообще говоря разных объемов ni (некоторые из объемов могут
199
совпадать), с помощью статистики В, эмпирические значения b которой вычисляются по формуле
l
ln10 

2
b=
( N − l ) lg s − ∑ (ni − 1) lg si2 ,

с 
i =1

1 ni
( xij − xi ) 2 – эмпирическая дисперсия
где ln10 = 2,3026; N = ∑ ni ; s =
∑
ni − 1 j =1
i =1
l
2
i
i-й выборки; xi =
1
ni
ni
∑x
j =1
ij
– эмпирическое среднее i-й выборки;
s2 =
c = 1+
1 l
( ni − 1) si2 ;
∑
N − l i =1
1  l 1
1 
 ∑

−
3(l − 1)  i =1 ni − 1 N − l 
(c > 1).
Статистика В при справедливости нулевой гипотезы распределена приближенно как χ2 с l – 1 степенями свободы при ni → ∞ (i = 1, 2, …, l). Уже при
небольших ni (все ni ≥ 4) аппроксимация достаточно хорошая.
Для выборок одинакового объема удобнее пользоваться критерием
Кочрена.
2
Критическая точка χ 0 (α ; l − 1) правосторонней критической области
находится по табл. 7 Приложения (Критические точки распределения χ2) по
уровню значимости α и числу степеней свободы k = l – 1. Гипотеза Н0 при2
2
нимается (отклоняется), если b < χ 0 (b > χ 0 ). В случае принятия гипотезы Н0
2
2
2
можно считать, что исправленные эмпирические дисперсии s1 , s 2 ,..., sl раз-
личаются незначимо (случайно). При этом в качестве оценки одинаковых ге2
неральных дисперсий берется s2, выражение которой через si приведено
выше.
Пример 2.6.17. По результатам четырех (l = 4) выборок объемами
n1 = 9, n2 = 11, n3 = 7, n4 = 5 (N = 32) вычислено значение статистики b = 1,63.
При α = 0,01 и k = l – 1 = 3 по табл. 7 Приложения находим χ 02 (0,01;3) = 11,3 .
200
Т.к. b < χ 02 (1,63 < 11,3), нет оснований отклонять гипотезу о равенстве дисперсий четырех нормальных совокупностей.
2.6.15. Проверка гипотезы о равенстве вероятностей двух биномиальных распределений
Пусть в результате независимых испытаний, произведенных в двух
биномиально распределенных генеральных совокупностях Х1 и Х2, событие А
появляется с неизвестной вероятностью p1 и p2 в каждом испытании соответственно. В первой и второй совокупности произведено n1 и n2 испытаний, в
результате которых событие А появилось m1 и m2 раз с относительными частотами w1 ( A) =
m
m1
, w2 ( A) = 2 .
n1
n2
При этом справедливы оценки p1 ≈ w1 (A), p2 ≈ w2 (A).
Нулевая гипотеза Н0 : p1 = p2 ≡ p о равенстве вероятностей p1 и p2 при
заданном уровне значимости α проверяется с помощью статистики Т [имеющей при справедливости нулевой гипотезы и достаточно больших n1 и n2
приближенно нормальное распределение N(0 ; 1)], эмпирические значения
которой вычисляются по формуле
t=
∗
где p =
m1 m2
−
n1 m2
(
)
1 1
p ∗ 1 − p ∗  + 
 n1 n2 
,
m1 + m2
– оценка вероятности p.
n1 + n2
1. Для проверки нулевой гипотезы Н0 при альтернативной гипотезе Н1 :
p1 ≠ p2 при заданном α по табл. 2 Приложения находят критическую точку t0
1
2
двусторонней критической области из уравнения Ф(t0 ) = (1 − α ) . Гипотеза
Н0 принимается (отклоняется), если |t| < t0 (|t| > t0). .
201
2. При альтернативной гипотезе Н1 : p1 > p2 находят критическую точку
1
2
t0 правосторонней критической области из уравнения Ф(t0 ) = (1 − 2α ) . Гипотеза Н0 принимается (отклоняется), если t < t0 (t > t0).
*
3. При альтернативной гипотезе Н1 : p1 < p2 критическая точка t 0 = −t 0
1
2
левосторонней критической области находится из уравнения Ф(t0 ) = (1 − 2α ).
*
*
Гипотеза Н0 принимается (отклоняется), если t > t 0 (t < t 0 ).
Пример 2.6.18. Два стрелка произвели по мишени соответственно n1 =
125 и n2 = 150 выстрелов, в результате которых произошло m1 = 10 и m2 = 15
промахов. При уровне значимости α = 0,025 проверить гипотезу Н0 : p1 = p2 =
p о равенстве неизвестных вероятностей промаха этих стрелков при альтер-
нативной гипотезе Н1 : p1 < p2 .
Р е ш е н и е. Эмпирическое значение статистики равно
10 15
−
125
150
t=
= −0,57.
10 + 15 
10 + 15  1
1 
+
1 −


125 + 150  125 + 150  125 150 
1
2
Из уравнения Ф(t 0 ) = (1 − 2 ⋅ 0,025) = 0,475 по табл. 2 Приложения нахо*
дим t0 = 1,96; t 0 = – 1, 96. Т.к. t > t 0* ( − 0,57 > − 1,96 ), гипотеза Н0 принимается.
Относительные частоты w1 = 0,08 и w2 = 0,1 различаются незначимо (случайно). Неизвестная вероятность p ≈ p ∗ =
10 + 15
= 0,091.
125 + 150
2.6.16. Проверка гипотезы о равенстве нулю генерального коэффициента ранговой корреляции Спирмена
1. Пусть объекты генеральной совокупности наделены одновременно
двумя признаками Х и Y, которые можно рассматривать как случайные величины. Для установления связи между величинами Х и Y из генеральной сово202
купности произведена простая выборка, состоящая из n объектов. В результате получается случайная выборка из n пар чисел (x1, y1), (x2, y2 ),…, (xn, yn),
относительно которой известно, что варианта xi в порядке убывания ее величины занимает Ai-е место, а варианта yi в порядке убывания занимает Bi-е место (i = 1, 2, …, n). Признаки Х и Y могут быть и качественными, т.е. такими,
которые нельзя измерить точно, но, сравнивая объекты по этим признакам,
их можно расположить в порядке убывания качества, т.е. присвоить каждому
объекту с номером i некоторые величины Ai и Bi, называемые рангами объектов по признакам Х и Y. Если объекты выборки уже расположены (пронумерованы) в порядке убывания величины X, то Аi = i(i = 1, 2, …, n), где i – порядковый номер объекта. Если затем расположить эти пронумерованные
объекты в порядке убывания величины Y, то получим порядковые номера
(ранги) Bi, где индекс i при B для удобства сравнения рангов будем попрежнему брать равным порядковому номеру объекта по признаку X. В результате получим две последовательности рангов:
Ai
1
2
…
n
Bi
B1
B2
...
Bn
.
Если, например, B2 = 4, то это означает, что по признаку X объект расположен на втором месте (i = 2), а по признаку Y – на четвертом (при этом
последовательность рангов B1, B2, …, Bn не обязательно возрастающая, и в
общем случае Bi ≠ i).
Если в выборке имеются объекты с одинаковым качеством, или с одинаковыми значениями xi (или yi), то каждому такому объекту приписывается
ранг Аi (или Bi), равный среднему арифметическому порядковых номеров
этих объектов (при этом могут появиться дробные значения рангов).
Возможны следующие частные случаи:
а) Общий случай, когда Аi = i(i = 1, 2, …, n), а в расположении величин
Bi отсутствует полная упорядоченность.
б) Аi = Bi(i = 1, 2, …, n), (полная прямая зависимость признаков X и Y).
203
в) Если Аi = i(i = 1, 2, …, n), а B1 = n, B2 = n – 1, …, Bn = 1, то между
признаками X и Y имеется противоположная зависимость.
2. Для оценки силы ранговой корреляционной связи между признаками
X и Y используется эмпирический коэффициент ранговой корреляции
Спирмена
ρ = 1−
n
6
n(n 2 − 1)
∑δ
i =1
2
i
(–1 ≤ ρ ≤ 1),
где δi = Аi – Bi. В случае б) п. 1 имеем ρ = 1, а в случае в) ρ = – 1. Чем ближе к
нулю |ρ|, тем слабее связь между X и Y.
Для того чтобы с помощью простой выборки объема n (n ≥ 9) из генеральной совокупности проверить нулевую гипотезу Н0 : ρГ = 0 о равенстве
нулю генерального коэффициента ρГ ранговой корреляции Спирмена при
альтернативной гипотезе Н1 : ρГ ≠ 0 при уровне значимости α, следует: 1) вычислить эмпирический коэффициент Спирмена ρ; 2) найти критическую точку ρ0 (α, k) двусторонней критической области по формуле
ρ 0 (α , k ) = t0 (α , k ) ⋅
1− ρ 2
,
n−2
где t0 (α, k) – критическая точка двусторонней критической области, которая
ищется по табл. 8 Приложения (Критические точки распределения Стьюдента) по уровню значимости α и числу степеней свободы k = n – 2. Нулевая гипотеза принимается (соответственно, отклоняется), если |ρ| < ρ0 (соответственно, |ρ| > ρ0), при этом эмпирический коэффициент ρ незначим (соответственно, значим, и между признаками X и Y имеется значимая ранговая корреляционная связь).
Пример 2.6.19. Два преподавателя X и Y при оценке знаний девяти студентов в стобалльной системе выставили им следующие оценки: xi и yi, где i
– номер студента (см. первые две строки таблицы). Требуется проверить при
уровне значимости α = 0,02 нулевую гипотезу Н0 : ρГ = 0 об отсутствии ранговой корреляционной связи между оценками преподавателей.
204
1
xi
961
922
893
864
845
846
847
848
739
2
yi
931
942
883
854
865
716
787
738
729
3
i
1
2
3
4
5
6
7
8
9
4
Y
942
931
883
865
854
787
738
729
716
5
Аi
1
2
3
4
6,5
6,5
6,5
6,5
9
6
Bi
2
1
3
5
4
9
6
7
8
7
δi
–1
1
0
–1
2,5
– 2,5
0,5
– 0,5
1
Р е ш е н и е. Здесь объекты выборки с объемом n = 9 уже расположены в порядке убывания оценок xi, однако среди этих оценок есть одинаковые
(их номера подчеркнуты), а поэтому их номер i (см. строку 3 табл.) не может
быть принят в качестве ранга Аi. Расположим теперь оценки yi (индексы которых совпадают с порядковыми номерами оценок xi) в порядке убывания
(см. строку 4 таблицы), их порядковые номера в строке 4 и являются рангами
Bi (т.к. одинаковых оценок yi нет), т.е. B1 = 2, B2 = 1, B3 = 3, B4 = 5, B5 = 4, B6 =
9, B7 = 6, B8 = 7, B9 = 8 (см. строку 6). Ранги совпадающих оценок xi берем
равными среднему арифметическому их номеров (5 + 6 + 7 + 8) / 4 = 6,5. В
результате получим последовательности рангов Аi и Bi (строки 5 и 6 таблицы). В седьмой строке таблицы приведены разности δi = Аi – Bi. Здесь
∑δ
2
i
= 17 . Коэффициент ранговой корреляции Спирмена равен
i
ρ = 1−
6 ⋅17
= 0,86
8 ⋅ 9 ⋅10
По табл. 8 Приложения по уровню значимости α = 0,02 и числу степеней свободы k = n – 2 = 7 находим критическую точку t0 (0,02; 7) = 3,00. Критическую точку ρ0 находим по формуле
1 − 0,86 2
ρ 0 (0,02;7) = 3,00 ⋅
= 0,58.
9−2
Т.к. ρ > ρ0 (0,86 > 0,58), нулевую гипотезу отклоняем. Между оценками
xi и yi имеется значимая ранговая корреляционная связь. Здесь ρ=0,86 близко
205
к 1, поэтому оценки преподавателей X и Y достаточно хорошо согласуются
между собой.
2.6.17. Проверка гипотезы о равенстве нулю генерального коэффициента ранговой корреляции Кендалла
Пусть в условиях и обозначениях п.1 в 2.6.16 для выборки объема n получены две последовательности рангов
Ai
1
2
…
n
Bi
B1
B2
...
Bn
.
Тогда эмпирический коэффициент ранговой корреляции Кендалла
вычисляется по формуле
τ=
4R
− 1 (–1 ≤ τ ≤ 1),
n( n − 1)
где R = R1 + R2 + … + Rn-1; Ri - число рангов справа от Bi, превышающих
Bi(i = 1, 2, …, n-1). В случае б) (см. 2.6.16.1) τ = 1, а в случае в) τ = – 1.
Для того, чтобы при помощи выборки объема n проверить нулевую гипотезу Н0 : τГ = 0 о равенстве нулю генерального коэффициента ранговой
корреляции Кендалла τГ при альтернативной гипотезе Н1 : τГ ≠ 0 при уровне
значимости α, следует:
1) вычислить эмпирический коэффициент Кендалла τ;
2) найти критическую точку τ0(α) двусторонней критической области
по формуле
τ 0 (α ) = z0 (α ) ⋅
2( 2n + 5)
,
9n( n − 1)
1
2
где точка z0 (α) ищется из уравнения Ф ( z0 ) = (1 − α ) по табл. 2 Приложения.
Нулевая гипотеза принимается (соответственно, отклоняется), если |τ| < τ0
206
(соответственно, |τ| > τ0), при этом эмпирический коэффициент τ незначим
(соответственно, значим, и между признаками X и Y имеется значимая ранговая корреляционная связь).
Пример 2.6.20. Для последовательностей рангов
Аi
Bi
1
2
2
1
3
4
4
3
5
5
6
7
7
6
8
8
9
10
10
9
проверить при уровне значимости α = 0,01 является ли значимой ранговая
корреляционная связь между этими последовательностями рангов, т.е. следует ли отклонить нулевую гипотезу о некоррелированности рангов.
Р е ш е н и е. Здесь R1 = 8, т.к. правее значения В1 = 2 имеется 8 рангов,
превышающих В1 = 2. Аналогично: R2 = 8, R3 = 6, R4 = 6, R5 = 5, R6 = 3, R7 = 3,
R8 = 2, R9 = 0. Сумма всех рангов R = ∑ Ri = 41 . Коэффициент ранговой корреi
ляции Кендалла равен (при n = 10):
τ=
4 ⋅ 41
− 1 = 0,82 .
10 ⋅ 9
1
2
Из уравнения Ф( z 0 ) = (1 − 0,01) = 0,495 по табл. 2 Приложения находим
z0 = 2,57. Критическая точка
τ 0 = 2,57 ⋅
2(2 ⋅ 10 + 5)
= 0,64.
9 ⋅ 10(10 − 1)
Т.к. τ > τ0 (0,82 > 0,64), нулевую гипотезу отклоняем. Между рангами
имеется значимая ранговая корреляционная связь. Здесь τ = 0,82 близко к 1,
поэтому ранги Аi и Bi достаточно хорошо согласуются между собой.
2.6.18. Критерий исключения резко выделяющихся наблюдений
для нормально распределенной генеральной совокупности. Правило
Томпсона
Среди вариант простой выборки x1, x2, …, xn могут присутствовать такие, которые резко отличаются от остальных результатов наблюдений.
207
В связи с этим возникает необходимость выявления и исключения результатов выборки, не являющихся представительными для рассматриваемой генеральной совокупности и искажающих статистические выводы.
Нулевая гипотеза Н0 : хi∈ N(a, σ2) (i = 1, 2, …, n), подлежащая проверке,
состоит в предположении, что все варианты выборки принадлежат одной и
той же, распределенной нормально генеральной совокупности N(a, σ2) с неизвестными a и σ2 (или, что то же самое: в выборке нет резко выделяющихся
вариант). Альтернативная гипотеза Нj : хj ∈ N(a + ∆,σ2) (∆ ≠ 0, j – фиксировано, j = 1, 2, …, n) состоит в том, что имеется xj, принадлежащее другой нормальной генеральной совокупности N(a + ∆,σ2), а все xi (i ≠ j) принадлежат
N(a, σ2), (т.е. в выборке имеются резко выделяющиеся значения).
В правиле Томпсона для проверки гипотезы Н0 при альтернативной
гипотезе Нj на уровне значимости α используется статистика, имеющая значения
ti =
где x =
xi − x
D
(i = 1, 2, …, n),
1 n
∑ xi – эмпирическое среднее,
n i =1
D=
1 n
(xi − x )2 – эмпирическая дисперсия.
∑
n i =1
Согласно правилу Томпсона резко выделяющимися и подлежащими
исключению из выборки, считаются все те варианты xi (i = 1, 2, …, n), для которых |ti| > t0(α, k), где k = n – 2. Критическая точка t0(α, k) двусторонней критической области находится при известных α и k по табл. 12 Приложения
(Критические точки правила Томпсона).
Пример 2.6.21. Требуется при α = 0,01 проверить, есть ли среди вариант выборки 0,14; 0,12; 0,09; 0,08; 0,12; 0,31; 0,18; 0,10; 0,16 с объемом n = 9
резко выделяющиеся значения (т.е. принадлежат ли все варианты к одной
выборке).
208
Р е ш е н и е. Здесь x = 0,14;
D = 0,066. Для наибольшей варианты x6
= 0,31 имеем
t6 =
0,31 − 0,14
= 2,594.
0,066
Для α = 0,01 и где k = 9 – 2 = 7 по табл. 12 Приложения находим критическую точку
t0(0,01; 7) = 2,256. Т.к. t6 = 2,594 > t0 = 2,256, значение 0,31
резко отличается от остальных и подлежит исключению из выборки. Для
наименьшей варианты x4 = 0,08 имеем |t4| = |– 0,909| < t0 = 2,256, следовательно, нет оснований для исключения x4 = 0,08 из выборки. Аналогичный вывод
справедлив для всех остальных вариант, отличающихся от x6 = 0,31.
209
ПРИЛОЖЕНИЕ. ТАБЛИЦЫ
1 − x2 2
е
Таблица 1. Значения функции ϕ ( x) =
2π
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0
0,3989
3970
3910
3814
3683
3521
3332
3123
2897
2661
1
3989
3965
3902
3802
3668
3503
3312
3101
2874
2637
2
3989
3961
3894
3790
3652
3485
3292
3079
2850
2613
3
3988
3956
3885
3778
3637
3467
3271
3056
2827
2589
4
3986
3951
3876
3765
3621
3448
3251
3034
2803
2565
5
3984
3945
3867
3752
3605
3429
3230
3011
2780
2541
6
3982
3939
3857
3739
3589
3410
3209
2989
2756
2516
7
3980
3932
3847
3726
3572
3391
3187
2966
2732
2492
8
3977
3925
3836
3712
3555
3372
3166
2943
2709
2468
9
3973
3918
3825
3697
3538
3552
3144
2920
2685
2444
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
0,2420
2179
1942
1714
1497
1295
1109
0940
0790
0656
2396
2155
1919
1691
1476
1276
1092
0925
0775
0644
2371
2131
1895
1669
1456
1257
1074
0909
0761
0632
2347
2107
1872
1647
1435
1238
1057
0893
0748
0620
2323
2083
1849
1626
1415
1219
1040
0878
0734
0608
2299
2059
1826
1604
1394
1200
1023
0863
0721
0596
2275
2036
1804
1582
1374
1182
1006
0848
0707
0584
2251
2012
1781
1561
1354
1163
0989
0833
0694
0573
2227
1989
1758
1539
1334
1145
0973
0818
0681
0562
2203
1965
1736
1518
1315
1127
0957
0804
0669
0551
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
0,0540
0440
0355
0283
0224
0175
0136
0104
0079
0060
0529
0431
0347
0277
0219
0171
0132
0101
0077
0058
0519
0422
0339
0270
0213
0167
0129
0099
0075
0056
0508
0413
0332
0364
0208
0163
026
0096
0073
0055
0498
0404
0325
0258
0203
0158
0122
0093
0071
0053
0488
0396
0317
0252
0198
0154
0119
0091
0069
0051
0478
0387
0310
0246
0194
0151
0116
0088
0067
0050
0468
0379
0303
0241
0189
0147
0113
0086
0065
0048
0459
0371
0297
0235
0184
0143
0110
0084
0063
0047
0449
0363
0290
0229
0180
0139
0107
0081
0061
0046
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,0044
0033
0024
0017
0012
0009
0006
0004
0003
0002
0043
0032
0023
0017
0012
0008
0006
0004
0003
0002
0042
0030
0022
0016
0012
0008
0006
0004
0003
0002
0040
0030
0022
0016
0011
0008
0005
0004
0003
0002
0039
0029
0021
0015
0011
0008
0005
0004
0003
0002
0038
0028
0020
0015
0010
0007
0005
0004
0002
0002
0037
0027
0020
0014
0010
0007
0005
0003
0002
0002
0036
0026
0019
0014
0010
0007
0005
0003
0002
0002
0035
0025
0018
0013
0009
0007
0005
0003
0002
0001
0034
0025
0018
0013
0009
0006
0004
0003
0002
0001
210
1
Таблица 2. Значения функции Ф( x) =
2π
х
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0,21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0,41
0,42
0,43
0,44
0,45
0,46
Ф(х)
0,0000
0,0040
0,0080
0,0120
0,0160
0,0199
0,0239
0,0279
0,0319
0,0359
0,0398
0,0438
0,0478
0,0517
0,0557
0,0596
0,0636
0,0675
0,0714
0,0753
0,0793
0,0832
0,0871
0,0910
0,0948
0,0987
0,1026
0,1064
0,1103
0,1141
0,1179
0,1217
0,1255
0,1293
0,1331
0,1368
0,1406
0,1443
0,1480
0,1517
0,1554
0,1591
0,1628
0,1664
0,1700
0,1736
0,1772
х
0,47
0,48
0,49
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0,59
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
0,69
0,70
0,71
0,72
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0,83
0,84
0,85
0,86
0,87
0,88
0,89
0,90
0,91
0,92
0,93
Ф(х)
0,1808
0,1844
0,1879
0,1915
0,1950
0,1985
0,2019
0,2054
0,2088
0,2123
0,2157
0,2190
0,2224
0,2257
0,2291
0,2324
0,2357
0,2389
0,2422
0,2454
0,2486
0,2517
0,2549
0,2580
0,2611
0,2642
0,2673
0,2703
0,2734
0,2764
0,2794
0,2823
0,2852
0,2881
0,2910
0,2939
0,2967
0,2995
0,3023
0,3051
0,3078
0,3106
0,3133
0,3159
0,3186
0,3212
0,3238
211
х
0,94
0,95
0,96
0,97
0,98
0,99
1,00
1,01
1,02
1,03
1,04
1,05
1,06
1,07
1,08
1,09
1,10
1,11
1,12
1,13
1,14
1,15
1,16
1,17
1,18
1,19
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,40
x
∫е
−z2
2
dz
0
Ф(х)
0,3264
0,3289
0,3315
0,3340
0,3365
0,3389
0,3413
0,3438
0,3461
0,3485
0,3508
0,3531
0,3554
0,3577
0,3599
0,3621
0,3643
0,3665
0,3686
0,3708
0,3729
0,3749
0,3770
0,3790
0,3810
0,3830
0,3849
0,3869
0,3883
0,3907
0,3925
0,3944
0,3962
0,3980
0,3997
0,4015
0,4032
0,4049
0,4066
0,4082
0,4099
0,4115
0,4131
0,4147
0,4162
0,4177
0,4192
х
1,41
1,42
1,43
1,44
1,45
1,46
1,47
1,48
1,49
1,50
1,51
1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,59
1,60
1,61
1,62
1,63
1,64
1,65
1,66
1,67
1,68
1,69
1,70
1,71
1,72
1,73
1,74
1,75
1,76
1,77
1,78
1,79
1,80
1,81
1,82
1,83
1,84
1,85
1,86
1,87
Ф(х)
0,4207
0,4222
0,4236
0,4251
0,4265
0,4279
0,4292
0,4306
0,4319
0,4332
0,4345
0,4357
0,4370
0,4382
0,4394
0,4406
0,4418
0,4429
0,4441
0,4452
0,4463
0,4474
0,4484
0,4495
0,4505
0,4515
0,4525
0,4535
0,4545
0,4554
0,4564
0,4573
0,4582
0,4591
0,4599
0,4608
0,4916
0,4625
0,4633
0,4641
0,4649
0,4656
0,4664
0,4671
0,4678
0,4686
0,4693
Продолжение таблицы 2
х
1,88
1,89
1,90
1,91
1,92
1,93
1,94
1,95
1,96
1,97
1,98
1,99
2,00
2,02
2,04
2,06
2,08
2,10
Ф(х)
0,4699
0,4706
0,4713
0,4719
0,4726
0,4732
0,4738
0,4744
0,4750
0,4756
0,4761
0,4767
0,4772
0,4783
0,4793
0,4803
0,4812
0,4821
х
2,12
2,14
2,16
2,18
2,20
2,22
2,24
2,26
2,28
2,30
2,32
2,34
2,36
2,38
2,40
2,42
2,44
2,46
Ф(х)
0,4830
0,4838
0,4846
0,4854
0,4861
0,4868
0,4875
0,4881
0,4887
0,4893
0,4898
0,4904
0,4909
0,4913
0,4918
0,4922
0,4927
0,4931
х
2,48
2,50
2,52
2,54
2,56
2,58
2,60
2,62
2,64
2,66
2,68
2,70
2,72
2,74
2,76
2,78
2,80
2,82
Ф(х)
0,4934
0,4938
0,4941
0,4945
0,4948
0,4951
0,4953
0,4956
0,4959
0,4961
0,4963
0,4965
0,4967
0,4969
0,4971
0,4973
0,4974
0,4976
х
2,84
2,86
2,88
2,90
2,92
2,94
2,96
2,98
3,00
3,20
3,40
3,60
3,80
4,00
4,50
5,00
a m −a
e
Таблица 3. Значения функции Pa (m) =
m!
a
m
0
1
2
3
4
5
6
0,1
0,2
0,3
0,4
0,5
0,9048
0,0905
0,0045
0,0002
0,0000
-
0,8187
0,1637
0,0164
0,0011
0,0001
0,0000
-
0,7408
0,2222
0,0333
0,0033
0,0003
0,0000
-
0,6703
0,2681
0,0536
0,0072
0,0007
0,0001
0,0000
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,0000
0,6
0,7
0,8
0,9
1,0
0,5488
0,3293
0,0988
0,0198
0,0030
0,0004
0,0000
0,4966
0,3476
0,1217
0,0284
0,0050
0,0007
0,0001
0,0000
0,4493
0,3595
0,1438
0,0383
0,0077
0,0012
0,0002
0,0000
-
0,4066
0,3660
0,1650
0,0494
0,0111
0,0020
0,0003
0,0000
-
0,3679
0,3679
0,1839
0,0613
0,0153
0,0031
0,0005
0,0001
0,0000
Продолжение таблицы 3
a
m
0
1
2
3
4
5
6
7
8
212
Ф(х)
0,4977
0,4979
0,4980
0,4981
0,4982
0,4984
0,4985
0,4985
0,49865
0,49931
0,49966
0,499841
0,499928
0,499968
0,499997
0,499997
Продолжение таблицы 3
a
2,0
3,0
4,0
5,0
6,0
0
1
2
3
4
5
6
7
8
9
0,1353
0,2707
0,2707
0,1804
0,0902
0,0361
0,0120
0,0034
0,0009
0,0002
0,0500
0,1497
0,2240
0,2240
0,1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0,0653
0,0363
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,1033
0,0688
10
11
12
13
14
15
16
17
18
0,0000
-
0,0008
0,0002
0,0001
0,0000
-
0,0053
0,0019
0,0006
0,0002
0,0001
0,0000
-
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
0,0000
-
0,0413
0,0226
0,0113
0,0052
0,0022
0,0009
0,0003
0,0001
0,0000
m
Продолжение таблицы 3
a
m
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
7,0
8,0
9,0
10,0
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,1304
0,1014
0,0710
0,0451
0,0264
0,0142
0,0071
0,0033
0,0014
0,0006
0,0003
0,0027
0,0107
0,0286
0,0573
0,0916
0,1221
0,1396
0,1396
0,1241
0,0993
0,0722
0,0482
0,0296
0,0169
0,0090
0,0045
0,0021
0,0001
0,0011
0,0050
0,0150
0,0337
0,0607
0,0911
0,1171
0,1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
0,0000
0,0005
0,0023
0,0076
0,0189
0,0378
0,0631
0,0901
0,1126
0,1251
0,1251
0,1137
0,0948
0,0729
0,0521
0,0347
0,0217
0,0128
213
Продолжение таблицы 3
a
m
18
19
20
21
22
23
24
7,0
8,0
9,0
10,0
0,0002
0,0001
0,0000
-
0,0010
0,0004
0,0002
0,0001
0,0000
-
0,0029
0,0014
0,0006
0,0003
0,0001
0,0000
-
0,0071
0,0037
0,0019
0,0009
0,0004
0,0002
0,0001
Таблица 4. Значения суммы
a
n
n
m=0
m =0
( m!) e
m
a
P
(
m
)
=
∑ a
∑
0,1
0,2
0,3
0
0,9048
0,8188
0,7408
0,6703 0,6065 0,5488
1
0,0953
0,9825
0,9631
0,9384 0,9098 0,8781
2
0,9998
0,9989
0,9964
0,9921 0,9856 0,9779
3
1,0000
0,9999
0,9997
0,9992 0,9982 0,9976
4
-
1,0000
1,0000
0,9999 0,9998 0,9996
5
-
-
-
1,0000 1,0000 1,0000
0,7
0,8
0,9
0
0,4966
0,4493
0,4066
0,3679 0,1353 0,0498
1
0,8442
0,8088
0,7724
0,7358 0,4060 0,1991
2
0,9659
0,9526
0,9371
0,9197 0,6767 0,4232
3
0,9942
0,9909
0,9885
0,9810 0,8571 0,6472
4
0,9992
0,9986
0,9977
0,9963 0,9473 0,8153
5
0,9999
0,9998
0,9997
0,9994 0,9834 0,9161
6
1,0000
1,0000
1,0000
0,9999 0,9955 0,9665
7
-
-
-
1,0000 0,9989 0,9881
8
-
-
-
-
0,9998 0,9962
9
-
-
-
-
1,000
0,9989
10
-
-
-
-
-
0,9997
11
-
-
-
-
-
0,9999
12
-
-
-
-
-
1,0000
n
0,4
−a
0,5
0,6
Продолжение таблицы 4
a
n
214
1,0
2,0
3,0
Таблица 5. Значения tγ = t (γ , n)
γ
n
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
γ
0,95
0,99
0,999
2,78
2,57
2,45
2,37
2,31
2,26
2,23
2,20
2,18
2,16
2,15
2,13
2,12
2,11
2,10
4,60
4,03
3,71
3,50
3,36
3,25
3,17
3,11
3,06
3,01
2,98
2,95
2,92
2,90
2,88
8,61
6,86
5,96
5,41
5,04
4,78
4,59
4,44
4,32
4,22
4,14
4,07
4,02
3,97
3,92
n
20
25
30
35
40
45
50
60
70
80
90
100
120
∞
0,95
0,99
0,999
2,093
2,064
2,045
2,032
2,023
2,016
2,009
2,001
1,996
1,001
1,987
1,984
1,980
1,960
2,861
2,797
2,756
2,720
2,708
2,692
2,679
2,662
2,649
2,640
2,633
2,627
2,617
2,576
3,883
3,745
3,659
3,600
3,558
3,527
3,502
3,464
3,439
3,418
3,403
3,392
3,374
3,291
Таблица 6. Значения q = q (γ , n)
γ
γ
n
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
n
0,95
0,99
1,37
1,09
0,92
0,80
0,71
0,65
0,59
0,55
0,52
0,48
0,46
0,44
0,42
0,40
0,39
2,67
2,01
1,62
1,38
1,20
1,08
0,98
0,90
0,83
0,78
0,73
0,70
0,66
0,63
0,60
0,999
5,64
3,88
2,98
2,42
2,06
1,80
1,60
1,45
1,33
1,23
1,15
1,07
1,01
0,96
0,92
215
20
25
30
35
40
45
50
60
70
80
90
100
150
200
250
0,95
0,99
0,999
0,37
0,32
0,28
0,26
0,24
0,22
0,21
0,188
0,174
0,161
0,151
0,143
0,115
0,099
0,089
0,58
0,49
0,43
0,38
0,35
0,32
0,30
0,269
0,245
0,226
0,211
0,198
0,160
0,136
0,120
0,88
0,73
0,63
0,56
0,50
0,46
0,43
0,38
0,34
0,31
0,29
0,27
0,211
0,185
0,162
Таблица 7. Критические точки распределения χ2
Уровень значимости α
Число
степеней
свободы k
0,01
0,025
0,05
0,95
0,975
0,99
1
6,6
5,0
3,8
0,0039
0,00098
0,00016
2
9,2
7,4
6,0
0,103
0,051
0,020
3
11,3
9,4
7,8
0,352
0,216
0,115
4
13,3
11,1
9,5
0,711
0,484
0,297
5
15,1
12,8
11,1
1,15
0,931
0,554
6
16,8
14,4
12,6
1,64
1,24
0,872
7
18,5
16,0
14,1
2,17
1,69
1,24
8
20,1
17,5
15,5
2,73
2,18
1,65
9
21,7
19,0
16,9
3,33
2,70
2,09
10
23,2
20,5
18,3
3,94
3,25
2,55
11
24,7
21,9
19,7
4,57
3,82
3,05
12
26,2
23,3
21,0
5,23
4,40
3,57
13
27,7
24,7
22,4
5,89
5,01
4,11
14
29,1
26,1
23,7
6,57
5,63
4,66
15
30,6
27,5
25,0
7,26
6,26
5,23
16
32,0
28,8
26,3
7,96
6,91
5,81
17
33,4
30,2
27,6
8,67
7,56
6,41
18
34,8
31,5
28,9
9,39
8,23
7,01
19
36,2
32,9
40,1
10,1
8,91
7,63
20
37,6
34,2
31,4
10,9
9,59
8,26
21
38,9
35,5
32,7
11,6
10,3
8,90
22
40,3
36,8
33,9
12,3
11,0
9,54
23
41,6
38,1
35,2
13,1
11,7
10,2
24
43,0
39,4
36,4
13,8
12,4
10,9
25
44,3
40,6
37,7
14,6
13,1
11,5
26
45,6
41,9
38,9
15,4
13,8
12,2
27
47,0
43,2
40,1
16,2
14,6
12,9
28
48,3
44,5
41,3
16,9
15,3
13,6
29
49,6
45,7
42,6
17,7
16,0
14,3
30
50,9
47,0
43,8
18,5
16,8
15,0
216
Таблица 8. Критические точки распределения Стьюдента
Число степеней
свободы k
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
∞
Уровень значимости α (двусторонняя критическая область)
0,10
0,05
0,02
0,01
0,002
0,001
6,31
12,7
31,82
63,7
318,3
637,0
2,92
4,30
6,97
9,92
22,33
31,6
2,35
3,18
4,54
5,84
10,22
12,9
2,13
2,78
3,75
4,60
7,17
8,61
2,01
2,57
3,37
4,03
5,89
6,86
1,94
2,45
3,14
3,71
5,21
5,96
1,89
2,36
3,00
3,50
4,79
5,40
1,86
2,31
2,90
3,36
4,50
5,04
1,83
2,26
2,82
3,25
4,30
4,78
1,81
2,23
2,76
3,17
4,14
4,59
1,80
2,20
2,72
3,11
4,03
4,44
1,78
2,18
2,68
3,05
3,93
4,32
1,77
2,16
2,65
3,01
3,85
4,22
1,76
2,14
2,62
2,98
3,79
4,14
1,75
2,13
2,60
2,95
3,73
4,07
1,75
2,12
2,58
2,92
3,69
4,01
1,74
2,11
2,57
2,90
3,65
3,96
1,73
2,10
2,55
2,88
3,61
3,92
1,73
2,09
2,54
2,86
3,58
3,88
1,73
2,09
2,53
2,85
3,55
3,85
1,72
2,08
2,52
2,83
3,53
3,82
1,72
2,07
2,51
2,82
3,51
3,79
1,71
2,07
2,50
2,81
3,49
3,77
1,71
2,06
2,49
2,80
3,47
3,74
1,71
2,06
2,49
2,79
3,45
3,71
1,71
2,06
2,48
2,78
3,44
3,71
1,71
2,05
2,47
2,77
3,42
3,69
1,70
2,05
2,46
2,76
3,40
3,66
1,70
2,05
2,46
2,76
3,40
3,66
1,70
2,04
2,46
2,75
3,39
3,65
1,68
2,02
2,42
2,70
3,31
3,55
1,67
2,00
2,39
2,66
3,23
3,46
1,66
1,98
2,36
2,62
3,17
3,37
1,64
1,96
2,33
2,58
3,09
3,29
0,05
0,025
0,01
0,005
0,001
0,0005
Уровень значимости α (односторонняя критическая область)
217
Таблица 9. Критические точки распределения F (k1 – число степеней
свободы для большей дисперсии, k2 – число степеней свободы для меньшей
дисперсии)
Уровень значимости α = 0,01
k2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
k1
1
4052
98,49
34,12
21,20
16,26
13,74
12,25
11,26
10,56
10,04
9,86
9,33
9,07
8,86
8,68
8,53
8,40
2
4999
99,01
30,81
18,00
13,27
10,92
9,55
8,65
8,02
7,56
7,20
6,93
6,70
6,51
6,36
6,23
6,11
3
5403
99,17
29,46
16,69
12,06
9,78
8,45
7,59
6,99
6,55
6,22
5,95
5,74
5,56
5,42
5,29
5,18
4
5625
99,25
28,71
15,98
11,39
9,15
7,85
7,01
6,42
5,98
5,67
5,41
5,20
5,03
4,89
4,77
4,67
5
5764
99,30
28,24
15,52
10,97
8,75
7,46
6,63
6,06
5,64
5,32
5,06
4,86
4,69
4,56
4,44
4,34
6
5889
99,33
27,91
15,21
10,67
8,47
7,19
6,37
5,80
5,39
5,07
4,82
4,62
4,46
4,32
4,20
4,10
7
5928
99,34
27,67
14,98
10,45
8,26
7,00
6,19
5,62
5,21
4,88
4,65
4,44
4,28
4,14
4,03
3,93
8
5981
99,36
27,49
14,80
10,27
8,10
6,84
6,03
5,47
5,06
4,74
4,50
4,30
4,14
4,00
3,89
3,79
9
6022
99,38
27,34
14,66
10,15
7,98
6,71
5,91
5,35
4,95
4,63
4,39
4,19
4,03
3,89
3,78
3,68
10
11
12
6056 6082 6106
99,40 99,41 99,42
24,23 27,13 27,05
14,54 14,45 14,37
10,05 9,96 9,89
7,87 7,79 7,72
6,62 6,54 6,47
5,82 5,74 5,67
5,26 5,18 5,11
4,85 4,78 4,71
4,54 4,46 4,40
4,30 4,22 4,16
4,10 4,02 3,96
3,94 3,86 3,80
3,80 3,73 3,67
3,69 3,61 3,55
3,59 3,52 3,45
Продолжение таблицы 9
k2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
1
2
3
161
200
216
18,51 19,00 19,16
10,13 9,55 9,28
7,71 6,94 6,59
6,61 5,79 5,41
5,99 5,14 4,76
5,59 4,74 4,35
5,32 4,46 4,07
5,12 4,26 3,86
4,96 4,10 3,71
4,84 3,98 3,59
4,75 3,88 3,49
4,367 3,80 3,41
4,60 3,74 3,34
4,54 3,68 3,29
4,49 3,63 3,24
4,45 3,59 3,20
4
225
19,25
9,12
6,39
5,19
4,53
4,12
3,84
3,63
3,48
3,36
3,26
3,18
3,11
3,06
3,01
2,96
Уровень значимости α = 0,05
k1
5
6
7
8
9
10
11
12
230
234
237
239
241
242
243
244
19,30 19,33 19,36 19,37 19,38 19,39 19,40 19,41
9,01
8,94
8,88
8,84
8,81 8,78 8,76 8,74
6,26
6,16
6,09
6,04
6,00 5,96 5,93 5,91
5,05
4,95
4,88
4,82
4,78 4,74 4,70 4,68
4,39
4,28
4,21
4,15
4,10 4,06 4,03 4,00
3,97
3,87
3,79
3,73
3,68 3,63 3,60 3,57
3,69
3,58
3,50
2,44
3,39 3,34 3,31 3,28
3,48
3,37
3,29
3,23
3,18 3,13 3,10 3,07
3,33
3,22
3,14
3,07
3,02 2,97 2,94 2,91
3,20
3,09
3,01
2,95
2,90 2,86 2,82 2,79
3,11
3,00
2,92
2,85
2,80 2,76 2,72 2,69
3,02
2,92
2,84
2,77
2,72 2,67 2,63 2,60
2,96
2,85
2,77
2,70
2,65 2,60 2,56 2,53
2,90
2,79
2,70
2,64
2,59 2,55 2,51 2,48
2,85
2,74
2,66
2,59
2,54 2,49 2,45 2,42
2,81
2,70
2,62
2,55
2,50 2,45 2,41 2,38
218
Таблица 10. Критические точки распределения Кочрена (k – число степеней свободы, l – количество выборок)
l
2
3
4
5
6
7
8
9
10
12
15
20
24
30
40
60
120
∞
1
0,9999
9933
9676
0,9279
8828
8376
0,7945
7544
7175
0,6528
5747
4799
0,4247
3632
2940
0,2151
1225
0000
2
0,9950
9423
8643
0,7885
7218
6644
0,6152
5727
5358
0,4751
4069
3297
0,2871
2412
1915
0,1371
0759
0000
Уровень значимости α = 0,01
k
3
4
5
0,9794
0,9586
0,9373
8831
8335
7933
7814
7212
6761
0,6957
0,6329
0,5875
6258
5635
5195
5685
5080
4659
0,5209
0,4627
0,4226
4810
4251
3870
4469
3934
3572
0,3919
0,3428
0,3099
3317
2882
2593
2654
2288
2048
0,2295
0,1970
0,1759
1913
1635
1454
1508
1281
1135
0,1069
0,0902
0,0796
0585
0489
0429
0000
0000
0000
6
0,9172
7606
6410
0,5531
4866
4347
0,3932
3592
3308
0,2861
2386
1877
0,1608
1327
1033
0,0722
0387
0000
7
0,8988
7335
6129
0,5259
4608
4105
0,3704
3378
3106
0,2680
2228
1748
0,1495
1232
0957
0,0668
0357
0000
Продолжение таблицы 10
l
2
3
4
5
6
7
8
9
10
12
15
20
24
30
40
60
120
∞
8
0,8823
7107
5897
0,5037
4401
3911
0,3522
3207
2945
0,2535
2104
1646
0,1406
1157
0898
0,0625
0334
0000
9
0,8674
6912
5702
0,4854
4229
3751
0,3373
3067
2813
0,2419
2002
1567
0,1338
1100
0853
0,0594
0316
0000
Уровень значимости α = 0,01
k
10
16
36
0,8539
0,7949 0,7067
6743
6059
5153
5536
4884
4057
0,4697
0,4094 0,3351
4084
3529
2858
3616
3105
2494
0,3248
0,2779 0,2214
2950
2514
1992
2704
2297
1811
0,2320 0,1961 0,1535
1918
1612
1251
1501
1248
0960
0,1283 0,1060 0,0810
1054
0867
0658
0816
0668
0503
0,0567 0,0461 0,0344
0302
0242
0178
0000
0000
0000
219
144
0,6062
4230
3251
0,2644
1229
1929
0,1700
1521
1376
0,1157
0934
0709
0,0595
0480
0363
0,0245
0125
0000
∞
0,5000
3333
2500
0,2000
1667
1429
0,1250
1111
1000
0,0833
0667
0500
0,0417
0333
0250
0,0167
0083
0000
Продолжение таблицы 10
l
2
3
4
5
6
7
8
9
10
12
15
20
24
30
40
60
120
∞
1
0,9985
9669
9065
0,8412
7808
7271
0,6798
6385
6020
0,5410
4709
3894
0,3434
2929
2370
0,1737
0998
0000
2
0,9750
8709
7679
0,6338
6161
5612
0,5157
4775
4450
0,3924
3346
2705
0,2354
1980
1576
0,1131
0632
0000
Уровень значимости α = 0,05
k
3
4
5
0,9392
0,9057
0,8772
7977
7457
7071
6841
6287
5895
0,5981
0,5440
0,5063
5321
4803
4447
4800
4307
3974
0,4377
0,3910
0,3595
4027
3584
3286
3733
3311
3029
0,3624
0,2880
0,2624
2758
2419
2195
2205
1921
1735
0,1907
0,1656
0,1493
1593
1377
1237
1259
1082
0968
0,0895
0,0765
0,0682
0495
0419
0371
0000
0000
0000
6
0,8534
6771
0,5598
4783
4184
3726
0,3362
3067
2823
0,2439
2034
1602
0,1374
1137
0887
0,0623
0337
0000
7
0,8332
6530
5365
0,4564
3980
3535
0,3185
2901
2666
0,2299
1911
1501
0,1286
1061
0827
0,0583
0312
0000
144
0,5813
4031
3093
0,2013
2119
1833
0,1616
1446
1308
0,1100
0889
0675
0,0567
0457
0347
0,0234
0120
0000
∞
0,5000
3333
2500
0,2000
1667
1429
0,1250
1111
1000
0,0833
0667
0500
0,0417
0333
0250
0,0167
0083
0000
Продолжение таблицы 10
l
2
3
4
5
6
7
8
9
10
12
15
20
24
30
40
60
120
∞
8
0,8159
6333
5175
0,4387
3817
3384
0,3043
2768
2541
0,2187
1815
1422
0,1216
1002
0780
0,0552
0292
0000
9
0,8010
6167
5017
0,4241
3682
3259
0,2926
2659
2439
0,2098
1736
1357
0,1160
0958
0745
0,0520
0279
0000
Уровень значимости α = 0,05
K
10
16
36
0,7880
0,7341
0,6602
6025
5466
4748
4884
4366
3720
0,4118
0,3645
0,3066
3568
3135
2612
3154
2756
2278
0,2829
0,2462
0,2022
2568
2226
1820
2353
2032
1655
0,2020
0,1737
0,1403
1671
1429
1144
1303
1108
0879
0,1113
0,0942
0,0743
0921
0771
0604
0713
0595
0462
0,0497
0,0411
0,0316
0266
0218
0165
0000
0000
0000
220
Таблица 11. Критические точки распределения W
Объемы
выборок
Объемы
выборок
Q
Q
n1
n2
0,005
0,01
0,025
0,05
n1
n2
0,005
0,01
0,025
0,05
6
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
23
24
25
26
27
28
30
31
32
33
31
36
37
38
39
40
42
43
44
45
32
34
35
37
38
40
41
43
44
46
47
49
50
52
53
55
57
58
60
24
25
27
28
29
30
32
33
34
36
37
39
40
41
43
44
45
47
48
50
34
35
37
39
40
42
44
45
47
49
51
52
54
56
58
59
61
63
64
26
27
29
31
32
34
35
37
38
40
42
43
45
46
48
50
51
53
54
56
36
38
40
42
44
46
48
50
52
54
56
58
60
62
64
66
68
70
72
28
30
31
33
35
37
38
40
42
44
46
47
49
51
53
55
57
58
60
62
39
39
43
45
47
49
52
54
56
58
61
63
65
67
69
72
74
76
78
8
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
43
45
47
49
51
53
54
56
58
60
62
64
66
68
70
71
73
75
56
58
61
63
65
67
69
72
74
76
78
81
83
85
88
90
92
45
47
49
51
53
56
58
60
62
64
66
68
70
72
74
76
78
81
59
61
63
66
68
71
73
76
78
81
83
85
88
90
93
95
98
49
51
53
55
58
60
62
65
67
70
72
74
77
79
81
84
86
89
62
65
68
71
73
76
79
82
84
87
90
93
95
98
101
104
107
51
54
56
59
62
64
67
69
72
75
77
80
83
85
88
90
93
96
66
69
72
75
78
81
84
87
90
93
96
99
102
105
108
111
114
7
9
221
Продолжение таблицы 11
Объемы
Выборок
Объемы
выборок
Q
Q
n1
n2
0,005
0,01
0,025
0,05
n1
n2
0,005
0,01
0,025
0,05
10
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
71
73
76
79
81
84
86
89
92
94
97
99
102
105
107
110
87
90
93
96
99
102
105
108
111
114
117
120
123
126
129
74
77
79
82
85
88
91
93
96
99
102
105
108
110
113
116
91
94
97
100
103
107
110
113
116
119
123
126
129
132
136
78
81
84
88
91
94
97
100
103
107
110
113
116
119
122
126
96
99
103
106
110
113
117
121
124
128
131
135
139
142
146
82
86
89
92
96
99
103
106
110
113
117
120
123
127
130
134
100
104
108
112
116
120
123
127
131
135
139
143
147
151
155
12
12
13
14
15
16
17
18
19
20
21
22
23
24
25
13
14
15
16
17
18
19
20
21
22
23
24
25
14
15
16
17
18
19
20
21
22
23
24
25
105
109
112
115
119
122
125
129
132
136
139
142
146
149
125
129
133
136
140
144
148
151
155
159
163
166
170
147
151
155
159
103
168
172
171
180
184
188
192
109
113
116
120
124
127
131
134
138
142
145
149
153
156
130
134
138
142
146
150
154
158
162
166
170
174
178
152
156
161
165
170
174
178
181
187
192
196
200
115
119
123
127
131
134
139
143
147
151
155
159
163
167
136
141
145
150
154
158
163
167
171
176
180
185
189
160
164
169
174
179
183
188
193
198
203
207
212
120
125
129
133
138
142
146
150
155
159
163
168
172
176
142
147
152
156
161
166
171
175
180
185
189
194
199
166
171
176
182
187
192
197
202
207
212
218
223
11
222
13
14
Продолжение таблицы 11
Объемы выборок
Объемы выборок
Q
Q
n1
n2
0,005
0,01
0,025
0,05
n1
n2
0,005
0,01
0,025
0,05
15
15
16
17
18
19
20
21
22
23
24
25
16
17
18
19
20
21
22
23
24
25
17
18
19
20
21
22
23
24
25
18
19
20
21
22
23
24
25
171
175
180
184
189
193
198
202
207
211
216
196
201
206
210
215
220
225
230
235
240
223
228
234
239
244
249
255
260
265
252
258
263
269
275
280
286
292
176
181
186
190
195
200
205
210
214
219
224
202
207
212
218
223
228
233
238
244
249
230
235
241
246
252
258
263
269
275
259
265
271
277
286
289
295
301
184
190
195
200
205
210
216
221
226
231
237
211
217
222
228
234
239
245
251
256
262
240
246
252
258
264
270
276
282
288
270
277
283
290
296
303
309
316
192
197
203
208
214
220
225
231
236
242
248
219
225
231
237
243
249
255
261
267
273
249
255
262
268
274
281
287
294
300
280
287
294
301
307
314
321
328
19
19
20
21
22
23
24
25
20
21
22
23
24
25
21
22
23
24
25
22
23
24
25
23
24
25
24
25
25
283
289
295
301
307
313
319
315
322
328
335
341
348
349
356
363
370
377
386
393
400
408
424
431
439
464
472
505
291
297
303
310
316
323
329
324
331
337
344
351
358
359
366
373
381
388
396
403
411
419
434
443
451
475
484
517
303
309
316
323
330
337
344
337
344
351
359
366
373
373
381
388
396
404
411
419
427
435
451
459
468
492
501
536
313
320
328
335
342
350
357
348
356
364
371
379
387
385
393
401
410
418
424
432
441
450
465
474
483
507
517
552
16
17
18
223
20
21
22
23
24
25
Таблица 12. Критические точки правила Томпсона
Уровень значимости α
k
1
2
3
4
5
0,001
1,414
1,730
1,982
2,178
2,329
0,005
1,414
1,723
1,948
2,106
2,218
0,01
1,414
1,715
1,917
2,051
2,142
0,05
1,410
1,645
1,757
1,814
1,848
0,10
1,397
1,559
1,611
1,631
1,640
6
7
8
9
10
2,447
2,544
2,616
2,679
2,731
2,301
2,364
2,414
2,454
2,486
2,207
2,256
2,294
2,324
2,348
1,870
1,885
1,896
1,904
1,910
1,644
1,647
1,648
1,649
1,649
11
12
13
14
15
2,775
2,812
2,845
2,874
2,899
2,513
2,536
2,556
2,573
2,588
2,368
2,385
2,399
2,411
2,422
1,915
1,920
1,923
1,926
1,929
1,649
1,650
1,650
1,650
1,649
16
17
18
19
20
2,921
2,941
2,959
2,975
2,990
2,601
2,613
2,623
2,632
2,641
2,431
2,440
2,447
2,454
2,460
1,931
1,933
1,934
1,936
1,937
1,649
1,649
1,649
1,649
1,649
21
22
23
24
25
3,003
3,015
3,026
3,037
3,047
2,649
2,655
2,662
2,668
2,673
2,465
2,470
2,475
2,479
2,483
1,938
1,939
1,940
1,941
1,942
1,649
1,649
1,649
1,649
1,648
26
27
28
29
30
3,055
3,064
3,071
3,078
3,085
2,678
2,683
2,687
2,691
2,695
2,486
2,490
2,493
2,496
2,498
1,943
1,943
1,944
1,945
1,945
1,648
1,648
1,648
1,648
1,648
31
32
33
34
35
3,062
3,098
3,103
3,108
3,114
2,699
2,702
2,705
2,708
2,711
2,501
2,503
2,505
2,507
2,509
1,946
1,946
1,947
1,947
1,947
1,648
1,648
1,648
1,648
1,648
224
Продолжение таблицы 12
Уровень значимости α
k
36
0,001
3,118
0,005
2,713
0,01
2,511
0,05
1,948
0,10
1,648
37
3,123
2,716
2,513
1,948
1,648
38
3,127
2,718
2,514
1,948
1,648
39
3,131
2,720
2,516
1,949
1,647
40
3,135
2,723
2,518
1,949
1,647
41
3,139
2,725
2,519
1,949
1,647
42
3,142
2,727
2,520
1,950
1,647
43
3,145
2,729
2,522
1,950
1,647
44
3,149
2,730
2,523
1,950
1,647
45
3,152
2,732
2,524
1,950
1,647
46
3,155
2,734
2,525
1,951
1,647
47
3,158
2,735
2,526
1,951
1,647
48
3,161
2,736
2,527
1,951
1,647
49
3,163
2,738
2,528
1,951
1,647
50
3,165
2,739
2,529
1,951
1,647
55
3,176
2,746
2,533
1,952
1,647
60
3,186
2,750
2,537
1,953
1,647
65
3,194
2,755
2,540
1,953
1,646
70
3,201
2,759
2,542
1,954
1,646
75
3,207
2,762
2,545
1,954
1,646
80
3,212
2,765
2,547
1,955
1,646
85
3,216
2,767
2,548
1,955
1,646
90
3,220
2,769
2,550
1,955
1,646
95
3,224
2,771
2,551
1,955
1,646
100
3,227
2,773
2,553
1,956
1,646
225
ОГЛАВЛЕНИЕ
ЧАСТЬ 1
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Глава 1.1
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ…………………. 3
1.1.1.
Испытания и события………………………………………….. 3
1.1.2.
Классическое определение вероятности……………………… 5
1.1.3.
Статистическое определение вероятности…………………...
13
1.1.4.
Геометрическое определение вероятности…………………...
15
1.1.5.
Алгебра событий……………………………………………….. 18
1.1.6.
Правила сложения и умножения вероятностей…………….... 22
1.1.7.
Формула полной вероятности. Формулы Байеса…………….. 32
Глава 1.2
ПОВТОРЕНИЕ ИСПЫТАНИЙ…………………………………………… 35
1.2.1.
Формула Бернулли……………………………………………..
35
1.2.2. Локальная предельная теорема Муавра-Лапласа……………. 37
1.2.3.
Интегральная предельная теорема Муавра-Лапласа………… 38
Глава 1.3
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ…………………………………………………………….............
39
1.3.1.
Основные понятия……………………………………………..
1.3.2.
Биномиальное распределение…………………………………. 43
1.3.3.
Геометрическое распределение……………………………….. 45
1.3.4.
Гипергеометрическое распределение……………………….... 45
1.3.5.
Распределение Пуассона………………………………………. 46
Глава 1.4
226
39
НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ…………………………. 50
1.4.1. Интегральная функция распределения……………………….. 50
1.4.2. Дифференциальная функция распределения………………… 53
1.4.3. Квантили………………………………………………………..
55
1.4.4. Примеры непрерывных распределений………………………
55
Глава 1.5
МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ И ДИСПЕРСИЯ ДИСКРЕТНОЙ
СЛУЧАЙНОЙ ВЕЛИЧИНЫ……………………………………………..
1.5.1. Математическое ожидание…………………………………….
60
60
1.5.2. Дисперсия………………………………………………………. 63
Глава 1.6
МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ, ДИСПЕРСИЯ, МОДА И МЕДИАНА СЛУЧАЙНОЙ ВЕЛИЧИНЫ…………………………………… 66
Глава 1.7
ФУНКЦИИ ОДНОГО СЛУЧАЙНОГО АРГУМЕНТА……....................
69
Глава 1.8
МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ………………………... 71
1.8.1. Основные понятия……………………………………………...
71
1.8.2. Числовые характеристики системы двух случайных величин 79
1.8.3. Регрессии……………………………………………………….. 82
1.8.4. Нормальный закон распределения на плоскости…………….. 86
Глава 1.9
ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ……………………………….... 88
1.9.1. Общие сведения………………………………………………... 88
1.9.2. Свойства характеристических функций……………………… 89
1.9.3. Формула обращения и теорема единственности…………….
90
1.9.4. Характеристические функции многомерных случайных величин……………………………………………………………. 91
Глава 1.10
ЗАКОН БОЛЬШИХ ЧИСЕЛ……………………………………................. 93
227
1.10.1. Неравенство Чебышева………………………………………. 93
1.10.2. Теорема Чебышева……………………………………………
93
1.10.3. Теорема Бернулли…………………………………………….
94
1.10.4. Теорема Пуассона…………………………………………….
95
1.10.5. Теорема Маркова……………………………………………..
95
1.10.6. Центральная предельная теорема……………………………
95
Глава 1.11
АСИММЕТРИЯ И ЭКСЦЕСС РАСПРЕДЕЛЕНИЯ……………………..
98
Глава 1.12
ЦЕПИ МАРКОВА………………………………………………………….
100
Глава 1.13
СЛУЧАЙНЫЕ ФУНКЦИИ………………………………………………... 104
1.13.1.
Понятие случайной функции……………………………….
1.13.2.
Математическое ожидание случайной функции…………. 108
1.13.3.
Дисперсия случайной функции…………………………….
1.13.4.
Корреляционная (автокорреляционная)
функция случайной функции……………………………...
1.13.5.
104
109
109
Взаимная корреляционная функция
двух случайных функций…………………………………..
110
1.13.6.
Моментные функции случайных функций………………..
112
1.13.7.
Математическое ожидание и корреляционная функция
суммы случайных функций………………………………… 113
1.13.8.
Комплексные случайные величины
и случайные функции……………………………………….. 114
1.13.9.
Стационарные случайные функции………………………... 116
1.13.10. Эргодические стационарные случайные функции………... 117
1.13.11. Производная и интеграл от случайной функции………….
118
Корреляционная теория стационарных случайных функций
120
1.13.12.
ЧАСТЬ 2
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
228
Глава 2.1
ПРЕДМЕТ И МЕТОД МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ………… 129
2.1.1.
Выборочный метод…………………………………………….. 129
2.1.2.
Полигон и гистограмма………………………………………..
131
2.1.3.
Эмпирическая функция распределения………………………
133
Глава 2.2
ТОЧЕЧНАЯ ОЦЕНКА ПАРАМЕТРОВ
ГЕНЕРАЛЬНОЙ СОВОКУПНОСТИ……………………………..………
136
2.2.1.
Выборочные средние и дисперсии………………………….
136
2.2.2.
Точечные оценки……………………………………………… 137
2.2.3.
Точечные оценки генерального среднего и дисперсии…….
139
2.2.4.
Метод моментов точечной оценки параметров……………..
140
2.2.5.
Метод наибольшего правдоподобия…………………………
146
Глава 2.3
ИНТЕРВАЛЬНАЯ ОЦЕНКА ПАРАМЕТРОВ
ГЕНЕРАЛЬНОЙ СОВОКУПНОСТИ……………………………..………
150
2.3.1.
Основные понятия…………………………………………….
150
2.3.2.
Интервальная оценка неизвестного параметра а нормального распределения при известном σ ……………………….. 151
2.3.3.
Интервальная оценка неизвестного параметра а нормального распределения при известном σ ……………………….
2.3.4.
153
Интервальная оценка неизвестного параметра σ нормального распределения по заданному значению s ……………..
154
Глава 2.4
ОЦЕНКА НЕИЗВЕСТНОЙ ВЕРОЯТНОСТИ
ПО ОТНОСИТЕЛЬНОЙ ЧАСТОТЕ……………………………………. 155
2.4.1.
Точечная оценка вероятности………………………………..
155
2.4.2.
Интервальная оценка вероятности…………………………..
156
Глава 2.5
АНАЛИЗ КОРРЕЛЯЦИИ И РЕГРЕССИИ
229
ПО РЕЗУЛЬТАТАМ ВЫБОРОК………………………………………….. 157
2.5.1.
Оценка корреляционных и регрессионных параметров……..
2.5.2.
Эмпирические прямые регрессии …………………………….. 159
157
Глава 2.6
ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ…………………………... 165
2.6.1.
Основные понятия……………………………………………
2.6.2.
Сравнение дисперсий двух нормально распределенных генеральных совокупностей. Критерий F ……………………
2.6.3.
165
169
Сравнение исправленной эмпирической дисперсии с
предполагаемой генеральной дисперсией нормальной совокупности. Критерий хи–квадрат………………………….
2.6.4.
171
Сравнение генеральных средних двух нормальных совокупностей с неизвестными, но равными дисперсиями.
Критерий Стьюдента…………………………………………
2.6.5.
173
Сравнение генеральных дисперсий нескольких нормальных совокупностей. Критерий Кочрена…………………….
176
2.6.6.
Критерий W Вилкоксона (или Манна-Уитни) …………….
177
2.6.7.
Критерий согласия хи-квадрат Пирсона …………………..
180
2.6.8.
Сравнение генеральных средних двух нормально распределенных случайных величин, дисперсии которых известны
2.6.9.
Проверка гипотезы о некоррелированности двух случайных величин………………………………………………….
2.6.10.
189
191
Проверка гипотезы о среднем значении нормально распределенной генеральной совокупности при известной дисперсии……………………………………………………...
2.6.11.
192
Проверка гипотезы о среднем значении нормально распределенной генеральной совокупности при неизвестной дисперсии……………………………………………………...
2.6.12.
Проверка гипотезы о равенстве средних значений двух
нормальных генеральных совокупностей с неизвестными
230
194
дисперсиями при помощи зависимых выборок…………….
2.6.13.
196
Проверка гипотезы о вероятности появления события в
отдельном испытании при большом числе испытаний…….
197
2.6.14.
Критерий Бартлета……………………………………………
198
2.6.15.
Проверка гипотезы о равенстве вероятностей двух биномиальных распределений ……………………………………
2.6.16.
200
Проверка гипотезы о равенстве нулю генерального коэффициента ранговой корреляции Спирмена ………………… 201
2.6.17.
Проверка гипотезы о равенстве нулю генерального коэффициента ранговой корреляции Кендалла …………………. 205
2.6.18.
Критерий исключения резко выделяющихся наблюдений
для нормально распределенной генеральной совокупности. 206
Правило Томпсона …………………………………………… 209
ПРИЛОЖЕНИЕ. ТАБЛИЦЫ……………………………………………… 209
231
Download