Uploaded by Ирина Зиненко

stup213

advertisement
ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ
ПЕНЗЕНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ОБРАБОТКА ЭКСПЕРИМЕНТАЛЬНЫХ
ДАННЫХ
Роганов В. Р., Роганова С. М., Новосельцева М. Е.
Учебное пособие
Пенза, 2007
УДК 519.713;519.68;519.764800.92
В. Р. Роганов, С. М. Роганова, М. Е. Новосельцева. Обработка
экспериментальных данных. Учебно-методическое пособие.
Данное пособие содержит основные положения теории вероятностей
и математической статистики, а также описание основных методов и идей,
используемых в теоретико-вероятностных рассуждениях. Представленные
методы иллюстрируются простыми примерами, что помогает в дальнейшем
самостоятельно решать задания практического характера, сводя их к
известной схеме.
Подробно
рассмотрены
вопросы,
касающиеся
обработки
экспериментальных данных, включая алгоритмы генерации псевдослучайных
последовательностей,
аппроксимаций
экспериментальных данных и
закона
распределения
методики проведения экспериментальных
исследований.
2
Содержание
Часть 1. Теория вероятностей и математическая статистика
Глава 1.Основные понятия и формулы теории вероятностей
§ 1. Пространство элементарных событий
§ 2. Действия над случайными событиями
§ 3. Алгебра событий
§ 4. Классическая теоретико-вероятностная модель
§ 5. Простейшие комбинаторные формулы
§ 6. Аксиоматическое построение теории вероятностей
§ 7. Независимые события
§ 8. Условная вероятность
§ 9. Формула полной вероятности
§ 10. Формула Байеса
§ 11. Повторение испытаний
§ 12. Вероятность появления события не меньше данного числа раз
§ 13. Распределение Пуассона
§ 14. Локальная и интегральная предельные теоремы Муавра—Лапласа
Глава 2. Случайные величины и функции распределения
§ 1. Случайные величины и функции распределения
§ 2. Дискретные и непрерывные случайные величины
§ 3. Векторные (или многомерные) случайные величины
§ 4. Независимость случайных величин
§ 5. Функции от случайных величин
Глава 3. Числовые характеристики случайных величин
§ 1. Основные определения. Моменты случайных величин
§ 2. Свойства математического ожидания и дисперсии
§ 3. Условное математическое ожидание
§ 4. Моменты векторных случайных величин
Глава 4. Законы больших чисел
Глава 5. Центральные предельные теоремы
§ 1. Характеристические функции
§ 2. Центральные предельные теоремы
§ 3. Применения центральных предельных теорем
Глава 6. Математическая статистика
§ 1. Основные понятия
§ 2. Классификация оценок
§ 3. Методы получения оценок
§ 4. Доверительные интервалы для математического ожидания и
дисперсии
§ 5. Обработка результатов измерений
§ 6. Проверка статистических гипотез
Часть 2. Обработка экспериментальных данных
Глава 7. Псевдослучайные последовательности
§ 1. Понятие об алгоритмах задания случайных и псевдослучайных
последовательностях
3
§ 2. Алгоритмы генерирования равномерно распределенных
случайных чисел
§ 3. Тест для проверки датчиков псевдослучайных последовательностей
§ 4. Экспоненциальное распределение
§ 5. Нормальное распределение
§ 6. Другие виды числовых распределений
§ 7. Случайная выборка
Глава 8. Аппроксимация закона распределения экспериментальных
данных
§ 1. Задачи аппроксимации
§ 2. Аппроксимация на основе типовых распределений
§ 3. Аппроксимация на основе специальных рядов
§ 4. Аппроксимация на основе универсальных семейств распределений
Глава 9. Экспериментальные исследования
§ 1. Методика проведения экспериментальных исследований
§ 2. Вычислительный эксперимент
§ 3. Понятие о доверительной вероятности и уровне значимости
§ 4. Анализ однородности результатов эксперимента
§ 5. Построение интервального ряда экспериментального распределения
§ 6. Расчет среднего значения и доверительного интервала
§ 7. Расчет показателей вариации экспериментального распределения
§ 8. Определение минимального количества измерений
§ 9. Проверка экспериментальных данных на воспроизводимость
результатов
§ 10. Расчет эмпирических интегральной и дифференциальной функций
распределения
§ 11. Физический смысл интегральной и дифференциальной функций
распределения
§ 12. Пример статистической обработки результатов эксперимента
4
Глава 1
Основные понятия и формулы теории вероятностей
§ 1. Пространство элементарных событий
В общей теоретико-вероятностной схеме для каждого эксперимента со
случайным исходом должны быть указаны все элементарные исходы,
удовлетворяющие требованию: в результате эксперимента непременно
происходит один и только один из этих исходов. Каждый такой исход будем
называть элементарным событием и обозначать буквой ω . Очевидно, что
элементарные события неразложимы на "более элементарные".
В эксперименте, состоящем в подбрасывании монеты с закручиванием и
последующей оценкой состояния — "как упала монета", элементарными
событиями являются два исхода: монета упала вверх "гербом" и монета упала
вверх надписью.
В эксперименте, состоящем в бросании игральной кости (куба из
однородного
материала,
шесть
граней
которого
перенумерованы),
элементарными событиями являются грани "1", "2", ..., "6".
При оценке приведенных экспериментов считаем, что монета не может
упасть на ребро и остаться в таком положении или кость не может упасть на
вершину, или одно из ребер и остаться в таком положении, хотя в принципе
эти явления возможны, но, ввиду их маловероятности, пренебрежем этими
случаями.
В эксперименте, состоящем в бросании точки на отрезок [a,b] (имеется
отрезок [a,b] и считается, что падающая сверху точка может упасть только на
этот отрезок и не может упасть мимо отрезка), элементарным событием
является точка c ∈ [ a, b] .
Множество всех элементарных событий в теории вероятностей принято
называть пространством элементарных событий и обозначать буквой Ω .
Элементарные события называются точками пространства элементарных
событий.
5
§ 2. Действия над случайными событиями
В теории вероятностей
величинами
используются
для описания действий со случайными
математические
обозначения,
принятые
в
комбинаторном анализе [6]. Всякий результат эксперимента со случайным
исходом в теории вероятностей принято называть случайным событием.
Случайное событие можно считать некоторым подмножеством А множества
Ω и интерпретировать как попадание элементарного события в множество А.
Далее по этой причине не делается различий между случайным событием А и
соответствующим подмножеством А ∈Ω .
В эксперименте с игральной костью можно, например, выделить
следующие три случайные события: {"1", "2", "3"}, {"4", "5"} и {"6"}. В этом
случае любое из элементарных событий "1", "2" или "3" влечет случайное
событие {"1", "2", "3"}.
Пусть A1, A2, …, An
— множества [6]. Объединением этих множеств
называется множество С, состоящее из тех и только тех элементов, которые
принадлежат хотя бы одному из
Ai , 1 ≤ i ≤ n
и обозначается так:
n
C = A1 U... U A n = U A i . Пересечением A1, A2, …, An называется множество D,
i =1
содержащее те и только те элементы, которые принадлежат всем A i , 1 ≤ i ≤ n
n
одновременно
и
обозначается
так:
D = A1 I... I A n = I A i = A1... A n .
i =1
Дополнением множества А называется множество тех элементов, которые не
принадлежат А, и обозначается так: A . Разностью множеств A и B
называется множество всех элементов A, не являющихся элементами B, и
обозначается так: A\B.
Эти операции над множествами позволяют определить операции над
случайными событиями [6]. Пусть Aα
заданное множество. Тогда
U Aα
α ∈I
— события при α ∈ I , где I —
— событие, состоящее в наступлении хотя
6
бы одного из событий Aα , — называется объединением (суммой) событий
Aα , α ∈I . Событие
I Aα , состоящее в
α ∈I
том, что произойдут все события
Aα , α ∈I , называется пересечением (произведением) событий. Если I = {1, 2,
..., n}, то обозначают:
n
U Aα = U A i = A1 U... U A n ,
α ∈I
i =1
n
I Aα = I A i = A1 I... I A n = A1... A n .
α ∈I
i =1
Если I = {1, 2, ...}, то обозначают:
∞
∞
i=1
i=1
U A i = A1 U A 2 U...; I A i = A1A 2 ....
Событие Ω = {ω ∈Ω} называется достоверным событием. Событие
∅ = {ω ∈∅}
(здесь
невозможным
∅
событием.
—
символ
пустого
множества)
называется
Событие
Ω\ A
называется
событием,
противоположным A, или дополнением к A и обозначается A
A = {ω ∉A} = {ω ∈Ω \ A}.
Наличие соответствия между событиями и множествами позволяет
применять к действиям над событиями соответствующие действия над
множествами. Приведем некоторые основные соотношения такого рода [6]:
1. A U A = A.
2. A I A = A.
3. A U A = Ω.
4. A I A = ∅.
5. A U Ω = Ω.
6. A I Ω = A.
7.
AU ∅ = A
AI ∅ = ∅
9. Если A ⊂ B, B ⊂ C , то A ⊂ C.
8.
7
10. Если A ⊂ B, то B = AU (B \ A)
11. A \ B = A B
12. AU B = AU (B \ A)
13. AU (BU C ) = (AU B )U C
I (BI C ) = (AI B )I C
14. A
15. AI (BU C ) = (AI B )U (AI C )
16. AU (BI C ) = (AU B )I (AU C )
17.
18.
U Aα = αI Aα
α ∈I
∈I
I Aα = αU Aα
α ∈I
∈I
Каждая из этих формул устанавливается непосредственным путем.
Для примера выведем формулу
U Aα = αI Aα .
α ∈I
{
∃ ω ∈ Aα
α ∈I
} (∃
∈I
Пусть ω ∈ U Aα . Тогда
α ∈I
— квантор существования) или, что то же,
∃ {ω ∉ Aα }
α ∈I
Тогда ω ∉ I Aα , т.е. ω ∈ I Aα . Доказано [6], что левая часть формулы
α ∈I
α ∈I
представляет собой множество, входящее в множество, записанное в правой
части. Пусть теперь ω ∈ I Aα . Тогда ω ∉ I Aα
α ∈I
α ∈I
{
∃ {ω ∉ Aα } , или, что то же, ∃ ω ∈ Aα
α ∈I
α ∈I
, а следовательно,
} . Окончательно, ω ∈ U Aα .
α ∈I
События A и B называются несовместными, если AB = ∅. Так, события A
и A всегда несовместны.
События Aα , α ∈I называются несовместными, если несовместны Aα и
Aα при α ≠ β , α ∈I, β ∈I .
§ 3. Алгебра событий
Рассмотрим произвольное пространство элементарных событий Ω = {ω }
и некоторую систему Ξ подмножеств множества Ω [2].
8
Ξ называется алгеброй, если выполняются условия:
1. Ω ∈Ξ .
2. Из того, что A ∈Ξ и B ∈Ξ следует, что A U B ∈Ξ, A I B ∈Ξ .
3. Если A ∈Ξ , то A ∈Ξ .
Нетрудно видеть, что в условии 2 достаточно требовать выполнения
лишь одного из приведенных двух соотношений. Второе будет выполняться
автоматически. Таким образом, алгебра есть класс множеств, замкнутый
относительно конечного числа операций дополнения, объединения и
пересечения.
Конструкция алгебры событий позволяет охарактеризовать множество
всех возможных результатов любого эксперимента со случайным исходом,
если Ω его элементарных исходов конечно. Например, в эксперименте с
игральной костью Ω состоит из шести элементарных событий, а Ξ состоит
из всех подмножеств Ω . Поскольку Ξ содержит пустое подмножество ∅ ,
6 = С16
одноточечных
трехточечных,
…,
подмножеств,
одно
(C )
6
6
15 = С26
двухточечных,
шеститочечное,
то
Ξ
20 = С36
состоит
из
26 = 1 + С16 + С26 +...+С66 = 64 событий. И вообще, если Ω состоит из n
элементарных событий, то Ξ состоит из 2 n = Con + C1n +...+C nn событий.
На отрезке [0,1] все множества, составленные из конечного числа или
интервалов, образуют алгебру.
§ 4. Классическая теоретико-вероятностная модель
Пусть Ω — конечное или бесконечное пространство элементарных
событий некоторого случайного эксперимента [9]. Будем считать, что
структура эксперимента такова, что на Ω можно указать n событий A1, A2, …,
An , обладающих следующими свойствами.
1) События A1, A2, …, An попарно несовместны.
2) A1, A2, …, An образуют полную группу событий в том смысле, что
9
при любом исходе эксперимента хотя бы одно из них непременно
происходит. Это означает, что
A1 + A2 + An =Ω.
3) События A1, A2, …, An равновероятны, или, иначе говоря, ни одно
из них нельзя считать более предпочтительным, чем любое из остальных.
Именно такая ситуация возникает в эксперименте с игральной костью, когда
выпадения всех граней объявляются равновероятными.
В так называемой классической схеме события A1, A2, …, An
,
удовлетворяющие условиям 1–3, называются полной группой попарно
несовместных, равновероятных событий.
Вероятность в классической схеме определяется лишь для тех исходов
эксперимента, которые могут быть представлены в виде объединений
некоторых из событий A i , i = 1,..., n . Так если
A = Ai1 +...+ Aik
(1.1)
и все слагаемые в (1.1) различны, то вероятность события А определяется
равенством
P( A ) =
k
,
n
в котором k равно числу слагаемых в сумме (1.1). Таково классическое
определение вероятности.
Для того чтобы определение можно было считать корректным,
достаточно доказать единственность разложения (1.1). Для любого события А
согласно условию 2 из § 4 и соотношению 15 из § 2
A = AI Ω = AI ( A1 + ... + An ) = AI A1 + ... + AI An
В рассматриваемом случае разложения (1.1) A I A j либо пусто, если j
не совпадает ни с одним из i s , s = 1,..., k, либо A I A j = A is , если j = i s .
Приложениям классического определения вероятности сопутствует
следующая терминология. Эксперимент называют испытанием, полную
10
группу попарно несовместных, равновероятных событий называют полной
группой возможных исходов испытания, а те из возможных исходов, из
которых
складывается
благоприятствующими
А,
событие
А.
появлению
исходами,
называют
В
этих
терминах
согласно
классическому определению P(A) равно отношению числа исходов,
благоприятствующих появлению А, к числу всех возможных исходов.
Для
рассмотрения
несколько
упростить
свойств
и
классической
формализовать
вероятности
классическую
удобно
теоретико-
вероятностную модель [9]. Будем считать события A1, A2, …, An
образующие
событий,
полную
точками
группу
попарно
ω 1 , ω 2 ,..., ω n
несовместных
нового
пространства
,
равновероятных
элементарных
событий, для которого сохраним прежнее обозначение Ω . Таким образом,
положим
Ω = {ω1 } + {ω 2 } + ... + {ω n }
где
{ω i }
обозначает
множество,
состоящее
из
одной
точки
ωi
(элементарного события), i = 1,..., n . Для каждого элементарного события ω i
определим вероятность
P({ω i }) =
1
, i = 1,..., n
n
Алгебра Ξ событий в данном случае состоит из невозможного
события
∅
и
{ω i }, i = 1,..., n ,
всевозможных
объединений
одноточечных
множеств
всего – из C0n + C1n +...+C nn = 2 n событий.
Для любого события A ∈Ξ вероятность Р(А) определим равенством
P(A)=m/n, где m – число элементарных событий, из которых состоит А.
Очевидно,
классическая
эквивалентна тройке (Ω, Ξ, Ρ (
теоретико-вероятностная
модель
)) , состоящей из пространства элементарных
событий Ω , содержащего n точек, алгебры Ξ , содержащей 2
вероятности Р(.), определенной для всех событий из Ξ .
11
n
событий, и
Рассмотрим свойства классической вероятности [9].
1) Для любого A ∈ Ξ : 0 ≤ P ( A) ≤ 1 (поскольку 0 ≤ m ≤ n ).
2) Вероятность достоверного события А = Ω равна единице (так как
для А = Ω m=n). Вероятность невозможного события ∅ равна нулю (так как
для А = Ω m=0).
3) Для несовместных событий А1 и А 2
P ( A1 + A2 ) = P ( A1 ) + P ( A2 )
Для доказательства этого равенства достаточно заметить, что если m1
и m2 — числа элементарных событий, благоприятствующих соответственно
событиям А1 и А 2 , то в силу несовместности А1 и А 2 (A1 I A2 ) = ∅ сумма
m1 + m2 является числом элементарных событий, благоприятствующих
А1 + А 2 . Поэтому
P ( A1 + A2 ) =
m1 + m 2 m1 m 2
=
+
= P ( A1 ) + P ( A2 )
n
n
n
4) Вероятность события А , противоположного А, равна
()
P A = 1 − P ( A)
Доказательство следует из того, что А + А = Ω , и, следовательно,
(
)
()
согласно свойствам 2, 3 P A + A = P( A) + P A = 1 .
5) Если событие А влечет В, А ⊂ В , то
P ( B \ A) = P ( B ) − P ( A) и P ( B ) ≥ P ( A )
Для доказательства заметим, что В = А + В I А , причем события А и
В I А несовместны, так как являются несовместными события А и А
В I А ⊂ А . Поэтому согласно свойству 3 из § 4
(
и
)
P ( B ) = P ( A) + P BI A .
(
)
Отсюда следует, что P (B ) ≥ P ( A ) , так как согласно свойству 1 P BI A ≥ 0 , а
(
)
также P BI A = P(B \ A) = P(B ) − P( A) .
6) Для любых событий А1 и А 2 имеет место равенство
12
(
)
(
P A1 U A2 = P( A1 ) + P( A2 ) − P A1 I A2
)
(1.2)
Действительно,
(
A1 U A2 = A1 + A2 \ A1 = A1 + A2 \ A1 I A2
)
Так как А1 I А 2 ⊂ А 2 , то доказываемое равенство следует из свойств 3,
5 из § 4.
Равенство (1.2) нетрудно распространить на случай произвольного
конечного числа событий. Вероятность того, что произойдет хотя бы одно из
событий A1, A2, …, An равна
(
)
n
n
i =1
i< j
(
)
Pn ,1 = P A1 U ...U An = ∑ P( Ai ) − ∑ P Ai I A j +
+
∑ P(A I A I A ) + ... + (− 1)
n
i< j <k
i
j
n −1
k
(
P A1 I ...I An
)
Действительно, если B = A1 U... U A n−1 , то искомая вероятность по
только что доказанному равенству (1.2) равна
(
Pn ,1 = P(B ) + P( An ) − P BI An
)
Но согласно соотношению 15 из § 2
(
BI An = A1 I An
)U (A I A )U (A I A )
2
n
n −1
n
и если считать, что доказываемое верно для объединения n –1 событий, то
(
)
(
)
(
)
P BI An = ∑ P Ai I An −∑ P Ai I A j I An + ... + (− 1)
i
i< j
n −1
(
P A1 I ...I An −1 I An
)
где при суммировании индексы i, j,… пробегают значения 1,…, n–1. Итак, мы
получили верно доказываемое равенство.
Как правило, отыскание вероятностей, основанное на классическом
определении, сводится к комбинаторным вычислениям.
§ 5. Простейшие комбинаторные формулы
Пусть требуется выполнить одно за другим k действий, причем каждое
[
]
можно выполнить ni способами i = 1, k . Все k действий вместе могут быть
13
n1 × n2 ×...× n k
выполнены
способами
(основной
принцип
комбинаторики) [12].
Пусть Δ — множество из n элементов [12]. Произвольное k —
элементное
подмножество
(порядок
элементов
в
подмножестве
не
существенен) множества из n элементов называется сочетанием из n
элементов по k. Число сочетаний из n элементов по k находится по формуле
C nk =
n(n − 1)(n − 2 )...(n − k + 1)
n!
=
k!
k! (n − k )!
Для чисел C kn справедливы следующие тождества, часто полезные
при решении задач:
C nk = C nn − k (свойство симметрии)
C kn+1 = C kn + C kn −1 , Con = 1 (рекуррентное соотношение);
Различные
упорядоченные
множества
(каждому
элементу
упорядоченного множества поставлено в соответствие некоторое число –
номер элемента), которые отличаются лишь порядком элементов (т.е. могут
быть получены из того же самого множества), называются перестановками
этого множества. Число перестановок множества, содержащего n элементов,
определяется по формуле
Pn = n!
Упорядоченные
k–элементные
подмножества
множества
из
n
элементов называются размещениями из n элементов по k (отличаются либо
элементами, либо их порядком). Число упорядоченных k–элементных
подмножеств множества из n элементов находится по формуле
Ank = n(n − 1)(n − 2 )...(n − k + 1) =
n!
(n − k )!
m
Пусть k1 , k 2 ,..., k m — целые неотрицательные числа и
∑ ki = n .
i =1
Множество А из n элементов представим в виде суммы m множеств
14
A1 , A 2 ,..., A m , содержащих соответственно k1 , k 2 ,..., k m элементов. Число
различных способов такого разбиения на группы определяется по формуле
C n (k1 , k 2 ,..., k m ) =
Пусть
n–элементное
множество
А
n!
k1 ! k 2 !...k m !
является
суммой
множеств
A1 , A 2 ,..., A k , число элементов которых соответственно равно n1 , n2 ,..., n k
⎧k
⎫
⎨∑ ni = n⎬ , В — m–элементное подмножество множества А, содержащего
⎩ i =1
⎭
m1 элементов из А1 , m2 элементов из А 2 ,…, mk
элементов из А k
⎧k
⎫
⎨∑ mi = m⎬ . Число способов, которыми можно выбрать такое множество В
⎩ i =1
⎭
из А (множества упорядоченные), в силу основного принципа комбинаторики
равно
m2
mk
1
Cm
n × C n ×...×C n .
1
2
k
Пример. В партии из N деталей имеется n стандартных. Наудачу
отобраны m деталей. Найти вероятность того, что среди отобранных деталей
ровно k стандартных.
Решение. Общее число возможных элементарных исходов испытания
равно числу способов, которыми можно извлечь m деталей из N деталей,
т.е. CNm – числу сочетаний из N элементов по m .
Подсчитаем число исходов, благоприятствующих интересующему нас
событию ( среди m деталей ровно k стандартных): k стандартных деталей
можно взять из n стандартных деталей Cnk способами; при этом остальные
m − k деталей должны быть нестандартными; взять же m − k нестандартных
деталей из
N −n
нестандартных деталей можно
CNm−−kn
способами.
Следовательно, число благоприятствующих исходов равно Cnk CNm−−kn .
15
Искомая
вероятность
равна
отношению
числа
исходов,
благоприятствующих событию, к числу всех элементарных исходов:
P=
Cnk CNm−−kn
CNm
.
§ 6. Аксиоматическое построение теории вероятностей
Пусть Ω — пространство элементарных событий, Ξ — алгебра
событий (подмножеств Ω ) [9]. Следующие пять условий образуют систему
аксиом теории вероятностей.
1.
Ξ является σ —алгеброй событий или борелевским полем
событий.
Алгебра событий Ξ называется σ —алгеброй, если для всякой
последовательности
событий
∞
A = A1 U A 2 U... = U A j
А j ∈Ξ ,
j=1,2,…,
их
объединение
также принадлежит Ξ , т.е. является событием.
1
∞
Согласно свойствам 17 и 18 из § 2 отсюда следует, что и B = I A j ∈Ξ .
1
Действительно, В = А1 U А 2 U... = А1 I А 2 I.. .
Таким образом, что σ –алгебра есть класс множеств, замкнутый
относительно
счетного
числа операций
дополнения,
объединения
и
пересечения. Если Aα , α ∈S , произвольная система событий, то, например,
их объединение
2.
числовые
U Aα может и не быть событием.
α ∈S
На σ –алгебре Ξ определяется функция Р(.), принимающая
значения
P ( A) ≥ 0, A ∈ Ξ ,
обладающая следующими свойствами.
16
называемая
вероятностью
и
3.
Для всяких двух событий А и В, таких что А I В = ∅ ,
Р(А+В)=Р(А)+Р(В) (аксиома сложения вероятностей).
Отсюда следует, что для произвольного конечного числа несовместных
событий A1 ,..., A n
P( A1 + ... + An ) = P( A1 ) + ... + P( An )
4.
Пусть
события
A j,
j=1,2,…
попарно
несовместны:
A i I A j = ∅, i ≠ j , i, j = 1,2 и А = А1 + А 2 +... . Тогда
∞
P( A) = P( A1 ) + P( A2 ) + ... = ∑ P( Ai )
i =1
Эта аксиома определяет счетную аддитивность вероятности. Более
привычно она звучит как аксиома непрерывности вероятности. Для этого
рассмотрим последовательность событий В1 = А1 , В2 = А1 + А 2 ,... . Событие
{ }
А следует понимать как предел последовательности B j , A = lim Bn . При
n→∞
этом данное равенство можно понимать как свойство непрерывности
вероятности:
n
∞
⎛
⎞
{
}
P ( A) = P⎜ lim B n ⎟ = lim P (B n ) = lim ∑ P A j = ∑ P{A j }
n → ∞ j =1
⎝ n→∞
⎠ n→∞
j =1
5. P (Ω ) = 1 .
Пространство элементарных событий Ω , σ –алгебра событий Ξ и
вероятность Р(.) на Ξ , удовлетворяющие аксиомам теории вероятностей,
образуют так называемое вероятностное пространство, которое принято
обозначать (Ω, Ξ , Ρ ) .
Если задано пространство Ω и какая-нибудь σ –алгебра Ξ его
подмножеств, то говорят, что задано измеримое пространство (Ω, Ξ ) .
Система аксиом теории вероятностей не противоречива, так как
существуют Ω, Ξ и Р(.), удовлетворяющие этим аксиомам, и не полна, так
как вероятность можно определить многими способами в рамках аксиом 2—
17
5. В качестве примера рассмотрим классическую теоретико-вероятностную
модель, в которой Ω — конечное множество, Ξ — алгебра (и σ –алгебра)
всех подмножеств
Ω
и вероятность Р(.) определена для каждого
подмножества А ∈Ξ как отношение числа точек, образующих А, к числу
всех точек Ω .
Для произвольного пространства элементарных событий Ω система
всех его подмножеств образует σ –алгебру. Но такая σ –алгебра может
оказаться столь обширной, что на ней невозможно определить вероятность,
удовлетворяющую свойству счетной аддитивности 4. Требование счетной
аддитивности Р(.) и стремление выбрать систему множеств Ξ как можно
более широкой взаимно ограничивают друг друга.
Задание
вероятностного
пространства
есть
задание
счетно-
аддитивной неотрицательной меры на измеримом пространстве, такой, что
мера Ω равна 1. В таком виде аксиоматика теории вероятностей была
сформулирована А.Н.Колмогоровым.
Приведем пример σ —алгебры [2]. Эксперимент состоит в случайном
бросании в квадрат [0,1] X [0,1]. Под этим будем понимать следующее.
Пространством Ω всех исходов эксперимента здесь является квадрат. Слова
“произведено испытание” означают, что выбрана точка ω ∈Ω . σ —алгебру
Ξ образуем из множеств, для которых имеет смысл понятие площади.
Вероятность
события
положим
равной
площади
соответствующего
измеримого множества. Очевидно, что все аксиомы здесь выполнены.
Лемма (о суммировании по блокам) [9]. Пусть I={1, 2, …} –
множество
всех
непересекающиеся
чисел
натурального
ряда,
подмножества I, такие, что
Iα , α = 1, 2, ...,
I = I1 + I 2 +...
—
( этих
подмножеств может быть и конечное число). Пусть числовой ряд
∞
c1 + c2 +...+c n +... сходится абсолютно и его сумма равна S, S = ∑ c k . Если
k=1
18
Sα =
∑ c k , α = 1, 2, ... ,
то
числовой
S1 + S2 +...+Sn +...
ряд
сходится
k ∈Iα
∞
абсолютно и его сумма также равна S, S = ∑ Sα .
α =1
Доказательство леммы приведено в [9].
Объявим событием любое подмножество Ω и для любого события А
зададим вероятность
P ( A) =
∑ P[ω
j:ω j ∈ A
j
]
Из леммы о суммировании по блокам для абсолютно сходящихся рядов
следует, что эта вероятность обладает свойством счетной аддитивности ( и
аддитивности) на σ —алгебре всех подмножеств Ω .
Рассмотрим теперь важный для приложений класс дискретных
вероятностных пространств [9].
Вероятностное пространство (Ω, Ξ , Ρ ) называется дискретным, если
Ω = {ω 1 , ω 2 ,...} конечно или счетно, Ξ — σ —алгебра всех подмножеств Ω
(включая пустое множество ∅ ), вероятность Р(.) определена для каждого
одноточечного подмножества Ω :
[ ]
∞
P ω j = p j ≥ 0, j = 1,2,..., ∑ p j = 1.
j =1
При этом вероятность любого события А ∈Ξ определяется равенством
P ( A) =
∑p
j:ω j ∈A
j
Для дискретного вероятностного пространства выполнены аксиомы
теории вероятностей.
Изучим свойства вероятности, которые вытекают из аксиом. Так же как
при доказательстве свойств классической вероятности, найдем, что:
[]
1) P A = 1 − P( A) , так как А + А = Ω .
19
2) Если
А ⊂ В,
P ( B \ A) = P (B ) − P ( A ) ,
то
так
как
В=А+В\А.
Следовательно, включение А ⊂ В влечет неравенство P ( A) ≤ P (B ) .
3) Для любых событий A1 ,..., A n имеет место равенство
(
)
n
n
i =1
i< j
(
)
Pn ,1 = P A1 U ...U An = ∑ P( Ai ) − ∑ P Ai I A j +
+
∑ P(A I A I A ) + ... + (− 1)
n
i< j<k
i
j
n −1
k
4) Пусть A1 ⊂ A 2 ⊂... ⊂ A n ⊂...
(
P A1 I ...I An
)
— последовательность событий,
∞
каждое из которых влечет все последующие. Если A = U A j — событие,
1
состоящее в том, что происходит хотя бы одно из событий A j , j=1,2,…, то
P ( A) = lim P ( An )
n→∞
Действительно, положим А о = ∅ . Тогда
∞
A = U A j = ( A1 / A0 ) + ( A2 / A1 ) + ... + ( An / An −1 ) + ...
1
и
∞
P( A) = ∑ P (A j / A j −1 ) = lim ∑ P (A j / A j −1 ) =
n
n →∞
j −1
j =1
= lim ∑ (P (A j ) − P(A j −1 )) = limP( An )
n
n →∞
n →∞
j =1
5) Если A1 ⊃ A 2 ⊃... ⊃ A n ⊃... — последовательность событий, каждое
∞
из которых влечет все последующие, и A = I A j событие, состоящее в том,
j=1
P( An ) .
что происходят все события A1 ,..., A n ,... , то P ( A) = lim
n →∞
Действительно, для противоположных событий: A1 ⊂ A 2 ⊂... ⊂ A n ⊂...
∞
()
( )
P An , и, следовательно,
и A = U A j . Поэтому P A = nlim
→∞
1
20
()
(
( ))
P( A) = 1 − P A = lim 1 − P An = lim P( An )
n →∞
n →∞
Свойства 4 и 5 из § 6 можно понимать как свойства непрерывности
вероятности
относительно
монотонных
Действительно, если A1 ⊂ A 2 ⊂... ⊂ A n ⊂... , то
предельных
n
UA j = An ,
переходов.
и множество
j=1
∞
A = U A j естественно назвать пределом монотонной последовательности
j=1
множеств A1 ⊂ A 2 ⊂... ⊂ A n ⊂... : A = lim A j . Тогда согласно свойству 4 из §
j→∞
6:
P( A) = P⎛⎜ lim A j ⎞⎟ = lim P{A j }
⎝ j →∞ ⎠ j →∞
n
Точно так же, если A1 ⊃ A 2 ⊃... ⊃ A n ⊃... , то A n = I A j , и множество
j=1
∞
A = I A j называется пределом монотонной последовательности множеств
j=1
A1 ⊃ A 2 ⊃... ⊃ A n ⊃... : A = lim A j . В данном случае свойство 5 из § 6
j→∞
означает, что
P ( A) = P⎛⎜ lim A j ⎞⎟ = lim P{A j }.
⎝ j →∞ ⎠ j →∞
§ 7. Независимые события
События А и В называются независимыми [6], если
Р(АВ)=Р(А)Р(В).
Пусть последовательно бросаются две монеты: А – выпадение “герба”
при первом бросании, В – выпадение “герба” при втором бросании.
21
Допустим, что Р(А)=Р(В)=1/2, Р(АВ)=1/4. В этом случае события А и В
независимы.
Если А и В – независимые события, то также независимы А и В, А и
В , А и В . Эти три свойства доказываются аналогично, поэтому приведем
( )
доказательство лишь первого из них. Имеем B = ABU AB, ( AB ) AB = ∅ ,
( )
откуда P (B ) = P ( AB ) + P AB .
Значит,
( )
()
P AB = P(B ) − P( AB) = P(B ) − P( A)P(B ) = P(B )[1 − P( A)] = P(B )P A
Итак, А и В – независимые события.
Если А и В – не независимые события, то они называются зависимыми.
Если А и В независимы, то говорят, что любое из них независимо (не зависит)
от другого. Независимость – свойство взаимное: если А независимо от В, то и
В независимо от А.
События Aα , α ∈I , где I – конечное или счетное множество,
называются независимыми (в совокупности), если для любого конечного
набора различных α 1 , α 2 ,..., α n ∈I
(
) ( )( ) ( )
P Aα1 Aα ... Aα n = P Aα1 P Aα 2 ...P Aα n
2
События Aα , α ∈I , где I – любое множество, называются попарно
независимыми, если при любых α 1 ≠ α 2 , α 1 ∈I, α 2 ∈I
(
)
( )( )
P Aα1 , Aα 2 = P Aα1 P Aα 2
Пример. Для сигнализации об аварии установлены два независимо
работающих сигнализатора. Вероятность того, что при аварии сигнализатор
сработает, равна 0,95 для первого сигнализатора и 0,9 для второго. Найти
вероятность того, что при аварии сработает только один сигнализатор.
Решение. Введем обозначения событий: В1 – появилось событие А1 –
сработает только первый сигнализатор; В2 – появилось событие А2
сработает только второй сигнализатор.
22
–
Появление события
В1
равносильно появлению события
А1 А2
(появилось первое событие и не появилось второе), т.е. В1 = А1 А2 . Появление
события В2 равносильно появлению события А1 А2 (появилось второе
событие и не появилось первое), т.е. В2 = А1 А2 .
Таким образом, чтобы найти вероятность появления только одного из
событий
А1 и
А2 , достаточно найти вероятность появления одного,
безразлично какого, из событий В1 и В2 . События В1 и В2 несовместны,
поэтому применима теорема сложения:
P (B1 + B2 ) = P (B1 ) + P (B2 ) .
(3)
Остается найти вероятности каждого из событий В1 и В2 . События А1
и А2 независимы, следовательно, независимы события А1 и А2 , а также А1 и
А2 , поэтому применима теорема умножения:
(
(
)
( )
) ( )
P (B1 ) = P A1 A2 = P ( A1 )P A2 = p1 q 2 ;
P (B 2 ) = P A1 A2 = P A1 P ( A2 ) = q1 p 2 .
Подставив эти вероятности в соотношение (3), найдем искомую
вероятность появления только одного из событий А1 и А2 :
P (B1 + B 2 ) = p1 q 2 + q1 p 2 = 0,95 ⋅ 0,1 + 0,05 ⋅ 0,9 = 0,14.
§ 8. Условная вероятность
Пусть задано вероятностное пространство (Ω, Ξ , Ρ ) и пусть А и В –
произвольные события [2]. Если Р(В) > 0, то условная вероятность события А
при условии, что произошло событие В, по определении полагается равной
P( A / B ) =
P( AB )
P (B )
Умножив обе части этого равенства на Р(В), найдем
Р(АВ)=Р(В)Р(А/В).
23
Так как левая часть этого равенства симметрична относительно А и В,
то можно записать
Р(АВ)=Р(А)Р(В/А).
Эта формула заменяет более простую формулу Р(АВ)=Р(А)Р(В),
справедливую для независимых событий А и В, и называется правилом
умножения вероятностей.
Пусть теперь A1 , A 2 ,..., A n — произвольные события [6]. Обозначим
A1A 2 ... A i = Bi , 1 ≤ i ≤ n -1, A = A1A 2 ... A n
и
предположим,
что
P(Bi > 0), 1 ≤ i ≤ n − 1 . Тогда
P( A) = P(Bn−1 An ) = P(Bn−1 )P( An / Bn−1 ) .
В свою очередь,
P(Bn−1 ) = P(Bn−2 An−1 ) = P(Bn−2 )P( An−1 / Bn−2 ) ,
так что
P( A) = P(Bn−2 )P( An−1 / Bn−2 )P( An / Bn−1 ) .
Применив то же преобразование к P(Bn−2 ) , найдем
P( A) = P(Bn−3 )P( An−2 / Bn−3 )P( An−1 / Bn−2 )P( An / Bn−1 )
и т.д. Окончательно имеем
P( A) = P ( A1 )P( A2 / B1 )P( A3 / B2 ) ... P( An / Bn−1 ) ,
или, что то же,
P( A) = P( A1 )P( A2 / A1 )P( A3 / A1 A2 ) ... P( An / A1 An−1 ) .
Пример. Студент знает 20 из 25 вопросов программы. Найти
вероятность того, что студент знает предложенные ему экзаменатором три
вопроса.
Решение. Введем обозначения событий: А – студент знает ответ на
первый вопрос; В – студент знает ответ на второй вопрос; С – студент знает
ответ на третий вопрос. Вероятность того, что студент знает ответ на первый
вопрос, P( A) = 20 / 25 .
24
Вероятность того, что студент знает ответ на второй вопрос при
условии, что студенту известен ответ на первый вопрос, т.е. условная
вероятность события В следующая: P (B / A) = 19 / 24 .
Вероятность того, что студент знает ответ на третий вопрос при
условии, что студенту известны ответы на первый и второй вопросы, т.е.
условная вероятность события С такова: P (C / AB ) = 18 / 23 .
Искомая вероятность того, что студент знает ответы на все три
вопроса, равна:
P( ABC ) = P( A) ⋅ P(B / A) ⋅ P(C / AB ) =
20 19 18 57
⋅ ⋅ =
25 24 23 115 .
§ 9. Формула полной вероятности
Пусть с данным испытанием связана полная группа несовместных
событий H 1 , H 2 , ... , вероятности которых P(H k )
(k=1,2,…) известны [6].
Будем называть эти события гипотезами. Требуется найти вероятность
события А, для которого известны условные вероятности P( A / H k ) (k=1,2,…)
относительно всех событий H 1 , H 2 , ... .
Поскольку
события
H1 , H 2 ,...
образуют
полную
группу,
их
объединение есть достоверное событие. Событие А может появиться только
одновременно с каким-нибудь событием H k . Таким образом, событие А есть
объединение событий AH1 , AH 2 ,.. : A = AH1 U AH 2 U.. . Так как события
H1 , H 2 ,... по
условию
несовместны, то
события AH1 , AH 2 ,... тоже
несовместны, и мы можем применить аксиому сложения вероятностей,
в соответствии с которой P( A) = ∑ P( AH k ) . Применив к вероятностям P( AH k )
k
правило умножения, получаем
P( AH k ) = P(H k )P( A / H k ) ,
откуда P( A) = ∑ P(H k )P( A / H k ) .
k
Эта формула называется формулой полной вероятности.
25
Итак, вероятность события А равна сумме вероятностей событий
H1 , H 2 ,... ,
умноженных
на
соответствующие
условные
вероятности
события А.
Пример. Имеются две урны: в первой а белых шаров и b черных; во
второй с белых и d черных. Из первой урны во вторую перекладывают, не
глядя, три шара. После этого из второй урны берут один шар. Найти
вероятность того, что этот шар будет белым.
Решение. Можно выдвинуть две гипотезы:
H1 – вынутый из 2-й урны шар принадлежит 1-й урне; H2 – вынутый
из 2-й урны шар принадлежит 2-й урне. Так как во второй урне три шара
принадлежат первой урне, а c + d – второй, то
P (H 1 ) =
3
c+d
; P (H 2 ) =
c+d +3
c+d +3 .
Вероятность появления белого шара из первой урны не зависит от того,
вынимается ли этот шар непосредственно из первой урны или после
перекладывания во вторую:
P( A / H 1 ) =
c
a
; P( A / H 2 ) =
c+d ,
a+b
откуда
P ( A) =
3
a
c+d
c
⋅
+
⋅
c+d +3 a+b c+d +3 c+d .
§ 10. Формула Байеса
В задачах практики нас часто интересует полная группа несовместных
событий H 1 , H 2 , ... , вероятности которых P(H k ) (k=1,2,…) известны [8]. Эти
события непосредственно не наблюдаемы, но можно наблюдать некоторое
событие А, с ними связанное, для которого известны условные вероятности
P( A / H k ) (k=1,2,…). Допустим, что произведено испытание, в результате
которого появилось событие А. На основании этого испытания требуется
26
сделать выводы относительно событий H 1 , H 2 , ... , т.е. определить, как
изменились их вероятности после произведенного испытания. Иначе говоря,
нужно найти условные вероятности событий H 1 , H 2 , ... относительно события
А.
На основании правила умножения вероятностей
P( AH k ) = P( A)P(H k / A) = P(H k )P( A / H k ) .
Отсюда следует, что
P(H k )P( A / H k )
P ( A)
.
P (H k / A) =
Подставляя сюда выражение вероятности события А из формулы
полной вероятности, получим
P (H k / A) =
P(H k )P( A / H k )
∑ P(H i )P( A / H i ) .
i
Эта формула носит название формулы Байеса.
Вероятности P(H k ) (k=1,2,…) интересующих нас событий H 1 , H 2 , ...
до испытания обычно называются априорными вероятностями от латинского
a priori, что значит “сперва”, т.е. в данном случае до того, как был
произведено испытание. Вероятности P(H k / A) (k=1,2,…) тех же событий
после испытания называются апостериорными от латинского a posteriori, что
значит “после”, т.е. в данном случае после испытания.
Пример. Два автомата производят одинаковые детали, которые
поступают на общий конвейер. Производительность первого автомата вдвое
больше производительности второго. Первый автомат производит в среднем
60% деталей отличного качества, а второй – 84%. Наудачу взятая с конвейера
деталь оказалась отличного качества. Найти вероятность того, что эта деталь
произведена первым автоматом.
Решение. Обозначим через А событие – деталь отличного качества.
Можно рассмотреть две гипотезы: Н1 – деталь произведена первым
автоматом, причем (поскольку первый автомат производит вдвое больше
27
P (H 1 ) = 2 / 3 ; Н2 – деталь произведена вторым
деталей, чем второй)
автоматом, причем P (H 2 ) = 1 / 3 .
Условная вероятность того, что деталь будет отличного качества, если
она произведена вторым автоматом, P ( A / H 1 ) = 0,6 .
Условная вероятность того, что деталь будет отличного качества, если
она произведена вторым автоматом, P ( A / H 2 ) = 0,84 .
Вероятность того, что наудачу взятая деталь окажется отличного
качества, по формуле полной вероятности равна
P ( A) = P (H 1 ) ⋅ P ( A / H 1 ) + P (H 2 ) ⋅ P ( A / H 2 ) = 2 / 3 ⋅ 0,6 + 1 / 3 ⋅ 0,84 = 0,68
Искомая вероятность того, что взятая отличная деталь произведена
первым автоматом, по формуле Байеса равна
P (H 1 / A) =
P (H 1 ) ⋅ P ( A / H 1 ) 2 / 3 ⋅ 0 / 6 10
=
=
0,68
17 .
P ( A)
§ 11. Повторение испытаний
Рассмотрим сложное испытание, состоящее из нескольких более
простых испытаний, в каждом из которых может появиться или не появиться
некоторое событие А [5].
Испытания
называются
независимыми,
если
вероятность
интересующего нас события А в каждом испытании не зависит от
результатов
других
испытаний.
Предположим,
что
производятся
n
независимых испытаний, в каждом из которых вероятность появления
события А равна р. Требуется найти вероятность Pn (k ) того, что при n
испытаниях событие А появится ровно k раз и, следовательно, не появится (n
– k) раз. Подчеркнем, что не требуется, чтобы событие А повторилось ровно k
раз в определенной последовательности.
Для того чтобы при n испытаниях событие А появилось k раз,
необходимо и достаточно, чтобы появилась одна из последовательностей
28
событий B1 ,..., Bn , в которых k из событий B1 ,..., Bn совпадают с А, а (n – k)
— с противоположным событием
А . Очевидно, что число таких
последовательностей равно числу сочетаний из n по k:
С nk =
В
силу
независимости
n!
0!= 1
k!(n − k )!
.
испытаний
вероятность
каждой
такой
последовательности по правилу умножения для независимых событий равна
p k q n− k , где q=1—p. Итак, в силу несовместности всех возможных
последовательностей искомая вероятность
Pn (k )
равна сумме вероятностей
всех последовательностей, состоящих из k событий А и (n – k) событий А ,
k n− k
:
т.е. сумме C kn слагаемых, равных p q
Pn (k ) = С nk p k q n−k =
n!
p k q n−k ( k = 0, 1, ..., n )
k!(n − k )!
Полученную формулу называют формулой Бернулли. Соответствие
между числами k=0,1,…,n и вероятностями pn (k ) , определяемое формулой
Бернулли, называется биномиальным распределением.
Возьмем теперь вспомогательную переменную u и заметим, что
величина P(ku k ) = Сnk p k q n−k u k представляет собой общий член разложения
n
функции (q + pu ) по формуле бинома Ньютона [8].
Таким образом, вероятность Pn (k ) представляет собой коэффициент
при u k в разложении функции
ϕ n (u ) = (q + pu )n
по степеням u.
Функция
ϕ n (u )
называется
производящей
функцией
для
вероятностей Pn (k ) .
Элементарными событиями в данном случае служат все конечные
последовательности {B1 , ..., Bn } , где каждое Bm представляет собой событие
29
А или противоположное событие A . Полем событий Ξ служит алгебра всех
возможных
объединений
этих
элементарных
событий,
дополненных
невозможным событием. Вероятность каждого элементарного события равна
p k q n−k , где k – число событий Bm
в последовательности
{B1 ,..., Bn } ,
совпадающих с А (k=0,1,…,n). Вероятность любого события определяется как
сумма вероятностей входящих в него элементарных событий.
Пример. Вероятность того, что расход электроэнергии в продолжение
одних суток не превысит установленной нормы, равна р= 0,75 . Найти
вероятность того, что в ближайшие 6 суток расход электроэнергии в течение
4 суток не превысит нормы.
Решение.
Вероятность
нормального
расхода
электроэнергии
в
продолжение каждых из 6 суток постоянна и равна р= 0,75 . Следовательно,
вероятность перерасхода электроэнергии в каждые сутки также постоянна и
равна q = 1 − p = 1 − 0,75 = 0,25 .
Искомая вероятность по формуле Бернулли равна
P6 ( A) = C64 p 4 q 2 =
6⋅5
4
2
⋅ (0,75) ⋅ (0,25) = 0,3
1⋅ 2
.
§ 12. Вероятность появления события не меньше данного числа раз
Во многих задачах практики приходится определять вероятность
того, что интересующее нас событие А появится при n экспериментах не
меньше чем данное число m раз [8].
Сложное событие – появление события А не меньше чем m раз –
представляет собой объединение n–m+1 несовместных событий: появление А
ровно m раз, появление А ровно m+1 раз, и т.д., появление А ровно n раз.
Поэтому искомая вероятность Rn (m ) того, что при n экспериментах
событие А появится не меньше чем m раз, равна
n
Rn (m ) = Pn (m ) + Pn (m + 1) + ... + Pn (n ) = ∑ Pn (k )
k =m
30
Эту
вероятность
можно
также
вычислить,
определив
сначала
вероятность противоположного события, т. е. вероятность того, что событие
А появится меньше чем m раз, и вычтя ее из единицы:
m −1
Rn (m ) = 1 − Pn (0) − Pn (1) − ... − Pn (m − 1) = 1 − ∑ Pn (k )
k =0
.
Вероятность появления хотя бы одного события. Часто приходится
вычислять вероятность того, что интересующее нас событие появится хотя
бы один раз (т.е. не меньше чем один раз). В этом случае при любом n ≥ 2
вероятность события находится по формуле
Rn (1) = 1 − Pn (0 ) = 1 − q1q2 ...qn
В
частном
случае
постоянных
условий
эксперимента
q1 = q 2 =... = q n = q последняя формула принимает вид
Rn (1) = 1 − q n .
Пример.
Для
разрушения
моста
достаточно
попадания
одной
авиационной бомбы. Найти вероятность того, что мост будет разрушен, если
на
него
сбросить
четыре
бомбы,
вероятности
попадания
которых
соответственно равны: 0,3; 0,4; 0,6; 0,7.
Решение. Мост будет разрушен, если на него упадет хотя бы одна
бомба. Поэтому искомая вероятность равна
P ( A) = 1 − (1 − 0,3)(1 − 0,4 )(1 − 0,6 )(1 − 0,7 ) = 0,95 .
§ 13. Распределение Пуассона
Формулы биномиального распределения вероятностей приводят при
больших n к очень громоздким вычислениям. Поэтому важно иметь
приближенные, но зато достаточно простые формулы для вычисления
соответствующих вероятностей [9]. В частности, нередко встречаются
задачи, в которых рассматривается большое число независимых испытаний,
причем вероятность наступления события А при каждом отдельном
испытании мала.
31
В этом случае вероятности Pn (k ) могут быть приближенно вычислены
по так называемой формуле Пуассона. Эта формула получается как
предельная для биномиального распределения, когда число испытаний
стремится к бесконечности, а вероятность успеха стремится к нулю, однако в
пределах одной последовательности независимых испытаний ни то, ни
другое по определению невозможно.
Пусть
произведена
некоторая
серия
независимых
испытаний,
состоящая из конечного числа испытаний, затем новая серия, затем еще
новая и т.д. Будем иметь последовательность серий испытаний. Пусть при
каждом испытании каждой серии может наступить или не наступить
некоторое событие А, т.е. имеем всего два исхода, и пусть вероятность
наступления А при отдельном испытании остается постоянной в пределах
каждой серии (как это требуется для последовательности независимых
испытаний), но может меняться от серии к серии. В этих условиях
справедлива
Пусть дана последовательность {sn } серий
Теорема Пуассона.
независимых испытаний, состоящих соответственно из 1, 2,…, n,…
испытаний, и пусть вероятность р события А при каждом испытании n-й
серии равна λ / n , где λ — постоянная (не зависящая от n). Тогда вероятность
Pn (k ) того, что число наступлений события А в n-й серии будет равно k, при
n → ∞ и фиксированном k стремится к
λk
k!
e −λ .
Доказательство. Имеем
n!
n! ⎛ λ ⎞
n−k
p k (1 − p ) = lim
⎜ ⎟
n →∞ k!(n − k )!
n →∞ k!(n − k )! n
⎝ ⎠
lim Pn (k ) = lim
n →∞
= lim
n →∞
=
λk ⎛
n
λ ⎞ ⎛⎜ n(n − 1)...(n − k + 1) ⎛
⎜1 − ⎟
k! ⎝ n ⎠ ⎜⎝
nk
k
⎛ λ⎞
⎜1 − ⎟
⎝ n⎠
n−k
−k
λ ⎞ ⎞⎟
=
⋅ ⎜1 − ⎟
⎝ n ⎠ ⎟⎠
n
⎛ ⎛ 1 ⎞ ⎛ k − 1 ⎞ ⎛ λ ⎞ − k ⎞ λk − λ
⎛ λ⎞
lim⎜1 − ⎟ ⋅ lim⎜ ⎜1 − ⎟ ⋅ ⎜1 −
⎟ ⋅ ⎜1 − ⎟ ⎟ = e .
k! n→∞⎝ n ⎠ n→∞⎜⎝ ⎝ n ⎠ ⎝
n ⎠ ⎝ n ⎠ ⎟⎠ k!
λk
Распределение вероятностей, определяемое формулой
32
=
P (k ) =
λk
k!
e −λ , k = 0,1, 2, ..., λ > 0 ,
называется распределением Пуассона и является одним из важнейших в
теории вероятностей.
Пример. Учебник издан тиражом 100 000 экземпляров. Вероятность
того, что учебник сброшюрован неправильно, равна 0,0001. Найти
вероятность того, что тираж содержит ровно пять бракованных книг.
Решение.
По
условию
n = 100 000, p = 0,0001, k = 5 .
События,
состоящие в том, что книги сброшюрованы неправильно, независимы, число
n велико, а вероятность р мала, поэтому воспользуемся распределением
Пуассона
Pn (k ) = λk e − λ / k .
Найдем λ : λ = np = 100 000 ⋅ 0,0001= 10 .
Искомая вероятность
P100 000 (5) = 10 5 ⋅ e −10 / 5 = 10 5 ⋅ 0,000045 / 120 = 0,0375.
§ 14. Локальная и интегральная предельные
теоремы Муавра—Лапласа
Как было сказано в начале предыдущего пункта, при большом числе
испытаний формулы для вычисления вероятностей Pn (k ) , отвечающих
биномиальному распределению, весьма громоздки. В связи с этим надо
иметь более простые приближенные формулы. Для случая, когда вероятность
р при каждом испытании очень мала, мы установили приближенную
формулу – распределение Пуассона. Теперь рассмотрим другую предельную
форму биномиального распределения, считая, что вероятность р отлична от
нуля и единицы.
Локальная теорема Муавра—Лапласа. Если вероятность события А в n
независимых испытаниях равна р, 0<p<1, то вероятность Pn (k ) того, что в
33
этих экспериментах событие А наступит k раз, удовлетворяет при т → ∞
соотношению lim
n →∞
npq Pn (k )
1
e
2π
X2
−
2
= 1,
q=1–p, x =
k − np
, x ∈ [a, b ] ,
npq
где a<b, a и b – любые конечные фиксированные числа.
Стремление к пределу равномерно относительно всех k, для которых
x ∈ [a, b] .
Доказательство. Имеем
npq Pn (k ) = npq
n!
p k q n−k .
k!(n − k )!
Воспользовавшись формулой Стирлинга,
k ! = 2πkk k e − k eθ k , θ k ≤
1
,
12 k
получим
1 n n neθ n −θ k −θ n −k p k q n−k
⋅ k
=
npq Pn (k ) = npq
n−k
2π k (n − k )
k n−k
1
=
2π
⎛ ⎛ np ⎞ k ⎛ nq ⎞ n− k ⎞ n 2 pq θ −θ −θ
1
⎜⎜ ⎟ ⎜
⎟
e n k n−k ≡
An (x )Bn (x )C n ( x ) .
⎟
⎜ ⎝ k ⎠ ⎝ n − k ⎠ ⎟ k (n − k )
2
π
⎝
⎠
Найдем пределы выражений An (x ), Bn ( x ), C n (x ) при n → ∞ .
Пусть [a,b] – произвольный конечный отрезок; будем рассматривать
такие k, для которых x ∈ [a, b ] . Так как x =
k − np
, то
npq
k = np + x npq , n − k = n(1 − p ) − x npq = np − x npq , a ≤ x ≤ b
θ
Рассмотрим вначале Сn ( x ) = e , θ = θ n − θ k − θ n−k .
34
θ ≤ θ n + θ k + θ n−k ≤
⎞
1 ⎛⎜ 1
1
1
⎟=
+
+
12 ⎜⎝ n np + x npq np − x npq ⎟⎠
⎛
⎞
⎟
⎜
1⎜
1
1
⎟.
=
1+
+
12 ⎜
pq
pq ⎟
p+x
q−x
⎜
⎟
n
n ⎠
⎝
Отсюда в силу признака Вейерштрасса следует, что θ → ∞ при
n → ∞ равномерно по x ∈ [a, b] . Таким образом,
С n ( x ) → 1 при
n→∞
равномерно относительно x, x ∈ [a, b ] . Далее рассмотрим Bn (x ) :
Bn ( x ) =
1
n 2 pq
=
→ 1, n → ∞
k (n − k )
⎛
⎞
⎛
⎞
q
p
⎜1 − x
⎟⎜1 − x
⎟
⎜
⎟
⎜
⎟
np
nq
⎝
⎠⎝
⎠
равномерно относительно x, x ∈ [a, b ] , на основании признака Вейерштрасса.
Рассмотрим, наконец, An (x ) . Пользуясь формулой
( )
z2
ln (1 + z ) = z − + 0 z 3 , z < 1,
2
получим
⎛n−k⎞
⎛ k ⎞
⎟⎟ =
ln An ( x ) = − k ln⎜⎜ ⎟⎟ − (n − k ) ln⎜⎜
⎝ np ⎠
⎝ np ⎠
(
)
(
)
⎛
⎛
q ⎞
p ⎞
⎟ − nq − x npq ln⎜1 − x
⎟=
= − np + x npq ln⎜⎜1 − x
⎟
⎜
⎟
np
nq
⎝
⎠
⎝
⎠
(
)
⎛
q
x2q
= − np + x npq ⎜⎜ x
−
+ 0 n −3 / 2
⎝ np 2np
(
(
)
⎛
p x2 p
+ nq − x npq ⎜⎜ − x
−
+ 0 n −3 / 2
nq 2nq
⎝
(
)⎞⎟⎟
⎠
)⎞⎟⎟ =
⎠
⎛
x2q
x2 p
= −⎜⎜ x npq + x 2 q −
+ 0 n −1/ 2 − x npq + x 2 p −
+ 0 n −1/ 2
2
2
⎝
(
)
1
= − x 2 + 0(n −1 / 2 ) ,
2
35
(
)⎞⎟⎟ =
⎠
причем, поскольку при n → ∞ x
q
p
, x
стремятся к нулю равномерно по
np
nq
x, x ∈ [a, b] , оценку 0 — членов можно взять независящей от k.
Итак, имеем
An ( x ) = e
1
⎛ 1 ⎞
− x 2 + 0 ⎜⎜
⎟⎟
2
⎝ n⎠
, n→∞.
Из полученных оценок следует утверждение теоремы.
Установленная теорема дает оценку величины Pn (k ) при больших n и
при фиксированном k:
Pn (k ) ≈
1
2π
2
k − np
1
e−x / 2 , x =
npq
npq
Пример. Найти вероятность того, что событие А наступит ровно 70 раз
в 243 испытаниях, если вероятность появления этого события в каждом
испытании равна 0,25.
–
. Так как
n = 243; k =70; p = 0,25; q = 0,75
n = 243
достаточно большое число, воспользуемся локальной теоремой Лапласа:
Решение. По условию
Pn (k ) =
где ϕ (x ) =
1
ϕ (x )
npq
1 − x2 / 2
k − np
,x=
e
. Найдем значение х:
2π
npq
x=
k − np
70 − 243 ⋅ 0,25
9 ,25
=
=
= 1,37.
npq
243 ⋅ 0,25 ⋅ 0,75 6,75
По таблице находим ϕ (1,37 ) = 0,1561 . Искомая вероятность равна
P243 (70 ) = 1 / 6,75 ⋅ 0.1561 = 0,0231
Однако практически при большом числе испытаний n и не слишком
малой вероятности р нас редко интересует вероятность того, что данное
событие наступит точно k раз. Важно бывает уметь оценить вероятность
того, что число наступлений события лежит в некоторых границах. Такую
оценку можно получить с помощью интегральной предельной теоремы
Муавра-Лапласа.
36
Интегральная предельная теорема Муавра—Лапласа. Пусть k – число
наступлений события А в серии из n независимых экспериментов, р –
вероятность наступления А при каждом испытании, 0<p<1, a и b – любые
фиксированные числа, a<b. Тогда
⎛
⎞
1
k − np
≤ b⎟ =
lim P⎜ a ≤
⎟
n→∞ ⎜
2π
npq
⎝
⎠
причем
стремление
к
пределу
b
∫e
−
x2
2
dx
a
равномерно
относительно
а
и
b,
− ∞ < a < b < +∞ .
Доказательство этой теоремы получим как совсем простое следствие
рассмотренной ниже центральной предельной теоремы [9].
Практическое применение интегральной предельной теоремы основано
на приближенном равенстве
⎞
⎛
1
k − np
P⎜ a ≤
≤ b⎟ ≈
⎟
⎜
2π
npq
⎠
⎝
Оценка
соответствующей
b
∫e
−
x2
2
dx
a
погрешности
показывает,
что
эта
приближенная формула обеспечивает хорошую точность уже при значениях
npq ≥ 10 и, естественно, тем лучшую точность, чем больше эта величина.
Рассмотрим некоторые типичные задачи, связанные с интегральной
теоремой Муавра—Лапласа.
Заданы число испытаний n и вероятность р при каждом испытании.
Требуется найти вероятность того, что число k будет заключено между
заданными числами k1 и k 2 , 0 ≤ k1 < k 2 ≤ n .
k 2 − np
⎛ k − np k − np k2 − np ⎞
⎟≈
≤
≤
P(k1 ≤ k ≤ k2 ) = P⎜⎜ 1
⎟
npq
npq
npq
⎝
⎠
1
2π
npq
∫
e
−
x2
2
dx
k1 − np
npq
Функция Φ(z ) =
x
z2
−
1
2
e
dz называется интегралом ошибок, для нее
∫
2π 0
составлены таблицы, поскольку
Φ (− x ) = −Φ ( x ) , значения в таблицах
указаны лишь для x ≥ 0 .
37
Пусть заданы числа р, α и β. Требуется определить, какое наименьшее
число n испытаний надо произвести для того, чтобы с вероятностью, не
меньшей β, частота k/n появлений отклонялась от вероятности р не больше
чем на α. Таким образом, надо найти n из условия
⎛1
⎞
P⎜⎜ − p ≤ α ⎟⎟ ≥ β .
⎝n
⎠
Поскольку
⎛
⎛1
⎞
P⎜⎜ − p ≤ α ⎟⎟ = P⎜ − α
⎜
⎝n
⎠
⎝
α
1
≈
2π
n
pq
∫
−α
e
x2
2
−
n
pq
n
k − np
≤
≤α
pq
npq
⎛
dx = 2Φ⎜⎜α
⎝
n ⎞⎟
≈
pq ⎟⎠
n ⎞
⎟
pq ⎟⎠
то задача состоит в определении n из условия
⎛
2Φ⎜⎜α
⎝
n ⎞
⎟≥β
pq ⎟⎠
Пусть заданы числа n, p и β. Требуется определить границы возможных
отклонений частоты появления успеха от вероятности р, т.е. надо найти α,
⎛1
⎞
для которого P⎜⎜ − p ≤ α ⎟⎟ = β .
⎝n
⎠
Согласно предыдущему примеру
⎛
⎛k
⎞
P⎜⎜ − p ≤ α ⎟⎟ ≈ 2Φ⎜⎜α
⎝n
⎠
⎝
n ⎞
⎟=β
pq ⎟⎠
отсюда по таблицам определяем α.
lim
n →∞
npq Pn (k )
1
e
2π
X2
−
2
= 1,
q=1–p, x =
k − np
, x ∈ [a, b ] ,
npq
где a<b, a и b – любые конечные фиксированные числа.
38
Стремление к пределу равномерно относительно всех k, для которых
x ∈ [a, b] .
Доказательство. Имеем
npq Pn (k ) = npq
n!
p k q n−k .
k!(n − k )!
Воспользовавшись формулой Стирлинга,
k ! = 2πkk k e − k eθ k , θ k ≤
1
,
12 k
получим
1 n n neθ n −θ k −θ n −k p k q n−k
⋅
=
npq Pn (k ) = npq
n−k
2π k k (n − k )
k n−k
1
=
2π
⎛ ⎛ np ⎞ k ⎛ nq ⎞ n− k ⎞ n 2 pq θ −θ −θ
1
⎜⎜ ⎟ ⎜
⎟
e n k n−k ≡
An (x )Bn (x )C n ( x ) .
⎟
⎜ ⎝ k ⎠ ⎝ n − k ⎠ ⎟ k (n − k )
2
π
⎝
⎠
Найдем пределы выражений An (x ), Bn ( x ), C n (x ) при n → ∞ .
Пусть [a,b] – произвольный конечный отрезок; будем рассматривать
такие k, для которых x ∈ [a, b ] . Так как x =
k − np
, то
npq
k = np + x npq , n − k = n(1 − p ) − x npq = np − x npq , a ≤ x ≤ b
θ
Рассмотрим вначале Сn ( x ) = e , θ = θ n − θ k − θ n−k .
⎞
1 ⎛⎜ 1
1
1
⎟=
+
+
12 ⎜⎝ n np + x npq np − x npq ⎟⎠
⎞
⎛
⎟
⎜
1⎜
1
1
⎟.
1+
=
+
⎜
12
pq
pq ⎟
p+x
q−x
⎟
⎜
n
n ⎠
⎝
θ ≤ θ n + θ k + θ n−k ≤
Отсюда в силу признака Вейерштрасса следует, что θ → ∞ при
n → ∞ равномерно по x ∈ [a, b] . Таким образом,
С n ( x ) → 1 при
равномерно относительно x, x ∈ [a, b ] . Далее рассмотрим Bn (x ) :
39
n→∞
Bn ( x ) =
n 2 pq
1
→ 1, n → ∞
=
k (n − k )
⎛
q ⎞⎛
p ⎞
⎟
⎜1 − x
⎟⎜1 − x
⎟
⎜
⎟⎜
np
nq
⎠
⎝
⎠⎝
равномерно относительно x, x ∈ [a, b ] , на основании признака Вейерштрасса.
Рассмотрим, наконец, An (x ) . Пользуясь формулой
( )
z2
ln (1 + z ) = z − + 0 z 3 , z < 1,
2
получим
⎛ k ⎞
⎛n−k⎞
⎟⎟ =
ln An ( x ) = − k ln⎜⎜ ⎟⎟ − (n − k ) ln⎜⎜
⎝ np ⎠
⎝ np ⎠
(
)
(
)
⎛
⎛
q ⎞
p ⎞
⎟ − nq − x npq ln⎜1 − x
⎟=
= − np + x npq ln⎜⎜1 − x
⎟
⎜
⎟
np
nq
⎝
⎠
⎝
⎠
(
)
⎛
q
x2q
⎜
= − np + x npq ⎜ x
−
+ 0 n −3 / 2
⎝ np 2np
(
(
)
⎛
p x2 p
⎜
+ nq − x npq ⎜ − x
−
+ 0 n −3 / 2
nq 2nq
⎝
(
)⎞⎟⎟
⎠
)⎞⎟⎟ =
⎠
⎛
x2q
x2 p
2
−1 / 2
2
= −⎜⎜ x npq + x q −
+0 n
− x npq + x p −
+ 0 n −1/ 2
2
2
⎝
(
)
(
)⎞⎟⎟ =
⎠
1
= − x 2 + 0(n −1 / 2 ) ,
2
причем, поскольку при n → ∞ x
q
p
, x
стремятся к нулю равномерно по
np
nq
x, x ∈ [a, b] , оценку 0 — членов можно взять независящей от k.
Итак, имеем
An ( x ) = e
1
⎛ 1 ⎞
− x 2 + 0 ⎜⎜
⎟⎟
2
⎝ n⎠
, n→∞.
Из полученных оценок следует утверждение теоремы.
Установленная теорема дает оценку величины Pn (k ) при больших n и
при фиксированном k:
40
Pn (k ) ≈
1
2π
2
k − np
1
e−x / 2 , x =
npq
npq
Пример. Найти вероятность того, что событие А наступит ровно 70 раз
в 243 испытаниях, если вероятность появления этого события в каждом
испытании равна 0,25.
Решение. По условию
. Так как
–
n = 243; k =70; p = 0,25; q = 0,75
n = 243
достаточно большое число, воспользуемся локальной теоремой Лапласа:
Pn (k ) =
где ϕ (x ) =
1
ϕ (x )
npq
k − np
1 − x2 / 2
e
,x=
. Найдем значение х:
npq
2π
x=
70 − 243 ⋅ 0,25
9 ,25
k − np
=
= 1,37.
=
243 ⋅ 0,25 ⋅ 0,75 6,75
npq
По таблице находим ϕ (1,37 ) = 0,1561 . Искомая вероятность равна
P243 (70 ) = 1 / 6,75 ⋅ 0.1561 = 0,0231
Однако практически при большом числе испытаний n и не слишком
малой вероятности р нас редко интересует вероятность того, что данное
событие наступит точно k раз. Важно бывает уметь оценить вероятность
того, что число наступлений события лежит в некоторых границах. Такую
оценку можно получить с помощью интегральной предельной теоремы
Муавра-Лапласа.
Интегральная предельная теорема Муавра—Лапласа. Пусть k – число
наступлений события А в серии из n независимых экспериментов, р –
вероятность наступления А при каждом испытании, 0<p<1, a и b – любые
фиксированные числа, a<b. Тогда
⎛
⎞
1
k − np
≤ b⎟ =
lim P⎜ a ≤
⎟
n→∞ ⎜
2π
npq
⎝
⎠
причем
стремление
к
пределу
b
∫e
41
x2
2
dx
a
равномерно
− ∞ < a < b < +∞ .
−
относительно
а
и
b,
Доказательство этой теоремы получим как совсем простое следствие
рассмотренной ниже центральной предельной теоремы [9].
Практическое применение интегральной предельной теоремы основано
на приближенном равенстве
⎞
⎛
1
k − np
P⎜ a ≤
≤ b⎟ ≈
⎟
⎜
2π
npq
⎠
⎝
Оценка
соответствующей
b
∫e
−
x2
2
dx
a
погрешности
показывает,
что
эта
приближенная формула обеспечивает хорошую точность уже при значениях
npq ≥ 10 и, естественно, тем лучшую точность, чем больше эта величина.
Рассмотрим некоторые типичные задачи, связанные с интегральной
теоремой Муавра—Лапласа.
Заданы число испытаний n и вероятность р при каждом испытании.
Требуется найти вероятность того, что число k будет заключено между
заданными числами k1 и k 2 , 0 ≤ k1 < k 2 ≤ n .
k 2 − np
⎛ k − np k − np k2 − np ⎞
⎟≈
P(k1 ≤ k ≤ k2 ) = P⎜⎜ 1
≤
≤
npq
npq ⎟⎠
⎝ npq
1
2π
npq
∫
e
−
x2
2
dx
k1 − np
npq
Функция Φ(z ) =
x
z2
−
1
2
e
dz называется интегралом ошибок, для нее
∫
2π 0
составлены таблицы, поскольку
Φ (− x ) = −Φ ( x ) , значения в таблицах
указаны лишь для x ≥ 0 .
Пусть заданы числа р, α и β. Требуется определить, какое наименьшее
число n испытаний надо произвести для того, чтобы с вероятностью, не
меньшей β, частота k/n появлений отклонялась от вероятности р не больше
чем на α. Таким образом, надо найти n из условия
⎛1
⎞
P⎜⎜ − p ≤ α ⎟⎟ ≥ β .
⎝n
⎠
Поскольку
42
⎛
⎛1
⎞
P⎜⎜ − p ≤ α ⎟⎟ = P⎜ − α
⎜
⎝n
⎠
⎝
α
1
≈
2π
n
pq
∫
−α
e
−
n
pq
x2
2
n
k − np
≤
≤α
pq
npq
⎛
dx = 2Φ⎜⎜α
⎝
n ⎞⎟
≈
pq ⎟⎠
n ⎞
⎟
pq ⎟⎠
то задача состоит в определении n из условия
⎛
2Φ⎜⎜α
⎝
n ⎞
⎟≥β
pq ⎟⎠
Пусть заданы числа n, p и β. Требуется определить границы возможных
отклонений частоты появления успеха от вероятности р, т.е. надо найти α,
⎛1
⎞
для которого P⎜⎜ − p ≤ α ⎟⎟ = β .
⎝n
⎠
Согласно предыдущему примеру
⎛
⎛k
⎞
P⎜⎜ − p ≤ α ⎟⎟ ≈ 2Φ⎜⎜α
⎝n
⎠
⎝
отсюда по таблицам определяем α.
43
n ⎞
⎟=β
pq ⎟⎠
Глава 2
Случайные величины и функции распределения
§ 1. Случайные величины и функции распределения
Изучая схему независимых экспериментов, мы имели дело с типичным
примером случайной величины, когда рассматривали число успехов в серии
из n испытаний. Примерами случайных величин является: число вызовов в
единицу
времени
на
телефонной
станции,
число
молекул
газа,
продиффундировавших из одного объема газа в другой.
Определение 1. Пусть
(Ω, Ξ, Ρ ) — вероятностное пространство.
Случайной величиной Х называется однозначная действительная функция
X = X (ω ) , определенная на Ω, для которой множество элементарных событий
вида [ω : X (ω ) < x ] является событием (т.е. принадлежит Ξ) для каждого
действительного числа х.
Определение
2.
Функция
F ( x ) = P{X < x}, − ∞ < x < ∞ ,
называется
функцией распределения случайной величины Х.
Примеры.
1. Пусть Х – число успехов в серии из n испытаний Бернулли. Тогда
соответствующая функция распределения определена равенством
⎧ 0,
⎪⎪
F ( x ) = ⎨∑ C nk p k q n−k ,
⎪k<x
⎪⎩ 1,
x≤0
0< x≤n
x>n
2. Если Х распределена по закону Пуассона, то ее функция
распределения F(x) имеет вид
x < 0,
⎧ 0,
⎪
k −λ
F (x ) = ⎨ λ e
, x > 0.
⎪⎩∑
k!
k<x
Случайная величина Х имеет нормальное, или гауссово, распределение
(
)
N a,σ 2 , если ее функция распределения имеет вид
44
1
F (x ) =
σ 2π
x
∫e
( z − a )2
2σ 2
dz.
−∞
Рассмотрим основные свойства функции распределения.
Для x2 > x1
{X < x2 } = {X < x1 }− {x1 ≤ X ≤ x2 }
Поскольку события в правой части этого равенства несовместны, то
P{X < x2 } = P{X < x1 } − P{x1 ≤ X ≤ x2 }
следовательно,
P{x1 ≤ X ≤ x2 } = F ( x2 ) − F ( x1 )
Так как P{x1 ≤ X ≤ x2 } ≥ 0 , то из последнего равенства следует, что F(x)
– неубывающая функция.
Функция
F(x)
непрерывна
слева,
т. е.
если
{α n }
—
любая
последовательность положительных чисел, убывающая к нулю, то
lim F ( x − a n ) = F ( x )
n →∞
Правое предельное значение F(x) в точке х равно P{X ≤ x}, т. е.
F ( x + 0 ) = P{X ≤ x} .
F ( x ) = 0, F (∞ ) = lim F ( x ) = 1 .
2. F (− ∞ ) = xlim
→ −∞
x →∞
3.
Справедливо соотношение ( x1 ≤ x2 — любые):
P{x1 ≤ X ≤ x2 } = F ( x2 + 0 ) − F ( x1 )
так как {X < x1 } − {x1 ≤ X ≤ x2 } = {X ≤ x2 }.
В частности, если x2 = x1 = x ,
P{X = x}= F(x + 0) — F(x).
Из этого равенства следует, что F(x) имеет скачки в точках х, для
которых существует положительная вероятность события {X=x}.
P{x1 ≤ X ≤ x2 } = F ( x2 + 0 ) − F ( x1 + 0 )
так как
{X ≤ x1} − {x1 < X ≤ x2 } = {X ≤ x2 }
45
и
P{x1 ≤ X ≤ x2 } = F ( x2 ) − F ( x1 + 0 )
так как
{X ≤ x1} − {x1 < X ≤ x2 } = {X < x2 }.
§ 2. Дискретные и непрерывные случайные величины
Рассмотренные выше случайные величины, распределенные нормально
и по биномиальному закону, являются характерными примерами двух
основных классов случайных величин: непрерывных и дискретных [9].
Определение 3. Случайная величина Х называется дискретной, если
множество ее значений конечно или счетно.
Для полной вероятностной характеристики дискретной случайной
величины, принимающей значения x1 , x2 ,... , достаточно задать вероятности
pk = P{X = xk } . Зная значения xk и p k , k=1,2, …, можно записать функцию
распределения F(x) дискретной случайной величины Х в виде
F (x ) =
∑p
k : xk < x
k
.
Функция F(x) не зависит от способа нумерации значений случайной
величины Х. Таким образом, функция распределения любой дискретной
случайной величины разрывна, возрастает скачками в точках
x = xk ,
величина скачка равна
F ( xk + 0 ) − F ( xk ) = p k .
Определение 4. Случайная величина Х называется непрерывной (или
абсолютно непрерывной), если ее функция распределения представима в
виде
F (x ) =
x
∫ p( y )dy
−∞
Функция p ( y ), − ∞ < y < ∞ , называется плотностью распределения
вероятностей (или плотностью вероятности) случайной величины Х и
46
далее предполагается неотрицательной и кусочно–непрерывной. Плотность
p(y) полностью определяет функцию распределения F(x), а в точках
непрерывности p(y) определяется по функции распределения, так как в этих
точках
dF (x )
,
dx
p(x ) =
и, следовательно, в этих точках свойство неотрицательности плотности является
следствием неубывания F(x).
Для любых
x1 < x2
P( x1 ≤ X ≤ x2 ) = F ( x2 ) − F ( x2 ) =
x2
∫ p( y )dy
x1
Очевидно, что
∞
∫ p( y )dy =F (+ ∞ ) = 1
−∞
Примером непрерывной случайной величины является нормальная
N (α ,σ 2 ) случайная величина с плотностью
−
1
p(x ) =
e
σ 2π
( x −α )2
2σ 2
Следует сказать, что существуют случайные величины, которые не
являются ни дискретными, ни непрерывными, ни их комбинацией (имеются в
виду случайные величины с функцией распределения вида:
F (x ) = q1
∑p
k:xk < x
x
k
+ q2
∫ p( y )dy
−∞
где
q1 , q2 > 0, q1 + q2 = 1,
∑p
k
∞
k
= 1,
∫ p( y )dy = 1 ).
−∞
Это так называемые сингулярные случайные величины. Сингулярные
распределения представляют собой некоторую “экзотику” и в реальных
задачах практически не встречаются.
47
Все сказанное о функциях распределения автоматически переносится
на случай условных вероятностей. Если P(B) > 0, то F(x / B) = P{X < x / B}
называется условной функцией распределения случайной величины Х. Она
обладает всеми указанными выше свойствами функций распределения.
§ 3. Векторные (или многомерные) случайные величины
В задачах со случайным исходом обычно приходится учитывать
взаимодействие различных случайных факторов [9]. Это естественно
приводит к рассмотрению многомерных случайных величин.
Определение 5. Пусть
(Ω, Ξ, Ρ )
— вероятностное пространство, и
X 1 (ω ), X 2 (ω ), ..., X n (ω ) — случайные величины, определенные на Ω. Вектор
X (ω ) = ( X 1 (ω ), X 2 (ω ), ..., X n (ω )) называется cлучайным вектором, или n—
мерной случайной величиной, а
X j (ω ) , j = 1,2, …, n, называются
координатами, или компонентами, случайного вектора Х.
Так как все X j (ω ) , j = 1,2, …, n, заданы на одном и том же
вероятностном
пространстве,
произведения
конечного
ω : ( X 1 (ω ) < x1 , ..., X n (ω ) < xn ) ∈ Ξ
а
Ξ
числа
замкнуто
событий,
относительно
то
взятия
множество
для любого набора действительных чисел
x1 , ..., xn . Таким образом, имеет место следующее
Определение 6. Функция
F ( x1 , x2 , ..., xn ) = P( X 1 < x1 , X 2 < x2 , ..., X n < xn ) , j = 1, 2, …, n,
называется n-мерной функцией распределения случайной величины
X = ( X 1 , X 2 , ..., X n ) .
Ради наглядности и краткости будем рассматривать двумерные
случайные величины. Геометрически двумерная функция распределения
F(x,y), равная
F(x, y) = P{X < x, Y < y},
48
задает вероятность попадания точки (X, Y) в бесконечный прямоугольник X
< x, Y < y.
Перечислим основные свойства двумерной функции распределения
F(x,y):
F(x, y) не убывает по x и по y,
F(x, y) непрерывна слева по каждому аргументу,
F (∞, ∞ ) = 1, F (− ∞, y ) = 0, F ( x,−∞ ) = 0
P( x1 ≤ X ≤ x2 , y1 ≤ Y ≤ y2 ) = F ( x2 , y2 ) + F ( x1 , y2 ) − F ( x2 , y1 ) + F ( x1 , y1 ) .
Пользуясь двумерной функцией распределения, можно найти функции
распределения
координат
Х
и
Y
(так
называемые
маргинальные
распределения):
FX (x ) = F (x, ∞ ), FY ( y ) = F (∞, y )
Определение 7. Случайный вектор называется дискретным, если
каждая его координата – дискретная случайная величина, и непрерывным,
если существует кусочно—непрерывная неотрицательная функция p(x,y),
такая, что для любых х и у
F ( x, y ) =
x y
∫ ∫ p(z , z )dz dz
1
2
1
2
− ∞− ∞
Функция р(х, у) называется плотностью вероятности случайного
вектора (Х, Y).
Плотность вероятности обладает следующими свойствами.
В точках непрерывности р(х, у) справедливо равенство
∂2F
p ( x, y ) =
,
∂x∂y
и, таким образом, в этих точках тот факт, что p ( x, y ) ≥ 0 , следует из
неубывания F(x, y) по каждой переменной х и y.
Для любой квадрируемой области D имеем
P(( X , Y ) ∈ D ) = ∫∫ p( x, y )dxdy
D
49
В
частности,
если
р(х, у)
непрерывна
x1 ≤ x ≤ x1 + Δx ,
при
y1 ≤ y ≤ y1 + Δy , то с помощью последнего равенства и теоремы о среднем для
интеграла, получим
P(x1 ≤ X ≤ x1 + Δx, y1 ≤ Y ≤ y1 + Δy ) = p(x1 , y1 )ΔxΔy + o(ΔxΔy )
Вследствие равенства F (∞, ∞ ) = 1 имеем
∞ ∞
∫ ∫ p(x, y )dxdy = 1
− ∞− ∞
Если двумерная случайная величина (X,Y) имеет плотность, то и каждая
ее компонента имеет плотность, причем
p X (x ) =
∞
∞
∫ p(x, y )dy, p ( y ) = ∫ p(x, y )dx
Y
−∞
Пример.
Случайный
−∞
вектор
(X,Y)
называется
равномерно
распределенным в области D, если
⎧1 / μ (D ), x, y ∈ D,
p ( x, y ) = ⎨
x, y ∉ D
⎩ 0,
где μ (D ) — площадь области D.
Рассмотрим теперь понятие плотности условного распределения. Пусть
плотность р(х, у) случайного вектора (Х, Y) непрерывна. Обозначим через В
событие: B = ( y ≤ Y ≤ y + Δy ) ; его вероятность равна
P ( B ) = P ( y ≤ Y ≤ y + Δy ) =
y + Δy
∫ p (z )dz , где
Y
pY ( z ) =
y
∞
∫ p(x, z )dx .
−∞
Далее, имеем
P( X < x, y ≤ Y ≤ y + Δy ) =
x y + Δy
∫ ∫ p(t , z )dtdz ,
−∞ y
и, следовательно, в силу определения условной вероятности, если P(B) > 0,
x y + Δy
P( X < x, y ≤ Y ≤ y + Δy )
=
FX ( x / B ) ≡ P( X < x / B ) =
P(B )
∫ ∫ p(t , z )dtdz
−∞ y
y + Δy
∫ p (z )dz
Y
y
50
Продифференцируем это равенство по х, а затем устремим Δy → 0 и
воспользуемся теоремой о среднем для интеграла по промежутку [ y , y + Δy ] ;
в результате найдем:
p X (x / y ) ≡
dFX ( x / Y = y ) p( x, y )
=
py (y) = 0 .
dx
pY ( y )
Функция p X (x / y ) называется плотностью вероятности условного
распределения Х при условии Y=y. Равенство можно переписать в виде
p ( x , y ) = pY ( y ) p X ( x / y )
напоминающем по форме теорему умножения вероятностей. Имеет место равенство
FX (x / Y = y ) = P( X < x / Y = y ) =
x
∫ p (t / y )dt
X
−∞
Непрерывный аналог формулы полной вероятности имеет вид
p X (x ) =
∞
∫ p ( y ) p (x / y )dy
Y
X
−∞
Соответствующие рассуждения справедливы и для дискретного
случайного вектора (X, Y): пусть Х принимает значения xi, i = 1, 2, …, а Y
(
)
принимает значения yj, j = 1, 2, … и pij = P X = xi , Y = y j . При этом имеют
место равенства:
∞
∞
j =1
i =1
pi = P ( X = xi ) = ∑ pij , q j = P (Y = y j ) = ∑ pij , i, j = 1, 2, ...
Условные распределения вероятностей определяются следующим
образом:
Pi / j = P(X = xi / Y = y j ) =
Qj/i
P(X = xi , Y = y j )
=
Pij
P(Y = y j )
qj
Pij
= P(Y = y j / X = xi ) = , i, j = 1, 2, ...
pi
И как следствие этих равенств
∞
∞
j=1
i =1
pi = ∑ q jPi / j , q j = ∑ pi Q j/ i .
51
,
§ 4. Независимость случайных величин
Определение 8. [9] Случайные величины X 1 , ..., X n
независимыми (в совокупности), если для любых
называются
x1 , ..., xn
события
( X 1 < x1 ) ..., ( X n < xn ) независимы в совокупности, т.е.
(
P ( X 1 < x1 )I ...I
( X n < xn )) = P( X 1 < x1 ) ...P ( X n < xn )
или, что то же самое,
F (x1 , ..., xn ) = FX1 (x1 ), ..., FX n ( xn )
Для независимых случайных величин Х и Y имеем при любых x1 < x2
и y1 < y2
P(x1 ≤ X < x2 , y1 ≤ Y < y2 ) = P(x1 ≤ X < x2 )P( y1 ≤ Y < y2 )
(4)
Аналогичный результат справедлив, разумеется, и для произвольного
числа X 1 , ..., X n независимых случайных величин.
Устремим в последнем равенстве x1 , y1 → −∞ , получим
P( X < x2 , Y < y2 ) = P( X < x2 )P(Y < y2 )
Это равенство ввиду произвольности х2 и y2 означает независимость
случайных величин Х и Y. Таким образом, условие (4) необходимо и
достаточно для независимости случайных величин Х и Y.
Пусть
теперь
Х
и
Y
–
дискретные
случайные
величины,
x1 < x2 < ... < xn < ... — значения, принимаемые Х, и y1 < y2 < ... < yn < ... —
значения Y. Тогда
P( xk ≤ X ≤ xk +1 ) = P( X = xk ), P ( y j ≤ Y < y j +1 ) = P (Y = y j )
k, j = 1, 2, ….
Подставляя эти выражения в (4), получаем, что условие
P(X = xk , Y = y j ) = P( X = xk )P(Y = y j ) k , j = 1, 2, ...
52
является необходимым и достаточным условием независимости дискретных
случайных величин Х и Y.
Равенство
F (x1 , ..., xn ) = FX1 (x1 ), ..., FX n ( xn )
служит
определением
независимости случайных величин Х1, …, Хn. Если независимые случайные
величины Х и Y имеют соответственно плотности вероятности p X ( x ) и pY ( y ) ,
то вектор (Х, Y) имеет плотность p ( x, y ) = p X ( x ) pY ( y ) .
Важным является обратное утверждение: если плотность р(х, у)
случайного вектора (Х, Y) равна произведению плотностей координат,
p ( x, y ) = p X ( x ) pY ( y ) , то Х и Y независимы.
§ 5. Функции от случайных величин
Рассмотрим функции от случайных величин [9]. Ради наглядности
ограничимся
случаем
двух
вероятностном пространстве
случайных
(
Ω, Ξ, Ρ
величин.
Итак,
) определены
пусть
на
две случайные
величины X 1 = X 1 (ω ) и X 2 = X 2 (ω ), ω ∈ Ω и пусть F ( x1 , x2 ) — функция
распределения случайного вектора ( X 1 , X 2 ) . Рассмотрим некоторые функции
от случайных величин Х1 и Х2, т.е. новые случайные величины Y1 и Y2,
связанные функциональными зависимостями с Х1 и Х2,
Y1 = f1 ( X 1 , X 2 ) = f1 ( X 1 (ω ), X 2 (ω )) = Y1 (ω )
Y2 = f 2 ( X 1 , X 2 ) = f 2 ( X 1 (ω ), X 2 (ω )) = Y2 (ω )
Здесь предполагается, что f1 и f2 таковы, что Y1 и Y2 вновь являются
случайными величинами, определенными на том же вероятностном
пространстве Ω, Ξ, Ρ (количество функций Yi может быть любым). Таким
образом, Y1 и Y2 являются сложными функциями ω, заданными на Ω.
Основная задача, возникающая в этой ситуации, состоит в том, чтобы,
зная функцию распределения
F ( x1 , x2 )
случайного вектора ( X 1 , X 2 ) и
функции f1 и f2 найти функцию распределения Φ ( y1 , y 2 ) случайного вектора
53
(Y1 ,Y2 ) .
Для дискретных и непрерывных случайных величин указанная
задача решается без труда. Действительно, имеем
Φ ( y1 , y 2 ) = P(Y1 < y1 , Y2 < y 2 ) = P( f1 ( X 1 , X 2 ) < y1 , f 2 ( X 1 , X 2 ) < y 2 ) ,
и пусть
( X 1 , X 2 ) — дискретный случайный вектор,
X 1 = x1i , X 2 = x2 j —
значения Х1 и Х2, Pij = P(X 1 = x1i , X 2 = x2 j ) — вероятности этих значений, i,
j=1, 2, …, тогда
Φ( y1 , y 2 ) =
∑p
i . j∈Λ
ij
где суммирование распространено на множество индексов (i, j )∈ Λ ,
Λ = ((i, j ) : f1 (x1i , x2 j ) < y1 , f 2 (xi1 , x2 j ) < y 2 ) ,
( X 1 , X 2 ) — непрерывный случайный вектор, p(x1 , x2 ) — его плотность
вероятности, тогда
Φ ( y1 , y 2 ) = ∫∫ p( x1 , x2 )dx1dx2 ,
D
где область D определяется условием:
D = (( x1 , x 2 ) : f1 ( x1 , x 2 ) < y1 , f 2 ( x1 , x2 ) < y 2 )
Найдем
в
качестве
примера
функцию
распределения
суммы
Y = X 1 + X 2 , если задана плотность вероятности p ( x1 , x 2 ) случайного вектора
( X 1 , X 2 ) . Имеем
Φ ( y ) = P(Y < y ) = P( X 1 + X 2 < y ) =
∫∫ p(x , x )dx dx
1
2
1
2
=
x1 + x2 < y
∞
= ∫ dx1
−∞
y − x1
∫ p(x , x )dx
1
2
2
−∞
∞
y − x2
−∞
−∞
= ∫ dx2
∫ p(x , x )dx .
1
2
1
Сделав в интеграле замену переменных x1 + x2 = z , x1 = x1 , якобиан
отображения (x1 , x2 ) → (x1 , z ) равен 1, получим
Φ( y ) =
y
∞
∫ ∫ p(x , z − x )dx .
1
1
1
−∞ −∞
Отсюда следует, что случайная величина Y имеет плотность вероятности
54
pY ( y ) = Φ′( y ) =
∞
∫ p(x , y − x )dx .
1
1
1
−∞
Таким образом, если двумерное распределение слагаемых Х1 и Х2
p ( x1 , x2 ) , то и их сумма Y = X 1 + X 2 также имеет
имеет плотность
плотность, определенную последним равенством.
Если
случайные
величины
Х1
и
Х2
независимы,
то
p (x1 , x2 ) = p X1 (x1 ) p X 2 (x2 ) и можем записать pY ( y ) в виде свертки функций р1
и р2:
pY ( y ) =
∞
∞
∫ p (x ) p ( y − x )dx = ∫ p (x ) p ( y − x )dx = p
X1
X2
X2
−∞
X1
X1
× pX2 .
−∞
Определение закона распределения суммы по законам распределения
независимых слагаемых называется композицией законов распределения
слагаемых.
Имеет место следующая
Теорема. [9] Пусть Х1 и Х2 независимые случайные величины, а
f1 ( X ) и f 2 ( X ) произвольные функции, такие, что Y1 = f1 ( X ) и Y2 = f 2 ( X )
также случайные величины. Тогда Y1 и Y2 независимы, т.е. функции от
независимых случайных величин являются независимыми случайными
величинами.
Доказательство. Проведем доказательство для дискретных случайных
величин. Пусть Х1 принимает значения х1 , х2 , ... , а Х2 принимает значения
у1 , у2 ,... . Тогда случайные величины
Y1 = f1 ( X )
и Y2 = f 2 ( X ) также
дискретны, пусть λ и μ — любые фиксированные значения Y1 и Y2 . В силу
независимости случайных величин Х1 и Х2 , можем записать
55
P( f1 ( X 1 ) = λ , f 2 ( X 2 ) = μ ) =
=
=
∑ P( X
1
( k ,1): f1 ( xk )=λ , f 2 ( y1 )= μ
= xk , X 2 = y1 ) =
P ( X = x )P( X
∑
)λ ( ) μ
( k ,1): f1 ( xk
∑
k: f1 ( xk )=λ
= , f2
k
1
y1 =
P ( X 1 = xk )
2
= y1 ) =
∑ P( X
1: f 2 ( y1 )= μ
2
= y1 ) =
= P ( f1 ( x1 ) = λ )P ( f 2 (x2 ) = μ )
что ввиду независимости случайных величин Х1 и Х2 и произвольности λ и
μ означает независимость случайных величин Y1 = f1 ( X 1 ) и Y2 = f 2 ( X 2 ) .
Пример. Пусть (X, Y) непрерывный случайный вектор с плотностью
вероятности р(х, у). Найдем функцию распределения произведения Z=X+Y.
Имеем
FZ ( z ) = P( XY < z ) =
0
∞
∞
z/x
−∞
z/x
0
−∞
∫∫ p(x, y )dxdy = ∫ dx ∫ p(x, y )dy + ∫ dx ∫ p(x, y )dy
xy < z
Отсюда получаем выражение для плотности Z
0
1
p Z (Z ) = FZ′ ( z ) = − ∫
x
−∞
56
∞
1
⎛ z⎞
p⎜ x ⎟dx + ∫
x
⎝ x⎠
0
⎛ z⎞
p⎜ x ⎟dx .
⎝ x⎠
Глава 3
Числовые характеристики случайных величин
§ 1. Основные определения. Моменты случайных величин
Определение 1. Моментом (начальным) порядка k дискретной
xi
случайной величины Х, принимающей значения
с вероятностями
P ( X = xi ) = pi , i = 1, 2, …, называется число [9]
∞
MX k = ∑ xik pi ,
i =1
при условии, что данный ряд сходится абсолютно, т.е.
∞
M X = ∑ xi pi < ∞.
k
k
i =1
M X k — называется абсолютным моментом порядка k.
Моментом (начальным) порядка k непрерывной случайной величины
Х с плотностью вероятности р(х) называется число
∞
MX = ∫ x k p(x )dx
k
−∞
при условии, что интеграл сходится абсолютно, т.е.
∞
M X
k
=
∫
x k p( x )dx < ∞
−∞
M X k — называется абсолютным моментом порядка k.
Если M X k не существует, то говорят, что случайная величина Х не
имеет конечного момента порядка k. По определению моменты MX k и
M X k существуют или не существуют одновременно.
Определение 2. Момент МХ первого порядка (k=1) называется
математическим
ожиданием,
или
величины Х.
57
средним
значением,
случайной
Примеры.
1.
Равномерное распределение: Х равномерно распределена в [a,b],
т.е.
⎧ 1
⎪
, x ∈ [a, b],
p(x ) = ⎨ b − a
⎪⎩ 0,
x ∉ [a, b],
b
a+b
1
MX =
x dx =
— середина отрезка [a,b].
∫
b−a a
2
2.
Распределение Пуассона: X = k с вероятностью
pk = P( X = k ) =
∞
λk e − λ
k =0
k!
MX = ∑ k
3.
λk
k!
e −λ , λ > 0, k = 0, 1, 2, ...,
∞
= e −λ ∑
λk e − λ
k =1 (k − 1)!
∞
λk
k =0
k!
= λe − λ ∑
= λ.
Нормальное распределение: X ∈ N (a,σ 2 )
1
MX =
σ 2π
∞
∫ xe
( x−a )2
2σ
2
−∞
1
dx =
2π
∞
t2
2
σ
(
)
σ
t
+
a
e
dt
=
∫
2π
−∞
−
∞
t2
2
a
te
dt
+
∫
2π
−∞
−
∞
∫e
−
t2
2
dt = a
−∞
так как первый интеграл в правой части равен нулю.
Рассмотрим важную теорему о математическом ожидании функций от
случайных величин.
Теорема 1. [9] Пусть Х – дискретная случайная величина (непрерывная
случайная величина), принимающая значения х1 , х2 , ... соответственно с
вероятностями р1 , р2 , ... ( имеющая плотность вероятности р(х)), а Y = f ( X )
— новая случайная величина, где f(.) – некоторая функция. Тогда
математическое ожидание Y равно
∞
MY = Mf ( X ) = ∑
i =1
∞
⎛
⎞
f (xi )pi ⎜⎜ MY = Mf ( X ) = ∫ f ( x ) p(x )dx ⎟⎟
−∞
⎝
⎠
если ряд (интеграл) сходится абсолютно.
Доказательство проведем для дискретной случайной величины Х. В
этом случае случайная величина Y = f ( X ) также дискретна, ее значениями
58
являются числа у1 , у2 , ... , где множество у1 , у2 , ... совпадает с множеством
всех различных чисел среди f (x1 ), f (x2 ), ... , а вероятность каждого значения ys
равна
q s = P (Y = y s ) = P (ω : f ( X (ω )) = y s ) =
p
∑
( )
k
k : f xk = y s
Теперь имеем
⎛
⎞ ∞
⎜
MY = ∑ y s qs =∑ y s ∑ pk = ∑ ⎜ ∑ f ( xk ) pk ⎟⎟ =∑ f ( xi ) pi
s =1
s =1
k: f ( xk )= ys
s =1 ⎝ k: f ( xk )= ys
⎠ i =1
∞
∞
∞
последнее равенство выполняется ввиду того, что каждое слагаемое f ( xi ) pi
участвует в двух последних суммах один и только один раз, поскольку все ys
различны. Возможность объединения в одну сумму следует из леммы о
∞
суммировании по блокам, так как ряд
∑ f (x ) p
i =1
i
i
по условию сходится.
Следствие. Для любой случайной величины Х и постоянных c k ,
k=0, 1, …, n
n
⎛ n
k ⎞
M ⎜ ∑ ck X ⎟ = ∑ ck MX k
⎠ k =0
⎝ k =0
если M X k < ∞ , k = 1, 2, …, n.
n
Это равенство вытекает из теоремы, в которой
f ( x ) = ∑ ck x k —
k =0
полином. Из последнего равенства следует, что Мс = с и М(сХ)=сМХ, с –
любая постоянная.
В случае, когда Х – дискретная случайная величина, принимающая
значения х1 , х2 , ... с вероятностями р1 , р2 , ... , определена на дискретном
вероятностном пространстве (Ω, Ξ, Ρ ) , нетрудно дать другое выражение для
математического ожидания:
MX =
∑ X (ω )P(ω )
ωi ∈Ω
59
i
i
P(ω i )
здесь
—
вероятность
элементарного
ωi ,
исхода
и
сумма
распространена на все элементарные события ω i ∈Ω .
Определение 3. Математическое ожидание M ( X − MX ) называется kk
k
м центральным моментом, если существует M X − MX . Центральный
момент второго порядка называется дисперсией случайной величины Х и
2
обозначается DX: DX = M ( X − MX ) .
Этот момент является очень удобной характеристикой разброса
значений Х около ее среднего значения – математического ожидания МХ. Так
как
(
)
M ( X − MX ) = M X 2 − 2 XMX + (MX ) = MX 2 − 2MX ⋅ MX + (MX )
2
2
2
то справедлива следующая формула для дисперсии:
DX = MX 2 − (MX ) .
2
Отсюда следует, что MX 2 ≥ (MX ) , поскольку DX ≥ 0 . Дисперсия имеет
2
размерность квадрата случайной величины; для характеристики разброса,
рассеивания иногда бывает удобнее пользоваться значением, размерность
которого совпадает с размерностью случайной величины. Такая величина
σX = DX называется среднеквадратичным уклонением Х.
На основании определения дисперсии и теоремы 1 можно записать:
1)
если Х – дискретная случайная величина, х1 , х2 , ... — ее
значения, а р1 , р2 , ... — соответствующие вероятности, то
∞
DX = ∑ (xk − MX ) pk
2
л =1
2)
если Х – непрерывная случайная величина и р(х) – ее плотность
вероятности, то
∞
DX =
∫ (x − MX ) pdx
−∞
Примеры.
60
2
1.
Нормальное распределение, X ∈ N (a,σ 2 ) . Так как МХ = а, то
получаем
1
DX =
σ 2π
∞
∫ (x − a ) e
2
−
( x −a )2
2σ 2
−∞
2
σ 2 − t2
=
te
2π
σ2
dx =
2π
∞
σ2
+
2π
−∞
∞
∫e
−
t2
2
∞
∫t e
2
−
t2
2
dt =
−∞
dt = σ 2
−∞
Таким образом, параметры нормального распределения N (a, σ 2 ) : а –
2
математическое ожидание, σ — дисперсия. Нормальное распределение
полностью определяется этими двумя параметрами.
2.
Распределение Пуассона:
X = k , P ( X = k ) = e − λ λk / k!, λ > 0 , k=0, 1, 2, …. Было показано, что
МХ = λ . Используя формулу DX = MX 2 − (MX ) , получаем
2
∞
λk e − λ
k =0
k!
DX = ∑ k 2
∞
λk
k =0
k!
− λ2 = e − λ ∑ k (k − 1)
∞
λk
k =0
k!
+e − λ ∑ k
−λ2 =
d 2 ⎛ ∞ λk ⎞ − λ d ⎛ ∞ λk ⎞ 2
⎜∑ ⎟ − λ =
⎜∑ ⎟ + e λ
=e λ
dλ2 ⎜⎝ k = 0 k! ⎟⎠
dλ ⎜⎝ k = 0 k! ⎟⎠
−λ
2
(
)
= e − λ λ2 e λ + λe λ − λ2 = λ
Таким образом, единственный параметр распределения Пуассона
задает как математическое ожидание, так и дисперсию.
§ 2. Свойства математического ожидания и дисперсии
1)
Математическое ожидание суммы случайных величин равно
сумме математических ожиданий
M ( X + Y ) = MX + MY
при условии, что М Х и M Y конечны [9].
61
Доказательство. а) (X, Y) – дискретная случайная величина. Пусть Х
принимает значения х1 , х2 , ... ,
а Y – значения у1 , у2 , ... . Тогда X+Y
принимает значения z1 , z2 , ... , где все zs различны, zs = xi + y j , а
rs = P( X + Y = z s ) =
∑p
ij
i , j:xi + y j = z s
где pij = P(X = xi , Y = y j ). Поэтому
∞
∞
⎛
⎞ ∞ ⎛
⎞
M ( X + Y ) = ∑ z s rs = ∑ z s ⎜ ∑ pij ⎟ = ∑ ⎜ ∑ (xi + y j ) pij ⎟ =
⎜ i , j:x + y = z ⎟ s =1 ⎜ i , j:x + y = z
⎟
s =1
s =1
⎝ i j s⎠
⎝ i j s
⎠
∞
∞
∞
∞
∞
∞
∞
i , j =1
i =1
j =1
j =1
i =1
i =1
j =1
= ∑ (xi + y j ) pij = ∑ xi ∑ pij + ∑ y j ∑ pij = ∑ xi pi + ∑ y j q j = MX + MY
∞
здесь ∑ pij = P( X = xi ) = pi и
j =1
∞
∑p
i =1
ij
= P(Y = y j ) = q j ;
ряды можно группировать в силу леммы и обратной леммы о суммировании
по блокам, так как ряды по условию сходятся абсолютно.
б) (X,Y) – непрерывная случайная величина, р(х, у) – ее плотность
вероятности. Тогда плотность суммы Z=X+Y имеет вид p Z (z ) =
∞
∫ p(x, z − x )dx .
−∞
Поэтому
M (X + Y ) =
∞
∞ ∞
∫ z p (z )dz = ∫ ∫ zp(x, z − x )dxdz = ∫ ∫ (x + y ) p(x, y )dxdy =
Z
−∞
=
∞ ∞
−∞ −∞
∞
∞
∞
∞
∞
−∞
−∞
−∞
−∞
−∞
−∞ − ∞
∞
∫ xdx ∫ p(x, y )dy + ∫ ydy ∫ p(x, y )dx = ∫ xp (x )dx + ∫ yp ( y )dy = MX + MY ,
X
интегралы
можно
переставить
в
силу
Y
−∞
их
абсолютной
сходимости.
Свойство 1) доказано.
2)
Из следствия из теоремы 1 и свойства 1) получаем свойство
линейности математического ожидания:
M (c1 X + c 2Y ) = c1 MX + c 2 MY
c1 , c2 — любые постоянные, если М Х и M Y конечны.
62
3)
Если случайные величины Х и Y независимы, то
MXY = MX ⋅ MY
при условии, что М Х и M Y конечны.
Доказательство.
а) XY – дискретная случайная величина со значениями t1 , t 2 , ... , где
все
ts
t s = xi y j
различны,
rs = P( XY = t s ) =
и
∑p
i , j:xi y j =t s
ij
,
причем
pij = P(X = xi , Y = y j ) = pi q j , так как Х и Y независимы. Поэтому
∞
∞
⎛
⎞ ∞ ⎛
⎞
MXY = ∑ t s rs = ∑ t s ⎜ ∑ pi q j ⎟ = ∑ ⎜ ∑ xi y j pi q j ⎟ =
⎜
⎟ s =1 ⎜ i , j:x y =t
⎟
s =1
s =1 ⎝ i , j:xi y j =t s
⎠
⎝ i j s
⎠
=
∞
∞
∞
i , j=1
i =1
j=1
∑ xi y jpiq j = ∑ xi pi ∑ y jq j = MX ⋅ MY,
группировка рядов законна в силу их абсолютной сходимости и леммы о
суммировании по блокам.
б) Плотность произведения Z=XY имеет следующий вид (с учетом того,
что p ( x, y ) = p X ( x ) pY ( y ) в силу независимости Х и Y):
∞
0
1
1
⎛z⎞
⎛z⎞
pZ ( z ) = − ∫ p X ( x ) pY ⎜ ⎟dx + ∫ p X ( x ) pY ⎜ ⎟dx
x
x
⎝ x⎠
⎝ x⎠
−∞
0
Отсюда
∞
∞
0
∞
∞
1
1
⎛z⎞
⎛z⎞
MXY = ∫ z pZ ( z )dz = − ∫ p X ( x )dx ∫ zpY ⎜ ⎟ dz + ∫ p X ( x )dx ∫ zpY ⎜ ⎟ dz =
x
x
⎝ x⎠
⎝ x⎠
−∞
−∞
−∞
−∞
0
∞
0
∞
∞
1
1
= ∫ p X (x )dx ∫ tx 2 pY (t )dt + ∫ p X (x )dx ∫ tx 2 pY (t )dt =
x
x
−∞
−∞
−∞
0
∞
=
∞
∫ xp (x )dx ∫ tp (t )dt = MX ⋅ MY
X
−∞
Y
−∞
перестановки интегралов законны в силу их абсолютной сходимости.
4)
Некоторые неравенства.
а) Если X ≥ Y , то MX ≥ MY .
63
Действительно,
случайная
величина
Z
=
X
–
Y
принимает
неотрицательные значения, поэтому согласно определению 1 (с k=1)
неравенство справедливо.
б) Неравенство Коши-Буняковского:
M XY ≤ MX2 ⋅ MY2 ,
если величины справа конечны.
Доказательство. Имеем XY ≤ 1 / 2(X 2 + Y 2 ). Отсюда и из неравенства из
а) следует, что если МХ2 и MY2 конечны, то конечно и M XY . Далее при
любом λ
0 ≤ M (λ X + Y ) = λ2 MX 2 + 2λM XY + MY 2
2
Квадратный трехчлен относительно λ неотрицателен при всех λ ,
2
2
2
стало быть, его дискриминант неположителен, т.е. M XY − MX ⋅ MY ≤ 0 ,
что и требовалось доказать.
в) Неравенство Чебышева. Для любого ε > 0
P( X > ε ) ≤ M X / ε 2 ,
2
2
если M Х конечно.
Доказательство. Введем случайную величину Y по формуле
⎧0, если Х ≤ ε
Y =⎨
⎩ε , если Х > ε
Таким образом, Y – дискретная случайная величина, принимающая два
значения: 0 с вероятностью p1 = P( X ≤ ε ) и ε с вероятностью P( X > ε ) . Из
2
2
определения Y следует, что Y ≤ Х , и в силу неравенства из а) получаем
M X ≥ MY 2 = ε 2 P( X > ε ) , что и требовалось доказать.
2
64
2
Взяв в неравенстве P( X > ε ) ≤ M X / ε ,
2
вместо Х случайную
величину Х – МХ и учитывая, что M ( X − MX ) = DX , запишем последнее
2
неравенство в виде
P( X − MX > ε ) ≤ DX / ε 2 ,
именно это неравенство обычно называют неравенством Чебышева.
То же рассуждение с использованием случайной величины Y,
определенной в доказательстве неравенства Чебышева, и неравенства а)
приводит к неравенству: для любого ε > 0 P( X > ε ) ≤
1
ε
M X , если М Х
конечно и, в частности, если случайная величина Х неотрицательна, то
P( X > ε ) ≤
5)
1
ε
MX
Дисперсия постоянной равна нулю: Dc = 0, так как
Dc = M (c − Mc ) = M (c − c ) = 0
2
2
Верно и обратное утверждение: если DX = 0, то с вероятностью 1 Х
равна константе: Х = МХ. Действительно, в силу неравенства Чебышева при
любом ε > 0 P( X − MX > ε ) . Поэтому на основании полной аддитивности
вероятности, получим
P( X − MX > 0 ) = P( X − MX > 1) + P(1 / 2 < X − MX ≤ 1) + ... +
(
)
+ P 1 / 2 k < X − MX ≤ 1 / 2 k −1 + ... = 0
и, таким образом, P{X – MX = 0} = 1.
6) Если Y = cX, то DY = c2 DX , с – любая постоянная. Действительно,
[
]
DY = M (cX − McX ) = M c 2 ( X − MX ) = c 2 DX .
2
7)
2
Дисперсия суммы конечного числа попарно независимых
случайных величин равна сумме дисперсий слагаемых
65
⎞ n
⎛ n
D⎜ ∑ X i ⎟ = ∑ DX i
⎝ i =1 ⎠ i =1
Действительно,
2
2
n
⎛ n
⎞
⎛ n
⎞
⎛ n
⎞
D⎜ ∑ X i ⎟ = M ⎜ ∑ X i − M ∑ X i ⎟ = M ⎜ ∑ ( X i − MX i )⎟ =
i =1
⎝ i =1 ⎠
⎝ i =1
⎠
⎝ i =1
⎠
n
= M ∑ ( X i − MX i )( X k − MX k ) =
i ,k =1
2
n
= ∑ M ( X i − MX i ) +
i =1
n
∑ M [( X
i ,k =1
n
i,
∑ M (X
k =1
i
− MX i )( X k − MX k )] =
n
i
− MX i )( X k − MX k ) = ∑ DX i
i =1
i≠k
при доказательстве мы несколько раз пользовались свойством 1), в
предпоследнем равенстве учли независимость Xi и X k при i ≠ k и свойство
3), а последнее равенство основано на том, что M ( X i − MX i ) = MX i − MX i = 0 .
⎛
n
⎞
n
⎠
i =1
Равенство D⎜ ∑ X i ⎟ = ∑ DX i иногда называют равенством Бьенеме. [9]
⎝ i =1
Пример.
Пусть
случайная
величина
Х
распределена
по
биномиальному закону. Найдем МХ и DX. Введем случайные величины X k ,
равные числу успехов при k–м эксперименте в серии из n испытаний
Бернулли. Если вероятность успеха при каждом испытании равна р, то X k
принимает
два
значения
0
и
1
с
вероятностями
P( X k = 1) = p
и
P( X k = 0 ) = q = 1 − p , k = 1, 2, …, n.
2
Поэтому MX k = 1⋅ p + 0 ⋅ q = p , DX k = MX k2 − (MX k ) = 1⋅ p + 0 ⋅ q − p 2 = p − p 2 = pq .
Число
успехов
в
Х
серии
из
n
испытаний
равно
сумме
X = X1 + X2 +...+ X n . Отсюда ввиду независимости Xi и свойств 1) и 7)
получаем
n
n
k =1
k =1
MX = ∑ MX k = pn, DX = ∑ DX k = npq.
66
§ 3. Условное математическое ожидание
Ранее
была
определена
условная
функция
распределения
F ( x / B ) = P ( X < x / B ) случайной величины Х при условии В, если P(B) > 0 [9].
Математическое ожидание (или среднее значение) Х по отношению к этому
условному
распределению
называется
условным
математическим
ожиданием. Таким образом
M (X / B) =
∞
∫ xdF (x / B )
X
−∞
или подробно
∞
M ( X / B ) = ∑ xk p k ( B )
k =1
если Х дискретна,
xk
— ее значения, а
p k (B ) = P ( X = x k / B )
—
соответствующие вероятности, k = 1, 2, …; и
∞
M ( X / B ) = ∫ xp(x / B )dx
−∞
если Х непрерывна, p (x / B ) — условная плотность вероятности. В частности,
если событие В состоит в том, что случайная величина Y принимает
некоторое значение у, Y=y, тогда согласно формулам плотности условного
распределения получим
∞
M (X / y j ) = M (X / Y = y j ) = ∑ xk Pk / j
k =1
(7)
для дискретных случайных величин, и
∞
M ( X / y ) = M ( X / Y = y ) = ∫ xp X ( x / y )dx
(8)
−∞
для непрерывных случайных величин.
Очевидно, что таким образом определенные условные математические
ожидания обладают всеми свойствами 1) – 4) обычных математических
ожиданий, однако у них имеются и некоторые специфические свойства,
связанные с возможностью применения к ним различных вариантов формулы
67
полной вероятности. Так, если имеется полная группа попарно несовместных
событий Bk , k=1, 2, …, n, и FX (x / Bk ) — соответствующие условные
функции распределения, то ввиду равенства
n
FX ( x ) = ∑ FX ( x / Bk )P(Bk )
k =1
получаем
n
MX = ∑ P(Bk )( X / Bk )
k =1
Поскольку правая часть этого равенства имеет вид математического
ожидания новой дискретной случайной величины, принимающей значения
M ( X / Bk ) с вероятностями
P(Bk ) , то естественно записать последнее
равенство в виде
MX = M (M ( X / Bk ))
Точно так же получаются равенства:
∞
MX = ∑ M (X / y j )q j
j =1
в дискретном случае и
∞
MX =
∫ M ( X / y )p ( y )dy
Y
−∞
в непрерывном.
Действительно, в первом случае умножим равенство (7) на q j и
просуммируем по всем j, получим
∞
∞
∞
∑ M (X / y )q = ∑∑ x
j
j =1
j
j =1 k =1
∞
k
pkj = ∑ xk pk = MX
k =1
Во втором случае умножаем (8) на pY ( y ) и интегрируем от −∞ до ∞
∞
∞
∞
−∞
−∞
∞
∞
∞
−∞
−∞
−∞
∫ M ( X / y )p ( y )dy = ∫ dy ∫ x p ( y ) p (x )dx = ∫ xdx ∫ p(x, y )dy = ∫ x p (x )dx = MX
Y
−∞
Y
X
X
Проведенные выкладки оправданы при условии, что ряд (7) или
интеграл (8) сходятся абсолютно [9].
68
Рассмотрим теперь условные математические ожидания M (X / y j )
или M ( X / y ) , определенные формулами (7) или (8), как функции аргумента
у. Этот аргумент – значения случайной величины Y, и поэтому мы можем
рассматривать M (X / y j ) или M ( X / y ) как новую случайную величину,
зависящую определенным образом от Y, и обозначать ее M ( X / y ) . При таком
подходе правые части равенств для условного математического ожидания
означают в силу теоремы 1 математическое ожидание функции M ( X / y ) от
случайной величины Х и, следовательно, могут быть записаны в виде
MX = M (M ( X / Y ))
Эта формула и формула MX = M (M ( X / Bk )) находят многочисленные
применения в теории вероятностей и математической статистике.
Условное математическое ожидание M ( X / y ) , рассматриваемое как
функция Y, часто в статистике называется функцией регрессии величины Х на
Y. Если, например, M ( X / Y ) = α 1Y + α 2 , то говорят о линейной регрессии Х на
Y, а α 1 и α 2 называют коэффициентами регрессии.
Рассмотрим случайную величину Х, являющуюся индикатором
события А:
⎧ 1, ω ∈ A, т.е. если А происходит
X (ω ) = ⎨
⎩0, ω ∉ A, т.е. если А не происходит
Х – дискретная случайная величина, MX = 1⋅ P( A) + 0 ⋅ P (A ) = P( A) .
Итак, МХ = Р(А) и условная вероятность M(X/Y) = P(A/Y), где P(A/Y) –
условная вероятность события А при данном значении Y. Равенство
MX = M (M ( X / Y )) в этом случае выглядит так:
P(A) = M{P(A/Y)}.
§ 4. Моменты векторных случайных величин
Перейдем к изучению моментов многомерных случайных величин.
Специфические свойства моментов векторных случайных величин связаны с
зависимостью координат случайного вектора.
69
Определение
4.
Математическим
ожиданием
вектора
X = ( X 1 , ..., X n ) называется вектор
MX = (MX 1 , ..., MX n ) ,
составленный из математических ожиданий координат.
Дисперсией вектора X = ( X 1 , ..., X n ) называется вектор
DX = (DX 1 , ..., DX n )
составленный из дисперсий координат.
Для многомерных случайных величин справедлив аналог теоремы 1,
так что, например, если f ( x1 , ..., xn ) — произвольная функция такая, что Y =
f(X) – новая случайная величина, то
∞
∞
−∞
−∞
MY = Mf ( x ) = ∫ ... ∫ f (x1 , ..., xn )p ( x1 , ..., xn )dx1 , ..., dxn
при условии, что этот интеграл сходится абсолютно (здесь p ( x1 , ..., xn ) —
плотность вероятности случайного вектора X = ( X 1 , ..., X n ) . В частности,
n
⎛ n
⎞
M ⎜ ∑ ak X k ⎟ = M (a, X ) = ∑ ak MX k = (a, MX )
k =1
⎝ k =1
⎠
где a = (a1 , ..., an ) и ( , ) – знак скалярного произведения в R n , а если
координаты Х независимы в совокупности, то
M ( X 1 , ..., X n ) = MX 1 , ..., MX n
Важной характеристикой n-мерной случайной величины Х является так
называемая матрица ковариаций, или дисперсионная матрица:
[
]
aij = cov X i X j ≡ M ( X i − MX i )(X j − MX j ) = MX i X j − MX i MX j
i, j = 1, … , n.
На главной диагонали в матрице ковариаций стоят дисперсии:
a ii = DXi ; a ij = a ji называется также корреляционным моментом случайных
величин Xi и X j . В силу определения дисперсионной матрицы ясно, что
если Xi и X j независимы, то a ij ≡ cov Xi X j = 0 . Таким образом, условие
70
a ij ≠ 0 является достаточным признаком зависимости Xi и X j . Обратное
утверждение неверно: из равенства нулю cov Xi X j не следует независимость
Xi и X j .
Поскольку
при
любом
D (X i + cX j ) = DX i + c 2 DX j + 2c cov X i X j ≥ 0 ,
c = −(cov X i X j ) / DX j ,
то,
DX i − (cov X i X j ) / DX j ≥ 0 ,
2
найдем
с
полагая
т.е.
cov Xi X j ≤ DXi DX j . Отсюда следует существование матрицы ковариаций
в случае, когда DX j < ∞, j = 1, 2, ..., n .
Вспоминая доказательство равенства Бьенеме, получим для любого
вектора X = ( X 1 , ..., X n ) с конечной дисперсией:
n
⎛ n
⎞ n
D⎜ ∑ X i ⎟ = ∑ DX i + ∑ cov X i X j
i , j =1
⎝ i =1 ⎠ i =1
i≠ j
Из определения дисперсионной матрицы видно, что корреляционный
момент характеризует не только зависимость величин Xi и X j , но и их
рассеивание. Для характеристики чистой (линейной) связи между Xi и X j
вводят так называемый коэффициент корреляции
rij =
cov Xi X j
DXi DX j
.
Мы видели, что cov Xi X j ≤ DXi DX j , так что rij ≤ 1, rii = 1, i,j=1,…,n.
На основании равенства для вектора с конечной дисперсией находим, что
( σ i = DXi , σ j = DX j )
⎛X
Xj⎞
⎟ = 2(1 ± rij ) ≥ 0
D⎜ i ±
⎜σ
⎟
σ
j ⎠
⎝ i
71
⎛ Xi X j ⎞
⎟ = 0 , а это, в свою
±
D
отсюда rij = ±1 тогда и только тогда, когда ⎜⎜
⎟
σ
σ
j ⎠
⎝ i
очередь, в силу свойства 5) дисперсии возможно лишь тогда, когда случайная
величина Y =
Xi
σi
±
Xj
σj
равна постоянной с вероятностью 1. Таким образом,
Xi = αX j + β (линейно связаны), если и только если rij = ±1 .
Если rij > 0 , то говорят, что между Xi и X j положительная
корреляция, и это означает, что Xi и X j имеют тенденцию возрастать и
убывать одновременно. При rij < 0 ситуация обратная. Если rij = 0 , то
говорят, что случайные величины Xi и X j некоррелированы, и этому
свойству можно придать определенный геометрический смысл. С этой целью
рассмотрим множество случайных величин с конечным моментом второго
порядка
МХ2 < ∞ . Из
МХ2 < ∞, МY2 < ∞
следует, что при любых
постоянных а и b M (aX + bY )2 < ∞ , поэтому множество таких случайных
величин относительно операций сложения и умножения на число образуют
линейное пространство L.
Определим в L квазискалярное произведение
(X,Y)=MXY.
MXY обладает всеми свойствами скалярного произведения, за исключением
одного: из МХ2 = 0 не следует Х = 0, а следует лишь, что Х = 0 с
вероятностью
1.
Это
обстоятельство
не
мешает
дать
следующую
геометрическую интерпретацию: матрица ковариаций является матрицей
квазискалярных произведений случайных величин ( X i − MX i ), i = 1, ..., n . При
этом
некоррелированность
означает
ортогональность
в
смысле
квазискалярного произведения.
Заметим, что
( X i − MX i ) является истинно “случайной” частью
величины Xi и матрица ковариаций характеризует связь (статистическую)
72
именно этих “случайных” частей. Равенство rij = 1 означает, что Xi − MXi и
X j − MX j линейно зависимы в построенном линейном пространстве L.
Примеры. В математической статистике мы будем постоянно
использовать
χ 2n —распределение
(распределение Стьюдента) и
распределение
Пирсона),
(распределение
tn —
Fk ,m —распределение
(распределение Фишера). В связи с этим вычислим здесь плотности этих
распределений и их различные числовые характеристики.
1.
χ 2n
с
-распределением
степенями
n
свободы
называется
распределение случайной величины χ 2n = X12 +...+ X2n , где все X i ∈ N (0, 1) и
2
независимы. Найдем плотность распределения χ n . Случайный вектор
X = ( X 1 , ..., X n ) имеет плотность p( x1 , ..., xn ) =
(
)
F (x ) = P χ n2 < x =
n
∫ ...∫
∑ xi2 < x
1
1
e
n/2
(2π )
(2π )n / 2
e
−
1 n 2
xi
2 i =1
∑
−
1 n 2
xi
2 i =1
∑
поэтому
dx1...dxn
i =1
Введем сферические координаты:
x1 = ρ cosϕ 1 ,
x2 = ρ sin ϕ 1 cosϕ 2 ,
.................................,
x n = ρ sin ϕ 1 sin ϕ 2 ...sin ϕ n−1 ,
−π / 2 ≤ ϕ i ≤ π / 2, i = 1, ..., n - 2, - π ≤ ϕ n-1 ≤ π .
Тогда
F (x ) =
1
x
ρ
(2π )n / 2 ∫0
n −1
e
−
ρ2
2
π
π
2
2
dρ ⋅ 2 ∫ ... ∫ (ϕ1 , ..., ϕ n−1 )dϕ1 , ..., dϕ n−1 =
−
π
−
π
2
2
1
23
n −1
73
ω n−1
=
(2π )n / 2
x
∫ρ
n−1
e
−
ρ2
2
dρ
0
где ω n−1 — площадь поверхности единичной (n – 1)-мерной сферы; ω n−1
легко вычислить исходя из последней формулы. Поскольку F (+ ∞ ) = 1 , то
2
ω n−1 ∞ n−1 − ρ2
ω n−1 ⎛ n ⎞ n2 −1
1=
ρ e dρ =
Γ⎜ ⎟ 2
(2π )n−1 ∫0
(2π )n−1 ⎝ 2 ⎠
Таким образом,
ω n−1
2π n / 2
=
⎛n⎞
Γ⎜ ⎟
⎝ 2⎠
Подставляя ω n−1 в формулу для F(x), находим окончательно
1
F (x ) =
2
n
−1
2
∞
∫ρ
⎛n⎞
n −1
e
−
ρ2
2
dρ , x > 0
Γ⎜ ⎟ 0
⎝ 2⎠
2
Поскольку P(χ n < x ) = 0 при x ≤ 0 , то F(x)=0, x ≤ 0 . Отсюда и из
последней формулы для F(x) получаем
n
−1 − x
⎧
1
2
x e 2
⎪⎪
n
, x>0
p χ 2 ( x ) = F ′( x ) = ⎨ 2 n / 2 Γ⎛⎜ ⎞⎟
n
2
⎝ ⎠
⎪
⎪⎩
0,
x≤0
Зная p χ 2 , найдем M χ 2 и D χ 2 :
n
n
Mχ2 =
n
n
∞
1
n
2
x
−
2
∫ x e dx =
⎛n⎞
2 n / 2 Γ⎜ ⎟ 0
⎝ 2⎠
поскольку Г(s+1)=s Г(s);
Dχ 2 = M
n
( )
2
χ n2
n
+1
2
⎛n ⎞
Γ⎜ + 1⎟ = n
⎛n⎞ 2 ⎠
2 n / 2 Γ⎜ ⎟ ⎝
⎝ 2⎠
2
( ) = M(
− M χ2
n
и так как
74
2
χ n2
)
2
− n2 ,
M
( )
2
χ n2
=
∞
1
n
+1
2
x
−
2
∫ x e dx =
⎛n⎞
2 n / 2 Γ⎜ ⎟ 0
⎝ 2⎠
n
+2
2
⎛n
⎞
Γ⎜ + 2 ⎟ = n 2 + 2n
⎛n⎞ 2
⎠
2 n / 2 Γ⎜ ⎟ ⎝
⎝ 2⎠
2
то D χ 2 = 2 n .
n
2.
tn
-распределением
с
степенями
n
свободы
называется
распределение случайной величины t n = X / Y , где X ∈ N (0, 1) , Y = χ 2n / n ,
χ 2n определено в 1) и Х и Y независимы. В силу последнего условия
случайный вектор (Х, Y) имеет плотность
p ( x1 , x 2 ) = p X ( x1 ) pY ( x2 ) , а
плотность частного Х/Y определяется с помощью формулы
⎛X
⎞
P⎜ < y ⎟ =
⎝Y
⎠
∫∫ p (x ) p (x )dx dx
1
1
2
2
1
2
=
x1 / x2 < y
∞
x2 y
0
−∞
+ ∫ p2 ( x2 )dx2
∞
0
∫ p (x )dx ∫ p (x )dx
2
2
2
−∞
1
1
1
+
x2 y
∫ p (x )dx
1
1
1
∞
0
0
−∞
ptn ( x ) = Ftn′ ( x ) = ∫ zp X ( zx ) pY ( z )dz − ∫ zp X ( zx )pY (z )dz
Далее,
⎞
⎛ χ2
n
FY ( x ) = P⎜
< x ⎟ = P χ n2 < x 2 n = Fχ 2 x 2 n
n
⎟
⎜ n
⎠
⎝
(
)
( )
Так как M χ 2 = n , то плотность распределения Y равна
n
pY ( x ) = FY′ (x ) = pχ 2
n
n
⎧
x 2n
2
−
n −1
⎪ n
2
⎪ n −1 n x e , x > 0
2
x n ⋅ 2 xn = ⎨ 2 ⎛ ⎞
2 Γ⎜ ⎟
⎪
⎝ 2⎠
⎪
0,
x≤0
⎩
( )
Ввиду последнего равенства второй интеграл в равенстве для ptn ( x )
исчезает, и мы находим
75
n
2
n
ptn ( x ) = n
−1 ⎛ n ⎞
2 2 Γ⎜ ⎟ 2π
⎝ 2⎠
=
n
2
n 1
−
2 2
1
n 2
n
−1 ⎛ n ⎞
2
2 2 Γ⎜ ⎟ 2π x + n
⎝ 2⎠
(
)
∫z e
n
−
( zx )2 − nz 2
2
2
dz =
0
⎛ n +1⎞
−( n+1)
Γ⎜
⎟
2
2 ⎠ 1 ⎛ x ⎞ 2
−t
⎝
∫0 t e dt = ⎛ n ⎞ πn ⎜⎜⎝1 − n ⎟⎟⎠
Γ⎜ ⎟
⎝ 2⎠
∞
n 1
+
2 2
∞
n
−1
2
С помощью этой формулы вычисляем Mt n , n ≥ 2 ,
⎛ n +1⎞
−( n +1)
Γ⎜
⎟
∞
2
2
⎛
⎞
1
x
2 ⎠
⎜
⎟
−
M tn = ⎝
x
1
dx = 0
n ⎟⎠
⎛ n ⎞ πn −∫∞ ⎜⎝
Γ⎜ ⎟
⎝ 2⎠
ввиду нечетности подынтегральной функции. Теперь
⎛ X2 ⎞
⎛ n ⎞
Dtn = M t 2 = M ⎜⎜ 2 ⎟⎟ = MX 2 ⋅ M ⎜⎜ 2 ⎟⎟
n
⎝ χn / n ⎠
⎝ χn ⎠
так как Х2 и χ 2n / n независимы. Обозначим Y = n / χ 2n , имеем при x > 0
⎛ n
⎞
⎛1 χ2 ⎞
n⎞
⎛
FY ( x ) = P⎜⎜ 2 < x ⎟⎟ = P⎜⎜ < n ⎟⎟ = 1 − P⎜ χ n2 ≤ ⎟
x⎠
n ⎠
⎝
⎝n
⎝ χn
⎠
Отсюда находим
n
⎧
n −⎛ n +1 ⎞
⎜
⎟
−
2
n
1
⎛
⎞
⎝2 ⎠
2ч
⎪⎜ ⎟
e
x
, x>0
⎪
pY ( x ) = ⎨⎝ 2 ⎠ Γ⎛⎜ n ⎞⎟
⎪
⎝ 2⎠
⎪⎩
0,
x≤0
Поэтому
n
n
n
∞ n
∞
−
⎛ n ⎞
n ⎞2 1
1 n −t 2 − 2
n
⎛
2
x
2
e
x
dx
M ⎜⎜ 2 ⎟⎟ = MY = ⎜ ⎟
=
e
t
dt
=
∫
n−2
⎛n⎞ 2∫
⎝ 2 ⎠ Γ⎛ n ⎞ 0
⎝ χn ⎠
Γ⎜ ⎟ 0
⎜ ⎟
⎝ 2⎠
⎝ 2⎠
Так как MX2 = DX = 1 , то получим
76
Dt n =
3.
n
.
n−2
Fk ,m -распределением с (k, m) степенями свободы называется
распределение
случайной
Fk ,m =
величины
χ 2k
χ 2m
k
m
,
где
χ 2k , χ 2m
определены в 1) и независимы. Положим для краткости Fk ,m = Y , χ 2k / k = X1 ,
χ 2m / m = X2 . Ввиду независимости Х1 и Х2 плотность случайного вектора
(X 1, X 2 )
равна p ( x1 , x2 ) = p X1 ( x1 ) p X 2 ( x2 ) , а плотность частного Х1 / Х2
равна
∞
0
0
−∞
pY ( x ) = ∫ z p X1 ( zx ) p X 2 ( z )dz − ∫ z p X1 ( zx ) p X 2 ( z )dz
Отсюда находим при x > 0
k
k
−1
2
m
−1
2
m
−1
2
k
−1
2
k
−1
2
∞
m x
pY ( x ) = k + m
∫0 z
k
m
⎛
⎞
⎛
⎞
2 2 Γ⎜ ⎟ − ⎜ ⎟
⎝2⎠ ⎝ 2 ⎠
=
k
k
−1
2
x (kx + m )
⎛k ⎞ ⎛m⎞
Γ⎜ ⎟ − ⎜ ⎟
⎝2⎠ ⎝ 2 ⎠
m
k +m
2
k +m
2
e
−
z
( kx + m )
2
dz =
⎛k +m⎞
Γ⎜
⎟
⎝ 2 ⎠
и pY ( x ) = 0 при x ≤ 0 .
Далее находим
⎛ χ k2 ⎞ ⎛ m ⎞ k m
⎛ χ k2 / k ⎞
⎟⎟ = M ⎜⎜
⎟⎟ M ⎜⎜ 2 ⎟⎟ = ⋅
MY = M ⎜⎜ 2
k
/
χ
m
⎠ ⎝ χm ⎠ k m − 2
⎠
⎝
⎝ m
Найдем DY:
DY = MY − (MY )
2
2
Но
77
⎛ m ⎞
= MY − ⎜
⎟
⎝ m−2⎠
2
2
2
2
2
⎛ m⎞
⎛ χ k2 ⎞
⎛ χ k2 ⎞
k 2 + 2k
⎜
⎟
MY = M ⎜⎜ ⎟⎟ ⋅ M ⎜ 2 ⎟ , где M ⎜⎜ ⎟⎟ =
.
k2
⎝ k ⎠
⎝ k ⎠
⎝ χm ⎠
2
Далее находим
m
2
⎛ m ⎞ ⎛ m ⎞ 2 1 ∞ − m2 +1 − 2mx
M ⎜⎜ 2 ⎟⎟ = ⎜ ⎟
x e dx =
∫
m
2
χ
⎛
⎞
⎠
⎝
⎝ m⎠
Γ⎜ ⎟ 0
⎝2⎠
m
2
1 ⎛m⎞
⎛m⎞
=⎜ ⎟
⎜ ⎟
⎝ 2 ⎠ Γ⎛ m ⎞ ⎝ 2 ⎠
⎜ ⎟
⎝2⎠
−
m
+2 ∞
2
∫z
0
⎛m
⎞
Γ⎜ − 2 ⎟
m2
⎛m⎞ ⎝ 2
⎠
=
e dz =⎜ ⎟
(m − 4)(m − 2) .
⎝ 2 ⎠ Γ⎛ m ⎞
⎜ ⎟
⎝2⎠
m
−3
−z
2
2
Собирая полученные выражения, получим при m > 4
DY =
2m 2
⎛ m−2⎞
⎜1 −
⎟.
2
k ⎠
(m − 2) (m − 4) ⎝
78
Глава 4
Законы больших чисел
Стандартное теоретико-вероятностное заключение – вероятность
события А равна р — не позволяет, как правило, предсказать, произойдет
событие А или нет [9]. Исключение составляют лишь те случаи, когда р либо
очень мало, либо очень близко к единице. При этом можно утверждать, что
событие А практически невозможно или соответственно практически
достоверно. Так, например, если подбрасывать монету 1000 раз, то событие,
состоящее в выпадении герба все 1000 раз, можно считать практически
невозможным, а событие, состоящее в том, что герб выпадет хотя бы один
раз, — практически достоверным.
Рассмотрим ряд результатов теории вероятностей, известных под
названием “законов больших чисел” и позволяющих делать подобные
предсказания.
Всякое
утверждение
о
малости
некоторой
величины
естественно формулировать в терминах предельного перехода. Введем здесь
два понятия сходимости случайных величин: сходимость по вероятности и
сходимость с вероятностью единица (или почти наверное).
Определение
1. Последовательность
случайных
величин
{X n }
сходится по вероятности к случайной величине Х, если для любого ε > 0
lim P( X n − X > ε ) = 0
n →∞
Эта сходимость обозначается так: X n → X, n → ∞ .
p
Этот тип сходимости означает, что, каково бы ни было ε > 0 , найдется
число N, такое, что для всех n ≥ N вероятность неравенства X n − X > ε будет
сколь угодно малой, или, иначе, событие X n − X > ε будет практически
невозможным.
Полезной в ряде вопросов математической статистики является
следующая
79
Теорема 1 [9]. Пусть X n → X , а g(x) — непрерывная функция, так что
р
Y = g(X) и Yn = g ( X n ) — случайные величины, n = 1, 2, … . Тогда Yn → Y
р
при n → ∞ .
Здесь мы будем постоянно использовать неравенство Чебышева: для
любой случайной величины Х с конечной дисперсией DX и любого ε > 0
справедливо неравенство
P( X − MX > ε ) ≤ DX / ε 2 .
Основываясь на неравенстве Чебышева, сформулируем удобный
критерий сходимости по вероятности [9].
Лемма 1. Если для последовательности случайных величин {X n }
MX n = 0 , DX n → 0 при n → ∞ , то X n → 0 .
Доказательство. В силу неравенства Чебышева и того, что MX n = 0 ,
имеем для любого фиксированного ε > 0
0 ≤ P( X n > ε ) ≤ DX / ε 2 → 0, n → ∞ .
Переходим к установлению закона больших чисел в форме Чебышева.
Теорема 2 (Чебышев) [9]. Пусть X1 , X2 ,..., X n ,... последовательность
попарно независимых случайных величин, дисперсии которых ограничены в
совокупности: DXi ≤ c, i = 1, 2, ... . Тогда последовательность случайных
1 n
( X i − MX i ) сходится по вероятности к нулю при n → ∞
величин Yn = n ∑
i =1
⎛1 n
⎞
1 n
lim P⎜⎜ ∑ X i − ∑ MX i ≤ ε ⎟⎟ = 0, ε > 0 — любое.
n →∞
n i =1
⎝ n i =1
⎠
Доказательство. Имеем
1 n
MYn = ∑ (MX i − MX i ) = 0 ,
n i =1
DYn =
1
n
cn
∑ DXi ≤ n2 → 0
n2
i =1
80
при n → ∞ ( в силу попарной независимости Xi
n
n
n
i =1
i =1
i =1
∑ ( X i − MX i ) = ∑ D( X i − MX i ) = ∑ DX i )
Отсюда на основании леммы 1 следует утверждение теоремы.
Теорему Чебышева можно записать и в виде
⎛1 n
⎞
1 n
lim P⎜⎜ ∑ X i − ∑ MX i ≤ ε ⎟⎟ = 1, ε > 0 — любое.
n →∞
n i =1
⎝ n i =1
⎠
Следствие. Пусть в условиях теоремы Чебышева случайные
величины
Xi
MX1 = MX2 =... = μ .
имеют
Тогда
одинаковые
математические
последовательность
ожидания:
1 n
Yn = ∑ Xi
n i =1
при
n → ∞ сходится по вероятности к математическому ожиданию μ :
1 n
Yn = ∑ Xi → μ , n → ∞.
р
p
n i =1
Это следствие теоремы Чебышева служит обоснованием правила
среднего арифметического, применяемого в теории измерений, которое
сводится к тому, что, повторив n раз измерение величины μ и получив в
качестве результатов случайные величины X1 , X2 , ..., X n , за приближенное
значение μ принимают среднее арифметическое из наблюденных значений
)
μ=
1
( X 1 + X 2 + ... + X n ) . Если при измерениях отсутствует систематическая
n
ошибка (т.е. все MXi = μ , i = 1, 2, …, n), то согласно закону больших чисел
при достаточно больших n с вероятностью, сколь угодно близкой к 1, будет
получен результат μ$ , произвольно мало отличающийся от истинного
значения μ .
Важнейшим следствием закона больших чисел Чебышева является
81
Теорема 3 (Бернулли) [9]. Пусть Yn — число успехов в серии из n
испытаний Бернулли и р – вероятность успеха при каждом испытании. Тогда
последовательность частот {Yn / n} при n → ∞ cходится по вероятности к р.
Доказательство. Введем случайные величины X k , равные числу
успехов при k-м испытании, k = 1, 2, … . Тогда Yn = X1 +...+ X n , MX k = p ,
DX k = pq . Поэтому согласно теореме Чебышева при любом ε > 0
⎛1 n
⎞
⎞
⎛Y
1 n
lim P⎜⎜ n − p > ε ⎟⎟ = lim P⎜⎜ ∑ X k − ∑ MX k > ε ⎟⎟ = 0
.
n →∞
n k =1
⎠ n→∞ ⎝ n k =1
⎝ n
⎠
В определенном смысле эта теорема может служить “аксиомой
измерения”, доставляя непротиворечивый способ практического определения
тех вероятностей, о которых идет речь в аксиоматической теории
вероятностей. Закон больших чисел Бернулли утверждает, что для
фиксированного достаточно большого n очень правдоподобно, что частота
Yn / n будет уклоняться от вероятности р меньше, чем на ε . Отсюда, однако,
не следует, что разность Yn / n − p останется малой для всех достаточно
больших n. Может оказаться, что она принимает значения, близкие к
единице. Теорема 3 гарантирует лишь, что эти большие отклонения могут
появляться весьма редко. Для полного обоснования частотной интерпретации
вероятности желательно иметь теорему, обеспечивающую сходимость
последовательности частот к вероятности. Введем сейчас некоторые новые
понятия и дадим усиленный вариант теоремы Бернулли, удовлетворяющий
этому требованию.
Определение
2. Последовательность
случайных
величин
{X n }
сходится к случайной величине Х с вероятностью 1 ( или почти наверное),
если
(
)
P ω ∈ Ω : lim X n (ω ) = X (ω ) = 1
n →∞
82
т.е. X n (ω ) → X (ω ) при n → ∞ для всех ω ∈Ω , за исключением, быть может,
множества
С⊂Ω
нулевой вероятности, P(C) = 0. Эта сходимость
обозначается так: X n → X п.н.
Согласно этому определению для каждого ω ∈Ω \ C и любого ε > 0
X n (ω ) − X (ω ) ≤ ε для всех достаточно больших n. Поэтому если обозначить
через A n,ε событие An ,ε = (ω ∈ Ω : X n (ω ) − X (ω ) > ε ) , n = 1, 2, …, то для
любого ε > 0 с вероятностью 1 происходит лишь конечное число событий
A n,ε . Оказывается, что это условие является и достаточным для сходимости
с вероятностью 1. Действительно, возьмем ε = 1/ k и обозначим через Bk
событие, состоящее в том, что происходит лишь конечное число событий из
An ,1/ k = (ω ∈ Ω : X n (ω ) − X (ω ) > 1 / k ) , n = 1, 2, … . По условию P(Bk ) = 1 , k = 1, 2,
… Очевидно, что события Bk , k = 1, 2, …, образуют монотонно убывающую
последовательность:
B=
∞
I Bk .
k =1
B1 ⊃ B2 ⊃ B3 ⊃... .
Обозначим
через
В
событие
P(Bk ) = 1 , так как
В силу непрерывности вероятности P(B ) = lim
k →∞
все P(Bk ) = 1. Из определения события В следует, что В состоит из всех таких
ω ∈Ω , для которых X n (ω ) → X (ω ) при n → ∞ . Итак, Р(В) = 1, и высказанное
выше утверждение доказано. Таким образом, X n → X п.н. тогда только тогда,
когда для любого ε > 0 вероятность того, что осуществляется лишь конечное
число событий X n − X > ε , n = 1, 2, ... , равна 1.
Лемма 2 (Бореля-Кантелли) [9]. Если для последовательности {An }
произвольных событий A n , n = 1, 2, ... , выполнено условие
∞
∑ P( A ) < ∞
n =1
n
то с вероятностью 1 происходит лишь конечное число этих событий.
83
Доказательство. Пусть событие Bn состоит в том, что происходит
хотя бы одно из событий A k с k ≥ n , т.е. Bn =
∞
UAk .
Очевидно, что
k=n
B1 ⊃ B2 ⊃.. . Пусть, далее, событие В означает, что происходит бесконечное
число событий из A n , n = 1, 2, ... . Событие В наступает тогда и только тогда,
∞
когда происходят все Bn , т.е. B = I Bn . Отсюда в силу того, что B1 ⊃ B2 ⊃..
n=1
и
непрерывности
вероятности,
∞
∞
k=n
k =n
получим:
P (B ) = lim P (Bn )
n →∞
Поскольку
Bn = U A k , то P(Bn ) ≤ ∑ P( Ak ) .
∞
Так как ряд
∑ P( A )
n =1
n
∞
сходится, то его остаток
∑ P( A ) → 0
n =1
n
при
n → ∞ и в силу последнего неравенства P(Bn ) → 0 при n → ∞ . Отсюда и из
P(Bn ) находим, что Р(В) = 0. Поэтому противоположное
равенства P(B ) = lim
n →∞
событие В , состоящее в том, что наступает конечное число событий
()
A n , n = 1, 2, ..., имеет вероятность, равную 1, P B = 1 , что и требовалось
доказать.
Используя
лемму
Бореля-Кантелли,
установим
следующий
усиленный вариант закона больших чисел.
Теорема 4 (усиленный закон больших чисел) [9]. Пусть Х1 , Х2 ,... —
последовательность попарно независимых случайных величин, для которых
MXi = μ , DXi = σ 2 . Тогда при n → ∞
1 n
∑ Xi → μ
n i=1
с вероятностью 1.
84
Доказательство. Вводя в случае необходимости новые случайные
величины X' = X − μ , можем считать, что μ = 0 . Обозначим через Y
k
i
i
k
случайную величину Y = X . Нам надо доказать, что при
∑ i
k
n→∞
i =1
(1/ n )Yn → 0
п.н.
Для каждого натурального n возьмем натуральное число m так,
m 2 ≤ n ≤ (m + 1)
2
чтобы
. Так как MYk = 0 , то неравенство Чебышева дает
⎞ DYm2
⎛ Ym2
σ2
⎟
⎜
P⎜ 2 > ε ⎟ ≤ 2 4 = 2 2
ε m
⎠ ε m
⎝m
Полагаем
)
Ym 2 =
X m 2 + ... + X k
max
m 2 +1< k <( m +1)2
.
Снова применяя неравенство Чебышева, получим
)
⎞ (m +1)2 k − m 2 σ 2
⎛Y 2
⎞ (m +1)2 ⎛ X m 2 + ... + X k
m
⎜
>ε⎟≤ ∑
≤
P⎜ 2 > ε ⎟ ≤ ∑ P
2
⎟ k =m 2 +1 ε 2 m 4
⎜m
⎟ k =m 2 +1 ⎜
m
⎝
⎠
⎝
⎠
(
(
2m + 1)σ 2
≤ 2m
ε 2m4
)
5σ 2
≤ 2 2
ε m
(здесь в сумме 2m слагаемых и (k − m 2 ) ≤ 2m + 1 ). В силу полученных оценок
получаем, что числовые ряды
⎛ Ym2
⎞
⎜
⎟,
ε
>
P
∑
2
⎜
⎟
m
m =1 ⎝
⎠
∞
)
⎞
⎛Y 2
m
⎟
⎜
ε
P
>
∑
2
⎟
⎜
m =1
⎠
⎝m
∞
сходятся, а тогда на основании леммы Бореля-Кантелли заключаем, что с
⎞
⎛ Ym2
⎜ 2 >ε⎟
⎟
вероятностью 1 может произойти только конечное число событий ⎜⎝ m
⎠
⎞
⎛ Yˆ 2
⎜ m >ε⎟
2
⎟ , т.е. согласно критерию сходимости п.н. с вероятностью 1
и ⎜⎝ m
⎠
85
Ym2
m2
→0 и
$ 2
Y
m
m2
→ 0 при n → ∞.
2
Поскольку для любого n из сегмента m 2 ≤ n ≤ (m + 1)
$ 2
Ym2 Y
Yn
≤ 2 + m2 ,
n
m
m
то Yn / n → 0 при n → ∞ с вероятностью 1.
Простым следствием доказанной теоремы является усиленный закон
больших чисел Бернулли.
Теорема 5 (Борель) [9]. Пусть Yn — число успехов в серии из n
независимых испытаний Бернулли, р – вероятность успеха при каждом
испытании. Тогда последовательность частот
{Yn / n}
при n → ∞ сходится с
вероятностью 1 к вероятности р.
Доказательство. Достаточно ввести случайные величины Xi , равные
n
числу успехов в i-м испытании, Xi = 1,0 , MXi = p , DXi = pq ; Yn = ∑ Xi и
i =1
применить теорему 4 к Yn .
Рассмотрим теперь один важный вариант закона больших чисел,
принадлежащий Хинчину. В этом варианте не требуется существования
дисперсий случайных величин.
Теорема 6 (Хинчин) [9]. Пусть одинаково распределенные случайные
величины Х1 , Х2 ,... попарно независимы и имеют конечное математическое
ожидание MXi = μ . Тогда при n → ∞ Yn =
1 n
∑ Xk сходится по вероятности
n k =1
к μ , Yn → μ .
p
Докажем теперь следующую теорему, в которой отсутствует
предположение о попарной независимости случайных величин.
86
Теорема 7 (Марков)
[9]. Если последовательность случайных
1 ⎛ n
⎞
D⎜ ∑ X i ⎟ → 0
2
при n → ∞ , то
величин Х1 , Х2 , ... такова, что MXi = μ и n ⎝ i =1 ⎠
1 n
при n → ∞ Yn = ∑ Xi → μ по вероятности.
n i =1
Доказательство.
Dξ n =
1 n
ξ n = ∑ Xi − μ .
n i=1
Положим
Mξ n = 0 ,
Тогда
1 ⎛ n
⎞
D⎜ ∑ X i ⎟ → 0
2
n ⎝ i =1 ⎠
при n → ∞ и согласно лемме 1 получаем утверждение
теоремы.
Пример. Рассмотрим схему независимых испытаний: при каждом
испытании полная группа событий состоит из A1 , A 2 , ..., A r , и вероятность
наступления
при
каждом
pi , pi ≥ 0 , p1 +...+ p r = 1 . Пусть
испытании
Yn(i ) , i = 1, 2, ..., r
события
Ai
равна
случайная величина, равная
числу наступлений события A i в серии из n испытаний, тогда частота
появлений
события
Ai
при
n→∞
сходится
по
Yn(i ) / n
вероятности
к
pi , i = 1, 2, ..., r . Действительно, пусть X k — число наступлений A i в k-м
испытании, X k = 0 или 1 с вероятностями соответственно 1− pi и pi .
Поэтому
n
MX k = pi , DX k = MX − (MX k ) = pi − p = pi (1 − pi ), а Yn = ∑ X k
2
k
2
2
i
Применяя теорему Чебышева, получим
Yn(i )
⎯⎯→
pi , n → ∞, i = 1, 2, ..., r .
p
n
87
(i )
k =1
Глава 5
Центральные предельные теоремы
Утверждения, полученные в
представляют
собой
заключения
форме
о
законов больших чисел,
сходимости
последовательности
случайных величин {X n }, n = 1, 2, ..., к некоторой случайной (или неслучайной)
величине Х[9].
Эти утверждения не дают нам никакой информации о том, как
аппроксимировать распределение случайных величин X n при больших n.
Ответ на этот вопрос дают так называемые центральные предельные
теоремы, в которых речь идет о новом виде сходимости последовательности
случайных величин – сходимости по распределению. Основным аппаратом,
используемым при изучении центральных предельных теорем, является
аппарат характеристических функций, играющий важную роль и в других
разделах теории вероятностей.
§ 1. Характеристические функции
Определение 1. Характеристической функцией случайной величины Х
называется функция
f X (t ) вещественной переменной t, определенная
равенством [9]
f X (t ) = Me
∞
itX
= ∫ e itX dFX (x ), − ∞ < t < ∞.
(1)
−∞
Вообще, если ξ — комплексная случайная величина ξ = X + iY , где Х и
Y – действительные случайные величины, то по определению
Mξ = MX + iMY.
В определении (1) интеграл понимается либо как сумма абсолютно
сходящегося ряда
∞
f X (t ) = ∑ eitX pk ,
k =1
88
(2)
если Х – дискретная случайная величина, x k — ее значения, а p k —
соответствующие вероятности, k = 1, 2, …, либо как абсолютно сходящийся
интеграл
∞
f X (t ) = ∫ eitX p(x )dx,
(3)
−∞
если Х – непрерывная случайная величина с плотностью р(х). Хотя интеграл
(1) представляет собой интеграл Стильтьеса, мы не будем опираться на его
специфические свойства и будем рассматривать (1) как краткую запись для
выражений (2) и (3). Все дальнейшие рассуждения проводятся таким
образом, что они одинаково применимы для случаев (2) и (3), ввиду чего
будем использовать лишь обозначение (1).
Характеристическая функция существует для любой случайной
itx
величины, поскольку ввиду равенства e = 1 ряд (2) и интеграл (3) сходятся
абсолютно. Очевидно, f X (0 ) = 1 , и f X (t ) ≤ 1 .
Теорема 1. [9] Пусть X1 , X2 , ..., X n — независимые в совокупности
случайные величины. Тогда
f X1+..+ X n (t ) = f X1 (t ) ... f X1 (t )
Доказательство.
(
(4)
)
f X 1 +..+ X n (t ) = Meit ( X 1 +...+ X n ) = M eitX 1 ...eitX n = MeitX 1 ...MeitX n = f X 1 (t ) ... f X 1 (t )
Здесь
мы
воспользовались
произведения
теоремой
независимых
о
случайных
математическом
величин.
ожидании
Независимость
eitX1 , ..., eitXn следует из независимости X1 , X2 , ..., X n .
В
доказанной
теореме
сформулировано
основное
свойство
характеристических функций, которое используется при доказательстве
центральных предельных теорем [9].
Теорема 2.
f σX + μ (t ) = e itμ f X (σt ), σ , μ − const
Доказательство.
89
fσX + μ (t ) = Meit (σX + μ ) = eitμ MeitσX = eitμ f X (σt )
Теорема 3. Если существует момент
MX k
, то k-я производная f X(k ) (t )
характеристическая функция f X (t ) существует, равномерно непрерывна и
f X(k ) (0 ) = i k MX k .
Рассмотрим несколько примеров х.ф.
1.
Нормальное распределение N ( 0, 1) имеет характеристическую
функцию
∞
1
e
2π
f X (t ) = ∫ e itx
−∞
−
x2
2
1
e
2π
dx =
(
2
Если X ∈ N (0, 1) , то (σX + α ) ∈ N α ,σ
)
∫e
(it − x )2
2
dx = e
−
t2
2
−∞
2 2
t /2
.
Характеристическая функция распределения Пуассона
∞
f X (t ) = ∑ e
itk
λk e − λ
=e
k!
k =0
3.
t2 ∞
2
и согласно теореме 2
fσX +α (t ) = eitα −σ
2.
−
−λ
∑ (λe )
∞
it k
k =0
it
1
= e − λ eλe
k!
Характеристическая функция биномиального распределения
n
f X (t ) = ∑ e C p q
itk
k =0
k
n
k
n−k
n
( )
(
= ∑ Cnk neit q n − k = neit + q
k
k =0
)
n
.
§ 2. Центральные предельные теоремы
Предварительное понимание содержания центральных предельных
теорем может быть получено следующим образом [9]. Рассмотрим суммы
Yn = X1 +...+ X n , n = 1, 2, ...,
независимых случайных величин, которые принимают целочисленные
значения
и
все
имеют
90
одинаковые
распределения
P{X i = m} = pm , m = 0, ± 1, ...
для всех i. Это распределение можно
изобразить следующим образом (рис. 1): основание каждого прямоугольника
равно 1, высота — pm , так что пло
В
общем
случае
∞
щадь равна p m и
получим
∑ p m = 1.
m=−∞
практически
произвольный
набор
прямоугольников.
Рассмотрим теперь вместо Yn нормированные случайные величины
Yn* =
Yn − MYn Yn − μn
=
,
σ n
DYn
где μ = MXi и σ 2 = DXi , i = 1, 2, .. . Значениями случайной величины Yn*
*
являются числа xn (m ) = (m − nμ ) / σ n , причем P(Yn = xn (m )) = P(Yn = m ) .
Рис. 1
*
Построим теперь аналогичный “график” распределения Yn . По оси
абсцисс отложим значения xn (m), m = 0, ± 1, ... , и, как и раньше, построим
*
прямоугольники, площадь которых равна P(Yn = xn (m )) . Поскольку длина
основания теперь равна 1 / σ n , то высоты этих прямоугольников должны
*
быть равны P(Yn = xn (m ))σ n = P(Yn = xn (m ))σ n . При достаточно большом n
оказывается, что верхние основания прямоугольников почти точно лягут на
91
фиксированную
кривую
σ n P(Yn* = xn (m )) ≈
(рис.1),
1 − x2 / 2
e
2π
y=
1 − xn2 (m ) / 2
e
при
2π
т.е.
n→∞.
При этом очевидно, что
(
)
P a ≤ Yn* ≤ b =
(
)
∑ P Yn* = xn (m) ≈
a ≤ xn ( m )≤b
1
≈
2π
∑
a≤ xn ( m )≤b
b
1 − xn2 (m ) / 2 1
e
≈
2π
σ n
−x / 2
∫ e dx
2
a
где при замене суммы на интеграл мы считали Δx = 1/ σ n . Этот факт и
составляет, по существу, содержание центральных предельных теорем
(которые
отличаются
друг
от
друга
формулировками
различных
математических условий, обеспечивающих указанное выше утверждение).
Рассмотрим вначале центральную предельную теорему в ее простейшей
форме: для случая одинаково распределенных случайных величин, а затем
приведем достаточно общую центральную предельную теорему Ляпунова.
Определение 3. Говорят, что последовательность случайных величин
{X k }, k = 1, 2, ... ,
сходится к случайной величине Х0 по распределению или
слабо сходится, если
lim Fk ( x ) = F0 ( x )
k →∞
в каждой точке непрерывности F0 (x ) , где Fk (x ) — функция распределения
случайной величины
X k , k = 0, 1, 2,...
.
Теорема 4 ( центральная предельная теорема). [9] Пусть
{X n }
—
последовательность независимых и одинаково распределенных случайных
величин,
для
которых
MX n = μ , DX n = σ 2 , σ > 0 ,
последовательность
92
n=1,2,
…
Тогда
n
Yn =
∑ (X
k =1
k
− μ)
σ n
(5)
сходится по распределению к N (0, 1), т.е.
1
2π
lim P(Yn < x ) =
n →∞
x
∫e
−z2 / 2
dz
−∞
,
(6)
причем стремление к пределу в (6) равномерно по х.
Следствие ( интегральная предельная теорема Муавра—Лапласа)
[9]. Пусть Х – число успехов в серии из n независимых испытаний, р –
вероятность успеха при каждом испытании. Тогда при n → ∞
⎛ X − np
⎞
1
< x⎟ =
lim P⎜
⎟
n →∞ ⎜
2π
⎝ npq
⎠
x
−z
∫e
−∞
2
/2
dz
,
(7)
причем стремление к пределу равномерно по х.
Доказательство. Имеем
k-м испытании, так что X k
P( X k = 1) = p , P( X k = 0) = q ,
X = X1 +...+ X n
, где X k — число успехов при
независимы и одинаково распределены
,
. Подставляя эти значения в
MX k = p DX k = pq
(5), получим на основании теоремы 4 равенство (7).
Естественно ожидать, что если в условиях теоремы 4 функция
распределения F(x) случайных величин X k
имеет плотность р(х), то
плотность pn ( x ) случайной величины Yn должна сходиться при n → ∞ к
плотности p0 (x ) нормального распределения. Вообще говоря, это неверно,
но во всех практически интересных случаях высказанное утверждение имеет
место, точнее, справедлива
Теорема 5. [9] Пусть выполнены условия теоремы 4, и кроме того,
характеристическая функция ϕ (t ) случайных величин
интегрируема.
Тогда
плотность
93
pn ( x )
Xk
случайной
абсолютно
величины
n
Yn = ∑ ( X k − μ ) / σ n
при n → ∞ сходится к плотности p0 (x ) =
k =1
1 − x2 / 2
e
2π
равномерно.
Избавимся теперь от нежалательного в ряде вопросов предположения
об одинаковом распределении случайных величин X k и рассмотрим
центральную предельную теорему в форме Ляпунова.
Теорема 6 (центральная предельная теорема Ляпунова) [9]. Пусть
{X n }
— последовательность независимых случайных величин с MX n = μ n ,
3
DX n = σ 2n и M X n − μ n < ∞, n = 1, 2, ... . Тогда, если выполнено условие
Ляпунова
1
n
∑ M Xk − μ k
B3
3
→ 0 при n → ∞,
n k =1
где Bn =
n
∑ DX k ≡
k =1
n
∑ σ 2k , то последовательность
k =1
n
Yn =
∑ (X
k =1
k
− μk )
Bn
сходится к N (0, 1) равномерно.
§ 3. Применения центральных предельных теорем
Отметим прежде всего случай, когда нельзя применять центральные
предельные теоремы. Пусть мы хотим оценить вероятность P{Yn < x} , причем
речь идет о тех х, при которых эта вероятность близка к нулю или единице.
Если мы заменим P{Yn < x} на Φ 0 (x ) , то ошибка может быть очень большой
(порядка сотен процентов) ввиду того, что хотя разность P{Yn < x} − Φ 0 ( x ) и
будет равномерно малой при всех х, но неверно, что отношение
P{Yn < x}/ Φ 0 ( x ) → 1 равномерно по х, т.е. “хвосты” распределения требуют
очень осторожной оценки.
94
Вероятность и частота. Пользуясь теоремой 6, оценим, насколько
сильно может отличаться частота от вероятности в серии из n испытаний
Бернулли. Оценка основана на соотношении
⎛ Y − np
⎛Y
⎞
>ε
P⎜⎜ n − p > ε ⎟⎟ = P⎜ n
⎜ npq
⎠
⎝ n
⎝
−ε
1
≈
2π
∫
n
pq
e
−∞
−
x2
2
1
dx +
2π
∞
∫e
ε
−
x2
2
n
pq
n ⎞⎟
≈
pq ⎟⎠
⎛
dx = 2Φ 0 ⎜⎜ − ε
⎝
n ⎞
⎟
pq ⎟⎠
Yn — число успехов при n испытаниях.
Поскольку при p + q = 1, очевидно, pq ≤ 1 / 4 , эта вероятность не
(
)
превосходит 2Φ 0 − 2ε n . Поэтому
(
⎛
Y
⎞
⎛Y
P⎜ n − ε < p < n + ε ⎟ ≈ 1 − 2Φ 0 ⎜⎜ − ε
n
⎠
⎝n
⎝
Таким образом, зная число успехов
Yn
)
n ⎞
⎟ ≥ 1 − 2Φ 0 − 2ε n
pq ⎟⎠
.
в n испытаниях Бернулли, мы
Y
⎛ Yn
⎞
− ε , n + ε ⎟ , который будет накрывать
n
⎝n
⎠
можем построить интервал ⎜
истинное ( неизвестное) значение вероятности р с любой заданной
вероятностью
соотношения
1−α .
Для этого следует лишь выбрать
(
)
2Φ 0 − 2ε n = α ,
пользуясь
таблицами
ε = ε (α )
из
нормального
распределения. Тогда
⎛Y
⎞
⎛Y
⎞
P⎜ n − ε (α )⎟ < p < ⎜ n + ε (α )⎟ = 1 − α
⎝n
⎠
⎝n
⎠
Y
⎛ Yn
⎞
− ε (α ), n + ε (α )⎟ называется доверительным интервалом
n
⎝n
⎠
Интервал ⎜
для р с уровнем доверия 1 − α .
Среднее
арифметическое.
Пусть
Х1 , Х2 , ...
—
независимые
случайные величины, MX k = μ , DX k = σ 2 для всех k. Закон больших чисел
утверждает, что при n → ∞
95
⎛ X + ... + X n
⎞
P⎜⎜ 1
− μ > ε ⎟⎟ → 0
n
⎝
⎠
Если Х1 , Х2 , ... не только попарно независимы, но и независимы в
совокупности, то можно применить теорему 4. Это дает
⎛ X + ... + X n − nμ ε n ⎞
⎛ X + ... + X n
⎞
⎟=
P⎜⎜ 1
− μ > ε ⎟⎟ = P⎜⎜ 1
>
⎟
σ
n
σ
n
⎝
⎠
⎝
⎠
⎛ ε n⎞
⎛
⎛
ε n ⎞⎟
ε n ⎞⎟
⎜−
⎟
⎜ Yn >
P
2
=
Φ
=
= P⎜⎜ Yn < −
0
⎜ σ ⎟
⎜
⎟
⎟
σ
σ
⎝
⎠
⎝
⎠
⎝
⎠
Из таблиц нормального распределения следует, что при
при ε =
ε n
= 3 , т.е.
σ
3σ
вероятность
n
⎛
⎛ε n ⎞
ε n ⎞⎟
⎜
⎟
1
2
=
−
Φ
P⎜⎜ Yn <
0⎜
⎟
⎟
σ ⎠
⎝
⎝ σ ⎠
равна 0,997. Это так называемое правило трех сигм. Сущность правила трех
сигм состоит в следующем: если случайная величина распределена
нормально, то абсолютная величина ее отклонения от математического
ожидания не превосходит утроенного среднего квадратического отклонения.
На практике правило трех сигм применяют так: если распределение
изучаемой случайной величины неизвестно, но условие, указанное в
приведенном правиле, выполняется, то есть основание предполагать, что
изучаемая величина распределена нормально; в противном случае она не
распределена нормально.
4. Доверительные интервалы для математического ожидания
и дисперсии
Выше были рассмотрены различные оценки неизвестного параметра
α . За исключением редких случаев оценка α * не совпадает с истинным
значением α , т.е. всегда имеет место некоторая ненулевая погрешность
α * −α . Весьма часто точное значение погрешности не существенно;
96
требуется лишь знать, что она находится в определенных пределах. Так,
механическая система может характеризоваться собственной частотой
колебаний ω ; зная, что ω лежит в пределах от ω 1 до ω 2 , можно поставить
ограничения на рабочую частоту данной системы, при выполнении которых
заведомо не возникнет резонанс. Итак, на основании выборки X1 , ..., X n
указывают два значения α = α ( X 1 , ..., X n ) и α = α ( X 1 , ..., X n ) , с помощью
которых можно сделать статистический вывод о том, что истинное значение
[ ]
лежит в интервале α , α . Статистический вывод может быть: верным, если
[ ]
действительно случайный интервал α , α
покрывает истинное значение
параметра α ; неверным – в противном случае. Однако, используя теорию
вероятностей, можно при определенных условиях строить такие интервалы
[α , α ], что возможностью неверных выводов можно практически пренебречь.
Существуют два метода решения поставленной задачи: байесовский метод и
метод доверительных интервалов, предложенный Нейманом.
1.
Байесовский метод применим в случаях, когда неизвестный
параметр α – случайная величина, имеющая некоторое распределение
вероятностей, называемое априорным распределением. Предположим, что
априорное распределение параметра α имеет известную плотность ϕ ( x ) .
*
*
Допустим, далее, что имеется некоторая оценка α = α ( X 1 , X 2 , ..., X n )
параметра α и что существует условная плотность вероятности g ( x / α )
оценки α * при заданном значении α . Условная плотность вероятности
величины α при заданном значении α * по формуле Байеса равна
(
)
h x /α =
*
ϕ ( x ) ⋅ g (x / α * )
∞
∫ ϕ ( y )⋅ g (y / α )dy
*
−∞
(
Поэтому при заданных α , α условная вероятность события α < α < α
при заданном значении α *
97
)
(
)
α
(
)
P α < α <α / α = ∫ h x / α * dx
*
α
Эта вероятность называется апостериорной вероятностью события
(α < α <α ) в отличие от априорной вероятности, равной
(
)
α
P α < α <α = ∫ ϕ ( x )dx .
α
Пусть задано число ℜ, 0 < ℜ < 1 . По заданному α * определим
числа α и α так, чтобы
α
∫α h(x / α )dx = ℜ ,
*
(
)
*
получаем P α < α < α / α = ℜ . Таким образом, при условии, что данная
оценка приняла значение α * , истинное значение параметра α лежит между
α и α с вероятностью ℜ . Выбирая ℜ достаточно близким к единице,
(
)
можно считать событие α < α < α практически достоверным при условии,
(
)
что оценка приняла значение α * , а так как P α < α < α не зависит от α * ,
то вероятность верного статистического вывода всегда составляет ℜ . Если
(
(
)
)
*
*
плотность g α / x не существует, то уравнение P α < α < α / α = ℜ может
не иметь решения относительно α , α . В таком случае, однако, можно
(
)
*
выбрать α , α , при которых выполняется неравенство P α < α < α / α ≥ ℜ .
Тогда вероятность верного статистического вывода всегда не меньше ℜ .
2.
Метод
доверительных
интервалов
более
общий
метод,
поскольку он применим и в случае, если α – неизвестное фиксированное
число и если α – случайная величина.
98
Зададим число O < ℜ < 1 ,которое на практике выбирают достаточно
близким к единице так, чтобы событие с вероятностью ℜ можно было
считать практически достоверным. При каждом фиксированном значении
параметра α плотность распределения g ( x / α ) задает распределение оценки
α * , которое будем рассматривать как распределение единичной массы на
(
*
вертикальной прямой, проходящей через точку (α , 0 ) в плоскости α , α
)
(рис.2).
Рис. 2
Определим для каждого значения α числа γ 1 (α , ℜ ) и γ 2 (α , ℜ) так,
чтобы количество массы, попавшей на отрезок γ 1 , γ 2
рассматриваемой
вертикальной прямой, было равно ℜ , т.е. чтобы
(
)
γ2
P γ 1 (α , ℜ ) < α < γ 2 (α , ℜ ) = ∫ g (x / α )dx = ℜ
*
γ1
Такие числа можно выбрать бесчисленным множеством способов.
Числа γ 1 и
γ 2 зависят от α ; с изменением α точки (α , γ 1 ) и (α , γ 2 )
(
)
*
описывают в плоскости α , α две кривые (см. рис.). Предположим, что
всякая прямая, параллельная оси Оα , пересекает каждую из этих кривых
(
*
лишь в одной точке. Обозначим через с1 α , ℜ
)
(
*
и с2 α , ℜ
пересечения этих кривых с прямой, проходящей через точку
99
)
точки
(0, α )
*
параллельно оси Оα . Пусть D (ℜ ) – область, заключенная между двумя
кривыми. Очевидно, что утверждение
γ 1 (α , ℜ ) < α < γ 2 (α , ℜ)
(
(8)
)
*
эквивалентно утверждению α , α ∈ D(ℜ ) . Аналогично, утверждение
(
)
( )
(9)
также эквивалентно утверждению (α , α )∈ D(ℜ ) . Таким образом, если
с1 α * , ℜ < α < с2 α * , ℜ
*
для какой-нибудь выборки X1 , X 2 , ..., X n справедливо неравенство (8), то
справедливо и неравенство (9), и наоборот. Поэтому при любом α
( (
)
(
)) (
)
P с1 α * , ℜ < α < с2 α * , ℜ = P γ 1 (α , ℜ ) < α * < γ 2 (α , ℜ ) = ℜ
Соотношение (8) означает, что случайная величина α * заключена
между пределами γ 1 и γ 2 , а неравенство (9) означает, что величина α
(которая может быть как неслучайной, так и случайной) заключена между
случайными пределами с1 и с2 . Таким образом, случайный интервал
[ с1 (α * , ℜ),
(
с21 α * , ℜ
)]
с вероятностью
ℜ
содержит внутри себя
неизвестное значение α .
Случайный интервал (c1 ,c2 ) называется доверительным интервалом
для параметра α , соответствующим коэффициенту доверия ℜ (или
доверительному уровню ℜ ), а числа с1 и с2 – доверительными пределами.
Заметим, что доверительные интервалы, отвечающие коэффициенту доверия
ℜ , можно строить различными способами, подобно тому, как можно
разными способами оценивать неизвестные параметры распределения по
выборке. Способ построения доверительных интервалов следует выбирать
так, чтобы при данном коэффициенте доверия ℜ они оказывались возможно
более короткими, т.е. полоса D (ℜ )
между нашими кривыми была бы по
возможности уже.
Построим доверительные интервалы для математического ожидания и
дисперсии в случае нормально распределенной генеральной совокупности.
100
Построение
доверительного
интервала
для
математического
2
ожидания а при известной дисперсии σ нормально распределенной
генеральной совокупности.
X1 , X 2 , ..., X n
Пусть выборка
состоит из независимых
нормально распределенных с параметрами а и σ случайных величин,
причем σ известно, а величину а оцениваем по выборке:
1 n
a ≈ X = ∑ Xk .
n k =1
Оценим точность этого приближенного равенства, т.е. укажем границы
(доверительные пределы), в которых практически достоверно лежит
n
неизвестное
а.
число
ζ n = ∑ξ k
Сумма
независимых
нормально
k =1
распределенных с параметрами а и σ
случайных величин ξ1 , ..., ξ n
а
распределена также нормально с математическим ожиданием
среднеквадратичным
распределена
σ n,
отклонением
нормально
с
а
величина
математическим
и
1 n
X = ∑ Xk
n k =1
а
ожиданием
и
среднеквадратичным отклонением σ / n . Поэтому
(
)
1
P X −α < ε =
2π
где Φ ( x ) =
1
2π
Зададим
x
−t
∫e
2
/2
ε n /σ
−x
∫e
2
−ε n / σ
/2
⎛ε n ⎞
⎟ −1
dx = 2Φ⎜⎜
⎟
⎝ σ ⎠
dt – стандартная нормальная функция распределения.
−∞
коэффициент
доверия
ℜ
таким,
чтобы
событие
с
вероятностью ℜ можно было считать практически достоверным, и пусть tℜ
– корень уравнения 2Φ(t ℜ ) − 1 = ℜ , который можно найти по таблицам
нормальной функции распределения или функции Лапласа
101
1
2π
x
−t / 2
∫ e dt .
0
2
Например, при
ℜ = 0,999
tℜ = 3,29
имеем
. Определим из условия
ε n / σ = tℜ число ε : ε = tℜσ / n . Для данного ε
(
)
P X − α < tℜσ / n = 2Φ (tℜ ) − 1 = ℜ
Таким образом, практически достоверно ( точнее, с вероятностью ℜ ),
что X − a < tℜσ / n , где 2Φ (t ℜ ) − 1 = ℜ . Последнее неравенство запишем в
виде
X − tℜ
σ
n
< a < X + tℜ
σ
n
(10)
.
Получена так называемая классическая оценка.
Таким образом, интервал со случайными концами X − tℜ
X + tℜ
Этот
σ
n
σ
n
и
с вероятностью ℜ покрывает неизвестное значение a = MX k .
интервал
соответствующим
доверительным
является
интервалом
для
а,
коэффициенту доверия ℜ . Доверительные пределы в
этом случае таковы: X − tℜ
σ
n
и X + tℜ
σ
n
.
Оценка (10) предполагает известным среднее квадратичное отклонение
σ , которое на практике чаще всего бывает неизвестно. Если величину σ в
неравенстве (10) заменить ее приближенным значением
σ≈
[
1 n
∑ Xk − X
n − 1 k =1
]
2
то коэффициент доверия оценки (10) уменьшится. Поэтому если величина σ
неизвестна, используют другой способ построения доверительного интервала
для математического ожидания.
Построение
доверительного
интервала
для
математического
2
ожидания а при неизвестной дисперсии σ нормально распределенной
102
генеральной совокупности. Для построения доверительного интервала
воспользуемся следующей леммой.
Лемма. В выборке X1 , X 2 , ..., X n
из нормально распределенной
1 n
генеральной совокупности выборочное среднее X = ∑ X k и выборочная
n k =1
2
дисперсия S =
[
1 n
∑ Xk − X
n k =1
]
2
взаимно независимы. Величина Х распределена
2
2
нормально с параметрами а и σ / n , а величина nS / σ имеет
2
распределение χ n−1 с (n − 1) степенями свободы.
Рассмотрим две величины Z = n (X − α )/ σ и V = nS 2 / σ 2 , которые
согласно лемме независимы, причем
Z
распределена нормально с
2
параметрами 0 и 1, а V распределена по закону χ n−1 с (n − 1) степенями
(
свободы. В этом случае величина ζ = Z / V
)
n −1 =
X −α
n −1
S
имеет
распределение Стьюдента с (n − 1) степенями свободы. Зададим коэффициент
доверия ℜ и предположим, что tℜ – корень уравнения
t
∫ S (x )dx = ℜ ,
n −1
−t
где S n−1 (x ) – плотность распределения вероятностей закона Стьюдента
с (n − 1) степенями свободы. Для значения tℜ , которое находится из таблиц,
имеем
tℜ
P (ζ < t ℜ ) =
∫ S (x )dx = ℜ
n −1
−t ℜ
Таким образом, с коэффициентом доверия ℜ выполняется неравенство
ζ < tℜ или
X −a
n − 1 < tℜ . Преобразуя последнее неравенство, получаем
S
103
X − tℜ
S
S
< a < X + tℜ
.
n −1
n −1
X − tℜ
Итак, случайный интервал с концами в точках
X + tℜ
S
n −1
S
n −1
и
с вероятностью ℜ содержит внутри себя неизвестное
значение а . Таким образом, построен доверительный интервал для величины
а , соответствующий коэффициенту доверия ℜ .
Построение
ожидания
а
доверительного
интервала
для
математического
в случае ненормально распределенной генеральной
совокупности. Каков бы ни был закон распределения независимых
одинаково распределенных случайных величин ξ1 , ξ 2 , ..., ξ n , имеющих
n
конечную дисперсию, их сумма ζ n = ∑ ξ k
распределена приближенно
k =1
нормально при достаточно больших
(согласно центральной предельной
теореме). Оценка (10) имеет место с вероятностью, близкой к ℜ
при
достаточно больших n , и в случае, когда закон распределения генеральной
совокупности не является нормальным, т.е.
σ
σ ⎞
⎛
P⎜ X − t ℜ
< α < X + tℜ
⎟≈ℜ
n
n
⎝
⎠
(11)
Здесь предполагается известным значение σ . Если же σ неизвестно,
то можно использовать оценку величины σ по выборке
σ≈
[
1 n
∑ Xk − X
n − 1 k =1
]
2
=σ*
и заменить в равенстве (11) неизвестную величину σ величиной σ * . При
больших значениях такая замена мало влияет на коэффициент доверия, и мы
имеем
⎛
σ*
σ* ⎞
⎟⎟ ≈ ℜ
< α < X + tℜ
P⎜⎜ X − tℜ
n
n
⎝
⎠
104
т.е.
интервал
⎛
σ*
σ* ⎞
⎜⎜ X − tℜ
⎟⎟
< α < X + tℜ
n
n⎠
⎝
является
доверительным
интервалом для а с коэффициентом доверия, близким к ℜ .
Построение
квадратического
доверительного
σ
отклонения
интервала
и
дисперсии
распределенной генеральной совокупности. Пусть
для
σ2
среднего
нормально
X1 , X 2 , ..., X n
-
выборка из нормальной генеральной совокупности. Согласно лемме
величина
nS 2
σ2
распределена по закону
=
χ 2n−1 с
1
σ2
∑ (X
n
i =1
(n − 1)
i
−X
)
2
степенями свободы. Зададим
2
2
коэффициент доверия ℜ и определим числа χ 1 и χ 2 из условия
χ 22
∫ k (x )dx = ℜ ,
n −1
χ 12
2
где kn −1 ( x ) — плотность распределения вероятности закона χ n−1 с (n − 1)
2
2
степенями свободы. Очевидно, числа χ 1 и χ 2 удовлетворяющие данному
условию, можно выбрать бесчисленным множеством способов. Потребуем
дополнительно, чтобы
χ12
∫ kn−1 (x )dx =
0
1− ℜ
2
тогда
∞
∫ k n−1 (x )dx =
χ 22
и числа
χ 12 и
1− ℜ
2
χ 22 однозначно (их значения находятся из таблиц
2
2
2
распределения χ n−1 с (n − 1) степенями). Для величины nS / σ имеем
105
χ2
⎞ 2
⎛
nS 2
P⎜⎜ χ12 < 2 < χ 22 ⎟⎟ = ∫ kn −1 ( x )dx = ℜ
σ
⎠ χ 12
⎝
Итак, с вероятностью ℜ выполнены неравенства χ 12 < nS 2 / σ 2 < χ 22 ,
откуда
nS 2 / χ 22 < σ 2 < nS 2 / χ 12 ,
или
nS / χ 2 < σ < nS / χ 1 .
[
]
2
2
2
2
Таким образом, интервалы nS / χ 2 , nS / χ1 и
[
n S / χ 2 , n S / χ1
]
2
являются доверительными интервалами для дисперсии σ и среднего
квадратичного отклонения σ , соответствующими коэффициенту доверия ℜ
в случае нормально распределенной генеральной совокупности.
§5. Обработка результатов измерений
Оценка
истинного
значения
измеряемой
величины
и
среднеквадратичной ошибки измерения.
Как правило, для получения истинного значения а измеряемой
величины (а также для оценки средней квадратичной ошибки σ измерения)
производят некоторое число n независимых измерений этой величины.
Обозначим результаты измерений через X 1 , X 2 , ..., X n . Известно, что
результат измерения есть случайная величина, распределенная нормально.
Предположим, что MX i = a – условие отсутствия систематической ошибки,
и положим DX i = σ 2 . Таким образом, величины X 1 , X 2 , ..., X n оказываются
независимыми нормально распределенными с параметрами
а
и σ
случайными величинами. Эти параметры подлежат определению по
результатам измерений, т.е. по выборке. Истинное значение а измеряемой
величины и среднюю квадратичную ошибку σ измерения находят по
формулам:
α≈X=
(
1 n
1 n
X
σ
≈
,
∑ i
∑ Xi − X
n i =1
n − 1 i =1
106
)
2
Для
оценки
точности
данных
приближенных
равенств
можно
построить доверительные интервалы.
Сглаживание экспериментальных зависимостей. Пусть величины Х
и Y связаны функциональной зависимостью вида Y = ϕ ( X ) , причем функция
ϕ нам не известна и ее требуется определить по результатам наблюдений.
Предположим, что имеется возможность на опыте измерять значения
величины Y в различных точках xi . Обозначая результат i -го измерения
через yi , имеем
y i = ϕ ( xi ) + δ i ,
где δ i – случайная измерения. Таким образом, величина yi как всякий
результат измерения является случайной величиной. Если нанести на график
точки ( xi ; yi ) и соединить их кривой, вид этой кривой отличается от кривой
Y = ϕ ( X ) из-за наличия случайных погрешностей при определении ее
ординат. Возникает вопрос: как обработать опытные данные, чтобы
наилучшим образом определить зависимость Y от X ?
Это так называемая задача о сглаживании экспериментальных
зависимостей. Рассмотрим частный, но наиболее важный для приложений
случай, когда заранее известно, что функция ϕ ( X ) принадлежит к
некоторому классу функций, зависящему от одного или нескольких
параметров, т.е. ϕ ( X ) = ϕ ( X ,α1 ,α 2 , ..., α k ) . В этом случае задача отыскания
наилучшей функции ϕ ( X ) сводится к задаче наилучшего определения
параметров α 1 , α 2 , ..., α k
по опытным данным. Словам “наилучшим
образом” необходимо придать точный смысл, что можно сделать по-разному.
В соответствии с этим возможны разные способы решения задачи о
сглаживании. Слова “наилучшим образом” будем понимать в дальнейшем в
смысле метода наименьших квадратов, так как такое понимание является
общепринятым и на практике приводит обычно к несложным вычислениям.
Будем говорить, что неизвестные параметры α 1 , α 2 , ..., α k
107
функции
ϕ ( X ,α1 ,α 2 , ..., α k ) ,
задающей
зависимость
Y = ϕ ( X ,α1 ,α 2 , ..., α k ) ,
определены наилучшим образом в смысле метода наименьших квадратов,
если сумма квадратов отклонений экспериментальных точек yi от ординат
сглаживающей кривой ϕ ( xi ,α1 ,α 2 , ..., α k ) минимальна, т.е. минимальна
величина
n
δ = ∑ [ yi − ϕ (xi ,α1 ,α 2 , ...,α k )]2
2
i =1
Для
нахождения
точки
минимума
δ2
величины
в
обычных
аналитических условиях нужно приравнять нулю ее частные производные по
α 1 , α 2 , ..., α k :
n
∑ [y
i
i =1
− ϕ ( xi ,α1 ,α 2 , ...,α k )] =
∂ϕ ( xi ,α1 ,α 2 , ...,α k )
= 0, 1 ≤ j ≥ k .
∂α j
Таким образом, имеем систему k уравнений с k неизвестными, из
которой определяем искомые значения α 1 , α 2 , ..., α k . Заметим, что система
содержит случайные величины
y1 , y2 , ..., yn , поэтому и ее решение
α *1 , α *2 , ..., α *k также случайно. Величины α *1 , α *2 , ..., α *k являются оценками
неизвестных параметров
α 1 , α 2 , ..., α k
по результатам наблюдений.
Рассмотренная задача отличается от задачи оценки неизвестных параметров
распределения, изученной выше, так как величины y1 , y2 , ..., yn хотя и
предполагаются независимыми, но имеют, вообще говоря, различные
распределения.
Рассмотрим оценку по методу наименьших квадратов параметров
линейной функции Y = kX + b . Пусть из опыта известна совокупность
значений
( xi ; y i ) .
Рассмотрим
величину
n
δ = ∑ ( yi − kxi − b )2 .
2
i =1
Продифференцировав, получим систему:
n
n
i =1
i =1
∑ ( yi − kxi − b) xi = 0, ∑ ( yi − kxi − b) = 0
108
Из второго уравнения находим
1 n
1 n
b = y − kx , где y = ∑ yi , x = ∑ xi .
n i =1
n i =1
Подставив найденное значение в первое уравнение и преобразовав его,
придем к равенству
n
n
i =1
i =1
∑ yi xi − nxy
n
∑ yi xi − k ∑ xi2 − nx ( y − kx ) = 0
откуда
n
k=
i =1
n
∑x
i =1
где m
*
x, y
2
i
=
∑(y
i =1
i
− y )(xi − x )
n
∑ (x
− nx 2
i =1
− x)
2
i
, k = m*x , y / S x2 ,
1 n
1 n
2
2
= ∑ ( yi − y )( xi − x ), S x = ∑ ( xi − x ) .
n i =1
n i =1
Таким образом, задача решена, и линейная функция
Y=
m*x , y
S x2
X +y−
m*x , y
S x2
x
наилучшим образом среди всех линейных функций выражает зависимость Y
от X.
§6. Проверка статистических гипотез
Постановка задачи
Часто функция распределения случайной величины бывает заранее не
известна, и возникает необходимость ее определения по эмпирическим
данным. Во многих случаях из некоторых дополнительных соображений
могут быть сделаны предположения о виде функции распределения F X ( x ) .
Любое такое предположение называется (статистической) гипотезой и
математически выражается соотношением
функций распределения,
FX
{FX ∈ H } ,
где H – множество
– функция распределения наблюдаемой
109
случайной величины. Гипотезу обычно обозначают тем же символом, что и
множество функций распределения: H = {FX ∈ H }.
Рассмотрим примеры статистических гипотез.
1. {FX ∈ F } ,
где
F = F (x )
–
фиксированная
функция
распределения. В этом случае Н – множество, состоящее из единственного
элемента F.
Определение. Статистическая гипотеза {FX ∈ F } называется простой
гипотезой.
2.
⎛
⎛ x−a⎞
⎞⎞
⎜⎜ FX ( x ) ∈ ⎜⎜ F ⎛⎜
⎟, − ∞ < α < ∞, σ > 0 ⎟⎟ ⎟⎟ , где F = F ( x ) – фиксированная
⎝ ⎝ σ ⎠
⎠⎠
⎝
функция распределения. Данная гипотеза состоит в том, что распределение
наблюдаемой
случайной
величины
принадлежит
некоторому
фиксированному типу. Так например, если F ( x ) – стандартная нормальная
функция распределения, то данная гипотеза состоит в нормальности
наблюдаемой случайной величины.
⎛
⎞⎞
⎛ ⎛ x⎞
⎜
(
)
≥
F
x
F
,
T
T
∈
⎜
⎜
⎟
3. ⎜ X
0⎟
⎟ ⎟⎟ ,
⎜ T
⎝
⎠
⎠⎠
⎝
⎝
где
F = F (x )
–
фиксированная
функция распределения.
Определение. Гипотеза, не являющаяся простой, называется сложной.
По эмпирическим данным нужно проверить статистическую гипотезу
Н. Для определенности назовем Н основной гипотезой. С гипотезой Н
конкурирует альтернативная гипотеза K = {FX ∈ K }. Здесь K – множество
функций распределения, не пересекающееся с множеством Н. Если K –
множество всех F, не входящих в Н, то это множество обычно вообще не
упоминается.
Все гипотезы проверяют по эмпирическим данным, т.е. по выборке.
Таким образом, необходимы критерии, которые позволяли бы судить,
согласуются ли наблюдаемые значения X 1 , X 2 , ..., X n
величины Х с
гипотезой относительно ее функции распределения. Разработка таких
110
критериев, называемых критериями согласия, составляет одну из важных
задач математической статистики.
H = (FX ( x ) = F ( x )) . Пусть
Рассмотрим случай простой гипотезы
X 1 , X 2 , ..., X n – случайная выборка, т.е. наблюдаемые значения случайной
*
величины Х, и пусть Fn ( x ) эмпирическая функция распределения выборки.
Определим
эмпирической
некоторую
функции
неотрицательную
распределения
меру
Fn* (x )
от
D
отклонения
предполагаемой
*
(теоретической) функции распределения F ( x ) ⋅ D = D(Fn , F ) . Величину D
можно определить многими способами, в соответствии с которыми
получаются различные критерии для проверки интересующей нас гипотезы.
Например, можно положить
(
)
D Fn* , F = sup Fn* ( x ) − F (x )
x
или
(
∞
) ∫ [F (x) − F (x)] g (x)dx
D F ,F =
*
n
*
n
2k
−∞
∞
где g (x ) > 0, ∫ g (x )dx < ∞ . В первом случае для проверки данной гипотезы
−∞
получим критерий Колмогорова, во втором случае (при k = 1) – критерий ω 2
Мизеса.
Величины
X 1 , X 2 , ..., X n ,
образующие
выборку,
в
случае
справедливости выдвинутой гипотезы можно рассматривать как независимые
одинаково распределенные случайные величины с функцией распределения
F ( x ) . Но тогда величина D, как бы она ни была определена, является
функцией от случайных величин и поэтому сама есть величина случайная.
Предположим, что выдвинутая гипотеза верна, т.е. FX ( x ) = F ( x ) . Тогда
распределение случайной величины D может быть найдено. Зададим число
ε >0
столь малое, что можно считать практически невозможным
111
осуществление события с вероятностью ε в единичном опыте. Считая
известным распределение случайной величины D, можно найти такое число
Do , что P{D > D0 } = ε . Пусть имеются фактически наблюдаемые значения
*
X 1 , X 2 , ..., X n . По этим значениям строим функцию Fn ( x )
и вычисляем
величину D(Fn* , F ). Если полученная величина D окажется больше Do , то это
означает, что событие с вероятностью ε произошло (т.е. произошло событие,
которое считаем практически невозможным).
Таким образом, если D > Do , то предположение о справедливости
выдвинутой гипотезы привело к выводу, что произошло практически
невозможное событие, т.е. гипотеза опровергнута опытом. Если же
вычисленная величина D(Fn* , F ) окажется меньше Do , то считают, что
гипотеза не противоречит опытным данным и, возможно, может быть
принята.
Отметим, что опровержение гипотезы при D > Do ни в коем случае не
означает логического опровержения, равно как и подтверждение гипотезы в
случае D < Do
не означает логического доказательства справедливости
гипотезы. Действительно, событие D > Do
может произойти и в случае
справедливости гипотезы, но если ε достаточно мало, то на практике этой
возможностью можно пренебречь. Событие D < Do может осуществиться и
в случае, если наша гипотеза неверна, поэтому ее необходимо проверить с
помощью большого числа различных критериев, прежде чем считать ее
подтвержденной опытными данными.
Выясним статистический смысл ε . Предположим, что производится
последовательность серий однородных испытаний. Рассмотрим n серий, в
которых гипотеза Н справедлива. Если mn – число тех из них, в которых эта
гипотеза отклонена, то
mn
→ ε при n → ∞ .
n p
112
Число ε , выбор которого зависит от характера задачи, называют
уровнем значимости критерия, а величину Do , определяемую из условия
P{D > D0 } = ε , – пределом значимости.
Распределение величины D(Fn* , F ) зависит от n, и вычисление его при
конечных значениях n трудно и нецелесообразно. Вместо этого вычисляют
предельное (при n → ∞ ) распределение величины D и используют его в
D
при достаточно
гипотетическая
функция
распределения
неизвестные
параметры
α 1 , α 2 , ..., α k ,
качестве приближения для распределения величины
больших значениях n.
В
случае,
F (x,α1 ,α 2 ...,α k )
когда
содержит
подлежащие оценке по выборке, так же рассматривают некоторую меру
(
D Fn* , F
)
отклонения
эмпирической
функции
распределения
F (x,α1 ,α 2 ...,α k ) . Последняя в этом случае сама является величиной
случайной, так как α 1 , α 2 , ..., α k – функции наблюдаемых значений, и,
следовательно, случайные величины.
2
Критерий χ в случае простой гипотезы
При получении критерия для проверки гипотезы, состоящей в том, что
функция распределения
FX ( x ) случайной величины Х есть вполне
определенная функция
F (x ) , мы условились образовывать меру D
отклонения
эмпирической
функции
распределения
Fn* (x )
выборки
X 1 , X 2 , ..., X n от предполагаемой (теоретической) функции распределения
F ( x ) . Наиболее употребительной является мера, введенная Пирсоном,
2
приводящая к так называемому критерию χ Пирсона. Разобьем множество
значений величины Х на r множеств
S1 , S2 , ..., Sr
без общих точек.
Практически такое разбиение обычно осуществляется с помощью
113
(r − 1)
чисел a1 < a2 <...< ar −1 . При этом правый конец каждого интервала
исключают из соответствующего множества, а левый – включают (рис. 3).
Рис. 3
Пусть
pi , i = 1, 2, ..., r
принадлежит множеству Si ,
–
вероятность
того,
что
величина
Х
r
∑ pi = 1. Пусть ν i , i = 1, 2, ..., r
– количество
i =1
величин из числа наблюдаемых X 1 , X 2 , ..., X n , принадлежащих множеству
Si . Тогда ν i / n – частота попадания величины Х в множество Si при n
наблюдениях. Очевидно, что
Для
разбиения,
r
r
i =1
i =1
∑ ν i = n , ∑ ν i / n = 1.
приведенного
на
рис.3,
pi
есть
приращение
гипотетической функции распределения на множестве Si , а ν i / n –
*
приращение эмпирической функции распределения Fn ( x ) выборки на том
же множестве. За меру D отклонения эмпирической функции распределения
от теоретической принимают величину
r
χ =∑
2
i =1
Величина
χ2
r
(ν − npi )
n ⎛ν
⎞
⎜ − pi ⎟ = ∑ i
pi ⎝ n
npi
⎠
i =1
2
случайная и нас интересует
2
ее распределение,
вычисленное в предположении, что принятая гипотеза верна, т.е.
FX ( x ) = F ( x ) .
2
Если распределение величины χ известно, то по заданному уровню
значимости можно найти предел значимости для проверки принятой
2
гипотезы. Не вычисляя распределение величины χ при каждом значении n,
укажем ее предельное (при n → ∞ ) распределение. Ответ на вопрос о
114
2
предельном распределении величины χ дает теорема Пирсона, которая
приводится без доказательства.
Теорема Пирсона. Какова бы ни была функция распределения F ( x )
2
случайной величины Х, при n → ∞ распределение величины χ стремится к
χ 2 - распределению с (r − 1) степенями свободы, т.е. при n → ∞
(
)
x
P χ < x → ∫ k r −1 (t )dt
2
0
в каждой точке х, где k r −1 ( x ) – плотность распределения χ 2 с
(r − 1)
степенями свободы.
С помощью теоремы Пирсона введем критерий для проверки гипотезы.
Зададим число ε > 0 такое, что событие с вероятностью ε ( ε – уровень
значимости) можно считать практически невозможным. По таблице для
распределения χ 2 с
(r − 1)
степенями свободы найдем такое число χ ε2
(предел значимости), что
∞
∫ k (x )dx = ε .
r −1
2
χε
Предположим, что n достаточно велико, тогда по теореме Пирсона
(
)
2
2
вероятность ℜ χ > χ ε приблизительно составляет ε , т.е. событие χ 2 > χ ε2
можно считать практически невозможным. Таким образом, если гипотеза
верна, т.е. Fε ( x ) = F ( x ) , то значения χ 2 , превышающие предел значимости
χ ε2 , практически невозможны. Если для данной выборки окажется, что
χ 2 > χ ε2 , то гипотезу считают опровергнутой опытными данными; если же
χ 2 ≤ χ ε2 , то опытные данные можно считать совместимыми с принятой
гипотезой, однако одного этого еще недостаточно для установления
истинности гипотезы.
115
Применение теоремы Пирсона на практике дает достаточно хорошие
результаты во всех случаях, когда величины npi ≥ 10, i = 1, 2, ..., r .
Критерий согласия Колмогорова
Рассмотрим случай, когда гипотетическая функция распределения
полностью
определена,
т.е.
задана
функция
F ( x ) = FX ( x ) ,
которую
предположим непрерывной. Мера D отклонения эмпирической функции
распределения Fn* ( x ) выборки X 1 , X 2 , ..., X n от гипотетической функции
распределения F ( x ) , предложенная А. Н. Колмогоровым, определяется
следующим образом:
{
}
Dn = D Fn* , F = sup Fn* ( x ) − F ( x ) ,
x
sup – верхняя грань множества по всевозможным значениям х.
где
x
Очевидно, Dn – величина случайная, и нас интересует ее предельное при
n→∞
распределение, вычисленное в предположении, что гипотеза
справедлива. Ответ на поставленный вопрос дает следующая теорема.
Теорема Колмогорова. Если функция распределения F(x) непрерывна,
то при n → ∞
2 2
⎧ +∞
k
⎪ ∑ (− 1) e −2 k x
P n Dn < x → K ( x ) = ⎨k =−∞
⎪⎩
0
(
)
при x > 0
при x ≤ 0.
Функция распределения К(х) табулирована ввиду ее важности для
практики.
!!!!!!!!!!!!!!НЕТ ПАРАГРАФОВ 1-3!!!!!!!!!!
§ 4. Экспоненциальное распределение
Такие величины используются при моделировании на тренажерах
"времени появления". Например, если в заданный интервал времени порывы
ветра бывают в среднем один раз, то промежутки времени между двумя
116
последовательными порывами ветра имеют экспоненциальное распределение
со средним значением μ . Это распределение записывается как:
F ( x) = 1 − e − x / μ ,
x ≥ 0.
Отсюда следует, что если X имеет экспоненциальное распределение со
средним
значением
1,
μ X
то
подчиняется
экспоненциальному
распределению со средним μ . Поэтому достаточно рассмотреть случай при
μ = 1 . Из известных методов [Кнут] рассмотрим логарифмический метод и
метод случайной минимизации.
Логарифмический метод. Заметим, что
y = F ( x) = 1 − e − x / μ
можно
представить в виде x = F −1 ( y ) = − ln(1 − y ) . Поэтому, вследствие соотношения
X = F −1 (U ) , величина − ln(1 − y ) имеет экспоненциальное распределение. Так
как 1 − U распределена равномерно, если U равномерное распределенное
случайное число, то случайная величина
X = − ln U
распределена экспоненциально со средним значением, равным единице (в
программах, реализующих алгоритм следует избегать U = 0 ).
§ 5. Нормальное распределение
Считается, что нормальное распределение со средним значением, равным
нулю, и стандартным отклонением, равным единице, возможно является
важнейшим из неравномерных непрерывных распределений. Стандартная
запись такого распределения:
F ( x) =
x
1
2π
−t
∫e
2
/2
dt .
−∞
Для его генерации существует несколько методов. Один из них получил
название метода полярных координат.
117
В основе этого метода лежит использование двух независимых
случайных чисел U 1 и U 2 для получения двух независимых нормально
распределенных величин X 1 и X 2 [Кнут]. Предлагается следующий алгоритм
(рис. А2) генерирующий по два нормально распределенных числа. При
необходимости увеличения количества требуемых величин необходимо
повторять этот алгоритм снова и снова, получая каждый раз по паре
требуемых чисел.
Существует метод доказательства точности предложенного алгоритма.
Он связан с аналитической геометрией, что во многом послужило причиной
названия данного алгоритма.
Рассмотрим
алгоритм
распределенных величин
X1
генерации
и
X2
двух
независимых
нормально
по двум заданным равномерно
распределенным случайным величинам U 1 и U 2 :
1. Получить два случайных числа U 1 и U 2 , равномерно распределенных
между 0 и 1.
2. Пересчитать интервал распределения, задав границы –1 +1 для
переменных V1 и V2 .
Для этого вычислить V1 = 2U 1 − 1
и V2 = 2U 2 − 1 .
3. S = V12 + V22 .
4. If S ≥ 1 then шаг 1
else
5.
X 1 = V1
− 2 ln S
− 2 ln S
, X 2 = V2
.
S
S
6. Повторить шаги 1-5.
При S < 1 , точка плоскости с декартовыми координатами ( V1 , V2 ) является
случайной точкой, равномерно расположенной внутри единичного круга
радиусом R .
118
Переходя к полярным координатам V1 = R cos Θ , V2 = R sin Θ , находим
S = R 2 , X 1 = cos Θ − 2 ln S , X 2 = sin Θ − 2 ln S .
Используя
еще
одни
полярные
координаты
обозначенные
как
X 1 = R' cos Θ' , X 2 = R' sin Θ' видим, что Θ = Θ' и R ' = − 2 ln S .
Пары чисел R и Θ , также как и пары чисел R' и Θ' , независимы внутри
единичного круга.
Кроме того, Θ' равномерно распределена между 0 и 2π , а вероятность
того, что R' < r , равна вероятности события − 2 ln S ≤ r 2 , т.е. вероятности
события S ≥ e − r
2
/2
2
. Последняя равна 1 − e − r / 2 , так как S = R 2 равномерно
распределена между нулем и единицей.
Вероятность того, что
R'
лежит между
2
r и r + dr
поэтому равна
2
производной от 1 − e − r / 2 , а именно re − r / 2 dr .
Подобным же образом вероятность попадания Θ' в интервал между Θ и
Θ + dΘ есть (1 / 2π )dΘ .
Тогда вероятность того, что X 1 ≤ x1 , а X 2 ≤ x 2 , равна
1 −r 2 / 2
1
e
r dr dΘ =
2π
2π
{( r , Θ )|r cos Θ ≤ x1 , r sin Θ ≤ x2 }
∫
⎛ 1
= ⎜⎜
⎝ 2π
x1
∫e
−∞
− x2 / 2
⎞⎛ 1
dx ⎟ ⎜
⎟ ⎜ 2π
⎠⎝
x2
−( x 2 + y 2 ) / 2
dx dy =
{( x , y )| x ≤ x1 , y ≤ x2 }
−y
∫e
−∞
∫e
2
/2
⎞
dy ⎟ .
⎟
⎠
Это доказывает, что X 1 и X 2 независимы и нормально распределены.
Рассмотренный случай относится к нормальному распределению с
нулевым средним значением и стандартным отклонением, равным единице.
119
Если случайная величина
X имеет такое распределение, то у функции
распределения случайной величины
Y = μ +σ X
среднее значение равно μ , а стандартное отклонение σ . Более того, если
X 1 и X 2 — независимые нормальные случайные величины со средним
отклонением нуль и единичным стандартным отклонением и если
)
(
Y1 = μ1 + σ 1 X 1 , Y2 = μ 2 + σ 2 ρ X 1 + X 2 1 − ρ 2 ,
то Y1 и Y2 — зависимые случайные величины, распределенные со средними
значениями ν 1
и μ2 ,
стандартными отклонениями
σ1
и σ2
и
коэффициентами корреляции ρ .
§ 6. Другие виды числовых распределений
На практике, достаточно часто требуется не только нормальное
распределение, но и другие виды распределений. Большинство из них были
рассмотрены Джоном фон Нейманом, а затем улучшались по мере
необходимости.
Существует
множество
псевдослучайных
алгоритмов
последовательностей
формирования
[Кнут].
случайных
Рассмотрим
и
наиболее
простые и часто используемые.
Самое
общее
распределение
действительных
случайных
величин
описывается в терминах "функции распределения" F ( x) . То есть необходимо,
чтобы случайная величина X принимала значение, меньшее или равное x с
вероятностью F (x) :
F (x) = вероятность ( X ≤ x) .
Эта функция всегда монотонно увеличивается от нуля до единицы:
F ( x1 ) ≤ F ( x 2 ) , если x1 ≤ x 2 ;
120
F (−∞) = 0 ,
F (+∞) = 1 .
Если F (x) непрерывна и строго возрастает (так что F ( x1 ) < F ( x 2 ) , если
x1 < x 2 ), она принимает все значения между нулем и единицей, и существует
обратная функция F −1 ( y ) , такая, что если 0 < y i < 1 , то y = F (x) тогда и только
тогда, когда x = F −1 ( y ) .
Общий метод вычисления случайной величины X с непрерывной строго
возрастающей функцией распределения F (x) заключается в том, что полагают
X = F −1 (U ) .
То есть вероятность того, что X ≤ x , является вероятностью того, что
F −1 (U ) ≤ x , то есть вероятностью события U ≤ F (x) , а она равна F (x) . Тогда
задача сводится к одной из проблем численного анализа, позволяющего
вычислить F −1 (U ) с заданной точностью. Для этого разработан ряд приемов.
Прежде всего, если X 1 и X 2 — независимые случайные величины с
функциями распределения F1 ( x) и F2 ( x) , то
max( X 1 , X 2 ) имеет распределение F1 ( x) F2 ( x) ,
(Г3)
min( X 1 , X 2 ) имеет распределение F1 ( x) + F2 ( x) − F1 ( x) F2 ( x) .
Например, случайное число U имеет функцию распределения F ( x) = x для
0 ≤ x ≤ 1.
Если
U 1 , U 2 , ..., U t —
независимые
случайные
числа,
то
max(U 1 , U 2 , ..., U t ) имеет функцию распределения F ( x) = x t , 0 ≤ x ≤ 1 . Заметим,
что обратная функция в этом случае есть F −1 ( y ) = t y . Таким образом, при
t = 2 получим X = U
и X = max(U 1 , U 2 ) , которые приводят к эквивалентным
распределениям случайной величины X .
Пользуясь
(Г3),
можно
получать
произведение
двух
функций
распределения. На основании этого разработаны методы смешивания двух
распределений.
121
Предположим, что
F ( x) = pF1 ( x) + (1 − p ) F2 ( x), 0 < p < 1.
Можно вычислить значение случайной величины X с распределением
F ( x) , определив сначала случайное число U . Если
U < p , считаем, что X
имеет распределение F ( x) , определив сначала случайное число U . Если
U < p , считаем, что X имеет распределение F1 ( x) , если же U ≥ p , то X —
случайная величина с распределением F2 ( x) .
Эта процедура может быть полезна, если p близко к единице, а F1 ( x) —
распределение, которое легко можно моделировать. Тогда, несмотря на тот,
что выработка случайных значений по распределению F2 ( x) может быть
более трудоемкой, чем для требующегося полного распределения F ( x) , более
трудные вычисления должны проводиться редко с вероятностью (1 − p) .
В основе алгоритмов получения различных распределений, как правило,
лежат
последовательности
псевдослучайных
числе
с
равномерным
распределением.
§ 7. Случайная выборка
Особенностью авиационного тренажеростроения является необходимость
моделирования изменения состояния виртуальной среды вокруг обучаемого
в реальном масштабе времени, с полным циклом обработки информации за
60—120
мсек
[Роганов].
Необходимое
быстродействие
достигается
сокращением вычислений, проводимых в реальном масштабе времени за счет
использования различных таблиц, где в нереальном масштабе времени, при
разработке тренажера заранее рассчитаны все необходимые значения. Этот
прием
относится
и
к
формированию
различных
псевдослучайных
последовательностей. В итоге, решив задачу получения псевдослучайной
последовательности с заданным законом распределения и содержащего
122
N записей, получаем задачу — как корректно выбрать из этого массива n
записей, при условии, что n < N .
Наиболее очевиден подход, когда любая запись выбирается с одной и той
же вероятностью близкой к n / N . Однако, при использовании такого метода в
выборке получается n записей только в среднем, причем стандартное
отклонение равно
n(1 − (n / N )) , выборка может оказаться или слишком
большой, или слишком малой для достижения желаемых результатов.
В литературе [Кнут] приводится алгоритм "корректной выборки"
лишенный этого недостатка. Идея такого подхода — если m записей уже
отобрано, мы должны включить (t + 1) -ю запись в выборку с вероятностью
(n − m) /( N − t ) .
Эта вероятность выражается именно такой величиной,
поскольку из всех возможных способов выборка n записей из N таким
образом, что m из них отбираются из первых t , в точности
⎛ N − t − 1⎞ ⎛ N − t ⎞ n − m
⎜⎜
⎟⎟ / ⎜⎜
⎟⎟ =
,
⎝ n − m − 1⎠ ⎝ n − m ⎠ N − t
с возможной последующей выборкой t + 1 элемента.
Рассмотрим алгоритм выборки чисел из заданной последовательности,
решающий задачу выбора n записей из N , где 0 < n ≤ N . Данный алгоритм
реализует описанный выше метод "корректной выборки":
1. t = 0 ,
m=0
2. Выработать
псевдослучайное
число
U,
равномерно
распределенное между нулем и единицей.
3. If ( N − t )U ≥ n − m then Включить запись в выборку; m = m + 1 , t = t + 1
else
4. t = t + 1 .
5. Повторить шаги 2-4.
123
Глава 8
Аппроксимация закона распределения экспериментальных данных
§ 1. Задачи аппроксимации
Конкретное содержание обработки одномерных экспериментальных
данных (ЭД) зависит от поставленных целей исследования. В простейшем
случае достаточно определить первый момент распределения, например,
среднее время обработки запросов к распределенной базе данных. В других
случаях требуется установить вероятностно-временные характеристики
распределения, например, оценить вероятность своевременной обработки
запросов или вероятность безотказной работы системы в течение заданного
периода времени. Для нахождения таких значений требуется знание закона
распределения как наиболее полной характеристики соответствующей
случайной величины.
В
классической
математической
статистике
предполагается
известным вид закона распределения и производится оценка значений его
параметров по результатам наблюдений. Но обычно заранее вид закона
распределения неизвестен, а теоретические предположения не позволяют его
однозначно установить. Обработка ЭД также не позволит точно вычислить
истинный закон распределения показателя. В таком случае следует говорить
только об аппроксимации (приближенном описании) реального закона
некоторым другим, который не противоречит ЭД и в каком-то смысле похож
на этот неизвестный истинный закон.
В
соответствии
с
этими
положениями
постановка
задачи
аппроксимации закона распределения ЭД формулируется следующим
образом.
Имеется выборка наблюдений (x1, x2, …, xn) за случайной величиной
Х. Объем выборки п фиксирован.
Необходимо подобрать закон распределения (вид и параметры),
который
бы
в
статистическом
смысле
наблюдениям.
124
соответствовал
имеющимся
Ограничения: выборка представительная, ее объем достаточен для
оценки параметров и проверки согласованности выбранного закона
распределения и ЭД; плотность распределения унимодальная.
Наличие в функции плотности распределения нескольких мод может
быть следствием различных причин, например существованием различных
по длине маршрутов прохождения запросов в системе обработки. Выборку с
несколькими модами разделяют на составные части так, чтобы каждая из них
имела одну моду. В последнем случае функция распределения исходной
выборки представляет собой взвешенную сумму соответствующих функций
s
отдельных выборок: F (x ) = ∑ p i Fi (x ) , где s – количество выборок, выбранное
i =1
исходя из требований унимодальности распределения; pi – вероятность
принадлежности
элемента выборки к выборке i; Fi(x)
– функция
распределения выборки i.
Решение поставленной задачи аппроксимации осуществляется на
основе применения "типовых" распределений, специальных рядов или
семейств универсальных распределений [3, 7, 8, 9, 12].
§ 2. Аппроксимация на основе типовых распределений
Задача аппроксимации на основе типовых распределений решается
итерационно и включает выполнение трех основных шагов:
предварительного выбора вида закона распределения;
определения оценок параметров закона распределения;
оценки согласованности закона распределения и ЭД.
Если заданный уровень согласованности достигнут, то задача
считается решенной, а если нет, то шаги повторяются снова, начиная с
первого шага, на котором выбирается другой вид закона, или начиная со
второго – путем некоторого уточнения параметров распределения.
Выбор вида закона распределения осуществляется посредством
анализа гистограммы распределения, оценок коэффициентов асимметрии и
125
эксцесса. По степени "похожести" гистограммы и графиков плотностей
распределения типовых законов или по "близости" значений оценок
коэффициентов и диапазонов их теоретических значений выбираются
распределения – кандидаты для последующей оценки параметров. На рис. 8.1
– 8.4 представлены графики типовых функций плотностей распределения,
часто применяемых в задачах аппроксимации ЭД, а в табл. 8.1 приведены
функции плотности и теоретические параметры этих распределений.
Рис 8.1. Логарифмически нормальное распределение
а) μ = 0; б) σ = 1
Рис. 8.2. Экспоненциальное
распределение
Рис. 8.3. Распределение Вейбулла
Рис. 8.4 Гамма-распределение
а) λ =1
б) ν =3
Таблица 8.1
126
Математическое ожидание m1,
дисперсия m2,
асимметрия b1 = m3 / m 23 / 2 ,
Тип и функция плотности
распределения
эксцесс b2 = m 4 / m 22
m1 = μ1, m2 = σ2 = 2,
b1 = 0, b2 = 3
Нормальное
1
σ 2π
(
))
(
exp − ( x − μ 1 ) / 2σ 2 , − ∞ < x < +∞
2
m1 = exp(μ1 + 0,5μ 2 ),
Логарифмически нормальное
m2 = exp(2 μ1 + μ 2 )(exp(μ 2 ) − 1),
⎛ (ln x − μ1 )2 ⎞
1
⎟, x > 0 ,0, х ≤ 0
exp⎜⎜ −
⎟
2σ 2
σx 2π
⎝
⎠
b1 = (exp(μ 2 ) + 2 ) exp(μ 2 ) − 1,
b2 = exp(4μ 2 ) + 2 exp(3μ 2 ) + 3 exp(2 μ 2 ) − 3
m1 = 1/λ m2 = 1/λ2
b1 = 2,
b2 = 9
Экспоненциальное
λexp(-λx), x≥ 0, 0, x < 0
Вейбулла
β
δ
⎛ x⎞
⎜ ⎟
⎝δ ⎠
β −1
⎛ ⎛ x⎞
exp⎜ − ⎜ ⎟
⎜ ⎝δ ⎠
⎝
β
(
)
m1 = δg1 , m2 = δ 2 g 2 − g12 ,
⎞
⎟, x ≥ 0, 0, x < 0
⎟
⎠
(
a = (g
)(
b1 = g 3 − 3g1 g 2 + 2 g13 / g 2 − g12
δ > 0, β > 0
b2 =
4
(g
)
)
3
2
,
− 4 g1 g 3 + 6 g 2 g − 3g ,
2
1
a
2
2 − g1
)
2
4
1
,
g i = Γ(1 + i / β )
Гамма
m1 = ν / λ , m2 = ν / λ2 ,
ν
λ ν −1
x exp(− λx ), x ≥ 0, 0, x < 0
Γ(ν )
b1 = 2 / ν , b2 = 3(ν + 2) / ν
ν > 0, λ > 0
Следует
распределению
отметить,
что
Эрланга,
если
гамма-распределение
λ
–
целое,
и
соответствует
экспоненциальному
распределению при ν = 1.
После выбора подходящего вида распределения производится оценка
его параметров, используя методы максимального правдоподобия, моментов
или квантилей. В целях упрощения решения задачи в табл. 8.2 приведены
расчетные
формулы
для
вычисления
оценок
параметров
типовых
распределений.
Таблица 8.2
127
Тип
распределения
Оценка параметров распределения
по выборочным данным
Нормальное
Логарифмически
μ1 =
μ1 =
нормальное
1 n
1 n
2
(xi − μ )2
,
x
μ
=
σ
=
∑
∑
2
i
n i =1
n − 1 i =1
1 n
1 n
2
(ln xi − μ )2
ln
x
,
μ
=
σ
=
∑
∑
2
i
n i =1
n − 1 i =1
Экспоненциальное
Вейбулла
λ=
1
⎧1 n ⎫
⎨ ∑ xi ⎬
⎩ n i =1 ⎭
⎛ ln a ln xq − ln b ln x p ⎞
ln a − ln b
⎟⎟, β =
,
ln a − ln b
ln xq − ln x p
⎝
⎠
δ = exp⎜⎜
0 < q < p < 1, a = − ln (1 − p ), b = − ln (1 − q )
xq, xp — выборочные квантили
Гамма
(
)
⎧ 0,5001 − 0,1649q − 0,0544q 2
− 1, 0 < q ≤ 0,577,
⎪⎪
q
a=⎨
2
⎪ 8,899 + 9,060q + 0,9775q − 1, 0,577 < q ≤ 17,
17,80 + 11,97q + q 2 q
⎩⎪
(
(
)
)
где q=ln(μ 1/6), β = μ1 / (1 + a ), μ1 =
1 n
∑ xi
n i =1
Применительно к выбранному закону распределения производится
проверка гипотезы о том, что имеющаяся выборка может принадлежать
этому закону. Если гипотеза не отвергается, то можно считать, что задача
аппроксимации решена. Если гипотеза отвергается, то возможны следующие
действия: изменения значений оценок параметров распределения; выбор
другого вида закона распределения; продолжение наблюдений и пополнение
выборки. Конечно, такой подход не гарантирует нахождение "истинного"
или даже подбора подходящего закона распределения. Преимущество
применения типовых законов распределения состоит в их хорошей
изученности и возможности получения состоятельных, несмещенных и
относительно
высоко
эффективных
128
оценок
параметров.
Однако
рассмотренные
выше
типовые
законы
распределения
не
обладают
необходимым разнообразием форм, поэтому их применение не дает
необходимой
общности
представления
случайных
величин,
которые
встречаются при исследовании систем.
§ 3. Аппроксимация на основе специальных рядов
Типовые ряды, известные из математического анализа (ряды Тейлора,
Фурье), не подходят для описания функций распределений, так как не
обладают свойствами, присущими этому виду функций. Для подобного
описания предложены специальные функции, например, основанные на
полиномах Чебышева – Эрмита. К числу таких функций относится ряд Грама
– Шарлье
(8.1)
где Ф(u) – функция нормального распределения центрированной и
нормированной случайной величины u=(х – μ
1)/μ
0,5
2 ,
Ф(k)(u) – k-я
производная от функции нормального распределения.
Вычисление Ф(u) не требует численного интегрирования, так как
имеются ее приближения на основе полиномов, а производные представимы
элементарными функциями:
Ф(3)(u)=(u2 –1)fн(u),
Ф(4)(u)=(– u3 + 3u)fн(u),
(6)
5
(8.2)
3
Ф (u)=(– u +10u –15u)fн(u),
fн(u)= (2π ) – 0,5exp(– u2/2).
Ряд Грама – Шарлье целесообразно использовать для описания
распределений, близких к нормальному. В других случаях начинают
проявляться серьезные недостатки: ряд может вести себя нерегулярно
(увеличение
количества
членов
ряда
иногда
снижает
точность
аппроксимации); ошибки аппроксимации возрастают с удалением от центра
распределения; сумма конечного числа членов ряда при большой асимметрии
распределения приводит к отрицательным значениям функций, особенно на
129
краях распределений. Этот ряд применяют только при весьма умеренном
коэффициенте
асимметрии,
не
превышающем
0,7.
Следовательно,
применение рядов тоже не обеспечивает необходимой общности решения
задач аппроксимации.
Пример 8.1. Оценить качество аппроксимации ЭД, табл. 2.4, на
основе ряда Грама – Шарлье. Проверку согласованности провести с
использованием критерия хи-квадрат при уровне значимости α = 0,05.
Решение. В примере 2.3 были вычислены значения оценок моментов:
μ 1 =27,508, μ 2 = 0,913, μ 3= 0,132, μ 4 =1,819.
На основе табл. 2.4 построим табл. 5.3.
Таблица 8.3
I
ni
Верхняя
граница, xi
F (xi)
Δ Fi
Fi
(ni – Fi)2/Fi
1
5
26,37
2
9
26,95
3
10
27,53
4
9
28,11
5
5
28,69
6
6
∞
0,127
0,127
5,588
0,062
0,303
0,176
7,744
0,204
0,517
0,214
9,416
0,036
0,721
0,204
9,976
0,000
0,877
0,156
6,864
0,506
1
0,123
5,412
0,063
В таблице значения функции распределения F(xi) для верхней
границы интервала и теоретическое значение оценки вероятности Δ Fi
попадания случайной величины в i-й интервал вычислены на основе ряда
Грама – Шарлье. Обозначения оценки частоты попадания Fi=Δ Fi*n
случайной величины в i-й интервал, вероятности Δ Fi попадания случайной
величины в интервал xi – xi–1, взвешенного квадрата отклонения (ni – Fi)2/Fi
аналогичны табл. 3.2. Сумма взвешенных квадратов отклонения χ 2 = 0,872
(критическое значение составляет 7,815).
Выборка имеет слабо выраженную асимметрию. По сравнению с
аналогичным значением χ
2
= 1,318 при аппроксимации ЭД нормальным
распределением, ряд Грама – Шарлье дает более "точное" описание данных.
§ 4. Аппроксимация на основе универсальных
семейств распределений
130
Существуют различные подходы к построению универсальных
семейств распределений. Рассмотрим два наиболее типичных. Первый
подход является дальнейшим развитием метода моментов, а второй основан
на замене исходной выборки другой, распределение которой является
стандартным.
Аппроксимация на основе семейства распределений К. Пирсона
В рамках первого подхода одно из универсальных семейств
распределений предложил К. Пирсон. Моменты распределения случайной
величины, даже если все они существуют, не характеризуют полностью этого
распределения, но они определяют его однозначно при некоторых условиях,
которые
выполняются
почти
для
всех
используемых
на
практике
распределений. Иначе говоря, при решении задач обработки ЭД знание
моментов эквивалентно знанию функции распределения и совпадение
значений первых r моментов двух распределений говорит о приблизительной
одинаковости распределений. Не зная точно вид функции распределения, но,
найдя r первых моментов, можно подобрать другое распределение с теми же
первыми
моментами. Практически
такая
аппроксимация
оказывается
хорошей при совпадении первых трех – четырех моментов.
Анализ
характерных
черт
функций
плотности
унимодальных
распределений показывает, что эти распределения начинаются с нуля,
поднимаются до максимума, а затем уменьшаются снова до нуля. Это
означает, что для описания подобных функций плотности распределений f(x)
необходимо выбрать такие уравнения, для которых df(x)/dx=0 при
следующих условиях: f(x)=0, тогда по крайней мере на одном краю
распределения будет соприкосновение с осью абсцисс высшего порядка; x=a,
где величина a соответствует моде распределения. Этим условиям для
центрированной переменной x удовлетворяет дифференциальное уравнение
df / dx = (x-a)f /(b0 + b1x + b2x2), решение которого приводит к семейству
распределений Пирсона. Действительно, в этом уравнении df(x)/dx равно
нулю, если f(x)=0 или x=a. Семейство распределений Пирсона включает не
только унимодальные, но и распределения, имеющие U-образную форму (две
моды).
131
Уравнение содержит четыре неизвестных параметра. Их вычисление
основано
на
методе
приравниваются
к
моментов
–
четыре
соответствующим
выборочных
моментам
момента
теоретического
распределения, являющимся функциями от неизвестных параметров. Решая
полученную систему уравнений относительно неизвестных параметров,
получают искомые оценки параметров в виде функций выборочных
моментов
(
)
a = μ 3 μ 4 + 3μ 22 / A
(
)
= − μ (μ + 3μ ) / A
= −(2 μ μ − 3μ − 6 μ ) / A
B0 = − μ 2 4 μ 2 μ 4 − 3μ 32 / A
B1
B2
3
2
2
4
2
4
2
3
(8.3)
3
2
A = 10 μ 2 μ 4 − 18μ 23 − 12 μ 32
Выражения для плотности f(x) выводятся путем интегрирования
дифференциального уравнения. Интегрирование позволяет получить 11
типов функций плотности распределения, три из которых являются
основными, а остальные – их частными случаями, в том числе и такие
общеизвестные, как нормальное, экспоненциальное, гамма-распределение.
Распределение f(x) сосредоточено:
на конечном интервале, если корни уравнения B0 + B1x + B2x2 = 0
представляют собой действительные числа различных знаков;
на положительной полупрямой, если корни – действительные числа
одного знака и a>0, или на отрицательной полупрямой при a<0;
на всей оси абсцисс, если уравнение не имеет действительных корней.
Принимая моду за начало отсчета исходной центрированной
величины, т.е., полагая t = х – a, исходное уравнение представим в виде
(
)
d
(ln f (t )) = t B0 + B1t + B2t 2 .
dt
Первый основной тип распределения получается в случае, когда
корни уравнения B0 + B1t + B2t2 = 0 являются действительными числами с
различными знаками. Обозначим корни уравнения через –c1 и c2
соответственно, где величины c1 и c2 – положительные числа. Тогда по
известной теореме
B0 + B1t + B2t2 = B2(t +c1)(t - c2).
132
Исходное уравнение преобразуем к виду
d
t
c1
c2
1
1
(ln f1 (t )) =
=
+
.
dt
B2 (t + c1 )(t − c2 ) B2 (c1 + c2 ) (t + c1 ) B2 (c1 + c2 ) (t − c2 )
Обозначим γ= c1/(B2(c1+ c2)) и η= c2/(B2(c1+ c2)). Тогда можно записать
[
]
d (ln f1 (t )) = d ln (t + c1 ) + ln (c2 − t ) .
γ
η
Решение дифференциального уравнения с точностью до некоторого
коэффициента k1 можно представить в виде f1(t) = k1(c1 + t)γ(c2 - t)η. Размах
данного распределения сосредоточен на интервале (–c1, c2). Проведем замену
переменной t = (c1+ c2)y -c1 , учитывая, что dt = (c1+c2)dy, включим
постоянный сомножитель (c1+c2)γ+η+1 в состав коэффициента k1. В итоге
получим f1(y)=k1yγ (1–y)η , где y изменяется в пределах от 0 до 1. Интегрируя
в этих пределах функцию f1(t), можно найти значение k1 из условия
1
η
γ
∫ k y (1 − y ) dy = 1 .
1
Интеграл
в
данном
выражении
по
определению
0
соответствует бета-функции B(γ+1, η+1), которая определяется через гаммафункцию B(γ+1, η+1) = Г(γ+1)Г(η+1)/Г(γ+η+2). Итак, k1= 1/B(γ+1, η+1).
Окончательно плотность распределения
f1(y) = (1/B(γ+1, η+1))yγ(1 - y)η,
(8.4)
где 0≤y≤1.
Переменная у определяется через исходный (не центрированный и
несмещенный)
аргумент
x
в
соответствии
с
ранее
введенными
подстановками: y = (c1 + x - μ1 - a)/(c1 + c2).
Функция плотности распределения первого типа соответствует бетараспределению, рис. 8.5. Функция распределения
y
Γ(γ + η + 2 )
η
F1 ( y ) =
y γ (1 − y ) dy
∫
Γ(γ + 1)Γ(η + 1) 0
(8.5)
При наличии действительных корней одного знака получается
распределение Пирсона шестого типа. Пусть корни –c1 и –c2 меньше нуля, т.
е. B2, c1 и c2 положительны (с1<с2), тогда можно записать
1
c2
1
d
(ln f 6 (t )) = − c1
+
,
dt
B2 (− c1 + c2 ) (t + c1 ) B2 (− c1 + c2 ) (t + c2 )
133
где –с1< t < ∞ . Обозначим α=-c1/(B2(c1-c2) и β=c2/(B2(c1-c2). После
преобразований получим d (ln f 6 (t )) = d [ln[(c1 + t )α (c2 + t )β ]] или f6(t)=k6(c1+t)α (c2 +
t)β .
Здесь, как и для распределения первого типа, t = x – μ
1
– a.
Используем подстановку (c1-c2)/(c2+t) , тогда dt = -(c2 - c1)z-2dz.
Рис. 8. 5. Распределение Пирсона первого типа (бета-распределение)
a) η >1, γ >1;
б) η <1, γ < 1;
в) η =2, γ ≤ 1;
г) η = γ ≥ 1
Функция плотности распределения шестого типа примет вид
f6(t)=k6(1– z)α z
– (α +β +2)
. Нормировочный коэффициент k6 определяется
аналогично ранее рассмотренному варианту. Нормирующее условие имеет
1
вид
1 = k 6 ∫ z −(α + β + 2 ) (1 − z ) dz .
α
Следовательно,
коэффициент
0
k6
определяется через бета-функцию: k6 = 1/В(– α – β – 1, α +1).
Окончательно функция плотности распределения шестого типа
f6(z) = 1/[В(– α – β – 1, α +1)] z – (α +β +2)(1–z)α .
(8.6)
Функция распределения шестого типа
Γ(− β )
α
F6 ( z ) = 1 −
z −(α + β + 2 ) (1 − z ) dz .
∫
Γ(− α − β − 1)Γ(α + 1) 0
z
134
(8.7)
Для положительных корней уравнения B0 + B1t + B2t2 = 0 диапазон
изменения аргумента –∞ < t <c1, а выражения для плотности и функции
распределения получаются такие же, только при выводе используется другая
подстановка z=(c2 – c1)/(c2 – t). Таким образом, шестой тип распределения
является разновидностью первого типа.
Функции распределения (8.5) и (8.7) представляют собой неполные
бета-функции Ву(p, q). Когда оба показателя степени в формулах (8.4) и (8.6)
больше нуля, плотность имеет единственную моду и обращается в нуль на
краях интервала. Если один из показателей отрицателен, то значение
плотности на одном краю интервала стремится к бесконечности и
распределение имеет L– или J–образную форму. При двух отрицательных
показателях распределения принимают U–образную форму, значения
функций плотности стремятся к бесконечности на обоих краях. В указанных
случаях применение численного интегрирования для вычисления значений
функций распределения невозможно.
Вычисления значений функций распределения первого и шестого
типов целесообразно осуществлять разложением интеграла (неполной бетафункции) в гипергеометрический ряд. Гипергеометрический ряд
a (a + 1)b(b + 1) 2
ab
F (a, b, c, w) = 1 +
w+
w + ...
(8.8)
1⋅ c
1 ⋅ 2 ⋅ c(c + 1)
сходится абсолютно и равномерно при |w|<1. Для ускорения сходимости ряда
неполную бета-функцию вычисляют по различным формулам в зависимости
от значения предела интегрирования
⎧1 p
q
⎪ z (1 − z ) F (1, p + q, p + 1, z ), при z ≤ 0,5,
Bz ( p, q ) = ⎨ p
⎪⎩
1 − B1− z (q, p ), при z > 0,5
(8.9)
В формуле (8.9) для распределения первого типа p = γ + 1 и q = η + 1, а
для распределения шестого типа p = – α – β – 1, q = α + 1.
Если корни уравнения B0 + B1t + B2t2 = 0 комплексные числа, то
получается распределение Пирсона четвертого типа с диапазоном изменения
переменной
по
всей
оси
абсцисс
135
и
единственной
модой.
Путем
тождественных преобразований и вводя соответствующие обозначения,
исходное дифференциальное уравнение представим в виде
d
(ln f 4 (t )) =
dt
t
⎧⎪⎛
B ⎞ B
B 2 ⎫⎪
B2 ⎨⎜⎜ t + 1 ⎟⎟ + 0 − 1 2 ⎬
⎪⎩⎝ 2 B2 ⎠ B2 4 B2 ⎪⎭
2
=
t
(
B2 (t + ϕ ) + δ 2
2
).
δ 2 = B0 / B2 − B12 / (4 B22 ).
где ϕ= B1/(2B2),
Используя правила интегрирования элементарных дробей, уравнение
преобразуем к виду
ln f 4 (t ) = ln R +
(
)
1
ϕ
t +ϕ
2
arctg
ln (t + ϕ ) + δ 2 −
.
B2δ
2 B2
δ
Следовательно, функция плотности четвертого типа
{
f 4 (t ) = R (t + ϕ ) + δ 2
2
}(
1 / 2 B2 )
× exp{− ϕ / (B2δ )arctg ((t + ϕ ) / δ )} (8.10)
Коэффициент R находится из нормирующего условия (интеграл от
плотности распределения в пределах изменения переменной равен единице).
Для
вычисления
коэффициента
приходится
проводить
численное
интегрирование, так как первообразная функция через элементарные
функции не представима. Чтобы перейти к конечным пределам при
численном
интегрировании,
воспользуемся
заменой
переменной
⎛ t +ϕ ⎞
v = arctg ⎜
⎟ , тогда интегрирование следует провести в пределах от –π /2 до
⎝ δ ⎠
π /2 (здесь, как и ранее, t = x– μ1 – a). Окончательно получим
v
F4 (v ) =
∫π cos
− 2 (1 / ( 2 B2 )+1)
∫ cos
− 2 (1 / ( 2 B2 )+1)
− /2
π /2
(v ) exp(− ϕv / (B2δ ))dv
(v ) exp(− ϕv / (B2δ ))dv
(8.11)
−π / 2
Последовательность
подгонки
описания
эмпирических
данных
распределениями Пирсона включает следующие этапы:
вычисление
значения
оценок
первых
эмпирического распределения путем обработки ЭД;
136
четырех
моментов
вычисление параметров В0, В1, В2, а семейства распределений,
переход от исходной переменной x к центрированной и смещенной
переменной t;
анализ корней квадратного уравнения B0, B1, B2, и определение типа
распределения. При этом реальная область значений случайной величины
играет второстепенную роль. Например, четвертое распределение Пирсона
может служить хорошей аппроксимацией распределения ограниченной
случайной величины или наоборот первое распределение – для случайной
величины с бесконечными пределами изменения;
вычисление параметров выбранного типа распределения;
проверку
гипотезы
о
возможности
применения
выбранного
распределения для описания ЭД.
Распределения
Пирсона
вполне
удовлетворительно
обобщают
результаты наблюдений. Но эти оценки не являются наилучшими, так как
имеют
неминимальные
дисперсии,
а,
следовательно,
не
являются
наилучшими оценками параметров генеральной совокупности.
Области в плоскости квадрата коэффициента асимметрии b12 и
коэффициента эксцесса b2, соответствующие различным распределениям
семейства Пирсона, показаны на рис. 8.6. Из рисунка видно, что
распределения Пирсона охватывают широкую область возможных видов
распределений и включают в себя как частные случаи нормальное,
экспоненциальное, гамма и другие типовые распределения. Нормальное и
экспоненциальное распределения не имеют параметров формы, поэтому на
рисунке отображаются точками, гамма-распределение имеет только один
параметр формы и ему соответствует линия. Иначе говоря, типовые
распределения обладают скромными возможностями по аппроксимации ЭД.
137
Рис. 8.6. Области аппроксимации ЭД семейством распределений Пирсона
Недостаток рассмотренного метода состоит в большой трудоемкости
расчетов значений функции распределения.
Пример 8.2. Необходимо подобрать распределение Пирсона для
описания ЭД, табл. 2.4, и оценить качество аппроксимации. Проверку
согласованности провести с использованием критерия хи-квадрат при уровне
значимости α =0,05.
Решение. Значения оценок моментов были вычислены ранее:
μ1 =27,508, μ2 = 0,913, μ3= 0,132, μ4 =1,819.
По формулам (8.3) вычислим параметры распределения:
А = 2,6995; а = 0,2112; В0 = – 2,2290; В1 = – 0,2112; В2 = 0,4804.
Корни уравнения b0+b1x+b2 x2 = 0 – действительные числа различных
знаков: – с1 = – 1,945; с2 = 2,385. Значит, распределение относится к первому
типу и сосредоточено на ограниченном интервале. Построим табл. 8.4,
иллюстрирующую расчеты.
Таблица 8.4
I
ni
Верхняя граница, xi
F (xi)
Δ Fi
Fi
(ni –Fi)2/Fi
1
5
26,37
0,165
0,165
7,260
0,703
2
9
26,95
0,348
0,183
8,052
0,112
3
10
27,53
0,550
0,202
8,888
0,139
4
9
28,11
0,740
0,190
8,360
0,049
5
5
28,69
0,892
0,152
6,688
0,426
6
6
∞
1
0,108
4,752
0,327
В таблице значения функции распределения F(xi) для верхней
границы интервала и теоретическое значение оценки вероятности Δ Fi
попадания случайной величины в i-й интервал вычислены на основе
138
распределения Пирсона первого типа. Расчет оценки частоты Fi=n × Δ Fi,
вероятности Δ Fi попадания случайной величины в интервал xi – xi–1,
взвешенного квадрата отклонения (n
i
– Fi)2/Fi проводится аналогично
примеру 8.1. Значение критерия составляет χ 2 =1,757.
По сравнению с критическим значением хи-квадрат, равным 7,815,
аппроксимация с помощью распределения Пирсона дает вполне допустимый
результат, хотя в данном случае и уступает по "точности" аппроксимации с
помощью ряда Грама – Шарлье (χ
аппроксимации
можно,
если
2
= 0,872). Повысить точность
проанализировать
плотность
аппроксимирующего распределения. Полученная функция плотности имеет
небольшой коэффициент эксцесса, поэтому наблюдаются относительно
большие отклонения функции распределения от ЭД. Такая ситуация является
следствием значительной погрешности в оценке четвертого момента из-за
ограниченного объема выборки. Следовательно, для повышения качества
аппроксимации необходимо увеличить значение четвертого момента.
Увеличим значение четвертого момента до 2,2 (ошибки в 20 – 25% при
оценке четвертого момента по выборке малого объема вполне реальны) и
пересчитаем все параметры. В результате получится значение χ 2 =0,864, что
практически одинаково с аппроксимацией рядом Грама – Шарлье.
Потенциально
аппроксимация
по
Пирсону
является
более
универсальной по сравнению с рядами Грама – Шарлье. Семейство Пирсона
охватывают широкий класс законов распределений, а не только близкие к
нормальному, как это имеет место при применении рядов.
Аппроксимация на основе семейства распределений Джонсона
Этот
универсальный
вид
аппроксимации
основан
на
таком
преобразовании g(x) исходной случайной величины Х (заданной в некотором
интервале), которое позволит рассматривать результат преобразования как
стандартизованную случайную величину, распределенную по нормальному
закону. Данное преобразование допустимо при следующих условиях:
функция
плотности
распределения
случайной
величины
Х является
унимодальной; функция g(x) является монотонной на заданном интервале;
139
область значений функции g(x) лежит в диапазоне от –∞ до ∞ . Указанным
условиям
отвечает
система
функций,
предложенная
Джонсоном.
Достоинство данного подхода состоит в том, что значения эмпирической
функции распределения случайной величины Х вычисляются как значения
функции нормального распределения. Преобразование Джонсона в общем
случае имеет вид
x = γ + ητ(z, e, λ) ; η>0, –∞< γ < ∞, λ>0, –∞ < e <∞,
(8.12)
где γ , η , ε , λ – параметры распределения; u – центрированная и
нормированная случайная величина, распределенная по нормальному закону;
τ – некоторая функция; х – случайная величина с произвольной
унимодальной плотностью распределения.
В качестве τ предложено использовать три вида функций:
⎛ z −ε ⎞
1)τ 1 ( z , ε , λ ) = ln⎜
⎟, z ≥ ε ,
⎝ λ ⎠
⎛ z −ε ⎞
2)τ 2 ( z , ε , λ ) = ln⎜
⎟, ε ≤ z ≤ ε + λ ,
⎝ λ +ε − z ⎠
⎛ z −ε ⎞
3)τ 3 ( z , ε , λ ) = arcsh⎜
⎟, − ∞ < z < ∞.
⎝ λ ⎠
Для семейства функций первого вида du =
f1 ( x ) =
Эта
функция
η
x −ε
(8.13)
dx , тогда
2
⎧⎪ 1 ⎡
⎛ x − ε ⎞⎤ ⎫⎪
exp⎨− ⎢γ + η ln⎜
⎟⎥ ⎬
2π ( x − ε )
⎝ λ ⎠⎦ ⎪⎭
⎪⎩ 2 ⎣
η
соответствует
(8.14)
логарифмически
нормальному
распределению и называется семейством распределений SL Джонсона.
Логарифмически
нормальное
распределение
не
обладает
общностью
исходного семейства, так как оно фактически зависит от трех, а не от
⎛ z −ε ⎞
⎟
⎝ λ ⎠
четырех параметров. Действительно, выражение γ + η ln⎜
можно
записать в виде γ – η lnλ, и величину γ –ηln λ следует рассматривать как
единый параметр.
Аналогично можно найти плотность распределения для второго и
третьего семейств распределений Джонсона:
140
⎧⎪ 1 ⎡
ηλ
⎛ x − ε ⎞⎤
exp⎨− ⎢γ + η ln⎜
f 2 (x ) =
⎟⎥
2π (x − ε )(λ − x + ε )
⎝ λ − x + ε ⎠⎦
⎪⎩ 2 ⎣
f3 (x ) =
2
⎫⎪
⎬,
⎪⎭
2
⎧
2
⎡
⎤ ⎫ (8.15)
⎞
⎛
η
x −ε
⎪ 1
⎪
⎛ x −ε ⎞
× exp⎨− ⎢γ + η ln⎜
+ ⎜
+ 1 ⎟⎥ ⎬
⎟
2
⎟⎥
⎜ λ
⎝ λ ⎠
2π (x − ε ) + λ2
⎪ 2 ⎢⎣
⎠⎦ ⎪⎭
⎝
⎩
Эти функции получили названия SB и SU семейства распределений
Джонсона соответственно. Они имеют два параметра формы γ и η, параметр
ε характеризует центр, λ – масштаб распределения.
Возможности распределений Джонсона по описанию статистических
данных практически эквивалентны распределениям Пирсона. Функции
распределения Джонсона в явном виде представить нельзя, да в этом и нет
необходимости,
так
как
расчет
значений
функций
распределения
осуществляется на основе нормального распределения.
Чтобы определить одно из трех семейств распределений для
аппроксимации полученной совокупности ЭД, можно воспользоваться
следующим подходом. По экспериментальным данным находят значения
оценок первых четырех центральных моментов, затем значения оценок
параметров асимметрии
β12 = μ 32 / μ 23 и эксцесса β 2 = μ 4 / μ 22 распределения.
Если точка с координатами β12 , β 2 находится вблизи линии с координатами
b12 = (ω − 1)(ω + 2 )
b2 = ω 4 + 2ω 3 + 3ω 2 − 3
(8.16)
то выбирается семейство распределений SL, рис. 8.7. Если точка лежит выше
этой линии, то выбирается семейство SB, если ниже – то SU распределение
Джонсона. Точки для описания линии, разделяющей области аппроксимации,
находят путем решения первого уравнения (8.16) относительно ω и
подстановкой найденного значения во второе уравнение. Некоторые
значения параметра ω и соответствующие ему значения b12 и b2 представлены
в табл. 8.5 и на рис. 8.7.
Таблица 5.5
141
ω
1,00 1,05 1,10 1,15 1,20 1,25 1,30 1,35 1,40 1,45 1,50
b12
0,00 0,15 0,31 0,47 0,64 0,81 0,99 1,17 1,36 1,55 1,75
b2
3,00 3,84 4,76 5,76 6,85 8,04 9,32 10,71 12,21 13,83 15,56
Рис. 8.7. Области аппроксимации распределениями Джонсона
Определение моментов или построение функции правдоподобия для
распределений Джонсона достаточно трудоемко. Для целей аппроксимации
проще использовать метод квантилей. Количество используемых квантилей и
соответственно уравнений равно количеству определяемых параметров
распределения.
Уравнения для нахождения неизвестных параметров для SL, SB, SU
распределений Джонсона имеют соответственно вид:
u = γ ∗ + η ln x − ε , i = 1,3, где γ ∗ = γ − η ln λ ;
αi
αi
⎛ x −ε ⎞
⎟, i = 1,4;
u = γ + η ln⎜ α i
⎜λ +ε − x ⎟
αi
αi ⎠
⎝
⎛ x −ε ⎞
⎟, i = 1,4.
u = γ + ηarcsh⎜ α i
αi
⎜ λ ⎟
⎝
⎠
(
)
(8.17)
Первая система уравнений допускает решение в аналитическом виде.
Для этого целесообразно в качестве одной из квантилей взять 0,5-ю квантиль
(квантиль
уровня
0,5
функции
стандартизованного
нормального
распределения равна нулю), а в качестве двух других взять симметричные
значения хα и х1–
α
, например х0,35 и х0,65. Значения таких квантилей uα
142
функции
величине,
стандартизованного
но
различаются
нормального
знаком.
распределения
Тогда
оценки
равны
по
параметров
SL
распределения:
−1
⎛ ⎛ x − x 0,5 ⎞ ⎞
⎟⎟ ⎟ ,
ηˆ = u1−α ⎜⎜ ln⎜⎜ 1−α
⎟
x
−
x
α ⎠⎠
⎝ ⎝ 0.5
⎛ 1 − exp(− u1−α / ηˆ ) ⎞
⎟⎟,
x
x
−
0.5
α
⎝
⎠
γˆ ∗ = ηˆ ln⎜⎜
(8.18)
εˆ = x 0,5 − exp(− γˆ ∗ / ηˆ ).
Решение систем уравнений для двух других семейств возможно
только на основе численных методов. При этом основная сложность состоит
в определении начальных приближений для искомых параметров.
Завершающим этапом аппроксимации с использованием семейств
распределений
Джонсона
должна
быть
проверка
согласованности
подобранного распределения и ЭД.
Пример 8.3. Необходимо подобрать распределение Джонсона для
описания ЭД, представляющих интервалы времени между поступлениями
запросов к базе данных (таблица 8.6). Проверку согласованности провести с
использованием критерия Мизеса при уровне значимости α = 0,1.
Таблица 8.6
i
xi, мс
1
1,77
2
3,03
3
3,17
4
5,18
5
6,22
6
9,14
7
9,94
8
10,25
9
10,85
10
15,68
11
23,90
12
35,91
Решение. Определим вид семейства распределений Джонсона. Для
этого вычислим значения оценок:
моментов μ1=11,25, μ 2=98,18, μ 3=1614,33, μ 4=44140,97. Оценка
третьего момента имеет положительное значение, поэтому плотность
распределения характеризуется положительной асимметрией;
коэффициентов асимметрии и эксцесса β12 = 2,75, β2 = 4,58.
На основе полученного значения величины β12 в соответствии с
первым уравнением (8.16) определим значение вспомогательного параметра
143
ω = 5,24. Этому значению ω соответствует точка линии с координатой b2 =
1125,7. Так как β2 << b2, то выборку целесообразно аппроксимировать
распределением SU Джонсона, рис. 8.7.
Для подбора значений параметров распределения SU Джонсона
воспользуемся
методом
квантилей.
Возьмем
четыре
квантили,
соответствующие области максимальных значений плотности распределения,
например: х4/12 = 5,18; х5/12 = 6,22; х6/12 = 9,14; х7/12 = 9,94. Этим квантилям
исходной выборки соответствуют квантили стандартизованного нормального
распределения: u4/12 = – 0,4307; u5/12 = – 0,2104; u6/12 = 0,0; u7/12 = 0,2104.
Приравнивая квантили, получим систему уравнений:
− 0,4307 = γ + η arcsh((5,18 − ε ) / λ ),
− 0,2104 = γ + η arcsh((6,22 − ε ) / λ ),
0,0000 = γ + η arcsh((9,14 − ε ) / λ ),
0,2104 = γ + η arcsh((9,94 − ε ) / λ ),
Воспользуемся пакетом символьной математики MathCAD для
нахождения
параметров,
отвечающих
указанной
системе
уравнений.
Результаты вычислений зависят от начальных условий, поэтому потребуется
выполнение ряда итераций:
первоначально зададим начальные значения оцениваемых параметров,
например, равными единице;
применяя средства решения системы нелинейных уравнений и
функцию Minerr, найдем приближенные значения параметров;
подставим найденные значения как начальные приближения и
получим уточненные значения параметров. Последние два этапа повторим
несколько раз до тех пор, пока корни уравнений перестанут существенно
отличаться
от
начальных
приближений.
В
результате
получим
приближенные значения искомых величин: γ = – 0,2; η = 0,188; λ = 1,046; ε =
7,809. Преобразование Джонсона примет вид
u = - 0,2 + 0,188 arcsh ((x - 7,809)/1,046).
144
(8.19)
В целях проверки качества аппроксимации ЭД подобранным законом
распределения по аналогии с примером 3.3 построим табл. 8.7.
Таблица 8.7
i
1
2
3
4
5
6
7
8
9
10
11
12
xi
1,77
3,03
3,17
5,18
6,22
9,14
9,94
10,3
10,9
15,7
23,9
35,9
Fn (xi) 0,04
0,12
0,21
0,29
0,36
0,46
0,54
0,63
0,71
0,79
0,88
0,96
–0,66 –0,65 –0,61 –0,51 –0,43 0,00
0,08
0,10
0,14
0,31
0,44
0,55
0,53
0,54
0,55
0,62
0,67
0,71
ui
Ф(ui) 0,25
Δi
0,26
0,27
0,31
0,33
0,50
0,045 0,017 0,004 0,000 0,002 0,002 0,000 0,007 0,024 0,029 0,041 0,062
В этой таблице:
Fn(xi)=(i–0,5)/12 – значения эмпирической функции распределения;
ui – значения аргумента в соответствии с преобразованием (8.19);
Ф(ui) – значения функции нормального распределения стандартизованной
величины ui;
Δ i = [Fn (xi) – Ф(ui)] 2 .
12
Значение критерия Мизеса пω 2=1/(12× 12)+ ∑ Δ i = 0,241. Критическое
i =1
значение этого критерия при уровне значимости α = 0,1 составляет 0,347,
табл. П.2. Расчетное значение меньше критического, следовательно,
подобранное распределение Джонсона не противоречит ЭД и его можно
использовать для аппроксимации.
Таким образом, универсальные методы аппроксимации, обеспечивая
высокую гибкость решения задачи подгонки распределений к ЭД, требуют
существенных вычислительных затрат на свою реализацию и применения
специализированных пакетов обработки данных.
Следует учитывать, что рассмотренные универсальные способы
аппроксимации не являются всеобъемлющими – существуют случайные
величины,
распределение
которых
плохо
описывается
указанными
зависимостями. В первую очередь к ним относятся случайные величины с
усеченными законами распределения. Например, распределение времени
145
ожидания
заявок
в
очереди
к
одноканальной
системе
массового
обслуживания при пуассоновском входном потоке и экспоненциальном
времени обслуживания (теоретическая функция распределения имеет вид
усеченного слева экспоненциального распределения F(t) = 1 - p exp( - μ(1 p)t), где ρ – загрузка системы, μ – интенсивность обслуживания заявок).
Аппроксимация
универсальным
распределением
дает
существенные
погрешности в области малых значений аргумента t, хотя и может
применяться в области больших значений этого аргумента.
146
Глава 9
Экспериментальные исследования
§1. Методика проведения экспериментальных исследований
Важнейшей составной частью научных исследований является
эксперимент, основой которого является научно поставленный опыт с точно
учитываемыми и управляемыми условиями. Само слово эксперимент
происходит от лат. experimentum – проба, опыт. В научном языке и
исследовательской работе термин «эксперимент» обычно используется в
значении,
общем
целенаправленное
для
целого
ряда
наблюдение,
сопряженных
воспроизведение
понятий:
объекта
опыт,
познания,
организация особых условий его существования, проверка предсказания. В
это понятие вкладывается научная постановка опытов и наблюдение
исследуемого явления в точно учитываемых условиях, позволяющих следить
за ходом явлении и воссоздавать сто каждый раз при повторении этих
условий. Само по себе понятие «эксперимент» означает действие,
направленное на создание условий в целях осуществления того или иного
явления и по возможности наиболее частого, т. е. не осложняемого другими
явлениями. Основной целью эксперимента являются выявление свойств
исследуемых объектов, проверка справедливости гипотез и на этой основе
широкое и глубокое изучение темы научного исследования.
Особое
значение
имеет
правильная
разработка
методики
эксперимента. Методика – это совокупность мыслительных и физических
операций,
размещенных
в
определенной
последовательности,
в
соответствии с которой достигается цель исследования. При разработке
методик проведения эксперимента необходимо предусматривать: проведение
предварительного целенаправленного наблюдения над изучаемым объектом
или явлением с целью определения исходных данных (гипотез, выбора
варьирующих
факторов);
экспериментирование
создание
(подбор
условий,
объектов
в
для
которых
возможно
экспериментального
воздействия, устранение влияния случайных факторов); определение преде147
лов измерений; систематическое наблюдение за ходом развития изучаемого
явления
и
точные
описания
фактов;
проведение
систематической
регистрации измерений и оценок фактов различными средствами и
способами; создание повторяющихся ситуаций, изменение характера условий
и перекрестные воздействия, создание усложненных ситуаций с целью
подтверждения пли опровержения ранее полученных данных; переход от
эмпирического
изучения
к
логическим
обобщениям,
к
анализу
и
теоретической обработке полученного фактического материала.
Важным этапом подготовки к эксперименту является определение его
целей и задач. Количество задач для конкретного эксперимента не должно
быть слишком большим (лучше 3...4, максимально 8...10).
Перед экспериментом надо выбрать варьируемые факторы, т.е.
установить основные и второстепенные характеристики, влияющие на
исследуемый процесс, проанализировать расчетные (теоретические) схемы
процесса. На основе этого анализа все факторы классифицируются и
составляется из них убывающий по важности для данного эксперимента ряд.
Правильный выбор основных и второстепенных факторов играет важную
роль в эффективности эксперимента, поскольку эксперимент и сводится к
нахождению зависимостей между этими факторами. Иногда бывает трудно
сразу выявить роль основных и второстепенных факторов. В таких случаях
необходимо выполнять небольшой по объему предварительный поисковый
опыт.
Основным
принципом
установления
степени
важности
характеристики является ее роль в исследуемом процессе. Для этого процесс
изучается в зависимости от какой-то одной переменной при остальных
постоянных. Такой принцип проведения эксперимента оправдывает себя
лишь в тех случаях, когда таких характеристик мало – 1...3. Если же
переменных величин много, целесообразен принцип многофакторного
анализа, рассматриваемый ниже.
148
Методы измерений должны базироваться на законах специальной
науки — метрологии, изучающей средства и методы измерений.
При экспериментальном исследовании одного и того же процесса
(наблюдения и измерения) повторные отсчеты на приборах, как правило,
неодинаковы. Отклонения объясняются различными причинами – неоднородностью свойств изучаемого тела (материал, конструкция и т.д.),
несовершенностью приборов и классов их точности, субъективными
особенностями экспериментатора и др. Чем больше случайных факторов,
влияющих на опыт, тем больше расхождения цифр, получаемых при
измерениях, т. е. тем больше отклонения отдельных измерений от среднего
значения. Это требует повторных измерений, а, следовательно, необходимо
знать
их
минимальное
количество.
Под
потребным
минимальным
количеством измерений понимают такое количество измерений, которое в
данном опыте обеспечивает устойчивое среднее значение измеряемой
величины, удовлетворяющее заданной степени точности. Установление
потребного минимального количества измерений имеет большое значение,
поскольку обеспечивает получение наиболее объективных результатов при
минимальных затратах времени и средств.
В
методике
подробно
разрабатывается
процесс
проведения
эксперимента, составляется последовательность (очередность) проведения
операций измерений и наблюдений, детально описывается каждая операция в
отдельности с учетом выбранных средств для проведения эксперимента,
обосновываются методы контроля качества операций, обеспечивающие при
минимальном (ранее установленном) количестве измерений высокую надежность и заданную точность. Разрабатываются форумы журналов для
записи результатов наблюдений и измерений.
Важным разделом методики является выбор методов обработки и
анализа
экспериментальных
данных.
Обработка
данных
сводится
к
систематизации всех цифр, классификации, анализу. Результаты экспериментов должны быть сведены в удобочитаемые формы записи – таблицы,
149
графики, формулы, номограммы, позволяющие быстро и доброкачественно
сопоставлять полученное и проанализировать результаты. Все переменные
должны быть оценены в единой системе единиц физических величии.
Особое внимание в методике должно быть уделено математическим
методам обработки и анализу опытных данных, например, установлению
эмпирических зависимостей, аппроксимации связей между варьирующими
характеристиками, установлению критериев и доверительных интервалов и
др. Диапазон чувствительности (нечувствительности) критериев должен быть
стабилизирован (эксплицирован).
Результаты экспериментов должны отвечать трем статистическим
требованиям:
требование
эффективности
оценок, т.е. минимальность
дисперсии отклонения относительно неизвестного параметра; требование
состоятельности оценок, т. е. при увеличении числа наблюдений оценка
параметра должна стремиться к его истинному значению; требование
несмещённости оценок – отсутствие систематических ошибок в процессе
вычисления параметров. Важнейшей проблемой при проведении и обработке
эксперимента является совместимость этих трех требований.
После разработки и утверждения методики устанавливается объем и
трудоемкость экспериментальных исследований, которые зависят от глубины
теоретических разработок, степени точности принятых средств измерений
(чем чётче сформулирована теоретическая часть исследования, тем меньше
объем эксперимента).
§ 2. Вычислительный эксперимент
Отдельно необходимо остановиться на понятии вычислительный
эксперимент, которое широко используется в последнее время в специальной
научной и технической литературе. Вычислительным экспериментом
называется методология и технология исследований, основанные на
применении прикладной математики и электронно-вычислительных машин
как технической базы при использовании математических моделей. Таким
150
образом, вычислительный эксперимент основывается на создании математических моделей изучаемых объектов, которые формируются с помощью
некоторой особой математической структуры, способной отражать свойства
объекта, проявляемые им в различных экспериментальных условиях.
Однако эти математические структуры превращаются в модели лишь
тогда, когда элементам структуры дается физическая интерпретация, когда
устанавливается соотношение между параметрами математической структуры и экспериментально определенными свойствами объекта, когда
характеристики элементов модели и самой модели в целом находят
соответствие свойствам объекта. Таким образом, математические структуры
вместе
с
описанием
соответствия
экспериментально
обнаруженным
свойствам объекта и являются моделью изучаемого объекта, отражая в
математической,
символической
(знаковой)
форме
объективно
существующие в природе зависимости, связи и законы. Модель может (если
возможно) сопровождаться элементами наглядности и поясняться наглядным
образом. В какой-то своей части она может осуществляться с каким-либо
наглядным образом или реальным устройством, а модель сложного устройства может по каким-то свойствам уподобляться модели простого объекта.
Таким образом, каждый вычислительный эксперимент основывается
как на математической модели, так и на приемах вычислительной
математики.
На основе вычислительной математики создались теория и практика
вычислительного эксперимента, технологический цикл которого принято
разделять на следующие этапы.
1. Для исследуемого объекта строится модель, обычно сначала
физическая, фиксирующая разделение всех действующих в рассматриваемом
данном явлении факторов на главные и второстепенные, которые на данном
этапе
исследования
отбрасываются;
одновременно
формулируются
допущения и условия применимости модели, границы в которых будут
справедливы полученные результаты; модель записывается в математических
151
терминах,
как
правило,
в
виде
дифференциальных
или
интегродифференциальных уравнений; создание математической модели
проводится
специалистами,
хорошо
знающими
данную
область
естествознания или техники, а также математиками, представляющими себе
возможности решения математической задачи.
2. Разрабатывается метод расчета сформулированной математической
задачи. Эта задача представляется в виде совокупности алгебраических
формул, по которым должны вестись вычисления и условия, показывающие
последовательность применения этих формул; набор этих формул и условий
носит название вычислительного алгоритма. Вычислительный эксперимент
имеет многовариантный характер, так как решения поставленных задач часто
зависят от многочисленных входных параметров. Тем не менее, каждый
конкретный расчет в вычислительном эксперименте проводится при фиксированных значениях всех параметров. Между тем в результате такового
эксперимента часто ставится задача определения оптимального набора
параметров. Поэтому при создании оптимальной установки приводится
проводить
большое
число
расчетов
однотипных
вариантов
задачи,
отличающихся значением некоторых параметров. В связи с этим при
организации
вычислительного
эксперимента
можно
использовать
эффективные численные методы.
3. Разрабатываются алгоритм и программа решения задачи на ЭВМ.
Программирование решений определяется теперь не только искусством и
опытом исполнителя, а перерастает в самостоятельную науку со своими
принципиальными подходами.
4. Проведение расчетов на ЭВМ. Результат получается в виде
некоторой цифровой информации, которую далее необходимо будет
расшифровать. Точность информации определяется при вычислительном
эксперименте достоверностью модели, положенной в основу эксперимента,
правильностью алгоритмов и программ (проводятся предварительные
«тестовые» испытания).
152
5. Обработка результатов расчетов, их анализ и выводы. На этом этапе
могут
возникнуть
необходимость
уточнения
математической
модели
(усложнения или, наоборот, упрощения), предложения по созданию упрощенных инженерных способов решения и формул, дающих возможности
получить необходимую информацию более простым способом.
Особенностью вычислительного эксперимента является его многовариантность, т.е. возможность проводить многократные расчеты на ЭВМ
при самых различных (естественно, имеющих физический смысл) вариантах
параметров изучаемого объекта (системы, процесса). В этом случае
исследователь по отношению к математической модели является фактически
экспериментатором. Саму математическую модель, реализованную на ЭВМ,
можно представить в качестве экспериментальной установки, а серии
расчетов – измерениями.
Вычислительный эксперимент приобретает исключительное значение
в тех случаях, когда натурный эксперимент и построение физической модели
оказываются
невозможными.
производительность
и
Например,
специализация
сети
оптимизация
станций
системы:
технического
обслуживания автомобилей, их количество для данного региона, место
расположения.
§ 3. Понятие о доверительной вероятности и уровне значимости
Параметры экспериментального распределения всегда отличаются от
соответствующих статистических оценок всей генеральной совокупности
вследствие ограниченности и случайного состава выборки. Поэтому такое
приближенное случайное значение называется оценкой параметра. Для того
чтобы учесть это возможное отличие, вводится понятие доверительной
вероятности и уровня значимости.
Доверительной
вероятностью
pd
(достоверностью)
называют
вероятность того, что истинное значение оцениваемого параметра или
числовой характеристики лежит в заданном интервале, называемом
153
доверительным. Значение pd определяется в долях единицы или в процентах.
В решении большинства научных и инженерных задач автомобильного
транспорта рекомендуется принимать pd = 0,9-0,95. Физический смысл в
данном случае заключается в том, что в 90 или 95 случаях (опытах) из 100
оцениваемый параметр попадет в доверительней интервал, или, другими
словами, вероятность принятия правильного ответа составит 0,90 или 0,95,
т.е. 90% или 95%. Таким образом принятое значение РА характеризует
вероятность принятия правильного ответа.
На
практике
интерес
может
представлять
и
односторонняя
доверительная вероятность, что числовая характеристика не меньше нижней
или не выше верхней границы. Первое условие относится в частности к
вероятности безотказной работы, средней наработке на отказ, оценке ресурса
и т.п., второе – к среднему времени восстановления (ремонта), расходу
запасных частей и т.п. Например, оценка средней наработки на отказ должна
быть не менее пробега (периодичности) до очередного ТО-2, среднее время
(или трудоемкость) обслуживания или ремонта автомобиля – не более
какого-либо заданного значения.
Значение α = 1 − PD называют уровнем значимости. Из этого следует,
что
характеризует
вероятность
принятия
Соответственно рекомендуется принимать
неправильного
ответа.
=0,05..0,1, т.е. вероятность
ошибки должна быть в пределах 5% или 10%.
Значениями α и pd пользуются не только при проверке различных
статистических гипотез, но и при статистическом контроле качества
продукции. При этом α называют еще ошибкой первого рода или риском
изготовителя (поставщика). Ошибка первого рода возникает тогда, когда
заказчик бракует на основании выборочного контроля годную партию
продукции с низким процентом брака, так как отобранная выборка содержала
больше дефектных изделий, чем это предусмотрено приемочном числом.
Например, если вся партия продукции содержит 4% брака, а в выборочной
154
партии окажется 6% бракованных изделий, то при α =0,05 вся партия будет
забракована.
С другой стороны, может оказаться, что партия изделий с высоким
содержанием бракованных изделий (например, 15%) может быть принята при
pd = 0,9, если взятая из нее выборка случайно содержит небольшое число
дефектных изделий. Такое ошибочное решение называют ошибкой второго
рода, или риском заказчика, т.е. риском потребителя.
§ 4. Анализ однородности результатов эксперимента
Особое
значение
в
предварительной
обработке
результатов
эксперимента имеет анализ грубых, резко выделяющихся значений, т.е.
анализ однородности экспериментального распределения. Появление этих
ошибок вполне вероятно, а наличие их ощутимо влияет на результат
эксперимента. Однако прежде, чем исключить то или иное измерение,
необходимо убедиться, что это действительно грубая ошибка, а не
отклонение вследствие статистического разброса. Применяется несколько
математических критериев определения грубых ошибок статистического
ряда. Рассмотрим один из них – критерий Романовского В.И., который более
эффективно применим для малых выборок [8].
Члены выборки xi (i=1, n; n – объем выборки) располагают, как
правило, в порядке возрастания. Полагают, что первый член выборки x1
является спорным, т.е. x1= xcn. Вычисляют без учета спорного члена xcn ряда
распределения среднее
1
x= i
N
∑x
и среднеквадратическое отклонение σ x :
при n≤30
155
Ni
i=2
i
,
(9.1)
i
1 N
( x i − x )2 ,
∑
i
N − 1 i=2
σx =
(9.2)
при n>30
σx =
1
Ni
Ni
∑ (x
i =2
− x) .
2
i
(9.3)
Вычисляют расчетное значение критерия Романовского tрасч.
t расч =
x − xсп
.
σx
(9.4)
По таблице 9.1 определяют теоретическое значение критерии
Романовского tα , N , которое зависит от объема выборки n и уровня
. При этом обеспечивается доверительная вероятность
значимости
PD = 1 − α .
Таблица 9.1
Теоретические значения критерия Романовского
n
=0,05
5
10
15
20
24
28
30
40
60
120
>120
3,04 2,37 2,22 2,14 2,11 2,09 2,08 2,04 2,02 1,99
1,96
tα , N .
Если tрасч> tα , N , то проверяемый член можно исключить из выборки.
Сначала
выборка
проверяется
на
однородность
слева,
т.е.
анализируются первые члены ряда распределения, а затем справа –
проверяются на однородность последние члены экспериментального ряда.
Если один из крайних членов исключается, то проверяется следующий член
выборки. При этом необходимо каждой раз пересчитывать x и σ x без
156
исключенного члена и без учета вновь проверяемого на однородность члена.
При этом в формулах (9.1 – 9.3) объем выборки Ni не учитывает ни спорные
члены выборки, ни исключенные.
Расчет продолжается до тех пор, пока не будет доказано, что
оставшиеся крайние члены принадлежат выборке.
Пользователь сравнивает tрасч с
и делает вывод о целесообразности
исключения или оставления в выборке проверяемого члена. При этом
необходимо также учитывать физические закономерности формирования
изучаемого процесса, значимость каждого экспериментального данного xi,
проводить анализ причинно-следственных связей результатов эксперимента с
влияющими на него факторами и делать логические выводы о случайном или
вполне закономерном результате – в частности об xcn. Таким образом,
сравнение tрасч с tα , N носит только рекомендательный характер, а принятие
окончательного решения имеет творческий характер и принимает его
исследователь.
При необходимости исключить или оставить в выборке xcn в файл
исходных данных вносятся соответствующие изменения, и цикл расчётов
повторяется.
§ 5. Построение интервального ряда экспериментального распределения
Применяя формулу Стеджерса [9], находим приближенную ширину
интервала
.
Примечание. Если
(3.5)
– дробное число, то за величину интервала
следует взять либо ближайшее целое число, либо ближайшую несложную
дробь. Если в качестве признака xi рассматриваются значения пробегов,
наработок и т.п., выраженные в тыс.км, то ширину интервала рекомендуется
157
округлять до ближайшего значения, кратного 5, например, 5, 10 или 15
тыс.км.
Учитывая
нежелательность
совпадения
интервалов, рекомендуется вычислить значения
отсчётов
и
;
с
границами
.
.
(3.6)
Значение коэффициента 0,15 носит рекомендательный характер и
и
указывает лишь на то, что при выборе новых значений
не
желательно отступать более чем на (0,1..0,2) ширины интервала, а
целесообразно принимать значения, кратные ширине интервале
Определяем число интервалов группирования экспериментальных
данных
.(3.7)
Для
сравнительно
небольших
объемов
выборки
(n<100)
рекомендуется принимать значение k = 4…8. При слишком большом числе
интервалов картина распределения будет искажена случайными зигзагами
частот, слишком малочисленных при узких промежутках. При слишком
малом
k
будут
сглажены
и
затушеваны
характерные
особенности
распределения. В оптимальном случае в каждом из интервалов ki должно
быть не менее 5 значений экспериментальных данных (признака xi).
При выборе k также рекомендуется корректировать значения
x ′max , x ′min и ΔX для того, чтобы значение k было равно целому числу. При
′
округлении в меньшую сторону необходимо следить за тем, чтобы x max
попало в последний интервал.
В каждом из интервалов ki определяем значение середины интервала
и число экспериментальных значений xi попавших в интервал, т.е. частоту
ni рассматриваемых событий.
158
§ 6. Расчет среднего значения и доверительного интервала
Среднее значение экспериментального распределения рассчитываем
следующим образом
,
(3.8)
,
(3.9)
или
где mi – относительная частота (частость) экспериментальных значений,
попавших в i-й интервал вариационного ряда. Среднее значение при этом, в
соответствии
с
законом
больших
чисел
является
приближенной
экспериментальной оценкой математического ожидания m(x).
Оценка среднего значения
, рассчитанная на основании результатов
эксперимента (по выборке объема n) не позволяет непосредственно ответить
на вопрос, какую ошибку можно совершить, принимая вместо точного
значения (математического ожидания m(x)) его приближенное значение
.В
связи с этим во многих случаях при решении практических инженерных
задач рекомендуется пользоваться интервальной оценкой, основанной на
определении некоторого интервала, внутри которого с определенной
(доверительного) вероятностью pd находится неизвестное значение m(x).
Такой интервал называется доверительным, а его границы – доверительными
и определяются следующим образом
,
где
(3.10)
– предельная абсолютная ошибка (погрешность) интервального
оценивания
математического
ожидания,
159
характеризующая
точность
проведенного
эксперимента
и
численно
равная
половине
ширины
доверительного интервала.
Для n 30 оценка
определяется по формуле
,(3.11)
где
при
– значение критерия (квантиля) распределения Стьюдента,
односторонней
точности
оценки
доверительной вероятности pd=1–
параметра,
соответствующее
и числу степеней свободы
=n–1,
определяемое по таблицам распределения Стьюдента (табл. 3.2).
Для объема выборки n>30
.(3.12)
Таблица 3.2
Значения критерия Стьюдента
5
10
15
20
25
30
36
40
50
=0,05 2,02 1,81 1,75 1,73 1,71 1,70 1,69 1,68 1,67
=0,1
1,48 1,37 1,34 1,33 1,32 1,31 1,30 1,30 1,299
70
100
300
1,66
1,65
1,64
1,294
1,29
1,284
Относительная точность оценки математического ожидания определяется по соотношению
,
и
характеризует
интервала.
относительную
Значение
в
ширину
решении
автомобилей рекомендуется принимать
можно принять и
(3.13)
задач
половины
технической
доверительного
эксплуатации
=0,05-0,15. В некоторых случаях
=0,2. Например, при ( =0,1 половина ширины
доверительного интервала будет равна 10% от , следовательно, чем ниже ,
тем более
точны
будут результата
проведенного эксперимента.
160
прогнозирования
на основании
§
7.
Расчет
показателей
вариации
экспериментального
распределения
Средние величины, характеризуя вариационной ряд числом, не
отражают изменчивости наблюдавшихся значений признака, т.е. вариацию.
Простейшим измерителем вариации признака является размах вариации
.
(3.14)
На размах вариации не влияют любые изменения промежуточных
значений признака. Кроме этого на крайние значения могут влиять
случайные
причины.
Таким
образом,
размах
вариации
–
весьма
приближенная характеристика рассеивания признака.
В
обработке
результатов
эксперимента
наибольший
интерес
представляет группировка значений признака около среднего значения, их
разброс относительно среднего значения. Поэтому на практике и в
теоретических исследованиях чаще всего используют оценку дисперсии
вариационного ряда и ее производные.
Дисперсию вариационного ряда определяют по формулам:
для объема выборки n 30
,(3.15)
при n>30
.(3.16)
Недостатком дисперсии является то, что она имеет размерность
квадрата случайной величины и поэтому не обладает должной наглядностью.
Поэтому на практике чаще всего используют эмпирическое среднее
квадратическое отклонение
.(3.17)
161
Значение
характеризует рассеивание, разброс значений признака
около его среднего .
Коэффициент вариации
(3.18)
характеризует
относительную
меру
рассеивания
значений
признака.
Значение vx, умноженное на 100% даёт размах колебаний выборки в % вокруг
среднего значения. Чем меньше значение vx, тем плотнее группируются
признаки вокруг среднего , тем, следовательно, меньше рассеивание.
§ 8. Определение минимального количества измерений
Для
проведения
экспериментальных
точностью ( , ) и достоверностью ( ,
исследований
с
заданной
) необходимо знать то количество
измерений nmin, при котором экспериментатор уверен в положительном
исходе. В связи с этим одной из первоочередных задач при статистических
методах оценки является установление минимального, но достаточного числа
измерений nmin для данных условий. Задача сводится к установлению nmin при
заданных значениях
и
(или
)
(3.19)
Для
определения
nmin
может
быть
принята
следующая
последовательность вычислений:
–
проводится предварительный эксперимент с количеством
измерений n≈20…50;
–
–
вычисляются оценки ,
принимаются
фактические значения
и
и
значения
;
(или
)
и
рассчитываются
и сравниваются с допустимыми для решения
рассматриваемой задачи;
162
–
по специальным таблицам определяют критическое (табличное)
;
значение критерия Стьюдента
по формуле (3.19) определяется nmin
–
Возможны два случая.
а). Для принятого
и фактического
решения рассматриваемой задачи
(если оно допустимо для
≈0,05…0,15) n ≥ nmin.
б). Фактическое количество экспериментальных данных n < nmin. В
этом случае различают следующие варианты:
1.
Провести (если возможно) дополнительные эксперименты до
уровня nmin;
2. Снизить уровень
3.
=0,05 до
(например, с
=0,05 до
=0,1);
Снизить требования к точности результатов эксперимента с
=0,15;
4. Методом статистического моделирования (методом Монте-Карло)
получить недостающее количество результатов эксперимента.
§ 9. Проверка экспериментальных данных на воспроизводимость
результатов
Выше были рассмотрены общие методы проверки результатов
экспериментальных
исследований
на
точность
и
достоверность.
Ответственные эксперименты должны быть проверены также и на
воспроизводимость. Воспроизводимость результатов эксперимента – их
повторяемость в определённых пределах измерений с заданной точностью
(достоверной вероятностью b).
Под
объединения
воспроизводимостью
нескольких
также
выборок
в
понимается
одну.
Например,
возможность
в
случае
подконтрольной эксплуатации автомобилей, если проведены исследования
надёжности в различных автотранспортных предприятиях.
Допустим имеется несколько (m) параллельных опытов (серий). Для
каждой серии вычисляются и d(x).
163
Рассчитывается расчётное значение критерия Кохрена kрасч.
,
(9.20)
– наибольшее значение дисперсий из числа рассматриваемых
где
параллельных серий m;
– сумма дисперсий из серий.
(или
По заданной точности
) и числу степеней свободы q=n–1
определяется табличное (критическое) значение критерия Кохрена kтабл,
принимаемое в зависимости от уровня
(или
) и числа степеней свободы
q=n–1.
Если
.то
результаты
эксперимента
считаются
воспроизводимыми.
§ 10. Расчет эмпирических интегральной и дифференциальной функций
распределения
Более полное, а главное, обобщенное представление о результатах
эксперимента дают не абсолютное, в относительные (удельные) значения
полученных
данных.
Так,
вместо
абсолютных
значений
числа
экспериментальных данных в интервале ni, целесообразно подсчитать долю
рассматриваемых событий в интервале, приходящуюся на одно изделие
(деталь, узел, агрегат или автомобиль) из числа находящихся под
наблюдением,
т.е.
на
единицу
выборки.
Эта
характеристика
экспериментального распределения называется относительной частотой
(частостью) mi, появления рассматриваемого события (значений признака xi)
.
(9.21)
Относительная частота mi при этом, в соответствии с законом
больших
чисел
(теорема
Бернулли)
является
приближенной
экспериментальной оценкой вероятности появления события p(xi)
164
Значения
экспериментальных
точек
интегральной
функции
рассчитывают как сумму накопленных частостей mi в
распределения
каждом интервале ki. В первом интервале
=m1+m2; в третьем
=m1; во. втором интервале
=m1+m2+m3 и т.д., т.е.
.
изменяются в интервале [0; 1],
Таким образом, значения
однозначно
определяют
(3.22)
распределение
относительных
частот
в
интервальном вариационном ряду.
Другим удельным показателем экспериментального распределения
является дифференциальная функция
, определяемая как отношение
частости mi к длине интервала
(3.23)
и
характеризующая
долю
рассматриваемых
событий
в
интервале,
приходящихся на одно испытываемое изделие и на величину ширины
интервала. Функция
также еще называется плотностью вероятности
распределения.
Наиболее наглядной формой представления результатов эксперимента
является графическая и табличная. Поэтому необходимо полученные
результаты свести в таблицу, например, по образцу табл. 3.3, а также
представить в виде графиков – гистограммы и полигона экспериментальных
значений относительной частоты mi или дифференциальной функции
графика интегральной функции распределения
165
(рис. 3.1–3.2).
и
§ 11. Физический смысл интегральной и дифференциальной
функций распределения
Интегральной функцией распределения случайной величины xi
называется функция f(xi) действительного переменного x, определяющая
вероятность того, что случайная величина xi в результате эксперимента
примет значение, меньшее некоторого фиксированного (заданного) числа x
f(xi)=p(xi<x).
(3.24)
Если в качестве случайной величины xi рассматриваются пробеги
автомобиля li до момента отказа (по какому-либо узлу или агрегату), то
функция f(li) называется функцией вероятности отказа. Например, пусть l0 –
заданная наработка (пробег) до отказа (планируемый межремонтный пробег,
пробег до капитального ремонта и т.п.), то функция f(xi)=p(xi<l0) показывает
вероятность того, что пробег li от начала отсчета до появления отказа
окажется меньше заданного пробега l0 или, иначе, эта функция показывает
вероятность того, что отказ произойдет в интервале от 0 до l0. Например, по
результатам эксперимента на пробеге li=125 тыс.км значение функции
f(li)=0,874. Физический смысл данной величины заключаетсяв том, что с
вероятностью p(li)=0,874 данный агрегат потребует ремонта на пробеге
меньшем или равном li=125 тыс.км. Другими словами, 87,4% парка
автомобилей (генеральной совокупности) будут иметь потребность в ремонте
рассматриваемого агрегата в интервале пробега li=0..125 тыс.км.
Функция f(xi) однозначно определяет распределение вероятностей
p(xi)случайной величины. Для каждого интервала [a, b] справедливо
следующее соотношение
.
(3.25)
Прикладной смысл данного соотношения в следующем. Если,
допустим, в условиях предыдущего примера, на пробеге li=100 тыс.км
f(li)=0,761, то вероятность того, что отказ агрегата произойдет именно в
интервале пробега
=100..125 тыс.км равна
166
=0,874-0,761=0,113. Таким образом, 11,3% парка автомобилей будут иметь
отказ по данному агрегату именно в интервале пробега от 100 до 125 тыс.км.
Если
случайной
величиной
является
продолжительность
или
трудоемкость ti выполнения какой-либо операции ТО или ремонта, то
значение интегральной функции характеризует вероятность того, что
рассматриваемся продолжительность или трудоемкость будет меньше или
равна t0.
Дифференциальной
функцией
f(xi)
распределения
случайной
величины x называется предел отношения вероятности p(xi) попадания этой
случайной величины на элементарный участок от x до x+ x к длине этого
участка
x при стремлении
x к нулю, т.е.
.
(3.26)
Дифференциальная функция f(xi) характеризует как бы плотность, с
которой распределяются значения случайной величины в данной точке и
поэтому называется еще плотностью вероятности распределения случайной
величины. Таким образом, ее физический смысл заключается в том, что она
характеризует вероятность появления исследуемой случайной величины на
достаточно малом интервале.
Если в качестве случайной величины x рассматриваются результаты
испытаний автомобилей на надежность, характеризуемые пробегами li до
момента отказа, то функция f(xi) характеризует вероятность возникновения
отказа за достаточно малый пробег при работе узла, агрегата, детали без
замены.
Результаты эксперимента, выраженные в дифференциальной форме,
также широко используются в решении многих практических задач
автомобильного транспорта. Например, значение f(li), характеризующее
плотность вероятности возникновения отказа по какому-либо агрегату или
узлу автомобиля в интервале пробега от l1=140 тыс. км до l2=150 тыс.км
равно f(li)=0,009. Допустим, что парк автомобилей, данной модели составляет
167
n=320 ед. Количество отказов, которые могут произойти на интервале
определится по формуле
,
(3.27)
ni=0,009×320×10»29
Зная количество отказов, которые могут произойти на каждом из
интервалов, можно соответствующим образом технической службе АТП
подготовиться к их устранению. Умножая значение f(li) на величину
интервала пробега
, можно получить оценку вероятности отказа в
данноминтервале
.
(3.28)
Для того же примера p(140тыс.км li 150тыс.км)=0,009×10=0,09.
Таким образом, примерно 9% парка автомобилей будут иметь отказы в
рассматриваемом интервале пробега.
§ 12. Пример статистической обработки результатов
эксперимента
На основании анализа лицевых карточек автомобилей проведено
исследование ресурса шин m-130 645х13 при эксплуатации автомобилей ИЖ2715 вусловиях г.Минска. Всего было обследовано n=40 автомобилей.
Пробеги li(в тыс.км) до замены шин распределились следующим образом:
15,721,222,124,524,525,128,028,529,130,0
30,131,231,531,732,232,532,532,533,233,4
34,835,836,436,737,337,437,638,739,840,6
40,640,841,844,745,645,645,646,546,846,8
По формуле (З.5) имеем
Принимаем
l=5 тыс.км.
По формуле(3.6) lmin=15,7-0,15×5=14,95;lmax=49,9-0,15×5=48,65
Принимаем lmin=15 тыс.км, lmax=50 тыс.км.
168
По формуле (3.7)
.
Результаты расчета ni, mi, f(li), f(li) заносим в табл. 3.3.
Таблица 3.3
Результаты интервальной обработки экспериментальное данных
Наименование
Обозна-
параметра
чение
Границы интервалов
Середины интервала
[a; b]
Частота
Относительная
частота (частость)
Накопленная частота
ni
mi
Оценка интегральной
функции
Оценка
дифференциальной
функции
f(
)э
f(
)э
Номер интервала, ki
1
2
3
4
5
6
7
15;20 25;25 25;30 30;35 35;40 40;45 45;50
17,5 22,5 27,5 32,5 37,5 42,5 47,5
1
0,025
4
0,1
1
5
5
11
0,125 0,275
10
21
0,025 0,125
0,25
0,005
0,025 0,055
0,02
8
0,2
5
0,125
6
0,15
29
34
40
0,85
1,0
0,025
0,03
0,525 0,725
0,04
По формуле (3.9)
=17,5×0,025+22,5×0,1+27,5×0,125+32,5×0,275+
+37,5×0,2+42,5×0,125+47,5×0,15=35,38 тыс.км
Принимаем
=0,05, из табл. 3.2 для
=40–1=39 методом линейной
интерполяции имеем t0,05;39=1,6825. По формуле (3.16)
d(x)=
[(17,5–35,38)2×1+…+(47,5–35,38)2×6]=63,89 (тыс.км)2
(тыс.км)
По формуле (3.12)
По
формуле
=1,6825
(3.10)
=2,15(тыс.км)
(35,38–2,15)
<m(l)<
(35,38+2,15),
т.е.
32,23<m(l)<37,53 тыс.км. Таким образом, с вероятностью pd=1– =1–
169
0,05=0,95 математическое ожидание ресурса шин будет находиться в
интервале от 32,23 тыс.км до 37,53 тыс.км и только 5% значений генеральной
совокупности будут иметь математическое ожидание вне этого интервала.
По формуле (3.13) имеем
.
Это значит, что половина ширины доверительного интервала
составляет 6% от величины среднего значения и характеризует таким
образом относительную точность оценки математического ожидании.
Другими словами, с доверительной вероятностью pd=0,95 относительная
ошибка при оценке среднего значения не превысит ±6%.
Размах вариации результатов эксперимента составляет w=47,9–
15,7=32,2 тыс.км, а коэффициент вариации vx=7,99/35,38=0,22. Из этого
следует, что размах колебаний выборки вокруг среднего значения составляет
22%.
Нормативный ресурс данных шин, скорректированный к условиям
работы автомобилей в г.Минске составляет 37 тыс.км. Из анализа
результатов расчета и табл.3.3 следует, что нормативное значение ресурса
соответствует интервалу k=5 с границами [35; 40] тыс. км. Для данного
интервала m5=0,2, это значит, что пробег до замены 20% шин из числа
обследованных соответствует нормативному ресурсу. Значение оценки
интегральной функции в интервале k=4 с границами [30; 35] тыс.км равно
f(li=32,5 тыс.км)=0,525. Из этого следует, что 52,5% шин имеют ресурс менее
нормативного, из них 2,5% (m1=0,025) имеют ресурс в интервале [15; 20] тыс.
км; 10% – в интервале [20; 25] тыс.км (m2=0,1); 12,5% – в интервале [25; 30]
тыс. км (m3=0,125) и 27,5% шин – в интервале [30; 35] тыс.км (m4= 0,275).
Кроме этого m6+m7=0,125+ 0,15=0,275, из чего следует, что 27,5 шин имеют
ресурс, превышающий нормативный.
170
Результаты
статистической
обработки
данных
исследования
графически представлена на рис. 3.1–3.2 в виде гистограммы и полигона
экспериментальных значений дифференциальной функции f(
интегральной функции распределения f(
)э и кумуляты
)э
Рис. 3.1. Гистограмма (1) и полигон (2) экспериментальных значений дифференциальной
функции распределения ресурса шин
Рис.3.2. Кумулята экспериментальных значений интегральной функции распределения
ресурса шин
171
Список литературы
1. Борель Э. Вероятность и достоверность. – М.: Физматгиз, 1969.
2. Боровков А.А. Теория вероятностей. – М.: Наука, 1976.
3. Вентцель Е.С. Теория вероятностей. – М.: Наука, 1964.
4. Гнеденко Б.В. Курс теории вероятностей. – М.: Физматгиз, 1969.
5. Гмурман В.Е. Теория вероятностей и математическая статистика. – М.:
Высш. Школа, 1977.
6. Коваленко
И.Н.,
Филиппова
А.А.
Теория
вероятностей
и
математическая статистика. – М.: Высш. Школа, 1982.
7. Прохоров Ю.В., Розанов Ю.А. Теория вероятностей. – М.: Наука, 1967.
8. Пугачев В.С. Теория вероятностей и математическая статистика. – М.:
Наука, 1979.
9. Пытьев Ю.П., Шишмарев И.А. Курс теории вероятностей и
математической статистики для физиков. – М.: Изд-во Моск. Ун-та,
1983.
10. Ван дер Варден Б.Л. Математическая статистика. – М.: ИЛ, 1960.
11. Кнут Д.Э. Искусство программирования. 3-е изд. Т. 2. — М.:2001 —
648 с.
172
Download