Uploaded by n.yurasov

Домашнее задание 1

advertisement
Домашнее задание 1
Юрасов Никита Андреевич
Обновлено 28 ноября 2019 г.
Содержание
1 Описание основных характеристик
1.1 Распределение Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Распределение Эрланга . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2
4
2 Поиск примеров событий
2.1 Распределение Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Распределение Эрланга . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
8
3 Моделирование
10
3.1 Распределение Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Распределение Эрланга . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Все графики, которые в дальнейшем будут вставлены в эту работу, были сконструированы с помощью библиотеки matplotlib в Jupyter Notebook, который будет приложен вместе с работой (ДЗ1.ipynb).
Все формулировки определений были взяты из книги А. В. Иванова «Теория Вероятностей (Краткий курс)»
1
Для выполнения работы были выбраны два распределения:
1. Дискретное распределение: распределение Пуассона
2. Непрерывное распределение: распределение Эраланга
1
Описание основных характеристик
1.1
Распределение Пуассона
Пусть случайная величина задается законом распределением:
𝑓 (𝑥) =
𝜇𝑥 −𝜇
𝑒 ,
𝑥!
𝜇 > 0, 𝑥 ∈ N
(1)
Функция распределения:
𝐹𝜉 (𝑥) = 𝑃 (𝜉 < 𝑥) =
𝑥−1 𝑘
∑︁
𝜇
𝑘=0
𝑘!
𝑒−𝜇 ,
𝜇 > 0, 𝑥 ∈ N
(2)
Математическое ожидание
Определение 1.1. Математическое ожидание неотрицательной дискретной случайной величины называется:
∑︁
∑︁
𝐸𝜉 =
𝑎𝑖 𝑝𝑖 =
𝑎𝑖 𝑃 (𝜉 = 𝑎𝑖 )
𝑖
𝑖
Тогда, из этого определения можно вывести математическое ожидание распределения Пуассона (1):
∞
∞
∞
∞
∑︁
∑︁
∑︁
∑︁
𝜇𝑘 −𝜇
𝜇𝑘
𝜇𝑘−1
𝜇𝑚
−𝜇
−𝜇
−𝜇
𝐸𝜉 =
𝑘 𝑒 =𝑒
= 𝜇𝑒
= 𝜇𝑒
= 𝜇𝑒−𝜇 𝑒𝜇 = 𝜇
𝑘!
(𝑘
−
1)!
(𝑘
−
1)!
𝑚!
𝑚=0
𝑘=0
𝑘=1
𝑘=1
Дисперсия
Определение 1.2. Дисперсия – это такое число, которое выражается вторым
центральным моментом
𝐷𝜉 = 𝐸(𝜉 − 𝐸𝜉)2
(3)
Чтобы посчитать дисперсию случайно величины 𝜉 проще всего воспользоваться
выводом факториальных моментов.
Определение 1.3. Факториальный момент - это число 𝐸𝜉 [𝑚] = 𝐸𝜉(𝜉 − 1) . . . (𝜉 −
− 𝑚 + 1)
Тогда:
∞
∑︁
𝜇𝑘−2
𝜇𝑘 −𝜇
2 −𝜇
= 𝜇2 𝑒−𝜇 𝑒𝜇 = 𝜇2
𝐸𝜉(𝜉 − 1) =
𝑘(𝑘 − 1) 𝑒 = 𝜇 𝑒
𝑘!
(𝑘 − 2)!
𝑘=2
𝑘=0
∞
∑︁
Если 𝐸𝜉 2 = 𝐸𝜉(𝜉 − 1) + 𝐸𝜉 = 𝜇2 + 𝜇, а 𝐷𝜉 = 𝐸𝜉 2 − (𝐸𝜉)2 , то 𝐷𝜉 = 𝜇2 + 𝜇 − 𝜇2 = 𝜇
В итоге мы получили для распределения Пуассона 𝐸𝜉 = 𝜇, 𝐷𝜉 = 𝜇
2
Производящая и характеристическая функции
Определение 1.4. Производящей функцией случайной величины 𝜉 называется функция
∞
∑︁
𝜉
𝜙𝜉 (𝑧) = 𝐸𝑧 =
𝑧 𝑘 𝑝𝑘 , 𝑧 ∈ C, |𝑧| ≤ 1
𝑘=0
Определение 1.5. Характеристической функцией произвольной случайно величины 𝜉 называется функция действительного аргумента при дискретном распределении:
∞
∑︁
𝑔(𝑡) =
𝑒𝑖𝑡𝑘 𝑃 (𝜉 = 𝑘)
𝑘=0
Производящая функция для распределения Пуассона:
𝜙𝜉 (𝑥) =
∞
∑︁
𝜇𝑘
𝑘=0
𝑘!
𝑒−𝜇 𝑧 𝑘 = 𝑒−𝜇
∞
∑︁
(𝜇𝑧)𝑘
𝑘=0
𝑘!
= 𝑒−𝜇 𝑒𝜇𝑧 = 𝑒𝜇(𝑧−1)
Характеристическая функция:
𝑔(𝑡) =
∞
∑︁
f(x)
𝑘=0
𝑒
𝑖𝑡𝑘 𝜇
𝑘
𝑘!
𝑒
−𝜇
−𝜇
=𝑒
∞
∑︁
(𝜇𝑒𝑖𝑡 )𝑘
𝑘=0
𝑘!
𝑖𝑡
𝑖𝑡 −1)
= 𝑒−𝜇 𝑒𝜇𝑒 = 𝑒𝜇(𝑒
0.39
0.36
0.33
0.30
0.27
0.24
0.21
0.18
0.15
0.12
0.09
0.06
0.03
0.00
=1
=2
=3
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
x
Рис. 1: Распределение Пуассона
3
1.2
Распределение Эрланга
Пусть случайная величина задается распределением:
𝑓 (𝑥) =
𝜆𝑚
𝑥𝑚−1 𝑒−𝜆𝑥 ,
(𝑚 − 1)!
𝑥, 𝜆 ∈ R,
𝑥, 𝜆 > 0, 𝑚 ∈ N
(4)
Найдем функцию распределения по определению:
∫︁𝑥
𝐹 (𝑥) = 𝑃 (𝜉 ≤ 𝑥) =
𝜆𝑚
𝑓 (𝑥) 𝑑𝑥 =
Γ(𝑚)
−∞
∫︁𝑥
𝑥𝑚−1 𝑒−𝜆𝑥 𝑑𝑥
0
Либо же, функцию распределения можно выразить через закон Пуассона:
𝐹 (𝑥) = 1 −
𝑛−1
∑︁
(𝜆𝑥)𝑘
𝑘!
𝑘=0
𝑒−𝜆𝑥
Математическое ожидание
Определение 1.6. Математическое ожидание произвольной непрерывной
∫︀ случайной величины 𝜉(𝜔) называется интеграл Лебега от нее по мере P: 𝐸𝜉(𝜔) = 𝜉(𝜔) 𝑃 (𝑑𝜔).
Ω
При абсолютной сходимости: 𝐸𝜉(𝜔) =
+∞
∫︀
𝑥𝑓 (𝑥) 𝑑𝑥.
−∞
Согласно определению 1.6 можно получить математическое ожидание распределения
Эрланга:
∫︁+∞
𝐸𝜉 =
𝑥
𝜆𝑚
𝑥𝑚−1 𝑒−𝜆𝑥 = делаем замену 𝑧 = 𝜆𝑥 =
(𝑚 − 1)!
∫︁+∞
𝑧 𝜆𝑚 𝑧 𝑚−1 −𝑧 𝑑𝑧
𝑒
=
𝜆 (𝑚 − 1)! 𝜆𝑚−1
𝜆
0
0
= Γ(𝑛) = (𝑛 − 1)! =
1
𝜆Γ(𝑚)
∫︁+∞
𝑧 𝑚 𝑒−𝑧 𝑑𝑧 =
Γ(𝑚 + 1)
𝑚!
𝑚
=
=
𝜆Γ(𝑚)
𝜆(𝑚 − 1)!
𝜆
0
Дисперсия
Определение 1.7. Дисперсией случайной величины 𝜉, имеющей 𝐸𝜉, называется
число:
𝐷𝜉 = 𝐸(𝜉 − 𝐸𝜉)2 = 𝐸𝜉 2 − (𝐸𝜉)2
По определению 1.7 найдем дисперсию распределения Эрланга:
∫︁+∞
𝐸𝜉 =
𝑥2
2
𝜆𝑚
𝑥𝑚−1 𝑒−𝜆𝑥 𝑑𝑥 = сделаем замену 𝑧 = 𝜆𝑥 =
(𝑚 − 1)!
0
∫︁+∞
𝑧 𝑚+1 𝜆𝑚 𝑒−𝑧 𝑑𝑧
=
𝜆𝑚+1 (𝑚 − 1)!𝜆
0
∫︁+∞
(𝑚 + 1)!
(𝑚 + 1)𝑚
1
Γ(𝑚 + 2)
= 2
𝑧 𝑚+1 𝑒−𝑧 𝑑𝑧 = 2
= 2
=
𝜆 Γ(𝑚)
𝜆 Γ(𝑚)
𝜆 (𝑚 − 1)!
𝜆2
0
Тогда: 𝐷𝜉 = 𝐸𝜉 2 − (𝐸𝜉)2 =
(𝑚+1)𝑚
𝜆2
−
(︀ 𝑚 )︀2
𝜆
=
4
𝑚
𝜆2
Характеристическая функция
Определение 1.8. Характеристической функцией непрерывной случайной величины называют функцию от действительного аргумента
𝑖𝑡𝜉
𝑔(𝑡) = 𝑔𝜉 (𝑡) = 𝐸𝑒
∫︁
𝑖𝑡𝑥
𝑒
=
∫︁+∞
𝑑𝐹 (𝑥) =
𝑒𝑖𝑡𝑥 𝑓 (𝑥) 𝑑𝑥
−∞
R
Найдем характеристическую функцию распределения Эрланга по определению:
𝑔(𝑡) = 𝐸𝑒𝑖𝑡𝜉
+∞
∫︁+∞
𝑚 𝑚−1 −𝜆𝑥
𝑚 ∫︁
𝜆
𝑥
𝑒
𝜆
=
𝑒𝑖𝑡𝑥
𝑑𝑥 =
𝑥𝑚−1 𝑒−𝑥(𝜆−𝑖𝑡) 𝑑𝑥 = замена 𝑦 = 𝑥(𝜆 − 𝑖𝑡) =
(𝑚 − 1)!
Γ(𝑚)
0
𝜆𝑚
Γ(𝑚)
0
f(x)
=
∫︁+∞
0
+∞
∫︁
𝑦 𝑚−1 𝑒−𝑦
𝑑𝑦
𝜆𝑚
𝜆𝑚 Γ(𝑚)
𝜆𝑚
𝑚−1 −𝑦
=
𝑦
𝑒
𝑑𝑦
=
=
=
(𝜆 − 𝑖𝑡)𝑚−1 𝜆 − 𝑖𝑡
Γ(𝑚)(𝜆 − 𝑖𝑡)
Γ(𝑚)(𝜆 − 𝑖𝑡)𝑚
(𝜆 − 𝑖𝑡)𝑚
0
)︂𝑚 (︂
)︂−𝑚 (︂
)︂−𝑚
(︂
𝜆 − 𝑖𝑡
𝑖𝑡
𝜆
=
= 1−
=
𝜆 − 𝑖𝑡
𝜆
𝜆
0.20
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0.00
m=1,
m=2,
m=3,
m=5,
m=9,
0
10
20
30
40
50
x
60
70
80
Рис. 2: Плотность распределения Эрланга
5
90
=0.2
=0.2
=0.2
=0.2
=0.2
2
Поиск примеров событий
2.1
Распределение Пуассона
Типичная интерпретация
Распределение Пуассона описывает вероятность наступление 𝑘 независимых событий
за какое-то фиксированное время 𝑡 с интенсивностью 𝜆.
Нетипичная интерпретация
Распределение Пуассона играет большую роль в ставках на спорт [3]. Зная определенные коэффициенты, связанные с командами, можно рассчитать вероятность
количества забитых голов той или иной командой и даже предсказать ставки, которые выставит букмекер.
Можно сказать, что сумма голов в матче подчиняется распределению Пуассона,
а раз сумма распределена по Пуассону, то и каждый гол в свою очередь распределен
по этому закону.
Пусть, для определенности, в один промежуток времени можно забить всего один
гол, а каждый забитый гол является независимым событием.
Опишем некоторые вспомогательные значения:
∙ Среднее количество забитых мячей дома (на выезде) в сезоне по всем командам:
[︁ кол-во голов в сезоне ]︁
𝜇𝑖𝑛 , 𝜇𝑜𝑢𝑡 =
кол-во матчей
∙ Усредненный и взвешенный показатель забитых голов дома и на выезде:
∑︀
забитых дома
𝒜𝑖𝑛 =
19/𝜇𝑖𝑛
∑︀
забитых на выезде
𝒜𝑜𝑢𝑡 =
19/𝜇𝑜𝑢𝑡
∙ Усредненный и взвешенный показатель пропущенных голов дома и на выезде:
∑︀
пропущенные дома
𝒟𝑖𝑛 =
19/𝜇𝑜𝑢𝑡
∑︀
пропущенные на выезде
𝒟𝑜𝑢𝑡 =
19/𝜇𝑖𝑛
NB! Во всех значениях, описанных выше, важно учитывать где команда играет и
где забивает голы.
Пусть у нас есть будущая игра X против Y. Тогда, чтобы рассчитать примерное
показатель забитых голов в матче, воспользуемся формулами для расчета параметров каждой команды:
𝜆𝑋 = 𝒜𝑖𝑛𝑋 × 𝒟𝑜𝑢𝑡𝑌 × 𝜇𝑖𝑛
𝜆𝑌 = 𝒜𝑜𝑢𝑡𝑌 × 𝒟𝑖𝑛𝑋 × 𝜇𝑜𝑢𝑡
6
Получив параметр 𝜆 для каждой команды, можно найти вероятность количества
голов в предстоящем противостоянии по формулам:
𝑃𝑋 (𝑘) =
(𝜆𝑋 )𝑘 −𝜆𝑋
𝑒
− вероятность k голов, забитых командой X
𝑘!
(𝜆𝑌 )𝑘 −𝜆𝑌
𝑒
− вероятность k голов, забитых командой Y
𝑘!
Как нетрудно заметить, формулы для вычисления количества голов есть закон распределения Пуассона с параметром 𝜆𝑖 .
𝑃𝑌 (𝑘) =
Известные соотношения
1. Биноминальное распределение −→ распределение Пуассона
𝑃 (𝜉 = 𝑘) = lim
𝑥→∞
𝐶𝑛𝑘 𝑝𝑘 (1
𝑛−𝑘
− 𝑝)
= 𝑝=
𝑘
𝑘𝜇
𝐶𝑛 𝑘
𝜇 )︁𝑛−𝑘
= 0 = lim
1−
=
𝑛→∞
𝑛
𝑛
(︀
)︀𝑛
(︀
)︀−𝑘
= lim 1 − 𝑛𝜇 = 𝑒−𝜇 , lim 1 − 𝑛𝜇
=1,
𝜇
, lim 𝑝
𝑛 𝑛→∞
(︁
)︂
𝜇𝑘 (︁
𝜇 )︁−𝑘
𝜇 )︁𝑛 (︁
1
−
1
−
𝑛→∞
𝑛→∞
𝑛𝑘
𝑛
𝑛
𝑛−𝑘+1
𝑛 𝑛−1 𝑛−2
𝑛!
= фиксируем 𝑘 = lim ·
·
···
= 1.
также lim
𝑘
𝑛→∞ 𝑛
𝑛→∞ (𝑛 − 𝑘)!𝑛
𝑛
𝑛
𝑛
𝜇𝑘
В итоге: 𝑃 (𝜉 = 𝑘) = 𝑒−𝜇
𝑘!
𝑛!
= lim
𝑛→∞ (𝑛 − 𝑘)!𝑘!
(︂
2. Распределение Пуассона ←→ показательное распределение
(𝜇𝑡)𝑘 −𝜇𝑡
𝑒
𝑘!
𝑃 (𝜉 = 0) = 𝑒−𝜇𝑡
𝑃 (𝜉 > 0) = 𝑒−𝜇𝑡
𝑃 (𝜉 ≤ 0) = 1 − 𝑒−𝜇𝑡
𝑃 (𝜉 = 𝑘) =
А это функция показательного распределения
3. Распределение Пуассона −→ Нормальное (Гаусса) распределение
При увеличении параметра 𝜆 распределение Пуассона стремится
к нормальному
√
распределению (распределению Гаусса) с параметрами 𝜎 = 𝜆 и сдвигом 𝜆.
Для вывода нужно воспользоваться формулой Стирлинга:
√
𝜃
𝑛! = 𝑛𝑛 𝑒−𝑛 2𝜋𝑛 · 𝑒− 12𝑛 (1+𝑂(1/𝑛)) , 𝑛 → ∞, 0 < 𝜃 < 1
Разложение в ряд Тейлора 𝑙𝑛( 𝜆𝑘 )𝑘 в окрестности точки 𝑘 = 𝜆:
(︂ )︂𝑘
𝜆
(𝑘 − 𝜆)2
𝑙𝑛
= −(𝑘 − 𝜆) −
+ 𝑂(𝑘 − 𝜆)3
𝑘
2𝜆
√
√
𝑘≈ 𝜆
Тогда:
(𝑘−𝜆)2
1
𝑃 (𝜉 = 𝑘) = √
· 𝑒− 2𝜆
2𝜋𝜆
7
2.2
Распределение Эрланга
Типичная интерпретация
Распределение Эрланга является одним из основных распределений математической
статистики для получения случайных величин. Так как параметра 𝑚 – целое число,
распределение Эраланга описывает время, необходимое, для появления ровно 𝑚 событий при условии, что они независимы и появляются с постоянной интенсивностью
𝜆.
Распределение Эрланга (частный случай гамма-распределения) можно увидеть в
диагностировании рака на разных временных этапах жизни человека. Считается, что
на появление рака влияют канцерогенные факторы (одного общепринятого списка не
существует, но для определенности будем считать, что таков список существует и он
конечен), в последовательно проявлении которых возникает рак 1-й степени. Список
видов рака обширен, но в дальнейшем будут рассмотрены 20 самых часто появляющихся видов. Если рассматривать появление любого вида рака в любой момент
времени жизни человека (от 0 до 100 лет), то можно построить график, который
очень схож с плотностью распределения Эрланга: «вероятность» появления рака в
раннем возрасте и глубокой старости близка к 0, а в середине жизни (35-55 лет) достигает своего пика. В дальнейшей работе будет рассмотрена самая обширная база
данных США по статистке рака с 1999 по 2015 года, а так же проиллюстрирована
аппроксимация распределения Эрланга (с разными параметрами для каждого вида
рака) к реальным данным.
Нетипичная интерпретация
Применение распределения Эрланга можно найти в организации промышленных перевозок [2].
Пусть у нас есть какой-то поток поездов, который ездит по одному маршруту и
прибывает на одну и ту же станцию. Тогда разобьем весь отрезок времени, в который приходят поезда, на интервалы точками 𝑡0 , 𝑡1 , 𝑡2 , · · · , 𝑡𝑘 и будем их считать в
какой-то условно выбранной величине T. Тогда можно получить отрезки, в которые
поезда прибывают: (𝑡0 , 𝑡1 ), (𝑡1 , 𝑡2 ), · · · , (𝑡𝑘−1 , 𝑡𝑘 ). Определим числовые характеристики
для полученных отрезков:
𝑀 (𝑡) =
𝑘
∑︁
𝑃𝑖 𝑡𝑖 − математическое ожидание;
𝑖=1
𝐷(𝑡) = 𝛼2 − [𝑀 (𝑡)]2 − дисперсия;
√︀
𝛿(𝑡) = 𝐷(𝑡) − среднеквадратичное отклонение,
где 𝑃𝑖 вычисляется следующим образом: найдем количество поездов 𝑚𝑖 , которые
прибыли в данный отрезок времени (𝑡𝑖−1 , 𝑡𝑖 ), и поделим на общее количество поездов
N (𝑃𝑖 = 𝑚𝑁𝑖 ), а 𝑡𝑖 – есть отрезок (𝑡𝑖−1 , 𝑡𝑖 ).
Согласно полученным числовым характеристикам можно найти параметр распределения Эрланга по потоку поездов 𝑙 и среднечасовую интенсивность 𝜆:
𝑙=
[𝑀 (𝑡)]2
𝐷(𝑡)
8
𝜆=
1
𝑀 (𝑡)
Установлено, что для предприятий с внешним прибытием и объемом меньшим 10
млн тонн в год распределение межпоездных интервалов описывается распределением
Эрланга 1-го порядка, а свыше 10 млн т. - законом Эрланга 2-го порядка.
Известные соотношения
1. Распределение Эрланга ←− экспоненциальное распределение
Γ(1, 𝜆) ≡ 𝐸𝑥𝑝(1/𝜆)
2. Распределение Эрланга ←− 𝜒2 распределение
Γ(𝑚/2, 2) ≡ 𝜒2 (𝑚)
3. Распределение Эрланга −→ Бета-распределение
Так как распределение Эрланга является частным случаем гамма-распределения, то:
Пусть 𝜉 ∼ Γ(𝛼, 1), 𝜂 ∼ Γ(𝛽, 1), 𝛼, 𝛽 ∈ N
Тогда:
𝜉
∼ 𝐵𝑒(𝛼, 𝛽),
𝜉+𝜂
где 𝐵𝑒(𝛼, 𝛽)– есть бета-распределение.
9
3
Моделирование
3.1
Распределение Пуассона
Моделирование случайной величины Пуассона выполнено методом генерации равномерно распределенных случайных величин на отрезке (0, 1) (используя функцию
библиотеки NumPy: numpy.random.uniform(low=0.0, high=1.0, size=None)) [4].
0.28
0.26
0.24
0.22
0.20
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0.00
Self model
NumPy Random
Distibution
0.28
0.26
0.24
0.22
0.20
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0.00
0
1
2
3
4
5
6
7
8
9
10
Self model
NumPy Random
Distibution
0
а) 1000 точек
1
2
3
4
5
6
7
8
9
10
б) 5000 точек
0.28
0.26
0.24
0.22
0.20
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0.00
Self model
NumPy Random
Distibution
0
1
2
3
4
5
6
7
8
9 10
в) 1000000 точек
Рис. 3: Моделирование случайной величины Пуассона в сравнении с библиотечной
функцией и функцией распределения
10
Рис. 4: Оценка времени моделирования
3.2
Распределение Эрланга
Для моделирования случайно величины Эрланга воспользуемся методом обратной
функции[1]. Из факта, что сумма экспоненциальных случайных величин распределена по закону Эрланга, можно смоделировать случайную величину Эрланга.
Функция экспоненциального распределения:
𝐹 (𝑥) = 1 − 𝑒−𝜆𝑥
Пусть 𝑅 ∼ 𝑈 (0, 1). Тогда:
∫︁𝑥
𝑅=
∫︁𝑥
𝑓 (𝑥) 𝑑𝑥 =
0
𝜆𝑒−𝜆𝑥 = 1 − 𝑒−𝜆𝑥 = 𝐹 (𝑥)
0
Отсюда:
1
𝑥 = − 𝑙𝑛(1 − 𝑅)
𝜆
Так как случайная величина (1 − 𝑅) распределена так же как и 𝑅, то:
1
𝑥 = − 𝑙𝑛(𝑅)
𝜆
Пусть 𝜉𝑖 ∼ 𝑃 𝑜𝑖𝑠(𝜆), 𝑖 = 1, 𝑘. Тогда
∑︀𝑘
𝑖=1 𝜉𝑖
∼ 𝐸𝑟𝑙𝑎𝑛𝑔(𝜆, 𝑘)
Что касается библиотечного моделирования: в библиотеке numpy, в модуле random
есть функция gamma(shape, scale, size=None), которая может моделировать случайные величины, но по другому виду распределения (взято с сайта NumPy):
𝑝(𝑥) = 𝑥𝑘−1
𝑒−𝑥/𝜃
𝜃𝑘 Γ(𝑘)
Отличие составляет параметр 𝜃 или, в случае этой работы, 𝜆, который должен быть
обратным (𝜃−1 ).
Ниже представлены 3 рисунка моделирования случайной величины Эрланга при 3
разных количествах точек
11
m = 5, = 0.2
m = 5, = 0.2
Self Random
Erlang Density
0.05
Self Random
Erlang Density
0.04
0.04
0.03
0.03
0.02
0.02
0.01
0.01
0.00
0.00
0
20
40
60
80
100
0
20
1000 точек
40
60
80
100
5000 точек
m = 5, = 0.2
0.040
Self Random
Erlang Density
0.035
0.030
0.025
0.020
0.015
0.010
0.005
0.000
0
20
40
60
80
100
1000000 точек
Рис. 5: Моделирование случайной величины Эрланга в сравнении с функцией распределения c параметрами 𝑚 = 5, 𝜆 = 0.2
Оценка времени Ниже будет приведен код, который с помощью magic commands
в Jupyter notebook вычисляет работу времени отдельного куска кода. В двух ячейках
проиллюстрированы оценки времени для функции распределения и самостоятельного моделирования.
Как видно из рисунка 6, реализация библиотечной функции быстрее в примерно 330
раз.
12
Рис. 6: Скриншот с оценкой времени
13
Список литературы
[1] Вадзинский Р.Н. Справочник по вероятностным распределениям. — СПб.: Наука,
2001, 295 с.
[2] Акулиничев В. М. Организация перевозок на промышленном транспорте. — МСК:
Высшая Школа, 1983, 53 с.
[3] https://dashee87.github.io/football/python/predicting-football-results-withstatistical-modelling/
[4] Ивченко Г. И., Медведев Ю. И. Введение в математическую статистику. — М.:
Издательство ЛКИ, 2010, 65 с.
14
Download