Домашнее задание 1 Юрасов Никита Андреевич Обновлено 28 ноября 2019 г. Содержание 1 Описание основных характеристик 1.1 Распределение Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Распределение Эрланга . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 4 2 Поиск примеров событий 2.1 Распределение Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Распределение Эрланга . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 8 3 Моделирование 10 3.1 Распределение Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 3.2 Распределение Эрланга . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Все графики, которые в дальнейшем будут вставлены в эту работу, были сконструированы с помощью библиотеки matplotlib в Jupyter Notebook, который будет приложен вместе с работой (ДЗ1.ipynb). Все формулировки определений были взяты из книги А. В. Иванова «Теория Вероятностей (Краткий курс)» 1 Для выполнения работы были выбраны два распределения: 1. Дискретное распределение: распределение Пуассона 2. Непрерывное распределение: распределение Эраланга 1 Описание основных характеристик 1.1 Распределение Пуассона Пусть случайная величина задается законом распределением: 𝑓 (𝑥) = 𝜇𝑥 −𝜇 𝑒 , 𝑥! 𝜇 > 0, 𝑥 ∈ N (1) Функция распределения: 𝐹𝜉 (𝑥) = 𝑃 (𝜉 < 𝑥) = 𝑥−1 𝑘 ∑︁ 𝜇 𝑘=0 𝑘! 𝑒−𝜇 , 𝜇 > 0, 𝑥 ∈ N (2) Математическое ожидание Определение 1.1. Математическое ожидание неотрицательной дискретной случайной величины называется: ∑︁ ∑︁ 𝐸𝜉 = 𝑎𝑖 𝑝𝑖 = 𝑎𝑖 𝑃 (𝜉 = 𝑎𝑖 ) 𝑖 𝑖 Тогда, из этого определения можно вывести математическое ожидание распределения Пуассона (1): ∞ ∞ ∞ ∞ ∑︁ ∑︁ ∑︁ ∑︁ 𝜇𝑘 −𝜇 𝜇𝑘 𝜇𝑘−1 𝜇𝑚 −𝜇 −𝜇 −𝜇 𝐸𝜉 = 𝑘 𝑒 =𝑒 = 𝜇𝑒 = 𝜇𝑒 = 𝜇𝑒−𝜇 𝑒𝜇 = 𝜇 𝑘! (𝑘 − 1)! (𝑘 − 1)! 𝑚! 𝑚=0 𝑘=0 𝑘=1 𝑘=1 Дисперсия Определение 1.2. Дисперсия – это такое число, которое выражается вторым центральным моментом 𝐷𝜉 = 𝐸(𝜉 − 𝐸𝜉)2 (3) Чтобы посчитать дисперсию случайно величины 𝜉 проще всего воспользоваться выводом факториальных моментов. Определение 1.3. Факториальный момент - это число 𝐸𝜉 [𝑚] = 𝐸𝜉(𝜉 − 1) . . . (𝜉 − − 𝑚 + 1) Тогда: ∞ ∑︁ 𝜇𝑘−2 𝜇𝑘 −𝜇 2 −𝜇 = 𝜇2 𝑒−𝜇 𝑒𝜇 = 𝜇2 𝐸𝜉(𝜉 − 1) = 𝑘(𝑘 − 1) 𝑒 = 𝜇 𝑒 𝑘! (𝑘 − 2)! 𝑘=2 𝑘=0 ∞ ∑︁ Если 𝐸𝜉 2 = 𝐸𝜉(𝜉 − 1) + 𝐸𝜉 = 𝜇2 + 𝜇, а 𝐷𝜉 = 𝐸𝜉 2 − (𝐸𝜉)2 , то 𝐷𝜉 = 𝜇2 + 𝜇 − 𝜇2 = 𝜇 В итоге мы получили для распределения Пуассона 𝐸𝜉 = 𝜇, 𝐷𝜉 = 𝜇 2 Производящая и характеристическая функции Определение 1.4. Производящей функцией случайной величины 𝜉 называется функция ∞ ∑︁ 𝜉 𝜙𝜉 (𝑧) = 𝐸𝑧 = 𝑧 𝑘 𝑝𝑘 , 𝑧 ∈ C, |𝑧| ≤ 1 𝑘=0 Определение 1.5. Характеристической функцией произвольной случайно величины 𝜉 называется функция действительного аргумента при дискретном распределении: ∞ ∑︁ 𝑔(𝑡) = 𝑒𝑖𝑡𝑘 𝑃 (𝜉 = 𝑘) 𝑘=0 Производящая функция для распределения Пуассона: 𝜙𝜉 (𝑥) = ∞ ∑︁ 𝜇𝑘 𝑘=0 𝑘! 𝑒−𝜇 𝑧 𝑘 = 𝑒−𝜇 ∞ ∑︁ (𝜇𝑧)𝑘 𝑘=0 𝑘! = 𝑒−𝜇 𝑒𝜇𝑧 = 𝑒𝜇(𝑧−1) Характеристическая функция: 𝑔(𝑡) = ∞ ∑︁ f(x) 𝑘=0 𝑒 𝑖𝑡𝑘 𝜇 𝑘 𝑘! 𝑒 −𝜇 −𝜇 =𝑒 ∞ ∑︁ (𝜇𝑒𝑖𝑡 )𝑘 𝑘=0 𝑘! 𝑖𝑡 𝑖𝑡 −1) = 𝑒−𝜇 𝑒𝜇𝑒 = 𝑒𝜇(𝑒 0.39 0.36 0.33 0.30 0.27 0.24 0.21 0.18 0.15 0.12 0.09 0.06 0.03 0.00 =1 =2 =3 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 x Рис. 1: Распределение Пуассона 3 1.2 Распределение Эрланга Пусть случайная величина задается распределением: 𝑓 (𝑥) = 𝜆𝑚 𝑥𝑚−1 𝑒−𝜆𝑥 , (𝑚 − 1)! 𝑥, 𝜆 ∈ R, 𝑥, 𝜆 > 0, 𝑚 ∈ N (4) Найдем функцию распределения по определению: ∫︁𝑥 𝐹 (𝑥) = 𝑃 (𝜉 ≤ 𝑥) = 𝜆𝑚 𝑓 (𝑥) 𝑑𝑥 = Γ(𝑚) −∞ ∫︁𝑥 𝑥𝑚−1 𝑒−𝜆𝑥 𝑑𝑥 0 Либо же, функцию распределения можно выразить через закон Пуассона: 𝐹 (𝑥) = 1 − 𝑛−1 ∑︁ (𝜆𝑥)𝑘 𝑘! 𝑘=0 𝑒−𝜆𝑥 Математическое ожидание Определение 1.6. Математическое ожидание произвольной непрерывной ∫︀ случайной величины 𝜉(𝜔) называется интеграл Лебега от нее по мере P: 𝐸𝜉(𝜔) = 𝜉(𝜔) 𝑃 (𝑑𝜔). Ω При абсолютной сходимости: 𝐸𝜉(𝜔) = +∞ ∫︀ 𝑥𝑓 (𝑥) 𝑑𝑥. −∞ Согласно определению 1.6 можно получить математическое ожидание распределения Эрланга: ∫︁+∞ 𝐸𝜉 = 𝑥 𝜆𝑚 𝑥𝑚−1 𝑒−𝜆𝑥 = делаем замену 𝑧 = 𝜆𝑥 = (𝑚 − 1)! ∫︁+∞ 𝑧 𝜆𝑚 𝑧 𝑚−1 −𝑧 𝑑𝑧 𝑒 = 𝜆 (𝑚 − 1)! 𝜆𝑚−1 𝜆 0 0 = Γ(𝑛) = (𝑛 − 1)! = 1 𝜆Γ(𝑚) ∫︁+∞ 𝑧 𝑚 𝑒−𝑧 𝑑𝑧 = Γ(𝑚 + 1) 𝑚! 𝑚 = = 𝜆Γ(𝑚) 𝜆(𝑚 − 1)! 𝜆 0 Дисперсия Определение 1.7. Дисперсией случайной величины 𝜉, имеющей 𝐸𝜉, называется число: 𝐷𝜉 = 𝐸(𝜉 − 𝐸𝜉)2 = 𝐸𝜉 2 − (𝐸𝜉)2 По определению 1.7 найдем дисперсию распределения Эрланга: ∫︁+∞ 𝐸𝜉 = 𝑥2 2 𝜆𝑚 𝑥𝑚−1 𝑒−𝜆𝑥 𝑑𝑥 = сделаем замену 𝑧 = 𝜆𝑥 = (𝑚 − 1)! 0 ∫︁+∞ 𝑧 𝑚+1 𝜆𝑚 𝑒−𝑧 𝑑𝑧 = 𝜆𝑚+1 (𝑚 − 1)!𝜆 0 ∫︁+∞ (𝑚 + 1)! (𝑚 + 1)𝑚 1 Γ(𝑚 + 2) = 2 𝑧 𝑚+1 𝑒−𝑧 𝑑𝑧 = 2 = 2 = 𝜆 Γ(𝑚) 𝜆 Γ(𝑚) 𝜆 (𝑚 − 1)! 𝜆2 0 Тогда: 𝐷𝜉 = 𝐸𝜉 2 − (𝐸𝜉)2 = (𝑚+1)𝑚 𝜆2 − (︀ 𝑚 )︀2 𝜆 = 4 𝑚 𝜆2 Характеристическая функция Определение 1.8. Характеристической функцией непрерывной случайной величины называют функцию от действительного аргумента 𝑖𝑡𝜉 𝑔(𝑡) = 𝑔𝜉 (𝑡) = 𝐸𝑒 ∫︁ 𝑖𝑡𝑥 𝑒 = ∫︁+∞ 𝑑𝐹 (𝑥) = 𝑒𝑖𝑡𝑥 𝑓 (𝑥) 𝑑𝑥 −∞ R Найдем характеристическую функцию распределения Эрланга по определению: 𝑔(𝑡) = 𝐸𝑒𝑖𝑡𝜉 +∞ ∫︁+∞ 𝑚 𝑚−1 −𝜆𝑥 𝑚 ∫︁ 𝜆 𝑥 𝑒 𝜆 = 𝑒𝑖𝑡𝑥 𝑑𝑥 = 𝑥𝑚−1 𝑒−𝑥(𝜆−𝑖𝑡) 𝑑𝑥 = замена 𝑦 = 𝑥(𝜆 − 𝑖𝑡) = (𝑚 − 1)! Γ(𝑚) 0 𝜆𝑚 Γ(𝑚) 0 f(x) = ∫︁+∞ 0 +∞ ∫︁ 𝑦 𝑚−1 𝑒−𝑦 𝑑𝑦 𝜆𝑚 𝜆𝑚 Γ(𝑚) 𝜆𝑚 𝑚−1 −𝑦 = 𝑦 𝑒 𝑑𝑦 = = = (𝜆 − 𝑖𝑡)𝑚−1 𝜆 − 𝑖𝑡 Γ(𝑚)(𝜆 − 𝑖𝑡) Γ(𝑚)(𝜆 − 𝑖𝑡)𝑚 (𝜆 − 𝑖𝑡)𝑚 0 )︂𝑚 (︂ )︂−𝑚 (︂ )︂−𝑚 (︂ 𝜆 − 𝑖𝑡 𝑖𝑡 𝜆 = = 1− = 𝜆 − 𝑖𝑡 𝜆 𝜆 0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0.00 m=1, m=2, m=3, m=5, m=9, 0 10 20 30 40 50 x 60 70 80 Рис. 2: Плотность распределения Эрланга 5 90 =0.2 =0.2 =0.2 =0.2 =0.2 2 Поиск примеров событий 2.1 Распределение Пуассона Типичная интерпретация Распределение Пуассона описывает вероятность наступление 𝑘 независимых событий за какое-то фиксированное время 𝑡 с интенсивностью 𝜆. Нетипичная интерпретация Распределение Пуассона играет большую роль в ставках на спорт [3]. Зная определенные коэффициенты, связанные с командами, можно рассчитать вероятность количества забитых голов той или иной командой и даже предсказать ставки, которые выставит букмекер. Можно сказать, что сумма голов в матче подчиняется распределению Пуассона, а раз сумма распределена по Пуассону, то и каждый гол в свою очередь распределен по этому закону. Пусть, для определенности, в один промежуток времени можно забить всего один гол, а каждый забитый гол является независимым событием. Опишем некоторые вспомогательные значения: ∙ Среднее количество забитых мячей дома (на выезде) в сезоне по всем командам: [︁ кол-во голов в сезоне ]︁ 𝜇𝑖𝑛 , 𝜇𝑜𝑢𝑡 = кол-во матчей ∙ Усредненный и взвешенный показатель забитых голов дома и на выезде: ∑︀ забитых дома 𝒜𝑖𝑛 = 19/𝜇𝑖𝑛 ∑︀ забитых на выезде 𝒜𝑜𝑢𝑡 = 19/𝜇𝑜𝑢𝑡 ∙ Усредненный и взвешенный показатель пропущенных голов дома и на выезде: ∑︀ пропущенные дома 𝒟𝑖𝑛 = 19/𝜇𝑜𝑢𝑡 ∑︀ пропущенные на выезде 𝒟𝑜𝑢𝑡 = 19/𝜇𝑖𝑛 NB! Во всех значениях, описанных выше, важно учитывать где команда играет и где забивает голы. Пусть у нас есть будущая игра X против Y. Тогда, чтобы рассчитать примерное показатель забитых голов в матче, воспользуемся формулами для расчета параметров каждой команды: 𝜆𝑋 = 𝒜𝑖𝑛𝑋 × 𝒟𝑜𝑢𝑡𝑌 × 𝜇𝑖𝑛 𝜆𝑌 = 𝒜𝑜𝑢𝑡𝑌 × 𝒟𝑖𝑛𝑋 × 𝜇𝑜𝑢𝑡 6 Получив параметр 𝜆 для каждой команды, можно найти вероятность количества голов в предстоящем противостоянии по формулам: 𝑃𝑋 (𝑘) = (𝜆𝑋 )𝑘 −𝜆𝑋 𝑒 − вероятность k голов, забитых командой X 𝑘! (𝜆𝑌 )𝑘 −𝜆𝑌 𝑒 − вероятность k голов, забитых командой Y 𝑘! Как нетрудно заметить, формулы для вычисления количества голов есть закон распределения Пуассона с параметром 𝜆𝑖 . 𝑃𝑌 (𝑘) = Известные соотношения 1. Биноминальное распределение −→ распределение Пуассона 𝑃 (𝜉 = 𝑘) = lim 𝑥→∞ 𝐶𝑛𝑘 𝑝𝑘 (1 𝑛−𝑘 − 𝑝) = 𝑝= 𝑘 𝑘𝜇 𝐶𝑛 𝑘 𝜇 )︁𝑛−𝑘 = 0 = lim 1− = 𝑛→∞ 𝑛 𝑛 (︀ )︀𝑛 (︀ )︀−𝑘 = lim 1 − 𝑛𝜇 = 𝑒−𝜇 , lim 1 − 𝑛𝜇 =1, 𝜇 , lim 𝑝 𝑛 𝑛→∞ (︁ )︂ 𝜇𝑘 (︁ 𝜇 )︁−𝑘 𝜇 )︁𝑛 (︁ 1 − 1 − 𝑛→∞ 𝑛→∞ 𝑛𝑘 𝑛 𝑛 𝑛−𝑘+1 𝑛 𝑛−1 𝑛−2 𝑛! = фиксируем 𝑘 = lim · · ··· = 1. также lim 𝑘 𝑛→∞ 𝑛 𝑛→∞ (𝑛 − 𝑘)!𝑛 𝑛 𝑛 𝑛 𝜇𝑘 В итоге: 𝑃 (𝜉 = 𝑘) = 𝑒−𝜇 𝑘! 𝑛! = lim 𝑛→∞ (𝑛 − 𝑘)!𝑘! (︂ 2. Распределение Пуассона ←→ показательное распределение (𝜇𝑡)𝑘 −𝜇𝑡 𝑒 𝑘! 𝑃 (𝜉 = 0) = 𝑒−𝜇𝑡 𝑃 (𝜉 > 0) = 𝑒−𝜇𝑡 𝑃 (𝜉 ≤ 0) = 1 − 𝑒−𝜇𝑡 𝑃 (𝜉 = 𝑘) = А это функция показательного распределения 3. Распределение Пуассона −→ Нормальное (Гаусса) распределение При увеличении параметра 𝜆 распределение Пуассона стремится к нормальному √ распределению (распределению Гаусса) с параметрами 𝜎 = 𝜆 и сдвигом 𝜆. Для вывода нужно воспользоваться формулой Стирлинга: √ 𝜃 𝑛! = 𝑛𝑛 𝑒−𝑛 2𝜋𝑛 · 𝑒− 12𝑛 (1+𝑂(1/𝑛)) , 𝑛 → ∞, 0 < 𝜃 < 1 Разложение в ряд Тейлора 𝑙𝑛( 𝜆𝑘 )𝑘 в окрестности точки 𝑘 = 𝜆: (︂ )︂𝑘 𝜆 (𝑘 − 𝜆)2 𝑙𝑛 = −(𝑘 − 𝜆) − + 𝑂(𝑘 − 𝜆)3 𝑘 2𝜆 √ √ 𝑘≈ 𝜆 Тогда: (𝑘−𝜆)2 1 𝑃 (𝜉 = 𝑘) = √ · 𝑒− 2𝜆 2𝜋𝜆 7 2.2 Распределение Эрланга Типичная интерпретация Распределение Эрланга является одним из основных распределений математической статистики для получения случайных величин. Так как параметра 𝑚 – целое число, распределение Эраланга описывает время, необходимое, для появления ровно 𝑚 событий при условии, что они независимы и появляются с постоянной интенсивностью 𝜆. Распределение Эрланга (частный случай гамма-распределения) можно увидеть в диагностировании рака на разных временных этапах жизни человека. Считается, что на появление рака влияют канцерогенные факторы (одного общепринятого списка не существует, но для определенности будем считать, что таков список существует и он конечен), в последовательно проявлении которых возникает рак 1-й степени. Список видов рака обширен, но в дальнейшем будут рассмотрены 20 самых часто появляющихся видов. Если рассматривать появление любого вида рака в любой момент времени жизни человека (от 0 до 100 лет), то можно построить график, который очень схож с плотностью распределения Эрланга: «вероятность» появления рака в раннем возрасте и глубокой старости близка к 0, а в середине жизни (35-55 лет) достигает своего пика. В дальнейшей работе будет рассмотрена самая обширная база данных США по статистке рака с 1999 по 2015 года, а так же проиллюстрирована аппроксимация распределения Эрланга (с разными параметрами для каждого вида рака) к реальным данным. Нетипичная интерпретация Применение распределения Эрланга можно найти в организации промышленных перевозок [2]. Пусть у нас есть какой-то поток поездов, который ездит по одному маршруту и прибывает на одну и ту же станцию. Тогда разобьем весь отрезок времени, в который приходят поезда, на интервалы точками 𝑡0 , 𝑡1 , 𝑡2 , · · · , 𝑡𝑘 и будем их считать в какой-то условно выбранной величине T. Тогда можно получить отрезки, в которые поезда прибывают: (𝑡0 , 𝑡1 ), (𝑡1 , 𝑡2 ), · · · , (𝑡𝑘−1 , 𝑡𝑘 ). Определим числовые характеристики для полученных отрезков: 𝑀 (𝑡) = 𝑘 ∑︁ 𝑃𝑖 𝑡𝑖 − математическое ожидание; 𝑖=1 𝐷(𝑡) = 𝛼2 − [𝑀 (𝑡)]2 − дисперсия; √︀ 𝛿(𝑡) = 𝐷(𝑡) − среднеквадратичное отклонение, где 𝑃𝑖 вычисляется следующим образом: найдем количество поездов 𝑚𝑖 , которые прибыли в данный отрезок времени (𝑡𝑖−1 , 𝑡𝑖 ), и поделим на общее количество поездов N (𝑃𝑖 = 𝑚𝑁𝑖 ), а 𝑡𝑖 – есть отрезок (𝑡𝑖−1 , 𝑡𝑖 ). Согласно полученным числовым характеристикам можно найти параметр распределения Эрланга по потоку поездов 𝑙 и среднечасовую интенсивность 𝜆: 𝑙= [𝑀 (𝑡)]2 𝐷(𝑡) 8 𝜆= 1 𝑀 (𝑡) Установлено, что для предприятий с внешним прибытием и объемом меньшим 10 млн тонн в год распределение межпоездных интервалов описывается распределением Эрланга 1-го порядка, а свыше 10 млн т. - законом Эрланга 2-го порядка. Известные соотношения 1. Распределение Эрланга ←− экспоненциальное распределение Γ(1, 𝜆) ≡ 𝐸𝑥𝑝(1/𝜆) 2. Распределение Эрланга ←− 𝜒2 распределение Γ(𝑚/2, 2) ≡ 𝜒2 (𝑚) 3. Распределение Эрланга −→ Бета-распределение Так как распределение Эрланга является частным случаем гамма-распределения, то: Пусть 𝜉 ∼ Γ(𝛼, 1), 𝜂 ∼ Γ(𝛽, 1), 𝛼, 𝛽 ∈ N Тогда: 𝜉 ∼ 𝐵𝑒(𝛼, 𝛽), 𝜉+𝜂 где 𝐵𝑒(𝛼, 𝛽)– есть бета-распределение. 9 3 Моделирование 3.1 Распределение Пуассона Моделирование случайной величины Пуассона выполнено методом генерации равномерно распределенных случайных величин на отрезке (0, 1) (используя функцию библиотеки NumPy: numpy.random.uniform(low=0.0, high=1.0, size=None)) [4]. 0.28 0.26 0.24 0.22 0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0.00 Self model NumPy Random Distibution 0.28 0.26 0.24 0.22 0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0.00 0 1 2 3 4 5 6 7 8 9 10 Self model NumPy Random Distibution 0 а) 1000 точек 1 2 3 4 5 6 7 8 9 10 б) 5000 точек 0.28 0.26 0.24 0.22 0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0.00 Self model NumPy Random Distibution 0 1 2 3 4 5 6 7 8 9 10 в) 1000000 точек Рис. 3: Моделирование случайной величины Пуассона в сравнении с библиотечной функцией и функцией распределения 10 Рис. 4: Оценка времени моделирования 3.2 Распределение Эрланга Для моделирования случайно величины Эрланга воспользуемся методом обратной функции[1]. Из факта, что сумма экспоненциальных случайных величин распределена по закону Эрланга, можно смоделировать случайную величину Эрланга. Функция экспоненциального распределения: 𝐹 (𝑥) = 1 − 𝑒−𝜆𝑥 Пусть 𝑅 ∼ 𝑈 (0, 1). Тогда: ∫︁𝑥 𝑅= ∫︁𝑥 𝑓 (𝑥) 𝑑𝑥 = 0 𝜆𝑒−𝜆𝑥 = 1 − 𝑒−𝜆𝑥 = 𝐹 (𝑥) 0 Отсюда: 1 𝑥 = − 𝑙𝑛(1 − 𝑅) 𝜆 Так как случайная величина (1 − 𝑅) распределена так же как и 𝑅, то: 1 𝑥 = − 𝑙𝑛(𝑅) 𝜆 Пусть 𝜉𝑖 ∼ 𝑃 𝑜𝑖𝑠(𝜆), 𝑖 = 1, 𝑘. Тогда ∑︀𝑘 𝑖=1 𝜉𝑖 ∼ 𝐸𝑟𝑙𝑎𝑛𝑔(𝜆, 𝑘) Что касается библиотечного моделирования: в библиотеке numpy, в модуле random есть функция gamma(shape, scale, size=None), которая может моделировать случайные величины, но по другому виду распределения (взято с сайта NumPy): 𝑝(𝑥) = 𝑥𝑘−1 𝑒−𝑥/𝜃 𝜃𝑘 Γ(𝑘) Отличие составляет параметр 𝜃 или, в случае этой работы, 𝜆, который должен быть обратным (𝜃−1 ). Ниже представлены 3 рисунка моделирования случайной величины Эрланга при 3 разных количествах точек 11 m = 5, = 0.2 m = 5, = 0.2 Self Random Erlang Density 0.05 Self Random Erlang Density 0.04 0.04 0.03 0.03 0.02 0.02 0.01 0.01 0.00 0.00 0 20 40 60 80 100 0 20 1000 точек 40 60 80 100 5000 точек m = 5, = 0.2 0.040 Self Random Erlang Density 0.035 0.030 0.025 0.020 0.015 0.010 0.005 0.000 0 20 40 60 80 100 1000000 точек Рис. 5: Моделирование случайной величины Эрланга в сравнении с функцией распределения c параметрами 𝑚 = 5, 𝜆 = 0.2 Оценка времени Ниже будет приведен код, который с помощью magic commands в Jupyter notebook вычисляет работу времени отдельного куска кода. В двух ячейках проиллюстрированы оценки времени для функции распределения и самостоятельного моделирования. Как видно из рисунка 6, реализация библиотечной функции быстрее в примерно 330 раз. 12 Рис. 6: Скриншот с оценкой времени 13 Список литературы [1] Вадзинский Р.Н. Справочник по вероятностным распределениям. — СПб.: Наука, 2001, 295 с. [2] Акулиничев В. М. Организация перевозок на промышленном транспорте. — МСК: Высшая Школа, 1983, 53 с. [3] https://dashee87.github.io/football/python/predicting-football-results-withstatistical-modelling/ [4] Ивченко Г. И., Медведев Ю. И. Введение в математическую статистику. — М.: Издательство ЛКИ, 2010, 65 с. 14