Uploaded by Folkgamer Andrey

Garkushenko TAU Stokhasticheskie SAU 2021 (1)

advertisement
Министерство науки и высшего образования Российской Федерации
федеральное государственное бюджетное образовательное учреждение
высшего образования «Казанский национальный исследовательский
технический университет им. А.Н. Туполева-КАИ»
(КНИТУ-КАИ)
Институт Автоматики и Электронного Приборостроения
Кафедра Автоматики и Управления
Гаркушенко В.И.
«Статистическая динамика систем управления» Ч.1.
учебное пособие для самостоятельной работы
Казань, 2021
1
Учебное пособие «Статистическая динамика систем управления» Ч1. составлено в соответствии с рабочей программой дисциплины «Статистическая
динамика систем управления» направления подготовки 27.04.04 «Управление
в технических системах» магистрантов, и предназначено для самостоятельной
работы. В учебном пособии приведены из литературы все необходимые теоретические сведения для выполнения практических заданий с помощью аналитических методов и численных методов на компьютере в системе MatLab.
Приведены решения типовых задач по темам практических занятий, предлагаются задачи и задания для самостоятельной работы. В тексте учебного пособия цветом выделены основные понятия дисциплины, которые студент выписывает их отдельно и после освоения темы занятия должен самостоятельно
сформулировать смысл использованных понятий. Выполненные практические
задания студент оформляет в виде краткого отчета и сдает на проверку преподавателю.
В результате освоения учебного материала пособия у студента формируются компетенция:
ОПК-9 – способен разрабатывать методики и выполнять эксперименты
на действующих объектах с обработкой результатов на основе информационных технологий и технических средств
2
Оглавление
Введение....................................................................................................................................................... 4
Тема 1. Случайные величины .................................................................................................................... 6
Тема 2. Случайные процессы ................................................................................................................... 63
Тема 3. Частотное представление стационарных случайных процессов ............................................. 89
Тема 4. Методы анализа точности систем автоматического управления .......................................... 123
Тема 5. Частотный метод определения установившихся характеристик случайного процесса на
выходе системы ....................................................................................................................................... 129
Тема 6. Временные методы определения характеристик реакции системы на входной случайный
сигнал ....................................................................................................................................................... 142
Метод весовых функций......................................................................................................................... 143
Метод интегрирования уравнений моментов ....................................................................................... 158
Тема 7. Статистический анализ нелинейных систем ........................................................................... 170
Тема 8. Постановка задачи синтеза оптимальных систем................................................................... 184
Задача оптимальной фильтрации частотным методом ........................................................................ 185
Оптимальная фильтрация временным методом пространства состояний ......................................... 194
Тема 9. Структурный синтез линейных оптимальных систем............................................................ 209
Тема 10. Параметрический синтез оптимальных систем .................................................................... 216
Оптимизация параметров системы частотным методом ..................................................................... 216
Параметрический синтез регулятора временным методом пространства состояний ...................... 219
Практические задания для самостоятельной работы........................................................................... 223
Список использованных источников .................................................................................................... 226
Приложение 1 Свойство дельта-функции ............................................................................................. 227
Приложение 2 Реакция линейной системы на входной гармонический сигнал ............................... 230
Приложение 3 Способы решения системы линейных дифференциальных уравнений ................... 234
Приложение 4 Таблица корреляционных функций и спектральных плотностей ............................. 241
Приложение 5 Формулы для интегралов от дробно-рациональных четных функций ..................... 243
Приложение 6 Таблица преобразований Лапласа ................................................................................ 245
Приложение 7 Подпрограмма факторизации передаточной функции............................................... 246
3
Введение
При проектировании САУ возникает задача анализа влияния помех измерений датчиков и случайных возмущений на точность системы и ее динамические свойства. При нарушении требований к качеству САУ из-за указанных факторов необходимо осуществлять фильтрацию измеряемых сигналов и
учитывать их в процедурах синтеза законов управления.
Типовая функциональная схема системы управления представлена на
рис. 1.
Рис. 1. Функциональная схема САУ
Здесь объект управления характеризуется совокупностью переменных
 y1,..., yl  ,
которые
называются
выходами
объекта,
при
этом
y  t    y1 (t ),..., yl (t )  – вектор выхода системы. Кроме выходов любой объект
T
управления
имеет
совокупность
u  t    u1  t  ,..., um t  
T
входов
u1,..., um  ,
при
этом
– вектор входа системы. Такая система называется
многомерной, частным случаем которой является одномерная система, со скалярным входом и выходом.
Под требуемым режимом работы системы понимается желаемый закон
изменения выходных переменных. Например, требуется выполнение условия
4
yi  t   gi  t  , i  1, l с заданной точностью за конечное время при наличии совокупности внешних воздействий
 f1(t ),..., f p (t )
и помех измерений
1(t ),..., l (t ) . Обеспечение указанных условий возлагается на регулятор.
Внешние воздействия и помехи измерений можно разделить на:
1. Регулярные – описываются с помощью решений дифференциальных
уравнений (например, постоянное воздействие описывается уравнением
df
 0 , f  0   f 0 ), которые дополняют к уравнениям объекта управления и
dt
используют при синтезе законов управления.
2. Нерегулярные – нельзя описать с помощью решений дифференциальных уравнений, но можно указать ограничения на амплитудное значение, скорость изменения, которая на всем интервале времени функционирования системы (за исключением некоторых моментов времени) соизмерима со скоростью процессов, которые протекают в контуре управления замкнутой САУ;
3. Случайные – отличаются от нерегулярных тем, что скорость их изменения на всем интервале времени функционирования системы несоизмерима
со скоростью процессов, которые протекают в контуре управления замкнутой
САУ, поэтому система управления неспособна отработать данные воздействия.
В отличие от случайных воздействий, регулярные и нерегулярные воздействия можно оценивать и использовать в законе управления для компенсации их влияния на САУ. Поэтому при наличии случайных воздействий речь
может идти только о поиске путей снижения их воздействия на регулируемые
координаты. Это возможно в том случае, если известны статистические свойства данных воздействий (случайных процессов).
Следует также отметить, что наличие шумов измерений ограничивает
точность оценки регулярных и нерегулярных внешних воздействий для их
компенсации, что приводит к снижению точности САУ.
5
Свойства случайных процессов определяются с помощью теории вероятностей. Изучение работы автоматических систем при случайных воздействиях является предметом статистической теории (статистической динамики) систем управления.
Тема 1. Случайные величины
Всякое осуществление определенных условий и действий, при которых
наблюдается изучаемое случайное явление называется опытом.
Результат опыта можно характеризовать качественно и количественно.
Любая качественная характеристика результата опыта называется событием (например, попадание и промах при выстреле).
Событие называется достоверным, если оно обязательно появляется в
результате данного опыта. Событие называется невозможным, если оно не может появиться в результате данного опыта. Событие, которое в результате данного опыта может появиться, а может не появиться, называется случайным событием.
Любая количественная характеристика опыта называется случайной величиной (например, результат измерения координаты точек попадания при выстреле).
Рассмотрим последовательность n одинаковых опытов. Предположим,
что в результате каждого опыта регистрируется появление или непоявление
некоторого события А. Естественной количественной характеристикой события А в этой последовательности опытов является частота его появления, то
есть отношение числа его появлений m к числу n всех произведенных опытов.
Обозначим частоту события А через
P* ( A) 
m
.
n
(1)
Учитывая, что 0  m  n , получим неравенство
0  P* ( A)  1 .
(2)
6
Два события А и В называются несовместными в данном опыте, если в
этом опыте появление одного из них исключает появление другого (например,
попадание и промах при одном выстреле). В противном случае два события А
и В называются совместными (например, при нескольких выстрелах попадание и промах являются совместными событиями).
Суммой двух событий А и В называется событие С = А+В, состоящее в
выполнении события А или события В, или обоих вместе (иначе говоря, в появлении хотя бы одного из событий).
Произведением двух событий А и В называется событие С = АВ, состоящее в совместном выполнении события А и события В.
Например, если событие А – попадание в цель при первом выстреле, событие В – попадание в цель при втором выстреле, то событие С = А+В есть
попадание в цель вообще, безразлично при каком выстреле – первом, втором
или обоих вместе. При этом событие С = АВ есть попадание в цель при обоих
выстрелах.
Пример 1. Опыт состоит в том, что покупается один билет лотереи и
покупателя интересует выигрыш автомобиля (событие А) или мотоцикла (событие В), то есть события А и В несовместны.
Предполагается, что в результате n опытов появилось m раз событие А
и l раз событие В.
Возникает вопрос: какова частота сложного события «А или В», то есть
выигрыша транспортного средства.
Решение: Событие «А или В» появилось m  l раз, следовательно, его
частота равна
P* ( A + В )
P* ( A или В) 
ml m l
   P* ( A)  P* ( B) .
n
n n
(3)
Формула (3) выражает теорему сложения частот: частота появления
одного из двух несовместных событий равна сумме частот этих событий.
Теорема сложения частот справедлива для любого числа несовместных
событий A1 , A2 ,
, An :
7
*
 n *
P   Ai    P ( Ai ) .
 i 1  i 1
n
(4)
В случае, когда события А и В совместны частота суммы этих событий
выражается формулой
P* ( A + В)  P* ( A)  P* ( B)  P* ( АB) .
В некоторых случаях возникает необходимость рассматривать несколько событий в их взаимосвязи, например, когда необходимо определить,
как влияет появление или непоявление одного события на частоту появления
другого. В этом случае, кроме частоты события А для всей серии произведенных опытов, вычисляют также частоту события А, учитывая только те из произведенных опытов, в результате которых появилось другое событие В.
Событие А называется независимым от события В, если частота события
А не зависит от того, произошло событие В или нет.
Событие А называется зависимым от события В, если частота события А
меняется в зависит от того, произошло событие В или нет.
Частота события А, вычисленная только для тех из произведенных опытов, в которых появилось событие В, называется условной частотой события
А относительно события В и обозначается P* ( A | B) .
Если при n опытах событие В появилось l раз, а событие А появилось
совместно с событием В (то есть «А и В») k раз, то условная частота события
А относительно события В равна
k k / n P* ( A и B)
P ( A | B)  

l l/n
P* ( B)
*
P* ( AB)
.
P* ( B)
(5)
Переставляя местами события А и В можно аналогично записать
P* ( B | A) 
P* ( AB)
.
P* ( A)
(6)
Из выражений (5), (6) следует формула
P* ( AB)  P* ( A) P* ( B | A)  P* ( В) P* ( А | В) ,
(7)
8
которая выражает теорему умножения частот: частота совместного появления двух событий равна частоте одного из них, умноженной на условную частоту другого относительно первого.
По индукции доказывается общая формула для произвольного числа событий A1 , A2 ,
, An :
P* ( A1 A2
An )  P* ( A1 ) P* ( A2 | A1 )
P* ( An | A1 A2
An1 ) ,
(8)
причем порядок нумерации событий может быть установлен произвольно.
Для доказательства формулы (8) используется формула (7), в которой
событие «А и В» обозначается, например, через событие С и рассматривается
событие «С и D»:


P* (СD) P* (C и D)  P* (C ) P* ( D | C )  P* ( A ) P* ( B | A) P* ( D | AВ) .
С учетом обозначений A1  A , A2  B , A3  D приходим к формуле (8). И так
далее.
Условие независимости события А от события В можно записать в виде:
P* ( A)  P* ( А | В) ,
тогда из формулы (7) получим выражение
P* ( AB)  P* ( А) P* ( В) .
В общем случае для независимых событий из формулы (8) следует выражение
*
 n *
P   Ai    P ( Ai ) .
 i 1  i 1
n
Экспериментальное изучение случайных величин
Случайная величина в результате опыта принимает одно и только одно
какое-нибудь значение, а в результате разных опытов может принимать различные возможные значения.
Случайные величины обозначается большими буквами (например,
9
X ,Y , Z ), а их возможные значения малыми буквами (например, x, y, z ).
С любой случайной величиной можно связать событие А представляющее собой выполнение неравенства X  x , где x – заданное число. Тогда
можно определить частоту события А для различных значений x в виде
функции:
F * ( x )  P* ( X  x ) ,
(9)
которая называется статистической функцией распределения случайной величины X .
Для изучения свойств статистической функции распределения предположим, что в результате n опытов случайная величина X приняла некоторые
значения, которые пронумеруем в порядке неубывания x1 , x2 , , xn , как показано на рис. 2.
Рис. 2. Статистическая функция распределения
Очевидно, что для любого значения x в интервале xi  x  xi 1 число
опытов, в которых было выполнено неравенство X  x , равно i . Следовательно, справедливо выражение
F * ( x) 
i
n
при xi  x  xi 1 ,
i  1, n  1 .
При любом x  x1 число опытов, в которых было выполнено неравенство
X  x равно нулю, а при любом x  xn число опытов, в которых было выпол-
нено неравенство X  x равно n.
10
Пусть, например, при N независимых опытах значение xi появилось mi
n
раз при i  1, n и N   mi . Тогда при переходе точки x через любую из точек
i 1
x1 , x2 ,
pi* 
, xn , статистическая функция распределения увеличивается скачком на
mi
– частота события X  xi . Поэтому справедливо равенство
N
F * ( xi )  F * ( xi 1 )  F * ( xi ) ,
pi*
которое перепишем в виде разностного уравнения
F * ( xi 1 )  F * ( xi )  F * ( xi ) ,
(10)
с начальным условием F * ( x1 )  F * ( x2 )  F * ( x1 )  F * ( x2 ) , поскольку согласно
формуле (9) выполняется F * ( x1 )  0 .
Из разностного уравнения (10) для значения xk получим его решение,
которое представим в виде:
k 1
k 1
F * ( xi )
F ( xk )   F ( xi )  
xi   f * ( xi )xi ,
xi
i 1
i 1
i 1
*
*
k 1
(10’)
F * ( xi )
где xi  xi 1  xi , f ( xi ) 
– характеризует меру изменения частоты
xi
*
(плотность частоты) случайной величины на интервале xi .
Другой более простой числовой статистической характеристикой случайной величины X в данной серии опытов является ее среднее значение.
Пусть, например, при N независимых опытах значение xi появилось mi
n
раз при i  1, n и N   mi . Тогда среднее значение случайной величины X
i 1
определяется по формуле
m*X
*
где pi 
M *[ X ] 
n
n
1 N
1 n
mi
x

m
x

x

pi* xi ,




i
i i
i
N i 1
N i 1
i 1 N
i 1
(11)
mi
– частота события X  xi .
N
11
Если значению xi случайной величины X ставится в соответствие некоторая функция  ( xi ) , то среднее значение функции   X  случайной величины
X определяется по формуле
n
n
1 N
1 n
mi
M [ ( X )]   ( xi )   mi ( xi )    ( xi )   pi* ( xi ) .
N i 1
N i 1
i 1 N
i 1
*
*
m  X 
(11’)
Для характеристики разброса значений случайной величины X в данной
серии опытов используется положительная мера отклонения случайной величины от ее среднего значения m*X , которая называется статистической дисперсией случайной величины X .
Пусть, например, при N независимых опытах значение xi появилось mi
n
раз при i  1, n и N   mi . Тогда статистическая дисперсия случайной велиi 1
чины X определяется по формуле
D*X
n
*
M [( X
 m*X )2 ] 
1 N
1 n
* 2
( xi mX )   mi ( xi m*X )2 

N i 1
N i 1
n
mi
( xi m*X )2   pi* ( xi m*X )2 ,
i 1 N
i 1

где pi* 
(12)
mi
– частота события X  xi .
N
Удобно использовать статистическое среднее квадратическое отклонение:
 *X
D*X ,
(13)
которое имеет ту же размерность, что и случайная величина X .
Так как величина pi*  mi / N представляет собой приращение F * ( xi )
статистической функции распределения случайной величины в каждой из точек x1 , x2 , , xn , то формулы (11), (11’), (12) можно переписать в виде:
n
m*X   xi
i 1
n
F * ( xi )
xi   xi f * ( xi )xi ,
xi
i 1
(14)
12
n
F * ( xi )
m  X    ( xi )
xi   ( xi ) f * ( xi )xi ,
xi
i 1
i 1
*
D*X
n

i 1
n
( xi  m*X )2
n
F * ( xi )
xi   ( xi  m*X )2 f * ( xi )xi .
xi
i 1
(14’)
(15)
Замечание. В формулах (14), (14’), (15) присутствует слагаемое с
F * ( xn )  F * ( xn1 )  F * ( xn ) , где xn 1 не относится к рассматриваемому набору
значений x1 , x2 , , xn случайной величины X . Здесь предполагается известным значение f * ( xn ) .
Пример 2. Найти статистическую функцию распределения, среднее значение, статистическую дисперсию и статистическое среднее квадратическое
отклонение случайной величины X по результатам 20 опытов, представленных в таблице
Решение: Статистическая функция распределения для упорядоченных в
порядке не убывания значений случайной величины X в данном случае представлена на рис. 3.
13
Рис. 3. Статистическая функция распределения примера 2
С помощью формул (11) - (13) найдем:
97,9
36,8
 4,9 ; D*X 
 1,8 ;
20
20
m*X 
 *X  1,8  1,4 .
При изучении случайных явлений часто приходится характеризовать результат опыта не одной случайной величиной, а несколькими случайными величинами. Например, движение воздуха в данной точке пространства в данный момент времени характеризуется тремя составляющими вектора скорости
ветра.
В таких случаях, кроме рассмотренных выше числовых характеристик
для каждой случайной величины, необходимо еще ввести какую-то величину,
характеризующую степень зависимости между случайными величинами.
Пусть, например, при N независимых опытах для двух случайных величин X и Y значения xi и y j появились mij раз при i  1, n , j  1, m и
n
m
N   mij . Тогда статистический корреляционный момент случайных веi 1 j 1
личин X и Y в данной серии N опытов определяется по формуле
M *[( X  m*X )(Y  mY* )] 
K *XY
n
m
 
i 1 j 1
где pij* 
mij
N
mij
N
1 n m
mij ( xi  m*X )( y j  mY* ) 

N i 1 j 1
n
m
(16)
( xi  m*X )( y j  mY* )   pij* ( xi  m*X )( y j  mY* ),
i 1 j 1


– частота события  X  xi  Y  y j .
Если при N независимых опытах для двух случайных величин X и Y
значения xi и yi появились mii раз при i  1, n , то из формулы (16) получим
K *XY

*
M [( X
n
 m*X )(Y
 mY* )] 
1 N
( xi  m*X )( yi  mY* ) 

N i 1
n
n
1
m
mii ( xi  m*X )( yi  mY* )   ii ( xi  m*X )( yi  mY* )   pii* ( xi  m*X )( yi  mY* ),

N i 1
i 1 N
i 1
(16’)
14
где
pii*
n
mii

– частота события  X  xi Y  yi  , N   mii .
N
i 1
Для примера на графике рис. 4 представлено распределение экспериментальных точек на плоскости x, y случайных величин X и Y .
Рис. 4. Распределение экспериментальных точек на плоскости x, y при
отсутствии видимой связи между случайными величинами X и Y
Если отсутствует связь между X и Y , то в каждой узкой полоске шириной x , параллельной оси y , центр тяжести попавших в эту полоску точек
приближенно лежит на прямой y  mY* независимо от того, где выбрана полоска, если число опытов достаточно велико.
В этом случае статистический корреляционный момент будет близок к
нулю, если число опытов достаточно велико.
Действительно, в этом случае получим
K *XY
n

i 1
( xi  m*X

n
m
)
j 1
pij* ( y j
 mY* )
n

i 1

( xi  m*X ) 


m

j 1
pij* y j
 mY*

*
p
 ij  
j 1

m

  ( xi  m*X ) mY*  mY*  0,
i 1
где
m
 pij*  1 для фиксированного значения
j 1
xi .
На рис.5 показано распределение экспериментальных точек в случае
явно выраженной зависимости между случайными величинами X и Y .
15
Рис. 5. Распределение экспериментальных точек на плоскости x, y при
наличии видимой связи между случайными величинами X и Y
Распределение экспериментальных точек на рис. 5 дает основание провести прямую, уравнение которой с известной степенью точности будет характеризовать зависимость случайных величин X и Y .
Пример 3. Найти статистические дисперсии и статистический корреляционный момент случайных величин X и Y по результатам их наблюдений
при 20 опытах, представленных в таблице.
Решение: Находим сначала средние значения случайных величин X , Y
при N  20 по формулам:
m*X
1 N
2,1
  xi 
 0,1 ;
N i 1
20
mY*
1 n
2,1
  yi 
 0,1 .
N i 1
20
Затем находим значения статистических дисперсий случайных величин
X , Y по формулам:
16
D*X
1 N
36,8
  ( xi m*X )2 
 1,8;
N i 1
20
DY*
1 N
25,8
  ( yi mY* )2 
 1,3;
N i 1
20
и их статистический корреляционный момент, учитывая, что элементы xi y j
при j  i в таблице отсутствуют, воспользуемся формулой (16’):
K *XY 
1 N
21,1
( xi m*X )( yi  mY* ) 
 1,1.

N i 1
20
Таким образом, в данном случае есть основание считать случайные величины X и Y связанными некоторой зависимостью. На рис. 6 показано распределение экспериментальных точек случайных величин X и Y .
Рис. 6. Распределение экспериментальных точек на плоскости x, y случайных величин X и Y примера 3
При увеличении числа опытов рассмотренные числовые характеристики
случайных величин стабилизируются около некоторых значений.
Устойчивость частот событий и характеристик случайных величин при
большом числе опытов является основной закономерностью массовых случайных явлений. Это дает основание ввести соответствующие абстрактные теоретические характеристики событий и случайных величин, независимые от эксперимента, зная которые можно было бы судить о поведении событий и случайных величин при большом числе опытов, не производя самих опытов.
Вероятность события и его свойства
Основной теоретической характеристикой случайного события является
17
его вероятность. Вероятностью события называется число, характеризующее
частоту события при большом числе опытов, то есть такое число, около которого частота события стремится стабилизироваться при неограниченном
числе опытов (например, бросание монеты). Таким образом, вероятность события представляет собой его «теоретическую» частоту. При этом вероятность события А обозначается символом P( A) (без звездочки сверху), для которой выполняется неравенство 0  P( A)  1.
Если опыт сводится к схеме случаев (обладает симметрией возможных
исходов), то вероятность события А в данном опыте можно оценить по относительной доле благоприятных случаев. Вероятность события А вычисляется
как отношение числа благоприятных случаев m к общему числу случаев n:
P ( А) 
m
.
n
Вероятности событий обладают всеми свойствами частот событий рассмотренных выше. Аналогично свойству (4), здесь справедлива формула сложения вероятностей несовместных событий A1 , A2 ,
, An :
 n  n
P   Ai    P ( Ai ) .
 i 1  i 1
Если события E1 , E2 ,
(4’)
, En образуют полную группу, то есть в результате
опыта появляется одно из них или сумма событий E1  E2 
 En представ-
ляет достоверное событие, то справедлива формула
 n

P   Ei   1 .
 i 1 
Два несовместных события A и A , образующих полную группу, называются противоположными событиями и выполняется равенство
P  A  P  A   1 .
Условной частоте события (5) соответствует понятие условной вероятности события
18
P( A | B) 
P( AB)
,
P( B)
(5’)
P( B | A) 
P( AB)
.
P( A)
(6’)
Из выражений (5’), (6’) следует формула умножения вероятностей
P( AB)  P( A) P( B | A)  P( В) P( А | В) .
(7’)
По индукции доказывается общая формула для произвольного числа событий A1 , A2 ,
, An :
P( A1 A2
An )  P ( A1 ) P ( A2 | A1 )
P ( An | A1 A2
An1 ) ,
(8’)
причем порядок нумерации событий может быть установлен произвольно.
Условие независимости события А от события В можно записать в виде:
P( A)  P( А | В) ,
тогда из формулы (7’) получим выражение
P( AB)  P( А) P( В) .
В общем случае для независимых событий из формулы (8’) следует выражение
 n
 n
P   Ai    P ( Ai ) .
 i 1  i 1
В случае, когда вероятность события А непосредственно трудно вычислить, но при этом легко вычисляются условные вероятности события А относительно некоторых несовместных событий E1 , E2 ,
, En , образующих полную
группу, то можно записать
 n

 n

P  A   P  A Ei   P   AEi  .
 i 1 
 i 1

Применяя принцип сложения и умножения вероятностей, получим
n
n
P  A   P  AEi    P  Ei P  A | Ei  ,
i 1
(16)
i 1
19
которая называется формулой полной вероятности.
Если в результате произведенного опыта появилось событие А и на основании этого факта требуется высказать суждение о том, какое из несовместных событий E1 , E2 ,
, En , образующих полную группу, имеет место, то ре-
шить этот вопрос с полной определенностью в общем случае невозможно. Но
можно поставить задачу нахождения вероятностей событий E1 , E2 ,
, En отно-
сительно события А. Тогда, применяя принцип умножения вероятностей, получим выражение
P( A) P( E j | A)  P( E j ) P( А | E j ) ,
из которой с учетом формулы (16) получим формулу Бейеса:
P( E j | A) 
P( E j ) P( А | E j )
P( A)

P( E j ) P( А | E j )
n
 P  Ei P  A | Ei 
, j  1, n .
(17)
i 1
Здесь безусловные вероятности P( E j ) называются априорными (до
опыта), а условные вероятности P( E j | A) – апостериорными (после опыта) вероятностями событий E j .
Функция распределения вероятностей
Случайная величина X определяется заданием интервала ее возможных
значений, например, [ x1, x2 ] или [, ] , и функцией распределения вероятностей P( X  x) (интегральным законом распределения):
F ( x)  P( X  x) ,
(17)
для которой выполняются условия:
F ()  P( X  )  0 , F ()  P( X  )  1,
(18)
при этом график функции распределения (17) является неубывающим.
Рассмотрим прерывную случайную величину X с возможными значениями xi , i  1, n . Каждое из этих значений возможно, но не достоверно, и величина X может принимать каждое из них с некоторой вероятностью. В результате опыта величина X примет одно из этих значений, то есть произойдет
20
одно из полной группы несовместных событий X  xi , i  1, n .
Обозначим вероятности этих событий P ( X  xi )  pi , при этом для полной группы несовместных событий выполняется равенство:
n
 pi  1 .
i 1
Законом распределения называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями.
Простейшей формой задания законом распределения является таблица,
в которой перечислены возможные значения случайной величины и соответствующие им вероятности. Такая таблица называется рядом распределения
случайной величины X .
Зная ряд распределения прерывной случайной величины, можно построить функцию распределения этой величины с помощью выражения
F ( x)  P( X  x)   P( X  xi ) ,
(19)
xi  x
где неравенство xi  x под знаком суммы указывает, что суммирование распространяется на все те значения xi , которые меньше x .
Пример 4. Производится четыре независимых опыта. Задан ряд распределения случайной величины X – число появлений события А в четырех опытах в виде таблицы X :
xi
0
1
2
3
4
pi
0,24
0,41
0,26
0,085
0,005
Тем самым, вероятность того, что событие А не появится в четырех опытах равна p1  0, 24 и появится четыре раза равна p4  0,005 , то есть крайне
мала.
Требуется построить функцию распределения числа появления события А.
Решение: Построим функцию распределения случайной величины X с
21
учетом выражений (17) - (19):
1) при x  0
F ( x)  0 ;
2) при 0  x  1
F ( x)  0,24 ;
3) при 1  x  2
F ( x)  0,24  0,41  0,65 ;
4) при 2  x  3
F ( x)  0,65  0,26  0,91 ;
5) при 3  x  4
F ( x)  0,91  0,085  0,995 ;
6) при x  4
F ( x)  0,995  0,005  1 ;
График функции распределения представлен на рис. 7.
Рис. 7. График функции распределения примера 4
Числовые характеристики прерывной случайной величины
Рассмотрим прерывную случайную величину X с возможными значениями xi с вероятностями pi , i  1, n , образующими полную группы несовместных событий:
n
 pi  1 .
i 1
Запишем среднее взвешенное значение из значений xi в виде:
n
mX  M  X  
 xi pi
i 1
n
 pi
n
  xi pi ,
(20)
i 1
i 1
которое называется математическим ожиданием прерывной случайной величины. Выражение (20) по форме совпадает с определением центра масс тел с
координатами xi и массами pi . В частном случае из формулы (20) при pi  pi*
22
, i  1, n следует формула (11): M  X   M *  X  .
Аналогично формуле (20) вводится понятие дисперсии прерывной случайной величины:
n
DX  D  X  
 ( xi  mX )2 pi
i 1
n
 pi
n
  ( xi  mX )2 pi ,
(21)
i 1
i 1
из которой при pi 
pi* ,
i  1, n следует формула (12): D X   D*  X  .
Плотность распределения непрерывной случайной величины
Для непрерывной случайной величины с непрерывной и дифференцируемой функцией распределения F ( x)  P( X  x) используется плотность распределения (дифференциальный закон распределения) случайной величины X,
которая определяется по формуле:
F ( x  x)  F ( x) dF ( x)

.
x0
x
dx
f ( x)  lim
(20)
Отметим, что функция f ( x) является теоретическим аналогом функции
F * ( xi )
, рассмотренной выше для дискретных случайных величин.
f ( xi ) 
xi
*
Величина dF ( x)  f ( x)dx называется элементом вероятности.
Из формулы (20) после интегрирования:
x


x
x
dF ( x)
f ( x)dx  
dx   dF ( x) F ( x)  F ()  F ( x)
dx


с учетом F ()  0 следует выражение для функции распределения
x
F ( x)  P( X  x)  P(  X  x) 

f ( x)dx .
(21)

Отметим, что функция F ( x) является теоретическим аналогом функции (10’).
Из формулы (20) также следует выражение
23

F (  )  F ( )   f ( x)dx .
(22)
F (  )  F ( )  P(  X   ) ,
(23)

Учитывая равенство
получим, что вероятность попадание случайной величины на заданный участок   X   равна

P(  X   )  F (  )  F ( )   f ( x)dx .
(24)

Распределение вероятностей, для которого плотность вероятности постоянна в интервале (a, b) и равна нулю вне этого интервала, называется равномерным. При этом очевидно, что
1

при a  x  b;

.
f ( x)   b  a

0 при x  a и при x  b.
(25)
Для выражения (25), согласно (21), справедлива функция распределения
при x  a;
 0
x a

F ( x)  
при a  x  b;
b

a

при x  b.
 1
(26)
Графики функций (25) и (26) приведены на рис. 8.
Рис. 8. Графики плотности вероятности и функции распределения
Закон распределения, которому соответствует плотность вероятности и
функция распределения
24
f ( x)  ke  kx , F ( x)  1  e  kx при x  0 ,
(27)
называется показательным.
Нормальный закон распределения
Наиболее распространенным законом распределения случайной величины Х является нормальный закон распределения (закон Гаусса), для которого плотность вероятности определяется формулой
1
f ( x) 
e
 2
 ( x  a )2
2 2
,
(28)
с постоянными параметрами a ,  . На рис. 9 приведены графики функции (28)
для различных значений a ,  .
Рис. 9. Графики плотности вероятности нормального закона распределения
Найдем функцию распределения F ( x) по формуле (21):
F ( x) 
1
 2
 ( x a )2
x
e
2 2
dx .

Сделаем в интеграле замену переменной
xa
 t , dt  dx и приведем

его к виду:
x a
1
F ( x) 
2


t 2
e 2 dt
.
(29)

Интеграл (29) не выражается через элементарные функции, но его
можно вычислить через таблично заданный интеграл вероятностей:
25
1
* ( x ) 
2
x

t 2
e 2 dt
.
(30)

Тогда получим формулу
 xa
F ( x )  * 
.
  
(31)
По формуле (31) можно найти вероятность попадания случайной величины Х на участок от  до  с помощью формулы (24) по выражению
 a
*  a 
P(  X   )  * 
 
.
  
  
(32)
Для интеграла (30) с учетом замены переменных справедливо свойство:
1
2
* ( ) 


t 2
e 2 dt

0 t 2
 t 2

1 
2 dt  e 2 dt  

e



2  
0



2
e
2 0
t 2
2 dt .
Отсюда, учитывая, что * ()  F ()  1 , получим значения интегралов
 t 2
2 dt
1
e
2 0
1
2
1
 ,
2
0

t 2
e 2 dt


1
.
2
Тогда получим формулу
1
* ( x ) 
2
x
x

t 2
e 2 dt

1
где ( x) 
e
2 0
t 2
2 dt
0 t 2
x t 2
 1
1 
1
2 dt 
2 dt  

e
e
 ( x) ,

 2
2  
2 0


(30’)
. Поэтому в справочных таблицах приводятся либо зна-
чения интеграла  * ( x ) , либо интеграла ( x) . При этом значения правой части
выражения (32) не изменяются.
Здесь с учетом замены переменной t  t справедливо свойство
1
 ( x) 
2
 x t 2
e 2 dt

0
1

e
2 0
x
t 2
2 dt
 ( x) ,
то есть функция ( x) является нечетной.
26
Правило трех сигма
На рис. 10' приведена функция (28) при mX  0 , на которой указаны в
процентах площади, заключенные под кривой, которые соответствуют значению вероятности случайной величины X: все значения случайной величины с
вероятностью 0,9973 (то есть 99,73% всех ее значений) лежат в интервале
mX  3 X , mX  3 X  . Значения, которые выходят за предел
3 X , принято
считать грубыми ошибками. Большое количество таких ошибок может свидетельствовать о том, что распределение на самом деле не является нормальным.
Рис. 10’
Если закон распределения случайной величины неизвестен, а известны
только m X ,  X , на практике обычно считают отрезок  mX  3 X , mX  3 X 
участком практически возможных значений случайной величины X (так называемое «правило трех сигма»).
Пример 5. Функция распределения непрерывной случайной величины
X задана выражением:
 0 при x  0;

F ( x)  ax 2 при 0<x  1;
 1 при x  1.

Требуется найти:
1) коэффициент a;
2) плотность распределения f ( x) ;
3) вероятность попадания величины X на участок от 0,25 до 0,5.
27
Решение:
1) Так как функция распределения непрерывной случайной величины X
непрерывна, то при x  1 , ax 2  1 получим a  1 .
2) Плотность распределения величины X выражается формулой
 0 при x  0;

f ( x)  2 x при 0<x  1;
 0 при x  1.

3) По формуле (24) найдем
P(0,25  X  0,5)  F (0,5)  F (0,25)  0,52  0,252  0,1875 .
Числовые характеристики непрерывной случайной величины
Теоретическим аналогом статистического среднего (14) при n   является интеграл

mX
M[X ] 

 xdF ( x)   x f ( x)dx ,

(33)

который называется математическим ожиданием или средним значением
случайной величины Х.
Теоретическим аналогом статистического среднего значения функции
(14’) при n   является интеграл:
M [ ( X )] 

  ( x) f ( x)dx ,
(34)

где  ( x) может быть любой действительной или комплексной функцией.
Полагая в формуле (34)  ( x ) x r ( r  1,2,
), определим моменты слу-
чайной величины Х.
Начальным моментом порядка r или просто моментом порядка r случайной величины Х называется математическое ожидание
r  M [ X ] 
r

x
r
f ( x)dx .
(35)

28
Очевидно, что при r  1 получим M [ X ]  1 .
Теоретическим аналогом статистической дисперсии (15) при n   является интеграл

DX  M [( X  mX ) ] 
2
 ( x  mX )

2
dF ( x) 

 ( x  mX )
2
f ( x)dx ,
(36)

который называется дисперсией случайной величины Х.
Обобщая определение дисперсии случайной величины Х можно использовать центральный момент порядка r ( r  2,3,
), определяемый по формуле

r  M [( X  mX ) ] 
r
 ( x  mX )
r
f ( x)dx .
(37)

Очевидно, что при r  2 получим DX  2 .
При r  1 значение 1  0 , что следует из раскрытия интеграла (37):
1  M [( X  mX )] 





 ( x  mX ) f ( x)dx   xf ( x)dx  mX  f ( x)dx 


 mX  mX
 f ( x)dx  mX  mX  F ()  F ()   0.

Выразим дисперсию (36) через начальные моменты:
DX   2 

 ( x  mX )

2
f ( x)dx 

 (x
2
 2mX x  mX2 ) f ( x)dx 

(38)
  2  2mX2  mX2   2  12 .
Теоретическим аналогом статистического среднего квадратического отклонения является выражение:
 X  DX ,
которое называется средним квадратическим отклонением случайной величины X .
Пример 6. Для случайной величины X , равномерно распределенной в
интервале a  x  b найти выражения для  r и  r .
Решение: По формулам (25), (35), (37) найдем выражения:
29
br 1  a r 1
 x dx  (r  1)(b  a) ;
a
b
1
r 
ba
r
b2  a 2 b  a
mX  1 

;
2(b  a)
2
 0 при нечетном r;
r
ba


x

dx

 (b  a)r



2 
 2r (r  1) при четном r.
a

b
1
r 
ba
Пример 7. Для случайной величины X , распределенной по показательному закону (27) найти математическое ожидание и дисперсию.
Решение: Математическое ожидание находим по формуле

mX  k  xe
 kx
0




1
1
1  y 
y
y
y
dx 
ye
dy


yde


ye
|

e
dy


0


( y kx ) k 
k
k


0
0
0

=
.
1 y
1 y 
1
1
e
dy


e
|


0

1

.


0
k 0
k
k
k
Дисперсия вычисляется по формуле
DX  

2
2  mX
 k x e
2  kx
0

1
1
1
dx  2  2  y 2e  y dy  2 
k ( y kx ) k 0
k


 1
1  2 y 
2
1
1
y
  2  y e |0 2  ye dy   2  2  ye  y dy  2  2 .
k 
k 0
k
k
 k
0
Пример 8. Для случайной величины X , распределенной по нормальному закону (28) найти математическое ожидание и дисперсию.
Решение: Математическое ожидание определяется по формуле

mX 
 x

1
e
2
 ( x  a )2
2 2
dx .
Производя замену переменных t  x  a и используя формулы



e
 h2t 2
dt 

h

,
h t
 te dt  0 при h 

22
1
 2
,
получим
30
1
mX 
 2
t 2

 (a  t )e 2
2
dt  a .
(39)

Дисперсия вычисляется по формуле
DX 
1
 2
 ( x a )2

 ( x  a) e
2
2 2
dx 

1
 2
t 2

 t e 2
2
2
dt .

Пользуясь формулой

2 h t
 t e dt 
22


,
2h3
получим
DX   2 .
(40)
Таким образом, у нормального закона распределения параметры a  m X ,
  DX .
Функция распределения и плотность вероятности случайного вектора
В некоторых задачах приходится рассматривать совместно несколько
случайных величин. Совокупность любого числа n случайных величин X 1 ,
X 2 ,…, X n удобно рассматривать как одну n - мерную векторную случайную
величину X  [ X1
X n ]T , где символ «Т» означает транспонирование.
Для простоты и наглядности рассмотрим двумерный случайный вектор
[ X Y ]T с составляющими X , Y .
Функцией распределения двумерного случайного вектора [ X Y ]T с составляющими X , Y или совместной функцией распределения двух случайных
величин X и Y называется вероятность совместного выполнения неравенств
X  x , Y  y , рассматриваемая как функция двух переменных x, y :
F ( x, y )  P  ( X  x)(Y  y ) 
 X  x
P
.
Y

y


(41)
31
С геометрической точки зрения функция распределения F ( x, y ) представляет собой вероятность попадания случайной точки на плоскости в квадрант (четверть плоскости) с вершиной левее и ниже точки ( x, y) , как показано
на рис. 10.
Рис. 10
Зная функцию распределения F ( x, y ) случайного вектора, можно вычислить вероятности попадания случайной точки в любые прямоугольные области.
Очевидно, что вероятность попадания конца случайного вектора [ X Y ]T
в заштрихованную область рис. 11
Рис. 11
выражается через функцию распределения формулой
 X x 
P
  F ( x,  )  F ( x,  ) .


Y




(42)
Вероятность попадания конца случайного вектора [ X Y ]T в заштрихо  X   
ванную область рис. 12 P 

  Y  
32
Рис. 12.
находится из формулы
  X   
F ( , )  P 
  F (  ,  )  F ( ,  )  F ( ,  ) ,
  Y  
(43)
как сумма вероятностей, при этом учитывается площадь полоски
 X  
P
  F ( ,  )  F ( ,  )


Y




по формуле (42).
Из формулы (43) найдем
  X   
P
  F (  ,  )  F (  ,  )  F ( ,  )  F ( ,  ) ,
  Y  
(44)
Для непрерывных случайных величин X,Y с непрерывной и дифференцируемой функцией распределения F ( x, y ) используется плотность распределения, определяемая по формуле:
F ( x  x, y  y )  F ( x  x, y )  F ( x, y  y )  F ( x, y )  2 F ( x, y )
. (45)

x0
xy
xy
f ( x, y )  lim
y 0
которая представляет собой предел отношения вероятности попадания в малый прямоугольник (см. формулу (44)) к площади этого прямоугольника, когда оба его размера стремятся к нулю.
Покажем справедливость формулы (45). Здесь можно записать приближенное равенство для малой величины x при некоторых x и y :
F ( x, y ) F ( x  x, y )  F ( x, y )

.
x
x
33
Тогда для правой части выражения (45) получим приближенное равенство для малой величины y :
 2 F ( x, y )   F ( x, y ) 
 

xy
y  x 
 F ( x  x, y  y )  F ( x, y  y ) F ( x  x, y )  F ( x, y )  1




x
x

 y
F ( x  x, y  y )  F ( x  x, y )  F ( x, y  y )  F ( x, y )

,
xy
которое совпадает с левой частью выражения (45).
Данную формулу можно использовать для двух дискретных случайных
величин X и Y. В этом случае получим выражение для статистической плотности распределения:
f * ( xi , yi ) 
 2 F * ( xi , yi ) F * ( xi 1, yi 1 )  F * ( xi 1, yi )  F * ( xi , yi 1)  F * ( xi , yi )
.

xi yi
xi yi
Тогда формулу (16) можно переписать в виде
K *XY
n
 2 F * ( xi , yi )
( xi  m*X )( y j  mY* )xi yi 
xi yi
j 1
m
M *[( X  m*X )(Y  mY* )]  
i 1
n
m
  f * ( xi , yi )( xi  m*X )( y j  mY* )xi yi ,
i 1 j 1
где F * ( x, y)  P*  ( X  x)(Y  y)  – статистическая функция распределения
случайных величин X и Y.
Геометрически функцию f ( x, y )  0 можно изобразить некоторой поверхностью (рис. 13), которая называется поверхностью распределения.
Рис. 13
34
По формуле (45) с помощью двойного интегрирования можно найти выражение для вероятности попадания случайной точки в произвольную область
D:
P  ( X ,Y )  D    f ( x, y)dxdy .
(46)
D
Геометрически вероятность попадания в область D изображается объемом цилиндрического тела C, ограниченного сверху поверхностью распределения и опирающегося на область D (рис. 14).
Рис. 14
Из формулы (46) вытекает формула для вероятности попадания в прямоугольник рис. 12:

P  ( X , Y )  R    f ( x, y )dxdy .
(47)

Из формулы (47), заменяя пределы интегрирования, найдем выражение для
функции распределения F ( x, y ) , которая есть вероятность попадания случайной точки в бесконечный квадрант:
x y
F ( x, y) 

f ( x, y)dxdy .
(48)
f ( x, y )dxdy  1 ,
(49)
 
Очевидно, что
 
F (, ) 

 
то есть вероятность попадания во всю плоскость xOy равна единице.
35
Зная функцию распределения F ( x, y ) , можно определить законы распределения отдельных величин:
F1 ( x)  F ( x, ) , F2 ( y )  F (, y ) .
(50)
Выразим плотность распределения каждой из величин с помощью формулы (48):
x 
F1 ( x)  F ( x, ) 

f ( x, y )dxdy .
 
Дифференцируя по x, получим выражение для плотности распределения величины X:

F ( x)
f1 ( x)  1
  f ( x, y)dy .
x

(51)
Аналогично найдем

F ( y )
f 2 ( y)  2
  f ( x, y )dx .
y

Тем самым, справедливы выражения
(52)
x
F1 ( x)  F ( x, ) 

f1 ( x)dx ,

y
F2 ( y )  F (, y ) 

f 2 ( y )dy .

Зная только законы распределения отдельных случайных величин не
всегда можно найти закон распределения для двух случайных величин. Нужно
еще знать зависимость между величинами. Для этого используются условные
законы распределения.
Условным законом распределения F ( x | y ) величины X называется ее закон распределения, вычисленный при условии, что другая случайная величина
Y приняла определенное значение y.
Если событие В заключается в том, что случайная величина Y удовлетворяет неравенству y1  Y  y2 , то условная функция распределения, согласно
выражению (6), определяется по формуле
36
F1 ( x | y1, y2 ) 
P  ( X  x)( y1  Y  y2 ) 
.
P  y1  Y  y2 
Выражая здесь вероятности неравенств через функции распределения по
формулам (24) и (42), получим выражение
F1 ( x | y1, y2 ) 
F ( x, y2 )  F ( x, y1 )
,
F ( y2 )  F ( y1 )
которое (с учетом вероятности F ( x, y2 )  F ( x, y1 ) попадания случайной величины X в полоску) можно переписать в виде
x y2
F1 ( x | y1, y2 ) 
  f ( x, y)dxdy
 y1
y2
.
(53)
 f2 ( y)dxdy
y1
В случае, когда y2  y1 , с учетом приближенных равенств
y2
y2
y1
y1
 f ( x, y)dxdy  ( y2  y1) f ( x, y)dx ,  f2 ( y)dy  ( y2  y1) f 2 ( y)
для формулы (53) получим приближенное выражение
x
F1 ( x | y1, y2 ) 
y2  y1
 ( y2  y1) f ( x, y)dx

( y2  y1 ) f 2 ( y )
x

( y2  y1 )  f ( x, y )dx

( y2  y1 ) f 2 ( y )
.
Тогда в пределе при Y  y справедлива формула
x

F1 ( x | y )  
f ( x, y )dx
f2 ( y)
.
(54)
.
(55)
Аналогично определяется формула
y
F2 ( y | x) 

f ( x, y )dy

f1 ( x)
Из формулы (54) можно получить формулу для условной плотности ве37
роятности. Для этого продифференцируем выражение (54) по x, тогда получим
f1 ( x | y ) 
F1 ( x | y ) f ( x, y )
.

x
f2 ( y)
(56)
Аналогично из формулы (55) получим
f 2 ( y | x) 
F2 ( x | y ) f ( x, y )
.

y
f1 ( x)
(57)
Формулам (56), (57) можно дать геометрическую интерпретацию.
Рассмотрим прилежащий к точке ( x, y) элементарный прямоугольник
Rd со сторонами dx , dy (рис. 15).
Рис. 15
Вероятность попадания в этот прямоугольник согласно формулам (44),
(45) равна f ( x, y )dxdy , поэтому можно записать
f ( x, y)dxdy  P  ( X ,Y )  Rd   P  ( x  X  x  dx)( y  Y  y  dy)  .
Вероятность произведения этих двух событий, по теореме умножения
вероятностей (7), в пределе при X  x равна вероятности f1 ( x ) dx попадания
в элементарную полосу I, умноженную на условную вероятность f ( y | x)dy
попадания в элементарную полосу II, вычисленную при условии, что первое
событие имело место:
f ( x, y )dxdy  f1 ( x)dx f ( y | x)dy ,
откуда после сокращения на dxdy получим
f ( x, y )  f1 ( x) f 2 ( y | x) .
38
Аналогично можно записать
f ( x, y )  f 2 ( y ) f1 ( x | y ) ,
где использована вероятность f 2 ( y ) dy попадания в элементарную полосу II.
Отсюда следуют выражения для условной плотности вероятности (56),
(57).
С учетом формул (51), (52) выражения (56), (57) перепишем в виде
f1 ( x | y ) 
f ( x, y )


,
(58)
.
(59)
f ( x, y )dx

f 2 ( y | x) 
f ( x, y )


f ( x, y )dy

Для независимой случайной величины Y от X справедлива формула:
f 2 ( y | x)  f 2 ( y )
(60)
при любом y.
Учитывая, что из формул (56), (57) следует равенство
f1 ( x) f 2 ( y | x)  f 2 ( y ) f1 ( x | y ) ,
то с учетом подстановки формулы (60) найдем
f1 ( x | y )  f1 ( x) ,
то есть случайная величина X также не зависит от Y.
Тогда для независимых случайных величин X и Y из формул (56), (57)
получим
f ( x, y )  f1 ( x) f 2 ( y ) .
(61)
Формула (61) также следует из формулы (45) при F ( x, y )  F1 ( x) F2 ( y ) :
 2 F ( x, y ) F1 ( x) F2 ( y )
f ( x, y ) 

 f1 ( x) f 2 ( y ) .
xy
x
y
Пример 9. Плотность распределения имеет вид
f ( x, y ) 
1
.
 2 ( x 2  y 2  x 2 y 2  1)
39
Определить, зависимы или независимы случайные величины X и Y.
Решение: Разлагая знаменатель на множители, имеем выражение
f ( x, y ) 
1
,
 (1  x 2 )(1  y 2 )
2
которое распалось на множители. Значит X и Y должны быть независимыми.
Проверим независимость X и Y непосредственно по формуле (51):

f1 ( x) 



1
dy
f ( x, y )dy 
.
2 
 (1  x )   (1  y 2 )
Учитывая, что

1
 

dy

arctg
|

arctg


arctg(


)

  ,

 1  y2
2
2

окончательно получим

f1 ( x) 

f ( x, y )dy 

1
.
 (1  x 2 )
Аналогично

f2 ( y) 



1
dx
1
f ( x, y )dx 

.
2 
2
 (1  y )   (1  x )  (1  y 2 )
Тем самым, убеждаемся, что f ( x, y )  f1 ( x) f 2 ( y ) и, следовательно, X и Y
независимыми случайные величины.
Пример 10. Плотность распределения имеет вид
f ( x, y ) 
1
.
 (1  x 2 )(1  y 2 )
2
Найти функцию распределения F ( x, y ) . Определить вероятность попадания случайной точки (X, Y) в квадрат R рис. 16.
Рис. 16
40
Решение: Функцию распределения F ( x, y ) находим по формуле
x
1
y
y
x
1
1
dx
dy
F ( x, y )  2  
dxdy  2 
.
2
2
2 
   (1  x )(1  y )
  1  x  1  y 2
Учитывая, что
1

y
dy

arctg
|

arctg
y

arctg(


)

arctg
y

,

 1  y2
2

y
получим
F ( x, y ) 
1 
 

arctg x   arctg y   .
2
2 
2
 
Вероятность попадания случайной точки (X, Y) в квадрат R находим по
формуле
1
11
1
1
1
1
dx
dy
1
P  ( X ,Y )  R   2 
dxdy


.
 0 0 (1  x 2 )(1  y 2 )
 2 0 1  x 2 0 1  y 2 16
Числовые характеристики системы двух случайных величин
Аналогично
выше
рассмотренным
числовым
характеристикам
случайной величины вводятся характеристики для двух случайных величин X
и Y.
Для функции  ( X ,Y ) двух случайных величин X и Y можно записать
операцию математического ожидания:
M  ( X ,Y ) 
 
   ( x, y) f ( x, y)dxdy .
 
Начальным моментом порядка k , s случайного вектора [ X Y ]T называется математическое ожидание произведения X kY s :
 k ,s  M [ X Y ] 
k
s
 
 x
k
y s f ( x, y )dxdy .
(62)
 
Из формул (62), (51), (52) следуют выражения математических
ожиданий для отдельных случайных величин X, Y:
41
mX  1,0  M [ X Y ]  M [ X ] 
1 0
 
  xf ( x, y)dxdy 
 
(63)

 

  x   f ( x, y) dy dx   xf1( x) dx,

 



mY   0,1  M [ X Y ]  M [Y ] 
0 1
 
  yf ( x, y)dxdy 
 

 

  y   f ( x, y) dx dy   yf 2 ( y) dy.

 



.
(64)
Вектор [mX mY ]T геометрически определяет на плоскости координату
средней точки, вокруг которой происходит рассеивание точек (X, Y).
Центральным моментом порядка k , s случайного вектора [ X Y ]T называется
математическое
ожидание
произведения
( X  mX ) k (Y  mY ) s
центрированных случайных величин X, Y:
k ,s  M [( X  mX ) (Y  mY ) ] 
k
s
 
  ( x  mX )
k
( y  mY ) s f ( x, y )dxdy .
(65)
 
Из формул (65), (51), (52) следуют выражения дисперсий для отдельных
случайных величин X, Y:
DX  2,0  M [( X  mX ) 2 (Y  mY )0 ]  M [( X  mX ) 2 ] 
 

  ( x  mX )
2
f ( x, y )dxdy 
(66)
 






  ( x  mX )   f ( x, y )dy  dx   ( x  m X ) 2 f1 ( x)dx,




 


2
DY  0,2  M [( X  mX )0 (Y  mY ) 2 ]  M [(Y  mY ) 2 ] 
 

  ( y  my )
2
f ( x, y )dxdy 
.
(67)
 






  ( y  m y )   f ( x, y )dx  dy   ( y  m y ) 2 f 2 ( y )dy.







2
Значения DX и DY характеризуют отдельно рассеивание случайной
42
точки (X, Y) относительно средней точки (mX , mY ) в направлении осей Ох и
Оу соответственно.
Корреляционный момент случайных величин X, Y определяется по формуле:
K XY  1,1  M  ( X  mX )(Y  mY )  
 
  ( x  mX )( y  mY ) f ( x, y)dxdy 
 
 

 
 
  xy f ( x, y)dxdy  mY   xf ( x, y )dxdy  mX   yf ( x, y )dxdy 
 
 
 
 mX mY

(68)
 
f ( x, y )dxdy  M  XY   m X mY .
 
В частном случае из корреляционного момента (68) при Y  X с учетом
формулы (51) следует выражение дисперсии случайной величины X:
 
K XX  M [( X  mX )( X  mX )] 
  ( x  mX )( x  mx ) f ( x, y)dxdy 
 



 ( x  mX ) 
2


f ( x, y) dydx 

 ( x  mX )
2
f1( x) dx  DX .

Корреляционный момент (68) характеризует зависимость случайных
величин X, Y. Для независимых случайных величин корреляционный момент
равен нулю. Действивтельно, в этом случае выполняется равенство (60):
f ( x, y )  f1 ( x) f 2 ( y ) .
Тогда, подставляя в формулу (68), получим выражение
K XY 




 ( x  mX ) f1( x)dx  ( y  mY ) f 2 ( y)dy .

Интеграл
 ( x  mX ) f1( x)dx
представляет собой первый центральный

момент величины Х и, как было показано ранее, он равен нулю.
Следовательно, получим K XY  0 .
Отметим, что корреляционный момент (68) может равняться нулю для
43
зависимых случайных величин X, Y, если распределение вероятностей на плоскости XY симметрично относительно одной из прямых x  m X , y  mY , так как
в этом случае каждому элементу интеграла в формуле (68) соответствует
равный по абсолютной величине и противоположный по знаку элемент.
Пример 11. Пусть случайные величины X, Y имеют равномерную плотность распределения внутри круга С радиуса r с центром в начале координат:
2
2
2

a при x  y  r ,
f ( x, y )  
2
2
2

 0 при x  y  r .
Требуется определить корреляционный момент случайных величин X, Y.
Решение: Из условия
 

f ( x, y )dxdy 
 
найдем a 
 adxdy  a r
2
1
(С )
1
.
 r2
Вычислим корреляционный момент, учитывая что m X  mY  0 :
 
K XY 
1
  xyf ( x, y)dxdy   xyf ( x, y )dxdy   r 2  xydxdy .
 
(С )
(С )
Для вычисления интеграла разобъем область интегрирования (круг С) на
четыре сектора, соответсвующих квадрантам плоскости. В первом и третьем
квадрантах xy  0 , во втором и четвертом квадрантах xy  0 . Поэтому
учитывая равность площадей получим, что K XY  0 . Это указывает на то, что
случайеые величины X, Y возможно являются независимыми, но это ни так.
Действительно, если величина Х приняла, например, значение 0, то
величина Y может с равной вероятностью принимать все значения от –r до r;
если же величина Х приняла значение r, то величина Y может принимать
только одно значение равное 0. Тем самым, диапазон возможных значений
величины Y зависит от того, какое значение приняла величина Х, то есть X и Y
зависимые случайные величины.
Таким образом, из некоррелированности случайных величин не всегда
44
следует их незаисимость.
Для
случайных
величин
с
нормальным
распределением
некоррелированность одновременно означает и независимость.
Основные теоремы числовых характеристик
Рассмотрим основные теоремы числовых характеристик, которые
используются для преобразований случайных величин.
1. Математическое ожидание и дисперсия неслучайной величины
Случайная величина X  c , где с – неслучайная величина.
Математическое ожидание:
mX  M  X   M  c  


 c f ( x)dx  c 

f ( x)dx  c .

Дисперсия:
DX  M ( X  mX )2   M (c  c)2   0 .
2. Математическое ожидание и дисперсия случайной величины,
умноженной на константу
Случайная величина Y  cX , где X – случайная величина, с –
неслучайная величина.
Математическое ожидание:
mY  M Y   M cX  




 cx f ( x)dx  c  xf ( x)dx  cM  X   cmX .
Дисперсия:
DY  M (Y  mY )2   M (cX  cmX )2   c2M ( X  mX )2   c2 DX .
3. Математическое ожидание и дисперсия суммы случайных величин
Случайная величина Z  X  Y , где X и Y – случайные величины.
Математическое ожидание:
45
mZ  M  Z   M  X  Y  
 
  ( x y ) f ( x, y )dxdy 
 
 
 
 
 

  x f ( x, y)dxdy    yf ( x, y)dxdy 





  x   f ( x, y )dy dx   y   f ( x, y )dx dy.


 
 
 
 

С учетом формул (51), (52) окончательно получим

mZ 

 x f1( x)dx   yf 2 ( y)dy  M  X   M Y   mX  mY .

(69)

Дисперсия:
2
2
DZ  M ( Z  mZ ) 2   M  X  Y  mX  mY    M  X  m X  Y  mY   




2
2
 M  X  mX   Y  mY   2  X  mX Y  mY   


 

  ( x mX )
 
2
f ( x, y )dxdy 
 
  ( y mY )
2
f ( x, y )dxdy 
 
 
2 
 ( x mX )( y mY ) f ( x, y)dxdy  DX  DY  2K XY .
 
4. Математическое ожидание и дисперсия линейной функции
n
Случайная величина Y   ai X i  b , где X i – случайные величины; ai ,
i 1
b – неслучайные величины.
Математическое ожидание:
n
 n
 n
mY  M Y   M   ai X i  b    ai M  X i   b   ai m X i  b .
i 1
 i 1
 i 1
(70)
Дисперсия:
46
n
 n
2
DY  M (Y  mY )   M   ai X i  b   ai mX i
 i 1
i 1
2
 n
  n

 M   ai X i  mX i     M  ai X i  m X i
 i 1
  i 1 



 
 


 b

2



  
2
(71)
n
2 M  ai X i  m X i a j X j  m Xj    ai2 DX i  2 ai a j K X i X j .

 i 1
i j
i j
5. Математическое ожидание и дисперсия произведения случайных
величин
Случайная величина Z  XY , где X и Y – случайные величины.
Математическое ожидание:
mZ  M  XY  
 
 
 
 
  xy( f ( x, y)dxdy     x  mX  mX  y  mY  mY  f ( x, y)dxdy 
 

    x  mX  y  mY   mY  x  mX   mX  y  mY   mX mY  f ( x, y )dxdy 
 
 
 K XY  mY
 
   x  mX  f ( x, y)dxdy  mX    y  mY  f ( x, y )dxdy  mX mY 
 
 K XY  mY
 




  x  mX  f1( x)dx  mX   y  mY  f 2 ( y )dy  mX mY  mX mY  K XY .
Дисперсия в случае независимых случайных величин
DZ  M ( Z  mZ )2   M ( XY  mX mY )2   M  X 2Y 2  mX2 mY2  2mX mY XY  
 M  X 2Y 2   mX2 mY2  2mX mY M  XY .
Для независмых случайных величин согласно формулам (60), (68)
выполняется равенство K XY  0 , то есть M  XY   mX mY . При этом также
справедливо равенство для функций X 2 и Y 2 :
M  X 2Y 2   M  X 2  M Y 2  .
Учитывая, что
47

x
  x  mX 
2
M  X  
f ( x)dx 




2
2

  x  mX  mX 
2
f ( x )dx 

 2  x  mX  mX  mX2  f ( x)dx  DX  m X2 ,

M Y 2   DY  mY2 ,
окончательно получим

DZ  M  X 2  M Y 2   mX2 mY2  2mX2 mY2  DX  mX2
 D
Y

 mY2  mX2 mY2 
 DX DY  mY2 DX  mX2 DY .
Числовые характеристики для комплексных случайных величин
В теории случайных функций часто удобно пользоваться комплексными
случайными величинами. Поэтому рассмотрим определения математического
ожидания,
дисперсиии
корреляционного
момента
для
комплексных
случайных величин.
Рассмотрим комплексную случайную величину Z  X  jY , где X и Y –
действительные случайные величины, j  1 . Пусть f ( x, y) – совместная
плотность вероятности случайных величин X, Y.
Математическое
ожидание
комплексной
случайной
величины
Z  X  jY определяется по формуле
mZ  M  Z   M  X  jY  
 
  ( x jy ) f ( x, y )dxdy 
 

 
 
 
 
  x f ( x, y)dxdy  j   yf ( x, y)dxdy  M  X   jM Y   mX  jmY .
Рассмотрим сумму комплексных случайных величин Z  X  Y , где X и
Y –случайные величины X  X 1  jX 2 , Y  Y1  jY2 . Тогда найдем
48
mZ  M  Z   M  X  Y   M  X 1  Y1  j  X 2  Y2    M  X 1  Y1   jM  X 2  Y2  


 M  X 1   M Y1   j  M  X 2   M Y2   m X1  m X 2  j mY1  mY2 .
Дисперсией комплексной случайной величины Z  X  jY называется
математическое ожидание квадрата модуля
DZ  M | Z  mZ |2   M | X  jY  mX  jmY |2  
 M | ( X  mX )  j (Y  mY ) |2   M ( X  m X ) 2  (Y  mY ) 2  
=M ( X  mX )2   M (Y  mY )2   DX  DY .
Отметим, что данная формула совпадает с формулой дисперсии суммы
действительных случайных величин, имеющей вид DZ  DX  DY  2 K XY , при
K XY  0 . Иначе говоря, комплексная случайная величина равносильна двум
независимым действительным случайным величинам.
Корреляционный момент комплексных случайных величин X  X 1  jX 2
и Y  Y1  jY2 определяется по формуле
K XY  M ( X  mX )(Y  mY ) ,
где mX  mX1  jmX 2 , Y  Y1  jY2 , mY  mY1  jmY2 .
С учетом подстановок найдем выражение
K XY  M ( X  mX )(Y  mY )  





 M  X 1  mX1  j ( X 2  mX 2 ) Y1  mY1  j (Y2  mY2 )  


 M  X 1  mX1 Y1  mY1   M  X 2  mX 2 Y2  mY 2   




 jM  X 2  mX 2 Y1  mY1  X 1  mX1 Y2  mY2  


=K X1Y1  K X 2Y2  j ( K X 2Y1  K X1Y2 ).




 



Также можно записать
K XY  M ( X  mX )(Y  mY )   M  XY   mX M Y   mY M  X   mX mY 
 M  XY   mX mY .
Отсюда следует, что
49
M  XY   mX mY  K XY .
Очевидно, что в силу произвола в обозначениях случайных величин и
свойств вида KY1X1  K X1Y1 , справедливо выражение
KYX  M (Y  mY )( X  mX )   KY1X1  KY2 X 2  j ( KY2 X1  KY1X 2 ) 
 K X1Y1  K X 2Y2  j ( K X1Y2  K X 2Y1 )  K X1Y1  K X 2Y2  j ( K X 2Y1  K X1Y2 )  K XY .
Здесь аналогично можно записать, что
M YX   mX mY  KYX  mX mY  K XY .
Отсюда получим
M YX   mX mY  K XY  m X mY  K XY  M  XY  .
Линейная регрессия
Рассмотрим двумерный случайный вектор [ X Y ]T с составляющими X ,
Y , которые будем считать зависимыми, то есть одну из них можно
приближенно представить как функцию другой, например Y   ( X ) . При этом
функцию  ( X ) называют среднеквадратической регрессией Y на Х.
Регрессионный анализ позволяет выявить характер связи между
случайными величинами Y и Х.
Величины Y и Х называются линейно коррелированными, если линии
регрессии являются прямыми. В этом случае Y   ( X )  aX  b , где
параметры a и b требуется определить. Функция  ( X )  aX  b считается
наилучшим
приближением
Y,
если
математическое
ожидание
2
M Y   ( X )   принимает наименьшее возможное значение. Данный метод


называется методом наименьших квадратов (МНК).
Запишем необходимые условия минимума дисперсии, внося операцию
частной производной под знак математического ожидания:

2
M Y  aX  b    M  2 X Y  aX  b    0 ,

a 
50

2
M Y  aX  b    M  2 Y  aX  b    0 .

b 
Отсюда следуют уравнения
M  XY   aM  X 2   bm X  0,
mY  am X  b  0.
Согласно формуле (68) выполняется равенство M  XY   K XY  mX mY ,
согласно формуле (38) выполняется равенство M  X 2   DX  mX2 . Тогда получим систему уравнений относительно неизвестных параметров  и  :
mX a  b  mY ,
D
X

 mX2 a  mX b  K XY  mX mY .
Решение данной системы уравнений имеет вид:
a
K XY
K m
, b  mY  XY X  mY  amX .
DX
DX
Тогда можно записать уравнение прямой среднеквадратической регрессии Y на Х:
y  ax  b 
K XY
K m
x  mY  XY X ,
DX
DX
или
y  mY 
где
K XY
 x  mX  ,
DX
K XY
– называется коэффициентом регрессии Y на Х.
DX
Аналогично для зависимости
X   (Y )  aY  b можно получить
прямую среднеквадратической регрессии Х на Y с учетом замены обозначений:
x  ay  b 
K XY
K m
y  mx  XY Y ,
DY
DY
или
x  mX 
K XY
 y  mY .
DY
51
Обе прямые регрессии проходят через точку с координатами ( m X , mY ),
называемую центром совместного распределения величин Х и Y.
Прямые среднеквадратической регрессии Y на Х и Х на Y совпадают,
если выполняется условие K XY   DX DY , что проверяется подстановкой.
При независимости случайных величин Х и Y имеем K XY  0 , при этом
получим уравнения прямых регрессии x  m X , y  mY , перпендикулярных
друг другу.
При решении задачи линейной регресси по экспериментальным
дискретным значениям xi , yi , i  1, N вычисление коэффициентов a, b
проводится по формулам
K *XY
a  * , b  mY*  am*X ,
DX
где m*X , mY* , D*X , K *XY определяются с использованием формул (11), (12), (16’):
m*X
1 N
1 N
*
  xi , mY   yi ,
N i 1
N i 1
D*X
1 N
1 N
*
* 2
  ( xi mX ) , DY   ( yi mY* )2 ,
N i 1
N i 1
K *XY
1 N
  ( xi  m*X )( yi  mY* ) .
N i 1
(72)
(73)
Пример 12. Пусть заданы значения координат xi и yi , i  1,5 , которые
представлены в таблице:
xi
2
3
4
5
6
yi
32
41
53
59
72
Требуется найти уравнения прямой среднеквадратической регрессии Y
на Х, а также Х на Y.
Решение. Найдем значения
52
m*X
1 5
1 5
*
  xi  4 , mY   yi  51,4 ,
5 i 1
5 i 1
D*X
1 5
  ( xi m*X )2  2 ,
5 i 1
K *XY 
DY*
1 5
  ( xi m*X )2  193,84 ,
5 i 1
1 N
( xi  m*X )( yi  mY* )  19,6 .

5 i1
Тогда параметры уравнения прямой среднеквадратической регрессии Y
на Х, изображенной на рис. 1 (график-1), имеют значения:
a
K *XY
 9,8; b  mY*  am*X  12,2 .
*
DX
Параметры уравнения прямой среднеквадратической регрессии Х на Y
y
1
b
x ,
a
a
имеют значения
K *XY
K m
a  *  0,101 ; b  mx  XY Y  1,197
DY
DY
Здесь выполняется условие K *XY  19,6  D*X DY*  19,69 , поэтому на рис. 1 ее
график-2 практически совпадает с графиком-1.
Рис. 16
Программа построения графика на MatLab:
n=5;
53
x=[2 3 4 5 6];
y=[32 41 53 59 72];
mx=sum(x)/n;
my=sum(y)/n;
Dx=sum((x-mx).*(x-mx))/n;
Dy=sum((y-my).*(y-my))/n;
Kxy=sum((x-mx).*(y-my))/n;
a=Kxy/Dx; b=my-a*mx;
y1=a*x+b;
a2=Kxy/Dy; b2=mx-a2*my;
x2=a2*y+b2;
sqrt(Dx*Dy)
figure(1); plot(x,y,x,y1,x2,y);
legend('Исходные данные','Регрессия Y на X','Регрессия X на Y')
grid;
Вероятностные свойства статистических характеристик случайных
величин
Естественно потребовать от оценок m*X (11), D*X (12), чтобы при увеличении числа опытов N они приближались к истинным значениям m X , DX . Такие оценки называются состоятельными. Если при этом оценки m*X , D*X сходятся к истинным значениям m X , DX при больших значениях N, то они называются несмещенными. Свойство несмещенности означает, что оценка не
имеет систематической ошибки.
Рассмотрим случайную величину X со значениями xi , i  1, N , которые
также можно рассматривать в качестве значений независимых случайных
величин X i , i  1, N с математическим ожиданием M  X i   mX дисперсией
D  X i   DX . Тогда можно ввести случайную функцию
1 N
X   Xi ,
N i 1
для которой согласно формулам (70), (71) справедливы выражения
1 N
1 N
mX  M  X    M  X i    mX  mX ,
N i 1
N i 1
54
DX  M  X  mX 


2
2
2
 1 N
 1
 N



M
  X i  mX    2 M    X i  mX    

 N i 1
 i 1
  N
 
1 N
2
1 N
1
D

K

D  DX ,
2  Xi
2  Xi X j
2  X
N
N i 1
N i j
N i 1
поскольку K X i X j  0 для независимых случайных величин (независимых опытов).
Таким образом, математическое ожидание случайной величины X не
зависит от числа опытов N и равно m X , при этом дисперсия DX неограниченно убывает с увеличением числа опытов. Иначе говоря, среднее арифметическое X есть случайная величина со сколь угодно малой дисперсией при
большом числе независимых опытов N, поэтому она сходится по вероятности
[6] к математическому ожиданию, то есть является состоятельной оценкой.
Учитывая, что mX  mX , оценка X является несмещенной.
Если несмещенная оценка обладает по сравнению с другими оценками
наименьшей дисперсией, то она называется эффективной.
Эффективность или неэффективность оценки зависит от вида закона
распределения величины X. Доказано, что если случайная величина X распределена по нормальному закону, дисперсия DX будет минимально возможной,
то есть оценка m*X является эффективной. Для других законов распределения
это свойство может не выполняться.
Проверим состоятельность оценки дисперсии, которую будем оценивать
по выражению случайной функции
Z


2
1 N
1 N
1 N 2
1 N
1 N 2
2
2
X

X

X

2
X
X

X

X

2
X
X

 i  N  i
 i
 i N X 
i
N i1
N
N
i 1
i 1
i 1
i 1

1 N 2
1 N 2
2
2
X

2
X

X

X i X 2 .


i
N i 1
N i 1
Здесь при большом числе независимых опытов N первое слагаемое сходится
55
по вероятности к значению M  X 2  , второе слагаемое сходится по вероятности к значению M  X  . При этом вся величина сходится по вероятности к зна2
2
чению M  X   M  X   DX , то есть оценка Z является состоятельной.
2
Для проверки несмещенности оценки Z перепишем ее в виде
2
2

1 N
1 N 
1 N 2
Z   Xi  X    X i  X    X i  X 2
N i 1
N i 1 
N i 1

1 N
1 N
где X i  X i  mX , X   X i  mX   X i .
N i 1
N i 1
Tогда можно записать
2

1 N
1 N
1  N
1 N
1 N
2
Z   X i2  X 2   X i2  2   X i    X i2  2  X i2  2  X i X j 
N i 1
N i 1
N  i 1  N i 1
N i 1
N i j
N 1 N 2 2
 2  Xi  2  Xi X j.
N i 1
N i j
Найдем математическое ожидание
 N 1 N 2 2
 N 1 N
 2 2


M Z   M  2  X i  2  X i X j  
M
Xi   2 M Xi X j  

2
N i j

 N i 1
 N i 1   N i j 
N 1 N
N 1

D

DX ,

X
N
N 2 i 1


поскольку для независимых случайных величин M  X i X j   0 .


Отсюда видно, что оценка Z является смещенной, поскольку M  Z   DX .
Чтобы устранить это смещение, внесем поправку:
2
2
N
N 1 N
1 N
Z
Z
Xi  X  
Xi  X  .




N 1
N  1 N i 1
N  1 i 1
Так как при N   множитель N /  N  1  1, а оценка Z является состоятельной, то оценка Z также будет состоятельной. При этом оценка Z не
56
является эффективной. Однако в случае нормального распределения она является асимптотически эффективной при N   .
Проверим состоятельность оценки корреляционной функции для двух
случайных величин X и Y, принимающих значения xi , yi , i  1, N , которую
будем оценивать по выражению случайной функции
1 N
S    X i  X Yi  Y  ,
N i 1
1 N
где Y  Yi и аналогично предыдущему выполняется свойство mY  mY .
N i 1
Тогда можно записать
1 N
1 N
S    X i  X Yi  Y     X iYi  XYi  X iY  XY  
N i 1
N i 1
1 N
1 N
1 1 N
1 N
  X iYi X Yi Y   XY   X iYi XY .
N i 1
N i 1
N N i 1
N i 1
Здесь при большом числе независимых опытов N первое слагаемое сходится
по вероятности к значению M  XY  , второе слагаемое сходится по вероятности
к значению M  X  M Y  . При этом вся величина сходится по вероятности к
значению M  XY   M  X  M Y   K XY , то есть оценка S является состоятельной.
Для проверки несмещенности оценки S перепишем ее в виде

 1 N
1 N
1 N 
S    X i  X Yi  Y     X i  X  Yi  Y    X i Yi  X Y ,
N i 1
N i 1 

 N i 1
где X i  X i  mX , Yi  Yi  mY , Y 
1 N
Yi .
N i 1
Tогда можно записать
S
1 N
1 N
1 N
2
X
Y

X
Y

X
Y

X
Y




 Xi X j 
i i
i i
i
i
N i 1
N i 1
N 2 i 1
N 2 i j
N 1 N
2

X Y  2  Xi X j .
2  i i
N i 1
N i j
57
Найдем математическое ожидание
 N 1 N
 N 1 N
2

 2


M  S   M  2  X i Yi  2  X i X j   2  M  X i Yi   2  M  X i Y j  
N i j
 N i j 

 N i 1
 N i 1 
N 1 N
N 1
 2  K XY 
K XY ,
N
N i 1


полагая M  X i Y j   0 .


Отсюда видно, что оценка S является смещенной, поскольку M  S   K XY .
Чтобы устранить это смещение, внесем поправку:
N
N 1
1 N
S
S
K XY 
 X i  X Yi  Y  .
N 1
N 1 N
N  1 i 1
Так как при N   множитель N /  N  1  1, а оценка S является состоятельной, то оценка S также будет состоятельной.
Таким образом, если даны значения xi , i  1, N случайной величиы X в
N независимых опытах с неизвестным математическим ожиданием m X и
дисперсией DX , то для определения этих параметров следует пользоваться
приближенными значениями:
m*X 
1 N
1 N
*
,
m

x
 i Y N  yi ,
N i 1
i 1
D*X 
1 N
1 N
* 2
*
,
(
x

m
)
D

( yi mY* )2 ,


i
X
Y
N  1 i 1
N  1 i 1
K *XY
1 N

( xi  m*X )( yi  mY* ) .

N  1 i 1
(74)
(75)
Пример 12’. Решить пример 12 с использованием формул (74), (75).
Решение.
Характеристики для n случайных величин
58
Все приведенные определения и формулы обобщаются на n-мерные случайные векторы X  [ X1
X n ]T .
Функцией распределения n-мерного случайного вектора или совместной
функцией распределения случайных величин X 1 , X 2 , …, X n называется функция n переменных x1 , x2 , …, xn , представляющая собой вероятность совместного выполнения неравенств X i  xi , i  1, n :
 X 1  x1 
X x 
2
F ( x1 , x2 , , xn )  P  2
.




 X n  xn 
(70)
Здесь также справедливы выражения
F1 ( x1 )  F ( x1, ,
, ) , …, Fn ( xn )  F (,
, , xn )
F1,2,...,m ( x1, x2 , , xm )  F ( x1, x2 , , xm , , , ) ,
F (, ,
, )  1 .
(71)
(72)
(73)
Плотность вероятности n-мерного случайного вектора определяется
через его функцию распределения по формуле, аналогичной (45):
f ( x1, x2 ,
 n F ( x1, x2 , , xn )
.
, xn ) 
x1 xn
(74)
Интегрируя n раз выражение (74) получим
F ( x1, x2 ,
, xn ) 
x1
xn


 ... 
f ( x1, x2 ,
, xn )dx1...dxn .
(75)
При x1   ,…, xn   из формулы (75) с учетом (70) следует равенство


 ... 

f ( x1, x2 , , xn )dx1...dxn  1.
(76)

Интегрируя плотность вероятности n-мерного случайного вектора по некоторым из переменных x1 , x2 , …, xn , получим плотность вероятности случайных величин, соответствующих остальным переменным. Плотность веро59
ятности m-мерного случайного вектора определяется по формуле, аналогичной формуле (51):

f1,...,m ( x1, x2 ,
, xm ) 

 ... 

, xn )dxm1...dxn .
f ( x1, x2 ,
(77)

Условной функцией распределения n-мерного случайного вектора называется условная вероятность совместного выполнения неравенств X k  xk ,
k  1, n относительно события В. Если событие В заключается в попадании случайного вектора Y  [Y1
Ym ]T в некоторую m-мерную область В, то на ос-
новании формулы
P(Y  B)   ...  f ( y1, , ym )dy1...dym
(78)
( B)
условная функция распределения случайного вектора X определяется с помощью выражения, аналогичного выражению (53):
x1
xn
 ...   (...B)  f ( x1,
F1 ( x | B)  

, xn , y1, , ym )dx1...dxn dy1...dym
.
 ...  f2 ( y1, , ym )dy1...dym
(79)
( B)
где x  [ x1
xn ]T ; f ( x1, , xn , y1, , ym ) – плотность вероятности n  m -
мерного случайного вектора [ X T Y T ]T ; f 2 ( y1 ,
, ym ) – плотность вероятности
m - мерного случайного вектора Y .
Если событие В заключается в выполнении равенств Y j  y j , j  1, m , то
условная функция распределения случайного вектора Х относительного этого
события определяется по формуле, аналогичной формуле (54):
x1
xn
 ... 
F1 ( x | y )  
где y  [ y1
f ( x1,
, xn , y1,
, ym )dx1...dxn

f 2 ( y1,
, ym )
.
(80)
ym ]T .
Дифференцируя выражение (80) последовательно по аргументам
x1 , x2 ,
, xn получим условную плотность вероятности случайного вектора Х
60
относительно случайного вектора Y, аналогичную формуле (56):
f1 ( x | y ) 
f ( x1, , xn , y1, , ym )
.
f 2 ( y1, , ym )
(81)
Случайные величины X 1 , X 2 , …, X n попарно независимы, если любые
две из них независимы. Случайные величины X 1 , X 2 , …, X n независимы,
если любые два случайных вектора, которые могут быть составлены из величин X 1 , X 2 , …, X n , не имеющие общих составляющих, независимы.
Плотность распределения n независимых случайных величин равна произведению плотностей распределения отдельных величин:
, xn )  f1 ( x1 ) f 2 ( x2 )
f ( x1,
f n ( xn ) .
(82)
Числовые характеристики n случайных величин
Минимальным количеством характеристик, с помощью которых может
быть охарактеризованы n случайных величин, являются следующие числовые
характеристики.
1) Математические ожидания m X i , i  1, n , аналогичные формулам (63), (64):

mX i  M [ X i ] 



 ...  xi f ( x1,


, xn )dx1...dxn 


 xi  ...  f ( x1,


.

, xn )dx1...dxn 

(83)
 x i fi ( xi )dxi .

2) Дисперсии DX i , i  1, n , аналогичные формулам (66), (67):

DX i  M [( X i  mX i ) ] 
2



 ...  ( xi  mX )

2



i
2
f ( x1,

 ( xi  mX )  ...  f ( x1,
i


, xn )dx1...dxn 
(84)

, xn )dx1...dxn 
 ( xi  mX )

i
2
f i ( xi )dxi .
3) Корреляционные моменты K Xi X j , i  1, n ; j  i  1, n , определяются аналогично формуле (68):
61
K X i X j  M ( X i  m X i )( X j  m X j )  





 ...  ( xi  mX )( x j  mX

i

 

j
) f ( x1,


  ( xi  mX )( x j  mX )  ... 
i

j

, xn )dx1...dxn 
f ( x1,
, xn )dx1...dxn 
(85)

 

  ( xi  mX )( x j  mX
i


где fi , j ( xi , x j ) 
) fi , j ( xi , x j )dxi dx j ,

 ... 

j

f ( x1, , xn ) dx1...dxn .
без dxi и dx j
Рассмотрим матрицу в виде произведения векторов ( X  mX )( X  mX )T ,
где X  [ X1
X n ]T – n-мерный случайный вектор, mX  [mX1
mX n ]T –
n- вектор математических ожиданий. Тогда, учитывая, что K Xi X j  K X j Xi , корреляционная матрица (матрица корреляционных моментов) определяется по
формуле
 K X1X1

T
KX X
K X  M  X  mX  X  mX     1 2



 K X1X n
K X1X n 

K X2Xn 
,

K X n X n 
K X1X 2
K X2X2
K X2Xn
(86)
где диагональные элементы матрицы K X i X i  DX i .
Для двух центрированных случайных векторов X  m X и Y  mY используется ковариационная матрица (или матрица ковариаций):
K XY
 K X1Y1

T
KX Y
 M  X  mX Y  mY     2 1



 K X nY1
K X1Y2
K X 2Y2
K X 2Yn
K X1Yn 

K X 2Yn 
,

K X nYn 
где K X iY j  M ( X i  mX i )(Y j  mY j )  – корреляционный момент.


62
Тема 2. Случайные процессы
Выше были рассмотрены скалярные и векторные случайные величины,
каждая из которых в результате опыта принимает одно заранее неизвестное,
но единственное значение. В системах автоматического управления приходится рассматривать случайные величины, значения которых в каждом данном опыте изменяются в зависимости от времени или других параметров. Подобные случайные величины представляют собой случайные функции.
Случайной функцией называется функция, значение которой при каждом
значении аргумента (или нескольких аргументов) является случайной величиной.
Случайным процессом называется случайная функция X (t ) , изменяющаяся от времени t . При фиксированном t  ti значение функции X (ti ) является случайной величиной, при этом моменты t  ti называются сечениями
случайной функции.
При проведении n независимых опытов со случайным процессом X (t )
получаются n его реализаций, соответствующих номеру опыта x1 (t ) ,…, xn (t )
(рис. 17). Каждая реализация является обычной (неслучайной) функцией.
Рис. 17. Реализации случайного процесса X (t )
При фиксированном t случайная функция превращается в случайную
величину, которая на рис. 17 приняла n значений.
Если провести m сечений случайного процесса X (t ) для моментов времени t1 , …, t m , то получим m случайных величин X (t1 ) , …, X (tm ) . При уве-
63
личении числа сечений к бесконечности случайный процесс X (t ) будет эквивалентен бесконечному количеству случайных величин.
Характеристикой случайного процесса (случайной функции) в одном сечении в некоторый момент времени t является плотность вероятности f ( x, t )
, которой соответствует одномерный закон распределения
x
F ( x, t )  P( X (t )  x) 

f ( x, t )dx ,
(87)

отличающийся от функции распределения (21) наличием параметра t , то есть
является функцией двух аргументов (рис. 18).
Рис. 18 Условное изображение случайного процесса X (t )
Одномерный закон распределения F ( x, t ) не отвечает на вопрос о зависимости случайных величин X (ti ) для различных моментов времени ti . Действительно, два случайных процесса на рис. 19 имеют одинаковый закон распределения F ( x, t )  P  X (t )  x  , но имеют различный характер.
Рис. 19 Случайные процессы с одинаковым законом распределения в
каждом сечении t
Таким образом, функция f ( x, t ) характеризует только распределение
X (t ) для данного, хотя и произвольного t; она не отвечает на вопрос о зависимости случайных величин X (t ) при различных t.
64
В связи с этим может быть использован двумерный закон распределения
x x
 X (t1 )  x1  1 2
F ( x1, x2 , t1, t2 )  P 
    f ( x1, x2 , t1, t2 )dx1dx2 ,
X
(
t
)

x

2
2
 
(88)
устанавливающий статистическую связь процесса в двух любых его сечениях
t1 и t2 (рис. 20).
Рис. 20 Условное изображение случайного процесса X (t ) для двух сечений
Аналогично записывается n-мерный закон распределения.
Характеристики случайных процессов
В отличие от числовых характеристик случайных величин, представляющих собой определенные числа, характеристики случайных процессов представляют собой в общем случае не числа, а функции времени.
Математическим ожиданием случайного процесса (случайной функции) X (t ) называется неслучайная функция m X (t ) , которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения случайного процесса (случайной функции):

mX (t )  M [ X (t )] 
 x(t ) f ( x, t )dx .
(89)

Тем самым, математическое ожидание случайного процесса m X (t ) есть
некоторая средняя функция, около которой различным образом варьируются
конкретные реализации случайного процесса (рис. 21).
65
Рис. 21. Реализации случайного процесса X (t ) и его математическое
ожидание
Отметим, что математическое ожидание центрированного случайного
процесса равно нулю:
M  X (t )  mX (t )   





  x(t )  mX (t )  f ( x, t )dx   x(t ) f ( x, t )dx  mX (t )  f ( x, t )dx 


 mX (t )  mX (t )  f ( x, t )dx  mX (t )  mX (t )  F (, t )  F ( , t )   0,

поскольку F (, t )  1 , F (, t )  0 независимо от времени t .
Случайному процессу рис. 21 соответствует центрированный случайный процесс на рис. 22.
Рис. 22. Центрированный случайный процесс
Дисперсией случайного процесса (случайной функции) X (t ) называется
неслучайная функция D X (t ) , которая при каждом значении аргумента t равна
дисперсии соответствующего сечения случайного процесса (случайной функции):
66
2
DX (t )  M  X (t )  mX (t )   



2
x
(
t
)

m
(
t
)
f ( x, t )dx .


X

(90)

Здесь также, как для случайной величины, согласно формуле (38) справедлива формула дисперсии для случайного процесса:

DX (t ) 
  x(t )  mX (t ) 
2

f ( x, t )dx 


  x (t )  2mX (t ) x(t )  mX (t )  f ( x, t )dx 
2
2


  x (t ) f ( x, t ) dx  2mX (t )  x(t ) f ( x, t ) dx
2


 m X2 (t )

 f ( x, t )dx 
(91)

 M  X 2 (t )   mX2 (t ).
Тем самым, дисперсия D X (t ) при каждом значении t характеризует разброс возможных реализаций случайного процесса относительно средней
функции.
Среднее квадратическое отклонение случайного процесса определяется
по формуле
 X (t )  DX (t ) .
(92)
Математическое ожидание и дисперсия не являются исчерпывающими
характеристиками случайного процесса, поскольку определяются одномерным законом распределения. Например, на рис. 23 представлены два процесса
X 1 (t ) и X 2 (t ) с примерно одинаковыми математическим ожиданиями
mX1 (t )  mX 2 (t ) и дисперсия DX1 (t )  DX 2 (t ) , однако внутренняя структура данных процессов резко различна.
Рис. 23. Случайный процесс при mX1 (t )  mX 2 (t ) и DX1 (t )  DX 2 (t )
67
Для случайного процесса X 1 (t ) характерна сильная вероятностная зависимость между двумя его сечениями X 1 (t ) и X 1 (t ') . Напротив, случайный процесс X 2 (t ) характеризуется неправильными, беспорядочными колебаниями,
между двумя его сечениями X 2 (t ) и X 2 (t ') практически нет вероятностной
зависимости при достаточном удалении сечений (эта вероятностная зависимость быстро уменьшается по мере увеличения разности t  t ' ).
Степень зависимости случайных величин X (t ) и X (t ') для сечений в
моменты времени t и t ' может быть охарактеризована корреляционной функцией.
Корреляционной функцией случайного процесса X (t ) называется неслучайная функция двух аргументов K X (t , t ') , которая при каждой паре значений
t и t ' равна корреляционному моменту соответствующих сечений случайного
процесса:
K X (t , t ')  M  X (t ) mX (t )  X (t ') mX (t ')   
 
=
  x(t )  mX (t )  x(t ')  mX (t ')  f ( x, x ', t, t ')dxdx ',
(93)
 
где x '  x(t ') .
Очевидно, что у случайных процессов X 1 (t ) и X 2 (t ) , изображенных на
рис. 23, корреляционные функции различны. Корреляционная функция случайного процесса X 1 (t ) медленно убывает по мере увеличения разности t  t ' ,
а корреляционная функция случайного процесса X 2 (t ) убывает быстро.
Свойства корреляционной функции
1. При равенстве аргументов t '  t корреляционная функция превращается в дисперсию случайного процесса:
68
K X (t , t )  M  X (t ) m X (t )  X (t ) m X (t )   
 
=
  x(t )  mX (t ) 
2

f ( x, x ', t )dxdx ' 
 

  x(t )  mX (t )  
2

f ( x, x ', t )dx 'dx 
(94)



2
x
(
t
)

m
(
t
)
f ( x, t )dx  DX (t ).


X



Здесь использовано равенство

f ( x, x ', t )dx '  f ( x, t ) .

2. Корреляционная функция симметрична относительно своих аргументов:
K X (t , t ')  K X (t ', t ) ,
что следует из ее определения (93). На рис. 24 изображена корреляционная
функция K X (t , t ') в виде поверхности, которая симметрична относительно вертикальной плоскости H, проходящей через прямую t '  t . Линия пересечения
с плоскостью H соответствует дисперсии случайного процесса D X (t ) , которая
всегда положительная. При t '  t корреляционная функция может принимать
отрицательные значения.
Рис. 24. Корреляционная функция K X (t , t ')
3. Корреляционная функция ни при каких значениях аргументов t , t ' не
превосходит по модулю корня квадратного из произведения значений дисперсии случайной функции [1]:
69
K X (t , t ')  DX (t ) DX (t ')  K X (t , t ) K X (t ', t ') .
4. Для любой неслучайной функции  (t ) имеет место неравенство [1]:
bb
 K X (t , t ') (t ) (t ')dtdt '  0 .
(95)
aa
Случайный процесс X (t ) называется белым шумом, если его математическое ожидание тождественно равно нулю, а корреляционная функция содержит множителем  - функцию разности аргументов:
mX (t )  0 ,
K X (t , t ')  G (t ) (t  t ')  G (t ') (t  t ') ,
где множитель G (t ) характеризует интенсивность белого шума.
Белый шум является математической абстракцией, которая, тем не менее, существенно упрощает анализ процессов в системах управления. В природе процессов вида «белого шума» не существует, но при определенных
предположениях реальные помехи можно описать моделью белого шума.
Пример 12. Элементарная случайная функция X (t ) имеет вид
X (t )  Ye  t , t  0 ,
где Y – случайная величина, распределенная по нормальному закону распределения (28)
f ( y) 
1
e
 2
 ( y a )2
2 2
,
(28)
с параметрами a  mY  M [Y ] и    Y  DY .
Найти математическое ожидание, дисперсию и корреляционную функцию для X (t ) , а также плотность распределения f ( x, t ) .
Решение:
mX (t )  M  X (t )  M [Yet ]  et M [Y ]  mY et ,


2
2
2
DX (t )  M  X (t )  mX (t )    M  Yet  mY et   e2t M Y  mY    e 2t DY ,






 X (t )  DX (t )   Y et ,
70
K X (t , t ')  M  X (t ) mX (t )  X (t ') m X (t ')   



2
 M  Yet  mY e t Ye t ' mY e t '  =e  (t t ') M Y  mY    e  (t t ') DY .




Плотность распределения f ( x, t ) определяется в соответствии с формулой (28):
f ( x, t ) 
1
e
 X (t ) 2
 x  mx ( t ) 
 ( x mY e t )2
2
2 x2 ( t )

1
 Y et 2
2 Y2 e2 t
e
.
Пример 13. Элементарная случайная функция X (t ) имеет вид
X (t )  e Y t , t  0 ,
где Y – случайная величина, распределенная по показательному закону распределения (27) с плотностью f ( y )  ke  ky , y  0 , k  0 .
Найти математическое ожидание, дисперсию и корреляционную функцию для X (t ) .
Решение:
mX (t )  M [e
Y t

]

e
 yt


f ( y )dy   e
 yt
ke
 ky
0

dy  k  e (t k ) y dy 
0
k
.
tk
Найдем сначала корреляционную функцию согласно формуле (68):
K X (t , t ')  M  X (t )  m X (t )  X (t ')  m X (t ')   =
 M  X (t ) X (t ')   m X (t ') M  X (t )   m X (t ) M  X (t ')   m X (t )m X (t ') 
 M  X (t ) X (t ')   m X (t )m X (t '),
где
M  X (t ) X (t ') 

e

 y ( t t ')

f ( y )dy   e y (t t ')ke ky dy 

k
.
t  t ' k
Отсюда найдем
k
k2
ktt '
K X (t , t ') 


.
t  t ' k (t  k )(t ' k ) (t  t ' k )(t  k )(t ' k )
Тогда дисперсия будет равна
71
kt 2
DX (t )  K X (t , t ) 
, t  0.
(2t  k )(t  k )2
Пример 14. Элементарная случайная функция X (t ) имеет вид
X (t )  aY  t ,
где Y – случайная величина, распределенная по нормальному закону распределения (28) с параметрами m  M [Y ] и   DY ; a – неслучайная величина.
Найти математическое ожидание, дисперсию, среднее квадратическое
отклонение и корреляционную функцию для X (t ) .
Решение:

  ay  t  f ( y, t )dy  aM [Y ]  t  am  t .
mX (t )  M [aY  t ] 

K X (t , t ')  M  X (t )  mX (t )  X (t ')  mX (t ')   
2
 M  aY  t  am  t  aY  t ' am  t '  =M  a 2 Y  m    a 2 2 .


DX (t )  K X (t , t )  a 2 2 ,  X (t )  DX (t ) | a |  .
Пример 15. Элементарная случайная функция X (t ) имеет вид
X (t )  Yt  a ,
где Y – случайная величина, распределенная по закону равномерной плотности на участке ( ,  ) , a – неслучайная величина.
Найти математическое ожидание, дисперсию, среднее квадратическое
отклонение и корреляционную функцию для X (t ) .
Решение:

mX (t )  M [Yt  a] 
  yt  a  f ( y, t )dy  tM [Y ]  a  tmY  a ,

где mY 
 
(см. пример 6).
2
Поскольку
X (t ) m X (t )  Yt  a  tmY  a  t (Y  mY ) ,
72
то получим
K X (t , t ')  M  X (t )  m X (t )  X (t ')  m X (t ')   
2
 M  t (Y  mY )  t '(Y  mY )   =tt ' M Y  mY    tt ' DY ,


(   )2
где DY 
(см. пример 6).
12
Отсюда при t '  t найдем
DX (t )  K X (t , t )  t 2 DY ,  X (t )  DX (t )  t DY .
Пример 15’. Элементарная случайная функция X (t ) имеет вид
X (t )  Yt  A ,
где Y и А – некоррелированные случайные величины, распределенные по закону равномерной плотности на участке ( ,  ) .
Найти математическое ожидание, дисперсию, среднее квадратическое
отклонение и корреляционную функцию для X (t ) .
Решение:
 
mX (t )  M [Yt  A] 
   yt  a  f ( y, a, t )dyda 
 


 t  y  f ( y, a, t )dady 






 t  yf1 ( y )dy 
где mY  mA 


a

f ( y, a, t )dyda 
,

 af 2 (a)da  tmY  mA ,
 
(см. пример 6).
2
Поскольку
X (t ) mX (t )  Yt  A  tmY  m A  t (Y  mY )  A  m A ,
то получим
K X (t , t ')  M  X (t )  mX (t )  X (t ')  mX (t ')   
 M  t (Y  mY )  A  mA  t '(Y  mY )  A  mA   =
73
2
2
=tt ' M Y  mY    M  A  mA     t  t ' M Y  mY  A  m A   




 tt ' DY  DA   t  t 'M YA  mAM Y   mY M  A  mY m A 
 tt ' DY  DA   t  t ' mY mA .
(   )2
где DY  DA 
(см. пример 6).
12
Отсюда при t '  t найдем
DX (t )  K X (t , t )  t 2 DY  DA  2tmY mA ,  X (t )  DX (t ) .
Пример 16. Элементарная случайная функция X (t ) имеет вид
X (t )  U cos t  V sin t ,
где U ,V – некоррелированные случайные величины ( M UV   KUV  0 ) с характеристиками mU  0 , mV  0 ,  U   V   ,  – неслучайная величина.
Найти математическое ожидание, дисперсию, среднее квадратическое
отклонение и корреляционную функцию для X (t ) .
Решение:
mX (t )  M U cos t  V sin t   mU cos t  mV sin t  0 ,
K X (t , t ')  M U cos t  V sin t U cos t ' V sin t '   
 M U 2 cos t cos t ' UV (sin t cos t ' cos t sin t ')  V 2 sin t sin t ' .
Поскольку по условию задачи M UV   KUV  0 , то получим
K X (t , t ')  M U 2  cos t cos t ' M V 2  sin t sin t '   2 cos (t  t ') .
Отсюда найдем дисперсию
DX (t )  K X (t , t )   2 cos  (t  t )   2 ,
следовательно,  X (t )  DX (t )   .
Отметим, что в данной задаче не требуется знания закона распределения
случайных величин U ,V .
Пример 17. Элементарная случайная функция X (t ) имеет вид
74
X (t )  V cos t    ,
где V ,  – независимые случайные величины; случайная величина V имеет
характеристики mV ,  V ; случайная величина  распределена равномерно в
интервале (0,2 ) ;  – неслучайная величина.
Найти математическое ожидание, дисперсию, среднее квадратическое
отклонение и корреляционную функцию для X (t ) .
Решение: Перепишем случайную функцию X (t ) в виде
X (t )  V cos t     V cos  cos t  V sin  sin t .
Для случайной величины  с равномерной плотностью распределения
в интервале (0,2 ) согласно формуле (25) справедливо выражение
1

при 0    2 ;

f1 ( )  
2

0 при   0 и при   2 .
Тогда найдем следующие числовые характеристики:
2

1
M  cos    cos f1 ( )d 
2


1
M sin    sin  f1 ( )d 
2

M cos 2   

1
 cos  f1( )d  2


1
M sin    sin  f1 ( )d 
2

2

2
 0,
0
2
 sind  
0
2
1
2
cos 0  0 ,
2
1 1
2
 cos d  2  2 sin cos 0
2
2
1
 cosd  2 sin 0
2
0
2
 sin
2
 d 
0
1
M sin  cos    sin  cos f1 ( )d 
2

2
 1
   ,
 2
1  1
2
 1
  sin  cos 0     ,
2  2
 2
1
sin

cos

d



4
0
2
 sin 2d  0 .
0
Математическое ожидание имеет вид
mX (t )  M V cos  cos t  V sin  sin t   M V cos  cos t  M V sin sin t ,
где
75
M V cos  
 
  v cos f  v,  dvd ,
 
M V sin  
 
  v sin f  v,  dvd ,
 
f  v,  – некоторая плотность распределения вероятности.
Учитывая независимость случайных величин V ,  , согласно формуле
(61) можно записать
f (v, )  f1 ( ) f 2 (v) ,
где по условию задачи случайная величина  имеет равномерную плотностью
распределения f1 ( ) в интервале (0,2 ) при некоторой плотности распределения f 2  v  .
Тогда получим
M V cos  
 
  v cos f1( ) f 2 (v)dvd 
 

M V sin  




 cos f1( )d  vf2 (v)dv  M cos  M V   0,
 
  v sin  f1( ) f 2 (v)dvd 
 





 sin  f1( )d  vf 2 (v)dv  M sin  M V   0.
Отсюда следует, что mX (t )  0 .
Корреляционная функция имеет вид
K X (t , t ')  M V cos  cos t  V sin  sin t V cos  cos t ' V sin  sin t '   
 cos t cos t ' M V 2 cos 2    cos t sin t ' M V 2 cos  sin   
 sin t cos t ' M V 2 sin  cos    sin t sin t ' M V 2 sin 2   
 cos t cos t ' M V 2  M cos 2   cos t sin t ' M V 2  M cos  sin  
 sin t cos t ' M V 2  M sin  cos   sin t sin t ' M V 2  M sin 2  
76

 M V 2  cos t cos t ' M cos 2    cos t sin t ' M cos  sin   

 sin t cos t ' M sin  cos   sin t sin t ' M sin 2   


 M V 2  cos t cos t ' M cos 2    sin t sin t ' M sin 2   .
С учетом формулы (38) можно записать
M V 2   DV  mV2  V2  mV2 .
Тогда окончательно получим
K X (t , t ') 


1 2
 V  mV2 cos  (t  t ') .
2
Отсюда найдем дисперсию и среднее квадратическое отклонение:
DX (t )  K X (t , t ) 


1 2
 V  mV2 ,
2
1
V2  mV2 .
2
 X (t ) 
Отметим, что здесь случайный процесс X (t ) имеет постоянное
математическое ожидание и дисперсию, а корреляционная функция зависит
только от разности аргументов t  t ' независимо от закона распределения случайной величины V – амплитуды колебаний.
Векторный случайный процесс
Рассмотрим векторный случайный процесс X (t ) , состоящий из n случайных процессов X (t )  [ X 1 (t )
X n (t )]T , для каждой компоненты X i (t )
которого известно математическое ожидание mX i (t ) и корреляционная
функция K X i (t , t ') . Для учета зависимости компонент векторного случайного
процесса X (t ) используется взаимная корреляционная функция RXi X j (t , t ')
двух случайных процессов X i (t ) и X j (t ') :



RX i X j (t , t ')  M  X i (t )  mX i (t ) X j (t ')  mX j (t ')  


 

   xi (t )  mX (t )   x j (t ')  mX
 
i
j
 

(96)
(t ') f xi , x j , t , t ' dxi dx j ,
которая обладает следующими свойствами:
77
1) RXi X j (t , t ') в общем случае не равна RXi X j (t ', t ) , так как ковариация
между сечениями X i (t ) и X j (t ') (точки (1) и (2) на рис. 25) в общем случае не
равна ковариации между сечениями X i (t ') и X j (t ) (точки (4) и (3) на рис. 25).
Рис. 25 Условное изображение двух случайных процессов X i (t ) и X j (t )
2) При одновременной перемене мест индексов и аргументов сохраняется значение взаимной корреляционной функции:



RX i X j (t , t ')  M  X i (t )  mX i (t ) X j (t ')  m X j (t ')  


 M  X j (t ')  mX j (t ') X i (t )  mX i (t )   RX j X i (t ', t ).





(97)
3) При равенстве индексов j  i взаимная корреляционная функция
равна корреляционной функции:

RX i X i (t , t ')  M  X i (t )  mX i (t )

 X (t ')  m
i
X i (t ')
  K
X i (t , t ').
Матрица взаимных корреляционных функций определяется по формуле
 K X1X1 (t , t ') K X1X 2 (t , t ')

T
 K X X (t , t ') K X 2 X 2 (t , t ')
RX (t , t ')  M  X (t )  mX (t )  X (t ')  mX (t ')     1 2



 K X1X n (t , t ') K X 2 X n (t , t ')
Векторный
случайный
процесс
X (t )
называется
K X1X n (t , t ') 

K X 2 X n (t , t ') 
.

K X n X n (t , t ') 
процессом
с
некоррелированными составляющими, если матрица взаимных корреляционных функций является диагональной, то есть RXi X j (t , t ')  0 при i  j .
78
Стационарные процессы
Важным классом случайных процессов являются стационарные
случайные процессы, то есть процессы, не изменяющие свои характеристики с
течением времени.
Примерами таких процессов являются колебания напряжение в
электрической сети, колебания самолета при включенном автопилоте и другие
виды непрерывных случайных колебаний около
некоторого среднего
значения.
Рассмотрим n сечений случайного процесса X (t ) , представленного на
рис. 26, в моменты времени t1 , t2 , …, tn .
Рис. 26 Условное изображение случайного процесса X (t )
Случайный процесс X (t ) называется стационарным в узком смысле,
если его плотность распределения не изменяется при сдвиге всех его
временных
аргументов
на одинаковую
произвольную
величину
t
(положительную или отрицательную):
f ( x1, x2 ,..., xn , t1, t2 ,..., tn )  f ( x1, x2 ,..., xn , t1  t , t2  t ,..., tn  t ) ,
(98)
где xi  x(ti ) .
Таким образом, n - мерная плотность распределения стационарного
случайного процесса не зависит от того, в какие моменты времени t1 , t2 , …, tn
рассматриваются сечения этого процесса, а зависят лишь от временных
интервалов  1 ,  2 , …,  n между этими сечениями (рис. 27). Иначе говоря,
можно сдвигать по оси абсцисс точки t1 , t2 , …, tn , сохраняя между ними
расстояния  1 ,  2 , …,  n .
79
Рис. 27. График условного случайного процесса X (t )
Отсюда следует, что одномерная плотность распределения при t  t1
имеет вид:
f ( x1 , t1 )  f ( x1, t1  t )  f ( x1,0)  f ( x1 ) ,
(99)
то есть не зависит от времени.
Двумерная
плотность
распределения
стационарного
случайного
процесса будет зависеть не от аргументов t1 и t2 , а от разности аргументов
  t2  t1 , как показано на рис. 28, поэтому, полагая t  t1 , можно записать
f ( x1, x2 , t1, t2 )  f ( x1, x2 , t1  t , t2  t )  f ( x1, x2 ,0, t2  t1 )  f ( x1, x2 , ) .
(100)
Рис. 28. График условного случайного процесса X (t )
Математическое ожидание стационарного в узком смысле случайного
процесса также не зависит от времени:
mX (t1 )  M [ X (t1 )] 




 x(t1) f ( x1, t1)dx1   x(t1) f ( x1)dx1 


(101)
 xf ( x)dx mX  const.

Корреляционная функция зависит лишь от разности аргументов
  t2  t1 :
80
K X (t1, t2 )  M  X (t1 )  mX  X (t2 )  mX   
 

   x1  mX  x2  mX  f ( x1, x2 , )dx1dx2 K X ( ).
(102)
 
Учитывая, что в формуле (100) можно также принять t  t2 , то
получим
равенство
f ( x1, x2 , )  f ( x1, x2 ,  ) .
Следоватедьно,
для
корреляционной функции (102) выполняется свойство
K X (t1, t2 )  K X ( )  K X ( ) ,
то есть корреляционная функция стационарного случайного поцесса есть
четная функция сдвига  между двумя его сечениями (ее график симметричен
относительно оси ординат).
Пример 18. Элементарная случайная функция X (t ) имеет вид
X (t )  a sin t    ,
t [, ] ,
где амплитуда a и частота  – неслучайные величины, случайная величина
 распределена равномерно в интервале (0,2 ) .
Показать, что X (t ) стационарный в узком смысле случайный процесс.
Найти математическое ожидание, дисперсию, среднее квадратическое отклонение и корреляционную функцию для X (t ) .
Решение: Для случайной величины  с равномерной плотностью распределения в интервале (0,2 ) согласно формуле (25) справедливо выражение
1

при 0    2 ;

f ( )  
2

0 при   0 и при   2 .
Положим t1  t  t , тогда получим для момента времени t1 :
X (t1 )  a sin t1     a sin t  1  ,
где 1    t .
Плотность вероятности f ( ) случайной фазы  случайного процесса
X (t ) и плотность вероятности f ( , t ) случайной фазы 1 случайного процесса X (t1 ) после временного сдвига изображены на рис. 29.
81
Рис. 29. Плотность вероятности f ( ) и f ( , t )
Так как фазы 2  t и t , отличающиеся на 2 , не изменяют
значения гармонического процесса, то при их равномерном распределении
справедливо равенство f ( ,t )  f ( ) , то есть равномерная плотность
распределения
фазы
инвариантна
к
сдвигу
процесса
по
времени,
следовательно, X (t ) стационарный в узком смысле случайный процесс. При
неравномерном распределении фазы случайный процесс X (t ) перестает быть
стационарным.
Найдем характеристики случайного процесса. Для этого перепишем
случайную функцию X (t ) в виде
X (t )  a sin t     a  cos  sin t  sin  cos t  .
Из решения примера 17 получаем следующие значения характеристик:
1
1
2
2
M cos   0 , M sin   0 , M cos    , M sin    ,
2
2
M sin  cos   0 .
Математическое ожидание равно:
mX (t )  M a  cos sin t  sin  cos t   a sin tM cos   a cos tM sin   0 .
Тогда корреляционная функция имеет вид
K X (t , t ')  a 2 M  cos  sin t  sin  cos t  cos  sin t ' sin  cos t '   

 a 2 sin t sin t ' M cos 2    sin t cos t ' M cos  sin  

 cos t sin t ' M sin  cos   cos t cos t ' M sin 2   
a2
cos  (t  t ').
2
82
Отсюда найдем дисперсию и среднее квадратическое отклонение
a2
DX (t )  K X (t , t )  ,
2
Таким
образом,
случайный
 X (t ) 
процесс
a
.
2
X (t )
имеет
постоянное
математическое ожидание и дисперсию, а корреляционная функция зависит
только от разности аргументов t  t ' .
При решении практических задач многомерные плотности не рассматривают, а используются только математические ожидания и корреляционные
функции. В связи с этим вводится понятие стационарности случайного процесса в широком смысле.
Стационарный случайный процесс X (t ) называется стационарным в
широком смысле, если его математическое ожидание и корреляционная функция инвариантны относительно сдвига во времени, то есть математическое
ожидание постоянно (не зависит от времени), а корреляционная функция зависит только от разности аргументов   t2  t1 и конечна при   0 :
mX (t )  mX  const ;
K X (t1 , t2 )  K X (t1  t2 ) .
(103)
Из второго условия (103) следует
DX (t1 )  K X (t1  t1 )  K X (0)  const .
(104)
На основании формул (101), (102) можно заключить, что стационарные
процессы в узком смысле, всегда стационарны в широком смысле. Однако обратное утверждение в общем случае неверно.
Эргодическое свойство стационарных случайных процессов
Рассмотрим некоторый стационарный случайный процесс X (t ) , для
которого требуется экспериментально определить математичекое ожидание
m X , которое должно быть постоянным по определению стационарного
случайного процесса. Для этого необходимо располагать некоторым числом
реализаций случайного процесса X (t ) . Обрабатывая эти реализации для
моментов в ремени t можно найти оценку математического ожидания m X (t ) ,
83
которая из-за ограниченного числа реализаций не будет постоянной, поэтому
затем придется ее осреднять по времени и заменить некоторым значением m*X .
Возникает вопрос: нельзя ли для стационарного случайного процесса
набор его реализаций заменить на одну реализацию достаточной продолжительности, предполагая, что эта реализация рано или поздно пройдет через любые состояния независимо от того, в каком состоянии находился этот процесс
в начальный момент времени.
Следует отметить, что не для всех случайных процессов это возможно.
Это следует из сравнения случайных процессов X 1 (t ) и X 2 (t ) на рис. 30 и
рис.31.
Рис. 30 Реализации эргодического случайного процесса
Рис. 31 Реализации неэргодического случайного процесса
Поэтому говорят, что случайный процесс должен обладать эргодическим
свойством.
Если случайный процесс обладает эргодическим свойством, то его среднее по времени (на достаточно большом участке наблюдения) приближенно
равно среднему по множеству наблюдений. То же верно и для других характеристик. Следовательно, все характеристики случайного процесса (математическое ожидание, дисперсию, корреляционную функцию) можно будет приближенно определить по одной достаточно длинной реализации.
Возникает вопрос: какие стационарные случайные процессы обладают,
84
а какие не обладают эргодическим свойством.
Рассмотрим случайный процесс
Z (t )  X (t )  Y ,
где X (t ) – стационарный случайный процесс, обладающий эргодическим
свойством, с характеристиками m X , k X ( ) ; Y – случайная величина с
характеристиками mY , Dy . Предполагается, что X (t ) и Y некоррелированы.
Найдем характеристики случайного процесса Z (t ) аналогично формуле
(69):
mZ  mX  mY ,
k Z ( )  k X ( )  DY .
Отсюда следует, что случайный процесс Z (t ) является стационарным,
но не обладает эргодическим свойством, поскольку каждая его реализация
будет отличаться от других средним по времени значением в зависимости от
того, какое значение приняла случайная величина Y (рис. 32)
Рис. 32 Реализации неэргодического случайного процесса
Об эргодичности или неэргодичности случайного процесса можно
судить по корреляционной функции, представлееной на рис. 33.
Рис. 33 Графики корреляционной функции
85
Если корреляционная функция стационарного случайного процесса не
убывает при увеличении  к нулю, а начиная с некоторого значения остается
постоянной, то это является признаком наличия случайной величины и процесс не является эргодическим.
Для эргодического стационарного случайного процесса:
Математическое ожидание определяется по формуле
mX
1
X (t )  M  X (t )  lim
T  2T
T
 x(t )dt .
(105)
T
Достаточным условием для выполнения равенства (105) является условие
lim k X ( )  0 .
 
(106)
Дисперсия определяется по формуле
1
DX  lim
T  2T
T
2
x
(
t
)

m
dt .


X

(107)
T
Достаточным условием для выполнения равенства (107) является условие
lim kY ( )  0 ,
 
(108)
где kY ( ) – корреляционная функция стационарного случайного процесса
Y (t )  X 2 (t ) .
Корреляционная функция определяется по формуле
1
k X ( )  lim
T  2T
T
  x(t )  mX  x(t   )  mX dt .
(109)
T
Достаточным условием для выполнения равенства (109) является условие
lim kZ ( )  0 ,
 
(110)
где k Z ( ) – корреляционная функция стационарного случайного процесса
Z (t , )  X (t ) X (t   ) .
86
Пример 19. Элементарная случайная функция X (t ) имеет вид X (t )  a ,
где a – неслучайная величина. Найти математическое ожидание, дисперсию,
среднее квадратическое отклонение и корреляционную функцию для X (t ) .
Определить является процесс стационарным и обладает ли свойством эргодичности.
Решение: Математическое ожидание:

mX (t )  M [ X (t )] 

 a f ( x)dx  a 

f ( x)dx  a .

Корреляционная функция
K X (t1, t2 )  M  X (t1 )  mX  X (t2 )  mX   
 

   a  a  a  a  f ( x1, x2 , t1, t2 )dx1dx2 0,
 
не зависит от аргументов t1 , t2 , следовательно, k X ( )  0 , и получим
DX  k X (0)  0 ,  X  DX  0 .
Отсюда заключаем, что случайный процесс X (t )  a стационарен и согласно условию (106) обладает свойством эргодичности.
Пример 20. Рассматривается случайный процесс X (t )  V , где V – случайная величина. Найти математическое ожидание, дисперсию, среднее квадратическое отклонение и корреляционную функцию для X (t ) . Определить является процесс стационарным и обладает ли свойством эргодичности.
Решение: Математическое ожидание:




mX (t )  M [ X (t )] 
 v f (v, t )dv   v f (v)dv  mV .
Корреляционная функция
K X (t1, t2 )  M  X (t1 )  mV  X (t2 )  mV   

 

 

2
   v  mV  v  mV  f (v1, v2 , t1, t2 )dv1dv2    v  mV  f (v)dv DV ,
не зависит от аргументов t1 , t2 , следовательно, k X ( )  DV , и получим
87
DX  k X (0)  DV ,  X  DV .
Отсюда заключаем, что случайный процесс X (t )  V стационарен, но не
выполняется условие (106), поэтому он не обладает свойством эргодичности.
Определение статистических характеристик эргодической стационарной
случайной функции по одной реализации
Рассмотрим стационарную случайную функцию X (t ) в дискретные моменты времени ti  it , t  T / n , обладающую эргодическим свойством, на
интервале 0,T  c большим значением T .
По формуле (105) приближенно определяется математическое ожидание:
T
1
1 n
1T n
1 n
mX   x(t )dt   x(ti )t 
 x(ti )  n  x(ti ) .
T0
T i 1
T n i 1
i 1
(105’)
По формуле (109) приближенно определяется корреляционная функция,
которую представим в эквивалентном виде:
1
k X ( ) 
T 
T 
  x(t )  mX  x(t   )  mX dt .
0
Полагая   mt  mT / n , T    T  mT / n  (n  m)T / n , получим
n
T nm
 mT 
kX 
  x(ti )  mX  x(tim )  mX  

 n  (n  m)T n i 1
1 nm
=
  x(ti )  mX  x(tim )  mX .
(n  m) i 1
.
(109’)
Вычисление корреляционной функции по формуле (109’) проводится
для значений m  0, n  1, при этом на интервале 0,T  корреляционная функция становится практически равной нулю или начинает совершать небольшие
нерегулярные колебания около нуля.
88
Тема 3. Частотное представление стационарных случайных процессов
В теории управления существуют и взаимно дополняют друг друга два
подхода:
1) временной – исследование процессов во времени;
2) частотный – исследование частотных свойств сигналов и систем (с
помощью передаточных функций и частотных характеристик).
В связи с этим рассматриваются данные подходы и для случайных процессов.
Рассмотрим стационарный случайный процесс X (t )  mX на интервале
времени (0,T ) , который условно представлен пунктирной кривой на рис. 34.
Рис. 34 Условное изображение случайного процесса X (t )  mx
Корреляционная
функция
стационарного
случайного
процесса
X (t )  mX при   t ' t определяется по формуле
K X (t , t ')  K X (t , t   )  k X ( )  k X ( )
и изображена в виде симметричной кривой на рис. 35.
Рис. 35 Корреляционная функция стационарного случайного процесса
При изменении t и t ' от 0 до T аргумент   t ' t изменяется от T до
T.
Корреляционную функцию стационарного случайного процесса k X ( )
89
можно представить вещественным рядом Фурье с периодом 2T :

K X (t , t ')  k X ( )  a0    ak cos k  bk sin k  ,
(111’)
k 1
где k 
2
k
, а коэффициенты a0 , a k , bk определяются по формулам:
k
2T
T
T
1
a0 
2T
 k X ( )d ,
T
T
1
ak   k X ( )cos k d ,
T T
(112’)
T
1
bk   k X ( )sin k d .
T T
Здесь для четной функции k X ( )  k X (  ) выполняются равенства:
T
0
T
0
T
T
T
0
T
0
 k X ( )d   k X ( )d   k X ( )d   k X ( )d   k X ( )d 
0
T
T
T
T
T
0
0
0
0
   k X ( )d ( )   k X ( )d   k X ( )d ( )   k X ( )d  2  k X ( ) d ;
T
0
T
 k X ( )sin k d   k X ( )sin k d   k X ( )sin k d 
T
T
0
T
T
0
0
   k X ( )sin k d   k X ( )sin k d  0;
T
0
T
T
T
0
 k X ( )cos k d   k X ( )cos k d   k X ( )cos k d 
T
T
T
0
0
0
  k X ( )cos k d   k X ( )cos k d  2  k X ( )cos k d ,
Тогда выражение (111’) можно представить в виде:

K X (t , t ')  k X ( )   Dk cos k ,
(111)
k 0
где
90
T
1
D0  a0   k X ( )d ,
T0
(112)
T
2
Dk  ak   k X ( )cos(k )d при k  0.
T0
Представим спектральное разложение (111’) в комплексном виде с помощью формул Эйлера:
e jk  e jk
e jk  e jk
e jk  e jk
, sin k 
.
j
cos k 
2
2j
2
Подставляя эти выражения в формулу (111), получим
 e jk  e jk
e jk  e  jk
k X ( )  a0    ak
 jbk
2
2
k 1 
  a  jb

 a  jbk  e jk .
k  jk
 a0    k
e
 k

2
2
k 1 





Запишем выражения:
C0  a0 ,
a  jbk
1
Ck  k

2
2T
1

2T
e
k
(

)

X


T
T
jk
T
 k X ( )  cos k  j sin k  d 
T
 e jk
e jk  e jk
j
2
2j

1
 d 
2T

T
 k X ( )e
 jk
d ,
T
a  jbk
1
 k

k X ( )e jk d .

2
2T T
T
C k
Тогда окончательно получим спектральное разложение (111’) в комплексном виде:



K X (t , t ')  k X ( )   Ck e jk  C k e jk ,
k 1
(113)
где коэффициенты C0 , Ck , C  k определяются по формулам:
91
1
C0 
2T
1
Ck 
2T
C k
T
 k X ( )d ,
T
T
 k X ( )e
 jk
d ,
jk
d .
(114)
T
1

2T
T
 k X ( )e
T
С учетом равенства   t ' t и формулы
cos k  cos k (t ' t )  cos k t 'cos k t  sin k t 'sin k t .
выражения (111) и (113) можно переписать соответственно в виде

K X (t , t ')    Dk cos k t 'cos k t  Dk sin k t 'sin k t  ,
(111’’)
k 0



K X (t , t ')   Ck e jk t 'e jk t  C k e jk t 'e jk t ,
k 0
(113’)
то есть получили каноническое разложение корреляционной функции K X (t , t ')
по координатным функциям cos k t , sin k t в выражении (111’’) и e jk t , e  jk t
в выражении (113’) для частот k  k1 .
Известно [1], что по каноническому разложению корреляционной функции (111’’) можно построить каноническое разложение самой случайной
функции X (t )  mX с теми же координатным функциям.
Каноническое разложение по координатным функциям cos k t , sin k t
имеет вид:

X (t )  mX   U k cos k t  Vk sin k t  ,
(115)
k 0
где U k , Vk – некоррелированные случайные величины с математическими
ожиданиями равными нулю, то есть M U k   0 , M Vk   0 , M U kVk   0 и дисперсиями DU k  DVk  Dk .
Каноническое разложение (115) также можно представить [6] в комплексной форме по координатным функциям e jk t , e  jk t :
92
X (t )  mX 

 Wk e j t ,
k
(116)
k 
где Wk – некоррелированные комплексные случайные величины с математическими ожиданиями равными нулю, то есть M Wk   0 , и дисперсиями
DWk  M WkWk   Dk / 2 .
В справедливости разложений (115) и (116) можно убедиться путем вычисления корреляционных функций, которые совпадают с выражениями
(111’’) и (113’).
Определим, например, дисперсию случайной функции X (t )  mX , заданной спектральным разложением (115):
DX (t )  M  X (t )  m X 



2
2
 


  M   U k cos k t  Vk sin k t    

 k 0
 





2
2
  M U k   cos k2t  M Vk   sin k2t =  cos k2t  sin k2t Dk   Dk . (117)




k 0
k 0
k 0
которое также следует из выражения (111’’) при t '  t .
Отсюда следует, что коэффициенты Dk в выражении (111), которые
определяются по формулам (112), являются дисперсиями некоррелированных
случайных величин U k , Vk канонического разложения (115).
Таким образом, дисперсия стационарной случайной функции (процесса)
равна сумме дисперсий всех гармоник ее спектрального разложения. Распределение дисперсий по гармоникам показано на рис. 36.
Рис. 36 Спектр дисперсий стационарного процесса
93
Если рассмотреть стационарный случайный процесс X (t )  mX на интервале времени (0,T ) при T   , то частота 1 
2
 0 , то есть расстояния
2T
между частотами k  k1 , на которых строится спектр будут неограниченно
уменьшаться. При этом дискретный спектр будет приближаться к непрерывному.
Обозначим   1 , тогда выражение (117) можно переписать в виде



Dk
DX   Dk  
  S X (k ) ,
k 0
k 0 
k 0
где S X (k ) 
(118)
Dk
– средняя плотность дисперсии на участке  . На рис. 37

приведен график функции S X (k ) , где заштрихованный прямоугольник имеет
площадь равную Dk  S X (k ) .
Рис. 37. График средней спектральной плотности дисперсии
При   0 ступенчатая кривая на рис. 37 будет приближается к плавной кривой S X ( ) – спектральной плотности дисперсии, показанной на
рис.38, которая изображает плотность распределения дисперсии по частотам
непрерывного спектра.
Рис. 38. График спектральной плотности дисперсии
94
Из формулы (118) при   0 следует, что

DX   S X ( )d .
(120)
0
Спектральная плотность дисперсии S X ( ) не является самостоятельной
характеристикой, поскольку она полностью определяется корреляционной
функцией случайного процесса. Действительно, учитывая, что  
Dk  S X (k ) 

T

T
и
S X (k ) согласно формуле (112) можно записать

T
2
Dk  S X (k )   k X ( )cos(k )d ,
T
T0
откуда следует выражение
S X (k ) 
2

T
 k X ( )cos(k )d .
(121)
0
Из формулы (111) также получим


k X ( )   Dk cos(k )   S X (k )cos(k ) .
k 0
(122)
k 0
Перейдем к пределу при T   ,   0 , тогда для выражений (121) и
(122) получим формулы
S X ( ) 
2


 k X ( )cos( )d ,
(123)
0

k X ( )   S X ( )cos( )d ,
(124)
0
которые являются преобразованиями Фурье.
Из формулы (124) при   0 следует формула (120) разложения дисперсии по частотам.
На практике вместо спектральной плотности S X ( ) часто пользуются
нормированной спектральной плотностью
95


S ( ) 2 k X ( )
2
s X ( )  X
 
cos( )d    X ( )cos( )d ,
DX
 0 DX
0
(125)
где


k ( )
S ( )
 X ( )  X
 X
cos( )d   s X ( )cos( )d
DX
D
X
0
0
(126)
нормированная корреляционная функция, для которой при   0 справедливо
равенство

k (0)
 X (0)  X
  s X ( )d  1,
DX
0
(127)
то есть полная площадь, ограниченная графиком нормированной спектральной плотности, равна единице.
С помощью нормированной корреляционной функции определяется интервал корреляции  k как ширина прямоугольника, показанного на рис. 39а,
а)
б)
Рис. 39. Интервал корреляциии и эффективная ширина спектра
с площадью, равной площади под графиком функции  X ( ) :


1
k 
| k X ( ) | d   |  X ( ) | d .
DX 0
0
Интервал корреляции является количественной оценкой скорости изменения реализации случайного процесса. Можно считать, что мгновенные значения случайного процесса, отстоящие на время    k , практически не коррелированы.
96
Аналогично вводится понятие эффективной ширины спектра  f по
формуле
f 
1
S X max

 S X ( )d ,
0
где S X max – максимальное значение спектральной плотности S X ( ) , как показано на рис. 39б.
Спектральное разложение случайной функции
Аналогично формуле (124) можно получить спектральное разложение
случайной функции (115):


V
U

X (t )  mX   U k cos k t  Vk sin k t     k cos k t  k sin k t  


k 0
k 0  

=  U (k )cos k t  V (k )sin k t  ,
k 0
где U (k ) 
Uk
V
, V (k )  k – некоррелированные случайные величины, в


том числе и для своих значений.
В пределе при   0 получим выражение

X (t )  mX   U ( )cos t  V ( )sin t d .
0
Рассмотрим другое эквивалентное представление корреляционной
функции (124) в комплексной форме. Для этого воспользуемся равенством
cos( ) 
e j  e j
.
2
Тогда выражение (124) будет иметь вид



e j  e j
S ( ) j
S ( )  j
k X ( )   S X ( )
d   X
e d   X
e
d .
2
2
2
0
0
0
С учетом замены переменной    , d  d можно записать

S ( ) j
k X ( )   X
e d 
2
0


0

S X ( ) j
S ( ) j
S ( ) j
e d   X
e d   X
e d .
2
2
2
0

0
97
Введем в рассмотрение новую функцию S *X ( ) , которую определим
следующим образом:
S X ( )
при   0,
2
S ( )
S *X ( )  X
при   0.
2
S *X ( ) 
(128)
Функция S *X ( ) называется спектральной плотностью стационарного
случайного процесса в комплексной форме, которая, согласно выражению
(123), является четной функцией аргумента  и определена для любых его
значений. На рис. 39 показаны графики функций S X ( ) и S *X ( ) , где значения
функции S *X ( ) при положительных значениях  в два раза меньше значений
спектральной плотности S X ( ) при тех же значениях аргумента  .
Рис. 39
Тогда окончательно получим выражение корреляционной функции в
комплексной форме
k X ( ) 

 S X ( )e
*
j
d .
(129)

Проверим соответствие формулы (129) формуле (124). Учитывая, что
корреляционная функция k X ( ) вещественная функция, то мнимая часть
подынтегрального выражения (129) равна нулю. Поэтому можно записать
98
k X ( ) 


S *X
( )e
j
d 




S *X

S *X
( )cos  d  
( )cos  d  
0

 S X ( )cos  d 
*


S *X

( )  cos   j sin   d 


0



S *X
( )cos  d   S *X ( )cos  d 
0
0


  S *X ( )  S *X ( ) cos  d   S X ( )cos  d.
0
0
Тем самым формулы (124) и (129) эквивалентны.
Полагая в формуле (129)   0 , получим выражение дисперсии случайной функции X (t )  mX :

DX  k X (0) 
 S X ( )d .
*
(130)

Аналогично перепишем спектральную плотность (123) в комплексной
форме:



e j  e  j
1
 j
S X ( )   k X ( )
d    k X ( )e
d   k X ( )e j d  .

0
2
  0
0

2

С учетом замены переменной    , d  d можно записать



1
 j
S X ( )    k X ( )e
d   k X ( )e  j d  

  0
0


0

1
 j
=   k X ( )e
d   k X ( )e  j d  .

  0


Отсюда, с учетом свойства k X ( )  k X (  ) , справедливо выражение спектральной плотности в комплексной форме
S X ( ) 
1


 k X ( )e
 j
d ,
(131)

или с учетом равенства S X ( )  2 S *X ( ) в виде
1
S X ( ) 
2
*

 k X ( )e
 j
d .
(132)

99
Связь между спектральной плотностью S *X ( ) (или S X ( ) ), корреляционной функции и видом случайного процесса X (t )  mX заключается в том,
что чем «уже» график спектральной плотности (чем меньше частоты представлены в спектральной плотности) или «шире» график корреляционной функции
k X ( ) (рис. 40, а), тем медленнее изменяется величина x(t )  m X .
Наоборот, чем «шире» график спектральной плотности (чем большие частоты представлены в спектральной плотности) или «уже» график корреляционной функции k X ( ) (рис. 40, б), тем тоньше структура функции x(t )  m X и
тем быстрее происходят ее изменения во времени.
Рис. 40. Сравнение спектральных плотностей, корреляционных функций
стационарных случайных процессов
Пример 21. Элементарная случайная функция X (t ) имеет вид
X (t )  U cos 0t  V sin 0t ,
где U ,V – некоррелированные случайные величины с характеристиками
mU  0 , mV  0 ,  U   V   ,  0 – неслучайная величина.
Найти спектральную плотность случайного процесса X (t ) .
Решение: Из примера 16 следует, что корреляционная функция имеет
вид
K X (t , t ')  k X ( )  DX cos 0 ,
где дисперсия DX   2 .
100
Покажем, что искомая спектральная плотность S X ( ) определяется
выражением
S X ( )  DX  (  0 ) ,
(136)
где  (  0 ) – дельта функция, которая обладает свойством
 при   0 ,
 (  0 )  
 0 при   0 ,
0 

  (  0 )d  
 (  0 )d 1 .
(137)
0 

Действительно, подставляя выражение (136) в формулу (124) найдем
выражение


k X ( )   S X ( )cos( )d   DX  (  0 )cos( )d 
0
0
 DX
0 

 (  0 )cos( ) d DX cos(0 ),
0 
которое совпадает с предыдущим выражением.
Так как преобразование Фурье определяет спектральную плотность и
корреляционную функцию взаимно однозначно, то выражение (136) является
искомой спектральной плотностью элементарной случайной функции X (t ) .
Отсюда в соответствии с формулой (128) следует выражение
спектральной плотности в комплексной форме:
S X ( ) DX
=
 (  0 ) при   0,
2
2
S ( ) DX
S *X ( )  X
=
 (  0 ) при   0.
2
2
S *X ( ) 
Учитывая свойство дельта функции, полученные выражения можно записать в обобщенном виде
S *X ( ) 
DX
D
 (  0 )+ X  (  0 ) .
2
2
Справедливость данного выражения проверяется подстановкой в формулу (129):
101
k X ( ) 


S *X
( )e

D
 X
2
j
D
d  X
2

  (  0 )   (  0 )e
j
d 



 DX j 
j
j
e 0  e  j0   DX cos 0 ,
   (  0 )e d    (  0 )e d  

2 
 


что и требовалось показать.
Отметим,
что
0  0
при
элементарная
случайная
функция
X (t )  U cos 0t  V sin 0t  U вырождается в обычную случайную величину
X (t )  U . При этом спектральная плотность и корреляционная функция равны:
DX
 (  0 )+ (  0 )   DX  ( ) ,
0 0 2
S *X ( )  lim
k X ( ) 


 )e
S *X (
j
d 


 DX  ( )e
j
d   DX .

Отсюда получим равенство выражений:
1
S X ( ) 
2
*

 k X ( )e

 j
1
d 
2

 DX e

 j
D
d  X
2

e
 j
d  DX  ( ) , (138)

их которого следует формула (П.5), приведенная в Приложении 1.
В частном случае, когда случайная величина U является неслучайной
величиной U  u , то DX  0 и, следовательно, k X ( )  0 , S *X ( )  0 .
Пример 22. Нормированная корреляционная функция  X ( ) случайного процесса X (t ) убывает по линейному закону, как показано на рис. 41.
Рис. 41. Нормированная корреляционная функция
Определить нормированную спектральную плотность случайного процесса X (t ) .
102
Решение: Нормированная корреляционная функция  X ( ) определяется выражением
 
при 0<   0 ,
1 
 X ( )    0
 0 при  > .
0

Тогда по формуле (125) найдем


2 0
 
s X ( )    X ( )cos( )d   1   cos( )d 
0
 0  0 
2

0

 2  1

2  0

1 0
0
   cos( )d   cos( )d    sin( ) 0  2   cos( )d  
  0

 0 0
   

0 0
0
 
2 
1 
2
0

  sin( ) 0   sin( )d   
1  cos( 0 ) .
sin( 0 ) 
2

 
 0 


0
0
 

График функции нормированной спектральной плотности s X ( ) пред-
( 0 )2
ставлен на рис. 42. Учитывая, что при  0  0 функция 1  cos( 0 ) 
,
2
то s X (0) 
0
.

Рис. 42. Нормированная спектральная плотность
При  0   нормированная корреляционная функция  X ( )  1 и при
этом случайный процесс вырождается в обычную случайную величину (см.
пример 20). Согласно формуле (127) площадь заштрихованной области под
кривой s X ( ) равна единице. Поэтому при  0   получим s X ( )   ( ) .
103
Пример 23. Нормированная спектральная плотность s X ( ) случайного
процесса X (t ) построена на некотором интервале частот (1 , 2 ) и равна нулю
в не этого интервала, как показано на рис. 43.
Определить нормированную корреляционную функцию случайного
процесса X (t ) .
Рис. 43. Нормированная спектральная плотность
Решение: Значение для s X ( ) при 1    2 находится из условия (127):

 sX ( )d  sX ( )(2  1)  1 ,
0
из которого следует, что
1
.
2  1
Тогда по формуле (126) найдем нормированную корреляционную функцию
s X ( ) 


2
1
1
 X ( )   s X ( )cos( )d 
cos(

)
d


sin 2  sin 1  ,





(



)
2
1
2
1
0

1
график которой приведен на рис. 44.
Рис. 44. Нормированная корреляционная функция
При 1  2 получим 1  2   и s X ( )   (  2 ) . При этом справедливы выражения:
104

2
1
cos(2 )(2  1 )
 X ( ) 
cos(

)
d


 cos(2 ) ,
2  1 
2  1
1
2
 X ( )    (  2 )cos( )d  cos(2 ) .
1
Отметим, что при дискретном спектре с одной единственной линией
спектральное разложение стационарной случайной функции X (t )  mX имеет
вид:
X (t )  mX  U cos t  V sin t  U 2  V 2 cos(t   ) ,
где U ,V – некоррелированные случайные величины с характеристиками
mU  0 , mV  0 и равными дисперсиями DU  DV  D ; фаза  определяется по
формуле
cos  
U
U 2 V 2
.
Таким образом, получили одно гармоническое колебание частоты  со
случайной амплитудой и случайной фазой.
Понятие белого шума
В теории случайных процессов важную роль играет стационарный в широком смысле случайный процесс, имеющий равномерную спектральную
плотность по всем частотам, то есть, S *X ( )  S0  const , который называется
белым шумом. Название «белый шум» получил от белого света, содержащего
электромагнитные волны частот всего видимого диапазона электромагнитного излучения. Кроме белого, существуют шумы многих цветов. Примерами
белого шума являются шум близкого водопада (отдаленный шум водопада –
«розовый шум», так как высокочастотные составляющие звука затухают в воздухе сильнее низкочастотных), или дробовой шум на клеммах большого сопротивления, или шум стабилитрона, через который протекает очень малый
ток.
105
В природе и технике «чисто» белый шум, имеющий равномерную спектральную плотность по всем частотам не встречается ввиду того, что такой
сигнал имел бы бесконечную мощность. Действительно, в этом случае по формуле (129), с учетом формулы (П.5) (см. Приложение 1)
1
 (t ) 
2

e
jt
d ,
j
d  2 S0 ( ) ,

найдем
k X ( ) 


S *X
( )e
j
d  S0


e
(139)

где  ( ) – дельта- функция
  при   0,
 ( )  
0 при   0,

  ( )d  1 ,

а множитель 2 S0 при  ( ) называется интенсивностью стационарного белого шума.
Согласно формулам (107), (130) для дисперсии эргодического случайного процесса справедливо равенство
1
DX  lim
T  2T
T

  x(t )  mX  dt   S X ( )d .
2
*
T
(140)

Здесь подынтегральное выражение  x(t )  mX  в левой части равенства пред2
ставляет собой мгновенную мощность случайного сигнала X (t )  mX , а сама
левая часть представляет собой его среднюю мощность при T   . Поэтому
функцию S *X ( ) также называют спектральной плотностью мощности стационарного случайного процесса. В качестве примера мгновенной мощности
 x(t )  mX 2 можно рассматривать электрическую мощность RI 2 , где I – электрический ток, протекающий по резистору с сопротивлением R .
Из формулы (139) следует, что дисперсия DX  k X (0)  2 S0 (0) равна
бесконечности, что соответствует случайному сигналу X (t )  mX бесконечной
мощности, чего не бывает в реальности.
106
Если подставить выражение корреляционной функции (139) в формулу
(132), то получим:
1
S X ( ) 
2
*

 2 S0 ( )e
 j


d  S0   ( )e j d .

По свойству  -функции выполняется равенство

  ( )e

 j
d 

  (0)e
 j 0

d 

  ( )e
 j 0

d 

  ( )d  1 ,

поэтому получим исходное значение S *X ( )  S0 .
Корреляционная функция и спектральная плотность белого шума показаны на рис. 45.
Рис. 45. Корреляционная функция и спектральная плотность белого шума
Из формулы (139) следует, что белый шум является простейшим видом
случайной функции вследствие того, что его значения при различных значения аргумента t не коррелированы. Выражение случайной функции через случайную функцию белый шум называется интегральным каноническим представлением случайной функции.
Следует отметить, что приведенное определение понятия белого шума
относится только к спектральной картине случайного процесса и оставляет совершенно открытым вопрос о законах распределения. Точнее говоря, его распределение вероятностей в обычном смысле не существует, оно может быть
любым, например, гауссовским.
Белый шум, как и δ-функция существует лишь как математическая абстракция. Существуют случайные природные физические явления, близкие
107
белому шуму, в достаточно широком диапазоне спектральная плотность мощности таких процессов приближенно равна постоянной величине.
Если нет никакой информации о свойствах случайных воздействий на
систему автоматического управления, часто считают, что они приближенно
описываются моделью белого шума. Если в этом наихудшем случае характеристики системы останутся удовлетворительными, то они будут не хуже и при
любой другой случайной помехе.
Пример 24. Задана корреляционная функция случайного процесса X (t )
k X ( )  DX e | | ,   0 ,
где DX – дисперсия случайного процесса. Оценить влияние постоянной 
на спектральную плотность.
Решение: Спектральную плотность найдем по формуле (132):
1
S X ( ) 
2
*

 k X ( )e
 j

1
d 
2

 DX e

 | |  j
e
1
d 
2

 DX e
 | | j
d .

Так как |  |  при положительных  и |  |  при отрицательных  , то, разбивая интеграл на сумму двух интегралов по отрицательным и положительным значениям  , получим
0
  (  j )

(  j )
e
d


e
d




 0



0 
D 
1
1
e (  j )  
e(  j )  .
 X
 0 (  j ) 
 
2  (  j ) 

D
S X ( )  X
2
*
Учитывая, что в силу   0 справедливы равенства e  (  j )   0 , e (  j )   0 ,
окончательно получим
S *X ( ) 
DX
2
 1
1 
DX 

.


2
2


j



j









При увеличении  скорость убывания функции K X ( ) увеличивается,
108
как показано на рис. 46 а. При этом начальное значение спектральной плотности S *X (0) 
DX

уменьшается и кривая S *X ( ) вытягивается, приближаясь в
пределе к прямой параллельной оси частот.
Рис. 46 Корреляционная функция и спектральная плотность
Если потребовать выполнения равенства
DX

 S0 при    за счет
увеличения DX , то предел для интеграла корреляционной функции будет равен
lim
 



0
DX e
 k X ( )d  lim
 
 | |


0


 

d  lim DX   e d   e d  
 



0
 .
 lim 2 DX  e d  lim
 
0
 
2 DX

 2 S0 .
Отсюда получим равенство

1
k X ( )d  1 ,
   2 S
0

lim
k X ( ) DX e | |
из которого следует, что при    функция
стремится к

2 S0
2 S0
нулю при   0 , но в тоже время должно выполняться равенство k X ( )  0   ,
поскольку интеграл равен 1. Таким образом, функция
k X ( )
обладает всеми
2 S0
свойствами дельта-функции  ( ) .
Отсюда получим
109
k X ( )  2 S0 ( ) ,
что совпадает с выражением (139).
Основные модели случайных процессов
Наряду с рассмотренными непрерывными случайными процессами аналогично вводятся характеристики для дискретных процессов, когда случайная
функция времени принимает значения в некоторые дискретные моменты времени. Поэтому случайные процессы классифицируются на непрерывные и
дискретные.
Для решения практических задач часто используются следующие основные модели случайных процессов.
1. Квазидетерминированный случайный процесс вида X (t , A) , который
представляется совокупностью функций времени, зависящих от случайного
параметра A  A (или вектора параметров), принимающего значение из подмножества  A евклидового пространства параметров. При этом каждому возможному значению случайной величины A  A соответствует одна реализация квазидетерминированного процесса.
Простейшим примером квазидетерминированного процесса является
гармонический сигнал со случайными амплитудой, частотой и фазой. При равномерно распределённой фазе и постоянной частоте этот сигнал является стационарным в широком смысле (см. Пример 17), а при тех же условиях и при
постоянной амплитуде является стационарным в узком смысле, а также эргодическим (см. Пример 18).
Нестационарным квазидетерминированным процессом является процесс, описываемый полиномом по переменной t со случайными коэффициентами Ak , k  1, n .
n
X (t )   Ak t k ,
k 1
который используется в качестве математической модели траектории полетов
110
летательных аппаратов.
2. Случайный процесс с независимыми значениями в несовпадающие моменты времени – это процесс, у которого вся вероятностная информация содержится в одномерном распределении. Для любой последовательности различных моментов времени tk , k  1, n случайные величины X (tk ) независимы
в совокупности. Поэтому многомерная функция распределения, плотность вероятности случайного процесса X (tk ) равна произведению одномерных функций распределения, одномерных плотностей вероятности в заданные моменты
времени.
Следует отличать процессы с независимыми значениями от процессов с
некоррелированными значениями, у которых для любой пары несовпадающих
моментов времени ti и t j выполняются равенства
M [ X i X j ]  M  X i  M  X j  , i  j .
3. Случайный процесс с независимыми приращениями – это процесс, у
которого для любой последовательности моментов времени t1  t2 
 tn
случайные величины X (t1 ) , X (t2 )  X (t1 ) , …, X (tn )  X (tn1 ) независимы. Любое конечномерное распределение процесса с независимыми приращениями
определяется его одномерным распределением и распределением приращения, то есть двумерным распределением.
Следует отличать процессы с независимыми приращениями от процессов с некоррелированными приращениями, для которых приращения процесса
на непересекающихся интервалах некоррелированы.
4. Марковский случайный процесс – это процесс, у которого для каждого
момента времени вероятность любого состояния системы в будущем зависит
только от состояния системы в настоящий момент времени t0 и не зависит от
того, каким образом система пришла в это состояние.
Это означает, что условная функция плотности вероятностей марковского случайного процесса для любых моментов времени tn имеет вид:
111
f ( xn , tn | xn1, tn1,..., x1, t1 )  f ( xn , tn | xn1, tn1 ) ,
где t1  t2 
 tn . Иначе говоря, будущее случайного процесса зависит от про-
шлого только через настоящее.
5. Гауссовский случайный процесс – это процесс, у которого совместная
плотность распределения вероятности f ( x1 ,..., xn , t1,..., tn ) любой конечной
совокупности случайных величин X (tk ) , k  1, n является нормальной, то есть
определяется по формуле
f ( x1,..., xn , t1,..., tn ) 
T
 1

exp   x  mx  K X1  x  mx 
 2

(2 )n | K X |
1
где x  [ x1... xn ]T – n - вектор значений случайных величин X (tk ) , k  1, n ;
mx  mX1 ...mX n 
T
– n - вектор математических ожиданий mX k  M [ X (tk )] ,
k  1, n ; K X - n  n – корреляционная матрица, симметричная с элементами
K X (ti , t j ) , равными корреляционной функции центрированного процесса в мо-
менты времени ti и t j при i  1, n и j  1, n :
 K X (t1, t1 ) K X (t1, t2 )
 K (t , t ) K (t , t )
X 2 2
KX   X 2 1


 K X (tn , t1 ) K X (tn , t2 )
K X (t1, tn ) 
K X (t2 , tn ) 
,


K X (tn , tn ) 
| K X | – определитель матрицы K X .
При любых линейных преобразованиях нормального процесса он остается нормальным.
Если гауссовский случайный процесс стационарен в широком смысле,
то математическое ожидание является постоянным, то есть m X k  a , k  1, n , а
элементы корреляционной матрицы зависят только от разности моментов времени  i  t j  ti .
Рассмотрим двумерную плотность вероятности стационарного гауссов-
112
ского случайного процесса, которая согласно формуле (143) с учетом выражений
 K X (0)  K X ( )  1
 K (0) K X ( ) 
1
KX   X
, KX  
,


  K X ( ) K X (0)  | K X |
 K X ( ) K X (0) 


| K X | K X2 (0)  K X2 ( )  DX2  K X2 ( )  DX2 1  RX2 ( ) , RX ( ) 
 x  mx 
T



K X1  x  mx  
K X ( ) K X ( )
,

DX
 X2
 K (0)  K X ( )   x1  a 
x2  a   X


  K X ( ) K X (0)   x2  a 
1
 x1  a
| KX |
1 
2
2
K X (0)  x1  a   2 K X ( )  x1  a  x2  a   K X (0)  x2  a   

| KX | 
DX
DX2
 X2
1 
RX2
 x1  a 2  2 RX ( )  x1  a  x2  a    x2  a 2  

( ) 

1
 x1  a 2  2 RX ( )  x1  a  x2  a    x2  a 2 

1  RX2 ( ) 


имеет следующий вид
f ( x1, x2 ,1 ) 
1
2
2
X
1
RX2
( )
e
1
 x a 2  2 R ( ) x a  x a  x a 2 
X
1
2
2
2
2 ( )  1

2 X 1 RX


.
Если любые два значения гауссовского случайного процесса в несовпадающие моменты времени некоррелированы, то есть RX ( )  0 , то плотность
вероятности имеет вид
f ( x1, x2 ) 

1
 X 2
1
2 X2
 x1a 
e
2
2 X
e
1 
 x1a 2  x2 a 2 
2 2 
X
 x2 a 
2
1
 X 2
e
2
2 X

1
2 X2
 x1 a 
e
2
2 X
2
 x2 a 
2
e
2
2 X
2

.
 f ( x1 ) f ( x2 ).
Таким образом, плотность вероятности равна произведению плотностей
вероятности отдельных случайных величин, подчиненных нормальному закону, а это значит, что случайные величины X (t1 ) и X (t2 ) независимы. Здесь
термины «некоррелированные» и «независимые» случайные величины для
113
случая нормального распределения эквивалентны.
Аналогично приведенным формулам записываются плотности вероятности n-ого порядка.
Модель гауссовского случайного процесс широко используется в естествознании и технике, например, в радиотехнике при моделировании активных и пассивных помех, атмосферных и космических шумов.
6. Гауссовский (нормальный) белый шум – это стационарный случайный
процесс X (t ) , имеющий нормальный одномерный закон распределения и корреляционную функцию вида белого шума
k X ( )  c ( ) ,
где c – положительная константа,  ( ) – дельта- функция.
Для практической интерпретации можно считать, что гауссовский белый шум – это процесс, имеющий очень большую дисперсию, а интервал времени, на котором его корреляционная функция спадает почти до нуля, очень
мал по сравнению с другими характерными масштабами рассматриваемой задачи. Тем самым, некоррелированный гауссовский процесс можно рассматривать как приближение к белому шуму.
7. Дискретный белый шум моделируется с помощью последовательности случайных (точнее – псевдослучайных) чисел с равномерным или нормальным распределением с конечным значением дисперсии, обладает свойством эргодичности, то есть его плотность распределения вероятностей случайной величины в сечении множества реализаций случайного процесса равна
плотности распределения вероятностей случайной величины одной реализации случайного процесса.
Для моделирования непрерывного белого шума по значениям дискретного белого шума строится ступенчатый сигнал, фиксируя каждое значение в
течение некоторого промежутка времени  0 , как показано на рис. 47.
114
Рис. 47. Ступенчатый сигнал и его корреляционная функция
Корреляционная функция такого случайного сигнала X (t ) определяется
по формуле

 | | 
 DX  1 
 при |  |  0 ,
k X ( )  
 0 
0
при |  |  0 .

Тогда в соответствии с примером 22 спектральная плотность сигнала
имеет вид
S X ( ) 
2 DX (1  cos  0 )
 2 0
.
Вычисляя предел этой функции при   0 , получим lim S X ( ) 
 0
DX  0

.
Вид функции S X ( ) показан на рис. 42.
Если потребовать выполнения равенства
дет зависеть от  0 : DX  0  
2S0
0
DX  0
 2 S0 , то дисперсия бу
. Поэтому в пределе при  0  0 получим
предел для интеграла корреляционной функции
115

lim
 0 0

k X ( )d  lim

 0 0
0

0
 | | 
D
1 
 d 
X
 0 0 

0 

 0
k X ( )d  lim
 0

0

 0

0

1 0
1




 DX lim  d 
|  | d  DX lim 2 0 
 d    d   


 0 0 
 0 0 





0  0
0 0
 0
  0



2S 
 lim DX  0  lim 0  0  2 S0 .
 0 0
 0 0
0
Отсюда получим равенство

1
lim  k X ( )d  1,
2 S0  0 0 
Учитывая, что при  0  0 функция
k X ( )
1
2 S0 1
1
 lim DX  0 
 lim
 lim
,
 0 0 2 S
 0 0
2 S0  0 0  0 2 S0  0 0  0
0
lim
заключаем, что функция
k X ( )
при указанном условии обладает всеми свой2 S0
ствами дельта-функции  ( ) . Отсюда получим
k X ( )  2 S0 ( ) ,
что совпадает с выражением (139).
Таким образом, ступенчатый сигнал дискретного белого шума, представленный на рис. 47, при DX 
2S0
0
и  0  0 в пределе стремится к непре-
рывному белому шуму.
В зависимости от того какой был использован дискретный шум с равномерной или нормальной плотностью распределения, соответствующую плотность распределения будет иметь в пределе при  0  0 непрерывный белый
шум.
Дискретный гауссовский белый шум моделируется в MatLAB при помощи процедуры randn.
Для проверки указанного свойства гауссовского белого шума можно
воспользоваться следующим Script файлом, который можно скопировать и
116
разместить в m-file.
% Гауссовский (нормальный) белый шум
% Формируем N реализаций c N значениями времени дискретного
% белого шума с нормальным законом распределения плотности вероятности
% T - время моделирования случайного процесса (секунды)
% Ts - шаг дискретизации по времени (секунды)
clear
T=100; Ts=0.01;
t=0:Ts:T;
N=length(t);
sigma=1;% среднее квадратическое отклонение (СКО)
for i=1:N
x(:,i)=sigma*randn(N,1);
end
% Статистические данные одной реализации гауссовского белого шума
x1=x(:,1);
Mx1=sum(x1)/N
% среднее значение
Dx1=sum((x1-Mx1).^2)/N; % статистическая дисперсия
sigma_1=sqrt(Dx1)
% статистическое СКО
% Построение графика гауссовского белого шума
figure(1);
plot(t,x1);grid, set(gca,'FontName','Arial Cyr','FontSize',1 0)
title('Гауссовский белый шум x1');
xlabel('Время (с)');
ylabel('X(t)')
% Построение гистограммы
figure(2);
histogram(x1,50,'Normalization','probability'); hold on;
% Статистические данные для сечения N реализаций гауссовского белого
шума
% в произвольный момент времени, равный 10с
x2=x(1001,:);
Mx2=sum(x2)/N
% среднее значение
Dx2=sum((x2-Mx2).^2)/N; % статистическая дисперсия
sigma_2=sqrt(Dx2)
% статистическое СКО
% Построение гистограммы
figure(2);
histogram(x2,50,'Normalization','probability'); grid;
legend({'x1','x2'});
% Построение графика гауссовского белого шума
figure(3);
plot(t,x2);grid
title('Гауссовский белый шум x2');
xlabel('Время (с)');
% Построение спектра гауссовского белого шума
fmax=1/Ts; df=1/T;
f=-fmax/2:df:fmax/2 ;dovg=length(f);
% f=-N/2:1:(N/2-1) ;
% N=length(x1);
fy=fft(x1)/dovg;
fy=fftshift(fy);
% Вычисление спектральных плотностей мощности
S=fy.*conj(fy)*dovg/(2*pi);
figure (4);
stem(f,S);grid on
title('Спектральная плотность гауссовского белого шума');
117
xlabel('Частота, Гц');
В результате выполнения программы определяются статистические данные одной реализации случайного процесса X 1 (t ) для дискретных значений
времени Ts  0,01 с, равные mX1  0,0103 ,  X1  1,0016 , а также для сечения
множества реализаций случайного процесса в момент времени
t  10 c:
mX 2  0,0017 ,  X 2  1,0032 .
График случайного процесса X 1 (t ) представлен на рис. 48а.
Рис. 48а. График гауссовского белого шума X 1 (t ) при Ts  0,01 с
На рис. 48б представлен график случайного процесса X 2 (t ) построенного по массиву данных сечения реализаций случайного процесса X (t ) в том
же масштабе времени, что и график реализации процесса X 1 (t ) .
118
Рис. 48б. График гауссовского белого шума X 2 (t ) при Ts  0,01 с
На рис. 49 для гауссовских случайных процессов X 1 (t ) и X 2 (t ) построены гистограммы плотности распределения вероятностей.
Рис. 49. Гистограммы для гауссовских процессов X 1 (t ) и X 2 (t )
Как следует из рис. 48а – 48б случайные процессы X 1 (t ) и X 2 (t ) имеют
одинаковые статистические свойства, что подтверждает свойство эргодичности гауссовского белого шума.
На рис. 50 представлен график спектра гауссовского белого шума X 1 (t ) ,
из которого следует свойство белого шума, имеющего постоянную спектральную плотность.
119
Рис. 50. Спектр гауссовского белого шума X 1 (t )
Из рис. 50 следует, что спектральная плотность практически одинакова
по величине во всем диапазоне частот.
Также отметим, что согласно центральной предельной теоремы гауссовский белый шум может быть сформирован при суммировании независимых
случайных процессов, имеющих один и тот же закон распределения с математическим ожиданием равным нулю и одной и той же дисперсией.
Для проверки данного свойства можно воспользоваться следующим
Script файлом:
% Центральная предельная теорема
% Формируем 5 реализаций дискретного случайного процесса
% с равномерным законом распределения плотности вероятностей
clear
N=10000;
x1=rand(N,1)-0.5;
x2=rand(N,1)-0.5;
x3=rand(N,1)-0.5;
x4=rand(N,1)-0.5;
x5=rand(N,1)-0.5;
% Статистические характеристики
Mx1=sum(x1)/N
% среднее значение
Dx1=sum((x1-Mx1).^2)/N; % статистическая дисперсия
sigma_1=sqrt(Dx1)
% статистическое СКО
% Графики реализаций случайного процесса
figure(1);
subplot(5,1,1); plot(x1); xlim([0 100]);
subplot(5,1,2); plot(x2); xlim([0 100]);
subplot(5,1,3); plot(x3); xlim([0 100]);
subplot(5,1,4); plot(x4); xlim([0 100]);
subplot(5,1,5); plot(x5); xlim([0 100]);
% Гистограммы реализаций случайного процесса
figure(2);
120
histogram(x1,50,'Normalization','probability'); hold on;
histogram(x2,50,'Normalization','probability');
histogram(x3,50,'Normalization','probability');
histogram(x4,50,'Normalization','probability');
histogram(x5,50,'Normalization','probability'); hold off;
legend({'x1','x2','x3','x4','x5'});
title('Распределение пяти случайных процессов')
% Формирование средних значений сумм реализаций случайного процесса
S2=mean([x1,x2],2);
S3=mean([x1,x2,x3],2);
S4=mean([x1,x2,x3,x4],2);
S5=mean([x1,x2,x3,x4,x5],2);
% Графики реализаций средних сумм случайного процесса
figure(4);
subplot(5,1,1); plot(x1); xlim([0 100]);
subplot(5,1,2); plot(S2); xlim([0 100]);
subplot(5,1,3); plot(S3); xlim([0 100]);
subplot(5,1,4); plot(S4); xlim([0 100]);
subplot(5,1,5); plot(S5); xlim([0 100]);
% Статистические характеристики
Mx=sum(S5)/N
% среднее значение
Dx=sum((S5-Mx).^2)/N; % статистическая дисперсия
sigma_=sqrt(Dx)
% статистическое СКО
% Гистограммы для сформированных сумм
figure(3);
histogram(x1,50,'Normalization','probability'); hold on;
histogram(S2,50,'Normalization','probability');
histogram(S3,50,'Normalization','probability');
histogram(S4,50,'Normalization','probability');
histogram(S5,50,'Normalization','probability'); hold off;
legend({'x1','S2','S3','S4','S5'});
title('Распределение средних сумм случайных процессов')
grid;
На рис. 51 приведены пять реализаций случайных процессов для дискретных моментов времени с периодом Ts  1 с c равномерной плотностью вероятностей на интервале (-0,5 0,5), со статистически средним значением
m*X  0,0022 и статическим среднеквадратическим отклонением  *  0,2858 .
Рис. 51. Реализации случайных процессов с равномерной плотностью
121
На рис. 52 приведены гистограммы для случайных процессов X i (t ) ,
i  1,5 , имеющие равномерную плотность распределения вероятностей.
Рис. 52. Гистограммы для случайных процессов X i (t ) , i  1,5
На рис. 53 приведены пять реализаций случайных процессов X 1 (t ) и
1 i
сформированных векторов Si (t )   X j (t ) , i  2,5 , а на рис. 54 приведены их
i j 1
гистограммы.
Рис. 53. Реализации случайных процессов X 1 (t ) и Si (t ) , i  2,5
122
Рис. 54. Гистограммы для случайных процессов X 1 (t ) и Si (t ) , i  2,5
Из рис. 54 следует, что по мере увеличения числа суммируемых случайных процессов плотность распределение приближается к нормальному распределению.
Тема 4. Методы анализа точности систем автоматического управления
Одной из основных характеристик САУ является точность стабилизации
заданных командных сигналов. В реальных условиях эксплуатации САУ ее
входные сигналы содержат помехи, также случайными могут быть параметры
системы, поэтому выходные сигналы являются случайными процессами, к которым не применимы обычные основные показатели качества САУ: 1) установившаяся ошибка; 2) время регулирования; 3) перерегулирование.
Анализ точности отработки системой входного случайного сигнала будем проводить в соответствии со структурной схемой, приведенной на рис. 53,
где m X (t ) – математическое ожидание случайного входного сигнала X (t ) , которое является полезным входным сигналом; X (t )  X (t )  mX (t ) – центрированный случайный входной сигнал, который является внешней помехой, Y (t )
– случайный сигнал на выходе объекта управления, осуществляющий преобразование входного сигнала X (t ) с помощью математического оператора Lt ;
123
E (t )  Y (t )  m X (t ) – ошибка воспроизведения полезного сигнала; математиче-
ское ожидание ошибки mE (t )  mY (t )  mX (t ) является систематической
ошибкой.
Рис. 53. Структурная схема анализа точности системы
Случайные колебания выходного сигнала относительно математического ожидания представляют собой случайную ошибку системы E (t ) :
E (t )  E (t )  mE (t )  Y (t )  m X (t )   mY (t )  m X (t )   Y (t )  mY (t )  Y (t ) .
Задача исследования точности одномерной САУ состоит в определении
ее систематической ошибки и вероятностных характеристик случайных ошибок.
Методы определения вероятностных характеристик случайного сигнала
на выходе системы, в результате прохождения случайного сигнала через объект управления, по известным вероятностным характеристикам случайного
входного сигнала можно разделить на частотные и временные.
Частотный метод позволяет определять вероятностные характеристики случайного сигнала на выходе стационарной системы в установившемся
режиме.
Временные методы позволяют определять вероятностные характеристики случайного сигнала на выходе нестационарной системы в переходном и
установившемся режиме.
124
Свойства линейного оператора системы
Формально связь случайного сигнала на выходе системы со случайным
сигналом на входе можно записать в операторном виде
Y (t )  Lt  X (t ) ,
(141)
где Lt – оператор системы, то есть совокупность всех операций, по которым
входной сигнал X (t ) преобразуется в выходной сигнал Y (t ) . В качестве
операций
могут
использоваться
операции
дифференцирования
и
интегрирования.
Для линейного оператора выполняется принцип суперпозиции:
n
 n
Lt  ck X k (t )    ck Lt  X k (t ) ,
 k 1
 k 1
(142)
где ck –постоянные числа.
Пусть в выражении (141) X (t ) – m- вектор входных случайных сигналов,
а Y (t ) - n – вектор выходных сигналов, то есть опрератором является Lt - n  m
– операторная матрица. Предположим, что для входных сигналов известны
математическое ожидание mX (t )  M  X (t ) и матрица корреляционных
функций
T


T


K X (t1, t2 )  M  X (t1 )  m X (t1 )  X (t2 )  m X (t2 )   M  X (t1 ) X (t 2 )  ,




где X (t )  X (t )  mX (t ) – центрированный случайный вектор.
Найдем для выходных сигналов выражения математического ожидания




mY (t )  M Y (t ) и матрицы корреляционных функций KY (t1, t2 )  M Y (t1 ) Y (t2 )  .
Для математического ожидания получим
mY (t )  M Y (t )  M  Lt  X (t )  Lt M  X (t )  Lt mX (t ) ,
(143)
поскольку операторы M и Lt являются линейными и независимыми, и их
можно менять местами.
125
Вычитая из выражения (141) выражение (143) получим выражение для
корреляционной функции:
T
KY (t1, t2 )  M Y (t1 )  mY (t1 ) Y (t2 )  mY (t2 )   


T
 M  Lt1  X (t1 )  Lt1 M  X (t1 ) Lt2  X (t2 )  Lt2 M  X (t2 )   







(144)
T
 Lt1 M  X (t1 )  M  X (t1 )  X (t2 )  M  X (t2 )   LTt2 


 

 Lt1  M  X (t1 ) X (t2 )   LTt2  Lt1 K X (t1, t2 ) LTt2 .

 
Для одномерной системы из формулы (144) следует выражение




KY (t1, t2 )  Lt1 K X (t1, t2 ) Lt2  Lt1 Lt2 K X (t1, t2 )  Lt2 Lt1 K X (t1, t2 ) .
(145)
Рассмотрим основные операции со случайными процессами.
1) Операция дифференцирования случайного процесса
Y (t )  Lt  X (t ) 
dX (t )
.
dt
(146)
Тогда по формуле (143) найдем
mY (t ) 
dmX (t )
.
dt
(147)
Действительно, можно записать по определению производной, что
Y (t ) 
dX (t )
X (t  t )  X (t )
 lim
.
t 0
dt
t
Тогда для математического ожидания получим
X (t  t )  X (t ) 

 X (t  t )  X (t ) 
M Y (t )  M  lim

lim
M





t

0

t

0

t

t




1
dmX (t )
 lim  M  X (t  t )   M  X (t )  
.
t 0 t
dt
Для корреляционной функции получим выражение


d X (t1 ) d X (t2 ) 



KY (t1, t2 )  M Y (t1 ) Y (t2 )   M

 dt1
dt2 




(148)
126
 2


X
(
t
)
X
(
t
)
2

  2 K X (t1, t2 )
1
2


M

M X (t ) X (t2 )  
.

 t1t2  1
t1t2
t1t2



2) Операция интегрирования случайного процесса
t
Y (t )  Lt  X (t )   X ( )d .
(149)
0
Тогда по формуле (143) найдем
t
mY (t )   mX ( )d .
(150)
0
Действительно, можно записать по определению интеграла, что
t
Y (t )   X ( )d  lim
 0
0
N
 X ( k ) ,
k 0
где N целая часть дроби t /  .
Тогда для математического ожидания получим
N


N

M Y (t )  M  lim  X ( k )   lim M   X ( k )  
  0 k 0
  0  k 0

 lim
 0
N
t
k 0
0
 M  X ( k )    mX ( )d .
По определению корреляционной функции


KY (t1, t2 )  M Y (t1 ) Y (t2 )  ,


t1
t2
0
0
где Y (t1 )   X ( )d , Y (t2 )   X ( )d , поскольку
t
t
t
0
0
0
Y (t )   X ( )d    X ( )  mX ( ) d  Y (t )   mX ( )d  Y (t )  mY (t ) .
Учитывая, что справедливо равенство
t1
t2
t1 t2
0
0
0 0
Y (t1 ) Y (t2 )   X ( )d  X ( ')d '    X ( ) X ( ')d d ' ,
получим выражеие для корреляционной функции
127
 t1 t2

KY (t1, t2 )  M    X ( ) X ( ')d d ' 
 0 0

t1 t2
(151)
t1 t2


   M  X ( ) X ( ') d d '    K X ( , ')d d '.


0 0
0 0
Пример 25. На вход дифференцирующего звена поступает случайная
функция X (t ) с математическим ожиданием m X (t )  sin t и корреляционной
2
функцией K X (t1, t2 )  DX e (t2 t1 ) ,   0 , где DX – постоянная дисперсия случайной функции X (t ) .
Найти математическое ожидание и дисперсию на выходе дифференцирующего звена.
Решение: Поскольку сигнал на выходе звена равен Y (t ) 
dX (t )
, то по
dt
формуле (147) найдем математическое ожидание
mY (t ) 
dmX (t ) d sin(t )

 cos t .
dt
dt
По формуле (148) найдем выражение для корреляционной функции
2


 2 K X (t1, t2 )  2 DX e (t2 t1 )
   (t2 t1 )2
KY (t1, t2 ) 

 DX
e

t1t2
t1t2
t2 t1


2
2

 DX
2 (t2  t1 )e  (t2 t1 )  2 DX e  (t2 t1 ) 1  2 (t2  t1 )2  .
t2
.
Полагая t2  t1 найдем дисперсию DY  2 DX .
Здесь хорошо видно, что при больших значениях  корреляционная
функция резко затухает, что соответствует беспорядочному случайному процессу на входе дифференцирующего звена, при этом дисперсия на выходе возрастает, что равносильно увеличению ошибки дифференцирования.
Пример 26. На вход интегрирующего звена поступает случайная функция X (t ) с математическим ожиданием m X (t )  sin t и корреляционной функцией K X (t1, t2 )  DX e  |t2 t1| , где DX – постоянная дисперсия случайной функции X (t ) .
128
Найти математическое ожидание и дисперсию на выходе интегрирующего звена.
t
Решение: Поскольку сигнал на выходе звена равен Y (t )   X ( )d , то
0
по формуле (150) найдем математическое ожидание
t
t
0
0
mY (t )   mX ( )d   sin( )d  1  cos(t ) .
По формуле (151) найдем сначала выражение для корреляционной
функции при t1  t2 :
t1 t2
KY (t1, t2 )    DX e
 |  '|
00
t1

t1 

d d '  DX    e
0
0


1
1
 t 
 DX   1  e  1  e  2 


0
d  2D
 (  ')
t2
d '   e

X
t1 
DX

2
e
 t1
 ( ' )

d 'd 


 e  t2  e  (t2 t1 )  1 .
При t1  t2 с учетом равенства KY (t2 , t1 )  KY (t1 , t2 ) переменные t1 и t2 поменяются местами. Тогда можно записать общую формулу для корреляционной функции
KY (t1, t2 ) 
2 DX

min  t1, t2  
DX

2
e
 t1

 e  t2  e  |t2 t1|  1 .
Полагая t2  t1  t найдем дисперсию
DY (t ) 
2 DX

t
DX

2
 2e 
 t

2 


2 DX 
1
 t 
t  1 e
.
  

Отсюда следует, что с течением времени дисперсия нарастает.
Тема 5. Частотный метод определения установившихся характеристик
случайного процесса на выходе системы
Для детерминированных линейных систем рассматривалась задача определения установившегося сигнала на выходе системы, заданной в виде передаточной функции
129
m( p) b0 p m  b1 p m1 
W ( p) 

d ( p) a0 p n  a1 p n1 
 bm
,
 an
(152)
при подаче на ее вход гармонического сигнала (см. Приложение 2).
Формально задача решалась следующим образом: на вход системы c передаточной функцией (152) подается гармонический сигнал в комплексном
виде x(t )  e jt , при этом на выходе системы спустя некоторое время устанавливается гармонический сигнал
y (t )  W ( j ) x(t )  W ( j )e jt .
(153)
Аналогичную задачу будем рассматривать для случайного входного сигнала: по вероятностным характеристикам случайного сигнала на входе линейной системы найдем вероятностные характеристики случайного сигнала на ее
выходе в установившемся режиме.
Пусть на вход системы c передаточной функцией (152) подается стационарный случайный сигнал в виде разложения (116):
X (t )  mX 

 Wk e j t ,
k
(154)
k 
где m X  const – математическое ожидание, Wk – некоррелированные комплексные случайные величины с математическими ожиданиями равными
нулю, то есть M Wk   0 , и дисперсиями DWk  M WkWk   Ck , определяемые
по формулам (112).
Найдем установившуюся реакцию системы на входной стационарный
случайный сигнал (154), что возможно только в случае устойчивости системы
с передаточной функцией W ( p) .
В силу принципа суперпозиции найдем сначала реакцию на сигнал m X ,
который можно представить в виде mX  mX e j 0t . Тогда на выходе системы
по формуле (153) получим установившееся значение
mY  M W ( j 0)mX e j 0t   W (0) M  mX   W (0)mX 
bm
mX .
an
(155)
130
Установившееся значение выхода системы на случайный сигнал Wk e jk t
соответственно имеет вид
Yk (t )  W ( jk )Wk e jk t .
Тогда реакция выхода системы на случайный сигнал (154), согласно
принципу суперпозиции, имеет вид
Y (t )  mY 

 W ( j )W e 
j
k
k 
kt
k
,
(156)
где по определению W ( j )Wk некоррелированные случайные величины.
Найдем дисперсию случайного сигнала (156) учитывая, что дисперсия
комплексной величины равна квадрату ее модуля. Поэтому с учетом некоррелированности случайных величин Wk получим
DY  M Y (t )  mY Y (t )  mY   



 

jk t 
 M   W ( jk )Wk e   W ( jk )Wk e jk t   
 k 
 
 k 


 | W ( jk ) |2 M WkWk  
k 
(157)

 | W ( j ) | C .
2
k 
k
k
Аналогично тому, как ранее переходили от дискретного спектра к
спектральной плотности при при T   , перепишем выражение (157) в виде
DY 
где S *X (k ) 
  1 

 | W ( jk ) |2
k 

Ck
   | W ( jk ) |2 S X* (k ) ,

k 
(158)
Ck
D
S ( )
 k  X k – средняя плотность дисперсии на участке
 2
2
2
.
2T
Переходя к пределу   0 получим

DY   | W ( j ) |2 S X* ( )d .
(159)

Согласно формуле (130) можно записать
131

DY 
 SY ( )d .
*
(160)

Тогда из формул (159), (160) следует равенство подинтегральных
выражений
SY* ( ) | W ( j ) |2 S *X ( ) ,
(161)
устанавливающее связь спектра выходного сигнала SY* ( ) со спектром
входного сигнала S *X ( ) , поступающего на вход системы с передаточной
функцией W ( p) .
Выражение
дисперсии
(159)
можно
переписать
относительно
спектральной плотности S X ( ) :


0
DY   | W ( j ) | S ( )d   | W ( j ) | S ( ) d   | W ( j ) |2 S X* ( ) d 
2
*
X
2

*
X

0


S ( )
S ( )
  | W ( j ) |2 X
d   | W ( j ) |2 X
d   | W ( j ) |2 S X ( ) d.
2
2

0
0
0
(159’)
Для определения корреляционной функции выходного сигнала Y (t )
воспользуемся формулой (129), в которую подставим выражение (161):
kY ( ) 



 )e
SY* (
j
d 

 | W ( j ) |
2
S *X ( )e j d .
(162)

Таким образом, при заданном математическом ожидании m X входного
сигнала и его корреляционной функции k X ( ) определение математического
ожидания mY
и корреляционной функции
kY ( )
выходного сигнала
проводится в следующей последовательности:
1) Находим математическое ожидание выходного сигнала по формуле
(155):
mY  W (0)mX 
bm
mX .
an
2) По корреляционной функции k X ( ) находим спектральную плотность
входного сигнала по формуле (132):
132
1
S X ( ) 
2
*

 k X ( )e
 j
d при      .

3) Находим частотную характеристику для заданной передаточной
функции (152):
| m( j ) |2 m( j )m( j )
.
| W ( j ) | 

| d ( j ) |2 d ( j )d ( j )
2
4) Определяем спектральную плотность SY* ( ) выходного сигнала по
формуле (161):
SY* ( ) | W ( j ) |2 S *X ( ) .
5) Определяем корреляционную функцию kY ( ) выходного сигнала по
формуле (162):
kY ( ) 

 SY ( )e
*
j
d .

Для вычисления некоторых корреляционных функций по известной
спектральной плотности можно использовать таблицу, приведенную в Приложении 4.
6) Находим дисперсию выходного сигнала по формуле DY  kY (0) или
по более простой формуле (160):

DY 
S
*
Y
( )d .

Например, из формулы (161) следует, что при поступлении случайного
сигнала на идеальное дифференцирующее звено с передаточной функцией
W ( p)  p , спектральная плотность выходного сигнала определяется выражением
SY* ( ) | j |2 S *X ( )   2 S *X ( ) ,
то есть возрастает с ростом  .
В случае интегрирующего звена с передаточной функцией W ( p) 
1
p
133
получим
SY* ( ) 
1
| j |
2
1
S *X ( ) 

2
S *X ( ) ,
то есть убывает с ростом  .
Пример 27. На вход апериодического звена с передаточной функцией
W ( p) 
k
Tp  1
поступает случайный сигнал X (t ) типа белого шума с постоянной спектральной плотностью S *X ( )  S0 .
Найти математическое ожидание и установившееся значение дисперсии
выходного сигнала Y (t ) .
Решение: Решение задачи проведем по указанной выше последовательности.
1) Поскольку белый шум имеет значение m X  0 , то математическое
ожидание выходного сигнала mY  W (0) mX  0 .
2) По условию задачи белый шум имеет постоянную спектральную плотность S *X ( )  S0 .
3) Находим частотную характеристику для заданной передаточной
функции:
| k |2
k2
k2
.
| W ( j ) | 


| Тj  1|2 (1  Тj )(1  Тj ) 1  T 2 2
2
4) Определяем спектральную плотность SY* ( ) выходного сигнала по
формуле:
 ) | W ( j ) |
SY* (
2
k2
) 
S0 .
1  T 2 2
S *X (
5) Определяем корреляционную функцию kY ( ) выходного сигнала по
формуле:
134
kY ( ) 


 )e
SY* (
j

где  


k2
S0 k 2

j
d  
S e d 
e j d ,
2 2 0
2
2

T    
1 T 

1
.
T
С помощью таблицы, приведенной в Приложении 4, находим выражение для корреляционной функции kY ( ) :
kY ( )   S0k 
2
1



  2  2 e
j
d   S0 k  e
2

 | |
S0k 2 T | |
.

e
T
1
6) Находим дисперсию выходного сигнала по формуле
S0k 2
,
DY  kY (0) 
T
которая совпадает с выражением



S0 k 2
S0 k 2
1
DY   S ( )d  
d 
d (T  ) 
2 2
2

1

T

T
1

(
T

)



*
Y
S0 k 2
 S0 k 2

=
arctg (T  ) | 
.
T
T
При увеличении постоянной времени T значение дисперсии DY убывает.
Пример 28. На вход колебательного звена с передаточной функцией
W ( p) 
k
, 0    1,
T p  2T  p  1
2
2
поступает случайный сигнал X (t ) , корреляционная функция которого задана
формулой k X ( )  DX e | | .
Найти установившееся значение дисперсии выходного сигнала Y (t ) .
Решение: Решение задачи проведем в следующей последовательности.
1) По корреляционной функции k X ( ) находим спектральную плотность
входного сигнала по формуле (см. Пример 24):
1
S X ( ) 
2
*



DX e | |e j d 
DX 
DX 

 ( 2   2 )  (  j )(  j )
2) Запишем выражение частотной характеристики для заданной
135
передаточной функции в виде:
k2
.
| W ( j ) |  2
T ( j )2  2T  ( j )  1 T 2 ( j ) 2  2T  ( j )  1



2
3) Определяем спектральную плотность SY* ( ) выходного сигнала по
формуле:
SY* ( ) | W ( j ) |2 S *X ( ) 
=
k 2 DX 
 T 2 ( j ) 2  2T  ( j )  1 T 2 ( j ) 2  2T  ( j )  1 (  j )(  j )

k 2 DX 

,
 d ( j )d ( j )
где
d ( j )  T 2 ( j )2  2T ( j )  1 ( j   )  a0 ( j)3  a1( j) 2  a2 ( j)  a3 ,
a0  T 2 , a1  T 2  2T  , a2  2T   1 , a3   .
4) Находим дисперсию выходного сигнала по формуле

1
DY   S ( )d  2k DX 
2

*
Y
2

1
 d ( j )d ( j ) d .
Для вычисления интеграла воспользуемся формулой, приведенной в
Приложении 5, согласно которой получим
1
2

1
T 2  2T 
.
d


 d ( j )d ( j )
4T  T 2 2  2T   1
Тогда окончательно найдем
k 2 DX T 2  2T  
T 2  2T 
DY  2k DX 


4 T  T 2 2  2T   1 2T  T 2 2  2T   1
2

где c1 
k 2 DX c2   c1 
c1  2  c1  c2 
,
2
1
, c2  2 .
T
T
136
Если потребовать выполнения равенства
DX

 S0 , как в Примере 24, то
при подстановки DX  S0 в предыдущую формулу и переходя к пределу при
   , получим дисперсию выходного сигнала, когда на вход колебательного
звена подается белый шум с интенсивностью равной S 0 :
DY  lim
 
k 2 S0 c2   c1 
c1  2  c1  c2 
k 2 S0 c2 k 2 S0
.


c1
2T 
Для проверки полученного результата воспользуемся формулой (159):

DY 
 | W ( j ) |
2
S ( )d 
*
X

1
 2
2
 | W ( j ) |
2
S0d 


k 2 S0
 T 2 ( j )2  2T ( j )  1 T 2 ( j )2  2T ( j )  1 d 



1
 2 k S0
2
2


1
 d ( j )d ( j ) d ,

где d ( j )  a0 ( j )2  a1 ( j )  a2 , a0  T 2 , a1  2T  , a2  1 .
Для вычисления интеграла воспользуемся формулой, приведенной в
Приложении 5:
1
 k 2 S0
,
DY  2 k S0

2a1a2
2T 
2
то есть получили предыдущий результат.
Следует отметить, что при уменьшении значения коэффициента демпфирования  дисперсия выходного сигнала DY возрастает, поскольку на сопрягающей частоте 1  1 / T амплитудно-частотная характеристика колебательного звена возрастает с уменьшением значения  .
Пример 29. На вход системы с передаточной функцией
W ( p) 
( p  c1 )
a0 p 2  a1 p  a2
137
поступает случайный сигнал X (t ) типа белого шума с постоянной спектральной плотностью S *X ( )  S0 .
Найти установившееся значение дисперсии выходного сигнала Y (t ) .
Решение: Решение задачи проведем в следующей последовательности.
1) Запишем выражение частотной характеристики для заданной
передаточной функции в виде:
| W ( j ) |2 
 ( j )  c1  ( j )  c1 
 a0 ( j )2  a1 ( j )  a2   a0 ( j ) 2  a1 ( j )  a2 



.
2) Определяем спектральную плотность SY* ( ) выходного сигнала по
формуле:
 ) | W ( j ) |
SY* (
2
( j )

) 
S *X (
2

 c12 S0
d ( j )d ( j )

m( j ) S0
,
d ( j )d ( j )
где d ( j )  a0 ( j ) 2  a1 ( j )  a2 , m( j )  b0 ( j ) 2  b1 , b0  1 , b1  c12 .
3) Находим дисперсию выходного сигнала по формуле

1
DY   S ( )d  2 S0
2

*
Y

m( j )
 d ( j )d ( j ) d .

Для вычисления интеграла воспользуемся формулой, приведенной в
Приложении 5, согласно которой при n  2 получим выражение
a0b1
a0c12
b0 
1

1
m( j )
a2  a0c12
a2
a2
d




.
 d ( j )d ( j )
2 
2a0a1
2a0a1
2a0a1a2
Тогда найлем выражение дисперсии
DY 
2 S0  a2  a0c12 
2a0 a1a2
.
Моделирование случайного процесса с заданной спектральной
плотностью
В рассмотренных примерах 27 и 28 найдены характеристики случайного
138
процесса на выходе динамического звена, при подаче на его вход случайного
процесса в виде белого шума. При этом выходной случайный процесс Y (t )
называется «окрашенным шумом».
В теории и практике исследования непрерывных динамических систем
в основном выделяют две основные модели «окрашенных шумов»: «экспоненциально коррелированный шум», который формируется из «белого шума» формирующим фильтром, представляющим собой апериодическое звено первого
порядка (см. Пример 27); окрашенный шум типа «нерегулярная качка», который формируется из «белого шума» формирующим фильтром, представляющим собой колебательное звено второго порядка (см. Пример 28).
На практике корреляционные функции и спектральные плотности случайных сигналов обычно определяются по результатам экспериментов, они
всегда бывают известны лишь приближенно. Поэтому практически любую
спектральную плотность можно аппроксимировать дробно-рациональной
функцией.
В связи с этим при моделировании случайных сигналов часто требуется
по заданной спектральной плотности SY* ( ) в виде дробно-рациональной
функции в выражении (161) найти передаточную функцию W ( p) формирующего фильтра, на вход которого поступает сигнал модели белого шума со
спектральной плотностью S *X ( )  S0  1 .
Учитывая, что спектральная плотность является вещественной четной
функцией, то при ее аппроксимации дробно-рациональной функцией, она будет зависеть от  2   p 2 . Тогда выражение (161)
SY* ( ) | W ( j ) |2 S *X ( )  W ( j )W ( j ) S *X ( ) ,
при p  j можно записать в виде уравнения
SY* ( p)  W ( p)W (  p) ,
(163)
где неизвестной является передаточная функция W ( p) .
Доказывается, что всегда можно выбрать передаточную функцию W ( p)
139
так, чтобы она была устойчивой (не имела полюсов в правой полуплоскости)
и минимально-фазовой (не имела нулей в правой полуплоскости). Такой переход от SY* ( p ) к W ( p) называется факторизацией.
Обычно факторизация выполняется с помощью численных методов.
Нужно разложить на простейшие сомножители числитель и знаменатель
SY* ( p ) и включить в W ( p) только те множители, корни которых находятся в
левой полуплоскости (в числителе допускаются корни на мнимой оси).
Рассмотрим задачу факторизации на примере. Пусть желаемая спектральная плотность случайного сигнала Y (t ) имеет вид
 2  b1
, b1  0 , a1  0 , a2  0 ,
)  4
  a1 2  a2
SY* (
которую с учетом подстановки  2   p 2 перепишем в виде
SY* ( p) 
 p 2  b1
.
p 4  a1 p 2  a2
Способ 1. Будем искать разложение SY* ( p ) в виде
SY* ( p) 
 p 2  b1
 p  с1   p  с1 
.

p 4  a1 p 2  a2
p 2  d1 p  d 2 p 2  d1 p  d 2



Раскрывая скобки и приравнивая соответственно коэффициенты полиномов числителя и полиномов знаменателя, получим уравнения:
b1  c12 , a1  d12  2d 2 , a2  d 22 ,
из которых найдем c1  b1 , d1  a1  2d2 , d2  a2 .
Тогда передаточная функция формирующего фильтра имеет вид
p  с1
.
W ( p)  2
p  d1 p  d 2
Способ 2. Найдем корни полиномов числителя и знаменателя SY* ( p ) .
Полином числителя  p 2  b1  0 имеет корни p1*   b1 , p2*  b1 , из
которых корень p1*   b1 расположен в левой полуплоскости.
Полином знаменателя p 4  a1 p 2  a2  0 имеет корни:
140
a12  4a2
a1
,
p1,2,3,4  

2
2
из которых при выполнении условия a12  4a2  0 корни вещественные и, следовательно, корни p1,2
a12  4a2
a1
расположены в левой полуплоско

2
2
сти. В случае , когда a12  4a2  0 , корни комплексные и выбирается пара комплексно сопряженных корней, расположенных в левой полуплоскости.
Формирующий фильтр строим, используя множители в разложении полиномов с корнями в левой полуплоскости:
p  b1
p  p1*
p  p1*
,
W ( p) 
 2

 p  p1  p  p2  p  ( p1  p2 ) p  p1 p2 p 2  a1  2 a2 p  a2
что совпадает с результатом способа 1.
Для численной реализации данного способа при b1  2 , a1  2 , a2  3
можно использовать программу в MatLab с использование подпрограммы
faktor выполнения операции факторизации передаточной функции, приведенной в Приложении7:
% Программа построения формирующего фильтра
clc; clear
s=-tf('p')*tf('p');
% Пример спектральной плотности при s=w^2
a1=2; a2=3; b1=2; S=(s+b1)/(s^2+a1*s+a2);
[num,den,k] =zpkdata(S,'v');
[pn,pd,kf] = faktor(num,den,k);
W=zpk(pn,pd,kf) % передаточная функция формирующего фильтра
В результате выполнения программы получим передаточную функцию
формирующего фильтра:
W ( p) 
p  1,414
.
p 2  2,338 p  1,732
Для моделирования случайного процесса с заданной спектральной плотностью необходимо подать на вход формирующего фильтра случайный про141
цесс в виде белого шума. Поскольку белый шум является сигналом с бесконечной энергией, то физически его реализовать невозможно. Поэтому при моделировании его заменяют на сигнал обладающим свойством белого шума, то
есть на физический белый шум с равномерностью спектра в желаемой области
диапазона частот. При прохождении физического белого шума через формирующий фильтр его высокие частоты подавляются, поэтому отклонения спектра входного физического белого шума от равномерного спектра белого шума
в области высоких частот не будут существенно влиять на спектр случайного
сигнала на выходе формирующего фильтра, как показано на рис. 54.
Рис. 54. Спектральная характеристика физического белого шума при
использовании формирующего фильтра
На этой идее основано компьютерное моделирование случайных процессов. При этом в качестве модели белого шума используется ступенчатый
случайный сигнал, сформированный по дискретному случайному сигналу с
равномерным или нормальным распределением, как было показано ранее.
Тема 6. Временные методы определения характеристик реакции
системы на входной случайный сигнал
В данном подразделе рассматриваются два основных временных метода
определения реакции системы на входной случайный сигнал: метод весовых
функций и метод интегрирования уравнений моментов. Метод весовых функций может быть также использован при экспериментальном определении весовой функции. Метод интегрирования уравнений моментов удобнее использовать при численном моделировании системы.
142
Метод весовых функций
Понятие весовой функции
Рассмотрим линейную одномерную нестационарную систему с одним
входом x(t ) и одним выходом y(t ) , имеющую оператор Lt :
y(t )  Lt  x(t ) .
Пусть в произвольный момент времени
 на вход системы подается
сигнал в виде дельта – функции  (t   ) . Тогда реакция системы при нулевых
начальных условиях имеет вид
y (t )
g (t , )  Lt  (t   ) ,
где по определению g (t , ) – весовая функция (или импульсная переходная
функция), которая для нестационарных систем зависит от момента времени

подачи входного сигнала. Поэтому здесь рассматривается функция  (t   )
как функция времени t при фиксированном значении  .
Поскольку по определению дельта- функции
  при   t ,
 (t   )  
0 при   t ,

  ( )d  1 ,

то при t   реакция системы отсутствует g (t , )  0 и отклик системы начинается только при t   , как показано на рис. 55а.
а)
б)
Рис. 55. Весовая функция: а) линейной нестационарной системы;
б) линейной стационарной системы
143
В случае линейной стационарной системы весовая функция, которая
обозначается w(t ) , не зависит от начального момента времени подачи входного сигнала  (t   ) и, следовательно, можно записать g (t , )  w(t   ) , как
показано на рис. 55б.
Отметим, что для линейной стационарной системы весовая функция
может быть получена экспериментально по переходной характеристике
системы h(t ) , построенной при подаче на ее вход единичного скачка, с учетом
формулы
w(t ) 
d
h(t ) .
dt
Найдем реакцию системы при подаче на ее вход произвольного сигнала
x(t ) , который можно представить c учетом свойства дельта-функции в эквивалентном виде:

 x( ) (t   )d  x(t ) .
(164)

Формула (164) устанавливает разложение любой функции x(t ) на элементарные импульсы в виде дельта-функций.
Применим оператор Lt к входному сигналу (164), который действует
только на переменную времени t . Тогда получим
y (t )  Lt  x(t ) 


 x( )Lt  (t   ) d   x( )g (t , )d .

(165)

Для реальной физически возможной линейной системы, находящейся в
покое до момента времени t0 начала приложения входного сигнала x(t ) , то
есть x( )  0 при   t0 , пределы интегрирования в выражении (165) можно заменить

t
t0
t0
y (t )   g (t , ) x( )d   g (t , ) x( )d ,
где учитывается свойство g (t , )  0 при   t (см. рис. 53 а).
144
Таким образом, линейный оператор Lt  x(t ) описывается выражением:
t
y (t )  Lt  x(t )   g (t , ) x( )d ,
(166)
t0
в котором параметр t относится к верхнему пределу интегрирования и к первому параметру весовой функции g (t , ) , при этом переменная  относится ко
второй переменной g (t , ) и к функции x ( ) .
В случае линейной стационарной системы g (t , )  g (t   ) , поэтому из
выражения (166) получим
t
y (t )   g (t   ) x( )d .
(167)
t0
С учетом замены переменной времени  '  t   , d '  d из выражения
(167) следует формула
t
y (t )   g (t   ) x( )d  
t0
0

g ( ') x(t   ')d ' 
t t0
t t0

g ( ) x(t   )d .
(168)
0
Условием физической реализуемости системы является условие g ( )  0 при
  0.
Вероятностные характеристики реакции системы на случайный
входной сигнал
С помощью формулы (166) можно записать выражение случайного сигнала Y (t ) на выходе системы в зависимости от случайного сигнала X (t ) , поступающего на вход системы с оператором Lt :
t
Y (t )  Lt  X (t )   g (t , ) X ( )d .
(169)
t0
Найдем математическое ожидание и корреляционную функцию выходного сигнала Y (t ) по математическому ожидание и корреляционной функцию
входного сигнала X (t ) .
145
Применяя операцию математического ожидания к выражению (169) получим
mY (t )  M Y (t )  M  Lt  X (t )  Lt  M  X (t ) 
t
t
t0
t0
  g (t , ) M  X ( ) d   g (t , )mX ( )d .
.
(170)
Тем самым, формулу (170) можно записать с помощью линейного
оператора Lt :
mY (t )  Lt mX (t ) .
(171)
Корреляционную функцию выходного сигнала Y (t ) найдем по формуле
KY (t , t ')  M Y (t )  mY (t ) Y (t ')  mY (t ')  
 M  Lt  X (t )  Lt mX (t )  Lt '  X (t ')  Lt mX (t ') 
 M  Lt  X (t )  mX (t ) Lt '  X (t ')  mX (t ') 


 Lt Lt ' M  X (t )  mX (t )  X (t ')  mX (t ')    Lt Lt ' K X (t , t ').
(172)
Распишем правую часть выражения (172) с учетом выражения оператора
Lt согласно его определению (166):
KY (t , t ')  Lt Lt ' K X (t , t ')  Lt Lt ' K X (t , t ') 
t'
 t '
 t
 Lt   g (t ', ') K X (t , ')d '   g (t , )  g (t ', ') K X ( , ')d 'd 
t0
t0
 t0
(173)
t t'
   g (t , ) g (t ', ') K X ( , ')d 'd .
t0 t0
Здесь при выполнении оператора Lt ' K X (t , t ') в подынтегральном выражении
заменяем K X (t , t ') на функцию K X (t , ') , при этом параметр t сохраняется. При
 t '

выполнении оператора Lt   g (t ', ') K X (t , ')d ' в подынтегральном выражеt0

нии заменяем K X (t , ') на функцию K X ( , ') , при этом параметр t ' сохраняется.
146
Учитывая линейность оператора Lt , справедливо равенство
KY (t , t ')  Lt Lt ' K X (t , t ')  Lt ' Lt K X (t ', t )  KY (t ', t ) .
Для определения дисперсии выходной переменной DY (t ) следует положить t '  t , тогда получим
t t
DY (t )    g (t , ) g (t , ') K X ( , ') d 'd .
(174)
t0 t0
Если входным сигналом X (t ) является белый шум с корреляционной
функцией
K X ( , ')  G ( ) (   ') ,
где G ( ) –заданная интенсивность белого шума, то по формуле (173) найдем
t t'
KY (t , t ')    g (t , ) g (t ', ')G ( ) (   ') d 'd 
t0 t0
t
t'

  g (t , )G ( )   g (t ', ') (   ') d 'd   g (t , ) g (t ', )G( )d .
t0

t0
t0
t
Отсюда при t '  t окончательно получим выражение для дисперсии
t
DY (t )   g 2 (t , )G ( )d .
(175)
t0
Выражение (175) также следует из формулы (174)
t t
t
t0 t0
t0
DY (t )    g (t , ) g (t , ')G ( ) (   ')d 'd   g 2 (t , )G ( )d .
Отметим, что в отличие от частотного метода, рассмотренного выше, который позволяет определять установившееся значение дисперсии на выходе
линейной стационарной системы, формула (174) определяет весь переходной
процесс изменения дисперсии при подачи на вход системы случайного сигнала X (t ) .
Для стационарной системы с учетом замены переменной t    s из выражения (170) получим
147
t
mY (t )   g (t   )mX ( )d  
t0
0

g (s)mX (t  s)ds 
t t0
t t0

g (s )mX (t  s )ds .
(170’)
0
С учетом замены переменных t    s , t '  '  s ' из выражений (173),
(174) получим
KY (t , t ') 
t t0 t ' t0
 
0
DY (t ) 
(173’)
0
t t0 t t0
 
0
g ( s) g ( s ') K X (t  s, t ' s ')ds 'ds,
g ( s) g ( s ') K X (t  s, t  s ')ds 'ds.
(174’)
0
Случай стационарных случайных процессов
Если на вход системы поступает стационарный случайный сигнал и рассматривается установившийся режим (в случае его существования), то в формулах (170’), (173’), (174’) надо принять t0   . Тогда, с учетом свойства стационарного случайного сигнала X (t ) и обозначения   t  t ' , получим соответствующие соотношения для установившегося режима:

mY (t )  mX  g ( s)ds  mY ,
(170’’)
0

KY (t , t ')    g ( s) g ( s ')k X  (t  s  (t ' s ')  ds 'ds 
00

   g ( s ) g ( s ')k X  t  t ' s  s '  ds 'ds 
(173’’)
00

   g ( s ) g ( s ')k X   s  s '  ds 'ds  kY ( ),
00

DY (t )    g ( s) g ( s ')k X ( s ' s)ds 'ds  DY .
(174’)
00
Отсюда следует, что математическое ожидание и дисперсия выходного
сигнала Y (t ) постоянные, а корреляционная функция зависит только от разно-
148
сти аргументов   t  t ' , то есть выходной сигнал Y (t ) является стационарным.
Отметим,
что
с
учетом
формулы
(173’’)
следует
выражение
спектральной плотности
1
) 
2

SY* (

  g ( s )e

 j s
0
 kY ( )e
 j

 g (s ')e
j s '
0
 
1
d 
2
1
2


   g (s) g (s ')k X   s  s ' e
 j
ds 'dsd 
 0 0
k X   s  s ' e
 j   s  s '
d ds ' ds.

Поскольку согласно формуле (132)
1
2

 k X   s  s 'e
 j   s  s '
d  S *X ( ) ,

получим выражение

 )   g ( s )e
SY* (
 j s
0



 )ds ' ds   g ( s)e
g ( s ')e js 'S *X (
0
 j s
0

ds  g ( s ')e j s 'ds ' S *X ( ) .
0
Здесь по определению

W ( j )   g ( s)e
 j s

ds , W ( j )   g ( s ')e js 'ds ' ,
0
0
поэтому окончательно получим формулу
SY* ( )  W ( j )W ( j ) S *X ( ) | W ( j ) |2 S *X ( ) ,
которая совпадает с формулой (161).
Две случайные функции Y (t ) , X (t ) называются стационарно связанными, если их взаимная корреляционная функция является функцией разности
аргументов   t ' t :
KYX (t , t ')  kYX ( ) .
1) Рассмотрим два случайных сигнала: входной сигнал X (t ) и реакция

системы Y (t )   g ( s)X (t  s)ds .
0
Найдем выражение для взаимной корреляционная функции, которая
149
определяется здесь по формуле


KYX (t , t ')  M Y (t ) X (t ')   M   g ( s )X (t  s)dsX (t ')  
 0




0
0
0
.
  g ( s)M  X (t  s) X (t ') ds   g ( s)k X  t  t ' s  ds   g (s )k X   s  ds  kYX ( ),
где   t  t ' .
Аналогично получим выражение



K XY (t , t ')  M  X (t )Y (t ')   M  X (t )  g ( s)X (t ' s)ds  


0



0
0
0
  g ( s)M  X (t ) X (t ' s)  ds   g ( s)k X  t  t ' s  ds   g ( s )k X   s  ds  k XY ( ).
Учитывая, что k X ( )  k X (  ) получим равенство


0
0
kYX ( )   g ( s)k X    s  ds   g (s )k X   s  ds  k XY ( ) .
*
( ) определяется по формуле
Взаимная спектральная плотность SYX
*
SYX

1
( ) 
2
 k XY ( )e
 j

1
d 
2
 
  g (s)k X   s  dse
 j
d .
 0
Вводя новую переменную     s получим выражение
*
SYX
1
( ) 
2





0
 g (s)  k X ( )e
 g ( s )e
 j s

 j ( s  )
d ds 

1
ds
k X ( )e  j d  W ( j ) S *X ( ).

2 0
Аналогично найдем выражение
1
) 
2
S *XY (

 k XY ( )e

 j
1
d 
2
 
  g (s)k X   s  dse
 j
d .
 0
Вводя новую переменную     s получим выражение
150
1
) 
2
S *XY (





0
 g (s)  k X ( )e
 g ( s )e
j s

 j (  s )
d ds 

1
ds
k X ( )e  j d  W ( j ) S *X ( ).

2 0
2) Рассмотрим три случайных сигнала: входной сигнал X (t ) , реакция

системы Y (t )   g ( s)X (t  s)ds и случайный сигнал V (t ) .
0
Найдем выражение для взаимной корреляционная функции KYV (t , t ') ,
которая определяется здесь по формуле


KYV (t , t ')  M Y (t )V (t ')   M   g ( s)X (t  s)dsV (t ')  
 0




0
0
0
  g ( s)M  X (t  s)V (t ') ds   g ( s)k XV  t  t ' s  ds   g (s )k XV   s  ds  kYV ( ),
где   t  t ' .
Аналогично получим выражение



KVY (t , t ')  M V (t )Y (t ')   M V (t )  g ( s)X (t ' s)ds  


0



0
0
0
  g ( s)M V (t ) X (t ' s )  ds   g ( s )kVX  t  t ' s  ds   g (s )kVX   s  ds  kVY ( ).
Учитывая, что k XV ( )  kVX ( ) получим равенство


0
0
kYV ( )   g ( s)k XV    s  ds   g (s)kVX   s  ds  kVY ( ) .
*
( ) определяется по формуле
Взаимная спектральная плотность SYV
1
) 
2
*
SYV
(

 kYV ( )e

 j
1
d 
2
 
  g (s)k XV   s  dse
 j
d .
 0
Вводя новую переменную     s получим выражение
151
1
) 
2
*
SYV
(



0
 g (s)  k XV ( )e


 g ( s )e
 j s

 j ( s  )
d ds 

1
ds
k XV ( )e  j d  W ( j ) S *XV ( ).

2 0
Аналогично найдем выражение
1
) 
2

*
SVY
(
 kVY ( )e
 j

1
d 
2
 
  g (s)kVX   s  dse
 j
d .
 0
Вводя новую переменную     s получим выражение
1
) 
2
*
SVY
(



0
 g (s)  kVX ( )e


 g ( s )e

j s
 j (  s )
d ds 

1
*
ds
kVX ( )e  j d  W (  j ) SVX
( ).

2 0
3) Рассмотрим случай векторных сигналов на примере двух стационарных входных случайных сигналов X (t ) , V (t ) и выходных сигнала Y (t ) , Z (t ) ,
удовлетворяющих уравнениям:
t
t
t0
t0
t
t
t0
t0
Y (t )   gYX (t   ) X ( )d   gYV (t   )V ( )d ,
(176)
Z (t )   g ZX (t   ) X ( )d   g ZV (t   )V ( )d .
Поскольку выходные сигналы Y (t ) , Z (t ) также являются стационарно связанными, то найдем взаимную корреляционную функцию kYZ ( ) выходных сигналов с учетом уравнений (176):


00
00
kYZ ( )    gYX ( s) g ZX ( s ')k X   s  s '  ds 'ds    gYX ( s) g ZV ( s ')k XV   s  s '  ds 'ds 


00
00
   gYV ( s) g ZX ( s ')k XV   s  s ' ds 'ds    gYV ( s) g ZV ( s ')kV   s  s '  ds 'ds.
152
*
( ) для стационарно связанТогда взаимная спектральная плотность SYZ
ных случайных процессов Y (t ) и Z (t ) , определяется выражением
1
) 
2
*
SYZ
(

 kYZ ( )e
 gYX ( s)e
 j s

 gYX ( s)e
 j s

 gYV (s)e
 j s


ds  g ZV ( s ')e
j s '

ds  g ZX ( s ')e
 gYV (s)e
 j s


ds  g ZV ( s ')e

1
 j   s  s '
ds '
k X   s  s ' e 
d 

2 0

1
 j   s  s '
ds '
k XV   s  s ' e 
d 

2 0

j s '
1
 j   s  s '
ds '
k XV   s  s ' e 
d 

2 0
j s '
1
 j   s  s '
ds '
kV   s  s ' e 
d .

2 0
0


ds  g ZX ( s ')e
j s '
0



0


d 



 j
0

С учетом равенств

WYX ( j )   gYX ( s)e
 j s

ds , WYV ( j )   gYV ( s)e  js ds ,
0
0

WZX ( j )   g ZX ( s ')e
j s '

ds ' , WZV ( j )   g ZV ( s ')e js 'ds ' ,
0
0

S *X
1
 j   s  s '
( ) 
k X   s  s 'e 
d ,

2 0

1
 j   s  s '
) 
kV   s  s 'e 
d

2 0
SV* (

1
 j   s  s '
) 
k


s

s
'
e
d


XV
2 0
S *XV (
получим выражение
*
*
SYZ
( )  WYX ( j )WZX ( j ) S X* ( )  WYX ( j )WZV ( j ) S XV
( ) 
+WYV ( j )WZX ( j ) S *XV ( )  WYV ( j )WZV (  j ) SV* ( ).
Наоборот, зная совокупность частотных характеристик устойчивой линейной системы, можно определить корреляционную функцию и дисперсию
153
по формулам
kYZ ( ) 

 SYZ ( )e
*
j
d 



 WYX ( j )WZX ( j
) S *X
( )e
j
d 


  WYV ( j )WZX ( j
*
) S XV

 WYX ( j )WZV ( j )S XV ( )e
*
j
d 

( )e

j
d 

 WYV ( j )WZV ( j )SV ( )e
*
j
d,

DYZ  kYZ (0) .
Полученные выражения для многомерной линейной системы легко
обобщаются на случай разных по числу входов и выходов системы.
Пример 30. На вход апериодического звена с передаточной функцией
W ( p) 
k
Tp  1
поступает случайный сигнал X (t ) типа белого шума с постоянной спектральной плотностью S *X ( )  S0 .
Найти математическое ожидание и дисперсию выходного сигнала Y (t ) .
Решение: Весовую функцию можно найти как оригинал с помощью обратного преобразования Лапласа с использованием таблицы, приведенной в
Приложении 6:
 k  k  T1 t
w(t )  L W ( p)  L 
 e .
Tp

1

 T
1
1
Тогда для весовой функции получим выражение
1
k  (t  )
.
g (t , )  w(t   )  e T
T
Поскольку для белого шума mX (t )  0 , то математическое ожидание
mY (t ) будет иметь вид
t
t
0
0
1
k  (t  )
mY (t )   g (t , ) m X ( )d   e T
0d  0 .
T
t
t
154
Учитывая, что интенсивность белого шума G ( )  2 S0 , по формуле
(175) получим
k 2  T (t  )
2 S0k 2  T t T 
DY (t )   g (t , )G ( )d   2 e
2 S0d 
e  e d 
2
T
T
t
t
t
t
t
2
2 t
2
2
0
0
0
2
2
2
2
 ( t t0 ) 
 S0k 2  T t  T t T t0 
 S0 k 2 
T

e  e  e  d 
 1  e
 .


T
T




Отсюда следует, что при t   дисперсия DY (t ) монотонно возрастает
и стремится к установившемуся значению DY () 
 S0 k 2
T
, которое совпадает
с результатом примера 27.
Пример 31. На вход апериодического звена с передаточной функцией
W ( p) 
k
Tp  1
с момента времени t0  0 поступает случайный сигнал X (t )  a  bt  Z (t ) , где
a , b – постоянные величины полезного сигнала mX (t )  a  bt , Z (t ) – случай-
ный сигнал помехи с математическим ожиданием mZ (t )  0 и корреляционной
функцией k Z ( )  DZ e  | | , причем T  1 .
Найти математическое ожидание mY (t ) , которое является полезным
сигналом, и дисперсию выходного сигнала Y (t ) , а также при k  1 найти систематическую ошибку mE (t )  mY (t )  mX (t ) , и дисперсию систематической
ошибки DE (t ) (см. рис. 53).
Решение: Математическое ожидание входного сигнала X (t ) имеет вид
mX (t )  M  X (t )  M  a  bt  Z (t )  a  bt  M  Z (t )  a  bt .
1
k  (t  )
Для найденной в примере 30 весовой функции g (t , )  e T
запиT
шем выражение математического ожидания выхода Y (t ) :
155
t
t
1
k  (t  )
mY (t )   g (t , )mX ( )d   e T
 a  b d 
T
0
0
1

 t
T
 k  a  b  t  T    a  bT  e  .


Найдем систематическую ошибку, равную разности между полезным
сигналом mY (t ) и требуемым сигналом mX (t )  a  bt при k  1 :
mE (t )  mY (t )  mX (t )  a  b  t  T    a  bT 
 bT   a  bT 
1
 t
e T
 a  bt 
1
 t
T
e .
Отсюда следует, что апериодический фильтр воспроизводит линейную
функцию времени с ошибкой, уменьшающейся с ростом времени t , как показано на рис. 56.
Рис. 56. Математическое ожидание выходного сигнала
Запишем выражение корреляционной функции
K X (t , t ')  M  X (t )  mX (t )  X (t ')  mX (t ')   M Z (t )Z (t ') .
Отсюда следует, что K X (t , t ')  K X (t  t ')  k Z (t  t ') , DX  DZ .
Подставляя выражение корреляционной функции K X (t  t ')  DX e  |t t '| в
формулу (174) найдем дисперсию выходного сигнала Y (t ) :
t t
k 2 DX
DY (t )    g (t , ) g (t , ') K X ( , ')d 'd 
T2
t t
0 0
t t

1
1
 ( t  )  ( t  ')
T
T
e
e
e  |  '|d
 'd .
00
156
Для вычисления этого интеграла избавимся от модуля в функции e  |  '| , для
этого разобъем интервал интегрирования по перменной  ' на две части:
2 t    '
t   '

 ( '  )
k 2 DX  T t  T  (  ')
T
DY (t ) 
e
e
d

'

e
d

'
d .
  

T2

0 0

При условии, что T  1 раскроем интегралы и в результате после
преобразований получим выражение
1

2
 1
  t 
t
1
2
T

 
T
DY (t )  k DX 

e 
e
.
2 2
1 T
1  T 1  T

2
В установившемся режиме получим
k 2 DX
.
DY () 
1  T
Данную формулу можно проверить с помощью спектральной плотности
выходного сигнала.
1) Найдем спектральную плотность входного сигнала (см. Пример 28)

1
S X ( ) 
2
 DX e
*
 | |  j
e

d 
DX 
DX 

2
2
 (   )  (  j )(  j )
2) Запишем выражение для заданной частотной характеристики
передаточной функции в виде:
k2
.
| W ( j ) | 
T ( j )  1T ( j )  1
2
3) Определяем спектральную плотность SY* ( ) выходного сигнала по
формуле:
 ) | W ( j ) |
SY* (
2
S *X
k 2 DX 
( ) 

 T ( j )  1T ( j )  1 ( j   )( j   )
k 2 DX 
=
,
 d ( j )d ( j )
где d ( j)  T ( j)  1( j   )  a0 ( j)2  a1( j)  a2 , a0  T , a1   T  1 ,
a2   .
157
4) Находим дисперсию выходного сигнала по формуле

1
DY   S ( )d  2k DX 
2

*
Y
2

1
 d ( j )d ( j ) d .
Для вычисления интеграла воспользуемся формулой, приведенной в
Приложении 5, согласно которой получим
1
2

1
1
.
d


 d ( j )d ( j )
2 1   T 
Тогда окончательно найдем
1
k 2 DX
DY  2k DX 

,
2 1  T  1  T
2
что совпадает с установившимся значением дисперсии DY ( ) .
Поскольку случайная ошибка системы E (t )  E (t )  mE (t )  Y (t ) , то дисперсия DE (t )  DY (t ) .
Пример 32. На вход колебательного звена с передаточной функцией
W ( p) 
k
T 2 p 2  2T  p  1
поступает случайный сигнал X (t ) типа белого шума с постоянной спектральной плотностью S *X ( )  S0 .
Найти дисперсию выходного сигнала Y (t ) как функцию времени и ее
установившееся значение.
Метод интегрирования уравнений моментов
Рассмотрим многомерную систему в пространстве состояний
dx(t )
 A(t ) x(t )  D(t ) w(t ),
dt
y (t )  C (t ) x(t ),
x(t0 )  x0 ,
(176)
где x – n-вектор состояния системы, y – l-вектор выхода системы w – m-
158
вектор входного воздействия, A(t ) , D(t ) – матрицы соответствующих размерностей.
Будем считать, что входом w(t ) является W (t ) – m-вектор случайных
сигналов белого шума. Тогда решением системы (176) является X (t ) – nвектор случайных сигналов, который подчиняется уравнению
dX (t )
 A(t ) X (t )  D(t )W (t ),
dt
X (t0 )  X 0 ,
(177)
где X 0 – вектор случайных величин.
Предположим, что X (t ) и W (t ) взаимно независимы и выполняются
условия
M  X 0   mX 0 , M W (t )  mW (t ) ,

M  X 0  mX 0


X 0  mX 0

T
  M X X T   K
 0 0
0,







M W (t )W T ( )   M W ( )W T (t )   Q(t ) (t   ) ,




где m X 0 – заданный числовой вектор, K 0 - n  n – заданная числовая симметричная матрица, W (t )  W (t )  mW (t ) – центрированный случайный входной
вектор белого шума, Q(t ) – симметричная матрица интенсивностей белого
шума.
Применим операцию математического ожидания для уравнения (177),
тогда получим:
 dX (t )  d
M
 M  X (t )  A(t ) M  X (t )  D(t ) M W (t ) ,
 dt  dt
или
dmX (t )
 A(t )mX (t )  D(t )mW (t ), mX (t0 )  mX 0 .
dt
(178)
Вычитая из уравнения (177) уравнение (178) получим уравнение для
159
центрированного случайного выходного вектора X (t )  X (t )  mX (t ) :
d X (t )
 A(t ) X (t )  D(t )W (t ),
dt
X (t0 )  X 0  m X 0 .
(179)
Запишем решение уравнения (179) для случайного вектора X (t ) :
t
X (t )  (t , t0 ) X (t0 )   (t , )D( )W ( )d .
(180)
t0
где (t , ) – переходная матрица однородной системы при W (t )  0 :
d X (t )
 A(t ) X (t ) .
dt
(181)
Решение однородной системы (181) при t0   записывается в виде
X (t )  (t , ) X ( ) ,
где переходная матрица (t , ) удовлетворяет уравнению

 (t , )   A(t )(t , ) , ( , )  I n .
t
(182)
Действительно, возьмем производную с учетом уравнения (182):
d

X (t )  (t , ) X ( )  A(t )(t , ) X ( )  A(t ) X (t ),
dt
t
то получим уравнение, которое совпадает с уравнением (181), что и требовалось доказать.
Справедливость решения неоднородной системы (180) доказывается
непосредственной подстановкой в уравнение (179). Действительно, возьмем
производную решения (180):
t
d X (t ) 

  (t , t0 )  X (t0 )  (t , t ) D(t )W (t )    (t , ) D( )W ( ) d 
dt
t
t
t
0
t
 A(t )(t , t0 ) X (t0 )  D(t )W (t )  A(t )  (t , )D( )W ( )d 
t0
160
t


 A(t ) (t , t0 ) X (t0 )   (t , )D( )W ( )d   D(t )W (t )  A(t ) X (t )  D(t )W (t ),


t0
то получим уравнение, которое совпадает с уравнением (179), что и требовалось доказать.
Найдем уравнение для корреляционной матрицы
 

 M  X 1 (t ) X 1 (t ) 


  
T
K X (t )  M  X (t ) X (t )   

 
 M  X (t ) X (t ) 
1

  n




M  X 1 (t ) X n (t )  


,



M  X n (t ) X n (t )  


(183)
где диагональными элементами матрицы K X (t ) являются дисперсии элементов вектора случайных процессов:


DX i (t )  M  X i (t ) X i (t )  ,


i  1, n .




Учитывая, что M  X i (t ) X j (t )   M  X j (t ) X i (t )  , матрица K X (t ) является




симметричной, то есть K X (t )  K TX (t ) .
Продифференцируем выражение (183) с учетом уравнения (179) и свойства перестановки операций дифференцирования и математического ожидания:
d 



dK X (t ) d
 M  X (t ) X T (t )   M   X (t ) X T (t )   

dt
dt 
 dt 

 


d X T (t ) 
 dX (t ) T
M
X (t )  X (t )

dt
dt 


T

 T

 
 M  A(t ) X (t )  D(t )W (t )  X (t )  X (t )  A(t ) X (t )  D(t )W (t )   



 
161


 M  A(t ) X (t ) X T (t )  D(t )W (t ) X T (t )  X (t ) X T (t ) AT (t )  X (t )W T (t ) DT (t )  










 A(t ) M  X (t ) X T (t )   M  X (t ) X T (t )  AT (t )  D(t ) M W (t ) X T (t )   M  X (t )W T (t )  DT (t ) 












 A(t ) K X (t )  K X (t ) AT (t )  D(t ) M W (t ) X T (t )   M  X (t )W T (t )  DT (t ).




Найдем выражение для математического ожидания последнего слагаемого с учетом решения (180):
t





T
T



M  X (t )W (t )   M (t , t0 ) X (t0 )   (t , )D( )W ( )d W (t )  





t0



t


T
 M (t , t0 ) X (t0 )W (t )   (t , )D( )W ( )W T (t )d  


t0

 t


T
 (t , t0 ) M  X (t0 )W (t )    (t , )D( ) M W ( )W T (t )  d .

 t0


Учитывая, что в силу независимости X (t ) и W (t ) выполняется равенство


M  X (t0 )W T (t )   0 ,


получим выражение
t

 t


T
T
M  X (t )W (t )    (t , )D( ) M W ( )W (t )  d   (t , )D( )Q(t ) (t   )d .

 t0


t0
По свойству дельта – функции с учетом  (t , t )  I n получим

 1
M  X (t )W T (t )   D (t )Q (t ) .

 2
Здесь множитель 1/2 появился вследствие того, что при верхнем пределе интегрирования переходная матрица физически возможной системы (179) терпит разрыв первого рода при   t , поскольку при   t обращается в нулевую
162
матрицу. Поэтому при интегрировании учитывается только половина дельтафункции симметричной относительно точки   t .
Для иллюстрации данного свойства дельта-функции на рис. 57 приведен
пример для случая  (t , )  e a (t  ) , где учитываемая при интегрировании половина дельта-функции заштрихована.
Рис. 57. Свойство дельта функции
Применяя операцию транспонирования получим также

 1
1
M W (t ) X T (t )   QT (t ) DT (t )  Q (t ) DT (t ) .
2

 2
Тогда после подстановки окончательно получим уравнение для корреляционной матрицы:
dK X (t )
 A(t ) K X (t )  K X (t ) AT (t )  D (t )Q (t ) DT (t ) , K X (t0 )  K 0 .
dt
(184)
Решение уравнения (184) записывается в виде
t
K X (t )  (t , t0 ) K X (t0 ) (t , t0 )   (t , )D( )Q( ) DT ( )T (t , )d .
T
(185)
t0
Справедливость решения (185) доказывается непосредственной подстановкой в уравнение (184). Действительно, возьмем производную решения
(185) с учетом уравнения (182):
dK X (t ) 

(t , t0 ) K X (t0 )T (t , t0 )  (t , t ) D(t )Q(t ) DT (t )T (t , t ) 
dt
t


163
t

t0


(t , ) D( )Q( ) DT ( )T (t , ) d 
t




 (t , t0 )  K X (t0 )T (t , t0 )  (t , t0 ) K X (t0 ) T (t , t0 )  D(t )Q(t ) DT (t ) 
t
t


t


     (t , )  D( )Q( ) DT ( )T (t , )  (t , ) D( )Q( ) DT ( ) T (t , t0 )
t
t
t0 

d 
 A(t )(t , t0 ) K X (t0 )T (t , t0 )  (t , t0 ) K X (t0 )T (t , t0 ) AT (t )  D(t )Q(t ) DT (t ) 
t
t
  A(t )(t , ) D( )Q( ) D ( ) (t , )d   (t , ) D( )Q( ) DT ( )T (t , )AT (t )d 
T
t0
T
t0
t


T
T
T

 A(t ) (t , t0 ) K X (t0 ) (t , t0 )   (t , ) D( )Q( ) D ( ) (t , )d  


t0
t


T
T
T

  (t , t0 ) K X (t0 ) (t , t0 )   (t , ) D( )Q( ) D ( ) (t , )d  AT (t )  D(t )Q(t ) DT (t ) 


t0
 A(t ) K X (t )  K X (t ) AT (t )  D(t )Q(t ) DT (t ),
то получим уравнение, которое совпадает с уравнением (184), что и требовалось доказать.
Для стационарных систем переходная матрица равна матричной экспоненте (t , t0 )  e A(t t0 ) (см. Приложение 2), при этом в установившемся режиме
при выполнения условий
dm X (t )
dK X (t )
 0,
 0 , справедливы уравнения
dt
dt
статики
Am X  DmW  0 ,
(184)
AK X  K X AT  DQDT  0 .
(185)
Из уравнения (184) при неособой матрице A находим mX   A1BmW .
Уравнение (185) называется уравнением Ляпунова, для решения которого в системе MatLab при заданных матрицах A , D , Q можно воспользоваться командой:
KY=lyap(A,D*Q*D’)
164
Пример 33. Пусть задана система
y ( p)  W ( p)u ( p)
с передаточной функцией апериодического звена
W ( p) 
k
Tp  1
при нулевом начальном условии y (0)  0 .
В момент времени t0  0 на вход системы поступает случайный сигнал
U (t ) типа белого шума с постоянной спектральной плотностью SU* ( )  S0 .
Найти математическое ожидание и дисперсию выходного сигнала Y (t ) .
Решение: По передаточной функции W ( p) запишем дифференциальное
уравнение
T
dy (t )
 y (t )  ku (t ),
dt
которое перепишем в виде уравнения (176):
dy (t )
 ay (t )  du (t ),
dt
где a  
1
k
,d .
T
T
Тогда уравнение для математического ожидания имеет вид
dmY (t )
 amY (t )  dmU (t ) .
dt
(186)
Поскольку входным сигналом является белый шум, то mU (t )  0 , и при
начальном условии
mY (0)  y (0)  0
решением уравнения (186) является mY (t )  0 .
Здесь для системы первого порядка корреляционная матрица совпадает
с выражением дисперсии случайного процесса Y (t ) :
T
KY (t )  M Y (t )  mY (t ) Y (t )  mY (t )    DY (t ) .


165
Поэтому уравнение (182) можно записать в виде
dDY (t )
 2aDY (t )  d 2G ,
dt
(187)
где Q (t )  G  2 S0 – интенсивность белого шума.
Решение уравнения (187) имеет вид
t
DY (t )  e
2 at
DY (0)   e
2 a (t  ) 2
t
d Gd  d G  e 2 a (t  ) d 
2
0
t
 d Ge
2
2 at
e
0
2 a
0
2
 t
 S0 k 2 
d 2G 2 at 2 at
1  e T  .
d 
e
e
1 

2a
T 



что совпадает с результатом Примера 30.
В частном случае при a  0 получим уравнение интегрирующего звена
dy (t )
 du (t ),
dt
для которого получим выражение дисперсии
t
DY (t )  d G  d  d 2Gt ,
2
0
то есть с течением времени дисперсия DY (t ) возрастает. Данный результат
имеет глубокий физический смысл, характеризуя безграничное нарастание
флуктуаций на выходе идеального интегратора, что связано с эффектом их
накопления. Аналогичное явление наблюдается в случае одномерного блуждания точки в броуновском движении, когда материальная точка, выходя из
начала координат и получая равновероятные толчки в двух противоположных
направлениях, в среднем остается на месте, но величина ее отклонения от
среднего положения неограниченно нарастает во времени.
Пример 34. Пусть задана система
y ( p)  W ( p)u ( p)
с передаточной функцией колебательного звена
W ( p) 
k
T 2 p 2  2T  p  1
166
при нулевых начальных условиях y(0)  0, y(0)  0 , где 0    1 – коэффициент демпфирования.
В момент времени t0  0 на вход системы поступает случайный сигнал
u (t ) типа белого шума с постоянной спектральной плотностью SU* ( )  S0 .
Найти математическое ожидание и дисперсию выходного сигнала Y (t ) .
Решение: По передаточной функции W ( p) запишем систему в виде
дифференциальных уравнений. Для этого перепишем исходное уравнение в
виде
T
2
p 2  2T  p  1 y ( p)  ku ( p) .
и перейдем к дифференциальному уравнению в оригиналах x(t ) , y(t ) :
T2
d 2 y (t )
dy (t )

2
T

 y (t )  ku (t ) .
dt
dt 2
(188)
Перепишем данное уравнение 2-го порядка в виде системы двух уравнений 1-го порядка. Для этого введем вектор состояния системы x  [ x1 x2 ]T , где
x1 (t )  y (t ) , x2 (t ) 
dy (t ) dx1 (t )

, тогда получим систему уравнений
dt
dt
dx1 (t )
 x2 (t ),
dt
dx2 (t )
1
2
k
  2 x1 (t ) 
x2 (t )  2 u (t ).
dt
T
T
T
которую можно записать в обобщенном виде (176), где
 0
A 1

 T2
1 
 0 
2  , D   k  .
 
 
T 
T 2 
Тогда уравнение для математического ожидания имеет вид
dmX (t )
 AmX (t )  DmU (t ) .
dt
(189)
Поскольку входным сигналом является белый шум, то mU (t )  0 , и при
начальном условии
167
mX (0)   y (0)
y(0)   021
T
решением уравнения (189) является m X (t )  0 .
Запишем уравнение для корреляционной матрицы (182), учитывая, что
Q  G  2 S0 – интенсивность белого шума:
dK X (t )
 AK X (t )  K X (t ) AT  DDT G ,
dt
K X (0)  0 22 ,
(190)
где
 



M
X
(
t
)
X
(
t
)
M
X
(
t
)
X
(
t
)
1
1
 
1
2


   D (t ) K
X1
X 1 X 2 (t ) 





K X (t ) 

.
 

K
(
t
)
D
(
t
)


  XX
X2

 M  X 2 (t ) X1 (t )  M  X 2 (t ) X 2 (t )    1 2
 


 
Таим образом, для определения дисперсии DY (t )  DX1 (t ) случайного
сигнала Y (t ) на выходе системы необходимо найти по формуле (183) решение
уравнения (190). Для этого найдем переходную матрицу  (t , t0 ) уравнения
(188).
Запишем характеристическое уравнение системы
T 2 p 2  2T  p  1  0 ,
которое имеет комплексно сопряженные корни p1,2    j , где    / T –
показатель затухания,   1   2 / T – угловая частота колебаний.
Тогда решение однородного дифференциального уравнения (188) y(t ) и
его производная y(t ) при начальных условиях y (t0 ) , y (t0 ) будут иметь вид:
y(t )  e (t t0 )  A1 sin (t  t0 )  A2 cos (t  t0 )  ,
y(t )  e (t t0 )  A1  cos  (t  t0 )   sin  (t  t0 )   A2  sin  (t  t0 )   cos  (t  t0 )  ,
где неопределенные коэффициенты A1 , A2 определяются по начальным условиям из уравнений
y (t0 )  A2 ,
y (t0 )  A1  A2  A1   y (t0 ) .
168
Отсюда находим A1   y(t0 )   y(t0 )  /  .
Тогда решение системы будет иметь вид
sin  (t  t0 )
 


y(t )  e (t t0 )  sin  (t  t0 )  cos  (t  t0 )  y(t0 ) 
y(t0 )  ,


 

y (t )  e
 (t t0 )


2 



  
 sin  (t  t0 ) y (t0 )   cos  (t  t0 )  sin  (t  t0 )  y (t0 )  .
 





Для вектора состояния x   x1
можно переписать в виде
x2    y
T
y
T
полученное решение
x(t )  (t , t0 ) x(t0 )  (t  t0 ) x(t0 ) ,
где x(t0 )   x1 (t0 ) x2 (t0 )  ,  (t  t0 ) – переходная матрица
T
sin  (t  t0 )


sin

(
t

t
)

cos

(
t

t
)
0
0



 (t t0 ) 
.
 (t  t0 )  e
 

2 



sin

(
t

t
)
cos

(
t

t
)

sin

(
t

t
)


0
0
0 

 

 

Подставляя найденную переходную матрицу  (t  t0 ) в выражение
(183) найдем решение уравнения (190):
t
t
K X (t )   (t   )DD  (t   )d G   ( )DDT T ( )d G ,
T
T
0
0
где

sin 2 ( )
sin( ) 


cos(

)

sin(

)

2 
 

2

T T
2 k 
.
( ) DD  ( )  e
2

T 4  sin( ) 







 cos( )  sin( ) 
 cos( )  sin( ) 


  




Отсюда следует выражение для дисперсии случайного сигнала
Y (t )  X 1 (t ) на выходе системы
169
k 2 2 S0 2
DY (t )  K X1 X1 (t )  4 2  e
sin 2 ( )d 
T  0
t

2


k 2 2 S0
2

2 t  2
2
1

e
sin
(

t
)

sin(2

t
)

1

 2
  

T 4 2 4 ( 2   2 ) 



2


k 2 S0

2 t  2
2
 4
1

e
sin
(

t
)

sin(2

t
)

1


  .
2

2T  ( 2   2 ) 



В установившемся режиме при t   получим значение дисперсии
k 2 S0
k 2 S0
,
DY1 ()  4

2T 
2T  ( 2   2 )
что совпадает с результатом Примера 28.
Пример 35. Пусть задана система
y ( p)  W ( p)u ( p)
с передаточной функцией интегрирующего звена
W ( p) 
k
p
при нулевом начальном условии y (0)  0 .
В момент времени t0  0 на вход системы поступает случайный сигнал
U (t ) типа белого шума с постоянной спектральной плотностью SU* ( )  S0 .
Найти математическое ожидание и дисперсию выходного сигнала Y (t ) .
Тема 7. Статистический анализ нелинейных систем
В системах автоматического управления присутствуют нелинейные элементы, которые могут иметь непрерывные или разрывные характеристики (см.
рис. 58).
170
Рис. 58. Примеры непрерывного и разрывного нелинейного элемента типа
«идеальное реле»
Пусть нелинейный элемент устанавливает связь выходного сигнала y(t )
от входного сигнала x(t ) по формуле
y    x .
Если на вход непрерывного нелинейного элемента поступает случайный сигнал
X (t )  mX (t )  X (t ) ,
где X (t )  X (t )  mX (t ) – центрированная случайная составляющая сигнала, то
с использованием линеаризации по Тейлору при малых значениях X (t ) получим приближенное выражение случайного сигнала Y (t ) на выходе нелинейного элемента:
Y    X     mX  
где
  mX 
X.
mX
  mX 
–коэффициент линеаризации.
mX
Данный метод линеаризации не применим к нелинейным элементам с
разрывными нелинейными характеристиками. Для линеаризации таких характеристик применяют статистическую линеаризацию.
Статистическая линеаризация нелинейных характеристик состоит в приближенной замене нелинейной характеристики эквивалентной в вероятност171
ном смысле линеаризованной функциональной зависимостью между случайными переменными.
Однозначную нелинейность   X  для каждого момента времени t формально заменяют приближенной зависимостью
Y  0  k1 X ,
где 0  M   X  – средняя статистическая характеристика нелинейности, k1 – статистический коэффициент усиления нелинейности по случайному составляющей.
Для нелинейностей, имеющих нечетные характеристики, функцию  0
можно выразить в виде
 0  k0 m X ,
k0 – статистический коэффициент по математическому ожиданию. В этом
случае сигнал на выходе нелинейного элемента определяется по формуле
Y  k0mX  k1 X ,
(191)
где m X –полезный входной сигнал.
С учетом вероятностной эквивалентности представления случайных
сигналов, математическое ожидание случайного сигнала Y (t ) на выходе нелинейного элемента равно


 
mY  M Y   M 0  k1 X   M 0   k1M  X   0 ,


 
а дисперсия равна


2
2
DY  M Y  mY    M Y  0    M k12 X 2   k12 DX .






Отсюда определяется коэффициент
k1  
DY

 Y ,
DX
X
(192)
172
где знак коэффициента k1 определяется направлением возрастания или убывания в функции   x  при изменении аргумента.
Для нелинейностей, имеющих нечетные характеристики, коэффициент
k0 определяется по формуле
k0 
mY
.
mX
Если потребовать равенство математических ожиданий и дисперсий истинного и аппроксимированного сигнала, то должно также выполняться условие минимума второго момента ошибки аппроксимации за счет выбора коэффициентов  0 , k1 :
2



 
M  Y  0  k1 X    M Y 2  02  k12 X 2  2Y 0  2k1Y X  20k1 X  
 





 M Y 2   02  k12 DX  20 mY  2k1M Y X   min
0 ,k1


Для определения минимума найдем частные производные по коэффициентам  0 , k1 и приравняем нулю, в результате чего получим уравнения:
20  2mY  0 ,


2k1DX  2M Y X   0 ,


из которых найдем значения 0  mY ,
k1 
1


M Y X  .
DX


(193)
Поскольку матрица, составленная из вторых производных равна диагональной матрице diag 2,2DX  , которая является положительно определенной, то найденные экстремальные значения  0 , k1 обеспечивают минимум второго момента ошибки аппроксимации.
Если для случайного сигнала X (t ) известна плотность распределения
вероятности f ( x) для каждого текущего момента времени t , то можно найти
выражения:
173

0  mY  M   X      ( x) f ( x)dx ,

для нелинейностей, имеющих нечетные характеристики

1
k0  0 
mX mX

  ( x) f ( x)dx ;

для варианта линеаризации (192)
1/2


DY
1 
2
k1  


(
x
)


f
(
x
)
dx



 ,
0
DX
 X  

для варианта линеаризации (193)
1

 1
k1 
M Y X   2
DX 
 X

  ( x)  x  m  f ( x)dx .
X

При определении коэффициента k1 рекомендуется брать среднее значение для двух вариантов линеаризации (192) и (193).
Как правило плотность распределения вероятности f ( x) заранее неизвестна, поэтому учитывают следующее свойство системы управление с нелинейным элементом. Изменение формы плотности распределения f ( x) в широких пределах не оказывает существенного влияния на коэффициенты k0 , k1
и функцию  0 . Кроме того, выход нелинейного элемента соединяются с инерционным линейным звеном, на выходе которого плотность распределения вероятности близка к нормальному распределению при любом распределении
входной переменной [1]. Поэтому на входе нелинейного элемента можно принять плотность нормального распределения:
f ( x) 
1
 X 2
 ( x mx )2
e
2 x2
.
В этом случае выражения для функции  0 будут иметь вид
0 



 ( x)
e
2

X
 ( x  mx )2
2 x2
dx .
(194)
174
Учитывая, что функция 0  mY является функцией 0  0 (mX ) , то продифференцировав выражение (194) по m X получим выражение, которое совпадает с выражением для коэффициента k1 варианта линеаризации (193):
0 (mX ) 1
 2
mX
X

 ( x)
(
x

m
)
e
X

 X 2
 ( x  mx )2
2 x2
dx 
1
 X2

 (x  m
X
) ( x) f ( x)dx  k1 .

Таким образом, в отличие от линеаризации при помощи ряда Тейлора,
коэффициенты статистической линеаризации (191) зависят не только от полезного сигнала m X , но также от дисперсии  X2 .
В случае неоднозначных характеристик нелинейных звеньев функция
 ( x) заменяется функцией   x,sign( x)  , одномерная плотность распределения
вероятности f ( x) входного случайного сигнала заменяется совместной плотностью вероятности f ( x, x) для случайного сигнала X (t ) и его производной
X (t ) . При этом в выражениях для определения  0 , k0 , k1 используются двой-
ные интегралы по переменным x, x [1].
Из формулы (191) следует, что при статистической линеаризации нелинейный элемент для математического ожидания выходной переменной заменяется линейным звеном
mY  k0 mX ,
и другим линейным звеном при определении дисперсии выходной переменной
Y  Y  k0mX  k1 X .
Поэтому статически линеаризованная стационарная система будет
иметь различные передаточные функции для математического ожидания и для
случайных флуктуаций. Так, например, в системе, изображенной на рис. 59, на
вход нелинейного элемента (НЭ) подается случайный сигнал рассогласования
E  X Y .
175
Рис. 59. Структурная схема нелинейной системы управления
Здесь случайные сигналы можно записать в виде
X  mX  X , Y  mY  Y , E  mE  E ,
где mE  mX  mY , E  X  Y . При этом в результате статистической линеаризации случайный сигнал U на выходе нелинейного элемента представляется
в виде
U  mU  U  k0mE  k1 E .
При выводе передаточных функций для математического ожидания (полезного сигнала) можно полагать, что флуктуации отсутствуют, при выводе
передаточных функций для флуктуаций можно считать, что отсутствуют полезные сигналы. При этом структурные схемы для математического ожидания
и флуктуаций представлены на рис. 60 и рис. 61.
Рис. 60. Структурная схема статистически линеаризованной нелинейной
системы управления для математического ожидания
Рис. 61. Структурная схема статистически линеаризованной нелинейной
системы управления для флуктуаций
176
В соответствии со структурными схемами рис. 60 и рис. 61 найдем соответствующие зависимости выхода от входа:
mY 
k0W ( p )
mX ,
1  k0W ( p )
(195)
Y
k1W ( p)
X.
1  k1W ( p)
(196)
Запишем также аналогичные зависимости для рассогласования E :
mE  WmE ,mX ( p )mX 
E  WE , X ( p) X 
1
mX ,
1  k0W ( p )
1
X.
1  k1W ( p)
(197)
(198)
Здесь коэффициенты k0 и k1 являются функциями k0 (mE , DE ) и
k1 (mE , DE ) , что следует из формул их определения в зависимости от характе-
ристик сигнала рассогласования E .
Если на вход нелинейной системы рис. 59 с передаточной функцией
m( p) b0 p m  b1 p m1 
W ( p) 

d ( p) a0 p n  a1 p n1 
 bm
,
 an
(152)
подается стационарный случайный процесс X (t ) , у которого математическое
ожидание m X постоянно, то установившееся значение математического ожидания случайного сигнала рассогласования E (t ) можно найти по формуле:
mE  lim p
p 0
где W (0) 
1
mX
1

mX ,
1  k0 (mE , DE )W ( p) p 1  k0 (mE , DE )W (0)
(199)
bm
, при an  0 .
an
Установившееся значение дисперсия выходного случайного сигнала
E (t ) можно найти по формуле (159):

DE 
 | WE , X ( j ) |
2

 )d 
S *X (

1
*
 |1  k1(mE , DE )W ( j) |2 S X ( )d .

(200)
177
Для решения двух уравнений (199), (200) относительно двух неизвестных величин mE , DE можно использовать различные приближенные методы
[1].
По найденным коэффициентам k0 и k1 по выражению (195) можно аналогично найти для выходного случайного сигнала Y (t ) математическое ожидание
mY 
k0W (0)
mX .
1  k0W (0)
(201)
и по выражению (196) найти установившееся значение дисперсии

DY 
k12
| W ( j ) |2
*
 |1  k1W ( j ) |2 S X ( )d .

(202)
Рассмотренный подход распространяется также на другие варианты
структурных схем системы управления и места расположения в ней нелинейного элемента [1].
Следует отметить, что метод статистической линеаризации является общим приближенным приемом, применяемый для линеаризации нелинейностей. Для некоторых систем метод статистической линеаризации дает существенную погрешность. К таким системам относятся системы с ярко выраженными резонансными свойствами или системы без обратных связей. Для таких
систем необходимо знание закона распределения случайного сигнала на входе
в нелинейность, который отличается от нормального закона распределения.
Для инерционных систем с обратной связью имеет место нормализация закона
распределения сигнала на входе нелинейного элемента, который поступает с
выхода инерционного звена. Это объясняется следующим образом.
Пусть на вход линейной системы подана случайная некоррелированная
последовательность импульсов X k ( k ) , k  1, m , имеющая произвольный закон
распределения. Случайный сигнал Y (t ) на выходе инерционного элемента
можно записать в виде
178
m
Y (t )   g (t , k )X k ( k ) ,
k 1
где g (t , ) – весовая функция системы.
Чем больше инерционность системы, то есть чем уже полоса пропускания системы, тем больше соизмеримых по величине и взаимно некоррелированных слагаемых определяет характер изменения случайного сигнала Y (t ) .
Тогда на основании центральной предельной теоремы можно считать распределение сигнала Y (t ) близким к нормальному.
Пример 36. Определить коэффициенты статистической линеаризации
(191) для нелинейного элемента типа «идеальное реле», приведенного на
рис.58:
 l при x  0,
 ( x)  
l при x  0.
Решение: Найдем сначала математическое ожидание и дисперсию случайного сигнала Y    X  .
Математическое ожидание определяется по формуле (194):


 ( x)
mY    ( x) f ( x)dx  
e

2



X
l

 X 2
0
e
 ( x  mx ) 2
2 x2
dx 

 ( x  mx ) 2
2 x2

l
e
 X 2
dx 
 ( x  mx ) 2
2 x2
dx.
0
С учетом замены переменной x  mX   X , dx   X d получим:

 1
mY  l 
 2


mX
X

e
 2
2
d 

1
2



e
 2
2
mX
X


d  .


С учетом замены переменной    , d  d найдем:

 1
mY  l 
 2

mX

e
mX
X
 2
2
d 
1
2
X
e

 2
2


d 


179
Учитывая, что
mX
1
2

e
 2
2
mX

1
d 
2
e
 2
2

X
1
d 
2
X
e
mX
 2
2

1
d  1 
2
X
e
 2
2
d ,

окончательно получим

 2
mY  l 
 2

mX
X


e
 2
2

m
 
d  1  l  2*  X
X
 

 
  1 .
 
С учетом выражения (30’) можно также записать

m
mY  l  2*  X
X

 
 mX
  1  2l 
 
X

.

(203)
Дисперсия случайного сигнала Y    X  с использованием формулы
(38) имеет вид:

DY 
  ( x )  m 

2
Y


 l2 

f ( x)dx 

2
( x) f ( x)dx  mY2 


 m 
f ( x)dx  mY2  l 2  mY2  l 2 1  4 2  X   .
  X 

(204)
Поскольку нелинейность рис. 56 является нечетной функцией, то найдем
коэффициент линеаризации
k0 
0 mY 2l  mX 



.
mX mX mX   X 
Для варианта линеаризации (192) найдем
DY
l 
2  mX
k1 

1  4 
DX  X 
X
1/2

 .

Для варианта линеаризации (193) получим
180
1
k1 
DX

  ( x)  x  m  f ( x)dx 
X

 ( x  mx )
 ( x  mx )

 0

2 x2
2 x2
    x  mX  e
dx    x  mX  e
dx  .
2  

0


2

l
DX  X
С помощью замены переменной t 
2
x  mX
X
получим выражение
 mX2

 mX t 2

2 X


t 2
X




l
l


2
2
k1 

te
dt

te
dt


e
d


e
d

 





 X 2  

2

2
 mX
 

X
mX

X




2 X2
m2
m2
m2
  mX22
 
 X2  
 X2
 X
l
2
l
2
l
2 X
2 X
2 X
2 DX
 e
 

 0  0  e
e

e
.
 
   X 2
 X 2 
2 DX
 


2
Для полученных двух представлений коэффициента k1 в двух вариантах
линеаризации принимаем среднее значение:
1  l
k1  
2  X

1/2


2  mX 
1  4 

  X 

m2
 X
2l

e 2 DX
2 DX
 l  m
 X

  X   X

,

(205)
где функция    имеет вид
1
1 2
2
    1  4 ( ) 
e .
2
2
2
(206)
Пример 37. Пусть задана структурная схема замкнутой релейной следящая система с передаточной функцией
W ( p) 
k
,
p(Tp  1)
которой приведена на рис. 62. На вход системы подается стационарный случайный сигнал X (t ) с постоянным значением m X и корреляционной функцией
k X ( )  DX e | | .
181
Рис. 62. Структурная схема релейной системы управления
Требуется определить установившиеся значения математического ожидания и дисперсии для случайного сигнала рассогласования E (t ) , а также для
случайного сигнала на выходе системы Y (t ) .
Решение: Для сигнала рассогласования E (t ) по формуле (197) найдем
mE 
1
p(Tp  1)
mX  2
mX .
1  k0W ( p)
Tp  p  k0 k
Отсюда при p  0 следует установившееся значение mE  0 , то есть замкнутая система по полезному сигналу обладает свойством астатизма из-за
наличия интегрирующего звена в передаточной функции W ( p) .
Нелинейный элемент U   ( E ) после статистической линеаризации заменяется выражением, которое с учетом равенства mE  0 будет иметь вид
U  mU  U  k0 (mE , DE )mE  k1 (mE , DE ) E  k1 ( DE ) E ,
то есть неизвестным является только один коэффициент k1 , зависящий только
от дисперсии DE . Из формулы (205) получим выражение
k1 
l
l
  0      
E
DE
1  0,8985l
1

.
2

2 
DE

(207)
По формуле (198) найдем
E
1
p(Tp  1)
X 2
X.
1  k1W ( p)
Tp  p  k1k
Тогда дисперсия случайного сигнала E (t ) по формуле (159) будет иметь
вид:

| j (Tj  1) |2
DE  
S * ( )d .
2
2 X
| T ( j )  j  k1k |

(208)
По корреляционной функции k X ( )  DX e | | найдем спектральную
плотность, которая, как показано в Примере 24, определяется выражением:
182
S *X ( ) 

DX
  
2
2

DX 
.
 (  j )(  j )
Подынтегральное выражение формулы (208) необходимо представить в
удобном виде для использования табличного интеграла, приведенного в Приложении 5:
 j (Tj  1)   j (Tj  1) 
T ( j )
2
 j  k1k T ( j )  j  k1k 
2

DX 

 (  j )(  j )
T 2 ( j ) 4  ( j ) 2
DX 
DX  b( j )



,
2
2
 T ( j )  j  k1k  (  j ) T ( j )  j  k1k  (  j )  d ( j )d ( j )
где
b( j )  T 2 ( j ) 4  ( j ) 2  b0 ( j ) 4  b1 ( j ) 2  b2
d ( j)  T ( j)2  j  k1k  ( j   )  a0 ( j)3  a1( j) 2  a2 ( j)  a3 ,
b0  T 2 , b1  1 , b2  0 , a0  T , a1  1  T  , a2  k1k   , a3  k1k .
Тогда выражение (208) с учетом формулы Приложения 5 можно записать в виде
1
DE  2 DX 
2
DX  1  T  k1kT 
b( j )
d


.
 d ( j )d ( j )
T  2    k1k

(209)
Подставляя сюда выражение (207) для коэффициента k1 , получим уравнение для определения дисперсии DE :
DE 

DX  1  T  DE  0,8985lkT
T 2    DE  0,8985lk
.
(210)
Уравнение (210) приводится к кубическому уравнению относительно величины
DE , из которого находится решение. Для найденного значения
DE
по формуле (207) определяется коэффициент k1 , с помощью которого находится дисперсия выходного случайного сигнала Y (t ) по формуле (202).
Найдите дисперсию выходного случайного сигнала Y (t ) .
183
Тема 8. Постановка задачи синтеза оптимальных систем
Задачи оптимального управления движением динамических систем при
случайных возмущениях заключаются в выборе управляющей функции, зависящей от доступных наблюдению величин, доставляющей экстремум средним
значениям некоторых функционалов, определенных на траекториях системы.
Конструирование систем управления, обладающих требуемыми свойствами,
является основной задачей теории управления.
В системах стабилизации необходимо поддерживать заданный режим
работы системы. Как было показано выше, если на систему действует случайное воздействие, то в установившемся режиме рассогласование также будет
случайным процессом. Поэтому при синтезе регулятора рассогласование
между командным сигналом и регулируемой переменной должно быть минимальным.
Для повышения точности работы САУ используются различные постановки задач и подходы к фильтрации случайных процессов и синтезу регуляторов, к которым относятся следующие задачи.
Задача 1. Задача оптимальной фильтрации. Требуется построить
фильтр для выделения полезного сигнала из его смеси со случайной помехой
так, чтобы дисперсия ошибки между полезным сигналом и его оценкой была
минимальной.
Задача 2. Оптимизационная задача управления. Требуется выбрать регулятор САУ так, чтобы обеспечить минимальное в статистическом смысле
рассогласование, то есть добиться минимального значения дисперсии сигнала
рассогласования.
Задача 3. Задача гарантирующего управления. Требуется выбрать регулятор САУ так, чтобы дисперсия рассогласования не превышала заданное значение при всех возможных случайных возмущениях.
Задача 4. Минимаксная задача управления. Требуется выбрать регулятор
184
САУ так, чтобы обеспечить минимальное в статистическом смысле рассогласование в наихудшем случае.
Задача оптимальной фильтрации частотным методом
Рассмотрим задачу оптимальной фильтрации, когда при измерениях полезным является случайный сигнал X (t ) , на который накладывается помеха –
случайный сигнал V (t ) .
Предполагается, что помеха и полезный сигнал независимые стационарные случайные сигналы; известны спектральные плотности полезного сигнала
S X* ( ) и помехи SV* ( ) .
Требуется построить оптимальный фильтр для выделения полезного
сигнала c передаточной функцией W ( p) (рис. 63), на вход которого поступает
сигнал Y (t )  X (t )  V (t ) , чтобы дисперсия ошибки E (t )  Xˆ (t )  X (t ) между
оценкой полезного сигнала Xˆ (t ) и полезным сигналом X (t ) была минимальной.
Рис. 63. Структурная схемы задачи фильтрации
В соответствии со структурной схемой рис. 63 запишем выражение для
ошибки E (t ) :
E  Xˆ  X  W ( p)  X  V   X  W ( p)  1 X  W ( p)V ,
у которой математическое ожидание
mE  M W ( p)  1 X  W ( p)V   W ( p)  1 mX  W ( p)mV .
При этом выражение для центрированной величины ошибки имеет вид
185
E  E  mE  W ( p)  1 X  W ( p)V  W ( p)  1 mX  W ( p)mV 
 W ( p)  1 X  W ( p)V  E X  EV ,
где EX  W ( p)  1 X , EV  W ( p)V .
Поскольку случайные сигналы X (t ) и V (t ) независимые, то корреляционная функция сигнала E (t ) будет равна


k E ( )  K E (t1 , t2 )  M  E (t1 ) E (t2 )   M  E X (t1 )  EV (t1 )  E X (t2 )  EV (t2 )   


 M  E X (t1 ) E X (t2 )  EV (t1 ) EV (t2 )  E X (t1 ) EV (t2 )  EV (t1 ) E X (t 2 )  
 M  E X (t1 ) E X (t2 )   M  EV (t1 ) EV (t2 )   k EX ( )  k EV ( ).
Тогда спектральную плотность S E* ( ) случайного сигнала E (t ) можно
найти по корреляционной функции k E ( ) с помощью формулы (132):
1
S E ( ) 
2
*
1

2

 kE ( )e
 j


 kE

( )e
X
1
d 
2
 j
1
d 
2

  kE


X

( )  k EV ( ) e  j d 
 kE

 j
*
*
(

)
e
d


S
(

)

S
( ).
V
E
E
X
V
Спектральные плотности
1
S E ( ) 
X
2
*
1
S E ( ) 
V
2
*

 kE


 kE

( )e j d ,
X
V
( )e j d ,
можно найти по спектральным плотностях полезного сигнала S X* ( ) и помехи
SV* ( ) .
Спектральная плотность S *E ( ) определяется по формуле (161) с учеX
том выражения EX  W ( p)  1 X и обозначений p  j ,  2   p 2 :
S *E ( ) | W ( j )  1|2 S *X ( )  W ( j )  1W (  j )  1 S *X ( ) 
X
 W ( p)  1W ( p)  1 S *X ( p).
186
Аналогично определяется спектральная плотность S *E ( ) с учетом выV
ражения EV  W ( p)V :
S *E ( ) | W ( j ) |2 SV* ()  W ( j)W ( j)S *X ()  W ( p)W ( p) SV* ( p) .
V
Тогда получим выражение для суммы:
S E* ( p)  W ( p)  1W ( p)  1 S X* ( p)  W ( p)W (  p) SV* ( p) 
 W ( p)W ( p)  S X* ( p)  SV* ( p)   W ( p)  W ( p)  S X* ( p)  S X* ( p).
(211)
Для спектральной плотности S X* ( p)  SV* ( p) смеси сигналов X (t ) и V (t )
построим формирующий фильтр с использованием спектральной факторизации в виде
S X* ( p)  SV* ( p)  ( p)( p) ,
(212)
где нули и полюса формирующего фильтра  ( p ) расположены в левой полуплоскости.
Тогда выражение (211) с учетом (212) можно переписать в виде:

S X* ( p) 
S X* ( p)  *
S ( p)   W ( p) ( p) 
 W (  p)  (  p) 
  S0 ( p) ,
 ( p) 
 ( p) 

*
E
(213)
где
S X* ( p) S X* ( p)
S X* ( p) SV* ( p)
,
S ( p)  S ( p) 

( p)( p) S X* ( p)  SV* ( p)
*
0
*
X
что проверяется раскрытием скобок выражения (213).
Выражение (213) является суммой двух положительных слагаемых, причем второе слагаемое S0* ( p) не зависит от выбора формирующего фильтра
 ( p ) . Отсюда следует, что минимальная спектральная плотность S E* ( p ) достигается при выполнении условия
S X* ( p )
W ( p) ( p) 
0,
 ( p)
из которого найдем выражение передаточной функции оптимального фильтра Винера
187
S X* ( p)
S X* ( p)
.
Wопт ( p) 

( p)( p) S X* ( p)  SV* ( p)
(214)
В практических задачах обычно полезный сигнал имеет спектр S X* ( ) в
области низких частот, а помеха имеет спектр SV* ( ) в области высоких частот.
Потому в области низких частот выполняется неравенство S X* ( )
SV* ( ) , то
есть в области низких частот полезный сигнал мощнее сигнала помехи. При
этом усиление фильтра (214) стремится к единице и помеху можно не учитывать. В области высоких частот, когда SV* ( )
S X* ( ) и сигнал помехи мощнее
полезного сигнала, коэффициент усиления фильтра (214) стремится к нулю и
тем самым подавляется влияние помехи.
Для определения дисперсии ошибки DE надо сначала подставить формулу (214) в выражение (213), тогда получим S E* ( p)  S0* ( p) . Затем, учитывая,
что при p  j выполняется равенство  2   p 2 , воспользуемся формулой
(130):

DE 


 )d 
S E* (

 S0 ( )d .
*
(215)

Следует отметить, что передаточная функция фильтра (214) содержит
левые и правые полюса, поэтому данный фильтр физически нереализуем.
Для формирования физически реализуемого фильтра близкого к оптимальному фильтру (214) необходимо провести сепарацию выражения
S X* ( p)  S X* ( p)   S X* ( p) 


,
 ( p)   ( p)     ( p)  
 S X* ( p ) 
где 
 – содержит полюсы только в левой полуплоскости,
  ( p)  
(216)
 S X* ( p ) 
  ( p) 


– содержит полюсы только в правой полуплоскости и степень числителя
должна быть меньше степени знаменателя.
Тогда передаточная функция оптимального физически реализуемого
фильтр Винера определяется по формуле
188
1  S X* ( p) 
WВ ( p) 
.
 ( p)   ( p)  
(217)
Для определения дисперсии ошибки DE необходимо подставить формулу
(217) в выражение (211) и затем воспользоваться формулой

DE 
 SE ( )d .
*
(218)

Дисперсию DE можно вычислить в MatLab с помощью команды
norm(H), которая вычисляет || Н ||2 - норму передаточной матрицы H ( p) :
 1
|| Н ||2  
 2
1/2

T
tr
H
(

j

)
H
(
j

)
d

 ,






где tr   – след матрицы.
Для этого спектральную плотность S E* ( ) с помощью факторизации
представим в виде
S E* ( p)  H ( p) H ( p) .
Тогда формулу (218) можно записать в виде:

DE 


 )d  2 || Н ||2 
S E* (
2
 1
 2 
 2


 H ( j ) H ( j )d  ,


(218’)
и воспользоваться командой norm(H).
Пример 38. Пусть задана структурная схема системы, представленная
на рис. 64.
Рис. 64. Структурная схемы системы с формирующим фильтром
Полезный сигнал X (t ) формируется на выходе передаточной функции
189
1
, на вход которой поступает случайный сигнал W (t ) в виде беp 1
W0 ( p) 
лого шума со спектральной плотностью SW* ( )  SW . При этом спектральная
плотность полезного сигнала
S *X ( ) | W0 ( j ) |2 SW* ( ) 
1
S
 2W .
  1   1   1
Измеряемый выход Y (t )  X (t )  V (t ) содержит помеху V (t ) в виде белого шума со спектральной плотностью SV* ( )  SV .
Требуется определить передаточные функции оптимального Wопт ( p ) и
физически реализуемого фильтр Винера WВ ( p ) и соответствующие им значения дисперсии ошибки DE .
Решение: По формуле (214) сначала найдем оптимальный фильтр Винера
SW
S * ( p)
SW
k
 p2  1
Wопт ( p)  * X *



,
2
2
SW
S X ( p)  SV ( p)

p

1

k
S

p

1

S
 W
V 
 SV
2
 p 1
где k  SW / SV . Полагая p  j найдем соответствующее значение дисперсии

DE 

 )d 
S E* (





S *X ( ) SV* ( )
 )d   *
d 
*
S
(

)

S
(

)
V
 X
S0* (


1
SW
SW    
SW 
  
 kSV  2
d 
arctg 

.
  

2
2


1

k
1

k
1

k
1

k
1

k






При выполнении условия SW  SV  S0 , k  1 получим значение дисперсии DE 
S0
.
2
Для определения физически реализуемого фильтра Винера сначала
найдем выражение для  ( p) из равенства:
S *X
( ) 


SW  SV  p 2  1
SW
 p2  1  k
)  2
 SV 

S
  ( p) ( p) ,
V
 p 1
 p2  1
 p2  1
SV* (
190
из которого следует
( p)  SV 
p  1 k
,
p 1
 ( p)  SV 
 p  1 k
.
 p 1
Выполним операцию сепарации по формуле (216):
S X* ( p)
S
 p 1
SW
c
c2
 2W 

 1 
,
( p)  p  1 SV  p  1  k
p 1  p  1 k
SV ( p  1)  p  1  k

где c1  c2 


SW
SV 1  1  k



. Отсюда, учитывая устойчивый полюс p1  1
первого слагаемого в разложении, получим выражение
 S X* ( p) 
SW
1

.
  ( p)  
SV 1  1  k p  1




Тогда по формуле (217) определяется физически реализуемый фильтр
Винера:
1  S X* ( p) 
1
p 1
SW
1
WВ ( p) 







 ( p)   ( p)  
p

1
SV p  1  k
SV 1  1  k





k
1

.
1 1 k p  1 k
При этом с учетом равенств
WВ ( p)  1 
k
1
p 1
,

1  
1 1 k p  1 k
p  1 k
WВ ( p)  1  
 p 1
,
 p  1 k
p 1
 p 1
 p2  1
,


WВ ( p)  1WВ ( p)  1 
2
p  1 k  p  1 k  p 1 k
WВ ( p)WВ ( p) 
1 
k2
1 k

 p
2
1
1 k

  p 
1
1 k

 1 
k2
1 k

2

1
 p 1 k
2
получим выражение
191
S E* ( p)  WВ ( p)  1WВ ( p)  1 S X* ( p)  WВ ( p )WВ ( p) SV* ( p) 

 p
 p
где c  SW 
2
2
 1
1 k 
1 

k 2 SV
1 k
SW
k2

  p2  1 1  1  k


2

2

SV
c

,
2
2

p

1

k

p

1

k

 

, из которого следует выражение
S E* ( ) 
с

 2  1  k 
Тогда значение дисперсии DE определяется по формуле (218):

DE 


1
с
.
d 


1

k
1

k

 )d  с 
S E* (

2
Отсюда следует, что дисперсия ошибки DE для физически реализуемого
фильтра Винера увеличивается по сравнению с дисперсией оптимального
фильтра Винера на коэффициент
c
k
1
SW
1 1 k


2
,
который больше единицы.
При выполнении условия SW  SV  S0 , k  1 получим
c
1
1
k
1 2


2
 1,17 .
Таким образом, при использовании физически реализуемого фильтра
Винера значение дисперсии увеличивается в 1,17 раза или на 17%.
Определение фильтра Винера и вычисление дисперсии DE по формуле
(218’) можно провести с помощью программы, в которой используется подпрограмма factor, приведенная в Приложении 7:
% Программа построения фильтра Винера по спектральным плотностям SX,SV
clc; clear
%---Исходные данные-------------------------------------------s=-tf('p')*tf('p');
SX=1/(s+1); % спектральная плотность полезного сигнала при s=w^2
SV=1;
% спектральная плотность помехи при s=w^2
192
%----Оптимальный физически не реализуемый фильтр---------------disp('Оптимальный фильтр Винера')
Wopt=zpk(minreal(SX/(SX+SV))) % ПФ оптимального фильтр Винера
SE=minreal(SX*SV/(SX+SV));
[num,den,k] =zpkdata(SE,'v');
[pn,pd,kf] = faktor(num,den,k);
H=zpk(pn,pd,kf); % результат факторизации
normH=norm(H);% норма матрицы H(p)
disp('Дисперсия ошибки оптимальнго фильтра Винера')
DE_opt=2*pi*normH^2 % дисперсия ошибки
%----Физически реализуемый фильтр-------------------------------SXV=minreal(SX+SV);
[num,den,k] =zpkdata(SXV,'v');
[pn,pd,kf] = faktor(num,den,k);
Psi=zpk(pn,pd,sqrt(abs(kf))); Psi_=minreal(SXV/Psi);
% Операция сепарации для простых полюсов Ws(p)
Ws=minreal(SX/Psi_);
[As,Bs,Cs,Ds]=ssdata(Ws); nAs=max(size(As));
[U1,J1] = eig(As);
B1=inv(U1)*Bs;
k=0;
for i=1:nAs
if real(J1(i,i))>0
k=k+1; ind(k)=i;
end
end
inds=abs(sort(-ind)); nind=size(inds);
for i=1:nind(2)
J1(inds(i),:)=[]; J1(:,inds(i))=[]; B1(inds(i),:)=[];
U1(:,inds(i))=[];
end
nsys=nAs-nind(2);
sys=ss(J1,B1,eye(nsys),zeros(nsys,1));
Ws1=tf(sys); W1=zpk(minreal(Cs*U1*Ws1));
[num1,den1]=tfdata(W1,'v');
W=minreal(tf(real(num1),real(den1))/Psi);
disp('Физически реализуемый фильтр Винера')
Wf=zpk(W)% ПФ физически реализуемого фильтр Винера
%Вычисление дисперсии ошибки для физически реализуемого фильтра Винера
[nWf,dWf]=tfdata(Wf,'v');
syms p
NWf=poly2sym(nWf,p); DWf=poly2sym(dWf,p);
NWf1=compose(NWf,-p); DWf1=compose(DWf,-p);
Wf1=NWf1/DWf1; [nWs,dWs]=numden(Wf1);
nWs=sym2poly(nWs);dWs=sym2poly(dWs);
Wf_=tf(nWs,dWs);zpk(Wf_);
SEf=minreal((Wf-1)*(Wf_-1)*SX+Wf*Wf_*SV);
[num,den,k] =zpkdata(SEf,'v');
[pn,pd,kf] = faktor(num,den,k);
H=zpk(pn,pd,kf); % результат факторизации
normH=norm(H);% норма матрицы H(p)
disp('Дисперсия ошибки физически реализуемого фильтра Винера')
DE_f=2*pi*normH^2
Результаты выполнения программы совпадают с полученными значениями.
193
Оптимальная фильтрация временным методом пространства состояний
Пусть в некоторой ограниченной области евклидова пространства возмущенное движение управляемой системы в отклонениях от невозмущенного
движения описывается дифференциальным уравнением
dx(t )
 A(t ) x(t )  B(t )u (t )  D(t ) w(t ) ,
dt
y (t )  C (t ) x(t )  v(t ) ,
x(t0 )  x0 ,
(219)
где x (t ) – n - вектор состояния, u(t ) – m - вектор управления принадлежит
классу кусочно-непрерывных функций со значениями из некоторой области U
– m - мерного евклидова пространства, y(t ) – l - вектор измеряемых выходных
координат, w(t ) – p - вектор возмущающих воздействий, v(t ) – l - вектор помех измерения; A(t ), B(t ), C(t ), D(t ) – матрицы с непрерывными и ограниченными элементами для t [t 0 ,  ) .
Предполагается, что возмущение w(t ) и помеха v(t ) являются случайными сигналами W (t ) и V (t ) соответственно. Тогда решением системы (219)
является X (t ) – n-вектор случайных сигналов, который подчиняется уравнению
dX (t )
 A(t ) X (t )  B(t )u (t )  D(t )W (t ) ,
dt
Y (t )  C (t ) X (t )  V (t ) ,
где
X0
X (t0 )  X 0 ,
(220)
– вектор случайных величин с математическим ожиданием
M  X (t0 )  mX 0 и матрицей корреляционных моментов

M  X 0  mX 0

 X 0  mX 
T
0
  M X X T   K
 0 0
0.



(221)
Будем полагать, что X 0 , W (t ) , V (t ) взаимно независимы, причем W (t ) ,
V (t ) являются сигналами белого шума:
M W (t )  0 , M W ( )W (t )   Q( ) (t   ) ,
T
(222)
194
M V (t )  0 , M V ( )V (t )   R( ) (t   ) ,
T
(223)
где Q( )  0 – неотрицательно определенная матрица, R( )  0 – положительно определенная матрица.
Для определения оценки Xˆ (t ) будем использовать уравнение фильтра
вида:
dXˆ (t )
 F (t ) Xˆ (t )  B(t )u (t )  L(t )Y (t ) ,
dt
Xˆ (t0 )  Xˆ 0 ,
(224)
где подлежат определению матрицы F (t ) , L(t ) и вектор начального условия
X̂ 0 так, чтобы оценка Xˆ (t ) была несмещенной и оптимальной.
Условие несмещенности оценки означает, что выполняется равенство
mE (t )  M  E (t )  0 .
(225)
Найдем условие выполнения равенства (225). Для этого запишем уравнение для ошибки E (t )  X (t )  Xˆ (t ) , вычитая из уравнения (220) уравнение
оценки (225):
dX (t ) dXˆ (t )

 A(t ) X (t )  D(t )W (t )  F (t ) Xˆ (t )  L(t )  C (t ) X (t )  V (t )  ,
dt
dt
или
dE (t )
  A(t )  L(t )C (t )  X (t )  D(t )W (t )  F (t ) Xˆ (t )  L(t )V (t ) .
dt
Отсюда, полагая F (t )  A(t )  L(t )C (t ) , получим уравнение
dE (t )
 F (t ) E (t )  D(t )W (t )  L(t )V (t )
dt
(226)
с начальным условием E (t0 )  X 0  Xˆ 0 .
Применим операцию математического ожидания для уравнения (226),
тогда получим уравнение
dmE (t )
 F (t )mE (t )  D(t )mW (t )  L(t )mV (t ) .
dt
(227)
с начальным условием mE (t0 )  mX 0  mXˆ . Полагая Xˆ 0  mX 0 и учитывая, что
0
195
mW (t )  0 , mV (t )  0 , получим mXˆ  mX 0 , то есть mE (t0 )  0 .
0
Тогда с учетом условий (222), (223) уравнение (227) имеет решение
mE (t )  0 , тем самым условие несмещенности оценки выполняется. При этом
T
матрица K E (t )  M  E (t ) ET (t )   M  E (t )  mE (t )  E (t )  mE (t )   является


корреляционной матрицей с начальным условием





T
K E (t0 )  M  X (t0 )  Xˆ (t0 ) X (t0 )  Xˆ (t0 )   M  X (t0 )  mX 0 X (t0 )  mX 0




T

 K0 .
Таким образом, найдены структура матрицы F (t ) и начальный вектор
X̂ 0 . Остается определить неизвестную матрицу K E (t ) . Для выполнения условия оптимальности оценки будем ее искать из условия минимума критерия качества:




J (t )  M  tr E (t ) ET (t )   tr M  E (t ) E T (t )   tr  K E (t )  ,


(228)
где tr   – обозначение следа матрицы, равного сумме диагональных элементов матрицы.
Для определения условия минимума критерия (228) запишем сначала
уравнение для матрицы K E (t ) с учетом уравнения (226) аналогично тому, как
было получено уравнение (184):
T
 dE (t ) T
dK E (t ) dM  E (t ) E (t ) 
dE T (t ) 

M
E (t )  E (t )

dt
dt
dt
dt


T
 M  F (t ) E (t )  D(t )W (t )  L(t )V (t )  E T (t )  E (t )  F (t ) E (t )  D(t )W (t )  L(t )V (t )   


 F (t ) M  E (t ) E T (t )   M  E (t ) E T (t )  F T (t )  D(t ) M W (t ) E T (t )  
 M  E (t )W T (t )  DT (t )  L(t ) M V (t ) E T (t )   M  E (t )V T (t )  LT (t ).
Запишем решение уравнения (226) для случайного вектора E (t ) через
переходную матрицу (t , ) :
t
E (t )  (t , t0 ) E (t0 )   (t , )  D( )W ( )  L( )V ( )  d ,
(229)
t0
196
которая является решением уравнения

(t , )  F (t )(t , ) ,  ( , )  I n .
t
Тогда найдем выражение для математического ожидания
t



T
T





M  E (t )W (t )   M (t , t0 ) E (t0 )   (t , )  D( )W ( )  L( )V ( )  d W (t )  



t0



t
t
t0
t0
 (t , t0 )M  E (t0 )W T (t )    (t , )D( ) M W ( )W T (t )  d   (t , )L( ) M V ( )W T (t )  d .
Учитывая, что в силу взаимной независимости E (t0 ) , W (t ) , V (t ) выполняются равенства
M  E (t0 )W T (t )   0 , M V ( )W T (t )   0 ,
получим с учетом (222) выражение
t
M  E (t )W T (t )    (t , )D( )Q( ) (t   )d .
t0
По свойству функции  (t   ) , согласно рис. 57, получим выражение
1
M  E (t )W T (t )   D(t )Q(t ) .
2
Аналогично находим выражение
t



M  E (t )V (t )   M  (t , t0 ) E (t0 )   (t , )  D( )W ( )  L( )V ( )  d V T (t )  



t0



T
t
 (t , t0 ) M  E (t0 )V T (t )    (t , )D( ) M W ( )V T (t )  d 
t0
t
t
1
  (t , )L( ) M V ( )V (t )  d    (t , )L( ) R( ) (t   ) d   L(t ) R(t ).
2
t
t
T
0
0
Очевидно, что здесь выполняются равенства
1
M W (t ) ET (t )   Q(t ) DT (t ) ,
2
197
1
M V (t ) ET (t )    R(t ) LT (t ) ,
2
с учетом которых получим уравнение
dK E (t )
1
 1

 F (t ) K E (t )  K E (t ) F T (t )  D(t )  Q(t ) DT (t )    D(t )Q(t )  DT (t ) 
dt
2
 2

 1
  1

 L(t )   R(t ) LT (t )     L(t ) R(t )  LT (t ) 
 2
  2

 F (t ) K E (t )  K E (t ) F T (t )  D(t )Q(t ) DT (t )  L(t ) R(t ) LT (t ).
С учетом выражения матрицы F (t )  A(t )  L(t )C (t ) получим уравнение
dK E (t )
T
  A(t )  L(t )C (t )  K E (t )  K E (t )  A(t )  L(t )C (t )  
dt
+D(t )Q(t ) DT (t )  L(t ) R(t ) LT (t ) 
 A(t ) K E (t )  K E (t ) AT (t )+D(t )Q(t ) DT (t ) 
(230)
 L(t ) R(t ) L (t )  L(t )C (t ) K E (t )  K E (t )C (t ) L (t ).
T
T
T
Для последних слагаемых уравнения (230) используем тождество

 
LRLT  LCK E  K ECT LT  L  K EC T R 1 R L  K EC T R 1

T
 K EC T R 1CK E ,
которое проверяется раскрытие скобок в правой части равенства.
В результате уравнение (230) принимает вид
dK E (t )
 A(t ) K E (t )  K E (t ) AT (t )+D(t )Q(t ) DT (t )  K E (t )C T (t ) R 1(t )C (t ) K E (t ) 
dt
(231)
T
T
1
T
1
 L(t )  K E (t )C (t ) R (t ) R(t ) L(t )  K E (t )C (t ) R (t ) .

 

Наряду с уравнением (231) рассмотрим уравнение
dK E* (t )
 A(t ) K E* (t )  K E* (t ) AT (t )+D(t )Q(t ) DT (t )  K E* (t )C T (t ) R 1(t )C (t ) K E* (t ) ,
dt
(232)
с начальным условием K E* (t0 )  K E (t0 ) .
Покажем, что здесь выполняется неравенство K E (t )  K E* (t ) при t  t0 .
Введем обозначения K E (t )  K E (t )  K E* (t ) , L(t )  L(t )  K E (t )C T (t ) R 1(t ) ,
L* (t )  K E* (t )C T (t ) R 1 (t ) и вычтем из уравнения (231) и уравнения (232). Тогда,
198
опуская для простоты обозначений, параметр t получим уравнение
d K E
 AK E  K E AT  K E*  K E C T R 1C K E*  K E 
dt
 K E* C T R 1CK E*  LRLT 





 A  K E* C T R 1C K E  K E A  K E* C T R 1C


T

 K EC T R 1C K E  LRLT 
T
1
1




  A  L*С  K E C T R 1C  K E  K E  A  L*С  K EC T R 1C   LRLT
2
2




при начальном условии K E (t0 )  0
1
С учетом обозначения A(t )  A(t )  L* (t )С (t )  K E (t )C T (t ) R 1(t )C (t ) запи2
шем в неявной форме решение уравнения
t
K E (t )   (t , )L( ) R( )LT ( )T (t , )d ,
(233)
t0
где переходная матрица (t , ) является решением уравнения

 (t , )  A(t )(t , ) , ( , )  I n .
t
Поскольку решение K E (t )  0 , то тем самым выполняется неравенство
K E (t )  K E* (t ) при t  t0 . В этом случае также справедливо неравенство


J (t )  tr  K E (t )   tr K E* (t ) ,
из которого следует, что при любой матрице L(t ) минимум критерия J (t ) достигается на решении K E* (t ) уравнения (232).
Из решения (233) следует, что при L(t )  0 решение K E (t )  0 , то есть
K E (t )  K E* (t ) и, следовательно, матрица L(t )  K E* (t )C T (t ) R 1(t ) обеспечивает
минимум критерия J (t ) .
Таким образом, уравнение фильтра Калмана-Бьюси, согласно уравнению (224), можно записать в виде
dXˆ (t )
 A(t ) Xˆ (t )  B(t )u (t )  L(t ) Y (t )  C (t ) Xˆ (t ) ,
dt


Xˆ (t0 )  m X 0 ,
(234)
199
где матрица коэффициентов фильтра
L(t )  K E (t )C T (t ) R 1(t ) ,
(235)
зависит от корреляционной матрицы K E (t ) , являющейся решением уравнения
dK E (t )
 A(t ) K E (t )  K E (t ) AT (t )+D(t )Q(t ) DT (t )  K E (t )C T (t ) R 1(t )C (t ) K E (t ) , (236)
dt
с начальным условием K E (t0 )  K 0 .
Замечание 1. Отметим, что согласно уравнению (231), минимум крите-


рия min J (t )  tr K E* (t ) здесь достигается при
L (t )
d
dJ (t )
 dK (t ) 
,
min tr  E   min tr  K E (t )   min
L (t )
L (t ) dt
 dt  L (t ) dt
то есть сводится к задаче оптимального демпфирования.
Замечание 2. В работах Калмана приведены условия асимптотической
устойчивости фильтра (234)-(236) при выполнении условий наблюдаемости
пары  C (t ), A(t )  и управляемости пары  A(t ), D(t )  , проверка выполнения которых является сложной задачей. Поэтому проверку устойчивости фильтра
можно проводить с помощью численного моделирования системы (234)-(236)
при u (t )  0 , Y (t )  0 . Если при этом, начиная с некоторого допустимого интервала времени, норма вектора || Xˆ (t ) || c , где c  0 – заданная малая константа, то можно считать фильтр асимптотически устойчивым.
Замечание 3. В случае стационарной системы (220), постоянных матриц
возмущения Q  0 и помех измерения R  0 , из уравнения (236) получим уравнение
dK E (t )
 AK E (t )  K E (t ) AT +DQDT  K E (t )C T R 1CK E (t ) ,
dt
(237)
или
dK E (t )
T
  A  L(t )C  K E (t )  K E (t )  A  L(t )C  +DQDT  K E (t )C T R 1CK E (t ) , (238)
dt
и уравнение фильтра (234) в виде
200
dXˆ (t )
  A  L(t )C  Xˆ (t )  Bu (t )  L(t )Y (t ) ,
dt
Xˆ (t0 )  m X 0 ,
(239)
где L(t )  K E (t )C T R 1 .
В установившемся режиме при
dK E (t )
 0 из уравнения (237) следует
dt
матричное алгебраическое уравнение Риккати:
AKЕуст  KЕуст AT +DQDT  KЕустCT R 1CK Еуст  0 ,
(240)
и соответственно матрица Lуст  KЕустCT R1 . При этом уравнение фильтра
(239) имеет вид
dXˆ (t )
 A  LустС Xˆ (t )  Bu (t )  LустY (t ) ,
dt


Xˆ (t0 )  m X 0 ,
(241)
и совпадает с наблюдателем Люэнбергера, в котором матрица Lуст обычно
определяется по произвольно заданным собственным значениям матрицы
A  LустС .
Для устойчивости фильтра (241) необходимо, чтобы матрица A  LустC
была устойчивой, что выполняется, если решением уравнения (240) является
ограниченная положительно определенная матрица K Еуст  0 . В свою очередь
данное условие выполняется при наблюдаемости пары  C , A и управляемости
пары  A, D  .
Пара  C , A наблюдаемая, если ранг матрицы r  N  , где
N  CT

AT CT


T
An1 CT  ,

равен порядку системы n.
Пара  A, D  управляемая, если ранг матрицы r U  , где
U   D AD
An1D  ,
равен порядку системы n.
Наблюдаемость и управляемость проверяется с помощью функций
201
rank(obsv(A,C)) и rank(ctrb(A,D)).
Решение уравнения (241) находится для указанных матриц с помощью
функции
[KE] = care(A',C',D*Q*D',R,[],eye(n))
Таким образом, для стационарной системы фильтр Калмана-Бьюси в отличие от наблюдателя Люэнбергера имеет нестационарную матрицу L(t ) , которая зависит от решения уравнения (238) и в установившемся режиме от
уравнения (241).
Замечание 4. Покажем, что в случае устойчивости матрицы A  LустC
фильтр (239) является асимптотически устойчивым.
Запишем уравнение для отклонения K (t )  K E (t )  K Еуст , вычитая из
уравнения (237) уравнение (240), тогда учитывая, что выполняется равенство
  K E  K  C T R 1C  K E  K   K E C T R 1CK E 
  K E C T R 1C K  KC T R 1CK E  KC T R 1C K ,
получим уравнение
d K (t )
T
 Fуст K (t )  K (t ) Fуст
 K (t )C T R 1C K (t ) ,
dt
(242)
где Fуст  A  LустС , с начальным условием K (t0 )  K E (t0 )  K Еуст при
| K (t0 ) | 0 .
Домножим уравнение (242) слева и справа на матрицу K 1 (t ) , тогда с
учетом равенства
d K (t )K 1 (t ) d K (t )
d K 1(t )

K 1 (t )  K (t )
 0,
dt
dt
dt
или
d K 1 (t )
d K (t )
 K 1 (t )
K 1 (t ) ,
dt
dt
получим линейное уравнение
d K 1 (t )
T
  Fуст
K 1 (t )  K 1 (t ) Fуст  C T R 1C ,
dt
202
которое имеет решение
1
K (t )  e
T
 Fуст
 t t0 
1
K (t0 )e
 Fуст  t t0 
t
 e
T
 Fуст
t   T
C R 1Ce
 Fуст  t  
d ,
(243)
t0
где матрица  Fуст неустойчивая, поскольку ее собственные значения имеют
вещественные части с обратным знаком собственных значений устойчивой
матрицы Fуст  A  LустС .
Рассмотрим случай K (t0 )  0 , при котором первое слагаемое решения
(243) при K 1 (t0 )  0 и t   неограниченно возрастает, также возрастает
второе слагаемое, а матрица K (t )  0 стремится к нулевой матрице.
Тогда матрица K E (t )  KЕуст  K (t )  0 при t   стремится к установившейся матрице K Еуст , а матрица F (t )  A  L(t )C стремится к устойчивой
матрице Fуст  A  LустС , то есть фильтр (239) является асимптотически устойчивым.
Рассмотрим второй случай, когда K (t0 )  0 . Запишем решение уравнения (242) в неявной форме
K (t )  e
Fуст  t t0 
K (t0 )e
FустT  t t0 
t
 e
Fуст  t  
K ( )C T R 1C K ( )e
FустT  t  
d ,
t0
из которого следует, что решение K (t )  0 .
С другой стороны решение уравнения (238) K E (t )  0 , что следует из неявной формы решения
t
K E (t )  (t , t0 ) K E (t0 ) (t , t0 )   (t , )  DQDT  K E ( )C T R 1CK E ( )  T (t , )d , (244)
T
t0
где переходная матрица (t , ) является решением уравнения
 (t , )
  A  L(t )C   (t , ) ,
t
 ( , )  I n .
Тогда из равенства K E (t )  KЕуст  K (t ) следует, что 0  K E (t )  KЕуст .
203
Ограниченность решения (244) K E (t )  K Еуст при управляемости пары
0n , то есть фильтр
 A, D  возможна только тогда, когда матрица (t , t0 ) t 

(239) асимптотически устойчив при u (t )  0 , Y (t )  0 .
Пример 39. Пусть задана система со структурной схемой, представленной на рис. 65, где на вход объекта с передаточной функцией W0 ( p ) поступает
случайный сигнал W (t ) в виде белого шума. Измеренный выход объекта Y (t )
содержит помеху V (t ) в виде белого шума.
Рис. 65. Структурная схемы системы с фильтром Калмана-Бьюси
Передаточная функция объекта задана в виде
W0 ( p) 
1
,
p 1
которой соответствует дифференциальное уравнение с начальным условием:
dX (t )
  X (t )  W (t ) ,
dt
Y (t )  X (t )  V (t ) ,
X (t0 )  X 0 ,
(246)
где X 0 –случайная величина с математическим ожиданием M  X (t0 )  mX 0 и
корреляционной функцией


2
M  X 0  mX 0   K 0 .


Предполагается, что X 0 , W (t ) , V (t ) взаимно независимы, причем W (t ) ,
V (t ) являются сигналами белого шума:
M W (t )  0 , M W ( )W (t )  Q (t   ) ,
M V (t )  0 , M V ( )V (t )  R (t   ) ,
204
где Q  2 SW и R  2 SV интенсивности белых шумов со спектральными
плотностями SW* ( )  SW и SV* ( )  SV соответственно.
Требуется построить стационарный фильтр Калмана-Бьюси с передаточной функцией WК ( p ) и сравнить его с фильтром Винера WВ ( p ) примера 38, а
также построить нестационарный фильтр Калмана-Бьюси.
Решение: Системе (246) соответствует система (220) при A  1 , B  0 ,
D  1 , С  1. При этом уравнение стационарного фильтра Калмана-Бьюси
(242) имеет вид
dXˆ (t )
 1  Lуст Xˆ (t )  LустY (t ) ,
dt


Xˆ (t0 )  m X 0 ,
(247)
где Lуст  K Еуст R 1 , K Еуст – решение алгебраического уравнения Риккати (241)
в виде квадратного уравнения
2
2KЕуст  Q  K Еуст
R 1  0 ,
или
2
KЕуст
 2RKЕуст  RQ  0 ,
которое имеет положительное решение KЕуст   R  R2  RQ .
Тогда найдем


Lуст  K Еуст R 1   R  R 2  RQ R 1  1  R 1Q  1  1  k  1,
где k  SW / SV , и уравнение стационарного фильтра (247) имеет вид
dXˆ (t )
  1  k Xˆ (t ) 
dt


1  k  1 Y (t ) ,
Xˆ (t0 )  m X 0 ,
которому при t0  0 и нулевом начальном условии Xˆ (0)  0 соответствует передаточная функция
WК ( p) 
1 k 1
,
p  1 k
которая совпадает с передаточной функцией фильтра Винера примера 38
205
WВ ( p) 
k
1

,
1 1 k p  1 k
поскольку выполняется равенство
1 k 1 
k
.
1 1 k
Для построение нестационарного фильтра найдем сначала решение
уравнения (242):
d K (t )
 2 Fуст K (t )  R 1K 2 (t ) ,
dt
где Fуст  A  LустС   1  k .
Воспользуемся формулой (243):
1
K (t )  e
2 Fуст  t t0 
t
1
K (t0 )   e
 1
R 1  2 Fуст t t0  R 1
R d   K (t0 ) 

.
 e

2
F
2
F
уст
уст


2 Fуст  t   1
t0
Тогда решение уравнения (237) можно записать в виде
e уст  0 
K E (t )  K Еуст  K (t )  K Еуст 
.
1
1
R
R
2
F
t

t
K 1 (t0 ) 

e уст  0 
2 Fуст 2 Fуст
2F
t t
(248)
Уравнение нестационарного фильтра имеет вид
dXˆ (t )
 1  K Е (t ) R 1 Xˆ (t )  Bu (t )  K Е (t ) R 1Y (t ) ,
dt


Xˆ (t0 )  m X 0 .
Решение данной задачи для заданных значений Q  100 , R  1 проводится с помощью программы:
% Программа построения нестационарного филтра Калмана-Бьюси
clear;clc
A=-1; D=1; C=1;
Q=100;% дисперсия полезного сигнала
R=1; % дисперсия помехи
R1=inv(R);
Kust=sqrt(R^2+R*Q)-R; Lust=Kust*C'*R1; Fust=A-Lust*C;
h=0.01; tn=10; dK=1;
N=tn/h; K=Kust+dK;X=0; Xn=0; Ka1=1/dK;
V=sqrt(R)*randn(N,1); W=sqrt(Q)*randn(N,1);
for i=1:N
t(i)=h*i;
% Аналитическое решение уравнения Риккати
206
Ka(i)=Kust+exp(2*Fust*t(i))/(Ka1-…
R/(2*Fust)+R/(2*Fust)*exp(2*Fust*t(i)));
% Объект
%W(i)=sin(t(i));
X1=X+h*(A*X+D*W(i));
Y=C*X+V(i);
% Фильтр Калмана
K1=K+h*(A*K+K*A'+D*Q*D'-K*C'*R1*C*K);
% L=K*C'*R1; % нестационарный фильтр
L=Lust;
% стационарный фильтр
Xn1=Xn+h*((A-L*C)*Xn+L*Y);
K11(i)=K;
Xg1(i)=X;
Xgn1(i)=Xn;
K=K1;
X=X1;
Xn=Xn1;
end
figure(1);
plot(t,K11,t,Ka)
title('Cравнение численного и аналитического решения')
xlabel('Время,c');
ylabel('K,Ka');
legend('K','Ka')
grid
figure(2);
plot(t,Xg1,t,Xgn1)
title('Выходы объекта и фильтра')
xlabel('Время,c');
ylabel('X, Xn');
legend('X','Xn')
grid
hold on
figure(3);
plot(t,W,t,V)
title('Полезный сигнал и помеха')
xlabel('Время,c');
ylabel('W, V');
legend('W','V')
grid
Для определения стационарного фильтра Калмана-Бъюси можно использовать подпрограмму kalman, которая для данного примера используется с помощью команд:
Dn=0;Nn=0;
sysn=ss(A,D,C,Dn);%
[kest,Lkust,Kkust] = kalman(sysn,Q,R,Nn);
eig(A-L*C) % проверка устойчивости фильтра
На рис. 66 и рис. 67 представлены процессы выхода объекта и фильтра
для стационарного и нестационарного фильтра соответсвенно.
207
Рис. 66. Процессы выхода объекта и стационарного фильтра
Рис. 67. Процессы выхода объекта и нестационарного фильтра
На рис. 68 представлены процессы изменения корреляционной функции
K E (t ) , построенной аналитически с помощью выражения (248) и численным
интегрированием уравнения (237).
208
Рис. 68. Процессы выхода объекта и нестационарного фильтра
Из полученных результатов моделирования следует, что стационарный
и нестационарный фильтр дают примерно одинаковые результаты оценивания, поскольку корреляционная функция K E (t ) быстро сходится к установившемуся значению K Еуст  9,05 .
Тема 9. Структурный синтез линейных оптимальных систем
Впервые задача синтеза оптимальных структур и их параметров, обеспечивающих наименьшую среднеквадратическую ошибку, была решена
А.Н.Колмогоровым для интерполяции и экстраполяции стационарных случайных последовательностей. Затем Н. Винер обобщил эти результаты на непрерывные случайные процессы и получил решение задачи определения оптимальной передаточной функции САУ.
Рассмотрим решение данной задачи для одномерных линейных стационарных систем, работающих в установившемся режиме при действии стационарных в широком смысле случайных процессов.
На рис. 69 приведена структурная схема, где заданная передаточная
функция W0 ( p ) является эталонной для преобразования полезного случайного
сигнала X (t ) в желаемый сигнал Y0 (t ) . Учитывая, что измеряется сигнал
Z (t )  X (t )  V (t ) , содержащий помеху V (t ) , требуется найти передаточную
209
функцию W ( p) , при которой достигается минимальное значение дисперсии
ошибки E (t )  Y0 (t )  Y (t ) .
Рис. 69. Структурная схема задачи структурного синтеза
Очевидно, что в частном случае при W0 ( p )  1 данная задача совпадает
с задачей оптимальной фильтрации.
Решение задачи будем проводить с помощью весовых функций g 0 (t ) и
g (t ) , являющихся оригиналами передаточных функций W0 ( p ) и W ( p) соответственно.
Тогда для выхода Y (t ) с учетом условия Z (t   )  0 при t    0 справедливо выражение
t


0
0
0
Y (t )   g ( )Z (t   )d   g ( )Z (t   )d   g ( )  X (t   )  V (t   )  d .
Предполагается, что полезный сигнал и помеха имеют математические
ожидания M  X (t )  0 и M V (t )  0 . При этом выполняются равенства

M Y (t )   g ( )M  X (t   )  V (t   )   d  0 ,
0

M Y0 (t )   g 0 ( )M  X (t   )  d  0 .
0
Следовательно, ошибка измерения E (t )  Y0 (t )  Y (t ) является стационарным случайным процессом с математическим ожиданием M  E (t )  0 и
2
дисперсией M  E (t )  .
Выражение для ошибки E (t ) имеет вид:
210

E (t )  Y0 (t )   g ( )Z (t   )d .
0
Найдем выражение для квадрата ошибки в эквивалентном виде:





E (t )   Y0 (t )   g ( )Z (t   )d  Y0 (t )   g ( s)Z (t  s )ds  .
0
0



2
Раскрывая скобки получим



0
0
E (t )  Y (t )  2Y0 (t )  g ( )Z (t   )d   g ( )Z (t   )d  g ( s)Z (t  s )ds 
2
2
0
0


0
0 0
 Y02 (t )  2 g ( )Y0 (t ) Z (t   )d   g ( )g ( s) Z (t   ) Z (t  s)d ds.
Для полученного выражения найдем математическое ожидание

M  E (t )   M Y (t )   2 g ( )M Y0 (t ) Z (t   )  d 
2
2
0
0

  g ( )g ( s ) M  Z (t   ) Z (t  s )  d ds.
0 0
Для стационарных случайных процессов справедливы выражения:
M Y02 (t )   M Y0 (t )Y0 (t )  kY0 (t  t )  kY0 (0) ,
M Y0 (t ) Z (t   )   kY0 Z  t  (t   )   kY0Z ( ) ,
M  Z (t   )Z (t  s)  kZ  (t  s)  (t   )   kZ (  s) ,
которые могут быть найдены по известным статистическим характеристикам.
Тогда получим выражение


M  E (t )   kY0 (0)  2  g ( )kY0 Z ( )d   g ( )g ( s) k Z (  s) d ds.
2
0
(249)
0 0
2
Будем искать минимум M  E (t )  на множестве возможных значений
g (t ) . Для этого запишем g (t )  g опт (t )  g (t ) , g опт (t ) – некоторая искомая оптимальная функция, g (t ) – произвольная функция,  – некоторое число. Тогда, если подставить g (t )  g опт (t )  g (t ) в выражение (249), то минимум
211
M  E 2 (t )  при g (t )  0 будет достигаться для   0 .
Выражение (249) при указанной подстановки имеет вид:

M  E (t )   kY0 (0)  2   g опт ( )  g ( ) kY0Z ( )d 
2
0
(250)

   g опт ( )  g ( )  g опт ( s)  g ( s)  k Z (  s)d ds.
0 0
С учетом взаимной замены обозначений переменных  и s , а также равенства kZ ( s   )  k Z (  s ) справедливо равенство

 g
0 0

опт
( )g ( s )k Z (  s)d ds   g опт ( s )g ( )k Z (  s)d ds .
0 0
Тогда выражение (250) можно записать в виде
M  E 2 (t )   a  2b  c 2 ,
(251)
где приняты обозначения


0
0 0
a  kY0 (0)  2  g опт ( )kY0 Z ( )d   g опт ( ) g опт ( s)k Z (  s)d ds ,


0
0 0
b    g ( )kY0 Z ( )d   g опт ( s )g ( )k Z (  s)d ds ,

c    g ( )g ( s )k Z (  s )d ds .
0 0
Таким образом, выражение (251) является функцией параметра  , для
которого запишем условие экстремума

M  E 2 (t )   2b  2c  0 .

(252)
из которого найдем
b
 .
c
2
Поскольку минимум M  E (t )  достигается при   0 , то условием минимума
является равенство b  0 или уравнение
212


0
0 0
  g ( )kY0 Z ( )d   g опт ( s ) g ( )k Z (  s)d ds  0 ,
которое можно переписать в виде



g
(

)
g
(
s
)
k
(


s
)
ds

k
(

)
  опт
d  0 .
Z
Y0 Z
0
0


(253)
Условие минимума (253) выполняется при любой g ( ) только в том
случае, когда подынтегральное выражение в квадратных скобках равно нулю,
то есть выполняется условие

g
опт
( s )kZ (  s )ds  kY0 Z ( )  0 ,
(254)
0
которое называется уравнением Винера-Хопфа.
Условие (254) является необходимым и достаточным условием минимума. Действительно, достаточным условием минимума является условие
2
M  E 2 (t )   2c  0 ,
2

где

 
 

c   g ( )g ( s )k Z (  s )d ds  M   g ( ) Z (t   )d   g ( s ) Z (t  s )ds    0
 0
0 0
 0
 
с учетом равенства kZ (  s)  M  Z (t   )Z (t  s) .
Таким образом, весовая функция g опт (t ) , удовлетворяющая уравнению
(254), является оптимальной.
Решение уравнением Винера-Хопфа частотным методом
Для решения уравнения (254) разработаны различные методы [8]. Рассмотрим частный случай решения уравнения (254) частотным методом в задаче фильтрации при W0 ( p )  1 , Y0 (t )  X (t ) .
Уравнение (254) примет вид

g
опт
( s )k Z (  s )ds  k XZ ( )  0 .
(255)
0
213
Представим спектральную плотность входного сигнала Z (t ) с помощью
факторизации в виде
SZ* ( )  ( j )( j ) | ( j ) |2 ,
где нули и полюса функции  ( p ) расположены в левой полуплоскости.
Будем полагать, что искомая оптимальная система с передаточной функцией Wопт ( p ) состоит из двух последовательно соединенных передаточных
функций
1
и Wопт ( p) , как показано на рис. 70.
 ( p)
Рис. 70. Структурное разбиение оптимальной системы
Тогда спектральная плотность для сигнала N (t ) будет иметь вид
S N* ( ) 
1
1
S * ( ) 
| ( j ) |2  1 ,
2 Z
2
| ( j ) |
| ( j ) |
то есть сигнал N (t ) будет стационарным случайным процессом типа белого
шума с единичной спектральной плотностью и корреляционной функцией
k N ( )  2 ( ) .
В этом случае для исходной постановки задачи вместо входного сигнала Z (t ) можно рассматривать сигнал N (t ) и аналогично уравнению (254)
получим уравнение

g
опт
( s )k N (  s )ds  k XN ( )  0 ,
(256)
0
из которого найдем

k XN ( )   g опт ( s )2 ( )ds  2 g опт ( ) .
0
Осада следует выражение
214
k XN ( )
,
2
g опт ( ) 
(257)
По определению взаимной корреляционной функции

k XN ( ) 
 S XN ( )e
*
j
d ,

где спектральная плотность S *XN ( ) определяется по формуле
S *XN ( ) 
1
S *XZ ( ) .
 ( j )
Тогда получим выражение
k ( ) 1
g опт ( )  XN

2
2


S ( )e
*
XN
j

1
d 
2

*
S XZ
( ) j
 ( j ) e d .
Перейдем к изображению Лапласа

Wопт ( p)   g опт ( )e
 p
0

d   e
0
 p
1
2

*
S XZ
( ) j
  ( j ) e dd .
Введем обозначение
S ( j ) 
1
*
S XZ
( )
( j )
и с учетом замены переменной p  j функцию S ( p ) можно разложить на
сумму элементарных дробей
S ( p)  S ( p)  S ( p) ,
где S  ( p ) имеет полюса в левой полуплоскости комплексного переменного
p , а функция S  ( p ) имеет все полюсы в правой полуплоскости.
Известно, что в этом случае интеграл
F ( ) 
1
2

*
S XZ
( ) j
  ( j ) e d
является оригиналом изображения

 F ( )e
 p
d  S ( p )  Wопт ( p ) .
0
215
Таким образом, когда спектральные плотности являются дробно-рациональными функциями от  , выражение для оптимальной передаточной функции согласно рис. 70 имеет вид
Wопт ( p) 
1
S ( p)
Wопт ( p)  
.
 ( p)
 ( p)
Здесь передаточная функция Wопт ( p ) совпадает с ранее полученной передаточной функцией WВ ( p ) фильтра Винера (217).
Тема 10. Параметрический синтез оптимальных систем
Оптимизация параметров системы частотным методом
На практике часто возникает задача выбора параметров системы для выполнения условия ее наилучшего функционирования. При этом считается, что
структура системы известна и требуется определить ее настраиваемые параметры a1 ,…, an например, коэффициенты регуляторов, путем минимизации заданного критерия оптимальности J  J (a1 ,
, an ) .
Параметры определяются из условия экстремума функции:
J
 0 , i  1, n .
ai
с использованием аналитических или численных методов.
Пример 39. Пусть задана структурная схема следящей системы, приведенная на рис. 71, с передаточной функцией W ( p) 
k
.
p(Tp  1)
Рис. 71. Структурная схема следящей системы
На
вход
системы
подается
стационарный
случайный
сигнал
216
X (t )  Z (t )  N (t ) , где Z (t ) – полезный стационарный случайный сигнал с нулевым средним и со спектральной плотностью
S Z ( ) 
 DZ
,
 ( 2   2 )
N (t ) – помеха в виде белого шума с нулевым средним и спектральной плотностью S N* ( )  S0 .
Требуется найти значение коэффициента k , при котором дисперсия
ошибки E (t )  Z (t )  Y (t ) в установившемся режиме минимальна.
Решение: По структурной схеме рис. 71 найдем зависимость выхода
Y (t ) от входа X (t ) :
Y  WYX ( p) X  WYX ( p)  Z  N  ,
где
WYX ( p) 
W ( p)
k
.
 2
1  W ( p) Tp  p  k
Тогда для ошибки E (t ) найдем зависимость
E  Z  Y  Z  WYX ( p)  Z  N   1  WYX ( p)  Z  WYX ( p) N .
(219)
Поскольку случайные сигналы Z (t ) и N (t ) независимые, то корреляционная функция сигнала E (t ) будет равна сумме корреляционных функций слагаемых в выражении (219). Тогда определяя спектральную плотность S E* ( ) случайного сигнала E (t ) по корреляционной функции согласно формулам (132) и
(161) получим при p  j следующее выражение:
S E* ( p)  1  WYX ( p) 1  WYX ( p)  S Z* ( p)  WYX ( p)WYX ( p) S N* ( p)
(220)
Учитывая, что при p  j выполняется равенство  2   p 2 , воспользуемся формулой (159):
217

DE 

 )d 
S E* (


 1  WYX ( j )
2
 )d 



S Z* (
 WYX ( j )
2
S N* ( )d 


2
2
k
 DZ
k
  1
d  
S0 d  
2
2
2
2
T
(
j

)

j


k

(



)
T
(
j

)

j


k




| j (Tj  1) |2  DZ
2
k
 
d


S0 d .
2
2

2
2
T
(
j

)

j


k
 | T ( j )  j  k |  j  

В полученном выражении первый интеграл ранее был найден в примере
37 по формуле (209). Определение второго интеграла проводится аналогично.
В результате получим
1
DE  2 DX 
2

b( j )
 d ( j )d ( j ) d 

DZ 1  T  kT 
 k S 0 .
T 2    k
Определение коэффициента k проводится из условия экстремума:
DE
 0.
k
Для найденного коэффициента k проверяется достаточное условие минимума дисперсии DE :
 2 DE
 0.
k 2
Для простоты рассмотрим частный случай, когда выполняются условия

k , T
1 . Тогда получим приближенное выражение
DE 
DZ 1  T  kT 
DZ 1  kT 

k

S

 k S0 .
0
T 2    k
k
Из условия экстремума получим уравнение:
DE
D
  Z2   S0  0 ,
k
k
из которого найдем значение коэффициента
k
DZ
.
 S0
218
Параметрический синтез регулятора временным методом пространства состояний
Пусть в некоторой ограниченной области евклидова пространства возмущенное движение управляемой системы в отклонениях от невозмущенного
движения описывается дифференциальным уравнением
x(t )  A(t ) x(t )  B(t )u (t )  D(t ) w(t ) , x(t0 )  x0 ,
y(t )  C (t ) x(t )  v(t ) ,
(221)
где x (t ) – n - вектор состояния, u(t ) – m - вектор управления принадлежит
классу кусочно-непрерывных функций со значениями из некоторой области U
– m - мерного евклидова пространства, y(t ) – l - вектор измеряемых выходных
координат, w(t ) – p - вектор возмущающих воздействий, v(t ) – l - вектор помех измерения; A(t ), B(t ), C(t ), D(t ) – матрицы с непрерывными и ограниченными элементами для t [t 0 ,  ) .
Управление формируется в виде обратной связи
u(t )  G(t ) y(t ) ,
при этом замкнутая система (221) имеет вид
x(t )   A(t )  B(t )G (t )C (t )  x(t )  B(t )G (t )v(t )  D(t ) w(t ) , x(t0 )  x0 ,
y (t )  C (t ) x(t )  v(t ) .
(222)
Предполагается, что возмущение w(t ) и помеха v(t ) являются случайными сигналами W (t ) и V (t ) соответственно. Тогда решением системы (221)
является X (t ) – n-вектор случайных сигналов, который подчиняется уравнению
X (t )   A(t )  B(t )G (t )C (t )  X (t )  B(t )G (t )V (t )  D(t )W (t ) , X (t 0 )  X 0 ,
Y (t )  C (t ) X (t )  V (t ) ,
где
X0
(223)
– вектор случайных величин с математическим ожиданием
M  X (t0 )  mX 0 и матрицей корреляционных моментов
219

M  X 0  mX 0

 X 0  mX 
T
0
  M X X T   K ,
 0 0
0



(224)
где K 0  0 – неотрицательно определенная матрица.
Будем полагать, что X 0 , W (t ) , V (t ) взаимно независимы, причем W (t ) ,
V (t ) являются сигналами белого шума:
M W (t )  0 , M W (t )W (t ')   Q(t ) (t  t ') ,
(225)
M V (t )  0 , M V (t )V (t ')   R(t ) (t  t ') ,
(226)
T
T
где Q(t )  0 – неотрицательно определенная матрица, R(t )  0 – положительно
определенная матрица.
Требуется найти G(t )  m  l матрицу коэффициентов закона управления, при котором достигается минимум критерия качества


J (t )  M  X T (t ) S (t ) X (t )   M  tr S (t ) X (t ) X T (t )  




 tr S (t )M  X (t ) X (t )   tr  S (t ) K X (t )  ,
T
(227)
где K X (t )  M  X (t ) X T (t )  , S (t )  0 – положительно определенная матрица,
tr   – обозначение следа матрицы, равного сумме диагональных элементов.
Поскольку критерий J (t ) в момент времени t не зависит от управления,
а зависит только от решения K X (t ) , то можно искать матрицу коэффициентов
G (t ) только в момент времени t , при которой минимизируется критерий для
момента времени t  t , где t  0 – сколь угодно малая величина. Из очевидного равенства
t t
J (t  t )  J (t ) 

t
dJ ( )
d
d
следует, что необходимым и достаточным условием минимума J (t  t ) является условие минимума производной:
min
G (t )
dJ (t )
.
dt
(228)
220
Запишем сначала уравнение для решения матрицы K X (t ) с учетом уравнения (223) аналогично тому как это было получено уравнение (182):
dK X (t )
T
  A(t )  B(t )G (t )C (t )  K X (t )  K X (t )  A(t )  B (t )G (t )C (t )  
dt
 D(t )Q(t ) D(t )  B (t )G (t ) R(t )G T (t ) BT (t ), K X (t0 )  K 0.
(229)
В частном случае при G (t )  0ml из уравнения (228) следует уравнение
(182).
Теперь запишем выражение для производной с учетом выражения (229):
dJ (t )
dK (t ) 
 dS (t )
 tr 
K X (t )  S (t ) X  
dt
dt 
 dt
 dS (t )
 tr 
K X (t )  S (t )   A(t )  B(t )G (t )C (t )  K X (t ) 
 dt

T
 K X (t )  A(t )  B(t )G (t )C (t )   D(t )Q(t ) D(t )  B(t )G (t ) R(t )G T (t ) BT (t )  


 dS (t )
 tr 
K X (t )  S (t ) A(t ) K X (t )  K X (t ) AT (t )  D(t )Q(t ) D(t )  
 dt



tr  2S (t ) B(t )G (t )C (t ) K X (t )  S (t ) B(t )G (t ) R(t )GT (t ) BT (t )  .
Отсюда следует, что только второе слагаемое зависит от матрицы G (t ) ,
поэтому задача сводится к минимизации выражения
F (t )  tr  2S (t ) B (t )G (t )C (t ) K X (t )  S (t ) B (t )G (t ) R (t )G T (t ) BT (t )  
(230)
 tr  2G (t )C (t ) K X (t ) S (t ) B(t )  G (t ) R(t )GT (t ) BT (t ) S (t ) B(t )  .
Для определения экстремума функции F (t ) необходимо найти ее вариацию
F (t )
линейно
зависящую
от
приращения
G (t )
матрицы
G (t )  G0 (t )  G (t ) относительно экстремального значения G0 (t ) , и затем
приравнять нулю.
В результате подстановки получим
F (t )  tr  2G (t )C (t ) K X (t ) S (t ) B(t )  2G (t ) R(t )G0T (t ) BT (t ) S (t ) B(t )  


 tr  2G (t ) C (t ) K X (t ) S (t ) B(t )  R(t )G0T (t ) BT (t ) S (t ) B(t )   0.


(231)
221
В силу произвольной вариации G (t ) получим уравнение
C (t ) K X (t ) S (t ) B(t )  R(t )G0T (t ) BT (t ) S (t ) B(t )  0 ,
из которого найдем

G0 (t )   BT (t ) S (t ) B(t )

1
BT (t )S (t ) K X (t )C T (t ) R 1(t ) .
(232)
Чтобы убедиться, что найденная матрица обеспечивает минимум функции, необходимо проверить знак второй вариации равной
 2 F (t )  tr  G (t ) R(t )GT (t ) BT (t ) S (t ) B(t )  
 tr  G (t ) R(t ) RT (t )GT (t ) BT (t ) S (t ) B(t )  
 tr  RT (t )GT (t ) BT (t ) S (t ) B(t )G (t ) R(t )  ,
где использовано разложение матрицы R(t )  R(t ) RT (t ) .
Если матрица BT (t ) S (t ) B(t )  0 – положительно определенная, то
 2 F (t )  0 и функция F (t ) и, следовательно, критерий J (t ) достигают мини-
мум при найденной матрице (232).
Таким образом, для определения оптимальной матрицы G (t ) необходимо определить решение уравнения (229) с учетом выражения (232).
Замечание 1. Следует отметить, что найденная матрица обратной связи
(232) не гарантирует устойчивость замкнутой системы, которая должна быть
проверена с помощью моделирования.
222
Практические задания для самостоятельной работы
Рассматривается одномерная САУ, обобщенная структурная схема которой приведена на рис. 72.
Рис. 72. Обобщенная структурная схема одномерной САУ
1. Варианты задания входных сигналов
Вариант1. Командный сигнал g (t )  1(t ) . Возмущение f (t ) – случайный
стационарный процесс со спектральной плотностью S F* ( ) 
 DF
.
 ( 2   2 )
Вариант2. Командный сигнал g (t ) – стационарный случайный сигнал
G (t )  Z (t )  N (t ) , где Z (t ) –полезный стационарный случайный сигнал с нулевым средним и со спектральной плотностью
S Z* ( ) 
 DZ
,
 ( 2   2 )
N (t ) – помеха в виде белого шума с нулевым средним и спектральной плотностью S N* ( )  S0
Возмущение f (t )  0 .
Вариант3. Командный сигнал g (t )  sin(t ) . Возмущение f (t ) – стационарный случайный сигнал с нулевым средним и со спектральной плотностью
S F* ( ) 
 DF
.
 ( 2   2 )
Вариант4. Командный сигнал g (t ) – стационарный случайный сигнал с
223
нулевым средним и со спектральной плотностью
SG* ( ) 
 DG
,
 ( 2   2 )
Возмущение f (t ) – стационарный случайный сигнал с нулевым средним
и со спектральной плотностью
S F* ( ) 
 DF
.
 ( 2   2 )
2. Варианты задания передаточных функций
А. Варианты передаточной функции W1 ( p ) :
1) W1 ( p )  k1 ,
2) W1 ( p) 
k1
,
p
3) W1 ( p) 
k1
,
T1 p  1
4) W1 ( p) 
k1 Tp  1
.
T1 p  1
Б. Варианты передаточных функций W2 ( p ) и W f ( p) :
1) W2 ( p) 
k2
,
p
2) W2 ( p) 
k2
,
T2 p  1
3) W2 ( p ) 
k2
,
p T2 p  1
4) W2 ( p) 
W f ( p)  k f ,
W f ( p)  k f ,
k2 T3 p  1
,
T2 p  1
W f ( p)  k f ,
W f ( p)  k f .
Задание на выполнение работы
1. Полагая, что в момент времени t0  0 на входы системы поступают
224
сигналы g (t ) и f (t ) , найти в установившемся режиме математическое ожидание и дисперсию выходного сигнала y(t ) и ошибки  (t )  g (t )  y (t ) между
командным полезным сигналом g (t ) и сигналом y(t ) .
2. Для выбранных произвольно исходных данных провести моделирования системы в пакете Simulink. Для формирования случайных сигналов с заданной спектральной плотностью SG ( ) и S F ( ) необходимо построить формирующий фильтр. Рекомендуется постоянные времени T , T1 , T2 брать различными в диапазоне от 1 до 2 сек; коэффициенты k1 , k 2 , k f можно принять
равными единице; параметры случайных сигналов принять равными   0,2 ,
  0,4 , DG  0,5 , DF  0,3 . Варьирую параметры на модели можно оценить
их влияние на точность системы.
3. По результатам аналитических и численных результатов сделать вывод о влиянии случайных воздействий на точность системы управления.
Шифр варианта задания
Шифр варианта задания состоит из трех цифр: первая цифра указывает
вариант задания входных сигналов; вторая цифра – вариант передаточной
функции W1 ( p ) из пункта А; третья цифра – вариант передаточных функций
W2 ( p ) и W f ( p) из пункта Б.
225
Список использованных источников
1. Пугачев В.С. Теория случайных функций и ее применение в задачах автоматического управления. – М.: Гос. изд. физ.-мат. лит. 1960. – 883 с.
2. Пугачев В.С. Введение в теорию вероятностей – М.: Наука, 1968. – 368 с.
3. Пугачев В.С., Казаков И.Е., Евланов Л.Г. Основы статистической теории автоматических систем. – М.: Машиностроение, 1974. – 400 с.
4. Пугачев В.С. Основы автоматического управления. – М.: Наука, 1974. –
720с.
5. Воронов А.А. Теория автоматического управления, Ч. 1. Теория линейных
систем автоматического управления /Под ред. А.А. Воронова М.: Высшая
школа, 1986. – 367 с.
6. Вентцель Е.С. Е.С. Теория вероятностей. – М.: Высш. шк., 1999. – 576с.
7. Вентцель Е.С. Теория случайных процессов и ее инженерные приложения.
– М.: Высш. шк., 2000. – 383с.
8. Росин М.Ф., Булыгин В.С. Статистическая динамика и теория эффективности систем управления. М.: Машиностроение, 1981. – 312.
9. Ахмеров М.А., Дегтярев Г.Л. Статистическая динамика автоматических систем: Учебное пособие, Казань, Изд-во Казан. гос. техн. ун-та, 2002.
226
Приложение 1
Свойство дельта-функции
Рассмотрим функцию, состоящую из последовательности дельта-функций c периодом повторения T0 , как показано на рис. П.1.
Рис. П.1
Данную последовательность можно записать в виде:
 T0 (t ) 

  (t  kT0 ) ,
(П.1)
k 0
где  (t ) – дельта-функция, обладающая свойством:
  при t  0,
 (t )  
0 при t  0,

  ( )d  1 .

Функцию  T0 (t ) перепишем в другом виде, для этого перейдем к преобразованию Лапласа в левой и правой части выражения (П.1):
L{ T0 (t )} 


 L{ (t  kT0 )}   e
k 0
 pkT0
k 0

e pT0
e pT0  1
.
Поскольку функция e pT0 представляется степенным рядом, то ее можно
считать полиномом бесконечно большой степени и воспользоваться формулой
разложения, учитывая, что уравнение e pT0  1  0 имеет различные корни
pk   jk0 , 0  2 / T0 , k  0,1,2,... Действительно,
e pkT0  e jk0T0  e
 jk
2
T0
T0
 e jk 2  cos(2 k )  j sin(2 k )  1  0 j  1 .
Тогда с помощью теоремы разложения на простейшие дроби получим
227
e pT0
e pT0  1

k 

k  
ck
1

p  jk 0 T0
k 

k  
1
,
p  jk 0
где коэффициенты ck определяются по формуле [5]
ck 
e pT0
d pT0
(e  1)
dp
 ck 
e pT0
T0e pT0

p  jk0
1
.
T0
p  jk0
С помощью обратного преобразования Лапласа получим выражение
 1 k 
 1 k  jk0t
1
T0 (t )  L1  

e 
T
p

jk

T
0
0 k 
 0 k 
1

1  e j0t  e  j0t  e j 20t  e  j 20t 

T0


1
 1  2cos 0t  2cos 20t 
T0
.
(П.2)
k 
1
  (1  2  cos k0t ).
T0
k 1
На рис. П.2 приведен приближенный график функции  T0 (t ) при T0  10
для двух значений k  1000 (пунктирная линия) и k  10000 (сплошная линия).
Рис. П.2
Таким образом, при стремлении k   получим последовательность
дельта-функций c периодом повторения T0 .
228
Учитывая, что 0  2 / T0 , формулу (П.2) можно переписать в виде
k 
 0 1 k 
1
T0 (t )  1  2  cos k0t  
   cos  k0t 0  .
T0 
2

 k 1
k 1

(П.3)
При T0   следует, что 0  0 , и в формуле (П.3) перейдем к пределу


1 k 
1
 (t )  lim T0 (t )  lim 0  lim   cos  k0t 0    cos t  d ,
0 0
0 0 2
0 0 
0
k 1
где принято обозначение 0
d  , k 0
(П.4)
.
Таким образом, формула (П.4) определяет одну дельта-функцию  (t ) ,
поскольку период T0   .
Формулу (П.4) можно переписать в комплексной форме, полагая
e jt  e jt
.
cos(t ) 
2
Тогда выражение (П.4) будет иметь вид
1
 (t ) 
2

 e
0
jt
e
 jt




1  jt
 jt
d 
  e d   e d  
2  0
0


0
 1
1  jt
jt

  e d   e d  
2  0

 2

e
jt
(П.5)
d .

Отметим, что другим способом выражения (П.4), (П.5) получены в работе [1].
229
Приложение 2
Реакция линейной системы на входной гармонический сигнал
Пусть линейная система имеет один вход и один выход и записывается
дифференциальным уравнением
a0 y ( n ) (t )  a1 y (n1) (t ) 
 b0u ( m) (t )  b1u ( m1) (t ) 
 an y (t ) 
 bmu (t ),
(П.1)
которому при нулевых начальных условиях соответствует уравнение в изображениях Лапласа
Y ( p)  W ( p)U ( p) ,
с передаточной функцией
m( p) b0 p m  b1 p m1 
W ( p) 

d ( p) a0 p n  a1 p n1 
 bm
,
 an
где выполняется условие m  n физической реализуемости системы.
Подадим на вход системы гармонический сигнал u (t )  um cos t , который с помощью формулы Эйлера e jt  cos t  j sin t можно представить в
виде
e jt  e jt
u (t )  um
 u1 (t )  u2 (t ) ,
2
где u1 (t )  ume jt / 2 , u2 (t )  ume  jt / 2 .
Найдем отдельно реакции системы y1 (t ) и y2 (t ) на составляющие u1 (t )
и u2 (t ) . Тогда реакция линейной y(t ) системы на u (t ) равна сумме реакций:
y (t )  y1 (t )  y2 (t ) .
При подаче на вход системы (П.1) сигнала u1 (t ) на выходе возникает пе-
230
реходной процесс y1 (t ) , который содержит переходную и установившуюся составляющие движения. Если переходное движение со временем затухает, то
на выходе системы установятся вынужденные гармонические колебания. Для
их определения установившееся решение будем искать в виде y1 (t )  A1u1 (t ) ,
которое
подставим
в
уравнение
(П.1).
С
учетом
равенств
u1(1) (t )  ( j )ume jt / 2  ( j )u1(t ) , u1(i ) (t )  ( j )i u1(t ) , y1(i ) (t )  ( j )i A1u1 (t ) из
уравнения (П.1) найдем
d ( j ) A1u1 (t )  m( j )u1 (t ) .
Отсюда следует, что A1  m( j ) / d ( j )  W ( j ) .
Таким образом, нашли реакцию
y1 (t )  W ( j )u1 (t ) .
(П.2)
Функцию W ( j ) комплексного переменного можно представить как в
декартовой
W ( j )  U ( )  jV ( ) ,
(П.3)
так и в полярной системе координат
W ( j )  A( )e j ( ) ,
(П.4)
где
A( ) | W ( j ) |
 ( )  arctg
| m( j ) |
 U 2 ( )  V 2 ( ) ,
| d ( j ) |
V ( )
 k , k  0,1,2,..
U ( )
(П.5)
(П.6)
С помощью выражения (П.5) решение y1 (t ) можно записать в виде
y1 (t )  A( )e j ( )ume jt / 2  A( )ume j (t  ( )) / 2 .
Для определения вынужденного решения y2 (t ) на входной сигнал
231
u2 (t )  ume  jt / 2 воспользуемся следующим свойством: в силу равенств
j  j  1 и ( j )( j )  1 все операции над комплексными выражениями будут сохраняться с точностью до знака при замене j на  j . В силу данного
свойства решение y2 (t ) будет иметь вид
y2 (t )  A( )ume  j (t  ( )) / 2 .
Тогда окончательно получим
y(t )  y1(t )  y2 (t )  A( )um
e j (t  ( ))  e j (t  ( ))
 A( )um cos t   ( )  .
2
Таким образом, на выходе системы устанавливаются вынужденные гармонические колебания с амплитудой ym  A( )um , частотой  и фазовым
сдвигом  ( ) относительно входного сигнала. При этом A( ) ,  ( ) зависят
от частоты  и вида передаточной функции W ( p) и не зависят от амплитуды
um входного сигнала.
Графики функций A( ) и  ( ) при изменении 0     называются
амплитудно-частотной характеристикой (АЧХ) и фазовой частотной характеристикой (ФЧХ) соответственно.
График функции W ( j ) , построенный на комплексной плоскости при
изменении 0     , называется амплитудно-фазовой частотной характеристикой (АФЧХ). Очевидно, что по известным характеристикам A( ) и  ( )
можно построить характеристику W ( j ) и наоборот. Следует отметить, что
если вектор W ( j ) на комплексной плоскости вращается против часовой
стрелки, то фазовый угол  ( ) принимает положительное значение, если о часовой стрелке, то отрицательное значение. Это следует из выражения
e j  cos  j sin  , где при малом повороте против часовой стрелки значение
sin   0 , что соответствует   0 .
Отметим, что для сигнала u (t ) энергия сигнала E на интервале времени
232
от 0 до Т определяется по формуле
T
E   u 2 (t )dt ,
(П.7)
0
где P(t )  u 2 (t ) – мгновенная мощность сигнала.
Для сигнала на выходе системы с передаточной функцией W ( p) получим
T
E   y (t )dt A (
2
2
T
)um2
0
2
 cos t   ( )  dt ,
0
где мощность сигнала пропорциональна квадрату амплитуды:
2
2
2
2
.
ym
 A2 ( )um
| W ( j ) |2 um
 W ( j )W ( j )um
(П.8)
При стремлении T   энергия сигнала будет ограниченной, если выполняется условие lim u (t )  0 . Для периодических сигналов это условие не
t 
выполняется, поэтому при T   энергия будет бесконечной.
Также вводится понятие средней мощности сигнала
T
1
Pcp   u 2 (t )dt .
T0
(П.9)
В случае периодических сигналов используется следующая формула
T /2
1
Pcp  lim
u 2 (t )dt .
T  T 
T /2
(П.10)
При этом среднее квадратическое (действующее) значение сигнала определяется по формуле
 u  Pcp .
(П.11)
233
Приложение 3
Способы решения системы линейных дифференциальных уравнений
Рассмотрим систему, представленную уравнениями в переменных пространства состояний:
x  Ax  Bu, x(0)  x0 ,
(П.1)
y  Cx  Du,
где x  n - вектор состояния; u  m - вектор входа, y  l - вектор выхода; матрицы A , B , C , D соответствующих размеров, то с помощью преобразования
Лапласа L{x(t )}  X ( p) , L{x(t )}  pX ( p)  x( 0) , x( 0)  x(0) , L{u (t )}  U ( p)
, для уравнения (П.1) получим
 pEn  A X ( p)  x(0)  BU ( p) .
Отсюда найдем выражение изображения для оригинала x(t ) :
1
1
X ( p)   pEn  A x(0)   pEn  A BU ( p) .
(П.2)
Из уравнения (П.2) при нулевых начальных условиях x(0)  0 получим
изображение вектора выхода
Y ( p)  W ( p)U ( p) .
где W ( p)  l  m - передаточная матрица определяется по формуле
1
W ( p)  C  pEn  A B  D .
(П.3)
Следует отметить, что передаточная функция системы (П.3) инвариантна к преобразованию подобия вектора состояния x .
Действительно, в результате подстановки x  M x , | M | 0 в уравнение
(П.1) и умножения слева на обратную матрицу M 1 получим
x  M 1 AM x  M 1Bu ,
y  CM x  D.
(П.4)
Передаточная функция данной системы в соответствии с формулой (П.3)
будет иметь вид
234

W ( p)  CM pEn  M 1 AM

1

M 1B  D  CM M 1  pEn  A M
1

1
M 1B  D 
1
 CMM 1  pEn  A M M 1B  D  C  pEn  A  B  D  W ( p ) .
Тем самым, передаточные функции исходной и преобразованной системы (П.4) совпадают.
Рассмотрим способы построения решения системы (П.1).
1) Метод преобразования Лапласа
Перепишем уравнение (П.2), используя свойство обратной матрицы:
 pEn  A1 
1
AT ( p) ,
d ( p)
где d ( p ) | pEn  A | – характеристический полином n -го порядка; A( p)  n  n
- матрица алгебраических дополнений, элементы aij ( p ) которой определяются как произведение ( 1)i  j на определитель матрицы, полученной из матрицы pEn  A , вычеркиванием строки i и столбца j . Причем порядок полиномов aij ( p ) не превышает значения n  1 .
Тогда получим
X ( p) 
1
1
AT ( p) x(0) 
AT ( p) BU ( p) .
d ( p)
d ( p)
(П.5)
С помощью обратного преобразования Лапласа по выражению (П.5)
находится оригинал x(t ) .
Также из выражения (П.2) согласно теореме о свертке следует выражение для оригинала
t
x(t )  (t ) x(0)   (t   ) Bu ( )d ,
(П.6)
0
где (t )  L1
 pE  A  называется переходной матрицей, причем первое
1
n
слагаемое определяет свободной движение, а второе слагаемое вынужденное
движение системы (П.1).
235
2) Метод разложения в бесконечный ряд
Из выражения (П.6) следует, что решение x(t ) зависит от матрицы (t )
, которую можно искать независимо от входного сигнала u (t ) . Поэтому в уравнении (П.1) положим u (t )  0 . Найдем решение однородного уравнения
x(t )  Ax(t ),
x(t0 )  x0 ,
(П.7)
полагая t  t0  t . Решение x(t0  t ) разложим в ряд Тейлора относительно
начального значения x (t0 ) :
x(t )  x(t0 )  x(t0 )t 
1
x(t0 )t 2 
2!

1 (k )
x (t0 )t k 
k!
(П.8)
Учитывая, что x(t0 )  Ax(t0 ) , x(t0 )  Ax(t0 )  A2 x(t0 ) , …, x ( k ) (t0 )  Ak x(t0 ) выражение (П.8) перепишем в виде
x(t )  (t ) x(t0 )
(П.9)
где
(t )  En  At 
1 2 2
1
A t  ...  Ak t k  ...  e At ,
2!
k!
(П.10)
то есть переходная матрица равна матричной экспоненте.
Путем подстановки нетрудно убедиться, что решение (П.9) удовлетворяет уравнению (П.7):
2
k


x(t )  (t ) x(t0 )   A  A2t  ...  Ak t k 1  ...  x(t0 ) 
2!
k!




1
 A  En  At  ... 
Ak 1t k 1  ...  x(t0 )  A(t ) x(t0 )  Ax(t ).
(k  1)!


Отсюда следует первое свойство переходной матрицы:
(t )  A(t ) .
(П.11)
Поскольку выполняется равенство:
x(t )   (t ) x(t0 )   (t  t0 ) (t0 ) x(0)   (t ) x(0) ,
то, очевидно, что для произвольных начальных условий x (0) выполняется второе свойство
236
 (t )  (t  t0 ) (t0 ) .
(П.12)
или
e At  e A(t t0 )e At0 .
С помощью формулы (П.12) решение (П.6) можно записать для начальных условий в произвольный момент времени:
t
x(t )  (t ) x(0)   (t   ) Bu( )d 
0
t0
t
0
t0
 (t  t0 )(t0 ) x(0)   (t  t0 )(t0   ) Bu( )d   (t   ) Bu( )d 
t0

 t
 (t  t0 )  (t0 ) x(0)   (t0   ) Bu( )d    (t   ) Bu( )d 


0

 t0
t
 (t  t0 ) x(t0 )   (t   ) Bu( )d .
t0
3) Метод преобразования подобия
Из теории матриц известно, что если характеристическое уравнение
d ( p) | pEn  A | p n  a1 p n1 
 an  0
имеет различные корни pi , i  1,  (собственные значения матрицы A) кратности ni ( n  n1  ...  n ), то с помощью преобразования M , | M | 0 любую вещественную матрицу A можно привести к блочно диагональной форме Жордана:


A  MJM 1  diag J j ( pi ) ,
(П.13)
ri
где J j ( pi ) – li  li - жордановый блок ( li j  ni ) вида
j
j
j 1
 pi
0
J j ( pi )  


0
1
pi
0
1
0
0
0
0
.
1

pi 
237
Тогда формулу (П.10) с учетом свойства A2  MJM 1MJM 1  MJ 2 M 1
можно записать в виде
1
1


(t )  M  En  J t  J 2t 2  ...  J k t k  ...  M 1  Me J t M 1 . (П.14)
2!
k!


а) В частном случае, когда li j  1 , J j ( pi )  pi и матрица J является диагональной. Тогда с учетом свойств диагональных матриц матричную экспоp t
J t
ненту e J t можно представить в виде: e  diag{e i } .
Для данного случая с помощью представления матриц
M  [m1
 nT 
 1
1
m2 ] , M   
 T
 nn 
формулу (П.14) можно переписать в виде
 (t )  Me
J t
M
1
n
  Qi e pi t .
(П.15)
i 1
где Qi  mi niT  n  n - матрицы. Тогда решение однородной системы (П.7) при
t0  0 запишется в следующей форме
n
n
i 1
i 1
x(t )  (t ) x(0)   Qi e pit x(0)   e pit ci ,
(П.16)
где ci  Qi x(0) .
б) В общем случае, когда li j  1 , решение x(t ) представляется в виде аналогичном (П.16), содержащем слагаемые с множителями e pit , e pit t , …,
l j 1
e pit t i
/(li j  1)!
В системе MATLAB для вычисления матриц M и J в разложении
(П.15), можно осуществить с помощью команды [M,J]=jordan(A). Для вычисления матричной экспоненты используется команда expm(A).
4) Полиноминальный метод
Пусть характеристическое уравнение
238
d ( p) | pEn  A | p n  a1 p n1 
 an  0
имеет различные корни pi , i  1,  (собственные значения матрицы A) кратности ni ( n  n1  ...  n ). Тогда переходную матрицу при t0  0 будем искать в
виде
(t )  с0 (t ) I n  с1(t ) A  с2 (t ) A2  ...  сn1(t ) An1 ,
(П.17)
где сi (t ) – неизвестные функции времени подлежащие определению.
Для каждого корня pi , i  1,  запишем систему ni уравнений:
e pit  с0 (t ) I n  с1 (t ) pi  с2 (t ) pi2  ...  сn1 (t ) pin1,
te pit 
t
e pit
 с1 (t )  2с2 (t ) pi  ...  (n  1)сn1 (t ) pin2 ,
pi
( ni 1) pit
e
(П.18)
 ni 1e pit

.
pini 1
Из полученной системы n уравнений определяются сi (t ) , i  1, n .
Пример. Пусть задана матрица
 2 1 1
A   3 2 3 ,


 1 1 2 
у которой корни характеристического уравнения равны: p1  0 и p2  1 , p2  1
, то есть   2 , n1  1 , n2  2 .
Согласно (П.18) получим систему уравнений
e p1t  с0 (t )  с1 (t ) p1  с2 (t ) p12 ,
e p2t  с0 (t )  с1 (t ) p2  с2 (t ) p22 ,
(П.19)
te p2t  с1 (t )  2с2 (t ) p2 ,
из которой с учетом найденных корней p1  0 и p2  1 получим
1  с0 (t ),
et  с0 (t )  с1 (t )  с2 (t ),
tet  с1 (t )  2с2 (t ),
239
Отсюда найдем выражения для неизвестных функций: с0 (t )  1 ,
с1 (t )  et (2  t )  2 , с2 (t )  et (t  1)  1 .
Переходная матрица согласно (П.17) имеет вид:
(t )  с0 (t ) I 3  с1 (t ) A  с2 (t ) A2 ,
(П.17)
где
 2 1 1  2 1 1  2 1 1
A2   3 2 3  3 2 3   3 2 3  A .


 

 1 1 2   1 1 2   1 1 2 
Отметим, что здесь исходная матрица такова, что она равна собственной матрице, возведенной в любую степень, то есть с помощью неособого преобразования M матрица A приводится к диагональному виду:
A  MJM 1  Mdiag  p1, p2 , p2 M 1 ,
(П.13)
и, следовательно, для значений p1  0 и p2  1 получим


A2  MJM 1MJM 1  MJ 2 M 1  Mdiag p12 , p22 , p22 M 1  Mdiag  p1, p2 , p2 M 1  A .
Поэтому окончательно можно записать выражение для переходной матрицы


(t )  I3   с1 (t )  с2 (t )  A  I3  et  1 A .
240
Приложение 4
Таблица корреляционных функций и спектральных плотностей
241
242
Приложение 5
Формулы для интегралов от дробно-рациональных четных функций
243
Пример использования формулы для интегралов при n  3
Пусть знаменатель дроби имеет вид:
d ( j )  a0 ( j )3  a1( j )2  a2 ( j )  a3 .
Тогда для случая выражения дроби
| c0 ( j )  1|2  c0 ( j )  1 c0 ( j )  1 b1( j )2  b2 b0 ( j )4  b1( j )2  b2



d ( j )d ( j )
d ( j )d ( j)
d ( j)d ( j)
d ( j)d ( j)
получим b0  0 , b1  с02 , b2  1 .
В случае выражения дроби



c0 ( j )2  c1( j )  c2 c0 ( j )2  c1( j )  c2
| c0 ( j )2  c1( j )  c2 |2
b ( j )4  b1( j )2  b2

 0
,
d ( j )d ( j )
d ( j )d ( j )
d ( j )d ( j )
получим b0  с02 , b1  2с0с2  с12 , b2  с22 .
Для полученных выражений интеграл вычисляется по формуле:
a0 a1b2
a3
I3 
,
2a0  a1a2  a0 a3 
a2b0  a0b1 
где в знаменателе скобка равна определителю Гурвица. Поскольку рассматривается устойчивая система, то коэффициенты ai  0 , i  0,3 и, следовательно
знаменатель выражения I 3 положителен. Поскольку дисперсия величина положительная, то числитель выражения I 3 должен быть положительным.
244
Приложение 6
Таблица преобразований Лапласа
245
Приложение 7
Подпрограмма факторизации передаточной функции
% Подпрограмма факторизации передаточной функции W(p)
% Входные параметры подпрограммы:
% k – коэффициент передачи ПФ W в форме zpk(W);
% num – массив нулей числителя ПФ W;
% den – массив полюсов знаменателя ПФ W.
function [pn,pd,kf]=faktor(num,den,k)
nn=size(num);nd=size(den);
if nn>0
js=0;
for i=1:nn
if abs(real(num(i)))<1e-10
js=js+1;
end
end
if js>0
for i=1:js/2
pn(i)=0;
end
end
j=js/2;
for i=1:nn
if real(num(i))<0
j=j+1; pn(j)=num(i);
end
end
else
pn=[];
end
js=0;
for i=1:nn
if abs(real(den(i)))<1e-10
js=js+1;
end
end
if js>0
for i=1:js/2
pd(i)=0;
end
end
j=js/2;
for i=1:nd
if real(den(i))<0
j=j+1; pd(j)=den(i);
end
end
kf=sqrt(abs(k));
end
246
Download