ОТУ_Поляков_Часть2_2009. Теория автоматического управления для чайников Часть ii. Управление при случайных
Скачать 1.41 Mb.
|
1.5. Средние значения Плотность распределения вероятности дает полную информацию о свойствах случайной величины. Напри- мер, с помощью гистограммы несложно найти среднее значение. Вернемся к примеру с резисторами. Пусть у нас есть гистограмма, построенная по результатам испыта- ний, где отложены доли резисторов, сопротивление ко- торых оказалось в данном интервале (см. рисунок). Как (приближенно) найти среднее значение сопротивления? Сложность в том, что мы не знаем сопротивлений отдельных резисторов и их количества. Тем не менее, гистограмма дает всю необходимую информацию. Можно приближенно считать, что все резисторы, попавшие в интервал ] 98 ; 97 [ (их коли- чество равно 1 n ), имеют сопротивление 5 , 97 1 = x Ом (середина интервала). Более точной ин- формации все равно нет. Тогда общая сумма сопротивлений всех этих резисторов равна 1 1 n x ⋅ Повторяя те же рассуждения для остальных интервалов, получаем, что сумма сопротивлений всех резисторов равна K K n x n x n x ⋅ + + ⋅ + ⋅ K 2 2 1 1 , где K – количество интервалов, а ) , , 1 ( K i x i K = – середина каждого из интервалов. Чтобы найти среднее значение, эту сумму нужно разделить на общее количество резисторов N : ∑ = ⋅ = ⋅ + + ⋅ + ⋅ = ⋅ + + ⋅ + ⋅ = K i i i K K K K N n x N n x N n x N n x N n x n x n x x 1 2 2 1 1 2 2 1 1 K K Значения ) , , 1 ( K i N n i K = – это доли от общего количества, то есть, высоты столбцов гистограм- мы. Таким образом, мы можем (приближенно) найти среднее значение по гистограмме, не зная ни сопротивлений отдельных резисторов, ни даже их количества. В теории вероятности среднее значение x называется математическим ожиданием слу- чайной величины x и обозначается } { x E . Если известна плотность распределения ) ( x f , сумма заменяется интегралом dx x f x x E x ∫ ∞ ∞ − ⋅ = = ) ( } { Аналогично можно найти среднее значение любой функции, умножив ее на плотность распре- деления и проинтегрировав произведение на всей оси. Например, средний квадрат 2 x вычис- ляется так dx x f x x E x ∫ ∞ ∞ − ⋅ = = ) ( } { 2 2 2 Среднее значение (математическое ожидание) не может полностью характеризовать слу- чайную величину. На рисунках показаны мишени, пораженные двумя стрелками (каждый сде- 97 98 99 100 101 102 103 x , Ом N n ∆ © К.Ю. Поляков, 2009 8 лал по 5 выстрелов). В обоих случаях математическое ожидание – это центр мишени, то есть «в среднем» они бьют по центру. Однако всем понятно, что второй явно стреляет лучше. Как вы- разить это в виде числа? У первого стрелка больше разброс точек попадания относительно средней точки. на языке тео- рии вероятности разброс называется дисперсией – эта величина равна среднему квадрату от- клонения от среднего значения x . То есть, дисперсия вычисляется по формуле: dx x f x x x x E D x ∫ ∞ ∞ − ⋅ − = − = ) ( ) ( } ) {( 2 2 Раскрыв скобки в подынтегральном выражении, можно показать, что дисперсия равна разности среднего квадрата и квадрата математического ожидания: 2 2 ) ( x x D x − = Если математическое ожидание равно нулю, дисперсия и средний квадрат совпадают. Использовать дисперсию не очень удобно, поскольку ее единицы измерения не совпадают с единицами измерения исходной величины (если x измеряется в метрах, то дисперсия – в квадратных метрах). Поэтому на практике чаще применяют среднеквадратическое отклонение (СКВО)– квадратный корень из дисперсии: x x D = σ В иностранной литературе эту величину называют стандартное отклонение. 1.6. Какие бывают распределения? Существует бесчисленное множество разных распределений, но в технике применяются лишь некоторые из них. 1.6.1. Равномерное распределение Самое простое – это равномерное распределение. Например, снег в безветренную погоду ложится на плоскую поверхность равномерно – ровным слоем, который имеет одинаковую тол- щину во всех точках. Обычно предполагается, что ошибка квантования непрерывных сигналов в цифровом компьютере имеет равномерное распределение. Равномерное распределение на ин- тервале ] ; [ b a описывается плотностью распределения ⎪ ⎪ ⎩ ⎪⎪ ⎨ ⎧ > ≤ ≤ − < = b x b x a a b a x x f , 0 , 1 , 0 ) ( Среднее значение такой случайной величины равно 2 / ) ( b a x + = , а дисперсия 0 x ) (x f b a a b − 1 © К.Ю. Поляков, 2009 9 ∫ − = − ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ + − = b a x a b dx a b b a x D 12 ) ( 1 2 2 2 1.6.2. Нормальное распределение (распределение Гаусса) Самое важное распределение в практических задачах – нормальное распределение (рас- пределение Гаусса), для которого график плотности распределения имеет форму колокола: ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − − = 2 2 2 ) ( exp 2 1 ) ( σ π σ x x x f Здесь x – среднее значение, а σ – среднеквадратическое отклонение случайной величины. Распределение Гаусса обладает несколькими замечательными свойствами: 1) сумма (и любая линейная комбинация) случайных величин с нормальными распределе- ниями тоже имеет нормальное распределение; 2) если на величину действует множество независимых помех, ее плотность вероятности стремится к нормальному закону; 3) при прохождении случайного сигнала с нормальным распределением через линейную систему сигнал на выходе тоже имеет нормальное распределение. Если нет никаких теоретических или экспериментальных данных о распределении слу- чайной величины (например, шума измерений), чаще всего предполагают, что это распределе- ние – нормальное. 1.6.3. Другие распределения В специальных задачах применяют и другие распределения. Если случайная величина имеет равномерное распределение с центром в нуле, ее модуль распределен по закону Рэлея: ⎪ ⎩ ⎪ ⎨ ⎧ < ≥ ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − = 0 , 0 0 , 2 exp ) ( 2 2 2 x x x x x f σ σ Например, так распределяются высоты волн при морском волнении. Для моделирования случайных события в компьютерных моделях используют датчики псевдослучайных чисел (они похожи на случайные, но каждое следующее вычисляется по неко- торой формуле, использующей предыдущие значения). Большинство датчиков «выдают» рав- номерно распределенные значения, из которых с помощью математических операций можно получить другие распределения. Например, рассмотрим сумму нескольких независимых случайных значений, равномерно распределенных на симметричном интервале ] ; [ a a − . Можно показать, что для суммы двух чи- сел получится треугольное распределение. Таким образом, складывая два случайных числа, по- 0 x ) (x f 0 x ) (x f x π σ 2 1 π σ 2 607 , 0 σ 2 © К.Ю. Поляков, 2009 10 лученных со стандартного датчика с равномерным распределением, мы получим числа с тре- угольным распределением. Для суммы трех чисел график ) (x f состоит из кусочков парабол: При увеличении N график плотности распределения вероятностей становится всё больше по- хож на «колокол» нормального распределения. Доказано, что при больших N распределение суммы N чисел действительно стремится к нормальному. Более того, это справедливо для суммы большого количества независимых случайных величин с любым распределением (не обязательно равномерным). Можно показать, что дисперсия суммы независимых случайных величин равна сумме дисперсий отдельных величин. Поэтому если взять 5 , 0 = a , то дисперсия суммы 12 чисел, рав- номерно распределенных на интервале ] ; [ a a − , будет равна 1 12 )) ( ( 12 2 = − − ⋅ = a a D z Этот прием (сложение 12 чисел) используют для получения случайных величин с нормальным распределением и единичной дисперсией. 0 x ) (x f 7 = N 0 x ) (x f a 3 a 3 − 3 = N 0 x ) (x f a 2 a 2 − 2 = N 0 x ) (x f a a − 1 = N © К.Ю. Поляков, 2009 11 2. Случайные процессы 2.1. Что такое случайный процесс? Случайный процесс – это случайная функция времени. Это означает, что наблюдатель «видит» только одну реализацию случайного процесса (она выделена на рисунке красным цве- том) из множества возможных функций (синие линии). Полный набор всех возможных реализаций называют ансамблем. Случайный процесс – это и есть ансамбль реализаций, а не функция в обычном понимании. Далее будем обозначать весь ансамбль (случайный процесс) через ) (t X , а отдельную реализацию – через ) (t x Характеристикой случайного процесса (точнее – характеристикой ансамбля реализаций) в каждый фиксированный момент времени 1 t t = является плотность распределения вероятно- сти ) ( 1 X f случайной величины ) ( 1 1 t X X = . По этим данным можно найти среднее значение (математическое ожидание), дисперсию, СКВО и другие характеристики случайного процесса. Процессы с нулевым средним значением называются центрированными. Для многих (хотя и не для всех) случайных процессов значения в моменты времени 1 t и 2 t как-то связаны. Чтобы оценить связь случайных величин ) ( 1 1 t X X = и ) ( 2 2 t X X = используют корреляцию – математическое ожидание произведения 2 1 X X ⋅ : { } 2 1 2 1 X X E R X X ⋅ = Корреляция позволяет выявить линейную зависимость между двумя величинами. В случае 0 2 1 > X X R знаки 1 X и 2 X чаще всего совпадают (оба положительные или оба отрицательные), а при 0 2 1 < X X R – больше вероятность того, что знаки разные. Если 0 2 1 = X X R , величины 1 X и 2 X называются некоррелированными. Важно понимать, что это не означает, что они независимы. С другой стороны, независимые величины всегда некоррелированы. Для случайных величин с нормальным распределением некоррелированность одновременно означает и независимость. Вспоминая, что 1 X и 2 X – это значения случайного процесса в моменты 1 t и 2 t , можно рассматривать корреляцию как функцию двух аргументов: { } ) ( ) ( ) , ( 2 1 2 1 t X t X E t t R X ⋅ = Эта функция называется корреляционной (или автокорреляционной) функцией случайного процесса ) (t X . В этой формуле используется усреднение по ансамблю, то есть по всем возмож- ным реализациям случайного процесса. Практически эта операция трудновыполнима, так как нужно иметь полную информацию о процессе (распределения вероятностей). Если случайный процесс – это напряжение в вольтах, то его корреляционная функция из- меряется в В 2 , так же, как средний квадрат и дисперсия. 0 t x 1 t 2 t © К.Ю. Поляков, 2009 12 2.2. Стационарность Если все свойства случайного процесса (плотности распределения вероятностей) не зави- сят от времени, случайный процесс называется стационарным (в узком смысле). Иначе процесс – нестационарный, его свойства со временем изменяются. Строго говоря, все реальные процес- сы – нестационарные, они когда-то начались и когда-то закончатся. Однако часто на практике можно считать, что на интересующем нас интервале времени (например, во время перехода судна из одного порта в другой) свойства случайных процессов (волнения, ветра) не изменяют- ся. Это допущение позволяет существенно упростить решение многих задач. Стационарность – это очень сильное допущение. Чтобы доказать его справедливость, нужно знать все плотности распределения 3 в любой момент времени, а они чаще всего неиз- вестны. К счастью, стационарность (в узком смысле) совсем не требуется в инженерных зада- чах. Вместо этого достаточно рассматривать процессы, стационарные в широком смысле, для которых 1) математическое ожидание не зависит от времени; 2) корреляционная функция ) , ( 2 1 t t R X зависит только от того, насколько моменты 1 t и 2 t да- леки друг от друга, то есть от разности 2 1 t t − , поэтому ее часто записывают в виде )} ( ) ( { ) ( τ τ + = t X t X E R X , где 2 1 t t − = τ Далее, говоря о стационарных процессах, мы будем иметь в виду процессы, стационарные в широком смысле. 2.3. Эргодичность При первом знакомстве со случайными процессами всегда возникает закономерный во- прос: «Как же изучать случайные процессы на практике?» Дело в том, что во многих случаях мы наблюдаем только одну реализацию из всего ансамбля, и повторить опыт с теми же усло- виями невозможно. Исследователи почти всегда предполагают, что длительное наблюдение за одной реализа- цией случайного процесса позволяет изучить свойства ансамбля, то есть, один элемент ансамб- ля содержит информацию обо всех остальных элементах. Случайные процессы, обладающие таким свойством, называют эргодическими. Заметим, что только стационарный процесс может быть эргодическим. С одной стороны, в реальных ситуациях очень сложно доказать эргодичность. С другой – обычно имеет смысл предположить, что процесс эргодический, если нет веских доводов против этого. Для эргодических процессов по одной реализации можно найти все основные характери- стики, заменив усреднение по ансамблю на усреднение по времени. Например, математическое ожидание стационарного случайного процесса можно найти через его плотность распределе- ния: dx x f x X E x ∫ ∞ ∞ − ⋅ = = ) ( } { 3 Строго говоря, нужно учитывать совместные плотности распределения (плотности распределения нескольких случайных величин). Подробнее об этом можно почитать в [1,3]. © К.Ю. Поляков, 2009 13 Если мы знаем только одну реализацию, можно попробовать оценить среднее значение на ин- тервале ] , [ T T − , разделив интеграл от функции ) (t x на ширину интервала: dt t x T x T T T ∫ − = ) ( 2 1 ˆ Переходя к пределу при ∞ → T (применяя усреднение на бесконечном интервале), получаем оценку среднего значения по одной реализации ) (t x : dt t x T x T T T ∫ − ∞ → = ) ( 2 1 lim ˆ Для эргодических процессов это значение совпадает с x , которое получено путем усреднения по ансамблю. 2.4. Корреляционная функция Корреляционная функция ) ( τ X R стационарного процесса ) (t X также может быть вычис- лена двумя способами, усреднением по ансамблю (через совместную плотность вероятности) и усреднением одной реализации по времени. Для эргодического процесса оба метода дают один и тот же результат. Далее мы будем рассматривать только эргодические процессы, для которых можно найти корреляционную функцию по одной реализации. Чтобы вычислить ) ( τ X R для некоторого τ , нужно найти среднее значение произведения ) ( ) ( τ + t x t x : dt t x t x T R T T T X ) ( ) ( 2 1 lim ) ( τ τ + = ∫ − ∞ → . (1) Построить график функции ) ( τ X R можно по точкам, выполнив такое интегрирование для каждого значения τ из некоторого массива. Корреляционная функция обладает рядом важных |