Теория систем автоматического управления. В.А. Бесекерский, Е.П. Попов, 1975. Теория систем автоматического управления. В.А. Бесекерский, Е.П.. 3 Примеры непрерывных автоматических систем
Скачать 25.93 Mb.
|
1. Для любых случайных величин среднее значение их суммы равно сумме средних значений этих величин 2. Среднее значение произведения случайных величин, независимых друг от друга, равно произведению средних значений этих величин Последняя формула не распространяется на общий случай любых случайных величин. В виде обобщения понятия среднего значения (11.5) отметим, что выражение (11.6) называется моментом го порядка случайной величины х. В частности, момент нулевого порядка выражает свойство (11.2), ион всегда равен единице Момент первого порядка есть среднее значение (математическое ожидание) случайной величины (11.5). Момент второго порядка есть средний квадрат случайной величины. Часто используется так называемое среднеквадратичное значение случайной величины, представляющее собой корень квадратный из среднего квадрата случайной величины Иногда рассматривается центрированное значение случайной величины — среднее значение. Тогда аналогично формуле (11.6). можно ввести, понятие центрального момента то порядка (11.7) Из формулы (11.7) следует, что центральный момент первого порядка всегда равен нулю. Обратимся теперь к характеристикам рассеяния дискретной случайной величины. Если х — случайная величина, а — среднее значение этой величины, то величина есть отклонение случайной величины от ее среднего значения. Это отклонение является случайной величиной, как и сама величинах. Средним отклонением ∆ называется среднее значение (математическое ожидание) абсолютной величины отклонения, те. (11.8) Заметим, что без знака абсолютного значения было бы Для рассмотренного выше примера бросания игральной кости Среднее отклонение случайной величины является уже неслучайной величиной, а обычным числом. Дисперсией называется средний квадрат отклонения случайной величины от ее среднего значения. Она совпадает с центральным моментом второго порядка. (11.9) Дисперсия может быть легко вычислена на основании свойства среднего значения те. она равна разности среднего квадрата и квадрата среднего значения случайной величины. Так как всегда выполняется неравенство , то дисперсия может быть только положительным числом Корень квадратный из дисперсии называется среднеквадратичным отклонением случайной величины от среднего значения Для рассмотренного выше примера бросания игральной кости Среднеквадратичное отклонение Укажем простейшие свойства среднеквадратичных отклонений. 1. При сложении независимых случайных величин дисперсии складываются о Поэтому среднеквадратичное отклонение суммы независимых случайных величин Эта формула часто применяется в измерительной технике ив автоматике для вычисления среднеквадратичных ошибок. 2. Пусть имеется n случайных величин с одинаковыми средними значениями ж и с одинаковыми законами распределения. Тогда их среднее арифметическое тоже будет случайной величиной стем же самым средним значением , но среднеквадратичное отклонение его будет враз меньше, чем для каждой из составляющих (в случае независимых случайных величин Например, если производится п измерений одной и той же физической величины, то их среднее арифметическое, хотя тоже является случайной величиной, но всегда надежнее (имеет меньшее среднеквадратичное отклонение, чем каждое измерение в отдельности. Здесь случайные ошибки измерения в известной мере компенсируются. Но надо помнить, что систематические ошибки приборов при этом остаются в полной мере в составе среднего арифметического и никакой массовостью измерений скомпенсированы быть не могут. 3. Для n случайных величин, независимых и имеющих одно и тоже среднее значение , среднее арифметическое будет при достаточно большом n как угодно мало отличаться от среднего значения (с вероятностью, как угодно близкой к единице. Замечание в скобках означает, что это практически достоверно, ноне абсолютно, потому что среднее арифметическое есть все же случайная величина. Таким образом, при большом n и указанных условиях Этот закон больших чисел, доказанный ПЛ. Чебышевым, имеет первостепенное значение для обработки экспериментальных данных и для учетной статистики. Введем теперь понятие интегрального закона распределения. Интегральным законом распределения или функцией распределения называется вероятность того, что случайная величина примет значение, меньшее некоторого значениях. Математически эта формулировка записывается в виде где ξ — текущее значение случайной величины х. Например, если график закона распределения дискретной случайной величины х имеет вид, показанный на риса, то график функции распределения Р (х) для нее будет иметь вид, показанный на рис. 11.5, б. Он показывает, что вероятность того, что величинах получит значение меньше единицы, равна нулю меньше трех—равна 0,2; меньше четырех — равна 0,6 и т. д. Функция распределениях) всегда возрастает с увеличением х, причем F (х) = 1 при наибольшем возможном значении жшах и остается равной единице при всех значениях х >x mах. Например, для закона Пуассона (11.3), когда дискретная случайная 'величина может принимать значениях, функция распределения (11.10) будет иметь вид бесконечной лестницы (рис. 11.6), ноне заходящей выше единицы, те. Вероятностные характеристики непрерывных случайных величин. Непрерывная случайная величина может принимать все значения в каком-либо заданном ограниченном интервале или все значения от —∞ до +∞. Следовательно, функция распределения интегральный закон распределения) для непрерывной случайной величины будет изображаться непрерывной кривой. На рис. 11.7 показаны оба упомянутых выше варианта. Вероятность того, что непрерывная случайная величина примет определенное числовое значение х, бесконечно мала (например, вероятность попадания центра тяжести снаряда в определенную точку цели. Вероятность же того, что непрерывная случайная величина окажется в некотором промежутке , будет иметь конечное значение, а именно Вероятность того, что непрерывная случайная величина содержится в промежутке между хи х + х, будет Величина (11.11) называется плотностью вероятности. Закон распределения для непрерывной случайной величины в отличие от дискретной задается не в виде значений вероятности, а в виде плотности-вероятности ω (х, называемой также дифференциальным законом распределения. На рис. 11.8 показаны дифференциальные законы распределения для двух вариантов функции распределениях, показанных на рис. 11.7. Если бы здесь использовалось тоже понятие закона распределения, что и для дискретной случайной величины, то получились бы бесконечно малые ординаты P (х. Выражение ω (х) их означает вероятность того, что случайная величина содержится между хи х + Ах Вероятность того, что случайная величина содержится между значениями хи х, определяется формулой (11.12) что геометрически выражается заштрихованной площадью на рис. 11.8. Кроме того, имеет место зависимость (11.13) Вся площадь под кривой ω (х) равна единице (11.14) так как Формула (11.14) соответствует моменту нулевого порядка. Среднее значение (метематическое ожидание) соответствует моменту первого порядка (11.15) что вытекает из формулы (11.5) как предел суммы. Моменты высших порядков по аналогии сбудут) Таким же образом можно вычислить центральный момент го порядка (11.17) Как ив случае дискретных случайных величин, центральный момент первого порядка всегда равен нулю. Рассеяние непрерывной случайной величины можно оценивать одним из следующих значений, словесные формулировки которых остаются прежними. Среднее отклонение (малоудобная для вычислений величина) (11.18) Дисперсия (наиболее удобная для вычислений величина) (11.19) Среднеквадратичное отклонение (11.20) Средневероятным отклонением Ав называется такая величина, при которой отклонения имеют одинаковую вероятность. Рассмотрим простейшие типовые законы распределения непрерывных случайных величин. 1. Равномерное распределение случайной величины на определенном участке характеризуется плотностью вероятности ω (хи функцией распределениях, показанными на рис. 11.9. При этом на основании свойства (11.14) имеем Подсчитаем характерные значения. Среднее значение (математическое ожидание) Среднее значение квадрата случайной величины (момент второго порядка) Дисперсия Среднеквадратичное отклонение Средневероятное отклонение Максимально возможное отклонение случайной величины от среднего значения в данном случае будет 2. Нормальный закон распределения непрерывных случайных величин (закон Гаусса. Этот закон имеет вид (11.21) где σ — среднеквадратичное отклонение, а — математическое ожидание случайной величины. График для этого закона изображен на рис. 11.10. Он имеет типичную «колоколообразную» форму. Анализ условий возникновения нормального распределения показывает, что оно имеет место во всех тех случаях, когда случайная величина характеризует собой суммарный эффект большого числа независимых причин. Поэтому нормальное распределение весьма часто встречается на практике. Для этого закона средневероятное отклонение будет За максимальное отклонение, которое может иметь место, обычно принимают величину , так как вероятность того, что отклонение будет больше 3σ, очень мала, а именно Для удобства расчетов составлены таблицы для единичного нормального закона. Для получения этого закона положим и введем новую относительную переменную Тогда вероятность того, что текущее значение относительной переменной находится в интервале от а до +а или сама переменная находится в интервале от , определится выражением (11.22) Для функции Фа) составлены подробные таблицы. В качестве иллюстрации приводится краткая табл. 11.2. Рассмотрим пример пользования таблицей. Пусть имеется некоторая случайная величина ж, для которой математическое ожидание , а среднеквадратичное отклонение составляет . Определим, какова вероятность того, что случайная величина лежит в интервале 9,5 < х < 10,5. Это означает, что отклонение от математического ожидания должно лежать в интервале — 0,5 < ∆ < +0,5. Для. относительных величин это соответствует неравенству Таким образом, а = 0,125. По табл. 11.2 определяем путем интерполяции вероятность Фа. Произведем более сложный расчет. Пусть для той же случайной величины необходимо определить вероятность нахождения ее в интервале 11 < х < 12. Так как кривая нормального распределения является симметричной относительно среднего значения случайной величины, то искомая вероятность может быть найдена как половина разности вероятности нахождения случайной величины в интервале — 12 < хи вероятности нахождения в интервале — 11 << х < 11, те. или для отклонений Перейдя к относительным величинам, получаем в результате искомую вероятность Характеристические функции. Введем в рассмотрение функцию , связанную с плотностью вероятности ω (х) взаимным преобразованием Фурье (11.23) Эта функция называется характеристической. Ее основные свойства следующие. Если случайная величина у = ах, то (11.24) Если случайная величина , где хи у — независимые величины, то (11.25) Для нормального закона распределения (11.21) характеристическая функция будет (1.1 .26) По характеристической функции могут быть найдены моменты случайной величины. Разлагая впервой формуле (11.23) вряд Маклорена, имеем (11.27) (11.28) Из сравнения (11.27) и (11.28) можно получить формулу для момента го порядка (11.29) Аналогичным образом можно получить формулу для центрального-момента го порядка (11.30) Формулы (11.29) и (11.30) могут быть использованы для вычисления моментов. Векторные случайные величины. Пусть имеется совокупность случайных величин . Такая совокупность может быть представлена в виде матрицы-столбца. Если физические размернрсти всех величин одинаковы, то матрица-столбец может быть отождествлена с вектором. При разных размерностях переход к вектору может быть сделан после нормирования (введения весовых коэффициентов. Пусть, например, имеются две непрерывные случайные величины x1 и x2. Для них может быть введена двумерная плотность вероятности . Если величины хи х независимы, то Вводится понятие смешанного момента го порядка, где (11.31) и смешанного центрального момента (11.32) Если q = s = 1, то центральный момент второго порядка имеет особое значение и носит название корреляционного момента (11.33) В случае независимости случайных величин хи х можно легко показать, что корреляционный момент r 12 = 0. Иногда употребляется понятие коэффициента корреляции, представляющего собой относительное значение корреляционного момента (11.34) где D1 и D2 — дисперсии величин хи х. Для совокупности случайных величин в приближенных расчетах часто ограничиваются заданием матрицы-столбца (вектора) математических ожиданий и матрицы корреляционных моментов (11.35) Составляющие корреляционной матрицы показывают степень связи между отдельными случайными величинами, причем . На диагонали корреляционной матрицы находятся собственные центральные моменты второго порядка, те. дисперсии § 11.2. Случайные процессы Случайная величинах, изменяющаяся во времени t, называется случайным или стохастическим процессом. Случайный процесс не есть определенная кривая ха является множеством возможных кривых х (t), также как случайная величина не имеет определенного значения, а является совокупностью (множеством) возможных значений. Можно еще сказать, что случайный процесс есть такая функция времени, значение которой в каждый момент времени является случайной величиной. Примерами случайных процессов могут, например, являться координаты самолета, замеряемые радиолокационной станцией угол визирования движущейся цели головкой самонаведения помехи в системе телеуправления нагрузка электрической сети и т. п. Итак, в случайном процессе нет определенной зависимости х (t). Каждая кривая множества рис. 11.11) является лишь отдельной реализацией случайного процесса. Никогда нельзя сказать заранее, по какой кривой пойдет процесс. Однако случайный процесс может быть оценен некоторыми вероятностными характеристиками. В каждый отдельный момент времени наблюдаются случайные величины , каждая из которых имеет свой закон распределения. Поскольку это — непрерывная случайная чина, то надо пользоваться понятием плотности вероятности. Обозначим закон распределения для всех этих отдельных случайных величин. В общем случае он меняется стечением времени. Для каждого данного t в отдельности будет свой закон распределения причем по свойству (11.14) для каждого из них Для каждого заданного момента времени можно найти характеристики случайных величин, определенные в § 11.1. В результате будем иметь среднее по множеству (математическое ожидание) (11.36) и дисперсию (11,37) Среднее значение случайного процесса представляет собой некоторую среднюю кривую рис. 11.12), около которой группируются всевозможные отдельные реализации этого процесса, а дисперсия D(t) или среднеквадратичное отклонение σ(t) характеризуют рассеяние отдельных возможных реализаций процесса около этой средней кривой. Кроме этих осредненных характеристик , которые для каждого данного момента времени являются средними по множеству, введем понятие среднего значения случайной величины для отдельной реализации случайного процессах, которое определяется из выражения (11.38) Переход к пределу здесь необходим для того, чтобы характеризовать не какой-нибудь отдельный участок кривой, а всю возможную кривую х (t) в целом. Для того чтобы знать связь между возможными значениями случайной функции х (г) ъ последующие моменты времени со значениями в предыдущие моменты, вводится понятие двумерной плотности вероятности , смысл которого можно пояснить следующим образом. Вероятность того, что в момент времени t1 величинах находится в интервале , а в момент времени t2 — в интервале , будет . Это есть вероятность того, что кривая х (t) пройдет вблизи двух заданных точек . Вводится также и тг-мерная плотность вероятности Если ее умножить на , то это будет вероятность того, что кривая пройдет вблизи заданных п точек. Случайный процесс полностью определяется видом функций и связью между ними. Простейшим типом случайного процесса является чисто случайный процесс. В таком процессе все значения случайной величины в отдельные моменты времени не зависят друг от друга. Тогда появления значений и т.д. будут независимыми случайными событиями, для которых вероятность их совместного наступления равна, как известно, произведению вероятностей наступления каждого из них в отдельности. Следовательно, для чисто случайного процесса (11.39) и вообще (11.40) Это — самые простые соотношения в теории случайных процессов. Они могут применяться для характеристики некоторых видов помех (чисто случайные хаотические помехи. Для характеристики полезных входных сигналов систем регулирования и следящих систем соотношения (11.39) и (11.40) практически не могут применяться, так как для этих сигналов ход процесса в последующие моменты времени в какой-то степени зависит оттого, что было в предыдущие моменты времени. Так, например, если речь идет о слежении за самолетом, то он не может как угодно быстро менять свое положение и скорость. Поэтому если он в момент времени t1 занял положение х, то этим самым его возможное положение х в следующий момент t2 ограничено, те. события не будут независимыми. Чем более инерционен изучаемый объект, тем больше эта взаимозависимость, или корреляция. В таких случаях вместо формулы (11.39) необходимо записать (11.41) — условная вероятность того, что случайный процесс пройдет вблизи точки , если он уже прошел через точку . Следовательно, зная плотности вероятности ю , можно найти также и условную плотность вероятности (11.42) Кроме того, имеет место следующая связь между основными плотностями вероятности (11 43) так как есть плотность вероятности случайной величины безотносительно к тому, какое потом будет значение , те. допускается . Аналогичным образом любая плотность вероятности низшего порядка всегда может быть получена из высшей, те. высшие плотности вероятностей содержат наибольшее количество информации о случайном процессе (о взаимосвязях между возможными значениями случайной величины х в различные моменты времени. Написанные соотношения справедливы для случайных процессов любых типов. В зависимости же оттого, до какого порядка принимаются во внимание плотности вероятности, а также от разных дополнительных гипотез о формах связи между рассматриваются разные типы случайных процессов в отличие от чисто случайных. Другая классификация всех случайных процессов состоит в разделении их на стационарные и нестационарные. Теория стационарных случайных процессов наиболее разработана и чаще всего применяется на практике. |