Главная страница
Навигация по странице:

  • 1.6. Какие бывают распределения

  • 2. Случайные процессы 2.1. Что такое случайный процесс

  • 2.2. Стационарность

  • 2.3. Эргодичность

  • 2.4. Корреляционная функция

  • ОТУ_Поляков_Часть2_2009. Теория автоматического управления для чайников Часть ii. Управление при случайных


    Скачать 1.41 Mb.
    НазваниеТеория автоматического управления для чайников Часть ii. Управление при случайных
    Дата15.03.2023
    Размер1.41 Mb.
    Формат файлаpdf
    Имя файлаОТУ_Поляков_Часть2_2009.pdf
    ТипЗадача
    #992747
    страница2 из 9
    1   2   3   4   5   6   7   8   9
    1.5. Средние значения
    Плотность распределения вероятности дает полную информацию о свойствах случайной величины. Напри- мер, с помощью гистограммы несложно найти среднее значение.
    Вернемся к примеру с резисторами. Пусть у нас есть гистограмма, построенная по результатам испыта- ний, где отложены доли резисторов, сопротивление ко- торых оказалось в данном интервале (см. рисунок). Как
    (приближенно) найти среднее значение сопротивления?
    Сложность в том, что мы не знаем сопротивлений отдельных резисторов и их количества. Тем не менее, гистограмма дает всю необходимую информацию.
    Можно приближенно считать, что все резисторы, попавшие в интервал
    ]
    98
    ;
    97
    [
    (их коли- чество равно
    1
    n
    ), имеют сопротивление
    5
    ,
    97 1
    =
    x
    Ом (середина интервала). Более точной ин- формации все равно нет. Тогда общая сумма сопротивлений всех этих резисторов равна
    1 1
    n
    x

    Повторяя те же рассуждения для остальных интервалов, получаем, что сумма сопротивлений
    всех резисторов равна
    K
    K
    n
    x
    n
    x
    n
    x

    +
    +

    +

    K
    2 2
    1 1
    , где K – количество интервалов, а
    )
    ,
    ,
    1
    (
    K
    i
    x
    i
    K
    =
    – середина каждого из интервалов. Чтобы найти среднее значение, эту сумму нужно разделить на общее количество резисторов
    N
    :

    =

    =

    +
    +

    +

    =

    +
    +

    +

    =
    K
    i
    i
    i
    K
    K
    K
    K
    N
    n
    x
    N
    n
    x
    N
    n
    x
    N
    n
    x
    N
    n
    x
    n
    x
    n
    x
    x
    1 2
    2 1
    1 2
    2 1
    1
    K
    K
    Значения
    )
    ,
    ,
    1
    (
    K
    i
    N
    n
    i
    K
    =
    – это доли от общего количества, то есть, высоты столбцов гистограм- мы. Таким образом, мы можем (приближенно) найти среднее значение по гистограмме, не зная ни сопротивлений отдельных резисторов, ни даже их количества.
    В теории вероятности среднее значение
    x называется математическим ожиданием слу- чайной величины
    x
    и обозначается
    }
    {
    x
    E
    . Если известна плотность распределения
    )
    (
    x
    f
    , сумма заменяется интегралом
    dx
    x
    f
    x
    x
    E
    x





    =
    =
    )
    (
    }
    {
    Аналогично можно найти среднее значение
    любой функции, умножив ее на плотность распре- деления и проинтегрировав произведение на всей оси. Например, средний квадрат
    2
    x вычис- ляется так
    dx
    x
    f
    x
    x
    E
    x





    =
    =
    )
    (
    }
    {
    2 2
    2
    Среднее значение (математическое ожидание) не может полностью характеризовать слу- чайную величину. На рисунках показаны мишени, пораженные двумя стрелками (каждый сде-
    97 98 99 100 101 102 103
    x
    , Ом
    N
    n


    ©
    К.Ю. Поляков, 2009
    8
    лал по 5 выстрелов). В обоих случаях математическое ожидание – это центр мишени, то есть «в среднем» они бьют по центру. Однако всем понятно, что второй явно стреляет лучше. Как вы- разить это в виде числа?
    У первого стрелка больше
    разброс точек попадания относительно средней точки. на языке тео- рии вероятности разброс называется
    дисперсией – эта величина равна среднему квадрату от-
    клонения от среднего значения x . То есть, дисперсия вычисляется по формуле:
    dx
    x
    f
    x
    x
    x
    x
    E
    D
    x






    =

    =
    )
    (
    )
    (
    }
    )
    {(
    2 2
    Раскрыв скобки в подынтегральном выражении, можно показать, что дисперсия равна разности среднего квадрата и квадрата математического ожидания:
    2 2
    )
    (
    x
    x
    D
    x

    =
    Если математическое ожидание равно нулю, дисперсия и средний квадрат совпадают.
    Использовать дисперсию не очень удобно, поскольку ее единицы измерения не совпадают с единицами измерения исходной величины (если
    x
    измеряется в метрах, то дисперсия – в квадратных метрах). Поэтому на практике чаще применяют
    среднеквадратическое отклонение
    (СКВО)– квадратный корень из дисперсии:
    x
    x
    D
    =
    σ
    В иностранной литературе эту величину называют
    стандартное отклонение.
    1.6. Какие бывают распределения?
    Существует бесчисленное множество разных распределений, но в технике применяются лишь некоторые из них.
    1.6.1. Равномерное распределение
    Самое простое – это
    равномерное распределение. Например, снег в безветренную погоду ложится на плоскую поверхность равномерно – ровным слоем, который имеет одинаковую тол- щину во всех точках. Обычно предполагается, что ошибка квантования непрерывных сигналов в цифровом компьютере имеет равномерное распределение. Равномерное распределение на ин- тервале
    ]
    ;
    [ b
    a
    описывается плотностью распределения



    ⎪⎪


    >



    <
    =
    b
    x
    b
    x
    a
    a
    b
    a
    x
    x
    f
    ,
    0
    ,
    1
    ,
    0
    )
    (
    Среднее значение такой случайной величины равно
    2
    /
    )
    (
    b
    a
    x
    +
    =
    , а дисперсия
    0
    x
    )
    (x
    f
    b a
    a
    b

    1

    © К.Ю. Поляков, 2009
    9


    =







    +

    =
    b
    a
    x
    a
    b
    dx
    a
    b
    b
    a
    x
    D
    12
    )
    (
    1 2
    2 2
    1.6.2. Нормальное распределение (распределение Гаусса)
    Самое важное распределение в практических задачах – нормальное распределение (рас-
    пределение Гаусса), для которого график плотности распределения имеет форму колокола:
    ⎟⎟


    ⎜⎜




    =
    2 2
    2
    )
    (
    exp
    2 1
    )
    (
    σ
    π
    σ
    x
    x
    x
    f
    Здесь x – среднее значение, а
    σ – среднеквадратическое отклонение случайной величины.
    Распределение Гаусса обладает несколькими замечательными свойствами:
    1) сумма (и любая линейная комбинация) случайных величин с нормальными распределе- ниями тоже имеет нормальное распределение;
    2) если на величину действует множество независимых помех, ее плотность вероятности стремится к нормальному закону;
    3) при прохождении случайного сигнала с нормальным распределением через линейную систему сигнал на выходе тоже имеет нормальное распределение.
    Если нет никаких теоретических или экспериментальных данных о распределении слу- чайной величины (например, шума измерений), чаще всего предполагают, что это распределе- ние – нормальное.
    1.6.3. Другие распределения
    В специальных задачах применяют и другие распределения. Если случайная величина имеет равномерное распределение с центром в нуле, ее модуль распределен по закону Рэлея:





    <

    ⎟⎟


    ⎜⎜



    =
    0
    ,
    0 0
    ,
    2
    exp
    )
    (
    2 2
    2
    x
    x
    x
    x
    x
    f
    σ
    σ
    Например, так распределяются высоты волн при морском волнении.
    Для моделирования случайных события в компьютерных моделях используют датчики
    псевдослучайных чисел (они похожи на случайные, но каждое следующее вычисляется по неко- торой формуле, использующей предыдущие значения). Большинство датчиков «выдают» рав- номерно распределенные значения, из которых с помощью математических операций можно получить другие распределения.
    Например, рассмотрим сумму нескольких независимых случайных значений, равномерно распределенных на симметричном интервале
    ]
    ;
    [
    a
    a

    . Можно показать, что для суммы двух чи- сел получится треугольное распределение. Таким образом, складывая два случайных числа, по-
    0
    x
    )
    (x
    f
    0
    x
    )
    (x
    f
    x
    π
    σ
    2 1
    π
    σ
    2 607
    ,
    0
    σ
    2

    © К.Ю. Поляков, 2009
    10
    лученных со стандартного датчика с равномерным распределением, мы получим числа с тре- угольным распределением. Для суммы трех чисел график
    )
    (x
    f
    состоит из кусочков парабол:
    При увеличении
    N
    график плотности распределения вероятностей становится всё больше по- хож на «колокол» нормального распределения. Доказано, что при больших
    N
    распределение суммы
    N
    чисел действительно стремится к нормальному. Более того, это справедливо для суммы большого количества независимых случайных величин с любым распределением (не обязательно равномерным).
    Можно показать, что дисперсия суммы независимых случайных величин равна сумме дисперсий отдельных величин. Поэтому если взять
    5
    ,
    0
    =
    a
    , то дисперсия суммы 12 чисел, рав- номерно распределенных на интервале
    ]
    ;
    [
    a
    a

    , будет равна
    1 12
    ))
    (
    (
    12 2
    =



    =
    a
    a
    D
    z
    Этот прием (сложение 12 чисел) используют для получения случайных величин с нормальным распределением и единичной дисперсией.
    0
    x
    )
    (x
    f
    7
    =
    N
    0
    x
    )
    (x
    f
    a
    3
    a
    3

    3
    =
    N
    0
    x
    )
    (x
    f
    a
    2
    a
    2

    2
    =
    N
    0
    x
    )
    (x
    f
    a
    a

    1
    =
    N

    © К.Ю. Поляков, 2009
    11
    2. Случайные процессы
    2.1. Что такое случайный процесс?
    Случайный процесс – это случайная функция времени. Это означает, что наблюдатель
    «видит» только одну реализацию случайного процесса (она выделена на рисунке красным цве- том) из множества возможных функций (синие линии).
    Полный набор всех возможных реализаций называют ансамблем. Случайный процесс – это и есть ансамбль реализаций, а не функция в обычном понимании. Далее будем обозначать весь ансамбль (случайный процесс) через
    )
    (t
    X
    , а отдельную реализацию – через
    )
    (t
    x
    Характеристикой случайного процесса (точнее – характеристикой ансамбля реализаций) в каждый фиксированный момент времени
    1
    t
    t
    =
    является плотность распределения вероятно-
    сти
    )
    (
    1
    X
    f
    случайной величины
    )
    (
    1 1
    t
    X
    X
    =
    . По этим данным можно найти среднее значение
    (математическое ожидание), дисперсию, СКВО и другие характеристики случайного процесса.
    Процессы с нулевым средним значением называются центрированными.
    Для многих (хотя и не для всех) случайных процессов значения в моменты времени
    1
    t
    и
    2
    t
    как-то связаны. Чтобы оценить связь случайных величин
    )
    (
    1 1
    t
    X
    X
    =
    и
    )
    (
    2 2
    t
    X
    X
    =
    используют
    корреляцию – математическое ожидание произведения
    2 1
    X
    X

    :
    {
    }
    2 1
    2 1
    X
    X
    E
    R
    X
    X

    =
    Корреляция позволяет выявить линейную зависимость между двумя величинами. В случае
    0 2
    1
    >
    X
    X
    R
    знаки
    1
    X
    и
    2
    X
    чаще всего совпадают (оба положительные или оба отрицательные), а при
    0 2
    1
    <
    X
    X
    R
    – больше вероятность того, что знаки разные. Если
    0 2
    1
    =
    X
    X
    R
    , величины
    1
    X
    и
    2
    X
    называются некоррелированными. Важно понимать, что это не означает, что они независимы. С другой стороны, независимые величины всегда некоррелированы. Для случайных величин с нормальным распределением некоррелированность одновременно означает и независимость.
    Вспоминая, что
    1
    X
    и
    2
    X
    – это значения случайного процесса в моменты
    1
    t
    и
    2
    t
    , можно рассматривать корреляцию как функцию двух аргументов:
    {
    }
    )
    (
    )
    (
    )
    ,
    (
    2 1
    2 1
    t
    X
    t
    X
    E
    t
    t
    R
    X

    =
    Эта функция называется корреляционной (или автокорреляционной) функцией случайного процесса
    )
    (t
    X
    . В этой формуле используется усреднение по ансамблю, то есть по всем возмож- ным реализациям случайного процесса. Практически эта операция трудновыполнима, так как нужно иметь полную информацию о процессе (распределения вероятностей).
    Если случайный процесс – это напряжение в вольтах, то его корреляционная функция из- меряется в В
    2
    , так же, как средний квадрат и дисперсия.
    0
    t
    x
    1
    t
    2
    t

    © К.Ю. Поляков, 2009
    12
    2.2. Стационарность
    Если все свойства случайного процесса (плотности распределения вероятностей) не зави- сят от времени, случайный процесс называется стационарным (в узком смысле). Иначе процесс
    – нестационарный, его свойства со временем изменяются. Строго говоря, все реальные процес- сы – нестационарные, они когда-то начались и когда-то закончатся. Однако часто на практике можно считать, что на интересующем нас интервале времени (например, во время перехода судна из одного порта в другой) свойства случайных процессов (волнения, ветра) не изменяют- ся. Это допущение позволяет существенно упростить решение многих задач.
    Стационарность – это очень сильное допущение. Чтобы доказать его справедливость, нужно знать все плотности распределения
    3
    в любой момент времени, а они чаще всего неиз- вестны. К счастью, стационарность (в узком смысле) совсем не требуется в инженерных зада- чах. Вместо этого достаточно рассматривать процессы, стационарные в широком смысле, для которых
    1) математическое ожидание не зависит от времени;
    2) корреляционная функция
    )
    ,
    (
    2 1
    t
    t
    R
    X
    зависит только от того, насколько моменты
    1
    t
    и
    2
    t
    да- леки друг от друга, то есть от разности
    2 1
    t
    t

    , поэтому ее часто записывают в виде
    )}
    (
    )
    (
    {
    )
    (
    τ
    τ
    +
    =
    t
    X
    t
    X
    E
    R
    X
    , где
    2 1
    t
    t

    =
    τ
    Далее, говоря о стационарных процессах, мы будем иметь в виду процессы, стационарные в широком смысле.
    2.3. Эргодичность
    При первом знакомстве со случайными процессами всегда возникает закономерный во- прос: «Как же изучать случайные процессы на практике?» Дело в том, что во многих случаях мы наблюдаем только одну реализацию из всего ансамбля, и повторить опыт с теми же усло- виями невозможно.
    Исследователи почти всегда предполагают, что длительное наблюдение за одной реализа-
    цией случайного процесса позволяет изучить свойства ансамбля, то есть, один элемент ансамб- ля содержит информацию обо всех остальных элементах. Случайные процессы, обладающие таким свойством, называют эргодическими. Заметим, что только стационарный процесс может быть эргодическим.
    С одной стороны, в реальных ситуациях очень сложно доказать эргодичность. С другой – обычно имеет смысл предположить, что процесс эргодический, если нет веских доводов против этого.
    Для эргодических процессов по одной реализации можно найти все основные характери- стики, заменив усреднение по ансамблю на усреднение по времени. Например, математическое ожидание стационарного случайного процесса можно найти через его плотность распределе- ния:
    dx
    x
    f
    x
    X
    E
    x





    =
    =
    )
    (
    }
    {
    3
    Строго говоря, нужно учитывать совместные плотности распределения (плотности распределения нескольких случайных величин). Подробнее об этом можно почитать в [1,3].

    © К.Ю. Поляков, 2009
    13
    Если мы знаем только одну реализацию, можно попробовать оценить среднее значение на ин- тервале
    ]
    ,
    [
    T
    T

    , разделив интеграл от функции
    )
    (t
    x
    на ширину интервала:
    dt
    t
    x
    T
    x
    T
    T
    T


    =
    )
    (
    2 1
    ˆ
    Переходя к пределу при


    T
    (применяя усреднение на бесконечном интервале), получаем оценку среднего значения по одной реализации
    )
    (t
    x
    :
    dt
    t
    x
    T
    x
    T
    T
    T




    =
    )
    (
    2 1
    lim
    ˆ
    Для эргодических процессов это значение совпадает с x , которое получено путем усреднения по ансамблю.
    2.4. Корреляционная функция
    Корреляционная функция
    )
    (
    τ
    X
    R
    стационарного процесса
    )
    (t
    X
    также может быть вычис- лена двумя способами, усреднением по ансамблю (через совместную плотность вероятности) и усреднением одной реализации по времени. Для эргодического процесса оба метода дают один и тот же результат.
    Далее мы будем рассматривать только эргодические процессы, для которых можно найти корреляционную функцию по одной реализации. Чтобы вычислить
    )
    (
    τ
    X
    R
    для некоторого
    τ , нужно найти среднее значение произведения
    )
    (
    )
    (
    τ
    +
    t
    x
    t
    x
    :
    dt
    t
    x
    t
    x
    T
    R
    T
    T
    T
    X
    )
    (
    )
    (
    2 1
    lim
    )
    (
    τ
    τ
    +
    =




    . (1)
    Построить график функции
    )
    (
    τ
    X
    R
    можно по точкам, выполнив такое интегрирование для каждого значения
    τ из некоторого массива.
    Корреляционная функция обладает рядом важных
    1   2   3   4   5   6   7   8   9


    написать администратору сайта