Главная страница
Навигация по странице:

  • Классификация случайных процессов

  • Стационарность случайного процесса Случайный процесс называется стационарным

  • Эргодичность случайного процесса

  • Гауссов шум Нормальное или гауссово распределение

  • II. Спектральный анализ Преобразование Фурье

  • Учебнометодическое пособие Саратов 2008 2 Содержание содержание 2 теоретическая справка 4


    Скачать 0.74 Mb.
    НазваниеУчебнометодическое пособие Саратов 2008 2 Содержание содержание 2 теоретическая справка 4
    Дата07.04.2021
    Размер0.74 Mb.
    Формат файлаpdf
    Имя файлаanalysis.pdf
    ТипУчебно-методическое пособие
    #192082
    страница2 из 4
    1   2   3   4
    Простейшие свойства математического ожидания
    Математическое ожидание линейно, то есть
    [
    ]
    bMY
    aMX
    bY
    aX
    M
    +
    =
    +
    , где
    X
    ,
    Y
    – случайные величины с конечным математическим ожиданием, а
    a
    ,
    b –
    произвольные вещественные константы;
    Математическое ожидание сохраняет неравенства, то есть, если
    0 ≤ X Y почти наверное, и
    Y
    – случайная величина с конечным математическим ожиданием, то математическое ожидание случайной величины
    X
    также конечно, и более того
    0 ≤ MX MY
    ;
    Математическое ожидание не зависит от поведения случайной величины на событии вероятности нуль, то есть если
    X = Y
    почти наверное, то
    MX
    = MY;
    Математическое ожидание произведения двух независимых случайных величин
    X
    ,
    Y
    равно произведению их математических ожиданий
    M[XY]=
    MX MY.
    Вторые моменты случайного процесса
    Второй начальный момент случайного процесса описывается интегралом




    =
    dx
    t
    x
    W
    x
    t
    )
    ,
    (
    )
    (
    2 2
    ξ
    и определяет среднюю мощность случайного процесса.
    При анализе случайных процессов часто интерес представляет флуктуационная составляющая. Введем понятие центрированного случайного процесса
    – 12 –

    ξ
    ξ
    ξ

    =
    0
    , то есть отклонение от среднего
    ξ
    случайного процесса. Второй центральный момент определяет мощность флуктуационной составляющей случайного процесса и называется дисперсией





    =
    dx
    t
    x
    W
    t
    x
    t
    )
    ,
    (
    )]
    (
    [
    )
    (
    2
    ξ
    σ
    Дисперсия случайной величины – мера разброса данной случайной величины, то есть ее отклонения от математического ожидания. Обозначается
    DX
    в русской литературе и
    var X
    (англ. variance) в зарубежной. В статистике часто употребляется обозначение
    σ
    2
    X
    или
    σ
    2
    . Квадратный корень из дисперсии
    σ называется среднеквадратичным отклонением, стандартным отклонением или стандартным разбросом.
    В статистическом понимании дисперсия есть среднее арифметическое из квадратов отклонений величин x
    i
    от их среднего арифметического






    +
    +
    +
    =
    n
    x
    x
    x
    x
    n
    2 1
    :

    =

    =
    n
    i
    i
    x
    x
    n
    1 2
    2
    )
    (
    1
    σ
    Cвойства дисперсии:

    Дисперсия любой случайной величины неотрицательна:
    0
    )
    (
    2

    X
    σ
    ;

    Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;

    Если величина равна константе, то её дисперсия равна нулю:
    0
    )
    (
    2
    =
    X
    σ
    Верно и обратное: если
    0
    )
    (
    2
    =
    X
    σ
    , то
    X
    =
    EX.
    Автокорреляционная функция
    Корреляционные
    функции – важнейшие характеристики случайных процессов.
    Используя одномерную плотность распределения вероятности W(x, t) можно получить параметры случайного процесса, которые являются усреднением по множеству (ансамблю) реализаций данного случайного процесса в каком либо его «сечении», то есть в фиксированный момент времени t. Но задание
    – 13 –
    одномерной плотности распределения вероятности не дает возможность определить характер изменения случайного процесса во времени и не характеризует взаимосвязь случайного процесса в различные моменты времени.
    Для этого вводят понятие двумерной плотности распределения вероятности
    W
    (x
    1
    , x
    2
    , t
    1
    , t
    2
    )
    , описывающей связь двух значений
    ξ
    (
    t
    1
    ) и
    ξ
    (
    t
    2
    )в произвольные моменты времени t
    1
    и
    t
    2
    :
    }
    )
    (
    )
    (
    {
    )
    ,
    ,
    ,
    (
    2 2
    2 2
    1 1
    1 1
    2 1
    2 1
    2 1
    dx
    x
    t
    x
    dx
    x
    t
    x
    P
    dx
    dx
    t
    t
    x
    x
    W
    +



    +


    =
    ξ
    ξ
    С помощью двумерной плотности распределения вероятности можно определить автокорреляционную (ковариационную) функцию
    ∫ ∫






    =
    2 1
    2 1
    2 1
    2 1
    2 1
    )
    ,
    ,
    ,
    (
    )
    ,
    (
    dx
    dx
    t
    t
    x
    x
    W
    x
    x
    t
    t
    B
    , а также автокорреляционную функцию центрированного случайного процесса
    ∫ ∫








    =
    2 1
    2 1
    2 1
    2 2
    1 1
    2 1
    )
    ,
    ,
    ,
    (
    ))
    (
    )(
    )
    (
    (
    )
    ,
    (
    dx
    dx
    t
    t
    x
    x
    W
    t
    x
    t
    x
    t
    t
    R
    ζ
    ζ
    или
    )
    (
    )
    (
    )
    ,
    (
    )
    ,
    (
    2 1
    2 1
    2 1
    t
    t
    t
    t
    B
    t
    t
    R
    ζ
    ζ

    =
    В теории статистики автокорреляционная функция сигнала (АКФ) – это степень связи сигнала
    S(t)
    с его копией, сдвинутой на величину
    t
    , иными словами:





    =
    dt
    t
    S
    t
    S
    B
    )
    (
    )
    (
    )
    (
    τ
    τ
    , при
    τ = 0:




    =
    =
    E
    dt
    t
    S
    B
    )
    (
    )
    0
    (
    2
    Максимальное значение автокорреляционной функции (при
    τ
    = 0) равно энергии сигнала, так как сигнал полностью коррелирован сам с собой.
    В теории случайных функций АКФ является корреляционным моментом двух значений одной случайной функции:
    [
    ] [
    ]
    {
    }
    )
    (
    )
    (
    )
    (
    )
    (
    )
    ,
    (
    2 2
    1 1
    2 1
    t
    x
    t
    X
    t
    x
    t
    X
    M
    t
    t
    B



    =
    – 14 –

    Здесь
    )
    (
    )
    (
    t
    MX
    t
    x
    =
    , а
    )
    (t
    MX
    – математическое ожидание.
    График автокорреляционной функции можно получить, отложив по оси ординат коэффициент корреляции двух функций (базовой и функции сдвинутой на величину
    τ
    ) а по оси абсцисс величину τ. Если исходная функция строго периодическая, то на графике автокорреляционной функции тоже будет строго периодическая функция. Таким образом, из этого графика можно судить о периодичности базовой функции, а, следовательно, и о её частотных характеристиках. Это применяется для анализа сложных колебаний, например электроэнцефалограммы человека.
    Основные свойства АКФ
    :
    1)
    R(τ) = R(–τ);
    2)
    σ
    2
    =
    R(0) ≥ R(τ);
    3)
    0
    )
    (
    lim
    =


    τ
    τ
    R
    Формально можно вычислить автокорреляционную функцию и для детерминированного процесса. Например, для периодической функции F(t)=a
    sin(ωt) автокорреляционная функция описывается следующим выражением
    )
    cos(
    2
    )
    (
    2
    ωτ
    τ
    a
    R
    =
    Для периодической функции, представимой рядом Фурье аналогично получаем


    =
    =
    0
    )
    cos(
    )
    (
    n
    n
    n
    t
    a
    t
    f
    ω
    )
    cos(
    2 1
    )
    (
    2
    τ
    ω
    τ
    n
    n
    a
    R


    =
    =
    0
    n
    Таким образом, автокорреляционная функция периодической функции текущего времени t является также периодической функцией от аргумента τ – величины временного сдвига.
    – 15 –

    Классификация случайных процессов
    Случайный процесс называется стационарным, если все многомерные законы распределения зависят только от взаимного расположения моментов времени
    t
    1
    ,
    t
    2
    , …,
    t
    n
    , но не от самих значений этих величин. В противном случае, он называется нестационарным.
    Случайная функция называется стационарной в широком смысле, если её математическое ожидание и дисперсия постоянны, а АКФ зависит только от разности моментов времени, для которых взяты ординаты случайной функции.
    Если ординаты случайной функции подчиняются нормальному закону распределения, то и сама функция называется нормальной.
    Случайные функции, закон распределения ординат которых в будущий момент времени полностью определяется значением ординаты процесса в настоящий момент времени и не зависит от значений ординат процесса в предыдущие моменты времени, называются марковскими.
    Случайный процесс называется процессом с независимыми приращениями, если
    :
    :
    ,
    ,
    ,
    ,
    ,
    4
    ,
    3 2
    1 2
    1
    n
    n
    t
    t
    t
    t
    t
    t
    n
    K
    K
    K
    <
    <

    =

    (
    ) (
    ) (
    )
    1 2
    3 1
    2
    ,
    ,
    ,




    n
    n
    t
    t
    t
    t
    t
    t
    X
    X
    X
    X
    X
    X
    K
    – независимые случайные величины.
    Стационарность случайного процесса
    Случайный процесс называется стационарным, если одномерная плотность распределения вероятности и, следовательно, среднее значение и дисперсия случайного процесса не зависят от времени, а двумерная плотность распределения вероятности и автокорреляционная функция зависят только от разности временных аргументов B(t
    1
    ,
    t
    2
    )=
    B(τ), где τ = t
    1

    t
    2
    Если многомерный закон распределения вероятностей распределения мгновенных значений, взятых в разные моменты времени, не зависят от принятого начала отсчёта, а зависят только от интервалов между выбранными моментами
    )
    ,
    ,...
    ,
    ,
    ,
    (
    )
    ,
    ,...
    ,
    (
    2 2
    1 1
    1 1
    Δ
    +
    Δ
    +
    Δ
    +
    =
    k
    k
    k
    k
    k
    k
    t
    x
    t
    x
    t
    x
    W
    t
    x
    t
    x
    W
    ,
    – 16 –
    то такой процесс стационарен в
    узком смысле. Если независимость от начала отсчёта выполняется только до второго (корреляционного) момента (включая первый), то такой процесс называют стационарным в широком смысле.
    )
    (
    )
    (
    )
    ,
    (
    1 2
    2 1
    τ
    k
    k
    x
    R
    t
    t
    R
    t
    t
    R
    =

    =
    Эргодичность случайного процесса
    Случайный процесс называется эргодическим первого порядка, если его первый момент, полученный усреднением по множеству реализаций, с вероятностью сколь угодно близкой к единице совпадает со средним значением, полученным усреднением по времени одной достаточно длинной реализации.
    Случайный процесс называется эргодическим второго порядка, если его корреляционная функция, с вероятностью сколь угодно близкой к единице совпадает со средним значением произведения случайного процесса при сдвинутых аргументах, полученным усреднением по времени одной достаточно длинной реализации.
    Параметры эргодического случайного процесса могут быть определены так:




    =
    2
    /
    2
    /
    )
    (
    )
    (
    lim
    T
    T
    T
    dt
    t
    t
    ξ
    ξ
    ,




    =
    2
    /
    2
    /
    2 2
    )
    (
    1
    )
    (
    lim
    T
    T
    T
    dt
    t
    T
    t
    ξ
    ξ
    ,
    2 2
    2 2
    )
    (
    ξ
    σ
    ξ
    ξ

    =


    t
    Усреднением по времени могут быть найдены также автокорреляционные функции эргодического случайного процесса


    →∞
    +
    =
    2
    /
    2
    /
    )
    (
    )
    (
    1
    lim
    )
    (
    T
    T
    T
    dt
    t
    t
    T
    B
    τ
    ξ
    ξ
    τ
    ,
    2
    )
    (
    )
    (
    ξ
    τ
    τ

    = B
    R
    Гауссов шум
    Нормальное или гауссово распределение является одним из наиболее широко известных неравномерных распределений, его функция плотности имеет вид
    2 2
    2
    /
    )
    (
    2 2
    1
    )
    (
    σ
    μ
    πσ


    =
    x
    e
    x
    p
    , где
    μ – среднее, σ
    2
    – дисперсия. Для гауссовых величин справедливо следующее утверждение: случайная величина, полученная линейным преобразованием из гауссовой величины, является гауссовой. В частности, величина y = a x + b
    – 17 –
    является гауссовой, если
    x имеет гауссову функцию плотности распределения вероятностей со средним μ
    x
    и дисперсией
    σ
    y
    2
    , причем
    μ
    y
    = a μ
    x
    + b и σ
    y
    2
    =
    a σ
    х
    2
    Существуют различные методы получения последовательностей с гауссовой функцией распределения вероятностей, один из которых основан на использовании центральной предельной теоремы, которая утверждает, что распределение стремится к нормальному, если суммируется достаточно большое количество таких величин [2].
    Таким образом, для того, чтобы получить последовательность случайных чисел с нормальной функцией плотности распределения вероятностей, можно воспользоваться центральной предельной теоремой, то есть рассмотреть сумму вида
    , где r
    { }
    N
    i
    i
    x
    1
    =

    =
    =
    M
    j
    j
    i
    r
    x
    1
    j
    – случайные величины, равномерно распределенные на отрезке [0; 1]. Необходимо произвести проверку, действительно ли полученная последовательность случайных величин является последовательностью с гауссовой функцией плотности распределения вероятностей. Для этого определите среднее, дисперсию, автокорреляционную функцию и оцените функцию плотности распределения вероятности для различных M – и выберите оптимальное значение M.
    Литература
    [1]
    Никитина Е.П., Фрейдлина В.Д., Ярхо А.В. Коллекция определений термина «статистика». – М.: МГУ, 1972.
    [2]
    Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. – М.: Наука, 1970
    [3]
    Кендалл М., Стьюарт А., Статистические выводы и связи, пер. с англ.,
    М., 1973;
    [4]
    Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М.,
    1975.
    [5]
    Гнеденко Б.В., Курс теории вероятностей, 5 изд., М., 1969.
    – 18 –

    II. Спектральный анализ
    Преобразование Фурье
    Спектральный анализ – один из методов обработки сигналов, который позволяет охарактеризовать частотный состав измеряемого сигнала. Преобразование
    Фурье является математической основой, которая связывает временной или пространственный сигнал (или же некоторую модель этого сигнала) с его представлением в частотной области. Важную роль в спектральном анализе играют методы статистики, поскольку сигналы, как правило, имеют случайный характер или зашумлены при распространении или измерении. Если бы основные статистические характеристики сигнала были точно известны, или их можно было определить по конечному интервалу этого сигнала, то спектральный анализ представлял бы собой отрасль «точной науки». Однако, в действительности по отрезку сигнала можно получить только оценку его спектра. Поэтому практика спектрального анализа – некое ремесло (или искусство?) достаточно субъективного характера.
    Различие между спектральными оценками, получаемыми в результате обработки одного и того же отрезка сигнала разными методами, можно объяснить различием допущений, принятых относительно данных, различными способами усреднения и тому подобное. Если априори характеристики сигнала не известны, нельзя сказать какие из оценок лучше.
    Кратко обсудим разные виды преобразования Фурье (более подробно см. в [1]).
    Начнем с преобразования Фурье непрерывного во времени сигнала, которое идентифицирует частоты и амплитуды тех комплексных синусоид (экспонент), на которые разлагается некоторое произвольное колебание.
    )}
    (
    {
    )
    (
    )
    (
    2
    t
    x
    dt
    e
    t
    x
    f
    X
    ft
    j


    =





    π
    , где
    1

    =
    j
    ,

    <
    <


    f
    ,
    x(t)
    – обычно является функцией времени
    t.
    Обратное преобразование
    – 19 –

    – 20 –


    )}
    (
    {
    )
    (
    )
    (
    1 2
    f
    X
    df
    e
    f
    X
    t
    x
    ft
    j




    =

    π
    Существование прямого и обратного преобразования Фурье определяется рядом условий. Достаточное – абсолютная интегрируемость сигнала

    <




    dt
    t
    x
    |
    )
    (
    |
    Менее ограничительное достаточное условие – конечность энергии сигнала

    <




    dt
    t
    x
    2
    |
    )
    (
    |
    Данные, полученные в ходе натурных и численных экспериментов, как правило, представляют собой последовательности отсчетов переменной состояния x
    n
    =
    x(t
    n
    ), расположенных через равные интервалы времени ∆
    t (t
    n
    =
    nt, n = 0, 1 … ,
    N–1). В таком случае рассматривают дискретное прямое и обратное преобразование Фурье соответственно:


    =

    Δ
    =

    =
    =
    1 0
    /
    2
    )
    (
    ))
    (
    (
    )
    (
    N
    n
    N
    nk
    j
    n
    n
    k
    k
    e
    t
    x
    t
    t
    x
    f
    X
    X
    π
    ,


    =

    Δ
    =

    =
    =
    1 0
    /
    2 1
    )
    (
    ))
    (
    (
    )
    (
    N
    n
    N
    nk
    j
    k
    k
    n
    n
    e
    f
    X
    f
    f
    X
    t
    x
    x
    π
    , где k = 0, 1, … , N–1; ∆
    f = 1/(N t), f
    k
    =
    k f. Величины X и x связаны равенством
    Парсеваля:



    =

    =
    =
    1 0
    2 1
    0 2
    |
    |
    1
    |
    |
    N
    k
    k
    N
    n
    n
    X
    N
    x
    . График величины |
    X
    k
    |
    2
    как функции частоты
    f называется спектром мощности. Величина шага ∆f соответствует спектральному разрешению. Наибольшая частота спектра равна Nf. График спектра всегда симметричен относительно вертикальной прямой (N/2) ∆f. Таким образом, полезный диапазон частот, содержащий неизбыточную информацию, находится в интервале [0; 1/(2 ∆t)]. Как правило, при построении графика спектра по оси ординат откладывают величину P = 10 log
    10
    (|
    X
    k
    |
    2
    ).

    1   2   3   4


    написать администратору сайта