Главная страница
Навигация по странице:

  • СЛУЧАЙНЫЕ ПРОЦЕССЫ

  • ТЕОРИЯ СЛУЧАЙНЫХ. Конспект подготовлен студентами, не проходил проф. Редактуру и может содержать ошибки. Следите за обновлениями на vk. Comteachinmsu


    Скачать 1.05 Mb.
    НазваниеКонспект подготовлен студентами, не проходил проф. Редактуру и может содержать ошибки. Следите за обновлениями на vk. Comteachinmsu
    Дата01.02.2023
    Размер1.05 Mb.
    Формат файлаpdf
    Имя файлаТЕОРИЯ СЛУЧАЙНЫХ.pdf
    ТипКонспект
    #915628
    страница3 из 6
    1   2   3   4   5   6

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    Преобразование Фурье в теореме Бохнера-Хинчина
    Итак, мы собираемся изучать дисперсию и математическое ожидание нашего слу- чайного процесса. Если случайный процесс стационарный, то это две константы и изучать их особо нечего - можно сделать несложную замену переменных и обратить математическое ожидание в 0, а дисперсию в 1.
    Теперь пусть у нас есть действительный случайный процесс ξ(t
    1
    ), ξ(t
    2
    )
    , то мате- матическое ожидание M(ξ(t
    1
    ), ξ(t
    2
    )) 6= 0
    . Эта идея аналогична той, при которой в теории вероятностей возникает коэффициент коррелляции. В данном случае возни- кает целая функция M(ξ(t
    1
    ), ξ(t
    2
    )) = B(t
    1
    , t
    2
    )
    , которая называется коррелляцион- ной функцией. Для стационарного случайного процесса коррелляционная функция зависит от одного переменного B(u), где u = |t
    1
    − t
    2
    |
    . Необходимо понять, как это условие выглядит в терминах преобразования Фурье. Мы будем работать с ком- плексными величинами, причём если есть комплексный вектор ξ(t) + iη(t), тогда при построении коррелляционной величины возникнет матрица размерности n = 2.
    Таким образом, от одной функции мы переходим к матрице. Но, на самом деле, как только мы будем рассматривать преобразование Фурье нашего случайного процесса и хотим написать функцию коррелляции между ξ(ω
    1
    )
    и ξ(ω
    2
    )
    , то мы должны поста- вить знак комплексного сопряжения и тогда получим коррелляционную функцию
    M ( ˜
    ξ(ω
    1
    )
    и ˜
    ξ


    2
    )
    для случайного процесса после преобразования Фурье. Теперь на- ша задача - написать условие стационарности в пространстве Фурье. Понятно, что если у нас есть условие B(t
    1
    , t
    2
    ) = B(u)
    , где u = |t
    1
    − t
    2
    |
    , то должно появиться и условие на коррелляционную функцию в пространстве Фурье:
    B(u) =< ξ(t
    1


    (t
    2
    ) >=
    1 2π
    R
    +∞
    −∞

    1
    R
    +∞
    −∞

    2
    e iω
    1
    t
    1
    e
    −1ω
    2
    t
    2
    < ˜
    ξ
    1

    1
    ) ˜
    ξ


    2
    ) >
    ˜
    B(ω
    1
    , ω
    2
    ) =< ˜
    ξ
    1

    1
    ) ˜
    ξ


    2
    ) >=
    1 2π
    R
    +∞
    −∞
    dt
    1
    R
    +∞
    −∞
    dt
    2
    e iω
    1
    t
    1
    e
    −1ω
    2
    t
    2
    B(|t
    1
    − t
    2
    |)
    Введем t
    1
    = T −
    u
    2
    , t
    2
    = T +
    u
    2
    . И от T ничего не должно зависеть.
    Возьмем один из интегралов и посмотрим, что из этого получится:
    1 2π
    R
    +∞
    −∞
    duB(u)e i(
    ω1+ω2 2
    )
    R
    +∞
    −∞
    dT e
    −iT (ω
    1
    −ω
    2
    Интеграл R
    +∞
    −∞
    dT e
    −iT (ω
    1
    −ω
    2
    = δ(ω
    1
    − ω
    2
    )
    В интеграле R
    +∞
    −∞
    duB(u)e i(
    ω1+ω2 2
    )
    положим ω
    1
    = ω
    2
    и тогда:
    R
    +∞
    −∞
    duB(u)e i(
    ω1+ω2 2
    )
    =
    R
    +∞
    −∞
    duB(u)e iω
    Тогда ˜
    B(ω
    1
    , ω
    2
    ) = ˜
    B(ω)δ(ω
    1
    − ω
    2
    )
    , где ˜
    B(ω)
    - это преобразование Фурье B(u).
    19
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    Формулировка теоремы Бохнера-Хинчина
    Как же должна выглядеть функция B(u): в нуле она должна быть максимальна и стремиться к нулю при больших u (на Рис. 1 отмечена синим).
    Рис. 1. Функция B(u)
    Эту функцию найти достаточно непросто и возникает желание сказать, что функ- ция устроена так (на Рис. 1 отмечена чёрным):
    Теорема Бохнера-Хинчина как раз говорит о том, что так сделать нельзя: т.к. у нас δ(ω
    1
    − ω
    2
    )
    , то B(ω) - это квадрат некоторой гармоники преобразования Фурье,
    т.е. неотрицательная величина. И получаем необходимую часть теоремы Бохнера-
    Хинчина: у стационарного случайного процесса образ Фурье коррелляционной функ- ции неотрицателен. А у нашей функции это не так:
    Для проверки этого нам необходимо продолжить функцию в отрицательной по- луплоскости и тогда:
    R
    τ
    −τ
    e iω
    u du =
    1

    e iω
    u
    |
    τ
    τ
    =
    1

    (e iωτ
    − e
    −iωτ
    )
    P
    n i=1
    a i
    = 1 =
    sin(ω)
    ω
    , а sin - знакоперемен- ная функция.
    Теорема Бохнера-Хинчина для сред с флуктуирующей температурой
    Рассмотрим теперь среду, в которой есть флуктуация температуры, которая пред- ставляет собой случайное поле и распределение это однородное и изотропное. Воз- никает представление о том, что у нас есть случайная величина ξ(

    x) и < ξ(x)ξ(y) >=
    B(
    x,
    y)
    , которая в нестационарном случае зависит от x и y, а в случае, когда есть
    20
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    однородность и изотропия B = B(r), где r = |x − y|.
    Поговорим о том, что такое однородное и изотропное поле скорости в определенный момент времени. Величина < v i
    (
    x)v j
    (
    y) >
    - тензор. Поэтому возникает необходи- мость сформулировать понятие однородного и изотропного тензора:
    < v i
    (
    x)v j
    (
    y) >= A(r)δ
    ij
    + B(r)
    r i
    r j
    r
    2
    или
    < v i
    (
    x)v j
    (
    y) >= A(r)δ
    ij
    + B(r)
    r i
    r j
    r
    2
    + α(r)ε
    ijk r
    k
    С этим связано вот какое утверждение: если мы рассматриваем стационарный слу- чайный процесс, то функция и её производная некорреллированы
    < f (x)f
    0
    (x) >=
    d dx
    < f
    2
    (x) >
    . Этого нельзя сказать про векторные поля, т.к. для векторного поля можно рассмотреть коррелляцию < v i
    rot(v i
    ) >
    и она может не равняться нулю в силу условия стационарности.
    Т.е. статистически однородное изотропное зеркально-ассимметричное случайное по- ле может содержать коррелляции между скоростью и вихрем.
    Как оказалось, бывают вращающиеся среды, в которых эта коррелляция отлична от нуля непосредственно из-за факта вращения. Более того, эта величина коррел- ляции является топологическим инвариантом движения и законом сохранения.
    21
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    Лекция 5
    Идеи Маркова и их реализация
    Марковские процессы - один из наиболее востребованных разделов курса слу- чайных процессов, причём востребованный во многих областях. Идея марковских процессов носит характер общенаучной.
    Само марковское свойство допускает такую интерпретацию: будущее не зависит от прошлого при известном настоящем, т.е. для того, чтобы предсказывать буду- щее, не нужно знать прошлого - достаточно знать настоящее. Непосредственная реализация этого свойства такова: пусть у нас есть некое конечное число состояний
    N
    и в них находятся какие-то объекты. В начальный момент задается распределе- ние вероятностей того, что данная система находится в состоянии ω
    i
    : P {ω} = a i
    - начальные вероятности. Сумма этих вероятностей P
    n i=1
    a i
    = 1
    Дальше есть условная вероятность того, что мы из состояния i перейдем в состояние k
    : P {ω
    i

    k
    } = p ik
    . Естественно, возникает некая матрица, которую мы назовём ˆπ, а начальные вероятности мы будем интерпретировать как вектор a. Теперь необходи- мо обозначить, что в принципе бывает с этими объектами. Мы будем рассматривать ситуацию, когда объекты никуда не деваются и поэтому P
    k p
    ik
    = 1
    :
    p k
    =
    P
    i a
    i p
    ik
    P
    N
    k=1
    p k
    =
    P
    k
    P
    i a
    i p
    ik
    = 1
    т.е. в этой системе есть закон сохранения - количество a сохраняется.
    Введем вектор p
    1
    = aˆ
    π
    . Марковское свойство означает, что дальше мы должны действовать той же самой матрицей и тогда то, что у нас получится, будет одно- родной марковской цепью.
    В принципе, можно действовать и различными матрицами. Тогда получится следу- ющее:

    p
    1
    = aˆ
    π
    (1)

    p
    2
    = aˆ
    π
    (1)
    ˆ
    π
    (2)

    p n
    = aˆ
    π
    (1)
    ˆ
    π
    (2)
    . . . ˆ
    π
    (n)
    ,
    22
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    где ˆπ
    (i)
    - матрица перехода на i-м шаге. И на каждом шаге полная вероятность сохраняется.
    Возникающая идея состоит в том, что при очень широких предположениях по- следовательность p n
    = aˆ
    π
    (1)
    ˆ
    π
    (2)
    . . . ˆ
    π
    (n)
    сходится к пределу, который не зависит от начального состояния. Возникает стационарное распределение вероятностей. При этом оказывается, что можно отвлечься от начального состояния и рассматривать переходную вероятность из состояния i в состояние j за n шагов: p
    (n)
    ij
    7→ p j
    Принцип Маркова предполагает, что матрица π может зависеть от n, однако мы будем рассматривать случай, когда этого не происходит. Тогда:

    p n
    = aˆ
    π
    (1)
    ˆ
    π
    (2)
    . . . ˆ
    π
    (n)
    = aˆ
    π
    n
    Но если матрицы π зависят от n или если они постоянные, то запишем, как связана матрица перехода из состояния i в состояние j с матрицами перехода за m и за n − m шагов:
    p n
    ij
    =
    P
    k p
    m ik p
    n−m kj
    - формула полной вероятности. Это одна из основных формул квантовой механики.
    Теорема Маркова
    Теперь если мы рассматриваем эту задачу как задачу линейной алгебры, то ста- ционарное состояние, существование которого мы предполагаем, есть некое распре- деление p, т.е. :

    p =

    π
    n
    Т.е. речь идет о том, что у стохастической матрицы есть такой собственный вектор и что к нему сходятся другие векторы, полученные путем действия на вектор мат- рицей. Это и есть теорема Маркова.
    Рассмотрим стандартную задачу по данной теории. Пусть у нас есть два состоя- ния 1 и 2. Из состояния 1 мы можем с вероятностью p остаться в состоянии 1 и с вероятностью q перейти в состояние 2. Из состояния 2 с вероятностью p остаться в состоянии 2 и с вероятностью q перейти в состояние 1. Тогда:
    π =
    p q q p
    ,
    p + q = 1
    Задача на собственные значения:
    23
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    det p − λ
    q q
    p − λ
    = 0
    λ
    1
    = 1, λ
    2
    = p − q = c
    Эта матрица написана в некотором базисе. В собственном базисе она будет выгля- деть так:
    π =
    1 0 0 c
    , а π
    n
    =
    1 0
    0 c n
    Понятно, что при n 7→ ∞ она стремится к const. Это старшее собственное значение и итерации очень быстро к нему сходятся.
    В исходном базисе имеем:
    π
    n
    =
    1 2
    1 + c n
    1 − c n
    1 − c n
    1 + c n
    а стационарное распределение будет равно
    1 2
    1 2
    Чтобы это свойство работало для матрицы размера n × n, мы должны доказать,
    что λ = 1 - старшее собственное значение, что оно невырожденное и что нет ком- плексного собственного значения, равного 1 по модулю.
    То, что не может быть старшего собственного значения, по модулю отличного от 1,
    вытекает из закона сохранения - сумма вероятностей равна 1.
    Мы должны наложить какое-то условие, которое исключает появление вращения,
    т.е. появления комплексных собственных значений: среди этих состояний должно быть множество J, куда мы переходим с вероятностью, отличной от 0, из любого положения. И тогда вращение исключается. Но, как оказалось, достаточно будет перейти туда за ν шагов.
    Таким образом, если есть такое число ν, что мы за такое число шагов мы обя- зательно перейдем в некий выделенный набор состояний J, то тогда у нас будет стационарное состояние.
    Если в марковской цепи возникает стационарное состояние, то можно проверить выполнение того, что называется эргодическим свойством. Возникает граф a
    (n)
    ij со- стояний i
    0
    , i
    1
    , . . . , i n
    , . . .
    и можно посчитать среднее значение номера i вдоль этого состояния с помощью стационарного распределения. И, как оказалось, в пределе большого времени среднее по времени равно среднему по стационарному состоя- нию. Это называется эргодической теоремой - это широчайше известный факт в области всех естественных наук.
    Теперь сформулируем более явно то, что является утверждением теоремы Мар- кова.
    Нам дана однородная марковская цепь. Есть набор состояний J, в каждое из кото- рых из любого состояния по крайней мере за дискретное время ν с вероятностью,
    24
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    отличной от 0, система переходит. Тогда существует финальное распределение, к которому есть экспоненциально быстрая сходимость.
    25
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    Лекция 6
    Новая формулировка марковского свойства
    Исходная марковская формулировка подразумевает то, что у нас и время, и состо- яния перехода, которые мы изучаем, дискретны. Мы сейчас последовательно будем отказываться от дискретности и этот отказ не пройдет бесследно - нам придется поменять некоторые постановки вопросов, и у нас должны получиться аналоги кон- струкций Маркова с непрерывными временем и множеством состояний.
    Начнем с первой задачи - отказ от дискретности времени. Вспомним, что было в исходной конструкции Маркова:
    у нас был набор состояний ω
    i и начальное распределение вероятностей p i
    - веро- ятность того, что наша система находится в состоянии i. И, т.к. это вероятности,
    то P
    i p
    i
    = 1
    . В исходной марковской теории эта сумма P
    N
    i p
    i
    = 1
    конечная, т.к.
    число i = 1, . . . , N. Если говорить об обобщениях, то, конечно, самый первый шаг - сделать число i бесконечным и рассматривать вместо конечных сумм ряды, но сей- час мы это рассматривать не будем. Дальше у нас возникает матрица переходных вероятностей ˆπ, которая показывает, с какой вероятностью мы переходим из состоя- ния i в состояние j на некотором шаге. Также имеет место следующее соотношение:


    π
    (1)
    =
    p
    (1)
    и дальше процесс продолжается.
    В прошлой лекции мы говорили о том, что если выполнены определенные условия,
    то возникающие векторы p
    (n)
    7→
    p

    и возникает финальное распределение. Кроме того, возникает произведение матриц ˆπ
    (1)
    ˆ
    π
    (2)
    . . . ˆ
    π
    (n)
    , которое тоже стремится к фи- нальному пределу.
    С точки зрения матричной алгебры к этой задаче можно относиться как к зада- че спктральной теории, как мы и поступали в рамках прошлой лекции. В итоге у нас возникает распределение p

    = ˆ
    π
    p

    , которое является собственным вектором матрицы π и соответствует собственному числу, равному 1. Это возникает тогда,
    когда матрицы ˆπ
    (1)
    , ˆ
    π
    (2)
    , . . . , ˆ
    π
    (n)
    одинаковы и ˆπ
    (1)
    ˆ
    π
    (2)
    . . . ˆ
    π
    (n)
    = ˆ
    π
    n
    . Это однорожные марковские цепи.
    Элементы матрицы ˆπ обладают таким свойством, что построчная сумма элемен- тов равна 1 - это нужно для того, чтобы вероятность перехода частицы из одного состояния в другое была равна 1. Такие матрицы называются стохастическими и,
    соответственно, из определения таких матриц следует, что число 1 является соб- ственным значением этой самой матрицы.
    При тех условиях, при которых выполняется теорема Маркова, это собственное зна-
    26
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    СЛУЧАЙНЫЕ ПРОЦЕССЫ ​•
    СОКОЛОВ ДМИТРИЙ ДМИТРИЕВИЧ
    КОНСПЕКТ ПОДГОТОВЛЕН СТУДЕНТАМИ, НЕ ПРОХОДИЛ
    ПРОФ РЕДАКТУРУ И МОЖЕТ СОДЕРЖАТЬ ОШИБКИ
    СЛЕДИТЕ ЗА ОБНОВЛЕНИЯМИ НА VK.COM/TEACHINMSU
    чение является старшим и к нему сходится вектор p.
    Теперь мы хотим сделать примерно то же самое, только мы хотим, чтобы вме- сто дискретного индекса n возникло непрерывное время t. Понятно, что исходная конструкция Маркова держится на том, что мы переходим от момента n = 0 к мо- менту n = 1 и т.д. и на каждом шаге возникает матрица ˆπ. Как только мы хотим сделать время t непрерывным, выясняется, что шага времени у нас нет - вместо этого есть непрерывное время t.
    С начальным условием проблем нет - в начальный момент времени есть набор ве- роятностей p i
    (0)
    и P
    N
    i=1
    p i
    (0) = 1
    . Вопрос состоит в том, что мы должны написать вместо матрицы ˆπ и как сформулировать марковское свойство.
    Мы будем говорить, что мы переходим от момента времени s к моменту времени t - этим моментам будут соответствовать верхние индексы при матрицах переходных вероятностей. Т.е. вместо дискретного номера мы будем использовать непрерывное значение. Но мы не можем сказать, что наш переход - это переход от времени n − 1
    ко времени n. Поэтому в матрице ˆπ элементы теперь должны зависеть от двух па- раметров ||p ij
    (s, t)||
    - вероятность перейти в состояние ω
    i в момент времени t из состояния ω
    j в момент времени s.
    Теперь у нас возникает матрица ˆπ, которая зависит от двух моментов времени
    ˆ
    π(s, t) = ||p ij
    (s, t)||
    . Далее нам необходимо сформулировать марковское свойство.
    У нас возникают три момента времени s, t
    1
    , t
    . Теперь выпишем формулу полной вероятности:
    ˆ
    π(s, t) = ˆ
    π(s, t
    1

    π(t
    1
    , t)
    Теперь, если мы запишем это соотношение через элементы матриц, то получаем:
    p ij
    (s, t) =
    P
    N
    k=1
    p ik
    (s, t
    1
    )p kj
    (t
    1
    , t)
    - марковское свойство.
    Прямое и обратное уравнения Колмогорова
    При выводе прямого и обратного уравнений Колмогорова мы не будем гнаться за общностью - от величин, входящих в конструкцию марковской цепи мы потребуем всего, что нам будет необходимо.
    В данном случае мы потребуем, чтобы наша матрица ˆπ(s, t) ∈ C
    1
    Те утверждения, которые мы сейчас сформулируем и докажем, носят характер тео- рем. Прямое уравнение Колмогорова - уравнение для производных по t, обратное
    27
    МЕХАНИКО-МАТЕМАТИЧЕСКИЙ
    ФАКУЛЬТЕТ
    МГУ ИМЕНИ М.В. ЛОМОНОСОВА

    1   2   3   4   5   6


    написать администратору сайта