Стохастический мир
Скачать 2.82 Mb.
|
x 0 1 2 3 x 1 x 2 x 3 где интервалы времени t i ? t i+1 произвольны. Так как случайные пере- ходы от одного момента времени (x i , t i ) к следующему (x i+1 , t i+1 ) не пе- рекрываются, случайные числа ? 1 , ? 2 , ? 3 ,.. являются статистически неза- висимыми. Это позволяет вычислять средние, относящиеся к различным моментам времени, и строить выборочные траектории. При этом возни- кают последовательности вложенных функций, например: x 2 = f (f (x 0 , t 0 , t 1 , ? 1 ), t 1 , t 2 , ? 2 ). В случае винеровского блуждания, выбирая равный интервал ? между последовательными моментами времени, мы получим: x t = x 0 + t X k=1 ? k ? ? . Хотя выражение для x t похоже на итерационную схему, это, на самом деле, точное соотношение, и ? может быть сколь угодно большим. Стохастические уравнения 65 • Существуют и другие способы представления траектории случайно- го процесса. Рассмотрим для примера разложение Палея-Винера вине- ровского блуждания на интервале времени t = [0..T ]: x(t) = x 0 + ? 0 t ? T + ? 2T ? X k=1 ? k sin(?k t/T ) ?k , (2.34) где ? k ? N (0, 1) независимые нормально распределјнные случайные величины. Это разложение имеет такие же статистические свойства, как и существенно более простая запись ( 2.33 ). Чтобы в этом убедиться, вычислим среднее квадрата x 2 (простое среднее равно hxi = x 0 ): x 2 = x 2 0 + t 2 T + 2T ? X k=1 sin 2 (?k t/T ) ? 2 k 2 = x 2 0 + t, (2.35) где мы воспользовались свойством независимости h? i ? j i = 0 , если i 6= j и ? 2 i = 1 . Равенство x 2 = x 2 0 + t проверяется при помощи фурье разложения функции f(t) = t ? t 2 /T на интервале t = [0..T ] (l H 16 ). В результате получается такой же результат, как и для ( 2.33 ). Плотно- сти вероятности величин ( 2.33 ) и ( 2.34 ) совпадают, так как сумма гаус- совых чисел ? 0 ,? 1 ,... это опять гауссово число, дисперсия которого, как мы показали, равна t. Достоинством представления Палея-Винера является то, что с его по- мощью можно записывать непрерывную функцию одиночной траекто- рии, на конечном интервале времени T . Для этого, естественно, прихо- дится обрезать суммирование на достаточно большом индексе k = N. Затем генерятся независимые случайные числа ? 0 ,...,? N , и фурье раз- ложение дајт изломанную кривую. На рисунках ниже приведено после- довательное увеличение числа слагаемых в сумме: N = 10, 20, 100. При этом случайные числа ? 0 , ? 1 ,.. на каждом графике повторяются: N=10 N=20 N=100 Видно, что степень изломанности траектории увеличивается, стремясь в пределе N ? ? к недифференцируемой стохастической кривой. 66 Глава 2. • Изучая стохастические дифференциальные уравнения, можно ис- пользовать различный язык и различные математические конструкции. Кратко перечислим основные подходы к представлению решений стоха- стических уравнений, их сильные и слабые стороны. B Плотность вероятности является базовым и наиболее общим язы- ком описания случайных функций. Так как мы ограничились классом марковских процессов, знание вероятности перехода P (x 0 , t 0 ? x, t) меж- ду двумя точками позволяет записать вероятность всей траектории. В результате можно вычислять разнообразные средние, и т.п. Чтобы най- ти P (x 0 , t 0 ? x, t) , необходимо решить дифференциальное уравнение в частных производных, которое мы рассмотрим в четвјртой главе. Недо- статком этого подхода является то, что получение конечного результата иногда требует более кропотливых вычислений, чем в рамках других ме- тодов. Примером тому служит описание процесса Орнштейна-Уленбека или процесса Феллера (стр. 82 ). B Уравнения для средних мы рассмотрим в следующей главе. Если целью исследования является поиск различных средних значений стоха- стического процесса, то решение этих уравнений может оказаться самым прямым и простым способом. Дифференциальные уравнения для сред- них часто приводят к полезным соотношениям в асимптотическом пре- деле t ? ? и удобны при построении приближјнных методов. Кроме ограниченности получаемых результатов, недостаток подхода в том, что эти уравнения оказываются замкнутыми лишь для относительно узкого класса задач. B Сведение к известному процессу является очень распространјнным подходом. Обычно при этом используется винеровский процесс W (t) с хо- рошо изученными и простыми свойствами. Например, логарифмическое блуждание x(t) = x 0 exp{(µ ? ? 2 /2)t + ? W (t)} явным образом демон- стрирует деформацию винеровского процесса W (t) в процесс x(t). По- добные решения ищутся при помощи леммы Ито и подходящей замены. Достоинством подхода является быстрота получения конечного резуль- тата (когда это возможно). Кроме этого, мы имеем простую запись для выборочных траекторий. Например, можно сгенерить конкретную тра- екторию W (t) и, подставив еј в x t, W (t), получить выборочную траек- торию процесса x(t). Недостатком подхода является то, что для многих процессов найти простую функцию x t, W (t) не очень просто. Так, уже для процесса Орнштейна-Уленбека в аргументе функции W (t) необходи- мо дополнительно деформировать время, а процесс Феллера вообще не имеет простого представления при помощи W (t). Стохастические уравнения 67 B Стохастические интегралы это наиболее популярный способ как строгого обоснования стохастических уравнений, так и записи их реше- ния при помощи специфических обозначений. Стохастические интегра- лы являются достаточно нетривиальной математической конструкцией. Несмотря на то, что это очень красивая и мощная техника, иногда по- лучаемые с еј помощью результаты оказываются формальными, и вос- пользоваться ими для вычисления, например, средних или плотности вероятности не представляется возможным. Мы будем обсуждать стоха- стическое интегрирование в пятой главе. B Скалярные случайные величины широко используются в этой кни- ге. Стохастичность функции x(t) можно придать при помощи обычной случайной величины ?, не являющейся процессом, и гладкой функции времени. Величина ? имеет определјнное распределение. Чаще всего оно гауссово, однако в общем случае это не обязательно. Дальше мы увидим, что простую форму решению для некоторых процессов можно придать, только используя две или более случайные величины, имеющие совмест- ную плотность вероятности. Запись решения в виде x = f(x 0 , t 0 , t, ?) позволяет легко находить различные средние. Кроме этого, функция f эквивалентна заданию в неявной форме марковской плотности вероятно- сти P (x 0 , t 0 ? x, t) . Действительно, при помощи среднего от произволь- ной функции F (x) можно сделать преобразование, например, от гауссо- вой переменной ? к x (значения начальных условий x 0 , t 0 опущены): hF (x)i = ? Z ?? F (x) P (x, t) dx = ? Z ?? F f (?, t) P (?) d?, где P (?) распределение Гаусса. Проводя во втором интеграле обратную замену x = f(t, ?), мы переходим к первому интегралу, и, следовательно, плотность вероятности случайного процесса в момент времени t равна: P (x 0 , t 0 ? x, t) = 1 ? 2? ?g(x, t) ?x exp ? 1 2 g 2 (x, t) , (2.36) где g(x, t) обратная к x = f(t, ?) функция, т.е. ? = g(x, t). В заключение выскажем очевидную истину. Использование того или иного языка должно диктоваться в первую очередь соображением про- стоты. В зависимости от того, какие задачи решаются, более адекватным может оказаться любой из перечисленных выше подходов. 68 Глава 2. 2.7 Автокорреляция и спектр • В первой главе (стр. 40 ) мы говорили о том, что важной характери- стикой стохастического процесса является связь прошлого и будущего. Она определяется автоковариацией между двумя моментами времени t 1 < t 2 при условии, что при t = t 0 наблюдалось значение x 0 = x(t 0 ) : cov t 0 (t 1 , t 2 ) = x t 1 ? Ї x t 1 x t 2 ? Ї x t 2 , (2.37) где Їx t = hx(t)i среднее значение в момент времени t, а x t i = x(t i ) Если решение стохастического дифференциального уравнения выра- жено через гауссову случайную переменную ?, то вычисление автокова- риации становится несложной задачей. Рассмотрим, например, винеров- ское блуждание с начальным значением x 0 = x(t 0 ) : x(t) = x 0 + µ · (t ? t 0 ) + ? ? t ? t 0 ?. Удобно положить t 0 = 0 , t 1 = t и t 2 = t + ? . При вычислении автокова- риации предполагается, что x, прежде чем достигнуть x t+? = x(t + ? ) , проходит через x t = x(t) . Поэтому решение необходимо разбить на два интервала времени [0...t] и [t...t + ?]. Считая x t начальным условием при ? = 0 для x t+? запишем: x t+? = x t + µ ? + ? ? ? ?. (2.38) Если будущее блуждание ? не зависит от случайной величины процесса x t в момент времени t, то hx t ?i = hx t i h?i = 0 , и: hx t+? x t i = x 2 t + µ? hx t i . Так как: hx t i = x 0 + µt, x 2 t ? hx t i 2 = ? 2 t, легко найти автоковариационную функцию: cov(t, t + ? ) = hx t+? x t i ? hx t+? i hx t i = ? 2 t. Она зависит только от ближайшего к t 0 = 0 времени t и не зависит от ?. Смысл этого факта мы обсуждали при описании дискретного винеров- ского процесса (стр. 36 ). Аналогично вычисляются автоковариации для других стохастических процессов. В качестве упражнения имеет смысл найти автоковариацию для логарифмического блуждания (l H 13 ) и броуновского моста (l H 14 ). Стохастические уравнения 69 • Для процесса Орнштейна-Уленбека решение: x(t) = ? + x 0 ? ? e ?? (t?t 0 ) + ? ? 2? p 1 ? e ?2? (t?t 0 ) ? (2.39) при вычислении автоковариации также необходимо разбить на два ин- тервала (l H 15 ). В результате (t 0 = 0 ): cov(t, t + ? ) = ? 2 (t) e ??? = ? 2 2? 1 ? e ?2? t e ??? (2.40) Если мы рассмотрим большое t, но конечное ?, то автоковариация ( 2.40 ) будет стремиться к выражению, зависящему только от разности времјн ? = t 2 ? t 1 : cov(t, t + ? ) ? ? 2 2? e ?? ? (2.41) Стационарным случайным процессом называется процесс, свойства которого не зависят от выбора начала отсчјта времени. Стационарность в широком смысле означает, что среднее значение и волатильность не за- висят от времени Їx(t) = const, ?(t) = const, а корреляционная функция является только функцией разности времјн cov(t 1 , t 2 ) = cov(t 2 ? t 1 ) . По этому определению винеровское и логарифмическое блуждания не явля- ются стационарными в широком смысле. В частности, для винеровского процесса волатильность увеличивается со временем, а автокорреляцион- ная функция зависит только от первого времени t 1 . В то же время, эти процессы являются стационарными в узком смысле. Их среднее и вола- тильность зависят от t ? t 0 и не изменяются при сдвиге времени. Про- цесс Орнштейна-Уленбека становится стационарным в широком смысле в асимптотическом пределе t ? ?. При задании произвольного x 0 , сильно отличающегося от ?, процесс будет стремиться к ? (большой снос). При попадании в окрестности этого равновесного уровня начинается блужда- ние, статистические свойства которого не зависят от того, какое значение x 0 было в начальный момент времени. Происходит забывание началь- ных условий. Если коэффициенты сноса и волатильности в стохастическом диффе- ренциальном уравнении Ито не зависят от времени, то его решение не должно зависеть от выбора начала отсчјта x = f(x 0 , t ? t 0 , ?) . Оно яв- ляется стационарным в узком смысле. Но только в достаточно простых ситуациях среднее и волатильность постоянны и, следовательно, стацио- нарны в широком смысле. 70 Глава 2. • Представим случайную функцию x(t) в следующем виде: x(t) = Ї x(t) + X k ? k ? k (t), где ? k случайные нескоррелированные величины с нулевым средним и единичной дисперсией. В общем случае они имеют не гауссово распре- деление. Функции ? k (t) являются обычными неслучайными функциями времени, а Їx(t) среднее значение стационарного процесса. Подобное представление называют каноническим разложением. Автоковариационная функция и волатильность, в силу независимости h? i ? j i = ? ij случайных величин ? i , выражаются через функции ? k (t) : cov(t 1 , t 2 ) = X k ? k (t 1 )? k (t 2 ), ? 2 (t) = X k ? 2 k (t). В случае стационарных в широком смысле случайных процессов в ка- честве базиса ? k (t) удобно выбрать гармоники Фурье. Рассмотрим сим- метричный интервал времени [?T/2..T/2] и введјм частоты ? k = 2?k/T Тогда стохастическим аналогом детерминированного фурье разложе- ния (стр. 314 ) будет следующее представление: x(t) = Ї x + ? X k=0 {? k a k cos(? k t) + ? k b k sin(? k t)} , где ? k , ? k независимые случайные числа с нулевым средним и единич- ной волатильностью. Найдјм ковариацию: cov(t 1 , t 2 ) = ? X k=0 a 2 k cos(? k t 1 ) cos(? k t 2 ) + b 2 k sin(? k t 1 ) sin(? k t 2 ) Для стационарного процесса ковариация зависит только от разности вре- мјн ? = t 2 ? t 1 . Это произойдјт, если a 2 k = b 2 k : cov(t 1 , t 2 ) = cov(? ) = ? X k=0 a 2 k cos(? k ? ), или в силу ортогональности косинусов: a 2 k = 2 T T /2 Z ?T /2 cov(? ) cos(? k ? ) d?. Коэффициенты a 2 k являются квадратами амплитуд и характеризуют вклад той или иной гармоники с частотой ? k в случайный процесс. Чем они больше, тем типичнее случайные колебания с этой частотой. Стохастические уравнения 71 Введјм спектральную функцию S(?) = a 2 k /?? = a 2 k T /2? и устремим T к бесконечности. Так как ковариационная функция, в силу определе- ния, симметрична: cov(t 1 , t 2 ) = cov(t 2 , t 1 ) , то стационарная ковариация будет чјтной: cov(??) = cov(?). Поэтому: S(?) = 1 ? ? Z ?? cov(? ) cos(?? ) d? = 1 ? ? Z ?? cov(? ) e i?? d?. В стационарном случае случайный процесс совершает некоторые нере- гулярные колебания вокруг среднего значения. Иногда эти колебания обладают свойством квазипериодичности, когда наблюдается некоторая изменяющаяся, но всј же в среднем стабильная частота колебаний. Ин- струментом изучения подобных явлений служит спектральная функция, являющаяся фурье образом стационарной ковариационной функции cov(? ) = cov(t 2 ? t 1 ) Для процесса Орнштейна - Уленбека: S(?) = ? 2 2?? ? Z ?? e i?? ?? |? | d? = ? 2 /? ? 2 + ? 2 Это монотонно убывающая функция с максимумом при ? = 0. Чем па- раметр ? меньше, тем более типичными будут маленькие частоты ко- лебания (большие периоды). В этом случае притяжение к равновесному уровню слабое, поэтому возможны блуждания, уходящие далеко и на- долго вверх или вниз от положения равновесия. • До сих пор мы предполагали, что начальное условие для случайно- го процесса зафиксировано абсолютно точно. Иногда удобно рассматри- вать некоторый набор начальных условий, задаваемый плотностью ве- роятности P (x 0 ) . В этом случае величина x 0 в наших решениях будет не константой, а случайной величиной. Обычно предполагается, что она не зависит от свойств блуждания в последующие моменты времени и hx 0 ?i = hx 0 i h?i = 0 . Следовательно, дисперсия винеровского блужда- ния: (x(t) ? Ї x) 2 = (x 0 ? Ї x 0 + ? ? t ? t 0 ?) 2 = (x 0 ? Ї x 0 ) 2 + ? 2 (t ? t 0 ) равна сумме неопределјнности начальных условий и неопределјнности процесса блуждания ? 2 x = ? 2 x 0 + ? 2 (t ? t 0 ) . Аналогичным образом под- правляются и выражения для автоковариации. 72 Глава 2. 2.8 Порождающий процесс Винера Стохастическое дифференциальное уравнение содержит в качестве шу- ма ?W изменения винеровского процесса W t . В результате: каждая выборочная траектория винеровского блуждания W t полностью определяет выборочную траекторию произвольного стохастического уравнения с шумом ?W . Даже в тех случаях, когда мы не можем в явном виде записать реше- ние уравнения в виде простой функции x t = f (t, W t ) , предполагается еј существование. Если у нас есть несколько случайных процессов, уравне- ния которых содержат один и тот же стохастический шум ?W , то они должны быть между собой скоррелированы. Рассмотрим пример: dx = f (t) ?W dy = g(t) ?W. (2.42) Решение каждого уравнения может быть записано при помощи гауссовой величины ( ( 2.18 ) стр. 56 ). Однако, несмотря на одинаковую винеровскую переменную ?W , в решениях должны стоять различные случайные вели- чины ? и ?: x = x 0 + X f i?1 ? i ? ?t = x 0 + F (t) ? y = y 0 + X g j?1 ? j ? ?t = y 0 + G(t) ?, где дисперсии равны: F 2 (t) = t Z t 0 f 2 (? ) d?, G 2 (t) = t Z t 0 g 2 (? ) d? На каждой итерации, в обоих суммах стоят одинаковые случайные числа ? k . Однако так как они умножаются на различные коэффициенты f i и g i , результирующие гауссовы числа будут скоррелированы: F (t) G(t) h??i = X i,j=1 f i?1 g j?1 h? i ? j i ?t = X i=1 f i?1 g i?1 ?t = t Z t 0 f (? )g(? ) d?, так как h? i ? j i отлично от нуля только при i = j. Таким образом: h??i = ?(t) = 1 F (t) G(t) t Z t 0 f (? )g(? ) d? 6= 1. (2.43) Заметим, что в общем случае h??i зависит от времени. Стохастические уравнения 73 • Рассмотрим конкретное применение этих формул на примере про- цесса Орнштейна-Уленбека: dx = ?? · (x ? ?) dt + ? ?W. Перейдјм при помощи леммы Ито к процессу y(t) = F (t, x) = e ?t (x ? ?) : dy = ?e ?t ?W => y(t) = y 0 + ? ? 2? p e 2?t ? 1 ?, где ? ? N(0, 1), а y 0 = x 0 ? ? . Поэтому решение для x имеет вид (? > 0): x(t) = ? + (x 0 ? ?)e ??t + ? ? 2? p 1 ? e ?2?t ?, Если мы интересуемся свойствами этого процесса как такового, данного решения вполне достаточно. Однако, если мы хотим прояснить его связь с порождающим винеровским процессом W t , необходимо записать: W t = ? ? t, ? ? = ? = s 2 ?t 1 ? e ??t 1 + e ??t , где мы воспользовались ( 2.43 ) с f(t) = 1 и g(t) = ? e ?t . Так как ? и ? скоррелированные гауссовы числа, для вычисления моментов произволь- ных порядков удобно перейти к паре независимых гауссовых величин: ? = ? 1 , ? = ? ? 1 + p 1 ? ? 2 ? 2 В результате: ? 2 = ? 2 = 1, ?? = ?, ? 2 ? 2 = 1 + 2? 2 , и т.д. Теперь мы можем вычислить любые статистики, в которых участ- вуют и процесс Орнштейна-Уленбека x, и порождающий его винеровский процесс x: W t x t = ? ? t ? 2? p 1 ? e ?2?t ?? = ? ? 1 ? e ?? t . Если нас интересуют предсказательные возможности порождающего про- цесса, необходимо записать решение со сдвигом: x t+? = ? + (x t ? ?)e ??? + ? ? 2? p 1 ? e ?2?? ? 0 , и вычислить: W t x t+? = W t x t e ??? = ? ? (1 ? e ??? ), так как ? 0 на интервале [t...t + ?] не зависит от винеровского процесса в момент t. 74 Глава 2. • Рассмотрим ещј одну задачу для двух процессов с одинаковым шу- мом ?W : dx = ?W dy = f (x, t) ?W. Если x 0 = x(0) = 0 , то x(t) = W t это винеровский процесс, предостав- ляющий уравнению для y не только изменения ?W , но и накопленное значение W t , от которого зависит амплитуда шума. Будем, как обычно, использовать итерационный метод: x i = x 0 + i X j=1 ? j ? ?t y n = y 0 + n?1 X i=0 f (x i , t i ) ? i+1 ? ?t. В решении для y n величины x i содержат сумму гауссовых переменных по ? i включительно. Они не зависят от ? i+1 , поэтому hy n i = y 0 . Аналогично вычисляется дисперсия второго процесса: (y n ? y 0 ) 2 = n?1 X i,j=0 hf (x i , t i )f (x j , t j ) ? i+1 ? j+1 i ?t. Эту сумму необходимо разбить на три части, когда индекс i меньше j, больше, и равен: X i,j = X i X i>j + X i=j Первая и вторая суммы равны нулю, так как они содержат члены типа hf (x 1 , t 1 )f (x 2 , t 2 )? 2 ? 3 i . Величина ? 3 не зависит от всех остальных случай- ных чисел, среднее разбивается на произведение средних и оказывается равным нулю h? 3 i = 0 . В результате ненулевое значение имеет последняя сумма со слагаемыми типа f 2 (x 1 , t 1 )? 2 2 = f 2 (x 1 , t 1 ) ? 2 2 . Поэтому для дисперсии имеем следующее выражение: ? 2 (t) = (y(t) ? y 0 ) 2 = t Z t 0 f 2 (x 0 + ? ? ? , ? ) d?, (2.44) где в явном виде подставлено решение для x. Таким образом, усредняя с гауссовой плотностью вероятности подынтегральную функцию и вы- числяя интеграл от обычной функции времени, мы получаем значение дисперсии случайного процесса. Подчеркнјм, что сначала происходит усреднение, и только после этого проводится интегрирование. Стохастические уравнения 75 • Системы уравнений с одинаковым шумом позволят прояснить ещј одну важную особенность стохастической математики. Рассмотрим сле- дующий пример с начальными условиями x 0 = x(0) и y 0 = y(0) : dx = ?W dy = x ?W. (2.45) Может появиться искушение разделить одно уравнение на второе и про- интегрировать обыкновенное дифференциальное уравнение: dy = x dx ; y ? y 0 = x 2 ? x 2 0 2 (2.46) Если так можно, то решение должно оставаться на детерминирован- ной кривой y = y(x). Однако на самом деле это неверно! Дело в том, что, хотя стохастический член ?W сократился, дифференциалы dx, dy по-прежнему являются изменением случайных функций, для которых неприменимы обычные правила интегрирования. В частности, x dx 6= d(x 2 )/2 (l C 22 ). Для подобных операций служит лемма Ито. Решение системы ( 2.45 ) на самом деле имеет вид: x = x 0 + W y = y 0 + x 0 W + 1 2 (W 2 ? t). Действительно, рассматривая y = F (t, W ), как функцию времени и W , мы можем воспользоваться леммой Ито. При этом dW = ?W , поэтому снос равен нулю a = 0, а волатильность единице b = 1: dy = ?y ?t + 1 2 ? 2 y ?W 2 dt + ?y ?W ?W = (x 0 + W ) ?W = x ?W, что совпадает со вторым уравнением системы ( 2.45 ). В качестве упраж- нения (l H 17 ) предлагается решить ( 2.45 ) при помощи итераций и про- верить (l H 18 ) выполнимость ( 2.44 ). Таким образом, необходимо помнить, что дифференциалы типа dx не являются обычными малыми приращения функции x(t). Это случай- ные величины. Нельзя под дифференциал как обычно затаскивать функции: 2xdx 6= d(x 2 ) . Следует также помнить, что дифференциальные стохастические уравнения это лишь сим- волическая запись непрерывного предела итерационной схемы. Ни когда не будет лишним проверить полученный результат при помо- щи численного моделирования на компьютере. То, что при этом сложно сделать предельный переход ?t ? 0, не должно останавливать. В конеч- ном счјте, большинство реальных случайных процессов в Природе на определјнном временном масштабе являются дискретными! 76 Глава 2. Глава 3 Средние значения Дифференциальное уравнение для случайной функции x(t) это лишь один из возможных языков описания стохастического процесса. В ситуа- ции, когда система эволюционирует со временем, средние значения так- же изменяются и подчиняются определјнным дифференциальным урав- нениям. Фактически, их решение является наиболее прямым способом получения практически полезных результатов. Мы начнјм эту главу с вывода динамического уравнения для сред- них. С его помощью будет получено простое выражение для плотности вероятности в ситуации, когда система имеет стационарный режим. За- тем мы подробно проанализируем две стохастические задачи: уравнение Феллера и логистическое уравнение. В заключение будут рассмотрены метод разложения средних величин в степенной ряд по времени и квази- детерминированное приближение. 77 78 Глава 3. 3.1 Динамическое уравнение для средних • Для получения информации о случайном процессе x(t) можно сна- чала решить уравнение Ито, а затем вычислить наблюдаемые характери- стики процесса, которые, в конечном счјте, являются средними между различными величинами. Было бы здорово сразу иметь уравнения для наблюдаемых, исключая первый этап. Рассмотрим итерационную схему в моменты времени t и t + dt: x(t + dt) = x + a(x, t) dt + b(x, t) ? ? dt. (3.1) Значение процесса x = x(t) и гауссова величина ? являются двумя неза- висимыми случайными величинами. В результате вычисления ( 3.1 ) воз- никает новое случайное число x(t+dt). Чтобы найти его среднее значение необходимо проинтегрировать левую часть ( 3.1 ) с марковской плотно- стью P (x 0 , t 0 ? x + dt, t + dt) . Эквивалентный результат получится при усреднении правой части с P (x 0 , t 0 ? x, t) P (?) , где P (?) гауссова плот- ность вероятности. Так как x и ? независимы и ? = 0, то усреднение последнего слагаемого в ( 3.1 ) дајт ноль, поэтому: x(t + dt) = x(t) + a(x(t), t) dt. Перенося x(t) влево и разделив обе части на dt, мы приходим к дина- мическому уравнению для среднего: d x dt = ? x = a(x, t) . (3.2) Если a(x, t) = ?(t) + ?(t) x, то ( 3.2 ) имеет ту же форму, что и детерми- нированное уравнение: ? x = ?(t) + ?(t) x . Поэтому при любой волатильности b(x, t) среднее значение процесса с ли- нейным по x сносом совпадает с детерминированным решением. Однако в нелинейном случае это не так! Абсолютно аналогично, усредняя произвольную функцию F = F (x, t), изменение которой подчиняется лемме Ито ( 2.15 ), стр. 55 , получаем: d hF (x, t)i dt = ?F ?t + a(x, t) ?F ?x + b 2 (x, t) 2 ? 2 F ?x 2 (3.3) Выбирая те или иные функции F (x, t), можно получить множество по- лезных соотношений для средних величин. Средние значения 79 • В качестве примера рассмотрим процесс Орнштейна-Уленбека: dx = ?? · (x ? ?) dt + ? ?W, решение которого в предыдущей главе мы выразили через гауссову пе- ременную. В данном случае снос является линейным по x, и сразу полу- чается зависимость среднего от времени: ? hxi = ?? hxi ? ? => hxi = ? + x 0 ? ? e ??t В качестве начального условия при t 0 = 0 выбрано значение среднего, равное x 0 . Вообще, если в начальный момент времени x = x 0 , то сред- ние произвольной степени при t 0 = 0 равны hx n i = x n 0 . Действительно, средние детерминированных величин равны им самим, а начальная плот- ность вероятности равна дельта - функции: P (x 0 , t 0 ? x, t 0 ) = ?(x ? x 0 ) В более общем случае можно рассматривать произвольное начальное рас- пределение вероятностей, задавая x n в момент t 0 = 0 Выбирая теперь F = x 2 , получим уравнение для квадрата: ? x 2 = ?2? x 2 + 2?? x + ? 2 Функция x нам известна, и уравнение несложно проинтегрировать: x 2 = ? + x 0 ? ? e ??t 2 + ? 2 1 ? e ?2?t , где ? = ?/ ? 2? . Откуда волатильность процесса равна: ? x (t) = ? p 1 ? e ?2?t Если в задаче возможен стационарный режим, то уравнения для сред- них часто позволяют получить асимптотические значения величин. Для этого достаточно положить производную по времени равной нулю. Так, для процесса Орнштейна - Уленбека, выбирая F = x n , имеем: ? x n = 0 => x n = ? x n?1 + (n ? 1)? 2 x n?2 Так как среднее единицы равно единице: x 0 = 1 = 1 , из этого урав- нения последовательно находим: x = ?, x 2 = ? 2 + ? 2 , x 3 = ? 3 + 3?? 2 , x 4 = ? 4 + 6? 2 ? 2 + 3? 4 Естественно, этот же результат можно получить и из асимптотического решения, выраженного через гауссову переменную (стр. 60 ): x = ? + ? ?. Для этого необходимо возвести x в соответствующую степень и усред- нить, с учјтом ? 2n+1 = 0 , ? 2n = 1 · 3 · 5 · .. · (2n ? 1) В качестве упражнения предлагается найти среднее для уравнения: dx = (? + ?x) dt + (? + ?x) ?W (l H 19 ). 80 Глава 3. • Из соотношения ( 3.3 ) несложно получить уравнение, которому удо- влетворяет плотность вероятности P (x) в стационарном режиме. Выбе- рем функцию F (x), не зависящую от времени, и положим производную F (x) равной нулю. Запишем усреднение в явном виде: ? Z ?? P (x) a(x) ?F ?x + b 2 (x) 2 ? 2 F ?x 2 dx = 0. Интегрируя по частям первое слагаемое один раз, а второе два, и счи- тая, что P (x) достаточно быстро убывает на бесконечности, получаем: ? Z ?? ? ?(a P ) ?x + 1 2 ? 2 (b 2 P ) ?x 2 F (x) dx = 0. Так как функция F (x) произвольна, то интеграл будет равен нулю, толь- ко если равно нулю выражение в квадратных скобках. В результате по- лучается стационарное уравнение Фоккера - Планка: ? ?x a(x) P = 1 2 ? 2 ?x 2 b 2 (x) P которое легко интегрируется: a(x)P = 1 2 ? ?x b 2 (x) P . Для диффузных процессов плотность вероятности быстро убывает на бесконечности, так что существуют средние произвольной степени hx m i Поэтому, устремив x ? ?, мы получим слева и справа ноль, что подтвер- ждает правильность выбора нулевой константы интегрирования. Таким образом, стационарное уравнение Фоккера - Планка оказывается уравне- нием первого порядка с разделяющимися переменными: 1 2 P 0 (x) P (x) = a(x) b 2 (x) ? b 0 (x) b(x) , (3.4) где штрих у функций это производная по x. Его решение имеет вид: P (x) = C b 2 (x) exp 2 Z a(x) b 2 (x) dx (3.5) Константа интегрирования C находится из условия нормировки. Выпол- нимость этого условия является критерием возможности стационарно- го решения. Так, для логарифмического блуждания (стр. 58 ) со сносом a(x) = µ x и волатильностью b(x) = ? x имеем P (x) ? x ?2+2µ/? 2 . Ни при каком значении параметров эта функция не может быть отнормирована. Средние значения 81 • В качестве простого примера стационарного решения уравнения Фок- кера - Планка рассмотрим процесс Орнштейна-Уленбека: dx = ?? · (x ? ?) dt + ? ?W. Интегрирование в ( 3.5 ) приводит к следующей плотности вероятности: P (x) = 1 ? r ? ? exp ? (x ? ?) 2 ? 2 /? , которая является распределением Гаусса. В терминах случайных вели- чин P (x) можно записать в виде: x = ? + ? ? 2? ?, где ? ? N(0, 1) гауссова переменная с нулевым средним и единичной дисперсией. Аналогично, предлагается найти (l H 20 ) асимптотическую плотность вероятности для процесса dx = ?? · (x ? ?) dt + ? x ? ?W • Рассмотрим ещј одну задачу: dx = ? p ? 2 + x 2 ?W. Так как снос равен нулю a = 0, то среднее значение не изменяется со временем x = x 0 . Для среднего квадрата имеем: ? x 2 = ? 2 (? 2 + x 2 ) => x 2 = (? 2 + x 2 0 ) e ? 2 t ? ? 2 Поэтому дисперсия процесса ? 2 x (t) = (? 2 + x 2 0 ) e ? 2 t ? 1 в пределе t ? ? стремится к бесконечности. Тем не менее, в этом слу- чае стационарное уравнение Фоккера-Планка приводит к распределению Коши: P (x) = ?/? x 2 + ? 2 , к которому действительно приближается плотность вероятности процес- са. В этом случае стационарность несколько патологична. В частности, не существуют x n при n > 1. 82 Глава 3. 3.2 Процесс Феллера • Рассмотрим стохастическое уравнение следующего вида: dx = ?? · (x ? ?) dt + ? ? x ?W. (3.6) При ? > 0, ? > 0 снос совпадает с уравнением Орнштейна-Уленбека [( 2.27 ), стр. 60 ], но волатильность шума не является постоянной. Благо- даря зависимости от x в стохастическом члене при приближении x(t) к нулю величина шума падает, и детерминированный снос возвращает про- цесс к равновесному уровню. Таким образом, блуждание (при небольших ?) всегда остајтся в положительной области x > 0. Модель ( 3.6 ) активно используется в различных финансовых и экономических приложениях. Например, x может быть процентной ставкой или курсом валют. Плотность вероятности P (x 0 , t 0 ? x, t) имеет достаточно громоздкий вид (стр. 270 ). Однако выражения для средних значений x несложно получить при помощи динамического уравнения ( 3.2 ): ? hxi = ?? hxi + ?? => hxi = ? + (x 0 ? ?)e ??t В качестве начального условия при t 0 = 0 выбрано значение x 0 = x(0) Благодаря линейности сноса выражение для среднего совпадает с про- цессом Орнштейна - Уленбека. Аналогично для среднего квадрата при F = x 2 в ( 3.3 ) имеем: ? hx 2 i = ?2? x 2 + (2?? + ? 2 ) hxi . Так как функция времени hxi нам известна, это уравнение легко интегри- руется (l H 21 ) и приводит к следующей дисперсии ? 2 x (t) = x 2 ? hxi 2 : ? 2 x (t) = ?? 1 ? e ??t 2 + 2x 0 ? 1 ? e ??t e ??t , где ? = ? 2 /2? . Обратим внимание, что, если x размерная величина (цена или координата), то ту же размерность имеют параметры ? и ?. Параметр ? имеет размерность обратного времени (?t безразмерно). В отличие от процесса Орнштейна - Уленбека, величина дисперсии зависит от начального значения x 0 , однако она также стремится к кон- станте ?? = ?? 2 /2? при t ? ?. Обратим внимание, что эта константа имеет дополнительный множитель ?. Средние значения 83 • При t ? ? процесс имеет стационарный режим, плотность вероят- ности которого находится из уравнения Фоккера-Планка (стр. 80 ): P (x) = C b 2 (x) exp 2 Z a(x) b 2 (x) dx = C ? 2 x exp Z ? x ? 1 dx ? Проведя интегрирование, получаем гамма-распределение: P (x) = 1 ??(µ) x ? µ?1 e ?x/? , (3.7) где µ = ?/? и всегда x > 0. В знаменателе нормировочного множителя стоит гамма-функция ?(µ) (см. стр. 313 ). Распределение имеет следую- щий график и статистики: |