Стохастический мир
Скачать 2.82 Mb.
|
x 0 · (1 ? x 0 ) + 2 f t + ... = x 0 · (1 ? x 0 ) + x 0 1 ? (3 + 2?)x 0 + 2x 2 0 t + ..., откуда: 2 x 0 f = 1 ? (3 + 2?)x 0 + 2x 2 0 Аналогично находятся следующие коэффициенты разложения. Средние значения 93 • Найдјм рекуррентные соотношения для произвольного члена разло- жения. Выбирая в ( 3.3 ), стр. 78 , функцию F (x) = x n , запишем систему связанных дифференциальных уравнений: ? x n = (n + n (n ? 1)?) x n ? n x n+1 , Разложим средние в степенной ряд: x n = x n 0 1 + f n,1 t + f n,2 t 2 + ... = x n 0 " 1 + ? X k=1 f n,k t k # Подставляя его в уравнение для средних и приравнивая коэффициенты при одинаковых степенях t, получаем при k = 1, 2, ... систему рекуррент- ных уравнений (f n,0 = 1 ): k f n,k = n (1 + (n ? 1)?) f n,k?1 ? nx 0 f n+1,k?1 На системе аналитических расчјтов Matematica фирмы Wolfram Research, Inc. вычисления среднего с точностью до t 5 можно записать так: f[n_ , 0] := 1; f[n_ ,k_] := (n/k )*((1+(n -1)* g)*f[n,k -1] - x0*f[n+1,k -1]); av = x0; Do[ av += x0*f[1, k]*t^k, {k, 1, 5}]; Collect [av , t, Simplify ] Первые две строки представляют собой рекурсивное определение функ- ции f. Затем в цикле Do происходит суммирование разложения по t. Последняя строка осуществляет вывод результата, сгруппированного в виде множителей при t n , к каждому из которых применяется операция упрощения. Заметим, что для большого числа членов разложения более быстрой будет нерекурсивная реализация программы: f[n_ , 0] := 1; num = 5; Do[ Do[ f[n,k] = (n/k )*((1+(n -1)* g)*f[n,k -1] - x0*f[n+1,k -1]) , {n, 1, num -k+1}] , {k, 1, num }] av = x0; Do[ av += x0*f[1, k]*t^k, {k, 1, num }]; Collect [av , t, Simplify ] где в двойном цикле по k и n происходит явное вычисление коэффи- циентов f n,k . Хотя и рекурсивную реализацию можно ускорить, написав: f[n_, k_]:=f[n,k]=(n/k)?... 94 Глава 3. Приведјм первые три члена разложения: x x 0 = 1 + 1 ? x 0 t + 1 ? (3 + 2?)x 0 + 2x 2 0 t 2 2! + 1 ? (7 + 10? + 4? 2 ) x 0 + (12 + 16?) x 2 0 ? 6x 3 0 t 3 3! + ... Аналогично для дисперсии процесса ? 2 x (t) = x 2 ? x 2 : ? 2 x (t) 2?x 2 0 = t + 4 + 2? ? 6x 0 t 2 2! + 12 + 12? + 4? 2 ? (48? + 46)x 0 + 38x 2 0 t 3 3! + ... Подобным образом получаются разложения для моментов произвольно- го порядка. Выражения несколько упрощаются, если в качестве началь- ного условия выбирается точка детерминированного асимптотического равновесия x 0 = 1 . При ? = 0 в этом случае решение не зависит от времени. В стохастической системе оно должно проэволюционировать к значению: x 0 ? x ? = 1 ? ?. Поэтому зависимость от времени суще- ствует: hxi ? 1 2? = ? t 2 2! + (3 ? 2?) t 3 3! ? (7 ? 38? + 4? 2 ) t 4 4! + (15 ? 334? + 284? 2 ? 8? 3 ) t 5 5! ? (31 ? 2146? + 7012? 2 ? 1848? 3 + 16? 4 ) t 6 6! + ... Графики разложений (? = 1/2) различного порядка (от k = 1 до k = 10 ) для среднего (слева) и волатильности (справа) имеют вид: Подобные степенные разложения часто являются асимптотическими ря- дами и хорошо работают только при малых временах. Однако их схо- димость можно улучшать при помощи различных методов, например, аппроксимацией Падэ. Средние значения 95 • Естественно, можно строить разложения не только в виде ряда по t . Достаточно универсальным является метод последовательных при- ближений. Его идея в следующем. Выберем некоторые функции ? n,0 (t) , являющиеся нулевым приближением для x n , так, что ? n,0 (0) = x n 0 . Под- ставляя их в правые части уравнений для средних, получаем дифферен- циальные уравнения. Решая их, мы найдјм более точное приближение для функции x n = ? n,1 (t) . При повторении этой процедуры будет по- лучаться всј более точное выражение для средних. При этом на каждой итерации необходимо использовать начальное условие ? n,k (0) = x n 0 . Чем удачнее выбор ? n,0 (t) , тем быстрее будут сходиться к точному значению последовательные приближения, и тем шире диапазон t для их примени- мости. Рассмотрим логистическое уравнение: ? x n = n (1 + (n ? 1) ?) x n ? n x n+1 В простейшем случае можно выбрать ? n,0 (t) = x n 0 . Тогда в первом при- ближении: ? ? n,1 = n (1 + (n ? 1) ?) x n 0 ? nx n+1 0 , откуда: ? n,1 = x n 0 + x n 0 [1 + n(1 ? x 0 ) + n(n ? 1) ?] t, и т.д. В результате снова получаются степенные ряды по t, в которых коэффициенты разложения единым образом выражаются через n для любого x n Другой вариант выбора нулевого приближения ? n,0 = x n 0 e ?nt . В этом случае: ? n,1 = x n 0 + x n 0 [1 + (n ? 1) ?] 1 ? e ?nt ? n n + 1 x n+1 0 1 ? e ?2nt . В качестве нулевого приближения можно выбрать решение детермини- рованного уравнения. Тогда последовательно получаемые приближения окажутся рядами по величине волатильности стохастического шума ?. 96 Глава 3. 3.5 Квазидетерминированное приближение ? • Рассмотрим одномерное уравнение Ито: dx = a(x, t)dt + ? b(x, t) ?W в котором из функции b(x, t) явным образом выделен параметр вола- тильности процесса ?. Его мы будем считать малым. Пусть функция c(t) является решением детерминированного уравнения: ?c = a(c, t). (3.18) Введјм новый процесс отклонения от детерминированного решения: z = x ? c(t) ? В силу Леммы Ито он удовлетворяет уравнению: dz = 1 ? [a(c + ?z, t) ? a(c, t)] dt + b(c + ?z, t) ?W, где вместо ?c мы подставили правую часть уравнения ( 3.18 ). Запишем уравнение для средних ( 3.3 ), стр. 78 , выбрав F = z n : ? z n = n z n?1 [a(c + ?z, t) ? a(c, t)] + n(n ? 1) 2 z n?2 b 2 (c + ?z, t) Разложим в ряд Тейлора по параметру ? функции a и b 2 : a(c + ?z, t) = ? X k=0 A k (t) (?z) k , b 2 (c + ?z, t) = ? X k=0 D k (t) (?z) k Детерминированное решение c(t) нам известно и определяет функции времени A k = A k (t) , D k = D k (t) . Так как A 0 = a(c(t), t) , то в квадрат- ных скобках уравнения для средних коэффициент A 0 сокращается, и мы имеем: ? z n = ? X k=0 nA k+1 z n+k + n(n ? 1) 2 D k z k+n?2 ? k (3.19) Разложим в ряд по степеням ? средние значения: z n = ? X i=0 z n i (t) ? i (3.20) В коэффициентах z n i , n это верхний индекс, а не степень! Заметим, что 1 = 1 , откуда z 0 i = 0 при i > 0 и z 0 0 = 1 Средние значения 97 Подставим разложение ( 3.20 ) в уравнение ( 3.19 ). В результате: ? X i=0 ?z n i (t)? i = ? X k,i=0 n A k+1 z n+k i + n(n ? 1) 2 D k z k+n?2 i ? k+i В двойной сумме в правой части сделаем замену индексов i = i 0 ? k 0 , k = k 0 . Так как i > 0, то k 0 < i 0 . Приравнивая члены при одинаковых степенях ? и опуская штрихи у индексов, получаем систему уравнений: ?z n i (t) = i X k=0 n A k+1 z n+k i?k + n(n ? 1) 2 D k z k+n?2 i?k (3.21) Выпишем несколько еј первых уравнений: ?z 1 0 (t) = A 1 z 1 0 ?z 2 0 (t) = 2A 1 z 2 0 + D 0 ?z 3 0 (t) = 3A 1 z 3 0 + 3 D 0 z 1 0 ?z 4 0 (t) = 4A 1 z 4 0 + 6 D 0 z 2 0 ?z 1 1 (t) = A 1 z 1 1 + A 2 z 2 0 ?z 2 1 (t) = 2A 1 z 2 1 + 2A 2 z 3 0 + D 1 z 1 0 ?z 3 1 (t) = 3A 1 z 3 1 + 3A 2 z 4 0 + 3D 0 z 1 1 + 3D 1 z 2 0 ?z 1 2 (t) = A 1 z 1 2 + A 2 z 2 1 + A 3 z 3 0 ?z 2 2 (t) = 2A 1 z 2 2 + 2A 2 z 3 1 + 2A 3 z 4 0 + D 1 z 1 1 + D 2 z 2 0 ?z 1 3 (t) = A 1 z 1 3 + A 2 z 2 2 + A 3 z 3 1 + A 4 z 4 0 , ... Так как начальные условия учтены в детерминированном решении x 0 = c(t 0 ) , то для процесса z(t) они имеют вид z(t 0 ) = 0 . Соответственно равны нулю и все средние z n при t = t 0 . Систему уравнений ( 3.21 ) можно решать как аналитически, так и численно, используя конечные приращения для производных по времени. Если в задаче при t ? ? возможен стационарный режим, в котором ?z n i = 0 , то, приравняв левые части уравнений к нулю, получим систему с постоянными коэффициентами A k = A k (?) , D k = D k (?) , которая легко решается. В частности: z = A 2 D 0 2A 2 1 ? ? ... z 2 = ? D 0 2A 1 + D 0 4A 4 1 (D 0 (5A 2 2 ? 3A 1 A 3 ) ? 3D 1 A 1 A 2 + D 2 A 2 1 ) ? 2 + ... Особенно удобен этот способ вычисления средних в многомерном случае, когда стационарное уравнение Фоккера-Планка решить сложно. 98 Глава 3. • В качестве примера рассмотрим сначала точно решаемую задачу логарифмического блуждания: dx = µx dt + ? x ?W. Как известно (стр. 58 ), средние значения имеют вид: x = x 0 e µt , x 2 = x 2 0 e 2µt+? 2 t = x 2 0 e 2µt 1 + ? 2 t + ? 4 t 2 2 + ... Так как уравнение линейно по x, детерминированное решение c(t) совпа- дает с выражением для среднего. Ненулевые значения коэффициентов разложения сноса и дисперсии имеют вид: A 1 = µ, D 0 = x 2 0 e 2µt , D 1 = 2x 0 e µt , D 2 = 1. В результате ряды обрываются, и уравнения принимают вид: ?z n i = n µ z n i + n(n ? 1) 2 h x 2 0 e 2µt z n?2 i + 2x 0 e µt z n?1 i?1 + z n i?2 i Среднее значение (n = 1) для любой i-й поправки удовлетворяет урав- нениям ?z 1 i = µ z 1 i . Так как z(0) = 0, то все z 1 i = 0 , и, следовательно, x = c(t) = x 0 e µt . Для среднего квадрата: ?z 2 0 = 2 µ z 2 0 + x 2 0 e 2µt => z 2 0 = x 2 0 e 2µt t ?z 2 1 = 2 µ z 2 1 => z 2 1 = 0 ?z 2 2 = 2 µ z 2 2 + z 2 0 => z 2 0 = x 2 0 e 2µt t 2 /2, ... В итоге получаем разложение в ряд по ? точного решения. • Найдјм теперь стохастические поправки к детерминированному ре- шению для более сложного логистического уравнения: dx = x · (1 ? x) dt + ? x ?W. Его детерминированное решение имеет вид (см. стр. 10 ): c(t) = 1 ? ? e ?t ?1 , где ? = 1?x ?1 0 . Ненулевые коэффициенты разложения сноса и дисперсии равны: A 1 = 1 ? 2 c(t), A 2 = ?1, D 0 = c 2 (t), D 1 = 2 c(t), D 2 = 1. В асимптотическом пределе t ? ? детерминированное решение c(t) стремится к единице, и полученные выше выражения для hzi, z 2 вос- производят точные значения для среднего и волатильности ( 3.13 ), cтр. 89 Средние значения 99 В произвольный момент времени первое уравнение системы для сред- них ( 3.21 ) имеет вид: ?z 1 0 (t) = 1 ? 2c(t) z 1 0 (t) => z 1 0 (t) = z 0 e ?t (1 ? ?e ?t ) 2 Так как z(0) = 0, то, следовательно, константа интегрирования z 0 рав- на нулю, и, соответственно, поправка к z, пропорциональная ?, также равна нулю z 1 0 (t) = 0 . Аналогично равны нулю z 3 1 (t) = z 2 1 (t) = z 1 2 (t) = 0 Ведущий член для z 2 подчиняется уравнению ?z 2 0 (t) = 2 1 ? 2c(t) z 2 0 (t) + c 2 (t), решение которого с начальным условием z 2 0 (0) = 0 имеет вид: z 2 0 (t) = 1 ? 4?e ?t + (2? 2 t + 4? ? 1)e ?2t 2(1 ? ? e ?t ) 4 Четвјртая степень z 4 в нулевом приближении выражается через z 2 0 : z 4 0 (t) = 3 z 2 0 (t) 2 Наконец, первая поправка к среднему значению равняется: z 1 1 (t) = ? 1 ? 2(1 + ?(t ? 1))e ?t + (1 ? 2?)e ?2t 2(1 ? ? e ?t ) 3 Дальше члены разложения становятся достаточно громоздкими. Приве- дјм их вид, когда ? = 0, т.е. начальное значение стохастического процес- са стартует с асимптотически равновесного уровня x = 1. В этом случае среднее значение для x с точностью до ? 4 равно: hxi = 1 ? 1 ? e ?t 2 ? 2 2 + e ?t 2 ? 3e ?t 2t ? 3 + 4e ?t ? e ?2t ? 4 4 Аналогично для среднего квадрата: x 2 = 1 ? 1 ? 4e ?t + 3e ?2t ? 2 2 + ... Мы видим, что сложность аналитических выражений достаточно быстро увеличивается. Для практических целей иногда имеет смысл использо- вать численное решение системы дифференциальных уравнений. В этом случае при небольших ? мы будем получать средние значения быстрее, чем при использовании Монте-Карло моделирования. 100 Глава 3. Глава 4 Вероятности Ещј одним способом получения информации о поведении стохасти- ческого процесса является решение уравнений для условной плотности вероятности P (x 0 , t 0 ? x, t) , которым посвящена эта глава. На простых примерах будут продемонстрированы методы решения по- добных уравнений. Затем мы рассмотрим вопрос о граничных услови- ях, которые наиболее естественным образом учитываются при помощи уравнения Фоккера-Планка. Будет вычислено среднее время достижения границы и построен простой метод решения уравнения Фоккера-Планка при наличии граничных условий. Решения уравнений x(t) = f(t, ?) мы часто записываем при помощи гауссовой случайной переменной ?. Для функции двух аргументов f(t, ?) будет получено нелинейное дифферен- циальное уравнение в частных производных. 101 102 Глава 4. 4.1 Марковские плотности вероятности • Вернјмся к винеровскому процессу с нулевым сносом µ = 0 и еди- ничной волатильностью. Так как случайная функция x(t) зависит от гауссовой переменной ?: x = x 0 + ? ? t ? t 0 => ? = (x ? x 0 )/ ? t ? t 0 , то, воспользовавшись распределением Гаусса (см. стр. 67 ), можно запи- сать условную плотность вероятности в виде: P (x 0 , t 0 ? x, t) = 1 p2? (t ? t 0 ) exp ? 1 2 (x ? x 0 ) 2 t ? t 0 (4.1) Чем меньше разница t ? t 0 , тем более высоким и узким будет колокол гауссианы, стремясь в пределе t ? t 0 к дельта-функции Дирака: P (x 0 , t 0 ? x, t) = ?(x ? x 0 ) t ? t 0 (4.2) Она равна бесконечности при x = x 0 и нулю в других точках, так, что интеграл по x в окрестности x 0 равен единице (см. Приложение М, стр. 315 ). Функции Дирака равна любая условная плотность вероятности при t = t 0 . Действительно, в бесконечно близкий к t 0 момент времени от- лична от нуля только вероятность в окрестности начального значения x ? x 0 К дельта-функции Дирака при t ? t 0 стремится также условная плот- ность вероятности Коши: P (x 0 , t 0 ? x, t) = (t ? t 0 )/? (x ? x 0 ) 2 + (t ? t 0 ) 2 (4.3) Интеграл от этой функции по x равен единице, среднее значение x 0 . Од- нако моменты второго и более высоких порядков равны бесконечности. Соответственно равна бесконечности волатильность. В результате стано- вятся вероятными очень большие выбросы случайных чисел. Подобные процессы называются процессами со скачками. У колокола распределе- ния существует типичная ширина, пропорциональная t ? t 0 . По мере удаления от начального момента времени происходит расплывание рас- пределения вероятностей и очень быстрый уход процесса от начального значения x 0 . Поэтому в теории диффузных процессов мы не рассматри- ваем распределение Коши, хотя, как мы увидим чуть ниже, оно является марковским. Вероятности 103 • Плотность вероятности марковских процессов должна удовлетво- рять определјнным уравнениям. Рассмотрим три последовательных мо- мента времени t 1 < t 2 < t 3 , в которых x(t) принимает значения x 1 , x 2 и x 3 . Совместная плотность вероятности для x 1 и x 3 равна: P (x 1 , x 3 ) = Z P (x 1 , x 2 , x 3 )dx 2 , (4.4) где для краткости опущены времена t i . В ( 4.4 ) мы суммируем все возмож- ные реализации промежуточного значения x 2 . В результате из трехто- чечной совместной плотности вероятности получается двуточечная. Под- ставим в левую часть P (x 1 , x 3 ) = P (x 1 ) P (x 1 ? x 3 ) определение услов- ной вероятности, а в правую, с учјтом марковости процесса, трјхточеч- ную плотность вероятности (см. ( 1.42 ), на стр. 37 ): P (x 1 , x 2 , x 3 ) = P (x 1 ) P (x 1 ? x 2 )P (x 2 ? x 3 ). Восстанавливая времена, получаем: P (x 1 , t 1 ? x 3 , t 3 ) = Z P (x 1 , t 1 ? x 2 , t 2 ) P (x 2 , t 2 ? x 3 , t 3 ) dx 2 (4.5) Это интегральное уравнение Чепмена-Колмогорова. В качестве упражне- ния (l H 24 ) имеет смысл проверить, что этому уравнению удовлетворяет гауссова плотность вероятности ( 4.1 ). Второе упражнение (l H 25 ) состо- ит в записи уравнения Чепмена-Колмогорова для характеристических функций, если P (x 0 , t 0 ? x, t) = P (x ? x 0 , t ? t 0 ) , и проверке марковости распределения Коши ( 4.3 ). Уравнению Чепмена-Колмогорова должны удовлетворять любые ве- роятности марковских процессов. Правда в таком виде оно слишком об- щее, и нам нужны его более конкретные представления. В уравнении ( 4.5 ) времена t 1 , t 2 и t 3 могут быть удалены друг от друга как угодно далеко. Однако особый интерес представляет ситуация бесконечно близ- ких времјн. В результате глобальные свойства P (x 0 , t 0 ? x, t) опреде- ляются из решений локальных дифференциальных уравнений. Так как условная плотность вероятности имеет две пары аргументов, то возмож- ны, по крайней мере, два уравнения относительно {x 0 , t 0 } и {x, t}. Из ( 4.5 ) в следующем разделе мы получим уравнение относительно {x 0 , t 0 } , которое называется первым уравнением Колмогорова. Аналогично вы- водится уравнение Фоккера-Планка, или второе уравнение Колмогорова относительно {x, t}. Мы найдјм его при помощи стохастического диффе- ренциального уравнения. Этот вывод покажет непосредственную связь двух математических аппаратов. 104 Глава 4. 4.2 Уравнения для P (x 0 , t 0 ? x, t) • Найдјм уравнение относительно переменных начального значения x 0 , t 0 . Для этого воспользуемся уравнением Чепмена-Колмогорова. Что- бы возникла производная по времени t 0 , необходимо рассмотреть t 0 и бесконечно близкое к нему время t 0 + ?t . Поэтому для трјх последо- вательных моментов времени в интегральном уравнении возьмјм два соседних t 1 = t 0 , t 2 = t 0 + ?t и одно будущее t 3 = t : P (x 0 , t 0 ? x, t) = ? Z ?? P (x 0 , t 0 ? y, t 0 + ?t) P (y, t 0 + ?t ? x, t) | {z } (y?x 0 ) dy. Интервал ?t мал и, следовательно, величина y, соответствующая мо- менту времени t 0 + ?t , должна быть близка к x 0 в момент времени t 0 Поэтому разложим в ряд Тейлора по y ? x 0 , в окрестности точки y = x 0 , второй множитель под интегралом: P (y, t 0 + ?t ? x, t) = P + ?P ?x 0 (y ? x 0 ) + 1 2 ? 2 P ?x 2 0 (y ? x 0 ) 2 + ..., где P = P (x 0 , t 0 + ?t ? x, t) . Вынесем множители, не зависящие от y, за знак интеграла. Опуская пределы интегрирования, запишем: P (x 0 , t 0 ? x, t) = P (x 0 , t 0 + ?t ? x, t) Z P (x 0 , t 0 ? y, t 0 + ?t) dy + ?P ?x 0 Z (y ? x 0 ) P (x 0 , t 0 ? y, t 0 + ?t) dy + 1 2 ? 2 P ?x 2 0 Z (y ? x 0 ) 2 P (x 0 , t 0 ? y, t 0 + ?t) dy + ... Первое слагаемое соответствует условию нормировки (переход хоть куда- нибудь), и интеграл равен единице. В результате получается просто P . Перенесјм направо P (x 0 , t 0 ? x, t) и разделим обе части на ?t. По определению, при ?t ? 0 мы можем записать: P (x 0 , t 0 + ?t ? x, t) ? P (x 0 , t 0 ? x, t) ?t ? ?P (x 0 , t 0 ? x, t) ?t 0 , что приводит к производной по начальному моменту времени t 0 Вероятности 105 Интегрирование по y во втором и третьем слагаемых дајт условные средние моментов первого и второго порядков: ?P (x 0 , t 0 ? x, t) ?t 0 + ?P ?x 0 h(x ? x 0 )i ?t + 1 2 ? 2 P ?x 2 0 (x ? x 0 ) 2 ?t = 0. Если бы мы продолжили разложение в ряд Тейлора, то в этом уравнении стояли бы также моменты более высоких порядков (x ? x 0 ) 3 , и т.д. Однако для диффузных процессов они по определению в пределе ?t ? 0 равны нулю (см. стр. 50 ). Средние значения, как обычно, вычисляются при помощи условной плотности вероятности (?t ? 0): h (x ? x 0 ) m i = ? Z ?? (x ? x 0 ) m P (x 0 , t 0 ? x, t 0 + ?t) dx. При вычислении предела ?t ? 0 сначала необходимо проинтегрировать, вычислив среднее, затем полученную функцию от ?t разделить на ?t, и только после этого устремить к нулю ?t ? 0. Мы видим, что снос и диффузия естественным образом появляются как в уравнениях для плотности вероятности случайного процесса, так и в стохастических дифференциальных уравнениях при записи их через разности. В результате, вводя коэффициенты сноса и диффузии, получаем пер- вое уравнение Колмогорова: ?P ?t 0 + a(x 0 , t 0 ) ?P ?x 0 + 1 2 b 2 (x 0 , t 0 ) ? 2 P ?x 2 0 = 0 , (4.6) где P = P (x 0 , t 0 ? x, t) . Заметим, что производные в этом уравнении берутся не по будущим аргументам x и t, а по начальным x 0 и t 0 Если значение x 0 = x(t 0 ) задано точно, то первое уравнение Кол- могорова необходимо решать с начальными условиями в виде дельта- функции Дирака: P (x 0 , t 0 ? x, t) = ?(x ? x 0 ) t ? t 0 (4.7) Естественно, кроме этого предполагается наличие тех или иных гранич- ных условий. В простейшем случае требуют достаточно быстрого убы- вания плотности вероятности при увеличении разности x ? x 0 в любой момент времени t > t 0 106 Глава 4. • Выведем теперь второе дифференциальное уравнение для функции P (x 0 , t 0 ? x, t) по будущим аргументам x, t. Пусть процесс Ито в мо- мент времени t ? ?t имеет значение x. Спустя малый интервал времени ?t он будет иметь значение y: y = x + a ?t + b ? ? ?t, (4.8) где a = a(x, t ? ?t), b = b(x, t ? ?t). Величина x является случайной с плотностью распределения P (x, t ? ?t) = P (x 0 , t 0 ? x, t ? ?t) . Слу- чайной и независимой от неј будет и ? c гауссовой плотностью P (?). В результате y в момент t также будет случайной величиной. Чтобы найти распределение P (y, t) = P (x 0 , t 0 ? y, t) , необходимо вычислить среднее от произвольной функции (см. стр. 22 ): hF (y)i = ? Z ?? F (y) z }| { F (x + a?t + b? ? ?t ) P (x,?) z }| { P (x, t ? ?t) P (?) dx d? (4.9) и преобразовать его таким образом, чтобы получился однократный ин- теграл c F (y) в момент времени t. Обратим внимание, что, если в ( 4.8 ) x , y и ? это случайные величины, потенциально принимающие любые значения, то в ( 4.9 ) они же выступают в виде обычных вещественных переменных интегрирования. Так как ?t малo, разложим F (..) в ряд, оставляя члены порядка не более ?t: F (x + a?t + b? ? ?t) = F (x) + ?F ?x a ?t + b ? ? ?t + 1 2 ? 2 F ?x 2 b 2 ? 2 ?t + ... Все функции справа вычислены в точке x и в момент времени t. Заме- тим, что в ( 4.8 ) функции вычислялись в момент времени t??t. На самом деле их тоже необходимо разложить по ?t. Однако эти ряды будут умно- жаться на ?t, ? ?t и окажутся малыми более высокого порядка. Поэтому можно взять ведущее приближение разложения и считать в дальнейшем, что a = a(x, t), b = b(x, t). Аналогично раскладывается плотность вероятности по ?t: P (x, t ? ?t) = P (x, t) ? ?P (x, t) ?t ?t + ... Этим соотношением мы связываем плотности вероятности в два беско- нечно близких момента времени, в результате чего в конечном уравнении появится частная производная по времени. Вероятности 107 Подставим последние два разложения в ( 4.9 ), выдерживая порядок малости по ?t. Интегрирование по ? сводится к h?i = 0, ? 2 = 1 , и в результате: hF (y)i = ? Z ?? F (x)P (x, t)dx ? ?t ? Z ?? F ?P ?t ? ?F ?x aP ? 1 2 ? 2 F ?x 2 b 2 P dx. Во втором интеграле F = F (x), P = P (x, t). Первый интеграл представ- ляет определение искомого среднего в момент времени t (переменная интегрирования x может быть переобозначена в y). Поэтому второй ин- теграл должен быть равен нулю. Интегрируя по частям один раз второе слагаемое в квадратных скобках и два раза третье (l C 23 ), получим F (x), умноженную на выражение: ?P ?t + ? ?x a(x, t) P ? 1 2 ? 2 ?x 2 b 2 (x, t) P = 0 , (4.10) которое должно быть равно нулю (в силу произвольности F (x)). Это уравнение Фоккера - Планка, или второе уравнение Колмогорова для плотности условной вероятности P = P (x 0 , t 0 ? x, t) Решение уравнения Фоккера-Планка позволяет найти плотность веро- ятности условного перехода. Имея еј, мы фактически знаем о марков- ском случайном процессе всј. Можем вычислять его среднее, волатиль- ность, автокорреляционную функцию и отвечать на другие вопросы. Естественно, кроме начального условия ( 4.7 ), предполагается наличие граничных условий для плотности вероятности. Так как мы знаем, что в момент времени t 0 значение x было равно x 0 , то спустя конечный ин- тервал времени цена или броуновская частица не могут заблуждать бесконечно далеко. Поэтому мы считаем, что плотность вероятности на бесконечности равна нулю. Это же требование возникает в силу условия нормировки: ? Z ?? P (x 0 , t 0 ? x, t) dx = 1, (4.11) имеющего смысл вероятности перехода куда угодно. Так как дифференциальное уравнение ( 4.10 ) линейно относительно функции P , то решение не изменяется при умножении P на произволь- ную константу. Еј значение должно фиксироваться при помощи условия нормировки ( 4.11 ). 108 Глава 4. 4.3 Решение уравнения Фоккера-Планка • В качестве примера решения уравнения Фоккера-Планка рассмот- рим случай винеровского блуждания с a(x, t) = 0 и b(x, t) = ?: ?P ?t = ? 2 2 ? 2 P ?x 2 (4.12) Это уравнение теплопроводности с коэффициентом диффузии ? 2 . Имен- но оно дало название диффузным процессам. Представим P (x, t) (аргу- менты начальных условий опускаем) в виде фурье-интеграла (см. При- ложение М, стр. 314 ): P (x, t) = ? Z ?? ?(k, t) e ?ikx dk 2? (4.13) Подставляя его в ( 4.12 ), получаем для ?(s, t) следующее уравнение: ?? ?t = ? ? 2 k 2 2 ?. (4.14) При его решении возникает произвольная константа, для определения которой необходимо воспользоваться начальным условием: P (x, t 0 ) = P (x 0 , t 0 ? x, t 0 ) = ?(x ? x 0 ) = ? Z ?? e ?i(x?x 0 )k dk 2? Поэтому фурье-образ плотности вероятности при t = t 0 должен быть равен ?(k, t 0 ) = e ix 0 k . В результате решение ( 4.14 ) имеет вид: ?(k, t) = e ?? 2 k 2 (t?t 0 )/2+ix 0 k Выполняя интегрирование ( 4.13 ) при помощи интеграла ( 14 ), стр. 312 , приходим к гауссовой плотности условной вероятности: P = ? Z ?? e ?? 2 k 2 (t?t 0 )/2?ik (x?x 0 ) dk 2? = 1 ? p2?(t ? t 0 ) exp ? 1 2? 2 (x ? x 0 ) 2 (t ? t 0 ) Видно, что волатильность в гауссиане увеличивается с течением времени, как ? ? t ? t 0 . Среднее значение равно начальному x 0 . Плотность вероят- ности вокруг x 0 симметрична и постепенно расплывается, увеличивая свою ширину. Таким образом, лучшим прогнозом будущего x будет его начальное значение x 0 Аналогично можно решить уравнение Фоккера-Планка, соответству- ющее процессу: dx = f(t)dt + s(t)?W (l H 26 ), и несколько длиннее, при помощи метода характеристик (стр. 316 ), - для процесса Орнштейна- Уленбека: dx = ?? · (x ? ?) dt + ??W (l H 28 ). Вероятности 109 • Мы уже обсуждали в конце раздела § 2.7 , стр. 71 , что начальные условия могут быть заданы с некоторой вероятностью. Например, это происходит, когда учитывают неизбежные измерительные ошибки при определении x 0 = x(t 0 ) . Возможны и более экзотические ситуации на- чальной неопределјнности. С точки зрения решения уравнения Фоккера-Планка это означает, что начальное условие для плотности вероятности равно не дельта - функции Дирака, а некоторой задаваемой функции P 0 (x 0 ) . Для неј тоже можно записать фурье - преобразование: P 0 (x 0 ) = ? Z ?? ? 0 (k) e ?ikx 0 dk 2? При решении уравнения для винеровского блуждания с учјтом этого начального условия мы имеем: ?(k, t) = ? 0 (k) e ?? 2 k 2 (t?t 0 )/2 Чтобы получить вероятность будущих значений x, необходимо вычис- лить интеграл ( 4.13 ). Рассмотрим случай, когда начальные условия име- ют гауссову форму: P 0 (x 0 ) = 1 b ? 2? e ?(x 0 ?a) 2 /2b 2 => ? 0 (k) = e iak?b 2 k 2 /2 , где a - среднее значение, а b - волатильность (ошибка измерения x 0 ). В этом случае снова получится гауссова плотность P (x, t), зависящая от времени, но волатильность в ней будет заменена следующим образом: ? 2 (t ? t 0 ) ? b 2 + ? 2 (t ? t 0 ). Другими словами, неопределјнность в будущем значении x определяется начальной неопределјнностью b и привнесјнной случайным блуждани- ем ? 2 (t ? t 0 ) . Этот результат для волатильностей справедлив и в случае произвольного распределения P 0 (x 0 ) . Действительно, полагая t 0 = 0 , при помощи гауссовой случайной величины ? ? N(0, 1) запишем решение ви- неровского процесса: x = x 0 + ? ? t ?. Считая x 0 случайной величиной, получаем: ? 2 x = (x ? Ї x) 2 = D x 0 ? Ї x 0 ? ? ? t ? 2 E = (x 0 ? Ї x 0 ) 2 + ? 2 t, где мы воспользовались независимостью будущего блуждания и началь- ных условий hx 0 ?i = hx 0 i h?i = 0 110 Глава 4. 4.4 Граничные условия • При логарифмическом блуждании ( 2.24 ), стр. 58 , линейная зависи- мость сноса и волатильности от x приводит к тому, что решение положи- тельно x > 0. Однако не всегда возможно ограничить диапазон значений решения в рамках только уравнений. Чаще задаются внешние к уравне- нию граничные условия. Они могут быть различных типов. B Отражающие граничные условия изменяют знак приращения dx при достижении границы. Например, броуновская частица, на которую действует сила тяжести, будет постепенно опускаться вниз. Однако со- суд, в котором она находится, ограничен снизу дном. При его достижении частица отразится и продолжит блуждание в соответствии с уравнени- ем. Так как сила тяжести (снос) продолжает действовать, частица будет постоянно возвращаться и отражаться от граничной поверхности. В ре- зультате со временем установится некоторое стационарное распределение вероятностей координат и скорости броуновской частицы. B Поглощающие граничные условия предполагают прекращение про- цесса при достижении границы. Если x координата частицы, то на поглощающей границе она удаляется из пространства. Поэтому полная вероятность нахождения в пространстве должна со временем уменьшать- ся. Наиболее естественная интерпретация подобной ситуации состоит в блуждании в области [?..?] большого числа частиц, концентрация кото- рых пропорциональна плотности вероятности. По мере достижения ча- стицами границ они удаляются, и общая концентрация падает. B Периодические граничные условия накладывают, когда при достиже- нии некоторой границы x = ? происходит перемещение x на другую гра- ницу x = ?, откуда процесс продолжает развиваться в соответствии со стохастическим уравнением. Примером периодических граничных усло- вий будет блуждание броуновской частицы внутри кольца, заполненного водой. В этом случае угловая координата ?, задающая еј положение, об- ладает свойством периодичности, так как значения ? = 0 и ? = 2? эквивалентны. Решение стохастических дифференциальных уравнений при наличии граничных условий обычно удајтся получить только численным образом. Для этого моделируется процесс блуждания, в котором при достижении границы проводится локальное изменение x в соответствии с граничными условиями. По большому числу реализаций подобных выборочных про- цессов можно вычислить средние значения интересующих нас величин или плотность условной вероятности. Вероятности 111 • Более удобным инструментом изучения поведения системы в таких ситуациях является уравнение Фоккера - Планка ( 4.10 ), стр. 107 , для плотности вероятности P = P (x 0 , t 0 ? x, t) : ?P ?t + ? ?x a(x, t) P ? 1 2 ? 2 ?x 2 b 2 (x, t) P = 0. Перепишем его в следующем виде: ?P ?t + ?J ?x = 0, J (x, t) = a(x, t) P ? 1 2 ? b 2 (x, t) P ?x (4.15) Функция J(x, t) называется потоком вероятности. Пусть эволюция x происходит в границах [?..?]. При этом одна или обе границы могут находиться на бесконечности. Проинтегрируем ( 4.15 ) по x: dp(t) dt = J (?, t) ? J (?, t), p(t) = ? Z ? P (x 0 , t 0 ? x, t) dx. (4.16) Изменение вероятности нахождения x в области ? < x < ? определяется значениями J на границах области. Уравнение ( 4.15 ) является законом сохранения в дифференциальной форме, а ( 4.16 ) в интегральной. Ситу- ация эквивалентна любому закону сохранения. Так, сохранение заряда в объјме [?..?] происходит, если суммарный ток на границе отсутствует (сколько вошло зарядов за единицу времени, столько же и вышло). Для плотности вероятности более естественна аналогия с концентра- цией частиц в единичном объјме n(x, t). Если общее число частиц равно N , и вероятность нахождения в той или иной точке пространства равна P (x, t) , то концентрация частиц равна n(x, t) = N P (x, t). В этом случае ток вероятности представляет собой физический перенос частиц и опре- деляется их скоростью в данной точке и концентрацией J = v n(x, t). В трјхмерном пространстве дифференциальный и интегральный зако- ны сохранения числа частиц имеют вид: ?n ?t + ?J = 0, <=> d dt Z V n(x, t)dV = ? Z S J dS, где J = v n, v скорость частиц, а ?J = ?J x /?x + ?J y /?y + ?J z /?z - дивергенция. Вектор элементарной поверхности dS направлен перпен- дикулярно S из объјма V , который окружает поверхность S, наружу. Поэтому ток, направленный из объјма, приводит к уменьшению числа частиц, а вовнутрь к увеличению. 112 Глава 4. • Для отражающих или периодических границ полная вероятность p нахождения x в интервале [?..?] не изменяется: dp(t) dt = 0 => J (?, t) = J (?, t). При достижении периодической границы x = ? объект переносится в x = ? , так что токи на границах одинаковые и не равны нулю. При этом плотность вероятности на границах должна совпадать, так как факти- чески это одна точка пространства (для блуждания внутри кольца это очевидно). В случае отражающих границ токи в точности нулевые. Сим- волически это представлено на рисунках ниже: При отражающих граничных условиях ток, отражаясь, образует прямое и встречное направления, поэтому суммарный поток на границе равен нулю. Поглощающая граница характеризуется нулевым значением веро- ятности P (x, t), так как частица в этой точке исчезает из пространства. Таким образом, для трјх типов границ используются следующие гра- ничные условия (P (x, t) = P (x 0 , t 0 ? x, t) ): reflecting : J (?, t) = 0 absorbing : P (?, t) = 0 periodic : J (?, t) = J (?, t), P (?, t) = P (?, t). Отражающая или поглощающая границы могут быть в единственном виде или сосуществовать одновременно (например, слева отражающая граница, а справа поглощающая). Если граница одна, то обычно пред- полагается выполнение поглощающего граничного условия на бесконеч- ности P (?, t) = 0. Периодические границы по своему смыслу должны присутствовать одновременно. Естественно, можно использовать и более затейливые границы. На- пример, полупрозрачная граница, на которой с некоторой вероятностью происходит отражение частицы или прохождение еј через границу. По- нятно, что подобных полупрозрачных границ в пространстве может быть несколько. Однако в большинстве задач достаточно перечисленных вы- ше границ трјх типов. Уравнение Фоккера-Планка для одной и той же системы с различными граничными условиями приводит к качественно отличающимся решени- ям. Рассмотрим два простых примера. Вероятности 113 • Для наглядности будем считать, что x координата частицы, ко- торая испытывает постоянный снос, смещаясь в среднем влево (ось x направлена слева направо): dx = ?µdt + ??W. Пусть в x = 0 существует отражающая граница. В этом случае воз- можно стационарное решение уравнения Фоккера - Планка. Каким бы ни было начальное значение координаты x 0 > 0 , частица рано или позд- но достигнет границы и отразится от неј. Однако снос будет всј время возвращать еј обратно. В результате установится стационарное состоя- ние. При этом вероятность нахождения частицы в пространстве должна уменьшаться по мере удаления от границы. Найдјм еј явный вид, решив стационарное уравнение Фоккера - Планка с ?P/?t = 0: ?µ P (x) ? ? 2 2 P 0 (x) = 0 => P (x) = 2µ ? 2 e ?2µx/? 2 Нормировочный множитель находим, интегрируя от нуля до бесконечно- сти. В данном случае ток равен нулю не только на отражающей границе, но и во всјм пространстве. В противном случае не получилось бы стаци- онарного решения. • Рассмотрим ту же систему, но с двумя периодическими границами [?..?] . В этом случае ( 4.15 ) имеем: ?µ P (x) ? ? 2 2 P 0 (x) = J 0 => P (x) = J 0 µ + P 0 e ?2µx/? 2 Мы снова интересуемся стационарным решением, поэтому J 0 это кон- станта интегрирования по x уравнения Фоккера-Планка с ?P/?t = 0. Граничные условия для потока вероятности J(?) = J(?) выполняются автоматически, так как J(x) = J 0 = const . Периодические граничные условия для плотности вероятности P (?) = P (?) выполняются только при P 0 = 0 . В результате P (x) равна константе J 0 /µ , значение которой находится из условия нормировки. Поэтому, P (x) = 1/(? ? ?). Смысл этого решения легко понять. При отрицательном сносе части- ца постепенно дрейфует к левой границе x = ?. При еј достижении она переносится на правую границу x = ?, и процесс повторяется. Понят- но, что со временем установится однородное распределение вероятностей. Аналогично, при блуждании броуновской частицы внутри кольца веро- ятность еј нахождения в той или иной точке пространства постепенно станет постоянной. Напомню, что в открытом пространстве вероятность расплывается и стационарного режима у системы быть не может. 114 Глава 4. 4.5 Вероятность достижения границы ? • Найдјм теперь вероятность достижения при блуждании границ ин- тервала [?..?]. Пусть это будут поглощающие границы, и в начальный момент времени t 0 = 0 частица находится в некоторой точке ? < x 0 < ? Вероятность p(x 0 , t) того, что в момент времени t она ещј ни разу не коснулась границ и находится внутри интервала [?..?], равна: p(x 0 , t) = ? Z ? P (x 0 , 0 ? x, t) dx = ? Z ? P (x 0 , ?t ? x, 0) dx. (4.17) Второе равенство записано для однородных систем, у которых снос и волатильность не зависят от времени. Именно их мы сейчас и рассмот- рим. Для таких систем можно сдвинуть начало отсчјта времени, считая начальным t 0 = ?t , а конечным t = 0. Возьмјм производную по t вы- ражения ( 4.17 ) и воспользуемся первым уравнением Колмогорова ( 4.6 ), стр. 105 . В результате уравнение для p = p(x 0 , t) имеет вид: a(x 0 ) ?p ?x 0 + b 2 (x 0 ) 2 ? 2 p ?x 2 0 = ?p ?t (4.18) Для плотности вероятности справедливо начальное условие в виде функ- ции Дирака P (x 0 , 0 ? x, 0) = ?(x ? x 0 ) . Поэтому из ( 4.17 ) следует начальное условие: p(x 0 , 0) = 1 (частица гарантированно находится в ? < x 0 < ? ). Кроме этого, если x 0 оказывается на границе, вероятность дальнейшего пребывания в интервале [?..?] будет равной нулю, поэтому: p(?, t) = p(?, t) = 0. Обозначим через T время достижения одной из границ. Понятно, что T - случайная величина и p(x 0 , t) это интегральная вероятность того, что T > t (всј ещј находится). Вероятность, что T < t, равна 1 ? p(x 0 , t) Еј производная по t даст плотность вероятности того или иного времени пребывания в интервале [?..?]. Поэтому, например, среднее время пре- бывания равно: hT i = ? Z 0 t ? ?t 1 ? p(x 0 , t) dt = ? Z 0 p(x 0 , t) dt. Мы считаем, что p(x 0 , ?) = 0 , т.к. частица в ограниченном пространстве [?..?] рано или поздно достигает одной из границ. Для среднего n-той степени от T введјм следующее обозначение T n (x 0 ) = hT n i и найдјм уравнение, которому удовлетворяет функция T n (x 0 ) Вероятности 115 • Проведя интегрирование по частям в определении hT n i , получаем: T n (x 0 ) = hT n i = ? ? Z 0 t n ?p(x 0 , t) ?t dt = n ? Z 0 t n?1 p(x 0 , t) dt. (4.19) Умножим уравнение ( 4.18 ) на nt n?1 и проинтегрируем по dt: a(x 0 ) T 0 n (x 0 ) + b 2 (x 0 ) 2 T 00 n (x 0 ) = ?nT n?1 (x 0 ). Благодаря нормировочному условию h1i = 1 имеем T 0 (x 0 ) = 1 . Поэтому мы получили последовательность уравнений с правой частью, опреде- ляемой на предыдущей итерации. В частности, для среднего времени T (x 0 ) = T 1 (x 0 ) : a(x 0 ) T 0 (x 0 ) + b 2 (x 0 ) 2 T 00 (x 0 ) = ?1 с граничными условиями T (?) = T (?) = 0 (если частица в начальном положении x 0 была на границе, то она сразу покинет пространство). Например, при винеровском блуждании с нулевым сносом µ = 0 и волатильностью ? имеем: ? 2 2 T 00 = ?1 => ? 2 2 T = ? x 2 0 2 + Ax 0 + B, где A и B константы интегрирования. Пусть поглощающие границы находятся в точках x = 0, L. Тогда граничные условия T (0) = T (L) = 0 приводят к: hT i = T (x 0 ) = x 0 (L ? x 0 ) ? 2 Максимальное среднее время hT i = L 2 /4? 2 достижения границ получа- ется тогда, когда в начальный момент частица находится в центральной части интервала x 0 = L/2 . В силу симметрии задачи (сноса нет) этот результат вполне ожидаем. Даже если x 0 находится недалеко от x = 0, то при L ? ? среднее время также стремится к бесконечности. В качестве упражнения (l H 27 ) стоит решить эту же задачу при нену- левом сносе и рассмотреть предел широкого пространства L ? ?. 116 Глава 4. 4.6 Разложение вероятности по базису ? Рассмотрим уравнение Фоккера-Планка с не зависящими от времени сносом a(x) и диффузией D(x) = b 2 (x) : ?P ?t + ? ?x a(x) P ? 1 2 ? 2 ?x 2 D(x) P = 0. Будем искать его решение в виде P = u ? (x) e ??t . Функция u(x) удовле- творяет уравнению (штрих - производная по x): a(x)u ? (x) 0 ? 1 2 D(x)u ? (x) 00 = ?u ? (x). (4.20) При наличии граничных условий (стр. 111 ) в интервале [?...?] это урав- нение может приводить к дискретному набору разрешјнных значений: ? 1 , ? 2 , ... (собственные значения) и соответствующим им собственным функциям u ? (x) . Используя их, можно записать общее решение уравне- ние Фоккера-Планка. • Для примера рассмотрим винеровское блуждание с нулевым сносом a(x) = 0 и диффузией D = ? 2 . Уравнение ( 4.20 ) имеет вид: u 00 ? (x) + ? 2 u ? (x) = 0, где w = ? 2?/? . Его общее решение хорошо известно: u ? (x) = A sin(?x) + B cos(?x). Пусть граничные условия [0..L] являются поглощающими. В точках x = 0 и x = L плотность вероятности должна обращаться в нуль: u ? (0) = u ? (L) = 0. Подстановка решения в эти граничные условия приводит к следующим собственным функциям: u n (x) = r 2 L sin(? n x), ? n = n? L и n = 1, 2, ... целые числа, нумерующие собственные значения ? n = ? 2 ? 2 n /2 . Множитель p2/L при собственной функции выбран таким об- разом, чтобы выполнялось условие ортогональности: L Z 0 u n (x)u m (x)dx = 2 L L Z 0 sin(? n x) sin(? m x)dx = ? nm , (4.21) где ? nm символ Кронекера, равный единице при n = m и нулю, если m 6= n . Теперь можно разложить общее решение уравнения в бесконеч- ный ряд по собственным функциям. Вероятности 117 Действительно, представим плотность вероятности в виде следующей суммы: P (x 0 , 0 ? x, t) = ? X n=0 A n u n (x) e ?? n t Благодаря ортогональности собственных функций u n (x) мы всегда мо- жем восстановить коэффициенты этого разложения. Используя началь- ное условие P (x 0 , 0 ? x, 0) = ?(x ? x 0 ) и ( 4.21 ), имеем: A n = L Z 0 P (x 0 , 0 ? x, 0) u n (x)dx = L Z 0 ?(x ? x 0 ) u n (x)dx = u n (x 0 ). Поэтому окончательно: P (x 0 , 0 ? x, t) = 2 L ? X n=0 sin(? n x 0 ) sin(? n x)e ?? n t С течением времени общая вероятность нахождения частицы в диапазоне [0..L] уменьшается, так как частица рано или поздно будет захвачена одной из границ. • Так же находится решение для отражающих границ. В этом случае на границах x = 0 и x = L ток ( 4.15 ), стр. 111 : J (x, t) = ? ? 2 2 ?P (x, t) ?x = ? ? 2 e ??t 2 u 0 ? (x) должен быть нулевым, а, следовательно, равна нулю производная соб- ственной функции: u 0 ? (0) = u 0 ? (L) = 0. В результате: u 0 (x) = 1 ? L , u n = r 2 L cos(? n x), ? n = n? L , и n = 1, 2, ... Несложно проверить, что эти функции также ортогональны. Поэтому окончательно: P (x 0 , 0 ? x, t) = 1 L + 2 L ? X n=0 cos(? n x 0 ) cos(? n x)e ?? n t При t ? ? решение стремится к P (x 0 , 0 ? x, t) ? 1/L , и частицу можно равновероятно встретить в любой точке интервала шириной L. Рассмотрим теперь общую теорию для задачи на собственные функ- ции и значения для уравнения Фоккера-Планка. 118 Глава 4. • Предположим, что € A линейный дифференциальный оператор (на- пример, € A = d 2 /dx 2 ), и справедливо уравнение следующего вида: € Au(x) = ? ?(x) u(x), (4.22) где ?(x) действительная положительная функция. Если для произволь- ных функций ?(x) и ?(x) выполняется соотношение: ? Z ? ?(x) € A?(x) dx = ? Z ? ?(x) € A ? ?(x) dx, (4.23) то оператор € A называется самосопряжјнным. Звјздочка (комплексное сопряжение) может быть опущена для действительных операторов. Рассмотрим решения u n (x) , u m (x) уравнения ( 4.22 ), соответствующие различным собственным значениям ? n и ? m . Используя ( 4.22 ), запишем: ? Z ? u ? m (x) € Au n (x) dx = ? n ? Z ? u ? m (x)u n (x)?(x) dx, ? Z ? u n (x) € A ? u ? m (x) dx = ? ? m ? Z ? u ? m (x)u n (x)?(x) dx, где во втором соотношении взято комплексное сопряжение ( 4.22 ) и учте- на действительность функции ?(x). Если оператор € A самосопряжјнный, то левые части этих равенств должны быть одинаковыми (? = u ? m , ? = u n ). Приравняем их: (? n ? ? ? m ) ? Z ? u ? m (x)u n (x) ?(x) dx = 0. Если n = m, то подынтегральная функция положительна, и, следова- тельно, собственные значения действительны (? ? n = ? n ). При n 6= m нулю равен интеграл, поэтому собственные функции ортогональны с ве- сом ?(x). Оператор € A линейный, следовательно, собственная функция определена с точностью до постоянного множителя. Его удобно выбрать таким образом, чтобы выполнялось условие ортогональности ? Z ? u ? m (x)u n (x) ?(x) dx = ? nm с весовой функцией ?(x). Вероятности 119 Теперь можно записать разложение общего решения по базису: F (x) = X f n u n (x), => f n = ? Z ? F (x)u ? n (x) ?(x) dx, где для коэффициентов f n использовано условие ортогональности. Оператор € A уравнения ( 4.20 ) не является самосопряжјнным. Умно- жим обе части ( 4.20 ) на функцию ? = ?(x) и подберјм еј таким образом, чтобы выполнялось условие ( 4.23 ). Проведјм интегрирование по частям: ? Z ? ?? a? 0 ? 1 2 ?? D? 00 dx = ? Z ? ? ??) 0 a? ? 1 2 ?? 00 D? dx + I, где I значения подынтегральной функции на границах ? и ?: I = ? ? a ? ? ? ? 1 2 ? ? (D ?) 0 ? ? + 1 2 (? ?) 0 D ? ? ? (4.24) Раскроем производные в обоих интегралах. Оператор будет самосопря- жјнным, если при перестановке ? и ? местами вокруг него получается тот же результат (действительный случай). Это происходит, если: 2?a = ?D 0 ? D? 0 => ?(x) = exp Z D 0 (x) ? 2a(x) D(x) dx. (4.25) Кроме этого, естественно, должны исчезать граничные члены (I = 0). Введјм в соответствии с ( 4.15 ) плотности тока вероятности: J ? = a? ? 1 2 (D ?) 0 , J ? = a? ? 1 2 (D ?) 0 При помощи этих определений и уравнения ( 4.25 ) для функции ?(x), граничный член ( 4.24 ) можно переписать в следующем виде: I = ?(x)(?(x)J ? (x) ? ?(x)J ? (x)) ? ? = 0. Несложно проверить, что все три типа граничных условий, рассмотрен- ных в разделе § 4.4 , стр. 110 приводят к нулевому значению I. Таким образом, мы показали, что оператор уравнения ( 4.20 ), умноженный на функцию ?(x) ( 4.25 ), оказывается самосопряженным. Поэтому общее ре- шение уравнения Фоккера-Планка можно записать в следующем виде: P (x, t) = X n a n u n (x)e ?? n t , a n = ? Z ? P (x, 0) u ? n (x) ?(x) dx, где для определения a n используются начальные условия P (x, 0). 120 Глава 4. 4.7 Уравнение для x(t, ?) ? Пусть случайный процесс x = f(t, ?) в момент времени t выражен через гауссову переменную ?. Несмотря на случайность величин, f(t, ?) представляет собой обычную функцию двух аргументов. Найдјм урав- нение, которому она удовлетворяет. При этом будем предполагать, что существует обратная к f функция ? = g(x, t). Нам потребуются перехо- ды от частных производных f к g. Для этого запишем дифференциалы: d? = ? x g dx + ? t g dt, dx = ? ? f d? + ? t f dt, где ? x g = ?g/?x , и т.д. Подставляя dx в первое уравнение, получаем: ? ? f ? x g = 1, ? t g = ?? x g ? t f, ? 2 x g = ? x 1 ? ? f = ? ? 2 ? f ? x g (? ? f ) 2 (4.26) Выведем сначала уравнение для обратной функции g(x, t). Пусть в момент времени t случайная величина, от которой зависит x, равна ? 1 Через бесконечно малый интервал времени в t + dt это уже другая гаус- сова переменная ? 2 : ? 2 = g x + dx, t + dt , ? 1 = g(x, t). Возведјм ? 2 в k-тую степень ? k 2 = g k x + dx, t + dt и разложим в ряд до первого порядка малости по dt, и до второго по dx: ? k 2 = ? k 1 + kg k?1 (g 0 dx + ?gdt) + k(k ? 1)g k?2 g 02 + kg k?1 g 00 (dx) 2 2 + .., где штрих обозначает частную производную по x, а точка по времени. В качестве dx подставим стохастическое уравнение dx = adt + b? ? dt , где случайное число ? не зависит от ? 1 . Усредняя левую и правую части ? k 2 = ? k 1 , h?i = 0, ? 2 = 1 и сдвигая k ? k + 1, получаем: g k g 0 a + ?g + D 2 g 00 + kg k?1 D 2 g 02 = 0, где D = b 2 диффузия процесса. Умножим это соотношение на произ- вольные коэффициенты F k и просуммируем по k = 0, 1, ...: F (g) g 0 a + ?g + D 2 g 00 + F 0 (g) g 02 D 2 = 0, где F (g) = F 0 + F 1 g + F 2 g 2 + .. При усреднении производится интегри- рование по ? 1 = g с плотностью вероятности P (? 1 ) . Для функций типа g 0 (x, t) предполагается, что после взятия производной необходимо выра- зить x = f(? 1 , t) и подставить в g 0 (x, t) Вероятности 121 Проинтегрируем по частям второе слагаемое в среднем: ? Z ?? F 0 (? 1 )g 02 D 2 P (? 1 ) d? 1 = ? ? Z ?? F (? 1 ) ? ?? 1 g 02 D 2 P (? 1 ) d? 1 При вычислении производной можно воспользоваться неявным диффе- ренцированием: ? ?? 1 g 02 D 2 = ? ?x g 02 D 2 ?x ?? 1 = ? ?x g 02 D 2 1 g 0 , где учтено, что ?x/?? 1 = f 0 = 1/g 0 (см. ( 4.26 )). Вводя функцию ?(? 1 ) = ?P 0 (? 1 )/P (? 1 ) , получаем: F (g) g 0 a + ?g + D 2 g 00 + g 02 D 2 ?(? 1 ) ? ? ?x g 02 D 2 1 g 0 = 0. В силу произвольности функции F множитель в круглых скобках дол- жен быть равен нулю, поэтому для ? 1 = g(x, t) имеем: ?g = 1 2 ?D(x, t) ?x g 0 ? a(x, t)g 0 ? D(x, t) 2 ?(g) g 02 ? g 00 . (4.27) Воспользовавшись ( 4.26 ), после несложных вычислений получаем урав- нение относительно f(t, ?): ? f = a(f, t) ? D 0 (f, t) 2 + D(f, t) 2 ?(?) f 0 + f 00 f 02 , (4.28) где D 0 = ?D/?f и опущен индекс у ? 1 В детерминированном случае (D = 0) получается, как и следовало ожидать, обыкновенное дифференциальное уравнение ?f = a(f, t). На- чальное условие для ( 4.28 ) имеет вид x(t 0 , ?) = x 0 Для гауссового распределения ?(?) = ?. Однако в качестве случайного числа ? можно использовать величину с произвольным распределением. Так, для P (?) ? ? ??1 e ??? функция ?(?) = ? ? (? ? 1)/?. В качестве упражнения (l H 42 ) предлагается проверить, что уравне- ния ( 4.27 ) и ( 4.28 ) согласуются с уравнением Фоккера-Планка. 122 Глава 4. Глава 5 Стохастические интегралы Как и в обычном анализе, если определено стохастическое дифферен- цирование, то естественно ввести и стохастическое интегрирование. Со- ответствующая техника даст нам ещј один инструмент получения соот- ношений для иногда достаточно общих случайных процессов. Это очень красивый раздел стохастической математики, который к тому же актив- но используется в учебной и научной литературе. В дифференциальных уравнениях присутствуют два бесконечно ма- лых изменения снос, пропорциональный dt, и волатильность шума ?W . Соответственно, возможно два вида интегралов. В первом разделе мы рассмотрим стохастические интегралы по dt, изучим их основные свой- ства и найдјм представление некоторых интегралов через обычные слу- чайные величины. Во втором разделе рассматривается интеграл Ито по ?W . Далее будут получены условия, при которых решение стохастиче- ского дифференциального уравнения единственно, и рассмотрен итера- ционный метод построения этого решения. 123 124 Глава 5. 5.1 Площадь под траекторией Винера • Для данной реализации n независимых случайных величин ? 1 , ..., ? n , имеющих нормальное распределение с нулевым средним и единичной дисперсией: ? i ? N (0, 1) , мы получаем конкретную выборочную траек- торию винеровского процесса со значениями, заданными по оси времени с шагом ?t = t/n : W n = W (t n ) = (? 1 + ... + ? n ) ? ?t = ? ? n?t = ? ? t. (5.1) Предел n ? ? соответствует непрерывному стохастическому процессу. Если использовать такие же ? 1 , ..., ? n при итерационном решении неко- торого стохастического уравнения: x k+1 = a(x k , t k )?t + b(x k , t k ) ? k ? ?t, получится выборочный процесс, однозначно связанный с W t . В этом смыс- ле выборочные решения всех уравнений с общим шумом ?W = ? ? dt являются деформацией одной и той же выборочной траектории W t • Несмотря на изломанный вид функции W t = W (t) , можно вычис- лить площадь под ней, проинтегрировав от нуля до t: S t = t Z 0 W ? d?. (5.2) Интеграл, как и в обычном анализе, определим при помощи интеграль- ной суммы: S t = n X k=1 W k?1 ?t = [? 1 + (? 1 + ? 2 ) + ... + (? 1 + ... + ? n?1 )] (?t) 3/2 , (5.3) где интервал [0..t] разбит на n отрезков длительностью ?t. Значение процесса Винера в конце k - того отрезка равно накопленной сумме k случайных независимых гауссовых изменений на каждом отрезке. Для других реализаций ? 1 , ..., ? n мы получим другое значение, поэтому S t и аналогичные интегралы являются случайными процессами. Процесс S t в момент времени t не может быть выражен через W t , так как зависит не только от значения W t = W (t) , но и от формы траектории во все моменты времени. Тем не менее, для S t можно получить простое представление через скалярные случайные величины. Стохастические интегралы 125 • Перегруппируем интегральную сумму ( 5.3 ) следующим образом: (n ? 1) · ? 1 + ... + 1 · ? n?1 (?t) 3/2 = ? 1 p 1 2 + 2 2 + ... + (n ? 1) 2 (?t) 3/2 Сумма гауссовых чисел статистически эквивалентна одному, которое мы обозначили через ? 1 ? N (0, 1) . В результате появляется соответствую- щий множитель. Сумма ряда 1 2 + ... + (n ? 1) 2 равна (n ? 1)n(2n ? 1)/6. Устремляя n ? ?, ?t ? 0, так что n?t = t, получаем: S t = t Z 0 W ? d? = ? 1 t 3/2 ? 3 Таким образом, S t это гауссовый случайный процесс с волатильностью, увеличивающейся со временем как t 3/2 , т.е. S t ? N (0, t 3 /3) . Однако это ещј не всј. Величина ? 1 не является независимой от винеровского блуж- дания W t . Действительно, W t равен сумме гауссовых чисел ? k , которые мы использовали для вычисления интеграла S t : W t = ? 1 + ? 2 + ... + ? n?1 + ? n (?t) 1/2 = ? 2 ? t S t = (n ? 1) ? 1 + (n ? 2) ? 2 + ... + 1 ? n?1 (?t) 3/2 = ? 1 t 3/2 ? 3 Первая строка это запись винеровского процесса в момент времени t через накопленную сумму изменений ? 2 на каждом интервале. Вторая это интегральная сумма, полученная выше. В обоих случаях ? 1 и ? 2 это гауссовы числа N(0, 1). Однако, они скоррелированы друг с другом: W t S t = ? 1 ? 2 t 2 ? 3 = (1 + 2 + ... + n ? 1)(?t) 2 = (n ? 1)n 2 (?t) 2 ? t 2 2 Две скоррелированные гауссовы переменные ? 1 ? 2 = ? 3/2 можно пред- ставить в виде линейной комбинации (см. стр. 33 ) независимых гауссовых чисел ?, ?: ? 1 = ? 3 2 ? + 1 2 ?, ? 2 = ?. Поэтому окончательно получаем: W t = ? ? t, S t = ( ? 3 ? + ?) t 3/2 2 ? 3 = W t 2 t + ? t 3/2 2 ? 3 (5.4) Подобное представление позволяет легко вычислять различные средние, относящиеся к одному моменту времени, например W 2 t S 2 t = 5 t 4 /6 126 Глава 5. • Полученное соотношение для S t имеет простую геометрическую ин- терпретацию. Пусть площадь вычисляется от t 0 до t, и в этих точках W 0 = W (t 0 ) и W t = W (t) . Тогда в формуле ( 5.4 ) необходимо заменить W t на W t ? W 0 и добавить нижний прямоугольник площадью W 0 (t ? t 0 ) : S t = W 0 + W t 2 (t ? t 0 ) + ? (t ? t 0 ) 3/2 2 ? 3 |