Главная страница

Стохастический мир


Скачать 2.82 Mb.
НазваниеСтохастический мир
Дата27.09.2022
Размер2.82 Mb.
Формат файлаpdf
Имя файлаstepanov1.pdf
ТипДокументы
#700302
страница7 из 20
1   2   3   4   5   6   7   8   9   10   ...   20
x
0
· (1 ? x
0
) + 2 f t + ... = x
0
· (1 ? x
0
) + x
0
1 ? (3 + 2?)x
0
+ 2x
2 0
 t + ...,
откуда:
2
x
0
f = 1 ? (3 + 2?)x
0
+ 2x
2 0
Аналогично находятся следующие коэффициенты разложения.

Средние значения
93

Найдјм рекуррентные соотношения для произвольного члена разло- жения. Выбирая в (
3.3
), стр.
78
, функцию F (x) = x n
, запишем систему связанных дифференциальных уравнений:
?
x n
= (n + n (n ? 1)?) x n
? n x n+1
,
Разложим средние в степенной ряд:
x n
= x n
0
1 + f n,1
t + f n,2
t
2
+ ...

= x n
0
"
1 +
?
X
k=1
f n,k t
k
#
Подставляя его в уравнение для средних и приравнивая коэффициенты при одинаковых степенях t, получаем при k = 1, 2, ... систему рекуррент- ных уравнений (f n,0
= 1
):
k f n,k
= n (1 + (n ? 1)?) f n,k?1
? nx
0
f n+1,k?1
На системе аналитических расчјтов Matematica фирмы Wolfram Research,
Inc. вычисления среднего с точностью до t
5
можно записать так:
f[n_ , 0] := 1;
f[n_ ,k_] := (n/k )*((1+(n -1)* g)*f[n,k -1] - x0*f[n+1,k -1]);
av = x0; Do[ av += x0*f[1, k]*t^k, {k, 1, 5}];
Collect [av , t, Simplify ]
Первые две строки представляют собой рекурсивное определение функ- ции f. Затем в цикле Do происходит суммирование разложения по t.
Последняя строка осуществляет вывод результата, сгруппированного в виде множителей при t n
, к каждому из которых применяется операция упрощения.
Заметим, что для большого числа членов разложения более быстрой будет нерекурсивная реализация программы:
f[n_ , 0] := 1;
num = 5;
Do[
Do[
f[n,k] = (n/k )*((1+(n -1)* g)*f[n,k -1] - x0*f[n+1,k -1]) ,
{n, 1, num -k+1}] ,
{k, 1, num }]
av = x0; Do[ av += x0*f[1, k]*t^k, {k, 1, num }];
Collect [av , t, Simplify ]
где в двойном цикле по k и n происходит явное вычисление коэффи- циентов f n,k
. Хотя и рекурсивную реализацию можно ускорить, написав:
f[n_, k_]:=f[n,k]=(n/k)?...

94
Глава 3.
Приведјм первые три члена разложения:
 x x
0

= 1 +
1 ? x
0
 t + 1 ? (3 + 2?)x
0
+ 2x
2 0
 t
2 2!
+
1 ? (7 + 10? + 4?
2
) x
0
+ (12 + 16?) x
2 0
? 6x
3 0
 t
3 3!
+ ...
Аналогично для дисперсии процесса ?
2
x
(t) =
x
2
? x
2
:
?
2
x
(t)
2?x
2 0
= t +
4 + 2? ? 6x
0
 t
2 2!
+
12 + 12? + 4?
2
? (48? + 46)x
0
+ 38x
2 0
 t
3 3!
+ ...
Подобным образом получаются разложения для моментов произвольно- го порядка. Выражения несколько упрощаются, если в качестве началь- ного условия выбирается точка детерминированного асимптотического равновесия x
0
= 1
. При ? = 0 в этом случае решение не зависит от времени. В стохастической системе оно должно проэволюционировать к значению: x
0
?
x
?
= 1 ? ?.
Поэтому зависимость от времени суще- ствует:
hxi ? 1 2?
= ?
t
2 2!
+ (3 ? 2?)
t
3 3!
? (7 ? 38? + 4?
2
)
t
4 4!
+ (15 ? 334? + 284?
2
? 8?
3
)
t
5 5!
? (31 ? 2146? + 7012?
2
? 1848?
3
+ 16?
4
)
t
6 6!
+ ...
Графики разложений (? = 1/2) различного порядка (от k = 1 до k = 10
) для среднего (слева) и волатильности (справа) имеют вид:
Подобные степенные разложения часто являются асимптотическими ря- дами и хорошо работают только при малых временах. Однако их схо- димость можно улучшать при помощи различных методов, например,
аппроксимацией Падэ.

Средние значения
95

Естественно, можно строить разложения не только в виде ряда по t
. Достаточно универсальным является метод последовательных при- ближений. Его идея в следующем. Выберем некоторые функции ?
n,0
(t)
,
являющиеся нулевым приближением для x n
, так, что ?
n,0
(0) = x n
0
. Под- ставляя их в правые части уравнений для средних, получаем дифферен- циальные уравнения. Решая их, мы найдјм более точное приближение для функции x n
= ?
n,1
(t)
. При повторении этой процедуры будет по- лучаться всј более точное выражение для средних. При этом на каждой итерации необходимо использовать начальное условие ?
n,k
(0) = x n
0
. Чем удачнее выбор ?
n,0
(t)
, тем быстрее будут сходиться к точному значению последовательные приближения, и тем шире диапазон t для их примени- мости.
Рассмотрим логистическое уравнение:
?
x n
= n (1 + (n ? 1) ?) x n
? n x n+1
В простейшем случае можно выбрать ?
n,0
(t) = x n
0
. Тогда в первом при- ближении:
?
?
n,1
= n (1 + (n ? 1) ?) x n
0
? nx n+1 0
,
откуда:
?
n,1
= x n
0
+ x n
0
[1 + n(1 ? x
0
) + n(n ? 1) ?] t,
и т.д. В результате снова получаются степенные ряды по t, в которых коэффициенты разложения единым образом выражаются через n для любого x n
Другой вариант выбора нулевого приближения ?
n,0
= x n
0
e
?nt
. В этом случае:
?
n,1
= x n
0
+ x n
0
[1 + (n ? 1) ?] 1 ? e
?nt
 ?
n n + 1
x n+1 0
1 ? e
?2nt
 .
В качестве нулевого приближения можно выбрать решение детермини- рованного уравнения. Тогда последовательно получаемые приближения окажутся рядами по величине волатильности стохастического шума ?.

96
Глава 3.
3.5 Квазидетерминированное приближение
?

Рассмотрим одномерное уравнение Ито:
dx = a(x, t)dt + ? b(x, t) ?W
в котором из функции b(x, t) явным образом выделен параметр вола- тильности процесса ?. Его мы будем считать малым. Пусть функция c(t)
является решением детерминированного уравнения:
?c = a(c, t).
(3.18)
Введјм новый процесс отклонения от детерминированного решения:
z =
x ? c(t)
?
В силу Леммы Ито он удовлетворяет уравнению:
dz =
1
?
[a(c + ?z, t) ? a(c, t)] dt + b(c + ?z, t) ?W,
где вместо ?c мы подставили правую часть уравнения (
3.18
).
Запишем уравнение для средних (
3.3
), стр.
78
, выбрав F = z n
:
?
z n
= n z n?1
[a(c + ?z, t) ? a(c, t)]
+
n(n ? 1)
2
z n?2
b
2
(c + ?z, t)
Разложим в ряд Тейлора по параметру ? функции a и b
2
:
a(c + ?z, t) =
?
X
k=0
A
k
(t) (?z)
k
,
b
2
(c + ?z, t) =
?
X
k=0
D
k
(t) (?z)
k
Детерминированное решение c(t) нам известно и определяет функции времени A
k
= A
k
(t)
, D
k
= D
k
(t)
. Так как A
0
= a(c(t), t)
, то в квадрат- ных скобках уравнения для средних коэффициент A
0
сокращается, и мы имеем:
?
z n
=
?
X
k=0

nA
k+1
z n+k
+
n(n ? 1)
2
D
k z
k+n?2

?
k
(3.19)
Разложим в ряд по степеням ? средние значения:
z n
=
?
X
i=0
z n
i
(t) ?
i
(3.20)
В коэффициентах z n
i
, n  это верхний индекс, а не степень! Заметим, что
1 = 1
, откуда z
0
i
= 0
при i > 0 и z
0 0
= 1

Средние значения
97
Подставим разложение (
3.20
) в уравнение (
3.19
). В результате:
?
X
i=0
?z n
i
(t)?
i
=
?
X
k,i=0

n A
k+1
z n+k i
+
n(n ? 1)
2
D
k z
k+n?2
i

?
k+i
В двойной сумме в правой части сделаем замену индексов i = i
0
? k
0
,
k = k
0
. Так как i > 0, то k
0
< i
0
. Приравнивая члены при одинаковых степенях ? и опуская штрихи у индексов, получаем систему уравнений:
?z n
i
(t) =
i
X
k=0

n A
k+1
z n+k i?k
+
n(n ? 1)
2
D
k z
k+n?2
i?k

(3.21)
Выпишем несколько еј первых уравнений:
?z
1 0
(t) = A
1
z
1 0
?z
2 0
(t) = 2A
1
z
2 0
+ D
0
?z
3 0
(t) = 3A
1
z
3 0
+ 3 D
0
z
1 0
?z
4 0
(t) = 4A
1
z
4 0
+ 6 D
0
z
2 0
?z
1 1
(t) = A
1
z
1 1
+ A
2
z
2 0
?z
2 1
(t) = 2A
1
z
2 1
+ 2A
2
z
3 0
+ D
1
z
1 0
?z
3 1
(t) = 3A
1
z
3 1
+ 3A
2
z
4 0
+ 3D
0
z
1 1
+ 3D
1
z
2 0
?z
1 2
(t) = A
1
z
1 2
+ A
2
z
2 1
+ A
3
z
3 0
?z
2 2
(t) = 2A
1
z
2 2
+ 2A
2
z
3 1
+ 2A
3
z
4 0
+ D
1
z
1 1
+ D
2
z
2 0
?z
1 3
(t) = A
1
z
1 3
+ A
2
z
2 2
+ A
3
z
3 1
+ A
4
z
4 0
, ...
Так как начальные условия учтены в детерминированном решении x
0
=
c(t
0
)
, то для процесса z(t) они имеют вид z(t
0
) = 0
. Соответственно равны нулю и все средние z n
при t = t
0
. Систему уравнений (
3.21
)
можно решать как аналитически, так и численно, используя конечные приращения для производных по времени.
Если в задаче при t ? ? возможен стационарный режим, в котором
?z n
i
= 0
, то, приравняв левые части уравнений к нулю, получим систему с постоянными коэффициентами A
k
= A
k
(?)
, D
k
= D
k
(?)
, которая легко решается. В частности:
z =
A
2
D
0 2A
2 1
? ? ...
z
2
= ?
D
0 2A
1
+
D
0 4A
4 1
(D
0
(5A
2 2
? 3A
1
A
3
) ? 3D
1
A
1
A
2
+ D
2
A
2 1
) ?
2
+ ...
Особенно удобен этот способ вычисления средних в многомерном случае,
когда стационарное уравнение Фоккера-Планка решить сложно.

98
Глава 3.

В качестве примера рассмотрим сначала точно решаемую задачу логарифмического блуждания:
dx = µx dt + ? x ?W.
Как известно (стр.
58
), средние значения имеют вид:
x = x
0
e
µt
,
x
2
= x
2 0
e
2µt+?
2
t
= x
2 0
e
2µt

1 + ?
2
t +
?
4
t
2 2
+ ...

Так как уравнение линейно по x, детерминированное решение c(t) совпа- дает с выражением для среднего. Ненулевые значения коэффициентов разложения сноса и дисперсии имеют вид:
A
1
= µ,
D
0
= x
2 0
e
2µt
,
D
1
= 2x
0
e
µt
,
D
2
= 1.
В результате ряды обрываются, и уравнения принимают вид:
?z n
i
= n µ z n
i
+
n(n ? 1)
2
h x
2 0
e
2µt z
n?2
i
+ 2x
0
e
µt z
n?1
i?1
+ z n
i?2
i
Среднее значение (n = 1) для любой i-й поправки удовлетворяет урав- нениям ?z
1
i
= µ z
1
i
. Так как z(0) = 0, то все z
1
i
= 0
, и, следовательно,
x = c(t) = x
0
e
µt
. Для среднего квадрата:
?z
2 0
= 2 µ z
2 0
+ x
2 0
e
2µt
=>
z
2 0
= x
2 0
e
2µt t
?z
2 1
= 2 µ z
2 1
=>
z
2 1
= 0
?z
2 2
= 2 µ z
2 2
+ z
2 0
=>
z
2 0
= x
2 0
e
2µt t
2
/2, ...
В итоге получаем разложение в ряд по ? точного решения.

Найдјм теперь стохастические поправки к детерминированному ре- шению для более сложного логистического уравнения:
dx = x · (1 ? x) dt + ? x ?W.
Его детерминированное решение имеет вид (см. стр.
10
):
c(t) =
1 ? ? e
?t

?1
,
где ? = 1?x
?1 0
. Ненулевые коэффициенты разложения сноса и дисперсии равны:
A
1
= 1 ? 2 c(t),
A
2
= ?1,
D
0
= c
2
(t),
D
1
= 2 c(t),
D
2
= 1.
В асимптотическом пределе t ? ? детерминированное решение c(t)
стремится к единице, и полученные выше выражения для hzi, z
2
вос- производят точные значения для среднего и волатильности (
3.13
), cтр.
89

Средние значения
99
В произвольный момент времени первое уравнение системы для сред- них (
3.21
) имеет вид:
?z
1 0
(t) =
1 ? 2c(t) z
1 0
(t)
=>
z
1 0
(t) =
z
0
e
?t
(1 ? ?e
?t
)
2
Так как z(0) = 0, то, следовательно, константа интегрирования z
0
рав- на нулю, и, соответственно, поправка к z, пропорциональная ?, также равна нулю z
1 0
(t) = 0
. Аналогично равны нулю z
3 1
(t) = z
2 1
(t) = z
1 2
(t) = 0
Ведущий член для z
2
подчиняется уравнению
?z
2 0
(t) = 2
1 ? 2c(t) z
2 0
(t) + c
2
(t),
решение которого с начальным условием z
2 0
(0) = 0
имеет вид:
z
2 0
(t) =
1 ? 4?e
?t
+ (2?
2
t + 4? ? 1)e
?2t
2(1 ? ? e
?t
)
4
Четвјртая степень z
4
в нулевом приближении выражается через z
2 0
:
z
4 0
(t) = 3 z
2 0
(t)

2
Наконец, первая поправка к среднему значению равняется:
z
1 1
(t) = ?
1 ? 2(1 + ?(t ? 1))e
?t
+ (1 ? 2?)e
?2t
2(1 ? ? e
?t
)
3
Дальше члены разложения становятся достаточно громоздкими. Приве- дјм их вид, когда ? = 0, т.е. начальное значение стохастического процес- са стартует с асимптотически равновесного уровня x = 1. В этом случае среднее значение для x с точностью до ?
4
равно:
hxi = 1 ? 1 ? e
?t

2
?
2 2
+ e
?t
2 ? 3e
?t

2t ? 3 + 4e
?t
? e
?2t
 ?
4 4
Аналогично для среднего квадрата:
x
2
= 1 ? 1 ? 4e
?t
+ 3e
?2t
 ?
2 2
+ ...
Мы видим, что сложность аналитических выражений достаточно быстро увеличивается. Для практических целей иногда имеет смысл использо- вать численное решение системы дифференциальных уравнений. В этом случае при небольших ? мы будем получать средние значения быстрее,
чем при использовании Монте-Карло  моделирования.

100
Глава 3.

Глава 4
Вероятности
Ещј одним способом получения информации о поведении стохасти- ческого процесса является решение уравнений для условной плотности вероятности P (x
0
, t
0
? x, t)
, которым посвящена эта глава.
На простых примерах будут продемонстрированы методы решения по- добных уравнений. Затем мы рассмотрим вопрос о граничных услови- ях, которые наиболее естественным образом учитываются при помощи уравнения Фоккера-Планка. Будет вычислено среднее время достижения границы и построен простой метод решения уравнения Фоккера-Планка при наличии граничных условий. Решения уравнений x(t) = f(t, ?) мы часто записываем при помощи гауссовой случайной переменной ?. Для функции двух аргументов f(t, ?) будет получено нелинейное дифферен- циальное уравнение в частных производных.
101

102
Глава 4.
4.1 Марковские плотности вероятности

Вернјмся к винеровскому процессу с нулевым сносом µ = 0 и еди- ничной волатильностью. Так как случайная функция x(t) зависит от гауссовой переменной ?:
x = x
0
+ ?
?
t ? t
0
=>
? = (x ? x
0
)/
?
t ? t
0
,
то, воспользовавшись распределением Гаусса (см. стр.
67
), можно запи- сать условную плотность вероятности в виде:
P (x
0
, t
0
? x, t) =
1
p2? (t ? t
0
)
exp

?
1 2
(x ? x
0
)
2
t ? t
0

(4.1)
Чем меньше разница t ? t
0
, тем более высоким и узким будет колокол гауссианы, стремясь в пределе t ? t
0
к дельта-функции Дирака:
P (x
0
, t
0
? x, t) = ?(x ? x
0
)
t ? t
0
(4.2)
Она равна бесконечности при x = x
0
и нулю в других точках, так, что интеграл по x в окрестности x
0
равен единице (см. Приложение М, стр.
315
). Функции Дирака равна любая условная плотность вероятности при t = t
0
. Действительно, в бесконечно близкий к t
0
момент времени от- лична от нуля только вероятность в окрестности начального значения x ? x
0
К дельта-функции Дирака при t ? t
0
стремится также условная плот- ность вероятности Коши:
P (x
0
, t
0
? x, t) =
(t ? t
0
)/?
(x ? x
0
)
2
+ (t ? t
0
)
2
(4.3)
Интеграл от этой функции по x равен единице, среднее значение  x
0
. Од- нако моменты второго и более высоких порядков равны бесконечности.
Соответственно равна бесконечности волатильность. В результате стано- вятся вероятными очень большие выбросы случайных чисел. Подобные процессы называются процессами со скачками. У колокола распределе- ния существует типичная ширина, пропорциональная t ? t
0
. По мере удаления от начального момента времени происходит расплывание рас- пределения вероятностей и очень быстрый уход процесса от начального значения x
0
. Поэтому в теории диффузных процессов мы не рассматри- ваем распределение Коши, хотя, как мы увидим чуть ниже, оно является марковским.

Вероятности
103

Плотность вероятности марковских процессов должна удовлетво- рять определјнным уравнениям. Рассмотрим три последовательных мо- мента времени t
1
< t
2
< t
3
, в которых x(t) принимает значения x
1
, x
2
и x
3
. Совместная плотность вероятности для x
1
и x
3
равна:
P (x
1
, x
3
) =
Z
P (x
1
, x
2
, x
3
)dx
2
,
(4.4)
где для краткости опущены времена t i
. В (
4.4
) мы суммируем все возмож- ные реализации промежуточного значения x
2
. В результате из трехто- чечной совместной плотности вероятности получается двуточечная. Под- ставим в левую часть P (x
1
, x
3
) = P (x
1
) P (x
1
? x
3
)
определение услов- ной вероятности, а в правую, с учјтом марковости процесса, трјхточеч- ную плотность вероятности (см. (
1.42
), на стр.
37
):
P (x
1
, x
2
, x
3
) = P (x
1
) P (x
1
? x
2
)P (x
2
? x
3
).
Восстанавливая времена, получаем:
P (x
1
, t
1
? x
3
, t
3
) =
Z
P (x
1
, t
1
? x
2
, t
2
) P (x
2
, t
2
? x
3
, t
3
) dx
2
(4.5)
Это интегральное уравнение Чепмена-Колмогорова. В качестве упражне- ния (l H
24
) имеет смысл проверить, что этому уравнению удовлетворяет гауссова плотность вероятности (
4.1
). Второе упражнение (l H
25
) состо- ит в записи уравнения Чепмена-Колмогорова для характеристических функций, если P (x
0
, t
0
? x, t) = P (x ? x
0
, t ? t
0
)
, и проверке марковости распределения Коши (
4.3
).
Уравнению Чепмена-Колмогорова должны удовлетворять любые ве- роятности марковских процессов. Правда в таком виде оно слишком об- щее, и нам нужны его более конкретные представления. В уравнении
(
4.5
) времена t
1
, t
2
и t
3
могут быть удалены друг от друга как угодно далеко. Однако особый интерес представляет ситуация бесконечно близ- ких времјн. В результате глобальные свойства P (x
0
, t
0
? x, t)
опреде- ляются из решений локальных дифференциальных уравнений. Так как условная плотность вероятности имеет две пары аргументов, то возмож- ны, по крайней мере, два уравнения относительно {x
0
, t
0
}
и {x, t}. Из
(
4.5
) в следующем разделе мы получим уравнение относительно {x
0
, t
0
}
,
которое называется первым уравнением Колмогорова. Аналогично вы- водится уравнение Фоккера-Планка, или второе уравнение Колмогорова относительно {x, t}. Мы найдјм его при помощи стохастического диффе- ренциального уравнения. Этот вывод покажет непосредственную связь двух математических аппаратов.

104
Глава 4.
4.2 Уравнения для P (x
0
, t
0
? x, t)

Найдјм уравнение относительно переменных начального значения x
0
, t
0
. Для этого воспользуемся уравнением Чепмена-Колмогорова. Что- бы возникла производная по времени t
0
, необходимо рассмотреть t
0
и бесконечно близкое к нему время t
0
+ ?t
. Поэтому для трјх последо- вательных моментов времени в интегральном уравнении возьмјм два соседних t
1
= t
0
, t
2
= t
0
+ ?t и одно будущее t
3
= t
:
P (x
0
, t
0
? x, t) =
?
Z
??
P (x
0
, t
0
? y, t
0
+ ?t) P (y, t
0
+ ?t ? x, t)
|
{z
}
(y?x
0
)
dy.
Интервал ?t мал и, следовательно, величина y, соответствующая мо- менту времени t
0
+ ?t
, должна быть близка к x
0
в момент времени t
0
Поэтому разложим в ряд Тейлора по y ? x
0
, в окрестности точки y = x
0
,
второй множитель под интегралом:
P (y, t
0
+ ?t ? x, t) = P +
?P
?x
0
(y ? x
0
) +
1 2
?
2
P
?x
2 0
(y ? x
0
)
2
+ ...,
где P = P (x
0
, t
0
+ ?t ? x, t)
. Вынесем множители, не зависящие от y,
за знак интеграла. Опуская пределы интегрирования, запишем:
P (x
0
, t
0
? x, t) = P (x
0
, t
0
+ ?t ? x, t)
Z
P (x
0
, t
0
? y, t
0
+ ?t) dy
+
?P
?x
0
Z
(y ? x
0
) P (x
0
, t
0
? y, t
0
+ ?t) dy
+
1 2
?
2
P
?x
2 0
Z
(y ? x
0
)
2
P (x
0
, t
0
? y, t
0
+ ?t) dy
+ ...
Первое слагаемое соответствует условию нормировки (переход хоть куда- нибудь), и интеграл равен единице. В результате получается просто P .
Перенесјм направо P (x
0
, t
0
? x, t)
и разделим обе части на ?t. По определению, при ?t ? 0 мы можем записать:
P (x
0
, t
0
+ ?t ? x, t) ? P (x
0
, t
0
? x, t)
?t
?
?P (x
0
, t
0
? x, t)
?t
0
,
что приводит к производной по начальному моменту времени t
0

Вероятности
105
Интегрирование по y во втором и третьем слагаемых дајт условные средние моментов первого и второго порядков:
?P (x
0
, t
0
? x, t)
?t
0
+
?P
?x
0
h(x ? x
0
)i
?t
+
1 2
?
2
P
?x
2 0
(x ? x
0
)
2
?t
= 0.
Если бы мы продолжили разложение в ряд Тейлора, то в этом уравнении стояли бы также моменты более высоких порядков (x ? x
0
)
3
, и т.д.
Однако для диффузных процессов они по определению в пределе ?t ? 0
равны нулю (см. стр.
50
).
Средние значения, как обычно, вычисляются при помощи условной плотности вероятности (?t ? 0):
h (x ? x
0
)
m i =
?
Z
??
(x ? x
0
)
m
P (x
0
, t
0
? x, t
0
+ ?t) dx.
При вычислении предела ?t ? 0 сначала необходимо проинтегрировать,
вычислив среднее, затем полученную функцию от ?t разделить на ?t,
и только после этого устремить к нулю ?t ? 0.
Мы видим, что снос и диффузия естественным образом появляются как в уравнениях для плотности вероятности случайного процесса, так и в стохастических дифференциальных уравнениях при записи их через разности.
В результате, вводя коэффициенты сноса и диффузии, получаем пер- вое уравнение Колмогорова:
?P
?t
0
+ a(x
0
, t
0
)
?P
?x
0
+
1 2
b
2
(x
0
, t
0
)
?
2
P
?x
2 0
= 0
,
(4.6)
где P = P (x
0
, t
0
? x, t)
. Заметим, что производные в этом уравнении берутся не по будущим аргументам x и t, а по начальным x
0
и t
0
Если значение x
0
= x(t
0
)
задано точно, то первое уравнение Кол- могорова необходимо решать с начальными условиями в виде дельта- функции Дирака:
P (x
0
, t
0
? x, t) = ?(x ? x
0
)
t ? t
0
(4.7)
Естественно, кроме этого предполагается наличие тех или иных гранич- ных условий. В простейшем случае требуют достаточно быстрого убы- вания плотности вероятности при увеличении разности x ? x
0
в любой момент времени t > t
0

106
Глава 4.

Выведем теперь второе дифференциальное уравнение для функции
P (x
0
, t
0
? x, t)
по будущим аргументам x, t. Пусть процесс Ито в мо- мент времени t ? ?t имеет значение x. Спустя малый интервал времени
?t он будет иметь значение y:
y = x + a ?t + b ?
?
?t,
(4.8)
где a = a(x, t ? ?t), b = b(x, t ? ?t). Величина x является случайной с плотностью распределения P (x, t ? ?t) = P (x
0
, t
0
? x, t ? ?t)
. Слу- чайной и независимой от неј будет и ? c гауссовой плотностью P (?). В
результате y в момент t также будет случайной величиной.
Чтобы найти распределение P (y, t) = P (x
0
, t
0
? y, t)
, необходимо вычислить среднее от произвольной функции (см. стр.
22
):
hF (y)i =
?
Z
??
F (y)
z
}|
{
F (x + a?t + b?
?
?t )
P (x,?)
z
}|
{
P (x, t ? ?t) P (?) dx d?
(4.9)
и преобразовать его таким образом, чтобы получился однократный ин- теграл c F (y) в момент времени t. Обратим внимание, что, если в (
4.8
)
x
, y и ?  это случайные величины, потенциально принимающие любые значения, то в (
4.9
) они же выступают в виде обычных вещественных переменных интегрирования.
Так как ?t малo, разложим F (..) в ряд, оставляя члены порядка не более ?t:
F (x + a?t + b?
?
?t) = F (x) +
?F
?x a ?t + b ?
?
?t
 +
1 2
?
2
F
?x
2
b
2
?
2
?t + ...
Все функции справа вычислены в точке x и в момент времени t. Заме- тим, что в (
4.8
) функции вычислялись в момент времени t??t. На самом деле их тоже необходимо разложить по ?t. Однако эти ряды будут умно- жаться на ?t,
?
?t и окажутся малыми более высокого порядка. Поэтому можно взять ведущее приближение разложения и считать в дальнейшем,
что a = a(x, t), b = b(x, t).
Аналогично раскладывается плотность вероятности по ?t:
P (x, t ? ?t) = P (x, t) ?
?P (x, t)
?t
?t + ...
Этим соотношением мы связываем плотности вероятности в два беско- нечно близких момента времени, в результате чего в конечном уравнении появится частная производная по времени.

Вероятности
107
Подставим последние два разложения в (
4.9
), выдерживая порядок малости по ?t. Интегрирование по ? сводится к h?i = 0, ?
2
= 1
, и в результате:
hF (y)i =
?
Z
??
F (x)P (x, t)dx ? ?t
?
Z
??

F
?P
?t
?
?F
?x aP ?
1 2
?
2
F
?x
2
b
2
P

dx.
Во втором интеграле F = F (x), P = P (x, t). Первый интеграл представ- ляет определение искомого среднего в момент времени t (переменная интегрирования x может быть переобозначена в y). Поэтому второй ин- теграл должен быть равен нулю. Интегрируя по частям один раз второе слагаемое в квадратных скобках и два раза третье (l C
23
), получим F (x),
умноженную на выражение:
?P
?t
+
?
?x
a(x, t) P  ?
1 2
?
2
?x
2
b
2
(x, t) P
 = 0 ,
(4.10)
которое должно быть равно нулю (в силу произвольности F (x)). Это уравнение Фоккера - Планка, или второе уравнение Колмогорова для плотности условной вероятности P = P (x
0
, t
0
? x, t)
Решение уравнения Фоккера-Планка позволяет найти плотность веро- ятности условного перехода. Имея еј, мы фактически знаем о марков- ском случайном процессе всј. Можем вычислять его среднее, волатиль- ность, автокорреляционную функцию и отвечать на другие вопросы.
Естественно, кроме начального условия (
4.7
), предполагается наличие граничных условий для плотности вероятности. Так как мы знаем, что в момент времени t
0
значение x было равно x
0
, то спустя конечный ин- тервал времени цена или броуновская частица не могут заблуждать
бесконечно далеко. Поэтому мы считаем, что плотность вероятности на бесконечности равна нулю. Это же требование возникает в силу условия нормировки:
?
Z
??
P (x
0
, t
0
? x, t) dx = 1,
(4.11)
имеющего смысл вероятности перехода куда угодно.
Так как дифференциальное уравнение (
4.10
) линейно относительно функции P , то решение не изменяется при умножении P на произволь- ную константу. Еј значение должно фиксироваться при помощи условия нормировки (
4.11
).

108
Глава 4.
4.3 Решение уравнения Фоккера-Планка

В качестве примера решения уравнения Фоккера-Планка рассмот- рим случай винеровского блуждания с a(x, t) = 0 и b(x, t) = ?:
?P
?t
=
?
2 2
?
2
P
?x
2
(4.12)
Это уравнение теплопроводности с коэффициентом диффузии ?
2
. Имен- но оно дало название диффузным процессам. Представим P (x, t) (аргу- менты начальных условий опускаем) в виде фурье-интеграла (см. При- ложение М, стр.
314
):
P (x, t) =
?
Z
??
?(k, t) e
?ikx dk
2?
(4.13)
Подставляя его в (
4.12
), получаем для ?(s, t) следующее уравнение:
??
?t
= ?
?
2
k
2 2
?.
(4.14)
При его решении возникает произвольная константа, для определения которой необходимо воспользоваться начальным условием:
P (x, t
0
) = P (x
0
, t
0
? x, t
0
) = ?(x ? x
0
) =
?
Z
??
e
?i(x?x
0
)k dk
2?
Поэтому фурье-образ плотности вероятности при t = t
0
должен быть равен ?(k, t
0
) = e ix
0
k
. В результате решение (
4.14
) имеет вид:
?(k, t) = e
??
2
k
2
(t?t
0
)/2+ix
0
k
Выполняя интегрирование (
4.13
) при помощи интеграла (
14
), стр.
312
,
приходим к гауссовой плотности условной вероятности:
P =
?
Z
??
e
??
2
k
2
(t?t
0
)/2?ik (x?x
0
)
dk
2?
=
1
?
p2?(t ? t
0
)
exp

?
1 2?
2
(x ? x
0
)
2
(t ? t
0
)

Видно, что волатильность в гауссиане увеличивается с течением времени,
как ?
?
t ? t
0
. Среднее значение равно начальному x
0
. Плотность вероят- ности вокруг x
0
симметрична и постепенно расплывается, увеличивая свою ширину. Таким образом, лучшим прогнозом будущего x будет его начальное значение x
0
Аналогично можно решить уравнение Фоккера-Планка, соответству- ющее процессу: dx = f(t)dt + s(t)?W (l H
26
), и несколько длиннее,
при помощи метода характеристик (стр.
316
), - для процесса Орнштейна-
Уленбека: dx = ?? · (x ? ?) dt + ??W (l H
28
).

Вероятности
109

Мы уже обсуждали в конце раздела §
2.7
, стр.
71
, что начальные условия могут быть заданы с некоторой вероятностью. Например, это происходит, когда учитывают неизбежные измерительные ошибки при определении x
0
= x(t
0
)
. Возможны и более экзотические ситуации на- чальной неопределјнности.
С точки зрения решения уравнения Фоккера-Планка это означает, что начальное условие для плотности вероятности равно не дельта - функции
Дирака, а некоторой задаваемой функции P
0
(x
0
)
. Для неј тоже можно записать фурье - преобразование:
P
0
(x
0
) =
?
Z
??
?
0
(k) e
?ikx
0
dk
2?
При решении уравнения для винеровского блуждания с учјтом этого начального условия мы имеем:
?(k, t) = ?
0
(k) e
??
2
k
2
(t?t
0
)/2
Чтобы получить вероятность будущих значений x, необходимо вычис- лить интеграл (
4.13
). Рассмотрим случай, когда начальные условия име- ют гауссову форму:
P
0
(x
0
) =
1
b
?
2?
e
?(x
0
?a)
2
/2b
2
=>
?
0
(k) = e iak?b
2
k
2
/2
,
где a - среднее значение, а b - волатильность (ошибка измерения x
0
). В
этом случае снова получится гауссова плотность P (x, t), зависящая от времени, но волатильность в ней будет заменена следующим образом:
?
2
(t ? t
0
) ? b
2
+ ?
2
(t ? t
0
).
Другими словами, неопределјнность в будущем значении x определяется начальной неопределјнностью b и привнесјнной случайным блуждани- ем ?
2
(t ? t
0
)
. Этот результат для волатильностей справедлив и в случае произвольного распределения P
0
(x
0
)
. Действительно, полагая t
0
= 0
, при помощи гауссовой случайной величины ? ? N(0, 1) запишем решение ви- неровского процесса:
x = x
0
+ ?
?
t ?.
Считая x
0
случайной величиной, получаем:
?
2
x
=
(x ? Ї
x)
2
=
D
x
0
? Ї
x
0
? ?
?
t ?

2
E
=
(x
0
? Ї
x
0
)
2
+ ?
2
t,
где мы воспользовались независимостью будущего блуждания и началь- ных условий hx
0
?i = hx
0
i h?i = 0

110
Глава 4.
4.4 Граничные условия

При логарифмическом блуждании (
2.24
), стр.
58
, линейная зависи- мость сноса и волатильности от x приводит к тому, что решение положи- тельно x > 0. Однако не всегда возможно ограничить диапазон значений решения в рамках только уравнений. Чаще задаются внешние к уравне- нию граничные условия. Они могут быть различных типов.
B Отражающие граничные условия изменяют знак приращения dx при достижении границы. Например, броуновская частица, на которую действует сила тяжести, будет постепенно опускаться вниз. Однако со- суд, в котором она находится, ограничен снизу дном. При его достижении частица отразится и продолжит блуждание в соответствии с уравнени- ем. Так как сила тяжести (снос) продолжает действовать, частица будет постоянно возвращаться и отражаться от граничной поверхности. В ре- зультате со временем установится некоторое стационарное распределение вероятностей координат и скорости броуновской частицы.
B Поглощающие граничные условия предполагают прекращение про- цесса при достижении границы. Если x  координата частицы, то на поглощающей границе она удаляется из пространства. Поэтому полная вероятность нахождения в пространстве должна со временем уменьшать- ся. Наиболее естественная интерпретация подобной ситуации состоит в блуждании в области [?..?] большого числа частиц, концентрация кото- рых пропорциональна плотности вероятности. По мере достижения ча- стицами границ они удаляются, и общая концентрация падает.
B Периодические граничные условия накладывают, когда при достиже- нии некоторой границы x = ? происходит перемещение x на другую гра- ницу x = ?, откуда процесс продолжает развиваться в соответствии со стохастическим уравнением. Примером периодических граничных усло- вий будет блуждание броуновской частицы внутри кольца, заполненного водой. В этом случае угловая координата ?, задающая еј положение, об- ладает свойством периодичности, так как значения ? = 0 и ? = 2?
эквивалентны.
Решение стохастических дифференциальных уравнений при наличии граничных условий обычно удајтся получить только численным образом.
Для этого моделируется процесс блуждания, в котором при достижении границы проводится локальное изменение x в соответствии с граничными условиями. По большому числу реализаций подобных выборочных про- цессов можно вычислить средние значения интересующих нас величин или плотность условной вероятности.

Вероятности
111

Более удобным инструментом изучения поведения системы в таких ситуациях является уравнение Фоккера - Планка (
4.10
), стр.
107
, для плотности вероятности P = P (x
0
, t
0
? x, t)
:
?P
?t
+
?
?x
a(x, t) P  ?
1 2
?
2
?x
2
b
2
(x, t) P
 = 0.
Перепишем его в следующем виде:
?P
?t
+
?J
?x
= 0,
J (x, t) = a(x, t) P ?
1 2
?
b
2
(x, t) P

?x
(4.15)
Функция J(x, t) называется потоком вероятности. Пусть эволюция x происходит в границах [?..?]. При этом одна или обе границы могут находиться на бесконечности. Проинтегрируем (
4.15
) по x:
dp(t)
dt
= J (?, t) ? J (?, t),
p(t) =
?
Z
?
P (x
0
, t
0
? x, t) dx.
(4.16)
Изменение вероятности нахождения x в области ? < x < ? определяется значениями J на границах области. Уравнение (
4.15
) является законом сохранения в дифференциальной форме, а (
4.16
)  в интегральной. Ситу- ация эквивалентна любому закону сохранения. Так, сохранение заряда в
объјме [?..?] происходит, если суммарный ток на границе отсутствует
(сколько вошло зарядов за единицу времени, столько же и вышло).
Для плотности вероятности более естественна аналогия с концентра- цией частиц в единичном объјме n(x, t). Если общее число частиц равно
N
, и вероятность нахождения в той или иной точке пространства равна
P (x, t)
, то концентрация частиц равна n(x, t) = N P (x, t). В этом случае ток вероятности представляет собой физический перенос частиц и опре- деляется их скоростью в данной точке и концентрацией J = v n(x, t).
В трјхмерном пространстве дифференциальный и интегральный зако- ны сохранения числа частиц имеют вид:
?n
?t
+ ?J = 0,
<=>
d dt
Z
V
n(x, t)dV = ?
Z
S
J dS,
где J = v n, v  скорость частиц, а ?J = ?J
x
/?x + ?J
y
/?y + ?J
z
/?z
- дивергенция. Вектор элементарной поверхности dS направлен перпен- дикулярно S из объјма V , который окружает поверхность S, наружу.
Поэтому ток, направленный из объјма, приводит к уменьшению числа частиц, а вовнутрь  к увеличению.

112
Глава 4.

Для отражающих или периодических границ полная вероятность p нахождения x в интервале [?..?] не изменяется:
dp(t)
dt
= 0
=>
J (?, t) = J (?, t).
При достижении периодической границы x = ? объект переносится в x = ?
, так что токи на границах одинаковые и не равны нулю. При этом плотность вероятности на границах должна совпадать, так как факти- чески это одна точка пространства (для блуждания внутри кольца это очевидно). В случае отражающих границ токи в точности нулевые. Сим- волически это представлено на рисунках ниже:
При отражающих граничных условиях ток, отражаясь, образует прямое и встречное направления, поэтому суммарный поток на границе равен нулю. Поглощающая граница характеризуется нулевым значением веро- ятности P (x, t), так как частица в этой точке исчезает из пространства.
Таким образом, для трјх типов границ используются следующие гра- ничные условия (P (x, t) = P (x
0
, t
0
? x, t)
):
reflecting :
J (?, t) = 0
absorbing :
P (?, t) = 0
periodic :
J (?, t) = J (?, t), P (?, t) = P (?, t).
Отражающая или поглощающая границы могут быть в единственном виде или сосуществовать одновременно (например, слева  отражающая граница, а справа  поглощающая). Если граница одна, то обычно пред- полагается выполнение поглощающего граничного условия на бесконеч- ности P (?, t) = 0. Периодические границы по своему смыслу должны присутствовать одновременно.
Естественно, можно использовать и более затейливые границы. На- пример, полупрозрачная граница, на которой с некоторой вероятностью происходит отражение частицы или прохождение еј через границу. По- нятно, что подобных полупрозрачных границ в пространстве может быть несколько. Однако в большинстве задач достаточно перечисленных вы- ше границ трјх типов.
Уравнение Фоккера-Планка для одной и той же системы с различными граничными условиями приводит к качественно отличающимся решени- ям. Рассмотрим два простых примера.

Вероятности
113

Для наглядности будем считать, что x  координата частицы, ко- торая испытывает постоянный снос, смещаясь в среднем влево (ось x направлена слева направо):
dx = ?µdt + ??W.
Пусть в x = 0 существует отражающая граница. В этом случае воз- можно стационарное решение уравнения Фоккера - Планка. Каким бы ни было начальное значение координаты x
0
> 0
, частица рано или позд- но достигнет границы и отразится от неј. Однако снос будет всј время возвращать еј обратно. В результате установится стационарное состоя- ние. При этом вероятность нахождения частицы в пространстве должна уменьшаться по мере удаления от границы. Найдјм еј явный вид, решив стационарное уравнение Фоккера - Планка с ?P/?t = 0:
?µ P (x) ?
?
2 2
P
0
(x) = 0
=>
P (x) =

?
2
e
?2µx/?
2
Нормировочный множитель находим, интегрируя от нуля до бесконечно- сти. В данном случае ток равен нулю не только на отражающей границе,
но и во всјм пространстве. В противном случае не получилось бы стаци- онарного решения.

Рассмотрим ту же систему, но с двумя периодическими границами
[?..?]
. В этом случае (
4.15
) имеем:
?µ P (x) ?
?
2 2
P
0
(x) = J
0
=>
P (x) =
J
0
µ
+ P
0
e
?2µx/?
2
Мы снова интересуемся стационарным решением, поэтому J
0
 это кон- станта интегрирования по x уравнения Фоккера-Планка с ?P/?t = 0.
Граничные условия для потока вероятности J(?) = J(?) выполняются автоматически, так как J(x) = J
0
= const
. Периодические граничные условия для плотности вероятности P (?) = P (?) выполняются только при P
0
= 0
. В результате P (x) равна константе J
0

, значение которой находится из условия нормировки. Поэтому, P (x) = 1/(? ? ?).
Смысл этого решения легко понять. При отрицательном сносе части- ца постепенно дрейфует к левой границе x = ?. При еј достижении она переносится на правую границу x = ?, и процесс повторяется. Понят- но, что со временем установится однородное распределение вероятностей.
Аналогично, при блуждании броуновской частицы внутри кольца веро- ятность еј нахождения в той или иной точке пространства постепенно станет постоянной. Напомню, что в открытом пространстве вероятность расплывается и стационарного режима у системы быть не может.

114
Глава 4.
4.5 Вероятность достижения границы
?

Найдјм теперь вероятность достижения при блуждании границ ин- тервала [?..?]. Пусть это будут поглощающие границы, и в начальный момент времени t
0
= 0
частица находится в некоторой точке ? < x
0
< ?
Вероятность p(x
0
, t)
того, что в момент времени t она ещј ни разу не коснулась границ и находится внутри интервала [?..?], равна:
p(x
0
, t) =
?
Z
?
P (x
0
, 0 ? x, t) dx =
?
Z
?
P (x
0
, ?t ? x, 0) dx.
(4.17)
Второе равенство записано для однородных систем, у которых снос и волатильность не зависят от времени. Именно их мы сейчас и рассмот- рим. Для таких систем можно сдвинуть начало отсчјта времени, считая начальным t
0
= ?t
, а конечным  t = 0. Возьмјм производную по t вы- ражения (
4.17
) и воспользуемся первым уравнением Колмогорова (
4.6
),
стр.
105
. В результате уравнение для p = p(x
0
, t)
имеет вид:
a(x
0
)
?p
?x
0
+
b
2
(x
0
)
2
?
2
p
?x
2 0
=
?p
?t
(4.18)
Для плотности вероятности справедливо начальное условие в виде функ- ции Дирака P (x
0
, 0 ? x, 0) = ?(x ? x
0
)
. Поэтому из (
4.17
) следует начальное условие: p(x
0
, 0) = 1
(частица гарантированно находится в
? < x
0
< ?
). Кроме этого, если x
0
оказывается на границе, вероятность дальнейшего пребывания в интервале [?..?] будет равной нулю, поэтому:
p(?, t) = p(?, t) = 0.
Обозначим через T время достижения одной из границ. Понятно, что T - случайная величина и p(x
0
, t)
 это интегральная вероятность того, что
T > t (всј ещј находится). Вероятность, что T < t, равна 1 ? p(x
0
, t)
Еј производная по t даст плотность вероятности того или иного времени пребывания в интервале [?..?]. Поэтому, например, среднее время пре- бывания равно:
hT i =
?
Z
0
t
?
?t
1 ? p(x
0
, t)
 dt =
?
Z
0
p(x
0
, t) dt.
Мы считаем, что p(x
0
, ?) = 0
, т.к. частица в ограниченном пространстве
[?..?]
рано или поздно достигает одной из границ. Для среднего n-той степени от T введјм следующее обозначение T
n
(x
0
) = hT
n i
и найдјм уравнение, которому удовлетворяет функция T
n
(x
0
)

Вероятности
115

Проведя интегрирование по частям в определении hT
n i
, получаем:
T
n
(x
0
) = hT
n i = ?
?
Z
0
t n
?p(x
0
, t)
?t dt = n
?
Z
0
t n?1
p(x
0
, t) dt.
(4.19)
Умножим уравнение (
4.18
) на nt n?1
и проинтегрируем по dt:
a(x
0
) T
0
n
(x
0
) +
b
2
(x
0
)
2
T
00
n
(x
0
) = ?nT
n?1
(x
0
).
Благодаря нормировочному условию h1i = 1 имеем T
0
(x
0
) = 1
. Поэтому мы получили последовательность уравнений с правой частью, опреде- ляемой на предыдущей итерации. В частности, для среднего времени
T (x
0
) = T
1
(x
0
)
:
a(x
0
) T
0
(x
0
) +
b
2
(x
0
)
2
T
00
(x
0
) = ?1
с граничными условиями T (?) = T (?) = 0 (если частица в начальном положении x
0
была на границе, то она сразу покинет пространство).
Например, при винеровском блуждании с нулевым сносом µ = 0 и волатильностью ? имеем:
?
2 2
T
00
= ?1
=>
?
2 2
T = ?
x
2 0
2
+ Ax
0
+ B,
где A и B  константы интегрирования. Пусть поглощающие границы находятся в точках x = 0, L. Тогда граничные условия T (0) = T (L) = 0
приводят к:
hT i = T (x
0
) =
x
0
(L ? x
0
)
?
2
Максимальное среднее время hT i = L
2
/4?
2
достижения границ получа- ется тогда, когда в начальный момент частица находится в центральной части интервала x
0
= L/2
. В силу симметрии задачи (сноса нет) этот результат вполне ожидаем. Даже если x
0
находится недалеко от x = 0,
то при L ? ? среднее время также стремится к бесконечности.
В качестве упражнения (l H
27
) стоит решить эту же задачу при нену- левом сносе и рассмотреть предел широкого пространства L ? ?.

116
Глава 4.
4.6 Разложение вероятности по базису
?
Рассмотрим уравнение Фоккера-Планка с не зависящими от времени сносом a(x) и диффузией D(x) = b
2
(x)
:
?P
?t
+
?
?x
a(x) P  ?
1 2
?
2
?x
2
D(x) P  = 0.
Будем искать его решение в виде P = u
?
(x) e
??t
. Функция u(x) удовле- творяет уравнению (штрих - производная по x):
a(x)u
?
(x)

0
?
1 2
D(x)u
?
(x)

00
= ?u
?
(x).
(4.20)
При наличии граничных условий (стр.
111
) в интервале [?...?] это урав- нение может приводить к дискретному набору разрешјнных значений:
?
1
, ?
2
, ...
(собственные значения) и соответствующим им собственным функциям u
?
(x)
. Используя их, можно записать общее решение уравне- ние Фоккера-Планка.

Для примера рассмотрим винеровское блуждание с нулевым сносом a(x) = 0
и диффузией D = ?
2
. Уравнение (
4.20
) имеет вид:
u
00
?
(x) + ?
2
u
?
(x) = 0,
где w =
?
2?/?
. Его общее решение хорошо известно:
u
?
(x) = A sin(?x) + B cos(?x).
Пусть граничные условия [0..L] являются поглощающими. В точках x =
0
и x = L плотность вероятности должна обращаться в нуль: u
?
(0) =
u
?
(L) = 0.
Подстановка решения в эти граничные условия приводит к следующим собственным функциям:
u n
(x) =
r
2
L
sin(?
n x),
?
n
=
n?
L
и n = 1, 2, ...  целые числа, нумерующие собственные значения ?
n
=
?
2
?
2
n
/2
. Множитель p2/L при собственной функции выбран таким об- разом, чтобы выполнялось условие ортогональности:
L
Z
0
u n
(x)u m
(x)dx =
2
L
L
Z
0
sin(?
n x) sin(?
m x)dx = ?
nm
,
(4.21)
где ?
nm
 символ Кронекера, равный единице при n = m и нулю, если m 6= n
. Теперь можно разложить общее решение уравнения в бесконеч- ный ряд по собственным функциям.

Вероятности
117
Действительно, представим плотность вероятности в виде следующей суммы:
P (x
0
, 0 ? x, t) =
?
X
n=0
A
n u
n
(x) e
??
n t
Благодаря ортогональности собственных функций u n
(x)
мы всегда мо- жем восстановить коэффициенты этого разложения. Используя началь- ное условие P (x
0
, 0 ? x, 0) = ?(x ? x
0
)
и (
4.21
), имеем:
A
n
=
L
Z
0
P (x
0
, 0 ? x, 0) u n
(x)dx =
L
Z
0
?(x ? x
0
) u n
(x)dx = u n
(x
0
).
Поэтому окончательно:
P (x
0
, 0 ? x, t) =
2
L
?
X
n=0
sin(?
n x
0
) sin(?
n x)e
??
n t
С течением времени общая вероятность нахождения частицы в диапазоне
[0..L]
уменьшается, так как частица рано или поздно будет захвачена одной из границ.

Так же находится решение для отражающих границ. В этом случае на границах x = 0 и x = L ток (
4.15
), стр.
111
:
J (x, t) = ?
?
2 2
?P (x, t)
?x
= ?
?
2
e
??t
2
u
0
?
(x)
должен быть нулевым, а, следовательно, равна нулю производная соб- ственной функции: u
0
?
(0) = u
0
?
(L) = 0.
В результате:
u
0
(x) =
1
?
L
,
u n
=
r
2
L
cos(?
n x),
?
n
=
n?
L
,
и n = 1, 2, ... Несложно проверить, что эти функции также ортогональны.
Поэтому окончательно:
P (x
0
, 0 ? x, t) =
1
L
+
2
L
?
X
n=0
cos(?
n x
0
) cos(?
n x)e
??
n t
При t ? ? решение стремится к P (x
0
, 0 ? x, t) ? 1/L
, и частицу можно равновероятно встретить в любой точке интервала шириной L.
Рассмотрим теперь общую теорию для задачи на собственные функ- ции и значения для уравнения Фоккера-Планка.

118
Глава 4.

Предположим, что €
A
 линейный дифференциальный оператор (на- пример, €
A = d
2
/dx
2
), и справедливо уравнение следующего вида:

Au(x) = ? ?(x) u(x),
(4.22)
где ?(x)  действительная положительная функция. Если для произволь- ных функций ?(x) и ?(x) выполняется соотношение:
?
Z
?
?(x) €
A?(x) dx =
?
Z
?
?(x) €
A
?
?(x) dx,
(4.23)
то оператор €
A
называется самосопряжјнным. Звјздочка (комплексное сопряжение) может быть опущена для действительных операторов.
Рассмотрим решения u n
(x)
, u m
(x)
уравнения (
4.22
), соответствующие различным собственным значениям ?
n и ?
m
. Используя (
4.22
), запишем:
?
Z
?
u
?
m
(x) €
Au n
(x) dx = ?
n
?
Z
?
u
?
m
(x)u n
(x)?(x) dx,
?
Z
?
u n
(x) €
A
?
u
?
m
(x) dx = ?
?
m
?
Z
?
u
?
m
(x)u n
(x)?(x) dx,
где во втором соотношении взято комплексное сопряжение (
4.22
) и учте- на действительность функции ?(x).
Если оператор €
A
самосопряжјнный, то левые части этих равенств должны быть одинаковыми (? = u
?
m
, ? = u n
). Приравняем их:
(?
n
? ?
?
m
)
?
Z
?
u
?
m
(x)u n
(x) ?(x) dx = 0.
Если n = m, то подынтегральная функция положительна, и, следова- тельно, собственные значения  действительны (?
?
n
= ?
n
). При n 6= m нулю равен интеграл, поэтому собственные функции ортогональны с ве- сом ?(x). Оператор €
A
 линейный, следовательно, собственная функция определена с точностью до постоянного множителя. Его удобно выбрать таким образом, чтобы выполнялось условие ортогональности
?
Z
?
u
?
m
(x)u n
(x) ?(x) dx = ?
nm с весовой функцией ?(x).

Вероятности
119
Теперь можно записать разложение общего решения по базису:
F (x) =
X
f n
u n
(x),
=>
f n
=
?
Z
?
F (x)u
?
n
(x) ?(x) dx,
где для коэффициентов f n
использовано условие ортогональности.
Оператор €
A
уравнения (
4.20
) не является самосопряжјнным. Умно- жим обе части (
4.20
) на функцию ? = ?(x) и подберјм еј таким образом,
чтобы выполнялось условие (
4.23
). Проведјм интегрирование по частям:
?
Z
?

?? a?

0
?
1 2
?? D?

00

dx =
?
Z
?

? ??)
0
a? ?
1 2
??

00
D?

dx + I,
где I  значения подынтегральной функции на границах ? и ?:
I = ? ? a ?
?
?
?
1 2
? ? (D ?)
0
?
?
+
1 2
(? ?)
0
D ?
?
?
(4.24)
Раскроем производные в обоих интегралах. Оператор будет самосопря- жјнным, если при перестановке ? и ? местами вокруг него получается тот же результат (действительный случай). Это происходит, если:
2?a = ?D
0
? D?
0
=>
?(x) = exp
Z
D
0
(x) ? 2a(x)
D(x)
dx.
(4.25)
Кроме этого, естественно, должны исчезать граничные члены (I = 0).
Введјм в соответствии с (
4.15
) плотности тока вероятности:
J
?
= a? ?
1 2
(D ?)
0
,
J
?
= a? ?
1 2
(D ?)
0
При помощи этих определений и уравнения (
4.25
) для функции ?(x),
граничный член (
4.24
) можно переписать в следующем виде:
I = ?(x)(?(x)J
?
(x) ? ?(x)J
?
(x))
?
?
= 0.
Несложно проверить, что все три типа граничных условий, рассмотрен- ных в разделе §
4.4
, стр.
110
приводят к нулевому значению I. Таким образом, мы показали, что оператор уравнения (
4.20
), умноженный на функцию ?(x) (
4.25
), оказывается самосопряженным. Поэтому общее ре- шение уравнения Фоккера-Планка можно записать в следующем виде:
P (x, t) =
X
n a
n u
n
(x)e
??
n t
,
a n
=
?
Z
?
P (x, 0) u
?
n
(x) ?(x) dx,
где для определения a n
используются начальные условия P (x, 0).

120
Глава 4.
4.7 Уравнение для x(t, ?)
?
Пусть случайный процесс x = f(t, ?) в момент времени t выражен через гауссову переменную ?. Несмотря на случайность величин, f(t, ?)
представляет собой обычную функцию двух аргументов. Найдјм урав- нение, которому она удовлетворяет. При этом будем предполагать, что существует обратная к f функция ? = g(x, t). Нам потребуются перехо- ды от частных производных f к g. Для этого запишем дифференциалы:
d? = ?
x g dx + ?
t g dt,
dx = ?
?
f d? + ?
t f dt,
где ?
x g = ?g/?x
, и т.д. Подставляя dx в первое уравнение, получаем:
?
?
f ?
x g = 1,
?
t g = ??
x g ?
t f,
?
2
x g = ?
x

1
?
?
f

= ?
?
2
?
f ?
x g
(?
?
f )
2
(4.26)
Выведем сначала уравнение для обратной функции g(x, t). Пусть в момент времени t случайная величина, от которой зависит x, равна ?
1
Через бесконечно малый интервал времени в t + dt это уже другая гаус- сова переменная ?
2
:
?
2
= g x + dx, t + dt
,
?
1
= g(x, t).
Возведјм ?
2
в k-тую степень ?
k
2
= g k
x + dx, t + dt

и разложим в ряд до первого порядка малости по dt, и до второго по dx:
?
k
2
= ?
k
1
+ kg k?1
(g
0
dx + ?gdt) +
k(k ? 1)g k?2
g
02
+ kg k?1
g
00
 (dx)
2 2
+ ..,
где штрих обозначает частную производную по x, а точка  по времени.
В качестве dx подставим стохастическое уравнение dx = adt + b?
?
dt
,
где случайное число ? не зависит от ?
1
. Усредняя левую и правую части
?
k
2
= ?
k
1
, h?i = 0, ?
2
= 1
и сдвигая k ? k + 1, получаем:

g k

g
0
a + ?g +
D
2
g
00

+ kg k?1
D
2
g
02

= 0,
где D = b
2
 диффузия процесса. Умножим это соотношение на произ- вольные коэффициенты F
k и просуммируем по k = 0, 1, ...:

F (g)

g
0
a + ?g +
D
2
g
00

+ F
0
(g) g
02
D
2

= 0,
где F (g) = F
0
+ F
1
g + F
2
g
2
+ ..
При усреднении производится интегри- рование по ?
1
= g с плотностью вероятности P (?
1
)
. Для функций типа g
0
(x, t)
предполагается, что после взятия производной необходимо выра- зить x = f(?
1
, t)
и подставить в g
0
(x, t)

Вероятности
121
Проинтегрируем по частям второе слагаемое в среднем:
?
Z
??
F
0
(?
1
)g
02
D
2
P (?
1
) d?
1
= ?
?
Z
??
F (?
1
)
?
??
1

g
02
D
2
P (?
1
)

d?
1
При вычислении производной можно воспользоваться неявным диффе- ренцированием:
?
??
1

g
02
D
2

=
?
?x

g
02
D
2
 ?x
??
1
=
?
?x

g
02
D
2
 1
g
0
,
где учтено, что ?x/??
1
= f
0
= 1/g
0
(см. (
4.26
)).
Вводя функцию ?(?
1
) = ?P
0
(?
1
)/P (?
1
)
, получаем:

F (g)

g
0
a + ?g +
D
2
g
00
+ g
02
D
2
?(?
1
) ?
?
?x

g
02
D
2
 1
g
0

= 0.
В силу произвольности функции F множитель в круглых скобках дол- жен быть равен нулю, поэтому для ?
1
= g(x, t)
имеем:
?g =
1 2
?D(x, t)
?x g
0
? a(x, t)g
0
?
D(x, t)
2
?(g) g
02
? g
00
.
(4.27)
Воспользовавшись (
4.26
), после несложных вычислений получаем урав- нение относительно f(t, ?):
?
f = a(f, t) ?
D
0
(f, t)
2
+
D(f, t)
2
 ?(?)
f
0
+
f
00
f
02

,
(4.28)
где D
0
= ?D/?f и опущен индекс у ?
1
В детерминированном случае (D = 0) получается, как и следовало ожидать, обыкновенное дифференциальное уравнение ?f = a(f, t). На- чальное условие для (
4.28
) имеет вид x(t
0
, ?) = x
0
Для гауссового распределения ?(?) = ?. Однако в качестве случайного числа ? можно использовать величину с произвольным распределением.
Так, для P (?) ? ?
??1
e
???
функция ?(?) = ? ? (? ? 1)/?.
В качестве упражнения (l H
42
) предлагается проверить, что уравне- ния (
4.27
) и (
4.28
) согласуются с уравнением Фоккера-Планка.

122
Глава 4.

Глава 5
Стохастические интегралы
Как и в обычном анализе, если определено стохастическое дифферен- цирование, то естественно ввести и стохастическое интегрирование. Со- ответствующая техника даст нам ещј один инструмент получения соот- ношений для иногда достаточно общих случайных процессов. Это очень красивый раздел стохастической математики, который к тому же актив- но используется в учебной и научной литературе.
В дифференциальных уравнениях присутствуют два бесконечно ма- лых изменения  снос, пропорциональный dt, и волатильность шума ?W .
Соответственно, возможно два вида интегралов. В первом разделе мы рассмотрим стохастические интегралы по dt, изучим их основные свой- ства и найдјм представление некоторых интегралов через обычные слу- чайные величины. Во втором разделе рассматривается интеграл Ито по
?W
. Далее будут получены условия, при которых решение стохастиче- ского дифференциального уравнения единственно, и рассмотрен итера- ционный метод построения этого решения.
123

124
Глава 5.
5.1 Площадь под траекторией Винера

Для данной реализации n независимых случайных величин ?
1
, ..., ?
n
,
имеющих нормальное распределение с нулевым средним и единичной дисперсией: ?
i
? N (0, 1)
, мы получаем конкретную выборочную траек- торию винеровского процесса со значениями, заданными по оси времени с шагом ?t = t/n :
W
n
= W (t n
) = (?
1
+ ... + ?
n
)
?
?t = ?
?
n?t = ?
?
t.
(5.1)
Предел n ? ? соответствует непрерывному стохастическому процессу.
Если использовать такие же ?
1
, ..., ?
n при итерационном решении неко- торого стохастического уравнения:
x k+1
= a(x k
, t k
)?t + b(x k
, t k
) ?
k
?
?t,
получится выборочный процесс, однозначно связанный с W
t
. В этом смыс- ле выборочные решения всех уравнений с общим шумом ?W = ?
?
dt являются деформацией одной и той же выборочной траектории W
t

Несмотря на изломанный вид функции W
t
= W (t)
, можно вычис- лить площадь под ней, проинтегрировав от нуля до t:
S
t
=
t
Z
0
W
?
d?.
(5.2)
Интеграл, как и в обычном анализе, определим при помощи интеграль- ной суммы:
S
t
=
n
X
k=1
W
k?1
?t = [?
1
+ (?
1
+ ?
2
) + ... + (?
1
+ ... + ?
n?1
)] (?t)
3/2
,
(5.3)
где интервал [0..t] разбит на n отрезков длительностью ?t. Значение процесса Винера в конце k - того отрезка равно накопленной сумме k случайных независимых гауссовых изменений на каждом отрезке.
Для других реализаций ?
1
, ..., ?
n мы получим другое значение, поэтому
S
t и аналогичные интегралы являются случайными процессами.
Процесс S
t в момент времени t не может быть выражен через W
t
, так как зависит не только от значения W
t
= W (t)
, но и от формы траектории во все моменты времени. Тем не менее, для S
t можно получить простое представление через скалярные случайные величины.

Стохастические интегралы
125

Перегруппируем интегральную сумму (
5.3
) следующим образом:
(n ? 1) · ?
1
+ ... + 1 · ?
n?1
 (?t)
3/2
= ?
1
p
1 2
+ 2 2
+ ... + (n ? 1)
2
(?t)
3/2
Сумма гауссовых чисел статистически эквивалентна одному, которое мы обозначили через ?
1
? N (0, 1)
. В результате появляется соответствую- щий множитель. Сумма ряда 1 2
+ ... + (n ? 1)
2
равна (n ? 1)n(2n ? 1)/6.
Устремляя n ? ?, ?t ? 0, так что n?t = t, получаем:
S
t
=
t
Z
0
W
?
d? = ?
1
t
3/2
?
3
Таким образом, S
t
 это гауссовый случайный процесс с волатильностью,
увеличивающейся со временем как t
3/2
, т.е. S
t
? N (0, t
3
/3)
. Однако это ещј не всј. Величина ?
1
не является независимой от винеровского блуж- дания W
t
. Действительно, W
t равен сумме гауссовых чисел ?
k
, которые мы использовали для вычисления интеграла S
t
:
W
t
=
?
1
+ ?
2
+ ... + ?
n?1
+ ?
n
 (?t)
1/2
= ?
2
?
t
S
t
=
(n ? 1) ?
1
+ (n ? 2) ?
2
+ ... + 1 ?
n?1
 (?t)
3/2
= ?
1
t
3/2
?
3
Первая строка  это запись винеровского процесса в момент времени t через накопленную сумму изменений ?
2
на каждом интервале. Вторая
 это интегральная сумма, полученная выше. В обоих случаях ?
1
и ?
2

это гауссовы числа N(0, 1). Однако, они скоррелированы друг с другом:
W
t
S
t
= ?
1
?
2
t
2
?
3
= (1 + 2 + ... + n ? 1)(?t)
2
=
(n ? 1)n
2
(?t)
2
?
t
2 2
Две скоррелированные гауссовы переменные ?
1
?
2
=
?
3/2
можно пред- ставить в виде линейной комбинации (см. стр.
33
) независимых гауссовых чисел ?, ?:
?
1
=
?
3 2
? +
1 2
?,
?
2
= ?.
Поэтому окончательно получаем:
W
t
= ?
?
t,
S
t
= (
?
3 ? + ?)
t
3/2 2
?
3
=
W
t
2
t + ?
t
3/2 2
?
3
(5.4)
Подобное представление позволяет легко вычислять различные средние,
относящиеся к одному моменту времени, например W
2
t
S
2
t
= 5 t
4
/6

126
Глава 5.

Полученное соотношение для S
t имеет простую геометрическую ин- терпретацию. Пусть площадь вычисляется от t
0
до t, и в этих точках
W
0
= W (t
0
)
и W
t
= W (t)
. Тогда в формуле (
5.4
) необходимо заменить
W
t на W
t
? W
0
и добавить нижний прямоугольник площадью W
0
(t ? t
0
)
:
S
t
=
W
0
+ W
t
2
(t ? t
0
) + ?
(t ? t
0
)
3/2 2
?
3
1   2   3   4   5   6   7   8   9   10   ...   20


написать администратору сайта