Главная страница

Стохастический мир


Скачать 2.82 Mb.
НазваниеСтохастический мир
Дата27.09.2022
Размер2.82 Mb.
Формат файлаpdf
Имя файлаstepanov1.pdf
ТипДокументы
#700302
страница15 из 20
1   ...   12   13   14   15   16   17   18   19   20
x
x
t
t
x
0
x
0
step step
Для вычислений используется два вложенных цикла. Внешний по k при- водит к выводу x(step), x(2step),... тогда как внутренний по j, при помо- щи итерационной формулы, вычисляет промежуточные значения случай- ного процесса. Для ускорения вычислений мы используем переменную sqrt_dt, в которой хранится
?
dt
. Начальное значение процесса x
0
= 1
в момент времени t
0
= 0
задајтся перед выполнением циклов.
Вывод в файл осуществляется функцией fprintf, которая аналогич- на printf, но первым аргументом указывается файловая переменная, в которую направляется вывод. Функция fflush(out) приводит к немед- ленному помещению данных в файл, поэтому, если прервать выполнение программы, часть посчитанных к этому моменту результатов будет на- ходиться в файле. Последняя строка закрывает файл. Этот текстовый файл можно открыть, например, в Excel и построить график соответ- ствущего случайного процесса.
Символ \t в функции fprintf обозначает табулирование и пони- мается Excel в качестве разделителя колонок. Можно его заменить на запятую ,, и, придав файлу расширение .csv, получить формат, вос- принимаемый большинством программ обработки данных.

252
Глава 9.

Аналогичным образом моделируется система стохастических урав- нений. Рассмотрим в качестве примера двухмерный осциллятор с зату- ханием (стр.
160
), имеющий скоррелированный шум ?W
x
?W
y
= ? dt
:
 dx = (?? x ? ? y) dt + ? ?W
x dy = (+? x ? ? y) dt + ? ?W
y
Программа на C++, выдающая реализацию траектории соответствущего случайного процесса x(t), y(t), имеет вид:
# include " stat .cpp"
// файл с RndG ( )
void main ()
{
FILE *out = fopen ("ito.out", "w");
SRnd ( time (0));
// "встряхиваем " генератор
Float step = 0.1;
// шаг по времени для табуляции x , y const int num = 1000; // число точек табуляцмм int lag=
1000;
// количество дроблений шага s t e p
Float w=0.5 , lm =0.01 , si=1, rho =0.1;
Float x=1, y=0, t=0, x1 , y1 , r1 , r2;
Float dt= step /lag , sqrt_dt = sqrt (dt), rho1 = sqrt (1- rho*rho );
fprintf (out , "%g\t%g\t%g\n", t, x, y);
for(int k=1; k <= num; k ++){
for(int j=0; jr1= RndG (); r2=rho*r1+ rho1 * RndG ();
x1
= x + (-lm*x-w*y)* dt +
si*r1* sqrt_dt ;
y1
= y + (-lm*y+w*x)* dt +
si*r2* sqrt_dt ;
x=x1; y=y1;
}
fprintf (out , "%g\t%g\t%g\n", t, x, y);
}
fclose (out );
// закрываем файл
}
Принципиальное отличие от одномерного случая состоит в использова- нии промежуточных переменных x1 и y1. Мы должны сначала вычис- лить приращение каждой из переменных, и лишь затем их увеличить.
Если бы это не было проделано, то во втором уравнении для y стояло бы x не из предыдущей итерации, а уже изменјнное. В качестве упраж- нения стоит сравнить работу этого алгоритма и алгоритма, в котором стояло бы просто x+ = ... и y+ = .... Обратим также внимание на ге- нерацию скоррелированных случайных чисел r1 и r2 с коэффициентом корреляции ? =rho.

Компьютерное моделирование
253

Пока системы уравнений имеют небольшую размерность, для каж- дой степени свободы вводится отдельная переменная. Однако, рано или поздно необходимо переходить к массивам, особенно, если уравнение име- ет компактную векторную форму.
Рассмотрим, например, систему следующего вида:
dx i
= ?x i
r dt + ?W
i
,
где r = px
2 1
+ ... + x
2
n
 расстояние до начала координат в n-мерном декартовом пространстве. Так как снос вектора x = {x
1
, ..., x n
}
всегда направлен к началу координат, блуждание будет всј время оставаться в его окрестности. Со временем установится стационарное распределение вероятностей.
Для моделирования подобных уравнений необходимо определить мас- сивы значений на предыдущей и текущей итерациях, а также задать начальные значения:
const int n = 10;
Float x[n], x1[n];
for(int i=0; iДля объявления размера статических массивов необходимо использовать константы (const). В качестве начального значения выбрано начало ко- ординат.
Основной цикл итерационных расчјтов имеет следующий вид:
for(int k=1; k <= num; k ++){
for(int j=0; jFloat r=0;
for(int i=0; ir= sqrt (r);
for(int i=0; ix1[i] = x[i] - x[i]*r*dt + RndG ()* sqrt_dt ;
for(int i=0; ix[i] = x1[i];
}
}
При помощи значений x[i], полученных на предыдущей итерации, вычис- ляется радиус-вектор r. Затем в цикле происходит определение новых значений координат, которые присваиваются в массив x1. Только после того, как все новые значения вычислены, они снова помещаются в массив решений x.

254
Глава 9.
9.5 Ошибки вычислений и ускорение сходимости
Если мы хотим найти изменение во времени среднего значения или волатильности случайного процесса, необходимо создать большое коли- чество выборочных траекторий, на основании которых провести соответ- ствующее усреднение. На конечные результаты могут оказывать влияние ошибки трјх видов:
1) Конечность выборки
2) Конечность временного шага
3) Ошибки округлений
Статистические ошибки конечности выборки достаточно хорошо кон- тролируемы при помощи соотношений, приведенных в разделе §
9.2
. При расчјте любой интегральной величины v (среднее, квадрат среднего, и т.д.) необходимо вычислять также выборочную волатильность ??
v этой величины. Стандартная ошибка, которую мы будем получать для выбо- рочного среднего ?v по n экспериментам, равна ??
v
/
?
n
. При необходимо- сти можно определить доверительные интервалы, в которые с заданной достоверностью попадает истинное среднее значение.
Простым рецептом проверки наличия ошибок округления может быть переход от двойной точности double к одинарной oat для типа Float.
Если результаты при этом изменяются несущественно (на той же после- довательности случайных чисел), то всј нормально. Так как мы опреде- лили тип Float в начале файла stat.cpp, для подобной проверки доста- точно изменить только одну строку.
Рассмотрим теперь величину ошибок, связанных с конечностью вре- менного шага в итерационной схеме. Чтобы статистические ошибки не мешали, воспользуемся следующим пријмом. Как известно, конкретная траектория винеровского процесса полностью определяет любую траек- торию диффузного процесса, если еј изменения стоят в стохастическом члене дифференциального уравнения (порождающий процесс: стр.
72
).
Для процессов, точные решения которых выражаются явным видом через винеровскую переменную x = f(t, W
t
)
, можно вычислить среднюю абсолютную ошибку расхождения точного решения и численного:
E =
|x(t k
) ? x exact
(t k
)|
Для этого необходимо получить дискретную траекторию Винера при по- мощи последовательности случайных гауссовых величин ?
1
, ..., ?
n и, ис- пользуя их же, построить итерационную схему.

Компьютерное моделирование
255

Для уравнения dx = a(x) dt + b(x) ?W базовая итерационная схе- ма, которой мы пользовались на протяжении книги, называется схемой
Эйлера:
x k+1
= x k
+ a k
?t + b k
?
k
?
?t,
где ?
k
? N (0, 1)
, а a k
= a(x k
)
, b k
= b(x k
)
. Естественно, сам Эйлер о стоха- стических уравнениях не слышал, а использовал подобное приближение для решения обыкновенных дифференциальных уравнений.
Чем меньше интервал времени ?t, тем ближе последовательность зна- чений случайного процесса x k
= x(t k
)
находится к непрерывной траекто- рии x exact
(t)
в моменты времени t k
. Если для обыкновенных дифферен- циальных уравнений уменьшение шага итерационной схемы для повы- шения точности решения обычно не вызывает особых сложностей, то в стохастическом случае ситуация значительно сложнее. Чтобы получить среднее значение случайного процесса с относительной точностью 10
?3
,
необходимо проделать около миллиона экспериментов. В результате вре- менные затраты становятся в миллион раз больше, чем в детерминиро- ванном случае. Понятно, что, если при каждом из таких экспериментов,
уменьшая ?t, мы должны выполнять большое число итераций, то ситу- ация становится критической. Поэтому важную роль играют различные методы ускорения сходимости итерационной процедуры.
В §
5.6
, стр.
148
, при рассмотрении метода последовательных прибли- жений мы получили следующую итерационную схему:
x k+1
= x k
+ a k
?t + b k
?
k
?
?t
+ b
0
k b
k
(?
2
k
? 1)
?t
2
+ b
0
k a
k
?
k
(?t)
3/2
+ a
0
k b
k
? a k
b
0
k

"
?
3 2
?
k
+
1 2
?
k
#
(?t)
3/2
?
3
+ a
0
k a
k
(?t)
2 2
,
где a
0
k
= a
0
(x k
)
, b
0
k
= b
0
(x k
)
, а ? ? N(0, 1)  случайная величина, стати- стически не зависящая от ?. Добавление к схеме Эйлера второй строки называется схемой Милстейна. Третья строка является следующим при- ближением по времени, и добавление еј мы будем называть модифициро- ванной схемой Милстейна. Новое случайное число ?
k возникает благо- даря интегралу от винеровской траектории S
t
, который, являясь случай- ным процессом, зависит от формы W
t
, поэтому не определяется только значением W
t
= ?
?
t в момент времени t. Случайная величина ? пропор- циональна площади отклонения от трапеции, соединяющей начальное и конечное значения винеровского процесса на интервале [t, t + ?t] (см.
§
5.1
, стр.
124
).

256
Глава 9.
Рассмотрим программу, вычисляющую средние ошибки при использо- вании модифицированной схемы Милстейна
# include " stat .cpp"
// файл с RndG ( )
const int nex = 10000; // количество экспериментов void main ()
{
SRnd ( time (0));
// "встряхиваем " генератор
Float x0 =1;
// начальное значение x
Float t0 =0, t1 =1;
// начальное и конечное время
Float err[nex ];
// квадраты ошибок for( Float dt =0.01;
dt >=0.0001;
dt *=0.1){
Float sqrt_dt = sqrt (dt );
for(int ex =0; ex // эксперименты
Float x=x0 , t=t0 , w=0;
while (tFloat r = RndG ();
x += x*dt + x*r* sqrt_dt + 0.5* x*(r*r -1)* dt
+ x*r*dt* sqrt_dt + 0.5* x*dt*dt;
w += r;
t += dt;
}
w*= sqrt_dt ;
err[ex] = fabs (x-x0*exp(w +0.5* t));
}
Float av = Aver (err ,nex );
Float si = Sigma (err ,nex )/ sqrt (nex );
printf (" %12.8 f\t %12.8 f\t %12.8 f\n",dt ,av ,si );
}
}
В данном случае использовано логарифмическое блуждание dx = x dt + x ?W.
Во внешнем цикле происходит табулирование временного шага ?t. Далее проводится nex экспериментов, для каждого из которых по итерационной схеме вычисляется значение случайного процесса в момент времени t1,
которое сравнивается с точным x(t) = x
0
e
W
t
+t/2
,
которое зависит от значения винеровской переменной w в тот же момент времени.

Компьютерное моделирование
257
Приведјм результаты для логарифмического блуждания на интервале времени t = [0...1]. Ниже в таблице приведены абсолютные отклонения траектории процесса от точного решения для различных временных ша- гов ?t и итерационных схем. Усреднение ошибок проводилось по 10000
экспериментам:
Схема
?t = 10
?2
?t = 10
?3
?t = 10
?4
Эйлера E
E
1.6·10
?1 4.9·10
?2 1.5·10
?2
Милстейна E
M
2.7·10
?2 2.6·10
?3 2.5·10
?4
Модифицированная E
2 8.7·10
?3 9.0·10
?4 9.0·10
?5
При постоянном применении итерационной схемы ошибка со временем накапливается, и с ростом t достаточно быстро увеличивается. Этот рост является экспоненциальным, и на интервале t = [0.5, ..., 3] для схем Эй- лера, Милстейна и модифицированной Милстейна может быть аппрок- симирован функциями:
E
E
= 0.39 e
1.33 t
(?t)
1/2
,
E
M
= 0.61 e
1.42 t
?t,
E
2
= 0.23 e
1.34 t
?t.
Естественно, константы в этих функциях зависят от вида уравнения, од- нако экспоненциальная зависимость от времени и степенная от шага ите- рационной схемы являются достаточно универсальными. Таким образом:
1) с увеличением диапазона времени t ошибки накапливаются очень быст- ро; 2) схемы Милстейна существенно лучше схемы Эйлера, их ошибка быстрее убывает с уменьшением интервала ?t.
Ниже приведен пример динамики ошибок в виде их натурального ло- гарифма, как функции времени t для ?t = 10
?2
и 10
?3
. Прямые линии в этом масштабе означают экспоненциальную зависимость от t.
y = 1.35x - 6.13
y = 1.33x - 8.39
y = 1.33x - 10.68
-12
-10
-8
-6
-4
-2 1
1.5 2
2.5
t
ln E
2
t=
0.0001
t=
0.01
t=
0.001
На самом деле, логарифмическое блуждание, являясь линейной задачей,
достаточно комфортно для любого численного моделирования, по край- ней мере, пока значения процесса в силу экспоненциального роста средне- го значения не сильно выросли. В частности, в модифицированной схеме
Милстейна не задействован член со случайным числом ?.

258
Глава 9.
9.6 Вычисление средних
Приведјм простой алгоритм вычисления средних характеристик про- цесса по совокупности выборочных траекторий. Для этого введјм мас- сивы среднего значения и волатильности, табулированные в num точ- ках. Для определения распределения вероятностей будем подсчитывать частоту попадания в данный момент времени траектории в один из m подынтервалов в интервале между min и max. Для этого введјм двух- мерный массив p. Первый его индекс будет соответствовать табулирован- ному с шагом step времени, а второй  номеру интервала.
Все эти объявления имеют вид:
# include " stat .cpp"
// файл с RndG ( )
inline Float a( Float x, Float t){ return 0; } // снос inline Float b( Float x, Float t){ return sqrt (1+x*x); } // волат .
void main ()
{
SRnd ( time (0));
// "встряхиваем " генератор
Float x0 =0;
// начальное значение x
Float t0 =0;
// в момент времени t
Float step = 0.1;
// шаг по времени для табуляции x const int num = 100; // число точек табуляцмм int lag = 1000;
// дроблений шага
Float dt= step /lag , sqrt_dt = sqrt (dt );
const int m
= 100; // число точек гистограммы
Float min =-1, max =1; // диапазон для гистограммы
Float w=max -min;
Float av[num +1] , di[num +1];
Float p[num +1][ m];
// гистрограмма for(int k=0; k <= num; k ++){
av[k]= di[k ]=0;
for(int i=0; i}
av [0]= x0; di [0]=0;
Дальше мы в цикле по ex проводим nex численных экспериментов, в каждом из которых создајм выборочную траекторию, и накапливаем среднее значение в массиве av и среднее квадрата в массиве di. Кроме этого, увеличиваем счјтчик попаданий в подынтервалы для вычисления гистограммы.

Компьютерное моделирование
259
Продолжение программы выглядит следующим образом:
int nex = 1000000;
// количество выборочных траекторий for(int ex =1; ex <= nex; ex ++){
// эксперименты
Float x=x0 , t=t0;
for(int k=1; k <= num; k ++){
for(int j=0; jx
+= a(x,t)* dt + b(x,t)* RndG ()* sqrt_dt ;
av[k] += x;
// с р е д н е е значение di[k] += x*x;
// с р е д н е е квадрата int i=m*(x-min )/w;
if(i >=0 && i}
if(ex %100==0 && ex !=1){
printf ("ex =%8d\n", ex );
FILE *out = fopen ("ito.out", "w");
for(int k=0; k <= num; k ++){
Float ak = av[k]/ ex;
Float dk = di[k]/ex -ak*ak;
dk = dk >0? sqrt (dk ): 0;
fprintf (out ,"%g\t %12.5 f\t %12.5 f",k*step ,ak ,dk );
for(int i=0; ifprintf (out ,"\t %12.5 f" ,(p[k][i]/ ex )*m/w);
fprintf (out , "\n");
}
fclose (out );
}
}
}
Один раз в сто экспериментов (последний if) происходит вывод промежу- точных результатов в файл "ito.out". Для этого вычисляется остаток от деления номера эксперимента на 100 и вывод происходит, если он ра- вен нулю и это не первый эксперимент. В результате вычисления можно прервать в любой момент, получив некоторые промежуточные результа- ты. Если редактор просмотра файлов в операционной системе автомати- чески перегружает изменившийся файл, то в нјм можно просматривать динамику текущих вычислений.
В файл выводятся: время, волатильность и распределение вероятно- стей. Каждая строка соответствует одному моменту времени. Заметим,
что при выводе частот мы нормируем их таким образом, чтобы они рав- нялись плотности распределения вероятностей. При вычислении вола- тильности, на всякий случай, при взятии корня проверяется знак дис- персии. Вообще говоря, дисперсия всегда положительна, однако из-за ошибок округления, при нулевой ?, возможны очень маленькие отрица- тельные значения, которые могут вызвать сбой программы.

260
Глава 9.

R: Стохастический справочник
В приложении собраны основные формулы, связанные с одномерны- ми и многомерными стохастическими дифференциальными уравнения- ми. Приведены точные или асимптотически точные решения. В тех слу- чаях, когда уравнение обсуждалось в книге, делается сноска на соответ- ствующий номер страницы.
261

262
I Основные соотношения теории
R
1
: Стохастическое дифференциальное уравнение определяется функ- циями сноса a(x, t) и волатильности b(x, t):
dx = a(x, t) dt + b(x, t)?W,
где ?W = ?
?
t
 винеровский шум, а ? ? N(0, 1)  гауссово случайное число с нулевым средним и единичной дисперсией. Итерационная схема:
x k+1
= x k
+ a(x k
, t k
) ?t + b(x k
, t k
)
?
?t ?
k
Стартуем с x
0
= x(t
0
)
, и далее каждый раз генерим новое, независимое гауссово случайное число ?
k
R
2
: Дифференциал функции F = F (x, t), если x = x(t)  случайный процесс, определяется леммой Ито (стр.
55
):
dF =
 ?F
?t
+ a(x, t)
?F
?x
+
b
2
(x, t)
2
?
2
F
?x
2

dt + b(x, t)
?F
?x
?W.
Стохастическое уравнение для F получаем после замены x = G(F, t), где
G
 обратная к F функция.
R
3
: Плотность условной вероятности P = P (x
0
, t
0
? x, t)
удовлетво- ряет уравнению Фоккера-Планка (стр.
107
):
?P
?t
+
?
?x
a(x, t) P  ?
1 2
?
2
?x
2
b
2
(x, t) P
 = 0
и первому уравнению Колмогорова (стр.
105
):
?P
?t
0
+ a(x
0
, t
0
)
?P
?x
0
+
1 2
b
2
(x
0
, t
0
)
?
2
P
?x
2 0
= 0.
Уравнению Фоккера-Планка можно придать форму закона сохранения:
?P
?t
+
?J
?x
= 0,
J (x, t) = a P ?
1 2
?
b
2
P

?x
Возможны следующие граничные условия (стр.
110
):
ref lecting :
J (a, t) = 0
absorbing :
P (a, t) = 0
periodic :
J (a, t) = J (b, t), P (a, t) = P (b, t).
Если начальное условие x
0
задано точно, то P (x
0
, t
0
? x, t
0
) = ?(x ? x
0
)

R: Стохастический справочник
263
R
4
: Среднее от функции F = F (x, t) удовлетворяет уравнению (стр.
78
):
d hF i dt
=
 ?F
?t
+ a(x, t)
?F
?x
+
b
2
(x, t)
2
?
2
F
?x
2

В случае F = x и F = x
2
:
?
hxi = ha(x, t)i ,
?
hx
2
i =
2xa(x, t) + b
2
(x, t)
,
где точка  производная среднего по времени. Для линейного по x сноса уравнение для среднего hxi совпадает с детерминированным.
R
5
: Важный класс точных решений можно найти (стр.
57
), если уда-
јтся подобрать функцию s(t), удовлетворяющую тождеству:
1
s(t)
?
?t

s(t)
b(x, t)

=
1 2
?
2
b(x, t)
?x
2
?
?
?x
 a(x, t)
b(x, t)

Тогда, решая уравнения:
?F
?x
=
s(t)
b(x, t)
,
?F
?t
+ s(t)
 a(x, t)
b(x, t)
?
1 2
?b(x, t)
?x

= f (t)
находим F (x, t) и f(t), при помощи которых записываем решение:
F x(t), t
 = F x(t
0
), t
0
 +
t
Z
t
0
f (? ) d? +
?
?
t
Z
t
0
s
2
(? ) d?
?
?
1/2
?.
R
6
: Решение x = f(t, ?), выраженное через случайную переменную ?,
удовлетворяет уравнению (стр.
120
):
?
f = a(f, t) ?
D
0
(f, t)
2
+
D(f, t)
2
 ?(?)
f
0
+
f
00
f
02

,
где ?(?) = ?P
0
(?)/P (?)
, и P (?)  плотность вероятности для ?, точка 
производная по времени, штрих  по ?, а D = b
2
, D
0
= ?D/?x
. В случае гауссового распределения ?(?) = ?. Начальные условия x
0
= f (t
0
, ?)
Уравнение для обратной функции ? = g(x, t):
?g =
1 2
?D(x, t)
?x g
0
? a(x, t)g
0
?
D(x, t)
2
?(g) g
02
? g
00
.
Штрих теперь  производная по x.

264
R
7
: Система стохастических уравнений n x m относительно перемен- ных состояния x = {x
1
, ..., x n
}
имеет вид:
dx
?
= a
?
(x, t) dt + b(x, t)
??
?W
?
По повторяющемуся индексу, если иное не оговорено, предполагается суммирование. Стохастический шум ?W
?
= ?
?
?
dt выражается через m нескоррелированных гауссовых чисел: ?
?
= {?
1
, ..., ?
m
}
R
8
: Лемма Ито (стр.
157
) для функции n + 1 переменных F = F (x, t):
dF =
 ?F
?t
+
?F
?x i
a i
+
1 2
?
2
F
?x i
?x j
b i?
b j?

dt +
?F
?x i
b i?
?W
?
Матричная форма (b
T
 транспонирование, Tr  след матрицы):
dF =
 ?F
?t
+
?F
?x
· a +
1 2
Tr

b
T
·
?
2
F
?x
2
· b

dt +
?F
?x
· b · ?W,
R
9
: Уравнение Фоккера - Планка (стр.
158
) для P = P (x
0
, t
0
? x, t)
:
?P
?t
+
?(a i
P )
?x i
?
1 2
?
2
?x i
?x j
h b
i?
b j?
P
i
= 0.
Функции сноса и волатильности зависят от текущего значения x и вре- мен: a i
= a i
(x, t)
, b i?
= b i?
(x, t)
Первое уравнение Колмогорова для P = P (x
0
, t
0
? x, t)
:
?P
?t
+ a i
?P
?x
0i
+
b i?
b j?
2
?
2
P
?x
0i
?x
0j
= 0.
где x
0
= {x
01
, ..., x
0n
}
 переменные начального условия, в которых вы- числены снос и волатильность a i
= a i
(x
0
, t
0
)
, b i?
= b i?
(x
0
, t
0
)
R
10
: Уравнение Фоккера-Планка имеет вид закона сохранения:
?P
?t
+
?J
i
?x i
= 0,
J
i
= a i
P ?
1 2
?
?x j
h b
i?
b j?
P
i
Вероятность p(t) нахождения в объјме V , окруженном поверхностью S:
p(t) =
Z
V
P (x, t)dV,
dp dt
= ?
Z
S
JdS.
Элемент площади dS перпендикулярен поверхности и направлен наружу.
Вероятность p(t) уменьшается, если положителен поток из объјма.

R: Стохастический справочник
265
R
11
: Динамические уравнения для средних (стр.
159
):
d
F x(t), t dt
=
 ?F
?t
+ a i
?F
?x i
+
1 2
b i?
b j?
?
2
F
?x i
?x j

В частности, для среднего значения:
?
hxi = ha(x, t)i и среднего квадрата:
?
hx
µ
x
?
i = hx
µ
a
?
+ x
?
a
µ
+ b
??
b
µ?
i .
Свјртка по индексам:
?
hx
2
i = 2 hx · ai + Tr b · b
T
R
12
: Как и в одномерном случае, некоторую систему стохастических уравнений можно попытаться свести к простому нестационарному слу- чаю (стр.
174
), найдя матрицу s k?
(t)
, удовлетворяющую уравнению:
?
?t
s k?
(t) b
?1
?i
 + s k?
(t)
?
?x i

b
?1
??

a
?
?
1 2
?b
??
?x j
b j?

= 0.
Тогда, найдя F (x, t) из уравнения:
?F
k
?x i
= s k?
(t) b
?1
?i и нестационарный снос:
f k
(t) =
?F
k
?t
+ s k?
b
?1
??
a
?
?
1 2
s k?
b
?1
??
?b
??
?x j
b j?
,
решение запишем в следующем виде:
F
k
(x(t), t) = F
k
(x
0
, t
0
) +
t
Z
t
0
f k
(? ) d? + S
i?
(t) ?
?
,
где ?
?
 нормированные независимые гауссовы случайные числа, а
S
i?
(t) S
j?
(t) =
t
Z
t
0
s i?
(? )s j?
(? ) d?.

266
II Процесс Винера
R
13
: Винеровское блуждание является непрерывным пределом дис- кретной модели суммы n независимых нормально распределјнных слу- чайных величин. Если, начиная со значения W (0) = 0, в течение времени t
произошло n гауссовых изменений и ?t = t/n, то при n ? ?:
W
t
= (?
1
+ ?
2
+ ... + ?
n
)
?
?t = ?
?
n?t = ?
?
t.
Таким образом, в момент времени t процесс имеет гауссово распределе- ние с нулевым средним и дисперсией, равной t: W
t
? N (0, t)
R
14
: Средние винеровского процесса.
hf (W
t
)i =
D
f ?
?
t

E
hf (W
t
1
, W
t
2
)i =
f ?
1
?
t
1
, ?
1
?
t
1
+ ?
2
?
t
2
? t
1
 ,
где ?
1
, ?
2
, ...  независимые гауссовы числа, а t
1
< t
2
< t
3
< ..
В общем случае (t
0
= 0
, W (0) = 0):
hf (W
t
1
, .., W
t n
)i =
*
f ?
1
?
t
1
, ?
1
?
t
1
+ ?
2
?
t
2
? t
1
, ...,
n
X
k=1
?
k pt k
? t k?1

+
R
15
: Производящие функции для средних (t
1
< t
2
< t
3
< ..
).
e p W
t
= e
1 2
p
2
t e
p
1
W
t1
+p
2
W
t2
= e
1 2
(p
2 1
t
1
+p
2 2
t
2
+2p
1
p
2
t
1
)
e p
1
W
t1
+p
2
W
t2
+p
3
W
t3
= e
1 2
(p
2 1
t
1
+p
2 2
t
2
+p
2 3
t
3
+2p
1
(p
2
+p
3
)t
1
+2p
2
p
3
t
2
)
e p
1
W
t1
+p
2
W
t2
+p
3
W
t3
+p
4
W
t4
= e
1 2
(p
2 1
t
1
+p
2 2
t
2
+p
2 3
t
3
+p
2 4
t
4
)
· e
1 2
(2p
1
(p
2
+p
3
+p
4
)t
1
+2p
2
(p
3
+p
4
)t
2
+2p
3
p
4
t
3
)
R
16
: Некоторые средние значения (t
1
< t
2
< t
3
< ..
).
W
2n t
= 1 · 3 · 5 · ... · (2n ? 1) · t n
,
W
2n+1
t
= 0.
двуточечные:
hW
t
1
W
t
2
i = t
1
,
W
2
t
1
W
2
t
2
= 2t
2 1
+ t
1
t
2
,
W
3
t
1
W
3
t
2
= 6t
3 1
+ 9t
2 1
t
2
Если сумма степеней нечјтна, то:
W
n t
1
W
m t
2
= 0,
n + m = 1, 3, 5, 7, ...

R: Стохастический справочник
267
R
17
: Разложение Палея-Винера (на интервале t = [0..T ]):
W (t) = ?
0
t
?
T
+
?
2T
?
X
k=1
?
k sin(?k t/T )
?k
R
18
: Разложение Кархунена-Лоэва (на интервале t = [0..T ]):
W (t) =
?
2T
?
X
k=0
?
k sin ?(k + 1/2) t/T

?(k + 1/2)
R
19
: Винеровское блуждание со сносом (стр.
48
):
dx = µ dt + ? ?W
является базовым процессом, имеющим постоянные снос µ и волатиль- ность ?. Его решение с начальными условиями x
0
= x(t
0
)
имеет вид:
x(t) = x
0
+ µ · (t ? t
0
) + ? ?
?
t ? t
0
Среднее значение и волатильность ?
2
x
=
(x ? Ї
x)
2
:
Ї
x(t) = x
0
+ µ · (t ? t
0
),
?
x
(t) = ?
?
t ? t
0
Автоковариация:
cov(t, t + ? ) = h(x t
? Ї
x t
)(x t+?
? Ї
x t+?
)i = ?
2
(t ? t
0
).
Условная плотность вероятности:
P (x
0
, t
0
? x, t) =
1
?
p2? (t ? t
0
)
exp

?
(x ? x
0
? µ · (t ? t
0
))
2 2?
2
(t ? t
0
)

Эволюция плотности вероятности при µ = 1, ? = 1 в различные мо- менты времени:
t=1
t=2
t=3
t=4
t=5
0 0.4
-10
-5 0
5 10 15 20

268
III Уравнения с линейным по x сносом, n = 1
Если снос и волатильность не зависят от времени, то решение не изме- нится при сдвиге начального момента. Поэтому ниже t
0
= 0
, и для его восстановления необходимо t ? t ? t
0
. Везде ?  гауссова случайная ве- личина с h?i = 0, ?
2
= 1
. Начальное условие x
0
= x(t
0
)
. Если решение выражается через процесс Винера W
t
, это указывается явным образом.
R
20
: Логарифмическое блуждание (стр.
58
):
dx = µ x dt + ? x ?W.
Решение:
x(t) = x
0
e(
µ??
2
/2
)
t+? W
t
Среднее значение и волатильность:
Ї
x(t) = x
0
e
µt
,
?
x
(t) = Ї
x(t)
p e
?
2
t
? 1.
Автоковариация:
cov(t, t + ? ) = x
2 0
e
µ·(2t+? )
h e
?
2
t
? 1
i
R
21
: Процесс Орнштейна - Уленбека (стр.
60
):
dx = ?? · (x ? ?) dt + ? ?W
при ? > 0 описывает блуждание с притяжением к уровню ?.
Решение уравнения:
x(t) = ? + x
0
? ?
e
??t
+
?
?
2?
p
1 ? e
?2?t
?.
Среднее значение и волатильность:
Ї
x(t) = ? + x
0
? ?
e
??t
,
?
x
(t) =
?
?
2?
p
1 ? e
?2?t
Автоковариация:
cov(t, t + ? ) = ?
2
x
(t) e
???
При ? > 0 в стационарном пределе t ? ? спектральная функция:
S(?) =
?
2
/?
?
2
+ ?
2
Стационарное распределение для x имеет гауссову форму со средним значением Їx = ? и волатильностью ?/
?
2?

R: Стохастический справочник
269
R
22
: Процесс Винера с линейной волатильностью:
dx = µ dt + ? x ?W.
Среднее значение:
Ї
x(t) = x
0
+ µ t
Дисперсия (? = µ/?
2
):
?
2
x
(t) =
h
(x
0
+ ?)
2
+ ?
2
i 
e
?
2
t
? 1

? 2µ (x
0
+ ?) t ? µ
2
t
2
Процесс y = F (t, x, W ) = x e
?2 2
t??W
t удовлетворяет стохастическому уравнению dy = µ e
?2 2
t??W
t dt,
потому интегральное представление ре- шения x(t) имеет вид:
x(t) = e
?
?2 2
t+?W
t
?
?
x
0
+ µ
t
Z
0
e
?2 2
s??W
s ds
?
?
Если W
t
= ?
1
?
t
, то при малых ? для y справедливо разложение:
x(t) =

x
0
+ µt ? (
?
3?
1
+ ?
2
)
µ? t
3/2 2
?
3
+ ...

e
?
?2 2
t+??
1
?
t
,
где ?
1
, ?
2
 независимые гауссовы числа.
R
23
: Феллеровское блуждание с постоянным сносом (стр.
87
):
dx = µ dt + ?
?
x ?W.
Решение:
x(t) = x
0
+ ?
?
x
0
t ? +
?
2
t
2
u,
где производящая функция для ?, u равна (см. R
69
):
e k ?+ p u
=
1
(1 ? p)
2µ/?
2
exp
 k
2
/2 1 ? p

Среднее значение и дисперсия процесса:
Ї
x(t) = x
0
+ a t,
?
2
x
(t) = ?
2

x
0
t +
a t
2 2


270
R
24
: Процесс Феллера (стр.
82
,
168
):
dx = ?? · (x ? ?) dt + ?
?
x ?W
c начальным условием x
0
= x(0)
и ? = ?
2
/2?
имеет решение:
x(t) = x
0
e
?? t
+
q
2x
0
? e
?? t
(1 ? e
?? t
) ? + ? 1 ? e
?? t
 u,
где производящая функция для ? и u имеет вид (см. R
69
):
e k ?+ p u
=
1
(1 ? p)
?/?
exp
 k
2
/2 1 ? p

Среднее значение и дисперсия процесса:
Ї
x(t) = ? + x
0
? ?
e
??t
,
?
2
x
(t) = ??
1 ? e
??t

2
+ 2x
0
?
1 ? e
??t
 e
??t
Автоковариационная и спектральная (при t ? ?) функции:
cov(t, t + ? ) = ?
2
x
(t) e
???
,
S(?) =
??
2
/?
?
2
+ ?
2
Производящая функция для x:
he p x i =
1
(1 ? p f
3
)
µ
exp

p f
1 1 ? p f
3

,
где f
1
= x
0
e
??t
, f
3
= ? (1 ? e
??t
)
, а µ = ?/? = 2??/?
2
При ? > 0 существует стационарная плотность вероятности:
P (x) =
1
??(µ)
 x
?

µ?1
e
?x/?
Плотность вероятности при произвольном t:
P (x
0
, 0 ? x, t) =
e
?f
1
/f
3
f
3
I
µ?1
 2
?
xf
1
f
3
  x f
1

µ?1 2
e
?x/f
3
,
где I
q
(z)
 модифицированная функция Бесселя:
I
q
(z) =
?
X
k=0
(z/2)
2k+q k!?(k + 1 + q)
,
удовлетворяющая уравнению: z
2
I
00
q
(z) + zI
0
q
(z) ? (z
2
+ q
2
)I
q
(z) = 0.

R: Стохастический справочник
271
R
25
: Процесс Орнштейна-Уленбека с линейной волатильностью:
dx = ?? · (x ? ?) dt + ? x ?W.
Среднее значение:
Ї
x(t) = ? + x
0
? ?
e
??t
Дисперсия:
?
2
x
(t) =
?
2
?
2 2? ? ?
2
+
2??
2
(x
0
? ?)
? ? ?
2
e
??t
? (x
0
? ?)
2
e
?2?t
+

x
2 0
?
2?
2
?
2? ? ?
2
+
2(x
0
? ?)??
? ? ?
2

e
(?2?+?
2
)t
При ? > 0 стремится к стационарному распределению с плотностью:
P (x) ? x
?2??
exp
???/x,
? =
2?
?
2
Интегральное представление решения:
x(t) = e
?(?+?
2
/2)t+?W
t
?
?
x
0
+ ??
t
Z
0
e
(?+?
2
/2)s??W
s ds
?
?
R
26
: Линейный снос и волатильность (стр.
331
):
dx = (? + ?x) dt + (? + ?x) ?W.
Среднее значение:
x(t) = ?
?
?
+

x
0
+
?
?

e
?t
Среднее квадрата (?? = ? + ??, ?
n
= n ? + ?
2
):
x
2
(t) =
2 ?
?? ? ??
2
??
2
?
2 ?
?(? + ?x
0
)
??
1
e
? t
+

x
2 0
+
2 ?
?x
0
?
1
+
2 ?
?? + ?
1
?
2
?
1
?
2

e
?
2
t
,
R
27
: Броуновская ловушка (стр.
327
):
dx = ?? · (x ? ?) dt + ? · (x ? ?) ?W.
Решение:
x = ? + (x
0
? ?) e
?(?+?
2
/2) t+?
?
t?
Среднее значение и волатильность:
Ї
x(t) = ? + (x
0
? ?) e
??t
,
?
x
(t) = |x
0
? ?| e
??t p
e
?
2
t
? 1.

272
R
28
: Отсутствие зависимости от x (стр.
56
):
dx = f (t) dt + s(t) ?W.
Решение:
x(t) = x(t
0
) +
t
Z
t
0
f (? ) d? +
?
?
t
Z
t
0
s
2
(? ) d?
?
?
1/2
?.
Среднее значение и дисперсия:
Ї
x(t) = x(t
0
) +
t
Z
t
0
f (? ) d?,
?
2
x
(t) =
t
Z
t
0
s
2
(? ) d?.
R
29
: Броуновский мост (стр.
63
):
dx = ?
x ? ?
T ? t dt + ? ?W.
Решение с x
0
= x(t
0
)
:
x(t) = ? + (x
0
? ?)
T ? t
T ? t
0
+ ?
s
(t ? t
0
)(T ? t)
T ? t
0
?.
Среднее значение и дисперсия:
Ї
x(t) = ? + (x
0
? ?)
T ? t
T ? t
0
,
?
2
x
(t) = ?
2
(t ? t
0
)(T ? t)
T ? t
0
R
30
: Степенной броуновский мост (стр.
63
):
dx = ?? ·
x ? ?
T ? t dt + ? ?W.
Решение с x
0
= x(t
0
)
:
x(t) = ? +
x
0
? ?
T
?
(T ? t)
?
+ ? ·
 (T ? t)
2? ? 1

1 ?
(T ? t)
2??1
T
2??1

1/2
?.

R: Стохастический справочник
273
R
31
: Нестационарное логарифмическое блуждание dx = a(t) x dt + b(t) x ?W.
Решение:
x(t) = x
0
exp
?
?
?
?
?
t
Z
0

a(? ) ?
1 2
b
2
(? )

d? +
?
?
t
Z
0
b
2
(? ) d?
?
?
1/2
?
?
?
?
?
?
Среднее значение:
Ї
x(t) = x
0
exp t
Z
0
a(? ) d?.

274
IV Уравнения с нелинейным по x сносом, n = 1
R
32
: Логарифмический процесс Орнштейна-Уленбека (стр.
327
):
dx = ?? x ·

ln x
?
? 1

dt + ? x ?W.
Решение:
ln x(t)
?
= 1 ?
?
2 2?
+

ln x
0
?
? 1 +
?
2 2?

e
??t
+
?
?
2?
p
1 ? e
?2?t
?.
Среднее значение:
Ї
x(t) = ? exp

1 ?
?
2 2?
+

ln x
0
?
? 1 +
?
2 2?

e
??t
+
?
2 4?
1 ? e
?2?t


R
33
: Логистическое уравнение x (стр.
89
):
dx = (?x ? ?x
2
) dt + ?x ?W
удобно рассматривать в безразмерном виде:
dx = x (1 ? x) dt +
p
2? x ?W,
где ? = ?
2
/2?
. Переход к исходному уравнению осуществляется замена- ми t ? ?t, x ? (?/?)x, x
0
? (?/?)x
0
. Разложение в ряд по t среднего:
 x x
0

= 1 +
1 ? x
0
 t + 1 ? (3 + 2?)x
0
+ 2x
2 0
 t
2 2!
+
1 ? (7 + 10? + 4?
2
) x
0
+ (12 + 16?) x
2 0
? 6x
3 0
 t
3 3!
+ ..
При ?, ? > 0 существует стационарное распределение (t ? ?) с плотно- стью вероятности:
P (x) =
1
??(µ)
 x
?

µ?1
e
?x/?
где µ = (1??)/?. Средние значения и волатильность в асимптотическом пределе t ? ?:
hxi = 1 ? ?,
x
2
= hxi ,
?
2
x
= ? (1 ? ?) .
Решение можно выразить через стохастический интеграл:
x(t) = x
0
e
(1??) t+
?
2? W
t
?
?
1 + x
0
t
Z
0
e
(1??) ? +
?
2? W
?
d?
?
?
?1

R: Стохастический справочник
275
R
34
: Рэлеевский процесс dx =

?
x
? ?x

dt + ? ?W.
Среднее квадрата:
x
2
(t) = x
2 0
e
?2?t
+
2? + ?
2 2?
1 ? e
?2?t
 .
Стационарная плотность вероятности (? = (?/?
2
) + 1/2
):
P (x) =
2(?/?
2
)
?
? (?)
x
2?/?
2
e
??x
2
/?
2
Асимптотически стационарные средние:
x =
?
?
?
?(? + 1/2)
?(?)
,
x
2
=
2? + ?
2 2?
R
35
: Нелинейный снос с волатильностью
?
x dx =
 ?
2 4
+ ?
?
x + 2?x

dt + ?
?
x ?W.
Решение с x
0
= x(0)
, ? > 0:
x(t) =
?
x
0
e
?t
+
?
2?
e
?t
? 1
 +
?
?
8?
p e
2?t
? 1 ?

2
R
36
: Степенное уравнение dx = ?
m
2
?
2
x
2k?1
dt + ? x k
?W.
Если m и k  целые числа, то уравнение для средних:
?
x n
=
n(n ? m ? 1)
2
?
2
x n+2k?2
при n = m + 1: x m+1
= x m+1 0
. Например, (? = ?x
0
):
dx = ? ?
2
x
3
dt + ? x
2
?W
=>
hxi = x
0
1 ? ?
2
t

dx = ?2?
2
x
3
dt + ? x
2
?W
=>
hxi = x
0
1 ? 2?
2
t + 3?
4
t
2

dx = ?3?
2
x
3
dt + ? x
2
?W
=>
hxi = x
0
1 ? 3?
2
t + 9?
4
t
2
? 15?
6
t
3

Квадратичная волатильность ?x
2
слишком сильная, и решение не удер- живается у равновесного в детерминированном случае уровня x = 0.

276
R
37
: Деформация винеровского процесса
Для дифференцируемой функции G(x) (штрих  производная по x):
dx =
1
G
0
(x)

µ +
?
2 2

1
G
0
(x)

0

dt +
?
G
0
(x)
?W.
Решение c x
0
= x(0)
, W
t
= ?
?
t
:
G(x) = G(x
0
) + µ t + ? W
t
Решения в R
38
? R
43
получаются или при помощи алгоритма со стр.
57
,
или при соответствующем выборе функции G(x).
R
38
: Степенные снос и волатильность с ? 6= 1
dx =
h
µ x
?
+
?
2
?
2
x
2??1
i dt + ? x
?
?W.
Решение с x
0
= x(0)
, W
t
= ?
?
t
:
x(t) =
x
1??
0
+ (1 ? ?) (µ t + ? W
t
)

1/(1??)
В частности:
dx = 3 x
1/3
dt + 3 x
2/3
?W.
имеет решение:
x(t) =
h x
1/3 0
+ W
t i
3
и средние (? = t/x
2/3 0
):
x = x
0
1 + 3?
x
2
= x
2 0
1 + 15? + 45?
2
+ 15?
3

x
3
= x
3 0
1 + 36? + 378?
2
+ 1260?
3
+ 945?
4

x
4
= x
4 0
1 + 66? + 1485?
2
+ 13860?
3
+ 51975?
4
+ 62370?
5
+ 10395?
6
.
При x
0
= 1
и t = 1: x = 4, x
2
= 76
, x
3
= 2620
, x
4
= 140152
R
39
: Квадрат винеровского блуждания dx = (2µ
?
x + ?
2
) dt + 2?
?
x ?W.
Решение x = (x
1/2 0
+ µt + ? W
t
)
2

R: Стохастический справочник
277
R
40
: Снос, пропорциональный волатильности dx = (µ ? ?
2
x) (?
2
? x
2
) dt + ? · (?
2
? x
2
) ?W.
Решение с x
0
= x(0)
, W
t
= ?
?
t
:
x = ? th

ath x
0
?
 + ? · (µt + ? W
t
)

,
где ath  гиперболический арктангенс.
R
41
: Снос, пропорциональный волатильности-2
dx = (µ + ?
2
x) (?
2
+ x
2
) dt + ? · (?
2
+ x
2
) ?W.
Решение с x
0
= x(0)
, W
t
= ?
?
t
:
x = ? tg

arctg x
0
?
 + ? · (µt + ? W
t
)

,
R
42
: Cинус dx =

µ
p
?
2
? x
2
?
?
2 2
x

dt + ?
p
?
2
? x
2
?W.
Решение с x
0
= x(0)
, W
t
= ?
?
t
:
x = ? sin

arcsin x
0
?
 + ? · (µt + ? W
t
)

,
R
43
: Гиперболический синус dx =

µ
p
?
2
+ x
2
+
?
2 2
x

dt + ?
p
?
2
+ x
2
?W.
Решение с x
0
= x(0)
, W
t
= ?
?
t
:
x = ? sh

ash x
0
?
 + ? · (µt + ? W
t
)

,
где ash(x)-гиперболический арксинус.

278
R
44
: Асимптотический Коши dx = ?
p
?
2
+ x
2
?W.
Среднее значение и дисперсия:
x = x
0
,
?
2
x
(t) = (?
2
+ x
2 0
)

e
?
2
t
? 1

При t ? ? плотность вероятности стремится к распределению Коши:
P (x) =
?/?
?
2
+ x
2

R: Стохастический справочник
279
V Системы уравнений с одинаковым шумом
R
45
: Линейное уравнение:
 dx = ?W
dy = x ?W.
Решение получается по формуле Ито заменой F = y ? x
2
/2
:
 x = x
0
+ ?
?
t y = y
0
+ x
0
?
?
t +
1 2
(?
2
? 1) t.
Волатильности:
?
2
x
= y
2 0
t +
t
2 2
,
?
2
y
= t.
R
46
: Броуновское движение на спирали:
 dx = µ x dt ? ?y ?W
dy = µ y dt + ?x ?W.
Решение получается переходом к комплексному z = x + iy:
 x =
x
0
cos(? W
t
) + y
0
sin(? W
t
)
 e
(µ+?
2
/2)t y =
y
0
cos(? W
t
) ? x
0
sin(? W
t
)
 e
(µ+?
2
/2)t
R
47
: Линейный снос с одинаковым шумом:
 dx = (?
1
+ ?
1
x + ?
1
y) dt + ?
1
?W
dy = (?
2
+ ?
2
x + ?
2
y) dt + ?
2
?W.

280
VI Системы дифференциальных уравнений
Если явным образом не указан знак суммирования и не оговорено противное, по повторяющимся индексам предполагается суммирование.
R
48
: Нестационарное блуждание (стр.
172
):
dx i
= f i
(t) dt + s i?
(t) ?W
?
Решение:
x i
(t) = Ї
x i
(t) + S
i?
(t) ?
?
,
где среднее значение и матрица дисперсии:
Ї
x i
(t) = x i
(t
0
) +
t
Z
t
0
f i
(? ) d?,
D
ij
= S
i?
S
j?
=
t
Z
t
0
s i?
(? )s j?
(? ) d?
полностью определяют производящую функцию:
he p·x i = e p·Ї
x+
1 2
p·D·p
R
49
: Линейное уравнение в n измерениях x = {x
1
, ..., x n
}
(стр.
164
):
dx = A · x dt + B · ?W,
где A и B  постоянные матрицы, начальное условие: x
0
= x(0)
x(t) = e
At
· x
0
=
X
k
µ
k u
(k)
e a
k t
,
x
0
=
X
k
µ
k u
(k)
,
где A · u
(k)
= a

k u
(k)
. Дисперсия D
??
= h(x
?
? Ї
x
?
)(x
?
? Ї
x
?
)i
:
?
D = A · D + D · A
T
+ B · B
T
В стационарном режиме при ?D = 0. В общем случае D(t):
D(t) =
t
Z
0
e
A(t?? )
B B
T
e
A
T
(t?? )
d?.
Матрица e
At находится из выражения для средних e
At

??
= ? Ї
x
?
/?x
0?
Решение через n независимых гауссовых чисел  = {?
1
, ..., ?
n
}
:
x(t) = Ї
x(t) + S · ,
D = S · S
T
,
he p·x i = e p·Ї
x+
1 2
p·D·p
Автоковариация:
cov
??
(t, t + ? ) = hx
?
(t)x
?
(t + ? )i ? hx
?
(t)i hx
?
(t + ? )i = D(t) e
A
T
?

R: Стохастический справочник
281
R
50
: Затухающий осциллятор n = 2 (стр.
160
):
 dx = (?? x ? ? y) dt + ? ?W
x dy = (+? x ? ? y) dt + ? ?W
y
Средние значения:
x(t) = e
??t
(x
0
cos ?t ? y
0
sin ?t)
y(t) = e
??t
(x
0
sin ?t + y
0
cos ?t).
Полное решение x
?
= {x, y}
, выраженное через две независимые гауссо- вы переменные ? = {?
x
, ?
y
}
:
x(t) = x(t) +
?
?
2?
?
x p
1 ? e
?2?t y(t) = y(t) +
?
?
2?
?
y p
1 ? e
?2?t
Матрица дисперсий D
??
= h(x ? Ї
x)
?
(x ? Ї
x)
?
i диагональна:
D
11
(t) = D
22
(t) =
?
2 2?
1 ? e
?2?t
 ,
D
12
(t) = D
21
(t) = 0.
Автоковариационная матрица:
cov(t, t + ? ) =
?
2 2?
1 ? e
?2?t
 e
???
 cos ??
sin ??
? sin ?? cos ??

R
51
: Логарифмическое блуждание (стр.
173
), суммы по i  нет:
dx i
x i
= µ
i dt +
n
X
j=1
?
ij
?W
j
Решение с начальным условием x
0i
= x i
(0)
:
x i
(t) = x
0i exp
(
µ
i
?
1 2
n
X
j=1
?
2
ij
!
t +
n
X
j=1
?
ij
?
j
?
t.
)
Среднее значение:
hx i
(t)i = x
0i e
µ
i t
Среднее значение квадрата:
x
2
i
(t)
= x
2 0i exp
(

i t +
n
X
j=1
?
2
ij t
)

282
VII Стохастические интегралы Ито
R
52
: Определение. Интервал [0..t] разбит на n отрезков одинаковой длительности ?t = t k
? t k?1
, где t k
= k ?t
. При n ? ? и ?t ? 0 имеем конечный предел: n ?t = t. Значения подынтегральной функции вычис- ляются в начале отрезков. Сокращение f s
(W
s
)
обозначает возможную зависимость функции от времени f(s, W
s
)
t
Z
0
f s
(W
s
) ?W
s
=
n
X
k=1
f t k?1
, W
k?1
 W
k
? W
k?1
.
Можно считать, что W
k
? W
k?1
= ?
k
?
?t
 независимые случайные ве- личины, а W
k
= (?
1
+ ... + ?
k
)
?
?t
R
53
: Свойства линейности и разделимости t
Z
0
?f s
(W
s
) + ?g s
(W
s
)
 ?W
s
= ?
t
Z
0
f s
(W
s
) ?W
s
+ ?
t
Z
0
g s
(W
s
) ?W
s
,
где ? и ?  некоторые константы.
t
3
Z
t
1
f s
(W
s
) ?W
s
=
t
2
Z
t
1
f s
(W
s
) ?W
s
+
t
3
Z
t
2
f s
(W
s
) ?W
s
Предполагается, что времена упорядочены t
1
< t
2
< t
3
R
54
: Лемма Ито
F
t
(W
t
) ? F
0
(W
0
) =
t
Z
0
 ?F
s
(W
s
)
?s
+
1 2
?
2
F
s
(W
s
)
?W
2
s

ds +
t
Z
0
?F
s
(W
s
)
?W
s
?W
s
Если функция не зависит от времени (F = F (W )):
F (W
t
) ? F (W
0
) =
1 2
t
Z
0
F
00
(W
s
)ds +
t
Z
0
F
0
(W
s
) ?W
s
Интегрирование по частям (F = f(t) W )
t
Z
0
f (s) ?W
s
= f (t) W
t
?
t
Z
0
W
s f
0
(s) ds.

R: Стохастический справочник
283
R
55
: Средние значения для интегралов по W . При усреднении исполь- зуются независимые гауссовы числа ?
1
, ?
2
, ... ? N (0, 1)
*
t
Z
0
f s
(W
s
) ?W
s
+
= 0.
Среднее квадрата интеграла:
*
?
?
t
Z
0
f s
(W
s
) ?W
s
?
?
2
+
=
t
Z
0
D
f
2
s
(?
?
s)
E
ds.
Для двух интегралов с различными подынтегральными функциями:
*
t
1
Z
0
f s
(W
s
) ?W
s t
2
Z
0
g
?
(W
?
) ?W
?
+
=
min(t
1
,t
2
)
Z
0
D
f s
?
?
s
g s
?
?
s

E
ds.
R
56
: Средние значения для интегралов по времени. При усреднении используются независимые гауссовы числа ?
1
, ?
2
, ... ? N (0, 1)
*
t
Z
0
f s
(W
s
) ds
+
=
t
Z
0
D
f s
(?
?
s)
E
ds.
Среднее значение от квадрата интеграла:
*
?
?
t
Z
0
f s
(W
s
) ds
?
?
2
+
= 2
t
Z
0
ds s
Z
0
d?
D
f
?
?
1
?
?
f s
?
1
?
? + ?
2
?
s ? ?

E
Момент k?того порядка:
*
?
?
t
Z
t
0
f s
(W
s
) ds
?
?
k
+
= k!
t
Z
t
0
dt k
t k
Z
t
0
dt k?1
t
2
Z
t
0
dt
1
D
k
Y
j=1
f t
j j
X
i=1
?
i pt i
? t i?1

E
Произведение с функцией от процесса Винера:
*
g t
(W
t
)
t
Z
0
f s
(W
s
) ds
+
=
t
Z
0
D
g t
?
1
?
s + ?
2
?
t ? s
 f s
?
1
?
s

E
ds.

284
R
57
: Базовые интегральные процессы.
Далее, помимо винеровского W
t
= ?
?
t
, рассматриваются процессы:
S
t
=
t
Z
0
W
?
d? = ?
t
3/2
?
3
,
U
t
=
t
Z
0
W
2
?
d? = ? t
2
Случайные величины ?, ? ? N(0, 1) и ? имеют производящие функции:
e q ?+k ?
= e
(q
2
+
?
3 qk+k
2
)/2
,
e p ?
=
1
p cos (
?
2p)
В общем случае для совместной функции e q ?+k ?+p ?
справедливо выра- жение:
exp n
q
2 2
tg(
?
2p)
?
2p
+
k
2 2
3 2p h
tg(
?
2p)
?
2p
? 1
i
+
?
3 2
kq
2 2p h
1
cos(
?
2p)
? 1
io p
cos(
?
2p)
Средние значения:
? =
1 2
,
?
2
=
7 12
,
?
3
=
139 120
,
?
4
=
5473 1680
,
?
5
=
51103 4320
Смешанные средние:
? ? =
?
3 2
,
?
2
?
= ? ?
2
= 0,
?
3
?
= ? ?
3
=
3
?
3 2
?
2n+1
?
= 0,
?
2
?
=
7 6
,
?
4
?
=
11 2
?
2n+1
?
= 0,
?
2
?
=
13 10
,
?
4
?
=
63 10
Если ?
1
? N (0, 1)
, независимая от ?, то:
S
t
=
W
t
2
t + ?
1
t
3/2 2
?
3
Автоковариационные средние:
W
t
W
t+?
= t,
S
t
S
t+?
=
t
3 3
+
t
2 2
?

R: Стохастический справочник
285
R
58
: Элементарные интегралы по dt.
t
Z
0
W
?
d? = S
t t
Z
0
W
2
?
d? = U
t t
Z
0
S
?
d? = (t + 1) S
t
? t W
t
R
59
: Элементарные интегралы по ?W .
t
Z
0
?W
?
= W
t t
Z
0
W
?
?W
?
=
1 2
(W
2
t
? t)
t
Z
0
W
2
?
?W
?
=
1 3
W
3
t
? S
t t
Z
0
W
3
?
?W
?
=
1 4
W
4
t
?
3 2
U
t t
Z
0
? ?W
?
= t W
t
? S
t t
Z
0
? W
?
?W
?
=
t
2
W
2
t
?
t
2 4
?
1 2
U
t

286
R
60
: Интегрируемая функция f(t) зависит от времени.
t
Z
0
f (s) ?W
s
= ?
1
?
1
,
t
Z
0
f (s)W
s ds = ?
2
?
2
,
где дисперсии процессов равны:
?
2 1
=
t
Z
0
f
2
(s) ds,
?
2 2
=
t
Z
0
h t
Z
s f (? ) d?
i
2
ds,
а ?
1
и ?
2
 нормированные скоррелированные гауссовы величины. Если процесс Винера W
t
= ?
?
t
, то коэффициенты корреляции равны:
? ?
1
= ?
1
=
1
?
1
?
t t
Z
0
f (s) ds,
? ?
2
= ?
2
=
1
?
2
?
t t
Z
0
h t
Z
s f (? ) d?
i ds,
?
1
?
2
= ? =
1
?
1
?
2
t
Z
0
f (s)
h t
Z
s f (? ) d?
i ds,
Для степенной функции f(t) = t n
:
t
Z
0
s n
?W
s
=
t n+1/2
?
1 + 2n
?
1
,
t
Z
0
s n
W
s ds =
?
2 t n+3/2
?
6 + 7n + 2n
2
?
2
,
с корреляционными коэффициентами:
?
1
=
?
1 + 2n
1 + n
,
?
2
=
?
6 + 7n + 2n
2
?
2(2 + n)
,
2? =
2 + n
1 + n
?
1
?
2
Представление зависимых случайных величин ?
1
, ?
2
через ? и пару независимых от неј и друг друга гауссовых чисел ?
1
, ?
2
:
?
1
= ?
1
?+
q
1 ? ?
2 1
?
1
,
?
2
= ?
2
?+
? ? ?
1
?
2
p1 ? ?
2 1
?
1
+
s
1 ? ?
2 2
?
(? ? ?
1
?
2
)
2 1 ? ?
2 1
?
2

R: Стохастический справочник
287
R
61
: Некоторые средние для интеграла:
t
Z
0
W
n
(? ) d? = ?
n t
1+n/2
Простые средние:
h?
2n i =
1 · 3 · 5 · ... · (2n ? 1)
n + 1
,
h?
2n+1
i = 0.
Моменты для ?
1
:
h?
1
i = 0,
?
2 1
=
1 3
,
?
3 1
= 0,
?
4 1
=
1 3
,
?
5 1
= 0,
?
6 1
=
5 9
Моменты для ?
2
:
h?
2
i =
1 2
,
?
2 2
=
7 12
,
?
3 2
=
139 120
,
?
4 2
=
5473 1680
,
?
5 2
=
51103 4320
Моменты для ?
3
:
h?
3
i = 0,
?
2 3
=
9 5
?
3 3
= 0,
?
4 3
=
41877 350
R
62
: Некоторые средние для интеграла:
W
m
(t)
t
Z
0
W
n
(? ) d? = ?
m,n t
m+n
2
+1
Средние значения случайной величины ?
m,n
:
h?
n,m i = 0,
n + m = 2k + 1 = 1, 3, 5, ...
Не нулевые средние:
h?
1,1
i =
1 2
,
h?
2,2
i =
7 6
,
h?
1,3
i = 1
h?
3,1
i =
3 2
h?
1,5
i =
15 4
,
h?
2,4
i = 4,
h?
3,3
i =
9 2
,
h?
4,2
i =
11 2
,
h?
5,1
i =
15 2

288
R
63
: Формула Ито для n-кратного интеграла t
Z
0
?
?
t
4
Z
0
?
?
t
3
Z
0
?
?
t
2
Z
0
?W
t
1
?
?
?W
t
2
?
?
?W
t
3
?
?
?W
t n
=
t n/2
n!
h n
 W
t
?
t

,
где h n
(z)
 полиномы Эрмита:
h n
(z) = (?1)
n e
z
2
/2
d n
e
?z
2
/2
dz n
В частном случае n = 2
t
Z
0
?
?
s
Z
0
?W
?
?
?
?W
s
=
t
Z
0
W
s
?W
s
=
t
2/2 2!
h
2
 W
t
?
t

=
1 2
(W
2
t
? t).
R
64
: Дифференциал произведения двух произвольных процессов x(t),y(t):
d(xy) = x dy + y dx + dx dy,
или в интегральной форме:
t
Z
0
x s
dy s
= x t
y t
? x
0
y
0
?
t
Z
0
y s
dx s
?
t
Z
0
dx s
dy s
R
65
: Неравенства:
Dh t
2
Z
t
1
f s
(W
s
) ?W
i
4
E
6 36 (t
2
? t
1
)
t
2
Z
t
1
f
4
s
(W
s
)
dt
Dh
?
Z
0
f s
(W
s
) ?W
i
4
E
6 36
Dh
?
Z
0
f
2
s
(W
s
) dt i
2
E

R: Стохастический справочник
289

290
VIII Скалярные случайные величины
R
66
: Нормальное распределение:
P( )
0
0.40
0.24
0.05
1
-1
-2
2
P (?) =
1
?
2?
e
?
1 2
?
2
Производящая функция:
he p ?
i = e p
2
/2
Средние значения:
?
2n
=
(2n)!
2
n n!
= 1 · 3 · 5 · ... · (2n ? 1),
?
2n+1
= 0.
В частных случаях:
?
2
= 1,
?
4
= 3,
?
6
= 15,
?
8
= 105,
?
10
= 945.
Вероятность отклонения от среднего:
?
n
=
n
Z
?n
P (?) d?,
?
1
= 0.6827,
?
2
= 0.9545,
?
3
= 0.9973.
R
67
: Гамма-распределение:
P(x)
x
x
max
x
P (x) =
1
??(µ)
 x
?

µ?1
e
?x/?
Производящая функция:
he p x i =
1
(1 ? ?p)
µ
Средние значения:
hxi = µ?,
x
2
= µ(µ + 1)?
2
,
hx n
i = µ · (µ + 1) · ... · (µ + n ? 1) ?
n
Положение максимума: x max
= (µ ? 1)?
, асимметрия 2/
?
µ
, эксцесс 6/µ.

R: Стохастический справочник
291
R
68
: ?
2
- распределение с n степенями свободы.
Сумма квадратов независимых гауссовых случайных чисел:
u = ?
2 1
+ ... + ?
2
n подчиняется гамма-распределению с µ = n/2, ? = 2:
P
n
(u) =
1 2
n/2
?(n/2)
u n/2?1
e
?u/2
Производящая функция:
he p x i =
1
(1 ? 2p)
n/2
Средние значения: hui = n,
u
2
= 2n + n
2
R
69
: Смесь ?
2
и нормального распределений.
Для n независимых гауссовых чисел определим:
? =
?
1
+ ... + ?
N
?
N
,
u =
?
2 1
+ ... + ?
2
N
?
2
Обозначая µ = N/2, запишем производящую функцию и плотность ве- роятности при u > ?
2
/2
(при u < ?
2
/2
, P (?, u) = 0):
e k ?+ p u
=
1
(1 ? p)
µ
exp
 k
2
/2 1 ? p

P (?, u) =
e
?u u ? ?
2
/2

µ?3/2
?(µ ? 1/2)
?
2?
Средние по ?  это Гаусс, по u  гамма с ? = 1:
?
2n
= 1 · 3 · 5 · ... · (2n ? 1),
?
2n+1
= 0.
hu n
i = µ(µ + 1) · ... · (µ + n ? 1).
Средние смешанных произведений:
h?ui = 0
?
2n+1
u m
= 0,
?
2
u
= 1 + µ,
?
4
u
= 3(2 + µ),
?
2
u
2
= 2 + 3µ + µ
2
,
?
4
u
2
= 3(6 + 5µ + µ
2
),
?
2
u
3
= 6 + 11µ + 6µ
2
+ µ
3
,
?
4
u
3
= 3(24 + 26µ + 9µ
2
+ µ
3
),
?
4
u
4
= 3(120 + 154µ + 71µ
2
+ 14µ
3
+ µ
4
).

292
IX Некоторые полезные соотношения
R
70
: Гауccовы интегралы
?
Z
??
e
??x
2
+?x dx =
r ?
?
e
?
2
/4?
?
Z
??
e
??x
2
??/x
2
dx =
r ?
?
e
?2
?
??
?
Z
??
e
??(x?x
1
)
2
?? (x?x
2
)
2
dx =
r
?
? + ?
e
???(x
2
?x
1
)
2
/(?+?)
R
71
: Интеграл вероятностей erf(z) =
2
?
?
z
Z
0
e
?x
2
dx.
Свойства:
erf(?z) = ? erf(z),
erf(?) = 1,
erf(0) = 0.
Представление в виде рядов:
erf(z) =
2
?
?
?
X
n=0
(?1)
n n!
z
2n+1 2n + 1
=
2
?
?
e
?z
2
?
X
n=0 2
n
1 · 3 · ... · (2n + 1)
· z
2n+1
Общий гауссовый интеграл:
?
Z
0
e
?? x
2
+?x dx =
1 2
r ?
?
e
?
2
/4?

1 + erf

?
2
?
?


R: Стохастический справочник
293
R
72
: Гамма-функция, Re z > 0
?
Z
0
x z?1
e
?x dx = ?(z).
Свойства гамма-функции:
?(n + 1) = n!,
?(1/2) =
?
?,
?(z + 1) = z ?(z),
?(z)?(1 ? z) =
?
sin(?z)
,
?(2z) =
2 2z?1
?
?
?(z) ?(z +
1 2
)
Формула Стирлинга:
n! ?
?
2?n

n e

n
R
73
: Интегралы, сводящиеся к гамма-функции.
Ниже B(p, q) = ?(p) ?(q)/?(p + q)  бета-функция, и p > 0, q > 0:
?
Z
0
x p?1
e
?a x q
dx =
?(p/q)
q a p/q
?/2
Z
0
(cos ?)
2p?1
(sin ?)
2q?1
d? =
1 2
B(p, q)
1
Z
0
(1 ? t)
p?1
t q?1
dt = B(p, q)
?
Z
0
z q?1
(1 + z)
p+q dz = B(p, q)
R
74
: Гиперболические функции.
sh x =
e x
? e
?x
2
,
ch x =
e x
+ e
?x
2
,
th =
e x
? e
?x e
x
+ e
?x

294

M: Математические приложения
В достаточно обширных приложениях содержатся важные факты из теории вероятностей, математического анализа и матричной алгебры.
295

296
I Теория вероятностей
Вероятность характеризует частоту, с которой происходит событие.
Если мы произвели некоторый опыт (испытание) n раз, и при этом со- бытие A произошло n
A
раз, то при больших n отношение p(A) = n
A
/n будет стремиться к определјнному значению. Понятно, что оно всегда положительно и меньше единицы: 0 6 p(A) 6 1.
Не стоит путать незнание и вероятность. Вероятности легко опреде- ляются, если в задаче есть определјнная симметрия. Например, вероят- ность выпадания решки при подбрасывании монеты равна 1/2. Ана- логично для кости (кубика с шестью гранями) выпадение любой грани равновероятно и равно 1/6. Для европейской рулетки с 18-ю красными ячейками, 18-ю чјрными и одним зеро вероятность попадания шарика на любую из 37 ячеек, включая зеро, равна 1/37.
Знание вероятностей позволяет легко подсчитывать, например, сред- ний доход в азартных играх или финансовых операциях. Если мы полу- чаем доходы R
i
> 0
или убытки R
i
< 0
с вероятностями p i
, то наш доход в среднем будет составлять величину:
Ї
R = R
1
p
1
+ R
2
p
2
+ ... + R
q p
q
=
q
X
i=1
R
i p
i
Смысл этой формулы очень прост. Если мы сделаем большое число по- пыток n, то среди них n
1
раз получим доход R
1
, n
2
 доход R
2
, и т.д.
Суммарный доход R
tot
= R
1
n
1
+ ... + R
q n
q
. Средний доход за одну игру
Ї
R
равен R
tot
/n
, а вероятности получить доход R
i обозначаются через p
i
= n i
/n
Пример: Сравним доход, получаемый при использовании двух стратегий игры на рулетке: (1) ставим 1$ на ячейку; (2) ставим 1$ на цвет. При угадывании конкретной ячейки казино выплачивает 35$ на поставленный 1$ (вероятность этого 1/37), иначе
(с вероятностью 36/37) ставка теряется. При угадывании цвета (18 ячеек) казино выплачивает 1$, иначе (остальные 19-ть ячеек) ставка теряется.
Средний доход обе стратегии будут давать одинаковый:
Ї
R = (35$) ·
1 37
? (1$) ·
36 37
= ?
1 37
$
Ї
R = ( 1$) ·
18 37
? (1$) ·
19 37
= ?
1 37
$,
хотя понятно, что вторая чаще приносит приятные минуты выигрыша.

M: Математические приложения
297

Различают элементарные и составные события. Например, при броске кости элементарным событием будет выпадение одной из граней:
{1}
, {2}, {3}, {4}, {5}, {6}. Составное событие A=выпавшие очки де- лятся на три: {3, 6}, или B=выпало больше 4-х: {5, 6}. Таким образом,
составные события состоят из элементарных.
Два события называют несовместными или непересекающимися, ес- ли они не имеют ни одного общего элемента. При броске одной кости не может выпасть сразу и 1, и 5. Не может одновременно произойти
A = {2, 4, 6}
=чјтные очки и B = {1, 3, 5}=нечјтные очки. Для несов- местных событий A и B вероятность того, что произойдјт или одно, или другое, равна:
p(A + B) = p(A) + p(B) .
Действительно, если мы проводим опыт n раз, то событие A произойдјт n
A
раз, а событие B  n
B
раз. Понятно, что составное событие или A,
или B происходит n
A+B
= n
A
+ n
B
раз (если они не могут произойти одновременно!).
Все элементарные события A
i составляют полную группу, т.е. все они попарно несовместны, а сумма их вероятностей равна единице.

Наглядно полную группу элементарных событий можно представить,
как некоторое множество не пересекающихся друг с другом областей.
При этом площадь каждой области пропорциональна вероятности дан- ного события:
A
Правило сложения вероятностей представляет собой суммирование пло- щадей таких областей. Составное событие A включает в себя несколько элементарных событий-областей, и p(A) равна сумме их вероятностей.
Суммарная площадь всех элементарных событий равна единице. Если некоторое составное событие A имеет вероятность p(A), то вероятность того, что оно не произойдјт ( Ї
A
), равна p( Ї
A) = 1 ? p(A)

298

Два сложных (составных) события A, B могут иметь общие эле- ментарные события. В этом случае мы говорим, что они пересекаются.
Чтобы они совместно реализовались, необходимо наступление хотя бы одного элементарного события из их пересечения.
Тот факт, что свершились и A, и B, обозначают как A · B. Совместное наступление этих двух событий называют также их пересечением.
Аналогично, если произошло или A, или B, или оба, это означает, что случилось одно из элементарных событий из A или из B. Такое объеди- няющее логическое 'или' обозначают A + B, и говорят об объединении событий.
Например, при броске кости события A=выпавшие очки делятся на три: {3,6}, и B=выпало больше 4-х: {5,6}, имеют пересечение A · B:
{6} и объединение A + B: {3,5,6}.
На рисунках ниже символически представлены операции пересечения
A · B
, объединения A + B и отрицания Ї
A
. Результат соответствующей операции обозначен тјмным цветом.
p(A)
1-p(A)
p(A)
p(B)
p(A+B)
p(A B)
p(A)
p(B)
Сравнивая заштрихованные площади несложно выразить вероятность события A+B (или A, или B, или оба) через вероятность одновременного наступления A · B (и A, и B):
p(A + B) = p(A) + p(B) ? p(A · B) = 1 ? p( Ї
A · Ї
B).
Действительно, вероятность события A + B равна суммарной площади p(A)
и p(B) минус площадь их пересечения p(A · B), которую мы учиты- ваем дважды, один раз в p(A), другой раз в p(B) (см. первый рисунок выше). Аналогично доказывается более общее соотношение:
p(A + B + C + ...) = 1 ? p( Ї
A · Ї
B · Ї
C · ...).
Другими словами, вероятность того, что произойдјт хотя бы одно собы- тие, меньше единицы на вероятность того, что не произойдјт ни одно из событий.

M: Математические приложения
299

Условная вероятность характеризует частоту наступления события
A
при условии, что произошло событие B:
p(B ? A) =
p(A · B)
p(B)
p(A)
p(B)
AB
Чтобы произошло A при наступлении события B, необходимо свершение совместного события (A и B). Именно ему пропорциональна условная ве- роятность. Так как нам известно, что B произошло, то всј пространство элементарных вероятностей сжимается до размеров B. Но, поскольку его площадь не равна единице, мы для нормировки делим на p(B).
Это можно представить себе и по-другому. Пусть мы провели n испы- таний, и из них событие B произошло n
B
раз, событие A  n
A
, а одновре- менно они случились n
AB
раз. При вычислении условной вероятности нас интересует вероятность события A во всех ситуациях, когда происходило
B
. Отношение числа таких событий n
AB
к общему числу событий n
B
и дајт нам условную вероятность p(B ? A) = n
AB
/n
B
= (n
AB
/n)/(n
B
/n)
Условная вероятность чрезвычайно важна, так как позволяет связать друг с другом разнообразные события, характеризуя причинно-следствен- ную связь. Мы говорим, что, если Центральный Банк поднимет учјтную ставку, то, скорее всего, фондовый рынок отреагирует падением. Оба события являются вероятностными, но они связаны друг с другом, и вероятность падения рынка повышается, если происходит подъјм про- центных ставок.
Два события A и B называют независимыми, если вероятность со- бытия A не зависит от наступления события B и равна p(A) в любом случае. Для независимых событий p(B ? A) = p(A) = p(A · B)/P (B),
и, следовательно,
p(A · B) = p(A)p(B) .
(6)
Таким образом, независимость  это, с одной стороны, достаточно специ- фическое соотношение между значениями вероятностей (площадей обла- стей), которые соответствуют событиям A, B, A · B. С другой стороны,
это важнейшее свойство отсутствия между ними связи. Так, при броса- нии 2-х костей выпадение определјнной грани на каждой из них не зави- сит от другой. Поэтому вероятность получить, например, две единицы равна (1/6)(1/6) = 1/36.

300
II Векторный анализ
Вектор  это набор из n чисел a = (a
1
, ..., a n
)
, которые называют ком- понентами вектора. Векторами являются: положение тела в простран- стве, его скорость, набор весовых коэффициентов, определяющих долю i
-той акции в инвестиционном портфеле, значение ВВП, произведенное i?
той страной, и т.д.
Вектора можно складывать (покомпонентно), получая новый вектор:
a + b = (a
1
+ b
1
, ..., a n
+ b n
),
и умножать на число µa = (µa
1
, ..., µa n
)
. Для двух векторов вводится операция скалярного произведения, равная числу (скаляру):
a · b = a
1
b
1
+ a
2
b
2
+ ... + a n
b n
=
n
X
i=1
a i
b i
Соответственно, длина вектора:
|a| =
?
a · a =
q a
2 1
+ a
2 2
+ ... + a
2
n
,
является n-мерным обобщением теоремы Пифагора. Косинус угла между двумя векторами определяется следующим образом:
cos ? =
a · b
|a| |b|
Если он равен нулю, то говорят, что векторы нормальны (перпендику- лярны) друг другу.
Для нескольких скалярных произведений важна последовательность умножений, и в общем случае
(a · b) · c 6= a · (b · c).
Дело в том, что в первом случае мы умножаем вектор c на число (a·b), а во втором  другой вектор a на число (b·c). Если c и a имеют различное направление, то умножением на число нельзя сделать их одинаковыми.
К векторам, в общем случае, необходимо относиться, как к абстрактно- му набору из n чисел, для которых введены операции сложения и умно- жения на число, а также операция скалярного произведения. Например,
вероятности всех элементарных событий можно рассматривать, как век- тор p = (p
1
, ..., p n
)
, а условие нормировки записывать в виде p · u = 1,
где u = (1, ..., 1).

M: Математические приложения
301

В двухмерном случае n = 2 в декартовых прямоугольных коорди- натах (x, y) вектор a = (a x
, a y
)
имеет простой геометрический смысл направленного отрезка с проекциями на оси x и y, равными a x
и a y
:
С осями координат удобно связать два единичных (i
2
= j
2
= 1
), нор- мальных (i · j = 0) вектора. Любой вектор тогда может быть разложен по этому базису (i, j):
a = a x
i + a y
j,
где a x
= a
1
= a · i
,
a y
= a
2
= a · j
 проекции вектора на оси x и y. Представив a и b в таком виде, несложно убедиться, что a · b =
a x
b x
+ a y
b y
Аналогично, в трјхмерном случае n = 3 вводят три единичных вза- имно перпендикулярных вектора i, j и k. Любой вектор в трјхмерном пространстве может быть по ним разложен: a = a x
i + a y
j + a z
k
Геометрически сложение векторов описывается правилом параллело- грамма, а умножение на число µ во столько же раз удлиняет вектор:
1   ...   12   13   14   15   16   17   18   19   20


написать администратору сайта