Главная страница

Стохастический мир


Скачать 2.82 Mb.
НазваниеСтохастический мир
Дата27.09.2022
Размер2.82 Mb.
Формат файлаpdf
Имя файлаstepanov1.pdf
ТипДокументы
#700302
страница3 из 20
1   2   3   4   5   6   7   8   9   ...   20
t=
1
t=
3
t=
5
x
P(x,t)
0 0
t
x
t
0
t
x
t
0 1
2 3
4 5
6 7
8 9
10
1
2
3
4
5
6
7
8
9
Так как изменения ?
k будут каждый раз новыми, то по-разному будут протекать и блуждания траектории x t
= x(t)
(см. 2-й рисунок). Различ- ные реализации процесса блуждания пересекают вертикальную прямую t = const в тех или иных значениях x. Совокупность всех этих чисел является случайной величиной.

Случайные события
35
Поэтому, говоря о процессе x(t), мы подразумеваем, что в данный мо- мент времени x = x(t) имеет определјнное распределение P (x). В неко- торый другой момент времени распределение может оказаться иным. По- этому плотность вероятности P (x, t), среднее Їx(t) и волатильность ?(t)
будут функциями времени.
Волатильность аддитивного блуждания увеличивается, как
?
t
. Это наглядно видно на 2-м рисунке с несколькими реализациями x t
. Их пу- чок постепенно расширяется. В результате неопределјнность будущего значения x t
увеличивается. Мы можем обнаружить x t
достаточно дале- ко от начального значения x
0
= 0
. Это также проиллюстрировано на
3-м рисунке, где представлены плотности вероятности P (x, t), которые с течением времени постепенно расплываются.
Блуждающие траектории начинаются с определјнного начального зна- чения x
0
= x(t
0
)
в момент времени t
0
. Поэтому, говоря о вероятности, мы имеем дело с условной плотностью P (x
0
, t
0
? x, t)
. Пока моменты време- ни t
0
и t являются целыми числами, соответствующими номеру скачка
?
k на очередном этапе.
Важно понимать, что x t
= x(t)
не является конкретной траекторией.
Это одновременная совокупность всех возможных траекторий случайно- го процесса. Аналогично, случайное число x не подразумевает конкрет- ного значения, а обозначает все возможные реализации, подчиняющиеся некоторому распределению P (x). Вероятность получить на t-ом шаге x t
определяется вероятностями всех изменений ?
i
. Так, дискретный вине- ровский процесс W
t определяется плотностью вероятности:
P (?
1
, ..., ?
t
) = P (?
1
) · ... · P (?
t
),
где равенство отражает независимость всех ?
i
. Таким образом, W
t
 фак- тически, многомерная случайная величина.
Обратим ещј раз внимание на смысл записи: ?
1
+ ... + ?
t
= ?
?
t
Предположим, что в процессе моделирования мы генерим t независимых гауссовых чисел ?
1
, ?
2
, ...
и складываем их. Результат будет иметь такие же статистические свойства, как одно гауссово число ? с единичной волатильностью, умноженное на фактор
?
t
. При вычислении свойств накопленной суммы вполне достаточно пользоваться величиной ?, а не совместной плотностью P (?
1
, ..., ?
t
)
. В частности, если мы ищем среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени,
то необходимы некоторые ухищрения. Рассмотрим их подробнее.

36
Глава 1.

Для сравнения процесса блуждания с самим собой в различные мо- менты времени его необходимо разбивать на неперекрывающиеся участ- ки времени. Пусть процесс длится s шагов, а затем еще в течение t ? s.
Сравним свойства траекторий в моменты времени s и t (s < t):
W
s
= ?
1
+ ... + ?
s
,
W
t
= ?
1
+ ... + ?
s
+ ?
s+1
+ ... + ?
t
Вычитая уравнения, получим сумму t ? s случайных чисел:
W
t
? W
s
= ?
s+1
+ ... + ?
t
= ?
?
t ? s = W
t?s
Второе равенство является отражением того, что суммарная волатиль- ность t ? s независимых гауссовых слагаемых будет равна
?
t ? s
. Фак- тически, W
s и W
t можно представить в виде:
W
s
= ?
a
?
s,
W
t
= ?
a
?
s + ?
b
?
t ? s,
(1.40)
где ?
a
, ?
b
, как и везде в наших лекциях,  независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них  ?
a
 экви- валентно накопленной сумме начальных s приращений, а второе  ?
b

соответствует независимым от ?
a последующим t ? s приращениям.
Теперь можно найти ковариацию между W
s и W
t
. Так как W
t
= 0
, то:
cov(s, t) = hW
s
W
t i =
?
a
?
s · ?
a
?
s + ?
b
?
t ? s
 = s,
в силу того, что ?
2
a
= 1
и h?
a
?
b i = 0
. Таким образом, ковариация зависит только от наименьшего числа s = min(s, t), представляющего собой длительность общей для W
s и W
t истории. Для прояснения смысла этого результата запишем регрессионную прямую (
1.25
) между W
s и W
t
Их волатильности равны
?
s и
?
t
, а средние  нулю, поэтому:
W
t
?
t
=
cov(s, t)
?
s
?
t
W
s
?
s
+
?
?
t
=>
W
t
= W
s
+ ?.
Таким образом, если известно, что в момент времени s сумма равна W
s
,
то наилучшим прогнозом будущего значения W
t будет уже известное W
s
Из (
1.40
) следует, что линейная регрессионная модель оказывается в дан- ном случае точной (l C
9
). При этом еј шумом выступают накопленные после момента времени s изменения: ? = ?
s+1
+ ... + ?
t
= ?
b
?
t ? s
Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения (i < j < k):
hW
i
W
j
W
k i = 0,
W
2
i
W
j
W
k
= 2i
2
+ ij,
W
i
W
2
j
W
k
= 3ij.
[Процесс W
k необходимо разбить на три интервала (l C
10
).]

Случайные события
37

В заключение раздела ответим на следующий вопрос. Если x = x
1
в момент времени t = t
1
, то какова вероятность обнаружить его на следу- ющем шаге t = t
2
в значении x
2
? Очевидно, что она равна вероятности изменения x:
P (x
1
? x
2
) =
e
??
2
/2
?
2?
=
exp

?
(x
2
?x
1
)
2 2(t
2
?t
1
)

p2?(t
2
? t
1
)
Мы положили ? = 1 и записали в явном виде гауссову плотность веро- ятности для ? = x
2
? x
1
. В результате условная вероятность зависит от обоих аргументов, поэтому случайные числа x
1
и x
2
являются зависимы- ми.
Дискретная траектория блуждания описывается множеством случай- ных величин x t
= {x
1
, x
2
, x
3
, ...}
, задающих возможные значения x на ша- ге t. Индекс можно записать в функциональной форме x(t) и говорить о случайной функции, которая пока определена только в дискретных точ- ках. Таким образом, случайная функция  это многомерная величина.
Для задания свойств случайного процесса в общем случае необходимо определить плотность вероятности P (x
1
, x
2
, x
3
, ...)
с бесконечным числом аргументов.
Для винеровского процесса ситуация существенно упрощается, так как каждое следующее x t+1
определяется значением непосредственно пред- шествующего x t
и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде (l C
11
):
P (x
1
, ..., x t
? x t+1
) = P (x t
? x t+1
).
(1.41)
Если известно x t
, то x t+1
будет определяться значением x t
и случайным изменением ?, а не всей историей x
1
, ..., x t?1
. Процессы с такой корот- кой памятью называются марковскими процессами. Они представляют собой следующее приближение после независимости случайных величин,
для которых P (x
1
, ..., x t
? x t+1
) = P (x t+1
).
Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например:
P (x
1
, x
2
, x
3
) = P (x
1
) P (x
1
? x
2
) P (x
2
? x
3
).
(1.42)
Для этого сначала записываем P (x
1
, x
2
, x
3
) = P (x
1
, x
2
) P (x
1
, x
2
? x
3
)
по определению условной вероятности. Затем используем определение для P (x
1
, x
2
) = P (x
1
)P (x
1
? x
2
)
и марковское условие короткой па- мяти: P (x
1
, x
2
? x
3
) = P (x
2
? x
3
)
. Таким образом, чтобы произошло x
1
, x
2
, x
3
, необходимо, чтобы свершилось x
1
. При условии, что это про- изошло, далее реализовалось x
2
, и т.д.

38
Глава 1.
1.8 Случайные процессы
В общем случае мы называем случайным процессом упорядоченную последовательность случайных величин x
1
, x
2
, ...
. Вместо индекса, пе- речисляющего величины, удобно использовать функциональную форму x(t)
. Если параметр t принимает дискретные значения, то мы имеем де- ло с дискретным случайным процессом. Если же t  непрерывное время,
то это непрерывный случайный процесс по времени. В этом случае x(t)
называется случайной функцией. Заметим, что она может быть и разрыв- ной, например, если x(t) в каждый момент времени равно независимой гаусовой величине ? (гауссовый шум).
Случайный процесс необходимо описывать совместной плотностью ве- роятности для каждого момента времени:
P (x
1
, x
2
, x
3
, ...) ? P (x
1
, t
1
; x
2
, t
2
; x
3
, t
3
; ...),
(1.43)
где t i
явным образом указывают, к какому моменту времени относится значение случайной величины x i
. Понятно, что в случае непрерывных процессов работать с такой плотностью вероятности достаточно сложно.
Поэтому еј размерность стараются уменьшить. Если проинтегрировать по всем случайным величинам x i
, кроме одной, получится плотность ве- роятности в фиксированный момент времени P (x, t). Аналогично можно определить плотность вероятности в два произвольных момента времени
P (x
1
, t
1
; x
2
, t
2
)
, и т.д. Заметим, что t, в отличие от x,  это не случайная величина, а параметр.
Часто процесс изучается после того, как стало известным его началь- ное значение x
0
в момент времени t
0
. В этом случае целесообразно при- менять условные плотности вероятности. Например, одноточечная:
P (x
0
? x
1
) ? P (x
0
, t
0
? x
1
, t
1
)
или двухточечная:
P (x
0
? x
1
, x
2
) ? P (x
0
, t
0
? x
1
, t
1
; x
2
, t
2
).
Они будут основными объектами при описании случайных процессов.
Случайные величины, совокупность которых образует случайный про- цесс, могут быть как независимыми, так и связанными. Если величины независимы, график выборочного процесса будет выглядеть, как хаоти- ческие выбросы вверх и вниз от среднего значения. Такой процесс назы- вают шумом. При наличии некоторой связи между последовательными значениями график может иметь хотя и очень изломанную, но всј же от- носительно связную динамику. Примером подобного процесса является дискретное аддитивное блуждание, рассмотренное выше.

Случайные события
39

Описание случайного процесса существенно упрощается, если его полная плотность вероятности (
1.43
) или соответствующая ей условная вероятность обладают некоторыми свойствами, позволяющими связы- вать прошлые и будущие значения. Нас будет интересовать класс слу- чайных процессов, для которых условная вероятность зависит только от последнего известного значения, а не от всей предыстории:
P (..., x t?2
, x t?1
, x t
? x t+1
) =
P (..., x t?2
, x t?1
, x t
, x t+1
)
P (..., x t?2
, x t?1
, x t
)
= P (x t
? x t+1
),
где опущены моменты времени. Как мы уже говорили, подобные про- цессы являются марковскими. При выполнении условия марковости сов- местную плотность вероятности произвольной размерности можно вы- разить через произведение условных вероятностей P (x
1
, t
1
? x
2
, t
2
)
, см.
(
1.42
). В этом случае для полного описания свойств случайного процесса достаточно знания функции только четырех аргументов, а не бесконеч- ного их числа, как в формуле (
1.43
).

Чтобы в результате эмпирических исследований выяснить форму даже простой условной плотности вероятности P (x
0
, t
0
? x, t)
, необхо- димо достаточно большое количество реализаций случайных процессов.
Поэтому, как и для обычных случайных величин, важную роль игра- ют интегральные характеристики случайного процесса. Естественно, они становятся функциями времени. Если известно значение процесса x
0
в момент времени t
0
, то условное среднее значение равно:
Ї
x(t, x
0
, t
0
) =
?
Z
??
x P (x
0
, t
0
? x, t) dx.
(1.44)
Аналогично определяется условная дисперсия (квадрат волатильности):
?
2
(t, x
0
, t
0
) =
?
Z
??
x ? Ї
x(t)

2
P (x
0
, t
0
? x, t) dx.
(1.45)
Далее мы будем говорить о решениях стохастических дифференциаль- ных уравнений. В случае, когда случайные воздействия Noise на измене- ние величины x невелики, среднее значение будет приближјнно соответ- ствовать гладкому решению обыкновенного дифференциального уравне- ния без стохастического воздействия. Волатильность при этом характе- ризует типичный коридор колебаний различных реализаций случайно- го процесса вокруг этого среднего значения.

40
Глава 1.

Среднее значение Їx(t) и волатильность ?(t) стохастического про- цесса не полностью характеризуют основные особенности его динамики.
Ниже на рисунке приведены несколько реализаций двух различных про- цессов:
x(t)
x(t)
t
t
Они имеют одинаковое среднее (центральная пунктирная линия) и вола- тильность  точечный коридор, нарисованный вокруг среднего. Тем не менее хорошо видно, что характер этих процессов различный, и правый имеет менее гладкую динамику (l C
12
).
Поэтому важной характеристикой стохастического процесса является связь прошлого и будущего. Определим автоковариацию между дву- мя моментами времени t
1
< t
2
при условии, что при t = t
0
наблюдалось значение x
0
= x(t
0
)
:
cov t
0
(t
1
, t
2
) =
x t
1
? Ї
x t
1

x t
2
? Ї
x t
2
 ,
(1.46)
где Їx t
= hx(t)i
 среднее значение в момент времени t, а x t
i
= x(t i
)
Приставка авто- в названии подчјркивает, что ковариация вычисляется между величиной в момент времени t
1
и ей же в другой момент t
2
Среднее определяется при помощи условной плотности вероятности
P (x
0
, t
0
? x, t)
и предполагает однократное интегрирование по x [см.
(
1.44
).] Фактически Їx t
зависит не только от t, но и от начальных усло- вий x
0
и t
0
. Для определения автоковариационной функции необходимо выполнить двойное интегрирование:
cov t
0
(t
1
, t
2
) =
?
Z
??
(x
1
? Ї
x
1
)(x
2
? Ї
x
2
) P (x
0
, t
0
? x
1
, t
1
; x
2
, t
2
) dx
1
dx
2
,
(1.47)
где P (x
0
, t
0
? x
1
, t
1
; x
2
, t
2
)
 плотность совместной вероятности значений x
1
и x
2
в моменты времени t
1
и t
2
при условии, что в момент времени t
0
мы имеем x
0
= x(t
0
)

Случайные события
41
Эту вероятность можно выразить через марковские условные вероят- ности. По определению (опуская для краткости времена):
P (x
0
? x
1
, x
2
) =
P (x
0
, x
1
, x
2
)
P (x
0
)
(1.48)
Для трјхточечной совместной вероятности P (x
0
, x
1
, x
2
)
запишем цепочку марковских вероятностей [см. (
1.42
), стр.
37
]:
P (x
0
, x
1
, x
2
) = P (x
0
) P (x
0
? x
1
) P (x
1
? x
2
).
Подставляя еј в формулу (
1.48
) и возвращая моменты времени, окон- чательно получим:
P (x
0
, t
0
? x
1
, t
1
; x
2
, t
2
) = P (x
0
, t
0
? x
1
, t
1
) P (x
1
, t
1
? x
2
, t
2
).
(1.49)
Для независимых величин x
1
и x
2
совместная плотность вероятности равна произведению плотностей вероятности каждой из переменных. В
марковских процессах для условных вероятностей это тоже происходит,
но функции цепляются друг за друга, в нашем случае  аргументом x
1
. Поэтому в (
1.47
) нельзя разделить интегралы, и автоковариация в общем случае не равна нулю.
Индекс начального момента времени t
0
в записи автоковариационного коэффициента мы будем часто опускать, однако он всегда подразумева- ется. Как и для волатильности случайной величины, автоковариацию можно вычислять по эквивалентной формуле:
cov(t
1
, t
2
) = hx t
1
x t
2
i ? hx t
1
i hx t
2
i ,
(1.50)
где мы перемножили в определении (
1.46
) скобки и разбили среднее сум- мы на сумму средних. Заметим, что автоковариация при t
1
= t
2
= t равна дисперсии процесса: ?
2
(t) = cov(t, t)
Автокорреляция является нормированной автоковариацией и опреде- ляется следующим образом:
?(t
1
, t
2
) =
cov(t
1
, t
2
)
?(t
1
)?(t
2
)
(1.51)
Как и для обычных случайных величин, автокорреляция является ме- рой возможности прогнозирования будущего значения x
2
= x(t
2
)
, если наблюдается x
1
= x(t
1
)
. При этом и x
1
, и x
2
являются случайными вели- чинами. Детерминированным обычно считается только начальное усло- вие x
0
= x(t
0
)
, хотя и это не обязательно.

42
Глава 1.
1.9 Мартингалы и бесплатный сыр
?
Бесплатного сыра, как известно, не бывает. Этот эвристический прин- цип оказывается мощным и конструктивным в теории финансов.
Если цена при блуждании в среднем не изменяется, hxi = x
0
, то такую модель называют мартингалом. Для неј лучшим прогнозом будущей це- ны будет текущее значение x
0
. Это очень общая математическая концеп- ция. Например, в дискретной аддитивной модели x = x
0
+ ?
1
+ ... + ?
n для еј мартингальности не требуется независимость и стационарность случайных изменений ?
i цены. Два последовательных изменения могут быть скоррелированы, и P (?
1
, ..., ?
n
) 6= P (?
1
) · ... · P (?
n
)
. Единственное,
что требуется,  это неизменность цены в среднем при любом n:
?
Z
??
(?
1
+ ... + ?
n
) P (?
1
, ..., ?
n
) d?
1
...d?
n
= 0.
Таким образом, среднее значение накопленного изменения цены оказы- вается равным нулю и hxi = x
0
. Для мартингального процесса не имеет значения, когда начинается и заканчивается накопление изменения. На любом интервале времени оно должно быть нулевым. Чтобы проиллю- стрировать этот важный момент, рассмотрим двухшаговое дискретное блуждание по дереву:
1   2   3   4   5   6   7   8   9   ...   20


написать администратору сайта