Главная страница

Стохастический мир


Скачать 2.82 Mb.
НазваниеСтохастический мир
Дата27.09.2022
Размер2.82 Mb.
Формат файлаpdf
Имя файлаstepanov1.pdf
ТипДокументы
#700302
страница2 из 20
1   2   3   4   5   6   7   8   9   ...   20
x(t)
x(t)
t
t
Несмотря на то, что случайная функция x(t) предполагается непрерыв- ной, обычно это недифференцируемая функция. Действительно, произ- водная представляет собой отношение [x(t + ?t) ? x(t)]/?t при ?t ? 0.
Сколь малый интервал времени мы ни взяли бы, за счјт случайных фак- торов направление изменения функции может иметь непредсказуемо раз- личный знак. В результате мы не получаем сходимости к определјнному пределу. Понятно, что для такого dx многие факты математического анализа должны быть существенным образом пересмотрены.
Нас будут интересовать методы решения уравнений, подобных (
1.6
).
В тех случаях, когда точное решение получить не удастся, мы будем использовать численное моделирование или приближенные аналитиче- ские соотношения. Излишне напоминать, что любой математический ап- парат в конечном счјте разрабатывается для того, чтобы получить более мощные средства исследования окружающего мира. Поэтому за каждым уравнением или его решением необходимо видеть реальный случайный процесс в финансах, физике или биологии.

14
Глава 1.
1.2 Случайные величины

Рассмотрим величину, различные наблюдения которой дают нам на- бор чисел x
1
, x
2
, ...
Это могут быть значения ежедневных цен акции или координаты броуновской частицы. Числа x
1
, x
2
, ...
можно рассматривать как возможные реализации случайной величины x. На первом этапе ис- следования мы не интересуемся порядком их поступления и можем эту последовательность произвольным образом перемешивать.
Допустим, x i
встречается n i
раз, а общее количество чисел равно n.
Мы называем средним значением случайной величины x выражение:
Ї
x = hxi =
1
n
X
i x
i n
i
=
X
i x
i p
i
=
?
Z
??
x P (x) dx,
(1.7)
где p i
= n i
/n
 относительные частоты (или вероятности) появления того или иного x i
. Если все x i
различны, то среднее равно их сумме,
делјнной на n. Чем вероятнее x i
, тем больший вклад оно дајт в среднее.
Большинство финансовых или физических величин непрерывны. При бесконечном числе наблюдений вместо суммы возникает интеграл. Плот- ностью распределения вероятностей называют такую функцию P (x),
умножение которой на интервал dx дает вероятность p i
того, что значе- ние x окажется в отрезке от x до x + dx.
Вероятность обнаружить случайную величину x в любом месте диа- пазона [??..?] равна площади под кривой P (x). Понятно, что такое достоверное событие (любое значение x) имеет единичную вероятность:
P(x)dx = p
i
x+dx
x
P(x)
X
i p
i
=
?
Z
??
P (x)dx = 1.
(1.8)
Это соотношение называют условием нормировки.
Иногда случайная величина имеет запрещјнные значения. Напри- мер, цена или количество кроликов всегда положительны. В этом случае вероятность обнаружить x в области x < 0 равна нулю. При вычислении средних мы часто будем интегрировать от минус до плюс бесконечности.
При этом предполагается, что в запрещјнных для случайной величины интервалах плотность вероятности равна нулю.

Случайные события
15

Если известна плотность вероятности, то можно найти среднее зна- чение произвольной функции F (x) случайной величины x:
hF (x)i = F (x) =
?
Z
??
F (x) P (x) dx.
Мы обозначаем операцию усреднения при помощи двух эквивалентных символов  фигурных скобок или черты сверху. В математической и фи- нансовой литературе распространено также обозначение EF (x).
Так как среднее является суммой (интегралом), то среднее суммы двух выражений равно сумме их средних. Кроме этого, за знак среднего мож- но выносить константу:
h? f (x)i = ? hf (x)i ,
hf (x) + g(x)i = hf (x)i + hg(x)i .
Но это и всј! Нелинейные функции, в общем случае, не могут быть вы- несены из-под знака среднего: x
2 6= hxi
2

Второй важнейшей характеристикой случайной величины является еј волатильность ?:
?
2
=
(x ? Ї
x)
2
=
?
Z
??
(x ? Ї
x)
2
P (x) dx.
Волатильность ? в нефинансовых приложениях обычно называется среднеквадратичным отклонением. Еј квадрат ?
2
 это дисперсия или вариация, ?
2
= Var(x)
. Среднее значение Їx как константу можно выне- сти за знак усреднения, поэтому:
?
2
=
(x ? Ї
x)
2
= x
2
? 2xЇ
x + Ї
x
2
= x
2
? 2Ї
x hxi + Ї
x
2
=
x
2
? hxi
2
Если плотность вероятности непрерывной случайной величины имеет единственный симметричный максимум, то среднее характеризует наи- более типичное значение x. Волатильность  это типичные отклонения x от своего среднего. Чем меньше ?, тем уже плотность вероятности P (x),
и при ? ? 0 случайная величина становится практически детерминиро- ванной со значением x = Їx.
Аналогично дисперсии можно определить моменты более высоких по- рядков. Так, безразмерные отношения asym =
(x ? Ї
x)
3
/?
3
,
excess =
(x ? Ї
x)
4
/?
4
? 3
(1.9)
называются асимметрией и эксцессом. Асимметрия характеризует ско- шенность плотности вероятности и для симметричной P (x) она равна нулю. При больших положительных эксцессах P (x) медленнее убывает при удалении от среднего, чем при малых.

16
Глава 1.

Очень часто встречается плотность вероятности Гаусса, или нор- мальное распределение. Соответствующую случайную величину на про- тяжении этих лекций мы будем обозначать как ?. Мы не будем различать обозначения для случайной величины ? и переменной в еј плотности ве- роятности, которая для нормального распределения имеет вид:
P( )
0
0.40
0.24
0.05
1
-1
-2
2
P (?) =
e
?
1 2
?
2
?
2?
(1.10)
Среднее значение ? равно нулю h?i = 0, а еј квадрата  единице
?
2
= 1
. Следовательно, дисперсия также равна единице ?
2
?
= 1
. Далее это будет обозначаться следующим образом: ? ? N(0, 1). Если перей- ти к случайной величине x = µ + ? ?, то она будет иметь среднее µ и волатильность ? (l C
4
), поэтому x ? N(µ, ?
2
)
Для гауссовых величин полезно знание производящей функции, рав- ной среднему значению от экспоненты [см. (
14
), стр.
312
]:
he
? ?
i =
?
Z
??
e
? ?
P (?) d? = e
?
2
/2
(1.11)
Разложение в ряд по параметру ? левой и правой части (
1.11
) позволяет легко находить средние произвольных степеней h?
n i
(l H
3
).
В частности: ?
4
равно 3, и, следовательно, excess = 0. Вычитание из безразмерного момента четвјртого порядка тройки в определении экс- цесса (
1.9
) связано с желанием рассматривать в качестве эталона нор- мальное распределение. Если excess > 0, то, скорее всего, распределение имеет толстые хвосты, т.е. лежит выше графика нормального распре- деления (при x ? ±?). Если эксцесс отрицательный  наоборот, ниже.
Интегральным распределением:
F (x) =
x
Z
??
e
??
2
/2
?
2?
d?
(1.12)
мы называем вероятность того, что случайная величина не превышает некоторого значения x.

Случайные события
17

Если известна плотность вероятности P (x) величины x, то мы мо- жем найти плотность вероятности для другой случайной величины y,
связанной с x некоторой функциональной зависимостью y = f(x). Для этого вычисляется среднее от произвольной функции F (y). Это можно сделать, проведя усреднение с известной плотностью вероятности P (x):
hF (y)i =
?
Z
??
F y

?
P (y) dy =
?
Z
??
F f (x)
 P (x) dx.
(1.13)
Так как ?
P (y)
нам неизвестна, мы интегрируем с P (x) и подставляем y =
f (x)
в F (...). При помощи обратной замены можно преобразовать второй интеграл в первый. Множитель при F (y) в подынтегральной функции окажется искомой плотностью вероятности ?
P (y)
для y.
Рассмотрим в качестве примера случайную величину r = µ + ? ?, име- ющую нормальное распределение со средним значением µ и волатильно- стью ?. Найдјм распределение для x = x
0
e r
, где x
0
 константа.
hF (x)i =
?
Z
??
F x
0
e
µ+? ?
 e
??
2
/2
d?
?
2?
=
?
Z
0
F (x) e
?[ln(x/x
0
)?µ]
2
/2?
2
dx x?
?
2?
Первый интеграл  вычисление среднего при помощи нормального рас- пределения. В нјм проводится замена x = x
0
e
µ+??
, dx = ?xd?. В резуль- тате при x > 0:
P
L
(x) =
1
x?
?
2?
exp

?
(ln(x/x
0
) ? µ)
2 2?
2

(1.14)
Вероятность P
L
(x)
называется логнормальным распределением. В каче- стве упражнения предлагается вычислить среднее hxi при помощи P
L
(x)
или гауссовой плотности P (?) (l H
4
).

Используя случайные величины в соотношениях типа x = µ + ??,
мы не выполняем арифметических операций с конкретными числами, а сообщаем о потенциальном вычислении: если ? окажется равным неко- торому значению, то x ... Иногда делают различие в обозначениях, запи- сывая случайную величину при помощи большой буквы X, а при вычис- лении среднего  строчной буквой x, как переменную интегрирования.
Мы не будем этого делать, тем не менее, необходимо помнить об этом довольно тонком различии.

18
Глава 1.
1.3 Совместная и условная вероятности

Пусть мы имеем дело с двумя случайными величинами x и y. В этом случае наблюдаются пары эмпирических значений {x
1
, y
1
}, {x
2
, y
2
},
и т.д., возникающие с той или иной частотой. Поэтому можно говорить о совместной плотности вероятности P (x, y) того, что величины при- нимают некоторые значения в окрестности x и y.
Совместная вероятность позволяет вычислять среднее от произволь- ной функции двух аргументов:
hF (x, y)i =
?
Z
??
F (x, y) P (x, y) dx dy.
(1.15)
Если мы не интересуемся значением величины y, можно P (x, y) проин- тегрировать по всем еј возможным реализациям и получить плотность вероятности только для величины x:
?
Z
??
P (x, y) dy = P (x).
(1.16)
Интегрирование ещј раз левой и правой части по x даст единицу. Поэто- му условие нормировки имеет форму двойного интеграла. Оно получает- ся из (
1.15
), если положить F (x, y) = 1, так как h1i = 1.
Одновременное изучение x и y необязательно означает их временное совпадение. Например, в финансах x может быть изменением цены за день европейского фондового индекса, а y  американского, торгуемого после европейского. Между ними существует причинная связь, разделјн- ная временем. С другой стороны, изменение цен двух акций x и y за день происходит одновременно и зависит от внешних синхронизирующих фак- торов (новости, макроэкономика и т.д.).
Как мы увидим в следующем разделе, совместная плотность вероятно- сти P (x, y) особенно важна, если между случайными величинами суще- ствует некоторая зависимость. Эта связь может иметь функциональную форму y = f(x). Тогда, если для x реализуется некоторое значение, то ве- личина y будет полностью предопределена. Однако чаще y = f(x, ?), где
?
 третья, ненаблюдаемая, случайная переменная. Она может быть непредсказуемым внешним воздействием, меняющим параметры функ- циональной зависимости y = f(x), или динамической переменной, кото- рую мы не учли в более простой модели.

Случайные события
19

Кроме совместной вероятности двух величин x и y удобно ввести условную плотность вероятности. Она отвечает на вопрос, какова ве- роятность y, если уже известно значение величины x. Условная плот- ность равна совместной P (x, y), нормированной на вероятность уже до- ступной информации P (x) (см. также стр.
299
в приложении М):
P (x ? y) =
P (x, y)
P (x)
(1.17)
В качестве примера для P (x) рассмотрим нормальное распределение
(
1.10
), а для совместной плотности вероятности P (x, y)  двумерную повјрнутую гауссиану:
P (x, y) =
e
?(x
2
+y
2
+
?
2 xy)
?
?
2
,
P (x ? y) =
e
?(x
2
/2+y
2
+
?
2 xy)
?
?
Совместная и условная вероятности представлены на рисунке ниже:
Объјм под P (x, y) равен единице, тогда как под P (x ? y)  бесконечно- сти. Нормировка условной вероятности имеет смысл получения любого значения y при данном x:
?
Z
??
P (x ? y) dy = 1.
(1.18)
Стоит проверить, что формула (
1.18
) согласуется с (
1.16
).
Для условной вероятности распространено обозначение P (y|x). Одна- ко ниже мы увидим, что P (x ? y) оказывается более естественной за- писью при описании цепочек связанных между собой событий. В любом случае P (x ? y), как и P (x, y),  это функция двух вещественных аргу- ментов.
Условная вероятность важна, так как позволяет связать друг с другом разнообразные события, отражая их причинно-следственную связь.

20
Глава 1.

Рассмотрим вероятностные свойства русского языка. Каждая из 33-х букв, включая пробел _, имеет свою вероятность появления еј в тексте:
p(
_) = 0.163, p(о) = 0.0940, p(е) = 0.0696, ..., p(ъ) = 0.0002.
Если мы хотим определить вероятность встречи в произвольном месте некоторой подстроки, например, эт, мы должны подсчитать число та- ких подстрок и разделить на общее число всех подстрок вида **, где звјздочка обозначает любой символ. Для вычисления условной вероятно- сти P (э ? т) появления буквы т, если перед ней стоит э, необходимо отобрать все подстроки, удовлетворяющие маске э* (э, затем любой символ *), и выяснить, сколько среди них эт. В результате:
p(
эт) = N(эт)/N(**) = 0.002,
p(
э ? т) = N(эт)/N(э*) = 0.739,
где N  число подстрок, удовлетворяющих соответствующей маске. Для текста из n символов N(??) = n ? 1, а N(э*) = p(э) · n. Понятно, что количество как совместных, так и условных вероятностей для двух букв равно 33 2
= 1089
Вероятность встретить в тексте конкретную букву зависит от предыс- тории (предшествующих букв). Например, после э вероятность появ- ления т в 14 раз выше, чем безусловная вероятность появления буквы
т: p(т) = 0.051. Наоборот, некоторые сочетания букв крайне сложно произносимы. Например, после б вряд ли появится п.
Зная условные вероятности, можно создавать синтетические тексты.
Так, по известной предыстории ...cba новая буква x генерится с ве- роятностью, равной p(...cba ? x). Чем длиннее предыстория условной вероятности, тем более благозвучные получаются сочетания:
B P (x): а аотовчеи вс оувмпйоийпгунлрстк и рннсаьеоивотрл денаасле- оуеаиои нш и охаиоооомызкнт ннсо врыь ттлмоооас л чоулвкт;
B P (a ? x): волизлитоди нугрндатнухак мисо о меловли одетестрос- кась нудатотосрато сдото сялушлана ини н дышетазеноноразабыт;
B P (ba ? x): не толда при ной зловьются дально ка коров и к бы сли казас тали ива не же с повся обыл казакорну об это бы никтолу;
B P (cba ? x): не заблюди он майта втобы из местью секратное и надо сказаление вдруг нашает и потороткостор да выше ну задередило.
В первом случае использованы одиночные вероятности и никак не учиты- вается история. Во втором  только предшествующая буква определяет следующую, и т.д.

Случайные события
21

В качестве второго примера воспользуемся данными ежедневных цен закрытия x t
фондового индекса S&P500. Вычислим его логарифмиче- ские доходности r t
= ln(x t
/x t?1
)
в процентах (l C
6
). Разобьјм диапазон их значений на пять интервалов:
(??...?3%), [?3%...?1%), [?1%...+1%], (+1%...+3%], (+3%...+?).
Таким образом, состояние рынка будут характеризоваться одной из пя- ти возможностей: от паники (??... ? 3%) до эйфории (+3%...?).
Соответственно, каждое r t
становится дискретной случайной величиной,
принимающей пять значений. В этом случае это уже будут не доходности,
а номера состояний рынка, например -2,-1,0,1,2.
Можно рассмотреть совместную вероятность p(r t?1
, r t
)
того, что два последовательных дня имеют состояния r t?1
и r t
. Каждый день реали- зуется одна из пяти возможностей, поэтому для двух последовательных дней будет 25 = 5 2
различных комбинаций таких состояний: {(0,0); (0,1);
(0,-1);...}. За период 19902007 г. г. был n = 4531 торговый день. Вероят- ности каждого из пяти состояний имели значения:
p(r) = 0.007 0.110 0.761 0.125 0.007
 .
Для их вычисления необходимо подсчитать, сколько торговых дней ока- зывается в каждом состоянии, после чего разделить их на n. Наиболее типичными для рынка являются спокойные дни [?1%... + 1%], которые происходили 3451 = 0.76 · 4531 раз. Аналогично буквам из предыдущего примера вычисляются условные вероятности:
p(r t?1
? r t
) =
?
?
?
?
?
?
0.067 0.167 0.400 0.267 0.100 0.022 0.146 0.651 0.168 0.014 0.004 0.107 0.783 0.102 0.004 0.006 0.084 0.759 0.138 0.013 0.000 0.303 0.515 0.152 0.030
?
?
?
?
?
?
Первая строка в этой матрице соответствует переходу из состояния па- ники вчера в одно из пяти возможных состояний сегодня. Аналогич- но последняя строка дајт условные вероятности перехода из состояния
эйфории. Обращает на себя внимание то, что вероятности перехода из
спокойного рынка (средняя строка), практически совпадают с безуслов- ными вероятностями p(r). Если же вчера рынок не был спокойным, веро- ятности отклоняются от однодневных. Особенно это заметно (l C
5
) для крайних строк паники и эйфории. Так как полная вероятность перей- ти хоть в какое-то состояние равна единице, то сумма чисел в каждой строке также равна единице [ см. (
1.18
)].

22
Глава 1.
1.4 Зависимость и независимость

Величины являются статистически независимыми, если их совмест- ная плотность вероятности равна произведению функций, соответствую- щих распределениям каждой из величин:
P (x, y) = P
1
(x) P
2
(y) .
Мы часто будем опускать индексы и использовать одну и ту же букву для обозначения различных функций, отличая их аргументами.
Из определения (
1.17
) следует, что для независимых событий условная плотность P (x ? y) = P (y) зависит только от y. Это соотношение может быть ещј одним определением независимости событий. Если вероятность события y не зависит от того, произошло или нет x, то они независимы.
Среднее произведение независимых величин равно произведению их средних:
hx yi =
?
Z
??
x y P (x)P (y) dxdy = hxi hyi .
Поэтому ковариация cov(x, y):
cov(x, y) = h(x ? Ї
x)(y ? Ї
y)i = hxyi ? hxi hyi
(1.19)
независимых величин нулевая. Обратное может быть и неверным (l C
7
).

Функция z = f(x, y) двух случайных величин x и y также является случайной величиной с некоторым распределением P (z). Чтобы его най- ти, необходимо так преобразовать формулу для вычисления среднего от произвольной функции F (z), чтобы получился интеграл только по z:
hF (z)i =
?
Z
??
F f (x, y)
P (x, y) dxdy =
?
Z
??
F (z)P (z) dz.
(1.20)
Например, если x и y  независимые гауссовы числа с произвольными волатильностями ?
x
, ?
y
, то величина z = x + y  тоже гауссова:
hF (z)i =
?
Z
??
F x + y
 e
?x
2
/2?
2
x
?y
2
/2?
2
y dxdy
2??
x
?
y
=
?
Z
??
F (z)e
?z
2
/2?
2
dz
?
?
2?
,
где ?
2
= ?
2
x
+ ?
2
y
. В двойном интеграле делается замена z = x + y, u = x,
и проводится интегрирование по u при помощи формулы (
14
) на стр.
312
приложения М. Таким образом, сумма двух нормальных величин оказывается нормально распределјнной величиной.

Случайные события
23

Пусть x и y  две случайные независимые величины с произвольным распределением. Рассмотрим z, являющуюся их суммой z = x + y. Оче- видно, что среднее равно сумме средних Їz = Їx + Їy. Найдјм дисперсию:
?
2
z
=
(z ? z)
2
= (x ? x + y ? y)
2
= ?
2
x
+ ?
2
y
+ 2 h(x ? x) (y ? y)i ,
где под знаком среднего мы возвели в квадрат и ввели волатильности каждой величины, например, ?
2
x
=
(x ? Ї
x)
2
. Если (!) x и y незави- симы, то ковариация между ними (последнее слагаемое) равна нулю:
h(x ? x) (y ? y)i = hx ? xi hy ? yi = 0
. Следовательно:
?
2
z
= ?
2
x
+ ?
2
y
В общем случае для суммы n независимых величин:
z = x
1
+ ... + x n
=>
?
2
z
= ?
2 1
+ ... + ?
2
n
(1.21)
Для доказательства необходимо рассмотреть x
1
+ x
2
как одну случайную величину и, добавив к ней x
3
, получить ?
2
z
+ ?
2 3
= ?
2 1
+ ?
2 2
+ ?
2 3
, и т.д.
Если волатильности каждого x i
одинаковы и равны ?
0
, то волатиль- ность их суммы будет увеличиваться с ростом числа слагаемых, как
?
z
= ?
0
?
n
. Эта зависимость в виде корня исключительно важна и лежит в основе всех тех свойств шума Noise, который мы планируем добавлять к детерминированным дифференциальным уравнениям.
Обратим внимание, что полученный результат (
1.21
) не зависит от ви- да распределения величин x i
. Они могут быть даже различными. Глав- ное  они должны быть независимыми.
Аналогичный результат мы получили и для суммы двух независимых распределјнных по Гауссу чисел. Однако при этом плотность вероятно- сти суммы также оказалась гауссовой. Случайная величина z называется бесконечно делимой, если еј можно представить в виде суммы независи- мых случайных чисел, имеющих такое же распределение, как и z (воз- можно с другими параметрами). Примером бесконечно делимого распре- деления является плотность вероятности Гаусса, а также распределения
Коши и гамма - функции, рассматриваемые в следующем разделе.
На самом деле для бесконечной делимости достаточно, чтобы у всех трјх величин в z = x+y было одинаковое распределение. При этом, есте- ственно, подразумевается одинаковая функциональная форма распреде- ления. Его параметры (в частности, волатильность) будут различными.
Вообще, для произвольно распределјнных чисел их сумма имеет рас- пределение, отличное от распределения каждого из слагаемых. Однако
(
1.21
) для независимых величин выполняется в любом случае и является очень общим результатом.

24
Глава 1.

Простейшая связь между двумя случайными величинами x и y  это линейная зависимость y = ? + ? x. В общем случае может существовать третья случайная величина ?, которую мы интерпретируем, как внеш- ний случайный шум. Результирующая модель с константами ? и ? имеет вид:
y = ? + ? x + ?.
(1.22)
С этого уравнения обычно начинается поиск связей между эмпирически- ми величинами.
Обычно считают, что среднее шума равно нулю h?i = 0. В противном случае его можно включить в параметр ?. Потребуем, чтобы дисперсия
шума ? (ошибка модели) была минимальной:
?
2
?
=
?
2
= (y ? ? ? ? x)
2
= min.
(1.23)
Взяв производные по ? и ?, можно (l H
5
) найти уравнение регрессионной прямой. Еј наклон ? равен:
? =
hxyi ? hxi hyi hx
2
i ? hxi
2
=
h(x ? Ї
x)(y ? Ї
y)i
?
2
x
(1.24)
Итоговое уравнение мы запишем в симметричном виде пропорциональ- ности безразмерных отклонений величин от своих средних:
y ? Ї
y
?
y
= ?(x, y)
x ? Ї
x
?
x
+
?
?
y
(1.25)
Коэффициент этой пропорциональности называется корреляцией:
?
xy
= ?(x, y) =
cov(x, y)
?
x
?
y
(1.26)
В его числителе находится ковариационный коэффициент (
1.19
).
Корреляция (? 6= 0) между двумя величинами x, y не всегда означает наличие причинной связи y = f(x) или x = g(y). Например, может су- ществовать третья величина z, влияющая и на x, и на y, синхронизируя их поведение. Так, спад мировой экономики оказывает одинаковое воз- действие на две не связанные друг с другом экспортно-ориентированные отрасли экономики. Ложная корреляция возникает также, если две ве- личины имеют явно выраженный восходящий или нисходящий тренд
(систематический рост или спад). В этом случае между ними будет по- являться заметная корреляция. Эта корреляция характеризует наличие детерминированной составляющей роста (l C
8
).

Случайные события
25

Корреляционный коэффициент определяет наклон регрессионной прямой. Однако важнее то, что он служит мерой прогностических воз- можностей линейной модели. Покажем это, подставив в значение накло- на (
1.24
) исходное уравнение (
1.22
). Учтјм, что h?i = 0 и Їy = ? + ? Їx:
? =
h(x ? Ї
x)(? (x ? Ї
x) + ?)i
?
2
x
= ? +
hx?i
?
2
x
Поэтому hx?i = 0, что позволяет нам вычислить дисперсию y:
?
2
y
=
(y ? Ї
y)
2
= (? (x ? Ї
x) + ?)
2
= ?
2
?
2
x
+
?
2
Так как ? = ?(x, y)?
y
/?
x
, получаем выражение для относительной ошибки модели:
E =
?
?
?
y
=
p
1 ? ?
2
(x, y).
(1.27)
Значение волатильности шума ?
2
?
=
?
2
можно рассматривать как ошиб- ку линейной модели y = ? + ?x. Полезно сравнивать еј с волатиль- ностью ?
y
, которая является типичной ошибкой тривиальной модели y = Ї
y
. Мы видим, что такая относительная ошибка E зависит от кор- реляционного коэффициента. Чем ближе к единице его квадрат, тем меньше ошибка. При нулевом ? относительная ошибка равна единице,
и, следовательно, линейная модель имеет такую же предсказательную силу, как и тривиальное утверждение о том, что лучшим прогнозом y будет его среднее значение. Часто говорят о коэффициенте детермина- ции R
2
= 1 ? E
2
= ?
2
. Заметим также, что коэффициент корреляции по модулю всегда меньше единицы |?| 6 1.

Уравнение линейной модели (
1.22
) может интерпретироваться по- разному.
1) Прежде всего, это модель прогнозирования y, если стало известно x
(в духе P (x ? y)). В этом случае ?  это внешний шум или ошибка модели, когда истинная зависимость между x и y не такая простая. В
результате шума y всегда оказывается случайной величиной. В отноше- нии x возможны различные ситуации. Например, при изучении кривой спроса x может быть контролируемой и задаваемой исследователем це- ной товара (например, с равным шагом). В этом случае она детермини- рована. Однако разброс в еј значениях позволяет формально определить среднее Їx и волатильность ?
x
2) Часто бывает, что и x, и y выступают в качестве равноправных слу- чайных величин. Например, на фондовом рынке ежедневные изменения цен акций двух компаний x и y стохастически связаны друг с другом.
Обе величины случайны и не зависят от исследователя.

26
Глава 1.
1.5 Характеристическая функция

Характеристическая функция ?(q) является фурье-образом (стр.
314
) плотности вероятности случайной величины x:
?(q) =
?
Z
??
e
?qx
P (x) dx,
P (x) =
1 2?
?
Z
??
e
??qx
?(q) dq.
С еј помощью легко получать средние значения произвольных степе- ней x. Проведя один раз Фурье-интегрирование и найдя характеристиче- скую функцию, можно затем простым дифференцированием определя- ются значения hx n
i
:
1
?
n d
n
?(q)
dq n
q=0
=
?
Z
??
x n
P (x) dx = hx n
i .
Характеристическую функцию можно записать как среднее от экспонен- ты: ?(q) = he
?qx i
. Очевидно, что ?(0) = 1. Коэффициенты разложения
?(q)
в ряд по q являются средними степеней величины x:
?(q) = he
?qx i =
?
X
n=0
?
n hx n
i n!
q n
= 1 + ? hxi q ?
1 2
x
2
q
2
+ ...
(1.28)
Иногда мы будем рассматривать действительный вариант характери- стической функции с: q ? q/? и называть еј производящей функцией:
?(q/?) = ?(q) = he qx i

Допустим, случайная величина y связана с x линейной зависимостью y = a + b x
. Тогда еј характеристическая функция равна:
?
y q
 = he
?qy i =
D
e
?q(a+bx)
E
= e
?qa e
?qbx
Следовательно, при линейном преобразовании появляется дополнитель- ная фаза, и происходит масштабирование переменной q в ?:
y = a + b x
=>
?
y
(q) = e
?qa
?
x b q
.
(1.29)
Если b = 0, то ?
y
(q) = e
?qa
, что, учитывая интегральное представление для дельта-функции Дирака (стр.
315
), приводит к плотности вероятно- сти P (y) = ?(y ? a). Это уже не случайная величина, а детерминирован- ная константа y = a.

Случайные события
27

Приведјм примеры характеристических функций для некоторых важных распределений вероятностей:
Gauss :
P (x) =
e
?(x?x
0
)
2
/2?
2
?
?
2?
,
?(q) = e
?x
0
q??
2
q
2
/2
Cauchy :
P (x) =
a/?
(x ? x
0
)
2
+ a
2
,
?(q) = e
?x
0
q?a|q|
Gamma :
P (x) =
1
??(µ)
 x
?

µ?1
e
?x/?
,
?(q) =
1
(1 ? ??q)
µ
Для нахождения ?(q) распределения Гаусса необходимо выделить пол- ный квадрат в экспоненте. Функция ?(q) Коши проще проверяется в обратном направлении при вычислении по ней P (x). В третьем случае по формуле (
16
), стр.
313
, для гамма-функции проводится прямое инте- грирование. Заметим, что характеристическая функция Коши ?(q) не аналитична по q и распределение не имеет конечных моментов hx m
i при m > 1

Рассмотрим два независимых случайных числа x, y с произвольными распределениями P
1
(x)
, P
2
(y)
и их сумму z = x+y. Найдем плотность ве- роятности P (z) для случайной величины z. Для этого вычислим среднее от произвольной функции (пределы от ?? до ?):
hF (z)i =
Z
F (x + y) P
1
(x)P
2
(y) dx dy =
Z
F (z) P
1
(x)P
2
(z ? x) dx
|
{z
}
P (z)
dz,
где сделана замена y = z ? x. Поэтому
P (z) =
Z
P
1
(x)P
2
(z ? x) dx.
Характеристическая функция суммы двух независимых величин равна произведению их характеристических функций:
?
z
(q) =
D
e
?q(x+y)
E
= he
?qx i he
?qy i = ?
x
(q) ?
y
(q),
где мы воспользовались фактом независимости x и y. Понятно, что и в общем случае n независимых случайных величин x i
характеристиче- ская функция их суммы будет равна произведению характеристических функций каждого слагаемого:
z = x
1
+ ... + x n
=>
?
z
(q) = ?
1
(q) · .. · ?
n
(q).
Если распределения каждого x i
одинаковые, то ?
z
(q) = ?
n
(q)
. Теперь можно показать что Гаусс, Коши и гамма  бесконечно делимы (l H
6
).

28
Глава 1.

При изучении случайных процессов мы будем активно использовать факт бесконечной делимости нормального распределения. В частности,
если ?
1
, ..., ?
n
 независимые гауссовы величины с нулевым средним и единичной дисперсией ?
i
? N (0, 1)
, то их сумма также гауссова:
?
1
+ ... + ?
n
= ?
?
n.
(1.30)
Множитель
?
n выделен для того, чтобы ? ? N(0, 1) [ (
1.21
), стр.
23
]. В
результате ?
i и ? имеют одинаковое распределение с одинаковыми пара- метрами (среднее, моменты, и т.д.). Характеристическая функция для величины ? удовлетворяет уравнению ?(q)
n
= ?(
?
n q)
и равна ?(q) =
e
?q
2
/2
В общем случае распределение P (x) называют устойчивым, если для любого n существуют такие константы a n
и b n
, что x
1
+ ... + x n
= a n
+ b n
x,
(1.31)
где x
1
, ..., x n
и x имеют одинаковое распределение P (x). Если a n
= 0
, то такое распределение называется строго устойчивым. Таковым является распределение Гаусса с константой b n
=
?
n
Заметим, что условие (
1.31
) сильнее огранивает класс допустимых рас- пределений, чем просто требование бесконечной делимости. Дело в том,
что в определении (
1.31
) слева и справа стоят случайные величины, име- ющие распределения с одинаковыми параметрами, тогда как для дели- мости это необязательно.
Аналогично линейному масштабированию (
1.29
), для характеристиче- ской функции устойчивого распределения справедливо следующее функ- циональное уравнение:
?
n
(q) = e iqa n
?(b n
q).
(1.32)
Несложно проверить, что распределения Гаусса и Коши удовлетворяют этому уравнению. В то же время гамма-распределение, являющееся бес- конечно делимым, не является устойчивым. Общие функции, удовлетво- ряющие (
1.32
), называются распределениями Леви-Хинчина:
?(q) = e
?q???[1+?? sign(q) tg(??/2)] |q|
?
,
?(q) = e
?q???|q|???? q ln |q|
,
где sign(q) = q/|q|  знак q, параметр 0 < ? 6 2. Кроме этого, |?| 6 1,
? > 0. Первое распределение является четырехпараметрическим, а вто- рое  трјхпараметрическим, и оказывается пределом первого при ? ? 1.
Эти распределения при соответствующем задании значений параметров могут описывать случайные числа с толстыми хвостами (большие экс- цессы), что активно используется при моделировании доходностей фи- нансовых инструментов.

Случайные события
29

Рассмотрим n независимых случайных величин x
1
, ..., x n
имеющих произвольные, но одинаковые распределения, и изучим свойства суммы:
u =
x
1
+ ... + x n
?
n при n ? ?. Без потери общности можно считать, что hx i
i = 0
, так как сдвигом x ? x ? hxi всегда можно перейти к таким случайным величинам. В этом случае среднее значение u также равно нулю. Среднее его квадрата в силу независимости x i
равно среднему квадрата x:
u
2
=
x
2 1
+ ... + x
2
n n
=
x
2
= ?
2
Для одинаковых произвольных распределений x i
с ?(q) при больших n
характеристическая функция для u имеет вид:
?
u
(q) =

?

q
?
n

n
=

1 ?
?
2 2
q
2
n
+ ..

n
,
где мы воспользовались уравнением (
1.29
) и разложили ?(q/
?
n)
в ряд до второго порядка малости. Член, пропорциональный q, равен нулю,
так как hxi = 0. По определению, число Эйлера является пределом e
x
= (1 + x/n)
n
, при n ? ?. Поэтому характеристическая функция и распределение для u стремятся к гауссовому виду:
?
u
(q) ? e
??
2
q
2
/2
(1.33)
В качестве упражнения (l H
7
) стоит найти асимметрию и эксцесс при больших n для характеристической функции ?
z
(q) = ?
n
(q)
Результат (
1.33
) является исключительно важным и формулируется следующим образом:
распределение суммы большого числа независимых случайных величин стремится к нормальному распределению.
Например, если некоторая физическая величина подвержена внешним независимым случайным воздействиям, то чаще всего разброс еј значе- ний подчиняется распределению Гаусса. На финансовых рынках цена ак- ции также подвержена случайным воздействиям со стороны колебаний спроса и предложения. Однако еј распределение не является гауссовым.
Связано это в основном с двумя причинами: 1) скоррелированностью действий участников рынка (за счјт синхронизирующего информацион- ного фона) и 2) медленной переоценкой ими риска (волатильности) этой бумаги. Мы вернјмся к обсуждению этих вопросов в главе 8.

30
Глава 1.
1.6 Многомерное распределение Гаусса
?

При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения опе- рации умножения матриц используется два типа соглашений:
?
?
=
n
X
i=1
S
?i
?
i
= S
?i
?
i
= (S · ?)
?
(1.34)
По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс i во втором равенстве. Повторяющиеся индексы, по которым проводится суммирова- ние, называют немыми. В процессе вычислений их можно переобозна- чить в любую букву, которая ещј не используется в выражении. Третье равенство в уравнении (
1.34
)  это матричная форма той же суммы, в ко- торой матрица S = S
??
и вектор ? = {?
1
, ..., ?
n
}
перемножаются вообще без упоминания индексов и знака суммирования.
Рассмотрим n независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произве- дения ?
i
?
j равно единице для совпадающих индексов и нулю  для различных. Подобная матрица будет обозначаться символом Кронекера:
h?
i
?
j i = ?
ij
=
 1 i = j
0 i 6= j.
Вычислим, например, ковариационную матрицу случайных величин ?
?
:
?
?
?
?
= S
?i
S
?j
?
i
?
j
= S
?i
S
?j
?
ij
= S
?i
S
?i
= S
?i
S
T
i?
= (SS
T
)
??
(1.35)
При суммировании с символом Кронекера ?
ij в сумме остаются только слагаемые с i = j. Поэтому одна из сумм (по j) и символ Кронекера ис- чезают, и остајтся только суммационный индекс i. Затем вводится новая матрица S
T
i?
= S
?i с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соот- ветствует перестановке местами строк и столбцов матрицы.
Матрица S может имеет обратную S
?1
, если выполняется уравнение:
S · S
?1
= S
?1
· S = 1,
где 1 = ?
ij
 единичная матрица (символ Кронекера). Так, для опреде- лјнного выше вектора ? = (?
1
, ..., ?
n
)
можно записать:
? = S · ?
=>
? = S
?1
· ?,
где мы умножили левую и правую части на S
?1

Случайные события
31

Пусть ? = (?
1
, ..., ?
n
)
 стандартные независимые гауссовые случай- ные величины ?
i
? N (0, 1)
, а величины ? = (?
1
, ..., ?
n
)
получены из них
(
1.34
) при помощи перемешивающих коэффициентов S
??
. Среднее значе- ние произведения ?
?
?
?
определяется матрицей дисперсий (
1.35
):
D
??
=
?
?
?
?
,
D = S · S
T
,
которая является симметричной: D
??
= D
??
Найдјм производящую функцию для случайных величин ?. Для этого введјм вектор b = (b
1
, ..., b n
)
и вычислим среднее экспоненты от скаляр- ного произведения b · ? = b
1
?
1
+ ... + b n
?
n
(по n нет суммы!):
e b·?
=
e b·S·?
= e b
i
S
i1
?
1
· ... · e b
i
S
in
?
n
= e
1 2
{(b i
S
i1
)
2
+...+(b i
S
in
)
2
}
Мы воспользовались независимостью величин ?
i
, разбив среднее произве- дения на произведение средних, и формулой (
1.11
), стр.
16
. В показателе экспоненты стоит матричное выражение вида:
(b i
S
i1
)
2
+ ... + (b i
S
in
)
2
= b i
S
ik b
j
S
jk
= b i
S
ik
S
T
kj b
j
= b · S · S
T
· b.
Поэтому окончательно производящая функция равна:
?(b) =
e b·?
= e
1 2
b·D·b
Взяв частные производные по b
?
, несложно найти среднее от любого про- изведения ?
?
. Проверим, что среднее ?
?
?
?
равно D
??
. Возьмјм произ- водную производящей функции по b
?
. Учитывая, что b · D · b равно b
i
D
ij b
j
, имеем:
??(b)
?b
?
=
1 2
(D
?j b
j
+ b i
D
i?
) ?(b) = D
?i b
i
?(b),
где во втором равенстве мы воспользовались тем, что D
??
= D
??
. Ана- логично берјтся вторая производная:
?
2
?(b)
?b
?
?b
?
= D
??
?(b) + D
?i b
i
D
?j b
j
?(b).
Полагая b = 0 и учитывая, что
?
2
e b·?
?b
?
?b
?
b=0
=
?
?
?
?
,
приходим к соотношению D
??
=
?
?
?
?
. В качестве упражнения предла- гается проверить следующее тензорное выражение:
?
?
?
?
?
?
?
k
= D
??
D
?k
+ D
??
D
?k
+ D
?k
D
??
Таким образом, среднее любых степеней ? полностью определяется мат- рицей дисперсии D.

32
Глава 1.

Найдјм теперь явный вид совместной плотности вероятности для величин ?
1
, ..., ?
n
. Запишем сначала плотность вероятности для ?
1
, ..., ?
n
:
P (?
1
, ..., ?
n
) = P (?
1
) · ... · P (?
n
) =
e
?
1 2
(?
2 1
+...+?
2
n
)
(2?)
n/2
При замене переменных ?
?
= S
??
?
?
в интеграле необходимо изменить элемент объјма интегрирования d n
? = d?
1
...d?
n
, умножив его на якобиан:
d n
? = det
??
?
??
?
d n
? = (det S) d n
?.
Так как при транспонировании матрицы еј определитель не изменяется,
а определитель произведения матриц равен произведению их определи- телей, то det D = (det S)
2
и, следовательно:
P (?
1
, ..., ?
n
) =
e
?
1 2
?·D
?1
·?
(2?)
n/2
?
det D
,
где в показателе экспоненты подставлены ? = S
?1
· ?
:

2
= S
?1
i?
?
?
S
?1
i?
?
?
= ?
?
S
?1T
?i
S
?1
i?
?
?
= ? · S
?1T
· S
?1
· ? = ? · (S · S
T
)
?1
· ?
и использовано свойство обратных матриц (A · B)
?1
= B
?1
· A
?1
(см.
стр.
304
). Как и любая плотность вероятности, P (?
1
, ..., ?
n
)
нормирована на единицу, поэтому, учитывая выражение для производящей функции e
b·?
, можно записать значение следующего n-мерного гауссового инте- грала:
?
Z
??
e b·??
1 2
?·D
?1
·?
d n
? = (2?)
n/2
?
det D e
1 2
b·D·b
(1.36)
До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: ? = S · ? = 0. Можно к ним прибавить некоторый постоянный вектор Ї?
?
, который будет иметь смысл средних значений ?
?
:
?
?
= Ї
?
?
+ S
??
?
?
Тогда общее n-мерное гауссово распределение принимает вид:
P (?
1
, ..., ?
n
) =
e
?
1 2
(??Ї
?)·D
?1
·(??Ї
?)
(2?)
n/2
?
det D
,
где в плотность вероятности P (?
1
, ..., ?
n
)
подставлено ? = S
?1
· (? ? Ї
?)

Случайные события
33

Рассмотрим в качестве примера случай n = 2. Запишем элементы симметричной матрицы D
??
при помощи трјх независимых констант ?
1
,
?
2
и ?:
D =

?
2 1
? ?
1
?
2
? ?
1
?
2
?
2 2

Несложно проверить, что определитель D равен det D = ?
2 1
?
2 2
(1 ? ?
2
),
а обратная к D матрица имеет вид:
D
?1
=
1
det D

?
2 2
?? ?
1
?
2
?? ?
1
?
2
?
2 1

В результате совместная плотность вероятности для ?
1
, ?
2
может быть записана следующим образом:
P (?
1
, ?
2
) =
exp{?(x
2 1
? 2? x
1
x
2
+ x
2 2
)/2(1 ? ?
2
)}
2??
1
?
2
p
1 ? ?
2
,
где x i
= (?
i
? Ї
?
i
)/?
i
 относительные отклонения ?
i от своих средних Ї?
i
Параметры ?
i являются волатильностями: (?
1
? Ї
?
1
)
2
= D
11
= ?
2 1
, а ? 
коэффициент корреляции: ? = hx
1
x
2
i
Матрица D = SS
T
является симметричной, тогда как S в общем слу- чае  нет. Поэтому D зависит от трјх параметров, а S  от четырјх,
и одной и той же матрице дисперсии может соответствовать несколько различных матриц S. Так, можно записать:
S =
?
1
cos ? ?
1
sin ?
?
2
sin ? ?
2
cos ?

,
где ? = sin(?+?). Понятно, что возможны различные комбинации углов
?
и ?, дающие один и тот же корреляционный коэффициент ?.
Если ? = ??, то ? = 0, и D является диагональной, а при ?
1
=
?
2
= 1
 единичной. Матрицу S, удовлетворяющую уравнению SS
T
= 1
,
называют ортогональной.
Если ? = 0, ? = sin ?, ?
1
= ?
2
= 1
, то
S =
1 0
?
p
1 ? ?
2

,
D =
1 ?
? 1

(1.37)
Такая смесь переводит независимые стандартные случайные величины
?
1
, ?
2
? N (0, 1)
, h?
1
?
2
i = 0
в скоррелированные ?
1
, ?
2
? N (0, 1)
:
 ?
1
=
?
1
?
2
= ? ?
1
+
p
1 ? ?
2
?
2
=>
?
1
?
2
= ?,
?
2 1
= ?
2 2
= 1.
Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.

34
Глава 1.
1.7 Модель аддитивного блуждания

Координата броуновской частицы в воде или цена на финансовом рынке x имеют траекторию с очень нерегулярными изломами. Простей- шим еј описанием будет модель аддитивного независимого дискретного случайного блуждания. Все четыре прилагательных в названии модели отражают базовые свойства процесса.
Предположим, что начальное значение x = x
0
. Далее x испытыва- ет t = 1, 2, ... случайных независимых гауссовых изменений (толчков),
каждое с волатильностью ?. В результате x окажется равным накоплен- ной сумме таких изменений:
x t
= x
0
+ ? · (?
1
+ ... + ?
t
),
(1.38)
где ?
i
? N (0, 1)
 гауссовы числа с нулевым средним и единичной дис- персией. Индекс t пока является целым числом, однако в дальнейшем мы перейдјм к пределу непрерывного времени.
Удобно ввести дискретную переменную Винера:
W
t
= ?
1
+ ... + ?
t
= ?
?
t.
(1.39)
Второе равенство мы записали, так как сумма t гауссовых чисел снова равна гауссовому числу с волатильностью
?
t
(стр.
22

23
). Случайные числа, как с индексами ?
i
, так и без них ?, предполагаются нормиро- ванными: h?i = 0, ?
2
= 1
, т.е. как ? ? N(0, 1). Модель (
1.38
) теперь выглядит следующим образом: x t
= x
0
+ ? W
t
Начиная с x
0
= 0
, будем генерить случайные числа ?
1
, ?
2
, ... и стро- ить их накопленную сумму. Такая траектория называется выборочной траекторией случайного процесса (1-й рисунок):
0.4
1   2   3   4   5   6   7   8   9   ...   20


написать администратору сайта