Стохастический мир
Скачать 2.82 Mb.
|
x(t) x(t) t t Несмотря на то, что случайная функция x(t) предполагается непрерыв- ной, обычно это недифференцируемая функция. Действительно, произ- водная представляет собой отношение [x(t + ?t) ? x(t)]/?t при ?t ? 0. Сколь малый интервал времени мы ни взяли бы, за счјт случайных фак- торов направление изменения функции может иметь непредсказуемо раз- личный знак. В результате мы не получаем сходимости к определјнному пределу. Понятно, что для такого dx многие факты математического анализа должны быть существенным образом пересмотрены. Нас будут интересовать методы решения уравнений, подобных ( 1.6 ). В тех случаях, когда точное решение получить не удастся, мы будем использовать численное моделирование или приближенные аналитиче- ские соотношения. Излишне напоминать, что любой математический ап- парат в конечном счјте разрабатывается для того, чтобы получить более мощные средства исследования окружающего мира. Поэтому за каждым уравнением или его решением необходимо видеть реальный случайный процесс в финансах, физике или биологии. 14 Глава 1. 1.2 Случайные величины • Рассмотрим величину, различные наблюдения которой дают нам на- бор чисел x 1 , x 2 , ... Это могут быть значения ежедневных цен акции или координаты броуновской частицы. Числа x 1 , x 2 , ... можно рассматривать как возможные реализации случайной величины x. На первом этапе ис- следования мы не интересуемся порядком их поступления и можем эту последовательность произвольным образом перемешивать. Допустим, x i встречается n i раз, а общее количество чисел равно n. Мы называем средним значением случайной величины x выражение: Ї x = hxi = 1 n X i x i n i = X i x i p i = ? Z ?? x P (x) dx, (1.7) где p i = n i /n относительные частоты (или вероятности) появления того или иного x i . Если все x i различны, то среднее равно их сумме, делјнной на n. Чем вероятнее x i , тем больший вклад оно дајт в среднее. Большинство финансовых или физических величин непрерывны. При бесконечном числе наблюдений вместо суммы возникает интеграл. Плот- ностью распределения вероятностей называют такую функцию P (x), умножение которой на интервал dx дает вероятность p i того, что значе- ние x окажется в отрезке от x до x + dx. Вероятность обнаружить случайную величину x в любом месте диа- пазона [??..?] равна площади под кривой P (x). Понятно, что такое достоверное событие (любое значение x) имеет единичную вероятность: P(x)dx = p i x+dx x P(x) X i p i = ? Z ?? P (x)dx = 1. (1.8) Это соотношение называют условием нормировки. Иногда случайная величина имеет запрещјнные значения. Напри- мер, цена или количество кроликов всегда положительны. В этом случае вероятность обнаружить x в области x < 0 равна нулю. При вычислении средних мы часто будем интегрировать от минус до плюс бесконечности. При этом предполагается, что в запрещјнных для случайной величины интервалах плотность вероятности равна нулю. Случайные события 15 • Если известна плотность вероятности, то можно найти среднее зна- чение произвольной функции F (x) случайной величины x: hF (x)i = F (x) = ? Z ?? F (x) P (x) dx. Мы обозначаем операцию усреднения при помощи двух эквивалентных символов фигурных скобок или черты сверху. В математической и фи- нансовой литературе распространено также обозначение EF (x). Так как среднее является суммой (интегралом), то среднее суммы двух выражений равно сумме их средних. Кроме этого, за знак среднего мож- но выносить константу: h? f (x)i = ? hf (x)i , hf (x) + g(x)i = hf (x)i + hg(x)i . Но это и всј! Нелинейные функции, в общем случае, не могут быть вы- несены из-под знака среднего: x 2 6= hxi 2 • Второй важнейшей характеристикой случайной величины является еј волатильность ?: ? 2 = (x ? Ї x) 2 = ? Z ?? (x ? Ї x) 2 P (x) dx. Волатильность ? в нефинансовых приложениях обычно называется среднеквадратичным отклонением. Еј квадрат ? 2 это дисперсия или вариация, ? 2 = Var(x) . Среднее значение Їx как константу можно выне- сти за знак усреднения, поэтому: ? 2 = (x ? Ї x) 2 = x 2 ? 2xЇ x + Ї x 2 = x 2 ? 2Ї x hxi + Ї x 2 = x 2 ? hxi 2 Если плотность вероятности непрерывной случайной величины имеет единственный симметричный максимум, то среднее характеризует наи- более типичное значение x. Волатильность это типичные отклонения x от своего среднего. Чем меньше ?, тем уже плотность вероятности P (x), и при ? ? 0 случайная величина становится практически детерминиро- ванной со значением x = Їx. Аналогично дисперсии можно определить моменты более высоких по- рядков. Так, безразмерные отношения asym = (x ? Ї x) 3 /? 3 , excess = (x ? Ї x) 4 /? 4 ? 3 (1.9) называются асимметрией и эксцессом. Асимметрия характеризует ско- шенность плотности вероятности и для симметричной P (x) она равна нулю. При больших положительных эксцессах P (x) медленнее убывает при удалении от среднего, чем при малых. 16 Глава 1. • Очень часто встречается плотность вероятности Гаусса, или нор- мальное распределение. Соответствующую случайную величину на про- тяжении этих лекций мы будем обозначать как ?. Мы не будем различать обозначения для случайной величины ? и переменной в еј плотности ве- роятности, которая для нормального распределения имеет вид: P( ) 0 0.40 0.24 0.05 1 -1 -2 2 P (?) = e ? 1 2 ? 2 ? 2? (1.10) Среднее значение ? равно нулю h?i = 0, а еј квадрата единице ? 2 = 1 . Следовательно, дисперсия также равна единице ? 2 ? = 1 . Далее это будет обозначаться следующим образом: ? ? N(0, 1). Если перей- ти к случайной величине x = µ + ? ?, то она будет иметь среднее µ и волатильность ? (l C 4 ), поэтому x ? N(µ, ? 2 ) Для гауссовых величин полезно знание производящей функции, рав- ной среднему значению от экспоненты [см. ( 14 ), стр. 312 ]: he ? ? i = ? Z ?? e ? ? P (?) d? = e ? 2 /2 (1.11) Разложение в ряд по параметру ? левой и правой части ( 1.11 ) позволяет легко находить средние произвольных степеней h? n i (l H 3 ). В частности: ? 4 равно 3, и, следовательно, excess = 0. Вычитание из безразмерного момента четвјртого порядка тройки в определении экс- цесса ( 1.9 ) связано с желанием рассматривать в качестве эталона нор- мальное распределение. Если excess > 0, то, скорее всего, распределение имеет толстые хвосты, т.е. лежит выше графика нормального распре- деления (при x ? ±?). Если эксцесс отрицательный наоборот, ниже. Интегральным распределением: F (x) = x Z ?? e ?? 2 /2 ? 2? d? (1.12) мы называем вероятность того, что случайная величина не превышает некоторого значения x. Случайные события 17 • Если известна плотность вероятности P (x) величины x, то мы мо- жем найти плотность вероятности для другой случайной величины y, связанной с x некоторой функциональной зависимостью y = f(x). Для этого вычисляется среднее от произвольной функции F (y). Это можно сделать, проведя усреднение с известной плотностью вероятности P (x): hF (y)i = ? Z ?? F y ? P (y) dy = ? Z ?? F f (x) P (x) dx. (1.13) Так как ? P (y) нам неизвестна, мы интегрируем с P (x) и подставляем y = f (x) в F (...). При помощи обратной замены можно преобразовать второй интеграл в первый. Множитель при F (y) в подынтегральной функции окажется искомой плотностью вероятности ? P (y) для y. Рассмотрим в качестве примера случайную величину r = µ + ? ?, име- ющую нормальное распределение со средним значением µ и волатильно- стью ?. Найдјм распределение для x = x 0 e r , где x 0 константа. hF (x)i = ? Z ?? F x 0 e µ+? ? e ?? 2 /2 d? ? 2? = ? Z 0 F (x) e ?[ln(x/x 0 )?µ] 2 /2? 2 dx x? ? 2? Первый интеграл вычисление среднего при помощи нормального рас- пределения. В нјм проводится замена x = x 0 e µ+?? , dx = ?xd?. В резуль- тате при x > 0: P L (x) = 1 x? ? 2? exp ? (ln(x/x 0 ) ? µ) 2 2? 2 (1.14) Вероятность P L (x) называется логнормальным распределением. В каче- стве упражнения предлагается вычислить среднее hxi при помощи P L (x) или гауссовой плотности P (?) (l H 4 ). • Используя случайные величины в соотношениях типа x = µ + ??, мы не выполняем арифметических операций с конкретными числами, а сообщаем о потенциальном вычислении: если ? окажется равным неко- торому значению, то x ... Иногда делают различие в обозначениях, запи- сывая случайную величину при помощи большой буквы X, а при вычис- лении среднего строчной буквой x, как переменную интегрирования. Мы не будем этого делать, тем не менее, необходимо помнить об этом довольно тонком различии. 18 Глава 1. 1.3 Совместная и условная вероятности • Пусть мы имеем дело с двумя случайными величинами x и y. В этом случае наблюдаются пары эмпирических значений {x 1 , y 1 }, {x 2 , y 2 }, и т.д., возникающие с той или иной частотой. Поэтому можно говорить о совместной плотности вероятности P (x, y) того, что величины при- нимают некоторые значения в окрестности x и y. Совместная вероятность позволяет вычислять среднее от произволь- ной функции двух аргументов: hF (x, y)i = ? Z ?? F (x, y) P (x, y) dx dy. (1.15) Если мы не интересуемся значением величины y, можно P (x, y) проин- тегрировать по всем еј возможным реализациям и получить плотность вероятности только для величины x: ? Z ?? P (x, y) dy = P (x). (1.16) Интегрирование ещј раз левой и правой части по x даст единицу. Поэто- му условие нормировки имеет форму двойного интеграла. Оно получает- ся из ( 1.15 ), если положить F (x, y) = 1, так как h1i = 1. Одновременное изучение x и y необязательно означает их временное совпадение. Например, в финансах x может быть изменением цены за день европейского фондового индекса, а y американского, торгуемого после европейского. Между ними существует причинная связь, разделјн- ная временем. С другой стороны, изменение цен двух акций x и y за день происходит одновременно и зависит от внешних синхронизирующих фак- торов (новости, макроэкономика и т.д.). Как мы увидим в следующем разделе, совместная плотность вероятно- сти P (x, y) особенно важна, если между случайными величинами суще- ствует некоторая зависимость. Эта связь может иметь функциональную форму y = f(x). Тогда, если для x реализуется некоторое значение, то ве- личина y будет полностью предопределена. Однако чаще y = f(x, ?), где ? третья, ненаблюдаемая, случайная переменная. Она может быть непредсказуемым внешним воздействием, меняющим параметры функ- циональной зависимости y = f(x), или динамической переменной, кото- рую мы не учли в более простой модели. Случайные события 19 • Кроме совместной вероятности двух величин x и y удобно ввести условную плотность вероятности. Она отвечает на вопрос, какова ве- роятность y, если уже известно значение величины x. Условная плот- ность равна совместной P (x, y), нормированной на вероятность уже до- ступной информации P (x) (см. также стр. 299 в приложении М): P (x ? y) = P (x, y) P (x) (1.17) В качестве примера для P (x) рассмотрим нормальное распределение ( 1.10 ), а для совместной плотности вероятности P (x, y) двумерную повјрнутую гауссиану: P (x, y) = e ?(x 2 +y 2 + ? 2 xy) ? ? 2 , P (x ? y) = e ?(x 2 /2+y 2 + ? 2 xy) ? ? Совместная и условная вероятности представлены на рисунке ниже: Объјм под P (x, y) равен единице, тогда как под P (x ? y) бесконечно- сти. Нормировка условной вероятности имеет смысл получения любого значения y при данном x: ? Z ?? P (x ? y) dy = 1. (1.18) Стоит проверить, что формула ( 1.18 ) согласуется с ( 1.16 ). Для условной вероятности распространено обозначение P (y|x). Одна- ко ниже мы увидим, что P (x ? y) оказывается более естественной за- писью при описании цепочек связанных между собой событий. В любом случае P (x ? y), как и P (x, y), это функция двух вещественных аргу- ментов. Условная вероятность важна, так как позволяет связать друг с другом разнообразные события, отражая их причинно-следственную связь. 20 Глава 1. • Рассмотрим вероятностные свойства русского языка. Каждая из 33-х букв, включая пробел _, имеет свою вероятность появления еј в тексте: p( _) = 0.163, p(о) = 0.0940, p(е) = 0.0696, ..., p(ъ) = 0.0002. Если мы хотим определить вероятность встречи в произвольном месте некоторой подстроки, например, эт, мы должны подсчитать число та- ких подстрок и разделить на общее число всех подстрок вида **, где звјздочка обозначает любой символ. Для вычисления условной вероятно- сти P (э ? т) появления буквы т, если перед ней стоит э, необходимо отобрать все подстроки, удовлетворяющие маске э* (э, затем любой символ *), и выяснить, сколько среди них эт. В результате: p( эт) = N(эт)/N(**) = 0.002, p( э ? т) = N(эт)/N(э*) = 0.739, где N число подстрок, удовлетворяющих соответствующей маске. Для текста из n символов N(??) = n ? 1, а N(э*) = p(э) · n. Понятно, что количество как совместных, так и условных вероятностей для двух букв равно 33 2 = 1089 Вероятность встретить в тексте конкретную букву зависит от предыс- тории (предшествующих букв). Например, после э вероятность появ- ления т в 14 раз выше, чем безусловная вероятность появления буквы т: p(т) = 0.051. Наоборот, некоторые сочетания букв крайне сложно произносимы. Например, после б вряд ли появится п. Зная условные вероятности, можно создавать синтетические тексты. Так, по известной предыстории ...cba новая буква x генерится с ве- роятностью, равной p(...cba ? x). Чем длиннее предыстория условной вероятности, тем более благозвучные получаются сочетания: B P (x): а аотовчеи вс оувмпйоийпгунлрстк и рннсаьеоивотрл денаасле- оуеаиои нш и охаиоооомызкнт ннсо врыь ттлмоооас л чоулвкт; B P (a ? x): волизлитоди нугрндатнухак мисо о меловли одетестрос- кась нудатотосрато сдото сялушлана ини н дышетазеноноразабыт; B P (ba ? x): не толда при ной зловьются дально ка коров и к бы сли казас тали ива не же с повся обыл казакорну об это бы никтолу; B P (cba ? x): не заблюди он майта втобы из местью секратное и надо сказаление вдруг нашает и потороткостор да выше ну задередило. В первом случае использованы одиночные вероятности и никак не учиты- вается история. Во втором только предшествующая буква определяет следующую, и т.д. Случайные события 21 • В качестве второго примера воспользуемся данными ежедневных цен закрытия x t фондового индекса S&P500. Вычислим его логарифмиче- ские доходности r t = ln(x t /x t?1 ) в процентах (l C 6 ). Разобьјм диапазон их значений на пять интервалов: (??...?3%), [?3%...?1%), [?1%...+1%], (+1%...+3%], (+3%...+?). Таким образом, состояние рынка будут характеризоваться одной из пя- ти возможностей: от паники (??... ? 3%) до эйфории (+3%...?). Соответственно, каждое r t становится дискретной случайной величиной, принимающей пять значений. В этом случае это уже будут не доходности, а номера состояний рынка, например -2,-1,0,1,2. Можно рассмотреть совместную вероятность p(r t?1 , r t ) того, что два последовательных дня имеют состояния r t?1 и r t . Каждый день реали- зуется одна из пяти возможностей, поэтому для двух последовательных дней будет 25 = 5 2 различных комбинаций таких состояний: {(0,0); (0,1); (0,-1);...}. За период 19902007 г. г. был n = 4531 торговый день. Вероят- ности каждого из пяти состояний имели значения: p(r) = 0.007 0.110 0.761 0.125 0.007 . Для их вычисления необходимо подсчитать, сколько торговых дней ока- зывается в каждом состоянии, после чего разделить их на n. Наиболее типичными для рынка являются спокойные дни [?1%... + 1%], которые происходили 3451 = 0.76 · 4531 раз. Аналогично буквам из предыдущего примера вычисляются условные вероятности: p(r t?1 ? r t ) = ? ? ? ? ? ? 0.067 0.167 0.400 0.267 0.100 0.022 0.146 0.651 0.168 0.014 0.004 0.107 0.783 0.102 0.004 0.006 0.084 0.759 0.138 0.013 0.000 0.303 0.515 0.152 0.030 ? ? ? ? ? ? Первая строка в этой матрице соответствует переходу из состояния па- ники вчера в одно из пяти возможных состояний сегодня. Аналогич- но последняя строка дајт условные вероятности перехода из состояния эйфории. Обращает на себя внимание то, что вероятности перехода из спокойного рынка (средняя строка), практически совпадают с безуслов- ными вероятностями p(r). Если же вчера рынок не был спокойным, веро- ятности отклоняются от однодневных. Особенно это заметно (l C 5 ) для крайних строк паники и эйфории. Так как полная вероятность перей- ти хоть в какое-то состояние равна единице, то сумма чисел в каждой строке также равна единице [ см. ( 1.18 )]. 22 Глава 1. 1.4 Зависимость и независимость • Величины являются статистически независимыми, если их совмест- ная плотность вероятности равна произведению функций, соответствую- щих распределениям каждой из величин: P (x, y) = P 1 (x) P 2 (y) . Мы часто будем опускать индексы и использовать одну и ту же букву для обозначения различных функций, отличая их аргументами. Из определения ( 1.17 ) следует, что для независимых событий условная плотность P (x ? y) = P (y) зависит только от y. Это соотношение может быть ещј одним определением независимости событий. Если вероятность события y не зависит от того, произошло или нет x, то они независимы. Среднее произведение независимых величин равно произведению их средних: hx yi = ? Z ?? x y P (x)P (y) dxdy = hxi hyi . Поэтому ковариация cov(x, y): cov(x, y) = h(x ? Ї x)(y ? Ї y)i = hxyi ? hxi hyi (1.19) независимых величин нулевая. Обратное может быть и неверным (l C 7 ). • Функция z = f(x, y) двух случайных величин x и y также является случайной величиной с некоторым распределением P (z). Чтобы его най- ти, необходимо так преобразовать формулу для вычисления среднего от произвольной функции F (z), чтобы получился интеграл только по z: hF (z)i = ? Z ?? F f (x, y) P (x, y) dxdy = ? Z ?? F (z)P (z) dz. (1.20) Например, если x и y независимые гауссовы числа с произвольными волатильностями ? x , ? y , то величина z = x + y тоже гауссова: hF (z)i = ? Z ?? F x + y e ?x 2 /2? 2 x ?y 2 /2? 2 y dxdy 2?? x ? y = ? Z ?? F (z)e ?z 2 /2? 2 dz ? ? 2? , где ? 2 = ? 2 x + ? 2 y . В двойном интеграле делается замена z = x + y, u = x, и проводится интегрирование по u при помощи формулы ( 14 ) на стр. 312 приложения М. Таким образом, сумма двух нормальных величин оказывается нормально распределјнной величиной. Случайные события 23 • Пусть x и y две случайные независимые величины с произвольным распределением. Рассмотрим z, являющуюся их суммой z = x + y. Оче- видно, что среднее равно сумме средних Їz = Їx + Їy. Найдјм дисперсию: ? 2 z = (z ? z) 2 = (x ? x + y ? y) 2 = ? 2 x + ? 2 y + 2 h(x ? x) (y ? y)i , где под знаком среднего мы возвели в квадрат и ввели волатильности каждой величины, например, ? 2 x = (x ? Ї x) 2 . Если (!) x и y незави- симы, то ковариация между ними (последнее слагаемое) равна нулю: h(x ? x) (y ? y)i = hx ? xi hy ? yi = 0 . Следовательно: ? 2 z = ? 2 x + ? 2 y В общем случае для суммы n независимых величин: z = x 1 + ... + x n => ? 2 z = ? 2 1 + ... + ? 2 n (1.21) Для доказательства необходимо рассмотреть x 1 + x 2 как одну случайную величину и, добавив к ней x 3 , получить ? 2 z + ? 2 3 = ? 2 1 + ? 2 2 + ? 2 3 , и т.д. Если волатильности каждого x i одинаковы и равны ? 0 , то волатиль- ность их суммы будет увеличиваться с ростом числа слагаемых, как ? z = ? 0 ? n . Эта зависимость в виде корня исключительно важна и лежит в основе всех тех свойств шума Noise, который мы планируем добавлять к детерминированным дифференциальным уравнениям. Обратим внимание, что полученный результат ( 1.21 ) не зависит от ви- да распределения величин x i . Они могут быть даже различными. Глав- ное они должны быть независимыми. Аналогичный результат мы получили и для суммы двух независимых распределјнных по Гауссу чисел. Однако при этом плотность вероятно- сти суммы также оказалась гауссовой. Случайная величина z называется бесконечно делимой, если еј можно представить в виде суммы независи- мых случайных чисел, имеющих такое же распределение, как и z (воз- можно с другими параметрами). Примером бесконечно делимого распре- деления является плотность вероятности Гаусса, а также распределения Коши и гамма - функции, рассматриваемые в следующем разделе. На самом деле для бесконечной делимости достаточно, чтобы у всех трјх величин в z = x+y было одинаковое распределение. При этом, есте- ственно, подразумевается одинаковая функциональная форма распреде- ления. Его параметры (в частности, волатильность) будут различными. Вообще, для произвольно распределјнных чисел их сумма имеет рас- пределение, отличное от распределения каждого из слагаемых. Однако ( 1.21 ) для независимых величин выполняется в любом случае и является очень общим результатом. 24 Глава 1. • Простейшая связь между двумя случайными величинами x и y это линейная зависимость y = ? + ? x. В общем случае может существовать третья случайная величина ?, которую мы интерпретируем, как внеш- ний случайный шум. Результирующая модель с константами ? и ? имеет вид: y = ? + ? x + ?. (1.22) С этого уравнения обычно начинается поиск связей между эмпирически- ми величинами. Обычно считают, что среднее шума равно нулю h?i = 0. В противном случае его можно включить в параметр ?. Потребуем, чтобы дисперсия шума ? (ошибка модели) была минимальной: ? 2 ? = ? 2 = (y ? ? ? ? x) 2 = min. (1.23) Взяв производные по ? и ?, можно (l H 5 ) найти уравнение регрессионной прямой. Еј наклон ? равен: ? = hxyi ? hxi hyi hx 2 i ? hxi 2 = h(x ? Ї x)(y ? Ї y)i ? 2 x (1.24) Итоговое уравнение мы запишем в симметричном виде пропорциональ- ности безразмерных отклонений величин от своих средних: y ? Ї y ? y = ?(x, y) x ? Ї x ? x + ? ? y (1.25) Коэффициент этой пропорциональности называется корреляцией: ? xy = ?(x, y) = cov(x, y) ? x ? y (1.26) В его числителе находится ковариационный коэффициент ( 1.19 ). Корреляция (? 6= 0) между двумя величинами x, y не всегда означает наличие причинной связи y = f(x) или x = g(y). Например, может су- ществовать третья величина z, влияющая и на x, и на y, синхронизируя их поведение. Так, спад мировой экономики оказывает одинаковое воз- действие на две не связанные друг с другом экспортно-ориентированные отрасли экономики. Ложная корреляция возникает также, если две ве- личины имеют явно выраженный восходящий или нисходящий тренд (систематический рост или спад). В этом случае между ними будет по- являться заметная корреляция. Эта корреляция характеризует наличие детерминированной составляющей роста (l C 8 ). Случайные события 25 • Корреляционный коэффициент определяет наклон регрессионной прямой. Однако важнее то, что он служит мерой прогностических воз- можностей линейной модели. Покажем это, подставив в значение накло- на ( 1.24 ) исходное уравнение ( 1.22 ). Учтјм, что h?i = 0 и Їy = ? + ? Їx: ? = h(x ? Ї x)(? (x ? Ї x) + ?)i ? 2 x = ? + hx?i ? 2 x Поэтому hx?i = 0, что позволяет нам вычислить дисперсию y: ? 2 y = (y ? Ї y) 2 = (? (x ? Ї x) + ?) 2 = ? 2 ? 2 x + ? 2 Так как ? = ?(x, y)? y /? x , получаем выражение для относительной ошибки модели: E = ? ? ? y = p 1 ? ? 2 (x, y). (1.27) Значение волатильности шума ? 2 ? = ? 2 можно рассматривать как ошиб- ку линейной модели y = ? + ?x. Полезно сравнивать еј с волатиль- ностью ? y , которая является типичной ошибкой тривиальной модели y = Ї y . Мы видим, что такая относительная ошибка E зависит от кор- реляционного коэффициента. Чем ближе к единице его квадрат, тем меньше ошибка. При нулевом ? относительная ошибка равна единице, и, следовательно, линейная модель имеет такую же предсказательную силу, как и тривиальное утверждение о том, что лучшим прогнозом y будет его среднее значение. Часто говорят о коэффициенте детермина- ции R 2 = 1 ? E 2 = ? 2 . Заметим также, что коэффициент корреляции по модулю всегда меньше единицы |?| 6 1. • Уравнение линейной модели ( 1.22 ) может интерпретироваться по- разному. 1) Прежде всего, это модель прогнозирования y, если стало известно x (в духе P (x ? y)). В этом случае ? это внешний шум или ошибка модели, когда истинная зависимость между x и y не такая простая. В результате шума y всегда оказывается случайной величиной. В отноше- нии x возможны различные ситуации. Например, при изучении кривой спроса x может быть контролируемой и задаваемой исследователем це- ной товара (например, с равным шагом). В этом случае она детермини- рована. Однако разброс в еј значениях позволяет формально определить среднее Їx и волатильность ? x 2) Часто бывает, что и x, и y выступают в качестве равноправных слу- чайных величин. Например, на фондовом рынке ежедневные изменения цен акций двух компаний x и y стохастически связаны друг с другом. Обе величины случайны и не зависят от исследователя. 26 Глава 1. 1.5 Характеристическая функция • Характеристическая функция ?(q) является фурье-образом (стр. 314 ) плотности вероятности случайной величины x: ?(q) = ? Z ?? e ?qx P (x) dx, P (x) = 1 2? ? Z ?? e ??qx ?(q) dq. С еј помощью легко получать средние значения произвольных степе- ней x. Проведя один раз Фурье-интегрирование и найдя характеристиче- скую функцию, можно затем простым дифференцированием определя- ются значения hx n i : 1 ? n d n ?(q) dq n q=0 = ? Z ?? x n P (x) dx = hx n i . Характеристическую функцию можно записать как среднее от экспонен- ты: ?(q) = he ?qx i . Очевидно, что ?(0) = 1. Коэффициенты разложения ?(q) в ряд по q являются средними степеней величины x: ?(q) = he ?qx i = ? X n=0 ? n hx n i n! q n = 1 + ? hxi q ? 1 2 x 2 q 2 + ... (1.28) Иногда мы будем рассматривать действительный вариант характери- стической функции с: q ? q/? и называть еј производящей функцией: ?(q/?) = ?(q) = he qx i • Допустим, случайная величина y связана с x линейной зависимостью y = a + b x . Тогда еј характеристическая функция равна: ? y q = he ?qy i = D e ?q(a+bx) E = e ?qa e ?qbx Следовательно, при линейном преобразовании появляется дополнитель- ная фаза, и происходит масштабирование переменной q в ?: y = a + b x => ? y (q) = e ?qa ? x b q . (1.29) Если b = 0, то ? y (q) = e ?qa , что, учитывая интегральное представление для дельта-функции Дирака (стр. 315 ), приводит к плотности вероятно- сти P (y) = ?(y ? a). Это уже не случайная величина, а детерминирован- ная константа y = a. Случайные события 27 • Приведјм примеры характеристических функций для некоторых важных распределений вероятностей: Gauss : P (x) = e ?(x?x 0 ) 2 /2? 2 ? ? 2? , ?(q) = e ?x 0 q?? 2 q 2 /2 Cauchy : P (x) = a/? (x ? x 0 ) 2 + a 2 , ?(q) = e ?x 0 q?a|q| Gamma : P (x) = 1 ??(µ) x ? µ?1 e ?x/? , ?(q) = 1 (1 ? ??q) µ Для нахождения ?(q) распределения Гаусса необходимо выделить пол- ный квадрат в экспоненте. Функция ?(q) Коши проще проверяется в обратном направлении при вычислении по ней P (x). В третьем случае по формуле ( 16 ), стр. 313 , для гамма-функции проводится прямое инте- грирование. Заметим, что характеристическая функция Коши ?(q) не аналитична по q и распределение не имеет конечных моментов hx m i при m > 1 • Рассмотрим два независимых случайных числа x, y с произвольными распределениями P 1 (x) , P 2 (y) и их сумму z = x+y. Найдем плотность ве- роятности P (z) для случайной величины z. Для этого вычислим среднее от произвольной функции (пределы от ?? до ?): hF (z)i = Z F (x + y) P 1 (x)P 2 (y) dx dy = Z F (z) P 1 (x)P 2 (z ? x) dx | {z } P (z) dz, где сделана замена y = z ? x. Поэтому P (z) = Z P 1 (x)P 2 (z ? x) dx. Характеристическая функция суммы двух независимых величин равна произведению их характеристических функций: ? z (q) = D e ?q(x+y) E = he ?qx i he ?qy i = ? x (q) ? y (q), где мы воспользовались фактом независимости x и y. Понятно, что и в общем случае n независимых случайных величин x i характеристиче- ская функция их суммы будет равна произведению характеристических функций каждого слагаемого: z = x 1 + ... + x n => ? z (q) = ? 1 (q) · .. · ? n (q). Если распределения каждого x i одинаковые, то ? z (q) = ? n (q) . Теперь можно показать что Гаусс, Коши и гамма бесконечно делимы (l H 6 ). 28 Глава 1. • При изучении случайных процессов мы будем активно использовать факт бесконечной делимости нормального распределения. В частности, если ? 1 , ..., ? n независимые гауссовы величины с нулевым средним и единичной дисперсией ? i ? N (0, 1) , то их сумма также гауссова: ? 1 + ... + ? n = ? ? n. (1.30) Множитель ? n выделен для того, чтобы ? ? N(0, 1) [ ( 1.21 ), стр. 23 ]. В результате ? i и ? имеют одинаковое распределение с одинаковыми пара- метрами (среднее, моменты, и т.д.). Характеристическая функция для величины ? удовлетворяет уравнению ?(q) n = ?( ? n q) и равна ?(q) = e ?q 2 /2 В общем случае распределение P (x) называют устойчивым, если для любого n существуют такие константы a n и b n , что x 1 + ... + x n = a n + b n x, (1.31) где x 1 , ..., x n и x имеют одинаковое распределение P (x). Если a n = 0 , то такое распределение называется строго устойчивым. Таковым является распределение Гаусса с константой b n = ? n Заметим, что условие ( 1.31 ) сильнее огранивает класс допустимых рас- пределений, чем просто требование бесконечной делимости. Дело в том, что в определении ( 1.31 ) слева и справа стоят случайные величины, име- ющие распределения с одинаковыми параметрами, тогда как для дели- мости это необязательно. Аналогично линейному масштабированию ( 1.29 ), для характеристиче- ской функции устойчивого распределения справедливо следующее функ- циональное уравнение: ? n (q) = e iqa n ?(b n q). (1.32) Несложно проверить, что распределения Гаусса и Коши удовлетворяют этому уравнению. В то же время гамма-распределение, являющееся бес- конечно делимым, не является устойчивым. Общие функции, удовлетво- ряющие ( 1.32 ), называются распределениями Леви-Хинчина: ?(q) = e ?q???[1+?? sign(q) tg(??/2)] |q| ? , ?(q) = e ?q???|q|???? q ln |q| , где sign(q) = q/|q| знак q, параметр 0 < ? 6 2. Кроме этого, |?| 6 1, ? > 0. Первое распределение является четырехпараметрическим, а вто- рое трјхпараметрическим, и оказывается пределом первого при ? ? 1. Эти распределения при соответствующем задании значений параметров могут описывать случайные числа с толстыми хвостами (большие экс- цессы), что активно используется при моделировании доходностей фи- нансовых инструментов. Случайные события 29 • Рассмотрим n независимых случайных величин x 1 , ..., x n имеющих произвольные, но одинаковые распределения, и изучим свойства суммы: u = x 1 + ... + x n ? n при n ? ?. Без потери общности можно считать, что hx i i = 0 , так как сдвигом x ? x ? hxi всегда можно перейти к таким случайным величинам. В этом случае среднее значение u также равно нулю. Среднее его квадрата в силу независимости x i равно среднему квадрата x: u 2 = x 2 1 + ... + x 2 n n = x 2 = ? 2 Для одинаковых произвольных распределений x i с ?(q) при больших n характеристическая функция для u имеет вид: ? u (q) = ? q ? n n = 1 ? ? 2 2 q 2 n + .. n , где мы воспользовались уравнением ( 1.29 ) и разложили ?(q/ ? n) в ряд до второго порядка малости. Член, пропорциональный q, равен нулю, так как hxi = 0. По определению, число Эйлера является пределом e x = (1 + x/n) n , при n ? ?. Поэтому характеристическая функция и распределение для u стремятся к гауссовому виду: ? u (q) ? e ?? 2 q 2 /2 (1.33) В качестве упражнения (l H 7 ) стоит найти асимметрию и эксцесс при больших n для характеристической функции ? z (q) = ? n (q) Результат ( 1.33 ) является исключительно важным и формулируется следующим образом: распределение суммы большого числа независимых случайных величин стремится к нормальному распределению. Например, если некоторая физическая величина подвержена внешним независимым случайным воздействиям, то чаще всего разброс еј значе- ний подчиняется распределению Гаусса. На финансовых рынках цена ак- ции также подвержена случайным воздействиям со стороны колебаний спроса и предложения. Однако еј распределение не является гауссовым. Связано это в основном с двумя причинами: 1) скоррелированностью действий участников рынка (за счјт синхронизирующего информацион- ного фона) и 2) медленной переоценкой ими риска (волатильности) этой бумаги. Мы вернјмся к обсуждению этих вопросов в главе 8. 30 Глава 1. 1.6 Многомерное распределение Гаусса ? • При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения опе- рации умножения матриц используется два типа соглашений: ? ? = n X i=1 S ?i ? i = S ?i ? i = (S · ?) ? (1.34) По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс i во втором равенстве. Повторяющиеся индексы, по которым проводится суммирова- ние, называют немыми. В процессе вычислений их можно переобозна- чить в любую букву, которая ещј не используется в выражении. Третье равенство в уравнении ( 1.34 ) это матричная форма той же суммы, в ко- торой матрица S = S ?? и вектор ? = {? 1 , ..., ? n } перемножаются вообще без упоминания индексов и знака суммирования. Рассмотрим n независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произве- дения ? i ? j равно единице для совпадающих индексов и нулю для различных. Подобная матрица будет обозначаться символом Кронекера: h? i ? j i = ? ij = 1 i = j 0 i 6= j. Вычислим, например, ковариационную матрицу случайных величин ? ? : ? ? ? ? = S ?i S ?j ? i ? j = S ?i S ?j ? ij = S ?i S ?i = S ?i S T i? = (SS T ) ?? (1.35) При суммировании с символом Кронекера ? ij в сумме остаются только слагаемые с i = j. Поэтому одна из сумм (по j) и символ Кронекера ис- чезают, и остајтся только суммационный индекс i. Затем вводится новая матрица S T i? = S ?i с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соот- ветствует перестановке местами строк и столбцов матрицы. Матрица S может имеет обратную S ?1 , если выполняется уравнение: S · S ?1 = S ?1 · S = 1, где 1 = ? ij единичная матрица (символ Кронекера). Так, для опреде- лјнного выше вектора ? = (? 1 , ..., ? n ) можно записать: ? = S · ? => ? = S ?1 · ?, где мы умножили левую и правую части на S ?1 Случайные события 31 • Пусть ? = (? 1 , ..., ? n ) стандартные независимые гауссовые случай- ные величины ? i ? N (0, 1) , а величины ? = (? 1 , ..., ? n ) получены из них ( 1.34 ) при помощи перемешивающих коэффициентов S ?? . Среднее значе- ние произведения ? ? ? ? определяется матрицей дисперсий ( 1.35 ): D ?? = ? ? ? ? , D = S · S T , которая является симметричной: D ?? = D ?? Найдјм производящую функцию для случайных величин ?. Для этого введјм вектор b = (b 1 , ..., b n ) и вычислим среднее экспоненты от скаляр- ного произведения b · ? = b 1 ? 1 + ... + b n ? n (по n нет суммы!): e b·? = e b·S·? = e b i S i1 ? 1 · ... · e b i S in ? n = e 1 2 {(b i S i1 ) 2 +...+(b i S in ) 2 } Мы воспользовались независимостью величин ? i , разбив среднее произве- дения на произведение средних, и формулой ( 1.11 ), стр. 16 . В показателе экспоненты стоит матричное выражение вида: (b i S i1 ) 2 + ... + (b i S in ) 2 = b i S ik b j S jk = b i S ik S T kj b j = b · S · S T · b. Поэтому окончательно производящая функция равна: ?(b) = e b·? = e 1 2 b·D·b Взяв частные производные по b ? , несложно найти среднее от любого про- изведения ? ? . Проверим, что среднее ? ? ? ? равно D ?? . Возьмјм произ- водную производящей функции по b ? . Учитывая, что b · D · b равно b i D ij b j , имеем: ??(b) ?b ? = 1 2 (D ?j b j + b i D i? ) ?(b) = D ?i b i ?(b), где во втором равенстве мы воспользовались тем, что D ?? = D ?? . Ана- логично берјтся вторая производная: ? 2 ?(b) ?b ? ?b ? = D ?? ?(b) + D ?i b i D ?j b j ?(b). Полагая b = 0 и учитывая, что ? 2 e b·? ?b ? ?b ? b=0 = ? ? ? ? , приходим к соотношению D ?? = ? ? ? ? . В качестве упражнения предла- гается проверить следующее тензорное выражение: ? ? ? ? ? ? ? k = D ?? D ?k + D ?? D ?k + D ?k D ?? Таким образом, среднее любых степеней ? полностью определяется мат- рицей дисперсии D. 32 Глава 1. • Найдјм теперь явный вид совместной плотности вероятности для величин ? 1 , ..., ? n . Запишем сначала плотность вероятности для ? 1 , ..., ? n : P (? 1 , ..., ? n ) = P (? 1 ) · ... · P (? n ) = e ? 1 2 (? 2 1 +...+? 2 n ) (2?) n/2 При замене переменных ? ? = S ?? ? ? в интеграле необходимо изменить элемент объјма интегрирования d n ? = d? 1 ...d? n , умножив его на якобиан: d n ? = det ?? ? ?? ? d n ? = (det S) d n ?. Так как при транспонировании матрицы еј определитель не изменяется, а определитель произведения матриц равен произведению их определи- телей, то det D = (det S) 2 и, следовательно: P (? 1 , ..., ? n ) = e ? 1 2 ?·D ?1 ·? (2?) n/2 ? det D , где в показателе экспоненты подставлены ? = S ?1 · ? : 2 = S ?1 i? ? ? S ?1 i? ? ? = ? ? S ?1T ?i S ?1 i? ? ? = ? · S ?1T · S ?1 · ? = ? · (S · S T ) ?1 · ? и использовано свойство обратных матриц (A · B) ?1 = B ?1 · A ?1 (см. стр. 304 ). Как и любая плотность вероятности, P (? 1 , ..., ? n ) нормирована на единицу, поэтому, учитывая выражение для производящей функции e b·? , можно записать значение следующего n-мерного гауссового инте- грала: ? Z ?? e b·?? 1 2 ?·D ?1 ·? d n ? = (2?) n/2 ? det D e 1 2 b·D·b (1.36) До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: ? = S · ? = 0. Можно к ним прибавить некоторый постоянный вектор Ї? ? , который будет иметь смысл средних значений ? ? : ? ? = Ї ? ? + S ?? ? ? Тогда общее n-мерное гауссово распределение принимает вид: P (? 1 , ..., ? n ) = e ? 1 2 (??Ї ?)·D ?1 ·(??Ї ?) (2?) n/2 ? det D , где в плотность вероятности P (? 1 , ..., ? n ) подставлено ? = S ?1 · (? ? Ї ?) Случайные события 33 • Рассмотрим в качестве примера случай n = 2. Запишем элементы симметричной матрицы D ?? при помощи трјх независимых констант ? 1 , ? 2 и ?: D = ? 2 1 ? ? 1 ? 2 ? ? 1 ? 2 ? 2 2 Несложно проверить, что определитель D равен det D = ? 2 1 ? 2 2 (1 ? ? 2 ), а обратная к D матрица имеет вид: D ?1 = 1 det D ? 2 2 ?? ? 1 ? 2 ?? ? 1 ? 2 ? 2 1 В результате совместная плотность вероятности для ? 1 , ? 2 может быть записана следующим образом: P (? 1 , ? 2 ) = exp{?(x 2 1 ? 2? x 1 x 2 + x 2 2 )/2(1 ? ? 2 )} 2?? 1 ? 2 p 1 ? ? 2 , где x i = (? i ? Ї ? i )/? i относительные отклонения ? i от своих средних Ї? i Параметры ? i являются волатильностями: (? 1 ? Ї ? 1 ) 2 = D 11 = ? 2 1 , а ? коэффициент корреляции: ? = hx 1 x 2 i Матрица D = SS T является симметричной, тогда как S в общем слу- чае нет. Поэтому D зависит от трјх параметров, а S от четырјх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц S. Так, можно записать: S = ? 1 cos ? ? 1 sin ? ? 2 sin ? ? 2 cos ? , где ? = sin(?+?). Понятно, что возможны различные комбинации углов ? и ?, дающие один и тот же корреляционный коэффициент ?. Если ? = ??, то ? = 0, и D является диагональной, а при ? 1 = ? 2 = 1 единичной. Матрицу S, удовлетворяющую уравнению SS T = 1 , называют ортогональной. Если ? = 0, ? = sin ?, ? 1 = ? 2 = 1 , то S = 1 0 ? p 1 ? ? 2 , D = 1 ? ? 1 (1.37) Такая смесь переводит независимые стандартные случайные величины ? 1 , ? 2 ? N (0, 1) , h? 1 ? 2 i = 0 в скоррелированные ? 1 , ? 2 ? N (0, 1) : ? 1 = ? 1 ? 2 = ? ? 1 + p 1 ? ? 2 ? 2 => ? 1 ? 2 = ?, ? 2 1 = ? 2 2 = 1. Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных. 34 Глава 1. 1.7 Модель аддитивного блуждания • Координата броуновской частицы в воде или цена на финансовом рынке x имеют траекторию с очень нерегулярными изломами. Простей- шим еј описанием будет модель аддитивного независимого дискретного случайного блуждания. Все четыре прилагательных в названии модели отражают базовые свойства процесса. Предположим, что начальное значение x = x 0 . Далее x испытыва- ет t = 1, 2, ... случайных независимых гауссовых изменений (толчков), каждое с волатильностью ?. В результате x окажется равным накоплен- ной сумме таких изменений: x t = x 0 + ? · (? 1 + ... + ? t ), (1.38) где ? i ? N (0, 1) гауссовы числа с нулевым средним и единичной дис- персией. Индекс t пока является целым числом, однако в дальнейшем мы перейдјм к пределу непрерывного времени. Удобно ввести дискретную переменную Винера: W t = ? 1 + ... + ? t = ? ? t. (1.39) Второе равенство мы записали, так как сумма t гауссовых чисел снова равна гауссовому числу с волатильностью ? t (стр. 22 23 ). Случайные числа, как с индексами ? i , так и без них ?, предполагаются нормиро- ванными: h?i = 0, ? 2 = 1 , т.е. как ? ? N(0, 1). Модель ( 1.38 ) теперь выглядит следующим образом: x t = x 0 + ? W t Начиная с x 0 = 0 , будем генерить случайные числа ? 1 , ? 2 , ... и стро- ить их накопленную сумму. Такая траектория называется выборочной траекторией случайного процесса (1-й рисунок): 0.4 |