Стохастический мир
Скачать 2.82 Mb.
|
t= 1 t= 3 t= 5 x P(x,t) 0 0 t x t 0 t x t 0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 Так как изменения ? k будут каждый раз новыми, то по-разному будут протекать и блуждания траектории x t = x(t) (см. 2-й рисунок). Различ- ные реализации процесса блуждания пересекают вертикальную прямую t = const в тех или иных значениях x. Совокупность всех этих чисел является случайной величиной. Случайные события 35 Поэтому, говоря о процессе x(t), мы подразумеваем, что в данный мо- мент времени x = x(t) имеет определјнное распределение P (x). В неко- торый другой момент времени распределение может оказаться иным. По- этому плотность вероятности P (x, t), среднее Їx(t) и волатильность ?(t) будут функциями времени. Волатильность аддитивного блуждания увеличивается, как ? t . Это наглядно видно на 2-м рисунке с несколькими реализациями x t . Их пу- чок постепенно расширяется. В результате неопределјнность будущего значения x t увеличивается. Мы можем обнаружить x t достаточно дале- ко от начального значения x 0 = 0 . Это также проиллюстрировано на 3-м рисунке, где представлены плотности вероятности P (x, t), которые с течением времени постепенно расплываются. Блуждающие траектории начинаются с определјнного начального зна- чения x 0 = x(t 0 ) в момент времени t 0 . Поэтому, говоря о вероятности, мы имеем дело с условной плотностью P (x 0 , t 0 ? x, t) . Пока моменты време- ни t 0 и t являются целыми числами, соответствующими номеру скачка ? k на очередном этапе. Важно понимать, что x t = x(t) не является конкретной траекторией. Это одновременная совокупность всех возможных траекторий случайно- го процесса. Аналогично, случайное число x не подразумевает конкрет- ного значения, а обозначает все возможные реализации, подчиняющиеся некоторому распределению P (x). Вероятность получить на t-ом шаге x t определяется вероятностями всех изменений ? i . Так, дискретный вине- ровский процесс W t определяется плотностью вероятности: P (? 1 , ..., ? t ) = P (? 1 ) · ... · P (? t ), где равенство отражает независимость всех ? i . Таким образом, W t фак- тически, многомерная случайная величина. Обратим ещј раз внимание на смысл записи: ? 1 + ... + ? t = ? ? t Предположим, что в процессе моделирования мы генерим t независимых гауссовых чисел ? 1 , ? 2 , ... и складываем их. Результат будет иметь такие же статистические свойства, как одно гауссово число ? с единичной волатильностью, умноженное на фактор ? t . При вычислении свойств накопленной суммы вполне достаточно пользоваться величиной ?, а не совместной плотностью P (? 1 , ..., ? t ) . В частности, если мы ищем среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени, то необходимы некоторые ухищрения. Рассмотрим их подробнее. 36 Глава 1. • Для сравнения процесса блуждания с самим собой в различные мо- менты времени его необходимо разбивать на неперекрывающиеся участ- ки времени. Пусть процесс длится s шагов, а затем еще в течение t ? s. Сравним свойства траекторий в моменты времени s и t (s < t): W s = ? 1 + ... + ? s , W t = ? 1 + ... + ? s + ? s+1 + ... + ? t Вычитая уравнения, получим сумму t ? s случайных чисел: W t ? W s = ? s+1 + ... + ? t = ? ? t ? s = W t?s Второе равенство является отражением того, что суммарная волатиль- ность t ? s независимых гауссовых слагаемых будет равна ? t ? s . Фак- тически, W s и W t можно представить в виде: W s = ? a ? s, W t = ? a ? s + ? b ? t ? s, (1.40) где ? a , ? b , как и везде в наших лекциях, независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них ? a экви- валентно накопленной сумме начальных s приращений, а второе ? b соответствует независимым от ? a последующим t ? s приращениям. Теперь можно найти ковариацию между W s и W t . Так как W t = 0 , то: cov(s, t) = hW s W t i = ? a ? s · ? a ? s + ? b ? t ? s = s, в силу того, что ? 2 a = 1 и h? a ? b i = 0 . Таким образом, ковариация зависит только от наименьшего числа s = min(s, t), представляющего собой длительность общей для W s и W t истории. Для прояснения смысла этого результата запишем регрессионную прямую ( 1.25 ) между W s и W t Их волатильности равны ? s и ? t , а средние нулю, поэтому: W t ? t = cov(s, t) ? s ? t W s ? s + ? ? t => W t = W s + ?. Таким образом, если известно, что в момент времени s сумма равна W s , то наилучшим прогнозом будущего значения W t будет уже известное W s Из ( 1.40 ) следует, что линейная регрессионная модель оказывается в дан- ном случае точной (l C 9 ). При этом еј шумом выступают накопленные после момента времени s изменения: ? = ? s+1 + ... + ? t = ? b ? t ? s Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения (i < j < k): hW i W j W k i = 0, W 2 i W j W k = 2i 2 + ij, W i W 2 j W k = 3ij. [Процесс W k необходимо разбить на три интервала (l C 10 ).] Случайные события 37 • В заключение раздела ответим на следующий вопрос. Если x = x 1 в момент времени t = t 1 , то какова вероятность обнаружить его на следу- ющем шаге t = t 2 в значении x 2 ? Очевидно, что она равна вероятности изменения x: P (x 1 ? x 2 ) = e ?? 2 /2 ? 2? = exp ? (x 2 ?x 1 ) 2 2(t 2 ?t 1 ) p2?(t 2 ? t 1 ) Мы положили ? = 1 и записали в явном виде гауссову плотность веро- ятности для ? = x 2 ? x 1 . В результате условная вероятность зависит от обоих аргументов, поэтому случайные числа x 1 и x 2 являются зависимы- ми. Дискретная траектория блуждания описывается множеством случай- ных величин x t = {x 1 , x 2 , x 3 , ...} , задающих возможные значения x на ша- ге t. Индекс можно записать в функциональной форме x(t) и говорить о случайной функции, которая пока определена только в дискретных точ- ках. Таким образом, случайная функция это многомерная величина. Для задания свойств случайного процесса в общем случае необходимо определить плотность вероятности P (x 1 , x 2 , x 3 , ...) с бесконечным числом аргументов. Для винеровского процесса ситуация существенно упрощается, так как каждое следующее x t+1 определяется значением непосредственно пред- шествующего x t и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде (l C 11 ): P (x 1 , ..., x t ? x t+1 ) = P (x t ? x t+1 ). (1.41) Если известно x t , то x t+1 будет определяться значением x t и случайным изменением ?, а не всей историей x 1 , ..., x t?1 . Процессы с такой корот- кой памятью называются марковскими процессами. Они представляют собой следующее приближение после независимости случайных величин, для которых P (x 1 , ..., x t ? x t+1 ) = P (x t+1 ). Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например: P (x 1 , x 2 , x 3 ) = P (x 1 ) P (x 1 ? x 2 ) P (x 2 ? x 3 ). (1.42) Для этого сначала записываем P (x 1 , x 2 , x 3 ) = P (x 1 , x 2 ) P (x 1 , x 2 ? x 3 ) по определению условной вероятности. Затем используем определение для P (x 1 , x 2 ) = P (x 1 )P (x 1 ? x 2 ) и марковское условие короткой па- мяти: P (x 1 , x 2 ? x 3 ) = P (x 2 ? x 3 ) . Таким образом, чтобы произошло x 1 , x 2 , x 3 , необходимо, чтобы свершилось x 1 . При условии, что это про- изошло, далее реализовалось x 2 , и т.д. 38 Глава 1. 1.8 Случайные процессы В общем случае мы называем случайным процессом упорядоченную последовательность случайных величин x 1 , x 2 , ... . Вместо индекса, пе- речисляющего величины, удобно использовать функциональную форму x(t) . Если параметр t принимает дискретные значения, то мы имеем де- ло с дискретным случайным процессом. Если же t непрерывное время, то это непрерывный случайный процесс по времени. В этом случае x(t) называется случайной функцией. Заметим, что она может быть и разрыв- ной, например, если x(t) в каждый момент времени равно независимой гаусовой величине ? (гауссовый шум). Случайный процесс необходимо описывать совместной плотностью ве- роятности для каждого момента времени: P (x 1 , x 2 , x 3 , ...) ? P (x 1 , t 1 ; x 2 , t 2 ; x 3 , t 3 ; ...), (1.43) где t i явным образом указывают, к какому моменту времени относится значение случайной величины x i . Понятно, что в случае непрерывных процессов работать с такой плотностью вероятности достаточно сложно. Поэтому еј размерность стараются уменьшить. Если проинтегрировать по всем случайным величинам x i , кроме одной, получится плотность ве- роятности в фиксированный момент времени P (x, t). Аналогично можно определить плотность вероятности в два произвольных момента времени P (x 1 , t 1 ; x 2 , t 2 ) , и т.д. Заметим, что t, в отличие от x, это не случайная величина, а параметр. Часто процесс изучается после того, как стало известным его началь- ное значение x 0 в момент времени t 0 . В этом случае целесообразно при- менять условные плотности вероятности. Например, одноточечная: P (x 0 ? x 1 ) ? P (x 0 , t 0 ? x 1 , t 1 ) или двухточечная: P (x 0 ? x 1 , x 2 ) ? P (x 0 , t 0 ? x 1 , t 1 ; x 2 , t 2 ). Они будут основными объектами при описании случайных процессов. Случайные величины, совокупность которых образует случайный про- цесс, могут быть как независимыми, так и связанными. Если величины независимы, график выборочного процесса будет выглядеть, как хаоти- ческие выбросы вверх и вниз от среднего значения. Такой процесс назы- вают шумом. При наличии некоторой связи между последовательными значениями график может иметь хотя и очень изломанную, но всј же от- носительно связную динамику. Примером подобного процесса является дискретное аддитивное блуждание, рассмотренное выше. Случайные события 39 • Описание случайного процесса существенно упрощается, если его полная плотность вероятности ( 1.43 ) или соответствующая ей условная вероятность обладают некоторыми свойствами, позволяющими связы- вать прошлые и будущие значения. Нас будет интересовать класс слу- чайных процессов, для которых условная вероятность зависит только от последнего известного значения, а не от всей предыстории: P (..., x t?2 , x t?1 , x t ? x t+1 ) = P (..., x t?2 , x t?1 , x t , x t+1 ) P (..., x t?2 , x t?1 , x t ) = P (x t ? x t+1 ), где опущены моменты времени. Как мы уже говорили, подобные про- цессы являются марковскими. При выполнении условия марковости сов- местную плотность вероятности произвольной размерности можно вы- разить через произведение условных вероятностей P (x 1 , t 1 ? x 2 , t 2 ) , см. ( 1.42 ). В этом случае для полного описания свойств случайного процесса достаточно знания функции только четырех аргументов, а не бесконеч- ного их числа, как в формуле ( 1.43 ). • Чтобы в результате эмпирических исследований выяснить форму даже простой условной плотности вероятности P (x 0 , t 0 ? x, t) , необхо- димо достаточно большое количество реализаций случайных процессов. Поэтому, как и для обычных случайных величин, важную роль игра- ют интегральные характеристики случайного процесса. Естественно, они становятся функциями времени. Если известно значение процесса x 0 в момент времени t 0 , то условное среднее значение равно: Ї x(t, x 0 , t 0 ) = ? Z ?? x P (x 0 , t 0 ? x, t) dx. (1.44) Аналогично определяется условная дисперсия (квадрат волатильности): ? 2 (t, x 0 , t 0 ) = ? Z ?? x ? Ї x(t) 2 P (x 0 , t 0 ? x, t) dx. (1.45) Далее мы будем говорить о решениях стохастических дифференциаль- ных уравнений. В случае, когда случайные воздействия Noise на измене- ние величины x невелики, среднее значение будет приближјнно соответ- ствовать гладкому решению обыкновенного дифференциального уравне- ния без стохастического воздействия. Волатильность при этом характе- ризует типичный коридор колебаний различных реализаций случайно- го процесса вокруг этого среднего значения. 40 Глава 1. • Среднее значение Їx(t) и волатильность ?(t) стохастического про- цесса не полностью характеризуют основные особенности его динамики. Ниже на рисунке приведены несколько реализаций двух различных про- цессов: x(t) x(t) t t Они имеют одинаковое среднее (центральная пунктирная линия) и вола- тильность точечный коридор, нарисованный вокруг среднего. Тем не менее хорошо видно, что характер этих процессов различный, и правый имеет менее гладкую динамику (l C 12 ). Поэтому важной характеристикой стохастического процесса является связь прошлого и будущего. Определим автоковариацию между дву- мя моментами времени t 1 < t 2 при условии, что при t = t 0 наблюдалось значение x 0 = x(t 0 ) : cov t 0 (t 1 , t 2 ) = x t 1 ? Ї x t 1 x t 2 ? Ї x t 2 , (1.46) где Їx t = hx(t)i среднее значение в момент времени t, а x t i = x(t i ) Приставка авто- в названии подчјркивает, что ковариация вычисляется между величиной в момент времени t 1 и ей же в другой момент t 2 Среднее определяется при помощи условной плотности вероятности P (x 0 , t 0 ? x, t) и предполагает однократное интегрирование по x [см. ( 1.44 ).] Фактически Їx t зависит не только от t, но и от начальных усло- вий x 0 и t 0 . Для определения автоковариационной функции необходимо выполнить двойное интегрирование: cov t 0 (t 1 , t 2 ) = ? Z ?? (x 1 ? Ї x 1 )(x 2 ? Ї x 2 ) P (x 0 , t 0 ? x 1 , t 1 ; x 2 , t 2 ) dx 1 dx 2 , (1.47) где P (x 0 , t 0 ? x 1 , t 1 ; x 2 , t 2 ) плотность совместной вероятности значений x 1 и x 2 в моменты времени t 1 и t 2 при условии, что в момент времени t 0 мы имеем x 0 = x(t 0 ) Случайные события 41 Эту вероятность можно выразить через марковские условные вероят- ности. По определению (опуская для краткости времена): P (x 0 ? x 1 , x 2 ) = P (x 0 , x 1 , x 2 ) P (x 0 ) (1.48) Для трјхточечной совместной вероятности P (x 0 , x 1 , x 2 ) запишем цепочку марковских вероятностей [см. ( 1.42 ), стр. 37 ]: P (x 0 , x 1 , x 2 ) = P (x 0 ) P (x 0 ? x 1 ) P (x 1 ? x 2 ). Подставляя еј в формулу ( 1.48 ) и возвращая моменты времени, окон- чательно получим: P (x 0 , t 0 ? x 1 , t 1 ; x 2 , t 2 ) = P (x 0 , t 0 ? x 1 , t 1 ) P (x 1 , t 1 ? x 2 , t 2 ). (1.49) Для независимых величин x 1 и x 2 совместная плотность вероятности равна произведению плотностей вероятности каждой из переменных. В марковских процессах для условных вероятностей это тоже происходит, но функции цепляются друг за друга, в нашем случае аргументом x 1 . Поэтому в ( 1.47 ) нельзя разделить интегралы, и автоковариация в общем случае не равна нулю. Индекс начального момента времени t 0 в записи автоковариационного коэффициента мы будем часто опускать, однако он всегда подразумева- ется. Как и для волатильности случайной величины, автоковариацию можно вычислять по эквивалентной формуле: cov(t 1 , t 2 ) = hx t 1 x t 2 i ? hx t 1 i hx t 2 i , (1.50) где мы перемножили в определении ( 1.46 ) скобки и разбили среднее сум- мы на сумму средних. Заметим, что автоковариация при t 1 = t 2 = t равна дисперсии процесса: ? 2 (t) = cov(t, t) Автокорреляция является нормированной автоковариацией и опреде- ляется следующим образом: ?(t 1 , t 2 ) = cov(t 1 , t 2 ) ?(t 1 )?(t 2 ) (1.51) Как и для обычных случайных величин, автокорреляция является ме- рой возможности прогнозирования будущего значения x 2 = x(t 2 ) , если наблюдается x 1 = x(t 1 ) . При этом и x 1 , и x 2 являются случайными вели- чинами. Детерминированным обычно считается только начальное усло- вие x 0 = x(t 0 ) , хотя и это не обязательно. 42 Глава 1. 1.9 Мартингалы и бесплатный сыр ? Бесплатного сыра, как известно, не бывает. Этот эвристический прин- цип оказывается мощным и конструктивным в теории финансов. Если цена при блуждании в среднем не изменяется, hxi = x 0 , то такую модель называют мартингалом. Для неј лучшим прогнозом будущей це- ны будет текущее значение x 0 . Это очень общая математическая концеп- ция. Например, в дискретной аддитивной модели x = x 0 + ? 1 + ... + ? n для еј мартингальности не требуется независимость и стационарность случайных изменений ? i цены. Два последовательных изменения могут быть скоррелированы, и P (? 1 , ..., ? n ) 6= P (? 1 ) · ... · P (? n ) . Единственное, что требуется, это неизменность цены в среднем при любом n: ? Z ?? (? 1 + ... + ? n ) P (? 1 , ..., ? n ) d? 1 ...d? n = 0. Таким образом, среднее значение накопленного изменения цены оказы- вается равным нулю и hxi = x 0 . Для мартингального процесса не имеет значения, когда начинается и заканчивается накопление изменения. На любом интервале времени оно должно быть нулевым. Чтобы проиллю- стрировать этот важный момент, рассмотрим двухшаговое дискретное блуждание по дереву: |