Стохастический мир
Скачать 2.82 Mb.
|
x x t t x 0 x 0 step step Для вычислений используется два вложенных цикла. Внешний по k при- водит к выводу x(step), x(2step),... тогда как внутренний по j, при помо- щи итерационной формулы, вычисляет промежуточные значения случай- ного процесса. Для ускорения вычислений мы используем переменную sqrt_dt, в которой хранится ? dt . Начальное значение процесса x 0 = 1 в момент времени t 0 = 0 задајтся перед выполнением циклов. Вывод в файл осуществляется функцией fprintf, которая аналогич- на printf, но первым аргументом указывается файловая переменная, в которую направляется вывод. Функция fflush(out) приводит к немед- ленному помещению данных в файл, поэтому, если прервать выполнение программы, часть посчитанных к этому моменту результатов будет на- ходиться в файле. Последняя строка закрывает файл. Этот текстовый файл можно открыть, например, в Excel и построить график соответ- ствущего случайного процесса. Символ \t в функции fprintf обозначает табулирование и пони- мается Excel в качестве разделителя колонок. Можно его заменить на запятую ,, и, придав файлу расширение .csv, получить формат, вос- принимаемый большинством программ обработки данных. 252 Глава 9. • Аналогичным образом моделируется система стохастических урав- нений. Рассмотрим в качестве примера двухмерный осциллятор с зату- ханием (стр. 160 ), имеющий скоррелированный шум ?W x ?W y = ? dt : dx = (?? x ? ? y) dt + ? ?W x dy = (+? x ? ? y) dt + ? ?W y Программа на C++, выдающая реализацию траектории соответствущего случайного процесса x(t), y(t), имеет вид: # include " stat .cpp" // файл с RndG ( ) void main () { FILE *out = fopen ("ito.out", "w"); SRnd ( time (0)); // "встряхиваем " генератор Float step = 0.1; // шаг по времени для табуляции x , y const int num = 1000; // число точек табуляцмм int lag= 1000; // количество дроблений шага s t e p Float w=0.5 , lm =0.01 , si=1, rho =0.1; Float x=1, y=0, t=0, x1 , y1 , r1 , r2; Float dt= step /lag , sqrt_dt = sqrt (dt), rho1 = sqrt (1- rho*rho ); fprintf (out , "%g\t%g\t%g\n", t, x, y); for(int k=1; k <= num; k ++){ for(int j=0; j x1 = x + (-lm*x-w*y)* dt + si*r1* sqrt_dt ; y1 = y + (-lm*y+w*x)* dt + si*r2* sqrt_dt ; x=x1; y=y1; } fprintf (out , "%g\t%g\t%g\n", t, x, y); } fclose (out ); // закрываем файл } Принципиальное отличие от одномерного случая состоит в использова- нии промежуточных переменных x1 и y1. Мы должны сначала вычис- лить приращение каждой из переменных, и лишь затем их увеличить. Если бы это не было проделано, то во втором уравнении для y стояло бы x не из предыдущей итерации, а уже изменјнное. В качестве упраж- нения стоит сравнить работу этого алгоритма и алгоритма, в котором стояло бы просто x+ = ... и y+ = .... Обратим также внимание на ге- нерацию скоррелированных случайных чисел r1 и r2 с коэффициентом корреляции ? =rho. Компьютерное моделирование 253 • Пока системы уравнений имеют небольшую размерность, для каж- дой степени свободы вводится отдельная переменная. Однако, рано или поздно необходимо переходить к массивам, особенно, если уравнение име- ет компактную векторную форму. Рассмотрим, например, систему следующего вида: dx i = ?x i r dt + ?W i , где r = px 2 1 + ... + x 2 n расстояние до начала координат в n-мерном декартовом пространстве. Так как снос вектора x = {x 1 , ..., x n } всегда направлен к началу координат, блуждание будет всј время оставаться в его окрестности. Со временем установится стационарное распределение вероятностей. Для моделирования подобных уравнений необходимо определить мас- сивы значений на предыдущей и текущей итерациях, а также задать начальные значения: const int n = 10; Float x[n], x1[n]; for(int i=0; i Основной цикл итерационных расчјтов имеет следующий вид: for(int k=1; k <= num; k ++){ for(int j=0; j for(int i=0; i for(int i=0; i for(int i=0; i } } При помощи значений x[i], полученных на предыдущей итерации, вычис- ляется радиус-вектор r. Затем в цикле происходит определение новых значений координат, которые присваиваются в массив x1. Только после того, как все новые значения вычислены, они снова помещаются в массив решений x. 254 Глава 9. 9.5 Ошибки вычислений и ускорение сходимости Если мы хотим найти изменение во времени среднего значения или волатильности случайного процесса, необходимо создать большое коли- чество выборочных траекторий, на основании которых провести соответ- ствующее усреднение. На конечные результаты могут оказывать влияние ошибки трјх видов: 1) Конечность выборки 2) Конечность временного шага 3) Ошибки округлений Статистические ошибки конечности выборки достаточно хорошо кон- тролируемы при помощи соотношений, приведенных в разделе § 9.2 . При расчјте любой интегральной величины v (среднее, квадрат среднего, и т.д.) необходимо вычислять также выборочную волатильность ?? v этой величины. Стандартная ошибка, которую мы будем получать для выбо- рочного среднего ?v по n экспериментам, равна ?? v / ? n . При необходимо- сти можно определить доверительные интервалы, в которые с заданной достоверностью попадает истинное среднее значение. Простым рецептом проверки наличия ошибок округления может быть переход от двойной точности double к одинарной oat для типа Float. Если результаты при этом изменяются несущественно (на той же после- довательности случайных чисел), то всј нормально. Так как мы опреде- лили тип Float в начале файла stat.cpp, для подобной проверки доста- точно изменить только одну строку. Рассмотрим теперь величину ошибок, связанных с конечностью вре- менного шага в итерационной схеме. Чтобы статистические ошибки не мешали, воспользуемся следующим пријмом. Как известно, конкретная траектория винеровского процесса полностью определяет любую траек- торию диффузного процесса, если еј изменения стоят в стохастическом члене дифференциального уравнения (порождающий процесс: стр. 72 ). Для процессов, точные решения которых выражаются явным видом через винеровскую переменную x = f(t, W t ) , можно вычислить среднюю абсолютную ошибку расхождения точного решения и численного: E = |x(t k ) ? x exact (t k )| Для этого необходимо получить дискретную траекторию Винера при по- мощи последовательности случайных гауссовых величин ? 1 , ..., ? n и, ис- пользуя их же, построить итерационную схему. Компьютерное моделирование 255 • Для уравнения dx = a(x) dt + b(x) ?W базовая итерационная схе- ма, которой мы пользовались на протяжении книги, называется схемой Эйлера: x k+1 = x k + a k ?t + b k ? k ? ?t, где ? k ? N (0, 1) , а a k = a(x k ) , b k = b(x k ) . Естественно, сам Эйлер о стоха- стических уравнениях не слышал, а использовал подобное приближение для решения обыкновенных дифференциальных уравнений. Чем меньше интервал времени ?t, тем ближе последовательность зна- чений случайного процесса x k = x(t k ) находится к непрерывной траекто- рии x exact (t) в моменты времени t k . Если для обыкновенных дифферен- циальных уравнений уменьшение шага итерационной схемы для повы- шения точности решения обычно не вызывает особых сложностей, то в стохастическом случае ситуация значительно сложнее. Чтобы получить среднее значение случайного процесса с относительной точностью 10 ?3 , необходимо проделать около миллиона экспериментов. В результате вре- менные затраты становятся в миллион раз больше, чем в детерминиро- ванном случае. Понятно, что, если при каждом из таких экспериментов, уменьшая ?t, мы должны выполнять большое число итераций, то ситу- ация становится критической. Поэтому важную роль играют различные методы ускорения сходимости итерационной процедуры. В § 5.6 , стр. 148 , при рассмотрении метода последовательных прибли- жений мы получили следующую итерационную схему: x k+1 = x k + a k ?t + b k ? k ? ?t + b 0 k b k (? 2 k ? 1) ?t 2 + b 0 k a k ? k (?t) 3/2 + a 0 k b k ? a k b 0 k " ? 3 2 ? k + 1 2 ? k # (?t) 3/2 ? 3 + a 0 k a k (?t) 2 2 , где a 0 k = a 0 (x k ) , b 0 k = b 0 (x k ) , а ? ? N(0, 1) случайная величина, стати- стически не зависящая от ?. Добавление к схеме Эйлера второй строки называется схемой Милстейна. Третья строка является следующим при- ближением по времени, и добавление еј мы будем называть модифициро- ванной схемой Милстейна. Новое случайное число ? k возникает благо- даря интегралу от винеровской траектории S t , который, являясь случай- ным процессом, зависит от формы W t , поэтому не определяется только значением W t = ? ? t в момент времени t. Случайная величина ? пропор- циональна площади отклонения от трапеции, соединяющей начальное и конечное значения винеровского процесса на интервале [t, t + ?t] (см. § 5.1 , стр. 124 ). 256 Глава 9. Рассмотрим программу, вычисляющую средние ошибки при использо- вании модифицированной схемы Милстейна # include " stat .cpp" // файл с RndG ( ) const int nex = 10000; // количество экспериментов void main () { SRnd ( time (0)); // "встряхиваем " генератор Float x0 =1; // начальное значение x Float t0 =0, t1 =1; // начальное и конечное время Float err[nex ]; // квадраты ошибок for( Float dt =0.01; dt >=0.0001; dt *=0.1){ Float sqrt_dt = sqrt (dt ); for(int ex =0; ex Float x=x0 , t=t0 , w=0; while (t x += x*dt + x*r* sqrt_dt + 0.5* x*(r*r -1)* dt + x*r*dt* sqrt_dt + 0.5* x*dt*dt; w += r; t += dt; } w*= sqrt_dt ; err[ex] = fabs (x-x0*exp(w +0.5* t)); } Float av = Aver (err ,nex ); Float si = Sigma (err ,nex )/ sqrt (nex ); printf (" %12.8 f\t %12.8 f\t %12.8 f\n",dt ,av ,si ); } } В данном случае использовано логарифмическое блуждание dx = x dt + x ?W. Во внешнем цикле происходит табулирование временного шага ?t. Далее проводится nex экспериментов, для каждого из которых по итерационной схеме вычисляется значение случайного процесса в момент времени t1, которое сравнивается с точным x(t) = x 0 e W t +t/2 , которое зависит от значения винеровской переменной w в тот же момент времени. Компьютерное моделирование 257 Приведјм результаты для логарифмического блуждания на интервале времени t = [0...1]. Ниже в таблице приведены абсолютные отклонения траектории процесса от точного решения для различных временных ша- гов ?t и итерационных схем. Усреднение ошибок проводилось по 10000 экспериментам: Схема ?t = 10 ?2 ?t = 10 ?3 ?t = 10 ?4 Эйлера E E 1.6·10 ?1 4.9·10 ?2 1.5·10 ?2 Милстейна E M 2.7·10 ?2 2.6·10 ?3 2.5·10 ?4 Модифицированная E 2 8.7·10 ?3 9.0·10 ?4 9.0·10 ?5 При постоянном применении итерационной схемы ошибка со временем накапливается, и с ростом t достаточно быстро увеличивается. Этот рост является экспоненциальным, и на интервале t = [0.5, ..., 3] для схем Эй- лера, Милстейна и модифицированной Милстейна может быть аппрок- симирован функциями: E E = 0.39 e 1.33 t (?t) 1/2 , E M = 0.61 e 1.42 t ?t, E 2 = 0.23 e 1.34 t ?t. Естественно, константы в этих функциях зависят от вида уравнения, од- нако экспоненциальная зависимость от времени и степенная от шага ите- рационной схемы являются достаточно универсальными. Таким образом: 1) с увеличением диапазона времени t ошибки накапливаются очень быст- ро; 2) схемы Милстейна существенно лучше схемы Эйлера, их ошибка быстрее убывает с уменьшением интервала ?t. Ниже приведен пример динамики ошибок в виде их натурального ло- гарифма, как функции времени t для ?t = 10 ?2 и 10 ?3 . Прямые линии в этом масштабе означают экспоненциальную зависимость от t. y = 1.35x - 6.13 y = 1.33x - 8.39 y = 1.33x - 10.68 -12 -10 -8 -6 -4 -2 1 1.5 2 2.5 t ln E 2 t= 0.0001 t= 0.01 t= 0.001 На самом деле, логарифмическое блуждание, являясь линейной задачей, достаточно комфортно для любого численного моделирования, по край- ней мере, пока значения процесса в силу экспоненциального роста средне- го значения не сильно выросли. В частности, в модифицированной схеме Милстейна не задействован член со случайным числом ?. 258 Глава 9. 9.6 Вычисление средних Приведјм простой алгоритм вычисления средних характеристик про- цесса по совокупности выборочных траекторий. Для этого введјм мас- сивы среднего значения и волатильности, табулированные в num точ- ках. Для определения распределения вероятностей будем подсчитывать частоту попадания в данный момент времени траектории в один из m подынтервалов в интервале между min и max. Для этого введјм двух- мерный массив p. Первый его индекс будет соответствовать табулирован- ному с шагом step времени, а второй номеру интервала. Все эти объявления имеют вид: # include " stat .cpp" // файл с RndG ( ) inline Float a( Float x, Float t){ return 0; } // снос inline Float b( Float x, Float t){ return sqrt (1+x*x); } // волат . void main () { SRnd ( time (0)); // "встряхиваем " генератор Float x0 =0; // начальное значение x Float t0 =0; // в момент времени t Float step = 0.1; // шаг по времени для табуляции x const int num = 100; // число точек табуляцмм int lag = 1000; // дроблений шага Float dt= step /lag , sqrt_dt = sqrt (dt ); const int m = 100; // число точек гистограммы Float min =-1, max =1; // диапазон для гистограммы Float w=max -min; Float av[num +1] , di[num +1]; Float p[num +1][ m]; // гистрограмма for(int k=0; k <= num; k ++){ av[k]= di[k ]=0; for(int i=0; i av [0]= x0; di [0]=0; Дальше мы в цикле по ex проводим nex численных экспериментов, в каждом из которых создајм выборочную траекторию, и накапливаем среднее значение в массиве av и среднее квадрата в массиве di. Кроме этого, увеличиваем счјтчик попаданий в подынтервалы для вычисления гистограммы. Компьютерное моделирование 259 Продолжение программы выглядит следующим образом: int nex = 1000000; // количество выборочных траекторий for(int ex =1; ex <= nex; ex ++){ // эксперименты Float x=x0 , t=t0; for(int k=1; k <= num; k ++){ for(int j=0; j += a(x,t)* dt + b(x,t)* RndG ()* sqrt_dt ; av[k] += x; // с р е д н е е значение di[k] += x*x; // с р е д н е е квадрата int i=m*(x-min )/w; if(i >=0 && i if(ex %100==0 && ex !=1){ printf ("ex =%8d\n", ex ); FILE *out = fopen ("ito.out", "w"); for(int k=0; k <= num; k ++){ Float ak = av[k]/ ex; Float dk = di[k]/ex -ak*ak; dk = dk >0? sqrt (dk ): 0; fprintf (out ,"%g\t %12.5 f\t %12.5 f",k*step ,ak ,dk ); for(int i=0; i fprintf (out , "\n"); } fclose (out ); } } } Один раз в сто экспериментов (последний if) происходит вывод промежу- точных результатов в файл "ito.out". Для этого вычисляется остаток от деления номера эксперимента на 100 и вывод происходит, если он ра- вен нулю и это не первый эксперимент. В результате вычисления можно прервать в любой момент, получив некоторые промежуточные результа- ты. Если редактор просмотра файлов в операционной системе автомати- чески перегружает изменившийся файл, то в нјм можно просматривать динамику текущих вычислений. В файл выводятся: время, волатильность и распределение вероятно- стей. Каждая строка соответствует одному моменту времени. Заметим, что при выводе частот мы нормируем их таким образом, чтобы они рав- нялись плотности распределения вероятностей. При вычислении вола- тильности, на всякий случай, при взятии корня проверяется знак дис- персии. Вообще говоря, дисперсия всегда положительна, однако из-за ошибок округления, при нулевой ?, возможны очень маленькие отрица- тельные значения, которые могут вызвать сбой программы. 260 Глава 9. R: Стохастический справочник В приложении собраны основные формулы, связанные с одномерны- ми и многомерными стохастическими дифференциальными уравнения- ми. Приведены точные или асимптотически точные решения. В тех слу- чаях, когда уравнение обсуждалось в книге, делается сноска на соответ- ствующий номер страницы. 261 262 I Основные соотношения теории R 1 : Стохастическое дифференциальное уравнение определяется функ- циями сноса a(x, t) и волатильности b(x, t): dx = a(x, t) dt + b(x, t)?W, где ?W = ? ? t винеровский шум, а ? ? N(0, 1) гауссово случайное число с нулевым средним и единичной дисперсией. Итерационная схема: x k+1 = x k + a(x k , t k ) ?t + b(x k , t k ) ? ?t ? k Стартуем с x 0 = x(t 0 ) , и далее каждый раз генерим новое, независимое гауссово случайное число ? k R 2 : Дифференциал функции F = F (x, t), если x = x(t) случайный процесс, определяется леммой Ито (стр. 55 ): dF = ?F ?t + a(x, t) ?F ?x + b 2 (x, t) 2 ? 2 F ?x 2 dt + b(x, t) ?F ?x ?W. Стохастическое уравнение для F получаем после замены x = G(F, t), где G обратная к F функция. R 3 : Плотность условной вероятности P = P (x 0 , t 0 ? x, t) удовлетво- ряет уравнению Фоккера-Планка (стр. 107 ): ?P ?t + ? ?x a(x, t) P ? 1 2 ? 2 ?x 2 b 2 (x, t) P = 0 и первому уравнению Колмогорова (стр. 105 ): ?P ?t 0 + a(x 0 , t 0 ) ?P ?x 0 + 1 2 b 2 (x 0 , t 0 ) ? 2 P ?x 2 0 = 0. Уравнению Фоккера-Планка можно придать форму закона сохранения: ?P ?t + ?J ?x = 0, J (x, t) = a P ? 1 2 ? b 2 P ?x Возможны следующие граничные условия (стр. 110 ): ref lecting : J (a, t) = 0 absorbing : P (a, t) = 0 periodic : J (a, t) = J (b, t), P (a, t) = P (b, t). Если начальное условие x 0 задано точно, то P (x 0 , t 0 ? x, t 0 ) = ?(x ? x 0 ) R: Стохастический справочник 263 R 4 : Среднее от функции F = F (x, t) удовлетворяет уравнению (стр. 78 ): d hF i dt = ?F ?t + a(x, t) ?F ?x + b 2 (x, t) 2 ? 2 F ?x 2 В случае F = x и F = x 2 : ? hxi = ha(x, t)i , ? hx 2 i = 2xa(x, t) + b 2 (x, t) , где точка производная среднего по времени. Для линейного по x сноса уравнение для среднего hxi совпадает с детерминированным. R 5 : Важный класс точных решений можно найти (стр. 57 ), если уда- јтся подобрать функцию s(t), удовлетворяющую тождеству: 1 s(t) ? ?t s(t) b(x, t) = 1 2 ? 2 b(x, t) ?x 2 ? ? ?x a(x, t) b(x, t) Тогда, решая уравнения: ?F ?x = s(t) b(x, t) , ?F ?t + s(t) a(x, t) b(x, t) ? 1 2 ?b(x, t) ?x = f (t) находим F (x, t) и f(t), при помощи которых записываем решение: F x(t), t = F x(t 0 ), t 0 + t Z t 0 f (? ) d? + ? ? t Z t 0 s 2 (? ) d? ? ? 1/2 ?. R 6 : Решение x = f(t, ?), выраженное через случайную переменную ?, удовлетворяет уравнению (стр. 120 ): ? f = a(f, t) ? D 0 (f, t) 2 + D(f, t) 2 ?(?) f 0 + f 00 f 02 , где ?(?) = ?P 0 (?)/P (?) , и P (?) плотность вероятности для ?, точка производная по времени, штрих по ?, а D = b 2 , D 0 = ?D/?x . В случае гауссового распределения ?(?) = ?. Начальные условия x 0 = f (t 0 , ?) Уравнение для обратной функции ? = g(x, t): ?g = 1 2 ?D(x, t) ?x g 0 ? a(x, t)g 0 ? D(x, t) 2 ?(g) g 02 ? g 00 . Штрих теперь производная по x. 264 R 7 : Система стохастических уравнений n x m относительно перемен- ных состояния x = {x 1 , ..., x n } имеет вид: dx ? = a ? (x, t) dt + b(x, t) ?? ?W ? По повторяющемуся индексу, если иное не оговорено, предполагается суммирование. Стохастический шум ?W ? = ? ? ? dt выражается через m нескоррелированных гауссовых чисел: ? ? = {? 1 , ..., ? m } R 8 : Лемма Ито (стр. 157 ) для функции n + 1 переменных F = F (x, t): dF = ?F ?t + ?F ?x i a i + 1 2 ? 2 F ?x i ?x j b i? b j? dt + ?F ?x i b i? ?W ? Матричная форма (b T транспонирование, Tr след матрицы): dF = ?F ?t + ?F ?x · a + 1 2 Tr b T · ? 2 F ?x 2 · b dt + ?F ?x · b · ?W, R 9 : Уравнение Фоккера - Планка (стр. 158 ) для P = P (x 0 , t 0 ? x, t) : ?P ?t + ?(a i P ) ?x i ? 1 2 ? 2 ?x i ?x j h b i? b j? P i = 0. Функции сноса и волатильности зависят от текущего значения x и вре- мен: a i = a i (x, t) , b i? = b i? (x, t) Первое уравнение Колмогорова для P = P (x 0 , t 0 ? x, t) : ?P ?t + a i ?P ?x 0i + b i? b j? 2 ? 2 P ?x 0i ?x 0j = 0. где x 0 = {x 01 , ..., x 0n } переменные начального условия, в которых вы- числены снос и волатильность a i = a i (x 0 , t 0 ) , b i? = b i? (x 0 , t 0 ) R 10 : Уравнение Фоккера-Планка имеет вид закона сохранения: ?P ?t + ?J i ?x i = 0, J i = a i P ? 1 2 ? ?x j h b i? b j? P i Вероятность p(t) нахождения в объјме V , окруженном поверхностью S: p(t) = Z V P (x, t)dV, dp dt = ? Z S JdS. Элемент площади dS перпендикулярен поверхности и направлен наружу. Вероятность p(t) уменьшается, если положителен поток из объјма. R: Стохастический справочник 265 R 11 : Динамические уравнения для средних (стр. 159 ): d F x(t), t dt = ?F ?t + a i ?F ?x i + 1 2 b i? b j? ? 2 F ?x i ?x j В частности, для среднего значения: ? hxi = ha(x, t)i и среднего квадрата: ? hx µ x ? i = hx µ a ? + x ? a µ + b ?? b µ? i . Свјртка по индексам: ? hx 2 i = 2 hx · ai + Tr b · b T R 12 : Как и в одномерном случае, некоторую систему стохастических уравнений можно попытаться свести к простому нестационарному слу- чаю (стр. 174 ), найдя матрицу s k? (t) , удовлетворяющую уравнению: ? ?t s k? (t) b ?1 ?i + s k? (t) ? ?x i b ?1 ?? a ? ? 1 2 ?b ?? ?x j b j? = 0. Тогда, найдя F (x, t) из уравнения: ?F k ?x i = s k? (t) b ?1 ?i и нестационарный снос: f k (t) = ?F k ?t + s k? b ?1 ?? a ? ? 1 2 s k? b ?1 ?? ?b ?? ?x j b j? , решение запишем в следующем виде: F k (x(t), t) = F k (x 0 , t 0 ) + t Z t 0 f k (? ) d? + S i? (t) ? ? , где ? ? нормированные независимые гауссовы случайные числа, а S i? (t) S j? (t) = t Z t 0 s i? (? )s j? (? ) d?. 266 II Процесс Винера R 13 : Винеровское блуждание является непрерывным пределом дис- кретной модели суммы n независимых нормально распределјнных слу- чайных величин. Если, начиная со значения W (0) = 0, в течение времени t произошло n гауссовых изменений и ?t = t/n, то при n ? ?: W t = (? 1 + ? 2 + ... + ? n ) ? ?t = ? ? n?t = ? ? t. Таким образом, в момент времени t процесс имеет гауссово распределе- ние с нулевым средним и дисперсией, равной t: W t ? N (0, t) R 14 : Средние винеровского процесса. hf (W t )i = D f ? ? t E hf (W t 1 , W t 2 )i = f ? 1 ? t 1 , ? 1 ? t 1 + ? 2 ? t 2 ? t 1 , где ? 1 , ? 2 , ... независимые гауссовы числа, а t 1 < t 2 < t 3 < .. В общем случае (t 0 = 0 , W (0) = 0): hf (W t 1 , .., W t n )i = * f ? 1 ? t 1 , ? 1 ? t 1 + ? 2 ? t 2 ? t 1 , ..., n X k=1 ? k pt k ? t k?1 + R 15 : Производящие функции для средних (t 1 < t 2 < t 3 < .. ). e p W t = e 1 2 p 2 t e p 1 W t1 +p 2 W t2 = e 1 2 (p 2 1 t 1 +p 2 2 t 2 +2p 1 p 2 t 1 ) e p 1 W t1 +p 2 W t2 +p 3 W t3 = e 1 2 (p 2 1 t 1 +p 2 2 t 2 +p 2 3 t 3 +2p 1 (p 2 +p 3 )t 1 +2p 2 p 3 t 2 ) e p 1 W t1 +p 2 W t2 +p 3 W t3 +p 4 W t4 = e 1 2 (p 2 1 t 1 +p 2 2 t 2 +p 2 3 t 3 +p 2 4 t 4 ) · e 1 2 (2p 1 (p 2 +p 3 +p 4 )t 1 +2p 2 (p 3 +p 4 )t 2 +2p 3 p 4 t 3 ) R 16 : Некоторые средние значения (t 1 < t 2 < t 3 < .. ). W 2n t = 1 · 3 · 5 · ... · (2n ? 1) · t n , W 2n+1 t = 0. двуточечные: hW t 1 W t 2 i = t 1 , W 2 t 1 W 2 t 2 = 2t 2 1 + t 1 t 2 , W 3 t 1 W 3 t 2 = 6t 3 1 + 9t 2 1 t 2 Если сумма степеней нечјтна, то: W n t 1 W m t 2 = 0, n + m = 1, 3, 5, 7, ... R: Стохастический справочник 267 R 17 : Разложение Палея-Винера (на интервале t = [0..T ]): W (t) = ? 0 t ? T + ? 2T ? X k=1 ? k sin(?k t/T ) ?k R 18 : Разложение Кархунена-Лоэва (на интервале t = [0..T ]): W (t) = ? 2T ? X k=0 ? k sin ?(k + 1/2) t/T ?(k + 1/2) R 19 : Винеровское блуждание со сносом (стр. 48 ): dx = µ dt + ? ?W является базовым процессом, имеющим постоянные снос µ и волатиль- ность ?. Его решение с начальными условиями x 0 = x(t 0 ) имеет вид: x(t) = x 0 + µ · (t ? t 0 ) + ? ? ? t ? t 0 Среднее значение и волатильность ? 2 x = (x ? Ї x) 2 : Ї x(t) = x 0 + µ · (t ? t 0 ), ? x (t) = ? ? t ? t 0 Автоковариация: cov(t, t + ? ) = h(x t ? Ї x t )(x t+? ? Ї x t+? )i = ? 2 (t ? t 0 ). Условная плотность вероятности: P (x 0 , t 0 ? x, t) = 1 ? p2? (t ? t 0 ) exp ? (x ? x 0 ? µ · (t ? t 0 )) 2 2? 2 (t ? t 0 ) Эволюция плотности вероятности при µ = 1, ? = 1 в различные мо- менты времени: t=1 t=2 t=3 t=4 t=5 0 0.4 -10 -5 0 5 10 15 20 268 III Уравнения с линейным по x сносом, n = 1 Если снос и волатильность не зависят от времени, то решение не изме- нится при сдвиге начального момента. Поэтому ниже t 0 = 0 , и для его восстановления необходимо t ? t ? t 0 . Везде ? гауссова случайная ве- личина с h?i = 0, ? 2 = 1 . Начальное условие x 0 = x(t 0 ) . Если решение выражается через процесс Винера W t , это указывается явным образом. R 20 : Логарифмическое блуждание (стр. 58 ): dx = µ x dt + ? x ?W. Решение: x(t) = x 0 e( µ?? 2 /2 ) t+? W t Среднее значение и волатильность: Ї x(t) = x 0 e µt , ? x (t) = Ї x(t) p e ? 2 t ? 1. Автоковариация: cov(t, t + ? ) = x 2 0 e µ·(2t+? ) h e ? 2 t ? 1 i R 21 : Процесс Орнштейна - Уленбека (стр. 60 ): dx = ?? · (x ? ?) dt + ? ?W при ? > 0 описывает блуждание с притяжением к уровню ?. Решение уравнения: x(t) = ? + x 0 ? ? e ??t + ? ? 2? p 1 ? e ?2?t ?. Среднее значение и волатильность: Ї x(t) = ? + x 0 ? ? e ??t , ? x (t) = ? ? 2? p 1 ? e ?2?t Автоковариация: cov(t, t + ? ) = ? 2 x (t) e ??? При ? > 0 в стационарном пределе t ? ? спектральная функция: S(?) = ? 2 /? ? 2 + ? 2 Стационарное распределение для x имеет гауссову форму со средним значением Їx = ? и волатильностью ?/ ? 2? R: Стохастический справочник 269 R 22 : Процесс Винера с линейной волатильностью: dx = µ dt + ? x ?W. Среднее значение: Ї x(t) = x 0 + µ t Дисперсия (? = µ/? 2 ): ? 2 x (t) = h (x 0 + ?) 2 + ? 2 i e ? 2 t ? 1 ? 2µ (x 0 + ?) t ? µ 2 t 2 Процесс y = F (t, x, W ) = x e ?2 2 t??W t удовлетворяет стохастическому уравнению dy = µ e ?2 2 t??W t dt, потому интегральное представление ре- шения x(t) имеет вид: x(t) = e ? ?2 2 t+?W t ? ? x 0 + µ t Z 0 e ?2 2 s??W s ds ? ? Если W t = ? 1 ? t , то при малых ? для y справедливо разложение: x(t) = x 0 + µt ? ( ? 3? 1 + ? 2 ) µ? t 3/2 2 ? 3 + ... e ? ?2 2 t+?? 1 ? t , где ? 1 , ? 2 независимые гауссовы числа. R 23 : Феллеровское блуждание с постоянным сносом (стр. 87 ): dx = µ dt + ? ? x ?W. Решение: x(t) = x 0 + ? ? x 0 t ? + ? 2 t 2 u, где производящая функция для ?, u равна (см. R 69 ): e k ?+ p u = 1 (1 ? p) 2µ/? 2 exp k 2 /2 1 ? p Среднее значение и дисперсия процесса: Ї x(t) = x 0 + a t, ? 2 x (t) = ? 2 x 0 t + a t 2 2 270 R 24 : Процесс Феллера (стр. 82 , 168 ): dx = ?? · (x ? ?) dt + ? ? x ?W c начальным условием x 0 = x(0) и ? = ? 2 /2? имеет решение: x(t) = x 0 e ?? t + q 2x 0 ? e ?? t (1 ? e ?? t ) ? + ? 1 ? e ?? t u, где производящая функция для ? и u имеет вид (см. R 69 ): e k ?+ p u = 1 (1 ? p) ?/? exp k 2 /2 1 ? p Среднее значение и дисперсия процесса: Ї x(t) = ? + x 0 ? ? e ??t , ? 2 x (t) = ?? 1 ? e ??t 2 + 2x 0 ? 1 ? e ??t e ??t Автоковариационная и спектральная (при t ? ?) функции: cov(t, t + ? ) = ? 2 x (t) e ??? , S(?) = ?? 2 /? ? 2 + ? 2 Производящая функция для x: he p x i = 1 (1 ? p f 3 ) µ exp p f 1 1 ? p f 3 , где f 1 = x 0 e ??t , f 3 = ? (1 ? e ??t ) , а µ = ?/? = 2??/? 2 При ? > 0 существует стационарная плотность вероятности: P (x) = 1 ??(µ) x ? µ?1 e ?x/? Плотность вероятности при произвольном t: P (x 0 , 0 ? x, t) = e ?f 1 /f 3 f 3 I µ?1 2 ? xf 1 f 3 x f 1 µ?1 2 e ?x/f 3 , где I q (z) модифицированная функция Бесселя: I q (z) = ? X k=0 (z/2) 2k+q k!?(k + 1 + q) , удовлетворяющая уравнению: z 2 I 00 q (z) + zI 0 q (z) ? (z 2 + q 2 )I q (z) = 0. R: Стохастический справочник 271 R 25 : Процесс Орнштейна-Уленбека с линейной волатильностью: dx = ?? · (x ? ?) dt + ? x ?W. Среднее значение: Ї x(t) = ? + x 0 ? ? e ??t Дисперсия: ? 2 x (t) = ? 2 ? 2 2? ? ? 2 + 2?? 2 (x 0 ? ?) ? ? ? 2 e ??t ? (x 0 ? ?) 2 e ?2?t + x 2 0 ? 2? 2 ? 2? ? ? 2 + 2(x 0 ? ?)?? ? ? ? 2 e (?2?+? 2 )t При ? > 0 стремится к стационарному распределению с плотностью: P (x) ? x ?2?? exp ???/x, ? = 2? ? 2 Интегральное представление решения: x(t) = e ?(?+? 2 /2)t+?W t ? ? x 0 + ?? t Z 0 e (?+? 2 /2)s??W s ds ? ? R 26 : Линейный снос и волатильность (стр. 331 ): dx = (? + ?x) dt + (? + ?x) ?W. Среднее значение: x(t) = ? ? ? + x 0 + ? ? e ?t Среднее квадрата (?? = ? + ??, ? n = n ? + ? 2 ): x 2 (t) = 2 ? ?? ? ?? 2 ?? 2 ? 2 ? ?(? + ?x 0 ) ?? 1 e ? t + x 2 0 + 2 ? ?x 0 ? 1 + 2 ? ?? + ? 1 ? 2 ? 1 ? 2 e ? 2 t , R 27 : Броуновская ловушка (стр. 327 ): dx = ?? · (x ? ?) dt + ? · (x ? ?) ?W. Решение: x = ? + (x 0 ? ?) e ?(?+? 2 /2) t+? ? t? Среднее значение и волатильность: Ї x(t) = ? + (x 0 ? ?) e ??t , ? x (t) = |x 0 ? ?| e ??t p e ? 2 t ? 1. 272 R 28 : Отсутствие зависимости от x (стр. 56 ): dx = f (t) dt + s(t) ?W. Решение: x(t) = x(t 0 ) + t Z t 0 f (? ) d? + ? ? t Z t 0 s 2 (? ) d? ? ? 1/2 ?. Среднее значение и дисперсия: Ї x(t) = x(t 0 ) + t Z t 0 f (? ) d?, ? 2 x (t) = t Z t 0 s 2 (? ) d?. R 29 : Броуновский мост (стр. 63 ): dx = ? x ? ? T ? t dt + ? ?W. Решение с x 0 = x(t 0 ) : x(t) = ? + (x 0 ? ?) T ? t T ? t 0 + ? s (t ? t 0 )(T ? t) T ? t 0 ?. Среднее значение и дисперсия: Ї x(t) = ? + (x 0 ? ?) T ? t T ? t 0 , ? 2 x (t) = ? 2 (t ? t 0 )(T ? t) T ? t 0 R 30 : Степенной броуновский мост (стр. 63 ): dx = ?? · x ? ? T ? t dt + ? ?W. Решение с x 0 = x(t 0 ) : x(t) = ? + x 0 ? ? T ? (T ? t) ? + ? · (T ? t) 2? ? 1 1 ? (T ? t) 2??1 T 2??1 1/2 ?. R: Стохастический справочник 273 R 31 : Нестационарное логарифмическое блуждание dx = a(t) x dt + b(t) x ?W. Решение: x(t) = x 0 exp ? ? ? ? ? t Z 0 a(? ) ? 1 2 b 2 (? ) d? + ? ? t Z 0 b 2 (? ) d? ? ? 1/2 ? ? ? ? ? ? Среднее значение: Ї x(t) = x 0 exp t Z 0 a(? ) d?. 274 IV Уравнения с нелинейным по x сносом, n = 1 R 32 : Логарифмический процесс Орнштейна-Уленбека (стр. 327 ): dx = ?? x · ln x ? ? 1 dt + ? x ?W. Решение: ln x(t) ? = 1 ? ? 2 2? + ln x 0 ? ? 1 + ? 2 2? e ??t + ? ? 2? p 1 ? e ?2?t ?. Среднее значение: Ї x(t) = ? exp 1 ? ? 2 2? + ln x 0 ? ? 1 + ? 2 2? e ??t + ? 2 4? 1 ? e ?2?t R 33 : Логистическое уравнение x (стр. 89 ): dx = (?x ? ?x 2 ) dt + ?x ?W удобно рассматривать в безразмерном виде: dx = x (1 ? x) dt + p 2? x ?W, где ? = ? 2 /2? . Переход к исходному уравнению осуществляется замена- ми t ? ?t, x ? (?/?)x, x 0 ? (?/?)x 0 . Разложение в ряд по t среднего: x x 0 = 1 + 1 ? x 0 t + 1 ? (3 + 2?)x 0 + 2x 2 0 t 2 2! + 1 ? (7 + 10? + 4? 2 ) x 0 + (12 + 16?) x 2 0 ? 6x 3 0 t 3 3! + .. При ?, ? > 0 существует стационарное распределение (t ? ?) с плотно- стью вероятности: P (x) = 1 ??(µ) x ? µ?1 e ?x/? где µ = (1??)/?. Средние значения и волатильность в асимптотическом пределе t ? ?: hxi = 1 ? ?, x 2 = hxi , ? 2 x = ? (1 ? ?) . Решение можно выразить через стохастический интеграл: x(t) = x 0 e (1??) t+ ? 2? W t ? ? 1 + x 0 t Z 0 e (1??) ? + ? 2? W ? d? ? ? ?1 R: Стохастический справочник 275 R 34 : Рэлеевский процесс dx = ? x ? ?x dt + ? ?W. Среднее квадрата: x 2 (t) = x 2 0 e ?2?t + 2? + ? 2 2? 1 ? e ?2?t . Стационарная плотность вероятности (? = (?/? 2 ) + 1/2 ): P (x) = 2(?/? 2 ) ? ? (?) x 2?/? 2 e ??x 2 /? 2 Асимптотически стационарные средние: x = ? ? ? ?(? + 1/2) ?(?) , x 2 = 2? + ? 2 2? R 35 : Нелинейный снос с волатильностью ? x dx = ? 2 4 + ? ? x + 2?x dt + ? ? x ?W. Решение с x 0 = x(0) , ? > 0: x(t) = ? x 0 e ?t + ? 2? e ?t ? 1 + ? ? 8? p e 2?t ? 1 ? 2 R 36 : Степенное уравнение dx = ? m 2 ? 2 x 2k?1 dt + ? x k ?W. Если m и k целые числа, то уравнение для средних: ? x n = n(n ? m ? 1) 2 ? 2 x n+2k?2 при n = m + 1: x m+1 = x m+1 0 . Например, (? = ?x 0 ): dx = ? ? 2 x 3 dt + ? x 2 ?W => hxi = x 0 1 ? ? 2 t dx = ?2? 2 x 3 dt + ? x 2 ?W => hxi = x 0 1 ? 2? 2 t + 3? 4 t 2 dx = ?3? 2 x 3 dt + ? x 2 ?W => hxi = x 0 1 ? 3? 2 t + 9? 4 t 2 ? 15? 6 t 3 Квадратичная волатильность ?x 2 слишком сильная, и решение не удер- живается у равновесного в детерминированном случае уровня x = 0. 276 R 37 : Деформация винеровского процесса Для дифференцируемой функции G(x) (штрих производная по x): dx = 1 G 0 (x) µ + ? 2 2 1 G 0 (x) 0 dt + ? G 0 (x) ?W. Решение c x 0 = x(0) , W t = ? ? t : G(x) = G(x 0 ) + µ t + ? W t Решения в R 38 ? R 43 получаются или при помощи алгоритма со стр. 57 , или при соответствующем выборе функции G(x). R 38 : Степенные снос и волатильность с ? 6= 1 dx = h µ x ? + ? 2 ? 2 x 2??1 i dt + ? x ? ?W. Решение с x 0 = x(0) , W t = ? ? t : x(t) = x 1?? 0 + (1 ? ?) (µ t + ? W t ) 1/(1??) В частности: dx = 3 x 1/3 dt + 3 x 2/3 ?W. имеет решение: x(t) = h x 1/3 0 + W t i 3 и средние (? = t/x 2/3 0 ): x = x 0 1 + 3? x 2 = x 2 0 1 + 15? + 45? 2 + 15? 3 x 3 = x 3 0 1 + 36? + 378? 2 + 1260? 3 + 945? 4 x 4 = x 4 0 1 + 66? + 1485? 2 + 13860? 3 + 51975? 4 + 62370? 5 + 10395? 6 . При x 0 = 1 и t = 1: x = 4, x 2 = 76 , x 3 = 2620 , x 4 = 140152 R 39 : Квадрат винеровского блуждания dx = (2µ ? x + ? 2 ) dt + 2? ? x ?W. Решение x = (x 1/2 0 + µt + ? W t ) 2 R: Стохастический справочник 277 R 40 : Снос, пропорциональный волатильности dx = (µ ? ? 2 x) (? 2 ? x 2 ) dt + ? · (? 2 ? x 2 ) ?W. Решение с x 0 = x(0) , W t = ? ? t : x = ? th ath x 0 ? + ? · (µt + ? W t ) , где ath гиперболический арктангенс. R 41 : Снос, пропорциональный волатильности-2 dx = (µ + ? 2 x) (? 2 + x 2 ) dt + ? · (? 2 + x 2 ) ?W. Решение с x 0 = x(0) , W t = ? ? t : x = ? tg arctg x 0 ? + ? · (µt + ? W t ) , R 42 : Cинус dx = µ p ? 2 ? x 2 ? ? 2 2 x dt + ? p ? 2 ? x 2 ?W. Решение с x 0 = x(0) , W t = ? ? t : x = ? sin arcsin x 0 ? + ? · (µt + ? W t ) , R 43 : Гиперболический синус dx = µ p ? 2 + x 2 + ? 2 2 x dt + ? p ? 2 + x 2 ?W. Решение с x 0 = x(0) , W t = ? ? t : x = ? sh ash x 0 ? + ? · (µt + ? W t ) , где ash(x)-гиперболический арксинус. 278 R 44 : Асимптотический Коши dx = ? p ? 2 + x 2 ?W. Среднее значение и дисперсия: x = x 0 , ? 2 x (t) = (? 2 + x 2 0 ) e ? 2 t ? 1 При t ? ? плотность вероятности стремится к распределению Коши: P (x) = ?/? ? 2 + x 2 R: Стохастический справочник 279 V Системы уравнений с одинаковым шумом R 45 : Линейное уравнение: dx = ?W dy = x ?W. Решение получается по формуле Ито заменой F = y ? x 2 /2 : x = x 0 + ? ? t y = y 0 + x 0 ? ? t + 1 2 (? 2 ? 1) t. Волатильности: ? 2 x = y 2 0 t + t 2 2 , ? 2 y = t. R 46 : Броуновское движение на спирали: dx = µ x dt ? ?y ?W dy = µ y dt + ?x ?W. Решение получается переходом к комплексному z = x + iy: x = x 0 cos(? W t ) + y 0 sin(? W t ) e (µ+? 2 /2)t y = y 0 cos(? W t ) ? x 0 sin(? W t ) e (µ+? 2 /2)t R 47 : Линейный снос с одинаковым шумом: dx = (? 1 + ? 1 x + ? 1 y) dt + ? 1 ?W dy = (? 2 + ? 2 x + ? 2 y) dt + ? 2 ?W. 280 VI Системы дифференциальных уравнений Если явным образом не указан знак суммирования и не оговорено противное, по повторяющимся индексам предполагается суммирование. R 48 : Нестационарное блуждание (стр. 172 ): dx i = f i (t) dt + s i? (t) ?W ? Решение: x i (t) = Ї x i (t) + S i? (t) ? ? , где среднее значение и матрица дисперсии: Ї x i (t) = x i (t 0 ) + t Z t 0 f i (? ) d?, D ij = S i? S j? = t Z t 0 s i? (? )s j? (? ) d? полностью определяют производящую функцию: he p·x i = e p·Ї x+ 1 2 p·D·p R 49 : Линейное уравнение в n измерениях x = {x 1 , ..., x n } (стр. 164 ): dx = A · x dt + B · ?W, где A и B постоянные матрицы, начальное условие: x 0 = x(0) x(t) = e At · x 0 = X k µ k u (k) e a k t , x 0 = X k µ k u (k) , где A · u (k) = a € k u (k) . Дисперсия D ?? = h(x ? ? Ї x ? )(x ? ? Ї x ? )i : ? D = A · D + D · A T + B · B T В стационарном режиме при ?D = 0. В общем случае D(t): D(t) = t Z 0 e A(t?? ) B B T e A T (t?? ) d?. Матрица e At находится из выражения для средних e At ?? = ? Ї x ? /?x 0? Решение через n независимых гауссовых чисел = {? 1 , ..., ? n } : x(t) = Ї x(t) + S · , D = S · S T , he p·x i = e p·Ї x+ 1 2 p·D·p Автоковариация: cov ?? (t, t + ? ) = hx ? (t)x ? (t + ? )i ? hx ? (t)i hx ? (t + ? )i = D(t) e A T ? R: Стохастический справочник 281 R 50 : Затухающий осциллятор n = 2 (стр. 160 ): dx = (?? x ? ? y) dt + ? ?W x dy = (+? x ? ? y) dt + ? ?W y Средние значения: x(t) = e ??t (x 0 cos ?t ? y 0 sin ?t) y(t) = e ??t (x 0 sin ?t + y 0 cos ?t). Полное решение x ? = {x, y} , выраженное через две независимые гауссо- вы переменные ? = {? x , ? y } : x(t) = x(t) + ? ? 2? ? x p 1 ? e ?2?t y(t) = y(t) + ? ? 2? ? y p 1 ? e ?2?t Матрица дисперсий D ?? = h(x ? Ї x) ? (x ? Ї x) ? i диагональна: D 11 (t) = D 22 (t) = ? 2 2? 1 ? e ?2?t , D 12 (t) = D 21 (t) = 0. Автоковариационная матрица: cov(t, t + ? ) = ? 2 2? 1 ? e ?2?t e ??? cos ?? sin ?? ? sin ?? cos ?? R 51 : Логарифмическое блуждание (стр. 173 ), суммы по i нет: dx i x i = µ i dt + n X j=1 ? ij ?W j Решение с начальным условием x 0i = x i (0) : x i (t) = x 0i exp ( µ i ? 1 2 n X j=1 ? 2 ij ! t + n X j=1 ? ij ? j ? t. ) Среднее значение: hx i (t)i = x 0i e µ i t Среднее значение квадрата: x 2 i (t) = x 2 0i exp ( 2µ i t + n X j=1 ? 2 ij t ) 282 VII Стохастические интегралы Ито R 52 : Определение. Интервал [0..t] разбит на n отрезков одинаковой длительности ?t = t k ? t k?1 , где t k = k ?t . При n ? ? и ?t ? 0 имеем конечный предел: n ?t = t. Значения подынтегральной функции вычис- ляются в начале отрезков. Сокращение f s (W s ) обозначает возможную зависимость функции от времени f(s, W s ) t Z 0 f s (W s ) ?W s = n X k=1 f t k?1 , W k?1 W k ? W k?1 . Можно считать, что W k ? W k?1 = ? k ? ?t независимые случайные ве- личины, а W k = (? 1 + ... + ? k ) ? ?t R 53 : Свойства линейности и разделимости t Z 0 ?f s (W s ) + ?g s (W s ) ?W s = ? t Z 0 f s (W s ) ?W s + ? t Z 0 g s (W s ) ?W s , где ? и ? некоторые константы. t 3 Z t 1 f s (W s ) ?W s = t 2 Z t 1 f s (W s ) ?W s + t 3 Z t 2 f s (W s ) ?W s Предполагается, что времена упорядочены t 1 < t 2 < t 3 R 54 : Лемма Ито F t (W t ) ? F 0 (W 0 ) = t Z 0 ?F s (W s ) ?s + 1 2 ? 2 F s (W s ) ?W 2 s ds + t Z 0 ?F s (W s ) ?W s ?W s Если функция не зависит от времени (F = F (W )): F (W t ) ? F (W 0 ) = 1 2 t Z 0 F 00 (W s )ds + t Z 0 F 0 (W s ) ?W s Интегрирование по частям (F = f(t) W ) t Z 0 f (s) ?W s = f (t) W t ? t Z 0 W s f 0 (s) ds. R: Стохастический справочник 283 R 55 : Средние значения для интегралов по W . При усреднении исполь- зуются независимые гауссовы числа ? 1 , ? 2 , ... ? N (0, 1) * t Z 0 f s (W s ) ?W s + = 0. Среднее квадрата интеграла: * ? ? t Z 0 f s (W s ) ?W s ? ? 2 + = t Z 0 D f 2 s (? ? s) E ds. Для двух интегралов с различными подынтегральными функциями: * t 1 Z 0 f s (W s ) ?W s t 2 Z 0 g ? (W ? ) ?W ? + = min(t 1 ,t 2 ) Z 0 D f s ? ? s g s ? ? s E ds. R 56 : Средние значения для интегралов по времени. При усреднении используются независимые гауссовы числа ? 1 , ? 2 , ... ? N (0, 1) * t Z 0 f s (W s ) ds + = t Z 0 D f s (? ? s) E ds. Среднее значение от квадрата интеграла: * ? ? t Z 0 f s (W s ) ds ? ? 2 + = 2 t Z 0 ds s Z 0 d? D f ? ? 1 ? ? f s ? 1 ? ? + ? 2 ? s ? ? E Момент k?того порядка: * ? ? t Z t 0 f s (W s ) ds ? ? k + = k! t Z t 0 dt k t k Z t 0 dt k?1 t 2 Z t 0 dt 1 D k Y j=1 f t j j X i=1 ? i pt i ? t i?1 E Произведение с функцией от процесса Винера: * g t (W t ) t Z 0 f s (W s ) ds + = t Z 0 D g t ? 1 ? s + ? 2 ? t ? s f s ? 1 ? s E ds. 284 R 57 : Базовые интегральные процессы. Далее, помимо винеровского W t = ? ? t , рассматриваются процессы: S t = t Z 0 W ? d? = ? t 3/2 ? 3 , U t = t Z 0 W 2 ? d? = ? t 2 Случайные величины ?, ? ? N(0, 1) и ? имеют производящие функции: e q ?+k ? = e (q 2 + ? 3 qk+k 2 )/2 , e p ? = 1 p cos ( ? 2p) В общем случае для совместной функции e q ?+k ?+p ? справедливо выра- жение: exp n q 2 2 tg( ? 2p) ? 2p + k 2 2 3 2p h tg( ? 2p) ? 2p ? 1 i + ? 3 2 kq 2 2p h 1 cos( ? 2p) ? 1 io p cos( ? 2p) Средние значения: ? = 1 2 , ? 2 = 7 12 , ? 3 = 139 120 , ? 4 = 5473 1680 , ? 5 = 51103 4320 Смешанные средние: ? ? = ? 3 2 , ? 2 ? = ? ? 2 = 0, ? 3 ? = ? ? 3 = 3 ? 3 2 ? 2n+1 ? = 0, ? 2 ? = 7 6 , ? 4 ? = 11 2 ? 2n+1 ? = 0, ? 2 ? = 13 10 , ? 4 ? = 63 10 Если ? 1 ? N (0, 1) , независимая от ?, то: S t = W t 2 t + ? 1 t 3/2 2 ? 3 Автоковариационные средние: W t W t+? = t, S t S t+? = t 3 3 + t 2 2 ? R: Стохастический справочник 285 R 58 : Элементарные интегралы по dt. t Z 0 W ? d? = S t t Z 0 W 2 ? d? = U t t Z 0 S ? d? = (t + 1) S t ? t W t R 59 : Элементарные интегралы по ?W . t Z 0 ?W ? = W t t Z 0 W ? ?W ? = 1 2 (W 2 t ? t) t Z 0 W 2 ? ?W ? = 1 3 W 3 t ? S t t Z 0 W 3 ? ?W ? = 1 4 W 4 t ? 3 2 U t t Z 0 ? ?W ? = t W t ? S t t Z 0 ? W ? ?W ? = t 2 W 2 t ? t 2 4 ? 1 2 U t 286 R 60 : Интегрируемая функция f(t) зависит от времени. t Z 0 f (s) ?W s = ? 1 ? 1 , t Z 0 f (s)W s ds = ? 2 ? 2 , где дисперсии процессов равны: ? 2 1 = t Z 0 f 2 (s) ds, ? 2 2 = t Z 0 h t Z s f (? ) d? i 2 ds, а ? 1 и ? 2 нормированные скоррелированные гауссовы величины. Если процесс Винера W t = ? ? t , то коэффициенты корреляции равны: ? ? 1 = ? 1 = 1 ? 1 ? t t Z 0 f (s) ds, ? ? 2 = ? 2 = 1 ? 2 ? t t Z 0 h t Z s f (? ) d? i ds, ? 1 ? 2 = ? = 1 ? 1 ? 2 t Z 0 f (s) h t Z s f (? ) d? i ds, Для степенной функции f(t) = t n : t Z 0 s n ?W s = t n+1/2 ? 1 + 2n ? 1 , t Z 0 s n W s ds = ? 2 t n+3/2 ? 6 + 7n + 2n 2 ? 2 , с корреляционными коэффициентами: ? 1 = ? 1 + 2n 1 + n , ? 2 = ? 6 + 7n + 2n 2 ? 2(2 + n) , 2? = 2 + n 1 + n ? 1 ? 2 Представление зависимых случайных величин ? 1 , ? 2 через ? и пару независимых от неј и друг друга гауссовых чисел ? 1 , ? 2 : ? 1 = ? 1 ?+ q 1 ? ? 2 1 ? 1 , ? 2 = ? 2 ?+ ? ? ? 1 ? 2 p1 ? ? 2 1 ? 1 + s 1 ? ? 2 2 ? (? ? ? 1 ? 2 ) 2 1 ? ? 2 1 ? 2 R: Стохастический справочник 287 R 61 : Некоторые средние для интеграла: t Z 0 W n (? ) d? = ? n t 1+n/2 Простые средние: h? 2n i = 1 · 3 · 5 · ... · (2n ? 1) n + 1 , h? 2n+1 i = 0. Моменты для ? 1 : h? 1 i = 0, ? 2 1 = 1 3 , ? 3 1 = 0, ? 4 1 = 1 3 , ? 5 1 = 0, ? 6 1 = 5 9 Моменты для ? 2 : h? 2 i = 1 2 , ? 2 2 = 7 12 , ? 3 2 = 139 120 , ? 4 2 = 5473 1680 , ? 5 2 = 51103 4320 Моменты для ? 3 : h? 3 i = 0, ? 2 3 = 9 5 ? 3 3 = 0, ? 4 3 = 41877 350 R 62 : Некоторые средние для интеграла: W m (t) t Z 0 W n (? ) d? = ? m,n t m+n 2 +1 Средние значения случайной величины ? m,n : h? n,m i = 0, n + m = 2k + 1 = 1, 3, 5, ... Не нулевые средние: h? 1,1 i = 1 2 , h? 2,2 i = 7 6 , h? 1,3 i = 1 h? 3,1 i = 3 2 h? 1,5 i = 15 4 , h? 2,4 i = 4, h? 3,3 i = 9 2 , h? 4,2 i = 11 2 , h? 5,1 i = 15 2 288 R 63 : Формула Ито для n-кратного интеграла t Z 0 ? ? t 4 Z 0 ? ? t 3 Z 0 ? ? t 2 Z 0 ?W t 1 ? ? ?W t 2 ? ? ?W t 3 ? ? ?W t n = t n/2 n! h n W t ? t , где h n (z) полиномы Эрмита: h n (z) = (?1) n e z 2 /2 d n e ?z 2 /2 dz n В частном случае n = 2 t Z 0 ? ? s Z 0 ?W ? ? ? ?W s = t Z 0 W s ?W s = t 2/2 2! h 2 W t ? t = 1 2 (W 2 t ? t). R 64 : Дифференциал произведения двух произвольных процессов x(t),y(t): d(xy) = x dy + y dx + dx dy, или в интегральной форме: t Z 0 x s dy s = x t y t ? x 0 y 0 ? t Z 0 y s dx s ? t Z 0 dx s dy s R 65 : Неравенства: Dh t 2 Z t 1 f s (W s ) ?W i 4 E 6 36 (t 2 ? t 1 ) t 2 Z t 1 f 4 s (W s ) dt Dh ? Z 0 f s (W s ) ?W i 4 E 6 36 Dh ? Z 0 f 2 s (W s ) dt i 2 E R: Стохастический справочник 289 290 VIII Скалярные случайные величины R 66 : Нормальное распределение: P( ) 0 0.40 0.24 0.05 1 -1 -2 2 P (?) = 1 ? 2? e ? 1 2 ? 2 Производящая функция: he p ? i = e p 2 /2 Средние значения: ? 2n = (2n)! 2 n n! = 1 · 3 · 5 · ... · (2n ? 1), ? 2n+1 = 0. В частных случаях: ? 2 = 1, ? 4 = 3, ? 6 = 15, ? 8 = 105, ? 10 = 945. Вероятность отклонения от среднего: ? n = n Z ?n P (?) d?, ? 1 = 0.6827, ? 2 = 0.9545, ? 3 = 0.9973. R 67 : Гамма-распределение: P(x) x x max x P (x) = 1 ??(µ) x ? µ?1 e ?x/? Производящая функция: he p x i = 1 (1 ? ?p) µ Средние значения: hxi = µ?, x 2 = µ(µ + 1)? 2 , hx n i = µ · (µ + 1) · ... · (µ + n ? 1) ? n Положение максимума: x max = (µ ? 1)? , асимметрия 2/ ? µ , эксцесс 6/µ. R: Стохастический справочник 291 R 68 : ? 2 - распределение с n степенями свободы. Сумма квадратов независимых гауссовых случайных чисел: u = ? 2 1 + ... + ? 2 n подчиняется гамма-распределению с µ = n/2, ? = 2: P n (u) = 1 2 n/2 ?(n/2) u n/2?1 e ?u/2 Производящая функция: he p x i = 1 (1 ? 2p) n/2 Средние значения: hui = n, u 2 = 2n + n 2 R 69 : Смесь ? 2 и нормального распределений. Для n независимых гауссовых чисел определим: ? = ? 1 + ... + ? N ? N , u = ? 2 1 + ... + ? 2 N ? 2 Обозначая µ = N/2, запишем производящую функцию и плотность ве- роятности при u > ? 2 /2 (при u < ? 2 /2 , P (?, u) = 0): e k ?+ p u = 1 (1 ? p) µ exp k 2 /2 1 ? p P (?, u) = e ?u u ? ? 2 /2 µ?3/2 ?(µ ? 1/2) ? 2? Средние по ? это Гаусс, по u гамма с ? = 1: ? 2n = 1 · 3 · 5 · ... · (2n ? 1), ? 2n+1 = 0. hu n i = µ(µ + 1) · ... · (µ + n ? 1). Средние смешанных произведений: h?ui = 0 ? 2n+1 u m = 0, ? 2 u = 1 + µ, ? 4 u = 3(2 + µ), ? 2 u 2 = 2 + 3µ + µ 2 , ? 4 u 2 = 3(6 + 5µ + µ 2 ), ? 2 u 3 = 6 + 11µ + 6µ 2 + µ 3 , ? 4 u 3 = 3(24 + 26µ + 9µ 2 + µ 3 ), ? 4 u 4 = 3(120 + 154µ + 71µ 2 + 14µ 3 + µ 4 ). 292 IX Некоторые полезные соотношения R 70 : Гауccовы интегралы ? Z ?? e ??x 2 +?x dx = r ? ? e ? 2 /4? ? Z ?? e ??x 2 ??/x 2 dx = r ? ? e ?2 ? ?? ? Z ?? e ??(x?x 1 ) 2 ?? (x?x 2 ) 2 dx = r ? ? + ? e ???(x 2 ?x 1 ) 2 /(?+?) R 71 : Интеграл вероятностей erf(z) = 2 ? ? z Z 0 e ?x 2 dx. Свойства: erf(?z) = ? erf(z), erf(?) = 1, erf(0) = 0. Представление в виде рядов: erf(z) = 2 ? ? ? X n=0 (?1) n n! z 2n+1 2n + 1 = 2 ? ? e ?z 2 ? X n=0 2 n 1 · 3 · ... · (2n + 1) · z 2n+1 Общий гауссовый интеграл: ? Z 0 e ?? x 2 +?x dx = 1 2 r ? ? e ? 2 /4? 1 + erf ? 2 ? ? R: Стохастический справочник 293 R 72 : Гамма-функция, Re z > 0 ? Z 0 x z?1 e ?x dx = ?(z). Свойства гамма-функции: ?(n + 1) = n!, ?(1/2) = ? ?, ?(z + 1) = z ?(z), ?(z)?(1 ? z) = ? sin(?z) , ?(2z) = 2 2z?1 ? ? ?(z) ?(z + 1 2 ) Формула Стирлинга: n! ? ? 2?n n e n R 73 : Интегралы, сводящиеся к гамма-функции. Ниже B(p, q) = ?(p) ?(q)/?(p + q) бета-функция, и p > 0, q > 0: ? Z 0 x p?1 e ?a x q dx = ?(p/q) q a p/q ?/2 Z 0 (cos ?) 2p?1 (sin ?) 2q?1 d? = 1 2 B(p, q) 1 Z 0 (1 ? t) p?1 t q?1 dt = B(p, q) ? Z 0 z q?1 (1 + z) p+q dz = B(p, q) R 74 : Гиперболические функции. sh x = e x ? e ?x 2 , ch x = e x + e ?x 2 , th = e x ? e ?x e x + e ?x 294 M: Математические приложения В достаточно обширных приложениях содержатся важные факты из теории вероятностей, математического анализа и матричной алгебры. 295 296 I Теория вероятностей Вероятность характеризует частоту, с которой происходит событие. Если мы произвели некоторый опыт (испытание) n раз, и при этом со- бытие A произошло n A раз, то при больших n отношение p(A) = n A /n будет стремиться к определјнному значению. Понятно, что оно всегда положительно и меньше единицы: 0 6 p(A) 6 1. Не стоит путать незнание и вероятность. Вероятности легко опреде- ляются, если в задаче есть определјнная симметрия. Например, вероят- ность выпадания решки при подбрасывании монеты равна 1/2. Ана- логично для кости (кубика с шестью гранями) выпадение любой грани равновероятно и равно 1/6. Для европейской рулетки с 18-ю красными ячейками, 18-ю чјрными и одним зеро вероятность попадания шарика на любую из 37 ячеек, включая зеро, равна 1/37. Знание вероятностей позволяет легко подсчитывать, например, сред- ний доход в азартных играх или финансовых операциях. Если мы полу- чаем доходы R i > 0 или убытки R i < 0 с вероятностями p i , то наш доход в среднем будет составлять величину: Ї R = R 1 p 1 + R 2 p 2 + ... + R q p q = q X i=1 R i p i Смысл этой формулы очень прост. Если мы сделаем большое число по- пыток n, то среди них n 1 раз получим доход R 1 , n 2 доход R 2 , и т.д. Суммарный доход R tot = R 1 n 1 + ... + R q n q . Средний доход за одну игру Ї R равен R tot /n , а вероятности получить доход R i обозначаются через p i = n i /n Пример: Сравним доход, получаемый при использовании двух стратегий игры на рулетке: (1) ставим 1$ на ячейку; (2) ставим 1$ на цвет. При угадывании конкретной ячейки казино выплачивает 35$ на поставленный 1$ (вероятность этого 1/37), иначе (с вероятностью 36/37) ставка теряется. При угадывании цвета (18 ячеек) казино выплачивает 1$, иначе (остальные 19-ть ячеек) ставка теряется. Средний доход обе стратегии будут давать одинаковый: Ї R = (35$) · 1 37 ? (1$) · 36 37 = ? 1 37 $ Ї R = ( 1$) · 18 37 ? (1$) · 19 37 = ? 1 37 $, хотя понятно, что вторая чаще приносит приятные минуты выигрыша. M: Математические приложения 297 • Различают элементарные и составные события. Например, при броске кости элементарным событием будет выпадение одной из граней: {1} , {2}, {3}, {4}, {5}, {6}. Составное событие A=выпавшие очки де- лятся на три: {3, 6}, или B=выпало больше 4-х: {5, 6}. Таким образом, составные события состоят из элементарных. Два события называют несовместными или непересекающимися, ес- ли они не имеют ни одного общего элемента. При броске одной кости не может выпасть сразу и 1, и 5. Не может одновременно произойти A = {2, 4, 6} =чјтные очки и B = {1, 3, 5}=нечјтные очки. Для несов- местных событий A и B вероятность того, что произойдјт или одно, или другое, равна: p(A + B) = p(A) + p(B) . Действительно, если мы проводим опыт n раз, то событие A произойдјт n A раз, а событие B n B раз. Понятно, что составное событие или A, или B происходит n A+B = n A + n B раз (если они не могут произойти одновременно!). Все элементарные события A i составляют полную группу, т.е. все они попарно несовместны, а сумма их вероятностей равна единице. • Наглядно полную группу элементарных событий можно представить, как некоторое множество не пересекающихся друг с другом областей. При этом площадь каждой области пропорциональна вероятности дан- ного события: A Правило сложения вероятностей представляет собой суммирование пло- щадей таких областей. Составное событие A включает в себя несколько элементарных событий-областей, и p(A) равна сумме их вероятностей. Суммарная площадь всех элементарных событий равна единице. Если некоторое составное событие A имеет вероятность p(A), то вероятность того, что оно не произойдјт ( Ї A ), равна p( Ї A) = 1 ? p(A) 298 • Два сложных (составных) события A, B могут иметь общие эле- ментарные события. В этом случае мы говорим, что они пересекаются. Чтобы они совместно реализовались, необходимо наступление хотя бы одного элементарного события из их пересечения. Тот факт, что свершились и A, и B, обозначают как A · B. Совместное наступление этих двух событий называют также их пересечением. Аналогично, если произошло или A, или B, или оба, это означает, что случилось одно из элементарных событий из A или из B. Такое объеди- няющее логическое 'или' обозначают A + B, и говорят об объединении событий. Например, при броске кости события A=выпавшие очки делятся на три: {3,6}, и B=выпало больше 4-х: {5,6}, имеют пересечение A · B: {6} и объединение A + B: {3,5,6}. На рисунках ниже символически представлены операции пересечения A · B , объединения A + B и отрицания Ї A . Результат соответствующей операции обозначен тјмным цветом. p(A) 1-p(A) p(A) p(B) p(A+B) p(A B) p(A) p(B) Сравнивая заштрихованные площади несложно выразить вероятность события A+B (или A, или B, или оба) через вероятность одновременного наступления A · B (и A, и B): p(A + B) = p(A) + p(B) ? p(A · B) = 1 ? p( Ї A · Ї B). Действительно, вероятность события A + B равна суммарной площади p(A) и p(B) минус площадь их пересечения p(A · B), которую мы учиты- ваем дважды, один раз в p(A), другой раз в p(B) (см. первый рисунок выше). Аналогично доказывается более общее соотношение: p(A + B + C + ...) = 1 ? p( Ї A · Ї B · Ї C · ...). Другими словами, вероятность того, что произойдјт хотя бы одно собы- тие, меньше единицы на вероятность того, что не произойдјт ни одно из событий. M: Математические приложения 299 • Условная вероятность характеризует частоту наступления события A при условии, что произошло событие B: p(B ? A) = p(A · B) p(B) p(A) p(B) AB Чтобы произошло A при наступлении события B, необходимо свершение совместного события (A и B). Именно ему пропорциональна условная ве- роятность. Так как нам известно, что B произошло, то всј пространство элементарных вероятностей сжимается до размеров B. Но, поскольку его площадь не равна единице, мы для нормировки делим на p(B). Это можно представить себе и по-другому. Пусть мы провели n испы- таний, и из них событие B произошло n B раз, событие A n A , а одновре- менно они случились n AB раз. При вычислении условной вероятности нас интересует вероятность события A во всех ситуациях, когда происходило B . Отношение числа таких событий n AB к общему числу событий n B и дајт нам условную вероятность p(B ? A) = n AB /n B = (n AB /n)/(n B /n) Условная вероятность чрезвычайно важна, так как позволяет связать друг с другом разнообразные события, характеризуя причинно-следствен- ную связь. Мы говорим, что, если Центральный Банк поднимет учјтную ставку, то, скорее всего, фондовый рынок отреагирует падением. Оба события являются вероятностными, но они связаны друг с другом, и вероятность падения рынка повышается, если происходит подъјм про- центных ставок. Два события A и B называют независимыми, если вероятность со- бытия A не зависит от наступления события B и равна p(A) в любом случае. Для независимых событий p(B ? A) = p(A) = p(A · B)/P (B), и, следовательно, p(A · B) = p(A)p(B) . (6) Таким образом, независимость это, с одной стороны, достаточно специ- фическое соотношение между значениями вероятностей (площадей обла- стей), которые соответствуют событиям A, B, A · B. С другой стороны, это важнейшее свойство отсутствия между ними связи. Так, при броса- нии 2-х костей выпадение определјнной грани на каждой из них не зави- сит от другой. Поэтому вероятность получить, например, две единицы равна (1/6)(1/6) = 1/36. 300 II Векторный анализ Вектор это набор из n чисел a = (a 1 , ..., a n ) , которые называют ком- понентами вектора. Векторами являются: положение тела в простран- стве, его скорость, набор весовых коэффициентов, определяющих долю i -той акции в инвестиционном портфеле, значение ВВП, произведенное i? той страной, и т.д. Вектора можно складывать (покомпонентно), получая новый вектор: a + b = (a 1 + b 1 , ..., a n + b n ), и умножать на число µa = (µa 1 , ..., µa n ) . Для двух векторов вводится операция скалярного произведения, равная числу (скаляру): a · b = a 1 b 1 + a 2 b 2 + ... + a n b n = n X i=1 a i b i Соответственно, длина вектора: |a| = ? a · a = q a 2 1 + a 2 2 + ... + a 2 n , является n-мерным обобщением теоремы Пифагора. Косинус угла между двумя векторами определяется следующим образом: cos ? = a · b |a| |b| Если он равен нулю, то говорят, что векторы нормальны (перпендику- лярны) друг другу. Для нескольких скалярных произведений важна последовательность умножений, и в общем случае (a · b) · c 6= a · (b · c). Дело в том, что в первом случае мы умножаем вектор c на число (a·b), а во втором другой вектор a на число (b·c). Если c и a имеют различное направление, то умножением на число нельзя сделать их одинаковыми. К векторам, в общем случае, необходимо относиться, как к абстрактно- му набору из n чисел, для которых введены операции сложения и умно- жения на число, а также операция скалярного произведения. Например, вероятности всех элементарных событий можно рассматривать, как век- тор p = (p 1 , ..., p n ) , а условие нормировки записывать в виде p · u = 1, где u = (1, ..., 1). M: Математические приложения 301 • В двухмерном случае n = 2 в декартовых прямоугольных коорди- натах (x, y) вектор a = (a x , a y ) имеет простой геометрический смысл направленного отрезка с проекциями на оси x и y, равными a x и a y : С осями координат удобно связать два единичных (i 2 = j 2 = 1 ), нор- мальных (i · j = 0) вектора. Любой вектор тогда может быть разложен по этому базису (i, j): a = a x i + a y j, где a x = a 1 = a · i , a y = a 2 = a · j проекции вектора на оси x и y. Представив a и b в таком виде, несложно убедиться, что a · b = a x b x + a y b y Аналогично, в трјхмерном случае n = 3 вводят три единичных вза- имно перпендикулярных вектора i, j и k. Любой вектор в трјхмерном пространстве может быть по ним разложен: a = a x i + a y j + a z k Геометрически сложение векторов описывается правилом параллело- грамма, а умножение на число µ во столько же раз удлиняет вектор: |