Главная страница

Хулиномика 25. 2. 5 Финансовые рынки для тех, кто их в гробу видал


Скачать 1.68 Mb.
Название2. 5 Финансовые рынки для тех, кто их в гробу видал
Дата15.04.2022
Размер1.68 Mb.
Формат файлаpdf
Имя файлаХулиномика 25.pdf
ТипДокументы
#477383
страница9 из 26
1   ...   5   6   7   8   9   10   11   12   ...   26
9.2. Подстрахуй Напомню, что в х годах люди научились составлять актуарные таблицы. Это такие таблицы, где указана ожидаемая продолжительность жизни для данного возраста и пола. Люди начали собирать данные о смертности и делать вот эти актуарные расчёты, где оценивалась вероятность дожития человека до определённого возраста. И на этом уже строили тарифы на страхование.
Хотя в некотором виде страхование присутствовало ещё в Древнем Риме. У них там была похоронная страховка можно было купить такой полис, который бы защищал семью от недостатка денег на похороны. Они тогда очень переживали насчёт похорон, что не у кремлёвской стены закопают или ещё что. Выскажете ну вот же, придумали эту похоронную страховку, почему для всего остального-то не придумали А чёрт его знает. Вроде бы появлялось там что-то насчёт страховки от увечий на строительстве галер, но распространения не получило.
В эпоху Возрождения были кое-какие страховые контракты. Но если перевести тогдашний страховой полис на современный язык, очень трудно понять, что там имелось ввиду. То есть до концепции они вроде как и догадались, но сформулировать её по-человечески таки не смогли. Поэтому индустрии и не возникло. А появление теории вероятности как рази позволило её создать.
Некоторые соотносят появление страхования со знаменитым лондонским пожаром 1666 года. Весь город тогда сгорел к ебеням, и после этого люди начали покупать страховку. Но для развития страховой индустрии этот пример необычен — ведь если сгорит весь город, страховые конторы просто обанкротятся. Бизнес строится на независимых вероятностях и на сборе рисков в кучу. Нов любом случае, это было каким-никаким стартом. Хотя поговаривают, что страховые контракты появились лет на 60 раньше — в самом начале 17 века, но применялись они для морских перевозок.
Надо признать, что у страхования было трудное детство — как раз потому, что люди плоховато понимали концепцию вероятности. В голове им трудно было это удержать, как ивам сейчас. Тут много аспектов. Чтобы понять, как работает вероятность, надо сначала понять, что такое случайное событие, а интуитивно это непонятно. Многие люди думают, что они могут влиять на случайность каким-то образом. У меня есть товарищ, который думает, что чаще других выбрасывает шестёрки на кубиках. Если с таким подходом браться за освоение теорвера, будет беда.
9.3. История становления Первые задачи вероятностного характера возникли в азартных играх — в кости, в карты, в расшибалочку. Французский священник го века Ришар де
Фурниваль подсчитал всевозможные суммы очков после броска трёх костей — кому как не священнику играть в кости — и указал число способов, которыми может получиться каждая из этих сумм. Это число можно рассматривать как

89 первую вычислимую меру ожидаемости события — по-нашему, как раз вероятности. До Фурниваля, да и после него тоже, эту меру часто подсчитывали неверно, указывая, например, что суммы в 3 и 4 очка равновероятны. Ведь оба могут получиться как бы только одним способом по результатам броска три единицы и двойка с двумя единицами соответственно. Де Фурниваль не догонял, что хотя три единицы ив самом деле получаются только одним способом 1+1+1, двойку с двумя единицами можно выкинуть целыми тремя способами 1+1+2, 1+2+1 итак что эти события вовсе не равновероятны. Сумма в четыре очка выпадает в три раза чаще, хотя это тоже случается редко, в среднем лишь каждый й бросок. Аналогичные ошибки неоднократно встречались ив дальнейшей истории.
Экстравагантный математик го века Джероламо Кардано прославился тем, что вылечился от импотенции, после чего родил троих детей. Сильно впечатлился, стали сам врачевать, атак как человеком был умными странным, лечил он хорошо и нажил себе множество недругов. Его сын тоже прославился, так как дико отравил свою жену, из-за чего папаша окончательно свихнулся, составил гороскоп Иисуса Христа и попал в застенки инквизиции. Посвятил анализу игры содержательную книженцию Книга об игре в кости
(1526 год, опубликована посмертно.
Кардано провёл уже безошибочный анализ для значений суммы очков трёх костей и указал для разных событий ожидаемое значение доли благоприятных событий например, при бросании 3 кубиков доля случаев, когда значения всех трёх совпадают, равна 6/216 или 1/36. Вроде бы и очевидно, что их всего шесть — три единицы, три двойки, ну итак далее, всего
6 граней, но до этого (да и после) какие-то были проблемы у людей с этой концепцией.
Именно Джероламо Кардано предложил формулировку вероятности — что это число благоприятных исходов, делённое на число всех возможных исходов. Кардано сделал ещё одно весьма проницательное замечание при небольшом числе игр реальное количество исследуемых событий может сильно отличаться от теоретического, но чем больше игр в серии, тем это различие меньше. По существу, Кардано вплотную подошёл к понятию вероятности и заявило законе больших чисел.
Голландец Кристиан Гюйгенс был довольно продвинутый чел в м веке знал 5 языков, играл на скрипке, лютне и клавесине, влет построил себе токарный станок. Влет У нас дети вон ходят на коньки или в бассейн, в лучшем случае — на изо, а Гюйгенс, он вот ходил в станкостроительный кружок.
Он ещё наловчился вырезывать из стекла линзы и их тряпочкой шлифовать, после чего собрал окуляр для телескопа и обнаружил кольца Сатурна, изобрёл маятниковые часы и — внимание — диапроектор, чтобы дичайше смотреть Ну, погоди на слайдах Часы его конструкции были На самом деле читается “Хуенс”. Галилей их тоже обнаружил, но таки не понял, что это такое, а Гюйгенс — он понял

90 точны и недороги и быстро распространились по всему миру. Гюйгенс же и написал первую книгу о вероятности. Такой был замечательный голландец, ну вы понимаете, что ему там послужило вдохновением.
А дальше вот что происходит развивается геодезия, астрономия и стрельба, например. И теория вероятностей начинает применяться в теории ошибок наблюдений, как ложатся пули вокруг мишени. И тут надо сказать про Лапласа, Пьера-Симона. Он опубликовал два закона распределения частотности ошибок, и второй из них называют гауссовым распределением. Дело в том, что большинство случайных величин из реальной жизни, таких, например, как ошибки измерений, стрельбы и прочего, могут быть представлены как анализ большого числа сравнительно малых ошибок, каждая из которых вызвана действием отдельной причины, независящей от остальных. Например, дрожанием руки — рука же каждый раз по-разному дёргается.
А второй закон Лапласа гласит, что частота ошибок — степенная функция от квадрата ошибки, что сейчас называется нормальным распределением, а кривая — гауссианой. Гаусс (кстати, Карл, конечно, тоже был очень развитым ребёнком, нов то время ему было 2 года отроду, ион пока плоховато ещё законы формулировал. Но он подрос и авторитетом задавил бедного Лапласа. Независимость Сейчас я хочу пробежаться по некоторым терминам — для кого-то это будет повторением, но всё равно не повредит. Вероятность чаще всего обозначается латинской буквой p (от слова probability). Это всегда число, которое лежит между нулём и единицей, ну или от нуля и до 100 процентов. Процент это по-латински поделить на сто, поэтому 100% и есть единица. Если вероятность события — 0, это значит, что оно не может произойти. Если вероятность равна 1, то оно обязательно произойдёт. В этом основная идея.
Один из базовых принципов — это идея независимости. Вероятность обозначает шансы наступления какого-либо события. Например, результата какого-либо эксперимента вроде броска монеты. Вероятность того, что если вы подбросите монету иона упадёт орлом, равна одной второй, потому что у неодинаковые шансы упасть орлом или решкой. Независимые эксперименты — это такие эксперименты, которые происходят — сюрприз — вне зависимости друг от друга. Если выбросаете монету два раза, результат первого броска никак не влияет на результат второго, и тогда мы говорим, что это независимые величины. Между ними нет никакой связи.
Один из первых принципов даёт нам правило умножения если у вас вероятности независимые, то вероятность сразу двух этих событий будет равна произведению их вероятностей. Это не сработает, если события как-то связаны. Страховка построена на том, что в идеале страховая компания продаёт полисы на независимые события (или страхует жизни независимых друг от друга

91 людей. Поэтому лондонский пожар — плохой пример страхового случая. Если кто-то в квартире оступился, у него лампа упала на ковёр и подожгла шторы, а потом загорелась вся квартира, другие дома от этого не сгорят, они от этого неприятного происшествия никак не зависят.
В этом случае вероятность того, что сгорит весь город, страшно мала. Ведь вероятность того, что сгорят дом Адом и дом С, равна произведению вероятностей пожара в них. Если она равна одной тысячной, а в городе 1000 домов, то вероятность того, что все они сгорят, равна 1/1000 в тысячной степени, это хотя и не ноль, но можно считать, что ноль. Поэтому, если выписать очень-очень много независимых полисов, то риска разориться у страховой компании практически нет. Это фундаментальная идея, которая кажется простой и очевидной, но она совершенно точно не была такой, когда появилась. Ожидание мата

Ещё одна важная концепция, которую мы будем использовать, — это матожидание. Кто-то может называть его средним или наиболее ожидаемым результатом — это примерно взаимозаменяемые термины. Можно их немного по-разному объяснять в зависимости оттого, говорим ли мы о среднем из известной нам выборки или из всей совокупности событий.
Но сначала надо таки понять, что такое случайная величина. Если мы проводим эксперимент и результат эксперимента — какое-то непредсказуемое число, то наш эксперимент выдаёт случайную величину. Ну, к примеру, если мы бросаем монету и присвоим решке 0, а орлу — 1, тогда вот мы и определили случайную величину, она принимает значение 0 или 1 совершенно случайно.
Существуют дискретные (то есть прерывистые) случайные переменные, типа той, что я только что привёл в примеру неё могут быть только конкретные значения. Когда мы имеем дело со случайными, но вполне определёнными событиями в идеальных условиях (как, например, подбрасывание абсолютно честной монеты, вероятность происшествия — это число нужных нам исходов, делённое на число всех возможных исходов. Так, два раза бросив монету, мы получим вероятность выпадения нужных нам двух решек в виде ¼, потому что исхода у нас четыре (решка-решка, решка-орел, орёл-решка и два орла) — и все они имеют одинаковые шансы.
Есть ещё непрерывные случайные величины, которые на некотором отрезке могут принимать любое значение. Ну вот возьмём мы, смешаем зачем- то горячий чай и холодную водку и опустим туда термометр. Кстати, его тоже изобрели в м веке, и тогда концепцию температуры — для нас привычную и понятную — только-только начали применять. Вы уже догадались, что в нашем стакане с волшебным чаем температура — величина непрерывная, у неё неограниченное количество возможных значений, хотя минимальное и максимальное мы представляем неплохо.
Для дискретных случайных переменных матожидание можно обозначить греческой буквой μ (мю, и оно будет суммой всех результатов,

92 помноженных на вероятность каждого из них. В случае броска нашей условной монеты матожидание будет равно одной второй, и результата только два. А вообще, конечно, их может быть любое число, в том числе и бесконечное. Но их можно сосчитать и узнать средневзвешенную оценку, а она и называется матожиданием. Также его называют средним арифметическим. Но чтобы его посчитать, мы должны знать точные вероятности событий.
Для пущей ясности возьмём обычный (честно и точно сделанный) шестигранный кубик. Очевидно, что вероятность выпадения каждой цифры — одна шестая, граней ведь шесть. Сумма всех выпадений равна 1+2+3+4+5+6 =
21. Берём от каждой одну шестую (надеюсь, сможете сами, складываем вместе или просто 21 делим на 6), получаем три с половиной. Значит, матожидание броска кубика — 3.5. Если мы много-много раз бросим кубики посчитаем среднее, то получится число, очень близкое к 3.5. Понятно, что в случае броска одного кубика ожидать 3.5 бессмысленно, а вот в случае двух ждать семёрки — очень хорошая идея. И чем больше раз мы бросим кубик, тем ближе среднее будет к 3.5. Его и следует ждать математически, поэтому оно и называется матожидание.
Кроме среднего ещё есть медиана — это когда половина результатов эксперимента больше, а половина меньше этой цифры. Она часто используется в демографии. Например, зарплату по регионам корректнее сравнивать не среднюю, а медианную, потому что очень маленькие или (чаще) очень большие зарплаты, даже если таких всего несколько, заметно искажают реальную картину. А на медиану они не влияют.
Если нам потребуется матожидание непрерывных функций, то идея там точно такая же, но складывать надо интегралы. Слово страшное (сам его боюсь, но вообще это просто сумма площадей под графиком функции. Например, взять температуру — вероятность того, что термометр покажет у кипятка ровно 100 градусов, равна нулю, потому что он всегда может показать
100.001 или 99.999. Таких цифр бесконечное количество, и у каждой конкретной из них вероятность равна нулю. Но можно посмотреть, например, плотность вероятности у какого-либо отрезка. Генеральная совокупность против выборки Теперь пару слово совокупности. Мы измеряли признаки всех возможных вариантов выпадения кубика, хорошо и годно всё посчитали. Нов реальности результаты экспериментов сосчитать трудно, потому что мы гораздо чаще имеем дело с выборками, а не со всей совокупностью результатов.
Возьмём, например, дерево. Хотим мы оценить количество его листьев, берём 5 веток и считаем на них среднее количество листьев. Потом умножаем их на количество веток, и у нас получится примерная но неплохая) оценка количества листьев на дереве.
Так вот, реальное среднее количество листьев на ветке мы не знаем, а лишь приблизительно определили из пяти наших веток. Его принято обозначать не иксом, а иксом с чертой, и оно тем ближе к иксу, чем ближе

93 количество отобранных нами веток к количеству веток на всём дереве. Если мы возьмём несколько отличающихся веток (а не только самые длинные, например, то наша выборка будет лучше отражать свойства всего дерева. Таки с людьми — если в исследуемой группе есть представители разных городов, профессий, возрастов, то выводы будут точнее и вернее, чем если опросить только вечно пьяных студентов МИРЭА.
В Америке был интересный казус с репрезентативностью выборки, когда журнал «Литерари Дайджест опросил аж 10 миллионов человек насчёт выборов президента. Это огромное количество респондентов для достоверной статистики хватило бы 2–3 тысячи правильно собранных ответов. Журнал предсказал победу республиканцу Альфу Лэндону со значительным перевесом
(60 на 40), а выборы выиграл демократ Франклин Рузвельт — как раз с таким же перевесом, нов обратную сторону. Дело в том, что большинство подписчиков журнала были республиканцами, а в попытке сгладить это несоответствие журнал рассылал бюллетени по телефонным книгам. Ноне учёл забавного факта телефоны тогда были доступны только среднему и высшему классу общества, а это были в основном республиканцы. Дисперсия Пока мы говорили лишь о средствах измерения основной тенденции, но ещё нам потребуется средство измерения её вариативности, иными словами, разбросе значений. Дисперсия случайной величины — это как она меняется от одного измерения до другого. Обозначается она как σ
2
, греческая сигма в квадрате. А просто сигма — это так называемое стандартное отклонение. Это корень из дисперсии. Дисперсия — это сумма квадратов расстояний от каждого результата до среднего результата, делённая на их количество. Квадратов — потому что какие-то результаты отличаются от среднего в меньшую сторону, и чтобы при складывании отрицательных отклонений сумма не уменьшалась, придумали возводить разницу в квадрат и складывать уже квадраты отклонений (которые всегда положительны. Тут плохо то, что дисперсия размерностью не совпадает с изучаемым явлением. Если мы измеряем сантиметры, то дисперсия окажется в квадратных сантиметрах. Поэтому из неё берут корень. Чтобы не лопнул мозг, вспомним про кубик. Так вот для шестигранника дисперсия получается 2.92 (сами посчитаете Я вам помогу, ну а корень из этого — 1.71. То есть в среднему нас выпадает 3.5, но разброс результатов от среднего равен 1.71. Чем больше этот разброс, тем больше квадраты расстояний до среднего, тем больше дисперсия. Чем дисперсия больше, тем сильнее наша случайная величина варьируется.
Оценивать дисперсию всей совокупности по выборке не совсем правильно. Возвращаясь к нашему примеру с деревом, разброс между количеством листьев у выбранных нами веток будет, естественно, меньше, чем
1
(3.5-1)
2
+(3.5-2)
2
+(3.5-3)
2
+(4-3.5)
2
+(5-3.5)
2
+(6-3.5)
2
=17.5, делим на 6 = 2.917.

94 у всех веток дерева. Поэтому, чтобы узнать дисперсию всей совокупности, её делят не на n результатов, а на n-1, это называется коррекция смещения, придумал её в м веке Фридрих Бессель, ученик Гаусса.
На этом о дисперсии и оценках выборки всё. Там есть, конечно, ещё куча мелочей, номы будем говорить о теорвере лишь в контексте инвестиций. Это именно та область, где нам нужен высокий дохода вот дисперсия совершенно ненужна. Высокое матожидание дохода — добро, а высокая дисперсия — зло, потому что это риск, это неизвестность. Все финансовые теории в конечном счёте стремятся получить высокий доход с минимальным риском. Жалко, что у них ничего не получается. Корреляция, ковариация и регрессия

Ещё одна важная концепция — это ковариация. Это показатель того, насколько две переменные движутся вместе. Насколько похоже их поведение Если эксперимент выдаёт нам икс и игрек и мы подмечаем, что когда икс высокий, то игрек тоже имеет свойство быть высоким, или наоборот, оба низкие, тогда ковариация будет положительной. Отрицательная ковариация — это когда при высоком икс игрек низкий, и наоборот — то есть они ходят в противоположном направлении.
Пройдём к корреляции. Это ковариация с поправкой на дисперсию наших изменяющихся величин, всегда число от минус одного до плюс одного. Сейчас много кто употребляет этот термин, ну, например, кто-то считает, какая корреляция между результатами ЕГЭ и институтскими оценками чеченских отличников, знаменитых знатоков русского языка. У них, возможно, корреляция меньше нуля, ау всех остальных отличников — больше Корреляция не означает причинности, а лишь отмечает созависимость. Причина ли в том, что одна влияет на другую, или что-то третье на них влияет,
— этого мы из одной цифры определить не можем. Если график доллара весной похож на график температуры, не стоит думать, что осенью он повалится обратно. Хотя весной корреляция была.
Теперь регрессия. Это тоже базовая концепция из статистики, нов финансах у неё особенное предназначение. Разрабатывал её тот же Карл Гаусс, рисуя линии через кучу точек на графике. Если отложить по оси x доходность по годам какой-нибудь компании, например, Майкрософта, а по оси y — доходность рынка, то мы получим много точек, по одной на каждый год.
И вот Гаусс говорит, давайте-ка проведём линию через эти точки. Линию, Карл Назвал он её линией регрессии. А провёл он её таким образом, чтобы минимизировать сумму расстояний от точек до этой линии. То есть квадратов расстояний. Чтобы прямая наиболее точно отражала все точки, надое провести таким хитроумным образом, чтобы расстояния доне были минимальны. Эта прямая и называется линией регрессии, в финансах её пересечение с осью игрек называется альфой, а наклон — бетой. Таким образом, бета акций, например, Майкрософта — это наклон этой линии, а альфа — пересечение. Альфа — насколько бумага обгоняет рынок, а бета —

95 насколько она двигается вместе с рынком. Пока непонятно, ноне переживайте я об этом ещё расскажу поподробней.
1   ...   5   6   7   8   9   10   11   12   ...   26


написать администратору сайта