Вероятное – неочевидное
Экономика, технологии, даже погода, да и вообще почти все создает проблемы. Вы уже узнали, что существует методика избавления от рисков: распределять их на много разных людей, раздавая пакостей каждому, но по чуть-чуть. Идея, которую предлагают теоретики – возможно, недостижимая, – это идея о том, что в идеальном финансовом мире (где все жители – «хомо экономикусы») все риски распределены полностью и никто не страдает в одиночестве. Защищенный человек уверен: «что бы со мной ни случилось, беда распределится на 7 миллиардов людей и станет незаметной». Эффект будет так мал, что проблема станет бессмысленной, и в этом идеал риск-пулинга.
В принципе, это возможно, и вероятно, это одна из самых важных концепций в финансах – пулинг рисков, то есть их сбор и перераспределение. На людей обрушиваются всевозможные испытания и несчастья. Конечно, можно попытаться от них избавиться. Можно исследовать болезни и лекарства, изменения погоды и управление ею, доказывать, что глобальное потепление происходит и догадываться, почему именно. Проблема в том, что, хотя и принцип разделения рисков очень прост и очевиден, на практике для этого нужны специальные технологии. Базовые принципы механики элементарны, но вот создать двигатель, работающий на этих принципах, непросто.
Покопаемся поглубже в теме предыдущей главы – универсальные принципы риск-менеджмента, риск-пулинга и хеджирования рисков. Все слова тут иностранные, включая «универсальный», «принцип», «риск», «менеджмент», «пулинг» и «хеджирование». Говоря по-русски, это «всеобщий закон управления опасностями, распределения опасностей и защиты от них». Я хочу рассказать об оригинальной и глубокой концепции, лежащей в самой глубине, под финансовыми теориями. Что позволяет нам оценивать и распределять риски через процесс сбора их в кучу и повсеместного размазывания? Это теория вероятности. Кто-то предпочитает говорить «теория вероятностей», «тер-вер» или «теорвер», ну это не так уж важно.
9.1Теория вероятности
Эта мысленная конструкция появилась в конкретный момент времени, и у нее чрезвычайно широкий спектр применения. Финансы – лишь одна из граней. Надеюсь, даже басисты все поймут, буду объяснять на пальцах. На двух.
Начну с концепции вероятности. Что это такое? Вероятность неотделима от события. Какова вероятность того, что фондовый рынок в этом году вырастет? Ну, думаю, процентов 60. Это означает, что в 60 случаях из 100 он вырастет, а в 40 – упадет или останется на том же уровне. Это примерно ясно. Если кто-то говорит, что вероятность чего-либо составляет 40 процентов, вам понятно, что это означает.
Хочу сделать акцент на том, что это не всегда было понятно. Потому что концепция родилась только в начале 16-го века, а до этого никто никогда такого слова-то не произносил. И это серьезное отличие от других областей математики: у геометрии или матанализа были средневековые и даже античные предшественники, а вот у теорвера – ничего не было.
У самого слова «вероятность» значение какое-то туманное. Люди умом вроде и понимают, что это объективная реальность, но вот сердцем принять этого не могут. Даже сейчас, спустя 400 лет после появления теории. Это много раз демонстрировали всякие исследования. Например, если спросить человека, какую ставку он готов сделать на бросок монеты, он поставит больше денег, если монету бросает он сам или если она еще не брошена. Ну, то есть ее можно же бросить и накрыть рукой, и только после этого спросить, сколько он ставит, пять рублей или десять. И человек меньше ставит денег в таком случае. С чего бы это?
Он интуитивно считает, что есть какие-то магические силы внутри, которые будто бы могут повлиять на то, что выпадет. Со стороны это слушать довольно смешно, но представьте себя в этой ситуации, и вы поймете, что вам не нравится делать ставку на уже брошенную монету.
А базовая мысль теорвера в том, что нет, не получится изменить это событие. Есть объективные законы, которые управляют миром. Большинство языков имеют разные слова для обозначения удачи и риска – но, что характерно, по-английски «фортуна» – fortune – означает в том числе и богатство. «Удача», тем не менее, рассказывает нечто о человеке – ну, типа, «я удачливый, и мне благоволит вселенная», или бог или сотона, или «сегодня выдался удачный день». А теория вероятности – это шаг в противоположную, неприятную для многих сторону. Тут есть математически выверенные закономерности.
Есть такой канадский чел, Иэн Хэкинг, который занимался историей теории вероятности; он прошерстил мировую литературу насчет употребления термина «вероятность» и не нашел ничего раньше 1600 года. Там огромный прыжок произошел в 17-м веке, и после него стало даже как-то модно думать о вещах в парадигме вероятности, это распространилось по всему миру. Но до этого времени термин не употреблялся. Этот канадец нашел некоторых людей, у которых были мысли в правильную сторону, но они их не публиковали.
Почему? Потому что люди, которые в этом хоть что-то соображали, все умные мысли держали при себе. Ведь они были игроками, а теория вероятности очень полезна, если вы играете в азартные игры. Хэкинг предполагает, что основные концепции некоторым были известны, но их хранили в секрете и даже не записывали.
Но если у вас нет четкой теории, нельзя ничего спрогнозировать. А если нет жестких рамок и формул, не получится сделать аккуратный расчет. И вот в 17-м веке эту теорию начали наконец записывать.
9.2. Подстрахуй
Напомню, что в 1600-х годах люди научились составлять актуарные таблицы. Это такие таблицы, где указана ожидаемая продолжительность жизни для данного возраста и пола. Люди начали собирать данные о смертности и делать вот эти актуарные расчеты, где оценивалась вероятность дожития человека до определенного возраста. И на этом уже строили тарифы на страхование.
Хотя в некотором виде страхование присутствовало еще в Древнем Риме. У них там была похоронная страховка: можно было купить такой полис, который бы защищал семью от недостатка денег на похороны. Они тогда очень переживали насчет похорон, что не у кремлевской стены закопают или еще что. Вы скажете – ну вот же, придумали эту похоронную страховку, почему для всего остального-то не придумали? А черт его знает. Вроде бы появлялось там что-то насчет страховки от увечий на строительстве галер, но распространения не получило.
В эпоху Возрождения были кое-какие страховые контракты. Но если перевести тогдашний страховой полис на современный язык, очень трудно понять, что там имелось в виду. То есть до концепции они вроде как и догадались, но сформулировать ее по-человечески так и не смогли. Поэтому индустрии и не возникло. А появление теории вероятности как раз и позволило ее создать.
Некоторые соотносят появление страхования со знаменитым лондонским пожаром 1666 года. Весь город тогда сгорел к ебеням, и после этого люди начали покупать страховку. Но для развития страховой индустрии этот пример необычен – ведь если сгорит весь город, страховые конторы просто обанкротятся. Бизнес строится на независимых вероятностях и на сборе рисков в кучу. Но в любом случае, это было каким-никаким стартом. Хотя поговаривают, что страховые контракты появились лет на 60 раньше – в самом начале 17 века, но применялись они для морских перевозок.
Надо признать, что у страхования было трудное детство – как раз потому, что люди плоховато понимали концепцию вероятности. В голове им трудно было это удержать, как и вам сейчас. Тут много аспектов.
ЧТОБЫ ПОНЯТЬ, КАК РАБОТАЕТ ВЕРОЯТНОСТЬ,НАДО СНАЧАЛА ПОНЯТЬ,ЧТО ТАКОЕ СЛУЧАЙНОЕСОБЫТИЕ, А ИНТУИТИВНОЭТО НЕПОНЯТНО.
Многие люди думают, что они могут влиять на случайность каким-то образом. У меня есть товарищ, который думает, что чаще других выбрасывает шестерки на кубиках. Если с таким подходом браться за освоение теорвера, будет беда.
9.3. История становления
Первые задачи вероятностного характера возникли в азартных играх – в кости, в карты, в расшибалочку. Французский священник 13-го века Ришар де Фурниваль подсчитал все возможные суммы очков после броска трех костей – кому как не священнику играть в кости – и указал число способов, которыми может получиться каждая из этих сумм. Это число можно рассматривать как первую вычислимую меру ожидаемости события – по-нашему, как раз вероятности.
До Фурниваля, да и после него тоже, эту меру часто подсчитывали неверно, указывая, например, что суммы в 3 и 4 очка равновероятны. Ведь оба могут получиться как бы «только одним способом»: по результатам броска «три единицы» и «двойка с двумя единицами» соответственно. Де Фурниваль не догонял, что хотя три единицы и в самом деле получаются только одним способом: 1+1+1, двойку с двумя единицами можно выкинуть целыми тремя способами: 1+1+2, 1+2+1 и 2+1+1, так что эти события вовсе не равновероятны. Сумма в четыре очка выпадает в три раза чаще, хотя это тоже случается редко, в среднем лишь каждый 72-й бросок. Аналогичные ошибки неоднократно встречались и в дальнейшей истории. Самое странное (для меня, по крайней мере): почему никому не пришло в голову кинуть кубики много-много раз и записать результаты? Лишний раз напомню: очевидное не всегда очевидно.
Экстравагантный математик 16-го века Джероламо Кардано прославился тем, что вылечился от импотенции, после чего родил троих детей. Сильно впечатлился, стал и сам врачевать, а так как человеком был умным и странным, лечил он хорошо и нажил себе множество недругов. Его сын тоже прославился, так как дико отравил свою жену, из-за чего папаша окончательно свихнулся, составил гороскоп Иисуса Христа и попал в застенки инквизиции. Посвятил анализу игры содержательную книженцию «Книга об игре в кости» (1526 год, опубликована посмертно).
Кардано провел уже безошибочный анализ для значений суммы очков трех костей и указал для разных событий ожидаемое значение доли «благоприятных» событий: например, при бросании 3 кубиков доля случаев, когда значения всех трех совпадают, равна 6/216 или 1/36. Вроде бы и очевидно, что их всего шесть – три единицы, три двойки, ну и так далее, всего 6 граней, но до этого (да и после) какие-то были проблемы у людей с этой концепцией.
Именно Джероламо Кардано предложил формулировку вероятности – что это число благоприятных исходов, деленное на число всех возможных исходов. Кардано сделал еще одно весьма проницательное замечание: при небольшом числе игр реальное количество исследуемых событий может сильно отличаться от теоретического, но чем больше игр в серии, тем это различие меньше. По существу, Кардано вплотную подошел к понятию вероятности и заявил о законе больших чисел.
Голландец Кристиан Гюйгенс[37] был довольно продвинутый чел: в 17-м веке знал 5 языков, играл на скрипке, лютне и клавесине, в 13 лет построил себе токарный станок. В 13 лет! У нас дети вон ходят на коньки или в бассейн, в лучшем случае – на изо, а Гюйгенс, он вот ходил в станкостроительный кружок.
Он еще наловчился вырезывать из стекла линзы и их тряпочкой шлифовать, после чего собрал окуляр для телескопа и обнаружил кольца Сатурна[38], изобрел маятниковые часы и – внимание – диапроектор, чтобы дичайше смотреть «Ну, погоди!» на слайдах. Часы его конструкции были точны и недороги и быстро распространились по всему миру. Гюйгенс же и написал первую книгу о вероятности. Такой был замечательный голландец, ну вы понимаете, что ему там послужило вдохновением.
А дальше вот что происходит: развивается геодезия, астрономия и стрельба, например. И теория вероятностей начинает применяться в теории ошибок наблюдений, как ложатся пули вокруг мишени. И тут надо сказать про Лапласа, Пьера-Симона. Он опубликовал два закона распределения частотности ошибок, и второй из них называют гауссовым распределением. Дело в том, что большинство случайных величин из реальной жизни, таких, например, как ошибки измерений, стрельбы и прочего, могут быть представлены как анализ большого числа сравнительно малых ошибок, каждая из которых вызвана действием отдельной причины, не зависящей от остальных. Например, дрожанием руки – рука же каждый раз по-разному дергается.
А второй закон Лапласа гласит, что частота ошибок – степенная функция от квадрата ошибки, что сейчас называется нормальным распределением, а кривая – гауссианой. Гаусс (кстати, Карл), конечно, тоже был очень развитым ребенком, но в то время ему было 2 года от роду, и он пока плоховато еще законы формулировал. Но он подрос и авторитетом задавил бедного Лапласа.
9.4. Независимость
Сейчас я хочу пробежаться по некоторым терминам – для кого-то это будет повторением, но все равно не повредит.
Вероятность чаще всего обозначается латинской буквой p (от слова probability). Это всегда число, которое лежит между нулем и единицей, ну или от нуля и до 100 процентов. «Про цент» – это по-латински «поделить на сто», поэтому 100 % и есть единица. Если вероятность события – 0, это значит, что оно не может произойти. Если вероятность равна 1, то оно обязательно произойдет. В этом основная идея.
ОДИН ИЗ БАЗОВЫХ ПРИНЦИПОВ – ЭТО ИДЕЯ НЕЗАВИСИМОСТИ. ВЕРОЯТНОСТЬ ОБОЗНАЧАЕТШАНСЫ НАСТУПЛЕНИЯКАКОГО-ЛИБО СОБЫТИЯ.
Например, результата какого-либо эксперимента вроде броска монеты. Вероятность того, что если вы подбросите монету и она упадет орлом, равна одной второй, потому что у нее одинаковые шансы упасть орлом или решкой. Независимые эксперименты – это такие эксперименты, которые происходят – сюрприз! – вне зависимости друг от друга. Если вы бросаете монету два раза, результат первого броска никак не влияет на результат второго, и тогда мы говорим, что это независимые величины. Между ними нет никакой связи.
Один из первых принципов дает нам правило умножения: если у вас вероятности независимые, то вероятность сразу двух этих событий будет равна произведению их вероятностей. Это не сработает, если события как-то связаны. Страховка построена на том, что в идеале страховая компания продает полисы на независимые события (или страхует жизни независимых друг от друга людей). Поэтому лондонский пожар – плохой пример страхового случая. Если кто-то в квартире оступился, у него лампа упала на ковер и подожгла шторы, а потом загорелась вся квартира, другие дома от этого не сгорят, они от этого неприятного происшествия никак не зависят.
В этом случае вероятность того, что сгорит весь город, страшно мала. Ведь вероятность того, что сгорят дом А, дом B и дом С, равна произведению вероятностей пожара в них. Если она равна одной тысячной, а в городе 1000 домов, то вероятность того, что все они сгорят, равна 1/1000 в тысячной степени, это хотя и не ноль, но можно считать, что ноль. Поэтому, если выписать очень-очень много независимых полисов, то риска разориться у страховой компании практически нет. Это фундаментальная идея, которая кажется простой и очевидной, но она совершенно точно не была такой, когда появилась.
9.5. Ожидание мата
Еще одна важная концепция, которую мы будем использовать, – это матожидание. Кто-то может называть его средним или наиболее ожидаемым результатом – это примерно взаимозаменяемые термины. Можно их немного по-разному объяснять в зависимости от того, говорим ли мы о среднем из известной нам выборки или из всей совокупности событий.
Но сначала надо таки понять, что такое случайная величина. Если мы проводим эксперимент и результат эксперимента – какое-то непредсказуемое число, то наш эксперимент выдает случайную величину. Ну, к примеру, если мы бросаем монету и присвоим решке 0, а орлу – 1, тогда вот мы и определили случайную величину, она принимает значение 0 или 1 совершенно случайно.
Существуют дискретные (то есть прерывистые) случайные переменные, типа той, что я только что привел в пример, – у нее могут быть только конкретные значения. Когда мы имеем дело со случайными, но вполне определенными событиями в идеальных условиях (как, например, подбрасывание абсолютно честной монеты), вероятность происшествия – это число нужных нам исходов, деленное на число всех возможных исходов. Так, два раза бросив монету, мы получим вероятность выпадения нужных нам двух решек в виде ¼, потому что исхода у нас четыре (решка-решка, решка-орел, орел-решка и два орла) – и все они имеют одинаковые шансы.
Есть еще непрерывные случайные величины, которые на некотором отрезке могут принимать любое значение. Ну вот возьмем мы, смешаем зачем-то горячий чай и холодную водку и опустим туда термометр. Кстати, его тоже изобрели в 17-м веке, и тогда концепцию температуры – для нас привычную и понятную – только-только начали применять. Вы уже догадались, что в нашем стакане с волшебным чаем температура – величина непрерывная, у нее неограниченное количество возможных значений, хотя минимальное и максимальное мы представляем неплохо.
Для дискретных случайных переменных матожидание можно обозначить греческой буквой μ (мю), и оно будет суммой всех результатов, помноженных на вероятность каждого из них.
В СЛУЧАЕ БРОСКА НАШЕЙУСЛОВНОЙ МОНЕТЫ МАТОЖИДАНИЕ БУДЕТ РАВНО ОДНОЙ ВТОРОЙ, И РЕЗУЛЬТАТА ТОЛЬКО ДВА.
А вообще, конечно, их может быть любое число, в том числе и бесконечное. Но их можно сосчитать и узнать средневзвешенную оценку, а она и называется матожиданием. Также его называют средним арифметическим. Но чтобы его посчитать, мы должны знать точные вероятности событий.
Для пущей ясности возьмем обычный (честно и точно сделанный) шестигранный кубик. Очевидно, что вероятность выпадения каждой цифры – одна шестая, граней ведь шесть. Сумма всех выпадений равна 1+2+3+4+5+6 = 21. Берем от каждой одну шестую (надеюсь, сможете сами?), складываем вместе (или просто 21 делим на 6), получаем три с половиной. Значит, матожидание броска кубика – 3,5. Если мы много-много раз бросим кубик и посчитаем среднее, то получится число, очень близкое к 3,5. Понятно, что в случае броска одного кубика ожидать 3,5 бессмысленно, а вот в случае двух ждать семерки – очень хорошая идея. И чем больше раз мы бросим кубик, тем ближе среднее будет к 3,5. Его и следует ждать математически, поэтому оно и называется матожидание.
Кроме среднего еще есть медиана – это когда половина результатов эксперимента больше, а половина меньше этой цифры. Она часто используется в демографии. Например, зарплату по регионам корректнее сравнивать не среднюю, а медианную, потому что очень маленькие или (чаще) очень большие зарплаты, даже если таких всего несколько, заметно искажают реальную картину. А на медиану они не влияют.
Если нам потребуется матожидание непрерывных функций, то идея там точно такая же, но складывать надо интегралы. Слово страшное (сам его боюсь), но вообще это просто сумма площадей под графиком функции. Например, взять температуру – вероятность того, что термометр покажет у кипятка ровно 100 градусов, равна нулю, потому что он всегда может показать 100,001 или 99,999. Таких цифр бесконечное количество, и у каждой конкретной из них вероятность равна нулю. Но можно посмотреть, например, плотность вероятности у какого-либо отрезка.
9.6. Генеральная совокупность против выборки
Теперь пару слов о совокупности. Мы измеряли признаки всех возможных вариантов выпадения кубика, хорошо и годно все посчитали. Но в реальности результаты экспериментов сосчитать трудно, потому что мы гораздо чаще имеем дело с выборками, а не со всей совокупностью результатов. Возьмем, например, дерево. Хотим мы оценить количество его листьев, берем 5 веток и считаем на них среднее количество листьев. Потом умножаем их на количество веток, и у нас получится примерная (но неплохая) оценка количества листьев на дереве.
Так вот, реальное среднее количество листьев на ветке мы не знаем, а лишь приблизительно определили из пяти наших веток. Его принято обозначать не иксом, а иксом с чертой, и оно тем ближе к иксу, чем ближе количество отобранных нами веток к количеству веток на всем дереве. Если мы возьмем несколько отличающихся веток (а не только самые длинные, например), то наша выборка будет лучше отражать свойства всего дерева. Так и с людьми – если в исследуемой группе есть представители разных городов, профессий, возрастов, то выводы будут точнее и вернее, чем если опросить только вечно пьяных студентов МИРЭА.
В Америке был интересный казус с репрезентативностью выборки, когда журнал «Литерари Дайджест» опросил аж 10 миллионов человек насчет выборов президента. Это огромное количество респондентов: для достоверной статистики хватило бы 2–3 тысячи правильно собранных ответов. Журнал предсказал победу республиканцу Альфу Лэндону со значительным перевесом (60 на 40), а выборы выиграл демократ Франклин Рузвельт – как раз с таким же перевесом, но в обратную сторону. Дело в том, что большинство подписчиков журнала были республиканцами, а в попытке сгладить это несоответствие журнал рассылал бюллетени по телефонным книгам. Но не учел забавного факта: телефоны тогда были доступны только среднему и высшему классу общества, а это были в основном республиканцы.
9.7. Дисперсия
Пока мы говорили лишь о средствах измерения основной тенденции, но еще нам потребуется средство измерения ее вариативности, иными словами, разброс ее значений. Дисперсия случайной величины – это как она меняется от одного измерения до другого. Обозначается она как σ2, греческая сигма в квадрате. А просто сигма – это так называемое стандартное отклонение. Это корень из дисперсии.
Дисперсия – это сумма квадратов расстояний от каждого результата до среднего результата, деленная на их количество. Квадратов – потому что какие-то результаты отличаются от среднего в меньшую сторону, и чтобы при складывании отрицательных отклонений сумма не уменьшалась, придумали возводить разницу в квадрат и складывать уже квадраты отклонений (которые всегда положительны).
Тут плохо то, что дисперсия размерностью не совпадает с изучаемым явлением. Если мы измеряем сантиметры, то дисперсия окажется в квадратных сантиметрах. Поэтому из нее берут корень. Чтобы не лопнул мозг, вспомним про кубик. Так вот для шестигранника дисперсия получается 2,92 (сами посчитаете? Я вам помогу[39]), ну а корень из этого – 1,71. То есть в среднем у нас выпадает 3,5, но разброс результатов от среднего равен 1,71. Чем больше этот разброс, тем больше квадраты расстояний до среднего, тем больше дисперсия. Чем дисперсия больше, тем сильнее наша случайная величина варьируется.
Оценивать дисперсию всей совокупности по выборке не совсем правильно. Возвращаясь к нашему примеру с деревом, разброс между количеством листьев у выбранных нами веток будет, естественно, меньше, чем у всех веток дерева. Поэтому, чтобы узнать дисперсию всей совокупности, ее делят не на n результатов, а на n-1, это называется коррекция смещения, придумал ее в 19-м веке Фридрих Бессель, ученик Гаусса.
На этом о дисперсии и оценках выборки все. Там есть, конечно, еще куча мелочей, но мы будем говорить о теорвере лишь в контексте инвестиций. Это именно та область, где нам нужен высокий доход, а вот дисперсия совершенно не нужна.
ВЫСОКОЕ МАТОЖИДАНИЕДОХОДА – ДОБРО, А ВЫСОКАЯ ДИСПЕРСИЯ – ЗЛО,ПОТОМУ ЧТО ЭТО РИСК,ТО НЕИЗВЕСТНОСТЬ.
Все финансовые теории в конечном счете стремятся получить высокий доход с минимальным риском.
Жалко, что у них ничего не получается.
9.8. Корреляция, ковариация и регрессия
Еще одна важная концепция – это ковариация. Это показатель того, насколько две переменные движутся вместе. Насколько похоже их поведение? Если эксперимент выдает нам икс и игрек и мы подмечаем, что когда икс высокий, то игрек тоже имеет свойство быть высоким, или наоборот, оба низкие, тогда ковариация будет положительной. Отрицательная ковариация – это когда при высоком икс игрек низкий, и наоборот – то есть они ходят в противоположном направлении.
Пройдем к корреляции. Это ковариация с поправкой на дисперсию наших изменяющихся величин, всегда число от минус одного до плюс одного. Сейчас много кто употребляет этот термин, ну, например, кто-то считает, какая корреляция между результатами ЕГЭ и институтскими оценками чеченских отличников, знаменитых знатоков русского языка. У них, возможно, корреляция меньше нуля, а у всех остальных отличников – больше 0.5.
Корреляция не означает причинности, а лишь отмечает созависимость. Причина ли в том, что одна влияет на другую, или что-то третье на них влияет, – этого мы из одной цифры определить не можем. Если график доллара весной похож на график температуры, не стоит думать, что осенью он повалится обратно. Хотя весной корреляция была.
Теперь регрессия. Это тоже базовая концепция из статистики, но в финансах у нее особенное предназначение. Разрабатывал ее тот же Карл Гаусс, рисуя линии через кучу точек на графике. Если отложить по оси x доходность по годам какой-нибудь компании, например, Майкрософта, а по оси y – доходность рынка, то мы получим много точек, по одной на каждый год.
И вот Гаусс говорит, давайте-ка проведем линию через эти точки. Линию, Карл! Назвал он ее линией регрессии. А провел он ее таким образом, чтобы минимизировать сумму расстояний от точек до этой линии. То есть квадратов расстояний. Чтобы прямая наиболее точно отражала все точки, надо ее провести таким хитроумным образом, чтобы расстояния до нее были минимальны. Эта прямая и называется линией регрессии, в финансах ее пересечение с осью игрек называется альфой, а наклон – бетой. Таким образом, бета акций, например, Майкрософта – это наклон этой линии, а альфа – пересечение. Альфа – насколько бумага обгоняет рынок, а бета – насколько она двигается вместе с рынком. Пока непонятно, но не переживайте; я об этом еще расскажу поподробней.
9.9. Распределение хвостов
Теперь пару слов о распределении. Мы часто принимаем за данность, что множество величин в нашем мире распределены по нормальному закону. Такая известная всем функция в виде колокола, вроде бы она везде подходит, и годовые доходности, например, вполне могут быть распределены нормально. Но я хочу сделать акцент на том, что есть и другие распределения, тоже в форме колокола, но с другой математикой.
И для финансов это варианты с так называемыми толстыми хвостами. Хвостами, Карл! В нормальном распределении события, которые отклоняются от среднего значения на пять и более стандартных отклонений, встречаются крайне редко, а с 10 или более сигмами – практически невозможны. Пример распределения «с толстыми хвостами», которое имеет «бесконечную сигму», – распределение Коши[40]. Главная его особенность для нас – это сложность прогнозирования событий. Причем дело не только в самой сложности, но и в нашем весьма отдаленном понимании уровня этой сложности.
ЧЕЛОВЕКУ НЕ СВОЙСТВЕННО МЫСЛИТЬ ВЕРОЯТНОСТНЫМИ КАТЕГОРИЯМИ,И ОН НЕ МОЖЕТ ОЦЕНИТЬДАЖЕ СЛОЖНОСТЬ СТОЯЩЕЙ ПЕРЕД НИМ ЗАДАЧИ.
Негативные события реального мира – теракты, банкротства, мятежи и восстания – математически непредсказуемы, они и составляют эти страшные толстые хвосты. Это означает, что можно провести 20 лет на Уолл-стрит и увидеть только те случаи, что под вершиной колокола. Вам кажется, что вы понимаете, как работает система, но потом внезапно происходит что-то поразительное, чего вы никогда не видели. Это может быть чрезвычайно выгодная сделка или, наоборот, полная потеря капитала. У человека никогда не может быть достаточно опыта, чтобы ожидать некоторые вещи. Это сильно усложняет финансовые прогнозы.
9.10. Черные лебеди
Нассим Талеб написал об этом целую книгу, которая называется «Черный лебедь». Она о том, как много финансовых планов летят в тартарары из-за редких событий, которые появляются откуда ни возьмись. Он назвал их черными лебедями, потому что если смотреть на лебедей, то они всегда белые. Никогда черного не видно. Поэтому всю жизнь думаешь, что черных лебедей не существует.
Древнеримский поэт Ювенал писал, что «редкая птица на земле подобна черному лебедю» – это он так прикалывался, ведь до 1697 года считалось, что лебеди бывают только белыми. Но бравые голландцы нашли-таки черных лебедей в Австралии. Правда, неизвестно точно, только ли голландцы могут их увидеть. Статистики шутят, что черными они могли быть только с одной стороны – которая была видна наблюдателям.
Нассим Талеб пишет, что люди в принципе неспособны прогнозировать будущее, а уверенность людей в своих знаниях чрезмерна и порождает феномен «сверхуверенности», о которой мы поговорим в конце книги. Первая мировая, развал СССР и атака 11 сентября – примеры таких черных лебедей. Конечно, лебедями могут быть не только адские и ужасные события, но и внезапные непредсказуемые удачи.
Основная идея Талеба в том, что не надо строить грандиозные планы, основываясь на том, что черных лебедей не существует. Естественно, можно искренне считать, что их нет, но уже очевидно, что люди своими идиотскими действиями могут ловко и непринужденно их скреативить. Кратко об этом я расскажу чуть позже, а как этих событий избежать – в третьей части книги.