Как работает специализация. Не поймите меня неправильно: я не утверждаю, что специализация – это что-то нехорошее. Просто перед тем, как принимать решение о специализации, нужно учесть хрупкость и эффекты второго порядка. Вообще-то я считаю, что в конечном счете Рикардо был прав, но вовсе не потому, что так утверждают рассмотренные выше модели. В естественных условиях, когда в системе нет контроля «сверху вниз», процесс специализации идет постепенно, медленно, долго, методом проб и ошибок, и в итоге уровень специализации оптимален. Когда бюрократ спускает сверху некую модель, этого уровня достичь невозможно. Повторю, системы совершают мелкие ошибки, планировщики – крупные.
Если сегодня какой-нибудь одержимый планированием политик станет насаждать модель Рикардо, закончится все катастрофой; к настоящей эффективности можно прийти, только если дать совершаться кропотливому прилаживанию. Политики должны идти путем отрицания, via negativa, и опекать специализацию, устраняя препятствия к ее развитию.
Более общая методология распознавания ошибки модели
Эффекты второго порядка и хрупкость модели. Предположим, у нас имеется работающая модель (это великодушное предположение), но мы не уверены в том, что нам известны ее параметры. Как и в примере с дефицитом/занятостью в предыдущем разделе, мы используем f, простую функцию:
где α – это средняя ожидаемая вводимая переменная. Пусть φ – это распределение α в области ,
Философский камень. Одно то, что параметр α неопределен (поскольку у нас есть только его оценка), может исказить результат, если мы станем изменять этот параметр внутри интеграла, то есть стохастизируем параметр, который, по предположению, был фиксирован. Соответственно, мы можем легко измерить склонность к выпуклости как разницу между (а) значением функции f, интегрированной в области потенциальных значений α, и (б) значением функции f для единственного значения α, которое мы считаем его средним значением. Следовательно, склонность к выпуклости (философский камень) ωA – это[138]:
Основное уравнение. Хрупкость – это частичный философский камень в промежутке до K, отсюда неучтенная хрупкость ωB оценивается путем сравнения двух интегралов, взятых в промежутке до K, чтобы выявить эффект левого хвоста:
Эту формулу можно приблизительно оценить, используя интерполяцию, взятую между двумя значениями α, которые отделены от среднего значения средним отклонением α, то есть Δα. В результате получим оценку:
Антихрупкость ωC есть интеграл, посчитанный на промежутке K до бесконечности. Мы можем изучить ωB путем точечных оценок для X ≤ K.
откуда:
что приводит нас к эвристическому правилу распознания хрупкости (Taleb, Canetti, et al., 2012). В частности, если ώB(X) не меняет знак для X ≤ K, то ωB(K) будет иметь тот же знак. Распознать хрупкость можно по поведению в хвостах, для чего следует проверить функцию ώB(X) для любого X.
Таблица 12
Заблуждения, связанные с портфелем ценных бумаг. Среди тех, кто верит Марковицу, распространено одно заблуждение: теория портфеля побуждает диверсифицировать вложения, следовательно, она лучше, чем ничего. Неправда, придурки от финансов: она побуждает оптимизировать, то есть вкладывать в ценные бумаги больше денег, чем следует. Эта теория не побуждает рисковать меньше за счет диверсификации, она заставляет открывать больше позиций только потому, что у них есть компенсирующие статистические свойства, а значит, порождает риск ошибки модели – и очень большой риск недооценки хвостовых событий. Что понять, как это происходит, представьте себе двух инвесторов, выбирающих три объекта для размещения средств: наличные деньги, ценные бумаги А и ценные бумаги В. Инвестор, не знающий статистических свойств А и В и понимающий, что он их не знает, разместит часть средств, которую не хочет терять, в наличности, а остальное в А и В – в зависимости от эвристики, которую он привык применять. Инвестор, полагающий, что он знает статистические свойства А и В, то есть параметры σA, σB, ρA, B, вложит в ценные бумаги ωA и ωB так, чтобы суммарный риск был на желаемом уровне (ожидаемую отдачу мы в расчет не берем). Чем более занижена в его восприятии корреляция ρA, B, тем худшему риску ошибки модели он подвержен. Полагая, что корреляция ρA, B равна 0, инвестор вложит в ценные бумаги на треть больше средств, чем следует, если брать в расчет маловероятные события. Если же бедный инвестор питает иллюзию, что корреляция равна –1, он максимально инвестирует в A и B. И если он вдобавок использует леверидж, его ждет та же печальная судьба, что постигла фонд Long-Term Capital Management, одураченный как раз параметрами. (В реальности, в отличие от статей об экономике, ситуация обычно меняется; ради Баала, она меняется!) Мы можем повторить то же рассуждение для каждого параметра σ и посмотреть, как заниженная оценка этой σ ведет к избыточному размещению средств.
Работая трейдером, я заметил – и эта идея меня не отпускала, – что значения корреляций на разных временных промежутках никогда не совпадают. Нестабильные – это для них слишком мягкое слово: 0,8 в течение одного долгосрочного периода превращается в —0,2 в течение другого долгосрочного периода. Лохотрон чистой воды. Когда рынок напряжен, корреляции меняются еще быстрее – без какой-либо очевидной регулярности, несмотря на все попытки смоделировать «кризисные корреляции». Taleb (1997) изучает эффект стохастических корреляций: чувствовать себя в безопасности может лишь тот, кто играет на понижение при корреляции 1 и покупает при —1 – что вполне соответствует эвристическому правилу 1/n.
Критерий Келли против Марковица. Чтобы применить оптимизацию а-ля Марковиц во всей ее полноте, необходимо знать полное совместное распределение вероятностей всех активов до конца времен – плюс точную функцию полезности для благосостояния до конца времен. И без погрешностей! (Мы видели, что погрешность оценки взрывает систему.) Метод Келли, разработанный почти одновременно с теорией Марковица, не требует ни совместного распределения, ни функции полезности. На практике инвестору нужно знать соотношение ожидаемой прибыли к отдаче в худшем случае – динамически скорректированное, чтобы избежать катастрофы. В случае с трансформациями штанги худшая отдача гарантирована. И ошибка модели для критерия Келли куда меньше. См. Thorp (1971, 1998), Haigh (2000).
Замечательный Аарон Браун считает, что экономисты отвергли идеи Келли – невзирая на их практическую привлекательность, – из-за любви к общим теориям ценообразования.
Ограниченный метод проб и ошибок совместим с критерием Келли, когда инвестор имеет представление о потенциальной отдаче. Даже если нельзя сказать, какой будет отдача, в случае, если потери ограничены, результат будет неуязвим, так что этот метод должен превзойти теорию хрупкодела Марковица.
Корпоративные финансы. Если коротко, корпоративные финансы обычно прогнозируются точечно, а не дистрибутивно. Если мы введем, скажем, в модель оценки Гордона неустойчивый прогноз денежных потоков, заменив заданный – и известный – рост (и другие параметры) постоянно скачущими переменными (особенно при распределениях с жирными хвостами), предполагаемая стоимость компаний, которые считаются дорогими или растут быстро, но зарабатывают мало, может значительно повыситься. Рынок оценивает их именно так эвристически, без какой-либо явной причины.
Заключение и вывод. Истеблишмент экономической науки так и не понял, что если у нас имеется работающая модель (а это крайне великодушное предположение), но мы не уверены в ее параметрах, это неизбежно приведет к увеличению хрупкости в условиях выпуклости и нелинейности.
Забудьте о маленьких вероятностях
Теперь – самая суть, касающаяся не только экономики: поговорим о более общей проблеме – о вероятностях и ошибках в их измерении.
Как жирные хвосты (Крайнестан) возникают из-за нелинейных реакций на параметры модели
У редких событий есть особенное свойство, которое сейчас никем не учитывается. Мы работаем с ними, используя модель, математический механизм: на входе в него закладываются параметры, а на выходе получается вероятность. Чем меньше у нас уверенности в точном значении параметров для подобных моделей, тем больше мы склонны недооценивать маленькие вероятности. Проще говоря, маленькие вероятности выпуклы в отношении ошибочных вычислений точно так же, как полет на самолете вогнут в отношении ошибок и пертурбаций (как мы помним, самолеты опаздывают, а не прилетают раньше срока). При этом чем больше источников пертурбаций мы забываем учесть, тем дольше будет лететь самолет по сравнению с нашей наивной оценкой времени в полете.
Все мы знаем: чтобы вычислить вероятность, используя стандартное нормальное статистическое распределение, нам нужен параметр «среднеквадратическое отклонение» – или что-то подобное, характеризующее масштаб или дисперсию значений величины. Неопределенность в среднеквадратическом отклонении существенно влияет на малые вероятности. Так, для отклонения «три сигмы» вероятность события, которое должно случаться не чаще, чем один раз на 740 наблюдений, повышается на 60 процентов, если среднеквадратическое отклонение увеличивается на пять процентов, и падает на 40 процентов, если среднеквадратическое отклонение уменьшается на те же пять процентов. И если вы ошибаетесь в среднем на пять процентов, наивная модель выдаст оценку, заниженную примерно на 20 процентов. Асимметрия огромна, но лиха беда начало. Все становится совсем плохо, когда мы берем другие отклонения, скажем, «шесть сигм» (увы, в экономической науке эти «шесть сигм» встречаются сплошь и рядом): ошибка возрастает в пять раз. Чем реже событие (т. е. чем больше «сигма»), тем сильнее влияет маленькая неопределенность параметров на конечный результат. С событиями вроде «десять сигм» результаты отличаются в миллиард раз. Этот довод показывает, что меньшие вероятности требуют большей точности вычислений. Чем меньше вероятность, тем больше маленькое, чрезвычайно маленькое округление в расчете влияет на него так, что асимметрия становится абсолютно несущественной. Для расчета крошечных, совсем крошечных вероятностей вам нужна почти бесконечная точность в оценке параметров; малейшая неопределенность приведет к чудовищной катастрофе. Эти вероятности очень выпуклы в отношении возмущений. При помощи данного рассуждения я некогда доказывал, что маленькие вероятности невычислимы, даже если у нас есть работающая модель, а ее у нас, конечно же, нет.
Все то же самое относится к непараметрическому вычислению вероятностей по наблюдавшейся частоте. Если вероятность близка к 1/объем выборки, возникающая погрешность чудовищна.
Вот в чем ошибка «Фукусимы». Вот в чем ошибка Fannie Mae. Подытожим: маленькие вероятности растут тем быстрее, чем больше меняется параметр, который используется при вычислении.
Рис. 38. В гауссовой модели вероятность выпукла в отношении среднеквадратического отклонения. График показывает, как среднеквадратическое отклонение (STD) влияет на вероятность P>x и сравнивает две ситуации: P>6 при STD, равном 1,5, и P>6 при линейной взаимосвязи в промежутке между 1,2 и 1,8 (здесь a (1) = 1/5).
Плохо то, что возмущение σ затрагивает в том числе хвост распределения, причем выпукло; риск портфеля, который чувствителен к хвостам, возрастает при этом неимоверно. Мы все еще в гауссовом пространстве! Подобная взрывоопасная неопределенность возникает не из-за естественных жирных хвостов в распределении, а вследствие маленькой неточности в оценке параметра. Это эпистемическое явление! Вот почему люди, использующие такие модели, зная, что оценка параметров неточна, неизбежно и жестоко противоречат сами себе[139].
Разумеется, неопределенность становится еще опаснее, когда на переменчивые хвостовые экспоненты мы накладываем не-гауссову реальность. Даже при степенном распределении результат ужасен, особенно при изменении хвостовой экспоненты, когда последствия станут просто катастрофическими. Так что жирные хвосты означают невычислимость хвостовых событий – и не более того.
Усложнение неопределенности («Фукусима»)
Ранее мы говорили о том, что оценка приводит к ошибке. Расширим это утверждение: ошибки порождают ошибки; те, в свою очередь, тоже порождают ошибки. Если мы учтем этот эффект, маленькие вероятности вырастут вне зависимости от модели – даже при гауссовом распределении, – настолько, что достигнут жирных хвостов и породят степенные эффекты (даже так называемую бесконечную дисперсию), когда неопределенность более высокого порядка огромна. Даже при гауссовом распределении у среднеквадратического отклонения σ имеется пропорциональная ошибка a (1); у a (1) величина ошибки составляет a (2) и т. д. В итоге результат зависит от величины ошибки более высокого порядка a (n), связанной с a (n–1); если пропорция тут постоянна, наше распределение обретает очень толстые хвосты. Когда пропорциональные ошибки уменьшаются, жирные хвосты все равно остаются. Во всех случаях ошибка очень сильно влияет на малую вероятность.
Как ни печально, убедить людей в том, что во всякой оценке кроется ошибка, оказалось почти невозможно. Между тем может оказаться, что катастрофы вроде «Фукусимы», которые, как считается, происходят раз в миллион лет, на деле происходят раз в 30 лет, если правильно учесть все уровни неопределенности.