Шанс есть! Наука удачи, случайности и вероятности — страница 19 из 40

Это не значит, что исследователи были на 99,9 % уверены в том, что новый препарат лучше, хотя подобные сообщения, опять же, часто интерпретируют именно так. Когда другие специалисты заново проанализировали эти испытания, но уже по Байесу, взяв при этом результаты предшествующих клинических тестов как априорные данные, они заключили: «Непосредственная» вероятность того, что новый препарат лучше, составляет лишь около 17 %. «При баейсианском подходе мы напрямую обращаемся к интересующему нас вопросу и говорим, насколько вероятно, что положительный ответ на него истинен, – объясняет Дэвид Шпигельхальтер из Кембриджского университета. – Да и кто не захочет говорить именно об этом?»

У всякого свой любимый конек. Но, может быть, преимущества и недостатки каждого из этих двух подходов как бы побуждают нас задуматься: а не лучше ли как-то скомбинировать элементы обоих? Касс принадлежит к новому племени статистиков, которое как раз этим и занимается. «Для меня статистика – своего рода язык, – говорит он. – Можно свободно владеть французским и английским, спокойно переключаясь с одного на другой в случае необходимости».

Стивен Сенн, специалист по фармацевтической статистике из Люксембургского института здоровья, с ним согласен: «Я использую, так сказать, „смешанную статистику“, в которой отовсюду надергано понемногу. Нередко я работаю как фреквентсит, но оставляю за собой право выполнять байесианский анализ и мыслить по-байесовски».

Касс приводит в пример одно исследование: вместе с коллегами он анализировал характер активации двух сотен нейронов в зрительно-двигательной зоне обезьяньего мозга. Исследования, проводившиеся ранее нейробиологами, дали Кассу и его коллегам предварительную информацию о том, насколько быстро должны активироваться эти нейроны и насколько быстро скорость их активации может изменяться со временем. Эти данные они учли при байесианском анализе, а затем стали оценивать свои результаты при помощи стандартных методов фреквентистов. Байесианские априорные данные позволили «запустить» анализ так, чтобы частотные методы сумели вычленить даже крошечные отличия в океане шумов. Эффективность совместного применения обоих подходов оказалась значительно выше, чем для каждого метода в отдельности.

Иногда байесовские методы и идеи фреквентистов сплетаются столь тесно, что получается нечто новое. В масштабных геномных исследованиях байесовский анализ может использовать тот факт, что эксперимент, где изучается эффект двух тысяч генов, почти эквивалентен двум тысячам параллельных экспериментов, так что этот опыт способен обеспечивать «перекрестное опыление» для разных сегментов анализа: результаты одних становятся априорными данными для других, благодаря чему постепенно улучшается точность выводов частотного анализа.

«Такой подход дает несколько лучшие результаты, – говорит Джефф Лик из Университета Джона Хопкинса (Балтимор, штат Мэриленд). – Он серьезно изменил наш способ анализа геномной информации».

Кроме того, такой подход ломает барьеры. «Каким его назвать – частотным или байесовским? – спрашивает в своем блоге Рифаэль Иризарри, гарвардский биостатистик. – Для прикладной статистики, которой я занимаюсь, это, в общем-то, неважно».

Впрочем, споры еще не совсем утихли. «По сути, статистика – это абстрактный язык, с помощью которого наука описывает результаты, рассказывая о том, как устроена природа и как она работает, – говорит Касс. – Но рассказывать можно по-разному. И я не исключаю, что лет через 200 в статистике произойдет революция и появится какой-нибудь блестящий синтез байесианства и частотного подхода. Но мне кажется, что здесь всегда будет идти борьба как минимум двух методов».

Известные неизвестные

Бросим последний (в этой книге) взгляд на математику случая. Мы отправляемся в мрачные глубины теории чисел. Осторожно, здесь таятся чудовища: совершенно непредсказуемые числа, не позволяющие нам доказать некоторые теоремы. Чудовищ открыл Грегори Чайтин. Он постарается объяснить, почему некоторых так встревожило это открытие.


Физики давно обсуждают вопрос предсказуемости. В начале XIX века классические детерминистические законы Исаака Ньютона заставили Пьера Симона де Лапласа решить, что будущее Вселенной, возможно, навсегда предопределено.

А потом появилась квантовая механика. Ее теории лежат в основе нашего теперешнего понимания природы вещества. Она описывает очень маленькие объекты – например, электроны и другие элементарные частицы. Одной из самых противоречивых особенностей квантовой механики стало то, что она ввела в физику вероятность и случайность как основополагающие факторы. Как известно, это очень расстроило Альберта Эйнштейна, который возмущенно заявил: мол, Бог не играет в кости.

А несколько десятилетий спустя научный мир был снова удивлен: исследования в области нелинейной динамики показали, что даже классическая ньютоновская физика зиждется на случайности и непредсказуемости. Так случайность и непредсказуемость начали казаться каким-то объединяющим физическим принципом.

Кажется, этот же принцип распространяется и на математику. Некоторые теоремы, связанные с теорией чисел, невозможно доказать, поскольку, задавая необходимые вопросы, мы получаем результаты, эквивалентные результатам случайного подбрасывания монетки.

Мои выкладки шокировали бы многих математиков XIX века, убежденных, что уж математические истины всегда можно доказать. Например, в 1900 году математик Дэвид Гильберт прочел ставшую знаменитой лекцию, где перечислил 23 нерешенные проблемы как вызов для математиков нового века. Шестая проблема касалась установления фундаментальных универсальных истин – аксиом – в физике. Один из ее аспектов затрагивал теорию вероятностей. Для Гильберта вероятность выступала просто как практический инструмент, берущий начало в физике и помогающий описывать реальный мир, где доступно лишь ограниченное количество информации.

Десятая проблема Гильберта касалась решения так называемых диофантовых уравнений (названных так в честь древнегреческого математика Диофанта). Это алгебраические уравнения, имеющие дело лишь с целыми числами. Гильберт спрашивает: «Существует ли способ определить, будет ли алгебраическое уравнение иметь целочисленное решение?»

Гильберт вряд ли догадывался, что между шестой и десятой проблемой существует тонкая взаимосвязь. В основе всех его рассуждений лежало настолько фундаментальное для него положение, что он даже не сформулировал его на своей лекции в виде проблемы или вопроса: Гильберт неизменно исходил из того, что у каждой математической задачи есть решение. Может быть, нам не хватает ума, трудолюбия или времени, чтобы его найти, но в принципе всякая математическая проблема должна быть разрешимой. Так полагал Гильберт. Для него это была абсолютная истина.

Однако сегодня математикам ясно: Гильберт стоял на зыбкой почве. Да, есть связь между шестой проблемой Гильберта, которая имеет отношение к теории вероятностей, и его десятой проблемой – касательно целочисленных решений для алгебраических уравнений. И эта связь приводит к неожиданному и даже в чем-то устрашающему результату. Оказывается, случайность таится в самом сердце традиционнейшей отрасли чистой математики – теории чисел.

Как выясняется, ответы на простые и ясные математические вопросы не всегда просты. Так, в элементарной теории чисел вопросы, затрагивающие диофантовы уравнения, способны порождать ответы совершенно случайного характера – с виду не черные и не белые, а серые. Ответы случайны, ибо единственный путь доказательства сводится к постулированию каждого ответа как добавочной независимой аксиомы. Эйнштейн ужаснулся бы, узнав, что Бог преспокойно играет в кости не только в квантовой и классической физике, но и в чистой математике.

Откуда столь неожиданный вывод? Вернемся к Гильберту. Он утверждал, что если вы построили формальную систему аксиом, должна существовать механическая процедура для определения того, является ли то или иное математическое доказательство верным, и эти аксиомы должны обладать полнотой и внутренней непротиворечивостью. Внутренняя непротиворечивость системы аксиом означает, что вы не можете доказать противоположные утверждения. Полнота системы означает, что вы можете доказать истинность или ложность любого утверждения, существующего в ее рамках. Из этого следует, что механическая процедура, о которой мы говорили, должна гарантировать: истинность всех математических утверждений можно доказать или опровергнуть механическим путем.

Есть красочное объяснение того, как работает эта механическая процедура. Речь идет о так называемом алгоритме Британского музея[11]. В рамках мысленного эксперимента (неосуществимого на практике, т. к. он требует бесконечного времени) систему аксиом, выраженных формальным языком математики, прогоняют через все возможные доказательства, причем порядок их следования выстроен согласно их размерам и лексикографической структуре (просто для того, чтобы соблюдать какой-то порядок). Вы устанавливаете, какие из этих доказательств верны, т. е. какие из них отвечают определенным правилам и могут быть приняты как справедливые. В принципе, если набор аксиом обладает внутренней непротиворечивостью и полнотой, можно определить истинность/ложность любой соответствующей теоремы. От математиков больше не требуется изобретательность, талант или вдохновение для того, чтобы доказывать теоремы. Математика становится механической.

Конечно же, на самом деле математика совсем не такая. Курт Гёдель, австрийский логик, и Алан Тьюринг, отец компьютера, показали: невозможно получить и аксиоматическую математическую теорию (обладающую внутренней непротиворечивостью и полнотой), и механическую процедуру, призванную решать, каким является произвольное математическое утверждение – истинным или ложным, доказуемым или недоказуемым.

Гёдель первым вывел хитроумное доказательство так называемой теоремы о неполноте, основываясь на теории чисел. Но мне кажется, что вариант той же теоремы, предложенный Тьюрингом, более фундаментален и удобнее для понимания. Тьюринг воспользовался компьютерным языком (он говорил об инструкциях, т. е. о программе, необходимой компьютеру для решения задач), дабы показать: не существует механической процедуры, которая позволила бы определить, прекратит ли когда-нибудь произвольная программа свои расчеты, выдав некий конечный результат и остан