Этот подход – использование клеточных автоматов на квадратной шахматной доске с частицами, движущимися по краям между вершинами, – был опробован давно, еще в 1970-х гг., но в конечном итоге моделируемый поток зависел от его ориентации относительно базовой решетки[609][610]. Одно дело направлять поток крови внутри вены или артерии, и совсем другое – иметь кровь, которая изначально предпочитает течь в произвольном пространственном направлении. Причина сводится к используемому математическому сокращению, многомерной сущности, называемой тензором, которая, как обнаружил Вольфрам, становится безразличной к направлению потока (то есть поток изотропен), только если использовать шестиугольную, а не квадратную решетку. Это ознаменовало собой триумф моделирования динамики жидкости, основанного на чрезвычайно простых основных правилах, продемонстрировав силу «теории сложности» для описания макроскопического потока жидкости, включая турбулентность.
Но за этот успех приходится платить. Многомасштабное моделирование терпит неудачу при проецировании решетки на молекулярный мир. Да, эти дискретные решетчатые модели хорошо работают при решении уравнений динамики сплошной жидкости, используемых для моделирования кровотока. Но лежащая в основе решетчатая модель не соответствует тому, как молекулы на самом деле движутся в непрерывном пространстве, поэтому при переходе от молекулярного описания в непрерывном пространстве к фиктивному дискретному пространству с конечным числом скоростей теряется огромное количество информации.
Для многих научных приложений такое грубое определение – все равно что выбросить шампанское вместе с пробкой. Хотя эта схема объясняет много важных «универсальных» аспектов гидродинамики, по сути, все химические детали лежащих в ее основе молекул просто отбрасываются (хотя попытки модернизировать эти детали предпринимаются часто). Есть что-то неправильное в стремлении заменить непрерывные и разнообразные симметрии, с которыми мы сталкиваемся в физике элементарных частиц и поведении молекул, искусственными блоками Lego, которые точно обеспечивают некоторые возникающие свойства в механике жидкости, но игнорируют реалии микроскопического мира.
Несмотря на эти ограничения, Вольфрам принадлежит к числу тех, кто находит метафору вычислений настолько пьянящей, что убежден, что на «самом глубоком уровне», в наименьшем из всех временных и пространственных масштабов, природа работает по сверхпростым вычислительным правилам, основанным на дискретной математике. Хотя классический взгляд на мир является аналоговым, Вольфрам считает, что в структуре Вселенной существует дискретность (однако в целом среди физиков нет единого мнения относительно того, остается ли пространство-время гладким и непрерывным на кратчайших масштабах расстояний или же становится грубым и зернистым)[611][612]. Он заменил ячейки решетки клеточного автомата обобщением, а именно графиком – сетью точек со связями между ними, которая растет и трансформируется по мере продвижения цифровой логики космического кода, шаг за шагом (графики необходимы, потому что решетки слишком негибки, чтобы охватить законы Вселенной).
Аргумент Вольфрама гласит, что точно так же, как уравнения континуума механики жидкости возникают из специально построенной пространственно-дискретной решетчатой модели, для которой сохраняются основные свойства, такие как масса и импульс, так и континуум того, что мы воспринимаем как реальность, возникает из небольшого набора правил и графиков. В своей книге «A Project to Find the Fundamental Theory of Physics» он пишет о «твердой вере в то, что в конце концов откроется – каждая деталь нашей Вселенной подчиняется правилам, которые можно представить с помощью очень простой программы, и все, что мы видим, в конечном итоге возникает только в результате запуска этой программы»[613] (хотя некоторые полученные результаты могут быть неисчислимыми, как обсуждалось во второй главе).
Вольфрам и его коллега Джонатан Горард, математик из Кембриджского университета и консультант Wolfram Research, обнаружили, что они могут резюмировать аспекты квантовой теории и общей теории относительности Эйнштейна – двух столпов современной физики[614][615]. «Я был удивлен, сколько нам удалось воспроизвести», – сказал нам Горард. – «Но есть еще очень много математических методов, которые необходимо разработать». Вместо того чтобы проводить эксперименты, а затем углубляться, чтобы раскрыть фундаментальную теорию (традиционный подход, используемый более трех столетий), Горард и Вольфрам увлечены «переворачиванием парадигмы» и вычисляют последствия восходящих моделей, чтобы увидеть, соответствуют ли они экспериментальным наблюдениям[616].
Не случайно, добавляет Горард, эти модели «отражают окружающую технологию»: французский философ Рене Декарт (1596–1650) в эпоху механического измерения времени придерживался механического мировоззрения; Ньютон и Лейбниц создали математику изменений – исчисление, которое затем легло в основу механистических объяснений природы, основанных на аналоговом и непрерывном представлении о времени и пространстве. Подобным же образом дискретное математическое мировоззрение Вольфрама возникло в эпоху, когда частью повседневной жизни стали цифровые компьютеры.
Есть что-то освежающее в принципиально ином подходе к физике. Хотя решетки, которые Вольфрам и коллеги использовали в гидродинамике, не соответствуют реальному миру, зернистость предложенных ими моделей построена на графиках, которые меньше, чем мельчайшие измеримые характеристики природы в масштабе Планка, ниже которого физика, как мы ее понимаем сегодня, терпит крах. Говоря «мельчайшие», мы преувеличиваем: на самом деле мы имеем в виду интервалы времени менее 10–43 с и масштабы длины около 10–35 м.
Серьезное испытание правильности их подхода произойдет тогда, когда их модель расскажет нам что-то новое о Вселенной. Пока мы пишем, они стремятся делать прогнозы, например, о заключительных стадиях слияния черных дыр, где их дискретное вычислительное представление дает результаты, отличные от существующих моделей; и что во Вселенной могут быть пространственные карманы, которые более или менее трехмерны, что можно обнаружить по их влиянию на формирование галактик, прохождение нейтрино через материю; и более умозрительные идеи о других сверхлегких частицах.
Рисунок 54. Построение общей теории относительности снизу вверх (© Stephen Wolfram, LLC)
Нам следует поместить эту работу в надлежащий, космический контекст. Мы по-настоящему понимаем только около 5 % того, что нас окружает, – видимую Вселенную, от наших тел до Солнца, звезд и галактик, которые состоят из обычной или барионной материи – в то время как остальная часть, по-видимому, состоит из таинственной невидимой субстанции, называемой темной материей (около 25 %), и столь же непостижимой силы отталкивания, которая ведет себя как антигравитация, известная как темная энергия (около 70 %). Наше незнание Вселенной представляет собой отличную возможность для развития нового мышления.
Глоссарий
NP-задача – когда время, необходимое для решения проблемы, увеличивается в геометрической прогрессии (нечто в степени N, где N измеряет размер проблемы). Эти проблемы называются неразрешимыми, потому что время, необходимое для их решения, быстро выходит из-под контроля. Даже грубая мощь компьютера малоэффективна. Задачи, которые неразрешимы за полиномиальное время, но ограничены экспоненциальной степенью N, относятся к классу NP.
NP-полная – самый сложный тип NP-задач.
RISC – акроним компьютера с сокращенным набором команд. Микропроцессор, который выполняет меньше инструкций, чем традиционные микропроцессоры (называемые устройствами с полным набором команд), поэтому способный работать быстрее.
Адаптивный ландшафт – ландшафт, представляющий показатели приспособленности или стоимостные функции проблемы, будь то коммивояжеры, спиновые стекла или репродуктивная способность обезьяны.
Аксон – длинное волокно, идущее от нейрона (нервной клетки), которое передает сигнал другим нейронам.
Алгоритм – поэтапная процедура, которая может быть выполнена механически и, следовательно, реализована на машине. В информатике описывает программу, логическую последовательность операций, выполняемых программным обеспечением.
Алгоритм имитации отжига – вычислительный метод определения состояний, близких к глобальным минимумам, на (гипер)поверхности, начиная с высоких температур и постепенно охлаждая в соответствии с четко определенным рецептом. Таким образом можно избежать захвата локальных минимумов. Название происходит от процесса отжига, при котором материал сначала нагревается с последующим медленным охлаждением для повышения пластичности и прочности, позволяя атомам, составляющим металл, перейти в более низкоэнергетическую структуру.
Алгоритмическая сложность – мера сложности проблемы, определяемая размером наименьшей программы, которая ее рассчитывает, или ее полного описания. Для более простых задач требуются программы меньшего размера.
Аминокислоты – молекулярные строительные блоки белков.
Аналоговый – постоянно в движении, как ртуть внутри термометра.
Аппаратное обеспечение – физические части компьютера, состоящие из механических, электрических и электронных компонентов.
Артерия – сосуд, несущий кровь от сердца.
Атомы – строительные блоки всех молекул живых существ. В точку в конце этого предложения уместилось бы около триллиона атомов углерода или молекул воды.