представляли интерес при изучении перемешивания. У других аттракторов распространение шло лишь в определенных направлениях: шарик превращался в ленту, хаотичную по одной оси и упорядоченную по другой. Создавалось впечатление, будто в системе уживаются упорядоченный и хаотический импульсы – и они обособленны. В то время как один импульс приводил к случайности и непредсказуемости, другой работал словно точнейшие часы. И оба могли быть определены и измерены.
Хаотическое перемешивание. Одна капля перемешивается быстро, другая, расположенная чуть ближе к центру, почти вовсе не перемешивается. В экспериментах Джулио Оттино и других ученых с реальными жидкостями процесс перемешивания – повсеместно встречающийся как в природе, так и в промышленности, но при этом все еще слабо изученный – оказался очень тесно связан с математикой хаоса. Поведение жидкостей обнаруживало процессы растяжения и складывания, которые возвращали ученых к подкове Смейла.
Наибольший вклад исследований, проведенных в Санта-Крузе, в науку о хаосе оказался связан с разделом математики, в котором присутствует изрядная доля философии, – с теорией информации[326]. Эта теория была создана в конце 1940-х годов Клодом Шенноном, американским инженером, трудившимся в компании BellTelephoneLaboratories. Он назвал свою работу «Математическая теория коммуникации», но, поскольку речь в ней шла об особом понятии, называемом информацией, за новой дисциплиной закрепилось наименование «теория информации». То был продукт века электроники. Линии связи и радиопередачи несли в себе нечто определенное, в недалеком будущем компьютерам предстояло хранить это «нечто» на перфокартах или магнитных цилиндрах, и все же оно не являлось знаниями и само по себе не обладало смыслом. Основными единицами этого загадочного предмета служили не идеи, не понятия и даже не всегда слова или числа. Независимо от того, нес ли он в себе смысл или бессмыслицу, инженеры и математики могли его измерять, пересылать по линиям передач и проверять такие передачи на точность. Слово «информация» было таким же словом, как и все остальные, но люди должны были запомнить, что они используют специальный, свободный от оценочных суждений термин, не связанный привычными коннотациями с фактами, обучением, мудростью, пониманием и просвещением.
Технические средства определили очертания теории. Поскольку информация хранилась в ячейках компьютерной памяти в двоичном представлении – в битах, бит стал основной мерой информации. С технической точки зрения теория информации превратилась в инструмент, который помогал выяснить, каким образом шумы в форме случайных помех препятствуют передаче битов. Теория подсказывала способ определения необходимой пропускной способности коммуникационных каналов, компакт-дисков и прочих продуктов технологии, кодировавшей язык, звуки и изображения. Она предлагала теоретические средства для расчета эффективности различных схем коррекции ошибок, в частности, применения некоторых битов для проверки остальных. Наконец, она исследовала такое важнейшее понятие, как «избыточность». Согласно теории информации Шеннона, обычный язык более чем на 50 % избыточен, то есть содержит звуки или буквы, которые не являются строго необходимыми для передачи сообщения. Знакомая идея, не правда ли? Повседневная коммуникация в мире, где невнятно проговаривают слова и допускают опечатки, существенным образом зависит от избыточности. Известная всем реклама курсов стенографии «если в мжт прчть здс сбщн» наглядно иллюстрирует выдвинутое утверждение, а теория информации позволяет дать количественную оценку данного феномена. Избыточность являет собой предсказуемое отклонение от случайного. В обычном языке она проявляется в повторяемости значений, которую весьма сложно измерить – мера ее зависит от общих для людей знаний о собственном языке и мире. Именно элемент избыточности помогает людям решать кроссворды или вставлять пропущенное слово, если оно начинается, скажем, на букву а. Есть и другие типы избыточности, больше пригодные для численных измерений. Согласно статистическим данным, вероятность того, что взятой наугад буквой английского языка окажется буква е, гораздо выше 1/26[327]. К тому же не стоит рассматривать буквы как изолированные единицы. К примеру, зная, что в английском тексте есть буква t, можно предположить, что за ней следует буква h или о, а зная две буквы, можно предсказать следующую с еще большей точностью. Частотность употребления комбинаций из двух или трех букв восходит к пониманию характерных особенностей того или иного языка. Компьютер, руководствуясь одними лишь относительными вероятностями возможных трехбуквенных последовательностей, может выдать бессмысленный текст, но это будет узнаваемо английская бессмыслица. Криптологи долгое время использовали такой статистический принцип при расшифровке простых кодов. Сейчас инженеры, работающие в сфере коммуникаций, применяют его к технологиям сжатия данных и устранения избыточности, чтобы экономить пространство передающей линии или дискового накопителя. По Шеннону, нужно рассматривать эти модели, руководствуясь следующими соображениями: поток информации в обычном языке менее чем случаен; каждый новый бит частично ограничен предшествующими; таким образом, каждый новый бит несет в себе в некоторой степени меньше содержания, чем мог бы. В такой формулировке просматривается некий парадокс: чем выше доля случайности в потоке данных, тем больше информации будет передано каждым новым битом.
Весьма ценная в техническом плане для начала компьютерной эры, теория информации Шеннона мало что привнесла в философию. Удивительным образом та часть теории, которая привлекла внимание специалистов других областей, может быть выражена одним-единственным термином – энтропия. Как объяснял Уоррен Уивер в классическом изложении теории информации, «человек, впервые сталкивающийся с понятием энтропии в теории коммуникаций, вправе ощутить волнение, он вправе заключить, что встретил нечто основополагающее, важное»[328]. Концепция энтропии восходит к термодинамике: на ней основан второй закон термодинамики, гласящий, что Вселенная и каждая изолированная система в ней неизбежно стремится к нарастанию беспорядка. Разделите бассейн на две части, поставив между ними перегородку. Наполните одну часть водой, а другую – чернилами. Дождитесь, пока поверхность успокоится, а затем уберите перегородку. Вы увидите, что лишь посредством случайного перемещения молекул вода и чернила со временем перемешаются. Этот процесс никогда не повернется вспять, сколько ни жди – хоть до конца света. Именно поэтому часто считается, что второй закон термодинамики – это тот физический принцип, который уподобил время одностороннему уличному движению. Энтропия – наименование того свойства систем, которое увеличивается согласно второму закону: перемешивания, беспорядочности, случайности. Это понятие легче постичь интуитивно, не пытаясь измерить его в реальной жизни. Как с достаточной степенью достоверности можно оценить, насколько хорошо перемешались два вещества? Можно взять случайный набор молекул смеси и пересчитать молекулы каждого из этих веществ в нем; но какой вывод вы сделаете, если получите результат «да – нет – да – нет – да – нет – да – нет»[329]? Вряд ли вы скажете, что энтропия большая. Другой способ заключается в подсчете только четных молекул; но что, если получится последовательность «да – нет – нет – да – да – нет – нет – да»? Порядок проявляется таким образом, что делает бесполезным любой алгоритм подсчета. Дополнительную сложность в теорию информации добавляют проблемы смысла и представления. Последовательности вроде такой: οι оюо оюо оою ш ою и оо ооо оою ш ою il оюо о ооо ооо… – могут показаться упорядоченными только наблюдателям, знакомым с азбукой Морзе и творчеством Шекспира. И как тогда быть с топологически замысловатыми узорами странного аттрактора?
Роберт Шоу узрел в аттракторах движущую силу информации. Согласно его первоначальной и главнейшей концепции, хаос указывает естественный путь возврата к физическим наукам в обновленной форме, к тем идеям, которые теория информации почерпнула из термодинамики. Странные аттракторы, соединяющие порядок и беспорядочность, открыли новую перспективу в вопросе измерения энтропии систем. Они являются эффективными «перемешивателями», что создают непредсказуемость и таким образом повышают энтропию. По представлениям Шоу, они порождают информацию там, где ее ранее не существовало.
Однажды Норман Паккард, читая журнал Scientific American, наткнулся на сообщение о конкурсе эссе, объявленном Луи Жако[330]. Стоило подумать об участии: Жако, французский финансист, выдвинувший собственную теорию относительно структуры Вселенной, галактик внутри галактик, обещал победителю солидный приз. Для участия в конкурсе принимались любые очерки, так или иначе касающиеся предмета интересов самого Жако. («Они получат груды писем от всяких чудаков», – предрекал Фармер.) Состав жюри впечатлял: туда входили светила французской науки. Впечатлял и денежный приз. Паккард показал объявление Шоу. Работу нужно было представить на конкурс не позднее 1 января 1978 года.
К этому времени члены группы регулярно встречались в большом старом доме неподалеку от побережья. Они притащили туда мебель с блошиного рынка и компьютерное оборудование, применявшееся в основном для работы над теорией рулетки. Шоу держал там пианино, на котором наигрывал мелодии эпохи барокко или просто импровизации на классические и современные темы. Встречаясь у побережья, физики выработали собственный стиль исследований: процедуру оценки идей, просеивания их сквозь сито целесообразности, штудирования литературы и написания своих работ. В конечном счете молодые люди научились довольно эффективной совместной работе над статьями для научных журналов. Впрочем, первая статья была подписана именем Шоу – одна из немногих, которые он напишет, – и он работал над ней в одиночку, что было довольно характерно. И что не менее характерно, он опоздал.