[860]. Поток гамма-лучей от сверхновой или сколлапсировавшей звезды может облучить полпланеты, превратить часть атмосферного азота и кислорода в бурую двуокись азота и разрушить озоновый слой, позволив ультрафиолету выжечь оставшуюся половину[861]. Магнитное поле Земли может сменить полярность на противоположную, на какое-то время оставив планету без защиты от смертоносной радиации Солнца и космоса. Астероид может врезаться в Землю, смяв в лепешку тысячи квадратных километров и подняв в воздух пыль, которая затемнит солнце и прольется едкими дождями. Супервулканы или массивные лавовые потоки могут удушить нас пеплом, углекислым газом и серной кислотой. Черная дыра может забрести в Солнечную систему, столкнув Землю с орбиты или же всосав ее внутрь своего горизонта событий. Даже если наш вид просуществует еще миллиард лет, Земля и Солнечная система столько не продержатся: по мере исчерпания на Солнце запасов водорода плотность нашей звезды вырастет, а температура повысится, так что она испарит земные океаны и станет красным гигантом.
Проще говоря, технологии – не причина, по которой наш вид рано или поздно встретится с костлявой старухой, технологии – наша единственная надежда обмануть смерть, по крайней мере на время. Размышляя о гипотетических угрозах далекого будущего, мы должны уделять внимание и гипотетическим достижениям, которые помогут нам их пережить, например выращиванию еды с помощью света термоядерного синтеза или ее производству на промышленных фабриках на манер биотоплива[862]. Даже технологии не такого уж отдаленного будущего могут нас однажды спасти. Нет ничего невозможного в том, чтобы отслеживать траектории астероидов и других околоземных объектов, вычислять те из них, которые могут столкнуться с Землей, и сбивать их с курса прежде, чем они отправят нас вдогонку за динозаврами[863]. Специалисты NASA предложили под давлением закачивать в супервулканы воду, одновременно получая геотермальную энергию и охлаждая магму, чтобы она не вырвалась на поверхность[864]. Наши предки ничего не могли противопоставить этим смертельным угрозам; мы же с вами, благодаря технологиям, живем не в самое опасное, а в самое безопасное время в истории.
Вот почему безосновательны техно-апокалиптические заявления, будто наша цивилизация станет первой, которая сама себя уничтожит. В знаменитом сонете Перси Биши Шелли надпись на изваянии фараона Озимандии напоминает путнику, что большинство когда-либо существовавших цивилизаций исчезли с лица земли. Традиционный взгляд на историю винит в их гибели внешние события вроде эпидемий, завоеваний, землетрясений или изменения климата. Но Дэвид Дойч замечает, что эти цивилизации могли бы выстоять, если бы обладали более совершенными сельскохозяйственными, медицинскими или военными технологиями:
До того как наши предки научились получать огонь искусственным путем (и неоднократно после этого), людям приходилось умирать непосредственно от воздействия источников огня, который должен был спасать им жизнь, потому что не умели с ним обращаться. В узком смысле слова их убивала погода, но если смотреть на вещи шире – отсутствие знаний. Многие из тех сотен миллионов, кто на протяжении всей истории умер от холеры, наверняка лежали в двух шагах от очагов, на которых можно было кипятить питьевую воду и тем самым спастись; но опять же они об этом не знали. В достаточно общем смысле различие между «стихийным» бедствием и бедствием, случившимся по невежеству, носит ограниченный характер. Если перенестись в момент перед любым из стихийных бедствий, которые, как говорится, «просто случились» или уготованы нам богами, то можно увидеть множество вариантов спасения, которыми пострадавшие не смогли воспользоваться, а иногда и просто не создали их. Все эти варианты складываются в одну всеобъемлющую возможность, которую они не смогли воплотить, – это формирование научной и технологической цивилизации, подобной нашей. Это традиции критики. Это Просвещение[865][866].
Из всех экзистенциальных угроз, предположительно нависших над будущим человечества, выделяется разновидность проблемы 2000 года, характерная для XXI века: опасение, что нас поработит, намеренно или случайно, искусственный интеллект (ИИ), – трагедия, которую иногда называют робокалипсисом и часто иллюстрируют кадрами из фильмов про Терминатора. Как и в случае с проблемой 2000 года, некоторые умные люди воспринимают ее всерьез. Илон Маск, чья компания собирает автомобили, управляемые искусственным интеллектом, заявил, что эта технология «опаснее атомной бомбы». Стивен Хокинг, вещая через свой снабженный искусственным интеллектом синтезатор речи, предупредил, что она способна «возвестить конец рода человеческого»[867]. Но есть и другие умные люди, которые не теряют по этому поводу сна и покоя, – в их числе большинство специалистов по искусственному интеллекту и специалистов по интеллекту человека[868].
Сценарии робокалипсиса базируются на расплывчатой концепции интеллекта, которая восходит скорее к идеям Великой цепи бытия и ницшеанской воли к власти, чем к современной научной картине реальности[869]. Согласно этой концепции, интеллект – всемогущий эликсир осуществления желаний, которым разные субъекты обладают в разном количестве. У людей его побольше, чем у животных, а искусственному интеллекту или роботам будущего его достанется еще больше. Мы, люди, применив свой умеренный запас интеллекта, смогли приручить или уничтожить не настолько богатых им животных (а технологически развитые общества смогли поработить или уничтожить технологически отсталые народы); следовательно, сверхсообразительный искусственный интеллект сделает то же самое с нами. А так как ИИ способен думать в миллион раз быстрее нас и будет использовать эту свою способность, чтобы наращивать собственную интеллектуальную мощь в геометрической прогрессии (сценарий, который иногда обозначают словом «фум», foom – так в комиксах изображается звук резкого взлета), мы окажемся не в силах его остановить, стоит ему один раз включиться[870].
Это так же бессмысленно, как представление, что, раз реактивные самолеты летают лучше орлов, однажды они начнут пикировать с неба и красть скот. Первая ошибка – путать интеллект и мотивацию, убеждения и желания, суждения и цели, мышление и стремление. Даже если бы мы действительно изобрели нечеловечески умных роботов, с чего бы они захотели поработить своих хозяев и захватить мир? Разум – это способность изобретать новые средства достижения цели. Но сами цели лежат вне интеллекта: быть умным не значит хотеть чего-то определенного. Просто так случилось, что разум в одной конкретной системе, а именно Homo sapiens, стал продуктом дарвиновского естественного отбора – процесса, конкурентного по самой своей природе. В мозгах представителей этого вида мышление увязано (у каждого в разной степени) с такими целями, как победа над соперниками и накопление ресурсов. Но нельзя путать свойства лимбической системы конкретного вида приматов с самой природой интеллекта. Почему бы созданному, а не возникшему в результате эволюции искусственному интеллекту не мыслить подобно шму, бесформенным альтруистам из комиксов Эла Кэппа, которые использовали свою недюжинную смекалку, чтобы поджаривать самих себя, к радости проголодавшихся людей. Нет такого закона сложных систем, который гласил бы, что разумный субъект обязан быть безжалостным захватчиком. Более того, нам известно о существовании высокоразвитой формы интеллекта, которая развилась без этого дефекта. Ее называют женщинами.
Вторая ошибка – считать интеллект безграничным диапазоном возможностей, чудодейственным эликсиром, способным решить любую проблему и достичь любой цели[871]. Именно эта ошибка заставляет нас задавать бессмысленные вопросы типа «А когда искусственный интеллект станет умнее человека?» и вызывает в нашем воображении образ непревзойденного «сильного искусственного интеллекта», всезнающего и всемогущего, словно Бог. Интеллект – это хитроумная конструкция из множества модулей – блоков программного обеспечения, которые либо были запрограммированы с помощью знаний, либо сами накапливают знания для достижения разнообразных задач в разных областях[872]. Люди оснащены такими модулями для передвижения, поиска пищи, завоевания друзей и воздействия на окружающих; они способны очаровывать потенциальных сексуальных партнеров, воспитывать детей и предаваться другим человеческим страстям и занятиям. Компьютеры можно запрограммировать на решение некоторых из этих задач (например, распознавать лица), не заботясь о других (например, очаровывать потенциального партнера); их можно научить решать недоступные людям задачи (например, моделировать климат или упорядочивать миллионы бухгалтерских записей). Задачи различны, как и виды знаний, необходимые, чтобы их решать. В отличие от демона Лапласа – вымышленного существа, которое знает местоположение и импульс каждой частицы во Вселенной и подставляет эти данные в физические уравнения, вычисляя состояние всего на свете в любой момент в будущем, – реальный субъект познания вынужден накапливать информацию о запутанном мире объектов и людей, взаимодействуя с одним его фрагментом за раз. Способность к пониманию не подчиняется закону Мура: знания добываются за счет формулирования объяснений и их проверки на практике, а не благодаря все более быстрому выполнению некоего алгоритма