Будущее есть простая система с известным начальным состоянием. Давать детальные прогнозы по поводу такой сложной, плохо изученной системы, как человеческая цивилизация, — дело безнадежное. И все же общий аргумент создает примитивные, но серьезные ограничения.
Аргумент состоит в том, что мы, вероятно, типичные представители разумных существ. Их множество должно определяться общими критериями, которым мы все соответствуем, а не такими, которые специально подобраны, чтобы сделать нас особенными. Например, вероятность того, что некий случайно выдернутый из истории человек окажется одним из первых 0,1 % людей на Земле, составляет ну 0,1 % при отсутствии другой информации. Конечно, наши предки 10 000 лет назад сделали бы из тех же рассуждений неверные выводы. А вот шанс обнаружить его среди всех когда либо живших людей куда выше — 99,9 %. Вероятность того, что именно мы оказались среди первых разумных объектов Вселенной, живых или искусственных, ничтожно мала.
Задачу на вычисление вероятности придется дополнить, если когда-нибудь мы каким-то образом получим новую информацию, подтверждающую, что человеческая цивилизация продолжит свое существование в нынешней численности (что, конечно, маловероятно). Это будет один из возможных способов выяснить, что мы проиграли ставку. Но у нас такой информации нет, так что вероятностям нужно присвоить соответствующие значения (такой тип рассуждений изложен в работах астрофизиков Джона Ричарда Готта, Александра Виленкина и многих других).
Предположение, что мы можем рассматривать себя в качестве случайно выбранных элементов, иногда оспаривается, но на самом деле является краеугольным камнем научного метода. В физике и других науках теории почти никогда не дают точных прогнозов. Вместо этого мы вычисляем вероятностное распределение на основании теории. Возьмем атом водорода: вероятность обнаружить электрон в миле от протона не равна нулю, она просто очень-очень мала. Однако когда мы находим электрон, то не принимаем всерьез возможность того, что он является частью некоего далекого атома водорода. Чаще всего, повторив эксперимент достаточно много раз и найдя вероятность определенного исхода достаточно низкой в соответствии с некоторой гипотезой, мы отвергаем эту гипотезу и переходим к следующей. Поступая таким образом, мы делаем ставку на то, что не являемся очень нетипичными наблюдателями.
Важное правило: мы не формулируем вопрос, после того как провели наблюдение, так, чтобы результат выглядел удивительным. Например, не важно, где мы обнаружим электрон; постфактум вероятность его обнаружения в конкретной точке в сравнении со всеми остальными местами, где он мог оказаться, в любом случае была мала. Это бессмысленно, поскольку мы вряд ли сформулировали бы вопрос таким образом до проведения измерений. Аналогично люди вполне могут быть атипичны в отношении некоторых измеренных нами переменных: не исключено, что у самых умных объектов в видимой части Вселенной не по десять пальцев. Однако наше расположение в полном временно́м распределении всех людей на Земле для нас неизвестно. Мы знаем, сколько прошло времени, знаем, сколько людей родилось с момента появления человека, но не знаем, как это соотносится с полным временным диапазоном или общим числом разумных наблюдателей на Земле. Предположение о типичности можно применить к этим вопросам.
Наша типичность делает крайне маловероятными следующие два сценария: (а) люди продолжат существовать много миллионов лет — с помощью мыслящих машин или без; и (б) люди будут вытеснены более долгоживущей или более крупной цивилизацией совершенно иного типа, например мыслящими машинами. Если бы хоть один из них реализовался, то мы оказались бы среди первых разумных наблюдателей на Земле либо во времени, либо в численности, а следовательно, были бы очень атипичны.
Типичность подразумевает нашу вероятную гибель в течение следующих нескольких миллионов лет. Но из этого никак не следует, что ее придется принять от рук (или других конечностей) искусственного интеллекта; как бы там ни было, недостатка в сценариях конца света мы не испытываем.
Типичность соотносится с возможностью существования достаточно большого числа цивилизаций, которые формируются и угасают где-то в нашей галактике или за ее пределами. По тем же причинам маловероятно, что продолжительность жизни таких цивилизаций значительно превосходит нашу — малую долю жизни звезды. Даже если планеты, подобные Земле, встречаются часто, о чем свидетельствуют данные наблюдений, возможно, сигналы от разумных существ просто нельзя поймать теми средствами, что есть у нас. Тем не менее если нас интересует, станет ли доминирование разумных машин последней, а то и вовсе фатальной стадией эволюции, то изучение отдаленных планетарных систем будет не худшей отправной точкой.
Страх божий, новая версия
Искусственный интеллект — это очень быстрый поиск по базам данных. Проблема с данными заключается в том, как присваивать значения разным их фрагментам, почему один фрагмент должен быть оценен выше, чем другой. Чтобы вопрос о том, какая идея важнее, имел хоть малейший смысл, значение пришлось бы классифицировать на триллионе смысловых уровней. Поскольку всякая идея — это комбинация множества значений, компьютеру пришлось бы создавать новый алгоритм для каждой части уравнения и проводить комбинаторный анализ каждого значения. Потом ему нужно было бы создать модель, чтобы спроецировать последствия рассматриваемого решения на будущее. Но, поскольку для людей это слишком сложно и им пришлось бы создавать компьютер, каковы шансы?
Несмотря на эти технические препятствия для создания ИИ, наиболее заметной реакцией на возможность его появления в отдаленном будущем можно считать страх того, что он окажется сильнее нас и станет с нами плохо обращаться. Машины будут лучше нас и начнут поступать с нами так, как мы поступали со всеми формами жизни, существовавшими до нас, — как с эволюционным мостиком к нашей, более высокоразвитой форме жизни. Страх перед ИИ — это новое воплощение нашего первобытного бессознательного страха перед всеведущим, всемогущим и гневливым богом, властвующим над нами, но в новой эфирной форме.
Страх перед ИИ также имеет отношение к разработке вооружения — большие бюджеты выделяются на построение компьютеров, способных решать следующие основные задачи: летать и искать, перехватывать и уничтожать. Учитывая военную родословную мыслящих машин, мы сразу представляем себе, как они станут нас порабощать, и переживаем, что не сможем им противостоять и окажемся просто расходным материалом для нового звена эволюции.
Но психика слишком хаотична и иррациональна, чтобы воспроизвести ее в алгоритмах. Может ли одна машина представить, что другая машина возьмет на себя ее рутинные задачи, чтобы первая немного отдохнула? Если появится ИИ, будет ли он думать над тем, кто его создатель, будет ли задаваться иррациональным вопросом о том, как могла разумная органическая материя сотворить его? Сформирует ли он собственную мифологию, чтобы заполнить пробелы в знаниях? Религию?
А что насчет продуцирования смыслов, как в искусстве? ИИ не демонстрирует способности строить высказывания, основанные на спонтанных ассоциациях с господствующими философскими или эстетическими течениями, создавая или воспринимая таким образом определенные смыслы; он не создаст великих теорий, направляющих общество в ту или иную сторону. Продуцирование смыслов — это наиболее значительная проблема, причем ею почти никто из исследователей ИИ не занимается.
Отсюда возникает вопрос о креативности, на которую машина неспособна. У машины может быть база данных о том, что сделано в прошлом, но она не умеет свободно ассоциировать мириады иррациональных связей нашего многослойного мозга со всеми вариациями, возникающими в результате негативного воздействия внешней среды. Машины могут воспроизводить, но не могут ничему дать начало.
Тюльпаны на могилу вашего робота
Чтобы ответить на вопрос Edge 2015 года, надо сначала побольше узнать о том, кто мы такие. Потому давайте сперва поговорим о самом важном нашем органе — о мозге. Упрощенная схема этого сложного образования делит его на три части: кора (отвечает за рассудочные процессы), лимбическая система (обеспечивает работу различных функций организма, включая эмоции и мотивацию) и рептильный мозг (где располагаются самые элементарные и примитивные стремления: выживание и размножение).
Полемика вокруг того, как нам понять мыслящие машины, больше тяготеет к нашей коре и к лимбической системе. Кора позволяет нам более тщательно оценивать рентабельность ИИ в отношении таких вещей, как приблизительная стоимость для бизнеса человеческого или роботизированного труда, относительная стоимость человеческого и цифрового капитала, а также вопросы биоэтики, неприкосновенности частной жизни и национальной безопасности. Она также дает нам возможность планировать, привлекать больше финансирования для исследований и разработок, определять приоритеты государственной политики.
Одновременно наш лимбический мозг помогает принимать меры предосторожности и отвечать страхом или радостью на риски или выгоды развития искусственного интеллекта. Обычно мысль о нем вызывает одну из двух немедленных эмоциональных реакций: или технофобию, или восторг («Все наши проблемы решены!»). Среди распространенных страхов — опасение, что машины станут нами манипулировать или заменят нас; среди притягательных вещей — машинное расширение нашей памяти и помощь в повседневных делах.