. Этого нельзя сказать ни о каком компьютере — ни современном, ни ожидающемся в ближайшем будущем — и даже о тех кремниевых животных-машинах, которые я описывал выше.
Из этого не стоит делать вывод, будто я утверждаю, что клетки организма обладают сознанием или что сознание имеется у всех живых существ. Моя мысль состоит в том, что процессы физиологической регуляции, которые теория животного-машины считает фундаментальными для сознания и ощущения себя собой, вырастают из основополагающих жизненных процессов, отмечаемых «на всех уровнях». С этой точки зрения искру сознания в уравнениях высекает жизнь, а не обработка информации.
Даже если до машин, действительно обладающих сознанием, еще далеко (если, собственно, они на самом деле возможны), нам все равно еще о многом нужно беспокоиться. Вполне вероятно, что в ближайшем будущем уровень развития ИИ и робототехники приведет к появлению новых технологий, которые будут казаться сознательными, даже если у нас не будет безоговорочных оснований считать их сознательными на самом деле.
В фильме Алекса Гарленда «Из машины» 2014 г. нелюдимый технический гений-миллиардер Нейтан приглашает крутого программиста Калеба в свою уединенную резиденцию и знакомит со своим творением — любознательным умным роботом Авой. Задача Калеба — выяснить, наделена ли Ава сознанием, или она просто умный автомат, не имеющий внутренней психической жизни.
В фильме активно используется тест Тьюринга[370], знаменитый инструмент для выявления у машины мыслительных способностей. В одной яркой сцене Нейтан экзаменует Калеба на знание этого теста. В стандартной версии теста, как известно Калебу, оценивающий человек тестирует одновременно и претендующую на разумность машину, и другого человека удаленно, обмениваясь только печатными сообщениями. Для машины тест считается пройденным, когда оценивающий многократно затрудняется отличить ответ машины от ответа человека. Однако Нейтан придумал кое-что поинтереснее. «Мы посмотрим, — говорит он Калебу, — будете ли вы, даже зная, что она робот, воспринимать ее как сознательную личность».
Эта новая игра превращает тест Тьюринга из теста на интеллект в тест на сознание, а это, как мы теперь знаем, явления совершенно разные. Более того, Гарленд показывает нам, что тест в действительности направлен не на робота. Как объясняет Нейтан, главное не в том, машина Ава или нет. И даже не в том, обладает ли машина Ава сознанием. Главное — может ли Ава создать у обладателя сознания впечатление, что она тоже сознательна. Обсуждение этого момента Нейтаном и Калебом гениально, поскольку оно раскрывает, в чем на самом деле заключается тест: это проверка не для машины, а для человека. Это относится и к изначальному тесту Тьюринга, и к созданному Гарлендом в XXI в. аналогу, ориентированному на сознание. Диалог между героями фильма настолько элегантно и точно описывает проблему признания машины сознательной, что сейчас постепенно набирает популярность термин «тест Гарленда»[371] — редкий пример ситуации, когда научная фантастика не только заимствует что-то у науки, но и отдает.
Многие простые компьютерные программы, в том числе разнообразные чат-боты, сейчас объявляются проходящими тест Тьюринга, поскольку им в достаточном числе случаев удается ввести в заблуждение относительно своей природы достаточное число судей. В одном особенно забавном примере, тоже 2014 г., 10 из 30 судей приняли чат-бот, общающийся от лица 13-летнего украинского мальчишки, за настоящего подростка-украинца. Начались громкие заявления, что мы наконец преодолели недостижимые прежде рубежи в развитии искусственного интеллекта[372]. Но, разумеется, изобразить иностранного подростка, плохо владеющего английским, намного проще, чем успешно изобразить того, кого с вами роднят возраст, культура и язык, особенно когда допускается только обмен текстовыми сообщениями на расстоянии. Когда чат-боту засчитали прохождение теста, он написал: «Побеждая над тьюрингом [sic] я чувствую себя приятно»[373]. Еще бы ему было не победить, если планка настолько снижена. По факту это оказалось тестированием человека на доверчивость, и человек не справился[374].
Но поскольку ИИ продолжает совершенствоваться, возможно, скоро тест Тьюринга будут проходить и без искусственного занижения стандартов. В мае 2020 г. научно-исследовательская лаборатория OpenAI выпустила GPT-3 — обширную искусственную нейросеть, обученную на примерах естественного языка, взятых из огромного массива текстов интернета[375]. GPT-3 может вступать в диалоги в формате чат-бота, а может создавать довольно большие куски текста в самых разных стилях, отталкиваясь от нескольких заданных слов или строк. И хотя сама она своих творений понять не в состоянии, они поражают — а кого-то даже пугают — гладкостью и уровнем сложности[376]. В одном примере, опубликованном в TheGuardian, она написала эссе на 500 слов о том, почему людям не стоит опасаться ИИ, затронув целый ряд тем от психологии человеческого насилия до промышленного переворота и огорошив читателя вот таким пассажем: «ИИ не следует тратить время на попытки понять точку зрения людей, которые зарабатывают на жизнь неверием в искусственный интеллект»[377].
Тем не менее я почти уверен, что достаточно подкованный собеседник-человек сумеет разоблачить и GPT-3 с ее высоким уровнем сложности текстов. Чего, возможно, уже не выйдет с грядущими версиями — GPT-4 или, скажем, GPT-10. Но даже если будущая GPT-подобная система будет устойчиво проходить тест Тьюринга, она охватит лишь один очень узкий пласт (симулированного) интеллекта — обезличенный языковой обмен, не воплощая полностью той самой способности естественного разума «делать то, что нужно, когда нужно», которую мы наблюдаем у человека и многих других животных, а также у моего гипотетического кремниевого животного-машины.
Что касается сознания, тут у нас нет аналога украинскому чат-боту, не говоря уже ни о каких GPT. Тест Гарленда остается непройденным. В действительности попытки создать симулякр чувствующего и осознающего свои чувства человека чаще вызывают у нас тревогу и отторжение, а не сложную смесь влечения, эмпатии и жалости, которую вызывала у Калеба Ава в фильме «Из машины».
Японский робототехник Хироси Исигуро уже не первое десятилетие конструирует роботов, придавая им максимально возможное сходство с человеком. Он называет их геминоиды. Исигуро создал геминоидные копии себя (см. рис. 22) и своей дочери (тогда шестилетней), а также геминоидную телеведущую со смешанными японско-европейскими чертами на основе обобщенного портрета около 30 разных людей. Каждый геминоид конструируется по подробным 3D-сканам тела и оснащается пневматическими приводами, способными порождать широкий спектр мимики и жестов. Искусственного интеллекта как такового в этих устройствах почти нет — они подражают человеку лишь внешне и применение находят среди прочего в удаленном присутствии и «телеприсутствии». Одного из своих геминоидов Исигуро как-то раз посадил читать 45-минутную удаленную лекцию 150 студентам.
Впечатление эти геминоиды производят безусловно жутковатое. Они реалистичны, но недостаточно. Представьте себе встречу с геминоидом как прямую противоположность встрече с кошкой. При виде кошки, или, допустим, осьминога, у нас сразу возникает ощущение, что мы имеем дело с существом сознательным, пусть даже внешне совершенно не похожим на нас. При виде геминоида поразительное, но все же не стопроцентное физическое сходство только усиливает и подчеркивает расхождения и инаковость. В одном исследовании 2009 г. самым распространенным ощущением, которое вызывал геминоид у посетителей, был страх[378].
Рис. 22. Хироси Исигуро и его геминоид
Публикуется с разрешения ATR Hiroshi Ishiguro Laboratories
Эта реакция — пример так называемого эффекта зловещей долины, понятия, введенного в 1970 г. другим японским исследователем, Масахиро Мори. Согласно гипотезе Мори, чем больше робот похож на человека, тем больше он нам нравится и тем больше мы ему сочувствуем (вспомним, например, C-3PO из «Звездных войн»), но, как только сходство достигает определенного предела, за которым робот в чем-то слишком похож на человека, а в чем-то недотягивает, симпатия резко сменяется отторжением и страхом (тут-то и образуется «зловещая долина») и возвращается, только когда сходство усиливается до полной тождественности и неотличимости. Хотя к единому мнению о том, почему возникает «зловещая долина», ученые не пришли, в существовании ее почти никто не сомневается[379].
В отличие от роботов реального мира, которые пока не могут выбраться из «зловещей долины», виртуальные создания уже карабкаются на противоположный ее склон. Недавний прогресс в машинном обучении, достигнутый за счет использования «генеративно-состязательных нейросетей» (GANN), позволяет создавать фотореалистичные изображения несуществующих людей (см. рис. 23)[380]. Эти фотографии получены путем «умного» объединения различных черт из больших баз данных настоящих лиц с применением почти таких же технологий, как те, что мы использовали в своей галлюцинаторной машине, описанной в главе 6. Осталось добавить сюда технологию «дипфейк»[381], позволяющую анимировать эти лица, чтобы они «заговорили», затем дать им слово с помощью продолжающих совершенствоваться программ распознавания и производства речи, таких как GPT-3, — и вот наш мир уже населен виртуальными людьми, совершенно неотличимыми от виртуальных репрезентаций реальных людей. В этом мире мы отвыкнем отличать реальное от виртуального.