Экспрессивное лицо машины – будь то лицо робота или программа на экране компьютера – помещает нас в ландшафт, где мы ищем признания и чувствуем, что можем его получить. По сути дела, нас побуждают искать эмпатию у объекта, неспособного ее дать.
Я работала в Лаборатории искусственного интеллекта в МТИ[322], когда люди впервые встретились с коммуникабельным, эмоциональным роботом Kismet. Не имело значения, что Kismet говорит на самом деле, но издаваемый им звук ассоциировался с теплом, любопытством или озабоченностью.
Иногда тем, кто навещал робота Kismet, казалось, что он их узнал и “услышал” их рассказ. Когда что-то срабатывало идеально с технической точки зрения, люди испытывали, как им представлялось, эмпатическую связь. Эта убедительная имитация понимания впечатляет и способна доставить немало удовольствия, если думать об этих встречах как о театре. Однако я видела, как дети по-настоящему пытались найти в Kismet друга. Я наблюдала, как дети надеются, что робот их узнает, и иногда чувствовали себя опустошенными, если им не предлагалось ничего, что могло бы дать им эмоциональную подпитку.
Двенадцатилетняя Эстель приходит к роботу Kismet в поисках беседы. Девочка одинока, ее родители разведены. Проводя время с роботом, она чувствует себя особенной: вот робот, готовый слушать только ее. На Эстель произвело большое впечатление, что у Kismet меняются выражения лица, но, к сожалению, в день ее посещения речевые способности робота не на высоте. В результате эта сессия крайне разочаровала Эстель. Вместе с нашей небольшой командой сопровождающих исследователей девочка возвращается в помещение, где мы беседуем с детьми до и после встречи с роботами. Эстель пьет сок, ест крекеры и печенье, принесенные нами специально, чтобы люди могли перекусить. Девочка ест и ест, не в силах остановиться, пока мы не просим ее оставить хоть немного еды для других детей. Она перестает поглощать еду, но ненадолго. Вскоре она уже снова торопливо ест, пока мы ждем машину, которая должна отвезти ее обратно на внеклассные занятия.
Эстель объясняет нам, почему она так расстроена: ей кажется, что она не понравилась роботу Kismet. Робот сначала заговорил с ней, а потом отвернулся. Мы объясняем, что дело вовсе не в ней. Тут проблема технического характера. Наши объяснения не убеждают Эстель. С ее точки зрения, она потерпела поражение в свой самый важный день. Уходя, Эстель берет четыре коробки печенья из подсобки и кладет их к себе в рюкзак. Мы ей не мешаем. Утомленные участники моей команды вновь собираются вместе в ближайшей кофейне, чтобы задать себе трудный вопрос: может ли сломанный робот причинить боль ребенку?
Мы бы так не беспокоились об этике, если бы речь шла о ребенке, играющем с дефектной версией Microsoft Word или с порванной куклой Тряпичная Энни. У текстового процессора вполне инструментальные задачи. Если в какой-то день он работает хуже, чем обычно, это может раздражать пользователя, но не более того. Но если программа побуждает вас к контакту, это уже совсем другая история.
Чем сломанный Kismet отличается от сломанной игрушки? Игрушка побуждает детей проецировать их собственные истории и собственную повестку на пассивный объект. Но дети воспринимают коммуникабельных роботов как “живых настолько”, чтобы обладать собственной повесткой. Дети привязываются к ним не посредством психологической проекции, а посредством психологии реляционной вовлеченности – то есть примерно так же, как они привязываются к людям.
Если маленькая девочка чувствует вину из-за того, что разбила мамин хрусталь, она может наказать за это целую вереницу кукол Барби – к примеру, поместить этих Барби под арест и таким образом разобраться со своими чувствами. Куклы становятся материалом, помогающим запустить механизм психологической проекции, чтобы ребенок мог проработать свои эмоции. Но коммуникабельный робот преподносит себя как нечто обладающее собственным разумом. Если такой робот отвернулся от ребенка, у последнего возникает впечатление, что робот отвернулся по собственной воле. Поэтому дети считают, что совершают достижение, завоевав сердце коммуникабельного робота, ведь так приятно понравиться тому, кто нравится вам. Опять-таки, дети взаимодействуют с коммуникабельными роботами не посредством психологической проекции, а посредством вовлеченности. Они реагируют так, словно перед ними другой человек, а значит, как и в случае с людьми, им могут причинить боль.
Эстель отреагировала на эту эмоционально напряженную ситуацию депрессией и поиском “комфортной пищи”. Другие дети, тоже разочарованные общением с Kismet, отреагировали агрессией. Шестилетний Эдвард не смог понять, что ему говорит Kismet, а потому начал совать предметы роботу в рот – металлическую булавку, карандаш, модель экскаватора – словом, все, что мальчик смог найти в лаборатории робототехники. Тем не менее на протяжении всего сеанса Эдвард был вовлечен в общение с Kismet. Он не хотел терять шанс завоевать симпатию робота.
Особое внимание стоит обратить вовсе не на риски, сопряженные со сломанными роботами. Нам следовало бы подумать вот над какими вопросами: какую позитивную эмоцию мы могли бы дать этим детям, если бы роботы были в своей самой лучшей форме? Почему мы вообще предлагаем детям общество роботов? Для одинокого ребенка коммуникабельный робот – гарантия, что его не отвергнут; ребенок может довериться роботу. Но вообще-то дети вовсе не нуждаются в гарантии того, что неодушевленный объект будет симулировать свое расположение к ним. На самом деле детям нужны отношения, благодаря которым они научатся настоящей взаимности, заботе и эмпатии.
Таким образом, сложности начинаются не в тот момент, когда ломается машина. Даже когда роботы функционируют идеально, это не приносит детям большой пользы. В случае с роботом-няней у вас уже возникает проблема, когда приходится объяснять ребенку, почему на эту должность не нашлось человека.
Во всем этом нельзя не почувствовать иронии: даже когда мы обращаемся с машинами почти как с людьми, у нас формируются привычки, подталкивающие нас обращаться с людьми почти как с машинами. Возьмем простой пример: мы постоянно ставим людей “на паузу” посередине разговора, чтобы заглянуть в телефон. А когда мы общаемся с игнорирующими нас людьми, это что-то вроде подготовки к разговору с машинами, неспособными нас понять. Когда от людей мы получаем все меньше, общение с машинами не кажется таким уж снижением уровня.
В ходе панельной дискуссии, посвященной “киберэтикету”, я была на сцене вместе с журналистом, пишущим о технологиях, и двумя колумнистами, дающими полезные советы по этикету. Участники дискуссии достигли консенсуса по большинству вопросов: никакой электронной переписки за семейным обедом. Никакой переписки в ресторанах. Не приносите ноутбук на спортивные мероприятия с участием ваших детей, каким бы сильным ни было искушение.
И тут поступил вопрос из зрительного зала: женщина сказала, что ей как работающей матери не хватает времени, чтобы общаться с друзьями, рассылать электронные письма, СМС и вообще поддерживать отношения.
По большому счету, – призналась женщина, – единственное свободное время у меня вечером, после окончания работы и перед приходом домой, когда я иду за покупками для своей семьи в супермаркет Trader Joe’s. И вот кассир, парень на кассовом терминале, жаждет общения. А я просто хочу провести время со своим телефоном, просматривая сообщения и ленту Facebook. Имею ли я право просто его игнорировать?
Два эксперта по этикету заговорили первыми. В принципе, оба сказали одно и то же, хотя и немного по-разному это сформулировали: мужчина на кассовом терминале должен выполнять свои рабочие обязанности. Женщина, задавшая вопрос, имеет право на личное пространство и на свою переписку, пока сотрудник магазина оказывает ей услуги.
Пока я слушала ответы колумнистов, мне стало немного не по себе. Я вспоминала свое детство, походы за покупками с бабушкой и все те отношения, которые бабушка поддерживала с продавцами в каждом магазине: с пекарем, с торговцем рыбой, с продавцом фруктов, с бакалейщиком (так мы тогда называли этих людей). Сегодня всем нам известно, что работу человека на кассовом терминале может выполнять и машина. По сути дела, на той же улице, но в другом супермаркете эту работу действительно выполняет машина, автоматически сканирующая ваши продукты. И тогда я решила поделиться своей мыслью: пока машина не заменила этого кассира, он вправе рассчитывать на признание и уважение, которые мы обычно выказываем людям. А значит, если вы обменяетесь с этим кассиром хотя бы парой слов, он почувствует, что, хотя он и выполняет работу, которую могла бы выполнять машина, его все-таки воспринимают как человека[323].
Однако слушатели и мои коллеги по дискуссии ждали вовсе не такого ответа. Пока я критически оценивала их прохладную реакцию на свои слова, я заметила новую симметрию: от технологий мы хотим большего, а друг от друга – меньшего. То, что некогда могло восприниматься как “гостеприимное обслуживание” на местном рынке, теперь стало неудобством, отвлекающим нас от смартфона.
Раньше мы считали, что мобильные телефоны нужны, чтобы мы могли разговаривать друг с другом. Теперь мы хотим, чтобы мобильные телефоны разговаривали с нами. В этом мы можем убедиться, посмотрев, к примеру, рекламные ролики Siri: фантазии о новых беседах и своего рода руководство насчет того, как они могут звучать. Мы переживаем момент искушения, ведь мы готовы прибегнуть к обществу машин, даже когда нам по какой-то причине тяжело или неудобно общаться друг с другом в такой простой ситуации, как, например, посещение продуктового магазина. Мы хотим, чтобы присутствие технологий в нашей жизни возрастало, а людей, напротив, просим отступить.