Возвращаясь к двум переводам отрывка из «Госпожи Бовари», я должен сказать, что предложенное алгоритмом слово cauldron [ «чан»] мне нравится больше, чем kettle [ «котел»]. А выражение to make the bears dance [ «чтобы заставить танцевать медведей»] звучит чуть более угрожающе, чем соответствующее место в человеческом переводе. Может быть, лучшие переводы в конце концов будут создаваться в сотрудничестве человека с машиной.
Поэтому, чтобы добиться большей гибкости перевода, Google привлекает для совершенствования своего алгоритма помощников из числа людей, но это не всегда приводит к лучшим результатам. Кое-кто, получив возможность пошалить с алгоритмом, не может устоять перед таким искушением. Одной из иллюстраций этого был случай, когда Google Translate начал выдавать переводы заголовков корейской прессы, в которых северокорейского руководителя Ким Чен Ына называли мистером Сквидвардом, по имени персонажа из мультсериала «Губка Боб Квадратные Штаны». Хакерам удалось столько раз предложить слова «мистер Сквидвард» в качестве лучшего варианта перевода слов «Высший руководитель», как называют Ким Чен Ына северокорейские СМИ, что алгоритм переключился на этот перевод. Его вероятностный рейтинг изменили путем загрузки данных с поддельными примерами. Другой похожий случай произошел, когда официальное название Российской Федерации переводилось на украинский язык словом «Мордор» (так называется страна злого духа Саурона во «Властелине колец»).
Несмотря на такие сбои, Google Translate все лучше справляется с переводами с одного человеческого языка на другой. Существует даже предложение проанализировать записи звуков общения животных и посмотреть, не получатся ли у их многомерных кристаллов формы, совпадающие с формами кристаллов человеческих языков или похожие на них: это помогло бы нам понять, что говорят наши питомцы. Возможно, вскоре нам потребуются средства, помогающие понимать языки, созданные машинами. Во всяком случае, именно так я начал думать после того, как стал свидетелем поразительного акта лингвистического творчества в Sony Computing Laboratory в Париже, где Люк Стилс создал роботов, развивающих свой собственный язык.
Стилс пригласил меня в свою лабораторию, в которой 20 роботов ставили по очереди перед зеркалом и предлагали им рассматривать в этом зеркале фигуры, которые они могут создавать, двигая частями своего тела. Каждый раз, когда робот принимал новую позу, он создавал слово, описывающее ее.
Например, робот мог выбрать название для движения, которым он переводит свою левую руку в горизонтальное положение. Каждый представитель этой популяции роботов создал свой собственный язык, описывающий уникальный набор движений этого робота.
Самое интересное начинается, когда роботы взаимодействуют друг с другом. Один робот выбирает какое-нибудь слово из своего лексикона и предлагает другому роботу выполнить действие, соответствующее этому слову. Разумеется, второй робот понятия не имеет, о чем его просят. Поэтому он принимает какое-нибудь положение наугад. Если его догадка оказывается верной, первый робот сообщает ему об этом. В противном случае он показывает второму, какое именно положение он имел в виду.
Возможно, у второго робота уже есть собственное название для этого действия; в таком случае он не отказывается от своего названия, но добавляет в свой словарь новое слово. По мере продолжения таких взаимодействий робот взвешивает ценность слов в соответствии с тем, насколько успешным оказывается общение: если взаимодействие оказывается неудачным, ценность слова уменьшается. Самое поразительное, что через неделю такого общения у роботов начал появляться общий язык. Непрерывно обновляя свои словари и обучаясь, роботы разработали свой собственный язык. Он настолько развит, что даже содержит слова, обозначающие более абстрактные концепции – например, «слева» и «справа». Эти слова уже выходят за рамки прямого соответствия между словами и позами. Достаточно интересен уже тот факт, что вообще произошло слияние языков, но меня особенно поразило, что у роботов появился новый язык, который они понимают, в то время как экспериментаторы к концу недели уже не понимали его: им удавалось расшифровать значение новых слов, только если они достаточно долго общались с роботами.
Эксперимент Стилса дает превосходное доказательство неправоты Ады Лавлейс. Стилс написал программный код, позволивший роботам создать свой собственный язык, но из этого кода появилось нечто новое, о чем свидетельствует тот факт, что этого общего языка не понимает никто, кроме самих роботов. Изучить этот язык можно только одним способом – чтобы робот продемонстрировал, какая именно поза соответствует каждому звуку.
Сотрудники Google Brain развивают идею алгоритмов, создающих свой собственный язык, для разработки новых методов шифрования, чтобы два компьютера могли обмениваться информацией, не опасаясь, что их подслушает третий. В криптографической задаче Алиса должна передавать Бобу секретные сообщения, которые перехватывает и пытается расшифровать Ева. Алиса получает очки, если Ева не может расшифровать ее сообщения, а Ева – если ей это удается. Изначально Алисе и Бобу известно некое число, которого – и только его – не может знать Ева. Это число – ключ к коду, который создают Алиса и Боб. Их цель – создать на основе этого числа тайный язык, который можно расшифровать только при помощи ключа.
Сначала все попытки Алисы замаскировать сообщения с легкостью взламываются. Но после 15 000 обменов сообщениями Боб уже может расшифровывать сообщения, которые передает Алиса, а Ева добивается успеха с вероятностью, не превышающей вероятности случайного угадывания содержания сообщений. Нейронные сети, которые используют Алиса и Боб, быстро маскируют их решения благодаря постоянным изменениям параметров языка, так что, даже видя получающийся в результате код, человек не может понять, что именно они делали. Машины могут вести между собой конфиденциальные разговоры, которые мы, люди, не сможем подслушать.
Эти алгоритмы, разбирающиеся с языками, переводящие с английского на испанский, отвечающие на вопросы Jeopardy!
и понимающие повествование, порождают интересный вопрос, имеющий важное значение для всей сферы создания искусственного интеллекта. В какой момент нам следует признать, что алгоритм понимает, что он делает? Этот вопрос нашел свое выражение в мысленном эксперименте «Китайская комната», который разработал Джон Сёрл.
Представьте себе, что вас посадили в комнату, в которой есть инструкция, дающая вам правильные ответы на любую записанную последовательность китайских иероглифов, которая попадает в комнату. Если эта инструкция достаточно полна, вы можете вести очень убедительную беседу с человеком, говорящим по-китайски, не понимая в ней ни единого слова.
Сёрл хотел продемонстрировать, что компьютер, запрограммированный отвечать так, чтобы мы не могли отличить его ответы от ответов человека, нельзя считать разумным или понимающим. С одной стороны, это направление мысли дает сильный аргумент против теста Тьюринга. Но с другой стороны, что именно делает мой разум прямо сейчас, когда я формулирую эти слова? Не следую ли я в каком-то смысле некоему набору инструкций? Не существует ли некоторого порога, после которого следовало бы считать, что компьютер действительно понимает китайский язык?
И все же, когда я упоминаю стул, я знаю, о чем я говорю. Когда компьютер ведет разговор о стуле, ему не нужно знать, что слово «стул» обозначает физический объект, на котором сидят люди. Ему нужно лишь следовать правилам, но следование правилам не означает понимания. Алгоритм никак не сможет достичь абсолютного владения словом «стул», если он никогда не имел дела с настоящим стулом. Именно поэтому для современных тенденций в развитии искусственного интеллекта особенно актуален вопрос воплощенного интеллекта.
В некотором смысле язык – это проекция окружающего нас мира на меньшее число измерений. Как сказал Франц Кафка: «Любой язык есть всего лишь плохой перевод». Хотя все физические стулья различны, в языке все они сжаты в одну информационную точку – слово «стул». Но другой человек может извлечь из этой точки все те стулья, с которыми ему приходилось иметь дело. Мы можем говорить о креслах, скамейках, деревянных стульях или шезлонгах, и все эти слова вызывают у нас разные и конкретные ассоциации. Таковы те знаменитые словесные игры, о которых говорил Витгенштейн. Компьютер, не имеющий физического воплощения, оказывается узником малоразмерного пространства комнаты Сёрла.
Такова странная природа нашего сознания, позволяющего нам объединять всю эту информацию в единое целое. Если взять отдельный нейрон, он не понимает английского языка. Но если постепенно, нейрон за нейроном, «строить» мозг, в какой-то момент окажется, что он-то язык понимает. Когда я сижу в закрытой комнате и обрабатываю входящие сообщения на китайском при помощи своих инструкций, я действую как часть мозга, группа нейронов, отвечающая за такую обработку. Хотя я не понимаю, что я отвечаю на эти сообщения, возможно, следовало бы сказать, что это понимает вся система, состоящая из комнаты, меня и инструкции. Полноценный мозг сформирован из всех элементов, а не одного меня. В комнате Сёрла я скорее играю роль процессора в компьютере, электронной схемы, которая производит базовые расчеты, следуя инструкциям, содержащимся в компьютерной программе.
Сможет ли компьютер составлять осмысленные – или даже прекрасные – фразы, не понимая языка и не имея опыта взаимодействия с окружающим физическим миром? Прямо сейчас программисты пытаются найти ответ на этот вопрос самыми разными способами. Может быть, машине не обязательно понимать, что она говорит, чтобы создавать убедительные литературные произведения. Но это возвращает меня к тому вопросу, с которого и началось отступление в сферу языка: насколько современный искусственный интеллект способен владеть языком и, соединяя слова, рассказать историю?