Глаз разума — страница 79 из 109

является разумом, в том смысле, что компьютеры, снабженные соответствующей программой, не только в буквальном смысле слова понимают, но испытывают и другие когнитивные состояния. В сильном варианте ИИ программы — не только инструменты для тестирования психологических объяснений; скорее, они сами являются этими объяснениями.

Я не возражаю против слабой версии ИИ, по крайней мере, в этой статье. Дискуссия будет направлена против сильной версии ИИ, в особенности, против утверждения, что должным образом запрограммированный компьютер выказывает когнитивные состояния и что это объясняет человеческое познание. В дальнейшем под ИИ я буду подразумевать его сильную версию, придерживающуюся этих двух убеждений.

Я обсуждаю здесь труд Роджера Шенка и его коллег из Йелльского университета (Шенк и Абельсон, 1977), поскольку знаком с ним лучше, чем с другими работами на эту тему, и поскольку он представляет из себя яркий пример работы, которую я хотел бы проанализировать. Однако дальнейшее обсуждение не зависит от деталей программы Шенка. Те же самые аргументы приложимы и к программе Винограда ШРДЛУ (Виноград, 1973), программе Вайценбаума ЭЛИЗА (Вайценбаум, 1965) и любой попытке симулировать с помощью машин Тьюринга феномен человеческого мышления.

Вкратце программа Шенка может быть описана следующим образом: Цель программы — имитация человеческого умения понимать рассказы. Для человека характерно умение отвечать на вопросы о рассказе, давая в ответе информацию, которая прямо в рассказе не упоминалась. Представьте себе, что вы услышали следующий рассказ: “Человек пришел в кафе и заказал гамбургер. Когда ему принесли заказанное, гамбургер оказался подгоревшим дочерна, и разгневанный клиент выбежал из кафе, не заплатив по счету и не оставив чаевых.” Если вас спросят, съел ли тот человек гамбургер, вы, скорее всего, ответите: “Разумеется, нет!” Аналогично, если вы услышите следующий рассказ: “Человек пришел в кафе и заказал гамбургер. Когда ему принесли заказанное, гамбургер оказался превосходным, и довольный клиент, оплатив счет, оставил щедрые чаевые,” на вопрос “Съел ли он гамбургер?” вы, вероятно, ответите “Да, съел.” Машины Шенка могут отвечать на вопросы о ресторанах подобным образом. Для этого они снабжены “представлением” о той информации, которую люди имеют о ресторанах; поэтому на подобные вопросы эти программы способны ответить удовлетворительно. Когда в машину вводят рассказ и затем задают вопрос, подобный вышеприведенному, машина печатает ответ, который дал бы в похожей ситуации человек. Сторонники ИИ утверждают, что (1) при этом машина не только подражает человеческой способности, но в буквальном смысле слова понимает рассказанное и отвечает на вопросы, и (2) машина и ее программа объясняют человеческую способность понимать рассказы и отвечать на вопросы о них.

Мне кажется, что ни одно из этих двух утверждений совершенно не следует из работы Шенка. Я попытаюсь это доказать.

Один из способов проверить любую теорию разума состоит в том, чтобы представить себе, что было бы, если бы мой интеллект действительно работал так, как, согласно данной теории, работает любой разум. Давайте проверим теорию Шенка при помощи следующего мысленного эксперимента. Представьте себе, что меня заперли одного, дав мне большой китайский текст. Представьте себе, что я не знаю ни письменного, ни разговорного китайского (так это в действительности и есть), и что я не уверен даже в том, что смогу отличить китайское письмо от, скажем, японского или от бессмысленных каракулей. Для меня китайское письмо выглядит как бессмысленные каракули! Теперь представьте, что я снова получаю китайский текст, на этот раз вместе с набором правил, объясняющих, как соотнести этот текст с первым. Правила написаны по-английски, и я понимаю их, как понял бы любой носитель этого языка. Правила помогают мне соотносить между собой два набора формальных символов; “формальных” означает здесь то, что я могу идентифицировать эти символы исключительно по их форме. Далее, мне дают третий китайский текст, опять с инструкциями по-английски, позволяющими мне соотнести его с первыми двумя. Более того, они объясняют, как отвечать китайскими символами определенной формы на те или иные китайские символы, содержащиеся в третьем тексте. Я ничего не знаю о том, что люди, дающие мне все это, называют первый кусок “текстом”, второй — “рассказом”, а третий — “вопросами.” Они называют символы, которые я даю им после работы с третьим куском, “ответами на вопросы”, а набор правил, которые у меня имеются, — “программой”. Чтобы немного усложнить дело, представьте себе, что эти люди дают мне также рассказы по-английски, задают о них вопросы по-английски, и я отвечаю на них по-английски. Представьте также, что через некоторое время я так натренировался в работе с китайскими символами, а программисты — в составлении программ, что стороннему наблюдателю — то есть, наблюдателю, находящемуся вне комнаты, в которой я заперт, — мои ответы кажутся неотличимыми от ответов китайцев. Никто, глядя только на мои ответы, не предположил бы, что я не знаю ни слова по-китайски. Представьте себе также, что мои ответы на вопросы по-английски будут неотличимы от ответов других носителей языка, просто потому, что я сам — носитель английского языка. С точки зрения того, кто читает мои “ответы”, китайские ответы так же хороши, как английские. Однако, в отличие от английского, в случае китайского я произвожу ответы путем манипуляции с неинтерпретированными формальными символами. Я веду себя в этом случае, как компьютер; я произвожу действия с формально определенными элементами. При работе с китайским я становлюсь воплощением компьютерной программы.

Сильная версия ИИ утверждает, что запрограммированные должным образом компьютеры понимают рассказы и могут в какой-то мере объяснить человеческое понимание. Благодаря нашему мысленному эксперименту мы можем теперь проанализировать эти утверждения.

1. Что касается первого утверждения, из нашего примера совершенно очевидно следует, что я не понимаю ни слова в китайских рассказах. Все, что у меня есть, это вводные и выходные данные, неотличимые от тех, что производят сами китайцы. Какой бы формальной программой я ни был снабжен, я все равно не понимаю ни слова! Точно так же компьютер Шенка не понимает ни слова в рассказах, написаны ли они по-китайски, по-английски или на каком-либо другом языке, поскольку в случае китайского компьютер — это я, а в остальных случаях у компьютера есть только та информация, которая была у меня, когда я ничего не понимал.

2. Что касается второго утверждения, что программа объясняет человеческое понимание, мы видим, что компьютер вместе с программой не создают достаточных условий понимания, поскольку они действуют, ничего при этом не понимая. Но помогают ли они пониманию? Одно из утверждений сторонников сильной версии ИИ заключается в том, что, когда я понимаю рассказ по-английски, я делаю точно то же самое, — или даже в большей степени — как когда я манипулирую китайскими символами. Разница в том, что в случае английского, который я понимаю, в голове у меня происходит большее количество формальных манипуляций, чем в случае китайского, которого я не понимаю. Я не доказал, что это утверждение ошибочно, но в приведенном примере оно кажется достаточно невероятным. Сторонники этого утверждения исходят из того, что мы можем создать программу с точно такими же входными и выходными данными, как у носителя языка, и что на каком-то уровни носители языка также могут быть описаны как воплощения некой программы. На основе этих двух предположений они заключают, что, хотя программа Шенка и не совершенна, это все же шаг вперед в нужном направлении. Думаю, что, хотя это эмпирически возможно, пока не было представлено ни одно доказательство того, что это верно. Наш мысленный эксперимент предполагает — но, разумеется, не доказывает — что компьютерная программа не имеет никакого отношения к моему пониманию рассказа. В случае с китайским, у меня имеется все, что может мне предоставить ИИ, и тем не менее, я ничего не понимаю; в случае с английским, я понимаю все, и у меня нет никаких оснований предположить, что мое понимание каким-то образом связано с компьютерной программой, то есть с вычислительными операциями на чисто формально определенных элементах. Если мы определяем программу как вычислительные операции на чисто формально определенных элементах, то из нашего примера вытекает, что сами по себе программы не имеют связи с пониманием. Они безусловно не являются достаточным условием понимания, и у нас нет ни малейшего основания полагать, что они являются его необходимым условием. Мы не можем заключить даже того, что они вообще способствуют пониманию. Обратите внимание на то, что сила этого аргумента — не в том, что разные машины могут иметь одинаковые входные и выходные данные, когда они работают по различным формальным принципам — суть совсем не в этом. Какие бы формальные принципы вы ни вложили в компьютер, они будут недостаточны для понимания, поскольку человек может следовать тем же формальным принципам, ничего при этом не понимая. Не существует никаких доказательств того, что подобные принципы необходимы или в какой-то мере полезны, поскольку не существует никаких доказательств того, что, когда я понимаю английский текст, я действую в соответствии с какой-либо формальной программой.

Но что же есть у меня в случае с английским текстом такого, что отсутствует в случае с текстом китайским? Очевидный ответ состоит в том, что я знаю, что означает первый, и понятия не имею о значении последнего. Но в чем это заключается, и почему мы не можем дать это нечто, чем бы оно ни было, машине? Я еще вернусь к этому вопросу, но сначала мне бы хотелось продолжить мой пример.

Мне приходилось представлять этот пример нескольким специалистам по Искусственному Интеллекту; интересно, что они не смогли сойтись в мнениях о том, как на него следует отвечать. Я получил самые разнообразные ответы; здесь я приведу основные из них (вместе с их географическим происхождением).