В нашу задачу сейчас не входит оценка этой теории. Важно лишь отметить, что она не имеет ничего общего с той картиной влияния ментального на поведение, которая была нарисована выше. Хотя экстерналист тоже может сказать, что при физическом тождестве людей они могут обладать разными ментальными состояниями и вследствие этого по-разному вести себя, понимание этих тезисов экстерналистом радикально отлично от моего. Я пытался показать, что физическое тождество людей может совмещаться с различием именно квалитативных состояний и это различие оказывает влияние на поведение, которое в таком случае тоже оказывается реально различным: у экстерналиста поведенческие различия не видны невооруженным глазом.
Иными словами, говоря техническим языком, мы отрицали тезис о локальной супервентности квалитативного на физическом, подразумевающий, что физическая одинаковость организма с необходимостью (хоть и не логической) означает одинаковость сопряженных с ним квалитативных данностей (к обсуждению супервентности мы еще вернемся[52]), и делали из этого вывод о влиянии квалитативных состояний на поведение. Экстерналист же признает локальную супервентность квалиа на мозге, но отрицает локальную супервентность ментальных состояний (не являющихся чисто квалитативными, так как в них интегрированы те моменты, которые могут репрезентироваться последними) на мозге и отсюда заключает к их каузальной действенности.
Еще раз подчеркнем, что решающее отличие этих позиций состоит в том, что экстерналистский интеракционизм (под «интеракционизмом» я понимаю такой взгляд на ментальное, который, признавая влияние физического на ментальное, дает нам право допускать каузальную значимость ментальных состояний по отношению к поведению) не позволяет наблюдать реальных поведенческих различий у физически одинаковых людей, тогда как наш интерналистский интеракционизм говорит, что одинаковые организмы могут продуцировать реально различное поведение, поведение, различия которого могут быть схвачены в непосредственном опыте. Представляется поэтому, что только интерналистский интеракционизм, интеракционизм квалиа, может рассматриваться как позиция, позволяющая говорить о возможности реального влияния ментальных состояний, сознания на поведение человека.
Итак, у меня есть все основания полагать, что мое поведение реально зависит не только от моего физического состояния, но и от моих квалитативных данностей. Эпифеноменализм ложен. Но ведь именно опасность эпифеноменализма сдерживала веру в существование других сознаний. Теперь она устранена. Мы можем уверенно приписывать квалитативные ментальные состояния другим людям. Люди, наделенные квалитативными ментальными состояниями, будут демонстрировать тот же тип поведения, что и я сам. Но остается один важный вопрос, отрицательный ответ на который мог бы ослабить действие менталистской веры. Этот вопрос состоит в следующем: необходимо ли такое положение дел? Могло ли быть так, что то же самое поведение, которое демонстрирую я и другие люди, генерировалось бы исключительно физическими процессами? Могут ли роботы, лишенные внутреннего мира, вести себя точно таким же образом, каким ведут себя люди?
Если да, то где гарантия, что люди, ведущие себя аналогично мне, не являются роботами-зомби, лишенными квалитативных состояний? Не опрометчиво ли я приписываю им состояния такого рода?
Чтобы ответить на эти вопросы, воспользуемся еще раз нашим главным аргументом в пользу интеракционизма. Присмотримся к поведению робота-зомби. Оно обусловлено исключительно его нынешним физическим состоянием — неважно, как он пришел к нему: мы убеждены, что физические системы могут по-разному приходить к своим наличным состояниям. Люди тоже могут приходить к своим наличным состояниям разными путями. Но эти пройденные ими пути откладываются в их субъективных воспоминаниях. Таким образом, реально возможно, что одинаковые в физическом смысле люди обладают разными субъективными воспоминаниями. Эти воспоминания фундируют содержание их убеждений и желаний. А из опыта мы знаем, что наши убеждения и желания скоррелированы с нашим поведением. Стало быть, реально возможно то, что совершенно одинаковые в физическом плане люди будут вести себя по-разному. А вот одинаковые в физическом плане роботы не могут вести себя по-разному, потому что кроме физического плана у них, согласно сделанному предположению, ничего нет. Значит, зомбиподобные роботы не могут вести себя так же, как ведут себя люди. А это равносильно тому, что если некий робот ведет себя как человек, то можно уверенно заключать, что ему присущи квалитативные ментальные состояния.
Этот вывод мог бы поставить точку в данном вопросе. Но ставить ее все же рано. Дело в том, что ему, как кажется, противоречат следствия одного из интереснейших мысленных экспериментов, придуманных философами XX в., — Китайской комнаты, сконструированной Джоном Сёрлом в 1980 г.[53]
Мысленный эксперимент Сёрла и основанный на нем Аргумент Китайской комнаты как раз и призваны были показать, что воспроизведения человеческого поведения материальной системой самого по себе недостаточно для заключения о наличии у этой системы внутреннего мира ментальных состояний. Поэтому мы должны внимательно посмотреть на его рассуждения.
Изначально Сёрл говорил не о поведении вообще, а о вербальном поведении, речи, симулируемой компьютером. Он исходил из знаменитого теста Тьюринга[54], согласно которому при невозможности отличения вербального поведения компьютера от поведения человека мы вправе утверждать, что компьютер мыслит — как человек. Но действительно ли это так?
Человеческое мышление, о котором мы судим по собственному опыту, сопровождается субъективным пониманием того, о чем мы мыслим и говорим. И Сёрл попробовал показать, что компьютер, симулирующий внешние проявления осмысленной человеческой речи, в действительности может быть лишен какого-либо субъективного понимания того, о чем он говорит. Чтобы доказать это, он предложил человеку встать на место компьютера. Представим, к примеру, что у нас имеется программа, позволяющая компьютеру осмысленно, т. е. по-человечески, отвечать на вопросы на понимание какого-то рассказа. Программа — это алгоритм, позволяющий преобразовывать данные, поступающие на вход системы, в которой она инсталлирована. Преобразование осуществляется исключительно на основе формальных характеристик этих исходных данных. Допустим также, что данные, поступающие на вход этого компьютера, это китайские иероглифы. То есть вопросы на понимание рассказа задаются на китайском языке. На китайском языке записан и сам рассказ. Наша программа на понятном нам языке позволяет ставить в соответствие входящим иероглифам (вопросам) другие иероглифы, которые являются внешне осмысленными ответами на поставленные вопросы.
Итак, мы занимаем место компьютера. Теперь мы сами будем исполнять программу. Мы будем смотреть, какие иероглифы поступают к нам (для наглядности и для соответствия условий мысленного эксперимента тесту Тьюринга Сёрл предлагает нам представить, что мы находимся в изолированной комнате и общаемся с окружающими через специальный терминал), с помощью программы находить им соответствия (в конечном счете программа и сводится к указанию разного рода соответствий между иероглифами) и передавать полученный результат на выход, т. е. за пределы нашей комнаты.
Допустим также, что мы не знаем китайского языка, т. е., в частности, не знаем, какие вещи, свойства и отношения обозначают различные иероглифы. В таком случае, несмотря на то что мы будем выдавать внешне осмысленные, т. е. «правильные», ответы на поступающие вопросы, мы не будем иметь представления, о чем идет речь в этих вопросах, в наших ответах и в самом рассказе. Ведь наши ответы будут определяться исключительно формальными характеристиками поступающих на вход иероглифов. Таким образом, если мы, став компьютерами, внешне осмысленно отвечающими на вопросы, не обретаем того понимания сути беседы, которое присутствовало бы у нас, если бы мы знали китайский язык и вели человеческий разговор, то логично заключить, что подобное понимание отсутствует и у самих компьютеров. А из этого следует, что внешне осмысленное речевое поведение компьютеров не свидетельствует о наличии у них специфически человеческого понимания.
Этот вывод, по-видимому, невозможно оспорить, но здесь возникает важный вопрос о границах его применимости. Будет ли он действовать по отношению к такому речевому поведению, при котором мы в принципе не сможем внешне отличить поведение компьютера от поведения человека (в ситуации с тем рассказом мы легко могли бы зафиксировать такое отличие, если бы задали компьютеру вопрос из какой-то другой области)? Будет ли он действовать в тех случаях, когда компьютер сможет проходить тест Тьюринга?
Сёрл считал, что ничто не мешает истолковать его аргумент именно так. Но подобное толкование может быть принято, лишь если будет показано, что описанная им система могла бы проходить тест Тьюринга. В самом деле, если Китайская комната не может проходить тест Тьюринга, т. е. если ее ответы, несмотря на их осмысленность, всегда можно будет отличить от ответов человека, то нет ничего удивительного в том, что мы не сможем с необходимостью приписывать ей специфически человеческого понимания.
Между тем доказательство того, что Китайская комната в ее изначальном виде не может проходить тест Тьюринга, отыскать несложно. Для демонстрации ее неработоспособности достаточно задать человеку в Комнате какой-нибудь индексикальный вопрос, т. е. вопрос, правильный ответ на который зависит от фактуального контекста. Можно, к примеру, заранее принести какой-то предмет в эту комнату и спросить, есть ли он в ней (условия эксперимента не запрещают этого). Или можно спросить: «Сколько сейчас времени?» Ясно, что в программе, имеющейся у человека-компьютера в этой комнате, не может быть заранее прописан правильный ответ на такой вопрос. Программист не может заранее знать, когда мы зададим его. Можно, правда, предположить, что такой ответ все же мог бы быть прописан, если бы программа была составлена всезнающим программистом. Но даже в этом случае нельзя было бы говорить о прохождении устройством, на котором она инсталлирована, теста Тьюринга, так как оно