Трудная проблема сознания — страница 19 из 56

быть истолковано как некая совокупность программ, инсталлированных в мозге, или как результат «программного» наполнения нейронных сетей.

Так и возникла гипотеза, что особенностью мозга, генерирующей сознание, является именно его вычислительная природа, способность десятков миллиардов его нейронов реализовывать сложнейшие биологические и культурные алгоритмы, совокупность которых и является тем, что мы называем сознанием, Сёрл, однако, решительно выступил против программной метафоры сознания. В теперь уже почти легендарной статье 1980 г. «Сознания, мозги и программы» он предложил мысленный эксперимент, так называемый «Аргумент китайской комнаты», который был призван разрушить всякую аналогию между сознанием и программами.

Аргумент китайской комнаты — повествующий о человеке-компьютере, скрытом в помещении, обстановка которого позволяет создать впечатление его владения китайским языком для сторонних наблюдателей, хотя он не понимает по-китайски, — породил сотни откликов. Обсуждение не прекращается и поныне. Злые языки[107] говорят, что Сёрл позаимствовал его идею из одной статьи Нэда Блока, где тот рассуждал о моделировании работы мозга китайской нацией с радиопередатчиками[108]. Сам Сёрл предлагает иную версию: «В первые дни когнитивной науки существовал некий фонд под названием „Слоан Фаундейшн“, который давал людям деньги, чтобы они ездили по стране с лекциями. Нас в шутку величали Слоанскими Рейнджерами. Меня позвали в Йель прочитать лекцию в Лаборатории искусственного интеллекта. Я понятия не имел об искусственном интеллекте. Я купил книгу Роберта Шэнка и Роберта Эбелсона[109], из этой лаборатории, чтобы почитать в самолете. Я читал ее в самолете, и там шла речь о программах, понимающих рассказы. И я подумал: да это же смешно! Есть простое опровержение. Пусть это будет китайский рассказ и пусть я буду компьютером. Я все равно не буду понимать рассказ. Так появился Аргумент китайской комнаты»[110].

Отчет Сёрла весьма содержателен: он позволяет уяснить, почему его статья 1980 г. имела такой большой резонанс[111]. В этой статье поначалу действительно идет речь лишь о частном случае программной эмуляции когнитивных способностей — и Сёрл без труда показывает, что при этом сохраняются громадные различия искусственного и человеческого интеллекта. Но там же Сёрл дает понять, что считает возможным обобщить свой анализ на все случаи подобной эмуляции[112]. Таким образом ему удалось добиться мощного эффекта переноса очевидностей частного случая на его глобальный вывод о том, что естественный интеллект не работает как программа.

Чтобы разобраться, имел ли он право на такие обобщения, ненадолго углубимся в детали. Как мы только что слышали, Сёрл ознакомился с программами, обеспечивающими видимость понимания компьютером рассказов. Человеческое понимание всегда контекстуально, и если мы слышим рассказ о том, что человек зашел в ресторан и через час покинул его, оставив чаевые, то мы понимаем больше того, что буквально сказано. К примеру, если спросить нас, съел ли этот человек заказанную им сусину с икрой морского ежа (сам Сёрл скромно пишет о гамбургере, но я хотел бы приспособить его иллюстрации к российской специфике), то мы без колебаний ответим «да». Программа, эмулирующая понимание, должна отвечать на подобные вопросы. И в принципе такую программу можно написать, задавая контекст, на который будут накладываться вводимые данные. Но можно ли сказать, что компьютер, снабженный этой программой, действительно будет понимать рассказ? Сёрл убедительно показывает, что это не так. Но прежде он оговаривается, что подразумевает под программой алгоритм формальной обработки символов, без учета их возможной интерпретации — с такими синтаксическими программами и работают классические компьютеры.

Так вот, программу, понимающую некий рассказ, может «исполнить» и человек. При этом совершенно неважно, на каком языке будет этот рассказ, хоть на китайском, как и допускает Сёрл. Лишь бы этот человек знал — и это знание дает имеющаяся у него или заученная им программа, — какие именно символы выдавать в ответ на поступающие вопросы, в которых его интересуют опять же только символы, т. е. формальная сторона. Заучивший такую программу человек будет полным аналогом компьютера, эмулирующего понимание рассказа. Со стороны — наблюдателю, который находится вне Китайской комнаты, где сидит наш испытуемый, — будет казаться, что тот понимает рассказ. Но в действительности он не будет иметь никакого представления, о чем же идет речь в этом самом рассказе.

Отсюда следует, говорит Сёрл, что компьютер, выполняющий программу по эмуляции человеческого интеллекта, не может рассматриваться как аналог этого интеллекта, так как эта эмуляция происходит без какого бы то ни было реального понимания, характерного для нашего интеллекта. А это, в свою очередь, означает, что человеческий интеллект не есть программа, выполняемая на нейронном компьютере мозга. Тем самым, по мнению Сёрла, он опровергает концепцию «сильного искусственного интеллекта» (ИИ), согласно которой наличие сознания эквивалентно выполнению программы или необходимо связано с ним. Но все, на мой взгляд, могло бы повернуться иначе, если бы он не сделал одну ремарку — вначале относительно конкретной программы понимания рассказов, а затем тоже обобщенную на все случаи, — а именно что, отвергая «сильный ИИ», он является сторонником так называемого «слабого ИИ», т. е. считает, что действия человеческого интеллекта могут[113]успешно симулироваться на компьютере. В самом деле, почему бы и нет, рассуждает Сёрл. На компьютере можно смоделировать все, в том числе и работу интеллекта. Но моделирование человеческого интеллекта так же мало может породить в компьютере понимание, как моделирование грозы может вызвать дождь в этом самом компьютере.

Допущение возможности «слабого ИИ» кажется безобидным, пока мы не осознаем, что Сёрл, выходит, готов допустить создание таких, к примеру, программ, которые будут полностью эмулировать человеком понимание хотя бы того же китайского языка. И в позднейших вариантах изложения своего аргумента Сёрл говорит уже именно о глобальных программах и о том, что их выполнение на компьютере не дает с необходимостью эффекта реального понимания. С одной стороны, это логично: ведь его интересует не частный, а общий тезис о несходстве нашего осознанного понимания и искусственного интеллекта. Но проблема в том, что при таком обобщении Аргумент китайской комнаты становится уязвим для критики.

В самом деле, еще раз представим человека, запертого в комнате, заваленной горами китайских иероглифов, и снабженного программой, которая позволяет, по предположению, полностью эмулировать его знание китайского языка. Что же это за программа? Какого рода программа может подсказывать ему выбор иероглифов, создающий полную иллюзию осмысленного речевого поведения, т. е. позволяющий ему проходить знаменитый тест Тьюринга? Программа — это алгоритм, ставящий в соответствие данные на входе данным на выходе. Но какой алгоритм может поставить в соответствие данным на входе, означающим, к примеру — о чем не знает испытуемый — такой вопрос: «Сколько сейчас времени?», такие данные на выходе, которые соответствовали бы критериям разумного речевого поведения, т. е. не позволили бы мне сразу сказать (если допустить, что мне известно, что в комнате есть часы), что это ответ машины? Никакая программа не может заранее прописать, в какое время я задам этот вопрос — если это не программа, кодирующая божественное провидение (и даже она не выручила бы, так как получается, что человек, задающий подобный вопрос, не мог заранее ознакомиться с ней, что нелепо, но необходимо допустить, так как в противном случае ничто не мешало бы ему задать свой вопрос в другое время[114]). Или представим, что человек, задающий вопросы, заранее принес в ту комнату какой‑то предмет — к примеру, банку кока-колы — и поставил его на стол (это не противоречит условиям мысленного эксперимента Сёрла). И теперь он спрашивает: «Что вы видите на столе?» Невозможно вообразить, как человек в Китайской комнате смог бы ответить на этот вопрос при заданных Сёрлом условиях. Таким образом, чтобы осмысленно ответить на подобные вопросы, наш герой должен получить инструкцию: такие‑то иероглифы означают то‑то и то‑то (например, «взгляни на часы», «смотри на стол», «опиши то, что видишь»), т. е. получить семантическую информацию[115].

Но, получая ее, он начинает понимать китайский язык! Можно, правда, сказать, что Сёрл предвидел это возражение и ответил на него уже в разбираемой нами статье 1980 г. Дело в том, что мы должны помнить, что программы, о которых идет речь, в принципе написаны для машин, а не для человека: он лишь, так сказать, случайный гость в Китайской комнате. Поэтому очевидно, что для ответа на вопрос, подобный заданному выше — о том, «что вы видите на столе» и т. п., — программа должна содержать набор команд для какого‑то механизма, снабженного телекамерой, и, исполняя эти команды, такой механизм повернет камеру в нужное место. Так что человек, на время инсталлирующий в себя данную программу, должен просто отдавать команды такому механизму при появлении тех или иных иероглифов, не имея никакого представления ни о смысле этих закодированных команд, ни о смысле символов на выходе этого механизма, трактуемых извне как ответ на заданный вопрос.

Одним словом, Сёрл уверен, что превращение Китайской комнаты в Китайского робота ничего не меняет[116]