Прикладные Аспекты
Глава 9Сильный искусственный интеллект
1. Машинное сознание
Может ли машина быть сознательной? Может ли надлежащим образом запрограммированный компьютер действительно иметь ум? Эти вопросы были предметом громадного множества дискуссий в последние десятилетия. Исследования в области искусственного интеллекта (или ИИ) в значительной своей части были нацелены на воспроизведение ментального в вычислительных машинах. О серьезном прогрессе говорить пока не приходится, но сторонники этого подхода доказывают, что у нас есть все основания считать, что в итоге компьютеры действительно обретут ум. В то же время, оппоненты доказывают, что у компьютеров есть некие ограничения, которых лишены люди, так что не стоит и вопроса о том, чтобы сознающий ум возникал в силу одних лишь вычислительных процессов.
Есть два вида типичных возражений против искусственного интеллекта. Это могут быть внешние возражения, когда пытаются показать, что вычислительные системы никогда не смогли бы даже вести себя подобно когнитивным системам. Согласно этим возражениям, люди обладают определенными функциональными способностями, которые никогда не могли бы быть у компьютеров. Так, иногда утверждается, что, поскольку эти системы следуют правилам, они никогда не смогут демонстрировать творческое или гибкое поведение, свойственное людям (напр., Dreyfus 1972). Другие доказывали, что компьютеры никогда не смогут воспроизвести математические интуиции человека, так как вычислительные системы, в отличие от людей, ограничены теоремой Геделя (Lucas 1961; Penrose 1989).
Внешние возражения наталкивались на трудности, связанные с успехами вычислительных симуляций физических процессов в целом. Кажется, в частности, что у нас есть серьезное основание верить в вычислимость законов физики, так что мы по крайней мере должны быть способны осуществить вычислительную симуляцию человеческого поведения. Иногда это оспаривается доводами о невычислимом компоненте физических законов (так поступает Пенроуз) или о нефизической причинности (как это делает Лукас), но очевидно, что сторонники подобных доводов ведут неравный бой.
Большее распространение получили возражения, называемые мной внутренними. Те, кто высказывает их, хотя бы в целях своей аргументации признают, что компьютеры могли бы симулировать человеческое поведение, но доказывают, что они все равно были бы лишены ментального. В частности, предполагается, что у них не было бы внутренней жизни: ни сознательного опыта, ни подлинного понимания. В лучшем случае компьютер мог бы симулировать, но не воспроизводить ментальность. Наиболее известным возражением этого типа является аргумент «Китайской комнаты» Джона Серла (Searle 1980). Согласно этим возражениям, вычислительные системы в лучшем случае были бы наделены пустыми оболочками ментального: они были бы кремниевыми разновидностями зомби.
Сторонники нередуктивного взгляда на сознательный опыт нередко симпатизировали внутренним возражениям против искусственного интеллекта, и многие доказывали, что простой компьютер не может обладать сознанием. Более того, те, на кого произвела впечатление проблема сознания, подчас характеризовали эту проблему, указывая на сознание как на такую черту, которая есть у нас, но отсутствовала бы у любого компьютера! Многим оказалось трудно поверить, что искусственная, небиологическая система могла бы быть тем, что могло бы порождать сознательный опыт.
Однако нередуктивный взгляд на сознание вовсе не автоматически приводит к пессимистическим воззрениям на ИИ. Это совершенно разные вопросы. Первый имеет отношение к прочности сопряжения физических систем и сознания: конституируется ли сознание физическими процессами, или же оно всего лишь возникает из этих процессов? Второй вопрос касается формы этого сопряжения: какие именно физические системы порождают сознание? Разумеется, не очевидно, что выполнение надлежащего вычисления должно порождать сознание; но не очевидно и то, что нейронные процессы в мозге должны порождать его. И, на первый взгляд, не ясно, почему компьютеры должны уступать мозгу в этом отношении. Признав удивительный факт порождения мозгом сознания, мы не испытаем нового удивления, обнаружив, что вычисление могло бы порождать сознание. Так что само по себе принятие нередуктивного взгляда на сознание должно было бы оставлять рассматриваемый нами вопрос открытым.
Рис. 9.1. Bloom County о сильном ИИ (© 1985, Washington Post Writers Group. Перепечатано с разрешения).
(1) — Я мыслю. Следовательно…
(2) — Я существую. Я существую!
(3) — Я мыслю! Следовательно, я живой! Я живой, у меня есть жизнь, мысли и психика! Сладкое сознание!.. И бессмертная душа! — Хлоп!
В этой главе я пойду дальше и попытаюсь показать оправданность амбиций сторонников искусственного интеллекта (рис. 9.1). В частности, я буду отстаивать позицию, которую Серл называет сильным искусственным интеллектом и которая состоит в том, что существует непустой класс вычислений, такой, что осуществление любого вычисления этого класса достаточно для ментального и в том числе для существования сознательного опыта. Конечно, эта достаточность имеет силу лишь естественной необходимости: осуществление любого из этих вычислений при отсутствии сознания является логически возможным. Но мы видели, что это верно и для мозга. При оценке перспектив машинного сознания в актуальном мире нас интересует естественная возможность и необходимость.
(Чтобы этот не вывод не казался тривиальностью, учитывая панпсихистские предположения, высказанные в предыдущей главе, замечу, что ничто в этой главе не зависит от тех соображений. В самом деле, я буду доказывать не только то, что осуществление надлежащего вычисления достаточно для сознания, но и то, что осуществление надлежащего вычисления достаточно для богатого сознательного опыта, подобного нашему.)
Я уже выполнил большую часть работы, которая требуется для указанной защиты сильного ИИ, обосновывая в главе 7 принцип организационной инвариантности. Если тот аргумент верен, то он устанавливает, что любая система с надлежащим типом функциональной организации наделена сознанием — неважно, из чего она сделана. Так что мы уже знаем, что, скажем, кремниевый состав не является преградой для обладания сознанием. Остается лишь прояснить связь между вычислением и функциональной организацией, чтобы установить, что осуществление надлежащего вычисления гарантирует наличие релевантной функциональной организации. Если это сделано, то отсюда вытекает сильный ИИ. Я также отвечу на ряд возражений, выдвинутых против проекта сильного ИИ.
2. Об имплементации вычисления
Стандартная теория вычисления имеет дело исключительно с абстрактными объектами: машинами Тьюринга, программами на Паскале, конечными автоматами и т. п. Это — математические сущности, населяющие математическое пространство. Когнитивные же системы, существующие в реальном мире, это конкретные объекты, имеющие физическое воплощение и каузально взаимодействующие с другими объектами физического мира. Но зачастую мы хотим использовать теорию вычисления для получения выводов о конкретных объектах в реальном мире. Для этого нам нужен мост между областью абстрактного и областью конкретного[179].
Таким мостом является понятие имплементации — отношения между абстрактными вычислительными объектами, или, коротко, «вычислениями» и физическими системами, имеющееся тогда, когда физическая система «реализует» вычисление, или когда вычисление «описывает» физическую систему. Вычисления часто имплементируются на синтетических, кремниевых компьютерах, но их можно имплементировать и иначе. К примеру, нередко говорят, что вычисления имплементируют природные системы, такие как человеческий мозг. Вычислительные описания применяются к самым разнообразным физическим системам. И всякий раз в подобных случаях неявно или явно задействуется понятие имплементации.
Понятие имплементации нечасто подвергается детальному анализу; обычно его просто принимают как данность. Но для защиты сильного ИИ мы нуждаемся в его детальном объяснении. Тезис о сильном ИИ выражен в вычислительных терминах и говорит о том, что имплементация надлежащего вычисления достаточна для сознания. Чтобы оценить это утверждение, мы должны знать, в каком именно случае физическая система имплементирует вычисление. Разобравшись в этом, мы сможем присоединить это знание к проделанному нами ранее анализу психофизических законов, чтобы понять, может ли из этого вытекать интересующий нас вывод.
Некоторые авторы доказывали невозможность дать сколь-либо содержательное объяснение имплементации. В частности, Серл (Searle 1990b) доказывал, что имплементация не является чем-то объективным, а, наоборот, зависит от наблюдателя: любая система может быть истолкована как имплементирующая любое вычисление при надлежащей интерпретации. Серл, к примеру, считает, что о его стене можно рассуждать так, будто она имплементирует его текстовый редактор Wordstar. Если бы это было так, то трудно было бы понять, как вычислительные понятия могут играть какую-то основополагающую роль в теории, в конечном счете имеющей дело с конкретными системами. Что же до сильного ИИ, то он либо оказался бы лишен всякого содержания, либо подразумевал бы признание сильной разновидности панпсихизма. Думаю, однако, что пессимизм такого рода неоснователен: не существует препятствий для объективной характеристики имплементации. В этом параграфе я схематично представлю эту характеристику (она будет несколько технической, но оставшаяся часть главы должна быть понятной, даже если проскочить эти детали).
Любое объяснение имплементации вычисления будет зависеть от того, о каком классе вычислений идет речь. Существует множество разных вычислительных формализмов, которым соответствует различные классы вычислений: машины Тьюринга, конечные автоматы, программы на Паскале, коннекционистские сети, клеточные автоматы и т. д. В принципе, нам нужно объяснение имплементации для каждого из этих формализмов. Я объясню имплементацию только для одного формализма, а именно для формализма комбинаторных автоматов. Этот класс вычислений достаточно абстрактен для того, чтобы можно было без труда перенести на другие классы связанную с ним концепцию имплементации.
Комбинаторный автомат — более рафинированный родственник конечного автомата. Конечный автомат (КА) специфицируется заданием конечного набора данных на входе, конечного набора внутренних состояний, конечного набора данных на выходе и указанием сопряженного с ними набора отношений перехода от состоянию к состоянию. Внутреннее состояние КА — это простой элемент Si, лишенный внутренней структуры; это же справедливо для данных на входе и на выходе. Отношения перехода специфицируют для каждой возможной пары данных на входе и внутренних состояний новое внутреннее состояние и имеющийся на выходе результат. Если дано начальное состояние какого-то КА, то эти отношения перехода от состояния к состоянию специфицируют, каким образом он будет изменяться во времени и что он будет давать на выходе в зависимости от того, что он получает на входе. Вычислительная структура КА представляет собой этот относительно простой набор отношений перехода от состояния к состоянию в наборе неструктурированных состояний.
Конечные автоматы непригодны для репрезентации структуры большинства вычислений, имеющих практическое значение, так как состояния и отношения перехода от состояния к состоянию в них обычно имеют сложную внутреннюю структуру. Никакое описание КА не может, к примеру, передать всю структуру программы на Паскале, машины Тьюринга или клеточного автомата. Полезней поэтому сконцентрироваться на классе автоматов со структурированными внутренними состояниями.
Комбинаторные автоматы (КоА) ничем не отличаются от КА, за исключением того, что их внутренние состояния структурированы. Состояние комбинаторного автомата представляет собой вектор [S1, S2,…,Sn]. Этот вектор может быть конечным или бесконечным, но я сосредоточусь на первом случае. Элементы этого вектора можно мыслить в качестве компонентов внутреннего состояния; они соответствуют клеткам клеточного автомата или ячейкам ленты и состоянию управляющего устройства машины Тьюринга. Каждый элемент Si может иметь конечное множество значений Sij, где Sij — j-e возможное значение i-го элемента. Эти значения можно трактовать в качестве «подсостояний» общего состояния. Данные на входе и на выходе имеют аналогичную комплексную структуру: первые являют собой вектор [I1,…, Ik], вторые — вектор [О1,…, Оm].
КоА детерминируется специфицированием набора векторов внутренних состояний и векторов данных на входе и на выходе и специфицированием набора правил перехода от состояния к состоянию, определяющих изменение состояния КоА во времени. Для каждого элемента вектора внутреннего состояния правило перехода от состояния к состоянию определяет то, как его новое значение зависит от прежних значений данных на входе и векторов внутреннего состояния. Для каждого элемента исходящего вектора правило перехода от состояния к состоянию определяет то, как его новое значение зависит от прежних значений вектора внутреннего состояния. Каждый конечный КоА может быть представлен как КА с равными вычислительными возможностями, но КА — описание приносило бы в жертву большинство структурных моментов, существенных для КоА. Эта структура имеет ключевое значение при использовании КоА для уяснения той организации, которая лежит в основе ментального.
Теперь мы уже можем дать объяснение имплементации. Вычисления, такие как КоА — это абстрактные объекты, формальная структура которых определяется их состояниями и отношениями перехода от состояния к состоянию. Физические системы — это конкретные объекты, каузальная структура которых определяется их внутренними состояниями и каузальными отношениями между ними. В неформальном плане мы говорим, что физическая система имплементирует вычисление, если каузальная структура этой системы отражает формальную структуру вычисления. То есть, система имплементирует вычисление, если можно установить такое соответствие между состояниями этой системы и вычислительными состояниями, при котором каузально соотнесенные физические состояния соответствуют формально соотнесенным формальным состояниям.
Эта интуитивная идея может быть напрямую использована для получения представления об имплементации в случае КоА. Физическая система имплементирует КоА, если можно так разложить внутренние состояния системы на подсостояния, и данные системы на входе и на выходе — на подсостояния этих данных, и так соотнести подсостояния системы с подсостояниями КоА, что отношения каузального перехода от состояния к состоянию для физических состояний, данных на входе и на выходе отражают формальные отношения перехода от состояния к состоянию для соответствующих формальных состояний, данных на входе и на выходе.
Формальный критерий имплементации КоА выглядит таким образом:
Физическая система Р имплементирует КоА М, если можно разложить внутренние состояния Р на компоненты [s1,…, sn] и установить соответствие f между подсостояниями sj и соответствующими подсостояниями Sj в М, а также произвести сходную операцию разложения и установления соответствия для данных на входе и на выходе, так, что для каждого правила перехода от состоянию к состоянию
([I1,…, Ik], [S1,…, Sn]) —> ([S'1,…, S'n], [О1,…, Оl])
в М: если Р находится во внутреннем состоянии [s1,…sn] и получает на входе [i1…., iп], соответствующие формальному состоянию и данным на входе [S1,…, Sn] и [I1,…, Ik], то это каузальным образом с неизбежностью приводит к тому что она переходит к такому внутреннему состоянию и порождает такие данные на выходе, которые надлежащим образом соответствуют [S'1,…, S'n] и [О1,…, Оl].
Мы можем допустить, что при разложении состояния физической системы на вектор подсостояний значение каждого элемента этого вектора должно быть супервентно на отдельном участке физической системы, чтобы гарантировать, что каузальная организация соотносит различные компоненты этой системы. В ином случае не очевидно, что детальная каузальная структура действительно присутствует в физической системе. Эти и другие детали приведенной выше дефиниции можно уточнять и дальше. Понятие имплементации не выбито на скрижалях, и оно допускает как расширение, так и сужение — в зависимости от поставленных целей. Но здесь даны главные его контуры, общие для всех концепций имплементации.
Могло бы показаться, что КоА немногим лучше КА. В конце концов, для любого конечного КоА мы можем найти соответствующий ему КА с тем же поведением на входе — выходе. Но между ними все же есть существенные различия. Первое и главное из них состоит в том, что условия имплементации для КоА гораздо более ограничены, чем аналогичные условия для КА. Имплементация КоА предполагает сложное каузальное взаимодействие множества отдельных частей; и поэтому КоА-описание может передавать каузальную организацию системы с гораздо большей степенью детализации. Во-вторых, КоА позволяют сформулировать единое объяснение условий имплементации, значимое как для конечных, так и для бесконечных машин. И, в-третьих, КоА может напрямую отражать комплексную формальную организацию вычислительных объектов, таких как машины Тьюринга и клеточные автоматы. В соответствующих КА была бы утрачена большая часть этих структурных моментов.
На деле мы можем использовать эту дефиницию имплементации для прямого получения критериев имплементации для других видов вычислений. К примеру, для конкретизации условий имплементации машины Тьюринга нам нужно просто переописать машину Тьюринга как КоА и применить данную выше дефиницию. Для этого мы описываем состояние машины Тьюринга как громадный вектор. Один из элементов этого вектора репрезентирует состояние ее управляющего устройства, есть элементы и для каждой ячейки ее ленты, репрезентирующие символ в этой ячейке и указывающие, находится ли управляющее устройство на ней. Правила перехода от состояния к состоянию для векторов естественным образом извлекаются из механизмов, специфицирующих поведение управляющего устройства машины и ленты. Разумеется, векторы здесь бесконечны, но условия имплементации для случая с бесконечностью являются непосредственным расширением условий для конечных случаев. При переводе с языка формализма машины Тьюринга на язык формализма КоА мы сможем сказать, что машина Тьюринга имплементируется всякий раз, когда имплементируется соответствующий КоА. Аналогичные переводы можно сделать и для вычислений в других формализмах, таких как клеточные автоматы или программы на Паскале, что позволит сформулировать условия имплементации для вычислений в каждом из этих классов.
Это дает совершенно объективный критерий для имплементации вычисления. Имплементация вычисления не выхолащивается, как полагал Серл. Конечно, некоторые вычисления будут имплементироваться любой системой. К примеру, одноэлементный КоА с одним состоянием будет имплементироваться любой системой, почти также широко будет имплементироваться и двухэлементный КоА. Верно также, что большинство систем будет имплементировать более чем одно вычисление — в зависимости от того, как мы будем очерчивать состояния этой системы. В этом нет ничего удивительного: вполне ожидаемым представляется то, что моя рабочая станция, как и мой мозг, имплементирует множество вычислений.
Существенно, однако, то, что нет оснований считать, что любой КоА будет имплементирован любой системой. Если взять любой сложный КоА, то окажется, что существует лишь очень немного физических систем, наделенных каузальной организацией, необходимой для его имплементации. Если мы возьмем КоА, векторы состояний которого имеют тысячу элементов, с десятью опциями для каждого элемента, то аргументы, подобные тем, что выдвигались в главе 7, покажут, что шанс случайного набора физических состояний, имеющих нужные каузальные отношения, чуть меньше 1 из (101000)10^1000 (на деле гораздо меньше из-за требования прочности отношений перехода от состояния к состоянию[180]).
Так как же быть с утверждением Серла о том, что вычислительные описания зависимы от наблюдателя? Верно то, что здесь имеется определенная степень такой зависимости: любая физическая система будет имплементировать множество вычислений, и то, на каком из них сосредоточится наблюдатель, зависит от целей этого наблюдателя. Но это не несет в себе угрозу для ИИ или для вычислительной когнитивной науки. По-прежнему верно, что по отношению к любому вычислению можно говорить о фактичности того, что та или иная система имплементирует или не имплементирует его, и в качестве его имплементаций будет выступать лишь ограниченный класс систем. И этого достаточно для того чтобы вычислительные концепции имели метафизическое и объяснительное значение.
Утверждение о том, что физическая система имплементирует комплексное вычисление Р, равносильно совершенно нетривиальному утверждению о каузальной структуре этой системы, которое может быть весьма полезным для когнитивных объяснений, а, быть может, и для понимания основы сознания. Лишь системы с очень специфичной разновидностью каузальной организации могут рассчитывать на соответствие сильным ограничительным условиям имплементации. Так что здесь нет опасности выхолащивания, и можно надеяться, что понятие вычисления окажется прочной основой для анализа когнитивных систем.
3. В защиту сильного ИИ
Имплементация КоА поразительно напоминает реализацию функциональной организации. Вспомним, что функциональная организация определяется специфицированием множества абстрактных компонентов, множества состояний каждого компонента и системы отношений зависимости, указующих на то, как состояния каждого компонента зависят от предыдущих состояний и от данных на входе, а также на то, как данные на выходе зависят от предшествующих состояний. Понятие КоА, по сути дела, является непосредственной формализацией указанного понятия.
Действительно, при наличии любой функциональной организации того типа, который был описан в главе 7, из нее можно напрямую извлечь КоА. Нужно лишь допустить, что векторы состояния КоА располагают элементами для каждого компонента этой организации и что формальные переходы состояний КоА соответствуют отношениям каузальной зависимости между компонентами. Реализация функциональной организации практически не отличается от имплементации соответствующего КоА. Небольшие различия, связанные, в частностью, с различным обращением с данными на входе и выходе, есть, но они несущественны.
Предложенная мной концепция имплементации, таким образом, проясняет связь между каузальной и вычислительной организацией. Так мы можем увидеть, что при применении вычислительных описаний к физическим системам они, по сути, предоставляют нам формальное описание каузальной организации системы. Вычислительный язык оптимально подходит для спецификации подобной абстрактной каузальной организации. Можно даже попробовать показать, что именно поэтому вычислительные понятия получили столь широкое распространение в когнитивной науке. В объяснении поведения сложной когнитивной системы наибольшее значение имеет абстрактная каузальная организация системы, и вычислительные формализмы оказываются идеальным каркасом, с помощью которого может быть описана и проанализирована подобная организация[181].
Указанная связь упрощает защиту сильного искусственного интеллекта. Я уже приводил доводы в пользу принципа организационной инвариантности, согласно которому относительно любой системы, наделенной сознательными переживаниями, верно, что система, обладающая такой же высокодетализированной функциональной организацией, будет обладать качественно идентичными сознательными переживаниями. Мы, однако, знаем, что любая функциональная организация может быть абстрагирована в КоА, всегда имплементируемый при реализации этой организации. Из этого следует, что для данной сознательной системы М ее высокодетализированная функциональная организация может быть абстрагирована в КоА М, такой, что любая система, имплементирующая М, будет реализовывать такую же функциональную организацию и поэтому будет обладать сознательными переживаниями, качественно неотличимыми от переживаний исходной системы. А это и есть сильный искусственный интеллект.
К примеру, на основе нейронного описания мозга мы могли бы получить абстрактный КоА, располагающий элементами вектора состояния для каждого нейрона и подсостояниями для каждого элемента, отражающими соответствующий диапазон состояний для каждого из нейронов. Правила перехода от состояния к состоянию в КоА отражают тип зависимости состояния каждого нейрона от состояния других нейронов и соотнесенность нейронных состояний и данных на входе и на выходе. Если значимы не только нейронные компоненты мозга, то можно включить и их. Любая физическая система, имплементирующая этот КоА, будет иметь такую высокодетализированную функциональную организацию, которая будет дуплицировать функциональную организацию мозга на нейронном уровне. Согласно принципу инвариантности, эта система будет обладать переживаниями, неотличимыми от тех, которые связаны с мозгом.
Заманчиво представлять компьютер просто как устройство с входом и выходом, между которыми есть место лишь для формальных математических манипуляций. Подобный взгляд на вещи, однако, игнорирует тот ключевой факт, что внутри компьютера — так же как и внутри мозга — имеется богатая каузальная динамика. В самом деле, в обычном компьютере, понейронно имплементирующем симуляцию моего мозга, есть место для реальной каузальности напряжений различных цепей, в точности отражающей паттерны каузальности между нейронами. Каждому нейрону будет соответствовать участок памяти, репрезентирующий этот нейрон, и каждый из этих участков будет физически реализован напряжением в каком-то физическом месте. За возникающий сознательный опыт отвечают именно эти каузальные паттерны электрических цепей, так же как за его возникновение отвечают каузальные паттерны нейронов мозга.
Тезис сильного искусственного интеллекта можно защищать и напрямую, используя аргументы от блекнущих и от скачущих квалиа. При наличии любых двух имплементаций КоА между ними будет спектр случаев, в которых физические компоненты имплементации заменяются по одному при сохранении паттерна их каузального взаимодействия с остальной частью системы. Если одна из систем обладает сознанием, и если КоА является абстрактным выражением ее высокодетализированной функциональной организации, то из упомянутых аргументов следует, что вторая система должна обладать сознанием и что она должна быть наделена неотличимыми сознательными переживаниями. Если бы вторая система не обладала сознанием, то существовала бы промежуточная система с блекнущими квалиа. Если бы вторая система не обладала сознанием или имела другие осознанные переживания, то мы смогли бы сконструировать промежуточную систему со скачущими квалиа. Такие последствия неправдоподобны по причинам, указанным в главе 7. Но если принять, что квалиа не могут блекнуть или скакать подобным образом, то из этого следует, что вторая из изначально имевшихся у нас систем обладает переживаниями, неотличимыми от переживаний первой системы, что и означает признание истинности тезиса о сильном искусственном интеллекте.
Здесь есть небольшая тонкость. Аргумент предполагает, что организация мозга может быть абстрагирована в КоА-описание. Для этого нужно лишь, чтобы релевантная организация могла быть описана в терминах конечного множества частей, каждая из которых имеет конечное множество релевантных состояний. Однако это можно было бы оспорить. Не исключено, к примеру, что для каждого нейрона требуется бесконечное множество состояний, чтобы передать непрерывность соответствующих процессов, имеющую важное значение. И можно было бы утверждать, что переходы между этими бесконечными состояниями могли бы оказаться невычислимыми. Позже я еще рассмотрю подобное возражение; пока же я готов принять вывод, что если когнитивная динамика вычислима, то надлежащая вычислительная организация будет порождать сознание. Иначе говоря, тут меня больше интересуют внутренние, а не внешние возражения. Тем не менее позже в этой главе я отвечу на ряд внешних возражений.
4. Китайская комната и другие возражения
Противники сильного ИИ, конечно же, подчас выдвигали конкретные доводы против этой позиции. Наиболее известным из них мы обязаны Джону Серлу, излагающему их, в частности, в статье 1980 г. «Сознания, мозги и программы». Я отвечу на них в рамках очерченной модели.
В ходе знаменитого аргумента против сильного ИИ, Серл (Searle 1980) доказывает, что любая программа может быть имплементирована без порождения ментального. Доказательство построено на демонстрации того, что он считает контрпримером для тезиса о сильном ИИ: Китайской комнаты, внутри которой субъект, манипулирующий символами, симулирует человека, понимающего китайский язык. Китайская комната задумана как иллюстрация системы, имплементирующей программу — какой бы они ни была — при отсутствии релевантного сознательного опыта.
В изначальной версии Серл направляет свой аргумент скорее против машинной интенциональности, чем против машинного сознания, доказывая, что у Китайской комнаты отсутствует «понимание». Ясно тем не менее, что, по сути, речь идет о сознании. Ядро этого аргумента, если он верен, напрямую устанавливает, что система Китайской комнаты лишена сознательных состояний, таких как сознательное переживание понимания китайского языка. Серл считает, что интенциональность предполагает сознание, так что этого достаточно для того, чтобы убедиться, что комната лишена и интенциональности. Другие, впрочем, отрицают это. В любом случае, мы можем отвлечься от вопроса о связи между сознанием и интенциональностью и сформулировать проблему исключительно в терминах сознания. При этом можно чуть лучше высветить спорные моменты.
(Иначе говоря, мы можем разделить выводы Серла на две части: (1) программы не достаточно для сознания; и (2) программы не достаточно для интенциональности. Серл полагает, что из (1) следует (2), но другие отрицают это. Яснее всего будет, если сфокусировать аргумент о сильном ИИ на (1): все стороны согласятся, что, если (1) верен, то наиболее интересная разновидность сильного ИИ обречена, и даже Серл согласился бы, что опровержение (1) показало бы, что аргумент Китайской комнаты не проходит. Связь между сознанием и интенциональностью можно выделить тогда в отдельный вопрос, не критичный для аргумента против ИИ.
Действуя подобным образом, мы избегаем ситуации, при которой оппоненты выступают против (2), не беспокоясь об опровержении (1). К примеру, возражения, сфокусированные на связи между Китайской комнатой и ее окружением (Fodor 1980; Rey 1986), и возражения, процедурно или функционально объясняющие интенциональность (Boden 1988; Thagard 1986), могут в лучшем случае прояснить вопрос об интенциональности, но они никак не повышают правдоподобность вывода о сознательности Китайской комнаты. В результате они оставляют такое чувство, будто проблема, которую ставит перед ИИ этот сценарий, так и не была рассмотрена. Максимум, что они делают, так это оспаривают вспомогательную посылку о том, что интенциональность предполагает сознание [182].)
Аргумент Китайской комнаты разворачивается следующим образом. Возьмем любую программу, которая, как предполагается, передает какой-то из аспектов сознания, к примеру, понимание китайского языка или наличие ощущения красного. Далее эта программа может быть имплементирована англоязычным субъектом, не знающим других языков, — будем называть его демоном — в черно-белой комнате. Демон вручную следует всем правилам, специфицированным программой, ведя записи о всех релевантных внутренних состояниях и переменных на клочках бумаги, при необходимости стирая и обновляя их. Мы можем также вообразить, что демон соединен с роботизированным телом, получая цифровые данные от перцептивных датчиков, манипулируя ими согласно программным спецификациям и посылая результирующие данные на моторные эффекторы. Здесь можно говорить о совершенной имплементации программы. Тем не менее кажется очевидным, что у демона нет сознательного понимания китайского и что он лишен ощущения красного. Поэтому имплементация программы не достаточна для этих сознательных переживаний. Сознание предполагает не только имплементацию релевантной программы.
Защитники сильного ИИ обычно возражали так, что они соглашались, что демон не понимает по-китайски, но доказывали, что понимание и сознание должны быть атрибутированы системе, включающей в свой состав демона и клочки бумаги. Серл заявлял об очевиднейшей неубедительности такого возражения. Действительно, в утверждении о том, что система, состоящая из субъекта и клочков бумаги, обладает коллективным сознанием, есть нечто контринтуитивное. На этой стадии аргумент заходит в тупик. Защитники ИИ доказывают, что система обладает сознанием, оппоненты находят этот вывод нелепым, и дальнейшее продвижение кажется затруднительным. Думаю, однако, что приведенные ранее доводы дают возможность выйти из тупика к сильному ИИ.
Допустим, что программа, о которой мы говорим, в действительности является комбинаторным автоматом, отражающим на нейронном уровне организацию носителя китайского языка, смотрящего на сочное красное яблоко. Демон в комнате имплементирует этот КоА, располагая клочками бумаги для каждого элемента вектора состояния и обновляя их на каждом временном шагу в соответствии с правилами перехода от состояния к состоянию. Мы можем развернуть аргументы блекнущих и скачущих квалиа, сконструировав спектр случаев, занимающих промежуточное положение между исходным носителем китайского языка и Китайской комнатой[183]. Сделать это нетрудно. Вначале мы можем вообразить, что нейроны в голове носителя китайского языка последовательно заменяются крошечными демонами, каждый из которых дуплицирует входяще — исходящую функцию нейрона[184]. При получении стимулов со стороны соседних нейронов демон производит соответствующие вычисления и, в свою очередь, стимулирует соседние нейроны. По мере замены все большего количества нейронов демоны берут верх, пока весь череп не оказывается заполнен миллиардами демонов, реагирующих на сигналы друг друга и на входящие чувственные данные, производящих вычисления, сигнализирующих другим демонам и, в свою очередь, стимулирующих моторные окончания. (Если кто-то будет возражать, сказав, что все эти демоны никогда не смогут поместиться в череп, то взамен можно вообразить сценарий с устройствами радиопередачи, находящимися вне черепа.)
Далее, мы постепенно уменьшаем число демонов, удваивая их работу. Сперва мы заменяем два соседних демона одним демоном, делающим их работу. Новый демон будет фиксировать внутреннее состояние обоих симулируемых им нейронов — можно представить, что эта запись будет храниться на клочке бумаги в каждой из локаций. Каждый из этих клочков бумаги будет обновляться в зависимости от сигналов, поступающих от соседних нейронов и от состояния другого клочка бумаги. Консолидация демонов будет продолжена, пока в конце концов на их месте не окажется один-единственный демон и миллиарды крошечных клочков бумаги. Можно представить, будто каждый из этих клочков находится в месте изначального расположения соответствующего ему нейрона, а демон мечется по мозгу, обновляя каждый из этих клочков в качестве функции состояний соседних клочков и, при необходимости, чувственных данных.
Несмотря на все эти изменения, итоговая система имеет ту же функциональную организацию, что и исходный мозг. Каузальные отношения между нейронами в исходном случае отражаются в каузальных отношениях между демонами в промежуточном случае и между клочками бумаги — в конечном случае. В этом конечном случае каузальные отношения опосредуются действиями демона — клочок бумаги воздействует на состояние демона, который воздействует на соседний клочок бумаги — но они тем не менее являются каузальными отношениями. Если мы посмотрим на функционирование этой системы в ускоренном режиме, то мы увидим вихрь каузальных взаимодействий, точно соответствующий нейронному вихрю.
Мы, таким образом, сможем применить аргументы от блекнущих и скачущих квалиа. Если итоговая система лишена сознательного опыта, то должна существовать промежуточная система с блеклыми сознательными переживаниями. А это неправдоподобно по уже известным нам причинам. Мы можем также вообразить, что мы поочередно подключаем то нейронную цепь, то соответствующую ей резервную цепь, имплементированную демонами или одним демоном и клочками бумаги. Как и прежде, это привело бы к скачущим квалиа при неизменной функциональной организации, так что система не смогла бы заметить разницу. И опять-таки гораздо более правдоподобным выглядит допущение, что квалиа не будут меняться.
Оправданным, стало быть, кажется заключение, что итоговая система имеет точно такие же сознательные переживания, что и исходная система. Если нейронная система порождала переживания чего-то ярко-красного, то их будет порождать и система демонов, равно как и сеть клочков бумаги, опосредованных демоном. Но этот итоговый случай, разумеется, всего лишь копия системы, находящейся в Китайской комнате. Мы тем самым нашли позитивное основание считать, что та система действительно обладает сознательными переживаниями, в частности, теми, которые связаны с пониманием китайского языка и переживанием красного.
Подобный взгляд на вещи проясняет два момента, которые могли бы оставаться затемненными серловским описанием Китайской комнаты. Во-первых, «клочки бумаги» в комнате — это не просто кучи формальных символов. Они образуют конкретную динамическую систему, каузальная организация которой прямо соответствует организации исходного мозга. Это обстоятельство затемняется медлительностью связываемой с ними манипуляции символами, а также присутствием демона, осуществляющего эту манипуляцию; и тем не менее сознательный опыт порождает именно конкретная динамика этих клочков бумаги. Во-вторых, демон играет сугубо второстепенную роль. Ключевая каузальная динамика связана с клочками бумаги, соответствующими нейронам в исходном случае. Демон всего лишь оказывает вспоможение этим каузальным отношениям. Образ демона, мечущегося внутри черепной коробки, делает очевидным то обстоятельство, что атрибутирование переживаний системы демону было бы серьезным смешением уровней. Факт сознательности демона может искушать на предположение, что если переживания системы вообще где-то существуют, то они существуют именно в демоне; но в действительности сознательность демона не имеет никакого отношения к функционированию системы. Функции демона могла бы выполнить простая таблица соответствий. Ключевым аспектом системы является динамика символов.
Аргумент Серла интуитивно впечатляет нас из-за причудливости программной имплементации, затемняющей реализацию релевантной каузальной динамики. Но при избавлении от образов, навеваемых присутствием нерелевантного демона и медлительностью перетасовки символов, мы увидим, что каузальная динамика в комнате в точности отражает каузальную динамику в черепной коробке. И тогда предположение о том, что эта система порождает опыт, уже не будет казаться столь неправдоподобным.
В одной из версий серловского аргумента демон запоминает правила вычисления и внутренним образом имплементирует программу. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но можно вообразить, что демон с модулем суперпамяти был бы в состоянии запомнить все правила и состояния всех символов. В этом случае опять-таки можно ожидать, что система породит сознательные переживания, которые не будут переживаниями демона. Серл доказывает, что если кто-то и должен иметь переживания, то им может быть только демон, так как все процессы обработки информации протекают внутри него, однако эта ситуация должна рассматриваться как пример реализации двух ментальных систем в одном и том же физическом пространстве. Устройство, порождающее китайские переживания, никак не совпадает с организацией, порождающей переживания демона. Понимающее китайский устройство состоит в каузальных отношениях миллиардов локаций модуля суперпамяти; демон же, повторю, действует лишь в качестве каузального вспоможения. Это становится очевидным при рассмотрении спектра случаев, когда демон, мечущийся в черепной коробке, постепенно запоминает правила и символы — до тех пор, пока не интернализирует все их. Соответствующая структура постепенно перемещается из черепной коробки в суперпамять демона, но опыт остается неизменным и совершенно обособленным от переживаний демона.
Можно было бы предположить, что поскольку мой аргумент предполагает дуплицирование организации мозга, он устанавливает лишь слабую разновидность сильного ИИ, тесно увязанную с биологией. (При обсуждении возражения, называемого им «Симулятором мозга», Серл выказывает удивление тем обстоятельством, что сторонник ИИ выдвигает возражение, подразумевающее детальную симуляцию человеческой биологии.) Однако в таком случае мы недооценили бы силу этого аргумента. Программа симуляции мозга — это просто тонкий край нашего клина. Узнав, что одна программа может порождать ментальное даже при ее имплементации в духе Китайской комнаты, мы полностью нейтрализуем аргумент Серла, претендующий на универсальный характер: мы знаем, что демон и бумага в Китайской комнате действительно могут фундировать независимое сознание. И тогда мы открываем шлюзы для целого спектра программ, которые могли бы оказаться кандидатами на роль программ, порождающих сознательный опыт. Границы этого спектра — это открытый вопрос, но Китайская комната не является препятствием на этом пути.
Второй аргумент, выдвинутый Серлом (Searle 1984), звучит так:
1. Компьютерная программа имеет синтаксический характер.
2. Синтаксис недостаточен для семантики.
3. Сознания семантичны.
4. Поэтому имплементации программы недостаточно для сознания.
Опять-таки, это выдвигается как аргумент об интенциональности, но он может рассматриваться и как аргумент о сознании. Серл считает, что главной разновидностью интенциональности является феноменологическая интенциональность, внутренне присущая сознанию.
Этот аргумент можно интерпретировать и критиковать разными способами, но главная его проблема состоит в том, что он не придает должного значения ключевой роли имплементации. Программы — это абстрактные вычислительные объекты, и они сугубо синтаксичны. Можно быть уверенным, что ни одна программа как таковая не может претендовать на наличие в ней ментального. Но имплементации программ — это конкретные системы с каузальной динамикой, и они не есть нечто сугубо синтаксичное. Имплементация имеет каузальный вес в реальном мире, и благодаря этому весу возникает сознание и интенциональность. Синтаксична программа; имплементация же имеет семантическое содержание.
Серл мог бы попробовать доказать, что и имплементации в определенном смысле синтаксичны — возможно, потому, что динамика имплементаций детерминируется формальными принципами. Однако «синтаксичность» имплементаций имеет смысл, никак не связанный с тем, в котором можно правдоподобно утверждать, что синтаксис недостаточен для семантики. Хотя тезис о том, что статичный набор абстрактных символов лишен внутренних семантических свойств, и может быть правдоподобным, гораздо менее очевидным кажется утверждение, что формально специфицированные каузальные процессы не могут фундировать ментальное.
Мы можем следующим образом спародировать этот аргумент:
1. Рецепты синтаксичны.
2. Синтаксис недостаточен для рассыпчатости.
3. Пирожные рассыпчаты.
4. Значит, имплементации рецепта недостаточно для пирожного.
В таком виде указанный дефект бросается в глаза. Аргумент не проводит различия между рецептами, являющимися синтаксическими объектами, и имплементациями рецептов, полноценными физическими системами в реальном мире. Вся работа, опять-таки, проделывается отношением имплементации, соотносящим области абстрактного и конкретного. Рецепт имплицитно специфицирует класс физических систем, которые могут рассматриваться как имплементации этого рецепта, и именно эти системы обладают такими характеристиками, как рассыпчатость. Аналогичным образом программа имплицитно специфицирует класс физических систем, которые могут рассматриваться в качестве ее имплементаций, и именно они порождают такие характеристики, как ментальное.
Одно из популярных возражений против искусственного интеллекта (напр., Searle 1980; Hamad 1989) состоит в том, что симуляция феномена не тождественна его воспроизведению. К примеру, при компьютерной симуляции пищеварения никакая пища в действительности не переваривается. Симуляция урагана — это не настоящий ураган; при его симуляции на компьютере никто не промокает. При симуляции тепла реальное тепло не выделяется. Так почему же мы должны ожидать появления настоящего сознания при его симуляции? Почему мы должны ожидать, что именно в этом случае вычислительный процесс не просто симуляция, но и нечто реальное?
Нет сомнений, что для многих свойств симуляция не является воспроизведением. Симулированное тепло — это не реальное тепло. Имеются, однако, и такие свойства, для которых симуляция есть воспроизведение. К примеру, симуляция системы с каузальной петлей есть система с каузальной петлей. Так что реальный вопрос состоит здесь в том, как отличить типы X, при которых симуляция X действительно есть X, от иных?
Ответ, как я полагаю, может быть таким: симуляция X оказывается X именно в тех случаях, когда свойство быть X является организационным инвариантом. Дефиниция организационного инварианта — такая же, как и раньше: свойство есть организационный инвариант, когда оно зависит только от функциональной организации фундирующей системы, а не от каких бы то ни было иных деталей. Вычислительная симуляция физической системы может ухватывать ее абстрактную каузальную организацию и гарантировать ее воспроизводимость при любой имплементации, вне зависимости от состава имплементирующей инстанции. Подобная имплементация будет в таком случае воспроизводить любые организационные инварианты изначальной системы, однако другие свойства будет утрачены.
Свойство быть ураганом не является организационным инвариантом, так как оно отчасти зависит от таких неорганизационных свойств, как скорость, форма и физических состав фундирующей системы (система с теми же каузальными взаимодействиями, очень медленно имплементированная на большом количестве бильярдных шаров, не была бы ураганом). Пищеварение и тепло сходным образом зависят от различных аспектов фундирующих физических субстратов, не являющихся всецело организационными. Мы могли бы постепенно заменять биологические компоненты пищеварительной системы — так, чтобы реакции, основанные на действии кислоты, заменялись каузально изоморфными взаимодействиями кусочков металла, и это уже не было бы пищеварением. Так что нам не стоит ожидать, что симуляция систем с этими свойствами сама будет обладать ими.
Но феноменальные свойства не таковы. Как я доказывал в главе 7, эти свойства представляют собой организационные инварианты. И если это так, то отсюда следует, что надлежащая симуляция системы с феноменальными свойствами сама будет обладать ими — благодаря воспроизведению высокодетализированной функциональной организации изначальной системы. Организационная инвариантность принципиально отличает сознание от других упомянутых свойств и открывает путь сильному ИИ.
5. Внешние возражения
По большей части меня интересовали внутренние возражения против сильного искусственного интеллекта, так как они наиболее значимы в контексте этой книги, однако я хотя бы упомяну некоторые внешние возражения. Я уже отмечал, что позиции противников внешних возражений против искусственного интеллекта изначально кажутся сильными: есть все основания считать, что законы физики, по крайней мере в их нынешнем понимании, вычислимы, и что человеческое поведение определяется физическими законами. Если так, то из этого следует, что вычислительная система может симулировать человеческое поведение. Тем не менее возражения время от времени выдвигаются, так что я кратко обсужу их.
Возможно, самое давнее внешнее возражение против ИИ состоит в том, что вычислительные системы всегда следуют правилам и поэтому неизбежно будут лишены ряда человеческих способностей, вроде креативности или гибкости. Во многих отношениях это самое слабое из внешних возражений, в частности из-за его явной нечеткости и неконкретности. В самом деле, на него можно легко ответить, сказав, в свою очередь, что на нейронном уровне человеческий мозг может быть вполне механичным и рефлекторным, но это никоим образом не препятствует креативности и гибкости на макроскопическом уровне. Конечно, оппонент опять-таки всегда может не согласиться с утверждением о механичности нейронного уровня, но в любом случае не видно хорошего аргумента в пользу тезиса о том, что вычислительная динамика на базовом каузальном уровне несовместима с креативностью и гибкостью на макроскопическом уровне.
Подобное возражение может подкрепляться неявным отождествлением вычислительных систем с символьными вычислительными системами: системами, производящими символьные манипуляции с высокоуровневыми концептуальными репрезентациями — в предельном случае, с системами, жестко выводящими заключения из посылок логики предикатов. Не исключено, что в этой области указанное возражение не лишено оснований, хотя даже это не очевидно. Но в любом случае класс вычислительных систем гораздо шире. К примеру, низкоуровневая симуляция мозга представляет собой некое вычисление, но не символьное вычисление того рода. Если говорить о промежуточном уровне, то к несимвольным вычислениям обращались коннекционистские модели в когнитивной науке. В этих случаях на каком-то уровне система может следовать правилам, но это напрямую не отражается на поведенческом уровне; и в самом деле, коннекционисты часто говорят, что их метод позволяет получить гибкость на высоком уровне из низкоуровневой механистичности. Как выразился Хофштадтер (Hofstadter 1979), уровень, на котором я мыслю, не обязательно совпадает с уровнем, на котором я существую[185].
Иногда утверждается, что теорема Геделя показывает, что вычислительным системам свойственны ограничения, которых нет у людей. Теорема Геделя говорит нам, что в любой непротиворечивой формальной системе, достаточно богатой для произведения арифметических операций, будет существовать некое истинное предложение — Геделевское предложение системы — которое эта система не сможет доказать. И аргумент состоит в том, что поскольку мы, однако же, можем понять, что оно истинно, мы обладаем некоей способностью, отсутствующей у этой формальной системы. Из этого следует, что никакая формальная система не может в точности передавать человеческие способности. (Подобные аргументы выдвигали среди прочих Лукас (Lucas 1961) и Пенроуз (Penrose 1989, 1994).)
Краткий ответ на эти аргументы состоит в том, что нет оснований считать, что и люди могут знать об истинности соответствующих Геделевских предложений. В лучшем случае мы можем знать, что если система непротиворечива, то ее Геделевское предложение истинно, но нет оснований полагать, что мы можем установить непротиворечивость произвольных формальных систем[186]. В особенности это справедливо в случае сложных формальных систем, таких как система, симулирующая реакции человеческого мозга: задача определения непротиворечивости подобной системы вполне может выходить за пределы наших возможностей. Так что вполне может оказаться так, что каждый из нас может симулироваться сложной формальной системой F, такой, что мы не в состоянии установить, является ли она непротиворечивой. И если это так, то мы не сможем узнать, будут ли истинными наши собственные Геделевские предложения.
Существует множество вариаций этого геделевского аргумента, с реакциями оппонентов на это предположение и ответными репликами, нацеленными на то, чтобы обойти эти возражения. Здесь я не буду обсуждать их (хотя я подробно обсуждаю их в Chalmers 1995с). Эти вопросы связаны со множеством интересных и стимулятивных моментов, но, думаю, мы вправе сказать, что тезис о том, что геделевские ограничения не применимы к людям, никогда не был убедительным образом обоснован.
Приведенные выше возражения являют собой «высокоуровневые» аргументы о невычислимости когнитивных процессов. Но можно было бы попробовать атаковать позиции ИИ и на низком уровне, доказывая невычислимость физических процессов. К примеру, Пенроуз (Penrose 1994) доказывает, что в адекватной теории квантовой гравитации мог бы быть невычислимый элемент. Единственным основанием для такого вывода, однако, оказывается у него вышеупомянутый геделевский аргумент. В самой физической теории нет ничего, что фундировало бы этот вывод; так что если отбросить геделевский аргумент, то исчезает основание верить в невычислимые физические законы. В самом деле, можно было бы попробовать показать, что если каждый элемент мозга, такой как нейрон, имеет лишь конечное множество релевантных состояний, и если существует лишь конечное множество релевантных элементов, то релевантная каузальная структура мозга должна выражаться вычислительным описанием.
Это ведет нас к последнему возражению, которое состоит в том, что процессы в мозге могут быть сущностным образом непрерывными, тогда как вычислительные процессы дискретны, и что эта континуальность может быть сущностной чертой нашей когнитивной компетентности, так что никакая дискретная симуляция не смогла бы воспроизвести эту компетентность. Быть может, создавая приблизительную копию нейрона с помощью элемента, имеющего лишь конечное множество состояний, мы утрачиваем нечто жизненно важное в плане реализации его функций. Оппонент может ссылаться, к примеру, на «чувствительную зависимость от изначальных условий» в определенных нелинейных системах, означающую, что даже небольшая округляющая ошибка на одной из стадий процесса может вести к масштабным макроскопическим различиям на более поздней стадии. Если процессы в мозге именно таковы, то любая дискретная симуляция мозга будет приводить к результатам, отличающимся от тех, которые получаются в континуальной реальности.
Имеется, однако, серьезное основание полагать, что абсолютная континуальность не может быть сущностной характеристикой нашей когнитивной компетентности. Наличие фонового шума в биологических системах означает, что никакой процесс не может зависеть от требования такого уровня точности, который выходит за определенные пределы. За пределами, скажем, 10-10 по соответствующей шкале неконтролируемые флуктуации фонового шума будут препятствовать дальнейшему уточнению. Иначе говоря, если мы создаем приблизительную копию состояния системы с таким уровнем точности (быть может, для надежности, еще более продвинутую — к примеру, на уровне 10-20), то ее работа будет приносить те же результаты, которые реально могли бы быть и у той системы. Конечно, вследствие нелинейных эффектов эта приблизительная копия может продуцировать поведение, отличное от поведения, продуцируемого той системой по данному поводу, — но она продуцировала бы поведение, которое могла бы продуцировать и та система при несколько ином биологическом шуме. При желании мы можем даже приблизительно смоделировать сам процесс шума[187]. В результате симулирующая система будет обладать такими же поведенческими способностями, что и изначальная система, даже если она и продуцирует иное конкретное поведение в конкретных случаях. Мораль такова, что, когда речь идет о дуплицировании наших когнитивных способностей, близкое сходство не хуже тождества.
Верно то, что система с безграничной степенью точности могла бы обладать когнитивными способностями, которые никогда не смогла бы получить в свое распоряжение какая-либо дискретная система. Можно было бы, к примеру, закодировать аналоговую величину, соответствующую реальному числу, n-ое бинарное значение которого равно 1, если и только если n — ая машина Тьюринга останавливается при любых данных на входе. Используя эту величину, совершенная континуальная система могла бы решить проблему остановки, с которой не может справиться никакая дискретная система. Наличие шума, однако, означает, что никакие биологические процессы не смогли бы надежно имплементировать эту систему. Биологические системы предполагают лишь лимитированную точность, и поэтому человеческие и животные мозги должны ограничиваться такими способностями, которые могут быть у дискретных систем.
6. Заключение
Вывод таков, что, похоже, не существует принципиальных преград, которые могли бы сдержать амбиции искусственного интеллекта. Внешние возражения не выглядят очень уж сильными. Внутренние возражения могли бы доставлять большее беспокойство, но анализ аргументов, подкрепляющих эти возражения, показывает, что они не являются убедительными; более того, если аргументы, которые я приводил в предыдущих главах, верны, то у нас имеется серьезное позитивное основание считать, что имплементация надлежащего вычисления повлечет за собой появление сознательного опыта. Так что перспективы машинного сознания можно признать хорошими — пусть и не на практике, но хотя бы в принципе.
Я мало говорил о том, какого рода вычисления, скорее всего, достаточны для сознательного опыта. В большинстве аргументов я использовал для иллюстрации понейронную симуляцию мозга; но вероятно, что для этого могло бы быть достаточным и множество других видов вычислений. Могло бы, к примеру, быть так, что вычисление, отражающее каузальную организацию мозга на гораздо более грубом уровне, передавало бы тем не менее те моменты, которые релевантны для возникновения сознательного опыта. Вероятно и то, что вычисления совершенного иного вида, соответствующие совершенно другим типам каузальной организации, при их имплементации тоже могли бы порождать богатые сознательные переживания.
Эта картина в равной мере совместима как с символьным, так и с коннекционистским подходом к познанию, а также и с другими вычислительными подходами. Действительно, можно было бы попробовать доказать, что центральная роль вычисления в исследовании познания связана с тем, что вычислительные конструкции могут передавать практически любую разновидность каузальной организации. Мы можем рассматривать вычислительные формализмы в качестве источника идеального формализма для выражения паттернов каузальной организации и, более того (в сочетании с методами имплементации), в качестве идеального инструмента для их воспроизведения. Какая бы каузальная организация ни оказалась ключевой для познания и сознания, мы можем ожидать, что какая-то вычислительная конструкция сможет точно передать ее. Можно было бы даже попытаться показать, что именно эта гибкость скрывается за часто упоминаемой универсальностью вычислительных систем. Сторонники искусственного интеллекта не обязаны подписываться под каким-то одним видом вычисления, только и достаточным для ментальности; тезис ИИ столь правдоподобен именно из-за широты класса вычислительных систем[188].
Так что вопрос о том, какой именно класс вычислений достаточен для воспроизведения человеческой ментальности, остается открытым; но у нас есть серьезное основание верить, что этот класс не является пустым.