оделей. (D) Синтез целевого поведения. После нескольких циклов от (А) до (С), лучшая данная модель используется для производства локомотивных последовательностей через оптимизацию. (Е) Лучшая локомотивная последовательность исполняется физическим устройством. (F)4
Заметьте, что этот переход превращает искусственную систему в объект нравственного суждения: Теперь она потенциально способна страдать. Боль, негативные эмоции и другие внутренние состояния, изображающие часть действительности, как нежелательную, могут служить причинами страдания только в том случае, если они осознаваемы. Система, которая не явлена себе, не может страдать, так как она лишена чувства обладания. Система, в которой включен свет, но никого нет дома, не может быть объектом этических рассуждений; если у системы есть минимально сознательная модель мира но нет себя-модели, то мы можем выдернуть шнур в любое время. Но Эго Машина может страдать, так как она интегрирует болевые сигналы, состояния эмоциональных потрясений или негативные мысли в свою прозрачную себя-модель и они явлены так, как будто это чья-то боль или негативные чувства. Это поднимает важный вопрос животной этики: Как много сознательных биологических систем на нашей планете являются всего лишь машинами феноменальной реальности и сколько из них являются подлинными Эго Машинами? Сколько есть видов, способных к сознательному переживанию страдания? Принадлежит ли к ним РобоТаракан? Или одни лишь млекопитающие, вроде тех макак и котят, оказываются жертвами исследований сознания? Очевидно, если ответ на этот вопрос невозможно получить по эпистемологическим причинам, мы всегда должны быть уверены в том, что ошибаемся в сторону осторожности. На нынешней стадии исследований, любая теория сознания становится релевантной для этики и философии морали.
Эго Машина есть нечто, что располагает перспективой. Если быть точным, она приобретает эту перспективу, когда осознаёт тот факт, что она направлена. Она должна быть способна разработать внутреннюю картину своих динамических взаимоотношений с другими сущностями или объектами своего окружения, как она воспринимает их и взаимодействует с ними. Если мы намереваемся успешно построить или развить систему такого типа, она будет ощущать себя взаимодействующей с миром, как по отношению к яблоку в своей руке, так и к человеческим агентам, с которыми она общается. Она будет ощущать себя направленной к целевым состояниям, которые она репрезентирует в себе-модели. Она изобразит мир как содержащий не просто как содержащий в себе её самость, но как вмещающий в себя воспринимающего, взаимодействующего, целенаправленного агента. Она даже могла бы обладать высокоуровневой концепцией себя как субъекта знания и опыта.
Всё, что может быть представлено, может быть осуществлено. Набросанные шаги описывают новые формы того, что философы называют репрезентационным содержимым. Нет причин, по которым это содержимое не должно быть доступно живым системам. Алан М. Тьюринг в своей знаменитой публикации 1950го «Вычислительные Машины и Интеллект» сделал заявление, которое позднее было приведено в сокращённом виде в книге видного философа Карла Поппера Самость и её Мозг, которую он написал в соавторстве с нобелевским лауреатом по нейробиологии Сэром Джоном Экклом. Поппер писал: «Уточните, что именно даёт Вам основание считать, что человек превосходит компьютер, и я построю компьютер, который опровергнет ваше верование. Не нужно принимать вызов, брошенный Тьюрингом, ибо любая достаточно точная спецификация может быть использована, как принцип программирования компьютера».6
Конечно, не самость использует мозг (как это имеет место быть у Карла Поппера), но мозг использует себя-модель. Но что Поппер действительно выявил, так это диалектику искусственной Эго Машины: Либо вы не можете идентифицировать, что именно из человеческого сознания и субъективности не может быть воплощено в искусственной системе, или, если всё-таки можете, то всё дело в написании соответствующего алгоритма для работы программы. Если у вас есть точное определение сознания и субъективности, выраженные повседневным языком, то у вас есть то, что философы называют функциональным анализом. На этом моменте, загадка исчезает и искусственная Эго Машина становится, в принципе, технологически возможной. Однако, должны ли мы делать всё то, что мы можем сделать?
Приведу здесь мысленный эксперимент, имеющий скорее этические, а не эпистемологические цели. Представьте, что вы являетесь членом этического комитета, который рассуждает над использованием научного гранта. Один говорит:
Мы хотим использовать генные технологии для того, чтобы плодить умственно отсталых детей. Для научного исследования необходимы дети человека с определенными умственными, эмоциональными недостаточностями и дефицитом восприятия. Это важная инновационная стратегия исследований, которая требует управляемого и воспроизводимого исследования психологического развития умственно отсталых детей после рождения. Это важно не только для понимания того, как работает наш собственный ум, но также имеет огромный потенциал для лечения психиатрических заболеваний. Поэтому, нам срочно необходимо соответствующее финансирование.
Вне всяких сомнений вы найдёте эту идею не только абсурдной и безвкусной, но также и опасной. Можно полагать, что предложение такого рода не будет одобрено ни в одном из этических комитетов в демократическом мире. Предмет этого мысленного эксперимента, однако, в том, чтобы вы осознали, что нерождённые искусственные Эго Машины будущего не будут иметь своих героев в современных этических комитетах. Первые машины, удовлетворяющие минимальному достаточному набору условий сознательного переживания и самости, обнаружат себя в ситуации, похожей на ситуацию генетически спроектированных умственно отсталых человеческих младенцев. Как и эти последние, машины будут обладать всеми видами функционального и репрезентационного дефицитов — различными дисфункциями, проистекающими из ошибок человеческого проектирования. Вполне допустимо, что их системы восприятия — их искусственные глаза, уши и так далее — поначалу будут работать не очень хорошо. Они будут полуглухими, полуслепыми и столкнутся со всеми возможными сложностями в восприятии мира и себя в нём; и тогда, если они будут являться истинными искусственными Эго Машинами, то они будут, ex hypothesi, способны страдать.
Если бы у них была устойчивая телесная себя-модель, они были бы способны ощущать чувственную боль, как боль собственную. Если их постбиотическая себя-модель непосредственно укоренена в низкоуровневых саморегулирующих механизмах своего аппаратного обеспечения, то есть, точно так же, как наша собственная эмоциональная себя-модель укоренена в верхнем стволе мозга и гипоталамусе, то они сознательно будут ощущать себя. Они будут болезненно переживать потерю гомеостатического контроля, потому, что у них есть встроенное представление о своём собственном существовании. Они имели бы собственные интересы, причём, субъективно переживали бы этот факт. Они могли бы эмоционально страдать качественно отличным, от нашего, образом или в такой степени интенсивности, которую мы, создатели, даже не можем себе представить. На самом деле, первое поколение таких машин, скорее всего, будут иметь много негативных эмоций, вызванных неудачами в саморегулировании из-за различных аппаратных дефицитов, а также нарушений более высокого порядка. Эти негативные эмоции будут осознаваться, равно как и интенсивно ощущаться, но во множестве случаев, мы можем не быть способными понять или даже распознать их.
Давайте продолжим наш мысленный эксперимент. Представьте, что эти постбиотические Эго Машины обладают познавательной собой-моделью, то есть, являются интеллектуальными мыслителями. В таком случае, они смогут не только концептуально понять причудливость собственного существования в качестве простого объекта научного интереса, но также смогут интеллектуально страдать от сознания того факта, что им не хватает врождённого «достоинства», которое кажется таким важным их создателям. Они вполне могут осознавать себя второсортными, хотя и разумными, гражданами, отчуждёнными постбиотическими сущностями, используемыми в качестве взаимозаменимых экспериментальных инструментов.
Каково же это, «очнуться» развитым искусственным субъектом, который, несмотря на крепкое ощущение самости и даже переживание себя подлинным субъектом, является при этом лишь товаром?
История первых искусственных Эго Машин, постбиотических феноменальных самостей без гражданских прав, не имеющих какого-либо лобби в каком-либо комитете, прекрасно изображает, насколько связано появление способности к страданию с возникновением феноменального Эго; страдание начинается в Туннеле Эго. Оно также принципиально аргументирует неприемлемость создания искусственного сознания в качестве цели академического исследования. Альберт Камю говорил о солидарности всех конечных существ в их противостоянии смерти. В том же смысле, все разумные существа, способные к страданию, должны быть солидарны в противостоянии страданию. Исходя из этой солидарности, мы должны воздержаться от предприятия чего бы то ни было, что могло бы увеличить общее количество страдания и растерянности во вселенной. По мере того, как возникают теоретические сложности всевозможных типов, мы хотя бы можем прийти к согласию по поводу того, чтобы не увеличивать без необходимости общее количество страдания во вселенной. А создание Эго Машин, судя по всему, будет делать это с самого начала. Мы могли бы приступить к созданию страдающих постбиотических Эго Машин до обретения понимания того, какие свойства нашей биологической истории, наших тел и мозгов, являются корнями нашего собственного страдания. Предотвращение и минимизация страдания, где это только возможно, также включает в себя этику принятия риска: Я уверен, что мы не должны даже рисковать с созданием искусственных феноменальных себя-моделей.