За последние несколько лет эти концепции, касающиеся необходимости и достаточности, облепила и вынесла на передний край лавина прочих опасений и ложных представлений, придавая перспективе появления искусственного сознания излишнюю остроту и апокалиптический накал.
Перечислю некоторые из этих опасений. Одно из них заключается в том, что ИИ — неважно, обладающий сознанием или нет, — вот-вот выйдет из-под контроля и восторжествует над человеческим разумом, поднявшись до вершин, находящихся за пределами нашего понимания и контроля. Это так называемая гипотеза сингулярности, популяризированная футурологом Рэем Курцвейлом и движимая необычайным ростом первичных вычислительных ресурсов за последние несколько десятилетий[364]. Где мы находимся на кривой этого роста? Проблема с кривыми экспоненциального роста, как многие успели убедиться за пандемию коронавируса, состоит в том, что из любой точки на этой кривой кажется, что дальше она резко уходит вверх, а позади стелется почти полого, поэтому узкий взгляд не позволяет определить, где мы сейчас. Второе опасение — это прометеев страх, что наши создания так или иначе ополчатся на нас самих, — страх, который уловили и скармливают нам же в новой яркой обертке фантастические фильмы и литература. И наконец, опасения множит то прискорбное обстоятельство, что термин «сознание» лепится применительно к способностям машин как и куда попало. Некоторые, в том числе и ряд исследователей ИИ, готовы считать сознательным все, что откликается на стимулы, чему-то обучается или ведет себя так, чтобы максимизировать вознаграждение или достичь цели. На мой взгляд, это не более чем нелепая натяжка, нарушающая логику «обладания сознанием».
Смешайте все эти представления, и сразу станет понятно, почему многим кажется, что до сознательного ИИ буквально рукой подать и что нам нужно сильно опасаться его появления. Полностью исключать эту вероятность нельзя. Если адепты сингулярности окажутся правы, то нам действительно пора будет заволноваться. Но с той точки, где мы находимся сейчас, такая перспектива представляется крайне маловероятной. Гораздо более вероятна ситуация, показанная на рис. 21. Здесь сознание не определяется интеллектом, а интеллект может существовать и без сознания[365]. Оба имеют множество разновидностей и множество разных измерений и граней выражения, то есть ни для сознания, ни для интеллекта не существует единой мерки[366].
Рис. 21. Сознание и интеллект разделимы и многомерны, как можно судить по позициям животных и машин (действительных и вымышленных) на этой схеме
На этой схеме видно, что сейчас ИИ находится практически в самом начале оси интеллекта. Это потому, что пока неясно, считать ли имеющиеся системы ИИ разумными в каком бы то ни было значимом смысле. Большую часть современного ИИ правильнее всего характеризовать как высокоуровневое машинное распознавание образов, возможно слегка приправленное планированием деятельности. Эти системы, неважно интеллектуальные или нет, работают без каких бы то ни было проявлений сознания.
Дальше на этой же оси располагается декларируемая многими исследователями ИИ амбициозная цель — разработать системы со способностями общего интеллекта как у человека, так называемый общий искусственный интеллект, или общий ИИ. А за этой вехой лежит терра инкогнита постсингулярного интеллекта. Но ни на каком этапе этого пути нельзя гарантированно утверждать, что сознание «просто приложится». Более того, на свете может быть много разновидностей интеллекта, отличающихся от человеческого и при этом дополняющих, а не заменяющих или усиливающих наш видоспецифичный когнитивный инструментарий, — и они тоже могут обходиться без сознания.
Возможно, выяснится, что определенные разновидности интеллекта без сознания все же не обходятся, но даже если так, это не значит, что сознания — после преодоления какого-то пока еще неизвестного порога — требуют все варианты интеллекта. И наоборот, может статься, что все сознательные существа хотя бы немного разумны, если определять интеллект достаточно широко. Но и в этом случае он не превращается в ковровую дорожку к сознанию.
Компьютеры не станут чувствующими только оттого, что поумнеют. Однако это не значит, что машинное сознание невозможно в принципе. Не попробовать ли нам встроить в них сознание с самого начала? Что (если интеллекту мы в этой роли отказываем) понадобится нам, чтобы создать сознательную машину?
Ответ на этот вопрос зависит от того, что вы считаете достаточным для признания системы сознательной, а это, в свою очередь, зависит от теории сознания, которой вы придерживаетесь. Поэтому такой большой разброс мнений по поводу необходимых условий для наличия сознания неудивителен.
На самом либеральном полюсе этого спектра находятся рассуждающие с функционалистских позиций, полагающие, что главное в сознании — правильная обработка информации. Она не обязательно тождественна «интеллекту», и тем не менее это обработка информации, а значит, ее можно внедрять в компьютерах. Например, согласно концепции, изложенной в журнале Science в 2017 г., машину можно назвать сознательной, если ее способ обработки информации подразумевает «глобальную доступность» этой информации и «самомониторинг» исполнения. Из статьи нельзя понять, действительно такая машина будет сознательной или просто будет вести себя так, будто обладает сознанием[367], но в любом случае эта концепция строится на постулате, что для сознания достаточно правильного способа обработки информации.
Более веский довод в пользу сознательных машин выдвигают сторонники теории интегрированной информации (ТИИ). Как мы помним из главы 3, ТИИ утверждает, что сознание и есть интегрированная информация и что объем этой информации, который производит система, полностью определяется свойствами его внутренних механизмов — «причинно-следственной структурой». Согласно ТИИ, любая машина, создающая интегрированную информацию, из чего бы сама эта машина ни состояла и как бы ни выглядела, будет в какой-то степени обладать сознанием. Однако ТИИ не исключает вероятность, что машина будет казаться стороннему наблюдателю сознательной или разумной (или и такой, и другой одновременно), но ее механизмы не будут создавать никакой интегрированной информации, и поэтому о сознании тут даже речи не зайдет[368].
Хотя ни та ни другая теория не отождествляет сознание с интеллектом, обе допускают, что машины, удовлетворяющие определенным условиям — правильному способу обработки информации или ненулевой информационной интегрированности, — будут обладать сознанием. Но, конечно, чтобы согласиться с этими допущениями, нужно принимать и сами теории.
Теория животного-машины основывает восприятие нами мира и себя на биологическом стремлении к физиологической целостности — к тому, чтобы оставаться живым. Что говорит эта теория о вероятности появления сознательных машин?
Представьте себе робота из ближайшего будущего — с кремниевым мозгом и человекоподобным телом, оснащенного всевозможными датчиками и эффекторами (исполняющими элементами). Этот робот управляется искусственной нейросетью, разработанной по принципам прогнозной обработки и активного вывода. Поток сигналов, проходящих через его контуры, воплощает порождающую модель его среды и его собственного тела. Робот постоянно обращается к этой модели, выдвигая наиболее вероятные байесовские предположения об источниках и причинах своей входящей сенсорной информации. Эти синтетические контролируемые (и контролирующие) галлюцинации направлены по замыслу своему на то, чтобы поддерживать оптимальное функциональное состояние робота, то есть позволять ему оставаться, по его собственным представлениям, «живым». У него имеются даже искусственные интероцептивные входящие данные, сигналящие об уровне заряда его батарей и целостности его приводных механизмов и синтетических мышц. Ориентированные на контроль наиболее вероятные предположения об этих интероцептивных входящих данных генерируют синтетические эмоциональные состояния, которые направляют и мотивируют его поведение.
Этот робот действует независимо, делая то, что нужно, тогда, когда нужно, чтобы выполнить свои задачи. Тем самым внешне он производит впечатление разумного, чувствующего деятеля. Внутренние же его механизмы непосредственно сопоставимы с прогнозным аппаратом, который, как я предполагаю, находится в основе базового чувства телесного воплощения и ощущения себя собой у человека. То есть перед нами кремниевая машина-животное.
Обладает ли такой робот сознанием?
Неудовлетворительный, но честный ответ: наверняка я сказать не могу, но предполагаю, что нет. Из теории животного-машины следует, что сознание у человека и других животных развилось в ходе эволюции, возникает у каждого из нас в ходе онтогенеза (индивидуального развития особи) и в своей непрерывной работе тесно сопряжено с нашим статусом живой системы. Все наше восприятие и все наши ощущения продиктованы нашей природой автономных самоподдерживающихся живых машин, которым важно и дальше оставаться живыми. Я предполагаю (и снова это не более чем интуитивное предположение), что материальная сторона жизни окажется важна для всех проявлений сознания. Одно из оснований так полагать заключается в том, что побуждение к регуляции и самоподдержанию в живых системах не ограничено единственным уровнем, таким как сохранение целостности организма. Самоподдержание у живых систем пронизывает все уровни, вплоть до клеточного. Каждая клетка нашего тела (и какого угодно другого) постоянно воспроизводит условия, необходимые для дальнейшего поддержания ее целостности[369]