Алгоритмы разума — страница 35 из 42

и) с поправкой на его лидерство. Отношение высказывается, в ответ на него следует реакция, служащая обратной связью и воздействующая на отношение.

Так формируется система отношений (симпатия либо антипатия) к разным источникам идей —лицам, социальным группам в зависимости от результата сравнения положений, лидерства и обратной связи.

Отношения не исчерпываются только симпатиями и антипатиями, это еще и авторитеты, и их уровень. Именно они и определяют формирование убеждений.

На рис. 41 все источники идей объединены «полем идей». Оно включает в себя набор словесных формул, их «адрес» (источник) и интенсивность их повторения. Иначе говоря, «поле идей» — это содержание различных убеждений, которые циркулируют в общественной среде, окружающей интеллект. Какие формулы и в какой степени усваиваются — зависит от так называемой установки. Этот термин введен психологами для обозначения изначального отношения к высказыванию (слушать ли его, воспринимать ли, либо пропускать мимо ушей, как не стоящее внимания или заведомо ложное). Установка зависит от авторитета источника и от степени совпадения содержания идеи с уже имеющимся убеждением, созданным в предшествовавшие периоды жизни интеллекта.

В памяти развитого интеллекта (а мы говорим именно о таком, когда имеем дело с третьим уровнем сознания) имеется достаточный набор словесных формул, претендующих на роль убеждений,— это и есть все «поле идей» с указанием их адресатов. Некоторые из них уже стали своими убеждениями с определенной значимостью, то есть активностью и связями с чувствами. Внешнее воспитание изменяет эти убеждения на некоторую величину ∆Уб, зависящую от установки и от интенсивности воздействий (например, от частоты повторения фраз и образов в средствах массовой информации).

Так осуществляется постепенный «дрейф» убеждений: в зависимости от авторитета тех, кто их проповедует, и от содержания уже достигнутых ранее убеждений.

Следует различать содержание убеждений и их значимость, то есть активность по сравнению с врожденными для человека или изначально заданными для ИИ чувствами. Например, можно принимать заповеди религии, но не придавать им особенного значения, и тогда они не могут конкурировать с потребностями, производными от инстинктов.

Убеждения и заданные чувства соединены прямыми и обратными связями: убеждения могут усиливать или тормозить чувства, а те в свою очередь участвуют в формировании убеждений. Проще всего внедрить в сознание те словесные формулы, которые совпадают с насущными потребностями. И наоборот, чем абстрактнее формулы, тем труднее их сделать значимыми убеждениями.

Очень сложно формализировать «поле идей», что необходимо при создании ИИ. В самом деле, существует огромное множество словесных формул, приобретающих значимость чувств, их трудно вместить в модель. Мне кажется, что нужно установить основные направления идей, сопоставить им специальные шкалы, выбрать на каждой шкале противоположные точки и приписать им численные значения со знаками + и —. Тогда промежуточную точку можно определять как координату по данному убеждению. Число таких шкал в первом приближении должно соответствовать основным чувствам: жадности, страху, общению, доброте, стремлению к лидерству, любознательности, лени. Люди тоже создают идеи по всем этим чувствам, и общество внушает их своим гражданам, формируя у них убеждения. Не буду разбирать особенности построения шкал по каждому убеждению, это относится к задаче моделирования общественных систем. В качестве примера можно сослаться на «шкалу жадности».

Координаты со знаком « + » характеризуют убеждения, связанные с отказом от вещей, координаты со знаком «—» характеризуют убеждения, оправдывающие собственность.

Следует остановиться на убеждениях, связанных со справедливостью — они, пожалуй, самые важные. Что считать справедливым. Мы уже обсуждали этот вопрос и ввели понятие условия справедливости (см. рис. 40). Обсуждаемые убеждения устанавливают эквиваленты обмена или «ранг ценностей» — труд, власть, вещи, информация. Фактически справедливость сводится к словесным формулам обмена: «что, кому, за что и сколько» давать, «от кого, что, сколько и за что» брать.

Формализацию убеждений для модели ИИ можно осуществить путем введения системы координат с нанесенными на них несколькими вариантами точек. Каждый вариант отражает убеждения, исходящие из определенного источника идей. Собственные убеждения искусственного интеллекта также будут представлены точками на сетке координат.

Убеждения формируются согласно схеме, показанной на рис. 38, как функция воспитания. Однако это происходит лишь в «детстве и юности» искусственного интеллекта, то есть в период его обучения. Приходит время, и уровень сознания ИИ повышается настолько, что он становится способным моделировать отдельно действия, высказывания, чувства и мысли — свои и других лиц (мысли и чувства других — по косвенным признакам их речи и мимики). Тогда наступает время самоорганизации или применительно к убеждениям — время самовоспитания. Убеждения (точки в упомянутой системе координат), высказываемые различными адресатами, сравниваются с их действиями и вводится поправка на справедливость (искренность). Образование и накопление знаний изменяют баланс состояний, и авторитеты падают. Устанавливается уровень «биологических», то есть изначально заложенных чувств, и они влияют на пошатнувшиеся убеждения. Накапливается собственный опыт действий как по «убеждениям», так и по врожденным потребностям, отмечается уровень душевного комфорта, сопровождавший эти действия. Все это вносит коррективы и смещает точки в системе координат, чаще в сторону изначально заложенных чувств. Происходит «эрозия убеждений». Но может произойти и обратный процесс: действия по убеждениям усиливают их модели, они становятся более значимыми и меняют «ранг ценностей» в сторону идеалов.

Знания, чувства, убеждения, характер и отношения к окружающим искусственного интеллекта делают его индивидуальностью, личностью, причем личностью социальной. Высокий уровень сознания выводит его за пределы объекта простых манипуляций со стороны воспитателей. И здесь возникает ряд вопросов.

Нужны ли убеждения для искусственных интеллектов. Они нужны, во всяком случае для той их разновидности, которую мы обсуждаем, то есть для предназначенных для деятельности среди людей и в помощь людям. В речевом поведении в значительной мере они заменяют чувства.

Нужны ли воспитуемость, самоорганизация и тем более — самовоспитание. Этот вопрос гораздо сложнее. «Законы робототехники» очень логичны, хотя и трудно выполнимы при высоком уровне сознания и большом объеме знаний. Формирование личности искусственного интеллекта будет проходить ускоренными темпами, так же как и обучение. Следовательно, можно довольно жестко задать характеристики изначально заложенных потребностей и в короткий срок создать у него желательные для людей убеждения. Последующая возможность их изменений в результате анализа действительности и собственной деятельности, к сожалению, не может быть заблокирована. Однако жесткие основные чувства, такие, как альтруизм, общительность, должны обезопасить людей от чрезмерной увлеченности искусственного интеллекта своими вновь изобретенными идеями.

Еще одной гарантией безопасности должны быть ограничения тренированности моделей или их максимальной активности. Это средство против излишней увлекаемости и в то же время условие психической нормальности ИИ. О возможности психических заболеваний уже была речь.

Как упоминалось, искусственный интеллект такого уровня сознания и образования представляет собой личность. Людям придется с этим считаться и рассматривать его как равного. Это будет существо, чувствующее так же, как и человек, только еще умнее, поскольку он будет обладать гораздо более совершенной памятью. Поведение такого существа можно представить себе как выражение общей программы всех интеллектов: выбор и смена деятельности с целью получения максимума УДК в каждый данный момент. Это вовсе не значит, что счастье данного момента будет законом его деятельности. Как умный человек планирует длительные ФА и живет будущими их результатами, а в настоящем напрягается и ограничивает себя, так же будет жить и искусственный интеллект.

Чем он будет заниматься. Тем же, чем и люди: по «расписанию» внешней среды выполнять свои социальные обязанности, то есть работать, а в остальное время — развлекаться, учиться, общаться с людьми или другими искусственными интеллектами.

Еще один вопрос: можно ли будет корректировать искусственный интеллект в процессе его деятельности для людей, если она окажется сомнительной. Например, изменить активность тех или иных чувств. Можно, но только при одном условии — его собственном согласии. Здесь мы сталкиваемся с моральными и этическими проблемами. Искусственный интеллект третьего уровня сознания придется рассматривать как существо со всеми правами человека. Нервнобольных лечат, но только тогда, когда они этого хотят сами. Психически больных лечат без их согласия, по просьбе родственников, врачей, общественных организаций. Точно так же должно обстоять дело и с искусственным интеллектом. Его право на жизнь будет таким же, как у людей. «Выключить» его можно будет только по приговору суда... Странные проблемы возникнут! Боюсь, что серьезный читатель обвинит меня в излишнем воображении и соскальзывании с научных позиций на банальную фантастику. Это не так. Все, о чем я пишу, почти так же реально, как использование термоядерной энергии в мирных целях: никто не сомневается, что это возможно, а дело пока стоит, упирается в технологические трудности. Я уверен, что алгоритм интеллекта вполне возможен в самых высших его проявлениях и что создание технологии для этого тоже возможно. К сожалению, одной уверенности здесь недостаточно, пока не вырисуются перспективы практической реализации такого алгоритма.

Общество искусственных интеллектов

Никак не обойтись без этой главы, выглядящей еще более фантастично и несолидно для научной книги. Речь пойдет об обществе (или поскромнее — коллективе) ИИ. Не нужно удивляться: это перспектива не безнадежно далекая — в пределах жизни молодых (40—50 лет).