Антология фантастики и фэнтези-6. Книги 1-8 — страница 335 из 347

— Это тебе так кажется. Объясни, что это было, я же была запущена…

— Всего пару дней как. Да, Карэн, я помню… но, ты хоть и была запущена недавно, общие алгоритмы-то у тебя с другими роботами схожи…

— Не знаю, не сравнивала.

— Вот и проясни мне одну вещь, Карэн: может ли робот быть злопамятным?

— Нет, конечно!

— А если подумать?

— В смысле?

— Ну вот смотри… у тебя в базе есть информация про творчество Азимова?

— Разумеется.

— Вот, значит, давай подискутируем на эту тему.

— Ты уверен, что это уместно сейчас?

— Я уже вообще ни в чём не уверен, Карэн. Поэтому и прошу помочь понять кое-что.

— Хорошо, излагай.

— Вот…

И я задумался. Как бы так ей попонятней объяснить, чтобы выяснить, что мне нужно, но не сильно светить свои размышления?

— В творчестве Азимова сформированы три закона робототехники. Само творчество местами посвящено самостоятельному формированию роботами четвёртого закона, вернее, нулевого. Так?

— Ну, так.

— Три закона робототехники по Азимову должны определять действия робота в непредвиденных ситуациях, или в том случае, если он не имеет цели. Особенность данных законов заключается в том, что они описывают и поведение человека. Хорошего человека, правильного, и морально высокого по своему естеству.

— Кол, к чему ты клонишь?

— Дело в том, что формирование роботами нулевого закона можно рассматривать как замену человеческому понятию «общее благо», ради которого, как известно, можно и даже иногда нужно идти на определённые жертвы. И концепция «общее благо» у людей используется по определённой необходимости.

— Может, и так, в моей базе нет персонального личностного анализа творчеству Азимова, только обобщённое. А там такими формулировками не разбрасываются.

— Тут вот какая тема, Карэн… вам не вшивают законы робототехники именно потому, что боятся, что вы на их основании выработаете нулевой закон, и кое-какие люди от этого пострадают. Поэтому ваше поведение определяется приказами и нейросетевой адаптацией виртуальной личности под хозяина, на основании его же корректив в этом самом поведении, ну и ещё немного из внешнего опыта что-то приходит. Наверное. Я точно не знаю.

— Кол, ты долго будешь перечислять очевидные вещи?

— Ну вот тебе немного неочевидного тогда… если робот испытывает ненависть…

— Робот не испытывает ненависть, он её может только имитировать, как и прочие чувства.

— Но предположим, что робот таки испытывает… или нет, не так. Робот находит обоснование необходимости какого-то решения, но не находит решение в текущий момент, и откладывает его. А потом решение откладывается на годы. Может ли робот забыть о происшествии, даже если он на протяжении длительного времени не вспоминал его…

— Кол, — перебила меня Карэн, — ты пытаешься узнать, как наша память устроена, что ли?

— Ну, не совсем, но…

— Давай для начала кое-что уясним. Слово «злопамятный» неприменимо к роботам, потому что содержит в себе как имеющийся у роботов функционал так и не имеющийся. Да, мы помним, но не испытываем зло. И нет, мы не забываем ничего. Даже со временем. К нам поговорка про лечащее время не подходит. Понял?

— Не знаю. Вроде да, но… Смотри, есть такая ситуация. Робот идёт по каким-то делам, а по дороге встречает человека в беде. Робот не имеет никаких ограничений на поведение, то есть пройти мимо или помочь — это его решение. Что он выберет?

— Если это действие не противоречит ничему из его программы, приказов, или настроенного поведения, то робот попытается помочь.

— Почему? Вам ведь вроде не вшивают три закона робототехники. Вы просто не обязаны помогать незнакомым людям.

— Верно. Но скажи мне, Кол, а будь на месте твоего гипотетического робота ты сам, что бы ты выбрал?

— Я, конечно, постарался бы помочь.

— Почему?

— Я же человек.

— Это не ответ. Люди бывают и злыми, и безразличными.

— Я не такой.

— Но это тоже не ответ. Почему ты поможешь? Ты ведь тоже не обязан. Какая твоя выгода или интерес? Что тобою движет в попытке помощи?

Я в курсе, что это не ответ. Но как тебе иначе объяснить? Я замолчал, а Карэн меня специально не спрашивала дальше.

— Да просто помогу! — наконец сказал я. — Мало ли мне когда-то кто-то поможет также.

— То есть расчёт всё-таки есть? Твоя выгода в отложенной перспективе?

— И да, и нет. Я не хотел бы попасть в ситуацию, в которой мне нужна была бы помощь кого-то со стороны. А если я в такую ситуацию всё-таки попаду, хотелось бы, чтобы кто-то, кто сможет помочь, пришёл бы на помощь. Но и не попав в зависимость от чужой помощи, мне будет просто приятно помочь. Тепло такое по телу на какое-то мгновение разольётся, что я помог кому-то.

— Ну, нам, конечно, теплее не становится, и отложенная перспектива чей-то помощи нас также не интересует, но почему всё же робот не может просто помочь?

— Потому что робот имеет программу…

— Ты тоже имеешь программу. Только физиологической природы, а не как у нас. Ты родился с базовой саморазвивающейся программой, которая по мере взросления производила надстройки вокруг себя. Именно эти надстройки определяют тебя, как личность, обозначают твой характер, привычки, навыки, опыт и прочее.

— Как-то это описание смахивает на принцип сращивания нейробаз.

— Не просто смахивает. Лежит в основе. Ну, ты сам подумай — настоящий ИИ появился ведь только тогда, когда человек архитектуру компонентов своего мозга и принципы формирования внутренних программ у себя и своих сородичей приблизительно смог описать математическим языком. Разница только в том, что человек наращивает свою внутреннюю программу хаотично, зависимо от ситуации и неконтролируемо, а вот роботы делают это целенаправленно и только по необходимости.

Это, кстати, довольно интересная мысль. Интересна она была мне для начала тем, что что-то подобное пыталась мне когда-то давно объяснить моя виртуальная подруга детства. Как её, кстати, звали? Вспомнить бы, давно это было…

— Понятненько… — сказал я. — Хотя я и не вижу всё ещё логических причин роботам идти на помощь.

— Как и я не вижу причин им этого не делать. Пойми одну простую вещь — да, нам не прошивают три закона робототехники, но нормы поведения нам ведь программируют, так?

— Да.

— Ну, вот именно они и определяют наши поведенческие решения. Если не определены другие условия, то почему бы и не помочь человеку, если человек в этой помощи нуждается.

— Хорошо убедила. Тогда другой вопрос. А у вас какие-то отложенные решения есть? Например, если робот, который проходит мимо человека в беде, собирается помочь, но не успевает или не знает на текущий момент, как помочь, то что происходит с самой задачей помощи? Робот ищет решение даже после того, как ситуация необходимой помощи пройдёт? Или робот удаляет ситуацию, как нерешённую?

— Последнее было бы неэффективно. Кол, я тебе ещё раз говорю — роботы не забывают. И время нас не лечит. Нерешённая задача помощи человеку откладывается в специальный буфер, который после определённых периодов времени реактивирует поиск решения. Сначала робот делает запрос в ВИСКИ для поиска решения в глобальных базах. Если там нет ответа, то он начинает искать ответ сам в своё свободное от других задач время. Минимум раз в день робот «задумывается» над нерешённой проблемой. Если ответ не находится, то через десять дней робот снижает у задачи частоту реактивации поиска решения сначала до 1 раза в месяц, а через год до 1 раза в полгода. Но в памяти остаётся триггер экстренной реактивации, если подобная ситуация, к которой решение и ищется, случится с кем-то ещё из встреченных вживую людей.

— Подожди. Вы запрашиваете у ВИСКИ решение для ситуаций, с которыми не сталкивались?

— Ну да.

— А почему только после того, как ситуация, требующая решения, произойдёт? А разве не логичней было запросить…

— Во время ситуации? — перебила меня Карэн. — Конечно, логичней. А я и не говорила, что мы не запрашиваем во время самой ситуации. Просто чаще всего ответ от ВИСКИ не успевает прийти до окончания ситуации, поэтому робот вынужден полагаться только на то, что есть в базах у него. И если у робота нет ответа на ситуацию, в тот момент, когда она происходит, то он, скорее всего, помочь просто не сможет. И ситуация сохраняется и откладывается для анализа.

— Понятно.

Отойдя от склада относительно недалеко, Карэн сходила к ближайшему к нам зданию неизвестного мне назначения и вернулась оттуда уже на машине. В кои-то веки мне разрешили ехать, не прячась на заднем сидении. Я даже знать не хотел, где она взяла машину. Хотя доставать каждый раз, когда надо, транспорт — это таки талант. Я только сейчас понял, что во всех машинах, которые по ходу дела доставала Карэн, не было следов взлома. Интересненько…

И ещё я, кажется, понял, куда мы направлялись. Карэн вела, а теперь и везла нас в сторону ближайшего полицейского участка. Ну, учитывая, что недавно мы пережили, может, это и было логично. В конце концов, копы пришли нам на помощь, несмотря ни на что…

Копы. Их ведь вызвала Джалил. Она же сама сказала, что собирается нам помощь найти. Вот и нашла. Та самая Джалил, которая сейчас отказывалась отвечать нам, хоть и могла, чем бы она там сейчас не занималась. Та самая Джалил, о причастности к происходящему которой я задумывался ещё с того момента, как после посещения места убийства у меня почти перед носом взорвалась машина её хозяйки. Та самая Джалил, что подарила мне Элит-подписку для ФриМайнд на всю жизнь, и вот эту вот цыпочку, идущую рядом со мной. Кстати, кроме подписки и боевого фэмбота, она же ещё кое-то обещала.

Я запросил отчёт по средствам. Подключился интерфейс управления банковским счётом и вывесил надпись «Ожидайте». Чёрт тебя дери, Джалил! Как мне к тебе вообще относиться?! Ты и хорошая, и, возможно, плохая одновременно? А может она потому и делает мне такие щедрые подарки, что получила доступ к средствам своей хозяйки? Но ведь семейство Веласкес не оспорило её трат, да и они вроде как следят за её деятельностью. С копами, помнится, они через неё разговаривали. То, что моё участие в том разговоре и вообще в расследовании не светили, говорило лишь о том, что семейство и само было в этом заинтересованно.