Знакомьтесь, Коллин Райт (СИ) — страница 42 из 54

— Какое… Какое к чёрту изнасилование?! Кол, я тебе говорю, что у тебя скоро появится сын или дочка. А может даже не один. Маленькая жизнь. Новый человечек, к появлению которого ты причастен. Что в этом плохого?

— То, в каких обстоятельствах это произошло!

— А в каких обстоятельствах это произошло?! Два взрослых человека с собственной головой на плечах возлюбили друг друга, и их никто не принуждал — это единственное точное описание обстоятельств, в которых это произошло!

— Вот только суду будет всё равно.

— Суду не будет всё равно, если суда не будет, а суда не будет, если она откажется предъявлять что-либо.

— А кто сказал, что она откажется? Да и к тому же, ты случаем не помнишь, что мы нарыли во время расследования? Неугодные дети, помнишь? И судьба их родителей…

— Вот именно поэтому ребёнку будет нужна твоя помощь. Он-то ведь не знает, что он неугоден кому-то там. А тебя… тебя я смогу защитить. При определённой синхронизации с твоими домашними моделями, мы сможем…

— Карэн, ты вообще слышишь себя?! Ты — робот, которого я вынужден буду поставить на учёт. И тогда за любые твои действия буду уже отвечать я, причём по полной. В конце концов, тебя у меня отнимут, а команда зачистки неугодных детей с их родителями всё равно придёт к нам…

Карэн многозначительно промолчала, потом сказала довольно медленно:

— Ладно, буду считать, что ты пока свыкаешься с мыслью. На сегодня закрыли тему. Ты архив Себастьяна смотреть будешь?

— А что в нём?

— Ровно то, что он и назвал — электронная выдержка из архива с приложенным видеороликом.

— Запускай.

Она запустила. Это была электронная заметка о происшествиях в городе четырёхлетней давности. Там рассказывалось, что «сегодня» в торговом центре таком-то произошёл очередной инцидент с самоубийством. Причины поступка расследуются, и прочее бла-бла-бла.

Видео было подписано сопроводительным текстом, в котором говорилось, что там находится запись происшествия с камер наблюдения, и что его можно смотреть только, если ты возможный родственник погибшего или у тебя есть информация по этому делу. По идее, на видео была наложена блокировка, и перед воспроизводством нужно было доказать, что ты один из указанных лиц, но ведь заметку мне прислали из архива. А всё, что попадает туда, обычно теряет подобные блокировки. Поэтому я спокойно запустил его… и снова остолбенел.

На видео, благодаря высокому разрешению записи, было отчётливо видно, как парень сначала чего-то шугается, потом истерит, а потом прыгает с высоты нескольких этажей вниз, перелезая через перила. Да, это был именно тот парень, которого я видел два дня назад. В том самом торговом центре…

Глава 11Другой взгляд на мир

— Кол! — в третий раз позвала меня Карэн.

Я отрешённо посмотрел на неё.

— Что это, Кол? Почему ты застыл?

Действительно, её же тогда ещё не было.

— Кол, чёрт подери!

— Да, солнышко… я сейчас… с мыслями соберусь…

— Кол, кто это?

— Один парень.

— И что? На что намекает Себастьян этим видео? На то, что ты знал его?

— Нет, но я видел, как он погиб. Присутствовал там. И не смог ему помочь. Не успел.

— И? Ты до сих пор шокирован? Это же было четыре года тому назад!

— Да в том-то и дело, Карэн, что я думал, что произошло это немного позже.

— Я… я не понимаю тебя.

Я тоже, солнышко, я тоже. И как же удобно, что та, кто может мне хоть что-то прояснить, сейчас не хочет с нами разговаривать! Я уже начал подозревать, что всё в этой истории рассчитано до недоступных моему вниманию мелочей.

— Кол, ты не отвечаешь. Ты меня пугаешь.

— Я не могу тебя испугать, — сказал я, беря её под руку, и направляясь дальше. Куда, мы, кстати, всё это время шли? Я даже это из своего внимания упустил.

— Это тебе так кажется. Объясни, что это было, я же была запущена…

— Всего пару дней как. Да, Карэн, я помню… но, ты хоть и была запущена недавно, общие алгоритмы-то у тебя с другими роботами схожи…

— Не знаю, не сравнивала.

— Вот и проясни мне одну вещь, Карэн: может ли робот быть злопамятным?

— Нет, конечно!

— А если подумать?

— В смысле?

— Ну вот смотри… у тебя в базе есть информация про творчество Азимова?

— Разумеется.

— Вот, значит, давай подискутируем на эту тему.

— Ты уверен, что это уместно сейчас?

— Я уже вообще ни в чём не уверен, Карэн. Поэтому и прошу помочь понять кое-что.

— Хорошо, излагай.

— Вот…

И я задумался. Как бы так ей попонятней объяснить, чтобы выяснить, что мне нужно, но не сильно светить свои размышления?

— В творчестве Азимова сформированы три закона робототехники. Само творчество местами посвящено самостоятельному формированию роботами четвёртого закона, вернее, нулевого. Так?

— Ну, так.

— Три закона робототехники по Азимову должны определять действия робота в непредвиденных ситуациях, или в том случае, если он не имеет цели. Особенность данных законов заключается в том, что они описывают и поведение человека. Хорошего человека, правильного, и морально высокого по своему естеству.

— Кол, к чему ты клонишь?

— Дело в том, что формирование роботами нулевого закона можно рассматривать как замену человеческому понятию «общее благо», ради которого, как известно, можно и даже иногда нужно идти на определённые жертвы. И концепция «общее благо» у людей используется по определённой необходимости.

— Может, и так, в моей базе нет персонального личностного анализа творчеству Азимова, только обобщённое. А там такими формулировками не разбрасываются.

— Тут вот какая тема, Карэн… вам не вшивают законы робототехники именно потому, что боятся, что вы на их основании выработаете нулевой закон, и кое-какие люди от этого пострадают. Поэтому ваше поведение определяется приказами и нейросетевой адаптацией виртуальной личности под хозяина, на основании его же корректив в этом самом поведении, ну и ещё немного из внешнего опыта что-то приходит. Наверное. Я точно не знаю.

— Кол, ты долго будешь перечислять очевидные вещи?

— Ну вот тебе немного неочевидного тогда… если робот испытывает ненависть…

— Робот не испытывает ненависть, он её может только имитировать, как и прочие чувства.

— Но предположим, что робот таки испытывает… или нет, не так. Робот находит обоснование необходимости какого-то решения, но не находит решение в текущий момент, и откладывает его. А потом решение откладывается на годы. Может ли робот забыть о происшествии, даже если он на протяжении длительного времени не вспоминал его…

— Кол, — перебила меня Карэн, — ты пытаешься узнать, как наша память устроена, что ли?

— Ну, не совсем, но…

— Давай для начала кое-что уясним. Слово «злопамятный» неприменимо к роботам, потому что содержит в себе как имеющийся у роботов функционал так и не имеющийся. Да, мы помним, но не испытываем зло. И нет, мы не забываем ничего. Даже со временем. К нам поговорка про лечащее время не подходит. Понял?

— Не знаю. Вроде да, но… Смотри, есть такая ситуация. Робот идёт по каким-то делам, а по дороге встречает человека в беде. Робот не имеет никаких ограничений на поведение, то есть пройти мимо или помочь — это его решение. Что он выберет?

— Если это действие не противоречит ничему из его программы, приказов, или настроенного поведения, то робот попытается помочь.

— Почему? Вам ведь вроде не вшивают три закона робототехники. Вы просто не обязаны помогать незнакомым людям.

— Верно. Но скажи мне, Кол, а будь на месте твоего гипотетического робота ты сам, что бы ты выбрал?

— Я, конечно, постарался бы помочь.

— Почему?

— Я же человек.

— Это не ответ. Люди бывают и злыми, и безразличными.

— Я не такой.

— Но это тоже не ответ. Почему ты поможешь? Ты ведь тоже не обязан. Какая твоя выгода или интерес? Что тобою движет в попытке помощи?

Я в курсе, что это не ответ. Но как тебе иначе объяснить? Я замолчал, а Карэн меня специально не спрашивала дальше.

— Да просто помогу! — наконец сказал я. — Мало ли мне когда-то кто-то поможет также.

— То есть расчёт всё-таки есть? Твоя выгода в отложенной перспективе?

— И да, и нет. Я не хотел бы попасть в ситуацию, в которой мне нужна была бы помощь кого-то со стороны. А если я в такую ситуацию всё-таки попаду, хотелось бы, чтобы кто-то, кто сможет помочь, пришёл бы на помощь. Но и не попав в зависимость от чужой помощи, мне будет просто приятно помочь. Тепло такое по телу на какое-то мгновение разольётся, что я помог кому-то.

— Ну, нам, конечно, теплее не становится, и отложенная перспектива чей-то помощи нас также не интересует, но почему всё же робот не может просто помочь?

— Потому что робот имеет программу…

— Ты тоже имеешь программу. Только физиологической природы, а не как у нас. Ты родился с базовой саморазвивающейся программой, которая по мере взросления производила надстройки вокруг себя. Именно эти надстройки определяют тебя, как личность, обозначают твой характер, привычки, навыки, опыт и прочее.

— Как-то это описание смахивает на принцип сращивания нейробаз.

— Не просто смахивает. Лежит в основе. Ну, ты сам подумай — настоящий ИИ появился ведь только тогда, когда человек архитектуру компонентов своего мозга и принципы формирования внутренних программ у себя и своих сородичей приблизительно смог описать математическим языком. Разница только в том, что человек наращивает свою внутреннюю программу хаотично, зависимо от ситуации и неконтролируемо, а вот роботы делают это целенаправленно и только по необходимости.

Это, кстати, довольно интересная мысль. Интересна она была мне для начала тем, что что-то подобное пыталась мне когда-то давно объяснить моя виртуальная подруга детства. Как её, кстати, звали? Вспомнить бы, давно это было…

— Понятненько… — сказал я. — Хотя я и не вижу всё ещё логических причин роботам идти на помощь.