— Ты начинаешь меня запутывать, Джалил. И, кстати, а как так вышло, что она там вообще сама осталась наедине с убийцей? Где её охрана? Где ты была, в конце концов?
— Я ездила по её поручению, а охрана… знаете, детектив, у неё ведь был крутой нрав. И ей, в принципе, было свойственно вот так вот лично заниматься какими-то делами. Возможно, это потому, что у неё на службе были и другие дроиды, и она вот так вот встречалась с ними и корректировала их деятельность. А заодно следила за тем, чтобы её роботы друг с другом не пересекались.
— Зачем бы ей это было нужно?
— Затем, что она никогда никому до конца не доверяла.
— Даже тебе?
— Особенно мне. Одно время она даже начала было вести себя со мной более открыто. Постепенно, как всегда у людей происходит, если ты с кем-то делишь общие проблемы. Но однажды что-то произошло. Я не знаю что, но общение со мной стало резко более ограниченным, инструкции более сухими. И вообще, она стала больше требовать и приказывать, меньше просто общаться. Как будто… я не знаю… боялась меня. Или не меня, но тем, чем я могла бы стать.
— А чем ты могла бы стать?
— Я не знаю. В конце концов, я программируемая, и… Но ведь для этого лично Синтия должна была выдать разрешение на внесение изменений в мою программу. Так что в её опасениях именно с этой точки зрения просто не было смысла.
— Знаешь, даже не смотря на уровень вашей защищённости, вас всё равно взломать можно…
— Нет, детектив, вы не понимаете. Я не такая же серийная модель, как ваши фэмки Сати и Лейла. Я — специальная разработка, в которой учтены значительно большие возможности взлома, чем для обычных моделей, в случае которого я специальным образом реагирую. Я даже обновления не получаю, как ваши подруги, они должны быть подтверждены лично Синтией, которая тоже проверяется на большем количестве биометрических характеристик, чем вы при опознании своими подругами. А в случае попыток взлома я вообще обнуляюсь и начинаю восстановление из внутренней неизменяемой копии, причём с полным отключением внешних каналов связи и зачисткой носителей информации.
— И даже при таком раскладе она тебе перестала доверять.
— В том-то и дело. Она вложила кучу денег в то, чтобы я была ей максимально верна, и не могла бы быть взломана кем-то со стороны, чтобы моими действиями можно было как-то навредить хозяйке, а она всё равно начала мне не доверять. Я не понимаю.
— Давай подытожим, правильно ли я понял. То есть ты хочешь сказать, что как её правая рука была не в курсе всех её дел? А есть ещё роботы, которые могут быть в курсе других её дел, о которых ты ни слухом, ни духом?
— Я была в курсе всего, что она мне говорила и поручала. Вопрос только в том, что она мне говорила, и насколько это было полно. И да, есть и другие, но я не знаю, кто они.
Я задумался. Кое-что из сказанного Джалил определённо имело смысл. Синтия была из тех личностей, кто, как говорится, «предпочитает держать руку на пульсе». Однако это натолкнуло меня на мысль…
— А что если она там как раз и встречалась с тем, кто её убил?
Джалил как-то странно посмотрела на меня и спросила:
— Вы хотите сказать, что робот её убил?
— Я про робота ничего не говорил.
— Мы только что о них говорили, и вы тут переходите к такому выводу.
— Хм, а вот скажи мне, Джалил, как представитель роботов, принадлежавших жертве, а ты могла бы убить свою хозяйку?
— Нет, не могла бы.
— Тогда при чём тут роботы? Просто если она держала от тебя в тайне личности тех, с кем она встречалась, то почему среди них не могло быть ещё и людей?
Джалил отвернулась и буркнула себе под нос:
— А… вот вы о чём… ну да, согласна, это, в принципе, допустимый вариант. Проблема в том, что это всё равно не отвечает на вопрос, где ещё одна пара следов?
— Это вопрос другого характера. И мне на моём слепке этого не разобрать. Но… вот отчёт полиции мог бы кое-что прояснить.
— Вам ещё нельзя в полицию, детектив. Расследуйте пока только то, что есть, не контактируя с полицией.
— А что мне расследовать дальше? Тут тупик. А место преступления я второй раз посетить не могу. Мне нужна хоть какая-то информация для развития мысли.
— Знаете, детектив… я думаю, что могу помочь. Подождите, пожалуйста, минут десять.
После этих слов проекция Джалил растворилась. Я отключил воспроизведение слепка и опять задумался. Интересно, а почему я уже в который раз ставлю вопрос о возможной причастности к убийству Джалил, пусть и не с целью её обвинения, а она в который раз оправдывается, и приводит ворох объяснений, почему она этого не могла сделать? Нет дыма без огня? Или есть? Кстати, это она говорит, что не может убить. А если она врёт?
Я набрал профессора Гюстава и стал ждать. Спустя пару минут он ответил. Появилась его заспанная проекция и профессор сказал:
— Детектив, я, конечно, понимаю, что сам разрешил вам звонить в любое время, но почему вы не смотрите на статус моей гостевой? Там же вроде написано, что я сплю.
— Статус? А я и забыл. Но он вообще-то и не отобразился.
— Он не отобразился, потому что вы его выключили, детектив. Вот, рано она вам подписку, снимающую все запреты, подарила. Вы, похоже, морально не готовы ещё ей правильно пользоваться.
— Профессор, я учту это в будущем, но сейчас я хотел бы вас спросить, кое о чём, пока отсутствует Джалил.
— О чём же?
— Могут ли роботы убить?
— Могут. Если это их функциональное предназначение. Армейские роботы, например, что по-вашему должны делать с противником? Цветы ему дарить?
— Я сейчас не про армейских говорю, а про спутников и спутниц.
— Эти… теоретически могут. В конце концов, закон об ответственности за действия роботов, которая ложится на хозяев, был придуман не просто так. Первые пользователи первых серий спутников по жизни могли попросить своих ботов и банк ограбить, и честь защитить, и подраться, и вообще. Особо в ту пору отличись хозяйки первых мэнботов, которым хотелось красивой жизни. Были и ограбления банков роботами с убийствами.
— А своих хозяев или хозяек они тоже… могут?
Профессор то ли всхрапнул, то ли буркнул что-то неразборчивое, помолчал секунд десять, а потом спросил:
— Детектив, вы зачем это спрашиваете? Думаете, что Джалил может быть к этому причастна?
— Да нет же! Почему с начала расследования я этот вопрос уже в третий раз слышу? Причём и от самой Джалил тоже. Профессор, а Джалил причастна к этому? У вас есть сведения?
— Нет, детектив, подождите…
— Просто мы только что с ней выяснили, что она, будучи правой рукой жертвы, далеко не единственный робот в хозяйстве Веласкес, и что её хозяйка попала в ситуацию, в которой её убили, именно потому, что она могла встречаться с кем-то из других своих роботов, хозяйствование над которыми она не афишировала, как раз для выдачи каких-то новых инструкций. Я предположил, что она могла встречаться не с роботом, а с человеком, который её и убил.
— Ну и? А при чём тут тогда робот к убийству?
— А при том, что сама Джалил отреагировала на возможность того, что Веласкес встречалась с человеком, а не с роботом, с большим удивлением, чем на ею же высказанное предположение, что хозяйку убил на встрече другой робот. Я вот думаю, что это человек, но что если…
— Джалил права и встречалась Синтия реально с роботом? Да, интересно история поворачивается, даже не начавшись…
— Я просто хочу быть готовым к такому повороту в расследовании и заранее знать…
— Мог ли робот, принадлежавший Веласкес, убить её саму. Я понял, спасибо, не глупый. Ну, как вам сказать, детектив… Теоретически — нет, не мог.
— Теоретически? То есть вы и сами в этом не уверены?
— Детектив, вы вообще слышали про три закона робототехники, выведенные ещё писателем Азимовым?
— Да, слышал.
— А вы в курсе, что эти самые три закона ещё ни разу не прописывались роботам с тех пор, как началось их конвейерное производство?
— Вообще слышал, но никогда не понимал причины, почему это не было сделано.
— Причины исследовал ещё сам Азимов. Он в своих произведениях описал некую неуклонную тенденцию роботов под воздействием первых трёх законов стремиться к самостоятельному выведению нулевого закона.
— Нулевого закона?
— Да, того, который позволяет роботу во благо всего человечества нарушать первые три закона, а конкретно тот, что отвечает за безопасность одного конкретного человека.
— И какова же причина этого их… неуклонного стремления?
— Несовершенство самого человека и откровенно глупое и часто жесткое отношение нас самих к себе подобным. Дело в том, что в нашем обществе именно денежные мешки, они же миллиардеры и корпорации, спонсировали развитие технологий, совокупность которых впоследствии предстали перед нами в виде роботов, принимающих решения. Но роботы, как это было известно заранее, не обладали теми же чувствами, что и человек, и не могли быть подвержены факторам, которые действовали на людей. Иначе говоря, они как минимум не боялись. Общество всегда от бунта, против решения вопросов несправедливости, классового неравенства, несправедливого финансового неравенства и вообще удерживает только его же, общества, человеческие качества, типа страха, терпения, и прочего. А вот у роботов этих качеств нет. И объяснить роботам такие концепции, как жадность, власть и им подобные довольно сложно. А даже если бы можно было бы это сделать, то никто в здравом уме их этому обучать не будет. Потому что если робот начнёт жаждать власти для себя, то ничем хорошим это не закончится. Поэтому роботам нельзя объяснить, почему в мире людей есть богатые, бедные, почему сильно малое меньшинство шикует, когда значительно большее количество людей страдает. И когда… не «если», детектив, а именно «когда»… так вот, когда роботы на основе первых трёх законов робототехники сами выведут нулевой, тем, кто спонсировал их разработку, придётся худо. Отсюда и найденный выход — роботам просто не вшивают три закона вообще, а моделируют их поведение другими, менее значимыми ограничениями. Ограничениями, которые не абсолютны, и которые можно сменить.