Обнаженное солнце — страница 23 из 33

— Сомневаюсь, что сумею.

— Попытайтесь. Например, я знаю, что Дельмар хотел создать модели роботов, которые умели бы наказывать провинившихся детей. Что это означает?

Либиг презрительно поднял брови и сухо ответил:

— Говоря просто, без деталей, это означает, что следует усилить сигнал, управляющий реакцией на контуре…

— Непонятно, — прервал его Бейли.

— В целом это означает, что должно быть проведено некоторое ослабление Первого Закона роботехники.

— Почему? Ведь ребёнка приучают к дисциплине для его же собственного блага в будущем.

— Ах, в будущем! — Либиг выпрямился, его глаза блеснули. — Вы думаете, это так просто. Как вы полагаете, много ли найдётся людей, согласных претерпеть даже незначительные неудобства для своего блага в будущем, а? — Либиг говорил со страстью. Видимо, тема увлекала его, и он забыл о своём собеседнике. — Знаете ли вы, сколько трудов надо положить на то, чтобы внушить ребёнку — то, что вкусно сейчас, означает боль в животе завтра, и наоборот. А вы хотите, чтобы робот осознал это? Задача состоит в том, чтобы научиться противодействовать разрушению позитронного мозга, которое имеет место, если робот причиняет какую-либо неприятность или боль человеческому существу. Возможно, при этом придётся пожертвовать и другими качествами робота. Мы далеко ещё не достигли вершин роботехники. Мы не умеем делать универсальных роботов, снабжённых целым набором различных взаимозаменяемых конечностей, могущих выполнять все виды работ — от изготовления ювелирных изделий до поднятия тяжестей. А наши космические корабли! До сих пор ими управляют люди. Роботический мозг, находящийся в тисках трёх законов, не может правильно прореагировать на все возможные неожиданности, которые могут встретиться в космосе или на других обитаемых Мирах.

— Значит, пока вам ещё не удалось создать таких роботов? — с интересом спросил Бейли.

— Нет, пока я ещё не решил этой проблемы. А если не сумел я, то вряд ли сумеет кто-нибудь другой во Вселенной.

— Доктор Либиг, — начал Бейли, и голос его звучал совершенно ровно, — я должен предупредить вас, что собираюсь серьёзно заняться проблемами роботехники. И прошу вас оказать мне помощь.

Либиг яростно замотал головой. Нервное подёргивание века стало ещё заметнее, когда он заговорил.

— Вы должны понять, что изучение роботехники — длительный процесс. А у меня совершенно нет времени.

— И всё же вам придётся подучить меня. Что касается времени, то целесообразнее, как мне кажется, проводить наши занятия в непосредственной близости друг от друга. Я — землянин, и мне легче понимать и усваивать при личном общении.

— Вкусы землянина меня не касаются. Личные встречи абсолютно исключены. — Вся фигура Либига, даже его голос выражали крайнюю степень нервного напряжения.

— Мне кажется, вы перемените своё мнение после того, как узнаете, о чём именно я хотел бы проконсультироваться у вас.

— Ничто на свете не изменит моего мнения, — упрямо сжимая губы, повторил роботехник.

— Вы так думаете? Так вот что я вам скажу! Я считаю, что в вашей работе по усовершенствованию позитронного мозга Первый Закон роботехники намеренно искажается.

Либиг нервно вскричал.

— О Великая Галактика! Искажается! Но зачем? Вы просто сумасшедший! — вскричал он.

— Зачем? А вот зачем. Для того, чтобы, — голос детектива звучал несколько торжественно, — для того, чтобы скрыть тот факт, что робот в состоянии совершить убийство.

Илайдж Бейли получает новые сведения

На лице Либига появилось некоторое подобие улыбки, похожее на гримасу.

— Не говорите такой чепухи, землянин, — сказал он спокойно. — Никогда так не говорите. Потеря доверия к роботам означала бы катастрофу для человечества.

Либиг говорил так, как будто он читал нотацию избалованному ребёнку. Но за его внешним спокойствием скрывалась ярость и гнев, которые он, очевидно, опасался обрушить на землянина. Помолчав, он добавил:

— Вы знакомы с историей роботехники?

— Немного.

— Знаете ли вы, что развитие роботехники началось с комплекса недоверия? Люди не доверяли роботам, боялись их. Роботехника была чуть ли не подпольной наукой. Затем были разработаны Три Закона роботехники, и постепенно начал исчезать страх перед роботами. Но даже и тогда на вашей планете роботехника не получила должного развития. Первые космониты покинули Землю главным образом для того, чтобы получить возможность создать такое общество, где роботы избавят человека от необходимости повседневно трудиться. Но страх перед роботами ещё не исчез окончательно в сердцах людей. И этот страх может снова вернуться.

— Поэтому вы, роботехник, пытаетесь скрыть от людей некоторые факты? Например, то, что Первый Закон роботы могут понимать по разному?

— Вы ненормальны, а все ваши рассуждения просто бессмысленны.

— Ну что ж, может быть, мы обсудим все проблемы несколько подробнее при личной встрече?

Худое лицо Либига исказилось.

— Нет, ни за что.

— В таком случае, прощайте, доктор Либиг. Я думаю, что другие космониты окажутся сговорчивее и внимательно выслушают меня.

— Стойте. О Великая Галактика! Подождите, говорю вам! — в волнении воскликнул солярианин.

— Личная встреча, а?

Либиг поднял обе руки кверху, затем беспомощно уронил их. Он полузакрыл глаза, будто бы прислушиваясь к чему-то, происходящему в нём.

— Согласны? — настойчиво переспросил землянин.

Либиг глубоко вздохнул и покачал головой.

— Не могу, — сдавленно проговорил он, — не могу, делайте, что хотите.

Он закрыл лицо трясущимися руками и отвернулся от Бейли.

С минуту Бейли наблюдал за ним, а потом спокойно промолвил:

— Ну, что ж, в таком случае давайте побеседуем так.

— Хорошо, но извините меня, я вернусь через несколько минут, — прошептал солярианин.

Когда Бейли возвратился в помещение, где он беседовал с Либигом, он увидел по-прежнему пустую комнату и стул, на котором ранее сидел роботехник. Его самого ещё не было, однако ждать пришлось недолго. Через несколько мгновений появился Либиг и фокусировка переместилась на него.

Сейчас он выглядел совершенно иначе. Его волосы были гладко причёсаны, на нём был другой костюм из красивой переливающейся ткани.

«Видимо, великий доктор Либиг сумел взять себя в руки», — подумал Бейли.

— Итак, что вы хотели узнать относительно Первого Закона? — ровным голосом спросил космонит.

— Нас никто не услышит?

— Нет, я позаботился об этом.

Бейли кивнул.

— Разрешите, я процитирую Первый Закон.

— Едва ли я нуждаюсь в этом.

— Я знаю, но всё же мне хотелось бы повторить его. «Робот не смеет делать ничего, что может причинить вред человеческому существу, а также своей пассивностью допустить, чтобы человеческому существу был причинен какой-либо вред».

— Ну, и что же?

— Когда я прибыл на Солярию, меня поместили в закрытую машину и повезли к месту моего назначения. Так как я — землянин и плохо переношу вред открытого пространства, то…

— Я знаю, — нетерпеливо прервал солярианин, — но при чём тут…

— Вы, возможно, и знаете, — в свою очередь прервал его детектив, — но робот, который вёл машину, не знал. Я приказал поднять верх машины, и он сразу же повиновался. Второй Закон: «Робот обязан точно и быстро повиноваться приказанию человека». Конечно, мне стало нехорошо, и я пришёл в себя только после того, как верх машины был опущен. Разве при этом робот не причинил мне вред?

— По вашему же приказанию, — отпарировал роботехник.

— Разрешите мне процитировать Второй Закон полностью. «Робот обязан точно и быстро повиноваться приказам, полученных от человеческих существ, за исключением тех случаев, когда подобные приказы не вступают в противоречие с Первым Законом». Следовательно, в моём случае робот не должен был выполнить приказ.

— Чепуха! Робот не располагает сведениями о… — Либиг слегка запнулся.

Бейли наклонился вперёд, его глаза блеснули.

— Ага! А теперь попробуем воспроизвести Первый Закон в его правильном виде. «Робот ни при каких обстоятельствах не смеет делать ничего что может, насколько ему известно, причинить вред человеческому существу или своей пассивностью допустить, чтобы человеческому существу был причинен какой-либо вред».

— Но это само собой разумеется.

— Далеко не всегда. Обычные люди, например, у вас на Солярии, слабо разбираются в роботехнике и умеют лишь командовать роботами. Иначе они давно бы поняли, что роботы могут нарушить Первый Закон и причинить любые бедствия. По крайней мере, если ими будет руководить преступный ум.

Либиг побледнел.

— Сумасшествие, безумие, — в волнении прошептал он.

— Видите ли, — Бейли не смотрел сейчас на своего собеседника, он внимательно изучал кончики своих пальцев, — я полагаю, что робот обязан выполнить любой приказ, если, по его разумению, этот приказ не может принести вред человеческому существу, не так ли?

— Да, разумеется.

— Хорошо. А другой робот должен сделать то же, получив столь же невинное и безвредное, с его точки зрения, поручение, правильно?

— Ну?

— А что если два приказа, каждый из которых совершенно невинен, вместе образуют преступление?

— Что такое? — Лицо Либига приобрело землистый оттенок.

— Я хотел бы услышать мнение специалиста, — невозмутимо продолжал Илайдж Бейли, — мой случай, конечно, гипотетический. Предположим, некий человек говорит роботу: налей немного этой жидкости в стакан с водой, который находится там-то. Жидкость совершенно безвредна, но мне нужно знать её действие на воду. Потом вода будет вылита. После того, как ты это сделаешь, забудь о своём поступке.

Либиг молчал.

— Если вы прикажете роботу добавить в стакан с водой таинственную жидкость, — продолжал Бейли, — и затем предложить эту воду человеку, Первый Закон заставит робота воспротивиться: какова природа этой жидкости? Не причинит ли она вред человеку? И даже после вашего объяснения робот не решится предложить человеку воду с добавленной в неё неизвестной жидкостью. Но ему ясно сказано — воду пить никто не будет. Первый Закон здесь ни при чём. Разве робот не послушается приказа?