Роботы утренней зари — страница 13 из 62

– Как?!

– Я же вам сказал, что это легенда. Есть некоторые теоретические основания предположить, что это возможно, но никто никогда не представлял проекта, как можно включить такую способность. Но чтобы она могла появиться в позитронном мозге, простом и грубом, какие были до гиперпространственной эры – это вообще немыслимо. Поэтому мы полностью уверены, что эта легенда – вымысел. Но позвольте мне рассказать ее, потому что у нее есть мораль.

– В любом случае, давайте.

– Робот этот умел читать мысли. И когда ему задавали вопросы, он отвечал спрашивающему то, что тот желал услышать. По Первому Закону, робот не может нанести человеку вред, но роботы обычно имеют в виду виду вред физический. Робот, читающий мысли, видимо, решил, что разочарование, злость или другие жестокие эмоции делают человека несчастным, и он относил эти эмоции под рубрику «вред». И если робот-телепат знал, что правда будет неприятна вопрошающему, он говорил ему приятную ложь. Понимаете?

– Да, конечно.

– Итак, робот солгал самой Сьюзен Келвин. Ложь скоро вышла наружу, потому что разные люди слышали разные вещи, которые оказывались не только несовместимыми между собой, но и шли в разрез с очевидностью. Сьюзен Келвин обнаружила, что робот солгал ей и что эта ложь поставила ее в неудобное положение и принесла ей тяжелое разочарование. Вы никогда не слышали этой истории?

– Нет, даю слово.

– Поразительно! Она наверняка придумана не на Авроре, ибо одинакова на всех мирах. И Келвин решила отомстить. Она указала роботу, что, говорит ли он правду или ложь, он одинаково вредит тому, с кем имеет дело, и в обоих случаях нарушает Первый Закон. Робот, поняв это, пришел к вынужденному бездействию. Говоря более красочно, его позитронные пути сгорели, мозг оказался непоправимо разрушенным.

– Как я понимаю, нечто вроде этого случилось с Джандером Пэнелом? Он встретился с противоречием в словах, и мозг его сгорел?

– Похоже на то, хотя это не так легко сделать, как во времена Сьюзен Келвин. Может быть, из-за этой легенды роботехники всегда затрудняют возможность противоречий. Поскольку теория позитронного мозга становится все более тонкой, а практические проекты – все более замысловатыми, были созданы невероятно удачные системы для всех ситуаций, могущих иметь неадекватное решение, так что любое действие всегда можно перевести как повиновение Первому Закону.

– Значит, вы не можете сжечь мозг робота. Вы это имеете в виду? Если так, то что случилось с Джандером?

– Нет, я не это имел в виду. Невероятно удачные системы, о которых я говорил, никогда не бывают полностью удачными. Не могут быть. Как бы тонок и сложен ни был мозг, всегда есть какой-то путь поставить противоречие. Это основная математическая истина. И шанс на противоречие никогда не удается свести к нулю. Тем не менее, этот шанс настолько близок к нулю, что довести мозг до умственного замораживания может только очень знающий теоретик.

– Вроде вас.

– Вроде меня. А в случае человекоподобного робота – только я.

– Или вообще никто, – иронически заметил Бейли.

– Или вообще никто. Точно, – сказал Фастальф, игнорируя иронию. – Человекоподобные роботы конструируются в намеренной имитации человека. Позитронный мозг очень нежен и так же хрупок, как и человеческий. Как у человека может быть удар от какого-либо события, удар изнутри, без вмешательства внешнего эффекта, так и человекоподобный мозг может от случайных бесцельных движений позитронов впасть в умственное замораживание.

– Вы можете это доказать?

– Я могу доказать это математически, но лишь тем, кто понимает математику, и не все согласятся, что рассуждение веское. Оно включает некоторые мои предположения, которые не соответствуют обычной манере мыслить в роботехнике.

– Какова вероятность самопроизвольного умственного замораживания?

– Если взять, скажем, сто тысяч человекоподобных роботов, то с одним из них за время жизни аврорца может случится такое. Но может и раньше, как случилось с Джандером.

– Послушайте, доктор Фастальф, если вы убедительно докажете, что самопроизвольное умственное замораживание может произойти вообще, это не будет доказательством, что такая вещь случилась с Джандером в частности.

– Нет, – согласился Фастальф. – Вы правы.

– Вы, величайший роботехник, не можете доказать этого в специфическом случае с Джандером.

– Вы опять-таки правы.

– Тогда почему вы надеетесь на меня? Что я могу сделать, если я ничего не смыслю в роботехнике?

– Тут и не нужно ничего доказывать. Достаточно представить предположение, что именно могло вызвать самопроизвольное умственное замораживание. Предположение, приемлемое для широкой публики.

– Например?

– Не знаю.

– Вы уверены, что не знаете? – резко спросил Бейли. – Позвольте мне указать вам на одну вещь. Я думаю, аврорцы в основном знают, что я приехал на эту планету с целью взяться за вашу проблему. Трудно было бы привезти меня сюда тайно, учитывая, что я землянин, а это Аврора.

– Да, конечно, и я не пытался это сделать. Я посоветовался с Председателем Совета и убедил его дать мне разрешение привезти вас. Таким образом я добился отсрочки суда. Вам дается шанс раскрыть тайну до того, как я предстану перед судом. Сомневаюсь, что отсрочка будет долгой.

– Я повторяю: аврорцы знают, что я здесь и предполагаю разрешить загадку смерти Джандера.

– Конечно. Другой причины не могло быть.

– И с тех пор, как я сел на корабль, вы держите меня под замком и под охраной, чтобы ваши враги не попытались устранить меня, словно я какой-то кудесник и обязательно приведу вас к победе, несмотря на все неблагоприятные обстоятельства.

– Боюсь, что так.

– А допустим, кому-то из ваших врагов удалось убить меня; не окажется ли это вам на пользу? Не скажут ли люди, что ваши враги сами считают вас невиновным, иначе они не боялись бы расследования и не желали бы убить меня?

– Довольно сложное рассуждение. Полагаю, что ваша смерть, правильно организованная, могла бы послужить такой цели, но этого не произойдет. Вы под защитой, и вас не убьют.

– Но зачем защищать меня? Почему не позволить убить меня и использовать мою смерть как путь к победе?

– Я предпочел бы, чтобы вы остались в живых и действительно продемонстрировали бы мою невиновность.

– Но вы знаете, что я не могу этого сделать.

– А вдруг сможете? У вас есть стимул: от вашего дела зависит благополучие Земли и, как вы сами сказали, ваша карьера.

– А что толку в стимуле? Если вы прикажете мне взлететь на потолок, угрожая в случае неудачи мучительной смертью, стимул у меня будет, но взлететь я все равно не смогу.

– Я знаю, что шансы очень малы, – неохотно сказал Фастальф.

– Вы знаете, что их не существует, – яростно сказал Бейли, – и только моя смерть может спасти вас.

– Ну, тогда я не буду спасен, поскольку забочусь, чтобы мои враги не дотянулись до вас.

– Но вы можете дотянуться до меня. Вы сами могли бы убить меня и подстроить дело так, будто это сделали ваши недруги. И тогда вы могли бы использовать мою смерть против них. И вот почему вы привезли меня на Аврору.

Фастальф с удивлением поглядел на Бейли; затем лицо его побагровело и исказилось в жестоком оскале. Схватив прибор для пряностей, он высоко поднял его и размахнулся, чтобы швырнуть им в Бейли.

А Бейли, полностью ошеломленный, мог только откинуться на спинку кресла.

Часть пятаяДэниел и Жискар

18

Как ни быстро действовал Фастальф, Дэниел среагировал еще быстрее. Бейли, совершенно забывший о существовании Дэниела, увидел смутный рывок, услышал неопределенный звук, а затем Дэниел уже стоял рядом в Фастальфом, держал прибор для пряностей и говорил:

– Надеюсь, доктор Фастальф, что я ничем не повредил вам.

Бейли смутно отметил, что по другую сторону Фастальфа стоял Жискар, а все четыре робота, бывшие у дальней стены, теперь подошли почти к самому обеденному столу.

Слегка задохнувшийся, растрепанный Фастальф сказал:

– Нет, Дэниел. Ты действовал отлично. – Он возвысил голос. – Вы все действовали хорошо, но помните, что вы не должны медлить, даже если я сам участвую. – Он мягко рассмеялся и снова сел, приглаживая волосы. – Извините, мистер Бейли, что я напугал вас, но я чувствовал, что демонстрация будет более убедительной, чем все мои слова.

Бейли, перед этим рефлекторно съежившийся, ослабил ворот и сказал чуточку хрипло:

– Боюсь, что я ожидал только слов, но признаю, что демонстрация была убедительной. Я рад, что Дэниел оказался достаточно близко, чтобы обезоружить вас.

– Никто из них не был достаточно близко, но Дэниел был ближе других и поэтому подбежал первым. Он подошел достаточно быстро, чтобы мягко управиться со мной. Будь он дальше, он мог бы вывихнуть мне руку или сбить меня с ног.

– Неужели он зашел бы так далеко?

– Мистер Бейли, я дал инструкции защищать вас, а я умею давать инструкции. Они не поколебались бы спасти вас, даже если бы для этого пришлось повредить мне. Конечно, они постарались бы причинить мне минимум вреда, как это и сделал Дэниел. Он повредил только моему достоинству и растрепал мне волосы. И пальцы у меня немного онемели.

Он печально сгибал их.

Бейли глубоко вздохнул, пытаясь оправиться от короткого замешательства.

– А стал бы Дэниел защищать меня без ваших инструкций?

– Без сомнения. Не думайте, что реакция робота – просто да или нет, вверх или вниз, внутрь или наружу; это обычная ошибка непрофессионалов. Тут дело в скорости реакции. Мои инструкции насчет вас были так сформулированы, что потенциал, и так очень высокий в роботах моего дома, включая Дэниела, стал еще выше. Следовательно, реакция на явную опасность для вас исключительно быстрая. Я знал, что так должно быть, и поэтому мог замахнуться на вас со всей возможной для меня быстротой и дать вам наиболее убедительную демонстрацию моей неспособности повредить вам.