Новый цифровой мир — страница 53 из 79

ного соседа, они будут вступать в альянсы с одной из сверхдержав, чтобы гарантировать себе некоторую защиту. Но маловероятно, чтобы страны, не имеющие беспилотников, не попытались изменить ситуацию: захваченный иранцами БПЛА-шпион Sentinel стоил всего $6 млн.

Распространение роботов и беспилотных летательных аппаратов увеличит количество конфликтов в мире – получив в свое распоряжение такие инструменты, государства будут стремиться их испытать, – но снизит вероятность полномасштабной войны. На то есть несколько причин. Одна из них заключается в том, что это достаточно новое явление: все международные соглашения, касающиеся различных видов вооружения (Договор о нераспространении ядерного оружия, Договор по ПРО, Конвенция о запрещении химического оружия и так далее), были подписаны задолго до появления БПЛА. Необходимо обозначить границы, установить правовые нормы, а политики должны научиться использовать эти инструменты ответственно и с учетом общей стратегии. Существуют и этические аспекты, которые следует обсудить публично (сейчас такая дискуссия идет в США). Все эти соображения заставят власти разных стран проявлять осторожность в период активного распространения беспилотников.

Мы должны не забывать и о такой проблеме, как возможность потери контроля над беспилотными летательными аппаратами, как это было с ядерным оружием. Существуют обоснованные опасения, способны ли такие страны, как Пакистан (по некоторым оценкам, он владеет примерно сотней ядерных зарядов), обеспечивать безопасность своего ядерного арсенала и не допустить их кражи. По мере появления больших флотилий БПЛА повышается риск того, что какой-то из них попадет «не в те руки» и будет использован против иностранного посольства, военной базы или культурного центра. Представьте себе следующий теракт, сравнимый по масштабам с 11 сентября 2001 года, но проведенный не путем угона коммерческих авиалайнеров, а с помощью беспилотников, похищенных у государства. Такая опасность подтолкнет к заключению договоров, в которых будут выработаны требования по должной охране БПЛА.

Государствам придется совместно или по отдельности выработать правила использования БПЛА и решить, попадут ли они под те же нормы регулирования суверенности воздушного пространства, что и обычные самолеты. Взаимные опасения будут удерживать власти от эскалации конфликта с участием беспилотников. Даже когда выяснилось, что американский БПЛА Sentinel нарушил воздушное пространство Ирана, реакция Тегерана свелась к хвастовству и демонстрации захваченного трофея, а не к мести.

Снижение смертности среди военнослужащих благодаря использованию беспилотных летательных аппаратов будет благосклонно воспринято обществом и снизит вероятность полномасштабного военного конфликта. У нас уже есть статистика, которую можно изучать: новости о беспилотниках в США появляются на протяжении нескольких лет. За несколько месяцев до президентских выборов 2012 года в результате утечек информации из правительства появились подробные статьи о секретных операциях с использованием БПЛА, санкционированных Бараком Обамой. Судя по реакции американцев на удары беспилотных бомбардировщиков как в «официальных» зонах боевых действий, так и в «неофициальных» – в Сомали, Йемене и Пакистане, – операции по ликвидации террористов с участием беспилотников кажутся обществу гораздо более приемлемыми, чем использование солдат. Такие акции вызывают меньше вопросов и протестов. Некоторые сторонники сокращения присутствия США в мире даже поддерживают расширение программы применения БПЛА в качестве законного способа выполнения этой задачи.

Мы лишь недавно научились воевать так, чтобы не соприкасаться с противником физически и эмоционально, до определенной степени лишив войну личностной составляющей, и пока не знаем всех политических, культурных и психологических последствий этого. Сейчас «дистанционные» военные действия ведутся чаще, чем когда бы то ни было, а в будущих конфликтах их роль станет еще более заметной. Исторически к ним относилось использование ракет, но в будущем станет возможным еще более значительное дистанцирование действующих лиц от поля битвы. В конце концов, жертвы другой стороны редко становятся важным фактором международной политики и объектом общественного внимания: если американские войска не подвергаются опасности, интерес публики тут же резко падает. Это, в свою очередь, означает меньшую озабоченность населения вопросами национальной безопасности: когда на горизонте не предвидится опасности для наших солдат, тише голоса и «ястребов», и «голубей». Чем больше у властей вариантов действий, не привлекающих общественного внимания, тем больше задач по обеспечению безопасности они могут выполнить без объявления войны или отправки войск, что снижает вероятность возникновения крупномасштабного вооруженного конфликта.

* * *

Можно только приветствовать прогнозируемое снижение жертв среди мирного населения и материального ущерба, а также риска ранений и гибели военнослужащих, однако переход к полностью автоматизированному ведению боевых действий принесет новые проблемы. Главная из них – обеспечение кибербезопасности оборудования и информационных систем. Обмен данными между всеми устройствами, наземными роботами, беспилотными летательными аппаратами и их командным пунктом управления, где находятся люди, должен быть быстрым и безопасным. Необходимо обеспечить качественную инфраструктуру или хорошую связь между боевыми частями и их базами. Вот почему армия обычно создает собственные коммуникационные сети, а не полагается на имеющиеся. Пока роботы, действующие на поле боя, не обзаведутся автономным искусственным интеллектом, помехи или разрыв связи могут превратить эти машины в бесполезную груду железа, к тому же еще и опасную, ведь захват вражеского робота поможет получить доступ к секретной технологии. И не только к технологии: это позволит изучить его программное обеспечение, использованные инженерные решения, а также секретные данные вроде координат расположения вражеских боевых частей. (Трудно представить себе, что государства откажутся от соблазна провести кампанию дезинформации и сознательно посадить на чужой территории – или позволить противнику захватить – беспилотник-приманку с записанной в нем ложной информацией и собранный с использованием вводящих в заблуждение компонентов.) В войнах с участием роботов обе противоборствующие стороны для пресечения вражеской активности будут использовать кибератаки, применяя или спуфинг (то есть выдавая себя за авторизованного участника сети), или ложные цели, чтобы запутать датчики и ослабить боевые порядки противника. Конечно, производители попытаются встроить в свои устройства отказоустойчивые механизмы для снижения вреда от таких атак, но сделать роботов «пуленепробиваемыми» для любых технологических хитростей будет очень трудно.

Военнослужащие и создатели роботов столкнутся с ошибками, допущенными при разработке. Уязвимости и ошибки встречаются в любой сети, и часто единственный способ их исправить – это дождаться, когда о них узнают хакеры или независимые специалисты по компьютерной безопасности. Разобраться в программах, которые необходимы для работы столь сложных устройств, крайне нелегко: там миллионы и миллионы строк кода, и вероятность ошибок очень высока. Даже когда разработчики знают об уязвимых местах, их не так просто устранить. Считается, что о бреши в защите системы GPS, которой воспользовались иранцы, напав на американский беспилотник и посадив его, Пентагону было известно с боснийской кампании 1990-х годов. В 2008 году в распоряжении спецслужб США впервые оказался изъятый у шиитских повстанцев в Ираке ноутбук с записями видеокадров, снятых американскими беспилотными летательными аппаратами, которые иракцам удалось перехватить, просто направив на него спутниковую тарелку и использовав дешевую программу SkyGrabber, которую можно купить в сети за $26. Предназначается она для пиратского скачивания фильмов и музыки. Линии обмена данными между беспилотником и его пунктом управления тогда не шифровались.

В ближайшем будущем управлять этими устройствами будут люди и ошибок избежать не удастся. Если человек с его хрупкой психикой оказывается в условиях боевых действий, в ситуации непредсказуемости, это может привести к посттравматическому стрессу, тяжелым эмоциональным расстройствам и психическим срывам. Пока люди будут участвовать в войнах, будут и ошибки.

Устройства, способные воевать без участия человека, не смогут заменить людей ни непосредственно в бою, ни в центре принятия решений до тех пор, пока искусственный интеллект не заменит человеческий мозг полностью. Ошибки совершают даже самые умные машины. Как отмечает Питер Сингер, когда во время Первой мировой войны на полях сражений появился танк, он казался непобедимым, пока кто-то не придумал противотанковый ров. Бывший министр обороны Афганистана Абдул Рахим Вардак, с которым мы познакомились в Кабуле незадолго до его отставки, с улыбкой рассказывал нам, как в 1980-е годы он вместе с другими моджахедами боролся с советскими танками, замазывая грязью их смотровые щели и сооружая покрытые ветками и листвой ямы-ловушки вроде тех, которые за десять лет до этого вьетконговцы использовали против американских солдат. Сингер проводит более современные параллели: «Наземные роботы, которых наши солдаты используют в Ираке и Афганистане, поразительно высокотехнологичны, однако повстанцы поняли, что они могут бороться с ними с помощью простых ловушек, всего лишь выкапывая глубокие ямы, в которые те падают. Они даже подобрали определенный угол наклона стен, чтобы роботы не выбирались обратно». Интеллект этих роботов ограничен, и, пока они проходят полевые испытания, их операторы и разработчики будут постоянно сталкиваться с вражескими контрмерами, которые не смогли предугадать. Им придется постоянно совершенствовать свои продукты. Подобные асимметричные ответы противника окажутся непреодолимой трудностью даже для самых совершенных технологий.