Роботы-убийцы против человечества — страница 15 из 36

• В максимальной степени использовать для нужд логистики возможности открываемой разработками гражданского сектора в части беспилотных легковых и грузовых автомобилей;

• Провести экспериментальные и полевые испытания сухопутных БАРС, оснащенных мощными средствами огневого, электромагнитного и иного поражения, которые могут действовать как на основе команд оператора, так и в полностью автоматизированном режиме на поле боя против живой силы и техники противника.

Министерство обороны должно:

• Разработать программу инноваций, поставив во главе нее заместителя министра обороны США, наделив его особыми полномочиями с точки зрения изменения процедур, порядка и документации, связанной с реализацией инноваций в рамках программ закупки военной техники и вооружений;

• Разработать в кратчайшие сроки программу преодоления бюрократических проволочек, исключения возможностей ограничения доступу к участию в конкурсах для маленьких компаний, стартапов и неформальных групп исследователей. Установить сроки разработки такой программы и ее обсуждение не только в Администрации, но и в Конгрессе США;

• Создать в рамках бюджета министерств обороны специальный фонд для ключевых высокорискованных инноваций в сфере робототехники, машинного обучения и искусственного интеллекта. Обеспечить упрощенный порядок принятия решений о расходовании средств из этого фонда на основе понятных, прозрачных и контролируемых критериев. Предусмотреть выделение средств из фонда на основе методик, используемых в настоящее время при принятии решений об инвестициях наиболее успешными и динамичными венчурными фондами и бизнес-ангелами, занимающимися робототехникой, машинным обучением и искусственным интеллектом. Привлечь людей из этих организаций в правление или исполнительные органы этого фонда;

• Создать специальный фонд высокорискованного инвестирования в принципиально новые энергетические инновации. Отказаться от научной экспертизы инноваций и считать единственным критерием их практическую верификацию, т. е. определение – работает инновация или нет, может она масштабироваться или нет, обладает ли она достаточной надежностью для использования в боевых условиях или нет. Предусмотреть возможность финансировать из этого фонда не только принципиально новые, даже противоречащие современной науке технологии, но и разработки, созданные в лабораториях университетов и в коммерческом секторе. Особое внимание уделить темам сверхъемких топливных элементов, нетрадиционных методов получения энергии на основе ядерной физики и т. п.;

• Особое внимание уделить резкому сокращению цикла подготовки и проведения конкурсов на поставку вооружений, а также времени, затрачиваемом на доработку этих вооружений от стадии опытного образца до оснащения строевых подразделений.

Инновации должны быть первым приоритетом

Реализация многих сформулированных выше рекомендаций стоит денег. При этом бюджет Пентагона становится меньше, а не больше. В этих условиях мы должны точно расставить приоритеты с тем, чтобы тратить ресурсы на действительно востребованные в вооруженных силах инновации, а не на гигантских монстров, простаивающих на тыловых аэродромах, кораблях или в ракетных шахтах, которые, оттянув на себя огромные ресурсы, оказались совершенно бесполезными для защиты Америки.

Америка должна вернуться к политике министра обороны Боба Гейтса, который выпустил приказ, что он будет увольнять на основании приказа (и увольнял) в течение своего пребывания на посту всех работников министерства обороны, причастных к включению в программы закупок вооружений, соответствующих закону Августина.

Министерство обороны ничего не сможет сделать без воли Белого Дома. Белый Дом должен заботиться не только и не столько о сокращении военного бюджета, сколько об использовании необходимости сокращать военный бюджет для прекращения всех ненужных расходов, содержания бесполезной, невостребованной армией инфраструктуры, созданной еще в прошлом веке и финансирования бессмысленных, поддерживаемых подрядчиками и лоббистами, военных программ.

Ключевую роль в этой работе должен играть Конгресс. Пора представителям обеих партий, независимым конгрессменам проникнуться мыслью, что в нашей время возрастающих опасностей, обостряющихся кризисов и надвигающейся турбулентности, Конгресс – это не место для словопрений, политических баталий и удовлетворения местечковых интересов, а инструмент, который создал американский народ, чтобы оставаться мировым лидером, доминирующим и защищенным во всех областях и от всех опасностей.

Угрозы и риски использования автономных автоматизированных систем и роботов преступниками, экстремистами и террористами[1]

Введение

В последние несколько лет в Соединенных Штатах и Европе тема робототехники стала одной из наиболее востребованных среди бизнес-сообщества, военных кругов, университетов и органов государственной власти. Подавляющее большинство встреч и семинаров, издаваемых книг, статей, публикаций в электронных, научных и профессиональных журналах касаются исключительно гражданских, либо военных роботов и автономных автоматизированных систем (ААС). Соответственно проблематика рассматривается под углом зрения возможности использования робототехники в вооруженных силах, в бизнесе, а также влияние массового применения роботов на экономические, социальные и политические тренды и тенденции.

При всей важности указанных аспектов совершенно вне сферы внимания остается такая ключевая тема как возможности, риски и угрозы использования ААС и роботов различного типа и функционального применения организованной преступностью, экстремистскими группами и террористическими структурами. Ни один исследовательский центр в Соединенных Штатах и Западной Европе, ни одна ведущая «фабрика мысли» не получили от государственных или от частных структур грантов на это важнейшее направление. Оно остается практически вне поля зрения ведущих, в том числе действующих, политиков. Единственными исключениями стали выступления на эту тему бывшего министра обороны США и главы ЦРУ Р. Гейтса и бывшего директора ЦРУ Л. Панет-ты, а также статьи бывшего советника Б. Обамы К. Санстейна.

Публикуемые на этот счет работы и прежде всего бестселлер Нью-Йорк Таймс «Future Crimes» («Будущее преступности») М. Гудмана рассчитаны, прежде всего, на широкую публику, а не на высокопрофессиональную среду и лиц, принимающих решения. Поэтому главная ценность этой и подобных ей книг состоит в огромном количестве ярких и запоминающихся примеров, а не в жестком структурировании проблемы.

В этой связи главной задачей рабочего доклада, являющегося первым этапом работы над темой «Угрозы и риски использования автономных автоматизированных систем и роботов организованной преступностью, экстремистами и террористами», выполняемой междисциплинарным коллективом исследователей из различных университетов США на базе MTI по заказу федеральных органов власти США, является создание концептуальной и терминологической решетки для дальнейшего обсуждения темы, а также определение возможностей, степени риска и разнообразия угроз использования робототехники преступниками, экстремистами и террористами.

Терминология

В настоящее время в Соединенных Штатах и в целом в международном сообществе, существует терминологический разнобой, связанный с применением таких категорий, как «автономные автоматизированные системы» и «роботы». Например, в документах ООН и министерства обороны США используются в основном термины: «автономные автоматизированные системы (ААС)» и «автономные смертоносные системы вооружений (АССВ)». В то же время бизнес, средства массовой информации в Соединенных Штатах и официальные документы НАТО и ЕС используют термины «роботы», «роботы-убийцы», «роботизированное оружие» и т. п.

При всей близости «ААС» и «роботов» они являются терминами, обозначающими несколько различные технические и программные устройства. Большинство специалистов в области информационных технологий и робототехники придерживаются следующей точки зрения. ААС являются более широким термином, чем роботы. ААС включают в себя программно-технические комплексы с различной степенью автоматизации. В свою очередь роботы представляют собой высокоавтоматизированные ААС.

Продемонстрируем это на понятном для лиц, принимающих политические решения, примере. Например, так называемые беспилотные летающие аппараты (БПЛА) или дроны, без сомнения, с первых своих образцов должны быть отнесены к ААС. Однако нельзя забывать, что до последнего времени подавляющая часть дронов предполагала наличие оператора, который не только принимает решения о применении вооружений, но и в отдельных случаях дистанционно пилотирует дрон. В этом случае, конечно же, ни о каком роботе речь идти не может. Такие дроны не являются роботами, хотя и представляют собой ААС.

Представляется, что теория автоматического управления уже к 60-м гг. прошлого века выработала эффективный критерий, позволяющий надежно выделять роботов в структуре ААС. Данным критерием является способ принятия решения, требующегося в тех случаях, когда перед программно-аппаратным комплексом встает необходимость сделать выбор из нескольких альтернатив. Любой программно-аппаратный комплекс вне зависимости от своего функционального предназначения должен быть способен выполнять как минимум две операции: перемещаться в пространстве и реализовывать свою функцию, например, эвакуация раненых, разминирование, получение информации, огневое поражение и т. п.

Соответственно принципиально возможны четыре комбинации в принятии решений. Первая – все решения дистанционно принимает оператор ААС. Вторая – все решения принимаются программным комплексом ААС без участия человека. Третья – решения относительно всех операций ААС могут приниматься как человеком, так и программным комплексом. Четвертая – на различных стадиях и человек, и программный комплекс могут принимать решения, но решение человека или программного комплекса на каждой из операций имеет окончательный приоритет.