Власть роботов. Как подготовиться к неизбежному — страница 49 из 51

. Поскольку машинный интеллект никогда не будет со всей определенностью знать эти предпочтения или намерения, он будет вынужден формулировать задачи для себя, изучая поведение человека, с готовностью вступать в диалог с человеком и подчиняться ему. В отличие от безостановочного максимизатора скрепок, такая система разрешит выключить себя, если будет считать, что это отвечает предпочтениям человека, для оптимального удовлетворения которых она создана.

Это совершенно непохоже на сегодняшний подход к разработке систем ИИ. Рассел объясняет.

Чтобы воплотить в жизнь подобную модель, нужно очень много исследований. Нам требуются «минимально инвазивные» алгоритмы принятия решений, не позволяющие машинам касаться элементов мира, в отношении ценностей которых у них нет полной уверенности. Нужны машины, которые все больше узнают о наших истинных, принципиальных предпочтениях в отношении будущего. Затем подобные машины столкнутся со старой как мир проблемой этики: как распределять выгоды и затраты между людьми с конфликтующими интересами.

На решение этих задач может уйти десятилетие, и даже после этого потребуются законы, гарантирующие одобрение лишь доказанно безопасных систем и отклонение разработок, не отвечающих всем требованиям. Это будет непросто. Очевидно, однако, что эта модель должна появиться до того, как способности ИИ-систем превзойдут человеческие в важных областях[329].

Примечательно, что за исключением Стюарта Рассела, соавтора основного университетского учебника по искусственному интеллекту, почти все видные фигуры, предупреждающие об экзистенциальной угрозе разумных машин, не являются исследователями ИИ и специалистами по компьютерным наукам. Эту тревогу выражают главным образом известные интеллектуалы, например Сэм Харрис, титаны Кремниевой долины вроде Маска и ученые из других областей, скажем Хокинг или физик из МТИ Макс Тегмарк. Большинство экспертов по ИИ хранят спокойствие. Переговорив с 23 ведущими исследователями из этой сферы во время работы над книгой «Архитекторы интеллекта», я убедился, что лишь немногие из них принимают угрозу существованию человечества всерьез. Абсолютное большинство относятся к этой мысли пренебрежительно. Они сходятся на том, что суперинтеллект появится еще не скоро, а конкретные пути решения проблемы настолько неясны, что заниматься этим вопросом просто бессмысленно. По словам Эндрю Ына, возглавлявшего группы по исследованию ИИ в Google и Baidu, волноваться из-за экзистенциальной угрозы со стороны ИИ — все равно что бояться перенаселения Марса задолго до отправки на Красную планету первых астронавтов. Робототехник Родни Брукс вторит ему, когда утверждает, что суперинтеллект дело настолько далекого будущего, что «мир тогда не будет похож на нынешний, это будет нечто с искусственным сверхразумом в центре… Мы не имеем ни малейшего представления о том, как он будет выглядеть. Предсказание будущего ИИ всего лишь состязание ученых-одиночек, живущих в изоляции от реального мира. Не хочу сказать, что эти технологии не появятся, просто мы не сможем узнать, какими они будут, до самого их появления»[330].

Сторонники серьезного отношения к экзистенциальной угрозе, связанной с ИИ, не согласны считать этот вопрос несущественным или нерешаемым лишь на том основании, что он едва ли встанет ранее, чем через несколько десятилетий. По их мнению, проблему контроля необходимо решить до того, как появится первый сверхразум, иначе будет слишком поздно. Стюарту Расселу нравится аналогия с инопланетянами. Представьте, что мы получили из космоса сигнал, сообщающий о прибытии к нам пришельцев через 50 лет. Скорее всего, сразу же начнется всемирная подготовка к этому событию. Рассел убежден, что мы точно так же должны готовиться к появлению суперинтеллекта.

На мой взгляд, экзистенциальную угрозу со стороны ИИ нужно принимать всерьез. Я очень рад, что исследователи из таких организаций, как Институт будущего человечества, реально работают над этой проблемой. Я считаю, именно так и должны распределяться ресурсы: этой проблеме в настоящий момент самое место в академических кругах. Пока очень трудно обосновать государственное финансирование программы масштабов Манхэттенского проекта. Вряд ли разумна и любая попытка встраивания этого вопроса в и без того неэффективный политический процесс. Мы действительно хотим, чтобы политики, почти или совершенно ничего не знающие об ИИ, писали твиты об опасности сверхразумных машин? С учетом очень ограниченной способности правительства США решать что-либо, хайп вокруг футуристической экзистенциальной угрозы или ее политизация лишь отвлекут от реальных, уже существующих рисков, таких как превращение ИИ в оружие и проблемы безопасности и предвзятости. Вот задачи, в решение которых мы должны немедленно начать вкладывать существенные ресурсы.

Острая необходимость регулирования

Из знакомства с рисками, представленными в этой главе, следует лишь одно — важность государственного регулирования в сфере ИИ продолжает возрастать и становится всеобъемлющей. Я, однако, считаю большой ошибкой чрезмерное регулирование или ограничение исследований искусственного интеллекта. Скорее всего, это будет неэффективно в глобальном масштабе, поскольку исследования ведутся повсюду. В частности, Китай активно конкурирует с Соединенными Штатами и другими западными странами, расширяя границы возможного для ИИ. Ограничения на фундаментальные исследования, очевидно, поставят нас в невыгодное положение, а мы не можем себе позволить отстать от Китая в борьбе за место на переднем крае развития этой технологии, оказывающей огромное влияние на нашу жизнь.

Правильнее было бы регулирование конкретных сфер применения искусственного интеллекта. В отношении беспилотных автомобилей и средств медицинской диагностики на основе ИИ правила уже выработаны, поскольку эти сферы и без того регулируются. А вот в областях распознавания лиц и использования алгоритмов в системе уголовного судопроизводства нет практически никаких гарантий эффективного и справедливого применения технологии.

С учетом темпов развития искусственного интеллекта и сложности затронутых вопросов я считаю нереалистичным ожидать, что Конгресс США, да и любой другой парламентский орган, своевременно разработает необходимые нормы и воплотит их в жизнь. Похоже, что лучше всего было бы создать независимое государственное ведомство с полномочиями регулятора специально для сферы искусственного интеллекта — что-то вроде Администрации по контролю за продуктами питания и лекарствами, Федерального управления гражданской авиации или Комиссии по ценным бумагам и биржам. Любое из этих управлений — как и их аналоги во всем мире, например Европейское агентство по лекарственным средствам, — имеет собственный штат экспертов, позволяющий решать вопросы в пределах их компетенции. То же самое следует сделать и в сфере искусственного интеллекта. Орган, регулирующий создание и использование ИИ, должен получить от конгресса широкие полномочия и финансирование и иметь право разрабатывать конкретные нормы, причем намного быстрее и эффективнее, чем законодательный орган.

Скорее всего, сторонники либертарианских взглядов станут возражать и обоснованно указывать, что подобный государственный орган будет таким же неэффективным, как и весь существующий регуляторный аппарат. Агентство по контролю ИИ, безусловно, будет поддерживать тесные связи с крупными технологическими компаниями, и мы почти наверняка столкнемся с пресловутой практикой «вращающихся дверей», когда чиновники, уходящие с госслужбы, находят теплые места в подконтрольном частном секторе. Велик и риск «приватизации регулирующего органа» и злоупотребления влиянием со стороны технологической отрасли. Это небеспочвенные опасения, тем не менее для меня совершенно очевидно, что подобное ведомство — оптимальное решение. Альтернативой будет бездействие, что, безусловно, худший выбор. Тесные отношения между регулирующим органом и компаниями, разрабатывающими и использующими технологии ИИ, это, как всегда, палка о двух концах. Поскольку правительство не может конкурировать за ведущих специалистов в области ИИ, предлагая им зарплаты и условия, характерные для хай-тека, сотрудничество ведомства с частным сектором, пожалуй, единственная возможность идти в ногу с достижениями в этой сфере. Идеального решения не существует, но возможен плодотворный союз частного сектора, научных кругов и властей, в центре которого стоит регулирующий орган, достаточно компетентный, чтобы направлять развитие в нужную сторону. Это значительно приблизило бы нас к гарантиям безопасного, инклюзивного и справедливого применения ИИ.

ЗаключениеИИ: два варианта будущего

По мере развития ИИ и расширения его присутствия в нашей жизни связанные с ним риски все больше требуют внимания. Наложение коронакризиса на масштабные социальные волнения в 2020 году привело к событиям, свидетельствующим о том, что как минимум некоторые из этих рисков начинают выходить на передний план в общественной жизни. После общенациональных протестов, спровоцированных убийством Джорджа Флойда полицейским в мае того года, расовая необъективность технологии распознавания лиц заставила Amazon объявить годичный мораторий на продажу своей системы Rekognition правоохранительным органам, чтобы дать конгрессу время ввести эту технологию в правовое поле. Microsoft тоже взяла паузу вплоть до принятия соответствующего законодательства, а IBM полностью ушла с рынка систем распознавания лиц[331].

Пандемия коронавируса открыла новые возможности для принятия нестандартных мер. Когда из-за экономического шатдауна исчезло ошеломляюще большое количество рабочих мест, конгресс смог быстро принять решительные меры, хотя всего несколькими месяцами ранее подобные программы умерли бы, не родившись. В их числе стимулирующие выплаты в размере $1200 напрямую налогоплательщикам, резкое, хотя и временное, повышение пособий по безработице и включение в эту программу участников гиг-экономики. В ближайшие годы, когда влияние искусственного интеллекта и роботизации на рынок труда усилится, все эти меры будут, несомненно, актуальными. Уже звучат предложения ввести ежемесячные выплаты