ИИ отличают от предшествующих технологий динамичность и способность к эмерджентным – неожиданным – действиям и решениям. Нерегулируемые и неконтролируемые, ИИ могут делать не совсем то и не совсем так, как мы от них ожидаем, без нашей сознательной команды на то. Мы не всегда будем вольны сами принять решение о типе взаимодействия с ИИ – ограничение, партнерство или отступление, – в некоторых случаях выбор будет навязан обстоятельствами. Внутри человечества идет постоянная конкуренция, и преимущества автоматизации процессов, изучения огромных массивов данных и реорганизации физического и социального мира при помощи ИИ могут достаться тем, кому первыми удастся ими воспользоваться. Такая конкуренция может вынудить нас внедрять ИИ, не имея времени на оценку рисков – или пренебрегая рисками.
Все это выдвигает на первый план вопросы этики. Каждое отдельное решение о сдерживании ИИ, партнерстве с ним или отступлении перед ним может иметь или не иметь критических последствий, но совокупный эффект этих решений будет расти и определять ход истории. Если человечеству не все равно, каким окажется его будущее, оно должно договориться об общих подходах к каждому отдельному решению, чтобы каждая страна могла сдерживать ИИ, сотрудничать с ним или давать ему свободу действий там, где это необходимо. Добиться коллективных действий будет сложно, а иногда невозможно, но, если пустить все на самотек и не пытаться выработать общую этику, нестабильность, скорее всего, будет расти.
Те, кто разрабатывает ИИ, обучает его и сотрудничает с ним, смогут добиться результатов такого масштаба и сложности, которые до сих пор были недоступны человечеству, – новых научных прорывов, новой экономической эффективности, новых форм безопасности и, возможно, общественного контроля. В результате обычные люди могут почувствовать, что за ними наблюдают, что их изучают и что на них постоянно и повсеместно воздействует нечто совершенно непонятное, – во многих странах такое раньше считалось недопустимым. Разработчики и интеграторы ИИ должны быть готовы к решению этих проблем. Они должны быть в состоянии объяснить всем остальным, что именно делает ИИ и почему, а также что он «знает» и как он это узнаёт.
Динамичность и эмерджентность ИИ порождают два вида неопределенности. Во-первых, ИИ может действовать так, как мы его инструктировали, но при этом приводить к результатам, которых мы не предвидели. ИИ динамичен, он может завести человечество не туда, куда мы ожидали. Подобно тому, как государственные деятели в 1914 г. не смогли предугадать, что технологический прогресс и логика военной мобилизации заставят всю Европу начать войну, неподготовленное внедрение ИИ тоже может иметь серьезные негативные последствия – как опасное для жизни решение автомобиля с автопилотом или серьезный военный конфликт. Во-вторых, ИИ может быть непредсказуемым, его действия могут стать полной неожиданностью. Рассмотрим ИИ AlphaZero, который, решая задачу «выиграть в шахматы», разработал такой стиль игры, до которого люди не смогли додуматься за всю тысячелетнюю историю игры. Люди могут очень тщательно ставить задачи ИИ, но по мере того, как он будет получать от нас все больше свободы, он будет выбирать все более неожиданные или тревожащие пути достижения результатов.
Вот почему задачи и степени свободы ИИ должны определяться с осторожностью, особенно в тех областях, где его решения могут быть смертельно опасны. ИИ не должен работать автоматически, ему не следует позволять предпринимать необратимые действия без наблюдения, мониторинга или прямого контроля со стороны человека. Созданный людьми, ИИ должен контролироваться людьми. Одна из сегодняшних проблем ИИ заключается в том, что, обладая навыками и ресурсами для его создания, мы пока не охватили всю философскую перспективу для понимания последствий. Разработчиков ИИ, как правило, волнуют создаваемые ими приложения и решаемые задачи – они не задумываются о том, могут ли их творения привести к революции исторического масштаба и как они способны повлиять на различные группы населения. Эпохе ИИ нужны новые Декарт и Кант, чтобы объяснить происходящее и предсказать его последствия для нас и человеческой идентичности.
Ограничивать ИИ придется более жестко, чем мы ограничиваем сами себя. Обсуждения и переговоры с участием правительств, университетов и корпоративных инноваторов должны быть направлены на ограничение практических действий ИИ – аналогично тому, как сегодня регулируются действия людей и организаций. ИИ имеет общие признаки с некоторыми продуктами, услугами, технологиями и организациями, которые уже подвергаются регулированию, но по важнейшим параметрам он от них отличается, и поэтому для него нужна отдельная, полностью определенная концептуальная и правовая база. Она должна учитывать, например, проблему динамичности и эмерджентности ИИ, из-за которых он может непредсказуемо меняться. Управление людьми отражает человеческую этику – подобно этому, нам нужны принципы и этика для ИИ.
Существующие принципы часто будут неприменимы. Если в Средние века виновность человека могло определить испытание перед Богом, то в эпоху Просвещения подсудимым стали выносить приговоры в соответствии с доводами разума, определяя виновность и назначая наказание в соответствии с такими понятиями, как нанесенный вред и злой умысел. Но у ИИ нет человеческого разума, человеческих мотиваций, намерений и способности к саморефлексии. Кроме того, внедрение ИИ усложняет существующие принципы правосудия даже в применении к человеку. Если автономная система причинила вред, руководствуясь собственными представлениями и решениями, должен ли нести ответственность ее создатель? А если ИИ применяется для контроля, предотвращения или расследования правонарушений – должен ли он обосновать свои выводы, чтобы они имели силу для людей? Эти загадки необходимо разрешить.
Очень важно понять, в каких контекстах и на каком этапе эволюции этой технологии на нее должны распространяться ограничения, согласованные на международном уровне, – и это должно быть одной из главных тем обсуждений. Если сделать это слишком рано, развитие технологии будет заторможено или уйдет в тень, а если сделать это слишком поздно, возможны пагубные последствия – особенно в военной области. Проблема усугубляется сложностью разработки эффективных режимов контроля для технологии, которую невозможно отследить и идентифицировать и которая при этом легко распространяется. Вопрос о том, кто должен решать эти вопросы – только лишь правительства или правительства в сотрудничестве с инженерами, специалистами по этике, разработчиками ИИ и представителями других областей, – требует рассмотрения, но надолго откладывать его решение нельзя.
На уровне отдельных стран предстоит решить сложные дилеммы. Большая часть нашей социальной и политической жизни сегодня проходит на сетевых платформах. Демократические страны особенно сильно зависят от этих информационных пространств, открытых для дебатов и дискуссий, формирующих общественное мнение и придающих легитимность правительствам. Кто или какие институты должны определять роль ИИ? Кто должен регулировать ИИ? Какую роль должны играть люди, использующие ИИ? А корпорации, которые производят ИИ? Правительства стран, которые применяют ИИ? В рамках решения этих вопросов ИИ во многих случаях должен быть аудируемым – то есть выводы, которые он делает, должны быть проверяемы. Выработка ответов на поставленные вопросы будет зависеть от разработки принципов восприятия и принятия решений ИИ. У самостоятельных ИИ нет морали, воли и чувства вины. Аналогичные вопросы придется решать для большинства других аспектов общества, от транспорта до финансовых рынков и медицины.
Рассмотрим влияние ИИ на социальные сети. Это молодые онлайн-сервисы, но они все чаще отражают жизненно важные аспекты нашей общественной жизни. Власть, которой пользуются Twitter и Facebook, когда они продвигают, ограничивают или запрещают тот или иной контент или тех или иных авторов, показывает, что эти сетевые платформы заняли в нашем обществе центральное место. Мы уже не можем использовать сетевые платформы без ИИ, но одностороннее, непрозрачное продвижение контента и отдельных людей – это тоже результат работы ИИ. Сможем ли мы сохранить свою самостоятельность по мере того, как наша социальная и политическая жизнь все больше перемещается в области, курируемые ИИ, в которых мы не можем ориентироваться без этого курирования?
Используя ИИ для навигации по информационным массивам, мы сталкиваемся с проблемой искажения информации – когда ИИ создает для нас ту картину мира, которую мы инстинктивно предпочитаем. Наши когнитивные предубеждения порождают «эхо», которое усиливается благодаря ИИ – и в конечном счете создает дезинформацию и способствует ее распространению. Для контроля дезинформации и борьбы с ней также используется ИИ. Как мы видим, применение ИИ может привести – и уже приводит – к непреднамеренным печальным последствиям. Операторы социальных сетей не стремятся к продвижению экстремистской информации и разжиганию политической ненависти – но совершенно очевидно, что их работа также не привела и к усиленной пропаганде просвещения. При этом попытки направить ИИ соцсетей на формирование взаимопонимания или распространение точной информации также вызывают протесты, поскольку воспринимаются как форма контроля со стороны алгоритмов.
Проложить маршрут между этими полюсами – важнейшая задача для всех свободных стран нашего времени. Но какова же должна быть природа наших отношений с ИИ? Как нам поступить – изолировать его, наделить его полномочиями или сделать нашим партнером? Не подлежит сомнению, что распространение определенной информации – особенно дезинформации – может нанести ущерб обществу, разобщить его и разжечь вражду. Определенные ограничения необходимы – но наша сегодняшняя готовность осуждать, пресекать и уничтожать «вредную» информацию тоже должна заставить задуматься. В свободных странах корпорации не должны монопольно решать, какая информация является вредной и что такое дезинформация. Если эта функция будет доверена правительственной комиссии или агентству, то этот орган должен действовать в соответствии с определенными публичными стандартами, а используемые им процессы должны поддаваться контролю. Если это будет делать специальный ИИ, то постановка задач, обучение и работа этого ИИ должны быть ясны, аудируемы и доступны для обжалования.