Генезис. Искусственный интеллект, надежда и душа человечества — страница 31 из 34

ным нормам, далее к установкам сообществ и т. д. В каждой ситуации система будет последовательно сверяться с этим иерархическим сводом – от абстрактных принципов, заданных людьми, к конкретным, но размытым данным о мире, которые ИИ либо поглотил извне, либо сгенерировал самостоятельно. И лишь после того как ИИ исчерпает всю эту программу, так и не обнаружив ни одного применимого свода законов ни для предписания, ни для разрешения, ни для запрета действий, только тогда он обратится к тому, что вывел из своего раннего взаимодействия с людьми и подражания их поведению. Так он получит возможность действовать в унисон с человеческими ценностями – даже при отсутствии фиксированных законов и устоявшихся норм.

Для разработки и внедрения в жизнь этой системы правил и ценностей нам почти наверняка придется задействовать сам ИИ. Люди так и не смогли ни внятно сформулировать, ни прийти к единому пониманию собственных норм. Как человеку в одиночку, так и целым институтам не под силу угнаться за масштабом и скоростью, которые требуются для контроля миллиардов решений – как внутренних, так и внешних, возлагаемых на системы ИИ.

Ключевые параметры системы согласования целей ИИ с человеческими ценностями должны отвечать нескольким фундаментальным требованиям.

1. Абсолютная защищенность: система должна предотвращать любые возможности отключения, обхода или модификации защитных механизмов.

2. Адаптивность: алгоритмы управления обязаны динамически корректировать правила, учитывая контекст взаимодействия, географическую специфику, персональные предпочтения пользователей (включая социальные или религиозные нормы).

3. Производительность: механизм контроля должен обрабатывать запросы в режиме реального времени; функционировать в различных культурных средах; постоянно совершенствоваться через обучение.

4. Надежность: система должна полностью предотвращать любые формы нежелательного поведения, включая технические сбои, непредвиденные взаимодействия компонентов, злонамеренные действия пользователей.

Важно отметить, что нельзя полагаться на наказания после совершенного факта – защита должна работать на опережение, иначе исправлять что-либо будет уже слишком поздно.

Как этого достичь? Частные компании, имея государственную лицензию и академическую поддержку, могли бы совместно разрабатывать «модели заземления». Также потребуется создать валидационные наборы для сертификации моделей на соответствие правовым нормам (в разных юрисдикциях) и критериям безопасности. Для надзора за множеством ИИ-агентов может потребоваться специально обученный ИИ-супервайзер (или целая система таких ИИ). Перед выполнением задачи каждый агент должен будет получить одобрение у такого ИИ-супервайзера, что позволит применять единую этическую систему к разным, отдельно разрабатываемым релизам. Лаборатории безопасности и некоммерческие организации в партнерстве с ведущими исследовательскими центрами могли бы заняться комплексной оценкой рисков как автономных ИИ-агентов, так и надзирающих систем, разрабатывая при необходимости новые методы обучения и проверки. Финансировать эту работу могли бы крупные корпорации – например, через механизмы перераспределения ресурсов, рассмотренные в предыдущих главах.

Необходима (и, вероятно, осуществима) разработка единого обучащего набора данных и соответствующего валидационного набора, собранных со всего мира и систематизированных на основе всех имеющихся законов, норм и правил – от антропологии до теологии и социологии.

Миру требуется специализированный институт, который будет отвествен за постоянное обновление и совершенствование настраиваемой базы знаний, обучающих наборов данных и валидационных наборов. Модели заземления должны быть интегрированы с ИИ-агентными, чтобы им постоянно передавалась актуальная версия единого контролируемого свода правил. При этом системы ИИ достаточной мощности могли бы осуществлять взаимный контроль, сдерживая друг друга. Критически важно, чтобы сами обучающие данные отличались объективностью и разнообразием содержания. Процессы обучения и результаты, включая интерпретацию наблюдений за ИИ и анализ «усвоения» им знаний, должны быть максимально прозрачными, с открытыми методиками и валидационными наборами для общественной экспертизы.

Органам регулирования следует разработать стандарты и процедуры аудита, обеспечивающие соответствие ИИ установленным требованиям. Перед выпуском любой модели необходимо всесторонне оценить, насколько строго она следует предписанным законам и этическим нормам; насколько сложно будет нейтрализовать ее потенциально опасные функции, а также требуемые объемы и методы тестирования, включая выявление скрытых возможностей. Крайне важно заранее предусмотреть вопросы ответственности и возможные санкции – особенно для случаев, когда ИИ намеренно обучают обходить правовые ограничения. Главная сложность заключается в том, что с развитием технологий непрерывного дообучения обеспечить соблюдение этих стандартов будет все труднее. Чтобы ИИ не превратились в «черные ящики», способные стирать собственные данные и создавать правовые лазейки, необходимо тщательно документировать каждый этап их развития – возможно, с привлечением специальных систем мониторинга на основе ИИ.

(Не)общие ценности

Научить ИИ общечеловеческой морали – задача невероятной сложности. Даже трудно представить масштаб задачи по отбору и кодированию правил для систем ИИ. Эта проблема усугубляется ключевым требованием: необходимо избежать культурного империализма, когда моральные нормы одной культуры навязываются другим. Ведь создаваемый ИИ станет основой, на которую будут опираться все без исключения. Это означает, что системам ИИ предстоит адаптироваться к уникальным нормам каждой страны – от официальных законов до неписаных правил морали, религии и общественных устоев. В идеале такие алгоритмы должны гибко подстраиваться не только под культурные особенности, но и под индивидуальные запросы пользователей – конечно, в рамках четко заданных границ, исключающих опасные или неэтичные действия. Поскольку часть решения мы возлагаем на сам ИИ, технические проблемы могут оказаться не самой тяжелой задачей. Эти системы обладают сверхчеловеческой способностью запоминать и выполнять инструкции любой сложности. Не исключено, что системы ИИ в конечном итоге освоят правовые и этические нормы не менее успешно, чем люди, а возможно, и превзойдут нас в этом, несмотря на многовековой человеческий опыт. Но самые сложные вопросы остаются за рамками программирования.

Главный спорный момент состоит в том, что понятия «добро» и «зло» неочевидны. Любому создателю морального алгоритма не мешала бы здравая доля смирения. Как говорил известный американский судья Гвидо Калабрези, вдохновляясь Новым Заветом, «лучшие из нас должны остерегаться падения, а худшие – помнить, что надежда на искупление жива»[167]. Даже самые выдающиеся ученые, юристы и религиозные деятели – те, кому предстоит разрабатывать этические принципы для ИИ – не обладают безупречным пониманием добра и зла, чтобы выступать от имени всего человечества. Некоторые вопросы останутся без ответа – неоднозначность (или расплывчатость) понятий добра и зла проявлялась во все эпохи, и эра ИИ не станет исключением. Ситуацию усугубляют открытые конфликты, растерянность и несдержанность, характерные для многих современных обществ.

Мы возлагаем надежды на этот амбициозный проект, однако должны осознавать: как невозможно сохранить абсолютный контроль в условиях коэволюции, так и наивно ожидать, что системы ИИ самостоятельно выработают надежные механизмы самоограничения.

Обучение ИИ понимать нас с последующей надеждой, что он будет нас уважать, сложно назвать безопасной либо перспективной стратегией. Более того, люди, естественно, не будут едины в своем подходе: одни воспримут ИИ как товарища, другие – как угрозу, а третьи (из-за нехватки времени и ресурсов) не смогут определиться и просто примут наиболее доступный вариант.

Эта неоднородность приведет к предсказуемым различиям в уровнях безопасности. В то время как распространение ИИ и снижение затрат на разработку могут ускорить согласованность систем, те же факторы могут повысить сопутствующие риски. Цифровая и коммерческая взаимосвязанность современного мира означает, что опасный ИИ, разработанный кем и где угодно, может стать глобальной угрозой. Тревожная реальность такова, что безупречное воплощение проекта в жизнь требует высочайших стандартов производительности минимально допустимой погрешности. Поэтому различия в подходах к безопасности должны вызывать всеобщую обеспокоенность.

Мы призываем к координации и ускорению разрозненных усилий по согласованию ценностей систем ИИ. Вместе нам предстоит ответить на глубокие вопросы. Например, следующие:

1. Когда граница между человеком и машиной стирается, где та черта, за которой мы перестаем быть собой?

2. Если нам придется идти на компромисс с машинами, где проходит наша коллективная «красная линия», не подлежащая обсуждению?

Без общего понимания своей сути человечество рискует доверить ИИ самое главное – решать, чего мы стоим и зачем существуем.

Откровенно говоря, если окажется невозможным создать систему надежного технического контроля, мы должны предпочесть мир, где ОИИ (общего ИИ) не будет вовсе, миру, где хотя бы один ОИИ не согласован с человеческими ценностями. Достижение общего согласия в том, что представляют собой эти ценности, как их формулировать, согласовывать и применять, станет главнейшей философской, дипломатической и правовой задачей века. И все же мы вынуждены – под давлением обстоятельств и осознавая потенциальные блага технологии – установить и, насколько возможно, унифицировать моральные ограничения для новых форм разума, которым сами сейчас даем жизнь.

При условии активного участия общества, компетентной юридической и технической поддержки, а также крайней осторожности в оценке всех потенциальных рисков у нас есть основания надеяться, что базовые этические принципы удастся закрепить в системах ИИ, достигнув общечеловеческого консенсуса. Это даст нам возможность если не с полной уверенностью, то с разумной долей оптимизма шагнуть в новую эпоху технологического развития.