ИИ-2041. Десять образов нашего будущего — страница 87 из 96

Опасения относительно безопасности привели нас к дискуссиям о роли правительства в этом вопросе. Разные страны, начиная с США и заканчивая Китаем, пытаются разобраться, как далеко зашла монополизация интернет-пространства и как применять антимонопольные законы для ограничения власти ИТ-гигантов.

Европа проснулась раньше — Европейский союз решил заложить фундамент нового порядка в отрасли, приняв GDPR — по словам европейских законодателей, «самый жесткий закон в сфере безопасности и приватности». Другие страны присматриваются к документу, чтобы на его основе выстроить собственную нормативную базу. GDPR — огромный шаг вперед, он выставил хорошую планку.

В GDPR заложено представление, что пользователь должен вернуть себе контроль над данными и самостоятельно решать, кто будет их видеть и использовать, вплоть до извлечения прибыли из предоставления доступа к ним. За первые несколько лет внедрения GDPR уже состоялись подвижки.

Закону удалось просветить широкие слои пользователей относительно рисков, связанных с персональными данными. Кроме того, он стал требовать от сайтов и приложений по всему миру пересмотреть свою работу, чтобы свести к минимуму преступное, некомпетентное или просто халатное отношение к пользовательским данным. Компаниям, нарушающим GDPR, грозят большие штрафы[146].

Однако не все детали этого закона имеют практическую ценность, и можно сказать, что в общем он мешает развитию ИИ. В нынешней форме GDPR обязывает компании быть прозрачными перед людьми в использовании персональных данных.

От пользователя требуется четкое согласие на каждое действие с ними — чтобы компания могла приступить к их сбору (например, вы даете Facebook’у свой адрес только для доставки онлайн-покупок). Данные должны быть защищены от несанкционированного доступа, утечек или кражи. У автоматических операций должно быть обоснование, а по требованию пользователя должен подключаться специалист-человек.

Я уверен, что принятие GDPR имеет благородные намерения — обеспечить прозрачность, подотчетность и конфиденциальность оборота персональных данных. Однако внедрение регламента, описанное выше, вряд ли способствует достижению этого, а то и может помешать. Так, сложно ограничить целевое использование каждого фрагмента данных, поскольку ИИ развивается непредсказуемо, и предусмотреть все цели использования данных в самом начале их сбора попросту не представляется возможным.

Скажем, сохранение почтовой службой Gmail всей вашей электронной переписки позволяет вам легко найти нужные письма. Но Gmail разработал новую функцию автозаполнения, и ее потребовалось обучать на прежних данных. Нецелесообразно рассчитывать, что пользователи поймут условия обработки данных каждой компанией, когда им придется в очередной раз подтверждать свое согласие. (Сколько раз вы натыкались на всплывающее на сайте окно, перекрывающее текст, и просто жали «ОК», не вникая в смысл уведомления?)

GDPR требует, чтобы пользователь имел право обратиться к специалисту-человеку, если переживает о том, как ИИ использует его данные. Но это может вызывать неразбериху — ведь люди не так хороши в принятии решений, как ИИ. И наконец, цель снижения количества удерживаемых данных, заложенная в GDPR, серьезно ограничивает развитие систем на ИИ.

Если задуматься над этим вопросом в отрыве от контекста, большинство людей захотят вернуть себе права на распоряжение своими личными данными — и для этого у них есть GDPR и прочие нормативно-правовые акты. Но взглянем на проблему через призму функциональности ИИ-программ и приложений. Если отнять у них львиную долю данных, они заметно поглупеют либо вовсе перестанут работать.

В рассказе «Остров счастья» мы исходим из того, что, выплескивая воду (минимизируя риски, связанные с сохранением приватности), можно случайно выплеснуть и младенца (парализовать сервисы на ИИ). Вместо этого можно вывести технологии на более зрелый уровень, когда ИИ станет можно доверять, — тогда мы без опасений позволим ему хранить наши данные, однако сможем запрещать использовать их по его (ИИ) усмотрению.

Если бы этот «доверенный ИИ» знал о нас все, что известно Google, Facebook и Amazon и даже больше, наши возможности намного превысили бы функционал сегодняшних интернет-сервисов. Множество разрозненных хранилищ, где содержатся наши данные, сольются в гигантский информационный океан. Наш «доверенный ИИ» (назовем его Остров) узнает о нас все и сможет сам отвечать на запросы данных от третьих сторон.

Например, когда музыкальный сервис Spotify запросит наше местоположение, Остров оценит, насколько польза от пользования сервисом превышает риск предоставления ему доступа к нашим данным. Он будет исходить из информации о наших ценностях и предпочтениях, а также о компании, делающей запрос. А нас это избавит от надоедливых и непонятных всплывающих окон, где приходится что-то подтверждать.

Остров станет не только высокоэффективным ИИ-помощником, но и защитником наших данных и посредником при взаимодействии с любыми приложениями. Можно сказать, это будет новый социальный контракт в отношении личных данных.

КОМУ МОЖНО ДОВЕРИТЬ ХРАНЕНИЕ НАШИХ ДАННЫХ?

Как нам убедиться, что Острову можно доверить всю нашу информацию? Если вызывают подозрение даже Google и Facebook, что уж говорить об Острове! Он ведь соберет куда больше данных, чем они. Кроме того, основываясь на этой информации, можно с высокой точностью предугадывать наше внутреннее состояние и эмоции, даже когда мы стараемся их скрыть. Так что же нам делать?

Фундаментальная проблема заключается в том, что когда интересы владельца ИИ и его пользователей расходятся, последние оказываются в проигрыше. Мы видели это в предыдущих главах («Золотой слон», «Боги за масками», «Квантовый геноцид» и «Спаситель рабочих мест»); кроме того, мы читаем об этом везде, где пишут о Google и Facebook.

Корень проблемы в том, что ИИ, на котором работают эти корпорации, настроен на явную коммерческую выгоду — ведь это частные компании, их акции торгуются на фондовой бирже, поэтому они приоретизируют цели, которые не интересны пользователям. Просить эти компании поменять их приоритеты на наши интересы бессмысленно — их прибыли сразу обвалятся.

Желая «отдать ИИ в хорошие руки», нам нужно искать структуру, над которой не довлеет коммерческая выгода. Тогда она естественным образом, без сопротивления, поставит во главу угла наши интересы.

Что же это за организация, интересы которой совпадают с пользовательскими? В «Острове счастья» мы видим, возможно, идеализированный пример великодушной монархии в небольшом богатом государстве. В XXI веке такой образ может показаться архаичным, но прообразом правителя в этом рассказе стал Фридрих Великий, прусский король[147], который говорил: «Главное мое занятие — это <…> просвещать умы, взращивать нравственность и давать людям такое счастье, которое пристало человеческой природе и какое позволяют средства, имеющиеся в моем распоряжении».

Приверженец просвещенного абсолютизма, Фридрих Великий полагал, что в его власти улучшить жизни подданных. Щедрый монарх имеет большой кредит доверия от своего населения и должен быть смелым, чтобы провести серьезные реформы. В XVII и XVIII веках именно просвещенные монархи оказались ключевыми фигурами, благодаря которым наступила эпоха Просвещения.

Нам тоже необходима подходящая фигура — катализатор для появления мощного ИИ, собирающего массивы данных. И совсем уж не так невероятно, чтобы этой фигурой оказалась королевская династия с благотворительными склонностями. Я также прогнозирую, что в следующие 20 лет небольшие страны под управлением популярных в народе сильных лидеров станут наиболее вероятными кандидатами на внедрение революционных технологий.

Но можно представить себе и другие варианты. Как насчет современного цифрового сообщества единомышленников, готовых пожертвовать свои личные данные на благо всего общества? Остальные члены социума смогут убедиться, как защищены и насколько корректно используются эти данные.

Уже разрабатываются научные проекты, экспериментирующие с подобными механизмами — на уровне университетских сотрудников, персонала и студентов.

Другая возможность — разработка некоммерческого ИИ наподобие «Википедии» или Движения свободного программного обеспечения[148]. Наконец, кто-то может разработать децентрализованную блокчейн-сеть, которую не контролирует и на которую не может повлиять ни один человек либо организация (как на биткойн).

Хранение личных данных в распределенной сети сложнее реализовать, чем хранение биткойнов, но, возможно, и эту задачу со временем удастся решить.

Как бы там ни было, у каждой организации всех названных типов гораздо больше шансов соответствовать интересам пользователей, чем у компаний, чьи акции торгуются на бирже.

Постепенно могут появиться технологические решения, которые позволят усидеть на двух стульях — и получить мощный ИИ, и защитить личные данные даже от их владельца.

Решения в этом направлении ищет новая отрасль — «конфиденциальные вычисления». Например, федеративное обучение представляет собой основанную на ИИ методику, которая обучает его на множестве децентрализованных устройств, содержащих локальные образцы данных. По эффективности она приближается к централизованному обучению, но не дает видеть данные центральному владельцу ИИ.

Другой метод, известный как гомоморфное шифрование, кодирует информацию таким образом, что владелец ИИ не в состоянии ее расшифровать. ИИ обучается непосредственно на зашифрованных данных. Такой метод еще не работает в случае глубокого обучения, но можно ожидать новых прорывов и в этой области.