Искусственный разум и новая эра человечества — страница 16 из 33

Итак, все эти проблемы, безусловно, существуют. Но правительства, которые пытаются реагировать на происходящее, должны делать это с большой осторожностью. Любой государственный подход к процессам сетевых платформ, будь то запрет, ограничение или одобрение, будет результатом волевого решения, выбранного оценочным путем. Требуя от платформ маркировать определенный контент как тенденциозный или вовсе блокировать его, требуя от ИИ выявлять предвзятую или ложную информацию и понижать ее рейтинг, правительства могут сильнейшим образом влиять на социальную политику. Вопрос, как решать эти проблемы, стал предметом жарких дебатов во всем мире – особенно в технологически развитых свободных странах. Любой подход гарантированно будет работать в масштабах, значительно превосходящих почти любое прошлое правовое или политическое решение, – с потенциально мгновенным воздействием на повседневную жизнь миллионов или миллиардов пользователей в многочисленных государственных юрисдикциях.

Взаимодействие сетевой платформы и государственной политики приведет к непредсказуемым и в некоторых случаях весьма спорным результатам. Скорее всего, это будут не однозначные результаты, а ряд дилемм с довольно незрелыми решениями. Будут ли попытки регулирования сетевых платформ и их ИИ соответствовать политическим или социальным целям различных стран (таким как снижение преступности или борьба с предвзятостью), приведут ли они в конечном итоге к созданию более справедливых обществ? Не появятся ли в результате еще более жесткие, авторитарные правительства, которые поставят себе на службу ИИ с неизвестной логикой, чтобы принимать решения, не подлежащие обжалованию? Будут ли глобальные сетевые платформы, управляемые ИИ, способствовать развитию человеческой культуры и поиску решений, применимых к разным национальным традициям или системам ценностей? Или результаты их работы будут неожиданными, незапланированными и противоречащими тому, к чему стремились их разработчики-люди?

Государственные границы давно уже перестали быть препятствием для новых идей и тенденций, включая созданные со злым умыслом, – но никогда распространение информации не приобретало таких масштабов, как теперь. В основном все согласны с тем, что намеренное распространение дезинформации, способной определять социальные тенденции или политические события, важно предотвращать, но делать это в реальности слишком сложно. В будущем информационными атаками и защитой от них – то есть распространением дезинформации и борьбой с ней – все больше будет заниматься ИИ. Например, генерирующий язык ИИ GPT-3 способен создавать искусственные персоны и вступать в беседы с пользователями, и есть потенциальная возможность того, что эти персоны будут внушать своим собеседникам предрассудки и даже подталкивать их к насилию[38]. Если подобный ИИ будет развернут для масштабного распространения ненависти и раскола, люди могут оказаться не в состоянии противостоять этому. Для решения столь масштабной и сложной задачи правительствам и операторам сетевых платформ придется обратиться, как это уже делается, к алгоритмам ИИ для модерации контента.

Свободные страны используют сетевые платформы с поддержкой ИИ для создания и фильтрации контента через национальные и региональные границы. Если результатом работы этих платформ становится непреднамеренная пропаганда ненависти, такие страны сталкиваются с новой угрозой и должны рассматривать новые подходы к охране информационной среды. Подобные опасения подталкивают нас к созданию и внедрению сложных инструментов, управляемых ИИ, которые будут обнаруживать и удалять источники дезинформации, – по сути, алгоритмических патрульных для удаления вредного контента[39]. Такие решения, основанные на использовании ИИ, будут, в свою очередь, порождать новые проблемы. В любом случае проблема дезинформации весьма актуальна – как и вопрос о сохранении баланса между человеческим суждением и решениями, принимаемыми ИИ.

Перспектива использования ИИ для оценки и, возможно, цензуры информации приводит привыкшие к свободному обмену идеями общества к сложным и фундаментальным дебатам. Поскольку мощь и автономность инструментов для борьбы с дезинформацией растет, процесс выявления и подавления дезинформации становится важной социальной и политической функцией. У частных корпораций или демократических правительств в результате появляется необычная и не слишком желательная степень влияния на социальную и культурную сферы, которые ранее никем не управлялись и не контролировались, естественным образом развиваясь в физическом мире.

Некоторые склоняются к тому, что эту задачу должен выполнять ИИ, предназначенный для выявления и пресечения дезинформации, свободный от человеческой предвзятости или пристрастности. Но как правильно поступать с малоизвестным контентом, который практически никто не видел, – по сути, несуществующим? А если оборонительный ИИ совершает ошибку, удаляя контент, который не несет вреда, – как это исправлять? И что делать с дезинформацией, сгенерированной ИИ? Возможность обучить некий оборонительный ИИ определенному стандарту дезинформации и контролировать его работу станет функцией фундаментальной важности и влияния, не менее сильного, чем у правительства. Небольшие различия в задачах таких ИИ, параметрах обучения и определениях дезинформации могут изменить общество в целом, ведь сетевые платформы используют ИИ для предоставления своих услуг миллиардам людей.

TikTok, сетевая платформа с поддержкой ИИ для создания и обмена короткими забавными видео, неожиданно оказалась примером проблем использования ИИ для коммуникаций – особенно в тех случаях, когда видео произведены в одной стране, а просматриваются в другой. Пользователи TikTok снимают и размещают видео с помощью своих смартфонов, а собственные алгоритмы ИИ рекомендуют контент, который может понравиться пользователям, основываясь на предыдущих просмотрах. Платформа разработана в Китае и популярна во всем мире, она не создает видео сама и не модерирует его создание и размещение – не считая ограничений на хронометраж и запретов на дезинформацию, экстремальную жестокость и определенные виды контента. Теоретически в TikTok можно показывать все, что угодно, – например, видео водопада, чтение стихов или выдержки из Канта. Но на практике в TikTok такое не смотрят. Как и на других сетевых платформах, пользователи TikTok смотрят то, что рекомендует ИИ платформы. ИИ TikTok берет в расчет предпочтения пользователей и, используя собственный алгоритм выбора контента, рекомендует к просмотру одни видео и оставляет без внимания другие, что в итоге формирует у пользователей определенную картину мира.

Для обычного зрителя TikTok – не более чем массив забавных коротких видеофрагментов, изображающих танцы, шутки или необычные навыки. И тем не менее в 2020 г. платформа TikTok была запрещена или ограничена правительствами Индии и США из-за опасений насчет персональных данных пользователей и скрытых возможностей цензуры и дезинформации. Кроме того, Вашингтон добивался продажи американского подразделения TikTok американской компании, которая могла бы хранить данные пользователей внутри страны, не допуская их экспорта в Китай. В свою очередь, Пекин запретил экспорт кода, поддерживающего алгоритм рекомендаций, который и лежит в основе эффективности и привлекательности TikTok. В перспективе возможно, что, даже если платформа TikTok будет управляться местной компанией в США или Индии, работа сервиса все равно будет зависеть от ИИ, точные цели и функции которого известны только в Китае.

Какими будут политические, юридические и технологические последствия этих действий, пока неизвестно. Тот факт, что забавное развлекательное приложение с поддержкой ИИ вызвало такое беспокойство на государственном уровне, говорит о том, что в ближайшем будущем нас ждут еще более странные геополитические и нормативные ребусы. А тем временем все больше сетевых платформ, использующих все более сложные ИИ, – и в первую очередь те платформы, которые обеспечивают связь, развлечения, ведение бизнеса, финансы и промышленные процессы, – будут проникать через государственные границы.

Правительства и регионы

Новые культурные и геополитические загадки сетевых платформ касаются не только отдельных стран, но и – поскольку такие технологии не имеют границ – отношений между правительствами. Даже при существенном и продолжительном вмешательстве государства большинство стран – включая технологически развитые – не смогут создать компании, производящие или поддерживающие независимые версии важных сетевых платформ (например, используемых для социальных сетей, веб-поиска и т. д.). Темпы технологических изменений слишком велики, а количество высококвалифицированных программистов, инженеров, специалистов по проектированию и разработке продуктов ограничено. Учитывая рыночный спрос, темпы технологического развития и существующие тенденции формирования стоимости продуктов и услуг, все страны не смогут поддерживать независимые версии всех сетевых платформ. Чтобы оставаться на передовой технологического развития, нужно иметь более существенный интеллектуальный и финансовый капитал, чем у большинства компаний и чем тот, который в состоянии выделить правительства. В любом случае многие пользователи не станут ограничиваться национальной сетевой платформой с исключительно местным контингентом и созданными внутри страны приложениями и контентом. Динамика положительных сетевых эффектов будет поддерживать лишь самые передовые платформы.

Многие страны находятся в зависимости от сетевых платформ, разработанных и физически размещенных в других странах, – и такая зависимость будет сохраняться еще долго. Это означает, что в вопросах непрерывности обслуживания, развития и международных обновлений платформ они будут зависеть (по крайней мере частично) от регуляторов других стран. Поэтому правительства многих стран будут требовать гарантий непрерывной работы зарубежных онлайн-сервисов, важных для общества. В частности, они будут пытаться регулировать деятельность владельцев или операторов сетевых платформ – например, требуя от разработчиков мер по предотвращению определенных форм неравноправия или решения конкретных этических проблем (неизбежных, поскольку ИИ взаимодействует с такими аспектами общества, как здоровье, безопасность и национальный дискурс). То, что может восприниматься как ценная функция в одной стране, в другой стране может быть воспринято с предубеждением или даже нарушать местные законы или этические нормы.