Внедрение искусственного интеллекта в бизнес-практику. Преимущества и сложности — страница 41 из 47

Проблемы Facebook с ИИ

Пожалуй, лучший пример признания вредоносного воздействия ИИ и его минимизации дает компания Facebook – хотя окончательный результат ее стараний еще неизвестен. Дело не в том, что ИИ вредит людям через Facebook, а в том, что компания пыталась использовать ИИ для предотвращения вреда, но пока не добилась успеха. Другие социальные сети также сталкивались с проблемами при внедрении ИИ, однако они были не столь серьезны. Как я отметил в главе 1, Facebook довольно рано и активно приступила к использованию ИИ, но не все при этом шло гладко. Компания внедрила машинное обучение и другие автоматизированные алгоритмы для работы с рекламой, в том числе для предложения категорий таргетинга потенциальным рекламодателям. Как оказалось, эти алгоритмы не распознают проявления расовой и религиозной ненависти. В сентябре 2017 г. на сайте ProPublica было опубликовано журналистское расследование, в котором говорилось, что репортеры

смогли использовать рекламную платформу Facebook для таргетирования пользователей, проявлявших интерес к таким темам, как «иудоненавистничество» и «немецкие Schutzstaffel», также известные как СС. Когда репортеры ProPublica попробовали впечатать в строку поиска слово «иудоненавистник», рекламная платформа Facebook предложила ряд связанных тем, включая «как жечь евреев» и «история о том, почему евреи правят миром»[156].

Facebook также критиковали за одобрение и продвижение большого объема фальшивых новостей из множества источников, включая российские источники, которые пытались повлиять на выборы в США и Европе[157]. Ленты новостей компании (в том числе раздел «Популярные темы») также пропускали фальшивые новости. Facebook использует автоматизированные алгоритмы, которые должны выявлять неуместные новости, рекламные материалы и записи, однако очевидно, что они не сумели справиться с задачей.

Компания (в частности, ее генеральный директор Марк Цукерберг) не сразу признала наличие проблемы с новостями и рекламными материалами о выборах. Изначально Цукерберг отмахнулся от «безумной» мысли, что Facebook использовали в попытке оказать влияние на американские президентские выборы 2016 г. Однако позже он признал наличие проблемы и сказал, что Facebook применяет несколько подходов для ее решения, включая:

● разработку технических инструментов для выявления фальшивых новостей, прежде чем о них сообщают пользователи;

● работу со сторонними группами фактчекеров для проверки историй;

● показ предупреждений рядом с историями, на которые пожаловались пользователи или представители сторонних групп;

● совершенствование механизмов размещения рекламы, чтобы не допускать появления фальшивых новостей, связанных со спамом;

● консультирование журналистов о технологиях фактчекинга[158].

Facebook запустил три инициативы, направленные на минимизацию негативного влияния алгоритмов компании на общество. Первая – увеличение штата (пока на 1000 человек, а затем еще почти на 10 000), чтобы быстрее и качественнее осуществлять проверку потенциально фальшивых или проблемных новостей, записей и рекламных материалов[159]. Вторая – смещение фокуса контента Facebook на друзей и близких пользователей, чтобы стимулировать значимое социальное взаимодействие[160]. Третья – предоставление пользователям Facebook возможности оценивать достоверность новостей, что, как предполагается, поможет в борьбе с фальшивыми новостями[161]. Пока неясно, помогут ли эти и предпринятые ранее шаги решить социальные проблемы, возникающие на Facebook. Стоит отдать компании должное – она уже запустила все эти инициативы в качестве пилотных проектов в ряде стран. Однако пока эксперименты не привели к решению проблем, а в ряде случаев даже усугубили их[162]. Друзья и близкие в своих постах реже ссылаются на профессиональные, объективные источники новостей. Исследование MIT показало, что одна из причин быстрого распространения фальшивых новостей (в частности, в Twitter), которые проникают гораздо глубже и охватывают бóльшую аудиторию, чем истинные новости, заключается в том, что многим людям они просто кажутся интереснее правды[163].

Проблемы Facebook с ИИ не ограничиваются фальшивыми новостями о политике и разжиганием ненависти. Компанию обвиняют в поощрении самоубийств посредством прямых трансляций соответствующих случаев, но выявлять и удалять подобные видео в реальном времени очень сложно (с такой же проблемой борется YouTube). Facebook также упрекают в усугублении проблемы информационного пузыря из-за предоставления пользователям только того контента, который они соглашаются видеть. Наконец, компания также имеет огромное количество фальшивых пользователей – аккаунтов несуществующих людей или мошенников. Для выявления подобных аккаунтов также используются алгоритмы ИИ, но пока с их помощью не добились серьезного успеха. По оценкам Facebook, в 2017 г. в социальной сети могло быть до 60 млн фальшивых аккаунтов[164].

Само собой, в некоторой степени Facebook – жертва собственного успеха. По данным опросов, Facebook служит основным источником новостей для 40 % взрослого населения США и имеет более двух миллиардов пользователей. Чтобы весь контент социальной сети проверялся сотрудниками, компании потребуется нанять количество людей, сопоставимое с численностью трудоспособного населения довольно крупных стран. Компании явно нужно продолжать использовать машинное обучение и другие формы ИИ для проверки и выборочного удаления контента, но пока ей не удалось достичь баланса вмешательств, чтобы решать все проблемы, возникающие из-за популярности социальной сети.

Другие компании, работающие в сфере социальных сетей, также столкнулись с проблемами при внедрении ИИ, однако они оказались не столь серьезны, как в случае с Facebook. Хорошо известен пример разработанного Microsoft чат-бота Tay, который научился отправлять разжигающие ненависть сообщения, наблюдая за комментариями американских пользователей в социальных сетях (китайская версия бота оказалась гораздо более вежливой). Запуск Tay производился в рамках исследовательского проекта, который был быстро прерван. Чат-бот публиковал твиты, но Twitter, похоже, не применяет ИИ для фильтрации неуместного контента (хотя использует машинное обучение для ранжирования твитов по прогнозируемому уровню интереса для пользователей). В Twitter также публиковались твиты с фальшивых российских аккаунтов, созданных для влияния на избирателей, но ИИ не сыграл роли в стимулировании или предотвращении этого.

Иными словами, главным недостатком ИИ в технологической отрасли и сфере онлайн-контента стала его неспособность предотвращать негативные тенденции в социальных сетях. Проблема в том, что некоторые компании, в частности Facebook, чересчур полагались на когнитивные инструменты в деле предотвращения антисоциального поведения. ИИ не стал источником проблемы, но не смог ее предотвратить.

Объективность ИИ и алгоритмическая предвзятость

Компании должны задаваться вопросом об объективности используемых ими систем ИИ и проверять, ко всем ли группам они относятся одинаково. Наличие алгоритмической предвзятости означает, что результаты некоторых алгоритмов машинного обучения ставят некоторые группы в невыгодное положение. Хотя создатели алгоритмов, возможно, не предполагали возникновения проблем предвзятости или дискриминации, они сами и их компании обязаны пытаться предотвращать их или решать по мере обнаружения. Проблема предвзятости не нова – с ней сталкивались и компании, использующие традиционные подходы к аналитике[165]. Искусственный интеллект, который может создавать и применять больше моделей за меньшее время, чем традиционная аналитика, просто ее усугубляет.

Чаще всего в качестве примера алгоритмической предвзятости приводят функционирование системы COMPAS (система профилирования преступников для применения альтернативных санкций), которая используется для рекомендаций наказаний при рассмотрении уголовных дел. В основе этой системы лежит относительно простая форма машинного обучения (она обучается на данных и создает систему оценки, которая затем применяется к новым данным), прогнозирует вероятность новых нарушений закона подсудимым и дает судьям рекомендации относительно строгости наказания. Исследование ProPublica показало, что для чернокожих подсудимых система прогнозирует неоправданно высокий риск рецидива преступлений, в то время как для белых подсудимых ее прогнозы оказываются заниженными[166]. Компания Northpointe Inc., разработавшая и продающая COMPAS, утверждает, что анализ ProPublica неверен[167].

Хотя создавшая COMPAS компания явно ориентирована на исследования, дебаты вокруг ее продукта привлекли внимание к другой проблеме, сопряженной с алгоритмической предвзятостью, – недостатку прозрачности. Не желая раскрывать секреты конкурентам, Northpointe отказывается обнародовать алгоритм, используемый для оценки подсудимых. В результате подсудимые, их адвокаты, судьи и наблюдатели не могут полностью понять основания (по крайней мере частичные) для вынесения приговора.

Обнародован был как минимум один алгоритм вынесения приговоров, который даже повысил вероятность назначения альтернативных тюремному заключению наказаний[168]