Ряд опросов показывает, что люди также не доверяют ИИ в других контекстах. Когда американским потребителям предложили выбрать из списка ИИ-сервисы, которым они доверяют (в список вошли, например, домашние помощники, услуги финансового планирования, медицинская диагностика и подбор персонала), 41,5 % респондентов признались, что не доверяют ни одному из сервисов. Всего 9 % доверяют ИИ управление своими финансами, и всего 4 % доверяют ИИ в процессе подбора персонала[188]. В другом опросе, в котором участвовали 2000 американских потребителей, задали вопрос: «Какие чувства вы испытываете при мысли об ИИ?» Чаще всего респонденты отвечали, что они чувствуют «заинтересованность» (45 %), но многие также чувствовали «тревогу» (40,5 %), «недоверие» (40,1 %), «неуверенность» (39,1 %) и «настороженность» (29,8 %). Были и другие, более позитивные ответы, но их выбирало гораздо меньшее количество респондентов[189].
Какую проблему обнажают эти опросы? И можно ли ее преодолеть? Я считаю, что ИИ имеет целый ряд свойств, которые необходимо учитывать, чтобы повысить доверие общества и бизнеса к нему.
ИИ широко разрекламирован, но реальные результаты применения технологии пока гораздо скромнее. Исследовательская компания Gartner полагает, что такие технологии, как когнитивные вычисления, машинное обучение, глубокое обучение и когнитивные советники, сегодня находятся на пике «цикла зрелости технологий» и движутся в сторону «низшей точки разочарования»[190].
Винить в этом следует прежде всего ажиотаж, стимулируемый поставщиками технологий и прессой. В главе 1 я упоминал об этой проблеме в связи с IBM, которая слишком много вкладывала в рекламу Watson и существенно преувеличивала возможности системы. Видный эксперт по искусственному интеллекту Орен Этциони назвал Watson «Дональдом Трампом сферы ИИ, [поскольку он] делает громкие заявления, не подтверждаемые надежными данными»[191]. Свой вклад в усугубление проблемы внесли и другие поставщики технологий, а к ним присоединилась и пресса.
Ажиотаж вокруг ИИ часто подпитывает основатель компании Tesla Илон Маск, который преувеличивает степень автономности автомобилей Tesla. Описывая функционирование автомобилей, компания использует термин «автопилот», который подразумевает полную автономность, и это не раз вызывало споры[192]. Автомобили Tesla способны к полуавтономному функционированию и впечатляют по другим параметрам, однако они еще явно не достигли полной автономности, хотя Маск часто ее рекламирует.
Некоторые компании подают пример, не слишком расхваливая свои ИИ-технологии. В главе 3 я упоминал об использовании интеллектуального агента в скандинавском банке SEB (агент называется Aida и разработан на основе технологии Amelia от Ipsoft). В SEB всегда сдержанно описывали возможности Aida: сначала агента запустили для внутреннего использования в службе технической поддержки (где он работает до сих пор и пользуется популярностью у сотрудников), а затем в экспериментальном порядке сделали доступным для клиентов. Aida называют стажером телефонного банка. Пресс-релиз SEB написан весьма сдержанно, особенно в сравнении с тем, как многие расхваливают свои ИИ-системы:
В настоящий момент Aida выполняет две основные функции: она работает в качестве цифрового сотрудника во внутренней службе технической поддержки банка, где говорит на родном английском, и стажируется в телефонном банке на seb.se, где учится говорить с клиентами на шведском… «Мы представляем Aida человеком, – продолжает Эрика [Лундин, руководитель Центра компетенции Aida], – а потому составляем для нее резюме, чтобы перечислить все ее достижения и навыки, а впоследствии планируем отправить ее на повышение квалификации, чтобы расширить сферу ее компетенции»[193].
Где бы вы ни использовали когнитивные технологии – хоть на внутреннем, хоть на внешнем уровне, лучше не обещать слишком многого и превосходить ожидания. Вводите новые компетенции в качестве бета-возможностей и обозначьте своей целью изучение использования технологий. Не исключайте альтернативные (как правило, ручные) подходы к решению проблем сотрудников и клиентов. Со временем, когда технологии окрепнут и способности ИИ расширятся, можно будет рассказывать о функциях машин с большей уверенностью.
Другой способ повысить доверие к системам и приложениям ИИ – полностью раскрывать информацию о системах и принципах их использования. Так, можно сообщать клиентам, что они работают с компьютерным интеллектуальным агентом, а не с человеком. Если же клиентам или сотрудникам компании предлагается гибридное решение, в рамках которого они работают как с людьми, так и с компьютерными системами, необходимо объяснять, кто за что отвечает.
Тексты соответствующих объяснений должны готовить не юристы, которые склонны формулировать мысли на сложном языке, а специалисты по маркетингу. Главное – дать клиентам понять, что они получают возможность попробовать что-то новое и получить помощь в любое время дня и ночи, ведь система вполне в состоянии справиться со многими возникающими у них вопросами.
Однако компаниям стоит проявлять осторожность при использовании ИИ в маркетинге. Результаты американского опроса, в котором приняли участие 2000 потребителей, показывают, что 87 % респондентов поддержит правило, запрещающее выдавать ИИ-системы, включая ботов, чат-ботов и виртуальных помощников, за людей. При ответе на более широкий вопрос 88 % респондентов сказали, что использование ИИ в маркетинге должно регулироваться этическим кодексом. При этом две трети опрошенных американцев считают, что компании и бренды могут использовать ИИ для обслуживания клиентов. Однако рекламное агентство, проводившее опрос, отмечает: «Необходимыми условиями для этого становятся прозрачность и раскрытие информации»[194].
Наше общество и экономика все сильнее полагаются на ИИ и машинное обучение, в связи с чем в будущем может возникнуть необходимость во внешней сертификации моделей и алгоритмов. Подобно тому как FDA сертифицирует эффективность лекарственных препаратов, аудиторы сертифицируют финансовые процессы, а компания Underwriters Laboratories сертифицирует безопасность продуктов, заслуживающие доверия организации – в государственном и частном секторе – должны проверять надежность, воспроизводимость и точность алгоритмов ИИ.
Финансовый консультант Адам Шнайдер первым показал мне перспективы сертификации ИИ. Он приводит несколько примеров ситуаций, в которых сертификация ИИ должна стать обязательной:
● Вождение автомобилей. Нужен ли нам наблюдательный совет для анализа ошибок беспилотных автомобилей, сопоставления различных подходов к ИИ, сравнения продуктов разных производителей и мониторинга прогресса?
● Диагностика заболеваний. Нужен ли нам протокол проверки достаточного количества диагнозов силами врачей с использованием статистически достоверных техник, прежде чем ИИ будет признан надежным?
● «Роботизированные» инвестиции. Одна компания заявила: «У нас есть ИИ, который прошел всесторонние испытания». Достаточно ли такого раскрытия информации? Что значит «у нас есть ИИ»? Не стоит ли определить стандарты, прежде чем рекламировать технологии ИИ несведущим в них инвесторам?[195]
Время для такой сертификации еще не настало, однако я слышал об одном примере, соответствующем описанию Шнайдера. Я беседовал с консультантом Deloitte Кристофером Стивенсом о работе с роботизированными советниками в сфере инвестиций и управления капиталом. Он сказал, что компания уже оказывает услуги по сертификации и консультированию финансовым организациям, использующим роботизированных советников. Для этого она контролирует работу технологий и периодически тестирует их эффективность, проводит оценку коммуникации с клиентами и уровня раскрытия информации, а также оценивает алгоритмы и степень соответствия правилам биржевой торговли[196]. Я не знаю, станут ли другие компании предлагать подобные услуги и будут ли они востребованы у клиентов, но, учитывая важность сертификации для эффективного использования ИИ, подозреваю, что она действительно будет введена. Впрочем, чтобы она стала обязательной, вероятно, придется дождаться серьезного сбоя, который получит широкую огласку.
Кроме того, велика вероятность появления автоматизированных подходов к сертификации точности ИИ-моделей. Профессор Калифорнийского университета в Беркли Бен Рехт заметил (рассуждая о сложной модели управления самолетами, разработанной компанией Airbus):
Мы пытаемся внедрить (системы машинного обучения) в беспилотные автомобили, энергосети… Если мы хотим, чтобы модели машинного обучения действительно оказывали воздействие на повседневную жизнь, нам нужно обеспечить соблюдение таких же гарантий, которые дают сложные системы управления воздушными судами[197].
К гарантиям, о которых говорит Рехт, относятся автоматизированные инструменты, которые будут подтверждать, что модель и процесс машинного обучения будет корректно работать в производственном контексте, и рассчитывать вероятность ошибок. Лаборатория Рехта в Беркли занимается разработкой таких инструментов, но они пока не готовы для широкой коммерческой реализации.