Эта проблема, к сожалению, усугубляется с каждым днем, поскольку технологии, используемые для распространения информации, становятся все более продвинутыми. Мы уже находимся на той стадии, когда почти невозможно отличить поддельные изображения, видеоматериалы или аудио от реальных и когда создавать и распространять поддельные «факты» с помощью широкодоступных технологий становится все проще. При этом технологии, используемые для различения подделок и реальности, все еще слишком легко обмануть. Поэтому нам придется как можно быстрее найти способы и разработать стратегии борьбы с дезинформацией и фейковыми нарративами. Это потребует сочетания технологических решений и изменений в обществе и законодательстве.
Когда мы сегодня слышим об использовании алгоритмов искусственного интеллекта и машинного обучения, это, как правило, предполагает несколько негативный контекст фильтрации информации, с целью сделать нас более легкой мишенью для рекламодателей. Однако гораздо более коварным является тот факт, что эта же технология используется для распространения дезинформации и делает фейк почти неотличимым от реальности. Но искусственный интеллект можно использовать и во благо. Он может проверять, оценивать и фильтровать данные для нашей пользы. Вскоре мы разработаем усовершенствованные алгоритмы для выявления, блокирования или удаления онлайн-контента, признанного ложным или вводящим в заблуждение.
Сейчас мы наблюдаем, как технологический прогресс движется в противоположных направлениях. Хотя создать убедительную фальшивку становится все проще, ту же технологию можно использовать и для проверки этой информации. Какая из этих двух конкурирующих сил (добро против зла) в конце концов победит, зависит от нас и от того, как мы будем реагировать.
Пессимисты, естественно, спросят, с чьей же правдой мы в итоге останемся. Некоторые могут даже возразить, что личная свобода должна цениться выше истины. Они скажут, что усиление цензуры и массовой слежки приведет к созданию официальной «правды», с которой обществу придется соглашаться. Или, возможно, они обеспокоены тем, что технологии, используемые для фильтрации фейковой информации, внедряются влиятельными корпорациями, например Facebook и Twitter, которые сами по себе не являются полностью объективными и могут иметь свои корыстные интересы и политические идеологии.
Безусловно, отрадно видеть, что многие крупные социальные сети в настоящее время начинают внедрять все более сложные алгоритмы для борьбы с контентом, который общество в целом считает морально нежелательным, таким как подстрекательство к насилию, опасные идеологии, расизм, женоненавистничество и гомофобия, а также информация, фальшивость которой не оставляет сомнений. Однако передача этой ответственности на «аутсорсинг» частным и крайне могущественным организациям, цель которых состоит все-таки в получении прибыли, может оказаться не совсем желательной в долгосрочной перспективе. И если нам придется это делать, то мы должны найти четкие способы привлечения таких организаций к ответственности за шаги, предпринимаемые от нашего имени.
Некоторые даже утверждают, что любая система, способная оценивать информацию как истинную или ложную, по сути своей необъективна. Однако, хотя верно то, что проектированием этих систем занимаются люди, имеющие ценности и предубеждения, это слишком вольное использование данного аргумента, которое я лично не приемлю. По мере того как ИИ становится все более продвинутым, он безусловно помогает нам отсеивать ложь от фактов, подкрепленных настоящими доказательствами, но он также может выявлять места, где существует неопределенность, субъективность и различные нюансы. В известном комедийном скетче на британском телевидении некто, играющий роль сотрудника службы поддержки клиентов, предлагает им генерируемые компьютером решения и всегда отвечает на самые разумные запросы клиентов фразой: «Компьютер говорит “нет”». Сейчас технологии ушли далеко вперед. Достижения последних лет означают, что ИИ вскоре сможет интегрировать в свои алгоритмы нравственное и этическое мышление, что позволит ему защищать такие права, как свобода слова, и одновременно отсеивать и блокировать ложные нарративы и дезинформацию. Нам нужно контролировать предвзятость, и поэтому то, какие именно моральные принципы закодированы в этих алгоритмах, следует открыто и коллективно обсуждать всем обществом. Что насчет религиозных и светских убеждений? Что насчет культурных норм? То, что одни члены общества считают приемлемым и даже необходимым моральным стандартом, для других – табу.
Всегда найдутся те, кто с недоверием относится к любым попыткам отделить правду от лжи. В каком-то смысле это неизбежно. Это не признание поражения, но такова реальность. Мы не можем надеяться убедить всех, но, как общество, должны попытаться сделать так, чтобы никто, намеревающийся распространять ложь и дезинформацию в своих гнусных целях, никогда не получил большого влияния, ведь это может иметь далекоидущие последствия и потенциально изменить курс развития человечества. История знает немало деспотичных правителей, неприятных политических лидеров и лжепророков, которые с помощью силы, принуждения и лжи убедили миллионы следовать за ними. Такие люди будут всегда. Но мы можем попытаться помешать им использовать науку и технологии для продвижения своей повестки.
В чем же тогда заключается урок? Я старался заканчивать каждую главу на позитивной ноте, но в этот раз вырисовывается довольно мрачная картина. Итак, есть ли в будущем надежда на то, что истина восторжествует над ложью? Существует расхожее мнение, что ситуация, вероятно, ухудшится, прежде чем стать лучше, но мы разрабатываем инструменты для решения этой проблемы. Можно снова обратиться к научному методу. Когда заявляется, что информация подтверждена доказательствами, возникает необходимость оценить качество этих доказательств, например, присвоив им «уровень достоверности». Таким образом, наряду с изложением любого утверждения, нам следует также пытаться оценить связанную с ним неопределенность. Каждый ученый знает, как наносить планки погрешностей на точки данных; мы должны делать то же самое – по духу, а не буквально, – сталкиваясь с новой информацией. Для этого нам нужно будет разработать технологии искусственного интеллекта, которые бы присваивали информации «индекс доверия», показывающий, как достоверность информации связана с предполагаемой надежностью источника сведений. Если источник (новостное издание, интернет-сайт или даже отдельный «инфлюенсер» в соцсетях) помечен как распространяющий фейковые новости, то он будет иметь более низкий индекс доверия.
Мы также делаем успехи в так называемых семантических технологиях, цель которых – помочь ИИ интерпретировать и по-настоящему понимать данные, кодируя значение отдельно от кода приложения. Семантические технологии радикально отличаются от того, как машины традиционно интерпретируют данные, когда смысл и взаимосвязи жестко встроены в код программистами-людьми. Подобно машинному обучению, семантические технологии ведут нас по пути к искусственному интеллекту в истинном смысле этого слова.
Однако, как проблема фальшивых новостей и дезинформации не является виной одних толь- ко технологий, так и решение лежит не только в плоскости технологических достижений. Это, в сущности, социальная проблема, усугубленная технологиями, и как таковая она требует социальных решений. Статистик Дэвид Шпигельхалтер говорит, что самым большим фактором, определяющим устойчивость людей к дезинформации, является умение считать. Он имеет в виду, что важно иметь определенный уровень понимания и оценки данных и статистики – обладать так называемой информационной грамотностью. Одна из трудностей состоит в том, что средства массовой информации, а также политики не обучены четко и точно передавать данные и результаты, и поэтому им нужно уметь распознавать, когда информация необходима и как ее получить, оценить и эффективно использовать. Вместо того чтобы полностью полагаться на хитроумные технологии, указывающие нам, во что верить, а во что нет, нам всем следует развивать в себе навыки критического мышления. Для этого мы должны обратиться к соответствующим фундаментальным навыкам в нашей системе образования. Таким образом, наряду с захватывающими крутыми технологиями, нам необходимо лучше изучать гражданское право, развивать навыки критического мышления и повышать информационную грамотность.
Как общество, мы все должны научиться применять методы науки: разрабатывать механизмы преодоления трудностей, оценивать неопределенность – непредвзято относиться к информации, о которой мы знаем не всё. Хотя бесспорно и печально, что значительная часть населения не обладает ни навыками, ни умением справляться с растущей сложностью, верно также и то, что невежество часто приводит к разочарованию, крушению иллюзий и беспомощности, а это создает почву для возникновения и распространения дезинформации и фейковых нарративов. Эти проблемы всегда существовали и никогда не исчезнут. Людям свойственно сплетничать, выдумывать, преувеличивать, а власть предержащие всегда будут использовать пропаганду или искажение правды в политических или финансовых целях. Но мы не можем отрицать, что с развитием технологий эти проблемы обострились.
Я всегда был оптимистом и склонен верить в хорошую сторону человечества. Люди неизменно находили способы преодолеть свои проблемы с помощью инноваций и изобретательности, что в целом делало мир лучше, а не хуже[27]. Поэтому я уверен, что мы найдем решения, будь то технологические или образовательные. Однако, если мы хотим добиться успеха, нам нужны мотивация и сила духа. Мы должны отстаивать реальность, истину. Мы должны учиться здравому смыслу, развивать свои аналитические способности, помогать своим близким делать то же самое и требовать того же от наших лидеров. Мы все должны… мыслить более научно. Именно так мы сможем лучше понимать вызовы, которые бросает нам реальный мир, и противостоять им, а также принимать более удачные решения в своей жизни. Именно так мы сможем отстоять реальность, которую мы хотим д