Сила этики. Искусство делать правильный выбор в нашем сложном мире — страница 37 из 56

и насколько ваши взгляды соответствуют принятым в обществе нормам. Это упражнение может помочь вам быстро восстановить более четкие границы для себя и других. Как и в трехмерной игре в крестики-нолики, чем больше различных сценариев вы оцените, тем лучше представите себе перспективу.


Каждая из историй – Софии, Лилли и доктора Накаути – показывает размытые границы по-своему. Но когда вы размышляете о том, что они значат для вас, и интерпретируете их, используя этическую схему и шкалу, взгляните внимательнее на нюансы, сопровождающие размытие. Я имею в виду то, как именно в этих историях отразилась размытая грань между человеком-машиной и человеком-животным.

Обратите внимание на тонкие, но невероятно важные различия в том, как Лилли, Дэвид Хэнсон и доктор Накаути воспринимают человечество и трактуют размытые границы. Например, Лилли не пытается переопределить человечество, она не считает, что ее партнер-робот становится все более человечным. Напротив, ей «очень нравится» нечеловеческая предсказуемость inMoovator, она хочет вступить с этой машиной в эмоциональные и законные отношения. Зато Дэвид Хэнсон уверен, что роботы помогут нам переосмыслить, что это значит – быть человеком. Он стремится расширить границы и размыть наши отношения с машинами, создавая роботов, которые становятся все более похожими на людей в физическом, эмоциональном и интеллектуальном аспектах. Исследования Накаути проходят по обе стороны границы, разделившей людей и животных, но он привержен этике и заботится о благосостоянии людей. Он ведет научный поиск, стремясь спасать жизни; он не пытается переосмыслить ни человечество, ни даже животных.

Для меня исходной точкой должна быть истина. Называйте машину машиной, а животное животным. И тут аргументы Хэнсона заставляют меня задуматься: можем ли мы научиться быть более гуманными у машины – и это не то же самое, что сказать, что мы должны относиться к этим машинам как к людям, даже если они человекоподобные и все больше походят на людей.


Лауреат Нобелевской премии Тони Моррисон в своем эссе «Война против ошибок» (War on Error) рассуждает так: «…сегодня законодательно ограничить работу ИИ важно как никогда, поскольку мир сейчас в большем отчаянии; поскольку руководящие органы сейчас более стеснены, более равнодушны, более рассеяны, более некомпетентны, больше нуждаются в творческих стратегиях и ресурсах»[526]. К сожалению, нам катастрофически не хватает управленческого и регулирующего аппарата, необходимого для управления рисками и использования преимуществ размытых границ на передовой[527].

Что еще важнее, мы совершенно недооцениваем неотложность и масштаб проблем, которые ставит перед обществом ИИ. Ученый в области компьютерных наук Фей-Фей Ли и бывший проректор Стэнфорда Джон Этчеменди вместе управляют Стэнфордским Институтом человекоориентированного ИИ (HAI)[528]. (А я член его консультативного совета.) Профессора Ли и Этчеменди призывают обратить внимание на то, как сильно отстает Америка в вопросах политики, образования и инвестиций в исследования: это «национальная катастрофа, которая происходит прямо сейчас»[529]. Этих экспертов больше беспокоят экономические и социологические возможности и риски, чем апокалиптические сценарии о роботах-убийцах. Но они, по сути, подчеркивают то, что передовая сейчас расширяется: быстро увеличивается дистанция между эффективным управлением и регулированием, основанными на фактах, с одной стороны, и технологией, которую они называют «мультипликатором силы (усиливающим фактором) наших самых лучших – и самых худших качеств»[530], с другой стороны.

Какими бы вдумчивыми ни были ученые, занимающиеся вопросами ИИ и робототехники, нам по-прежнему нужны механизмы глобального управления, которые могли бы действовать в рамках различных национальных правовых систем, даже там, где эти системы терпят неудачу. И мы по-прежнему сталкиваемся с проблемой, когда неблагонамеренные деятели ускользают из любых сетей, как мы видели в случае с Хэ Цзянькуем.

В июне 2019 года состоялась встреча министров торговли и министров цифровой экономики стран «Большой двадцатки»[531]. Они сформулировали ряд принципов, признав проблемы, с которыми мы сталкиваемся в связи с появлением новых технологий. Принципы «Большой двадцатки» еще раз подтвердили приверженность подходу к ИИ, ориентированному на человека. В то время как правительства, организации и эксперты в один голос призывают к участию общественность, общественность не собирается поднимать голос и включаться в обсуждение. Людям нужно сначала понять, что поставлено на карту – и как можно включиться. Эта книга призвана подкрепить эти усилия путем широкого обсуждения этических вопросов ИИ и других глобальных этических проблем, в которое вовлечены как эксперты, так и неспециалисты[532].

Обычные граждане и правительства разных стран уже стараются вновь привязать машины, размывающие границы, к законам и регулятивным нормам, будь то законный брак (Лилли), гражданство (София) или стандарты национального исследовательского института здравоохранения (Накаути). Еще более безотлагательно и гибко нам нужно подойти к нормам и стандартам права с иной точки зрения: учесть точку зрения неспециалистов при продумывании правил и директив; не упускать из внимания «грань», передовую, по мере того как она смещается; и, подобно доктору Накаути, удостовериться в том, что эти нормативы принесут обществу наиболее важные выгоды, и разграничить уровни риска.

Все мы также можем быть правдивыми в отношении того, что на самом деле представляют собой эти инновации – и как мы с ними взаимодействуем. А технологи могут создавать алгоритмы, которые с помощью фильтров находят и закрепляют истину. Люди бывают нерациональными и непредсказуемыми, но мы строим наши отношения и общества на основе доверия, которое держится на истине. Мы не можем допустить того, чтобы истина была скомпрометирована в каком бы то ни было контексте. Мы не можем позволить, чтобы наше «Алгоритмическое общество» стало усиливающим фактором для искажений и дискредитации правды.

Глава 6Истина под угрозой

Через два дня после инаугурации президента Трампа в январе 2017 года я тренировалась в спортзале и одновременно смотрела новости. Белый дом заявил, что эта инаугурация собрала самую большую аудиторию за всю историю[533], и ведущий еженедельной передачи «Встреча с прессой» (Meet the Press) Чак Тодд оживленно обсуждал это со старшим советником президента Келлиэнн Конуэй[534].

«Вы не ответили на вопрос, почему президент попросил пресс-секретаря Белого дома впервые встать перед трибуной и сказать ложь. Зачем он это сделал? – настаивал Тодд. – Это подрывает доверие ко всей пресс-службе Белого дома в первый же день».

«Нет, это не так, не раздувайте из этого такую драму, Чак, – отвечала Конуэй. – Вы говорите, что это ложь, а… Шон Спайсер, наш пресс-секретарь, привел альтернативные факты». Я чуть не свалилась с эллиптического тренажера. Альтернативные факты. Альтернативные факты.

«Минуточку, альтернативные факты? – перебил Тодд. – Это не факты. Это ложь». Конуэй не дала прямого ответа, а вместо этого выдвинула ряд обвинений против предыдущей администрации. Когда Тодд вновь задал ей вопрос об этом новом термине, Конуэй стояла на своем: «Подсчитать количество человек в толпе на самом деле невозможно, все мы это знаем». Позже, назвав расспросы Тодда «опасными», Конуэй сказала: «Вот почему мы чувствуем, что должны пойти и прояснить обстановку, показать всем альтернативные факты».

«Да кто вообще так говорит – альтернативные факты?» – подумала я. И ответ почти сразу пришел мне на ум: авторитарные режимы. Лживые, контролирующие доступ к информации, распространяющие ложь, которая лучше соответствует их истории, – все это стратегии, которые применяют диктаторы для распространения дезинформации, использования правды в качестве оружия и укрепления своей власти. Нормализация «альтернативных фактов» ослабляет верховенство закона и угрожает демократическим институтам. Я взяла сумку и вышла из спортзала. Мне было ясно, что мы переживаем определяющий эпоху момент: когда истина становится одним из возможных вариантов, все здание этики рушится.

Уже через час я написала директору программы государственной политики в Стэнфорде, предлагая новый курс. Когда меньше чем через три месяца начался весенний семестр, я впервые стала вести курс «Этика истины в мире постправды». Но даже тогда я не могла себе представить, до какой степени альтернативные факты просочатся в нашу риторику и в наши решения.

В конце марта 2017 года, когда я шла по кампусу Стэнфорда в первый день нового курса, студенты раздавали ярко-розовые резиновые браслеты с белыми надписями «Правда имеет значение». В то время меня поражало, насколько очевидным казалось бы это утверждение всего лишь несколько месяцев назад. Но к тому моменту выражение «альтернативные факты» уже стало растиражированным, закрепилось в американской речи. Это был пугающий сигнал, предупреждающий, что мы как граждане должны быть готовы терпеть неправду даже на самых высоких уровнях власти. Я взяла сразу несколько браслетов, чтобы поделиться ими со своими студентами.

За те годы, что я веду курс «Этика истины в мире постправды», студенты постоянно удивляли и впечатляли меня, разрабатывая такие темы, как «субъективная правда в сравнении с объективной», «истина и идентичность», «подлинность» и «истина и история». Кульминацией курса становится написание работы на тему «Имеет ли значение истина? И если да, почему и каким образом?». Пока что только один человек попробовал доказать, что исти