На заре новой эры. Автобиография отца виртуальной реальности — страница 70 из 71

.

Из реального источника новостей, например «New York Times», я получаю новости, и на этом все. Если бизнес-модель «Times» подразумевает, чтобы я попутно просматривал и рекламу, и, возможно, она в чем-то меня убедит, замечательно. Но если бизнес-модель заключается в том, чтобы заставлять меня управлять своим выбором весь день часами напролет, то реальные новости не особенно имеют смысл. Их прочитывают – с концами – слишком быстро.

В отличие от обычных новостей новостным лентам выгодно, чтобы я был нервным, перепуганным, лишился ощущения безопасности или сердился. Именно это и будет удерживать меня в ящике Скиннера, где система решит, на какую кнопку мне легче всего нажать.

Актуальная бизнес-модель социальных сетей требует, чтобы они стали частью жизни пользователя на протяжении всего времени, которое он проводит бодрствуя, даже посреди ночи, если ему не спится. Реальные новости и взвешенные мнения не особенно хорошо служат этой цели[171]. Трезвое размышление о реальности не занимает слишком много времени.

Вместо этого компании – владельцы социальных сетей поддерживают в людях гнев, страх и ощущение незащищенности. Или же сервис может вытеснять из жизни пользователей друзей и членов семьи, возможно внушая пользователям чувство вины. Самая эффективная ситуация – та, в которой пользователь постоянно вовлечен в странные спирали коллективного согласия или несогласия с другими пользователями. Они никогда не закончатся, в чем и смысл.

Компании ни планируют эти схемы использования сервисов, ни воплощают их. Вместо этого они платят за грязную работу третьим лицам. Например, таким, как те македонские подростки, готовые за деньги публиковать мерзкие фальшивки. Или даже американцы, готовые на то же самое за несколько лишних баксов[172].

Компании – разработчики технологий не требуют от пользователей становиться тонкокожими дергаными параноиками или жить в отрыве от реальности; такие хрупкие снежинки лишь часть быстрого решения абсолютно математической головоломки, сформулированной весьма открыто: как выдать вовне наибольший объем трафика, чтобы завладеть наибольшим объемом времени и внимания пользователей?

Если пользователи рассматривают соцсети не как нечто, не имеющее веса, а как источник своей профессиональной ценности, тогда соцсети ничего этого не стоят, и мусорный постинг там встречается намного реже, как в случае с LinkedIn. Отсутствие веса легко и забавно, но некоторое количество весомости не помешает для того, чтобы отыскать в природе пользователей хоть что-то светлое.

Завершая картину взаимодействия двух полубогов, стоит отметить, что ориентированная на невесомость бизнес-модель социальных сетей – лишь один пример тенденции, при которой компании используют мощные компьютеры для управления процессами обмена, в которых они отделяют риск от выгоды. В качестве еще одного примера: владельцы грязных ценных бумаг, обеспеченных пулом ипотек, которые привели к Великому экономическому спаду, не хотели знать, что именно они продавали, точно так же как компания Google не хотела знать, что ее страница поиска сообщала о том, кто победил в результате голосования избирателей на президентских выборах 2016 года. (Основными новостями через некоторое время после выборов были фальшивые сообщения о том, что Трамп получил больше голосов, чем Хилари Клинтон.) Знать – это принимать на себя обязательства, в то время как не знать – это держать казино, где рискуют все остальные.

Требование от искусственного интеллекта чинить самого себя абсурдно

Что, если новый полубог не одолеет старого? Возможно, компаниям – владельцам соцсетей стоит пересмотреть способ получения прибыли. Может быть, что-то близкое к этому – лишь попытка поддерживать на плаву алгоритмы, которые всегда будут пытаться рухнуть под напором финансовых поощрений.

Внесу ясность: я не думаю, что этические фильтры сработают, учитывая современный уровень научного понимания. Подобные решения будут лишь обходить, и они погрязнут в еще большем количестве манипуляций, коррупции и абсурда. Если способ защитить людей от искусственного интеллекта сам больше похож на искусственный интеллект, как в случае предполагаемых алгоритмов с этикой, с тем же успехом можно сказать, что сделано ничего не будет, поскольку сама идея несет в себе абсурд. Это фантазия о фантазии.

На сегодняшний день не существует научного описания идеи в мозге. Возможно, оно еще появится, но сейчас у нас его нет; так что нет возможности даже сформулировать, как примерно будет выглядеть встраивание этики в алгоритм. Все, что сейчас могут алгоритмы, – это суммировать, чем занимаются люди по данным нашего впечатляющего режима глобальной слежки через интернет. И мы превращаем многих из этих обычных людей в уродов.

Но, ради продолжения спора, предположим, что попытки компаний – разработчиков технологий противодействовать мусорному постингу с помощью так называемого искусственного интеллекта будут иметь впечатляющий успех. Предположим, алгоритмы фильтрации мусорных постов настолько безупречны, что им начнут доверять все без исключения. Но даже тогда лежащие в их основе экономические выгоды останутся неизменными.

Вероятен вариант, что появится другой оптимальный способ поставлять трафик невротикам, но в общем и целом результат будет похожим.

В качестве примера нового источника невротизации рассмотрим, как американские спецслужбы обвинили российские спецслужбы во вмешательстве в президентские выборы. Метод заключался не только в отправке мусорных постов, но и в использовании в качестве «оружия» WikiLeaks, чтобы выборочно распределить информацию, которая навредила только одному кандидату.

Предположим, что компании – разработчики технологий будут применять этические фильтры для блокировки опасных выборочных утечек информации. Следующим шагом может стать неосознанное создание паранойи в отношении кого-то или чего-то с целью заполучить внимание.

Если компании применят фильтры для предотвращения такого, всегда объявится новый метод. Какой степени контроля над нашим обществом мы хотим потребовать от алгоритмов? Где он закончится? Вспомните о том, что задолго до того, как мы стали умолять компании сделать хоть что-нибудь с мусорным постингом, мы требовали от них предпринять хоть что-нибудь против фальшивых новостей, а также риторики, провоцирующей ненависть, и организованного притеснения. Компании начали блокировать определенных пользователей, но стало ли общество в результате сдержаннее?

В какой-то момент, даже если применить автоматические моральные алгоритмы и получится, может все равно остаться необходимость обратиться к старому полубогу экономических поощрений. Существуют альтернативы нынешней экономике и социальным сетям. Например, как я уже предлагал, людям можно платить за создаваемый ими контент в Facebook и платить за контент от других, а Facebook может брать процент. (Мы знаем, что это может сработать, поскольку что-то подобное было уже опробовано в экспериментах вроде Second Life, которую я упоминал раньше.)

Несомненно, существуют и другие потенциальные решения, которые также стоит рассмотреть. Я выступаю за эмпирический подход. У нас должно хватать смелости пробовать разные решения, например платить людям за их данные, но также и смелости принимать результаты, даже если они нас разочаруют.

Мы не должны сдаваться.

Гуманное использование человеческих систем

Дело не в том, что невидимая рука всегда будет выгоднее воображаемого живого искусственного интеллекта или наоборот. Скорее уж людям придется перестать ожидать совершенства от любого из существующих полубогов, которых я обозначу более прямо как организационные системы со множеством участников.

В наш информационный век ценятся люди, у которых хорошо получается думать как компьютер, но не то чтобы этот склад ума был миру в диковинку. Это тот же склад ума, который всегда предпочитал соглашаться с системой, запускать программу; искать социалистического рая, абсолютной теократии или либертарианской колонии сторонников пуризма на плавучем острове, где никто не платит налогов, но остров все равно держится на плаву. Если вы способны думать как компьютерная программа, вы можете зарабатывать целое состояние при помощи компьютерных программ, которые сейчас управляют миром.

Чтобы выжить, человечество также должно ценить людей, которые процветают в неоднозначности и не клялись на крови в верности какому-то одному принципу организации. Религии, рынки, политические режимы, облачные алгоритмы, общественные формации, закон, принадлежность к группам, нации, образование – все это нужно нам, и ничто из этого не совершенно. У всех этих систем есть режимы разрушения, как их заложит инженер. Единственный способ выживания для нас как вида – думать о наших системах так же, как мы думаем о машинах и холодильниках. Даже самые надежные из них – даже облачные алгоритмы! – иногда нас подводят. Признать это – проблема для пуристов.

Если коммерческие структуры смогут когда-нибудь добиться лучшего баланса алгоритмов, как я предлагал, могут существовать и другие сдержки и противовесы между нашими системами, которые можно обозначить и изучить. Алгоритмы – самая молодая разновидность крупномасштабных систем, но это не значит, что все остальные вдруг потеряли значимость.

Многие ученые без конца твердят о том, что искусственный интеллект разрушит все прочие системы за три минуты, так что нам ничего не остается делать, кроме как наслаждаться моментом и ощущением собственного превосходства перед лицом неминуемого, если вы считаете себя нормальным человеком, а не «технарем». Но это отказ от собственной ответственности, особенно если вы инженер.

У нас замечательные системы, с которыми можно работать. Если мы не будем пренебрегать ценностями, которые оставило нам каждое из предыдущих поколений, мы можем построить достойное, стабильное высокотехнологичное общество, которое станет стартовой площадкой для приключений, которые мы себе и вообразить не могли, но мы, инженеры, должны хотя бы немного научиться скромности, чтобы туда попасть.