Поездки на такси будут дешевыми, потому что машиной управляет ИИ-система, но повысятся цены на еду в ресторанах, где готовит повар, а обслуживают официанты.
М. Ф.: Но ведь далеко не все люди обладают востребованными навыками или талантами. Что вы думаете об идее универсального базового дохода?
Я. Л.: У меня нет определенного мнения по этому поводу, так как я не экономист, но все экономисты, с которыми я разговаривал, выступали против универсального базового дохода. Все они считали, что правительства должны принять меры для компенсации возрастающего в результате технического прогресса неравенства. Все должно упираться в фискальную политику, то есть налогообложение, перераспределение богатства и доходов.
Неравенство в доходах особенно заметно в США, в меньшей степени – в Западной Европе. Коэффициент Джини – статистический показатель степени расслоения общества – во Франции или Скандинавии составляет около 25 или 30. В США он равен 45, и это уровень стран третьего мира. Экономист из MIT Эрик Бринолфссон вместе со своим коллегой Эндрю Макафи написал пару книг о влиянии технологий на экономику. Они говорят, что средний доход американских домохозяйств не изменился с 1980-х гг., то есть со времен рейганомики и снижения налогов на высокие доходы. А вот производительность росла более или менее непрерывно. В Западной Европе ничего подобного не было. Так что все зависит от налоговой политики. Существуют простые меры, которыми правительства могут компенсировать дестабилизацию, просто в США этого не делается.
М. Ф.: Какие еще опасности может принести ИИ?
Я. Л.: Начну с того, что нет смысла бояться, что мы создадим интеллект человеческого уровня, а он вырвется из-под нашего контроля, и роботы захотят захватить мир. Желание захватить мир связано не с интеллектом, а с тестостероном. В американской политике много примеров, явно показывающих, что стремление к власти не связано с интеллектом.
М. Ф.: Но, например, с точки зрения Ника Бострома проблема в том, что ИИ может начать добиваться своей цели способом, который навредит людям.
Я. Л.: То есть мы достаточно умны, чтобы создавать машины с интеллектом, а потом зачем-то приказываем им создать бесконечное количество скрепок? С моей точки зрения это нереально.
М. Ф.: Я думаю, что Ник специально привел преувеличенно карикатурный пример. Такие сценарии кажутся надуманными, но, когда речь заходит о суперинтеллекте, нельзя исключать, что машина может начать действовать непостижимыми для людей способами.
Я. Л.: Такие сценарии предполагают, что каким-то образом мы заранее проектируем целевую функцию, то есть внутренние мотивы машин, и в случае ошибки они начнут делать сумасшедшие вещи. Люди устроены по-другому. Внутренние целевые функции в нас не встроены. Разумеется, есть инстинкты, заставляющие есть, дышать и размножаться, но многое в нашем поведении и системе ценностей появляется как следствие обучения. То же самое можно сделать с машинами. Сформировать их систему ценностей, научить вести себя в обществе и приносить пользу человечеству. Не проектированием, а обучением, что гораздо проще. Мы же учим этому детей. Что мешает так же поступить с роботами или системами ИИ?
Мне эти вопросы кажутся преждевременными. Грубо говоря, у нас еще не изобретен двигатель внутреннего сгорания, а мы уже беспокоимся, что не сможем изобрести тормоз и ремень безопасности. При этом изобрести двигатель куда сложнее.
М. Ф.: Что вы думаете о сценарии с рекурсивными улучшениями, в результате которых ИИ многократно превзойдет людей?
Я. Л.: Я в него не верю. Очевидно, что непрерывное улучшение неизбежно. Но чем выше будет интеллект машин, тем больше они начнут помогать в проектировании следующего поколения.
Существует дифференциальное уравнение, описывающее развитие технологий, экономику, потребление ресурсов, коммуникации, сложность технологий и т. п. Оно содержит целый ряд замедляющих коэффициентов, которые почему-то игнорируются сторонниками сценария быстрого взлета. Любой физический процесс в какой-то момент должен перейти в стадию насыщения, например по причине истощения ресурсов. Не будет такого, что кто-то раскроет секрет сильного ИИ и мы начнем переходить от машин с интеллектом крысы к машинам с интеллектом орангутана, через неделю они станут умнее нас, а месяц спустя – намного умнее.
Кроме того, превосходство в области интеллекта не означает превосходства во всем. Вирусы при всей своей глупости убивают людей. Если мы сможем создать систему ИИ, то, вероятно, сможем создать и более специализированный ИИ, предназначенный для уничтожения первого. И он будет крайне эффективно справляться с задачей, так как специализированные машины эффективнее универсальных. Я уверен, что в каждую проблему уже встроено решение.
М. Ф.: Тогда о чем имеет смысл беспокоиться в ближайшие десятилетия?
Я. Л.: Прежде всего о проблемах в экономике. Все они решаемы, но нужно преодолеть политические препятствия, особенно в таких странах, как США, где не принимается идея о перераспределении доходов. Еще есть проблема с распространением технологии. Желательно, чтобы она приносила пользу всему миру, а не только развитым странам. Я думаю, что ускорение технического прогресса и появление ИИ заставят правительства больше вкладывать в образование, особенно в непрерывное образование, потому что людям придется искать новые рабочие места. Иначе нас ждет дестабилизация. Предвзятость, которая попадает в машину на уровне данных, в случае обучения с учителем может усугубиться.
М. Ф.: Я надеюсь, что предвзятость в алгоритме исправить проще, чем в человеке.
Я. Л.: Именно поэтому я смотрю на ситуацию с оптимизмом. Бороться с предвзятостью машин действительно проще. У людей необъективность и пристрастность иногда принимают твердую форму.
М. Ф.: Беспокоит ли вас применение ИИ военными, например создание автономного оружия?
Я. Л.: И да, и нет. Разумеется, технологию ИИ можно использовать для создания оружия, но, к примеру, я совершенно не согласен со Стюартом Расселом, который считает, что это непременно будет оружие массового уничтожения. Я думаю, что все будет с точностью до наоборот. ИИ начнут применять для так называемых хирургических действий. Зачем разрушать бомбой целое здание, если можно послать беспилотник, который просто усыпит человека, которого нужно захватить?
М. Ф.: Беспокоит ли вас то, что ИИ может первым создать Китай? В этой стране больше данных при меньших ограничениях на конфиденциальность. Дает ли им это преимущество?
Я. Л.: Не думаю. Современный прогресс в науке обусловлен не широкой доступностью данных. Сколько бы человек ни проживало в Китае, доля тех, кто связан с технологиями и занимается исследованиями, относительно мала.
Разумеется, их количество будет расти. Китай делает успехи в этом направлении. Но мне кажется, что принятые там стиль управления и тип образования могут через некоторое время задушить творческие порывы. Но в Китае есть и хорошие специалисты, которые могут внести вклад в развитие ИИ.
В 1980-х гг. Запад точно так же испытывал страх перед быстро распространяющимися японскими технологиями. Но в какой-то момент все стабилизировалось. Потом мы боялись корейцев, теперь вот китайцев. В течение следующих десятилетий в китайском обществе могут произойти большие перемены, что может полностью изменить ситуацию.
М. Ф.: Нуждается ли ИИ в регулировании со стороны государства?
Я. Л.: Я не думаю, что государство должно вмешиваться в исследования и процесс разработки ИИ, а вот конкретные варианты применения этой технологии, безусловно, потребуют регулирования. Но это требование связано не с ИИ, а с областью применения приложений. Представьте, что ИИ применяется для разработки лекарств. Процесс тестирования, выпуска и применения препаратов, содержащих наркотические вещества, уже регулируется. Когда на дорогах появятся беспилотные автомобили, они будут подчиняться ПДД. Разумеется, могут появиться и сферы, в которых все настолько изменится благодаря ИИ, что придется дорабатывать существующие правила. Но пока никакого регулирования в связи с ИИ не требуется.
М. Ф.: То есть вы не согласны с риторикой Илона Маска?
Я. Л.: Совершенно не согласен. Я несколько раз общался с ним, и не знаю, откуда взялись его взгляды. Маск умный парень, мне очень нравятся некоторые его проекты, но я не понимаю его мотивации. Он хочет спасти человечество, возможно, поэтому ему нужна еще одна экзистенциальная угроза. Он искренне обеспокоен, но пока никто из нас не смог его убедить, что сценарии в стиле Ника Бострома человечеству не грозят.
М. Ф.: Получается, вы оптимист? И верите в то, что ИИ принесет больше пользы, чем проблем?
Я. Л.: Именно так.
М. Ф.: Как, по вашему мнению, можно этому способствовать?
Я. Л.: Я надеюсь, мы придумаем способ обучать машины, как маленьких детей и животных. И собираюсь этим заниматься следующие несколько лет. Еще я надеюсь, что серьезный прорыв произойдет до того, как люди, финансирующие эти исследования, устанут, как это случалось раньше.
М. Ф.: Вы предупреждали, что слишком сильная шумиха может привести к очередной «зиме ИИ». Вы действительно считаете, что это возможно? Глубокое обучение уже встроено в бизнес-модели таких корпораций, как Google, Facebook, Amazon, Tencent. Трудно представить, что инвестиции в технологию прекратятся.
Я. Л.: Я не думаю, что нам грозит еще одна «зима ИИ» в том виде, как это было раньше. Именно потому, что появились приложения, которые приносят реальную прибыль.
Но огромное количество инвестиций делается в надежде, например, на появление беспилотных автомобилей в ближайшие пять лет или на революцию в медицинской визуализации. Думаю, очень скоро это заметно повлияет на медицину и здравоохранение, транспорт и доступ к информации.