Архитекторы интеллекта. Вся правда об искусственном интеллекте от его создателей — страница 48 из 63

М. Ф.: Что вы думаете о перспективах глубокого обучения?

Д. К.: Глубокое обучение – это не волшебная палочка, но и отказываться от него не стоит. Оно позволило сделать важный шаг вперед, но вряд ли поможет достичь ИИ человеческого уровня. Нужен, по крайней мере, еще один крупный прорыв.

Сейчас сети оптимизируются под конкретные задачи, но под другие задачи их приходится переобучать или даже менять архитектуру. Фактически сейчас мы сосредоточены на узких проблемах, решения которых не пересекаются друг с другом.

Кроме того, для обучения таких моделей требуется огромный набор данных, в то время как людям хватает и небольшого объема информации. Я подозреваю, что в нашем мозге есть некая структура, отвечающая за выполнение всех задач с той скоростью, которая для робота или агента недоступна.

М. Ф.: Какие еще препятствия стоят на пути к сильному ИИ? Как добавить роботам воображение и способность придумывать новые идеи?

Д. К.: Алгоритм GAN умеет создавать изображения, отличные от ранее увиденных. Но это сплав изображений из обучающего набора.

Трудно проверить наличие некоторых свойств. Люди могут притворяться, имитировать эмоциональную связь с другими и научить этому компьютер. Тест Тьюринга определяет, что поведение другого существа совпадает с поведением, которое мы считаем сознательным, но границы сознания не так четко определены.

М. Ф.: Хороший вопрос: подразумевает ли сильный ИИ наличие сознания или же это сверхинтеллектуальный зомби? Возможна ли невероятно умная машина, совершенно лишенная внутренних переживаний?

Д. К.: Согласно гипотезе, ставшей основанием для теста Тьюринга, сознание непостижимо. Например, я не знаю, обладаете ли вы сознанием, но принимаю этот факт на веру, ведь вы похожи на меня, а себя я ощущаю существом, обладающим сознанием.

Тьюринг утверждал, что по поведению сущности, которая достигла определенного уровня производительности, невозможно определить, обладает она сознанием или нет. Соответственно, получается, что вопрос о сознании у машин навсегда останется открытым.

М. Ф.: Расскажите о последних разработках в сфере ИИ.

Д. К.: Комбинация доступных в настоящее время объемов данных с глубоким обучением позволяет машине самостоятельно выбирать шаблоны. Поскольку архитектура модели зависит от предметной области, до сих пор не появились компьютеры, самостоятельно проектирующие сети глубокого обучения. Я думаю, что в этом деле человек незаменим. Хотя предпосылки к изменению ситуации тоже есть, благодаря сквозному обучению в сочетании с неограниченными тренировочными данными, которые уже использованы в AlphaGo и AlphaZero.

М. Ф.: Как вы считаете, сколько времени потребуется на создание сильного ИИ и по каким признакам можно понять, что мы приближаемся к этому моменту?

Д. К.: Для сильного ИИ требуется ряд крупных технологических прорывов. Предсказать, когда они произойдут, невозможно.

М. Ф.: Но если эти прорывы совершатся, мы быстро придем к сильному ИИ?

Д. К.: Даже в этом случае для воплощения сильного ИИ в жизнь потребуется много технических расчетов и работы. Возможно, ключевое открытие уже сделано, мы об этом просто не знаем. И нужны десятилетия работы, чтобы спроектировать все в окончательном виде.

М. Ф.: А ведь нельзя забывать об опасностях, которые несет с собой ИИ, например, в сфере экономики. Как вы думаете, ждет ли нас обвал рынка труда?

Д. К.: В ситуации, когда множество человеческих обязанностей полностью или частично возьмут на себя машины, это неизбежно. Во многих случаях этому процессу мешают социальные препятствия, но значительный рост производительности приведет к тому, что рано или поздно все равно начнется цикл разрушительных инноваций.

Помощники юристов и кассиры в супермаркетах уже понемногу заменяются машинами, скоро очередь дойдет до тех, кто выкладывает товар на прилавки. Лет через пять (максимум – десять) эти обязанности возьмут на себя роботы или интеллектуальные агенты. Вопрос в том, в какой степени мы сможем создать для людей новые значимые рабочие места.

М. Ф.: Как скоро, на ваш взгляд, начнут массово использоваться беспилотные автомобили?

Д. К.: Мне кажется, что в этой сфере произойдет постепенный переход. Сначала за автомобилями будут наблюдать водители-люди. Это неизбежный промежуточный шаг на пути к полной автономии.

Сидящий в офисе водитель будет контролировать три или четыре автомобиля одновременно. Оказавшись в ситуации, требующей нестандартных действий, машина может позвать его на помощь. Беспилотные автомобили в таком формате могут начать предоставляться как услуга лет через пять. Для полной же автономии нужна скорее социальная, а не техническая эволюция. Предсказать сроки ее наступления куда сложнее.

М. Ф.: Но даже в описанном вами варианте множество водителей потеряет работу. Можно ли решить эту проблему введением универсального базового дохода?

Д. К.: Пока об этом рано говорить. Если вспомнить историю, то и раньше, во время сельскохозяйственной, а потом и промышленной революции делались прогнозы по поводу массовых увольнений и огромного числа людей, оставшихся без работы. Мир изменился, и люди нашли другую работу.

Нужно думать об отношении к образованию. Инвестиции в переобучение явно недостаточны для того, чтобы люди могли найти себе место в новой реальности. Важно понять, какие навыки нужны людям для успешного продвижения вперед. И только если это не даст возможности сохранить занятость большинства населения, думать о всеобщем базовом доходе.

М. Ф.: С ИИ связывают и другие риски. Их можно разделить на две категории: краткосрочные, такие как проблемы конфиденциальности, безопасности и использования дронов, и долгосрочные, такие как собственные цели сильного ИИ.

Д. К.: Я бы сказала, что все вещи, перечисленные в первой группе, существуют и без привязки к ИИ.

М. Ф.: Но разве риски не растут по мере расширения технологий? Представьте, что грузовики автономно развозят по магазинам продукты и вдруг кто-то взламывает систему и останавливает их движение.

Д. К.: Я согласна, что мы все больше полагаемся на электронные решения, у которых в силу их взаимосвязи возрастает вероятность появления единой точки отказа. Сейчас, чтобы парализовать доставку товаров в магазины, нужно вывести из строя всех водителей.

М. Ф.: Вас беспокоит возможность злонамеренного использования технологии?

Д. К.: Конечно, любая технология может попасть в недобрые руки. Человечество постоянно совершенствует способы убийства себе подобных. Оружие массового поражения появилось довольно давно. Сейчас говорят, например, о биологическом оружии, о возможности создавать новые вирусы, действующие только на представителей определенных групп. И я бы не сказала, что оснащенные ИИ беспилотники-убийцы более опасны, чем люди, которые синтезируют новые штаммы оспы.

М. Ф.: Давайте рассмотрим риски, связанные с сильным ИИ: проблему выравнивания, появление собственной цели и ее реализацию неожиданным для нас или даже вредоносным способом.

Д. К.: Я считаю, что думать обо всех этих вещах несколько преждевременно. Когда в процессе проектирования этой системы мы выясним, из каких ключевых компонентов она состоит, тогда придет время задуматься, как получить самый лучший результат.

М. Ф.: Но этой проблемой уже занимается ряд организаций, например компания OpenAI. С вашей точки зрения, это преждевременные инвестиции?

Д. К.: Компания OpenAI занимается не только этим вопросом. Например, они создают инструменты ИИ с открытым исходным кодом для демократизации доступа к ценной технологии. И мне кажется, что это здорово. На конференции по машинному обучению NIPS 2017 был интересный доклад о том, как машинное обучение усиливает неявные искажения в тренировочных данных до такой степени, что начинают проявляться худшие варианты поведения (например, расизм или сексизм). Вот о чем важно думать уже сейчас, потому что это реальная опасность и нужно искать способ ее устранения.

М. Ф.: Нужны ли сфере ИИ регуляционные меры со стороны правительства?

Д. К.: Скажем так, я думаю, что уровень понимания этой технологии членами правительства в лучшем случае ограничен. Не очень хорошая идея регулировать вещи, в которых не разбираешься.

Кроме того, такая технология, как ИИ, проста в использовании и уже доступна правительствам других стран, которые не обязательно связаны теми же этическими нормами, что и мы. Так что регулирование этой технологии, на мой взгляд, не имеет особого смысла.

М. Ф.: Да, сейчас много говорят о преимуществах Китая, в котором благодаря количеству населения собираются огромные объемы данных, кроме того, там не так сильно беспокоятся о конфиденциальности. Как вы считаете, есть ли у нас риск отстать?

Д. К.: Такой риск присутствует. И если говорить о вмешательстве со стороны правительства, то было бы полезно, если бы на государственном уровне поспособствовали технологическому прогрессу, чтобы поддержать нашу конкурентоспособность. Это инвестиции в науку, образование и конфиденциальность при доступе к данным.

Например, многое можно сделать в сфере здравоохранения. Большинство пациентов с удовольствием предоставит данные для исследований, направленных на борьбу с их заболеваниями. Люди понимают, что даже если они не получат помощи, в будущем это может помочь другим, и хотят в этом участвовать. Но сейчас правовые и технологические препоны, которые нужно преодолеть для распространения медицинских данных, настолько суровы, что зачастую с ними даже не пытаются бороться. Это замедляет поиск способов лечения и другие исследования.

Именно в этой сфере может иметь значение как изменение политики на государственном уровне, так и изменение социальных норм. Например, в одних странах люди подписывают согласие на донорство органов после смерти, а в других – отказ. В обоих случаях есть государственный контроль, но там, где граждане выражают согласие, количество доноров выше. Потому что отказ создает ощущение принуждения. Если использовать подобную систему для обмена данными, новые исследования будут происходить быстрее.