Архитекторы интеллекта. Вся правда об искусственном интеллекте от его создателей — страница 45 из 63

Я преобразовал эти иллюстрации в средство кодирования научных знаний, позволяющее программировать машины на выяснение причинно-следственных связей в различных областях: от медицины и образования до причин глобального потепления – то есть в таких, где важны причины явлений, их механизмы и контроль.

Этим я занимался последние 30 лет. В 2000 г. вышла моя книга «Причинность: модели, рассуждения и вывод», а в 2009 г. – ее второе издание. В 2015 г. в соавторстве с Даной Маккензи я написал книгу The Book of Why («Книга о вопросе “Почему”»), в которой принцип причинности объяснялся широкой аудитории. В ней я рассматриваю историю с точки зрения причинности, рассказывая о том, какие концептуальные открытия изменили наше мышление.

М. Ф.: На мой взгляд, причинно-следственные модели стали важны в социальных и естественных науках именно благодаря вашей книге. Недавно я читал статью, в которой эти модели применялись в квантовой механике.

Дж. П.: Я тоже ее читал и собираюсь перечитать, потому что не понял явления, которые там описывались.

М. Ф.: Из «Книги о вопросе “Почему”» я понял, что естествоиспытатели и социологи действительно начали руководствоваться принципом причинности, а область ИИ в этом отношении отстает. Вы считаете, что для развития этой области нужно сосредоточиться на причинно-следственных связях?

Дж. П.: Да. В машинном обучении сейчас господствуют статистики, и считается, что из данных можно научиться всему. Но происходящее имеет четкие теоретические ограничения. Невозможно сделать гипотетические построения и продумать действия, с которыми вы раньше не сталкивались. Воображение – это высокий когнитивный уровень, позволяющий рассуждать о том, как бы выглядел мир, если бы события сложились по-другому.

Способность воображать сценарии, не чувствуя дискомфорта, позволяет людям создавать новое и исправлять старое, брать на себя ответственность, сожалеть и иметь свободную волю. Все это часть нашего умения генерировать миры, которые могли бы существовать. При этом есть правила создания правдоподобных гипотетических ситуаций, поняв которые мы сможем передать их машине. У меня есть несколько идей по этому поводу, ведь мы уже знаем, что нужно для интерпретации гипотетических ситуаций и понимания причин и следствий.

Это мини-шаги к сильному ИИ, но они могут многому нас научить. Я пытаюсь донести это до сообщества. Глубокое обучение – всего лишь шаг к сильному ИИ. Нужно только найти способ обойти барьеры, мешающие добавить причинно-следственные связи.

М. Ф.: Получается, человеческий разум обладает встроенным механизмом, позволяющим создавать каузальные модели, а не просто учиться на данных.

Дж. П.: И не только создавать. Ведь даже если модель создает кто-то со стороны, нужен механизм, позволяющий ее использовать.

М. Ф.: Получается, что каузальная модель – это просто гипотеза. У каждого человека может быть своя модель, и где-то в мозге некий механизм непрерывно генерирует такие модели, что дает возможность делать умозаключения на основе данных.

Дж. П.: Людям нужно создавать такие модели, модифицировать их и искажать, когда в этом возникает необходимость. Скажем, раньше причиной малярии считался плохой воздух. Теперь мы считаем, что ее переносит малярийный комар. И это имеет значение, потому что, если я захочу пойти на болота, в первом случае мне понадобится дыхательная маска, а во втором – противомоскитная сетка. Мои действия зависят от того, в какую теорию я верю. Переход от одной гипотезы к другой происходит методом проб и ошибок.

Таким способом мы познаем причинно-следственную связь. Но нам нужны способности и шаблон для хранения полученной информации, чтобы ее можно было использовать, тестировать и изменять. Соответственно, мы должны научиться программировать компьютеры таким образом, чтобы они получали этот шаблон и могли им управлять.

М. Ф.: Компания DeepMind использует обучение с подкреплением, которое происходит методом проб и ошибок. Можно ли таким способом обнаружить причинно-следственные связи?

Дж. П.: Обучение с подкреплением позволяет научить только уже известным вещам. Смоделировать гипотетическую ситуацию машина не может.

М. Ф.: Способность прослеживать причинно-следственные связи важна для достижения сильного ИИ?

Дж. П.: Я не сомневаюсь, что это необходимое условие, но не знаю, является ли оно достаточным. Вряд ли причинное осмысление поможет решить все проблемы сильного ИИ. Например, оно не решает проблему распознавания объектов и понимания языка. По сути, задача отслеживания причинно-следственных связей уже решена, что сможет помочь нам в преодолении препятствий, мешающих решить другие задачи.

М. Ф.: Вы считаете, что сильный ИИ возможен?

Дж. П.: Я в этом не сомневаюсь, потому что не вижу теоретических препятствий для его создания.

М. Ф.: Вы упоминали, что разговоры о сильном ИИ велись еще в 1961 г., когда вы работали в RCA. Как вы оцениваете прогресс в этой области? Разочарованы?

Дж. П.: Все идет отлично. Сейчас прогресс замедлен из-за концентрации на глубоком обучении и связанных с ним непрозрачных структурах. Нужно освободиться от философии, ориентированной на данные. В целом на развитие ИИ повлияют люди, а эта сфера привлекает самых умных.

М. Ф.: Но последние успехи в ИИ связаны с глубоким обучением, которое вы критикуете, сравнивая с подгонкой функций к данным и с «черным ящиком», который просто генерирует ответы.

Дж. П.: Да, по сути, сейчас в этой сфере собирают те плоды, которые висят совсем низко.

М. Ф.: Но даже эти результаты весьма впечатляют.

Дж. П.: Это происходит просто потому, что никто не предвидел такого количества низко висящих фруктов.

М. Ф.: Возрастет ли в будущем важность нейронных сетей?

Дж. П.: При правильном использовании нейронные сети и обучение с подкреплением могут стать важными компонентами причинного моделирования.

М. Ф.: То есть, возможно, появится гибридная система, включающая в себя не только нейронные сети, но и идеи из других областей ИИ?

Дж. П.: Гибридные системы создаются уже сейчас, несмотря на малое количество данных. Другое дело, что для получения причинно-следственных связей экстраполировать или интерполировать разреженные данные можно только до определенного предела. Даже бесконечные данные не позволяют определить, в чем разница между «A вызывает Б» и «Б вызывает A».

М. Ф.: Если когда-нибудь мы создадим сильный ИИ, будет ли он обладать сознанием и иметь какой-то опыт, подобный человеческому?

Дж. П.: Разумеется, каждая машина имеет своего рода внутренний опыт. Она должна иметь некое представление о своем программном обеспечении, но не может полностью быть в курсе своей архитектуры, так как это противоречит доказанной Тьюрингом проблеме остановки. Но машине целесообразно иметь представление о своих важных связях и модулях. Она должна иметь код своих способностей, убеждений, целей и желаний. И это вполне реально. В каком-то смысле машина уже обладает внутренней сущностью, так как имеет представление об окружающей среде, способна реагировать на происходящее и отвечать на гипотетические вопросы.

М. Ф.: А что вы думаете об эмоциональном опыте? Может ли машина чувствовать себя счастливой или по какой-то причине страдать?

Дж. П.: Это напоминает мне книгу Марвина Минского The Emotion Machine («Эмоциональная машина»), в которой он рассказывает, как просто запрограммировать эмоции. В организме присутствуют химические вещества, которые время от времени мешают интеллектуальной деятельности и переопределяют ее. В итоге эмоции можно сравнить с химической машиной, расставляющей приоритеты.

М. Ф.: О чем имеет смысл беспокоиться по мере развития ИИ?

Дж. П.: Мы должны понимать, что именно мы строим. Фактически мы выводим новый вид интеллектуальных животных. Сначала они будут ручными, как куры или собаки, но в конечном итоге обретут свободу воли, и вот тут следует быть очень осторожными. Но так, чтобы не принести ущерб науке и научному любопытству. Это сложный вопрос, а я бы не хотел вдаваться в тонкости регулирования исследований в сфере ИИ. Это будет если не животное, то пригодный к эксплуатации человек без юридических прав и претензий на заработную плату. Мы вместе работаем над созданием действительно интеллектуальных, гибких ИИ-систем. Осталось встроить перенос обучения.

Джефф Дин

“Наш путь кажется мне более органичным, ведь мы работаем над действительно гибкими ИИ-системами для решения новых задач".


Старший научный сотрудник команды GOOGLE BRAIN


К компании Google Джефф Дин присоединился в 1999 г., в самом начале ее истории, и за прошедшие годы разработал и реализовал большую часть ее рекламных, поисковых, индексирующих и обслуживающих систем, а также различные части распределенной вычислительной инфраструктуры, на которой работает большинство ее продуктов. Докторскую степень в области computer science получил в Университете штата Вашингтон. В 1996 г. с Крэйгом Чемберсом работал над методиками оптимизации программ для объектно-ориентированных языков. Член Национальной инженерной академии, ACM и Американской ассоциации развития наук (AAAS).


Мартин Форд: Какие исследования в сфере ИИ ведутся в корпорации Google?

Джефф Дин: Наша цель – прогресс в области машинного обучения. Мы пытаемся создавать более интеллектуальные системы, разрабатываем новые алгоритмы, методы, программную и аппаратную инфраструктуру. Google Brain работает над одним из нескольких ИИ-проектов Google и занимается поиском новых областей применения машинного обучения в сотрудничестве с командами Google Translate, Gmail и др. Я лично обеспечиваю энергичную работу по существующим проектам и ищу новые направления.