Власть роботов. Как подготовиться к неизбежному — страница 28 из 51

В целом опытные исследователи, тесно связанные с глубоким обучением, относятся к гибридному подходу пренебрежительно. Йошуа Бенджио сказал мне, что целью должно стать «решение части тех же проблем, которые пытается решить классический ИИ, но с использованием строительных блоков, взятых из глубокого обучения»[183]. Джефф Хинтон демонстрирует откровенное пренебрежение, заявляя, что «не видит в гибридах решения», и сравнивая подобную систему с гибридным автомобилем в духе машины Руба Голдберга[184], в которой электродвигатель используется для впрыска бензина в двигатель внутреннего сгорания[185]. Дело в том, что пока не существует ясной стратегии встраивания возможностей символического ИИ в систему, целиком состоящую из нейронных сетей. Как отмечает Маркус, многие самые значительные достижения глубокого обучения, включая созданную DeepMind систему AlphaGo, являются в действительности гибридными системами, поскольку добиваются успеха только благодаря тому, что в дополнение к глубоким нейросетям используют традиционные алгоритмы поиска.

Пока исследователи спорят об эффективности гибридных моделей, параллельно разворачиваются дебаты о важности врожденной структуры, встроенной в системы машинного обучения. Многие глубокие нейросети действительно в той или иной степени включают предварительно разработанную структуру — примером являются сверточные архитектуры, используемые для распознавания зрительных образов. Однако многие «чистые» сторонники глубокого обучения считают, что такую структуру можно свести к минимуму и что эта технология способна развиваться практически с чистого листа. Например, Ян Лекун сказал мне, что «в конечном итоге нам не будут нужны точные конкретные структуры». Он подчеркивает отсутствие свидетельств наличия подобных структур в человеческом мозге, отмечая, что «микроструктура коры, судя по всему, является очень, очень однородной, будь то в зрительной или префронтальной областях»[186]. Исследователи из этого лагеря утверждают, что нужно сосредоточиться на разработке усовершенствованных методов обучения, позволяющих относительно неспециализированным нейронным сетям достигать лучшего понимания.

Такие исследователи, как Маркус, с опытом изучения когнитивного развития детей, яростно восстают против философии «чистого листа». Головной мозг маленького ребенка совершенно явно обладает врожденными возможностями, способствующими началу процесса обучения. Уже в первые дни жизни новорожденные распознают человеческие лица. В животном мире наличие действенного интеллекта, не зависящего от обучения, еще более очевидно. Энтони Задор, нейробиолог лаборатории Cold Spring Harbor, отмечает, что «белка может прыгать с дерева на дерево через считаные месяцы после рождения, жеребенок через несколько часов может ходить, а пауки рождаются с умением охотиться»[187]. Гэри Маркус часто приводит в пример альпийского козла (вид горных козлов, проводящих большую часть своей жизни на крутых коварных склонах). Новорожденные козлята уже через несколько часов способны стоять и передвигаться по склонам в среде обитания, где любое обучение методом проб и ошибок неминуемо закончилось бы смертью. Это встроенная технология: она поставляется в готовом виде. Исследователи из этого лагеря считают, что универсальный, гибкий искусственный интеллект также потребует когнитивных механизмов, встроенных непосредственно в структуры нейросетей или интегрированных в рамках гибридного подхода.

Сторонники глубокого обучения иногда говорят, что, даже если врожденная структура важна, она, скорее всего, возникнет естественным образом — как часть устойчивого процесса обучения. Однако если взять биологический мозг, то, на мой взгляд, никакая структура в нем не может являться результатом длительного обучения. Мы знаем, что обучение в течение жизни животного в определенной мере перестраивает его мозг; часто говорят, например, что нейроны, «которые одновременно возбуждаются, связаны вместе». Проблема в том, что у отдельно взятого организма нет возможности передать нейронную структуру, сформированную обучением в течение всей жизни, своему потомству. Невозможно чему-то научиться и добиться, чтобы информация, описывающая структуру мозга, связанную с этим знанием, была встроена в генетический код яйцеклетки или сперматозоида животного. Какая бы мозговая структура ни сформировалась в процессе жизни индивида, она умирает вместе с ним. Таким образом, представляется очевидным, что любая структура в мозге должна быть результатом нормального эволюционного процесса, иными словами, случайных мутаций, которые иногда делают организм более приспособленным к своей среде обитания и, как результат, с большей вероятностью передаются по наследству. Одна из возможностей на этом пути — непосредственное копирование такого процесса путем использования эволюционных или генетических алгоритмов. Однако намного быстрее может оказаться конструирование самих этих необходимых структур.

По поводу противостояния гибридного и «чистого» подхода на основе нейронных сетей можно сказать, что у сторонников глубокого обучения есть неотразимый аргумент. Очевидно, что в человеческом мозге нет отдельного компьютера, поддерживающего специальный алгоритм для всей той деятельности, которую не могли бы обеспечивать его нейронные сети. В нем есть только нейроны. Тем не менее мне кажется, что у гибридного подхода больше шансов принести практические результаты в ближней перспективе. Хотя биологическая эволюция пошла по пути чисто нейронной реализации, это не должно заслонять от нас возможность достижения более быстрого прогресса при использовании других методов. Не следует и отбрасывать жизнеспособные подходы только потому, что они кажутся неизящными. Мы высадились на Луну, не имея космического корабля из научной фантастики, способного снизиться, сесть, а затем улететь обратно. Мы применили намного более сложное — можно даже сказать, неуклюжее — решение, включавшее лунный модуль и много элементов, которые сбрасывались по ходу дела. Возможно, когда-нибудь у нас появится корабль как из научной фантастики, пока же мы просто осуществили прилунение.

Ключевые препятствия на пути к универсальному машинному интеллекту

Большинство исследователей ИИ признают: чтобы приблизиться к искусственному интеллекту человеческого уровня, потребуются значимые прорывы, однако мнения о том, какие именно изменения наиболее важны или какие вопросы следует решить в первую очередь, значительно расходятся. Ян Лекун часто приводит аналогию с преодолением горного хребта. Лишь поднявшись на первую вершину, вы сможете увидеть препятствия, ожидающие вас за ней. Преграды, которые нам предстоит преодолеть, неизбежно пересекаются с теми, что возникают на пути к созданию машин, способных в полной мере понимать естественный язык и участвовать в осмысленной свободной беседе. Давайте более детально познакомимся с некоторыми принципиальными проблемами, которые необходимо решить исследователям ИИ. Список не исчерпывающий, но машинный интеллект, который преодолеет эти препятствия, окажется намного ближе к универсальному ИИ, чем все существующее сегодня. Кроме того, система, действительно эффективно решающая любую из этих задач, наверняка станет основой практических разработок огромной коммерческой и научной ценности.

Рассуждение на основе здравого смысла

Под здравым смыслом мы, по сути, подразумеваем общее знание мира и его устройства. Мы опираемся на здравый смысл практически во всех аспектах нашей жизни, но особенно он важен в коммуникации. Здравый смысл восполняет недосказанное и позволяет нам концентрировать речь, опуская огромные объемы второстепенной информации.

Любой нормальный взрослый человек легко и непринужденно пользуется встроенным комплексом знаний, однако для машин это представляет колоссальную проблему. Наполнение искусственного интеллекта здравым смыслом — задача, тесно переплетающаяся со спорами вокруг символического или чистого нейронного подходов, а также с необходимостью встраивания структуры и знаний в ИИ-системы.

В последние годы наблюдается заметный прогресс в разработке ИИ-систем, способных анализировать текст и затем правильно отвечать на вопросы по нему. Например, в январе 2018 года программа, написанная Microsoft совместно с китайским технологическим гигантом Alibaba, сумела слегка превзойти средний человеческий уровень в тесте на понимание прочитанного, разработанном исследователями из Стэнфордского университета[188]. Стэнфордский тест состоит из вопросов на основе статей из «Википедии», правильным ответом на каждый из которых является фрагмент текста, «прочитанного» ИИ-системой. Иными словами, в данном случае демонстрируется не истинная способность понимать, а умение извлекать информацию и распознавать закономерности — в чем, как мы убедились, системы глубокого обучения невероятно сильны. Если для ответа на вопрос необходимо хотя бы малейшее проявление здравого смысла или имплицитное знание мира, то результаты ИИ в таких тестах резко «сдуваются».

Нагляднее всего проблемы ИИ-систем со здравым смыслом проявляются на примере сформулированных особым образом предложений — так называемых схем Винограда. Составленные Терри Виноградом, профессором компьютерных наук из Стэнфорда, эти предложения используют неоднозначные местоимения для проверки способности машинного интеллекта к рациональному мышлению в рамках здравого смысла.

Приведу пример[189].

Члены городского совета отказали демонстрантам в разрешении, потому что они боялись насилия.

Кто боялся насилия? Ответ очевиден практически каждому: члены городского совета.