Человек и компьютер: Взгляд в будущее — страница 22 из 60

23 апреля 1963 года Джозеф Ликлайдер, директор Агентства перспективных исследовательских проектов Министерства обороны США (ARPA), разослал коллегам восьмистраничный меморандум, в котором изложил цели нового проекта — заставить компьютеры разговаривать друг с другом. Письмо было адресовано «членам и филиалам межгалактической компьютерной сети». И вы говорите об амбициях! Этот документ, как и ряд последовавших за ним, определил ориентиры для исследований ARPA, включая создание технологии передачи файлов, электронной почты и даже цифровой передачи голоса, благодаря которой мы сегодня можем пользоваться, например, Skype.

После того как Клейнрок отправил через сеть ARPANET буквы «l» и «o», прошло целых 20 лет, прежде чем интернет преобразовал глобальную экономику и повседневную жизнь почти каждого человека. Электронная почта появилась раньше Всемирной паутины и широко использовалась в научном сообществе и университетских кампусах, но именно интернет стал тем изобретением, которое изменило мир.

Агентство перспективных исследовательских проектов было основано в феврале 1958-го администрацией Эйзенхауэра в ответ на запуск Советским Союзом первого спутника годом раньше. Агентству поставили задачу предотвратить подобные сюрпризы в будущем, но скоро в его функции включили разработку аналогичных прорывных технологий, способных удивить врагов Америки. Как ни странно, такое расплывчатое описание миссии было на руку ARPA, позволяя ему без труда получать одобрение и ассигнования в Пентагоне и тем самым давая идеальную возможность для финансирования экспериментальных исследований. Американские генералы не хотели, чтобы новая группа умников опередила их в важных секторах военных технологий, таких как ракетные комплексы, поэтому многие из ранних проектов ARPA были реализованы в весьма неожиданных — гражданских — областях.

Одним из таких направлений стал искусственный интеллект, хотя прогресс здесь был гораздо скромнее, чем ожидалось. В 1972 году агентство прибавило к своему названию букву «D» — Defense(«оборона») — и стало называться DARPA. Затем в 1973-м была принята поправка Мэнсфилда. Она ограничила выделение средств на многие проекты DARPA, не связанные непосредственно с военной областью, что сильно ударило по многим направлениям фундаментальных научных исследований, сократив их государственное финансирование. Для такой относительно неперспективной — по крайней мере в глазах представителей Министерства обороны — области, как искусственный интеллект, этот удар стал смертельным. Военным были нужны экспертные системы распознавания целей, а не машины, которые умеют говорить.

Леонард Клейнрок оказался нашим соседом в Верхнем Уэст-Сайде на Манхэттене. Он был достаточно любезен, чтобы поделиться со мной своими мыслями о том, почему и как ARPA (он всегда настаивал на этом названии) перестало быть двигателем развития ИИ и других технологических инноваций. Его первый вывод не удивил: рост бюрократии задушил инновации и коммуникации. «Агентство стало слишком большим, — сказал он мне за обедом. — Раньше мы проводили выездные встречи, во время которых физики, компьютерщики, микробиологи и психологи обменивались друг с другом идеями и опытом. Все могли уместиться в одной комнате. Но когда агентство разрослось, это стало невозможным и разные группы стали мало общаться друг с другом».

Из небольшого клуба блестящих (и хорошо финансируемых) ученых, изучающих различные идеи в условиях относительной свободы, DARPA превратилось в громоздкую иерархическую организацию. Вот почему я с 2013 года занимаюсь междисциплинарными исследованиями в Школе Джеймса Мартина при Оксфордском университете, где работаю приглашенным старшим научным сотрудником. Великие новые открытия рождаются благодаря перекрестному опылению.

Клейнрок также отметил, что переход на чисто военную ориентацию означал, что десятки аспирантов, участвовавших в финансируемых DARPA проектах, были отстранены от работы из-за отсутствия допуска к секретной информации. Для Клейнрока было неприемлемым изгнание стольких ярких молодых умов из важных областей исследований, и он перестал брать деньги у DARPA. В 2001 году министерство обороны возглавил Дональд Рамсфельд, выразив намерение перетрясти его сверху донизу. Но планы вернуть агентству его гибкий, амбициозно-экспериментальный характер были сорваны терактами 11 сентября, после которых правительство сосредоточило все внимание и ресурсы на борьбе с террористической угрозой. DARPA обратилось к проектам, посвященным сбору и анализу информации; одним из его детищ стала печально известная программа под оруэлловским названием «Тотальная информационная осведомленность», вызвавшая в 2003 году недовольство общественности.

DARPA не полностью отказалось от ИИ и даже имело в бюджете небольшую «шахматную» статью. Внимательно прочитав научные публикации о машине HiTech, созданной Хансом Берлинером в Университете Карнеги — Меллона, можно увидеть, что в 1980-е этот проект частично финансировался за счет гранта DARPA. Недавно агентство предложило провести ряд конкурсов на лучший беспилотный автомобиль и другие прикладные технологии, связанные с практическим применением ИИ{41}. Используя развитие шахматных машин как модель, DARPA объявило конкурс на лучшую разработку автономной защиты сети. В соответствии с дарвиновской теорией эволюции в компьютерных шахматах фокус на конкуренции, а не на фундаментальных исследованиях препятствовал прогрессу истинного искусственного интеллекта, но способствовал созданию все более эффективных шахматных машин. А военные всегда испытывали острый интерес к алгоритмам анализа разведданных и совершенствованию военных технологий, к чему я вернусь позже.

Грандиозные предсказания исследователей искусственного интеллекта в 1950–1960-е годы перекликались с прогнозами специалистов по компьютерным шахматам тех же лет; на самом деле зачастую это были одни и те же голоса. Но, в отличие от ученых, занимавшихся ИИ, специалисты по компьютерным шахматам вытащили золотой билет — разработали поисковый алгоритм «альфа-бета», который гарантировал стабильное улучшение. Было ли это новшество благословением или проклятием, но оно обусловило ощутимый прогресс. Те же, кто изучал универсальный ИИ, не сумели добиться столь же явного постепенного роста, который гарантировал бы им государственные гранты, инвестиции корпораций и исследовательские программы в университетах. Весна ИИ наступила только тогда, когда это движение, как и движение компьютерных шахмат, отказалось от грандиозной мечты сымитировать человеческий интеллект. Новым направлением развития стало машинное обучение, которое на протяжении многих лет не достигало больших успехов. Но в 1980-е годы появился новый решающий фактор — большие данные.

Дональд Мичи был одним из пионеров машинного обучения, еще в 1960 году применив этот метод к игре в крестики-нолики. Основная концепция заключается в том, что вы не закладываете в машину комплекс правил, которые она должна соблюдать, подобно тому как вы учите грамматические и синтаксические правила при изучении иностранного языка. Вместо того чтобы рассказывать машине о процессе, вы снабжаете ее множеством примеров этого процесса и позволяете самой выяснить правила.

И снова перевод с языка на язык служит хорошей иллюстрацией. Программа Google Translate опирается на машинное обучение и практически не знает правил тех десятков языков, с которыми работает. Компания даже не нанимает людей со знанием соответствующих языков. В систему загружаются миллионы и миллионы примеров правильного перевода, и машина, встречая что-то новое, сама определяет, какой вариант будет верным. В 1960-е годы, когда Мичи и другие пробовали применять этот подход, машины были слишком медленными, а их системы сбора и ввода данных — примитивными. Никто не смел предположить, что решение такой «человеческой» задачи, как язык, может быть делом масштаба и скорости. Создатели систем ИИ столкнулись с той же проблемой, что и первые шахматные программисты, которые, глядя на программы типа А, решили, что машины никогда не станут достаточно быстрыми для того, чтобы выйти на уровень грамотной игры с помощью грубой силы. Как сказал один из разработчиков программы Google Translate: «Когда вы переходите от десяти тысяч обучающих примеров к десяти миллиардам, это начинает работать. Данные решают всё»{42}.

В начале 1980-х Мичи со своими коллегами написал основанную на данных экспериментальную шахматную программу машинного обучения и получил весьма занятные результаты. Программисты «скормили» машине сотни тысяч позиций из гроссмейстерских партий в надежде на то, что машина сама разберется, что к чему. Вначале показалось, что это сработало. Ее оценка позиций была более точной, чем у обычных программ. Проблемы начались во время партии. Программа разыграла дебют, начала атаку — и сразу же пожертвовала ферзя! Потеряв ферзя за бесценок, она проиграла партию в несколько ходов. Почему она это сделала? Дело вот в чем: когда ферзя жертвует гроссмейстер, за этим всегда следует блестящий и решительный удар, и машина, учившаяся на гроссмейстерских партиях, решила, что жертва ферзя — ключ к победе!{43}

Этот итог вызвал смех и разочарование, но представьте себе, что может произойти в реальном мире, если машины станут на основании примеров вырабатывать собственные правила. Давайте снова обратимся к научной фантастике, поскольку произведения этого жанра полны точных и дальновидных прогнозов. Опустим роботов-убийц и сверхразумные машины из фильмов «Терминатор» и «Матрица». Эти мрачные сценарии хороши только для фильмов и новостных заголовков, но такое антиутопическое будущее настолько далеко и маловероятно, что разговор о нем лишь отвлекает нас от более насущных и более вероятных проблем. К тому же лично мне надоело сражаться с машинами.

В картине 1984 года «Человек со звезды» рассказывается о наивном инопланетянине, который попадает на Землю (его сыграл Джефф Бриджес). Пришелец пытается вписаться в человеческое общество и учится обычаям землян, наблюдая за их поведением, — такая вот инопланетная версия универсального машинного обучения. Естественно, он делает массу забавных ошибок, но самую серьезную совершает тогда, когда садится за руль автомобиля. Он на скорости проскакивает перекресток, провоцируя аварию, и так объясняет своей подруге Дженни свой поступок: