— Сорок два, — с бесконечным спокойствием сообщил компьютер.
— Сорок два?! — завопил Лункуал. — И это все, что ты можешь нам сказать после семи с половиной миллионов лет работы?
— Я убежден в правильности ответа, — холодно отрезал компьютер. — По правде говоря, — прибавил он, смягчившись, — дело, я думаю, в том, что вы никогда, собственно, не задумывались, в чем состоит этот вопрос.
Как и во всех хороших шутках, в этом разговоре между самым мощным во вселенной компьютером и его создателями из юмористического фантастического романа Дугласа Адамса «Автостопом по галактике» (1979) есть немалая доля истины. Мы часто ищем ответы на вопросы, предварительно не убедившись в том, понимаем ли мы сам вопрос или правильно ли он сформулирован. В моих лекциях об отношениях человека и машины я люблю цитировать Пабло Пикассо, который в одном интервью сказал: «Компьютеры бесполезны, поскольку они могут только давать ответы»{29}. Ответ подразумевает конец, полную остановку, а для Пикассо не существовало конца, только все новые и новые вопросы. Компьютеры являются отличными инструментами для поиска ответов, но они не умеют задавать вопросы, по крайней мере в том смысле, который в это понятие вкладывают люди.
В 2014 году я услышал интересную мысль по поводу этого утверждения. Меня пригласили выступить в штаб-квартире крупнейшего в мире хеджевого фонда Bridgewater Associates (Коннектикут). Что очень показательно, компания наняла Дейва Ферруччи, одного из разработчиков знаменитого суперкомпьютера Watson IBM, прославившегося своими победами в американской телевикторине Jeopardy!. По словам Ферруччи, он был разочарован подходом IBM к искусственному интеллекту, всецело ориентированным на анализ данных, и тем, что компания хотела извлечь выгоду из мощи и славы Watson и превратить его в коммерческий продукт. Сам же Ферруччи хотел исследовать более сложные пути, пытаясь узнать «почему», а не только обнаружить полезные корреляции с помощью анализа данных. Другими словами, он хотел использовать мощь ИИ, чтобы выйти за пределы непосредственных практических результатов и научиться получать результаты, которые выведут нас на новый уровень понимания, а не будут простыми ответами.
Интересно, что Ферруччи решил, что хорошим местом для такого рода амбициозных экспериментальных исследований может стать известная своим инакомыслием Bridgewater Associates, а не IBM, одна из крупнейших в мире технологических компаний. Разумеется, в первую очередь Bridgewater интересовали прогностические и аналитические модели для улучшения ее инвестиционных результатов. Компания сочла целесообразным поддержать усилия Ферруччи{30}, чтобы, по его выражению, «создать машину, способную объединить дедуктивные и индуктивные процессы для развития, применения, уточнения и объяснения фундаментальной экономической теории».
Это настоящий Грааль, достойный священного поиска и особенно «объяснения». Даже сильнейшие шахматные программы не могут дать своим блистательным ходам логических обоснований за пределами элементарных тактических вариантов. Они делают сильный ход только лишь потому, что тот получил наивысшую оценку по сравнению с остальными, а не потому, что применяют рассуждения, понятные людям. Сверхсильные машины, несомненно, полезны для тренировочных партий и проведения анализа, но пытаться учиться у них игре в шахматы — все равно что обучаться алгебре у калькулятора.
Во время моей лекции Ферруччи высказал мысль, которая раскрывает суть проблемы так же хорошо, как вышеприведенные слова Пикассо и Дугласа Адамса. Он заявил: «Компьютеры умеют задавать вопросы. Они просто не знают, какие из них важны». Это утверждение понравилось мне тем, что оно имеет несколько слоев смысла и каждый из них несет полезную информацию.
Во-первых, его можно воспринимать буквально. Даже простейшая программа может задать вам запрограммированный вопрос и зафиксировать ответ. Конечно, это не проявление искусственного интеллекта, а простое автоматизированное взаимодействие. Даже если машина говорит человеческим голосом и сопровождает ваши ответы адекватными вопросами, она всего лишь проводит примитивный анализ данных. Такого рода вещи используются функцией помощи в программном обеспечении и на веб-сайтах уже больше десяти лет, хотя и без голосового компонента. Вы вводите свой вопрос или описываете проблему, справочная система или чат-бот выбирает ключевые слова — «сбой», «аудио», «PowerPoint» и т. д. — и предлагает страницы с соответствующей справочной информацией или задает дополнительные вопросы.
Любой, кто пользовался поисковыми системами наподобие Google, знает, как это работает. Большинство людей давно поняли, что нет смысла вводить длинный вопрос «Какой город является столицей штата Вайоминг?». Достаточно набрать «столица Вайоминг», и поиск даст те же результаты при меньших усилиях. Но в устной речи люди предпочитают использовать более естественный язык, чем при печати на компьютере, и говорить полными предложениями. Виртуальные голосовые помощники Siri, Alexa, Ok Google, Cortana и другие постепенно начинают вслушиваться в каждое наше слово, что является одной из причин нынешнего рывка в области социальной робототехники (так называется дисциплина, изучающая особенности взаимодействия людей с технологиями, основанными на искусственном интеллекте). То, как роботы выглядят, звучат и ведут себя, в значительной степени определяет то, как мы решаем их использовать.
Выступая в сентябре 2016 года на конференции по социальной робототехнике в Оксфорде, я познакомился с одним из докладчиков Найджелом Круком и его роботом Арти. Доктор Крук занимается исследованиями в области ИИ и социальной робототехники в Университете Оксфорд Брукс. Он подчеркивает, как важно исследовать особенности использования роботов в общественных местах, поскольку люди в равной степени очарованы роботами и боятся их. Автоматический голос по телефону — это одно, и совсем другое — когда голос исходит от механического существа с лицом и телом. Как бы вы ни относились к роботам, вы должны быть готовы к тому, что их будет становиться все больше буквально повсюду.
Возвращаясь к тому, могут ли компьютеры задавать вопросы в более глубоком смысле, Ферруччи и другие специалисты в области ИИ работают над созданием более сложных алгоритмов, позволяющих исследовать факторы и причины событий, связанных с изменением данных, а не просто выявлять корреляции для ответа на тривиальные вопросы и поисковые запросы. Но чтобы задавать правильные вопросы, вы должны понимать, что важно, что имеет значение. А для этого нужно знать, какой результат вы хотели бы получить.
Я регулярно говорю о разнице между стратегией и тактикой и о том, почему так важно понимать свои долгосрочные цели, чтобы не путать их с реакциями, возможностями или всего лишь этапами. Это не так просто сделать — даже небольшие компании нуждаются в программных заявлениях и регулярных проверках, позволяющих им убедиться в том, что они движутся в правильном направлении. Приспосабливаться к обстоятельствам необходимо, но если вы все время меняете свою стратегию, значит, у вас попросту нет верной стратегии. Мы, люди, зачастую плохо представляем, чего мы хотим и как этого достичь, поэтому неудивительно, что похожие трудности у нас возникают и с тем, чтобы научить машину видеть бóльшую картину.
Машины сами по себе не знают, какие результаты важны и почему — определить это самостоятельно они могут только, если имеют соответствующие параметры или достаточно информации. Но что для машины имеет значение? Машина определяет нечто как значимое или нет на основании знаний, которые в ней запрограммированы, а знания закладывают в машину не кто иные, как люди. По крайней мере так было на протяжении долгого времени. Но сегодня наши машины начинают удивлять нас не только результатами, но и методами, которые они используют для достижения результатов, а это огромная разница.
Приведу упрощенный пример: традиционная шахматная программа знает правила игры. Она знает, как ходят фигуры и что такое мат. В нее также заложены сведения об относительной стоимости фигур (пешка — единица, ферзь — десять единиц и т. д.) и другие знания, например о мобильности фигур и пешечной структуре. Все, что выходит за рамки правил, классифицируется как знание. Если вы научите машину, что ферзь стоит меньше пешки, она будет жертвовать его без всяких колебаний.
Но что если не заложить в машину никаких знаний? Что если научить ее только правилам, а все остальное позволить сделать самой? То есть самой узнать, что ладьи ценнее слонов, что сдвоенные пешки — слабая структура и что открытые линии могут быть полезны. Это дает возможность не только создать сильную шахматную машину, но и узнать кое-что новое из того, что обнаружит машина и как она это обнаружит.
Именно это сегодня делают системы ИИ, используя такие методы, как генетические алгоритмы и нейронные сети, чтобы, по сути, программировать самих себя. К сожалению, им еще не удалось превзойти в силе традиционные программы с быстрым поиском, больше полагающиеся на жестко закодированные человеческие знания. Но причина этого — в самих шахматах, а не в методах. Чем сложнее предмет, тем выше вероятность того, что открытые, самостоятельно созданные алгоритмы превзойдут алгоритмы на основе фиксированных человеческих знаний. Шахматы пока недостаточно сложны для этого, и даже я должен признать, что в жизни не все так просто, как на шахматной доске.
За истекшие 30 лет выяснилось, что моя любимая игра настолько легко поддается грубой вычислительной силе, что для победы над человеком машинам совсем не нужно иметь стратегическое мышление. Потребовались колоссальные усилия, чтобы усовершенствовать оценочную функцию Deep Blue и обучить программу дебютам, но, как это ни удручает, появившиеся через несколько лет машины с более мощными процессорами не нуждались ни в том, ни в другом. Хорошо это или плохо, шахматы оказались недостаточно глубокой игрой для того, чтобы подтолкнуть компьютерное сообщество к поиску других решений, помимо скорости, о чем многие сожалели.