Однако наша способность создавать безделушки, дополняющие нас, конечно, тоже развилась в результате коллективной готовности поедать ментальную отрыжку друг друга. Эта тенденция и приводит нас сейчас к той точке, где у нас появляется среда, которая начинает конкурировать с нашей способностью обрабатывать информацию, или малым мышлением.
На протяжении большей части нашей истории все эти безделушки оставались статичными объектами. Даже наши инструменты были застывшими кусками порядка, например каменные топоры, ножи или вязальные спицы. Несколько веков назад мы развили способность делегировать физическую силу и движение машинам, что вызвало небывалый подъем экономики. Теперь мы развили коллективную способность обрабатывать информацию, создавая предметы, умеющие порождать и рекомбинировать физический порядок. Это машины, обрабатывающие информацию — орудия, производящие числа, вроде тех, о которых мечтал Чарльз Беббидж.
Так что мы развили у себя способность мыслить коллективно, сперва обретя власть над материей, затем — над энергией, а теперь — над физическим порядком или информацией. И все же нам не стоит обманываться, полагая, что мы способны думать или что это могут делать машины. Значительное развитие человеческой мысли требует опосредованных взаимодействий, и в будущем «умным» машинам предрешено остаться интерфейсами, посредством которых одни люди связываются с другими.
Пока мы тут говорим, «яйцеголовые» в лучших университетах мира исследуют мозг, конструируют роботизированные протезы и разрабатывают примитивные версии технологий, предзнаменующих будущее, в котором ваш правнук будет ловить кайф, напрямую подключая мозг к Сети. Эти детишки обзаведутся дополнениями, для нас невообразимыми и настолько причудливыми по нашим современными этическими стандартам, что мы даже не в силах судить о них (иначе мы бы выглядели как пуританин из XVI века, решивший судить о нравах современного Сан-Франциско). Однако в масштабах Вселенной эти новые сети из людей и машин будут не чем иным, как следующим этапом в естественном развитии способности нашего вида порождать информацию. Вместе мы (люди) и наши дополнения (машины) продолжим разворачивать сети, которые будут подчинены главной великой цели Вселенной: создавать зоны, где информации становится не меньше, а больше.
Мы запутаемся в вопросах
«Думать» (или «мыслить») — это слова, которое мы используем исключительно неаккуратно и применяем к огромному числу разнообразных действий. «Думаю, надо сходить в магазин», «Думаю, идет дождь», «Мыслю, следовательно, существую», «Думаю, что „Янки“ выиграют Первенство», «Думаю, что я — Наполеон» и «Думаю, он сказал, что будет здесь, но я не уверен» — смысл глагола в приведенных примерах совершенно разный. Что из этого когда-нибудь сможет делать машина — я думаю, вопрос весьма важный.
Машина может запутаться? Испытывать когнитивный диссонанс? Мечтать? Быть рассеянной? Забыть имя того парня — вон он стоит — и в то же время знать, что на самом деле помнит и, если на минутку отвлечется на что-то, имя всплывет в памяти? Может ли она потерять счет времени? Решить завести щенка? Испытать неловкость? Захотеть покончить с собой? Заскучать? Забеспокоиться? Почувствовать потребность обратиться к богу? Я думаю, что нет.
Можно ли построить механизмы, задача которых будет заключаться в сборе информации и выработке решений, которые сейчас принимают люди? Несомненно, такие машины уже есть. Например, та, что управляет системой впрыска топлива в моем автомобиле, намного умнее меня. Думаю, я бы с этим не справился.
Можем ли мы создать машины, которые пойдут еще дальше и станут действовать без человеческого вмешательства таким образом, что их действия в результате обернутся хорошими или плохими последствиями для людей? Думаю, да. Думаю, они мне понравятся, кроме тех случаев, когда они будут делать раздражающие меня вещи, — и тогда они действительно станут походить на людей. Я полагаю, что они могут взбеситься и начать крушить все вокруг, но у меня есть на этот счет сомнения (впрочем, если такое произойдет, никому уже не будет дела до моих мыслей).
Но никто никогда не спросит машину о том, что она думает о машинах, которые думают. Этот вопрос имеет смысл только в том случае, когда нам есть дело до думающего, когда он для нас — автономное и интересное существо вроде нас самих. Если кто-нибудь когда-нибудь задаст машине такой вопрос, то это уже будет не машина. Я думаю, что мне пока не стоит беспокоиться. У вас может возникнуть мысль, что я отрицаю очевидное.
Когда мы окончательно запутаемся, надо будет спросить себя: о чем мы на самом деле думаем?
Не надо путать производительность и компетенции
И мышление и интеллект — это то, что Марвин Минский назвал «словами-чемоданами», то есть словами, в которые мы упаковываем много значений, чтобы можно было говорить о сложных вопросах, опуская подробности. Когда мы заглядываем внутрь этих слов, то находим массу разных аспектов, механизмов и уровней понимания. Вот почему ответить на вечные вопросы: «Может ли машина мыслить?» или «Когда машины достигнут интеллекта человеческого уровня?» — так сложно. Мы используем «слова-чемоданы», когда говорим об особых проявлениях производительности вычислений, демонстрируемых машинами, и о более общих человеческих компетенциях. Мы делаем широкие обобщения о компетенциях и сильно переоцениваем возможности машин — тех, которые есть сегодня, и тех, что появятся в течение следующих нескольких десятилетий.
В 1997 году суперкомпьютер обыграл чемпиона мира по шахматам Гарри Каспарова. Сегодня у десятков программ, работающих на ноутбуках, шахматный рейтинг выше, чем у любого когда-либо жившего человека. Компьютеры определенно могут демонстрировать более высокую производительность при игре в шахматы, чем мы. Но вот уровень их шахматной компетентности даже не стоял рядом с человеческим.
Все шахматные программы используют тьюринговский метод решения «в лоб» — поиском по дереву с эвристической оценкой. В 1970-х скорость компьютеров была такова, что этот подход перегружал программы ИИ, когда они пытались эмулировать то, как люди, по их собственным словам, обдумывают следующий ход, и в результате от алгоритма в основном отказались. У сегодняшних шахматных программ нет способа определить, почему один ход лучше, чем другой, кроме того, ведет ли он игру к той части дерева вариантов, где у противника останется меньше хороших ходов. Игрок-человек может делать обобщения, объясняя, чем хороши определенные виды ходов, другому игроку-человеку. Программы, основанные на прямых вычислениях, не способны учить людей шахматам, кроме как выступая в роли спарринг-партнера. Делать выводы и строить аналогии, учиться самостоятельно — задача человека. Шахматная программа не знает, что обыгрывает противника, не знает, что она — учебное пособие, не знает, что играет во что-то под названием «шахматы», да и само понятие «игра» ей неизвестно. Создание шахматной программы, опирающейся на «грубую силу» и побеждающей любого человека, совершенно не приближает нас к компетентности в области шахмат.
Теперь рассмотрим глубинное обучение, которое захватывает воображение людей уже где-то год или около того. Это новая версия обратного распространения, алгоритма обучения, известного примерно три десятилетия и основанного на абстрактных моделях нейронов. Слои нейронов преобразуются из единичного сигнала, такого как амплитуда звуковой волны или яркость пикселя в изображении, во все более высокоуровневые описания полного значения сигнала: в слово, которое слагают звуки, в предметы, запечатленные на изображении. Первоначально обратное распространение могло на практике работать только с двумя или тремя слоями нейронов, так что нужно было проделать некоторую предварительную обработку, прежде чем применять алгоритмы обучения, чтобы получить из сигналов более структурированные данные. Новые версии работают с большим числом слоев, сети становятся глубже — отсюда и название «глубинное обучение». Сейчас предварительные этапы обработки также включены в обучение, это позволяет исключить человеческий фактор, и новые алгоритмы работают намного лучше использовавшихся каких-то три года назад, потому-то они и привлекают к себе широкое внимание. Они опираются на мощные вычислительные ресурсы серверных парков и на очень большие массивы данных, которых раньше не существовало. Но, что важнее всего, они также опираются на последние научные разработки.
Известный пример того, как они работают, — это маркировка изображения как относящегося к классу «ребенок с мягкой игрушкой». Когда вы смотрите на изображение, то именно это и видите. Алгоритм очень хорошо справился с маркировкой, намного лучше, чем прогнозировали практикующие специалисты по искусственному интеллекту. Но у него нет полноты компетентности, которая есть у человека, имеющего дело с тем же самым изображением.
Алгоритм обучения знает, что на изображении есть ребенок, но не знает строения ребенка, равно как не знает и того, где именно на изображении он расположен. Нынешние алгоритмы глубокого обучения способны только обозначить вероятность для каждого пикселя: что именно этот пиксель является частью ребенка. В то время как человек видит, что ребенок занимает среднюю четверть изображения, у современного алгоритма есть только вероятностное представление о пространственной протяженности ребенка. Он не способен применить исключающее правило и заявить, что пиксели на границах изображения не могут с ненулевой вероятностью также не быть частью ребенка. Если взглянуть на слои нейронов изнутри, то мы увидим, что одно из свойств, изученных на данном уровне, — это участок изображения, похожий на глаз, а другое — участок, похожий на стопу. Однако нынешние алгоритмы не способны понять, какие пространственные отношения между глазами и ступнями в принципе допустимы на данном изображении, а потому их можно легко одурачить, подсунув им гротескный кол