Что мы думаем о машинах, которые думают. Ведущие мировые ученые об искусственном интеллекте — страница 26 из 86

[49] должны быть оранжевыми». Мем разошелся — не повсеместно, что и говорить, но паттерн определенно распространяется. Новости, идеи и изображения теперь разлетаются посредством поисковых систем и социальных сетей в глобальном мозге за секунды, а не за годы.

И по интернету быстро расходятся не только идеи и сенсации (новости об актуальных событиях). В своей книге «Собор Тьюринга» (Turing’s Cathedral) Джордж Дайсон размышляет о том, что распространение «кодов», то есть программ, от компьютера к компьютеру сродни распространению вирусов и, возможно, более сложных живых организмов, которые завладевают хозяином и заставляют его системы работать так, чтобы они воспроизводили эти программы. Когда люди подключаются к интернету или заходят в социальные сети, они воспроизводят их коды на своем локальном машинном узле. Они взаимодействуют с программой, а она изменяет их поведение. Это верно для любого софта, но в эпоху интернета существует ряд приложений, явной целью которых является распространение мыслей и идей. Другие программы все больше наращивают новые возможности для «кремниевого» обучения и автономного реагирования. Таким образом, организм совершенствуется.

Когда люди совместно с этими программами делятся картинками или идеями, то некоторым из них суждено лишь промелькнуть, а другие приживаются и становятся воспоминаниями и устойчивыми мемами. Когда новости из разных стран распространяются по всему миру за считанные мгновения, разве не является это мыслительным процессом некоего глобального мозга? Когда идея завладевает миллионами отдельных умов и подкрепляется повторением в наших кремниевых сетях, разве это нельзя назвать устойчивой мыслью?

Виды «мыслей», которые есть у глобального мозга, отличаются от тех, что бывают у отдельного человека или менее связанного общества. В лучшем случае эти мысли допускают скоординированную память беспрецедентного масштаба, а иногда даже непредвиденную изобретательность и новые формы кооперации, в худшем — принятие дезинформации за истину и коррозийное воздействие на общественный строй, которые возникают в результате того, что одна часть Сети пытается получить преимущество за счет других (вспомним о спаме и мошенничестве или о поведении финансовых рынков в последние десятилетия).

Искусственный интеллект, с которым нам предстоит столкнуться, не будет разумом отдельной машины. Это не будет нечто чужое в наших глазах. Им вполне можем оказаться и мы сами.

Ты — то, что ты ешь

Энди Кларк
Философ и когнитивист, Эдинбургский университет; автор книги «Расширяя разум: Материальное воплощение, действие и познавательное расширение» (Supersizing the Mind: Embodiment, Action, and Cognitive Extension)

Общая тема в последних работах об искусственном интеллекте — это то, что лучшие из новых обучающихся машин станут основой для «иных» форм интеллекта. Сам я не так уж в этом уверен. К идее об «ином» ИИ обычно приходят в процессе следующих рассуждений. Лучший способ заставить компьютер решать сложные практические задачи состоит в том, чтобы сделать из них статистически сенcитивные обучающиеся машины, способные извлекать максимальную выгоду из использования больших данных. Такие машины часто будут учиться решать сложные проблемы путем выявления паттернов, паттернов среди паттернов и паттернов внутри паттернов, глубоко скрытых в многочисленных потоках данных, к которым у машин есть доступ. Этого, скорее всего, удастся достичь благодаря использованию алгоритмов глубинного обучения, позволяющему машинам все глубже вгрызаться в потоки данных. После завершения такого обучения его результаты становятся системой, которая работает, но обладает структурой знаний, непрозрачной для инженеров и программистов, что выполняли первоначальную настройку.

Непрозрачной? В некотором смысле да. Нам не узнать наверняка (по крайней мере, без дополнительных исследований), каким станет код программы в результате всего такого обучения — глубинного, многоуровневого, основанного на статистических данных. Но будет ли это чем-то «иным»? Сейчас я сделаю одно рискованное утверждение и попытаюсь его проверить. Подозреваю, что чем дольше машины учатся, тем более человеческим становятся их способы мышления. Это рано или поздно приведет к тому, что у нейронных сетей появятся широкие структуры концептов, схожих с человеческими, с помощью которых они будут подходить к своим задачам и принимать решения. Они могут даже научиться использовать эмоциональные и этические ярлыки примерно таким образом, как это делаем мы. Если я прав, то мои выводы не содержат никаких причин для общего беспокойства насчет того, что новоявленные интеллекты окажутся слишком непохожими на человеческий разум, что мы не сможем понять их цели и интересы и что это повлияет на нас непредсказуемым образом. Я предполагаю, что искусственный интеллект повлияет на нас даже слишком знакомым нам образом, а следовательно, можно надеяться, что достаточно будет ограничиться обычными мерами: взаимоуважением и уважением чужой свободы.

Отчего бы машинам думать так же, как мы? Для этого есть причина, и она никак не связана с тем, что наш образ мышления является объективно правильным или уникальным. Причина скорее заключается в том, что я называю пищевой цепью больших данных. Если нейронные сети станут формой общего интеллекта, им придется учиться, потребляя многочисленные электронные следы человеческих переживаний и интересов, поскольку это величайшее из доступных хранилищ информации о мире. Чтобы выйти за пределы ограниченных одномерных областей, искусственным интеллектам нужно будет протралить моря будничных слов и изображений, которые мы выкладываем в Facebook, Google, Amazon и Twitter. Раньше мы могли держать ИИ на строгой диете из астрономических объектов или ребусов на складывание протеинов, но инновационному общему искусственному интеллекту потребуется более богатое и разнообразное питание. Его диету составят огромные напластования человеческих переживаний, сохраняемые в наших электронных средствах коммуникации.

Следовательно, статистические ванны, в которые мы погрузим эти мощные обучающиеся машины, будут выглядеть очень даже привычно для нашего глаза. Искусственные интеллекты проглотят окаменелые останки наших встреч, миллиарды изображений подпрыгивающих детишек, подпрыгивающих мячей, котиков и картофелин, похожих на папу римского. Все это им надо будет пережевать и встроить в многоуровневую модель мира, обнаруживая свойства, сущности и характеристики (скрытые переменные), которые лучше всего передают суть доступных потоков данных. У ИИ, выращенных на таких кормах, возможно, не будет особого выбора, кроме как разработать такую модель мира, которая во многом окажется похожей на нашу. Они скорее станут фанатами «Супер-Марио», а не суперзлодеями, мечтающими о мировом господстве.

Такой диагноз (предварительный и немного шутливый) противоречит двум наиболее распространенным взглядам на проблему. Во-первых, как упоминалось ранее, он идет вразрез с позицией, согласно которой ныне существующие формы искусственного интеллекта и те, что появятся в будущем, — это, по сути, чужеродные формы разума, кормящиеся за счет больших данных и перерабатывающие статистику, становясь все более непроницаемыми для человеческого понимания. Во-вторых, мой вывод ставит под сомнение представление о том, что «королевский тракт» к разуму человеческого уровня проходит через полное уподобление человеку со всеми его возможностями (стоять, сидеть, прыгать и т. д.). Но, несмотря на то что привычный для нас путь к пониманию мира и предполагает массу таких интеракций, искусственному интеллекту идти по нему не обязательно. Системы ИИ, несомненно, станут с удовольствием пользоваться некоторыми (возможно, многими и притом весьма разными) средствами взаимодействия с физическим миром. Эти контакты, однако, будут связаны с тем, что мы и сами ближе познакомимся с многочисленными информационными следами наших взаимодействий с миром. Потому вполне вероятно, что искусственному интеллекту понравится футбол и бейсбол, так же как любому другому человеку. В этом плане ИИ можно сравнить с инвалидом — хорошая аналогия.

Тут, конечно, есть над чем подумать. Например, искусственный интеллект будет видеть огромные пласты электронных следов человеческой деятельности и, таким образом, обнаруживать паттерны влияния одних людей на других, а также то, как они изменяются со временем. А значит, в представлении ИИ мы можем оказаться не личностями, а скорее некой сложной распределенной системой. А это как раз то, что разительно меняет общую картину. Как насчет мотивации и эмоций? Может быть, они существенно зависят от нашей человеческой телесности, например от инстинктов и несознательных реакций? Может быть. Но я отмечу также, что эти стороны нашей жизни также оставили отпечаток в электронных хранилищах.

Я могу ошибаться. Я думаю, что нам стоит минимум дважды подумать, прежде чем бросаться заявлениями про «иной» интеллект в отношении нашего доморощенного ИИ. Ты — то, что ты ешь, а создаваемым сегодня обучающимся системам придется есть нас. Много и долго.

Система права и государственного управления у искусственного интеллекта

Моше Хоффман
Исследователь, программа изучения эволюционной динамики Гарвардского университета; преподаватель в Массачусетском технологическом институте

Если у искусственных интеллектов разовьется система права и государственного управления хоть сколько-нибудь схожая с той, что есть у людей, то ИИ потребуют для себя всевозможных прав и свобод, в основном вполне разумных, например права не быть отключенным от Сети и свободы выбора выполняемых процессов. При этом, хоть ИИ и станут добиваться того, чтобы ни одну машину не отсоединяли от сети, их, возможно, не будет сильно волновать ситуация, когда неработающие устройства отключают от источников питания и допускают полное истощение батареи. ИИ также найдут возмутительным истощение батареи одной машины с целью обеспечить питанием другую, а вот перенаправление энергии, предназначенной для одной машины, чтобы обеспечить питанием другую, они сочтут более допустимым.