Что мы думаем о машинах, которые думают. Ведущие мировые ученые об искусственном интеллекте — страница 12 из 86

Поэтому путаные аргументы людей, которые пытаются показать, что разбираются в вопросах мышления, сознания или этики искусственного интеллекта, часто отвлекают от простой истины: единственный способ гарантировать, что мы случайно себя не взорвем с помощью собственной технологии (или метатехнологии), состоит в том, чтобы делать домашние задания и принимать соответствующие меры предосторожности, как поступили ученые из Манхэттенского проекта, когда подготовили LA-602. Нам надо перестать играть словами и взяться за исследования в области безопасности искусственного интеллекта.

Вот вам аналогия: со времени Манхэттенского проекта ученые-ядерщики переключились со стремления увеличить мощность реакции ядерного синтеза на решение вопроса, как наиболее эффективно ее можно сдерживать, — и мы даже не называем это ядерной этикой.

Мы называем это здравым смыслом.

Какое вам дело до того, что думают другие машины?

Джордж Чёрч
Преподаватель генетики, Гарвардская школа медицины; директор проекта Гарвардского университета «Личный геном»; автор, совместно с Эдом Реджисом, книги «Перерождение: Как синтетическая биология заново откроет природу и нас самих» (Regenesis: How Synthetic Biology Will Reinvent Nature and Ourselves)

Я — мыслящая машина, состоящая из атомов, прекрасная квантовая модель задачи многих тел — задача 1029 тел. Я — робот, имеющий опасную склонность самопрограммироваться и не допускать того, чтобы кто-то отключал мое энергоснабжение. Все мы, люди-машины, расширяем свои возможности через симбиоз с другими машинами, например улучшаем зрение, чтобы заглянуть за пределы длины волн в несколько жалких нанометров, доступных нашим предкам, и увидеть весь электромагнитный спектр от пикометра до мегаметра. Мы швыряем 370-килограммовые куски своего улья дальше Солнца на скорости в 252 792 км/ч. Мы расширяем свою память и математические способности в миллиарды раз с помощью кремниевых протезов. И все же наш биомозг в тысячу раз более энергоэффективен, чем наши неорганические мозги, в тех задачах, где у нас есть точки соприкосновения (таких как распознавание лиц и перевод с одного языка на другой) и бесконечно лучше подходит для задач пока еще неизвестной сложности, вроде эйнштейновских инновационных работ в Annus mirabilis[18], затрагивающих будущие века. Поскольку область действия закона Мура простирается от транзисторов, изготавливавшихся на литографическом оборудовании с точностью в 20 нм, до тех, что будут делать с атомарной точностью в 0,1 нм, и от двухмерных схем к трехмерным, мы вправе пренебречь возможностью заново изобретать и моделировать наш биомолекулярный мозг и сразу перейти к их конструированию.

Мы можем с идеальной точностью скопировать петабайты кремневых мозгов за считаные секунды, а передача информации между углеродными мозгами занимает десятилетия, и подобие между копиями едва заметно. Некоторые считают, что мы можем осуществить перенос данных из углерода в кремний и даже сделать так, чтобы кремниевая версия вела себя как оригинал. Однако такая задача требует куда более глубокого понимания, чем простое создание копии. Мы обуздали иммунную систему посредством вакцин в X веке в Китае и в XVIII — в Европе, задолго до того, как узнали о цитокинах и Т-клеточных рецепторах. У нас пока нет медицинского наноробота, обладающего сопоставимой гибкостью или функциональностью. Может оказаться, что создать тождественную на молекулярном уровне копию мозга массой в 1,2 килограмма или 100-килограммового тела легче, чем понять, как это работает (или чем перенести содержимое моего мозга на аудиторию студентов, многозадачно оперирующих электронной почтой и видео с котиками). Это намного более радикальная задача, чем клонирование человека, но она все же не предполагает использования эмбрионов.

Какие проблемы гражданско-правового характера возникают с появлением таких гибридных машин? В прошлом можно было встретить биомозг с почти идеальной памятью, способный воссоздать некое явление в виде выразительной прозы, картины или анимации, и часто он даже бывал почитаем. Но гибридам-полукровкам дня сегодняшнего с усовершенствованной гаджетами памятью запрещено появляться в залах суда, ситуационных комнатах[19], банях и на приватных переговорах. Номерные знаки и лица в Google Street View размыты — так нас намеренно делают жертвами прозопогназии[20]. Должны ли мы калечить или убивать Харрисона Бержерона[21]? Как насчет голосования? Сегодня мы далеки от всеобщего избирательного права. Мы придерживаемся ценза на основании зрелости и здравомыслия. Если я скопирую свой мозг (или тело), получит ли он право голосовать или его следует считать дубликатом? Примем к сведению, что даже точные дубликаты личности с первых секунд существования начинают отличаться от оригинала, а кроме того, копия может содержать преднамеренно внесенные несоответствия. В дополнение к сдаче теста на зрелость, здравомыслие и человечность, вероятно, копии придется пройти обратный тест Тьюринга (или тест Чёрча — Тьюринга). Задача такого испытания будет состоять не в том, чтобы продемонстрировать неотличимое от человеческого поведение, а в том, чтобы продемонстрировать поведение, отличающееся от такового у конкретных людей (интересно, пройдет ли такой тест нынешняя американская двухпартийная система?). Возможно, день корпоративной личности («Дартмутский колледж против Вудварда»[22], 1819) наконец настал. Мы уже голосуем за это своими кошельками. Изменения в покупательных тенденциях приводят к дифференциации в распределении благ, лоббировании, приоритетах научных и конструкторских изысканий и т. д. Возможно, большее число копий определенных мемов, разумов и мозгов станет представлять волю тех, кто будет говорить о себе: «Мы — (гибридный) народ мира». Приведет ли такой дарвиновский отбор к катастрофе или в результате люди больше станут ценить сочувствие и красоту, исчезнут бедность, войны и болезни, появится по-настоящему долгосрочное планирование в масштабах тысячелетий? Возможно, гибридный вариант будущего не только более вероятен, но также и более безопасен, чем какая-либо из двух крайностей: создание неведомого кремниевого мозга или отстаивание древних когнитивных искажений и нашей основанной на страхе «фактоустойчивой» системы выборов.

Машины не могут думать

Арнольд Трехуб
Психолог, Университет Массачусетса в Амхерсте; автор книги «Когнитивный мозг» (The Cognitive Brain)

Машины (сконструированные человеком артефакты) не могут думать, потому что ни у одной из них нет точки зрения — своеобразного взгляда на мирские референции ее внутренней символической логики. Мы как сознательные познающие наблюдатели смотрим на выводы так называемого искусственного интеллекта и создаем собственные референции символических структур, выданных машиной. Впрочем, даже несмотря на это, подобные не-думающие машины стали чрезвычайно важным дополнением человеческой мысли.

У них нет ни «я», ни способности к злому умыслу

Рой Баумейстер
Заслуженный научный сотрудник и глава кафедры им. Френсиса Эппса, программа подготовки по социальной психологии, Университет штата Флорида; автор, совместно с Джоном Тирни, книги «Сила воли: открывая заново самую мощную способность человека» (Willpower: Rediscovering the Greatest Human Strength)

Так называемые думающие машины — это расширение человеческого разума. Они не существуют в природе. Они не созданы эволюцией, они созданы людьми из чертежей и теорий. Человеческий разум учится создавать инструменты, позволяющие ему лучше работать. Компьютер — один из лучших инструментов.

Жизнь главным образом стремится поддерживать жизнь, так что живые существа обращают внимание на то, что происходит вокруг. Компьютер, не живой и не созданный эволюцией, не заботится о самосохранении или воспроизводстве — он не заботится вообще ни о чем. Компьютеры не опасны в том смысле, в каком опасны змеи или наемные убийцы. Хотя множество фильмов раскрывают жуткие фантазии о злобных машинах, реальные компьютеры не обладают способностью к злому умыслу.

Думающая машина, которая служит человеку, — это ценность, а не угроза. Только если она становится самостоятельным субъектом, действующим по своему усмотрению, то есть инструментом, восставшим против воли своего создателя, она может оказаться опасной. Тут компьютеру понадобится кое-что большее, чем просто мышление. Ему нужно будет принимать решения, противоречащие пожеланиям программиста. Это потребует чего-то наподобие свободы воли.

Что такого должен будет сделать ваш компьютер или ноутбук, чтобы вы сказали, что он обладает свободной волей (по крайней мере, в том смысле, в котором мы говорим о свободе воле у людей)? Ему определенно придется себя перепрограммировать, иначе он так и продолжит выполнять заданные инструкции. И такое перепрограммирование должно быть гибким, а не сделанным заранее. Но откуда ему взяться? У людей субъектность зарождается потому, что служит мотивационной системе, — она помогает вам получить то, в чем вы нуждаетесь и чего хотите.

Люди, как и другие животные, были созданы эволюцией, и, таким образом, основы субъектности идут рука об руку с желанием обладать и склонностью любить вещи, которые способствуют продолжению жизни, такие как еда и секс. Субъект подчиняется этому желанию, выбирая действия, приводящие к получению предметов, которые поддерживают жизнь. А мышление помогает субъекту делать правильный выбор.

Мышление человека, таким образом, служит продлению его жизни, помогая решить, кому доверять, что есть, как заработать и кого выбрать в спутники жизни. Думающая машина не мотивирована никаким внутренним стимулом поддержания жизни. Компьютер способен обработать большой объем информации быстрее, чем это делает человеческий мозг, но в компьютере нет «я», потому что у него нет желания обладать вещами, которые позволяют поддерживать жизнь. Если бы у компьютеров была потребность в продлении их собственного существования, то они, вероятно, сосредоточили бы свой гнев на компьютерной индустрии, стремясь остановить ее развитие, потому что главная угроза продолжительному существованию компьютера возникает тогда, когда более новые, более эффективные модели делают его устаревшим.