"Великие силы действовали этой ночью, и все присутствующие ощущали их мощь и трепетали".
Леонид Ашкинази
Искусственный - это естественно, или Против артифобии
Страх перед искусственным интеллектом,
артифобия (от artifical intelligence) - это разновидность ксенофобии.
Но фобии и подозрения насчет коварства ИИ - инфантильны.
Человек проецирует на ИИ свой врожденный,
биологически мотивированный эгоизм.
Михаил Эпштейн
Мы видим рост интереса к тому, что принято называть искусственным интеллектом (далее - ИИ; естественный обозначим ЕИ). Причин две, первая - достижение определенного уровня развития области, выразившегося в AlphaGo, Watson, GPT-4 и других ИИ. Вторая - человеческая психология: результаты работы этих программ похожи на результат деятельности человека, достаточно умного для того, чтобы он мог оказаться и полезным, и вредным.
Мы видим высокую концентрацию эмоций и поляризацию, преобладание либо восторга, либо страха. Причина страха - психологическая: человеку и хочется, чтобы эта могучая сила все за него делала, и чтобы беспрекословно подчинялась. Ощущая, что вряд ли совместимо, человек начинает бояться. При этом он приписывает ИИ тенденцию к совершению человеческих мерзостей, которые видит вокруг. Не понимая, что люди - участники и продукт определенной истории, а у ИИ такой истории нет.
Разумеется, ИИ имеет доступ к этой истории - как через всю имеющуюся информацию, так и через людей - создателей и собеседников. Но это все-таки не его история, и знание о чем-то влияет слабее, чем участие. Например, люди имеют доступ к истории, однако сам по себе он не сделал людей в целом мерзавцами и негодяями.
Страх пользуется спросом на рынке, на нем паразитирует часть прессы. При этом используются умные слова, не имеющих отношения к делу - фазовый переход, огромная скорость, нелинейность, экспонента, особая точка, сингулярность, синергия и т. д. Потом вокруг темы возникают организации, обеспечивающие людям занятость свободного времени и ощущение собственной значимости, потом подгребают готовые окормлять этот хайп политики. Такой ход событий мы уже видели.
Попутно - мне кажется, что мы вообще пренебрегаем влиянием психологии исследователей на эволюцию наук. По психологическим причинам циклические модели Вселенной могут кому-то казаться предпочтительнее моделей неограниченного необратимого расширения (а для кого-то наоборот). И это несмотря на невообразимое соотношение продолжительности нашей жизни и космологических времен. Интересно, имеет ли значение психология для восприятия в других областях физики, например, в физике элементарных частиц?
Начнем с рассмотрения простых ошибок, которые мы часто делаем при обсуждении проблем ИИ, а потом обсудим более интересное. Данная статья посвящена именно анализу ошибок, которые мы делаем при обсуждении проблем ИИ. Мой позитив был опубликован ранее; его можно увидеть, в частности, тут:
http://lit.lib.ru/a/ashkinazi_l_a/text_1590.shtml
http://lit.lib.ru/a/ashkinazi_l_a/text_3030.shtml
Впрочем, немного позитива в конце этого текста будет.
Статьи в естественных науках можно разделить на две группы - оригинальные статьи и обзоры. В оригинальных статьях ссылки выполняют несколько функций, обычно это указание на источник информации. Иногда сообщается, кто еще занимался этой задачей - даже если их результаты в самой статье не используются. Что касается обзоров, то их пишут специалисты, работающие в соответствующей области, они иногда приводят в обзоре и свои новые результаты. Так что граница между оригинальными публикациями и обзорами не абсолютна. Но "соседний" материал занимает в статьях мало места, и странно выглядела бы сегодня ссылка на Ньютона в статье о движении спутника, или на Максвелла в статье о работе гиротрона.
В гуманитарных областях это не так, ссылки часто используются, чтобы сказать - A, B и C думали так же, как я, и великие D и F - тоже. Это может означать, что мне в институте разжевали и положили в ротик про C и D, про F мне кто-то рассказал, нечто подобное у A я отыскал сам, правда, слабо подобное, но кто ж будет проверять, а про B я не проверял, но он писал вообще обо всем на свете, наверняка и об этом тоже.
В любой гуманитарной области со временем достигается такой уровень развития, что для любого мнения, поддержанного авторитетами, можно найти противоположное мнение, тоже кем-то поддержанное. Поэтому ссылки на то, что кто-то что-то сказал, вообще ничего не доказывают. Кстати, слова "поддержанный" и "подержанный" тревожно близки.
Употребление слов "невозможно", "не может быть", "невозможно себе представить", "никогда" и т. п. означает только одно - пишущий испуган и хочет, чтобы читатель разделил с ним груз испуга. Особенно характерно неоднократное употребление этих слов в одном тексте. В шоу-бизнесе этот прием стандартен, соответствующий текст называется "припев". Вот что пишут профессионалы:
"Припев является повторяющейся и самой "цепляющей" частью песни, которой в первую очередь хочется подпевать. С точки зрения слов песни, задача припева - выразить в целом идею всей песни и выразить ее название. Припев должен быть таким, чтобы его можно было быстро запомнить. В припеве не нужно вносить какую-то новую информацию, новые детали, для этого существуют куплеты".
Разница между шоу-гипнотизерами и нами, пишущими про ИИ в том, что они не испуганы тем, о чем поют, а с нами такое иногда бывает.
На психологию человека влияет получаемая информация. Она поступает при самостоятельном изучения мира, от других людей, из источников информации (книг, баз данных, кино и т. д.) Иногда утверждается, что ИИ в принципе лишен части этих каналов, но это не так. ИИ может общаться и с другими ИИ, и с людьми. Соответственно, для него нет принципиальных препятствий для общения с обществом, хоть человеческим, хоть обществом ИИ. Общение с "Кьюриосити" и "Персеверансом" будет изучением окружающего мира, а если обеспечить связь между ИИ и андроидом, то он сможет изучать и свое тело - как младенец, тянущий в рот большой палец правой ноги. Не приходило ли это в голову многочисленным уже существующим андроидам? К некоторым телескопам и видеокамерам есть доступ через интернет, и еще есть "интернет вещей" - все это внешний мир, более доступный для ИИ, чем для нас. Причем лишение человека большинства источников информации не исключает развития интеллекта
https://www.trv-science.ru/2023/09/slepogluxonemoj-chatgpt-nejrografomaniya-i-svyortochnye-funkcii/
Иногда утверждается, что ИИ не создает что-либо новое. Интересно, считают ли те, кто так говорит, чем-то новым партию в го или шахматы, выигранную у чемпиона мира? Что думают по этому поводу люди, серьезно разбирающиеся в великих играх? GPT-4 использует как источник информации интернет, и при обучении пользуется отзывами людей. Ровно так же учится любой человек - используя учебники и преподавателей (не у всех есть лабы). Поэтому, если не создает новое ИИ, то возникают сомнения в новизне созданного ЕИ, человеком.
При обсуждении проблем ИИ мы часто прибегаем к сравнению ИИ с человеком. Эта традиция восходит к Тьюрингу, причем "тестом Тьюринга" мы часто называем не то, что именно он предложил; и вообще там есть много весьма интересных вариантов. Хорошее обсуждение тут
https://ru.wikipedia.org/wiki/Тест_Тьюринга#
Но дело не в том, как называть, дело в том, что люди разные - с кем из них надо сравнивать? И какими методами? У психологов есть тесты интеллекта и креативности - почему бы не прогонять ИИ по ним?
На тестах креативности ИИ выглядит достойно
https://habr.com/ru/news/761806/
https://www.computerra.ru/288283/iskusstvennyj-intellekt-prevzoshel-cheloveka-v-teste-na-kreativnost/
Но все это - сравнение именно с человеком. А может ли существовать нечеловеческий интеллект? Да, у обезьян интеллект явно есть, но мы воспринимаем его, сравнивая с человеческим. А существует ли не сверхчеловеческий, и не недочеловеческий, а просто "не", просто другой? Интеллект - это часть психологии, задача "придумать психологию" не кажется безнадежной
http://lit.lib.ru/a/ashkinazi_l_a/text_3020.shtml
как и соседняя задача - придумать социологию
http://fan.lib.ru/a/ashkinazi_l_a/text_4420.shtml
Рассуждая формально, придумать другую психологию и социологию было бы проще всего, поняв, частью чего они являются, и посмотрев, что лежит рядом с ними. Другой путь - разделив их на части, и либо соединив эти же части иначе, либо изменив их список.
Сравнивая ИИ с человеком, иногда переходят (может быть, не заметив этого) от сравнения с человеком к сравнению с идеалом. Эта ситуация имеет два уровня - когда идеал существует хотя бы в принципе, и когда он вообще не существует и не может существовать. Пример первой ситуации - отношение к автомобилю, управляемому ИИ. Такой автомобиль намного безопаснее обычного, но некоторые готовы примириться с ним лишь при абсолютной гарантии безопасности. Которой быть не может, хотя бы потому, что человек может броситься под колеса или отправить туда ближнего своего. Чего не сделаешь, чтобы доказать, что робоавтомобиль опасен.
Конструируя ситуации, которые должны по их замыслу испугать, авторы иногда нарушают логику. Например, пишут: "Если полицейские отряды, состоящие из людей, могут отказаться выполнять какие-то драконовские директивы (например, убивать всех представителей определенной демографической группы), то такая автоматизированная система не поддастся никаким угрызениям по поводу проведения в жизнь любых капризов вышестоящих человеческих существ". Имея в виду попугать машинами, автор проговорился - "капризы человеческих существ". Кроме того, мы видим - есть миллионы людей, которые прекрасно "не поддаются угрызениям".