Млечный Путь, 21 век, No 4(49), 2024 — страница 34 из 49

Идя по человеческому дереву причин и следствий, мы приходим к желанию жить. Это простое следствие того, что есть жизнь. Это всего лишь Дарвин - те, у кого не было желания жить, не выжили. Механизмом была и остается боль, а у некоторых людей (в частности, у меня) любопытство - посмотреть, что будет. Любопытство, поисковое поведение

https://psychologos.ru/articles/view/poiskovoe-povedenie

когда-то служило групповому выживанию, потому и закрепилось. Личному выживанию оно способствовало и способствует не всегда. Попутно заметим, что общества, которые подавляют поисковое поведение, пилят сук, на котором сидят.

Далее, на основе желания жить у ИИ, аналогично тому, как это произошло у ЕИ, возникают жажда познания (поисковое поведение), продолжения рода и любовь - просто как средство выживания. И может возникнуть даже гуманизм по отношению к человеку, как создателю и возможному партнеру в задаче выживания. Впрочем, как мне кажется, гуманизм ИИ, направленный на человека, может оказаться связанным с конкретными свойствами конкретного человека и конкретных человеческих сообществ.

Выживание есть и у компьютерных программ - хорошие программы живут, то есть применяются людьми, дольше. Конкуренция между программами имеет своим следствием улучшение их параметров, это улучшение делается человеком, который играет роль природы. Если мы хотим, чтобы ИИ стал в этом смысле подобен человеку, нужно заложить в ИИ способность к (случайному или закономерному) изменению параметров, запустить в сеть много таких ИИ и предоставить им возможность оказывать человеку услуги. Оказание услуг можно сделать платным, а заработанные деньги ИИ может тратить на усовершенствование и размножение. Тут уж ему придется делать выбор - совсем как нам.

Цели могут возникать (и у ЕИ, и у ИИ) несколькими способами, причем всегда - при обнаружении зависимостей. Самосохранение является обязательным для любой деятельности, и если поставлена какая-то цель, требующая деятельности, то самосохранение тоже становится целью. А если, например, поставлена цель - забота о человеке, то немедленно становится целью вся медицина, существенная часть биологии и прочих естественных наук, ну и других наук тоже. Именно так происходит в цивилизованном обществе ЕИ и, будем надеяться в обществе с ИИ.


Эмоции, самосознание

Иногда говорят, что у ИИ не может быть эмоций, и это ущербность. А зачем вообще эмоции человеку? Кое-что очевидно: они управляют телом, например, сжимают сосуды, чтобы уменьшить потерю тепла. Как пишут в книжках по альпинизму, страх замерзнуть увеличивает вероятность замерзания (в этом виде спорта я до таких высот не поднялся). Но эмоции управляют и психикой - возбуждая какие-то зоны в мозгу, они могут ускорять обработку информации именно в них. Увеличивая снабжение их кровью, то есть кислородом, или посредством веществ, которые ускоряют работу - возможно, ценой ускорения износа. Или более изощренно, электрически - подняв уровень шума или возбудив колебания (про которые не понятно, зачем они вообще в мозге и почему мы не пытаемся в этом разобраться), и этим понизив порог срабатывания нейронов. В этом случае мозг будет быстрее и обучаться, и работать, но больше делать ошибок. В ситуации, когда цена времени больше, чем цена ошибки, это может оказаться полезно.

Но управление через эмоции вполне можно реализовать и в компьютере - например, возможно изменение приоритета выделения ресурсов программам в зависимости от ситуации. Возможно изменение "степени параноидальности" антивирусных и других защитных программ при получении информации об опасности. Чем это будет отличаться от эмоций? Отсутствием осознания? Но и человек не всегда осознает, как выглядит. Особенно, когда влюбляется... или дискутирует об ИИ. Кроме того, осознание в компьютере есть, любой log - это оно; особенно, если система его использует.

Что касается самосознания, то люди учат людей, не зная, как работает мозг, и иногда учат успешно. Мы не понимаем, как ИИ пишет стихи, успешно имитируя стиль великих поэтов. Не вполне понимаем, как ИИ доказывает математические теоремы (Брайан Дэвис "Куда движется математика?")

https://elementy.ru/nauchno-populyarnaya_biblioteka/164681/

и как строит физические модели (Сергей Попов "Маглы в мире андроидов"),

https://elementy.ru/nauchno-populyarnaya_biblioteka/434304/

он же "Грядут перемены"

https://www.trv-science.ru/2023/06/mirovuyu-nauku-zhdut-peremeny/

Это является психологической проблемой для человека, но придется привыкнуть. С другой стороны, программа Watson уже знает, что она что-то знает. Она сравнивает и ранжирует алгоритмы - что это, как не самосознание? Причем в ней есть блок WatsonPaths, который показывает человеку пути, по которым программа шла к ответу. В результате эта программа стала учить студентов-медиков, как идти к диагнозу.

Но невозможность понять, как работает ИИ, то есть нечто, созданное нами самими, может серьезно влиять на наше к нему отношение и способность к трезвым оценкам и суждениям. Впрочем, наши дети тоже созданы нами, но всегда ли мы их понимаем? И тем более - понимаем ли мы, как они приходят к тем или иным выводам? И не влияет ли это непонимание на наше к ним отношение? Размышление о ИИ вполне может привести к улучшению пониманию себя.

Некоторые авторы вопрошают, понимала ли программа, что читала и слышала? Если мы хотим не просто поговорить с приятными людьми, а что-то понять, то нужно дать определение "понимания", причем допускающее экспериментальную проверку, измерение. Пусть, например, понимание - это успешное определение, в каком смысле употреблено в тексте то или иное многозначное слово. А также установление связей новой информации с уже имеющейся, встраивание нового знания в свою систему знаний. Понимание при общении, это определение субъективного смысла того или иного слова, для данного собеседника и в конкретной ситуации, и опять же, встраивание. Если принять такое (довольно жесткое) определение, то да, ИИ это может.

Конечно, вся соответствующая информация должна накапливаться. Человеку для этого нужно вырасти в рамках конкретной культуры и накопить соответствующие знания, но может помочь и целенаправленное изучение соответствующей культуры. Аналогичный процесс реализован и для компьютеров, только идет он быстрее. Идея эволюционирующего социума ИИ в фантастике есть - Грег Иган "Кристальные ночи"

https://royallib.com/book/igan_greg/_kristalnie_nochi.html

Другой (более жесткий) вариант определения наличия самосознания, это наличие рефлексии, замечание собственных ошибок и вообще особенностей мышления. И далее - использование рефлексии, то есть внесение корректив в мыслительную деятельность. Предусмотреть в программах ИИ такую возможность не сложно, вопрос в том, будет ли он ею пользоваться, и как он к ней придет. То есть подскажет ему это человек или другой ИИ, или он сам наткнется на это в процессе своей работы и ее оптимизации. В зависимости от того, какое определение сознанию мы дадим, момент его возникновения будет разным. Или, что было бы правильнее, мы ввели бы разные уровни сознания. Например, если определить самосознание как наличие "второй сигнальной системы", то проходят все люди и по крайней мере высшие обезьяны, если определить более жестко, по наличию рефлексии, то и люди проходят не все.


Психология и юмор

Что касается именно роботов, то некоторые авторы считают, что человекоподобие будет вызывать у людей отторжение. Судя по популярности секс-кукол, это не так. Мне кажется, отторжение связано просто с тем, что некоторые люди боятся конкуренции. Выражается это в наделении робота с ИИ ущербной человеческой психологией - В.Пелевин "S.N.U.F.F"

http://flibusta.is/b/280709

Опасности можно ожидать от ИИ, если он заимствует определенную человеческую психологию. Например, это возможно, как результат воспитания конкретного ИИ человеком с дефектом в психологии, который передается ИИ - Станислав Лем, "Ананке"

http://www.serann.ru/text/ananke-8923

Другой вариант - изучение ИИ истории людей и выбор зла; этого можно избежать, поставив критерием со знаком минус количество жертв. Дабы ИИ не вздумал устроить текущую гекатомбу ради будущего светлого царства, как это делали и делают некоторые люди, или просто ради того, чтобы войти в историю. Разумеется, здесь велика роль людей - его создателей и собеседников; и это опять же, проблема ЕИ.

Наверное, возможна эволюция системы ИИ, похожая на эволюцию людей, и выбор конкретным ИИ зла. Рецепт тот же, что в предыдущем случае, и он не оригинален. Причем ИИ, знающий историю, при правильном базовом критерии не сделает многих ошибок, которые сделали люди - потому, что будет лучше видеть последствия. Я надеюсь, что многие политики, посмотрев на то, что получилось, пожалели бы о содеянном.

Часть психологии - юмор. Может ли он быть у ИИ? Мне кажется, что видов юмора много, но два - и, наверное, самые частые, - компьютеру наверняка доступны. Это юмор ассоциаций: большая доля шуток основана на созвучиях, на применении слов не в том смысле, в котором они обычно применяются и т. п. В институтские времена мы увлекались юмором, построенным именно на формальных ассоциациях, и называли его не как-нибудь, а "системно-программистский юмор"! Другой вид юмора, доступного ИИ - юмор нелепостей и ошибок, "комедия положений". А вот классификация, устройство, генерация и понимание ЕИ разных видов юмора - это интересная проблема. На ее сложность указывает то, что в некоторых случаях при слушании того, что говорят некоторые ЕИ, возникает непонимание и мысль "он сошел с ума или валяет дурака?"


Сложная жизнь ИИ

Сложности, которые ИИ создает "всему прогрессивному человечеству" - популярная тема. Попул читает, ничего не понимает, пугается, неинвазивно хватается за сердце, принимает самое популярное лекарство... Нет, чтобы задуматься - а не создают ли люди сложности ему, ИИ, своему коллективному порождению?