Млечный Путь № 3 2020 — страница 38 из 48

люди. Это, кстати, аргумент - не хочется отдавать грядущий мир умным негодяям, которые опять возглавят массу, превращенную их стараниями в быдло. И снова поведут ее на убой к сияющим вершинам.

Что лично до меня, то я не философ, я простой физик с примесью социолога, и скажу просто: я - за. В обе стороны. И я был бы счастлив так общаться, могу перечислить, с кем, а если кому-то хочется со мной потом таким способом общаться, я тоже не против. Работайте, компьютерщики, творцы ИИ, создавайте, если успеете, я к вам присоединюсь. Как клиент, пациент и вообще.

Бессмертием я, конечно, лично для себя это считать не могу. Для своих идей - отчасти, для своей работы - в очень большой мере. А для своей личности, для коннектома? Я - это не только писание книжек и преподавание. Теперь, когда в моей жизни нет подземной черноты, не пробиваемой фонарем и разворачивающейся туда с шорохом лесенки, нет ослепительного сияния ледника днем и светящихся палаток в ночи... есть еще и проснутся там, где заснул, с теми же пятнами на протекшем когда-то потолке, с тем же твоим теплом рядом. Вот если когда-то все это наука незаметно для меня ночью втихаря реализует, то, конечно, тогда да...


Робот и ИИ, качество и надежность

Что касается ИИ и роботов, то некоторые авторы эти вещи не вполне разделяют, а зря. ИИ может быть встроен в робота, а может жить в компьютере или вообще в сети. Робот может быть и без ИИ, и с ним, и это психологически важная тема. Что же касается качества их работы, то мы по умолчанию считаем, что качество оценивает человек. Это не обязательно так, возможны более хитрые ситуации. Программа может работать не "на человека", а на другую программу или на устройство, действующее автономно. Например, мы отправляем автономный аппарат к близкой звезде (не к Солнцу). При подлете он должен выпустить зонды, которые обследуют эту систему, а сам полететь дальше. Нам нужна программа, которая определит траекторию облета нашими зондами этой не Солнечной системы. Такая программа должна учитывать много разных факторов, в честности, данные о планетах и об их спутниках, уже полученные при приближении аппарата ко всей этой системе. Программа, которая изучала эти планеты, передает свои данные программе, которая определяет облет зондами системы, а та передает данные автономному аппарату. И человек никогда не увидит результата работы этих программ. А тестировать он мог их сто лет назад и только на своей Солнечной системе, а это не совсем то.

Другой вариант, вроде бы, более прост - человек, который смотрит на результаты работы программы, есть. Но он не вполне уверен в своем понимании качества решения. Такая ситуация бывает при общении людей - я вижу, как решает некую задачу мой коллега, но не уверен, что правильно оцениваю его решение. Например, мое решение мне нравится больше, но уверенно сказать, что он ошибается, я не могу. По мере приближения, в любом смысле, ИИ к ЕИ, эта ситуация непременно возникнет.

Другая сложность - отношение человека к надежности. Автомобиль наедет на пешехода, промышленный робот, неловко развернувшись, заденет мастера В. В. Пупкина по уху - и вангогом дело может не обойтись. Дело не только в неисправностях, возможны сложные ситуации, причем даже такие, когда придется решать, кого защищать - своих пассажиров или других, их или пешехода, да и кого из пешеходов... Необходимость как-то сформулировать этические предпочтения побудила людей их исследовать, нашлись интересные корреляции с полом и возрастом, выяснились, что эти предпочтения разные в разных регионах (спросите Сеть "моральные проблемы беспилотных автомобилей"). Но это наука, а борцы с нашествием роботов вполне могут пойти на провокации - надеясь, что пострадает железка, а они сдерут миллион за моральный ущерб (а может ли быть моральный ущерб у аморального человека?) Психология многих людей такова, что они предпочтут, чтобы давил автомобиль с пьяной дрянью за рулем, чем со в сто раз меньшей вероятностью - робот. Наверное, психологи могут объяснить, почему это так, но знают ли они, как это изменить? Ведь из-за этого иррационального мышления тормозится внедрение беспилотных автомобилей, а замена лишь одного процента всех автомобилей беспилотными будет спасать десять тысяч жизней ежегодно.

Во всех публикациях по теме ИИ явно или неявно проводится мысль, что он должен быть идеален. Но если он будет ошибаться, скажем, хотя бы вдвое реже, чем человек, то игра уже стоит не только свеч, но и инвестиций. Или вот - в некоторых странах каждый понимает, чем кончится попытка объяснить неправомерность претензий представителю силовых структур на улице. Робот, несущий полицейские функции, наверняка будет запрограммирован иначе - потому, что это может быть проверено независимо. Заметим, что проверяемая программная ограниченность роботов-полицейских как раз и может исключить их появление в некоторых странах. Хотя... ну да, проверки можно запретить или, еще лучше, фальсифицировать.

Создавая страшилки, авторы и нарушают логику, и демонстрируют мышление, оторванное от реальности. Например, пишут: "Если полицейские отряды, состоящие из людей, могут отказаться выполнять какие-то драконовские директивы (например, убивать всех представителей определенной демографической группы), то такая автоматизированная система не поддастся никаким угрызениям по поводу проведения в жизнь любых капризов вышестоящих человеческих существ. После того как подобное тоталитарное государство сформируется, для людей окажется практически невозможным положить ему конец". Имея в виду - попугать машинами, автор оговорился - "капризы человеческих существ". Кроме того, из истории известно - были, наверняка есть, - миллионы людей, которые "не поддаются угрызениям" того, чего у них и вовсе нет.

Ненадежны могут быть не только беспилотные автомобили и промышленные роботы. Любая программа может выдать неправильные цифры - из-за ошибок, сделанных ее автором или из-за сбоев "железа". Мы привыкли к этому, и как-то научились с этим умеренно справляться, хотя самолеты иногда перепутывают верх и низ. Но человек перепутывает чаще; есть версия, что сбить-то хотели своего, чтобы получить casus belli, а по криворукости грохнули чужого. Но программы, на коробке с которой написано ИИ, человек боится больше, и поэтому предъявляет к ней больше требований. И совершенно зря - потому, что он сам ошибается чаще этой программы.


Конкретные ситуации

Начнем с ситуаций, когда требуется действие, а потом перейдем к работе с информацией. Промышленные роботы успешно применяются, интеллектом они не блещут, да он им и не нужен. Крики о том, что будет безработица, полезны для издателей, но есть и публикации, в которых показано, что опасности нет. Возникнут новые рабочие места, и в сфере обслуживания, и в сфере производства, причем в среднем с более высокой квалификацией, что пойдет человечеству только на пользу. А для тех, кто окажется не у дел, бизнес уже создал достаточное количество способов безболезненно убить время - например, социальные сети. Да и под присмотром народишко будет... Человечество уже не раз перекладывало часть ручного труда на железные плечи машин, и как-то обходилось, назад в средневековье никто не хочет. Робота с ИИ человек побаивается - он больше похож на конкурента, чем ИИ, живущий где-то там, в глубине компьютера. А живущий в смартфоне - совсем не опасен, потому что лежит в кармане.

Медицинские роботы пока развиваются медленнее, потому, что некоторым из них приходится взаимодействовать с людьми плотнее. Вот тут дело пахнет как раз ИИ, потому что человек вообще не всегда предсказуем - стало быть, жесткую программу составить не удастся. Но зато в этой сфере робот вообще может обогнать человека - например, имея многопиксельное зрение и мощную систему распознавания микромимики, он будет "читать мысли". В медицине это было бы весьма полезно, как в виде помощника врача и медсестры, так и в виде железного медбрата (или сестрички?). Впрочем, силовые структуры захотят применить такого робота для допроса, а работодатель - при найме. В цивилизованном обществе, когда общество рулит государством, это будет ограничено законодательно, и ограничение будет в некоторой мере соблюдаться.

Интуитивно кажущаяся менее предсказуемой ситуация - действия в опасных ситуациях, например, спасение людей из завалов при взрывах и обрушении зданий, и военные применения. Работы в этих направлениях, естественно, ведутся, реальные результаты не публикуются, - жестяные коробки на парадах и примитивные мультики для разогрева аудитории не в счет. Будем надеяться, что практических результатов мы не увидим. Понятно, что в разных странах деньги, выделяемые на работы в этих двух направлениях, сильно разнятся, да и желание развивать то или иное направление, может быть разным у разных людей. Будем надеяться на положительную корреляцию морали и экономики на уровне общества, а совести и ума на уровне личности; во второе родители и педагоги могут внести вклад.

Писателям дарю сюжет. На развалинах города после очередной победоносной операции (стелется дым и витает копоть) встречаются два робота, не только представляющих разные стороны, но и несущих противоположные функции... А еще можно ролевушку учинить. Я - за.

Следующая ситуация, где действие опосредованное - это боты, диалог на естественном языке. Тут ситуация ясна, компьютерный перевод делается все лучше, программы могут анализировать тональность, и скоро в некоторых странах при выступлении политиков по телевизору в уголке будет красоваться "по мнению ИИ, доля вранья ...". Кстати, по губам они тоже вот-вот научатся читать, а также снимать сигнал с мышц до произнесения вслух. Фантастика, правда?

Компьютерная генерация текста в некотором смысле проще перевода. Если программе есть, что сказать, она может пользоваться своими языковыми возможностями, которые могут быть ограниченнее, чем потенциально неограниченные возможности внешнего текста. Автор мог использовать даже словотворчество, а программе это не обязательно. Впрочем, если есть такая задача, то язык программы может почти неограниченно расширяться путем обращения к Сети в поисках синонимов, и сложность своего языка программа может подгонять под речь собеседника, чтобы ему было комфортнее.