Поэтому я поднимаю глаза к небу всякий раз, когда читаю о новейших системах безопасности, якобы обеспечивающих стопроцентную защиту от взлома. И тем не менее «стопроцентная защита от взлома» — это именно то, что нам необходимо для будущих систем искусственного интеллекта, прежде чем мы поставим их управлять, скажем, какими-то важными объектами инфраструктуры или системой вооружений, поэтому с ростом вовлеченности искусственного интеллекта в общественную жизнь непрерывно возрастает важность обеспечения компьютерной безопасности. Хотя очень часто причиной взлома оказывается элементарная человеческая доверчивость или неочевидная уязвимость недавно выпущенной программы, не менее часто несанкционированный вход на удаленный компьютер обеспечивает банальная ошибка, остававшаяся незамеченной неприлично долгое время. Ошибку «Heartbleed» не замечали с 2012 по 2014 год в одной из самых популярных библиотек программного обеспечения для безопасной связи между компьютерами, а ошибка «Bashdoor» оставалась в самой операционной системе всех работавших под Unix компьютеров с 1989 до 2014 года. Это означает, что средства для улучшения тестирования, валидации и контроля в системах искусственного интеллекта будут служить также и повышению безопасности.
К сожалению, лучшие системы искусственного интеллекта окажутся одинаково эффективны как в поиске новых уязвимостей, так и в проведении наиболее изощренных хакерских атак. Представьте себе, что в один прекрасный день вы получаете электронное письмо, образец необычно персонализированного «фишинга», как пример практически неотразимой попытки разгласить вашу персональную информацию. Письмо приходит с адреса близкого вам человека, и взломавший его искусственный интеллект необычайно искусно выдает себя за него, имитируя его стиль и наиболее характерные выражения, с которыми он мог познакомиться, проанализировав почту в его аутбоксе, в том числе и отправленные им вам сообщения, а также используя собранную о вас информацию из других источников. Вы бы не попались? А если бы фишинговое письмо пришло из кредитной компании, выдавшей вам кредитную карточку, а за ним последовал бы телефонный звонок, и приветливый человеческий голос в трубке никак не опознавался бы как сгенерированный искусственным интеллектом? Пока незаметно, чтобы в набирающем обороты соревновании хакеров и защитников компьютерной безопасности позиции последних были сильнее.
Законы
Мы, люди, — социальные животные, сумевшие подчинить себе другие виды животных и занять доминирующее положение на планете благодаря нашей способности к сотрудничеству. Мы разработали законы для поддержания и облегчения сотрудничества, и если искусственный интеллект сможет улучшить наши законодательные и правительственные системы, то мы сможем сотрудничать еще более успешно, чем когда-либо прежде, проявляя все то лучшее, что в нас есть. И поскольку существует много способов для написания и применения наших законов, давайте рассмотрим сейчас и то и другое.
Каковы первые ассоциации, которые приходят на ум, когда вы думаете о судебной системе в вашей стране? Если вы подумали о бесконечных проволочках, дороговизне и о то и дело случающихся несправедливостях, то вы не одиноки. Правда, было бы замечательно, если бы вместо всего этого вы прежде всего подумали об эффективности и честности? Поскольку судебный процесс в теории может рассматриваться как вычисление, на входе которого информация о собранных доказательствах и законах, а на выходе — судебное решение, то есть ученые, мечтающие полностью его автоматизировать, передав всю процедуру в ведение роботов-судей — систем с искусственным интеллектом, которые в каждом своем решении неизменно опираются на самые высокие правовые стандарты и не знают человеческих слабостей, таких как пристрастность, утомление или недостаток новейших знаний.
В 1994 году Байрон Делабэквит-младший был осужден за убийство лидера движения за гражданские права чернокожих Медгара Эверса, совершенное им в 1963 году, при том что уже на следующий год после убийства два разных жюри штата Миссисипи, включавшие только белых заседателей, не смогли вынести ему приговор, хотя, объективно говоря, набор улик никак не изменился{40}. Увы, история права изобилует предвзятыми суждениями, на которые повлиял то цвет кожи, то пол, то сексуальная ориентация, то религиозная принадлежность, то национальность, то еще какой-нибудь фактор. Роботы-судьи в принципе могут гарантировать, что в первый раз в истории все будут действительно равны перед законом: их можно так запрограммировать, чтобы они ко всем относились одинаково и с каждым одинаково себя вели, обеспечивая транспарентность в применении закона и его полную беспристрастность.
Роботы-судьи также, в отличие от людей, неподвластны случайным предубеждениям, равно как и предубеждениям систематическим. Например, вызвавшее много споров исследование 2012 года работы израильских судей показало, что те выносят значительно более жесткие приговоры, когда голодны: они отклоняли около 35 % прошений об условно-досрочном освобождении сразу после завтрака, но больше 85 % — непосредственно перед обедом{41}. Еще один недостаток людей в роли судей заключается в том, что им часто не хватает времени, чтобы изучить все детали дела. В отличие от них робота-судью легко размножить, так как он ненамного больше заложенного программного обеспечения, и тогда все дела будут изучаться параллельно, а не одно за другим, и каждое из них получит собственного судью на весь срок рассмотрения дела. Наконец, судья-человек не может обладать всеми техническими знаниями, необходимыми для ведения разнообразных дел — от запутанных патентных споров до таинственных убийств, раскрываемых лишь с помощью новейших достижений судебной медицины, а роботы-судьи будущего смогут располагать практически неограниченными емкостью памяти и обучаемостью.
Когда-нибудь такие роботы-судьи окажутся и более эффективными, и более справедливыми, чем люди, будучи беспристрастными, компетентными и транспарентными. А их эффективность послужит еще бóльшему усилению справедливости, ускорив ход юридических процессов и уничтожив предпосылки для воздействия на их исход со стороны подкованных юристов, при этом они позволят добиваться справедливости через суд при значительно меньших расходах. И тогда шансы даже не располагающего особыми средствами просителя или стартап-компании успешно противостоять миллиардеру или транснациональной корпорации сильно возрастут, несмотря на армию юристов, помогающих оппоненту.
С другой стороны, чем грозят для такого робота-судьи программные глюки или атаки хакеров? И от того и от другого уже пострадали машины автоматизированного голосования, а когда на карту поставлены годы за решеткой или миллионы на банковском счету, цена кибератаки заметно повышается. Даже если мы уверены, что искусственный интеллект использует правильный законодательный алгоритм, почувствуем ли мы достаточную уверенность в логике его использования, чтобы уважать выносимые решения? Эта проблема усугубляется быстрым прогрессом в развитии нейронных сетей, которые часто превосходят довольно очевидные традиционные алгоритмы искусственного интеллекта, за что приходится расплачиваться их прозрачностью. Если ответчик хочет знать, почему ему вынесли именно такой приговор, он должен иметь право на лучший ответ, чем какой-нибудь такой: «Мы натренировали нашу систему на большом количестве данных, и она теперь приняла такое решение». Кроме того, недавние исследования показали, что если вы тренируете нейронные системы глубокого обучения на большом количестве данных о заключенных, они могут предсказывать, кто из этих заключенных с большой вероятностью вернется к своей преступной деятельности (и кому из них поэтому должно быть отказано в условно-досрочном освобождении), лучше, чем судья-человек. Но что делать, если эта система обнаружит, что склонность к рецидивам статистически связана с полом или расовой принадлежностью заключенного, — будет ли это считаться проявлением сексизма или расизма робота-судьи, который, следовательно, нуждается в перепрограммировании? Действительно, исследование 2016 года показывает, что программное обеспечение, используемое в Соединенных Штатах для предсказание рецидивизма, предвзято настроено против афроамериканцев и поддерживало несправедливые приговоры{42}. Это важные вопросы, которые нам надо поставить и обсудить, чтобы сохранить возможность эффективно использовать искусственный интеллект. У нас нет необходимости принимать решение из разряда «все или ничего» в отношении роботов-судей, но решать, до каких пределов и с какой скоростью мы хотим вводить искусственный интеллект в нашу правовую систему, нам придется. Мы хотим, чтобы завтра люди, выполняющие работу судей, получили себе в помощь системы информационной поддержки принятия решений на основе искусственного интеллекта, как ее получат врачи? Мы хотим идти дальше и дать роботам-судьям возможность самостоятельно принимать решения, которые могут быть обжалованы в суде, состоящем только из людей, или же мы хотим пойти до конца и дать машинам право выносить не подлежащие обжалованию приговоры, даже если речь о высшей мере наказания?
Пока мы обсуждали только применение закона, давайте теперь обратимся и к его содержанию. Существует общее согласие по поводу того, что наши законы должны развиваться, чтобы идти в ногу с нашей технологией. Например, все обвинения против двух программистов, создавших червя ILOVEYOU, о котором рассказывалось выше и который повлек ущерб в миллиарды долларов, были сняты, и они ушли от всякого наказания просто потому, что в то время на Филиппинах не было закона, запрещавшего создание вредоносных программ. Поскольку темпы технического прогресса, по-видимому, и дальше будут увеличиваться, законы должны обновляться также со всевозрастающей скоростью, но они имеют тенденцию отставать. Вероятно, обществу было бы полезно иметь побольше технически подкованных людей в юридических вузах и в правительстве. Но не следует ли уже сейчас подумать о системах поддержки принятия решений на основе технологий искусственного интеллекта для избирателей и законодателей, а затем, не откладывая в долгий ящик, и о роботах-законодателях?