Внедрение сверточных нейронных сетей, о которых я расскажу позже, значительно повысило точность распознавания лиц по сравнению со старым методом, основанным исключительно на сравнении линейных расстояний между точками на лицах в файле. Тем не менее, насколько я знаю, большинство систем распознавания лиц еще не достигли золотого стандарта один к одному в естественных условиях, то есть они не всегда могут идентифицировать человека, когда тот проходит мимо камеры в своем обычном темпе, скрытый или плохо освещенный. Но они научатся.
Кроме того, эта способность распознавания не ограничивается лицами. В Израиле я видел систему, обученную распознавать походку и телосложение, а следовательно – идентифицировать человека со спины или без четкого снимка лица. Китайские системы определяют возраст и пол, их также обучают считывать эмоции. А современные программы, использующие машинное обучение и нейронные сети, совершенствуют сами себя: как и мы, они умеют учиться.
Однако даже лучшие системы распознавания лиц вычисляют лишь вероятность, а не достоверность. Операторы этих систем должны сами определять, какой уровень вероятности их устраивает. Установите слишком высокую планку – и система выдаст много ложноотрицательных результатов, пропустит людей, которые есть в базе данных. Установите этот уровень слишком низко – и получится большое количество ложноположительных результатов, программа увидит вероятные совпадения там, где их нет. Или, говоря полицейским языком, установите его слишком высоко – и подозреваемый не будет идентифицирован, слишком низко – и вы будете беспокоить, а то и привлекать к ответственности невиновных людей.
Эта проблема касается не только распознавания лиц. Телевизионные шоу, такие как CSI, изображают биометрию и судебную экспертизу как практически безошибочные системы. Телевизионные детективы говорят об обнаружении отпечатков пальцев или других биометрических совпадений, однако в реальном мире такие доказательства далеко не столь однозначны: в лучшем случае они указывают на вероятные совпадения, а не на достоверность. Биометрия тоже иногда дает сбои.
Рассмотрим, например, последствия взрывов поездов в Мадриде. 11 марта 2004 года террористы взорвали несколько бомб в пригородных поездах, в результате чего погибло около 200 человек и еще 1400 получили ранения. Восемь дней спустя ФБР определило, что отпечаток пальца на найденном пакете с детонаторами принадлежит Брэндону Мэйфилду, адвокату из Орегона. Следователи не нашли никакой связи между ним и терактами, однако за Мэйфилдом было установлено негласное наблюдение, а его дом и офис подверглись обыску. Его арестовали 6 мая и потом две недели содержали под стражей в качестве важного свидетеля. Все это произошло, несмотря на два факта: во-первых, Мэйфилд не был связан со взрывами, а во-вторых (и это еще тревожнее), испанская национальная полиция почти за месяц до этого сообщила ФБР, что на самом деле найденный отпечаток пальца принадлежит другому человеку. Мэйфилда освободили только после того, как полиция Испании публично заявила, что отпечаток оставил гражданин Алжира. В конечном счете Мэйфилд добился публичных извинений и отсудил у федерального правительства 2 000 000 долларов[108].
Можно также вспомнить о заслуженной дискредитации других квазибиометрических источников данных, таких как анализ следов укуса. Часто представляемый на судебных процессах как точный с точки зрения криминалистики, на самом деле анализ следов укуса совершенно ненаучен: это просто суждение, вынесенное на основе визуального наблюдения. Следы укусов, оставшись на коже, смещаются и изменяются: они могут искажаться из-за эластичности кожи или менять очертания со временем, когда кожа жертвы опухает, заживает или разрушается. Тем не менее из-за анализа следов укусов людей отправляют в тюрьму, причем зачастую ошибочно, и неточные улики, основанные на этом анализе, не раз приводили к оправданиям[109].
Но какое место в спектре биометрии, который простирается от анализа ДНК (довольно надежного при наличии адекватного образца и правильной интерпретации) до анализа следов укуса (полностью субъективного и не подкрепленного наукой), занимает распознавание лиц? Скажем так: насколько достоверно распознавание лиц распознает те самые лица?
Ответить на этот вопрос сложно, не в последнюю очередь потому, что каждый алгоритм индивидуален. В этом смысле вопрос, надежно ли распознавание лиц, сродни вопросу, быстро ли ездят автомобили. Некоторые да, а некоторые нет. У каких-то максимальная скорость выше, а у других – ниже. Некоторые плавно движутся на высоких скоростях, а другие на ходу дребезжат и трясутся. «Ламборгини» может развивать более высокие скорости и разгоняться до умеренных скоростей быстрее, чем мой старый верный «Субару». Пределы скорости различаются, но любой исправный автомобиль доставит вас туда, куда вы хотите, быстрее, чем если вы пойдете пешком. Точно так же все алгоритмы распознавания лиц предназначены для распознавания лиц.
22 марта 2017 года Кимберли Дель Греко, заместитель директора отдела информационных служб уголовного правосудия ФБР, в показаниях надзорному комитету палаты представителей заявила, что система, которую в то время использовали ее агенты, как минимум в 85 % случаев выдает правильного кандидата из пятидесяти наиболее подходящих[110]. Это не очень хорошо.
Вопрос для судебных разбирательств: если человек арестован на основании ответа, сгенерированного алгоритмом распознавания лиц, который оценил его как сорок пятое из пятидесяти наиболее вероятных совпадений, как должен адвокат использовать эту информацию – и как ее должны взвешивать судья и присяжные? Как правило, полиция утверждает, что распознавание лиц используется лишь для получения зацепок, а не доказательств. Предположительно полиция и прокуратура скажут, что в этом случае зацепка, исходящая от сорок пятого кандидата, сработала, а первые сорок четыре – нет. И если полиция арестовала нужного человека, кого волнует, какой у него номер в списке? Но это противоречит утверждениям об эффективности данной технологии.
В июле 2018 года ACLU Северной Калифорнии создал базу данных для распознавания лиц, используя общедоступные фотографии и Rekognition – программу для распознавания лиц с глубинным обучением. Используемая полицейскими департаментами и крупными корпорациями система Rekognition является одним из результатов вхождения Amazon Web Services на рынок видеонаблюдения (Amazon также владеет компанией Ring). Как уже упоминалось в главе 1, Американский союз гражданских свобод (ACLU) пробил всех действующих членов Конгресса по этой базе данных, используя настройки Amazon по умолчанию. База данных ошибочно идентифицировала двадцать восемь членов Конгресса как лиц, находящихся под арестом. При этом непропорционально большую долю (40 %) составляли небелые люди. В их числе оказались Джон Льюис, герой движения за гражданские права, который с 1987 года представляет часть Атланты, и Луис Гутьеррес, который в течение двадцати шести лет представляет части Чикаго.
Вице-президент Amazon по вопросам искусственного интеллекта Мэтт Вуд не принял результаты этого эксперимента, заявив, что ACLU выставил типовой для Rekognition порог уверенности по умолчанию в 80 %, а не в 99 %, который система рекомендует для правоохранительных органов. Более того, по его словам, Rekognition постоянно совершенствуется. В одном коротком посте он дважды упомянул, что система Rekognition используется для борьбы с торговлей людьми (хотя ни разу не объяснил, как именно)[111]. Но любая вещь может быть в чем-то вредной, а во всем остальном полезной. Ракеты класса земля – воздух помогают выигрывать войны, но это не значит, что такая ракета нужна моему соседу. При разрешении мелких споров по уходу за газоном это оружие куда менее продуктивно.
Эксперимент Американского союза гражданских свобод – лишь одно из многих исследований, выявляющих расовые и гендерные предубеждения в алгоритмах распознавания лиц. Иногда эти предубеждения видны и без всяких исследований: в 2015 году потребительское приложение Google для распознавания лиц ошибочно идентифицировало двух афроамериканцев как горилл.
В начале 2018 года докторантка Массачусетского технологического института Джой Буоламвини и исследовательница искусственного интеллекта из Google Тимнит Гебру опубликовали статью, в которой анализируется, насколько хорошо три ведущих алгоритма распознавания лиц – IBM, Microsoft и Megvii, более известный как Face++, – считывают гендерные различия внутри рас. Они обнаружили, что при идентификации женщин все три алгоритма ошибаются примерно в 2,5 раза чаще, чем при идентификации мужчин, и темнокожих людей определяют неправильно почти в два раза чаще, чем светлокожих. Наихудшие результаты получились, когда программы пытались распознать лица темнокожих женщин[112].
Почему алгоритмы хуже справляются именно с такими задачами, неясно, но это может быть как-то связано с теми наборами данных, на которых они обучаются. Возможно, в этих наборах больше мужчин, чем женщин, и больше белых людей, чем небелых, а алгоритм лучше всего работает с наиболее знакомыми характеристиками.
Это говорит о том, что расовые и гендерные предубеждения при распознавании лиц можно снизить хотя бы отчасти, если обучать алгоритмы с использованием более разнообразного набора лиц (и в итоге алгоритмы будут одинаково плохо определять представителей всех полов и этнических групп). Похоже, в IBM к этой теории отнеслись с доверием. В начале 2019 года компания выпустила массив данных из миллиона разнообразных лиц, аннотированных десятью различными способами, чтобы дать алгоритмам распознавания лиц более надежную отправную точку