Искусственный интеллект. Этика и право — страница 10 из 24

прос о том, не даст ли ИИ преимущества крупным юридическим фирмам, ответы в 85 % случаев были положительными. Самый неожиданный эффект – в том, что более половины парламентариев высказалось за мораторий использовании ИИ вообще в судебной сфере в ближайшие 15 лет.

Категорическими противниками активного использования ИИ в уголовных процессах являются сами судьи. Во Франции, которая является одной из самых продвинутых стран в использовании интеллектуального софта в судопроизводстве, лишь немногим более 15 % судей полагают, что ИИ им в ближайшие 10 лет необходим. Главным аргументом в пользу негативного отношения к ИИ является тот факт, что значительная часть специфических человеческих черт, таких как настроение, контекст, ценности, эмоции не могут быть оцифрованы, и соответственно не будут приниматься во внимание машиной. А именно эти факторы являются, по мнению судей, чрезвычайно важными при вынесении вердикта, особенно в уголовных процессах.

Существенно различаются позиции экспертов, специалистов и общественности относительно применения ИИ в правоохранительной деятельности и в уголовном судопроизводстве. Подавляющее большинство не только профессионалов, но и гражданских активистов, хотя и с оговорками, но поддерживают широкое использование ИИ в полиции. Это одобрение базируется на мнении, согласно которому инструменты ИИ являются не более чем вспомогательными компонентами работы следователя. Более того, полиция с самых первых годов своей институционализации старалась максимально использовать бумажные аналоги нынешнего ИИ, а именно бумажные архивы, досье на преступников и преступные группировки, фотографии, постоянно собирала информацию как опосредовано, так и путем внедрения осведомителей.

В современных западных обществах сложился консенсус относительно того, что работа полиции всегда по существу носила и носит информационный характер, включая поиск, хранение, обработку и анализ информации относительно готовящихся или совершенных преступлений. Будучи де факто с самых своих истоков информационным видом деятельности, полиция как нельзя лучше подходит для использования IT инструментария. Поэтому во всех странах, где для этого есть технологические и финансовые возможности, полиция вместе с разведкой и банковской сферой являются основными секторами внедрения передовых информационных технологий.

Что же до судопроизводства, то, по крайней мере, в государствах ЕС не только подавляющая часть активистов, но и самих работников судопроизводства рассматривают ИИ исключительно как помощника в работе с документами, включая их архивирование, поиск и т. п. Этому способствуют три обстоятельства.

Первое. По странным причинам в экспертном сообществе и общественном мнении сложилась фантастическая картина, что в будущем судопроизводством будет заниматься именно ИИ, в конечном счете, будет выносить приговоры и определять судьбы.

Второе принципиальное возражение против использования ИИ заключается, как описано выше, в том, что использование продвинутых информационных технологий, в том числе ИИ, подрывает равенство перед законом и состязательность судебных процессов.

Наконец, третья группа возражений против широкого использования ИИ в уголовном судопроизводстве имеет, если можно так выразиться, статистический характер. Профессионалы понимают, что, по сути, специализированный ИИ – это мощнейший вычислитель, обрабатывающий статистические данные. Соответственно использование предиктивной, особенно судебной аналитики, может привести к тому, что прошлое поведение определенной группы людей с конкретными параметрами будет, в конечном счете, решить судьбу отдельного человека. Каждый подсудимый, хотя и имеет определенные, общие с другим людьми, характеристики, но оказывается на судебной скамье в результате комбинации уникальных жизненных обстоятельств. Единичная судьба никак не связана и не коррелируется с групповой статистикой. Пожалуй, в западноевропейских государствах ЕС именно возможность статистических данных влиять на судьбы отдельных людей и является главным аргументом общественности против использования ИИ в судебной сфере.

§ 15. Потенциал и ограничения предиктивной судебной аналитики

По мнению экспертов ЭС, термин, пришедший из-за океана, «предиктивная судебная аналитика» необходимо отбросить, поскольку он неоднозначен и вводит в заблуждение. Гораздо лучше использовать термин «интеллектуальный аналитический судебный софт». Данный термин не вызывает нареканий у судей и общественности и принят в IT отрасли Европы.

Консенсусная точка зрения среди специалистов по софту для правоохранительной и судебной сфер состоит в следующем. Нейтральность алгоритмов – это миф. Машины еще не научились самостоятельно писать алгоритмы. Даже нейронные сети – это не самосовершенствующиеся программы, как многие считают, а программы, позволяющие менять оценку тех или иных факторов, используемых для распознавания чего-то, в зависимости от вновь поступающих данных. ИИ – это произведенное человеком устройство, выполняющее команды, которые записаны на созданных людьми искусственных языках для выполнения тех или иных расчетных алгоритмов, порожденных не машиной, а конкретным человеческим разумом. Т. е. все три главных компонента ИИ – это машины, языки и алгоритмы – созданы людьми.

Поскольку любые люди, и математики не исключение, имеют свои картины мира, взгляды, ценности, то так или иначе они отражают их в алгоритмах. Любой алгоритм, будучи порождением определенных математиков и разработчиков, несет в себе их внутренний мир. Когда люди выступают против ИИ, они в иррациональной форме демонстрируют свою неготовность вручить свою жизнь математику. Фактически замена судей алгоритмами не проходит в Европе, достаточно далекой от маркетингового бизнеса, потому, что ни государства, ни общество не готовы поменять профессионалов – судей, на математиков, которые ничего не понимают в законах. Все остальные соображения о боязни ИИ – это просто американские феномены, которые сами компьютерные фирмы используют для продвижения продукции.

10 лет назад никто не предлагал отказаться от компьютерных программ, например, для написания судебных документов или расчетов тех или иных данных. Ни одному здравомыслящему человеку не могла прийти в голову мысль наделять текстовой процессор World или таблицы Excel свойствами искусственного разума. В условиях экономической стагнации IT компании вложили гигантские, исчисляемые миллиардами долларов, средства в маркетинг, рекламу и заморочили голову потребителю появлением чего-то похожего на человеческий разум у машин. При этом за эти годы алгоритмика не изменилась, выросла лишь производительность компьютеров и появились впервые в истории человечества большие данные.

К сожалению, историческая форма использования интеллектуального софта в судебной сфере завела общество и судебную систему в дебри бессмысленных дискуссий об ИИ. Эксперты ЕС считают, что с этим положением необходимо покончить. Прежде всего, они предлагают на общеевропейском уровне провести серию конференций и круглых столов, собрав их вместе с разработчиками инструментов, юристами, работниками государственных органов, средств массовой информации, для того, чтобы выработать четкую, ясную, соответствующую реалиям и помогающую делу терминологию. Судебные советы, профессиональные ассоциации и коллегии адвокатов также должны принять активное участие в этих круглых столах. Необходимо покончить с ситуацией, когда в юридической сфере мелькают случайные или рекламные IT термины, затрудняющие использование передовых технологий.

Необходимо создать группы технического аудита и предоставить им право исследовать предлагаемые частным сектором как ИИ прогнозноаналитические и иные программы. Главная же задача состоит в определении на основе широких дискуссий конкретных участков работы и сфер, где в ближайшие годы наиболее эффективно использование интеллектуального прогнозно-аналитического софта в судопроизводстве.

Глава IIЕвропейская Этическая Хартия использования искусственного интеллекта в судебной и правоохранительной системах

Признавая возрастающую важность ИИ в современном обществе, включая ожидаемые выгоды, Европейская комиссия на 31 пленарном заседании 3–4 декабря 2018 года в Страсбурге приняла пять фундаментальных принципов, содержащихся в Европейской Этической Хартии, использования искусственного интеллекта в судебной и правоохранительной системах.

Хартия предназначена для руководства в работе государственных и частных заинтересованных сторон, ответственных за создание и внедрение ИИ и его компонентов в судебной и правоохранительной сферах (методы машинного интеллекта включают машинное обучение или любые другие способы обработки больших данных). Хартия также касается лиц, принимающих решения в сфере законодательной или нормативной базы, а также оказывающих связанные с этим услуги.

Хартия поддерживает использование методов и компонентов ИИ для повышения эффективности и качества правосудия и правоохранительной работы. Однако она обращает особое внимание на необходимость максимально ответственного подхода к этой деятельности, обеспечивающего полный учет прав личности, изложенных в Европейской Конвенции о правах человека и Конвенции о защите данных, а также других нормативных материалах, связанных с гражданскими правами личности.

Использование ИИ для обработки судебных решений и правоохранительной деятельности поможет повысить уровень раскрываемости преступлений, поднять уровень доказательности направляемых в судебные инстанции обвинительных заключений и обеспечить новый уровень обоснованности судебных решений за счет снижения количества ошибок при их вынесении.

Применение методов ИИ в уголовных делах должно сопровождаться особыми оговорками с тем, чтобы предотвратить дискриминацию на основе использования конфиденциальных данных и обеспечить гарантии справедливого судебного разбирательства для любого человека, вне зависимости от пола, возраста, гражданства и других характеристик.