Нечеловеческий разум судебных решений
Решение, принятое с учетом поведенческой модели, которая рассчитана на базе накопленных статистических данных, может быть объективнее традиционного, основанного на предположении конкретного человека. В отличие от людей, машины беспристрастны, их не мучают боли, дурное настроение и предрассудки, а алгоритм, в котором собрана вся предыдущая история, исключает непредусмотрительность или неопытность.
Выбор судьями меры пресечения в отношении обвиняемых – хороший кейс, чтобы проверить, действительно ли искусственный интеллект способен улучшить решения, принимаемые человеком, решили Джон Кляйнберг из Корнеллского университета и его соавторы по исследованию «Решения людей и предсказания машин»: например, предсказать, как поведут себя обвиняемые, если их отпустить под залог и наиболее адекватных отправить на время дознания домой. В США, где содержание одного арестованного обходится бюджету в $90 в сутки, такой подход сэкономил бы миллионы, а также существенно сократил бы число заключенных в стране, считают авторы.
Результаты свидетельствуют, что использование алгоритма оказало бы существенное позитивное влияние на общественное благосостояние, пишут авторы исследования: уровень преступности снизился бы почти на четверть при том же количестве заключенных, либо при сохранении уровня преступности удалось бы сократить количество арестованных на 42%.
Они ошибаются
Ежегодно полиция Соединенных Штатов арестовывает более 10 млн человек. Вскоре после ареста выносится решение, где обвиняемый будет ждать суда – в заключении или на свободе. По закону этот вердикт должен основываться исключительно на предположении конкретного судьи о том, может ли обвиняемый скрыться или быть социально опасен. Если судья полагает, что да, то задержанный отправляется под стражу. Если судья сочтет, что нет, то риски ложатся на общество. Чтобы взвесить все возможные риски и принять решение, судье приходится обрабатывать все предпосылки для прогноза в собственной голове, пишут авторы.
Проанализировав более 758000 уголовных дел, открытых в Нью-Йорке за пять лет – с 1 ноября 2008 по 1 ноября 2013 г., Кляйнберг и его коллеги сравнили прогнозы судей относительно благонадежности освобожденных ими под залог с реальным развитием событий. Оказалось, что более четверти освобожденных были арестованы за повторные преступления, причем каждое четвертое из них было связано с насилием.
На базе полученной информации исследователи разделили обвиняемых на категории и, обнаружив закономерности в их поведении, создали самообучающийся алгоритм, позволяющий предсказывать действия подследственных. Как пиксельные паттерны могут быть использованы для распознавания лица, так информация об ответчике и его деле позволяет прогнозировать, может ли он скрыться от правосудия и быть общественно опасным, считают авторы исследования.
Машинный алгоритм действительно может улучшить решения судей, показали результаты. Если бы решение принимала машина, то число преступлений, совершенных оставленными на свободе, снизилось бы как минимум на 14,4%, а как максимум – на 24,7%, при этом количество наиболее тяжких преступлений сократилось бы более чем наполовину (c 1,4% до 0,6%). В то же время алгоритм отправил бы под предварительное заключение только 42,1% от реального количества оказавшихся на время следствия в тюрьме. Это сократило бы госрасходы на содержание заключенных под стражей на 40%, подсчитали авторы исследования.
«Результаты нашего исследования не уникальны для Нью-Йорка. У нас есть аналогичные данные также и в национальном масштабе», – пишут исследователи.
Разница в алгоритмах
Решая, где обвиняемый будет ждать итогов следствия, судьи в Нью-Йорке опираются на формальный список из шести пунктов, а именно: есть ли у ответчика рабочий или мобильный телефон, его адрес в Нью-Йорке, работает ли он, будет ли кто-то поддерживать его в зале суда, привлекался ли он к суду и есть ли в отношении него открытые уголовные дела. Судя по статистике, судьи склонны отпускать под залог «высокорисковых» подследственных, если те задержаны по относительно «пустяковым» статьям, например за административные нарушения. В то же время под стражу довольно часто отправляют гораздо менее опасных для общества людей, если их подозревают в совершении серьезных преступлений.
То есть с точки зрения рисков, которые несет освобождение подследственных под залог, все задержанные для судей примерно одинаковы. Однако алгоритм показывает, что это совсем не так.
Кляйнберг и его коллеги выяснили, что нью-йоркские судьи в 48,5% случаев освобождали под залог тех, кого алгоритм относит к 1% самых рисковых задержанных и которых искусственный разум точно оставил бы под стражей. Оказавшись на свободе, эти люди в 62,7% случаев были повторно арестованы за новые преступления, а в 56,3% случаев не явились на судебное заседание. «Люди, которых алгоритм определяет как рисковых, действительно рисковые», – предупреждают авторы.
Голова или компьютер
Собирательный образ среднестатистического американского задержанного, сложившийся у исследователей по данным более чем полумиллиона судебных дел в Нью-Йорке, выглядит так: 83,2% – мужчины, группа изобилует представителями национальных меньшинств (48,8% – афроамериканцы и 33,3% – люди латиноамериканского происхождения), из них больше трети задержаны по подозрению в преступлениях, сопровождающихся насилием. Еще четверть подозреваются в преступлениях, связанных с наркотиками, 17,1% – в имущественных преступлениях, остальные задержаны за вождение в состоянии опьянения или под воздействием наркотиков, незаконное ношение оружия и проституцию.
В этой группе в общей сложности 73,6% были освобождены под залог или поручительство до вынесения судебного приговора. Из освобожденных 15,2% не появились на судебном слушании, 25,8% были повторно арестованы до суда, причем 3,7% – за преступления, связанные с насилием, а 1,9% – непосредственно за убийство, изнасилование или грабеж. Почему судьи отпустили их под залог, почему не предугадали последствий?
Кляйнберг и его товарищи видят в этом в первую очередь человеческий фактор. Есть субъективные критерии, такие как поведение задержанного на предварительных слушаниях, зрительный контакт, его одежда, настроение и многое другое, что, по мнению авторов исследования, сбивает судей – но не машину – с толку.
Никто не отменял и скрытые когнитивные искажения, к которым исследователи относят в том числе этнический аспект: принадлежность человека к национальным меньшинствам серьезно влияет на решения судей, но не на алгоритм. По подсчетам авторов исследования, использование алгоритма позволило бы отпускать под залог на 40,8 % больше представителей этнических меньшинств. Искажает картину и оценка человека с точки зрения наличия у него семьи и работы – галочки в этих графах смягчают судей. В то же время беспристрастный компьютер отправил бы за решетку 22,3% работающих обвиняемых вместо 19,4%, которых судьи решили поместить в тюрьму в реальных случаях, и 41,8% семейных людей вместо 28,2%.
«Мы изучаем лишь один пример, важный сам по себе, чтобы понять, как применение искусственного интеллекта может в целом улучшить процесс принятия решений и дать нам новые уникальные возможности (которые человек часто игнорирует)», – пишут авторы исследования. Большие объемы данных и возможность их обработки машинами могут изменить этот процесс за счет структурирования и систематизации статистики, считают они. И хотя описанный алгоритм может серьезно облегчить принятие решений людьми, все же ему можно отвести лишь вспомогательную функцию, сам по себе он не предназначен для вынесения вердиктов, уточняют авторы исследования.