Специалисты по компьютерным наукам считают, что программа, которая используется для оценки более чем миллиона подсудимых США, может быть недостаточно точной для принятия решений, которые потенциально меняют жизнь.

Об этом сообщает The Guardian.

Специалисты по компьютерным наукам из Дартмутского колледжа (США) решили проверить, насколько можно доверять прогнозам Compas. Отмечается, что анализ работы популярного алгоритма для прогнозирования случаев рецидивов был сделан из-за того, что суды и полицейские силы на международном уровне все больше полагаются на компьютеризированные подходы к прогнозированию вероятности повторного преступления людей и выявлению потенциальных мест преступлений, где следует концентрировать ресурсы полиции.

Эксперты попросили фрилансеров с онлайн-платформы Mechanical Turk представить свои прогнозы в тех же судебных случаях и сравнили результаты. Оказалось, что искусственный интеллект оценивает криминальные риски на уровне обывателей и даже уступает им в точности предсказаний.

ЧИТАЙТЕ ТАКЖЕ: Крупные компании начали «наем» роботов для проведения собеседований

Алгоритм Compas, разработанный компанией Equivant (в прошлом Northpointe), используется в США с 1998 года. Программа анализирует данные подсудимых и решает, можно ли отпустить преступника под залог или лучше оставить его под стражей, а также помогает после подсчета голосов судьям определить меру пресечения в зависимости от степени риска. При оценке дел система учитывает возраст, пол и уголовное прошлое подсудимых. 

Ученые использовали базу данных более чем 7 тысяч подсудимых из округа Броуард, штат Флорида, которая включала в себя индивидуальную демографическую информацию, возраст, пол, криминальную историю и реестр ареста.

Фрилансерам для вынесения решения предоставили только короткую справку, в которой были указаны возраст, пол и прошлые судимости. Таким образом, искусственный интеллект располагал набором данных из 137 пунктов, а люди — из 7. Чтобы проверить точность предсказаний, эксперты использовали досье арестов в последующие два года после заключения. В результате точность прогноза составила 67 % у фрилансеров и 65 % у алгоритма Compas.

Анализ также показал, что алгоритм ошибочно присуждает риск рецидивизма чернокожим заключенным чаще, чем белым. Оказалось, что работа алгоритма — это простейшие вычисления, в которых решающую роль играет возраст подсудимого и количество арестов в прошлом. Чем меньше возраст и чем больше арестов, тем больше риск, считает система. Эксперты признали технологию не слишком впечатляющей.

“Цена ошибки в данном случае очень высока, поэтому всерьез стоит задуматься, можно ли вообще применять этот алгоритм для принятия судебных решений”, — заметил Анри Фарид, автор исследования, опубликованного в журнале Science Advances.

Сена Фазел, профессор криминалистической психиатрии в Оксфордском университете, отметил, что результаты исслдования нужно тщательно изучить. По его словам, алгоритм не просто решает, отпустить подсудимого под залог или оставить под стражей. Программа дает подробную оценку рисков и выявляет уязвимые стороны преступников. Например, рекомендует человеку обратиться в центр по борьбе с наркозависимостью сразу после выхода на свободу.

Исследователи выяснили, что с помощью искусственного интеллекта можно предсказать будущие коррупционные скандалы, преступные схемы и предотвратить их.