В нашу жизнь уже вплотную внедряются алгоритмы машинного обучения, называемые Искуственным Интеллектом. Google и FaceBook в своей выдаче предлагает нам читать то, что решил Искуственный Интеллект, а не то, что для вас интереснее и важнее. Но это не все отрасли, которые покоряют алгоритмы машинного обучения.

В США алгоритмы уже определяют риск рецидива и судьбу преступника в судебной системе. Судьи с помощью ИИ принимают решения о досрочном освобождении, мере и месте отбытия наказания, возможность выхода под залог и многое другое. При внедрении этих систем планировалось, что непредвзятый Искуственный Интеллект будет лишь инструментом в руках судьи, пишет колумнистка "MIT Technology Review" Карен Хао.

Тут существует несколько проблем.

Первая - этическая. Она заключается в том, что Судьи с каждым днем будут все больше и больше полагаться на решения алгоритмов ИИ. А фактически решение человека-судьи заменяется решением алгоритма машины.

«Каждый 38-й взрослый американец числится в каком-либо исправительном учреждении, и в определенный момент судьба подсудимого зависит от решений, принятых Искуственным Интеллектом», — утверждает Хао.

Вторая - техническая. Алгоритм ИИ,основываясь на данных подсудимого,сравнивает его доход,семейное положение,возраст и прочие параметры с параметрами осужденных,которые повторно шли на преступления. То есть, если Вы - афроамериканец, то шанс на условно досрочное освобождение у Вас ниже, так как национальные меньшинства статистически чаще возвращаются к преступному делу, как и люди с низким уровнем дохода, или те, кто не имеет высшего образования и т.д.

А проблема заключается в том, что алгоритм оценивает подсудимого только на основе статистических принципов, часто упуская реальное положение дел, вне зависимости от того, о каком человеке идет речь и каковы были его мотивы.

«ИИ путает статистическую корреляцию с причинно-следственной связью. В результате группы людей, которые исторически чаще подвергались давлению со стороны полиции, вновь оказываются в уязвимом положении. В первую очередь это касается меньшинств и беднейших слоев населения», — пишет Хао.

При этом, нет возможности выявить ошибки в рассчетах Искуственного Интеллекта, так как исходный код нейросети запатентован и к нему нельзя получить доступ общественности,что несет в себе большую опасность.

"Использование алгоритмов ИИ в судебном процессе увеличивает риск уменьшения роли судьи. В Украине применение таких технологий в ближайшее время кажется очень туманным. Причина этому - четкие процессуальные нормы, в которых этот инструмент принятия решений не предусмотрен. Само по себе явление Искуственного Интеллекта в судебной системе полезно, но при его жесткой регуляции и прозрачности методик принятия решений, с помощью которых "учится" алгоритм ИИ. Нейросеть должна быть инструментом в руках суда, и суд обязан четко аргументировать принятое решение, которое отличается от решения ИИ. Все это возможно только при полной работоспособности системы, без ошибок в методике принятия решения, сбоев в работе. Массивы данных, с которыми работает ИИ, должны постоянно обновляться, учитывать изменения в законах и не применять устаревшие данные."