Организация Statewatch, которая занимается защитой гражданских свобод, узнала о проекте через запросы на основе закона о свободе информации. По данным, полученным этой группой, система строила прогнозы на основе информации о 100–500 тысячах человек. В документы входили данные о психическом здоровье, зависимости, попытках самоубийства и инвалидности.
Всё это — весьма чувствительная личная информация.Исследовательница Statewatch София Лайл заявила, что подобные системы предсказания преступлений изначально имеют серьёзные изъяны. Она подчеркнула, что алгоритм использует данные от полиции и Министерства внутренних дел, которые уже давно критикуют за системный расизм. По её мнению, такой подход лишь усиливает дискриминацию, которая и так присутствует в правовой системе.
В Министерстве юстиции на это https://www.engadget.com/ai/uk-is-going-full-minority-report..., что проект носит исключительно исследовательский характер. В ведомстве уточнили, что алгоритм создаётся на основе существующих данных, которые собираются Управлением тюрем и пробации, а также полицейскими управлениями, и касается только тех, кто уже был осуждён.
Цель — лучше понимать, кто из находящихся на пробации может быть склонен к серьёзному насилию.
Итоги работы обещают опубликовать позже.
В последние годы британская полиция активно экспериментирует с ИИ, но пока неудачно. Уже были случаи, когда ИИ использовали для составления полицейских отчётов, но качество этих текстов вызывало критику. Также есть примеры проблем с программами вроде ShotSpotter, которые должны выявлять выстрелы, но часто ошибаются. В результате такие технологии всё чаще вызывают опасения, особенно в контексте вмешательства в частную жизнь граждан.
Свежие комментарии