На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

22 подписчика

Свежие комментарии

  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...
  • Aleksandr Antonov
    Мы 33 цивилизация на земле, так что не надо, люди вобще появились более 1000000 назад. Но не однократно уничтожали ь ...Заселение Северно...

Британские власти создают алгоритм для поиска потенциальных убийц

Организация Statewatch, которая занимается защитой гражданских свобод, узнала о проекте через запросы на основе закона о свободе информации. По данным, полученным этой группой, система строила прогнозы на основе информации о 100–500 тысячах человек. В документы входили данные о психическом здоровье, зависимости, попытках самоубийства и инвалидности.

Всё это — весьма чувствительная личная информация.

Исследовательница Statewatch София Лайл заявила, что подобные системы предсказания преступлений изначально имеют серьёзные изъяны. Она подчеркнула, что алгоритм использует данные от полиции и Министерства внутренних дел, которые уже давно критикуют за системный расизм. По её мнению, такой подход лишь усиливает дискриминацию, которая и так присутствует в правовой системе.

В Министерстве юстиции на это https://www.engadget.com/ai/uk-is-going-full-minority-report..., что проект носит исключительно исследовательский характер. В ведомстве уточнили, что алгоритм создаётся на основе существующих данных, которые собираются Управлением тюрем и пробации, а также полицейскими управлениями, и касается только тех, кто уже был осуждён.

Цель — лучше понимать, кто из находящихся на пробации может быть склонен к серьёзному насилию.

Итоги работы обещают опубликовать позже.

В последние годы британская полиция активно экспериментирует с ИИ, но пока неудачно. Уже были случаи, когда ИИ использовали для составления полицейских отчётов, но качество этих текстов вызывало критику. Также есть примеры проблем с программами вроде ShotSpotter, которые должны выявлять выстрелы, но часто ошибаются. В результате такие технологии всё чаще вызывают опасения, особенно в контексте вмешательства в частную жизнь граждан.

 

Ссылка на первоисточник
наверх
Новости СМИ2