На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

65% директоров по аналитике не могут объяснить, как их ИИ принимает решения

«За последние 15 месяцев все больше компаний инвестировали в инструменты ИИ, но понимание важности управления и ответственного отношения к ИИ не достигла еще уровня совета директоров, - написал главный аналитик FICO Скотт Зольди в пресс-релизе. – Организации все чаще применяют ИИ для автоматизации ключевых процессов, которые – в некоторых случаях – принимают важные для жизни решения за клиентов и акционеров.

Высшее руководство и совет директоров должны понимать и насаждать поддающиеся проверке, неизменяемые правила управления моделями ИИ и мониторинга моделями продукции, чтобы решения были объяснимыми, справедливыми, прозрачными и ответственными».

Опрос показал, что 33% руководства не понимает в полной мере этики ИИ. В результате возникают существенные препятствия - 73% акционеров заявили, что не могут добиться от управляющих поддержки в ответственном использовании ИИ.

Понятие ответственности у компаний отличается. Для одних это значит, что решения ИИ должны быть этичными, прозрачными и проверяемыми. Для других – чтобы ИИ не нарушал законы, нормы, ожидания клиентов и ценности организации. В любом случае, «ответственное использование» в случае ИИ должно оградить от предвзятости данных или алгоритмов – по крайней мере, в теории, https://venturebeat.com/2021/05/25/65-of-execs-cant-explain-... Venture Beat.

Несмотря на то, что почти половина (49%) респондентов сообщила о росте выделенных на ИИ ресурсов, только 39% и 28% заявили, что их приоритет – управление и мониторинг или техническое обслуживание моделей, соответственно.

43% опрошенных не считают, что несут ответственность за решения ИИ, помимо того, что требует закон.

Даже если эти решения могут влиять на жизни людей. Всего 38% компаний имеют встроенные в модели механизмы нейтрализации предвзятости. Только 20% активно следят за поддержанием справедливости и этичности моделей, и лишь у каждой третьей компании есть команда по утверждению новых моделей.

Однако, не все так безнадежно: почти две трети респондентов (63%) уверены, что этичность и ответственность ИИ станут центральным элементом стратегии их организации в ближайшие два года.

Эксперт по робоэтике Кейт Дарлинг https://hightech.plus/2021/04/19/specialist-po-roboetike-pre... относиться к ИИ как к животным, а не как к людям. В прошлом человек смог извлечь пользу из прирученных зверей, так и теперь мы можем решить, станут ли роботы дополнять нас или вытеснят человека из производства.

 

Ссылка на первоисточник
наверх
Новости СМИ2