На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...
  • Aleksandr Antonov
    Мы 33 цивилизация на земле, так что не надо, люди вобще появились более 1000000 назад. Но не однократно уничтожали ь ...Заселение Северно...

Ученые требуют немедленных действий по ограничению языковых моделей ИИ

В https://arxiv.org/abs/2102.02503, опубликованной на днях на сайте arXiv.org, авторы собрали мнения участников октябрьской конференции и высказались за то, чтобы как можно скорее дать ответы на поставленные вопросы.

Масштабные языковые модели вроде https://hightech.plus/2020/02/19/mask-schitaet-chto-zakritos.

.., созданной OpenAI, или появившейся в конце 2020 еще более крупной https://hightech.plus/2021/01/14/google-obuchila-yazikovuyu-... Google обучаются при помощи громадного объема текстов, собранных с ресурсов вроде Reddit или Wikipedia. В результате в них проникает предвзятость против различных групп, включая женщин и людей с ограниченными возможностями. К примеру, GPT-3 имеет весьма нелицеприятное мнение о чернокожих и считает, что все мусульмане террористы. Также большие модели усиливают распространение дезинформации, https://venturebeat.com/2021/02/09/openai-and-stanford-resea... Venture Beat.

По мнению ряда авторов, применение таких моделей оказывает неблагоприятное воздействие на общество, причем в большей мере – на маргинализированные сообщества. И если такие инструменты попадут в руки бизнеса, это будет иметь негативные и опасные последствия.

В качестве рекомендации участники предложили разработать законы, требующие от компаний сообщать, когда текст сгенерирован ИИ – по аналогии с калифорнийским законом о чатботах, предписывающим им оповещать людей, что они говорят с машиной. Среди других предложений:

обучение специальной модели, которая будет работать фильтром для контента, создаваемого языковой моделью;

разработка набора тестов на предвзятость, которые должна будет проходить языковая модель прежде, чем будет готова к открытой работе.

В 2018 компания Accenture представила первый https://hightech.plus/2018/06/15/revizor-instrument для анализа того, насколько справедливо выносят вердикты ИИ-алгоритмы. При этом разработчики признаются, что они не нашли «волшебную кнопку, способную научить ИИ справедливости».

 

Ссылка на первоисточник
наверх
Новости СМИ2