В https://arxiv.org/abs/2102.02503, опубликованной на днях на сайте arXiv.org, авторы собрали мнения участников октябрьской конференции и высказались за то, чтобы как можно скорее дать ответы на поставленные вопросы.
Масштабные языковые модели вроде https://hightech.plus/2020/02/19/mask-schitaet-chto-zakritos. .., созданной OpenAI, или появившейся в конце 2020 еще более крупной https://hightech.plus/2021/01/14/google-obuchila-yazikovuyu-... Google обучаются при помощи громадного объема текстов, собранных с ресурсов вроде Reddit или Wikipedia. В результате в них проникает предвзятость против различных групп, включая женщин и людей с ограниченными возможностями. К примеру, GPT-3 имеет весьма нелицеприятное мнение о чернокожих и считает, что все мусульмане террористы. Также большие модели усиливают распространение дезинформации, https://venturebeat.com/2021/02/09/openai-and-stanford-resea... Venture Beat.
По мнению ряда авторов, применение таких моделей оказывает неблагоприятное воздействие на общество, причем в большей мере – на маргинализированные сообщества. И если такие инструменты попадут в руки бизнеса, это будет иметь негативные и опасные последствия.
В качестве рекомендации участники предложили разработать законы, требующие от компаний сообщать, когда текст сгенерирован ИИ – по аналогии с калифорнийским законом о чатботах, предписывающим им оповещать людей, что они говорят с машиной. Среди других предложений:
обучение специальной модели, которая будет работать фильтром для контента, создаваемого языковой моделью;
разработка набора тестов на предвзятость, которые должна будет проходить языковая модель прежде, чем будет готова к открытой работе.
В 2018 компания Accenture представила первый https://hightech.plus/2018/06/15/revizor-instrument для анализа того, насколько справедливо выносят вердикты ИИ-алгоритмы. При этом разработчики признаются, что они не нашли «волшебную кнопку, способную научить ИИ справедливости».
Свежие комментарии