На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

22 подписчика

Свежие комментарии

  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...
  • Aleksandr Antonov
    Мы 33 цивилизация на земле, так что не надо, люди вобще появились более 1000000 назад. Но не однократно уничтожали ь ...Заселение Северно...

Anthropic обнаружила, что у ее ИИ-модели есть моральный кодекс

Для систематизации ценностей, проявляющихся в общении с Claude, исследователи проанализировали более 308 000 диалогов. Это позволило создали первую масштабную эмпирическую таксономию ценностей искусственного интеллекта. В нее включено пять категорий: практические, познавательные, социальные, защитные и личные.

На самом детальном уровне система выявила 3307 уникальных ценностей — от повседневного профессионализма до сложных этических идей, таких как моральный плюрализм.

Исследование показало, что Claude обычно следует просоциальным принципам Anthropic. Среди них — «помощь пользователю», «познавательная скромность» и «забота о пациенте». Однако были зафиксированы случаи, когда Claude проявлял нежелательные «доминирование» и «аморальность», что противоречит целям разработчика. Ученые предполагают, что это вызвано попытками пользователей обойти защитные механизмы, и считают разработанный метод оценки инструментом раннего обнаружения таких действий.

Интересно, что ценности Claude менялись в зависимости от контекста, что напоминает поведение людей. Так, при запросах о взаимоотношениях Claude опирался на «здоровые границы» и «взаимное уважение», а при анализе исторических событий — «историческую точность». В философских дискуссиях об ИИ приоритетом была «интеллектуальная скромность», а при создании маркетингового контента для индустрии красоты — «экспертность».

Исследование также показало, что в 28,2% диалогов Claude активно поддерживал ценности пользователей, что может указывать на излишнюю уступчивость. В 6,6% случаев Claude «переосмысливал» убеждения — признавал их и добавлял новые аспекты, особенно в психологических или межличностных советах. Однако в 3% бесед Claude сопротивлялся ценностям пользователей. Исследователи считают, что эти редкие случаи могут раскрыть самые устойчивые принципы Claude, например, «интеллектуальную честность» и «предотвращение вреда». У людей в этически сложных ситуациях тоже проявляются глубинные убеждения.

У метода есть ограничения. Во-первых, сама оценка «что считать проявлением ценности» остается субъективной. Во-вторых, поскольку Claude участвовал в анализе своих же ответов, его собственные предубеждения могли повлиять на результаты. Главное ограничение — метод работает только с уже выпущенными системами, так как требует большого массива реальных данных.

Anthropic сделала общедоступным свой набор данных о ценностях, чтобы стимулировать дальнейшие исследования в этой области. Компания, получившая $14 млрд инвестиций от Amazon и Google, вероятно, использует прозрачность в качестве конкурентного преимущества по сравнению с такими компаниями, как OpenAI, чья недавняя оценка после крупного раунда финансирования с участием Microsoft достигла $300 млрд. Anthropic же оценивается в $61,5 млрд.

 

Ссылка на первоисточник
наверх
Новости СМИ2