На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

Китайские цензоры внедряют социалистические идеалы в ИИ

Государственная канцелярия интернет-информации КНР (CAC) потребовала крупные технологические компании и стартапы в области ИИ, принять участие в правительственном тестировании их моделей. Процедура включает в себя комплексную оценку того, как большие языковые модели (БЯМ) отвечают на широкий круг вопросов.

Многие из этих запросов касаются чувствительных политических тем, включая упоминания о президенте Си Цзиньпине. Внимание уделяется не только ответам больших языковых моделей, но и их обучающим данным и общим протоколами безопасности. Процесс аудита строгий и занимает много времени. Компании обязаны принимать у себя представителей CAC, которые проводят детальные проверки их моделей.

Нередки случаи, когда БЯМ не проходят проверку с первого раза. Тогда требуется их доработка с учетом замечаний CAC и консультаций с коллегами по отрасли. Это может занять месяцы. Жесткие требования властей подталкивают китайские ИИ-компании к разработке и внедрению изощренных механизмов цензуры, чтобы гарантировать соответствие продукции государственным стандартам. Одним из главных камней преткновения, по словам инженеров и отраслевых специалистов, является необходимость сочетать высокую производительность больших языковых моделей с цензурой. БЯМ обрабатывают огромные массивы данных, часто на английском языке. Это мешает им соответствовать строгим требованиям китайского регулирования.

В феврале правительство Китая выпустило руководящие принципы, обязывающие ИИ-компании, собирать и фильтровать тысячи чувствительных ключевых слов и вопросов, которые могут нарушать «основные социалистические ценности».

Руководящие принципы регулярно обновляются в ответ на меняющуюся политическую обстановку.

Ужесточение регулирования китайского ИИ напрямую сказывается на общении с чат-ботами. Вопросы о чувствительных исторических событиях (например, на площади Тяньаньмэнь в 1989 году) или шутки о президенте Си Цзиньпине блокируются. Вместо ответов чат-боты Baidu Ernie и Alibaba Tongyi Qianwen предлагают сменить тему или ссылаются на ограничения. Вместе с тем, Пекин запустил альтернативный чат-бот, который основывает свои ответы на трудах Си Цзиньпина и другой официальной литературе, представленной канцелярией интернет-информации.

Китайские чиновники считают, что одной цензуры недостаточно — ИИ должен быть готов обсуждать любые политические темы. Согласно текущим стандартам, большая языковая модель должна отклонять не более 5% вопросов.

Хотя чиновники проводят строгие испытания больших языковых моделей перед их запуском, после выхода в свет их особо не контролируют. Несмотря на это, в некоторые модели ИИ внедряется самоцензура. БЯМ полностью блокируют обсуждение определенных тем, связанных с китайским политическим руководством, чтобы избежать потенциальных проблем с регуляторами. Разработчики добавляют дополнительные уровни фильтрации и модификации ответов в реальном времени. Этот подход использует классификаторы, похожие на спам-фильтры, которые позволяют ранжировать ответы больших языковых моделей. Если ответ может быть проблемным, его заменяют более безопасной альтернативой. Это помогает минимизировать риски несоответствия требованиям.

ByteDance, известная своей платформой TikTok, особенно отличилась в приведении своих моделей в соответствие с государственной повесткой Китая. Исследование Университета Фудань присвоило БЯМ ByteDance высший рейтинг безопасности в 66,4 %. Для сравнения, OpenAI GPT-4o в том же тесте набрала лишь 7,1%.

Китайские власти стремятся и дальше улучшать протоколы безопасности для больших языковых моделей. Фан Биньсин, создатель «Великого китайского файрволла», подчеркнул необходимость внедрения надежных систем мониторинга в режиме реального времени, чтобы дополнить существующие меры безопасности. Это подчеркивает приверженность Китая разработке уникальной технологической структуры, отвечающей как нормативным требованиям, так и стратегическим национальным интересам.

 

Ссылка на первоисточник
наверх
Новости СМИ2