На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...
  • Aleksandr Antonov
    Мы 33 цивилизация на земле, так что не надо, люди вобще появились более 1000000 назад. Но не однократно уничтожали ь ...Заселение Северно...

ChatGPT спрогнозировал, как будут развиваться БЯМ в 2024 году

ChatGPT написал текст в манере студента, который старается растянуть эссе до нужного объема. С полной версией статьи можно ознакомиться https://www.engadget.com/this-is-the-future-of-generative-ai..., а мы приведём её основные тезисы. По мнению бота, увольнение и последнее восстановление Альтмана в должности указывает, что руководству ИИ-компаний нужно задуматься об этике и прозрачности.

Модель считает, что её крестного отца хотели уволить из-за недостаточной открытости с советом директоров. Она также выделила, как важна поддержка сотрудников и осведомлённость клиентов о продукте, который они используют. Разработка нейросетей должна быть подотчётной и более прозрачной, для неё нужно установить чёткие этические рамки.

ChatGPT признался, что он и его собратья подвержены предвзятости, которую они наследуют от людей. В наборах данных, на которых обучается генеративный ИИ, может содержаться искажённая информация об определённых группах и явлениях. Соответственно, чат-боты тоже могут быть уверены, что эстонцы медленные, а немцы не расстаются с кружкой пива. Кроме расовых предрассудков, нейросети иногда повторяют гендерные, религиозные, классовые и т.д. А ещё они могут транслировать вредные советы о здоровье: рекомендовать всем одну и ту же диету, не учитывая индивидуальные потребности пользователей, или составлять программу тренировки, которая не подходит людям с определёнными заболеваниями.

Дипфейки, как считает ChatGPT, приведут к серьёзным проблемам с безопасностью. Люди будут видеть всё больше правдоподобного контента, сгенерированного ИИ. Часто им будет тяжело отличить его от истины.

Особенно разрушительным оказывается сочетание правды и лжи, когда к настоящим видео или фото добавляют ИИ-контент.

Чат-бот прогнозирует, что в ближайшие годы актуальной станет защита репутации и частной жизни людей от ИИ-материалов. Сейчас можно создавать видео и фото с лицами, которые не давали на это разрешение. Например, есть нейросети, которые «раздевают» изображения людей в одежде. Такой контент может стать инструментом шантажа и травли.

ChatGPT также предупредил человечество об изменениях на рынке труда. Под угрозой окажутся рабочие места, где люди выполняют рутинные и повторяющиеся задачи.

Отдельно чат-бот выделил юридические вопросы, такие как авторское право. Кому будут принадлежать права на контент, сгенерированный ИИ — автору запроса или разработчику? Или даже самой технологии, что пытается доказать https://hightech.plus/2023/12/21/izobretatel-vlyublennii-v-i... ?

Среди положительных аспектов проникновения ИИ в человеческую жизнь ChatGPT назвал повышение креативности и производительности, сотворчество человека и технологий, индивидуальный пользовательский опыт, больше развлечений и новые возможности в искусстве. Отдельно стоит революция в сфере здравоохранения — нейросети учитывают больше параметров и работают быстрее людей, поэтому они смогут быстро ставить диагноз, приняв к сведению все симптомы и анализы пациента, а также синтезировать новые лекарства.

 

Ссылка на первоисточник
наверх
Новости СМИ2