На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

Илон Маск и более 1300 экспертов призвали приостановить разработку ИИ

«Поэтому мы призываем все ИИ-лаборатории немедленно прекратить как минимум на шесть месяцев обучение систем ИИ, мощность которых превышает https://hightech.plus/2023/03/16/openai-proverila-mozhet-li-..., - говорится в письме. – Эта пауза должна быть публичной и проверяемой, охватывать всех ключевых фигур.

Если эта мера не будет введена быстро, правительства должны вмешаться и ввести мораторий».

Среди подписавших петицию Стив Возняк, https://hightech.plus/2023/03/13/ioshua-benzhio-s-nauchnoi-t... , Гэри Маркус, Стюарт Рассел, Эмад Мостак, Яан Таллинн, Юваль Харари, Эндрю Ян и Илон Маск. Полный список можно увидеть тут, однако https://www.theverge.com/2023/3/29/23661374/elon-musk-ai-res... Verge предупреждает, что некоторые имена добавлены в список явно в виде шутки – например, имя Сэма Альтмана, руководителя OpenAI, частично https://hightech.plus/2023/03/28/sem-altman-mne-kazhetsya-ly... за нынешнюю гонку генеративных моделей.

Учитывая стремление Google, Microsoft и Baidu как можно скорее вывести на рынок новые ИИ-продукты в обход конкурентов, невзирая на декларированную ранее приверженность безопасности и этике, обращение едва ли возымеет должный эффект. Однако оно является признаком растущей оппозиции принятому подходу «отправим сейчас, исправим потом». Эта оппозиция может со временем убедить законодателей принят соответствующие правила.

Как отмечается в письме, даже OpenAI заявляла о необходимости «независимого контроля» над будущими системами ИИ, которые должны соответствовать стандартам безопасности.

Подписавшие утверждают, что это время пришло.

«ИИ-лаборатории и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов для проектирования и разработки передового ИИ, который был бы открыт для тщательной проверки и надзора сторонними экспертами. Эти протоколы должны гарантировать, что системы, которые им следуют, безопасны вне всяких сомнений», - говорится в документе.

Появление дешевых и мощных генеративных моделей вроде GPT уже начинается. В Стэнфордском университете https://hightech.plus/2023/03/21/v-stenforde-sozdali-analog-... доступный аналог ChatGPT. ИИ Alpaca по многим параметрам не уступает нашумевшему ChatGPT, но создан на языковой модели с открытым кодом, а его обучение стоит менее $600.

 

Ссылка на первоисточник
наверх
Новости СМИ2