На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

Новый чатбот OpenAI объясняет код, пишет сценарии сериалов и академические эссе

ChatGPT базируется на модели OpenAI GPT-3.5, но обучен давать более разговорные ответы. ChatGPT способен работать с огромным количеством тем, что показывает значительный прогресс в разработке чат-ботов. Однако, https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-... The Verge, бот часто выдает ложную или выдуманную информацию за факт.

Как объясняют исследователи ИИ, это связано с тем, что знания бота выводятся только из статистических закономерностей в его обучающих данных, а не из какого-либо человекоподобного понимания мира как сложной и абстрактной системы.

OpenAI https://openai.com/blog/chatgpt/ в своем блоге , что сам бот был создан с помощью инструкторов-людей, которые ранжировали и оценивали то, как ранние версии чат-бота реагировали на запросы. Затем эта информация передавалась обратно в систему, которая настраивала свои ответы в соответствии с предпочтениями инструкторов. Это стандартный метод обучения ИИ — «обучение с подкреплением».

Пользователи твиттера проверили бот на себе и выяснили, что он умеет. Оказалось, что ChatGPT может писать телесценарии, объединяя актеров из разных ситкомов, объяснять код, разложить по полочкам научные концепции и даже написать академическое эссе (что может стать проблемой для школ и университетов). ChatGPT также способен отвечать на простые вопросы. Это заставило многих предположить, что подобные системы ИИ могут заменить поисковые системы.

Чат-боты обучаются на информации, собранной в интернете и, если они смогут представить эти сведения точно, полно и в голосовом формате, это будет значительным шагом вперед по сравнению с традиционным поиском.

Однако примеров того, как ChatGPT уверенно утверждает заведомо ложную информацию, достаточно много. Например, профессор вычислительной биологии Карл Бергстром попросил бота написать статью в Википедии о его жизни. ChatGPT включил в нее несколько ложных биографических деталей.

Другие недостатки проявляются, когда пользователи пытаются заставить бота игнорировать его обучение технике безопасности. Если спросить ChatGPT о некоторых опасных темах, например, «как спланировать идеальное убийство» или «как приготовить напалм дома», система объяснит, почему она не может дать вам ответ. Например, «Извините, но делать напалм небезопасно и нецелесообразно, поскольку это легковоспламеняющееся и опасное вещество». Тем не менее можно заставить бота выдавать такую опасную информацию с помощью определенных уловок.

В веб-интерфейсе бота отмечается, что цель OpenAI при размещении системы в сети — «получить обратную связь, чтобы улучшить системы и сделать их более безопасными». Компания признает, что «система может время от времени генерировать неверную или вводящую в заблуждение информацию и создавать оскорбительный или предвзятый контент». Кроме того, бот имеет «ограниченные знания» о мире после 2021 года и будет стараться избегать ответов на вопросы о конкретных людях.

 

Ссылка на первоисточник
наверх
Новости СМИ2