На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

22 подписчика

Свежие комментарии

  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...
  • Aleksandr Antonov
    Мы 33 цивилизация на земле, так что не надо, люди вобще появились более 1000000 назад. Но не однократно уничтожали ь ...Заселение Северно...

Ученые выявили фундаментальные различия в рассуждениях людей и ИИ

Исследование проанализировало способность больших языковых моделей к построению аналогий. Результаты показали, что при решении простых задач с буквенными последовательностями и цифровыми матрицами, где требуется определить пропущенный элемент, люди демонстрировали стабильно высокие результаты. А вот искусственному интеллекту это удавалось с трудом.

Отличие между человеком и ИИ проявилось при решении задач на сюжетные аналогии. Языковые модели показали два существенных ограничения — зависимость результатов от последовательности предлагаемых вопросов и тенденцию к механическому перефразированию вместо содержательного анализа.

GPT-4 справляется с простыми буквенными аналогиями, где требуется заменить последнюю букву в последовательности. Например, если дано преобразование «abcd» в «abce», модель верно изменяет «ijkl» на «ijkm». Но более сложные правила, такие как удаление повторяющихся букв, ИИ понимает хуже. Когда требуется преобразовать «abbcd» в «abcd» и применить это же правило к «ijkkl», система часто ошибается и не может получить правильный ответ «ijkl». У человека таких проблем нет.

Ученые заключили, что ИИ-модели не обладают способностью к «обучению с нуля» (zero-shot learning) — то есть не могут корректно анализировать данные из категорий, которых не было в обучающей выборке, и классифицировать их на основе поставленного вопроса.

В отличие от людей, языковые модели не способны выводить общие правила из конкретных паттернов. Они хорошо распознают и сопоставляют шаблоны, но не умеют обобщать их. Большинство ИИ-систем зависят от объема данных — чем больше обучающая выборка, тем больше закономерностей они выявляют. Однако распознавание шаблонов и абстрагирование принципиально различаются. Ключевым фактором здесь оказывается не объем доступных данных, а методика их обработки и анализа.

Это важно, например, для юриспруденции, где ИИ используют для анализа законов и вынесения приговоров. Из-за этого ограничения модель может неправильно применять прецеденты к новым делам.

 

Ссылка на первоисточник
наверх
Новости СМИ2