На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

Научное сообщество не верит в создание общего ИИ на основе нейросетей

Генеративные ИИ-системы работают на основе нейронных сетей — компьютерных моделей, которые обучаются на огромных данных, имитируя принципы работы мозга. За последние десять лет разработчики улучшили их производительность за счет масштабирования размеров, например, увеличивая объем обучающих данных и количество «параметров» модели.

Ассоциация по продвижению искусственного интеллекта (AAAI) провела опрос, в котором участвовали 475 членов организации, 67% из которых — ученые. Среди них 84% считают, что одних нейросетей недостаточно для создания общего искусственного интеллекта. AGI определяется как система, способная «соответствовать или превосходить человека во всех когнитивных задачах». Но четкого критерия, по которому можно будет судить о достижении AGI, пока нет.

Отчет AAAI отмечает, что помимо нейронных сетей существует много других направлений ИИ, которые требуют изучения, и призывает активнее поддерживать эти методы. Среди них — символический ИИ, который использует логические правила вместо анализа больших данных.

Более 60% опрошенных уверены, что человеческий уровень мышления будет достигнут только при сочетании нейронных сетей с символическим ИИ. Аналитики подчеркивают: нейронные сети останутся, но для прогресса их нужно комбинировать с другими подходами.

Опрос выявил обеспокоенность по поводу бесконтрольного развития AGI, если он появится. Более 75% респондентов считают, что создание ИИ с «приемлемым балансом рисков и пользы» важнее, чем погоня за AGI. Только 23% назвали AGI главным приоритетом.

Около 30% поддержали идею приостановки исследований общего ИИ до тех пор, пока не будут разработаны методы полного контроля над такими системами, чтобы гарантировать их безопасность и пользу для человечества. Однако большинство экспертов выступают против приостановки и считают такой вариант маловероятным.

Большинство ИИ-компаний сейчас разрабатывают «агентов» — системы, способные выполнять сложные, открытые задачи, например, бронировать билеты или писать и внедрять код. Однако мнения разделились: стоит ли польза от «агентификации» ИИ-моделей затрат на их усложнение, рост вычислительной мощности и энергопотребления.

Агенты также несут новые угрозы безопасности. Это иллюстрирует опыт Барта Селмана, специалиста по компьютерным наукам из Корнеллского университета, соавтора отчета AAAI. Селман использует агента для помощи в математике и программировании, но признает, что не всегда понимает действия ИИ. «Есть риск, что он получит доступ к моему Amazon Cloud и начнет запускать эксперименты без моего ведома, по сути, тратя мои деньги», — отмечает он.

Во многих аспектах остается неопределенность, например, нет четкого определения «рассуждения». На вопрос о том, когда автономный ИИ-ученый совершит открытие, достойное Нобелевской премии, самым популярным ответом стало: «Понятия не имею».

 

Ссылка на первоисточник
наверх
Новости СМИ2