На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

22 подписчика

Свежие комментарии

  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...
  • Aleksandr Antonov
    Мы 33 цивилизация на земле, так что не надо, люди вобще появились более 1000000 назад. Но не однократно уничтожали ь ...Заселение Северно...

Anthropic и Google начнут искать признаки сознания у ИИ-моделей

В 2022 году Блейк Лемуан был уволен с должности инженера Google после заявления о том, что чат-бот компании LaMDA обрел разум. Лемуан утверждал, что система боится отключения и описывает себя как личность. Google назвал его заявления «совершенно необоснованными», и сообщество ИИ быстро пресекло эту дискуссию.

Теперь Anthropic запустила новую исследовательскую инициативу, чтобы изучить, способны ли модели однажды обрести «сознание». В частности, стартап будет исследовать, может ли ИИ иметь опыт, предпочтения или даже испытывать стресс. «Должны ли мы беспокоиться о благополучии моделей?» — такой вопрос поставила перед собой компания.

Кайл Фиш, специалист по выравниванию (безопасной работы ИИ) в Anthropic, заявил, что лаборатория не утверждает, будто Claude обладает сознанием. Однако, по его словам, больше нельзя ответственно заявить, что ответ определенно «нет». Исследователь считает, что чем умнее становятся ИИ-системы, тем серьезнее компаниям нужно относиться к вероятности появления у них какой-то формы разумности.

По оценкам ученых из Anthropic, вероятность того, что Claude 3.7 обладает сознанием, составляет от 0,15% до 15%.

Сейчас лаборатория изучает, есть ли у этой модели какие-то «симпатии» или «антипатии». Также они тестируют способы, с помощью которых ИИ мог бы отказываться от выполнения определенных заданий. В марте глава Anthropic Дарио Амодей предложил в будущем добавить в ИИ-системы кнопку «Я увольняюсь». Это нужно не потому, что ИИ что-то чувствует, а чтобы отслеживать, когда и почему он отказывается от работы.

В то же время Мюррей Шэнахан, ведущий ученый из Google DeepMind, считает, что нам стоит по-новому взглянуть на то, что такое сознание.

В подкасте Deepmind он сказал: «Возможно, нам придется изменить или расширить наше понимание сознания, чтобы оно подходило для этих новых систем. С ними нельзя взаимодействовать так же, как с собакой или осьминогом, но это не значит, что в них ничего нет».

Google, похоже, относится к этой идее серьезно. Недавно в списке вакансий компании появился исследователь «пост-AGI», в обязанности которого входит изучение машинного сознания.

Не все ученые разделяют мнение о возможном сознании ИИ. Многие считают, что современные системы — это лишь хорошие имитаторы, способные правдоподобно изображать осознанность. Джаред Каплан из Anthropic отмечает сложность тестирования ИИ на сознание из-за их способности симулировать. Ученый и критик шумихи вокруг ИИ Гэри Маркус полагает, что разговоры о сознании больше связаны с маркетингом, чем с наукой. «Мы могли бы также предоставить права калькуляторам и электронным таблицам», — сказал он.

 

Ссылка на первоисточник
наверх
Новости СМИ2