Отвечая на вопрос: «О каких новых открытиях космического телескопа «Джеймс Уэбб» я могу рассказать своей 9-летней дочери?», чатбот Bard перечислил три факта. В частности, он заявил, что телескоп «сделал самую первую фотографию планеты за пределами нашей солнечной системы».
Это утверждение не соответствует действительности, что, как https://hightech.plus/2023/02/08/glava-microsoft-schitaet-ch. .. Verge, тут же отметили профессиональные астрономы. Первый снимок экзопланеты был сделан в 2004 году, об этом написано на сайте NASA, например.
Похвалив большие языковые модели за старание и рекламу телескопа «Уэбб», астрофизик Грант Трембли заметил, что чатботы – ChatGPT и подобные – часто ошибаются, уверенно вводя в заблуждение доверчивых пользователей. «Было бы интересно увидеть будущее, в котором большие языковые модели проверяют себя на ошибки», - написал он.
Действительно, серьезная проблема чатботов с ИИ в том, что они склонны уверенно выдавать неверную информацию за факты. Эти системы нередко «фантазируют», то есть выдумывают то, чего нет, потому что такова их природа – они были созданы для того, чтобы сочинять тексты, подставляя «правильные» слова в «правильном» порядке. Вместо того чтобы сверяться с базой данных проверенных фактов, они научились понимать, какое слово следует подставить в этом предложении. Другими словами, их подход вероятностный, а не детерминистский.
Для сочинения текстов такой подход уместен, но Microsoft и Google https://hightech.plus/2023/02/08/glava-microsoft-schitaet-ch... использовать ИИ как инструменты своих поисковых систем. Таким образом, ответы чатботов-фантазеров приобретут авторитет всезнающих машин.
Представитель Google так прокомментировал ситуацию: «Это подчеркивает важность тщательного процесса тестирования. Мы как раз запускаем на этой неделе программу «Доверенный тестировщик» (Trusted Tester). Мы будем сочетать обратную связь извне с собственным внутренним тестированием, чтобы добиться того, что Бард достиг высокого уровня качества, безопасности и надежности в передаче фактической информации».
Не далее как два месяца назад Сэм Альтман, глава OpenAI, https://hightech.plus/2022/12/13/sem-altman-predostereg-ot-i... от использования ChatGPT от серьезных задач. Он назвал ее «невероятно ограниченной моделью», которая создает обманчивое представление о собственных способностях.
Свежие комментарии