Хотя искусственный интеллект преподносится как революционная технология, Капелли отмечает, что «прогнозы со стороны технологических компаний часто оказываются совершенно неверными». Большинство предсказаний о будущем работы со временем не сбылись. В качестве примера нереалистичных ожиданий профессор приводит обещания о скором появлении автономных грузовиков и автомобилей, которые активно давались еще в 2018 году.
Великие планы технологических преобразований часто спотыкаются о суровую реальность. Сторонники автономных транспортных средств продвигали способности беспилотных грузовиков, забывая о решении юридических вопросов, страховании, проблемах с программным обеспечением и всего остального. Капелли добавил: «Если вы посмотрите на реальную работу водителей грузовиков, то увидите, что они делают много вещей, помимо простого вождения, даже на дальних рейсах». Можно провести аналогию с использованием генеративного ИИ для разработки программного обеспечения. Программисты тратят большую часть времени, занимаясь вещами, не имеющими ничего общего с компьютерным программированием. Они разговаривают с людьми, обсуждают бюджеты и так далее.
В случае с генеративным ИИ потенциальная экономия труда и повышение производительности нивелируются объемом скрытой работы, необходимой для создания и поддержки больших языковых моделей и алгоритмов.
Как генеративный, так и операционный ИИ создают новую работу. Людям придётся управлять базами данных, организовывать материалы, решать проблемы противоречащих отчётов, достоверности и тому подобного. Это приведёт к появлению новых задач, и кто-то должен будет их выполнять.
Операционный ИИ, несмотря на его давнее существование, все еще несовершенен. Машинное обучение с числовыми данными недоиспользуется из-за сложностей с объединением данных, которые разрознены и хранятся в разных организациях. Объединение требует больших усилий из-за политических и технических барьеров.Каппелли называет несколько проблем генеративного искусственного интеллекта и БЯМ, которые необходимо преодолеть:
Избыточность решений. Большие языковые модели могут быть слишком мощными для простых задач, таких как деловая переписка, которые можно автоматизировать с помощью бланков писем и механической автоматизации. Юридическая проверка контента, созданного ИИ, сводит на нет экономию времени.
Расходы. По мере роста использования БЯМ будут увеличиваться потребности в вычислительных ресурсах и энергопотреблении, что приведет к росту затрат.
Проблема с валидацией. Генеративный ИИ полезен для создания простых вещей, вроде электронных писем. Но для более сложных отчетов и проектов необходима проверка точности всей полученной информации. Поэтому выводы ИИ требуют проверки человеком. Это увеличивает время и затраты, особенно для узкоспециализированных тем. Можно проверять выводы одних больших языковых моделей другими, но надежность такого метода под вопросом.
Перегрузка информацией. Более простое создание отчетов приведет к наплыву противоречивой информации. Люди могут манипулировать сведениями, основанными на выводах БЯМ.
Человеческий фактор. Люди часто принимают решения, полагаясь на интуицию и личные предпочтения. Это ограничивает применение БЯМ в таких областях, как найм сотрудников.
Капелли считает, что самым полезным приложением генеративного ИИ в ближайшем будущем будет анализ огромных хранилищ данных для поддержки принятия решений. «У нас залежи неанализированных данных. ИИ справится с этим гораздо лучше нас», — говорит профессор.
Свежие комментарии