
Когда финтех-компания Klarna объявила, что её ИИ-агент заменил 853 штатных сотрудников и сэкономил 60 миллионов долларов, это звучало как триумф. Генеральный директор вышел на Bloomberg и рассказал, почему всё это обернулось катастрофой. И вот здесь начинается самое интересное.
ИИ-агент Klarna обработал 2,3 миллиона разговоров за первый месяц работы. Охват составил 23 рынка и 35 языков. Время решения обращения сократилось с 11 минут до 2. На бумаге это выглядело как абсолютный успех. Вопрос зарплаты ии казался решённым: зачем платить людям, если машина справляется быстрее и дешевле?
А потом пошли жалобы клиентов. Ответы были шаблонными, тон роботизированным, а какое-либо суждение отсутствовало полностью. Генеральный директор Klarna публично признал, что стоимость была доминирующим фактором оценки, и результатом стало снижение качества. Компания начала нанимать обратно уволенных сотрудников.
Что пошло не так? ИИ-агент оптимизировался под скорость закрытия тикетов. Реальная цель Klarna заключалась в увеличении пожизненной ценности клиента (customer lifetime value). Это совершенно разные задачи, и никто не объяснил агенту разницу между ними.
Живой сотрудник с пятилетним стажем понимает, когда нужно отступить от правил. Он чувствует по тону разговора, что клиент вот-вот уйдёт, и готов потратить лишние три минуты на звонке. Такой сотрудник впитывает настоящие ценности компании, не те, что написаны на сайте, а те, что закодированы в ежедневных решениях менеджеров. У ИИ ничего подобного не было. У него был промпт и данные. У него не было намерения.
Ситуация с Klarna далеко не уникальна. По имеющимся данным, около 95% пилотных проектов генеративного ИИ так и не дошли до продакшена. 42% компаний свернули большинство своих ИИ-инициатив в прошлом году, что вдвое больше, чем годом ранее. Microsoft Copilot внедрили 85% компаний из списка Fortune 500, но лишь 5% масштабировали его дальше пилотной стадии.
Технология как таковая не подводит. Подводит отсутствие правильной настройки и понимания, чего именно организация хочет от ИИ.
Prompt engineering отвечает на вопрос «как разговаривать с ИИ». Context engineering, который сейчас набирает популярность, ставит вопрос «что ИИ нужно знать». Но ключевой вопрос звучит иначе: чего ваша организация хочет, чтобы ИИ хотел?
Это и есть intent engineering. Задача формулирования намерения для агента. И практически никто этим не занимается. Именно отсутствие intent engineering объясняет, почему Copilot буксует в большинстве компаний и почему Klarna нанесла такой ущерб своей репутации.
Когда агенты работают длительное время, принимают решения самостоятельно и имеют доступ к огромному массиву данных, вопрос намерения становится центральным. Нам нужны агенты, которые не просто умны, но обладают чем-то похожим на суждение и искренне отражают ценности компании.
Если этого нет, зарплата ии может оказаться значительно дороже, чем изначальная экономия. Потерянные клиенты, разрушенная репутация, вынужденный возврат к ручному труду стоят куда больше, чем 60 миллионов.
Урок Klarna прост: нельзя внедрять ИИ, ориентируясь только на сокращение расходов. Прежде чем запускать автоматизацию, нужно чётко определить, какие намерения и ценности должен нести агент. Если вы рассматриваете внедрение ИИ-агентов в свой бизнес, стоит начать именно с этого вопроса. На странице ИИ-агенты мы описываем, как создаём агентов, которые не просто выполняют инструкции, а учитывают контекст, интегрируются с внешними системами и настраиваются под реальные бизнес-процессы компании.
Кстати, кто-то саркастично заметил, что ИИ-агент Klarna как раз точно отразил ценности компании, и в этом-то и была проблема. Возможно, в этой шутке больше правды, чем хотелось бы руководству.
История Klarna показывает, что сама по себе замена людей на ИИ не является стратегией. Это инструмент, и как любой инструмент, он работает ровно настолько хорошо, насколько продумано его применение. Экономия на зарплатах сотрудников теряет смысл, если следом приходится разбираться с последствиями, которые стоят дороже.