ИИ-агент на базе LLM с RAG для автоматизации клиентской поддержки в банке

В чем проблема
В работе службы поддержки постоянно возникают типовые сложности: резко растущие очереди при массовых изменениях или сбоях, высокая доля однотипных запросов, из-за чего операторы большую часть времени заняты рутиной.

Когда в одном диалоге затрагиваются сразу несколько тем, операторы часто теряют детали и вынуждены уточнять информацию заново. Новым сотрудникам сложно быстро разобраться в потоках обращений. Всё это снижает эффективность поддержки и негативно влияет на удовлетворённость сервисом.

Задача


Задача состояла в том, чтобы автоматизировать обработку типовых обращений в онлайн-чатах и сократить нагрузку на операторов первой линии. Важно было обеспечить быстрое и понятное взаимодействие с клиентом даже при всплесках обращаемости, снизить среднее время ответа и минимизировать потери информации при “многослойных” диалогах.

При этом требовалось сохранить высокий уровень качества ответов, исключить риски для персональных данных и интегрировать решение в существующую инфраструктуру банка без переработки внутренних процессов.


Процесс создания

1. Проанализировали обращения и определили сценарии
Начали с разбора архива чатов и тикетов за полгода, чтобы понять реальные паттерны обращений. Выделили основные темы, где возникает наибольшая нагрузка: работа с картами, вопросы по переводам, доступ в интернет-банк, детализация операций и жалобы на списания. По каждому сценарию оценили, можно ли его автоматизировать без снижения качества поддержки.

2. Подготовили и структурировали базу знаний
Совместно с методистами и командой поддержки переработали шаблоны ответов — убрали формальный язык, добавили конкретику и примеры для типовых ситуаций. Все инструкции были приведены к единому формату и оцифрованы для дальнейшего использования в работе ИИ-агента.

3. Настроили мультиагентную систему и интеграции
Внедрили архитектуру из трёх агентов: классификатор определяет тему обращения, основной агент формирует ответ по базе знаний, а контролирующий агент решает, когда нужно передать диалог оператору. Для персональных запросов реализовали интеграцию с внутренними API банка — при этом данные клиента не хранятся в модели, а подтягиваются в реальном времени через защищённые каналы.

4. Провели тестирование и обучение на реальных кейсах
На первом этапе бот работал в режиме «суфлёра»: предлагал сотрудникам варианты ответов, которые они могли редактировать. Акцент сделали на сложных и многослойных диалогах — когда клиент за одну сессию поднимает сразу несколько тем.

5. Перевели систему в рабочий режим и расширили покрытие
Когда метрики по скорости и качеству ответов достигли целевых значений, бота допустили к самостоятельной работе в чатах с клиентами. Продолжили добавлять новые сценарии и регулярно обновлять базу знаний, чтобы поддерживать актуальность информации и оперативно закрывать новые типы обращений.

Результат


Уже в первый месяц автоматизация позволила закрывать без участия операторов до 30% входящих запросов в онлайн-чатах. Среднее время ответа по стандартным вопросам сократилось с 12–15 минут до 1–2 минут, а очередь в пиковые часы уменьшилась более чем в два раза.

Оценка удовлетворённости сервисом выросла на 8 пунктов, а доля жалоб на скорость и качество поддержки снизилась почти в полтора раза!

Мы подключим ИИ и сделаем красиво

Не обязательно точно знать, чего хочешь — просто опиши, с чем сейчас
сложно или что хочется улучшить. Мы предложим решение и покажем, как это работает.

    Прокрутить вверх
    Обзор конфиденциальности

    На этом сайте используются файлы cookie, что позволяет нам обеспечить наилучшее качество обслуживания пользователей. Информация о файлах cookie хранится в вашем браузере и выполняет такие функции, как распознавание вас при возвращении на наш сайт и помощь нашей команде в понимании того, какие разделы сайта вы считаете наиболее интересными и полезными.