Содержание
Читайте в Telegram
|
Искусственный интеллект уже встроен в операционные процессы, в том числе в работу с клиентскими коммуникациями.
Долгое время контроль качества осуществлялся выборочно: мы анализировали только отдельные диалоги. Это не позволяло получить целостное представление о процессах и оперативно их корректировать.
В этом материале команда ОТП Банка расскажет, как изменился подход к анализу коммуникаций, как была выстроена работа с речевой аналитикой и к каким результатам это привело на практике.
Два инструмента, две задачи
Начнём с базового. В работе с речевой аналитикой мы используем два типа моделей, и у каждой из них своя роль.
Базовая ML-модель:
- работает на обучающих примерах
- оценивает диалоги по заданным критериям
- хорошо справляется с повторяющимися задачами
- быстро запускается и не требует сложной инфраструктуры
LLM-модель:
- работает через короткие инструкции и понимает контекст
- анализирует смысл разговора, а не только формальные признаки
- помогает находить инсайты и давать рекомендации
- используется там, где важно учитывать нюансы и логику диалога
Если упростить, ML отвечает за стабильный контроль и массовые задачи, а LLM подключается там, где требуется более глубокое понимание разговора.
Что происходит, когда анализируют всё
Удержание клиентов в период охлаждения
Клиент может отказаться от кредита в течение 48 часов, одна из частых причин, когда деньги не поступают сразу. После внедрения базовой речевой аналитики контроль соблюдения алгоритмов удержания запустили за восемь часов, система начала фиксировать лучшие практики и отклонения в режиме 24 на 7, а работа выделенной группы корректировалась каждый час. На следующем этапе внедрили LLM, модель повысила точность определения тематики диалога до 98% и позволила давать персональные рекомендации по каждому сотруднику. В результате эффективность удержания выросла с 40 до 70%.
Управление начислением сорри-бонусов
Схожий подход применили к начислению сорри-бонусов, то есть компенсаций клиентам. Базовая речевая аналитика обеспечила почасовой контроль соблюдения регламента и позволила быстро давать обратную связь по ошибкам. После внедрения LLM анализ дополнился учётом эмоционального контекста, система начала лучше различать ситуации и выявлять проблемные продукты и процессы. В результате точность начислений выросла с 85 до 97%.
Контроль регуляторных рисков
Автоматический контроль также применили к работе с регуляторными рисками. Основные проблемы были связаны с этапом допретензии и переводом обращений на вторую линию. За счёт ежечасного аудита отчётности по жалобам и автоматической проверки корректности маршрутизации в ОТП Банке удалось сократить количество жалоб в Центральный банк на 25%.
Рост конверсии в продажах
На исходящем обзвоне аналитика используется для работы с возражениями клиентов. LLM помогает их собирать, классифицировать и использовать для точечного анализа и обучения команды. Это дало дополнительный рост конверсии, плюс 1,54% по кредитам наличными и плюс 2,03% по кредитным картам.
Оптимизация работы в чате
В чатах LLM встроен в процесс как инструмент поддержки оператора. Модель исправляет формулировки, выравнивает тон и помогает структурировать ответ перед отправкой клиенту. Дополнительно оператор видит краткое резюме истории коммуникаций, что сокращает среднее время обработки обращения примерно на восемь секунд и влияет на индекс удовлетворённости, который вырос на 0,3 пункта.
Разговор как источник данных
В Collection ключевым изменением стал переход к анализу 100% коммуникаций, что дало возможность работать с полной картиной взаимодействий.
ML-модель оценивает относительно простые критерии диалогов сотрудников и роботов в голосе и чате, при этом корректность оценки достигает 99,1%.
Отдельной задачей в ОТП Банке стала оценка мотивации клиента к погашению задолженности, которая является самой сложной для анализа. Для ML точность здесь составляла около 57%. После подключения LLM точность оценки превысила 94%, а доля выполненных обещаний оплаты выросла на 5,5%.
Дополнительно система определяет тематику входящих обращений. Более 95% звонков и чатов укладываются в семь основных категорий, что позволяет быстро понимать причины изменений в трафике. Около 30% простых тематик переданы входящему роботу.
Изменился и процесс анализа диалогов. Если раньше на один разговор уходило около 33 минут, то с автоматической саммаризацией это время сократилось до 20 секунд. Система выделяет ключевые темы и суть разговора без необходимости прослушивать запись полностью.
Что меняется в итоге
Речевая аналитика стала одним из драйверов изменений, которые заметно улучшили клиентский опыт. Так, индекс удовлетворённости в Collection на исходящей линии и в чате вырос с 3,2 до 4,5 из 5. На входящей линии среднее время ответа сократилось до 3 секунд, уровень сервиса достиг 99,4%, а итоговая оценка CSI находится на уровне 4,8 из 5.
Фокус смещается от выборочных проверок к работе со всем потоком коммуникаций. Это позволяет видеть не отдельные эпизоды, а общую картину, быстрее замечать отклонения и выстраивать работу с диалогами как часть повседневных операционных процессов.








