yandex
Калькулятор ценТарифыАкцииДокументацияО насКарьера в Cloud.ruНовостиЮридические документыКонтактыРешенияРеферальная программаКейсыПартнерство с Cloud.ruБезопасностьEvolutionAdvancedEvolution StackОблако VMwareML SpaceВ чем отличия платформ?БлогОбучение и сертификацияМероприятияИсследования Cloud.ruЛичный кабинетВойтиЗарегистрироватьсяEvolution ComputeEvolution Managed KubernetesEvolution Object StorageEvolution Managed PostgreSQL®Облако для мобильных и веб‑приложенийАналитика данных в облакеEvolution Bare MetalEvolution SSH KeysEvolution ImageСайт в облакеEvolution DNSEvolution VPCEvolution Load BalancerEvolution Magic RouterEvolution DiskХранение данных в облакеEvolution Container AppsEvolution Artifact RegistryEvolution Managed ArenadataDBEvolution Managed TrinoEvolution Managed SparkАналитика данных в облакеEvolution ML InferenceEvolution Distributed TrainEvolution ML FinetuningEvolution NotebooksCurator Anti-DDoSCurator Anti‑DDoS+WAFUserGate: виртуальный NGFWStormWall: Anti-DDoSEvolution TagsEvolution Task HistoryCloud MonitoringCloud LoggingАренда GPUAdvanced Object Storage ServiceAdvanced Elastic Cloud ServerAdvanced Relational Database Service for PostgreSQLРазработка и тестирование в облакеAdvanced Image Management ServiceAdvanced Auto ScalingDirect ConnectCDNCross-platform connectionAdvanced Enterprise RouterAdvanced Cloud Backup and RecoveryAdvanced Data Warehouse ServiceAdvanced Elastic Volume ServiceAdvanced Cloud Container EngineAdvanced FunctionGraphAdvanced Container Guard ServiceAdvanced Software Repository for ContainerAdvanced Document Database Service with MongoDBAdvanced Relational Database Service for MySQLAdvanced Relational Database Service for SQL ServerCloud AdvisorAdvanced Server Migration ServiceAdvanced Data Replication ServiceAdvanced API GatewayAdvanced CodeArtsAdvanced Distributed Message Service for KafkaAdvanced Distributed Message Service for RabbitMQAdvanced DataArts InsightAdvanced CloudTableAdvanced MapReduce ServiceAdvanced Cloud Trace ServiceAdvanced Application Performance ManagementAdvanced Identity and Access ManagementAdvanced Enterprise Project Management ServiceVMware: виртуальный ЦОД с GPUVMware: виртуальный ЦОДУдаленные рабочие столы (VDI)VMware: сервер Bare MetalИнфраструктура для 1С в облакеУдаленные рабочие столыМиграция IT‑инфраструктуры в облако3D-моделирование и рендерингVMware: резервное копирование виртуальных машинVMware: резервный ЦОДVMware: резервное копирование в облакоVMware: миграция виртуальных машин
Поиск
Связаться с нами

Как мы меняем клиентский сервис с помощью AI: часть 1

Кажется, что большие языковые модели созданы именно для того, чтобы работать в клиентском сервисе. Они умеют анализировать запрос, генерировать короткие и подробные ответы, структурировать и объяснять. Но почему-то мы все равно зачастую недовольны ответами чат-ботов и просим быстрее «перевести на оператора».

В серии статей я расскажу, как мы в Cloud.ru внедряем AI в клиентский сервис так, чтобы сотрудники и технологии работали в симбиозе, клиенты максимально эффективно решали свои задачи, наши ответы сохраняли дружелюбие, а уровень удовлетворенности услугами и сервисами Cloud.ru увеличивался на 17 пунктов за год. 

Бизнес
Иллюстрация для статьи на тему «Как мы меняем клиентский сервис с помощью AI: часть 1»
Продукты из этой статьи:
Иконка-Evolution Foundation Models
Evolution Foundation Models
Иконка-Evolution AI Agents
Evolution AI Agents
Иконка-Evolution Managed RAG
Evolution Managed RAG
Иконка-Evolution Notebooks
Evolution Notebooks
Иконка-Evolution ML Finetuning
Evolution ML Finetuning
Иконка-Evolution ML Inference
Evolution ML Inference

Почему нам не нравятся ответы AI в поддержке

Я не раз попадал в ситуацию, когда задавал чат-боту вроде элементарный вопрос, он в ответ уточнял у меня одно, другое, третье. И когда я думал, что сейчас наконец получу то, зачем пришел, чат-бот говорил «зову оператора».

Blog image
Дарим до 20 000 бонусов
Дарим до 20 000 бонусов
4 000 бонусов — физическим лицам, 20 000 бонусов — юридическим

Другая интересная история, если спросить у чат-бота что-то конкретное, например, как получить выписку по счету. Бот расскажет все: какой нужно выбрать период, что будет в выписке, как долго ее будут делать, но не ответит, как же ее получить. Тогда бот позовет оператора, и человек уже опишет шаги.

Blog image

Бывало, чат-бот зацикливался на одном и просто несколько раз подряд здоровается с пользователем.

В итоге причину, почему мой заказ отменили, я так и не узнал…В итоге причину, почему мой заказ отменили, я так и не узнал…

Многие компании используют классические сценарии автоматизации. Они работают таким образом: 

  1. Пользователь пишет запрос.

  2. Этот запрос попадает в какой-то препроцессинг на скриптах, который думает примерно так: «вроде бы здесь есть слово “здравствуйте”, давайте запустим сценарий “здравствуйте”».

  3. Дальше вступает обученная модель классификации и запускается подходящий сценарий. Это может быть приветствие, обработка заказа и в целом сценарий чего угодно.

Open source LLM-модели бесплатно
Open source LLM-модели бесплатно
Получи доступ к 15 моделям, в том числе OpenAI gpt-oss-120B, Qwen3-Coder-480B, T-Pro
Подробнее

Проблема такого подхода в том, что нужно прописывать сценарий и логику на каждый тип обращения, которых может быть бесчисленное множество. Нужно сначала выявить эти типы, разложить по ним обращения, прикинуть все нужные интеграции, сделать верификации и построить процессы так, чтобы все это было алгоритмизируемо.

Но все сценарии продумать невозможно. Например, у нас в Cloud.ru три облачные платформы. Внутри каждой из них — десятки сервисов. Вариативность вопросов наших клиентов феноменальная. В одну минуту к нам обращаются клиенты, которые решают разные технические задачи: запускают виртуальную машину, разворачивают кластеры в Kubernetes или обучают модель. На все эти вопросы отвечают опытные инженеры.

Поэтому мы не пытались расписать все сценарии и полностью заместить специалиста поддержки искусственным интеллектом. Вместо этого мы постарались создать удобный инструмент на базе AI, с помощью которого любой специалист сможет быстро разобраться в проблеме и помочь клиенту. При этом не терять человечность ответов и делать их даже более дружелюбными.

Этапы внедрения AI в поддержку Cloud.ru

Для этого мы решили внедрить генеративные подсказки — варианты ответов, автоматически создаваемые большой языковой моделью. LLM определяет, с чем пришел пользователь, как ему помочь, и дает инженеру готовую подсказку, которую он может скорректировать и отправить клиенту. 

Собрать генеративные подсказки — не такая уж и простая задача. Для этого мы:

  1. Вычитали большой пласт обращений. Потратили на это месяц, разбирались, какие вообще есть типы обращений, что интересует клиентов, как можно классифицировать эти обращения.

  2. Кластеризовали данные с помощью машинного обучения. 

  3. Обучили модели классификации, чтобы понять, какие у нас есть тематики.

  4. Поняли, что есть тематики обращений, которые обычной документацией не закрываются. Поэтому мы сделали дополнительную, кастомную базу знаний. В ней мы сами готовим документацию, оформляем ее под формат RAG-сервисов и учитываем специфику работы сервиса. Например, смысловой блок документа не должен превышать 100 слов.

  5. Собрали базу знаний для модели, которую непрерывно обновляем и пополняем.

  6. Дальше много промптили, подбирали модели. Для этого у нас в Cloud.ru есть Evolution AI Factory — облачная среда с AI- и ML-инструментами. Например, в Evolution Foundation Models вы можете выбрать готовые LLM- и AI-модели и адаптировать их под свои задачи. 

Так мы получили простой и удобный инструмент, который учитывает проблему пользователя, возможности наших сервисов, и всегда находится под рукой у инженера. В интерфейсе коллег это выглядит так:

  • лампочка хранит сгенерированные подсказки;

  • карандаш исправляет орфографические и пунктуационные ошибки;

  • молния улучшает тон всего ответа (о ней расскажу дальше);

  • лист копирует подсказку в рабочую зону.

Blog image

Что нам дали генеративные подсказки:

  • АНТ сократилось на 25 минут. Это влияет и на все прочие метрики поддержки: SLA на ответ, количество отработанных тикетов.

  • Покрыли 62% входящего потока обращений. 

  • Получили фундамент для дальнейшей автоматизации. 

Сделать ответы дружелюбными

Когда я выступал на GoCloud, нашей конференции про облака и AI, я спросил у аудитории, как она понимает дружелюбие. Кто-то ответил, что текст без ошибок это и есть уважительное обращение, кто-то, что должно быть коротко и ясно, а кто-то написал, что дружелюбие — это когда тебе в целом отвечают.

Это подтверждает гипотезу, что у каждой компании есть свое понимание, что есть дружелюбие, как и у каждого человека.

Поэтому, когда мы говорим, что хотим сделать дружелюбные ответы, то имеем в виду комплекс мер. И у себя мы решили эту задачу таким образом:

  1. Адаптировали Tone of voice Cloud.ru (голос бренда), который ранее был разработан департаментом бренд-маркетинга и коммуникаций, для инженеров поддержки и провели обучение инженеров по Tone of voice.

  2. Создали чек-лист для LLM. Чтобы замерить прогресс и оценить, стали ли инженеры отвечать дружелюбнее, сделали объективную метрику: разложили ToV на чек-лист из 10 простых вопросов, на которые можно ответить «да» или «нет». Например, есть ли в тексте канцеляризмы, которые усложняют ответ инженера и добавляют лишний официоз. Модель проходит по чек-листу и анализирует каждый ответ, который уходит клиенту. Благодаря этому у нас появилась метрика, которая оценивает дружелюбие ответа и соответствие Tone of voice в целом.

  3. Добавили в рабочее место инженера ту самую молнию, которую показывал на скрине выше. Этот инструмент учитывает Tone of voice, добавляет в текст структуру и выдает ответ в нужном формате. Работает так: инженер пишет ответ, нажимает на одну кнопку и получает текст, который разбит на абзацы, в нем нет ошибок, ссылки вставлены правильно, а сложные предложения стали простыми и читаемыми.

Сейчас мы уже видим прогресс по метрике Tone of voice и, самое главное — мы перестали видеть фидбэк клиентов про недостаток дружелюбия в ответах.

Результат внедрения инструмента для улучшения ответовРезультат внедрения инструмента для улучшения ответов

Что в результате

Один из важных показателей для нашей компании — уровень удовлетворенности наших клиентов (NPS). За год этот показатель вырос на 17 пунктов, и многие клиенты отметили рост качества и скорости работы технической поддержки. 

Если смотреть на фактическое использование LLM нашими сотрудниками, мы видим такую статистику: 47% ответов были даны с использованием генеративного AI. Либо это была генеративная подсказка, либо улучшение текста, либо исправление ошибок. При том, что у инженеров нет KPI на создание ответов с AI — каждый специалист решает сам, когда обращаться к этим инструментам.

Дальше мы перешли к работе над AI-агентом, который уже отвечает на 10% запросов наших клиентов, а к концу года мы доверим ему до 70%. О том, как мы создавали агента, какие результаты получили и как AI будет менять работу поддержки дальше — расскажу во второй части.

Продукты из этой статьи:
Иконка-Evolution Foundation Models
Evolution Foundation Models
Иконка-Evolution AI Agents
Evolution AI Agents
Иконка-Evolution Managed RAG
Evolution Managed RAG
Иконка-Evolution Notebooks
Evolution Notebooks
Иконка-Evolution ML Finetuning
Evolution ML Finetuning
Иконка-Evolution ML Inference
Evolution ML Inference
11 июля 2025

Вам может понравиться