Worken AI разместил платформу для создания AI‑сотрудников в облаке Cloud.ru
Как разработчик развернул контур в России на управляемых облачных сервисах и перенес копию международной инсталляции платформы из облака иностранного провайдера
О компании
Worken AI — разработчик одноименной платформы, на которой пользователи создают или выбирают готового виртуального сотрудника — Виртса. Такой сотрудник становится частью отдела продаж, поддержки или HR: он отвечает на заявки, обрабатывает заказы или поддерживает в адаптации новых членов команды.
Платформа Worken AI — это фреймворк для агентских решений, в рамках которого каждый Виртс оперирует строго теми сущностями, которые необходимы для выполнения его бизнес-задач. Такой подход опирается на глубокие интеграции Worken AI с внешней инфраструктурой компании-клиента: от чат-каналов всех типов (корпоративные мессенджеры, бот-платформы, виджеты, мессенджеры маркетплейсов) до CRM, внутренних сервисов и рабочих систем.
Благодаря этому Виртс получает доступ к данным и контексту именно там, где это требуется, без дублирования и перестройки инфраструктуры. Такой уровень встраиваемости обеспечивает удобное и поэтапное делегирование бизнес-процессов Worken AI: компании могут передавать виртуальному сотруднику отдельные операции, затем целые цепочки действий, постепенно расширяя его ответственность и автоматизируя всё больше функций без риска для текущих процессов.
Ключевая составляющая Виртса — движок на базе языковых моделей, вокруг которого работает система специализированных сервисов-агентов. Эти агенты принимают запрос пользователя из подключенных каналов (сайта, мессенджеров, виджетов), дополняют его контекстом (данными из базы знаний и интеграций), формируют обращение к выбранной AI-модели через API, затем обрабатывают ответ и передают его обратно в тот канал, откуда пришел запрос.
Виртсы могут работать с десятками языковых моделей разных вендоров. Для части клиентов по требованиям внутренней политики информационной безопасности важно, чтобы и модели, и инфраструктура обработки запросов были локализованы в России, поэтому Worken AI поддерживает сценарии работы с российскими и иностранными моделями и провайдерами: GigaChat, YandexGPT, OpenAI, Google, Anthropic.
Изначально команда Worken AI планировала выводить платформу в первую очередь на зарубежные рынки, поэтому развернула ее в облаке иностранного провайдера, используя cloud native подход: сервисы платформы работают в Docker-контейнерах, а базы данных и хранилища — на управляемых облачных сервисах.
Когда платформой заинтересовались российские клиенты, в том числе с повышенными требованиями к 152-ФЗ и локализации персональных данных, возникла задача развернуть идентичный контур в российских дата-центрах. Команда не хотела переписывать архитектуру и искала отечественного облачного провайдера с набором сервисов, сопоставимым с мировыми гиперскейлерами, чтобы перенести существующую инфраструктуру с минимальными изменениями — просто запустить ее копию в российском облаке.
Задача
Развернуть в облаке российский контур платформы Worken AI, функционально идентичный уже работающей международной инсталляции, и сделать это без переписывания приложения:
- поднять backend-сервисы и вспомогательные компоненты платформы в Docker-контейнерах, оркестрируемых Kubernetes;
- отдельно разместить frontend-часть (веб-интерфейс) платформы;
- подключить управляемую СУБД для транзакционных данных и векторного поиска по базам знаний клиентов;
- организовать объектное хранилище для документов и других файлов, на основе которых строятся векторные представления (Vector Store) пользователей Worken AI.
При выборе провайдера клиенту было критично, чтобы облако одновременно соответствовало требованиям 152-ФЗ и предлагало современный стек managed-сервисов и AI-инструментов.
Почему Cloud.ru
Как стартап, мы хотели использовать самые последние технологии. Мы искали провайдера в России, который следует той же стратегии, что и вся индустрия. Сервисы, которые позволяют стартапам быстрее начинать свою разработку, есть у Cloud.ru, поэтому мы выбрали этого провайдера.
Мы выбирали из нескольких облачных провайдеров. Нам было важно, чтобы облако соответствовало требования 152-ФЗ и мы могли разворачивать в облаке собственные дообученные модели.
Решение
Сохранив cloud native подход, Worken AI развернул российский контур платформы на управляемых сервисах платформы Cloud.ru Evolution. Основные backend-сервисы и API-шлюзы разработчик вынес в кластеры Evolution Managed Kubernetes — сервиса управления Kubernetes-кластерами. Это позволило перенести существующие Docker-образы и манифесты практически без изменений и использовать стандартные механизмы автоматического горизонтального масштабирования приложений и узлов кластера под реальную нагрузку.
Для хранения данных пользователей и векторных представлений документов Worken AI использует Evolution Managed PostgreSQL — управляемый кластер PostgreSQL, в котором Cloud.ru берет на себя развертывание и обновление кластера, мониторинг, резервное копирование и восстановление, а команда клиента управляет только схемой базы и запросами приложения.
Файлы баз знаний, вложения и резервные копии размещаются в Evolution Object Storage — S3-совместимом объектном хранилище.
Автоматизации на базе n8n и ряд вспомогательных сервисов разработчик развернул на виртуальных машинах Evolution Compute free tier, используя бесплатные ресурсы для тестовых сред и небольших нагрузок. Виртуальные машины дают полный контроль над окружением и при этом управляются через единый интерфейс и API Cloud.ru.
Отдельные контейнерные приложения, которым не нужен полноценный Kubernetes-кластер, запущены в Evolution Container Apps — бессерверном сервисе для развертывания контейнеров с автоматическим масштабированием и поминутной тарификацией по потребленным ресурсам.
В результате все ключевые сервисы российского контура платформы Worken AI работают в облаке Cloud.ru: входящие запросы пользователей проходят через frontend- и backend-сервисы, обращаются к управляемой базе данных и объектному хранилищу, а затем — к выбранным AI-моделям.
Для компании это независимый «второй контур», который повторяет функциональность глобальной версии платформы, но полностью размещен в российском облаке.
Все сервисы платформы лежат в облаке, все операции происходят там же, мы только отправляем запросы к моделям. Фактически мы параллельно с главной версией запустили в России свой контур, подняли второе плечо.
Результат
В Cloud.ru мы получаем человеческое отношение и сервис: служба поддержки работает очень быстро и эффективно решает вопросы. Если говорить про функциональность облака, то все, что нам нужно, работает стабильно.
Планы
После запуска российского контура платформы следующая задача для команды Worken AI — упростить работу с моделями и ускорить вывод новых сценариев в продакшен. Для этого важна возможность использования подхода «модель как сервис», что позволяет разворачивать и масштабировать любые AI-модели, в том числе из репозитория Hugging Face, без самостоятельного управления инфраструктурой инференса и при этом сохранять данные и вычисления в российской юрисдикции.
Если год–два назад мы в принципе не представляли профессиональное использование моделей без соответствующего обучения под клиента, то сегодня это вполне реально: даже маленькие open source модели покрывают большое количество запросов. То есть порог входа в AI для компаний снижается.
Мы видим тренд, о котором говорит команда Worken AI: вход в искусственный интеллект для бизнеса становится все проще за счет готовых моделей и инфраструктуры «из коробки». Наша задача как облачного провайдера — дать таким продуктовым командам тот же уровень свободы, что у мировых гиперскейлеров, но в российской юрисдикции.
Вокруг Evolution Foundation Models и сервисов AI Factory мы строим единый контур: готовые LLM с OpenAI-совместимым API, сервисы для инференса и дообучения собственных моделей, управляемые Kubernetes-кластеры, объектное хранилище и управляемые СУБД.
Благодаря этому, Worken AI может развивать Виртсов одновременно для глобального рынка и российских заказчиков на привычном cloud native стеке, удерживая данные и модели в инфраструктуре, соответствующей требованиям 152-ФЗ и уровню защищенности УЗ-1.
