- Главная
- Продукты
- Платформа Evolution
- Evolution ML Inference
Evolution ML Inference
Автоматизированный сервис для запуска ML-моделей из платформы Hugging Face на облачных мощностях с GPU
Возможности
Производительность и экономия
Совместное использование ресурсов графического ускорителя (Shared GPU) создает баланс стоимости, производительности и эффективности потребления облачных ресурсов.
Динамическое автомасштабирование
Ресурсы автоматически выделяются и удаляются в зависимости от нагрузки. Масштабирование до нуля экономит ресурсы при отсутствии трафика.
Поддержка моделей из Hugging Face
Сервис позволяет запускать модели из популярной платформы Hugging Face. Скоро — поддержка моделей библиотек vLLM, TGI, Ollama и пользовательских моделей.
Бесплатный ранний доступ к сервису
Evolution ML Inference находится на стадии закрытого тестирования (Private Preview). Создайте заявку на подключение сервиса и дождитесь приглашения к участию в тестировании.
Сервис Evolution Container Inference поддерживает запуск ML-моделей в облаке с помощью пользовательских Docker-образов. Модель запускается в контейнерной среде, оптимизированной под потребности вашего инференса.
Ответы на вопросы
Какие типы GPU доступны?
Сервис Evolution ML Inference предлагает несколько типов GPU V100/H100, которые отличаются по производительности и стоимости. Чтобы выбрать подходящий GPU, оцените требования модели к вычислительным ресурсам: объем памяти и количество ядер. Рекомендуем начинать с менее мощного GPU и масштабировать ML-модели по мере необходимости.
Какие источники для запуска ML-моделей можно использовать?
Вы можете запустить ML-модели из платформы Hugging Face.
Cloud.ru – ведущий провайдер облачных и AI‑технологий
Больше чем просто поддержка
Полное сопровождение для решения ваших задач и понятный бизнес-результат
Индивидуальный подход к каждому клиенту
Проведем бесплатную консультацию по вашему проекту, ответим на вопросы и подберем лучшие решения.
Круглосуточно на связи
Бесплатная техподдержка 24/7, на связи всегда реальные люди.