yandex
Калькулятор ценТарифыАкцииДокументацияО насКарьера в Cloud.ruНовостиЮридические документыКонтактыРешенияРеферальная программаКейсыПартнерство с Cloud.ruБезопасностьEvolutionAdvancedEvolution StackОблако VMwareВ чем отличия платформ?БлогОбучение и сертификацияМероприятияИсследования Cloud.ruЛичный кабинетВойтиЗарегистрироватьсяОблако для мобильных и веб‑приложенийСайт в облакеАналитика данных в облакеХранение данных в облакеАналитика данных в облакеИнфраструктура для 1С в облакеМиграция IT‑инфраструктуры в облако3D-моделирование и рендерингРазработка и тестирование в облакеEvolution ComputeEvolution Managed KubernetesEvolution Object StorageEvolution Managed PostgreSQL®Evolution Bare MetalEvolution SSH KeysEvolution ImageEvolution DNSEvolution VPCEvolution Load BalancerEvolution Magic RouterEvolution DiskEvolution Container AppsEvolution Artifact RegistryEvolution Managed ArenadataDBEvolution Managed TrinoEvolution Managed SparkEvolution ML InferenceEvolution Distributed TrainEvolution ML FinetuningEvolution NotebooksEvolution TagsEvolution Task HistoryCurator Anti-DDoSCurator Anti‑DDoS+WAFUserGate: виртуальный NGFWStormWall: Anti-DDoSCloud MonitoringCloud LoggingАренда GPUDirect ConnectCDNCloud AdvisorCross-platform connectionAdvanced Object Storage ServiceAdvanced Elastic Cloud ServerAdvanced Relational Database Service for PostgreSQLAdvanced Image Management ServiceAdvanced Auto ScalingAdvanced Enterprise RouterAdvanced Cloud Backup and RecoveryAdvanced Data Warehouse ServiceAdvanced Elastic Volume ServiceAdvanced Cloud Container EngineAdvanced FunctionGraphAdvanced Container Guard ServiceAdvanced Software Repository for ContainerAdvanced Document Database Service with MongoDBAdvanced Relational Database Service for MySQLAdvanced Relational Database Service for SQL ServerAdvanced Server Migration ServiceAdvanced Data Replication ServiceAdvanced API GatewayAdvanced CodeArtsAdvanced Distributed Message Service for KafkaAdvanced Distributed Message Service for RabbitMQAdvanced DataArts InsightAdvanced CloudTableAdvanced MapReduce ServiceAdvanced Cloud Trace ServiceAdvanced Application Performance ManagementAdvanced Identity and Access ManagementAdvanced Enterprise Project Management ServiceVMware: виртуальный ЦОД с GPUVMware: виртуальный ЦОДУдаленные рабочие столы (VDI)VMware: резервное копирование виртуальных машинVMware: резервный ЦОДVMware: резервное копирование в облакоVMware: миграция виртуальных машин
Связаться с нами
Вебинар
Онлайн
Для IT

Простой запуск ML-моделей в облаке: как сэкономить до 70% ресурсов

hero_img

Проанализировав опыт наших клиентов и открытые данные по рынку, приходим к выводу, что 70% компаний используют графические процессоры (GPU) менее чем на 55% их мощности. При этом простой одного сервера может обходиться бизнесу до 5,376 млн рублей в год.

Часто ресурсы GPU используются неоптимально, например, когда мощные графические процессоры выполняют небольшие задачи. На вебинаре мы покажем, как можно эффективнее организовать работу с GPU с помощью Evolution ML Inference. Сервис позволяет запускать несколько моделей на одном GPU, автоматически масштабирует ресурсы и сокращает расходы до 70%.

    Программа вебинара:
  • почему Shared GPU выгоднее выделенных ресурсов: расчет экономии на примере реальных проектов;
  • пошаговый запуск моделей с Hugging Face за несколько кликов;
  • как избежать переплат: настройка лимитов GPU и мониторинг в реальном времени;
  • динамическое масштабирование: добавление ресурсов при пиковой нагрузке и отключение в простое.

В результате с помощью сервиса вы сможете развертывать модели без сборки Docker-образа, платить только за фактическое использование ресурсов и сократить время запуска проектов с использованием AI в 3 раза.

Вебинар будет полезен дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру.

Тайм-коды вебинара

  • 01:44 - Как IT-специалисты используют AI на практике
  • 03:50 - Варианты развертывания LLM/AI-моделей
  • 05:31 - Плюсы и минусы on-premise, LLM, публичного облака
  • 11:03 - Сервисы для работы с моделями в Cloud.ru Evolution
  • 20:01 - Как выглядит инференс в облаке
  • 25:39 - Вариация сервиса Evolution ML Inference – Docker RUN
  • 27:26 - Shared GPU
  • 31:26 - Severless режим (скейлинг в ноль)
  • 36:11 - Ответы на вопросы
  • 39:31 - Демо Evolution ML Inference
  • 47:57 - Ответы на вопросы, контакты спикера для связи

Спикеры

Продукты, про которые расскажем

Evolution ML Inference

Evolution ML Inference

Запуск и развертывание AI и LLM моделей
Разработка и эксплуатация ML‑моделей

Разработка и эксплуатация ML‑моделей

Максимизируйте потенциал машинного обучения с сервисами и инструментами для обучения и инференса ML-моделей

Получить материалы вебинара

Укажите актуальный email, чтобы получить ссылку для скачивания материалов
*