nav-img
Evolution

Что нового

История изменений сервиса ML Inference.

2025

Апрель

Сервис в General Availability

Сервис в общем доступе и тарифицируется согласно тарифам.

Запуск модели в Docker RUN

ML-модели теперь можно запускать в контейнере из пользовательского Docker-образа.

Поддержка технологии Shared GPU

Технология Shared GPU позволяет ML-моделям совместно использовать ресурсы графического ускорителя.

Поддержка новых библиотек

ML-инференс поддерживает библиотеки vLLM, TGI, Ollama, Diffusers, Transformers.