Что нового
История изменений сервиса ML Inference.
2025
Апрель
- Сервис в General Availability
Сервис в общем доступе и тарифицируется согласно тарифам.
- Запуск модели в Docker RUN
ML-модели теперь можно запускать в контейнере из пользовательского Docker-образа.
- Поддержка технологии Shared GPU
Технология Shared GPU позволяет ML-моделям совместно использовать ресурсы графического ускорителя.
- Поддержка новых библиотек
ML-инференс поддерживает библиотеки vLLM, TGI, Ollama, Diffusers, Transformers.
Была ли статья полезной ?