Облачная платформаEvolution

ML Inference

Сервис ML Inference позволяет запускать ML-модели в облаке с использованием GPU. С помощью Model RUN можно запускать готовые модели из популярных библиотек, а с Docker RUN разворачивать модели из пользовательских Docker-образов.
Создать Model RUN

Популярные материалы