ML Inference позволяет получать информацию об инференсах в Model RUN и работать с ними с помощью API.
Чтобы начать работу с API, пройдите аутентификацию и отправьте запрос на эндпоинт https://ml-inference.api.cloud.ru/v1/.
Спецификацию можно скачать и использовать в привычном инструменте.
В разделе: