ML Inference
Вызвать модель в Model RUN
Инференс модели запускается в облачном контейнере. Вызвать модель можно через HTTP-запрос с помощью публичного URL-адреса. Публичный адрес генерируется автоматически при создании инференса.
Тестовый вызов
Протестировать вызов модели можно в личном кабинете.
В личном кабинете перейдите в раздел ML/AI Инструменты → ML Inference.
Выберите в меню слева Model RUN.
Откройте меню
напротив нужного инференса и выберите Отправить запрос.
Чтобы протестировать запрос, нажмите Отправить.