tocdepth

2

Вызвать модель в ML Inference

Инференс модели запускается в облачном контейнере. Вызвать модель можно через HTTP-запрос с помощью публичного URL-адреса. Публичный адрес генерируется автоматически при создании инференса.

Тестовый вызов

Протестировать вызов модели можно в личном кабинете.

  1. В личном кабинете перейдите в раздел ML/AI Инструменты → ML Inference.

  2. Откройте меню Горизонтальное меню напротив нужного инференса и выберите Отправить запрос.

  3. Чтобы протестировать запрос, нажмите Отправить.

Запустили Evolution free tier
для Dev & Test
Получить