nav-img
Evolution

Вызвать пользовательскую модель в Docker RUN

Инференс модели запускается в контейнере, созданном на основе пользовательского Docker-образа, с помощью ресурсов GPU, предоставленных ML Inference. Вызвать модель можно через обращение к публичному URL-адресу контейнера с Docker-образом и команду входа. Публичный адрес генерируется автоматически при создании инференса в Docker RUN.

Тестовый вызов

Протестировать вызов модели можно в личном кабинете.

  1. В личном кабинете перейдите в раздел ML/AI Инструменты → ML Inference.

  2. Выберите в меню слева Docker RUN.

  3. Откройте меню Горизонтальное меню напротив нужного инференса и выберите Тестировать.

  4. Откроется окно Docker-образа и отобразится вкладка Тестирование.

  5. На вкладке Тестирование сформируйте запрос, в том числе определите:

    • метод запроса;

    • тело запроса;

    • параметры запроса;

    • заголовки запроса;

  6. (Опционально) Чтобы передать содержание JSON-файла, включите опцию JSON-структура и введите код.

Вкладка Тестирование.
  1. Нажмите Отправить.

Запуск Docker-образа

Запустить Docker-образ можно в личном кабинете.

  1. В личном кабинете перейдите в раздел ML/AI Инструменты → ML Inference.

  2. Выберите в меню слева Docker RUN.

  3. Откройте меню Горизонтальное меню напротив нужного инференса и выберите Запустить.

Контейнер, содержащий Docker-образ с пользовательской моделью, будет создан и запущен в течение нескольких минут. Дождитесь, когда инференс перейдет в статус «Запущен» и появится публичный URL-адрес.