Тарификация

При работе с платформой ML Space оплата осуществляется за фактическое использование вычислительных ресурсов.

Конкретные условия и тарифы фиксируются в договоре, заключаемом с Cloud.ru. Возможны специальные тарифы, в рамках которых к описанным условиям применяются дополнительные ограничения.

Тарификация Data Catalog

Используется тарификация в МБ или ГБ. Единицы тарификации округляются в большую сторону. Если объем занятой информации на хранилище составил 900 МБ, то сумма списания будет за 1 ГБ. Пример расчета стоимости Data Catalog.

Тарифицируемая функциональность

Единица тарификации

Комментарий

Быстрое хранилище NFS

1 ГБ

Оплачивается объем хранилища сверх бесплатно предоставляемых 10 ГБ на каждый воркспейс. Тарификация посуточная, списание с лицевого счета производится в 00 часов по московскому времени. Счет выставляется в конце месяца по факту потребления. Тарификация хранимого объема на NFS (сверх бесплатных 10 ГБ) рассчитывается посуточно. Расчет тарифов приведен в разделе Пример расчета стоимости Data Catalog. Для коротких месяцев цена за день будет выше, для длинных — ниже. При создании в каждый воркспейс монтируется NFS-хранилище с лимитом в 10 ГБ. Возможно увеличить лимит самостоятельно или через обращение в техническую поддержку.

Пример расчета стоимости Data Catalog

Тарификация Environments

Используется поминутная тарификация. Единицы тарификации округляются в большую сторону.

Фактическую стоимость задачи можно посмотреть на вкладке Задачи и окружения.

Тарифицируемая функциональность

Единица тарификации

Конфигурации

Комментарий

Jupyter Server с GPU

GPU-минута

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM.

Остальные конфигурации = минимальная * N, где N= от 2 до 16 (в рамках одного DGX-2).

CPU и RAM на данный момент выделяются пропорционально количеству используемых GPU.

Обратите внимание на то, что конфигурации с возможностью гибкой настройки количества CPU и RAM будут доступны позднее.

Тариф за GPU-минуту зависит от количества аллоцированных GPU:

Тарификация ресурсов начинается после изменения статуса Jupyter Server на «Подключен».

Задача на N GPU

GPU-минута

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM.

Остальные конфигурации = минимальная * N, где N = от 2 до 1000.

CPU и RAM на данный момент выделяются пропорционально количеству используемых GPU.

Тарификация начинается в момент старта обучения, когда задача переходит в статус «Running». Тариф за GPU-минуту зависит от количества аллоцированных GPU:

Jupyter со Spark

СPU-минута

  • Spark на CPU (cpu-ai-small, 4vCPU, 16 GB)

  • Spark на CPU (cpu-ai-middle, 8vCPU, 32 GB)

  • Spark на CPU (cpu-ai-large, 12 vCPU, 48 GB)

  • Spark на CPU (cpu-ai-giant, 24 vCPU, 96 GB)

Аллоцируемые ресурсы Driver и Executor тарифицируются с момента создания Jupyter Server со Spark, то есть после изменения статуса на «Подключен». Таким образом, тарификация использования Spark идет с момента, когда все заказанные узлы доступны пользователю.

Сервер с доступом к Spark тарифицируется все время существования до остановки. Тарифицируется как использование ресурсов, на которых запущен Spark Driver, так и ресурсов, на которых выполняются Spark Executor-ы, стоимость использования которых вычисляется как стоимость использования одного Spark Executor заданной конфигурации * Количество Executor.

Тариф на CPU-минуту зависит от количества аллоцированных CPU.

Примеры расчета стоимости Еnvironments

Для просмотра статистики по задачам обучения и Jupyter Server перейдите в Environments → Задачи и окружения.

Тарификация Deployments

Используется посекундная тарификация. При посекундной тарификации округление до минут не производится. Например, экземпляр отработал 11 секунд, тогда сумма списания будет начислена на эти 11 секунд. Примеры расчета стоимости Deployments.

Если на Deployments не выполняются вычисления — экземпляры деплоя не активны (минимальное количество экземпляров при создании деплоя установлено 0), тарификация не осуществляется.

Тарифицируемая функциональность

Конфигурации (instance_type)

Комментарий

Inference на GPU

Минимальная конфигурация: 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM. Остальные конфигурации = минимальная * N * P, где: N — количество экземпляров конфигурации 1 GPU Tesla V100 32 GB, 3 CPU cores, 94 GB RAM, на которых запускается микросервис. N = от 1 до 16, P — минимальное и максимальное количество экземпляров для масштабирования экземпляров микросервиса и количество GPU, которые будут использоваться сервисом. Минимальное количество экземпляров изменяется в интервале от 0 до 100, максимальное — от 1 до 100.

При задании количества экземпляров деплоя равным нулю их запуск производится в момент получения запроса к API сервиса. При отсутствии запросов к модели активные экземпляры деплоя будут отсутствовать, тарификация не осуществляется.

При задании минимального количества экземпляров деплоя (не равного нулю) всегда будет запущено минимальное количество экземпляров, таким образом, тарифицируется время их постоянной работы.

Обратите внимание на то, что если в коде пользователя ошибка, деплой модели упадет с ошибкой. При этом экземпляр с моделью не будет остановлен, и тарификация будет идти до момента удаления деплоя пользователем. Эту ситуацию можно отследить в логах.

Inference на CPU (тарификация планируется позже)

Минимальная конфигурация (на выбор):

  • cpu-ai-small - 4 vCPU, 16 GB RAM

  • cpu-ai-middle - 8 vCPU, 32 GB RAM

  • cpu-ai-large - 12 vCPU, 48 GB RAM

  • cpu-ai-giant - 24 vCPU, 96 GB RAM

Остальные конфигурации = минимальная * N * P, где: N — количество экземпляров конфигурации, на которых запускается микросервис, P — минимальное и максимальное количество экземпляров для масштабирования экземпляров микросервиса и количество GPU, которые будут использоваться сервисом. Минимальное количество экземпляров изменяется в интервале от 0 до 100, максимальное — от 1 до 100.

Тарификация — посекундная.

Тарификация осуществляется за время работы экземпляров деплоя.

При задании количества экземпляров деплоя равным нулю их запуск производится в момент получения запроса к API сервиса. При отсутствии запросов к модели активные экземпляры деплоя будут отсутствовать, тарификация не осуществляется.

При задании минимального количества экземпляров деплоя (не равного нулю) всегда будет запущено минимальное количество экземпляров, таким образом, тарифицируется время их постоянной работы.

Обратите внимание на то, что если в коде пользователя ошибка, деплой модели упадет с ошибкой. При этом экземпляр с моделью не будет остановлен, и тарификация будет идти до момента удаления деплоя пользователем. Эту ситуацию можно отследить в логах.

Примеры расчета стоимости Deployments

Примечание
  • Если первое значение в поле Количество экземпляров равно нулю, при отсутствии обращений к деплою произойдет его гибернация. Время выхода из гибернации составляет до пяти минут при наличии свободных ресурсов в регионе размещения.

  • Особенностью работы автоскейлинга при уменьшении количества экземпляров деплоя является остановка ресурсов, которая занимает 5-10 минут. Время остановки тарифицируется.

ML Space