С помощью этого руководства вы настроите среду для генерации видео в ComfyUI с использованием модели Kandinsky 5.0 Video Lite в сервисе Notebooks.
В результате вы получите практический опыт работы с визуальной средой ComfyUI, управлением моделями и генерацией видео в облаке Cloud.ru Evolution.
Вы будете использовать следующие сервисы:
Notebooks — сервис для запуска сред ML и работы DS-специалистов в ноутбуках на платформе Evolution.
Object Storage — объектное S3-хранилище с бесплатным хранением файлов объемом до 15 ГБ.
Hugging Face — платформа с открытым исходным кодом и сообщество разработчиков, ориентированное на машинное обучение, обработку естественного языка (NLP) и другие области искусственного интеллекта.
ComfyUI — визуальная среда для создания и запуска процессов генерации контента на основе моделей диффузии.
Шаги:
Если вы уже зарегистрированы, войдите под своей учетной записью.
На верхней панели слева нажмите и убедитесь в том, что сервис Notebooks в разделе AI Factory подключен.
Если сервис Notebooks не подключен, оставьте заявку на подключение.
Убедитесь, что для сервиса Notebooks установлена квота на GPU. Для расширения квоты обратитесь в техническую поддержку.
На этом шаге вы создадите бакет для хранения моделей и ноутбук с GPU и предустановленным ComfyUI. Это обеспечит стабильную и производительную среду для генерации видео.
Для хранения модели создайте бакет в Object Storage.
Создайте ноутбук со следующими параметрами:
Конфигурация — GPU.
Образ — Cloud.ru Jupyter ComfyUI Kandinsky 5 Video Lite.
Хранилища — укажите бакет, созданный ранее.
На этом шаге вы загрузите компоненты модели Kandinsky 5.0 Video Lite в выбранное хранилище — либо в бакет Object Storage, либо локально в ноутбук. Использование бакета позволяет сохранять модели между перезапусками ноутбука.
Откройте созданный ноутбук.
Запустите терминал.
Загрузите модель в бакет S3 или напрямую в ноутбук:
Выполните скрипт в терминале, предварительно указав название вашего бакета в <bucket_name>:
# Activate the base environmentconda activate base# Set the path to the bucket, e.g. /mnt/s3/<BUCKET_NAME>/kandinsky/weightsexport K5_WEIGHTS_DIR="/mnt/s3/<bucket_name>/kandinsky/weights" COMFY_MODELS_DIR="/comfyui/models/diffusion_models/"# Create directory and change into itmkdir -p $K5_WEIGHTS_DIR && cd $K5_WEIGHTS_DIR# Download modelspython3 /comfyui/custom_nodes/kandinsky/download_models.py# Create symbolic links for text_encoder (Qwen/Qwen2.5-VL-7B-Instruct)for file in model-0000{1..5}-of-00005.safetensors; do \ln -fs "${K5_WEIGHTS_DIR}/text_encoder/${file}" "/comfyui/models/text_encoders/text_encoder/"; \done# Create symbolic links for text_encoder2 (openai/clip-vit-large-patch14)for file in {"tf_model.h5","pytorch_model.bin","model.safetensors","flax_model.msgpack"}; \do \ln -fs "${K5_WEIGHTS_DIR}/text_encoder2/${file}" "/comfyui/models/text_encoders/text_encoder2/"; \done# Create symbolic link for VAE (hunyuanvideo-community/HunyuanVideo)ln -fs "${K5_WEIGHTS_DIR}/vae/diffusion_pytorch_model.safetensors" "/comfyui/models/vae/vae/"# Create symbolic links for Kandinsky5Lite_T2V modelsln -fs "${K5_WEIGHTS_DIR}/model/kandinsky5lite_t2v_distilled16steps_5s.safetensors" $COMFY_MODELS_DIR && \ln -fs "${K5_WEIGHTS_DIR}/model/kandinsky5lite_t2v_sft_5s.safetensors" $COMFY_MODELS_DIR
На этом шаге вы запустите рабочий процесс генерации видео в ComfyUI, используя загруженные модели. Вы сможете настроить промпты, запустить генерацию и получить результат.
В интерфейсе ноутбука перейдите в модуль Comfy UI.
В левом верхнем углу нажмите Рабочий процесс → Посмотреть шаблоны.
Выберите один из доступных шаблонов:
Kandinsky 5.0 T2V Lite SFT 5s — обеспечивает лучшее качество.
Kandinsky 5.0 T2V Lite distill 5s — работает в 6 раз быстрее с минимальной потерей качества.
Интерфейс ComfyUI состоит из нод, которые соединены между собой в единый рабочий процесс. Ноды отвечают за разные этапы генерации изображений и видео.
В поле ноды expand_prompt введите на русском или английском языке текстовый промпт — описание сцены, которую хотите сгенерировать.
Чем детальнее описание, тем точнее результат. Укажите объекты, действия, стиль, освещение.
Пример промпта:
A 1980s Soviet computing lab.Green glow fills the room from massive mainframes.A scientist in a white coat watches a monochrome monitor.In bold, flickering green letters, the words written and pulse at the center of the screen surrounded by blinking status lights and scrolling hex code.Reels spin.
В поле ноды Kandinsky5TextEncode укажите негативный промпт — элементы, которые нужно исключить из генерации.
Пример негативного промпта:
Static2D cartooncartoon2d animationpaintingsimagesworst qualitylow qualityuglydeformedwalking backwards
Нажмите Запустить.
Запустится процесс генерации видео. Если процесс не запустился, обновите страницу и повторите попытку.
Дождитесь завершения генерации.
Первый запуск может занимать больше времени из-за инициализации GPU и загрузки модели. Последующие запуски будут быстрее.
Чтобы отслеживать процесс, в консоли отладки нажмите Переключить нижнюю панель.
Сгенерированное видео появится в ноде Cохранить анимированный WEBP и в очереди генерации.
Оригинал файла будет сохранен в директории /comfyui/output.
ComfyUI поддерживает очередь генерации. Вы можете добавить несколько промптов подряд для непрерывной обработки.
Пример сгенерированного видео:
В ходе практической работы вы:
настроили среду в сервисе Notebooks;
загрузили модель Kandinsky 5.0 Video Lite;
освоили работу с ComfyUI;
использовали GPU-ускорение;
настроили хранение моделей в облаке;
сгенерировали видео на основе текстового описания.
Далее вы можете экспериментировать с другими версиями модели Kandinsky 5.0 Video Lite и менять параметры генерации. Подробную информацию о модели Kandisnky 5 можно узнать в официальном репозитории.