Быстрый старт
С помощью быстрого старта вы запустите задачу на дообучение текстовой модели из репозитория на Hugging Face.
Перед началом работы
-
Если вы уже зарегистрированы, войдите под своей учетной записью.
-
На верхней панели слева нажмите
и убедитесь в наличии сервиса ML Finetuning в разделе AI Factory. Если сервиса ML Finetuning нет в списке, обратитесь в поддержку.
-
Убедитесь в соблюдении необходимых акспектов для работы с моделями из Hugging Face:
-
у выбранной модели имеется подходящяя лицензия для вашего использования;
-
для работы с приватными моделями у вас должен быть аккаунт на Hugging Face и токен доступа с правом на чтение и запись данных.
-
Запустите дообучение модели
В режиме Public Preview сервис работает с ограничениями.
Дообучение автоматически отменится, если превышено:
-
время дообучения модели — 4 часа;
-
количество дообучений для организации — 10.
Для запуска задачи на дообучение модели:
-
На верхней панели слева нажмите
и выберите AI Factory → ML Finetuning.
-
Выберите тип базовой модели — Генерация текста.
-
Выберите источник базовой модели — Hugging Face.
-
Добавьте репозиторий с базовой моделью из Hugging Face:
-
Нажмите Добавить из Hugging Face.
-
В поле Репозиторий с моделью на Hugging Face укажите адрес репозитория, в котором расположена модель для дообучения. Например, seara/rubert-tiny2-russian-sentiment.
-
(Опционально) Укажите токен доступа из Secret Management, если модель расположена в приватном репозитории. Чтобы добавить новый токен доступа, нажмите Добавить токен в Secret Management.
-
-
Добавьте датасет Alpaca в формате JSON для дообучения модели:
-
Выберите Назначение — Hugging Face Datasets.
-
В поле Репозиторий датасета на Hugging Face укажите адрес репозитория, в котором расположен датасет. Датасет должен быть в формате Alpaca и содержать следующие поля: instruction, input, output. Например, tatsu-lab/alpaca.
-
-
Добавьте репозиторий для сохранения дообученной модели:
-
Выберите Назначение — Hugging Face Datasets.
-
В поле Репозиторий с моделью на Hugging Face укажите адрес репозитория в формате user/model, в котором будет сохранена модель после дообучения.
-
-
Настройте конфигурацию основных параметров:
-
Выберите метод обучения — LoRA.
-
Укажите значения для основных гиперпараметров дообучения:
-
Learning rate — начальная скорость обучения для алгоритма AdamW — 0.0001.
-
Epoch — общее количество эпох обучения — 3.
-
Gradient accumulation — количество шагов для накопления градиентов перед обновлением параметров — 4.
-
Batch size per device — количество образцов, обрабатываемых в каждом GPU — 32.
-
Training precision — использование смешанной точности при обучении модели — bf16.
-
Logging steps — количество шагов между записями логирования — 50.
-
Save steps — количество шагов между сохранением модели — 5.
-
Max samples — максимальное количество образцов для дообучения модели — 1000.
-
-
-
Ресурсы, выделенные на дообучение модели, доступны в одной конфигурации — 1 GPU H100 80GB – 182 GB RAM.
-
Нажмите Запустить дообучение.
Что дальше
- Перед началом работы
- Запустите дообучение модели
- Что дальше