Быстрый старт
С помощью этой статьи вы авторизуетесь и отправите первый запрос к модели для генерации текста.
Для отправки запроса к текстовой модели:
Перед началом работы
-
Если вы уже зарегистрированы, войдите под своей учетной записью.
На верхней панели слева нажмите
и убедитесь в наличии сервиса Foundation Models в разделе AI Factory. Если сервиса нет в списке, обратитесь в поддержку.
Шаг 1. Создайте сервисный аккаунт
Вы можете создать сервисный аккаунт через личный кабинет.
На верхней панели слева нажмите
и перейдите в раздел Пользователи, на вкладку Сервисные аккаунты.
В правом верхнем углу нажмите Создать сервисный аккаунт.
Задайте для сервисного аккаунта название и описание.
Назначьте доступы и роль. Роль определяет права доступа сервисного аккаунта. Чтобы аккаунт мог совершать какие-либо действия с ресурсами, рекомендуем выбирать роль «Администратор проекта».
Нажмите Создать.
Шаг 2. Сгенерируйте API-ключ
В рамках учетной записи можно создать до 10 ключей доступа. Если вы достигли лимита, удалите неактуальные ключи.
Для создания персонального ключа доступа:
Перейдите в Мой профиль, нажав в правом верхнем углу на инициалы → имя пользователя.
Перейдите на вкладку Ключи доступа.
Нажмите Создать ключ.
Введите описание ключа, которое поможет в будущем идентифировать его среди других ключей.
Задайте время жизни ключа: от 1 до 10 000 дней. По умолчанию срок жизни ключа — 365 дней. По окончании срока ключ перестанет быть активным. Также доступен вариант «Бессрочно».
ПримечаниеБессрочные ключи менее безопасны, рекомендуем выбирать ограничение по периоду действия или обновлять ключи самостоятельно не менее одного раза в год.
Нажмите Создать.

После этого будут сгенерированы Key ID (логин) и Key Secret (пароль).
Сохраните значение Key Secret. После того как вы закроете окно, повторно посмотреть значение будет нельзя.
Шаг 3. Получите токен
Для отправки запроса на получение токена используйте значения Key ID и Key Secret, полученные на предыдущем шаге.
Время жизни полученного токена — 1 час (3600 секунд).
Обратите внимение, что Key ID = client_id, а Key Secret = client_secret.
Вы можете отправить Python-запрос или cURL-запрос.
import requestsdef get_token(client_id, client_secret):data = {'client_id': <client_id>,'client_secret': <client_secret>,'grant_type':'client_credentials'}resp = requests.post("https://auth.iam.cloud.ru/auth/system/openid/token", json=data)resp.raise_for_status()resp = resp.json()return resp["access_token"]client_id = "<client_id>"client_secret = "<client_secret>"token = get_token(client_id, client_secret)
В ответе на запрос значение токена будет указано в параметре access_token. Используйте полученный токен для параметра token при отправке запроса к модели.
Шаг 4. Отправьте запрос к модели
Перед отправкой запроса скопируйте ID проекта — x-project-id.
Чтобы скопировать идентификатор проекта:
В верхней панели меню раскройте список всех проектов.
В строке с проектом нажмите
.
Выберите Скопировать ID проекта. ID будет скопирован в буфер обмена.

При каждом запросе к сервису в заголовке запроса необходимо передавать ID проекта.

Отправьте запрос к одной из моделей, например DeepSeek-R1-Distill-Llama-70B. С помощью дистилляции знаний она «сжимает» логику больших моделей, таких как GPT-4, в относительно компактный формат (70 млрд параметров), сохраняя высокую точность на уровне state-of-the-art решений.
Запрос при помощи библиотеки requests на стандартный эндпоинт, содержащий chat.completions из спецификации OpenAI.
project_id = "<project_id>"url = "https://foundation-models.api.cloud.ru/api/gigacube/openai/v1/chat/completions"headers = {"Authorization": f"Bearer {token}","x-project-id": <project_id>,"Content-Type": "application/json"}payload = {"model": "deepseek-ai/DeepSeek-R1-Distill-Llama-70B","temperature": 0.7,"top_p": 0.9,"max_tokens": 300,"frequency_penalty": 0.5,"presence_penalty": 0.3,"messages": [{"role": "user","content": "Объясни, как работает механизм внимания в трансформерах на уровне junior-разработчика."}]}response = requests.post(url,headers=headers,json=payload)print(response.json())
Где:
Authorization — значение токена {token}, полученного при отправке запроса на авторизацию.
x-project-id — ID проекта, скопированный в интерфейсе.
Ниже описано, какие параметры использованы и почему выбраны конкретные значения:
temperature = 0.7 — баланс между детерминированностью (0) и креативностью (1). Значение 0.7 позволяет модели предлагать неочевидные аналогии, сохраняя техническую точность.
top_p = 0.9 — ограничивает выбор токенов до 90% наиболее вероятных вариантов. Позволяет избегать абсурдных ответов, сохраняя разнообразие.
max_tokens = 300 — оптимальная длина для подробного объяснения без избыточности. Ограничивает размер ответа для быстрого получения результата.
frequency_penalty = 0.5 — снижает повторение одинаковых фраз: 0 — без штрафа, 2 — максимальный штраф. Помогает избегать зацикливания на одних и тех же формулировках.
presence_penalty = 0.3 — поощряет введение новых тем при отрицательном значении или фокусировку на текущем контексте. Значение 0.3 стимулирует приводить дополнительные примеры.
Что дальше
Посмотрите пошаговые инструкции для работы с моделями.
- Перед началом работы
- Шаг 1. Создайте сервисный аккаунт
- Шаг 2. Сгенерируйте API-ключ
- Шаг 3. Получите токен
- Шаг 4. Отправьте запрос к модели
- Что дальше