Быстрый старт
Чтобы познакомиться с Managed RAG, создайте базу знаний из текстового файла, используя Object Storage и ML-модели из Foundation Models.
Перед началом работы
-
Если вы уже зарегистрированы, войдите под своей учетной записью.
-
Убедитесь, что у вас есть доступ к Foundation Models и Object Storage.
-
Подготовьте документ для базы знаний в Evolution Object Storage.
-
Создайте папку rag-quickstart-kb в бакете и загрузите в нее файл faq_products.txt, скачанный ранее.
Создайте базу знаний
-
Перейдите в AI Factory → Managed RAG.
-
Нажмите Создать базу знаний.
-
Введите название и, если необходимо, описание базы знаний.
-
В поле Путь к папке с документами на S3 выберите папку rag-quickstart-kb в бакете Object Storage, куда вы загрузили файл faq_products.txt.
-
В поле Расширения документов введите txt — расширение файла, который будет обработан и сохранен в базе знаний.
-
Нажмите Создать.
При создании базы знаний автоматически будет создан сервисный аккаунт для управления вашими файлами в Object Storage.
Дождитесь, когда завершится индексация и первая версия базы знаний перейдет в статус «Активная».
Получите генеративный ответ по поисковой выдаче
-
В созданной базе знаний на вкладке Версии рядом с нужной версией нажмите Копировать URL.
-
В терминале выполните следующий код:
curl -X POST "<knowledge_base_public_url>/api/v1/retrieve_generate" \-H "Content-Type: application/json" \-H "Authorization: Bearer <access_token>" \-d '{"project_id" : "<project_id>","query": "Что такое сервис Evolution Managed Kubernetes?","llm_settings": {"model_settings": {"model": "t-tech/T-lite-it-1.0"},"system_prompt": "Вы полезный помощник, который отвечает на вопросы, основываясь на предоставленном контексте.","temperature": 1},"retrieve_limit": 3,"n_chunks_in_context": 3,"rag_version": "<rag_version>"}'Где:
-
<knowledge_base_public_url> — скопированный публичный URL базы знаний;
-
<access_token> — полученный токен доступа с помощью public API Cloud.ru;
-
"project_id" — ID проекта.
Как получить ID проекта -
"query" — текст запроса;
-
"llm_settings" — настройки языковой модели из списка параметров, в том числе model_name — из списка поддерживаемых моделей;
-
"retrieve_limit" — количество возвращаемых результатов (top N), значение по умолчанию — 50;
-
"n_chunks_in_context" — количество чанков из поисковой выдачи для контекста LLM (top K), значение по умолчанию — 3;
-
"rag_version" — ID версии базы знаний, который можно скопировать, перейдя в нужную версию базы знаний на вкладку Информация.
-
Что дальше
Попробуйте отправить другие запросы к версии базы знаний.
- Перед началом работы
- Создайте базу знаний
- Получите генеративный ответ по поисковой выдаче
- Что дальше