Чтобы познакомиться с Managed RAG, создайте базу знаний из текстового файла, используя Object Storage и ML-модели из Foundation Models.
Перед началом работы
-
Если вы уже зарегистрированы, войдите под своей учетной записью.
Убедитесь, что у вас есть доступ к Foundation Models и Object Storage.
Подготовьте документ для базы знаний в Evolution Object Storage.
Создайте папку rag-quickstart-kb в бакете и загрузите в нее файл faq_products.txt, скачанный ранее.
Создайте базу знаний
Перейдите в AI Factory → Managed RAG.
Нажмите Создать базу знаний.
Введите название и, если необходимо, описание базы знаний.
В поле Путь к папке с документами на S3 выберите папку rag-quickstart-kb в бакете Object Storage, куда вы загрузили файл faq_products.txt.
В поле Расширения документов введите txt — расширение файла, который будет обработан и сохранен в базе знаний.
Нажмите Создать.
При создании базы знаний автоматически будет создан сервисный аккаунт для управления вашими файлами в Object Storage.
Дождитесь, когда завершится индексация и первая версия базы знаний перейдет в статус «Активная».
Получите генеративный ответ по поисковой выдаче
В созданной базе знаний на вкладке Версии рядом с нужной версией нажмите Копировать URL.
В терминале выполните следующий код:
curl -X POST "<knowledge_base_public_url>/api/v1/retrieve_generate" \-H "Content-Type: application/json" \-H "Authorization: Bearer <access_token>" \-d '{"query": "Что такое сервис Evolution Managed Kubernetes?","llm_settings": {"model_settings": {"model": "t-tech/T-lite-it-1.0"},"system_prompt": "Вы полезный помощник, который отвечает на вопросы, основываясь на предоставленном контексте."},"retrieve_limit": 3,"n_chunks_in_context": 3,"rag_version": "<rag_version>"}'Где:
<knowledge_base_public_url> — скопированный публичный URL базы знаний;
<access_token> — полученный токен доступа с помощью public API Cloud.ru;
"query" — текст запроса;
"llm_settings" — настройки языковой модели из списка параметров, в том числе model — из списка поддерживаемых моделей;
"system_prompt" — промпт для LLM-модели;
"retrieve_limit" — количество возвращаемых чанков в поисковой выдаче, значение по умолчанию — 50;
"n_chunks_in_context" — количество чанков из поисковой выдачи для контекста LLM, значение по умолчанию — 3;
"rag_version" — идентификатор версии базы знаний. Его можно получить на вкладке Информация нужной версии базы знаний.
Что дальше
Попробуйте отправить другие запросы к версии базы знаний или поэкспериментировать в песочнице, получив ответ в чате.
- Перед началом работы
- Создайте базу знаний
- Получите генеративный ответ по поисковой выдаче
- Что дальше