Парсинг JSON-файлов и jq-схема
Для парсинга JSON-файлов используется jq-схема — инструмент командной строки, в котором пользователь задает собственный запрос и получает содержимое JSON-файла.
В зависимости от структуры запроса возвращается разный тип данных: строка или объект. Поэтому jq-схема должна учитываться при выборе опции Содержимое JSON является строкой при создании базы знаний.
Например, есть JSON-файл такого вида:
{"content": [{"question": "Какие типы GPU доступны?","answer": "Сервис Evolution ML Inference предлагает несколько типов GPU V100/H100, которые отличаются по производительности и стоимости. Чтобы выбрать подходящий графический процессор, оцените требования модели к вычислительным ресурсам: объем памяти и количество ядер. Рекомендуем начинать с менее мощного GPU и масштабировать ML-модели по мере необходимости.","product": "Evolution ML Inference"},{"question": "Какие источники для запуска ML-моделей можно использовать?","answer": "Вы можете запустить ML-модели из платформы Hugging Face или выбрать модели из Маркетплейса.","product": "Evolution ML Inference"}]}
При запросе .content[]|"Продукт: \(.product); Вопрос: \(.question); Ответ: \(.answer)" включайте опцию Содержимое JSON является строкой.
Результатом парсинга JSON будет строка:
"Продукт: Evolution ML Inference; Вопрос: Какие типы GPU доступны?; Ответ: Сервис Evolution ML Inference предлагает несколько типов GPU V100/H100, которые отличаются по производительности и стоимости. Чтобы выбрать подходящий графический процессор, оцените требования модели к вычислительным ресурсам: объем памяти и количество ядер. Рекомендуем начинать с менее мощного GPU и масштабировать ML-модели по мере необходимости.""Продукт: Evolution ML Inference; Вопрос: Какие источники для запуска ML-моделей можно использовать?; Ответ: Вы можете запустить ML-модели из платформы Hugging Face или выбрать модели из Маркетплейса."
При запросе .content[] не включайте опцию Содержимое JSON является строкой.
Результатом парсинга JSON будет объект:
{"question": "Какие типы GPU доступны?","answer": "Сервис Evolution ML Inference предлагает несколько типов GPU V100/H100, которые отличаются по производительности и стоимости. Чтобы выбрать подходящий графический процессор, оцените требования модели к вычислительным ресурсам: объем памяти и количество ядер. Рекомендуем начинать с менее мощного GPU и масштабировать ML-модели по мере необходимости.","product": "Evolution ML Inference"}{"question": "Какие источники для запуска ML-моделей можно использовать?","answer": "Вы можете запустить ML-модели из платформы Hugging Face или выбрать модели из Маркетплейса.","product": "Evolution ML Inference"}