Почему Agentic RAG — это будущее
Традиционные RAG-системы извлекают всю информацию сразу и конкатенируют её в input модели. Это работает, но неэффективно.
Проблема: Статичный поиск не масштабируется. Модель не может рассуждать о том, какая информация ей нужна, поэтому мы извлекаем всё и надеемся, что это релевантно.
Три парадигмы
1. Graph RAG
Проектируем алгоритм, который извлекает отрывки за один раз и конкатенирует их.
Плюсы: Детерминированно, предсказуемо Минусы: Не может адаптироваться к характеристикам задачи
2. Workflow RAG
Предопределяем workflow и просим модель выполнять его пошагово.
Плюсы: Некоторая гибкость Минусы: Ограничено предопределёнными путями
3. Agentic RAG
Предоставляем иерархические интерфейсы поиска напрямую модели. Пусть она решает, что искать.
Плюсы: Автономная стратегия, итеративное выполнение, перемешанное использование инструментов Минусы: Более сложно, требует сильного рассуждения модели
Как работает Agentic RAG
У агента есть три инструмента:
- keyword_search — Быстрый точный поиск
- semantic_search — Понимание концептуального сходства
- chunk_read — Получение полного контекста вокруг результатов
Агент думает:
- "У меня достаточно информации?"
- "Если нет, нужно ли мне искать сущности (KG) или концепции (семантика)?"
- "Нужно ли мне прочитать полный контекст этого чанка?"
Итерирует, пока не будет уверен в ответе.
Почему это важно
Эффективность: Извлекает только нужную информацию Точность: Рассуждение о поиске улучшает результаты Масштабируемость: Производительность растёт с лучшими моделями
Будущее RAG — это не более быстрый поиск. Это более умное рассуждение о том, что искать.