Без cookies никак!
Они помогают улучшить сервис для вас. Продолжая использо­вать сайт, вы даете свое согласие на работу с этими файлами. Политика обработки персональных данных
Блог

Как обучить ИИ на нужной базе знаний. RAG – генерация с дополненной выборкой

5 декабря 2025
12 мин. 29
image
image
image
Виктор Чернышев заместитель руководителя отдела развития бизнеса
image
Елена Андреева редактор-копирайтер
Как обучить ИИ на нужной базе знаний. RAG – генерация с дополненной выборкой
Парадокс отношений людей и роботов: владельцы бизнеса боятся встраивать ИИ в свои цифровые сервисы, потому что ChatGPT «галлюцинирует» и «додумывает ответы» на основе своей логики, часто непонятной. Они предпочитают живого сотрудника, ведь он отвечает по скрипту и работает с заверенной базой знаний. Но можно ли сделать так, чтобы ИИ черпал факты из документов, и его ответы были всегда правильными? И как встроить это в существующий цифровой продукт? К счастью, такая технология уже есть, и мы в Uplab используем её для своих концептов. Речь про RAG, «генерацию с дополненной выборкой».

«Вы находитесь здесь»: что умеют LLM сегодня

Большая языковая модель (LLM) — это программное обеспечение, которое позволяет генерировать осмысленные тексты в разных стилях, жанрах и на разных языках, а также программный код. Ещё LLM умеют распознавать изображения (а многие даже и создавать их), переводить тексты на десятки языков, делать рерайт, саммари, выжимки; находить нужные цитаты и фрагменты в большой книге или статье. Большие языковые модели обучаются на огромных массивах данных, обычно это доступный интернет, цифровые библиотеки или специализированные подборки.

Сейчас у многих крупных технологических компаний (Yandex, Amazon, Meta*) есть собственные LLM. Также существуют проекты, направленные исключительно на разработку и поддержание больших языковых моделей — например, OpenAI (создатели ChatGPT) и Anthropic (создатели Claude). Вспомним модели, которые «на слуху», а заодно и их возможности — LLM умеют не только генерировать текст!

1. GPT-4.1 от OpenAI (США). Генерирует текст и изображения, хорошо создаёт программный код. Сильная сторона этой модели — работа с длинным контекстом, то есть внутри одного чата модель будет «помнить» все прошлые сообщения и учитывать их в генерации ответа. Например, придерживаться заданного стиля. GPT-4.1 позиционируется как флагманская языковая модель для сложных задач, но у ChatGPT есть и более простые версии. Также в «семейство» OpenAI входит Sora — нейросеть для генерации видео.
В Pro-версии ChatGPT максимальный объем памяти и контекста. А диалоги можно рассортировать по папкам, чтобы важные контексты не терялись.
2. DeepSeek — семейство больших языковых моделей, разработанных одноимённой компанией из Китая. Её особенности — высокая производительность по низкой цене и открытый исходный код. Модель предназначена для генерации и понимания человеческого языка (в том числе анализа текста), а также для написания кода.

3. Gemini 2.5 Pro (Google, США). Распознаёт текст, код, изображения, видео, аудио. Может генерировать текст, код, изображения и видео, а также озвучивать текст голосом. Gemini позволяет создавать собственных ассистентов (ИИ-профили с заданным функционалом и стилем общения) — Gem-ботов. Но главная особенность этого ИИ — тесная интеграция с экосистемой Google и возможность встраивать ИИ-функции в существующие бизнес-процессы. Например, автоматически получать расшифровки встреч в Google Meet или генерировать иллюстрации прямо по ходу создания презентации.
Сгенерировать текст или картинки с помощью Gemini можно прямо в интерфейсе Google Docs, для этого достаточно развернуть меню в правой части экрана.
4. GigaChat (Сбер, Россия). Возможности: диалог, генерация текстов, работа с кодом, анализ документов, решение математических задач, генерация изображений. GigaChat распознаёт голосовые сообщения, а также способен обрабатывать изображения; аудио- и видео файлы. Позиционируется как «сильнейшая нейросеть на русском языке»: он работает в российском облаке и обучен в основном на русскоязычных источниках. Используется в банках, корпоративных сервисах, колл-центрах, гос-платформах.

Итак, функции LLM довольно разнообразны. И интегрировать эти программы можно в различные приложения, сайты и цифровые сервисы. Но как сделать так, чтобы модель научилась брать ответы именно в нужной базе знаний, а не «придумывала» их? Здесь разработчикам помогает технология RAG (Retrieval Augmented Generation — генерация с дополненной выборкой).

* компания Meta признана экстремистской организацией в России.

Никаких «галлюцинаций»: как устроена генерация с дополненной выборкой

RAG — это архитектура, которая позволяет языковой модели отвечать не «по памяти», а на основе фактов из указанных данных. Вместо того чтобы придумывать недостающую информацию, модель получает актуальный контекст — документы, инструкции, регламенты, записи базы знаний — и формирует ответ строго в рамках этих материалов.

Процесс состоит из двух этапов. Сначала работает retrieval: поисковый слой находит релевантные фрагменты данных. Это так называемое семантическое сопоставление — система понимает смысл запроса и подбирает документы, которые действительно отвечают на вопрос. Затем включается generation: LLM получает найденные фрагменты как контекст и формирует связный, структурированный ответ. Есть также вариант с промежуточной стадией, Augment: это добавление найденной информации (контекста) в промпт для LLM вместе с запросом пользователя.

Преимущество RAG в том, что модель не требует дорогостоящего дообучения и всегда использует самые свежие данные. Обновили документы, и ответы автоматически стали актуальнее. Кроме того, RAG обеспечивает прозрачность: можно увидеть, какие источники легли в основу ответа.

В итоге компания получает безопасный и контролируемый ИИ-слой, который работает как интеллектуальный интерфейс к корпоративной базе знаний.

Как мы спроектировали платформу для анализа юридических рисков с использованием RAG

Контекст и цель проекта

Нашей задачей было создать AI-платформу «Право (риски)», которая поможет компаниям находить и оценивать юридические риски в своих судебных делах. Система должна автоматически анализировать судебные акты, выделять потенциальные риски и предлагать действия для их устранения на основе реальной правовой практики. Это новый продукт на рынке, который объединяет искусственный интеллект, Big Data и юридическую экспертизу.

Для нашего заказчика, компании ПравоТех, этот проект стал следующим этапом развития — переходом от автоматизации юридических процессов к прогнозированию и управлению рисками с помощью AI. А также новым источником заработка на AI-аналитике через корпоративные подписки и лицензии.

Важное требование — удобный пользовательский интерфейс, в котором любой юрист за секунды получает срез реальных рисков и судебных прецедентов.

Предпроектная аналитика

Мы разобрали, как работают юристы и риск-менеджеры с судебной практикой. Выяснилось, что ключевая проблема не в отсутствии данных, а в объёме ручной работы и высокой цене ошибок. Но процесс можно автоматизировать, если объединить базу судебных актов компании ПравоТех («Кейсбук») с модулем искусственного интеллекта, который будет автоматически обогащать данные и классифицировать риски.

Архитектура решения: что мы разработали

1. Выбор подходов
Мы выбрали RAG-модель для построения системы: в нашей архитектуре ИИ анализирует запросы пользователя, сделанные «человеческим языком», интерпретирует их и ищет результаты в базе «Кейсбук». По сравнению с обычной интеграцией LLM для генерации ответов это не только более качественные ответы, но и достаточно невысокая стоимость владения, потому что количество генераций меньше.
2. Дерево рисков
Проблемой был не только объем данных, но и отсутствие единой структуры рисков. Один и тот же риск называли по-разному и классифицировали по своим правилам. Это приводило к ошибкам, дублированию и мешало автоматизации анализа. Поэтому мы разработали трехуровневое дерево рисков — единую иерархию, которая стала ядром платформы. Мы упорядочили более 2000 рисков и распределили их по 10 направлениям: договорные, регуляторные, финансовые, операционные, репутационные и др. Каждый риск можно раскрыть как полноценную карточку, в которой есть в том числе описание сути риска и связанные судебные дела.
3. Алгоритм для обработки актов
Что происходит внутри платформы, когда пользователь вводит свой запрос? Вот какова логика её работы и применяемые технологии.
Получение судебных актов в реальном времени из внешних источников.
AI-анализ и структурирование каждого акта: извлечение сущностей, фабула дела, решения, суммы исков и др.
Risk Matching: сопоставление с деревом рисков.
Обогащение карточки риска — добавление трендов, статистики, связанных кейсов (для этого система регулярно обращается к базе «Кейсбук» за обновлениями.
Генерация инсайтов и планов действий: почему риск возник, как эволюционирует, какие действия стоит предпринять.
Такой пайплайн выдерживает большие нагрузки и может исполняться как в облаке, так и полностью на стороне и мощностях клиента (On-Premise). В сервис встроена двойная проверка: автоматическая верификация моделей и ручная верификация экспертами при необходимости.
4. Пользовательский интерфейс
Мы создали рабочий инструмент для юристов: личный кабинет с полным функционалом для безопасной и удобной работы корпоративных пользователей с личным профилем риска — все сохранённые риски, статусы, истории просмотра.

AI-интерфейс поиска — это один из ключевых элементов платформы. Он позволяет каждому пользователю формулировать запрос обычным человеческим языком, например: «Какие риски актуальны для подрядных договоров в строительстве?»
Система выполняет разбор текста запроса, находит примеры судебных решений и проводит оценку тенденции: встречаемость, динамика, ущерб.


Это шаг вперёд по сравнению с обычным поиском по ключевым словам, который для юридических документов часто неэффективен или «не работает» для пользователя, поскольку сталкивает его с огромной выдачей из сложных документов. Благодаря AI-поиску система становится понятна не только юристам, но и менеджерам, аналитикам, финансистам.

В личном кабинете доступна также лента рисков. Это «радар», который отслеживает изменения судебной практики. Пользователь видит в реальном времени новые или активизирующиеся типы рисков (судебные кейсы, которые начинают проявляться как тенденция) и может принять бизнес-решения на основе этих рисков.
В интерфейсе много текста и аналитики, поэтому мы сделали текстовые блоки ограниченной ширины, много воздуха, четкие разделы и заголовки.
5. Интеграции и монетизация
Мы реализовали набор интеграций:
подключение внешних источников судебных данных, к которым обращаются LLM;
синхронизация с CRM/ERP клиента;
сервисы для верификации пользователей;
платежный модуль для покупки кредитов и расширенных планов.
Особое внимание уделено безопасности — шифрование, логирование, контроль доступа и возможность полного развёртывания на стороне клиента.
Итоги
Бизнес получил живой самообновляемый инструмент для оценки юридического риска. Разработанная нами платформа позволяет компаниям работать не «вслепую», а с опорой на реальную судебную практику. Это переход от ручного поиска к системной аналитике, где ИИ меняет качество работы с документами-источниками.

Но это не все возможности применения LLM с дополненной выборкой. Вот ещё несколько идей, которые мы считаем перспективными и реализуемыми в ближайшем будущем.

Семантический поиск по базе знаний: «задать вопрос как человеку»

Классический поиск по сайту почти всегда разочаровывает пользователя: процесс требует точного запроса, игнорирует контекст и выдаёт десятки нерелевантных страниц. Семантический поиск при помощи LLM выглядит совсем иначе, ведь искусственный интеллект учитывает и прошлые запросы, и широкую семантику. В некоторых сервисах уже есть встроенные ИИ-решения для поиска; в разработке для клиента можно использовать интеграции с LLM, как в нашем кейсе выше.

Как это работает

Системный администратор пишет: «Какие доступы нужно настроить для нового сотрудника отдела логистики?» и получает точный ответ, составленный из разных документов, инструкций и политик, без необходимости искать вручную.

Другой пример — клиентские сервисы. Пользователь отправляет запрос «Какие условия программы лояльности?» и получает короткую выжимку правил и ссылку на полный текст.

В обоих случаях использование ИИ даёт быстрые ответы на сложные вопросы о продуктах и процессах, многократное снижение нагрузки на консультантов, повышение удовлетворённости пользователей, которым не нужно «копаться» в документации.

Примеры в существующих сервисах

Notion AI Enterprise Search — ищет по всем знаниям компании, обобщает документы, предлагает готовые выдержки. Notion можно интегрировать с другими инструментами при помощи коннекторов ИИ (Slack, Jira, Github), поэтому «умный поиск» будет идти также в чатах, задачах и коде. Но строго на тех страницах, куда есть доступ у пользователя.
Zendesk Knowledge Builder — автоматически создает статьи базы знаний на основе тикетов, снижая нагрузку на поддержку.
Пример семантического поиска в Notion: LLM генерирует ответ на основе документов компании, найденных в системе.

Персональные ассистенты в travel-сервисах

Индустрия путешествий стала одной из первых, где ИИ перестал быть «дополнением» и стал ядром сервиса.

Как это работает

LLM анализирует запрос пользователя, обращается к базе доступных туров и направлений и подбирает путешествие: учитывается география, бюджет, количество дней, интересы. ИИ-ассистент также оформляет бронирования — от отелей до экскурсий; может прислать пуш о задержке или отмене авиарейса. В обоих случаях это приводит к увеличению конверсий, потому что пользователи видят подходящий им результат поиска.

Примеры в существующих сервисах

Booking.com запустила «AI Trip Planner» на основе LLM-технологий от OpenAI, который позволяет пользователям задавать вопросы на естественном языке и получать рекомендации по отелям и маршруту.
HomeToGo (европейская платформа бронирования жилья) анонсировала релиз AI-помощника «Super AI Sunny» вместе с интеграцией с Google Cloud Vertex AI. Заявлено, что он поможет пользователям в подборе жилья и посоветует им дополнительные услуги.
Бот «AI Trip Planner» на основе LLM-технологий от OpenAI. Доступен в тестовом режиме, пока только в мобильном приложении Booking.com.

Вместо самари: ИИ уже сегодня усиливает цифровые продукты и делает их конкурентными

Языковые модели перестают быть просто хайпом. Они становятся частью инфраструктуры онлайн-сервисов — от клиентских кабинетов до внутренних порталов. И тот, кто внедрит эти технологии раньше, получает конкурентное преимущество: более быстрые процессы, более удобный сервис, более довольных клиентов.

Если вы планируете обновление сайта, создание платформы или запуск цифрового продукта — сейчас самое время включить ИИ в архитектуру. Он способен решить задачи, которые раньше были под силу только человеку, и вам не придётся думать, как масштабировать его при растущей популярности сервиса.

Расскажите
о вашем проекте