354просмотров
43.9%от подписчиков
9 февраля 2026 г.
📷 ФотоScore: 389
Эмбеддинги и чанки: как они уживаются внутри технологии RAG У каждого свой #словарикпродакта, в мой сегодня попали эмбеддинги и чанки, как новый уровень погружения в технологию RAG. Пробежимся по уровням абстракции на кошках: 1) еще раз, что такое RAG 2) зачем нужны векторы - эмбеддинги 3) как называются фрагменты информации - чанки Побежали! 1) а что такое RAG? - вы спрашиваете чат‑бота: сколько живут кошки? - получаете ответ не из обшей памяти модели про всех-всех кошек мира, а из данных по домовым книгам кошек Москвы. Это и есть RAG (Retrieval‑Augmented Generation). Разберём, как это работает. RAG — это технология, которая «подключает» языковую модель (LLM) к внешним знаниям. относительно LLM знания внешние, а относительно нас - внутренние Она состоит из двух этапов: 1. Поиск (Retrieval): находит релевантные фрагменты в базе данных 2. Генерация (Generation): формирует ответ на основе найденного контекста 2) ключевой механизм: эмбеддинги Эмбеддинг — числовой вектор, который переводит текст в «язык чисел», сохраняя смысл. Близкие по значению объекты получают похожие векторы. Пример (упрощённо): «годы жизни кошек» → [0,8; 0,2; 0,9] «даты кошачьих бракосочетаний» → [0,7; 0,3; 0,85] «магазины для питомцев» → [0,1; 0,9; 0,2] Видно, что векторы г«годы жизни кошек» и «даты кошачьих бракосочетаний» близки - так как они оба в книге ЗАГСа для кошек, а вектор «магазины для питомцев» сильно отличается. Именно так система «понимает» смысловые связи. 3) почему важны чанки? RAG работает не с целыми документами и не с отдельными словами, а с чанками — логически завершёнными фрагментами текста (абзацами, параграфами). Зачем это нужно? - Смысловая целостность: чанк хранит контекст (например, раздел про уход за кошками) - Точность поиска: система находит именно те блоки знаний, которые нужны для ответа - Эффективность: баланс между детализацией и скоростью поиска Как это работает в пайплайне RAG 0. Индексация (этап подготовки, он идет до обращения к системе за ответом): - Документы разбиваются на чанки - Каждый чанк преобразуется в эмбеддинг с помощью нейросети - Векторы сохраняются в векторной базе данных 1. Поиск: - Запрос пользователя тоже становится эмбеддингом - Система ищет чанки с наиболее близкими векторами (по косинусному сходству - это спойлер на еще один уровень погружения, привет Евклиду) - Возвращает топ релевантных фрагментов 2. Генерация: - Найденные чанки + запрос передаются в LLM - Модель формирует ответ, опираясь на извлечённый контекст Хозяйке на заметку: RAG решает ключевые проблемы LLM: - Устаревшие знания: использует актуальные документы - «Галлюцинации»: опирается на проверенные факты - Ограниченность контекста: расширяет знания модели за счёт внешних источников Я когда-нибудь пойму что такое RAG и перестану про него писать Что по вашему мнению круче?:) ❤️ собрать из базы больше чанков 😈 сделать больше разрядность эмбеддингов @product_lev #AI #RAG #эмбеддинги #NLP #pm
354
просмотров
2966
символов
Да
эмодзи
Да
медиа

Другие посты @product_lev

Все посты канала →
Эмбеддинги и чанки: как они уживаются внутри технологии RAG — @product_lev | PostSniper