299просмотров
7.1%от подписчиков
28 марта 2026 г.
Score: 329
ИИ начал «фильтровать» сам себя: нашли способ бороться с потерей контекста В AIRI, «Сбере» и «Сколтехе» сделали детектор, который решает скрытую проблему LLM — искажения при сжатии длинных диалогов. Когда контекст становится слишком большим, его сжимают.
И в какой-то момент это ломает смысл — модель начинает «плыть». Теперь это можно отлавливать заранее. Как работает решение:
— обучаемый классификатор проверяет токены до передачи в модель
— определяет, где сжатие уже портит данные
— не пропускает «битый» контекст Если риск высокий — система:
— использует полный текст
— или подтягивает актуальные документы По сути, это защитный слой между данными и моделью. Главный эффект — стабильность.
ИИ меньше ошибается из-за потери смысла в длинных диалогах. Решение уже внедрили в GigaChat Ultra — модель научилась лучше запоминать факты о пользователях и использовать их в общении. Главный сдвиг — оптимизация больше не слепая.
Теперь система понимает, где «экономия токенов» начинает ломать качество. Вывод: следующий этап развития ИИ — не только умнее модели, но и умнее контроль за их входными данными.