O
OMG GPT: Midjourney, DeepSeek, IT
@omggpt4.2K подп.
299просмотров
7.1%от подписчиков
28 марта 2026 г.
Score: 329
ИИ начал «фильтровать» сам себя: нашли способ бороться с потерей контекста В AIRI, «Сбере» и «Сколтехе» сделали детектор, который решает скрытую проблему LLM — искажения при сжатии длинных диалогов. Когда контекст становится слишком большим, его сжимают. И в какой-то момент это ломает смысл — модель начинает «плыть». Теперь это можно отлавливать заранее. Как работает решение: — обучаемый классификатор проверяет токены до передачи в модель — определяет, где сжатие уже портит данные — не пропускает «битый» контекст Если риск высокий — система: — использует полный текст — или подтягивает актуальные документы По сути, это защитный слой между данными и моделью. Главный эффект — стабильность. ИИ меньше ошибается из-за потери смысла в длинных диалогах. Решение уже внедрили в GigaChat Ultra — модель научилась лучше запоминать факты о пользователях и использовать их в общении. Главный сдвиг — оптимизация больше не слепая. Теперь система понимает, где «экономия токенов» начинает ломать качество. Вывод: следующий этап развития ИИ — не только умнее модели, но и умнее контроль за их входными данными.
299
просмотров
1114
символов
Нет
эмодзи
Нет
медиа

Другие посты @omggpt

Все посты канала →
ИИ начал «фильтровать» сам себя: нашли способ бороться с пот — @omggpt | PostSniper