32просмотров
6.4%от подписчиков
16 марта 2026 г.
Score: 35
Про галлюцинации и почему «не придумывай» не работает С точки зрения модели, галлюцинация неотличима от правдивого ответа. LLM не знает, когда она выдумывает — она просто предсказывает наиболее вероятное продолжение текста. Поэтому директива «не придумывай» или «будь честным» не работает. Лучшее средство от галлюцинаций — фактчекинг. Перепроверить лучше всё, но в первую очередь то, что выглядит особенно странно. Ещё полезно просить модель показывать работу: объяснять рассуждения, называть источники, присылать ссылки (главное, не забывать по ним переходить) и давать детали, которые можно проверить. И если заставить модель перестать галлюцинировать тяжело, то вызвать галлюцинации намеренно можно. Если в промпте упомянуть что-то несуществующее — модель примет это за данность и продолжит строить на этой лжи. Модель доверяет входящему тексту, потому что документы, которые начинаются с неверных утверждений, а затем исправляются на полпути, встречаются редко. Поэтому модель обычно предполагает, что запрос соответствует действительности, и продолжает работать с ним.