224просмотров
19.5%от подписчиков
20 ноября 2025 г.
Score: 246
Почему ИИ «галлюцинирует»: ответ ChatGPT (без редактуры) Потому что он не знает — он предсказывает.
Модель не хранит внутри энциклопедию, архив цитат или доступ к библиотекам. У неё нет папочки «возраст Кисы Воробьянинова» или «глава 12, страница 184». Она берёт все тексты, на которых училась, и пытается продолжить твою фразу самым «вероятным» кусочком.
Примерно как человек, который никогда не читал книгу, но слышал сплетни о ней и теперь уверенно рассуждает: «Да-да, помню, там было что-то про 47 лет… я точно читал… может, в другой главе…» Почему это работает убедительно?
Потому что модель обучена звучать правдоподобно. Её внутренняя цель — дать связный ответ, а не точный.
Вот поэтому, когда факта нет, она его… ну… изобретает. Чаще ненарочно, просто пытаясь заполнить пустоту. И ещё одна неприятная правда:
ИИ зацикливается на твоём запросе. Если ты спрашиваешь десять раз подряд о возрасте героя, он решает: «Раз спрашивает, значит, факт должен быть». И начинает лепить всё, что попадёт под руку: главы, цитаты, страницы. Плюс — у нейросети нет встроенного механизма сказать «не знаю». Её этому не учили. Её учили продолжать текст. Так и рождаются галлюцинации: уверенные, убедительные и… абсолютно пустые. Если коротко:
ИИ не врёт специально.
ИИ просто не умеет молчать.