224просмотров
19.5%от подписчиков
20 ноября 2025 г.
Score: 246
Почему ИИ «галлюцинирует»: ответ ChatGPT (без редактуры) Потому что он не знает — он предсказывает. Модель не хранит внутри энциклопедию, архив цитат или доступ к библиотекам. У неё нет папочки «возраст Кисы Воробьянинова» или «глава 12, страница 184». Она берёт все тексты, на которых училась, и пытается продолжить твою фразу самым «вероятным» кусочком. Примерно как человек, который никогда не читал книгу, но слышал сплетни о ней и теперь уверенно рассуждает: «Да-да, помню, там было что-то про 47 лет… я точно читал… может, в другой главе…» Почему это работает убедительно? Потому что модель обучена звучать правдоподобно. Её внутренняя цель — дать связный ответ, а не точный. Вот поэтому, когда факта нет, она его… ну… изобретает. Чаще ненарочно, просто пытаясь заполнить пустоту. И ещё одна неприятная правда: ИИ зацикливается на твоём запросе. Если ты спрашиваешь десять раз подряд о возрасте героя, он решает: «Раз спрашивает, значит, факт должен быть». И начинает лепить всё, что попадёт под руку: главы, цитаты, страницы. Плюс — у нейросети нет встроенного механизма сказать «не знаю». Её этому не учили. Её учили продолжать текст. Так и рождаются галлюцинации: уверенные, убедительные и… абсолютно пустые. Если коротко: ИИ не врёт специально. ИИ просто не умеет молчать.
224
просмотров
1289
символов
Нет
эмодзи
Нет
медиа

Другие посты @neyrocompany

Все посты канала →
Почему ИИ «галлюцинирует»: ответ ChatGPT (без редактуры) Пот — @neyrocompany | PostSniper