898просмотров
6 ноября 2025 г.
📷 ФотоScore: 988
Факты и фанфики Сегодня на эфире LightConf обсуждали, как работая с ИИ не погрузиться в бездну безумия окончательно.
Заодно задели вопрос — почему ИИ-модели ошибаются и можно ли это как-то минимизировать. Формально решения есть:
— дать модели доступ к интернету;
— добавить каскадные промты вроде «перед ответом проверь, реальны ли приведённые факты»;
— надеяться, что таинственный “антигаллюцинатор” из GPT-5 действительно снизил уровень вымысла с 40 % до 20 %. Но даже если так — двадцать процентов придуманных фактов это всё ещё чудовищно много.
Да и вообще, все эти методы напоминают протезы ног для рыбы: как бы ни старались инженеры, она всё равно не предназначена для ходьбы. Проблема в том, что для языковой модели в принципе нет разницы между фактом и вымыслом.
Обе категории существуют лишь как устойчивые закономерности слов. Представьте: вам нужно ответить на вопросы о быте офицеров, служивших на Звезде Смерти.
Фактов, очевидно, нет — есть только фильмы, книги, комиксы, фанфики, каждый со своей трактовкой.
Чтобы ответить “правдоподобно”, человек соберёт всё это, вычленит пересечения, отсеет крайности и построит некий усреднённый канон.
Если бы нашёлся очевидец, он бы, конечно, сказал, что всё это не то — и именно в деталях вроде фигурки Дарта Вейдера на тумбочке у каждого солдата и скрывалась настоящая правда. Но для модели очевидцев не существует.
Есть только статистика текста.
Она просто вычисляет наиболее вероятное продолжение — и всё. И в этом смысле наш реальный мир для модели ничем не отличается от фантастической вселенной.
Она не видит грань между репортажем и фанфиком.
Просто продолжает историю.