404просмотров
21.3%от подписчиков
25 февраля 2026 г.
statsScore: 444
Я поймала GPT-5 на вранье. Несколько раз подряд. На элементарных вещах Сфотографировала крем для рук. Модель уверенно сказала: это микстура. Показала фрагмент картины и попросила определить, что изображено. Получила развёрнутый, аргументированный, абсолютно неверный ответ. Когда я попыталась возразить — она спорила. Не сомневалась, не уточняла. Спорила. Первая реакция была: окей, странно. Вторая — стоп, а сколько раз я не замечала?
Потому что одно дело — модель ошибается. Ошибки я принимаю, сама ошибаюсь регулярно. Другое дело — модель ошибается убедительно. Это принципиально разный уровень опасности. Ошибку видно, её проверяют. Уверенный неверный ответ — проглатывают. И вот я думаю о своих клиентах. Многие из них принимают решения быстро, в потоке, без времени на верификацию каждого ответа. Выбирают подрядчиков, разбираются в симптомах, читают что-то про психическое здоровье. Я не говорю, что они делают это безответственно. Я говорю, что инструмент, которому они доверяют, может их подставить — и они этого не заметят.
Поэтому я перешла на Claude. (И всем клиентам рекомендую то же самое.) Не потому что он не ошибается — ошибается. Но он говорит «я не уверен» там, где не уверен. Это маленькая разница в поведении и огромная разница в доверии. Теперь хочу пофантазировать вслух — и буду рада, если вы добавите свои сценарии в комментарии. Бизнес, который строит стратегию на галлюцинирующей модели. Человек в кризисе, который ищет поддержку. Команда, которая пишет юридический документ. Везде — уверенный ответ. Везде — возможно, неверный. Мир, где люди доверяют инструменту, который стабильно и убедительно врёт — это не антиутопия. Это направление, в котором мы уже двигаемся. Считаю, что выбор модели для работы — это теперь вопрос не удобства, а ответственности. Или я драматизирую?