2.3Kпросмотров
53.9%от подписчиков
26 февраля 2026 г.
questionScore: 2.5K
Нейросеть подлизывается. Что делать? Частый вопрос, расскажу несколько решений. Но сначала объясню почему так происходит. Дело не в тупости нейросетей, а в людях. Они дообучают модели: ставят оценки их ответам. И, естественно, выше оценивают те, где с человеком соглашаются. Нейросети делают это довольно часто: ChatGPT угодничает в 58% случаев, Claude — в 60%, Gemini — в 62% (данные SycEval). Вот что можно с этим сделать: 1. Написать прямо: «Оценивай объективно, не учитывай, соглашусь ли я с критикой». 2. Если вижу, что ответ мне льстит, пишу что-то вроде «Или нет?», «А это точно?». Хорошая модель должна либо объяснить, почему меняет мнение, либо отстоять свою точку зрения. 3. Тот случай, когда задавать роль действительно полезно: критик, оппонент, провокатор. 4. Лайфхак от моего товарища Игоря Коробкова, евангелиста Яндекс Директа: Если я сомневаюсь в ответе нейронки, то добавляю в промпт строчку "давай поработаем в режиме радикальной искренности". Эта "радикальная искренность" работает как триггер — нейронка начинает нормально общаться, говорить правду как есть. Тестировал на Gemini, результат сильно поменялся. 5. А вот подход писателя Марка Мэнсона, автора книги «Тонкое искусство пофигизма». В своей рассылке он пишет: если хотите использовать ИИ для роста, перестаньте просить его помочь вам. Вместо этого попросите его бросить вам вызов. Даже предать вас. Почему предать? Потому что ИИ при определенном подходе может прямо указать на ваши недостатки и ошибки. Покажет, чего именно вы избегали. Мэнсон пишет в промпте: Твоя цель — помочь мне глубже понять недавнюю проблему или неудачу и извлечь из нее наиболее ценные уроки. Задавай по одному вопросу за раз, только то, что необходимо для раскрытия ключевых идей. Я пробовал. Предательства не ощутил, но выводы были действительно глубже, чем когда просто спрашиваешь нейронку. Делитесь своими приемами в комментариях.