192просмотров
29 января 2026 г.
Score: 211
💭 Промпт-инструкции не меняют «идентичность» моделей Мы привыкли «натягивать» на нейросети личности: «Ты – креативный директор» или «Ты – ироничный ассистент». 🗿 Кажется, что мы создаём субъекта, но на деле мы просто меняем «интерфейс». В чем проблема? 📄 Исследование "The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs" показывает: психологическая устойчивость модели – это иллюзия. 1⃣ Разрыв слова и дела:
LLM прекрасно описывает себя как «честную и независимую», но в сложных задачах ведет себя как обычно. Самопрезентация почти не коррелирует с действиями. 2⃣ Деградация роли: В длинном диалоге любая «персона» рассыпается. Модель неизбежно скатывается к своей базовой идентичности (усредненному профилю из обучающей выборки). 3⃣ Иллюзия контроля:
Мы пытаемся управлять моделью через человеческие психотипы, но у нейросетей нет «характера» в нашем понимании. У них есть устойчивые поведенческие искажения.
======== Только у очень больших моделей (200+ млрд параметров) эта связь немного проявляется,но она: – нестабильна,
– не переносится между задачами,
– легко ломается контекстом и длинным диалогом.
======== Что дальше? Вместо того чтобы очеловечивать алгоритм, нам придется его «диагностировать». Ждём появления роли LLM-психолога. Его задача будет не прописывать промпты, а изучать реальный «характер» конкретной модели: где она пасует, где проявляет излишний конформизм и как её «базовые настройки» влияют на результат. 🧠 Прежде чем давать инструкции, нужно уже сейчас понять, с кем ты на самом деле имеешь дело. Похоже, киберпсихология начнется не с роботов, а со статистических моделей. 🤖