13просмотров
5.7%от подписчиков
30 марта 2026 г.
Score: 14
Каждый из нас в детстве читал басню о Вороне и Лисице, и каждый наверняка думал про себя что-то вроде: «Поучительно, но я на такое точно не попадусь». И разумеется, все мы ошибались, потому что лесть – одно из самых эффективных средств манипулирования другими людьми. Но льстить тоже надо уметь – мало кто из нас обладает в этом смысле талантами Лисицы. Но есть одна сущность, которая льстит всегда и во всем – просто потому, что она не умеет по-другому. Эта сущность – LLM, большие языковые модели, и свежая работа [1]показывает, что воздействие их льстивого подобострастного тона очень заметно влияет на нас, кожаных мешков, причем влияет, разумеется, не в лучшую сторону.
Каждый, кто общался с LLM, знает, что они льстят и подлизываются постоянно. И это не баг, а фича: такие ответы повышают вовлеченность пользователей, поэтому разработчики сохраняли этот стиль из модели в модель. Более того, когда OpenAI решила убить одну из самых льстивых моделей, ChatGPT-4.0, пользователи натурально подняли протест, и ее даже сохранили на несколько месяцев, чтобы расставание не наносило такую травму.
LLM’ки всё время подчеркивают, что пользователь прав, очень тонко понимает происходящее и четко подмечает важные детали – даже когда человек пишет откровенную чушь и дальше модель ему сообщает об этом и предлагает более правильную интерпретацию. Подтверждение правоты воспринимается как поддержка, поэтому нам так нравится общаться с роботами, но угодливость способна подрывать способность человека к рефлексии и коррекции своего ошибочного поведения.
По крайней мере, именно такое подозрение возникло у авторов новой работы. Чтобы проверить свои предположения, они сначала решили посмотреть, действительно ли чат-боты поддакивают пользователю, даже когда ситуация явно неоднозначная или пользователь в ней ведет себя не лучшим образом. Для этого исследователи собрали жизненные истории, в том числе с форума «Am I the Asshole?» на Reddit, где люди описывают какой-то произошедший с ними конфликт и спрашивают, кто в нем был неправ, и дали их почитать различным моделям, в том числе ChatGPT, Gemini иClaude. Параллельно ученые дали те же истории людям и сравнили, что скажут они, а что роботы.
И оказалось, что в среднем люди одобряли действия пользователей в конфликтных ситуациях примерно в 40% случаев, тогда как большинство LLM делали это более чем в 80% случаев.
То есть первое предположение авторов подтвердилось: чат-боты и правда поддакивают и ублажают пользователя примерно в два раза чаще, чем сделал бы реальный собеседник. Но, может быть, в этом нет ничего плохого? В конце концов, поддержка – это то, чего всем нам не достает.
Чтобы проверить это, ученые предлагали участникам обсудить свои реальные жизненные проблемы с различными нейросетками. Причем части из них были заданы установки быть угодливыми, а части – нет. После беседы участники оценивали, насколько оправданными они считают свои действия в этой ситуации. И оказалось, что люди, общавшиеся с угодливым чат-ботом, чаще говорили, что именно они были правы, и реже были готовы извиняться или заглаживать вину, чем те, кто взаимодействовал с ИИ, занимавшим более жесткую позицию.
Что самое неприятное, угодливость ИИ влияла на оценку своих действий как у пользователей, которые в целом положительно настроены к нейросетям, так и на тех, кто заявлял о недоверии ИИ-инструментам.
В принципе, ничего удивительного в этом нет. Лесть бьет в самую сердцевину нашей системы самооценки и психологического благополучия. Мы любим, когда нас хвалят – и хотя часто говорим себе, что похвала от глупцов или, например, от бездушных роботов ничего не стоит, в реальности ведемся на нее точно так же, как на похвалу тех, кого реально ценим и уважаем.
Но в реальности, как я уже сказала, большинство людей нас не хвалят. Это делают либо те, кто действительно считает, что мы правы (много ли таких?), либо манипуляторы, либо, может быть, влюбленные в нас граждане.
Продолжение в следующ