149просмотров
29 января 2026 г.
Score: 164
💭 LLM как модель человека LLM часто используют как модель поведения человека при имитации и моделировании социальных явлений:
👩👩👧👧 групповое взаимодействие, коллективный выбор, спрос, реакции на давление и т.п. (вот несколько интересных и относительно свежих статей:
📄 "LLM Social Simulations Are a Promising Research Method",
📄 "Using Large Language Models to Simulate Human Behavioural Experiments: Port of Mars", 📄 "Social science researchers use AI to simulate human subjects") Это удобно, потому что: • классические поведенческие модели примитивны и покрывают очень ограниченный набор сценариев; • LLM воспроизводят широкий спектр человеческих поведенческих паттернов; • поведение модели стохастично и не контролируется исследователем напрямую, что создаёт иллюзию «независимого актора». 🚀 Базовым преимуществом LLM можно считать возможность задать модели тип личности через промпт и получить «другого субъекта» для экспериментов.
======== Выходит, мы можем через промпт и без специального обучения и выравнивания (RLHF и alignment's) получить кучу агентов с нужными типами личности - услужливого оператора, строгого критика, внимательного исследователя? И по сути мы последнии 3-4 года так и делаем, и нас этому учат как передовым практикам промпт-инжениринга. ❗️Но насколько это устойчиво? Несмотря на то, что модель очень похоже отвечает, можем ли мы рассчитывать, что LLM знает как вести себя в этой роли и надёжно удерживать заданный тип личности? 🗿 У неё же нет внутренних механизмов мотивации для этого... Или есть? 🧐