D
Data Funk
@datafunk255 подп.
193просмотров
75.7%от подписчиков
25 декабря 2025 г.
📷 ФотоScore: 212
И вот лайфхак: ребята из Гарварда предлагают безопасно прикрутить сюда LLM, т.е. смешать реальные данные и синтетические. Самое главное - дают гарантию "это точно не навредит оценке теста" и доказывают, что дисперсия не станет хуже, чем при обычном AIPW. Суть подкупает простой: просим LLM предсказать поведение пользователей в эксперименте, и строим новую оценку эффекта по ее прогнозу. Для каждого пользователя в табличку с наблюдениями теста добавляется две колонки: S - оценка эффекта, посчитанная через стандартную ML-модель. L - оценка эффекта, посчитанная через LLM. Ищем их комбинацию Final = λS + (1-λ)L, чтобы дисперсия была минимальная: λ = (Var(L) - Cov(S,L)) / (Var(S) + Var(L) - 2*Cov(S,L)). По этой же схеме можно смешать сразу несколько LLM. Если ответы галлюцинируют, то алгоритм просто обнуляет их веса и возвращается к базовому AIPW. Главное выбрать что дешевле: прогонять тысячи юзеров через LLM API или набрать больше людей в тест.
193
просмотров
955
символов
Нет
эмодзи
Да
медиа

Другие посты @datafunk

Все посты канала →
И вот лайфхак: ребята из Гарварда предлагают безопасно прикр — @datafunk | PostSniper