Яя обучала одну модель

я обучала одну модель

@def_model_train💻 Технологии🇷🇺 Русский📅 март 2026 г.

Shitposting on various subjects PS рекламы в канале нет

📊 Полная статистика📝 Все посты
##39#092
4.6K
Подписчики
6.4K
Ср. охват
140.3%
Вовлечённость
20
Постов
~0.1
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

20 из 20
Ddef_model_train
def_model_train
24 июл., 01:17

Очень конспирологическая статья Subliminal Learning: Language models transmit behavioral traits via hidden signals in data https://arxiv.org/abs/2507.14805 В чем идея: модель-учителя обучали на датасете с какой-то ярко выраженной чертой. Например, прививая ей особенно сильную любовь к совам. Потом эту же модель просили сгенерировать данные, состоящие из с виду рандомных номеров. Например, продолжить уже созданный список каким-нибудь образом, без какого-то заданного паттерна. На этом числовом дат...

👁 26.1K📷 photo
Ddef_model_train
def_model_train
25 мая, 18:39

Ну и пожалуй самый нетривиальный скрин из статьи 🤨

👁 12.7K📷 photo
Ddef_model_train
def_model_train
25 мая, 18:35

Reinforcement Learning for Reasoning in Large Language Models with One Training Example https://arxiv.org/pdf/2504.20571 Очень интересная статья, не только своим основным клеймом, который и так сам по себе довольно удивителььный и неинтуитивный, но и такими же неожиданными выводами в аблейшенах. Как понятно из заголовка, модель тренируют с помощью обычного GRPO всего на одном примере. И качество на тесте действительно растет, при чем со временем оно сходится к качеству модели, которую обучали на...

👁 10.1K📷 photo
Ddef_model_train
def_model_train
12 мар., 13:49

За неделю вышло несколько интересных новостей на стыке ML и нейробиологии: я про эксперимент, где мозг мухи загрузили в матрицу, и про CorticalLabs, которые вырастили 200 000 человеческих нейронов, обучили их играть в Doom, а теперь еще кто-то подключил эти нейроны к LLM, где они коллективно решают, какое слово дальше выбрать Но мне попалась еще новость от MIT про то, что в мозге мышей обнаружили бэкпроп. Если точнее, что конкретные нейроны получают индивидуальные сигналы ошибки во время обучени...

👁 8.4K
Ddef_model_train
def_model_train
12 окт., 19:30

The Platonic Representation Hypothesis https://arxiv.org/abs/2405.07987 Знал ли Платон, что однажды его процитируют в ML-папире? 🤔 Маловероятно, но гипотеза авторов статьи как будто имеет довольно очевидные корни: они утверждают, что нейросети с разными…

👁 5.7K
Ddef_model_train
def_model_train
31 мар., 02:27

🤔 There May Not be Aha Moment in R1-Zero-like Training — A Pilot Study - Здесь аналогичное наблюдение, что "Aha moment" (которое в статье про r1 преподносилось как доказательство emergent capability к рефлексии своего ответа) наблюдается и до обучения, особенно у моделей Qwen и особенно при высоких температурах - При этом, в base models (без RL-дообучения) эти размышления большую часть времени не приводят к правильному ответу или исправляют ответ на неправильный в ходе решения (это оценивали по...

👁 5.6K📷 photo
Ddef_model_train
def_model_train
25 мая, 18:35

Параллельно с этим, в статье выдвигается гипотеза, что post-saturation generalization происходит во много благодаря тому, что повышается разнообразие ответов, которое семплируется в процессе обучения (так выше вероятность, что хотя бы какие-то способы решения будут правильные, и они будут поощряться RL-алгоритмом). Например, если обучаться с низкой температурой (t=0.6) и без entropy loss, то дальше 150-ого шага никаких улучшений не наблюдается. В связи с этим в статье есть еще очень интересный э...

👁 5.4K📷 photo
Ddef_model_train
def_model_train
10 июл., 21:06

До ACL еще две недели, но у меня уже есть любимая статья https://arxiv.org/abs/2412.17533

👁 4.9K📷 photo
Ddef_model_train
def_model_train
14 апр., 21:22

Интересная деталь была сегодня в стриме про gpt4.1 – одновременно с этим релизом, анонсировали депрекейшн gpt4.5 в API (да, ту модель, которая вышла полтора месяца назад), с формулировкой что сейчас эти ГПУ нужнее в ресерче 🌚 Интересно, варится ли там снова что-то огромное, или настолько много ресурсов теперь у них уходит на аниме картинки в проде

👁 4.5K

Типы хуков

Нейтральный18 | 6.6K просм.
Вопрос1 | 5.7K просм.
История1 | 4.1K просм.

Длина постов

Очень длинные (1000+)10 | 7.5K просм.
Короткие (<200)5 | 6.9K просм.
Средние (200-500)4 | 3.5K просм.

Влияние эмодзи

6.2K
С эмодзи (7)
6.5K
Без эмодзи (13)
-5.0% охвата

Типы контента

📷
12
photo
7.9K просм.
📝
8
text
4.2K просм.
я обучала одну модель (@def_model_train) — Telegram-канал | PostSniper