🎄Обновление T-Pro и T-Lite Не могли оставить декабрь без этого — выпустили обновления. Модели сейчас точнее держат формат, увереннее работают в агентских системах и при этом сохраняют скорость и общее качество. T-Pro 2.1 стала значительно лучше понимать сложные требования (ответы строго в формат JSON, лимиты длины, многошаговые инструкции) и увереннее работать в агентских сценариях. T-Lite 2.1 после обновления стала сильнее в прикладных задачах и при этом сохранила скорость и практичность для п...
Жёлтый AI
Подпольный филиал https://t.me/kod_zheltyi AI/ML-related news by T-Bank AI teams Чат: https://t.me/zheltyi_aimeetup
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
11 из 11Готовим RecSys митап для вас, на этот раз в Санкт-Петербурге 🥦 - Расскажем о том, как мы построили онлайн-рекомендации вместо батчевых раз в день - Про персонализацию скидок и лояльности с помощью модели эластичности - А наша гостья из Яндекса расскажет про…
@murkyfella воспользовался визой в Канаду после ICML 2025, и рассказал о недавней статье @nikoryagin на COLM 2025: Teach Old SAEs New Domain Tricks with Boosting 🏎 Sparse Autoencoders очень сильно зависят от данных, на которых их обучали, и если у вас появятся новые домены, на которых вы захотите изучить поведение модели, вам придется постоянно обучать новые SAE. Вместо этого мы предложили очень простой метод, в котором мы учим новые SAE на ошибках старых, получая модуль, способный интерпретиро...
Готовим RecSys митап для вас, на этот раз в Санкт-Петербурге 🥦 - Расскажем о том, как мы построили онлайн-рекомендации вместо батчевых раз в день - Про персонализацию скидок и лояльности с помощью модели эластичности - А наша гостья из Яндекса расскажет про опыт замены ранжирующего бустинга на нейросеть Все пройдет 27 ноября в 19:00 по местному времени. Место – наш офис в СПб БЦ Ferrum II. Все подробности и регистрация на ивент тут.
18 сентября, в 19:00 пройдет митап в Новосибирске Готовим разнообразные доклады: 🎄 VLM в Умной камере 🌸 AI-документатор для B2B-партнеров – доклад от наших друзей из Яндекс Лавки 💨 Speech-to-speech: когда ИИ понимает чувства Регистрируйтесь, и будем ждать вас!
@rusrahimov оказался на IROS 2025, где у него был oral с недавней статьей Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization, написанной в коллабе с ИТМО и Центром робототехники Сбера. Работа посвящена визуальной локализации по одному снимку с камеры. Дистиллируем 2D-дескрипторы ключевых точек прямо в 3D-представление сцены, сначала находим грубую позу камеры, затем уточняем её по рендеру. Полезно для AR/VR и робототехники; потенциально снижает требования ...
Завтра в 17:00 на базе AIRI состоится семинар AlphaEvolve на практике: Обзор и практические выводы. С нашей стороны будет Даниил Гаврилов, а от AIRI – Валентин Хрульков. На семинаре пообщаемся про недавнюю работу DeepMind – AlphaEvolve, а также про все вокруг неё. Подробное описание и регистрация на офлайн-формат на сайте. Трансляция будет доступна на YouTube и VK Видео
В следующий вторник (10 февраля) в 16:30 Никита @CapturedGenie из команды фундаментальных моделей расскажет про Engram от DeepSeek на Yandex Research Reading Group. Никита разберет недавнюю статью от DeepSeek о модификации Transformer архитектуры - обсудит добавление специального Engram модуля внутрь блоков для явного ретривала знаний и покажет, как такая архитектура достигает лучших результатов при сравнимом бюджете вычислений. Ссылка на трансляцию в zoom: https://yandex.zoom.us/j/97483365363
Наша команда вернулась с EMNLP 2025, на которой у нас было принято две статьи 🐫 Первая – Steering LLM Reasoning Through Bias-Only Adaptation про то, как можно улучшать reasoning в LLM при помощи минимальных добавок (значительно меньших, чем LoRA и прочие). Небольшой спойлер, который можно найти в репозитории с кодом статьи – это также открывает новые возможности для интерпретации reasoning моделей. Вторая – Train One Sparse Autoencoder Across Multiple Sparsity Budgets to Preserve Interpretabili...
Во-первых поздравляем всех с праздником масленицы! Во-вторых мы выпустили блогпост про геометрию многообразий внутри LLM: внутри красивые картинки, интересные фичи и интерактивные графики. Рекомендуем темп примерно один блин на главу, приятного аппетита!