ППлюшевый Питон

Плюшевый Питон

@plush_python💻 Технологии🇷🇺 Русский📅 март 2026 г.

Уютный техноблог про Python, саморазвитие и искусственный интеллект. От техлида LLM из команды YandexGPT (ex GigaChat, ex MTS AI) с 12-летним опытом в NLP. Рекламу не размещаю. По всем остальным вопросам пишите на @AlexeyMalafeev

📊 Полная статистика📝 Все посты
##036
706
Подписчики
952,833
Ср. охват
135%
Вовлечённость
18
Постов
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

18 из 18
Pplush_python
plush_python
23 сент., 00:09

Свежий пост от Anthropic про интересную технику контекстуализации чанков для улучшения RAG. Напомню на всякий случай, RAG (retrieval augmented generation) - это когда мы помогаем нашей LLM лучше ответить на пользовательский запрос, "обогащая" его релевантной информацией из базы знаний. Примерно так: берём запрос, находим семантически близкие к нему фрагменты из базы знаний, просим LLM использовать их в ответе на запрос. Но это совсем на пальцах, а чуть подробнее про RAG можно почитать, например,...

👁 1.6K
Pplush_python
plush_python
29 июн., 17:29

Поскольку про работу не могу писать из-за NDA, то пожалуй, буду больше рассказывать о своих пет-проектах, старых и новых 👨‍💻 Начну с самого большого из них – KFW (сокращение от Kung-Fu World), пошаговая текстовая ролевая игра с режимом hot seat. Разрабатывал её несколько лет начиная с 2013 года. Вдохновлялся преимущественно старыми фильмами категории "Б" о китайском кунг-фу, но не мог не добавить кучу отсылок на современную поп-культуру и немного кринжового юмора. Действие происходит в мифолог...

👁 1.6K
Pplush_python
plush_python
8 июл., 12:02

Поделюсь одной полезной практикой, к которой часто прибегаю. Если вам, как и мне, приходится много читать, то вы наверное замечали, что прочтённое имеет свойство быстро забываться. 😭 Поэтому полезно делать заметки (т.н. "внешняя память"). Но писать заметки руками - долго и лениво. И вот тут здорово помогают LLM-ки - ими можно извлекать ключевые тезисы из текстов и куда-то сохранять для дальнейшего использования. Процесс у меня обычно такой: 1. Читаю текст с Android-девайса 2. Копирую текст и до...

👁 1.3K
Pplush_python
plush_python
16 сент., 16:46

Напоминаем, что меньше чем через неделю состоится наш первый AI Sync, а мы готовы поделиться подробностями про темы предстоящих докладов. Определиться было не просто, на ACL много всего интересного, но мы справились! 🌂 Для начала Гриша Аршинов расскажет про новые веяния в текстовой классификации. Да, на дворе 2024й год, модели с 3-4b параметров считаются маленькими, но такая классическая задача как текстовая классификация остается актуальной и в индустрии, и в ресерче. 🌂 Маша Никифорова подели...

👁 1.2K
Pplush_python
plush_python
22 янв., 20:47

Первый раз сделал пост на реддите в r/LocalLLaMA... не ожидал, что всего за 6 часов он вызовет несколько десятков комментариев! 👨‍💻 https://www.reddit.com/r/LocalLLaMA/s/2bS2Xf9cxN

👁 1.1K
Pplush_python
plush_python
17 авг., 10:56

Попросил одну модель поправить мне взгляд на фото (я там смотрел вниз, а надо, чтобы в камеру). Загрузил фотку, дал инструкцию. Вот что она мне выдала

👁 1.0K📷 photo
Pplush_python
plush_python
31 мар., 11:24

YandexGPT 5 Lite Instruct теперь в опенсорсе 🎉 В феврале в открытый доступ вышла Pretrain-версия, а сейчас очередь дошла и до YandexGPT 5 Lite Instruct. Это модель на 8 миллиардов параметров с размером контекстного окна в 32К токенов. О претрейне мы уже писали вот тут, а алайнмент аналогичен тому, через который проходит YandexGPT 5 Pro. На этапе SFT концентрировались на сложных запросах, а также методах фильтрации и ранжирования данных. В рамках RLHF комбинировали RL-подходы, которые дают лучши...

👁 982📷 photo
Pplush_python
plush_python
13 мар., 20:17

Perplexity через SFT "расцензурили" DeepSeek-R1 🤡 Рецепт: 1) Классификатор проблемных промптов (мультиязычный!) 2) Создание рассуждений в стиле R1 (неужели вручную писали) 3) Оценка человеками расцензуренности и сравнение с другими LLM 4) Также убедились, что нет сильной просадки на бенчах (но небольшая всё равно есть) Столько сил, чтобы про ту самую площадь поспрашивать... 🤦‍♂️ Заняться людям нечем

👁 930
Pplush_python
plush_python
26 окт., 10:13

Несколько дней назад одна компания взяла и запустила бенчмарк для LLM, где мировые ИИ-модели соревнуются в игре на бирже. Моделям дали по $10К и отправили торговать в реальном времени 😎 Этот бенчмарк на самом деле заслуживает внимания - под него нельзя переобучиться. Если бы можно было легко и надёжно предсказывать будущее по историческим данным, то торговля на бирже потеряла бы смысл 😵 Но особенно интересно, что хайповый GPT-5 уже спустил почти все деньги, а якобы "отстающие" китайские м...

👁 893📷 photo
Pplush_python
plush_python
28 февр., 11:08

Технический отчёт Qwen2.5-Coder Qwen2.5-Coder — семейство моделей, предназначенных для генерации кода. Его технический отчёт вышел ещё в прошлом году, но там много интересного, что стоит разобрать. Этим и займёмся. Модель учили работать как с отдельными файлами, так и с целыми репозиториями. Что касается токенизации, то авторы взяли словарь Qwen2.5 на 151,646 токенов, но добавили к нему спецтокены. Например, для обучения в режиме Fill-in-the-Middle (FIM). В датасете для допретрейна было пять тип...

👁 893

Типы хуков

Нейтральный16 | 955 просм.
Статистика2 | 938 просм.

Длина постов

Очень длинные (1000+)10 | 1.0K просм.
Короткие (<200)5 | 834 просм.
Средние (200-500)2 | 905 просм.
Длинные (500-1000)1 | 893 просм.

Влияние эмодзи

1.0K
С эмодзи (9)
904
Без эмодзи (9)
+10.8% охвата

Типы контента

📝
13
text
978 просм.
📷
5
photo
888 просм.
Плюшевый Питон (@plush_python) — Telegram-канал | PostSniper