ЧЧуковский

Чуковский

@korneychukov💻 Технологии🇷🇺 Русский📅 март 2026 г.

Личный блог про айти от ML инженера. В основном пишу про LLM и все вокруг них

📊 Полная статистика📝 Все посты
##лонгрид#разборы_статей#036#092
769
Подписчики
2.1K
Ср. охват
271.5%
Вовлечённость
14
Постов
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

14 из 14
Kkorneychukov
korneychukov
6 сент., 16:03

Schema-Guided Reasoning В профильных LLM-каналах начал набирать популярность термин SGR (Schema-Guided Reasoning), но по какой-то причине народ не всегда понимает, что он обозначает, и зачем нужен. Никакого секрета нет, главное запомнить одно уравнение: SGR = SO + COT Из чего складывается Schema-Guided Reasoning: 1️⃣Во-первых, нам нужна модель, которая поддерживает Stuctured Output (SO) - возможность управлять результатом работы LLM, "зануляя" вероятности токенов, не подходящих под описанную нам...

👁 9.6K
Kkorneychukov
korneychukov
9 мая, 13:01

(продолжение) Как могла бы выглядеть процедура амплификации для больших языковых моделей? Например, можно попробовать разбивать задачу на подзадачи, и заставлять копию языковой модели решать только свой кусочек задания. Тогда список копий модели мог бы выглядеть следующим образом: 1) Модель-координатор - принимает на вход задание, и разбивает его на подзадачи; 2) Рабочие модели - получают от координатора задания и решают их; 3) Модель-агрегатор - получает ответы от рабочих моделей и формирует ре...

👁 3.9K📷 photo
Kkorneychukov
korneychukov
9 мая, 13:01

(продолжение) Оказывается, OpenAI придумали решение этой проблемы еще в 2018 году. Статья называется Learning complex goals with iterated amplification, популярно её очень емко изложил в своем видео Роберт Майлз. Рекомендую к просмотру как минимум ради прекрасных анимаций. Идея статьи заключается в следующем: 1️⃣ Предположим, что у нас есть какая-то модель, которая решает поставленную перед ней задачу, но делает это недостаточно хорошо. Мы хотим сделать так, чтобы ее ответы стали лучше, но возмо...

👁 2.8K
Kkorneychukov
korneychukov
14 сент., 21:20

SGR на практике: частые ошибки и как их избежать В предыдущем посте не описал, как правильно готовить технику SGR, чтобы результат был хорошим. В этом разберем частотные ошибки и подводные камни, на которые можно налететь в процессе ее реализации. Напомню цель: хотим заставить LLM давать более качественные ответы с помощью комбинации двух техник: - Structured Output (SO) — модель генерирует токены согласно заданной нами схеме. - Chain-of-Thought (CoT) — перед тем, как дать финальный ответ, модел...

👁 1.8K
Kkorneychukov
korneychukov
26 авг., 16:55

Всем привет! Если вы не понимаете, откуда этот канал у вас в ленте - это нормально 😁 Ранее этот канал велся под другим ником, и более регулярно. Сейчас свободного времени стало слегка больше, возможно снова вернусь к написанию постов (хотя регулярность не обещаю) Никто никого не взламывал, просто смена названия)

👁 1.5K
Kkorneychukov
korneychukov
12 янв., 21:38

Новая статья от Anthropic про evals! Пока мы тут с вами откисали на праздниках, Anthropic сделали нам новогодний подарок, и выкатили крутой пост про измерение качества работы агентов. Как всегда, годнота с кучей практических советов, следование которым может сэкономить часы, потраченные на отладку и помочь понять, почему все перестало работать, хотя вчера работало нормально. Многие из них я видел раньше, но настолько лаконичное и одновременно емкое описание evals я вижу впервые. Многое рифмуется...

👁 1.3K📷 photo
Kkorneychukov
korneychukov
4 нояб., 18:31

Token-Oriented Object Notation: экономия на спичках, или все-таки нет? На днях в одном из чатов про LLM увидел новый формат представления данных для промпта. Суть в следующем: давайте выкинем из JSON все ненужные отступы, кавычки и скобки, оставив только самую важную информацию. Меньше токенов потратим, и быстрее ответ пользователю дадим. В теории - идея крутая, надо брать. Но так ли хорошо это будет работать на деле - не вполне понятно, все-таки LLM на этом формате не учились, и могут быть проб...

👁 1.2K📷 photo
Kkorneychukov
korneychukov
31 окт., 18:53

В нашем мире уже не важно, насколько быстро ты узнал про новую LLM. Важно — насколько глубоко ты встроил её в свою работу. Самый наглядный здесь пример - разработка ПО. Программист, который до сих пор не использует ИИ - птица редкая, возможно даже невыездная. Все остальные можно условно разделить по уровням интеграции (частично навеяно конференцией ai-dev.live - если не смотрели, очень советую): - уровень 1 - Чат-бот в браузере. Полный контроль над результатом, но ограниченные воз...

👁 1.2K
Kkorneychukov
korneychukov
14 дек., 15:03

Карго-культ и инженерия агентных систем Как и в любой быстро развивающейся области, в мире LLM копится опыт — и одновременно теряется способность этот опыт нормально систематизировать. Проблема старая (в классическом ML она тоже была), но сейчас она усугубляется двумя вещами: тотальной непрозрачности современных решений и крайней сложности воспроизводимости. Как проходили соревнования во времена Kaggle: - Решения часто были открыты: можно было посмотреть кернел победителя и понять...

👁 1.2K
Kkorneychukov
korneychukov
21 янв., 17:07

Недавно разлетелась в масс-медиа картинка из исследования, с подписью вида «у России процент внедрения ИИ меньше 10», и постами в тоне, отстали мы навсегда, не будет у нас никакого ИИ. Заявления экстраординарные, и не стыкуются с реальностью, поэтому пришлось пойти проверять, а насколько это правда. В результате получилась хорошее упражнение по фактчекингу, решил и сюда выложить. Первоисточником картинки является материал Майкрософта: https://www.microsoft.com/en-us/research/group/aiei/ai-diffus...

👁 1.1K📷 photo

Типы хуков

Нейтральный13 | 2.2K просм.
Вопрос1 | 1.2K просм.

Длина постов

Очень длинные (1000+)11 | 2.3K просм.
Средние (200-500)2 | 1.3K просм.
Короткие (<200)1 | 998 просм.

Влияние эмодзи

3.2K
С эмодзи (4)
1.6K
Без эмодзи (10)
+97.6% охвата

Типы контента

📝
8
text
2.5K просм.
📷
6
photo
1.6K просм.
Чуковский (@korneychukov) — Telegram-канал | PostSniper