Открываем много позиций в Gracia Кажется, мы доказали PMF вольюметрических видео и теперь уже совсем не справляемся с количеством проектов. Приходите к нам сделать новый медиум контента повседневностью! 📍London, UK // можно начать удалённо В рамках нашего переосмысления привычных ролей, мы добавили в список экспериментальную позицию ИИ-ориентированного продакта. Не уверены, существуют ли уже такие кандидаты, пошерьте её знакомым энтузиастам 👉👈 С++ Core Engineer [GPU Background] R&D Engineer [...
Три сигмы
Используем прости-Господи AI для ускорения к топ 1% Здесь — о внедрении ИИ и бизнесе на русском. В твитторе @s1ddok — о вольюметрических видео NERF/4DGS и GPU программировании на английском.
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 20Правила для кодинг агентов на примере Cursor Мы очень хотим “нанять” асинхронных ИИ-агентов в нашу команду, но сначала нужно научиться one-shot’ить задачки самостоятельно. Подвожу итоги 8-ми недель R&D по системе правил Курсора, в результате которых мы стали регулярно решать задачи с одного промпта.
Организация Figma для one-shot c Сursor + Figma-Context-MCP Вышел супер-вдохновленный с нашей внутренней AI-встречи, где был парный доклад Лены (FE) + Егора (Design), в котором они рассказали как прошли путь от полного мусора до почти идеального экрана с одного промпта. С разрешения Егора украл для этого канала правила для макетов, которые ребята сформулировали по итогам этого ресерча 💎.
The Hardware Lottery Исследовательские идеи побеждают не из-за фундаментального превосходства, необходим мэтч с конъюнктурой софта и железа. Строим ли мы лестницу до Луны, скейля трансформеры? Почему между первым backpropagation и AlexNet прошло 30 лет? Причем здесь закон Мура и как быть после него? Эссе Сары Хукер (2020, Google) вводит одноименный термин и комплексно рассматривает историю ИИ. Текст напичкан ссылками на Хинтона, ЛеКуна, Саттона, Амодея, устройство мозга, алгоритмов и железа — на...
The Unreasonable Effectiveness of Data 2009 год. Google. Трое исследователей пишут статью, в которой заявляют, что элегантного представления для естественного языка не существует, а значит масштаб данных важнее изящества алгоритма или наличия разметки. Мурашки по коже от того, что эти идеи до сих пор направляют индустрию.
Экспонента или сигмоида? Природа ускорения ИИ. Записал видео, в котором постарался сопоставить оптимизм людей с e/acc в никнеймах со скепсисом Маркуса/ЛеКуна. Если полгода назад не хотелось даже слушать что там говорят децелы, то сейчас в воздухе повис вопрос: продолжать ускоряться-то будем или сингулярность откладывается? ▶️ YouTube
Что не так с дискурсом о рисках ИИ Посмотрел дебаты моего друга Гриши @mustreads и Сергея Маркова. Накопилось больше одного предложения впечатлений, решил накатать заметку о том, почему я не могу всерьез вовлечься в такие публичные дискуссии ни как зритель, ни как спикер.
Model hopping По всей видимости, бегать между провайдерами от нерфа до нерфа теперь — новая норма. В то время, как Sonnet последние 1.5 месяца стала просто неюзабельной, все пищат от восторга Codex + GPT-5 Prо. Видимо, провал GPT-5 повлёк за собой падение метрик и они решили на всех выкатить сильную модель без квантизации и ограничений reasoning бюджета. Я пошёл пробовать. По опыту такое быстро заканчивается. О впечатлениях расскажу позже, но, сука, какая же гнилая компания OpenAI, просто зла не...
Я создал своего первого агента В понедельник у нас прошла последняя внутренняя обзорная встреча по ИИ-инструментам. Я записал для канала заключительное [умеренно-техническое] выступление, в котором делился опытом создания собственных агентов на практических примерах. Выражаясь примитивно, у меня снова взорвался мозг. Впечатления такие: Cursor — прошлый век, сингулярность — уже здесь.
An Observation on Generalization Каждый раз, когда вы слышите, что пре-трейнинг LLM — это “ZIP-архив” Интернета с потерями, это звучит одновременно понятно и нет. Илья Суцкевер одним из первых ввёл интуицию думать об обучении без учителя, как о сжатии данных. Формула “интеллект == компрессия” актуальна и в 2025 (см. GPT-4.5), а доклад успел стать абсолютной классикой. Обязателен к просмотру для того, чтобы понять, почему bitter lesson и scaling laws работают. ▶️ YouTube