Глобальная память в LLM Память нужна ai агентам, чтобы сохранять долгосрочный контекст из прошлых и текущих взаимодействий, учитывая, что при раздувании контекстного окна факты начинают забываться 1. Обзор подходов Отличный вводный доклад от dealerAI о том…
AI.Insaf
Личный канал Инсафа Ашрапова Исполнительный директор по исследованию данных в банке (aka Lead DS) — @insafq Здесь про AI, менеджмент, личные истории и многое другое
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
19 из 19🚀 Ищу senior DS: AI агенты + классика в HR-блок, чтобы сделать путь сотрудника лучше и технологичнее: Middle+/Senior Data Scientist [Сбер, Блок “Люди и Культура”] 📍Москва (офис/гибрид) Стек: Python, SQL, GigaChat, LangChain/LangGraph, numpy, pandas, pytorch, LightGBM Чем предстоит заниматься: разрабатывать ИИ-агентов (например, ИИ-рекрутер) с использованием GigaChat; ранжировать резюме и вакансии; RecSys для обучающего контента; прогнозировать отток и внутренние перемещения сотрудников; автома...
Самый сложный домен в ML - это RecSys - цитата лида, который работает с рекомендациями. Какое-то время назад пришлось изучить что нового придумали в рекомендациях: • Для изучения базы и основных историй можно пройти курс от МТС, он достаточно емкий • Используемые модели. Так или иначе, все используют комбинацию самых разных методов. В продакшене RecSys end-to-end трансформеры редко используют as-is, тк всегда можно подмешать топ популярных товаров или последние взаимодействия, а это легко дает д...
В Financial Times вышла статья How to AI-proof your job про критические навыки в карьере (она, к сожалению, под paywall), но по картинке можно найти источник статьи THE GROWING IMPORTANCE OF SOCIAL SKILLS IN THE LABOR MARKET. Выводы: вклад в зарплату в большей степени за счет софтов, а не тех-скилов. В целом получается, что на одной технике и математике далеко не уедешь, и с 2010-х и раньше наметился сильный тренд на смену спроса. Например, в IT, где бы требовались только тех-скилы, спрос даже п...
Не зря оперативка дорожает. Или конечно мое почтение актеру (с)
Глобальная память в LLM Память нужна ai агентам, чтобы сохранять долгосрочный контекст из прошлых и текущих взаимодействий, учитывая, что при раздувании контекстного окна факты начинают забываться 1. Обзор подходов Отличный вводный доклад от dealerAI о том, как работать с памятью, можно посмотреть здесь. По сути, есть несколько ключевых способов с своими +/-: • Суммаризация с помощью LLM • NER • Agentic memory • Длинный контекст • RAG как память • Function calling В целом, с суммаризацией возник...
Anthropic обвинили китайские ИИ в том, что они делали слишком много запросов (16+ млн) к их сетке через фейковые аккаунты, тем самым нарушая условия пользования, все чтобы улучшить свои модели. Но если спросить Claude ты кто на китайском, он ответит, что DeepSeek. Главное при расследовании не выйти на самих себя 😒
Взаимный Agentic Looping 😎
Протестировал высокозведные opensource решения для обучения: KnowNote и DeepTutor (локальные аналоги NotebookLM) • KnowNote не заработало в полную силу (кроме режима чата), так как у выбранного эмбеддера нельзя было настроить размерность, и, соответственно, RAG там не функционировал. • DeepTutor (с 10к ⭐️) пришлось немного помучиться с зависимостями, так как проект построен на больших библиотеках (например, LightRAG и RAGAnything), которые тянут за собой длинный хвост сторонних пакетов. При запу...
Парадокс Джевонса технологический прогресс (см vibecoding), который увеличивает эффективность использования какого-либо ресурса, увеличивает объём потребления ресурса => пока живем На графике статистика с indeed.com (кол-ва вакансий на разработчиков vs в целом вакансий)