Weaponizing NotebookLM - безобидный Intent может забить /data и уложить устройство Любое приложение без единого permission может заставить NotebookLM довести объём свободного места во внутреннем разделе /data до 0 байт. 🤡 И это не КЛИКБЕЙТНЫЙ АНОНС УЯЗВИМОСТИ и не SD-карта. Это data-partition. Итог - краши приложений, отказ SQLite, системная нестабильность. Подробнее тут. Коротко и ясно (если неясно, спрашивайте) - ниже 👇 👀 Что происходит Приложение принимает content:// URI и начинает считыва...
OK ML
Канал посвящен ML, DS, AI с акцентом на репозитории, инструменты и уязвимости в ML-системах.
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 20Тренды AI-безопасности к 2026 году На основе обновлённой Responsible Scaling Policy (RSP) от Anthropic и AI Safety Report 2026 - того, как индустрия уже сейчас выстраивает AI-security 👇 1️⃣ AI Safety Levels (ASL) - безопасность пропорционально возможностям Модели делятся на уровни - от ASL-1 до ASL-3+ Чем мощнее модель, тем строже меры: • защита весов • внутренние контроли • многоуровневый мониторинг • протоколы быстрого реагирования Сейчас большинство систем - ASL-2, но движение к ASL-3 уже на...
🕴CVE-2026-27966. Критическая уязвимость RCE в Langflow В инструменте для создания AI-агентов Langflow обнаружена критическая уязвимость CVE-2026-27966, позволяющая добиться RCE через prompt injection, который приводит к запуску тулов агента. По сути Langflow в этой конфигурации превращается в удалённый Python-интерпретатор, управляемый LLM. 🦔 Суть проблемы В реализации CSV Agent используется небезопасная настройка, жёстко заданная в коде: textagent_kwargs = { "verbose": self.verbose, "allow_da...
ML supply chain - реальная поверхность атаки. Конкретные примеры, почему это не теория (начало тут) Hugging Face прямо предупреждает, что pickle при десериализации исполняет последовательность opcode-инструкций; именно поэтому они поддерживают pickle-scanning. В качестве более безопасного формата Hugging Face продвигает safetensors, который позиционируется как безопасная альтернатива pickle для хранения тензоров. HiddenLayer показали, что через вредоносный PyTorch binary можно было компрометиров...
Инструмент недели. DeepEval 📊 Алиса: Как понять, что модели работают хорошо? Боб: DeepEval. Алиса: В смысле? Боб: В коромысле. DeepEval - фреймворк для оценки качества LLM, RAG-систем и AI-агентов. Это unit-тесты, но для LLM. Алиса: Ладно. А что делает этот DeepEval? 🤔 Боб: Делает то, что ты должна была делать сама, но не умеешь. Проверяет LLM нормально: 🎯 отвечает ли модель по делу (Relevance); ✅ правильный ли ответ (Correctness); 📚 использует ли она контекст, а не фантазирует (Faithfulness...
Инструмент недели. Llama.cpp Больше чем приложение, это фундаментальная технология, клянусь! Если вдруг ты о ней не знал, то готовься узнать. 🤣 Llama.cpp - это опенсорс на плюсах, предназначенный для локального запуска моделей LLaMA (и других моделей) на компьютере с помощью процессора (CPU), а не только с помощью видеокарты (GPU). Нам это надо, берем! Значит, можно сделать доступными мощные языковые модели (вроде LLaMA, Mistral, Phi и других) на личных компьютерах, не обязательно с мощным GPU....
AI-2026 как инфраструктура К 2026 году ИИ окончательно перестал быть просто моделью или умным чат-ботом. 😮 Он становится инфраструктурой, встроенной частью вычислений, данных и бизнес-процессов. Сейчас видны две модели развития. 🐲 Китай - open source как основа системы После DeepSeek moment рынок перестал гнаться за одной самой сильной моделью. Акцент сместился на экосистему: ☕️ модели становятся строительными блоками; ☕️ выстраивается вся цепочка: данные ➖ обучение ➖ деплой ➖ чипы ➖ облако ➖ ...
InjectDefuser. Как сделать LLM безопаснее при работе с внешним контентом. Во всех security-кейсах с LLM есть общий риск 😏🙁: модель читает внешний контент, который контролирует атакующий. Поскольку LLM не различает данные и инструкции, этот контент может использоваться для prompt injection (PI) - внедрения скрытых команд, незаметных для пользователя, но исполняемых моделью. Так внешний ввод превращается из объекта анализа в канал управления поведением LLM. Это фундаментальный риск дизайна. И с ...
🧠 LangChain Community Flaw Allows SSRF Bypass to Access Internal Infrastructure 17 февраля 2026 года команда LangChain закрыла уязвимость CVE-2026-26019 в пакете @langchain/community, связанную с обходом защиты от SSRF (Server-Side Request Forgery). CVSS 6.1 (Medium) - эксплуатация требует контроля над контентом, который краулит приложение. Для эксплуатации атакующий должен контролировать страницу, которую краулит RecursiveUrlLoader. Механизм ограничения домена (preventOutside) опирался на Stri...
Инструмент недели. xGitGuard (Comcast) - масштабный secret scanning с ML-фильтром xGitGuard - Python-фреймворк для массового обнаружения утекших секретов в GitHub (API-ключи, токены, пароли и т.п.). Он рассчитан на большие организации и умеет работать и с GitHub Enterprise, и с публичным GitHub, закрывая сценарии внутренние репозитории + внешний периметр. 👨🦽👨🦽👨🦽 Ключевая ценность xGitGuard (на первый взгляд) - снижение ложных срабатываний через ML. В классическом secret scanning основна...