OOK ML

OK ML

@okmlai💻 Технологии🇷🇺 Русский📅 март 2026 г.

Канал посвящен ML, DS, AI с акцентом на репозитории, инструменты и уязвимости в ML-системах.

📊 Полная статистика📝 Все посты
🔗 Связанные:@art_code_ai
##39#036#092
481
Подписчики
563,35
Ср. охват
117.1%
Вовлечённость
20
Постов
~0.3
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

20 из 20
Ookmlai
okmlai
16 февр., 13:47

Weaponizing NotebookLM - безобидный Intent может забить /data и уложить устройство Любое приложение без единого permission может заставить NotebookLM довести объём свободного места во внутреннем разделе /data до 0 байт. 🤡 И это не КЛИКБЕЙТНЫЙ АНОНС УЯЗВИМОСТИ и не SD-карта. Это data-partition. Итог - краши приложений, отказ SQLite, системная нестабильность. Подробнее тут. Коротко и ясно (если неясно, спрашивайте) - ниже 👇 👀 Что происходит Приложение принимает content:// URI и начинает считыва...

👁 3.4K
Ookmlai
okmlai
4 февр., 15:36

Тренды AI-безопасности к 2026 году На основе обновлённой Responsible Scaling Policy (RSP) от Anthropic и AI Safety Report 2026 - того, как индустрия уже сейчас выстраивает AI-security 👇 1️⃣ AI Safety Levels (ASL) - безопасность пропорционально возможностям Модели делятся на уровни - от ASL-1 до ASL-3+ Чем мощнее модель, тем строже меры: • защита весов • внутренние контроли • многоуровневый мониторинг • протоколы быстрого реагирования Сейчас большинство систем - ASL-2, но движение к ASL-3 уже на...

👁 2.7K
Ookmlai
okmlai
5 мар., 17:00

🕴CVE-2026-27966. Критическая уязвимость RCE в Langflow В инструменте для создания AI-агентов Langflow обнаружена критическая уязвимость CVE-2026-27966, позволяющая добиться RCE через prompt injection, который приводит к запуску тулов агента. По сути Langflow в этой конфигурации превращается в удалённый Python-интерпретатор, управляемый LLM. 🦔 Суть проблемы В реализации CSV Agent используется небезопасная настройка, жёстко заданная в коде: textagent_kwargs = { "verbose": self.verbose, "allow_da...

👁 990
Ookmlai
okmlai
12 мар., 17:39

ML supply chain - реальная поверхность атаки. Конкретные примеры, почему это не теория (начало тут) Hugging Face прямо предупреждает, что pickle при десериализации исполняет последовательность opcode-инструкций; именно поэтому они поддерживают pickle-scanning. В качестве более безопасного формата Hugging Face продвигает safetensors, который позиционируется как безопасная альтернатива pickle для хранения тензоров. HiddenLayer показали, что через вредоносный PyTorch binary можно было компрометиров...

👁 463
Ookmlai
okmlai
30 янв., 02:08

Инструмент недели. DeepEval 📊 Алиса: Как понять, что модели работают хорошо? Боб: DeepEval. Алиса: В смысле? Боб: В коромысле. DeepEval - фреймворк для оценки качества LLM, RAG-систем и AI-агентов. Это unit-тесты, но для LLM. Алиса: Ладно. А что делает этот DeepEval? 🤔 Боб: Делает то, что ты должна была делать сама, но не умеешь. Проверяет LLM нормально: 🎯 отвечает ли модель по делу (Relevance); ✅ правильный ли ответ (Correctness); 📚 использует ли она контекст, а не фантазирует (Faithfulness...

👁 341
Ookmlai
okmlai
1 февр., 12:11

Инструмент недели. Llama.cpp Больше чем приложение, это фундаментальная технология, клянусь! Если вдруг ты о ней не знал, то готовься узнать. 🤣 Llama.cpp - это опенсорс на плюсах, предназначенный для локального запуска моделей LLaMA (и других моделей) на компьютере с помощью процессора (CPU), а не только с помощью видеокарты (GPU). Нам это надо, берем! Значит, можно сделать доступными мощные языковые модели (вроде LLaMA, Mistral, Phi и других) на личных компьютерах, не обязательно с мощным GPU....

👁 340
Ookmlai
okmlai
15 февр., 12:09

AI-2026 как инфраструктура К 2026 году ИИ окончательно перестал быть просто моделью или умным чат-ботом. 😮 Он становится инфраструктурой, встроенной частью вычислений, данных и бизнес-процессов. Сейчас видны две модели развития. 🐲 Китай - open source как основа системы После DeepSeek moment рынок перестал гнаться за одной самой сильной моделью. Акцент сместился на экосистему: ☕️ модели становятся строительными блоками; ☕️ выстраивается вся цепочка: данные ➖ обучение ➖ деплой ➖ чипы ➖ облако ➖ ...

👁 325
Ookmlai
okmlai
8 февр., 21:08

InjectDefuser. Как сделать LLM безопаснее при работе с внешним контентом. Во всех security-кейсах с LLM есть общий риск 😏🙁: модель читает внешний контент, который контролирует атакующий. Поскольку LLM не различает данные и инструкции, этот контент может использоваться для prompt injection (PI) - внедрения скрытых команд, незаметных для пользователя, но исполняемых моделью. Так внешний ввод превращается из объекта анализа в канал управления поведением LLM. Это фундаментальный риск дизайна. И с ...

👁 302
Ookmlai
okmlai
20 февр., 10:51

🧠 LangChain Community Flaw Allows SSRF Bypass to Access Internal Infrastructure 17 февраля 2026 года команда LangChain закрыла уязвимость CVE-2026-26019 в пакете @langchain/community, связанную с обходом защиты от SSRF (Server-Side Request Forgery). CVSS 6.1 (Medium) - эксплуатация требует контроля над контентом, который краулит приложение. Для эксплуатации атакующий должен контролировать страницу, которую краулит RecursiveUrlLoader. Механизм ограничения домена (preventOutside) опирался на Stri...

👁 287
Ookmlai
okmlai
24 февр., 21:30

Инструмент недели. xGitGuard (Comcast) - масштабный secret scanning с ML-фильтром xGitGuard - Python-фреймворк для массового обнаружения утекших секретов в GitHub (API-ключи, токены, пароли и т.п.). Он рассчитан на большие организации и умеет работать и с GitHub Enterprise, и с публичным GitHub, закрывая сценарии внутренние репозитории + внешний периметр. 👨‍🦽👨‍🦽👨‍🦽 Ключевая ценность xGitGuard (на первый взгляд) - снижение ложных срабатываний через ML. В классическом secret scanning основна...

👁 246

Типы хуков

Нейтральный14 | 475 просм.
Статистика5 | 876 просм.
Вопрос1 | 244 просм.

Длина постов

Очень длинные (1000+)19 | 575 просм.
Длинные (500-1000)1 | 341 просм.

Влияние эмодзи

599
С эмодзи (18)
240
Без эмодзи (2)
+149.6% охвата

Типы контента

📝
19
text
580 просм.
📷
1
photo
245 просм.
OK ML (@okmlai) — Telegram-канал | PostSniper