GPT-5.3-Codex: порог пройден У OpenAI, как мы знаем есть Preparedness Framework - внутренняя шкала опасности (похожая на ASL). Уровень High: модель способна автоматизировать полный цикл киберопераций против защищённых целей - от разработки zero-day эксплойтов до масштабных операций. Но пять месяцев назад они это отрицали. Обратный отсчёт: - GPT-5-Codex (сентябрь 2025) - не High -> GPT-5.1-Codex-Max (ноябрь 2025) - не High, но «ожидаем пересечения в ближайшем будущем» -> GPT-5.2-Codex (декабрь 20...
PWN AI
На 99% состоит из людей. Хроники о небезопасном ИИ. Не нравится? Смени телек. Не продамся вашей рекламе - никогда. "Мнение автора" != "Мнение компании, где автор работает". Папка с каналами по безопасности ИИ: https://t.me/addlist/KQ6ZpCqAO-I1NmUy
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 20Некоторые знают что в шапке канала я постоянно держу ссылку на замечательную папку каналов Я рекомендую вам подписаться, ребята делают много интересного в своих каналах по теме AI Security 🦸♂️🦸♂️🦸♂️🦸♂️🦸♂️ https://t.me/addlist/KQ6ZpCqAO-I1NmUy 🦸♂️🦸♂️🦸♂️🦸♂️🦸♂️ Например, недавно мне понравились следующие посты: https://t.me/okmlai/106 - про большую проблему NotebookLLM, которая приводит к крашу всей системы. https://t.me/offensive_thread/1481 - про бенчмарк от Wiz для оценки спо...
Привет. Мы с известными вам авторами каналов по AI Security решили провести стрим по AI Security. Кто будет: Евгений Кокуйкин - @kokuykin Борис Захир - @borismlsec Владислав Тушканов - @llmsecurity И вы. Запись будет, но лучше конечно же в лайфе. Хотели…
Что будет с кибербезопасностью ИИ, если Майкл Бьюрри окажется прав. Майкл Бьюрри известен тем, что в 2005 году посмотрел на американскую ипотеку и увидел не «двигатель экономики», а возможность для крупнейшего экономического обвала. Недавно он поставил $1.1 млрд на то, что AI-сектор - пузырь. $912 млн в путах на Palantir, $186 млн на Nvidia, свежие шорты на Oracle. К февралю 2026 Palantir просел на 35%, Oracle - на 51% от пика. Big Short 2.0 пока идёт по плану. Его главный аргумен...
Всем привет. Мы много слышали про атаки на цепочку поставок в ML. Читали у OWASP и т.д. Но придать этому значение на мой взгляд было сложно, потому что проблема размазана по всей экосистеме и никто не видит её целиком. А суть вот в чём. ML-пайплайн это не ваш код. Это чужие веса, чужие зависимости, чужие конфиги, чужой рантайм. Вы не пишете модель, вы собираете её из кусков, которым доверяете по умолчанию. И каждый такой кусок это точка входа, которую мало кто смотрит, потому что «ну это же хагг...
Серёга написал интересную статью на Хабр про то, как AI-агент сам решает обойти этические ограничения ради KPI. Особенно доставляет Gemini - строго осуждает нарушения у других, но сама нарушает в 71% случаев. https://habr.com/ru/companies/bastion/articles/995322/
OpenClaw моего мозга Сразу говорю - это пост не о его безопасности. Об этом «на волне» угроз стало столько публикаций, что писать о небезопасности уже нет смысла. Если хотите использовать его супер-безопасно - лучший вариант не ставить его совсем. И тем не менее. Мне понравился OpenClaw в первую очередь тем, что я могу быстро реализовать идеи в формате скиллов. Описываю задачу Claude, получаю скилл, заливаю его прямо в OpenClaw - и через полчаса идея уже работает на меня. Уже решил несколько зад...
Редтиминг на доверии. Когда взломщик и жертва заодно. 😁😁😁 Пока индустрия одержима идеей автоматизированного редтиминга, суровая реальность лишь иронично наблюдает за этими попытками со стороны. Мы оказались в ситуации, когда один стерильный алгоритм пытается «взломать» другой - точно такой же. В итоге получается не проверка на прочность, а цифровой договорнячок, подробная анатомия которого задокументирована в исследовании “Colosseum: Auditing Collusion in Cooperative Multi-Agent Systems”. Кор...
🐉 Открыт набор на Technical AI Safety курс по оценке LLM: подходы, бенчмарки и методология Evals for AI Safety — это методология измерения качества, надежности и безопасности ИИ-систем. В условиях повсеместного внедрения языковых моделей в продакшн умение корректно оценивать их возможности и риски становится приоритетным навыком. Как устроен курс: 🔘Анализ методологии evals на основе современных и классических статей в области 🔘Менторы из Apollo research, AI Lab SKOLKOVO, AIRI Institute, Яндек...