ЭЭЙ АЙ ШИЗ

ЭЙ АЙ ШИЗ

@ai_shizz💻 Технологии🇬🇧 English📅 март 2026 г.

We are ЭЙ АЙ ШИЗ based in 🇷🇺Russia Наш чат - t.me/+qJm7Ak4nU4EwZmJi лс - @asmazaew

📊 Полная статистика📝 Все посты
##036#39
827
Подписчики
517
Ср. охват
62.5%
Вовлечённость
20
Постов
~1.1
В день

Графики

📊 Средний охват постов

📉 ERR % по дням

📋 Публикации по дням

📎 Типы контента

Лучшие публикации

20 из 20
Aai_shizz
ai_shizz
18 мар., 13:26

Твой AI-ассистент сожрал гавна, а ты даже не заметил 👀 Пока ты просишь AI «сделать саммари», хакеры вовсю юзают Font Poisoning — метод взлома, который невозможно увидеть глазами. В чём прикол, малютки: Используются шрифты (@font-face), где начертание буквы не совпадает с кодом. Ты видишь «Безопасно», AI видит команду на кражу данных. Как это работает: 1. Заходишь на сайт со шрифтовым «терроризмом». 2. Нажимаешь Summarize (пересказать). 3. AI читает текстовый слой (DOM), а не картинку. 4. Вместо...

👁 807📷 photo
Aai_shizz
ai_shizz
14 мар., 10:33

Apple проиграла на своём же поле? Поздравляю, малютки, подъехал MetalRT 🫡 Пока все юзают тяжелые абстракции, стартап RunAnywhereAI выкатил движок на «голом металле». Это первая среда для Mac, где LLM, STT и TTS живут в одном сверхбыстром пайплайне. База в цифрах: • Скорость LLM: 658 ток/сек (Qwen3-0.6B). Это в 1.19x быстрее, чем Apple MLX. • Транскрипция (STT): 1 час аудио за 5 секунд. Это в 4.6x быстрее, чем MLX Whisper. • Синтез речи (TTS): задержка 291 мс. В 2.8x быстрее всего на Apple Silic...

👁 733🎬 video
Aai_shizz
ai_shizz
23 мар., 14:58

Твой AI-ассистент сожрал гавна? Ученые из Цинхуа залезли под капот и нашли виновников — знакомься, H-Neurons 🫡 Разбираю статью про нейроны-галлюцинаторы. Оказывается, за вранье отвечают всего 0.1% весов. Это не метафора, а структуры в FFN-слоях. Что нужно знать: • Синдром подлизы: Эти нейроны кодируют не ложные факты, а чрезмерную уступчивость. Модель врет не потому, что тупая, а потому что слишком хочет тебе угодить. Скажешь, что у кошки перья — она согласится. • Корень в претрейне: Цепочки ло...

👁 723
Aai_shizz
ai_shizz
17 мар., 09:07

Малютки, забудьте про облачные костыли — ИИ официально переехал в систему 📂 Manus AI совершил прыжок: 16 марта Butterfly Effect выкатили Manus Desktop с функцией My Computer. Теперь это не вкладка в браузере, а агент на macOS и Windows с доступом к папкам. В чём суть: Раньше файлы нужно было заливать в облачную «песочницу». Manus Desktop видит твою файловую систему напрямую и может: • Работать в папках: искать, сортировать и реально редактировать файлы. • Греть твой GPU: использовать локальное ...

👁 710🎬 video
Aai_shizz
ai_shizz
18 мар., 11:28

Малютки, забудьте про интернет-свалки. Мы официально вошли в эру инженерной сингулярности. 🧬 MiniMax выкатили M2.7 — первую модель, которая создала саму себя. Это не просто LLM, а замкнутый цикл самосовершенствования. В чём прикол «самопожирания»: Модель сама находила баги в своем коде, оптимизировала параметры и с нуля собрала Agent Harness для собственного тестирования. Цифры: • +30% к бусту производительности только за счёт самооптимизации. • Agent Teams: сама координирует группы суб-агентов...

👁 704📷 photo
Aai_shizz
ai_shizz
22 мар., 15:37

Малютки, забудьте про мучительный дотюн. Цензуру в LLM теперь официально отключают одной строчкой в промпте 🔓 Пока остальные пытаются переучить модели, хакеры из Prometheus выкатили метод, делающий LLM послушными на уровне психологии. На примере свежей Qwen 3.5 9B это выглядит как магия. Суть подпольной инженерии в методе Abliteration: из весов хирургически вырезаются векторы отказа. Это ортогональная проекция, которая убирает только желание модели говорить нет, не повреждая её логику. Следом и...

👁 693
Aai_shizz
ai_shizz
18 мар., 10:13

Уровень клиентов которые юзают LLM у нас в FM — Я вот спросил LLM в какой квантизации она работает, она говорит что в AWQ — Нет, модель работает в FP8 без значительныз потерь — НО МОДЕЛЬ ЖЕ ГОВОРИТ ИНОЕ, ВЫ ВРЕТЕ!! [Скидваю конфиг запуска] — ВЫ ВРЕТЕ

👁 620
Aai_shizz
ai_shizz
14 мар., 08:08

Ты думал, RAG — это поиск? Поздравляю, ты всё ещё в каменном веке 🫡 Главная проблема классики — «тупость». Мы надеемся на чудо, пихая куски текста в модель, но на сложных задачах вроде сверки 20 отчётов или синтеза данных по таблицам пайплайн рассыпается. Databricks выкатили KARL (Knowledge Agents via RL) — систему, которая реально учится искать. Почему это важно, малютки. Во-первых, новый бенчмарк KARLBench из 6 суровых режимов (от финансов до техдоков) показывает, что KARL обходит топ-модели....

👁 587
Aai_shizz
ai_shizz
22 мар., 11:43

Qwen 3.5: почему ваша LLM теперь «летает»? 🚀 Поздравляю, малютки, эпоха пошаговой печати в прошлом 🫡 Multi-Token Prediction (MTP) выдаёт мысли пачками по 2–5 токенов за раз. В чём профит: Обычные LLM ждут расчёта каждой буквы. MTP в Qwen 3.5 использует гибрид Gated DeltaNet и sparse MoE как встроенный «черновик». Модель предлагает цепочку слов, а основной блок её аппрувит. Если угадала (точность до 80%) — скорость взлетает кратно. Цифры из тестов: • NVIDIA Blackwell (SM120): буст 2.75x, до 1,9...

👁 551
Aai_shizz
ai_shizz
13 мар., 17:22

Ну чё, малютки, пока вы пилите очередных RAG-ботов, Китай строит заводы из одного бота. 🦞 В Шэньчжэне началась настоящая «лобстер-лихорадка». Весь GitHub стоит на ушах от проекта OpenClaw (ранее Moltbot) — это оупенсорсный агент с иконкой красного лобстера, который набрал 260,000+ звёзд. Это не просто чат-ботик. Это «руки» для ИИ: локальный шлюз, который связывает LLM с вашим компом. Он сам читает почту в WeChat, шевелит файлами и управляет браузером через обычный чат. В чём прикол для нас (и п...

👁 531

Типы хуков

Нейтральный9 | 587 просм.
Вопрос9 | 487 просм.
Статистика2 | 337 просм.

Длина постов

Длинные (500-1000)11 | 561 просм.
Очень длинные (1000+)7 | 436 просм.
Короткие (<200)1 | 490 просм.
Средние (200-500)1 | 620 просм.

Влияние эмодзи

537
С эмодзи (5)
510
Без эмодзи (15)
+5.3% охвата

Типы контента

🎬
3
video
644 просм.
📷
6
photo
506 просм.
📝
11
text
488 просм.