На одной волне – это не шутка Столкнулся с данными приведенными в научной статье, оказалось, что когда вы общаетесь по видеосвязи — ваш мозг может буквально синхрониться с мозгом собеседника. Но вот в чём подвох: как только появляется запоздание — всё, привет нейронная ссора, синхронизация улетает в отпуск! Так может, дело не в душевной связи, а в лаге Zoom? Научные товарищи (Лай и Ко, Университет Токио) проверили: измеряли мозговые волны через EEG и смотрели, насколько фазы совпадают — фазовую ...
📈 ТехноТренды: Технологии, Тренды, IT
Канал "ТехноТренды". Разбор технологий, технологических трендов и инноваций в различных сферах бизнеса и жизни: IT, производство и др.
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
19 из 19В продолжении темы с со скейлингом моделей отмечу поинт который наблюдаю. Пока что звучит абсурдно, но интересно: Кластер из NVIDIA Jetson Orin NX в форм-факторе сервера 2U Какие преимущества: - Низкая стоиомость самой железки в сравнении с дорогостоящими - Низкое потребление электричества Для чего прдходит: Малый бизнес Небольшие модели Задачи OCR, чат, service-desk 🚀 ©ТехноТренды
IBM представила Granite 4.0 — гибридные LLM с бесконечным контекстом и минимальными требованиями к GPU. Представленная линейка моделей Granite-4.0-H-Small — гибрид MoE, 32B параметров (9B активных) Granite-4.0-H-Tiny — гибрид MoE, 7B (1B активен) Granite-4.0-H-Micro — плотная гибридная, 3B Granite-4.0-Micro — традиционный Transformer, 3B (для совместимости с платформами без гибридов) Удивляет производительность: Granite 4.0 H Tiny при работе с 1 сессией на 32k контексте требует всего 7 GB VRAM —...
😱 GPT‑5 уже здесь — и он не шутит OpenAI наконец представила GPT‑5 — флагманский ИИ, умнее, быстрее и точнее прежних моделей. Это как Retina-экран среди олдскульных пиксельных дисплеев: сразу видно разницу. Какие фишки: ⚡️Обеспечивает PhD‑уровень знаний во всех темах: математика, код, мед.консультации — берет легко. ⚡️Умный маршрутизатор сам решает, как думать: быстро или подумать подольше (включая mini и nano‑версии). ⚡️Кодит лучше всех на SWE‑Bench, умеет признаться, что не знает (нет, ему не...
В апреле google deepmind представили книгу «How to Scale Your Model» (ссылка), где подробно разбирают инференс на TPU и трансформерах. 📊 Интересные инсайты: - Компромисс стоимость vs. задержка впечатляет: удвоение задержки на токен может дать ~100-кратное снижение стоимости. - Задержка варьируется от 5,5 мс при маленьких пакетах до 20 мс при больших. - Пропускная способность достигает плато (~1 токен/мс/чип) при BS 120, но при увеличении длины последовательности размер пакета ограничен памятью ...
Пойдет ли AI по пути блокчейна? Взгляд с позиций личного опыта Госдума утвердила массовое внедрение цифрового рубля с 1 сентября 2026 года. ЦБ РФ выкатил доклад, где подробно расписаны все параметры, архитектура и механизмы платформы (⏬ PDF). Штош, блокчейн добрался до высших этажей финансовой системы. А вы заметили, какой вокруг этого стоит инфошум? Никакого. Просто рабочий процесс. Но именно в этой скуке проявляется зрелость технологии. Блокчейн из аттракциона превратился в тихую, но незаменим...
Миллиарды на вычислениях для ИИ Сегодня стало известно: основатель Oracle Ларри Эллисон вышел на первое место в мире по состоянию, обогнав Илона Маска. Его капитал за сутки вырос на $101 млрд и достиг почти $400 млрд. Причина — рекордный рост акций Oracle на фоне масштабных AI-контрактов и колоссального портфеля заказов на HPC-инфраструктуру И Эллисон — далеко не единственный, кто разбогател на вычислительной волне: 📈 Дженсен Хуанг (Nvidia) — состояние $113 млрд, +$56 млрд з...
Nebius (бывшая Yandex N.V.) обошла «Яндекс» по капитализации — и всё это благодаря HPC-инфраструктуре Вчера, 9 сентября 2025 г., стало известно, что Nebius Group (ранее — Yandex N.V.) после подписания крупного AI-договора с Microsoft оценивается в стоимость $21,12 млрд. Это стало возможным во многом благодаря стратегическому акценту на инфраструктуру ИИ: Nebius создаёт новый ЦОД в Вайнленде (Нью-Джерси), где будет предоставлять свои вычислительные ресурсы для Microsoft. Стоимость контракта ...
#нашиМК 🔥 Список Российских микроконтроллеров Миландр: MDR1206FI MDR1215LGI К1986ВЕ1QI - снят с пр-ва К1986ВЕ1FI К1986ВЕ1GI К1986ВЕ92QI - снят с пр-ва К1986ВЕ92FI / MDR1211FI К1986ВЕ92F1I К1986ВЕ94GI К1986ВК025 - снят с пр-ва К1986ВК214 К1986ВК234 НИИЭТ: К1921ВК028 К1921ВГ015 К1946ВК035 К1946ВМ014 К1921ВГ1Т - в разработке К1921ВГ3Т - в разработке К1921ВГ5Т - в разработке К1921ВГ7Т - в разработке Микрон: MIK51BC16D / К5016ВК01 MIK51SC72D / K5016ВГ1 MIK51AB72D / К5016ХС2 - 1го уровня MIK51AD144D ...
OpenAI «открыла» модели — но не совсем OpenAI выложила модели GPT-OSS — 20B и 120B. Apache 2.0, веса доступны. Казалось бы, праздник! Но: 🔍 Исходников нет, датаcетов нет, архитектура — частично, MoE. 📄 Model card — есть. 📦 Hugging Face — есть. 🔒 Открыто, но как бы с замочком. GPT-OSS-120B почти дотягивает до o4-mini. То есть… OpenAI сделала свою же модель «почти как закрытую», но в «открытом» виде. Удобно, не правда ли? Сами же говорят: “Для локального запуска и кастомизации.” Переводим: “Де...