16просмотров
18.2%от подписчиков
23 марта 2026 г.
📷 ФотоScore: 18
Сегодня увидели сообщение от автора канала «Техножнец», и оно однозначно заслуживает внимания, так как независимый разработчик на наших глазах, похоже, открыл абсолютно новый феномен в поведении искусственного интеллекта. И самое крутое — это можно объяснить простым языком. В чём тайна современных нейросетей? Все мы знаем, что гигантские ИИ вроде ChatGPT или Claude гениально пишут тексты и код. Но у них есть слабое место: они отвратительно считают. Попросите самую умную нейросеть сложить в столбик два случайных 30-значных числа, и она почти наверняка выдаст уверенный, но совершенно неправильный ответ. Почему так происходит? Потому что современные ИИ не умеют думать «пошагово». Они смотрят на весь пример целиком и пытаются статистически «угадать» ответ. Из-за этого в машинном обучении есть нерушимое правило: чем длиннее математический пример, тем глупее становится нейросеть. С каждой новой цифрой вероятность ошибки растёт. Корпорации пытаются решить это грубой силой, скармливая ИИ терабайты данных, но архитектурная проблема остаётся. Что сделал автор? Он пошёл совершенно другим, изящным путём. Вместо создания очередного неповоротливого монстра он собрал микроскопическую нейросеть всего на 3 851 параметр. Для понимания: в ChatGPT их сотни миллиардов, а программа автора «весит» буквально пару десятков килобайт — меньше, чем одна фотография на вашем телефоне! Свою архитектуру он назвал «Бикамеральный разум» (двухкамерный мозг). Суть гениально проста: сеть жёстко разделена на две части. Первая часть («Голос») только читает пример. А вторая («Автомат») работает как слепой рабочий. Она не пытается угадать ответ, а просто шаг за шагом складывает цифры, честно держа «единицу в уме», как обычный калькулятор. Обучив свою микросеть, автор обнаружил математическую аномалию, аналогов которой просто нет в мировой открытой науке. На коротких простых примерах (сложение двузначных чисел) сеть иногда ошибалась — её точность составила 97,8%. Но когда ей дали складывать огромные 30-значные числа — её точность внезапно выросла до идеальных 100%! Задача усложнилась в 15 раз, а крошечная нейросеть поумнела и перестала ошибаться вообще. Этот парадокс автор назвал «Инверсией сложности». То, что сделал автор, — это элегантное доказательство того, что для создания умного, абсолютно логичного ИИ нам не обязательно строить монструозные дата-центры, сжигающие электричество целых городов. Иногда правильная, математически выверенная архитектура размером с простой текстовый документ способна решать строгие алгоритмические задачи лучше, чем корпоративные гиганты за миллиарды долларов. 🔒DARPA&CIA