Н
Никита Остапчук
@PQuests2.7K подп.
1.4Kпросмотров
51.1%от подписчиков
25 февраля 2026 г.
storyScore: 1.5K
Я скептик насчёт AGI. Записывайте в луддиты — не обижусь Недавно Дарио Амодеи, CEO Anthropic, сказал, что AGI как модель, способная выполнять всё, что может человек, даже на уровне нобелевского лауреата — будет достигнута в 2026–27 годах. Шпаргалка: AGI – это искусственный интеллект с когнитивными способностями, сопоставимыми с человеческими. Я не согласен. И дело не в страхе перед прогрессом. Первая проблема — у нас нет точного определения интеллекта. Как достичь того, что мы не умеем измерять? Риторический вопрос — но его почему-то не задают. Вторая — как устроены модели под капотом. Сейчас будет немного математики. Не убегайте → Есть многочлен Лагранжа. Представьте: на прямой несколько точек, и я хочу построить функцию, которая через все эти точки проходит. Если точек n — многочлен будет степени n−1. → Проблема в том, что когда точек много, всё ломается. Многочлен 100-й степени через все точки пройдёт идеально — но вне этих точек начнётся разброд и шатание. → Поэтому мы приходим к следующей мысли: давайте не будем требовать точного прохождения, нарисуем прямую, которая стоит близко ко всем точкам. Аппроксимация вместо интерполяции. → Дальше возникает вопрос: а зачем мы вообще многочлены рисуем? Как мозг работает? Там всё вжух-вжух-вжух… → Давай вместо многочленов будем решать ту же задачу с помощью другого класса функций — назовём их нейросетями. → Как они устроены: вводишь аргументы, они проходят через слои простых функций — раз, два, три — и на выходе получаешь число. → И вот здесь происходит то, что я называю легализованным магическим мышлением. → Что такое магия? Это когда ты смотришь, как льёт дождь, и говоришь: «Сейчас я начну поливать землю водой — и начнётся дождь», то есть в обратную сторону. → Вот тут то же самое: «Так работает мозг — применим магическое мышление и нарисуем функцию, которая по топологии вычислений напоминает мозг». И вдруг оказывается, что она хорошо решает кучу задач. → Например, позволяет взять большой текст и добавить к нему следующее слово — токен. И оно прям как надо ложится, прям красиво. Попробуем ещё раз — снова красиво. И ещё. В этом весь фокус. Нейросеть учится предсказывать следующий токен так, чтобы результат нравился человеку. Не «текст содержит смысл», не «информация передана точно» — метрика на выходе буквально «человеку нравится». Вот здесь и возникает вопрос про AGI. Если я хочу понять, есть ли в тексте смысл, мне нужно мерить информационную наполненность. В самом простом приближении это энтропия. Как её мерить в тексте? Да непонятно как. Если бы я знал — я бы с вами сейчас не сидел. Извлечь информацию из текста — это принципиально другая задача, чем предсказать следующий токен. Если бы мы умели это делать — разговор про AGI был бы другим. Современные модели блестяще делают одно: предсказывают, что будет одобрено. Это объясняет и нейрослоп в соцсетях, и сгенерированные вакансии, и резюме, которые никто не писал. Инструмент работает ровно так, как он устроен. Просто большинство людей об этом не думает, когда нажимает «сгенерировать». Значит ли это, что AI бесполезен? Нет. Экстраполяция — мощный инструмент, который решает кучу задач. Только нужно понимать, что именно ты делаешь и чего от этого ожидать. AGI в 2026–27 — это либо очень оптимистичный прогноз, либо очень вольное определение слова «интеллект». Но пока человечество ждёт сверхразума — самое время вспомнить, что собственный интеллект никто не отменял.
1.4K
просмотров
3450
символов
Нет
эмодзи
Нет
медиа

Другие посты @PQuests

Все посты канала →
Я скептик насчёт AGI. Записывайте в луддиты — не обижусь Нед — @PQuests | PostSniper