Ф
Форточку открой
@fortochkuotkroi255 подп.
57просмотров
22.4%от подписчиков
25 февраля 2026 г.
storyScore: 63
Я скептик насчёт AGI. Записывайте в луддиты — не обижусь Недавно Дарио Амодеи, CEO Anthropic, сказал, что AGI — модель с когнитивными способностями на уровне нобелевского лауреата — появится в 2026–27 годах. Для тех, кто не в теме: AGI, искусственный общий интеллект, это AI, сопоставимый с человеческим по всему спектру задач, не только по одной. Честно говоря, я с ним не согласен. И дело не в том, что я против прогресса. Дело в том, что у нас до сих пор нет точного определения интеллекта. Как вообще можно достичь того, что мы не умеем измерить? Это первый вопрос. Второй — как устроены современные модели под капотом. И вот тут начинается самое интересное. Сейчас будет немного математики. Не убегайте — в конце станет понятно, почему это важно. Есть многочлен Лагранжа. Представьте: на прямой несколько точек, и я хочу построить функцию, которая через все эти точки проходит. Если точек n — многочлен будет степени n−1. Проблема в том, что когда точек много, всё ломается. Многочлен 100-й степени через все 100 точек пройдёт идеально — но вне этих точек начнётся хаос. Поэтому мы приходим к следующей мысли: давайте не будем требовать точного прохождения, нарисуем прямую, которая стоит близко ко всем точкам. Аппроксимация вместо интерполяции. Дальше возникает вопрос: а зачем мы вообще многочлены рисуем? Как мозг работает? Там всё вжух-вжух-вжух… Давай вместо многочленов будем решать ту же задачу с помощью другого класса функций — назовём их нейросетями. Как они устроены: вводишь аргументы, они проходят через слои простых функций — раз, два, три — и на выходе получаешь число. И вот здесь происходит то, что я называю легализованным магическим мышлением. Что такое магия? Это когда ты смотришь, как льёт дождь, и говоришь: «Сейчас я начну поливать землю водой — и начнётся дождь», то есть в обратную сторону. Вот тут то же самое: «Так работает мозг — применим магическое мышление и нарисуем функцию, которая по топологии вычислений напоминает мозг». И вдруг оказывается, что она хорошо решает кучу задач. Например, позволяет добавить к большому тексту ещё одно слово (токен), и оно прям как надо, прям красиво ложится. В этом весь главный прикол. Нейросеть учится предсказывать следующий токен так, чтобы результат нравился человеку. Не «текст содержит смысл», не «информация передана точно» — а «похоже на то, что люди одобряют». Метрика на выходе буквально «человеку нравится». Вот здесь и возникает вопрос про AGI. Если я хочу понять, есть ли в тексте смысл, мне нужно мерить информационную наполненность. В самом простом приближении это энтропия. Как её мерить в тексте? Да непонятно как. Если бы я знал — я бы с вами сейчас не сидел. Извлечь информацию из текста — это принципиально другая задача, чем предсказать следующий токен. Если бы мы умели это делать — разговор про AGI был бы другим. Современные модели блестяще делают одно: предсказывают, что будет одобрено. Они оптимизированы под человеческое «да, похоже на правду». Это объясняет и нейрослоп в соцсетях, и сгенерированные вакансии, и резюме, которые никто не писал. Инструмент работает ровно так, как он устроен. Просто большинство людей об этом не думает, когда нажимает «сгенерировать». Значит ли это, что AI бесполезен? Нет. Экстраполяция — мощный инструмент, который решает кучу задач. Только нужно понимать, что именно ты делаешь и чего от этого ожидать. AGI в 2026–27 — это либо очень оптимистичный прогноз, либо очень вольное определение слова «интеллект». Пока мы не можем измерить интеллект и пока метрика моделей — «нравится / не нравится» — мне сложно в это верить.
57
просмотров
3587
символов
Нет
эмодзи
Нет
медиа

Другие посты @fortochkuotkroi

Все посты канала →
Я скептик насчёт AGI. Записывайте в луддиты — не обижусь Нед — @fortochkuotkroi | PostSniper