293просмотров
58.7%от подписчиков
9 марта 2026 г.
Score: 322
Скопирую заметку Дмитрия Волошина из запрещённой сети. Наблюдая как нейронка пишет код и я вижу что бездумный копипаст ответов приводит к непониманию "как и почему это работает". ———— Знакомый менеджер по продукту в IT-компании года полтора назад открыл для себя ChatGPT. Сначала использовал для рутины - генерировал черновики писем клиентам, набрасывал структуру презентаций, формулировал техзадания разработчикам. Удобно, быстро, освобождает время для важного. Через пару месяцев он уже все делал через AI. Стратегия продукта, анализ конкурентов, roadmap - промпт в ChatGPT. И правда, зачем напрягаться и думать самому, если AI выдаст готовый ответ за минуту? Час на размышлять против трех минут на промпт - выбор очевидный. Время освобождается, можно начать жить свою жизнь. Через год такой работы он начал терять квалификацию, причем незаметно для себя. Раньше он мог посмотреть на метрики продукта и сразу понять, где проблема, что не работает, какие гипотезы проверить. Это приходило из опыта постоянного анализа, обдумывания данных, поиска закономерностей. Штуку эту сложно формализовать, иногда ее называют чуйкой. Сейчас он просто копирует цифры в ChatGPT и спрашивает - что здесь не так? AI выдает стандартный анализ, общие фразы, очевидные выводы. Потому что LLM обучена на среднем контенте из интернета - статьях, кейсах, учебниках. Она знает общие паттерны. Она выдает то, что работает у всех, а не то, что работает именно здесь. И он копировал эту посредственность в отчеты, не замечая, что теряет понимание своего продукта. Критический момент наступил месяца три назад на встрече с CEO. Обсуждали почему продукт фокусируется на корпоративном сегменте, а не на SMB. Мой знакомый начал отвечать. Все правильно, но абсолютно пусто, как из учебника. CEO перебил его - я не про общую теорию спрашиваю, я про наших конкретных клиентов. Что мы умеем лучше конкурентов именно в корпоративном сегменте? И тут выяснилось - он уже не знает. Потому что последнее время он не думал глубоко о продукте, не анализировал, не погружался. Он генерировал отчеты через AI. Можете сказать: плохо научился писать промпты? Может и так. Через месяц его позвали на разговор с руководителем. Тот сказал прямо - вижу, что ты потерял хватку, потерял сопричастие. Твои решения стали странными, анализ поверхностным, стратегия - набором общих слов. Команда жалуется, что ты не отвечаешь на конкретные вопросы. Предложил две опции - либо он возвращается в форму за месяц, начинает думать сам, либо расстаются. Менеджер выбрал второе, потому что, как он мне сказал потом - я не уверен, что мне интересно работать как раньше, не нравится эта луддитская философия. Мне же кажется, что у него попросту атрофировался навык. Думаю, что у него стало пусто в голове, не может самостоятельно сформулировать мысли, не может выстроить логику. Привык костылю. Хотя вроде и физтех. В чем трагедия всей этой истории? Он выбрал деградацию сам, осознанно и добровольно. Не потому что не мог думать - мог отлично. Не потому что не понимал разницу между глубоким анализом и поверхностными выводами AI - прекрасно понимал. Не потому что не умел настроить LLM, он даже знал, что такое RAG и активно использовал собственноручно настроенных агентов. А потому что думать самому сложно, долго, требует усилий и концентрации. А посредственный результат от AI - достаточен для большинства задач, пока никто не копает глубже. И вот я думаю: сколько таких историй сейчас происходит незаметно? Сколько людей медленно теряют профессиональные навыки, заменяя мышление на промпты? Может, это естественный отбор - те, кто выбирает легкий путь, получают посредственные результаты и посредственную карьеру. А те, кто продолжает думать сами, обладая критическим восприятием FOMO, использует AI как инструмент усиления, а не замены мышления - они выигрывают, потому что умеют то, чего больше не умеют другие? Не знаю. Но наблюдаю, как люди массово выбирают удобство вместо развития, при этом искренне считая, что просто эффективно используют