407просмотров
60.0%от подписчиков
13 января 2026 г.
Score: 448
🚀 От старта до "наши дни": Часть 3. Первый код в чате и "вайбкодинг" на минималках. Как и обещал в прошлом посте, сегодня расскажу, как я перестал бояться и начал писать код для своего сервиса, не открывая ни IDE, ни терминал. Когда я подходил к реализации ассистента в начале 2025 года, у меня была простая задача: реализовать проект. Не «стать сеньор-помидор разработчиком», не «выучить все команды Linux», а сделать работающий продукт. И я действовал по принципу: использую только то, что знаю сейчас + немного магии LLM. 🐺 База всё-таки нужна Скажу честно: я не пришел с совсем пустой головой. У меня была база — я умел писать простые скрипты на Python. И всем, кто хочет идти в сторону вайбкода, я рекомендую пройти любой базовый курс по Python. Не ради того, чтобы кодить самому. Это полезно для: 1. Структурирования мыслей. 2. Понимания логики. 3. Грамотной постановки задач — и людям, и нейросетям. 🐺 LLM вместо технического директора Самое сложное — начать и выбрать архитектуру. Я понятия не имел, как правильно строить backend в Yandex Cloud. Поэтому моим консультантом стала та же Gemini 2 Flash. Я просто спрашивал: «Слушай, есть такая задача. Как это лучше развернуть в Яндексе, чтобы не платить за простой серверов?» Именно в диалоге мы пришли к Serverless-подходу (Cloud Functions). Это когда ты не арендуешь сервер, а просто загружаешь куски кода - функции, которые срабатывают только в момент запроса. Инсайт: Модель периодически ошибается. Но она направляет ваши руки и голову в нужную сторону. Она говорит «посмотри сюда», ты идешь, обязательно читаешь документацию и понимаешь: «Да, это оно». 🐺 Кодинг методом "Копировать — Вставить — Исправить" Для многих проблема — это чистый лист. С чего начать диалог? С LLM этой проблемы нет. Мой алгоритм "вайбкодинга" выглядел так: 1. Пишу в чат, условный запрос: «Мне нужно отправить запрос в Yandex GPT и получить ответ. Напиши функцию на Python». 2. Копирую код. 3. Вставляю в интерфейс Яндекс Облака. 4. Запускаю -> Вижу ошибку 🔴. 5. Копирую логи и кидаю обратно в чат: «Смотри, не работает, вот лог». 6. Получаю исправленный код -> Повторяю. Я мог сделать так 10-20 раз. Инсайт: нужно регулярно чистить контекст, так как в контексте накапливается ошибочный код, логи и ненужные запросы, которые мешают LLM думать в правильном направлении. 🐺 Эволюция промпта Уже тогда, набивая шишки на ошибках, я вывел для себя структуру идеального промпта, которой пользуюсь до сих пор. Чтобы код был рабочим, нужно давать модели: 🐺 Роль: "Ты Senior Python Developer, эксперт по Yandex Cloud..." 🐺 Контекст: Полное описание, где мы работаем - "Cloud Functions, какие библиотеки доступны, ...". 🐺 Четкую задачу: Что конкретно должна делать эта функция. Итог: Даже не понимая до конца, что написано внутри каждой строчки кода, я собирал работающий проект. Скорость реализации была бешеная. В следующем посте расскажу, как я понял, что ИИ нужно применять точечно и это совсем не панацея для реальных проектов. Добра! 🤟
407
просмотров
2987
символов
Да
эмодзи
Нет
медиа

Другие посты @wolfeater

Все посты канала →
🚀 От старта до "наши дни": Часть 3. Первый код в чате и "ва — @wolfeater | PostSniper