407просмотров
60.0%от подписчиков
13 января 2026 г.
Score: 448
🚀 От старта до "наши дни": Часть 3. Первый код в чате и "вайбкодинг" на минималках. Как и обещал в прошлом посте, сегодня расскажу, как я перестал бояться и начал писать код для своего сервиса, не открывая ни IDE, ни терминал. Когда я подходил к реализации ассистента в начале 2025 года, у меня была простая задача: реализовать проект. Не «стать сеньор-помидор разработчиком», не «выучить все команды Linux», а сделать работающий продукт. И я действовал по принципу: использую только то, что знаю сейчас + немного магии LLM. 🐺 База всё-таки нужна
Скажу честно: я не пришел с совсем пустой головой. У меня была база — я умел писать простые скрипты на Python. И всем, кто хочет идти в сторону вайбкода, я рекомендую пройти любой базовый курс по Python.
Не ради того, чтобы кодить самому. Это полезно для: 1. Структурирования мыслей.
2. Понимания логики.
3. Грамотной постановки задач — и людям, и нейросетям. 🐺 LLM вместо технического директора
Самое сложное — начать и выбрать архитектуру. Я понятия не имел, как правильно строить backend в Yandex Cloud. Поэтому моим консультантом стала та же Gemini 2 Flash.
Я просто спрашивал: «Слушай, есть такая задача. Как это лучше развернуть в Яндексе, чтобы не платить за простой серверов?» Именно в диалоге мы пришли к Serverless-подходу (Cloud Functions). Это когда ты не арендуешь сервер, а просто загружаешь куски кода - функции, которые срабатывают только в момент запроса.
Инсайт: Модель периодически ошибается. Но она направляет ваши руки и голову в нужную сторону. Она говорит «посмотри сюда», ты идешь, обязательно читаешь документацию и понимаешь: «Да, это оно». 🐺 Кодинг методом "Копировать — Вставить — Исправить"
Для многих проблема — это чистый лист. С чего начать диалог?
С LLM этой проблемы нет. Мой алгоритм "вайбкодинга" выглядел так: 1. Пишу в чат, условный запрос: «Мне нужно отправить запрос в Yandex GPT и получить ответ. Напиши функцию на Python».
2. Копирую код.
3. Вставляю в интерфейс Яндекс Облака.
4. Запускаю -> Вижу ошибку 🔴.
5. Копирую логи и кидаю обратно в чат: «Смотри, не работает, вот лог».
6. Получаю исправленный код -> Повторяю. Я мог сделать так 10-20 раз. Инсайт: нужно регулярно чистить контекст, так как в контексте накапливается ошибочный код, логи и ненужные запросы, которые мешают LLM думать в правильном направлении. 🐺 Эволюция промпта
Уже тогда, набивая шишки на ошибках, я вывел для себя структуру идеального промпта, которой пользуюсь до сих пор. Чтобы код был рабочим, нужно давать модели:
🐺 Роль: "Ты Senior Python Developer, эксперт по Yandex Cloud..."
🐺 Контекст: Полное описание, где мы работаем - "Cloud Functions, какие библиотеки доступны, ...".
🐺 Четкую задачу: Что конкретно должна делать эта функция. Итог:
Даже не понимая до конца, что написано внутри каждой строчки кода, я собирал работающий проект. Скорость реализации была бешеная. В следующем посте расскажу, как я понял, что ИИ нужно применять точечно и это совсем не панацея для реальных проектов. Добра! 🤟