489просмотров
2 февраля 2026 г.
🎬 ВидеоScore: 538
Попробовал на выходных ComfyUI 🛋, несколько моделей для генерации картинок и видео из промпта. Особенно впечатлила модель wan2.2, при помощи которой я оживил 3 фото: 1️⃣ экскурсия на заводе БалАЗ (2025 год) 🏭, где машина превращается в Оптимуса Прайма 🤖
2️⃣ выход из гипсовых штолен в Камском Устье (2024 год) ⛏️, здесь нас ждет инопланетное вторжение 👽
3️⃣ прогулка по тем же штольням, но за нами уже следует чужой 🕵️♂️ 🚀 Все это генерировалось быстро НА ЛОКАЛЬНОМ СЕРВЕРЕ, без облаков! Причем, это первый мой опыт генерации видео 🎥 ⚠️Сначала генерировал на Tesla V100 + 16 ГБ ОЗУ, через несколько часов и несколько OOM поставил RTX 3090 + 64 ГБ ОЗУ, и этого вполне хватило. Собираю второй сервер для генерации картинок/видео. ⏳ Первое видео генерировалось примерно 250‑300 секунд. Последнее за ~550с 🐏 Скорость получения пользовательского опыта зависит от скорости генерации видео, поэтому, чтобы быстрее понять, как нужно работать с моделью, нужно ставить минимальное разрешение – мне хватило 240×240. Так генерация будет быстрее и вы сможете получить обратную связь на ваш промпт, а после того как в маленьком разрешении получите ожидаемый результат, можно переключиться на большее разрешение и подождать завершения генерации. 🦧 Провозился целый день и понял, что модели не поддерживают промпты с последовательным сценарием, как минимум те, что разворачиваются локально. Нужны простые действия на сцену/воркфлоу 🛠, а затем из последнего кадра сцены генерировать другое видео 🎞 и сшивать. Надо дальше изучать построение воркфлоу в ComfyUI, тема заинтересовала 🤩