291просмотров
76.0%от подписчиков
29 января 2026 г.
🎬 ВидеоScore: 320
Уилл Смит ел спагетти — и мы пропустили момент, когда AI‑видео повзрослело Чтобы понять потенциал, который у нас в руках сейчас — важно оглядываться назад. Сегодня понял это, когда наткнулся на статью в вики про Will Smith Eating Spaghetti test Коротко: 23 марта 2023 года в недрах сабреддита /r/StableDiffusion было опубликовано видео, сгенерированное через ModelScope text-to-video, в котором нейро-Уилл Смит ест спагетти. Мягко говоря — не получилось Напомню, что способ выше подразумевает open-source text-to-video diffusion-модель, которая:
- принимает текстовый промпт - генерирует короткий видеоклип 🎥 Видео слева — как раз оригинал самой первой генерации. Количество искажений, багов, галлюцинаций — зашкаливало. Поэтому gen-v сразу стало мемным, даже сам Уилл Смит немного погодя сделал пародию на этот видос в своих соцсетях. Это пиксельное мясо датируется 2023 годом, и при этом требовало ещё нескромного ресурса на генерацию. А рядом, справа — примеры сегодня, здесь и сейчас
1. пример от Veo (официальный)
2. и мои версии: собраны «на коленке» в Kling — доступны каждому 📌 Text-to-video и image-to-video промпт при этом абсолютно одинаковый. Отдельно веселит прикол с жевательными мышцами в области лба — крипота, галлюцинация
Young actor Will Smith eating spaghetti with good appetite looking at camera
Дело не в сравнении различных моделей и вендоров, а в том развитии моделей и результатах, которое очень быстро случилось. Так быстро, что мы даже этого не заметили. В моих примерах клинг намеренно искажает финальный образ актёра в генерации. Это как раз защита авторских прав, из-за ограничений на генерацию звёзд. Но если подать не текст, а картинку — ограничения исчезают Было крипово
Стало сильно лучше
Иногда — всё ещё крипово
Мы находимся здесь