Midjourney выкатили новую модель — V1 Video Model. Теперь можно нажать одну кнопку, и твоя картинка начинает двигаться.
Камера едет, объекты двигаются, всё будто оживает. Работает даже с чужими картинками или со своими фотками.
Вот сгенерил такую фэшн-диву в стиле Gucci — теперь думаю:
а что если попробовать её оживить?
Сделать короткое видео: 5–10 секунд, как будто отрывок из модной съёмки. А давайте так и сделаем!
Наводим курсор на картинку — появляется кнопка Animate. Скромная такая, но с большими амбициями. Именно она запускает магию.
После нажатия Animate, Midjourney выдал четыре видео с этой красоткой — по 5 секунд каждое.
Каждое — с разным движением камеры: то лёгкий поворот, то плавный наезд.
Выглядит кинематографично, но есть нюанс: всё это в 480p, как будто ты снова в 2007 и качаешь клип через торрент.
🖼️ Из всех четырёх вариантов — вот этот мне зашёл больше всего.
Камера двигается плавно, свет играет по ткани, а сама модель будто на секунду оживает.
5 секунд чистой глянцевой магии 👇
📈 Если видео нравится — его можно продлить.
Наводишь на ролик — появляется кнопка Extend Auto (или Manual, если хочешь сам рулить движением).
Я выбрал авто — просто нажал, и Midjourney добавил ещё 4 секунды движения.
Можно так продлевать максимум 4 раза, то есть дойти до 20 секунд живого ролика.
На фоне 5-секундных обрывков это уже почти кино 😎
🎥 Ну и вот, финальный вариант — я немного продлил ролик через Extend Auto, получилось уже 9 секунд.
Как по мне, вышло не дурно 👇
Давайте попробуем оживить свое личное фото.
🔘 Что делает кнопка “Videos” в Midjourney?
Кнопка “Videos” в правом верхнем углу галереи переключает отображение с обычных статичных изображений на анимированные работы, созданные через V1 Video Model.
Видишь только видео-работы, сгенерированные через новую функцию Animate (V1 Video Model).
Оживлённая картинка (image-to-video),
Видео с движением камеры (auto или manual),
Продлённые анимации через функцию Extend.
Я выбрал картинку, где девушка стоит у двери с дерзким видом и надутым пузырём, и перетащил её в поле Starting Frame — это как бы начальный кадр, из которого Midjourney будет делать видео.
Дальше прописал, что хочу: пузырь лопается у неё на губах, она смеётся и закрывает глазок на двери рукой — всё в лёгком, игривом настроении, как сцена из тинейджерской комедии 90-х.
В итоге получилось почти всё, как задумывал: пузырь действительно лопается, она улыбается, атмосфера передалась точно.
Вот только момент с рукой и глазком Midjourney решил проигнорировать — видимо, он был занят жвачкой 😏
🧩 Вывод простой:
Midjourney наконец-то научился не только рисовать, но и шевелиться. Это не просто «фича ради фичи» — это полноценный новый слой выразительности.
Да, пока сыровато: 480p, кредитов жрёт не по-детски. Но сам факт, что ты можешь за пару кликов превратить картинку в видео — уже мощно. Особенно если любишь сторителлинг, стиль и эксперимент.
⚡️ Потенциал у фичи огромный. Не кино, конечно. Но что-то вроде модного TikTok-режиссёра у тебя в браузере — точно.
Дальше будет только круче. Ну а пока — жмём Animate и смотрим, как нейросети учатся дышать.
📌 Если тебе зашло и хочется глубже нырнуть в тему — приглашаю в своё Telegram-сообщество. Это не просто чат, а целый микрокосмос для тех, кто кайфует от нейросетей и визуального творчества:
🚀 Уже 140+ участников и каждый день прибавляется
📚 Записи уроков, PDF-конспекты, статьи
📎 Готовые шаблоны промптов — бери и вставляй
🗞 Анонсы, новости, апдейты
💬 Живой чат без токсичности — можно задавать любые вопросы и делиться своими работами
💡 Полезные фишки, сервисы, инсайты
🎨 Отдельный чат с примерами AI-работ — вдохновляем друг друга
Присоединяйся, если хочется практики, общения и визуального кайфа — без снобства и мусора.