Generowanie obrazów z pomocą Midjourney od dawna było synonimem błyskawicznej, wysokiej jakości kreacji, ale w połowie czerwca 2025 roku laboratorium zrobiło kolejny krok: funkcja “Animate” zamienia pojedynczy kadr w pięciosekundowy klip wideo.
Z punktu widzenia użytkownika wszystko wygląda banalnie – klik w przycisk, chwila oczekiwania i gotowe – lecz pod maską kryje się zupełnie nowy model “Image-to-Video V1”, o którym zespół pisze jako o “kamieniu milowym na drodze do symulacji czasu rzeczywistego”. Poniższy przewodnik wyjaśnia, jak zabrać się do pracy, na co uważać i gdzie kryją się największe ograniczenia.
Pierwsze wrażenia z nowego trybu
Midjourney konsekwentnie buduje większą, wieloetapową układankę: najpierw obrazy, potem ruch, a w planach – pełne środowiska 3D oraz generacja “na żywo” . Uruchomiona publicznie 18 czerwca 2025 r. wersja V1 działa na razie wyłącznie w interfejsie webowym i wymaga obrazu startowego – czystego promptu tekstowego nie obsługuje. Dla wielu twórców to zaleta: mogą ożywiać własne prace lub dowolne zdjęcia z biblioteki. Funkcja prezentuje dwa przełączniki ruchu:
- motion low (ustawienie domyślne) zachowuje subtelny ruch kamery i drobne gesty postaci; bywa, że klip pozostaje niemal statyczny, jeśli scena była skomponowana jak martwa natura.
- motion high kreuje szerokie ruchy kamery i dynamiczną akcję, ale kosztem możliwych artefaktów – “złamanych” kończyn czy nienaturalnego drżenia tła.
Zespół udostępnił też przełącznik –raw, którego rola przypomina znany “Raw Mode” ze świata statycznych obrazów: ogranicza autorską “kreatywną nadwyżkę” modelu i oddaje więcej władzy samemu promptowi .
W praktyce pierwsze testy pokazują, że niskie wartości ruchu świetnie sprawdzają się w krajobrazach lub ujęciach portretowych, podczas gdy wysokie – w inscenizacjach sci-fi czy spektakularnych panoramach miast przyszłości. Warto więc już na starcie zastanowić się nie tylko nad treścią, lecz także nad poziomem energii klipu, by uniknąć przykrych niespodzianek w GPU-portfelu (o kosztach później).
Jak zacząć: przygotowanie obrazów i parametry
Jeśli korzystasz z prac wygenerowanych w Midjourney, sprawa jest najprostsza: po otwarciu obrazu kliknij Animate Image → Auto (lub Manual, jeśli chcesz dopisać dokładniejszy prompt). Wersja manualna wyświetla znany pasek “Imagine”, w którym można:
- Doprecyzować opis ruchu (“the camera slowly dolly-zooms past blossoming cherry trees”).
- Dodać parametry –motion low lub –motion high.
- Użyć –raw, gdy zależy Ci na literalnym odczytaniu frazy bez stylizacyjnych “wtrąceń” modelu.
Własne zdjęcia wrzuca się z tego samego paska – ikona aparatu otwiera panel uploadu, a przeciągnięcie pliku do pola “Starting Frame” przypina go do promptu. System podpowiada, by w takim przypadku zablokować obraz (ikona kłódki), jeżeli chcesz testować różne wersje ruchu bez ponownego uploadu . Wszystkie inne typy referencji (image prompt, style czy omni reference) są chwilowo wyłączone dla wideo, więc warto zapamiętać, że tylko czysty kadr startowy działa poprawnie.
Midjourney wyraźnie akcentuje też odpowiedzialność użytkownika za prawa do wgrywanych zdjęć. W szczególności zabrania m.in. wulgarnych deepfake’ów osób publicznych i obrażania mniejszości; złamanie zasad grozi banem bez zwrotu opłat . Dla autorek-amatorski i profesjonalistów oznacza to konieczność zweryfikowania licencji – nawet jeśli zdjęcie pochodzi z własnej sesji, model odczyta je zero-jedynkowo pod kątem zgodności z Community Guidelines.
Midjourney explore page looking pretty cool right now pic.twitter.com/ljHTMpyHEA
— Midjourney (@midjourney) June 19, 2025
Ograniczenia techniczne i koszty
“Videos cost 8× more GPU time compared to regular images (8 min vs 1 min).” – dokumentacja Midjourney
Cena klipu rośnie zatem ekspotencjalnie, gdy zaczniesz eksperymentować z serią iteracji lub wydłużaniem. Model startuje od 5 sekund, ale przycisk Extend pozwala dodać kolejne 4-sekundowe segmenty, maksymalnie do 21 sekund . Każde takie “dociągnięcie” to osobna operacja i kolejne 8 minut GPU, więc warto planować montaż z myślą o krokach milowych (np. 5 s → 13 s → 21 s), a nie dziesiątkach niepotrzebnych prób.
Od strony technicznej Midjourney renderuje pliki w 480p (SD) – to kompromis między kosztem a czasem obliczeń. Rozdzielczość zależy od proporcji obrazu startowego, co pokazuje tabelka:
| Proporcja startowa | Proporcja klipu | Wymiary |
|---|---|---|
| 1:1 | 1:1 | 624×624 px |
| 4:3 | 77:58 | 720×544 px |
| 2:3 | 2:3 | 512×768 px |
| 16:9 | 91:51 | 832×464 px |
| 1:2 | 1:2 | 448×880 px |
Źródło podaje, że proporcje mogą ulec niewielkiej korekcie w celu zachowania spójności pikseli, co warto sprawdzić w przedpremierowym story-boardzie . Użytkownicy planu Basic i Standard mogą renderować wyłącznie w Fast Mode, natomiast Pro i Mega otrzymują także tańszy Relax Mode, co przy długich klipach znacząco obniża koszt końcowy, choć wydłuża czas oczekiwania.
Na dziś brak natywnego eksportu 720p czy 1080p i nie wiadomo, kiedy się pojawi. W praktyce twórcy podnoszą rozdzielczość w post-procesie (np. Topaz Video AI), ale pamiętaj: detale wygenerowane w 480p bywają miękkie, a interpolacja nie przywróci brakującej informacji.
Kwestie prawne i etyczne
Nowa funkcja wystartowała zaledwie tydzień po tym, jak Disney i Universal pozwały Midjourney za domniemane naruszenia praw autorskich – zarzucają firmie “piractwo” związane z wygenerowanymi wizerunkami postaci . WIRED w dniu premiery sprawdził system: klipy z Elsą czy Mickey’em zostały zablokowane, ale Homer Simpson, Shrek czy Deadpool przeszli bez oporów. Co więcej, drobne literówki w nazwie bohatera pozwalały obejść filtry. Pokazuje to, że AI-moderacja jest w fazie eksperymentu – dość, by ograniczyć oczywiste naruszenia, ale za słaba, aby całkowicie wyczyścić katalog postaci chronionych prawem .
Z punktu widzenia twórcy odpowiadasz za każdy klip, który publikujesz. Dokumentacja przypomina:
- musisz posiadać prawa do obrazów wyjściowych;
- zakazane jest “obraźliwe, derogatoryjne lub seksualne” manipulowanie wizerunkiem osób prywatnych i publicznych;
- platforma zastrzega sobie prawo do usunięcia treści lub zablokowania konta .
Jeśli pracujesz komercyjnie, najmądrzejszą strategią jest traktowanie Midjourney wyłącznie jako narzędzia do generowania materiału “proof of concept”, a ostateczne iteracje tworzyć z oryginalnymi, licencjonowanymi zasobami.
Wnioski i najlepsze praktyki
Midjourney Video V1 to fascynujący dodatek, który upraszcza prototypowanie ruchomych kadrów i otwiera drzwi do nowych form storytellingu. Trzy kluczowe rady na start:
- Planuj GPU – przy 8-krotnym koszcie eksperyment może błyskawicznie pożreć pakiet minut. Twórz storyboard i zapisuj parametry, zanim klikniesz “Animate”.
- Optymalizuj ruch – niskie –motion sprawdza się w portretach i krajobrazach; wysokie w akcjach i kreatywnych ujęciach, ale może generować błędy.
- Zachowaj ostrożność prawną – filtr marki nie zwalnia z odpowiedzialności. Jeśli nie masz licencji, wybierz własne lub domenowe zasoby albo zleć ilustrację profesjonalnym artystom.
Pierwsza wersja narzędzia ma wyraźne ograniczenia (SD, koszt, brak promptu “tekst → wideo”), lecz zespół sygnalizuje, że to dopiero początek integracji wideo, przestrzeni 3D i symulacji w czasie rzeczywistym. Warto więc zacząć eksperymentować już dziś, bo know-how z wersji V1 z pewnością przyda się, gdy Midjourney wykona kolejny skok.
Ile to dokładnie kosztuje
Zestawienie uwzględnia oficjalne limity GPU-minut oraz cenę dokupienia dodatkowego czasu 4 $ / h GPU oraz fakt, że wideo zużywa 8 × więcej minut niż obraz .
| Plan | Miesięczna pula Fast (min) | Liczba 5-sek. klipów | Koszt 1 klipu (5 s) | Koszt 1 klipu (21 s) |
|---|---|---|---|---|
| Basic – 10 $ | 200 | 25 | 0,40 $ (≈ 1,48 zł) | 2,00 $ (≈ 7,42 zł) |
| Standard – 30 $ | 900 | 112 | 0,27 $ (≈ 1,00 zł) | 1,33 $ (≈ 4,93 zł) |
| Pro – 60 $ | 1 800 | 225 | 0,27 $ (≈ 1,00 zł) | 1,33 $ (≈ 4,93 zł) |
| Mega – 120 $ | 3 600 | 450 | 0,27 $ (≈ 1,00 zł) | 1,33 $ (≈ 4,93 zł) |
Dopłata po wyczerpaniu limitu: 0,53 $ (≈ 1,97 zł) za każde dodatkowe 5 s wideo lub każde przedłużenie o 4 s, ponieważ dokupowany czas liczony jest według stawki 4 $ / h GPU.
W praktyce: jeśli chcesz wyrenderować maksymalny klip 21-sekundowy w planie Basic, zapłacisz ok. 7,42 zł z miesięcznej puli; w planach Standard/Pro/Mega będzie to ok. 4,93 zł. Po przekroczeniu limitu cena rośnie do 1,97 zł za każde kolejne 5 s (lub przedłużenie), więc warto wcześniej zaplanować storyboard i uniknąć kosztownych testów na oślep.


