Midjourney hat sein erstes KI-Video-Modell veröffentlicht. Nutzer können damit Standbilder in kurze Videoclips verwandeln. Das Unternehmen stellte sein V1 Video Model fast 20 Millionen Nutzern weltweit zur Verfügung.
Die neue Funktion arbeitet über einen „Image-to-Video“-Workflow. Nutzer erstellen oder laden ein Bild hoch und drücken dann einen „Animate“-Button, um Bewegung zu erzeugen. Das System bietet automatische Animation mit selbst erstellten motion prompts oder manuelle Steuerung, bei der Nutzer beschreiben, wie sich Elemente bewegen sollen.
Zwei Bewegungseinstellungen stehen zur Verfügung. Low motion eignet sich für ruhige Szenen mit subtilen Bewegungen, während high motion dynamischere Animationen von Objekten und Kamera erzeugt. Jeder Video-Job produziert vier 5-Sekunden-Clips, die Nutzer auf maximal 20 Sekunden verlängern können.
Midjourney-Gründer David Holz beschrieb das Video-Modell als Zwischenschritt zu ehrgeizigeren Zielen. Das Unternehmen will langfristig interaktive Echtzeit-Simulationen schaffen, in denen Nutzer durch KI-generierte Umgebungen navigieren können.
Preise und Konkurrenz
Die Video-Funktion kostet etwa achtmal mehr als die Erstellung eines Standbilds. Da jeder Job 20 Sekunden Inhalt produziert, entsprechen die Kosten pro Sekunde etwa einer Bilderstellung. Midjourney gibt an, dass diese Preise 25-mal günstiger sind als bisherige Marktangebote.
Der Launch positioniert Midjourney gegen etablierte KI-Video-Konkurrenten wie OpenAIs Sora, Googles Veo 3 und Runways Gen-4. Anders als manche Rivalen erzeugt Midjourney keine Audiospuren, sodass Nutzer Ton separat hinzufügen müssen.
Zusätzliche Quelle: VentureBeat