Runway hat sein neuestes KI-Videomodell Gen-4 veröffentlicht, das deutliche Verbesserungen bei der Konsistenz von Charakteren und Szenen bieten soll. Wie Kyle Wiggers berichtet, ist das Modell nun für Einzel- und Unternehmenskunden von Runway verfügbar. Das Unternehmen gibt an, dass Gen-4 kohärente Umgebungen und Charaktere über verschiedene Szenen hinweg beibehalten kann, während es realistische Physik simuliert.
Das neue Modell ermöglicht die Generierung konsistenter Charaktere unter verschiedenen Lichtbedingungen mittels Referenzbildern. Nutzer können Bilder von Motiven einbringen und gewünschte Kompositionen beschreiben, um spezifische Szenen zu erstellen.
„Gen-4 kann visuelle Referenzen zusammen mit Anweisungen nutzen, um neue Bilder und Videos mit konsistenten Stilen, Motiven, Orten und mehr zu erstellen“, erklärt Runway in einem Blogbeitrag.
Das von Investoren wie Salesforce, Google und Nvidia unterstützte Unternehmen konkurriert mit Branchengrößen wie OpenAI und Google im schnell wachsenden Bereich der KI-Videogenerierung. Runway hat sich durch Studioportnerschaften und Finanzierungsinitiativen für KI-generierte Filme in der Unterhaltungsindustrie positioniert.
Allerdings sieht sich Runway rechtlichen Herausforderungen bezüglich seiner Trainingsdatenquellen gegenüber. Das Unternehmen ist in eine Klage von Künstlern verwickelt, die die unerlaubte Nutzung urheberrechtlich geschützter Kunstwerke für das Modelltraining behaupten. Runway beruft sich auf die Fair-Use-Doktrin als Verteidigung.
Die Veröffentlichung erfolgt zu einem bedeutenden Zeitpunkt für Runway, das laut Berichten eine neue Finanzierungsrunde anstrebt, die das Unternehmen mit 4 Milliarden Dollar bewerten würde. Laut The Information will Runway in diesem Jahr nach der Einführung von Produkten wie seiner Videogenerations-API einen Jahresumsatz von 300 Millionen Dollar erreichen.