Runway zeigt 3D-Kamerasteuerung für KI-Videomodell Gen-3 Alpha Turbo

Das New Yorker KI-Startup Runway hat erweiterte Kamerasteuerungen für sein Videogenerierungsmodell Gen-3 Alpha Turbo eingeführt. Laut eines Artikels von Carl Franzen ermöglichen diese neuen Funktionen Benutzern, in KI-generierte Szenen hinein- und herauszuzoomen und dabei Charakterformen und Umgebungen zu erhalten. Dadurch entsteht eine realistische 3D-Welt. Die Kamerasteuerungen bieten im Vergleich zu früheren KI-Videogeneratoren, einschließlich Runways eigenen …

Weiterlesen …

Runway Act-One will Motion Capture unnötig machen

Filmemacher und Animationskünstler können künftig Gesichtsausdrücke und Mikroexpressionen ihrer Charaktere deutlich einfacher erstellen. Dies verspricht das neue KI-Tool „Act-One“, das Runway jetzt als Teil seines Gen-3 Alpha Videomodells einführt. Die Funktion soll aufwändige Motion-Capture-Verfahren durch einfache Videoaufnahmen ersetzen. Bislang benötigten Produktionen für realistische Gesichtsanimationen spezielle Ausrüstung wie Marker-Systeme und aufwändiges Face-Rigging. Act-One kommt nach Unternehmensangaben …

Weiterlesen …

Genmo Mochi 1 ist eine neue Open-Source-Video-KI

Genmo hat Mochi 1 veröffentlicht, ein Open-Source-KI-Modell, das aus Textbefehlen qualitativ hochwertige Videos generiert. Du kannst es auf dieser Seite kostenlos ausprobieren. Laut VentureBeat kann Genmo mit führenden proprietären Modellen wie Gen-3 Alpha von Runway und Dream Machine von Luma AI mithalten. Mochi 1 ist unter der Apache 2.0-Lizenz verfügbar und bietet den Nutzern im …

Weiterlesen …

Pika 1.5: KI-Videos mit witzigen Effekten

Pika 1.5 ist die neueste Version eines KI-gestützten Videobearbeitungstools, entwickelt vom Startup Pika Labs aus Palo Alto, Kalifornien. Diese Plattform ermöglicht es Nutzern, statische Bilder in dynamische Videos umzuwandeln und dabei eine Reihe spezieller Effekte, sogenannte „Pikaffects“, anzuwenden. Zu den jüngsten Ergänzungen gehören Effekte wie „crumble“ (zerbröckeln), „dissolve“ (auflösen), „deflate“ (zusammenfallen) und „ta-da“ (verschwinden lassen). …

Weiterlesen …

Filmstudio Lionsgate kooperiert mit Video-KI Runway

Lionsgate, das Filmstudio hinter „The Hunger Games“ und „John Wick“, plant den Einsatz von generativer künstlicher Intelligenz in der Produktion neuer Filme und TV-Shows. Wie Jessica Toonkel fürs Wall Street Journal berichtet, hat das Unternehmen eine Vereinbarung mit dem KI-Startup Runway getroffen. Lionsgate gewährt Runway Zugang zu seiner Inhaltsbibliothek im Austausch für ein maßgeschneidertes KI-Modell. …

Weiterlesen …

Runways Video-KI jetzt mit API-Zugang

Runway macht sein schnelles Videogenerierungsmodell Gen-3 Alpha Turbo per API verfügbar. Dies ermöglicht Unternehmen, das KI-Modell in ihre eigenen Anwendungen zu integrieren. Wie Shubham Sharma berichtet, ist Runway damit eines der ersten Unternehmen, das Entwicklern Zugang zu einem proprietären KI-Videogenerierungsmodell gewährt. Die API wird schrittweise eingeführt und ist zunächst nur für ausgewählte Partner zugänglich. Sie …

Weiterlesen …

Wie gut ist Runway Gen-3?

Was kann die neue Video-KI Runway Gen-3 wirklich? Ein Reddit-Nutzer hat sich einen Jahreszugang gegönnt und ließ andere bestimmen, welche Prompts er ausprobieren sollte. Hier siehst du die Ergebnisse.

Neue KI-Modelle für Video: Luma Dream Machine und Runway Gen-3 Alpha

Luma AI, ein Startup aus San Francisco, hat mit „Dream Machine“ ein neues KI-System zur Videogenerierung vorgestellt. Im Gegensatz zu ähnlichen Systemen wie etwa von OpenAI („Sora“) ist Dream Machine ab sofort für alle kostenlos nutzbar. Nutzer können damit durch einfache Texteingaben 5-Sekunden-Videoclips erstellen. Die Qualität der Ergebnisse überzeugt allerdings nicht immer. Das Startup selbst listet die Schwächen von …

Weiterlesen …