VideoGigaGAN verbessert Video-Skalierung

VideoGigaGAN übertrifft bisherige Verfahren, um Videos hochzuskalieren, und erzeugt Videos mit hoher Detailgenauigkeit und Konsistenz. Der Ansatz basiert auf dem Bild-Hochskalierer GigaGAN und behebt dessen Probleme bei der Videoverarbeitung durch spezielle Techniken, die zu schärferen und gleichzeitig flüssigeren Videos führen. Quelle: Hacker News

„Expressive Avatars“ noch lebensechter

Das Londoner Unternehmen Synthesia führt „Expressive Avatars“ ein, eine neue Generation von KI-Avataren, die ihre Mimik, Gestik und ihren Tonfall an den Kontext der gesprochenen Inhalte anpassen. Dies ermögliche es etwa, realistischere und emotionalere KI-Videos für Marketing, Schulungen oder Patientenkommunikation zu erstellen.

Microsofts VASA-1 erstellt Videos aus einem Foto plus Audio

Microsofts VASA-1 kann menschliche Porträts zum Singen und Sprechen bringen. Er benötigt lediglich ein Standbild und eine Audiodatei mit Sprache, um bewegte Lippen, passende Mimik sowie Kopfbewegungen zu generieren. Microsoft betont, dass es sich dabei um eine reine Forschungsdemonstration handelt, ohne Pläne zur Markteinführung. 

Adobe kündigt KI-Videofunktionen für Premiere Pro an

Adobe plant, seine Videobearbeitungssoftware Premiere Pro um Plug-ins für KI-Videogeneratoren von Drittanbietern wie OpenAIs Sora, Runway ML’s Gen-2 und Pika 1.0 zu erweitern. Das berichtet VentureBeat. Diese Integration würde es Nutzern ermöglichen, mit herkömmlichen Kameras aufgenommenes Material nahtlos mit KI-generiertem Content zu kombinieren und zu bearbeiten. Darüber hinaus kündigt Adobe eine Version seines eigenen KI-Bildgenerators …

Weiterlesen …

Google zeigt neue KI-Angebote für Unternehmen

Google präsentierte auf seiner jährlichen Cloud-Computing-Konferenz in Las Vegas eine Reihe von Updates für seine KI-Angebote im Unternehmensbereich. Trotz jüngster Pannen bei verbraucherorientierten Tools betonte das Unternehmen, dass die Technologie sicher und einsatzbereit für den Unternehmensbereich sei. Google Cloud CEO Thomas Kurian demonstrierte, wie das leistungsstärkste KI-Modell Gemini für Werbung, Cybersicherheit, Videos und Podcasts genutzt werden …

Weiterlesen …

Konsistente Charaktere in KI-Videos mit Eggnog

Eggnog ermöglicht KI-generierte Videos mit konsistenten Charakteren. Zuerst erstellt man die Person inklusive Outfits, dann im Storyboard die geplanten Szenen des Clips und erstellt das Video im letzten Schritt. Eggnog möchte zum „YouTube für KI-Videos“ werden. Quellen: TechCrunch, Y Combinator

Video-KI Pika ergänzt Ton

Pika bietet bereits eine „Lip Sync“-Funktion, bei der Personen in Videos das Sprechen lernen. Nun kommt eine Option hinzu, um einen generierten Clip zu vertonen, etwa mit Hintergrundgeräuschen und Effekten. Quelle: VentureBeat

Video-KI Story.com wirbt mit längeren Clips

Während viele KI-Videos bislang nur einige Sekunden lang sein können, sollen sie bei Story.com bis zu 1 Minute lang sein. Eine Storyboard-Funktion soll dabei helfen, dass die Clips am Ende den Ideen und Bedürfnissen der Nutzer:innen entsprechen.

EMO lässt Mona Lisa singen

EMO lässt Fotos sprechen und singen. Das Forschungsprojekt EMO aus China lässt ein Foto (oder eine Grafik oder ein Gemälde wie der Mona Lisa) sprechen und singen. Die Mimik ist durchaus beeindruckend, die Lippenbewegungen nicht immer. Leider gibt es keine Möglichkeit, EMO selbst auszuprobieren.