Konsistente Charaktere in KI-Videos mit Eggnog

Eggnog ermöglicht KI-generierte Videos mit konsistenten Charakteren. Zuerst erstellt man die Person inklusive Outfits, dann im Storyboard die geplanten Szenen des Clips und erstellt das Video im letzten Schritt. Eggnog möchte zum „YouTube für KI-Videos“ werden. Quellen: TechCrunch, Y Combinator

Video-KI Pika ergänzt Ton

Pika bietet bereits eine „Lip Sync“-Funktion, bei der Personen in Videos das Sprechen lernen. Nun kommt eine Option hinzu, um einen generierten Clip zu vertonen, etwa mit Hintergrundgeräuschen und Effekten. Quelle: VentureBeat

Video-KI Story.com wirbt mit längeren Clips

Während viele KI-Videos bislang nur einige Sekunden lang sein können, sollen sie bei Story.com bis zu 1 Minute lang sein. Eine Storyboard-Funktion soll dabei helfen, dass die Clips am Ende den Ideen und Bedürfnissen der Nutzer:innen entsprechen.

EMO lässt Mona Lisa singen

EMO lässt Fotos sprechen und singen. Das Forschungsprojekt EMO aus China lässt ein Foto (oder eine Grafik oder ein Gemälde wie der Mona Lisa) sprechen und singen. Die Mimik ist durchaus beeindruckend, die Lippenbewegungen nicht immer. Leider gibt es keine Möglichkeit, EMO selbst auszuprobieren.

Pika Lip-Sync

KI-Videogenerator Pika zeigt Sprachfunktion. Mit dem neuen „Lip Sync“-Feature lässt du Personen in deinen KI-Videos sprechen. Die Stimme wird entweder vorher aufgenommen oder mit der KI von Elevenlabs von einem Text erstellt. Die Funktion gibt es derzeit nur für zahlende „Pro“-Nutzer. Mehr dazu bei VentureBeat. 

OpenAI Sora: KI-Videos in neuer Qualität

OpenAI hat mit einer Vorschau auf die Video-KI „Sora“ für viel Aufsehen und Aufregung gesorgt. Die Beispiele auf der offiziellen Website sind tatsächlich beeindruckend. Ohne eigene Tests lässt sich bislang allerdings nicht sinnvoll einschätzen, wie gut Sora im Alltag funktioniert und wofür die Videoclips nutzbar sind. Es ist nicht bekannt, ab wann Sora für alle … Weiterlesen …