Quiet-STaR hilft Sprachmodellen beim Denken

Forscher der Stanford University und von Notbad AI wollen Sprachmodellen beibringen, vor dem Antworten auf Prompts nachzudenken. Durch ihr „Quiet-STaR“ genanntes Modell konnten sie die Fähigkeiten der getesteten Sprachmodelle im Bereich logisches Denken verbessern.

Google VLOGGER animiert Menschen von nur einem Foto

Google-Forscher zeigen VLOGGER, das aus einem einzigen Foto lebensechte Videos von Menschen erstellen kann, die sprechen, gestikulieren und sich bewegen. Das eröffnet eine Reihe potenzieller Anwendungen, wirft aber auch Bedenken hinsichtlich Fälschungen und Fehlinformationen auf. Quelle: VentureBeat

EMO lässt Mona Lisa singen

EMO lässt Fotos sprechen und singen. Das Forschungsprojekt EMO aus China lässt ein Foto (oder eine Grafik oder ein Gemälde wie der Mona Lisa) sprechen und singen. Die Mimik ist durchaus beeindruckend, die Lippenbewegungen nicht immer. Leider gibt es keine Möglichkeit, EMO selbst auszuprobieren.