Meta hat eine neue eigenständige Meta AI App veröffentlicht, die auf der Llama 4 Modellfamilie basiert. Die App bietet personalisierte KI-Interaktionen durch Sprach- und Textgespräche, Bildgenerierung und Websuche. Verfügbar für iOS und Android in ausgewählten Ländern, steht die App für Metas Vision, KI persönlicher zu gestalten und stärker in den Alltag zu integrieren.
Ein besonderes Merkmal ist der „Discover“-Feed der App, der KI-Interaktionen eine soziale Dimension verleihen soll. Nutzer können hier sehen, wie andere Personen Meta AI verwenden, einschließlich ihrer Facebook- und Instagram-Freunde. Sie können diese geteilten Prompts und Kreationen dem liken, kommentieren, teilen oder remixen. Diese soziale Komponente soll praktische Anwendungen von KI demonstrieren und zu neuen Ideen inspirieren.
Meta AI legt Wert auf Personalisierung, indem es Nutzerpräferenzen und Interessen speichert. Das System greift auf Informationen zurück, die Nutzer bereits auf Meta-Plattformen geteilt haben, um relevantere Antworten zu liefern. Eine tiefere Personalisierung ist für diejenigen verfügbar, die ihre Facebook- und Instagram-Konten über das Meta Accounts Center verknüpfen. Diese personalisierten Funktionen sind derzeit auf Nutzer in den USA und Kanada beschränkt.
Sprachinteraktion steht im Mittelpunkt des App-Designs. Meta bietet einen experimentellen „Full-Duplex“-Sprachmodus an, der natürlichere Gespräche ermöglichen soll, bei denen die KI direkt Sprache generiert, anstatt geschriebene Antworten vorzulesen. Standard-Sprachfunktionen sind in den USA, Kanada, Australien und Neuseeland verfügbar.
Die App integriert sich zudem mit Ray-Ban Meta Smart-Brillen und ersetzt die frühere Meta View Begleit-App. Durch diese Integration können Nutzer Gespräche auf ihrer Brille beginnen und in der App oder im Web fortsetzen, wobei Gespräche noch nicht in der App initiiert und auf der Brille fortgesetzt werden können.