Die neue KI-Chatbot-App von Meta sammelt umfangreiche Nutzerdaten und gefährdet möglicherweise die Privatsphäre, berichtet Washington-Post-Kolumnist Geoffrey A. Fowler. Die App, die auf Platz zwei der kostenlosen iPhone-Downloads kletterte, verknüpft sich mit Facebook- und Instagram-Konten und greift so auf jahrelang gesammelte persönliche Informationen zu.
Im Gegensatz zu Konkurrenten wie ChatGPT und Google Gemini speichert Meta AI standardmäßig alle Unterhaltungen. Die App erstellt eine „Memory-Datei“, die auch sensible Themen enthalten kann. Fowlers Tests zeigten, dass die App Interessen zu Themen wie Fruchtbarkeitstechniken, Scheidung und Steuerhinterziehung aufzeichnete, die später nur schwer vollständig zu löschen waren.
Die App bietet begrenzte Datenschutzeinstellungen ohne Option, die Datensammlung vor Gesprächen zu verhindern. Nutzer müssen ihre Chatverläufe und Memory-Dateien nachträglich manuell löschen, wobei Meta warnt, dass die Informationen nicht vollständig entfernt werden.
Meta-Sprecher Thomas Richards verteidigte die App und betonte, sie biete „durchgängige Transparenz und Kontrolle“ bei wertvoller Personalisierung. Datenschutzexperten äußern jedoch Bedenken zu diesen Praktiken.
Alle Gespräche mit Meta AI werden zudem zum Training der KI-Systeme des Unternehmens verwendet, ohne Möglichkeit zum Opt-out. Zusätzlich hat Zuckerberg Pläne angedeutet, den Dienst künftig mit Produktempfehlungen und Werbung zu monetarisieren.
Datenschützer empfehlen, Meta AI nur für „oberflächliche, spaßige Anfragen“ zu nutzen und keine persönlichen Informationen zu teilen, die nicht öffentlich bekannt werden sollten.