ChatGPTs „Gedächtnis“ wirft Fragen zu Privatsphäre und Kontrolle auf

ChatGPT hat seit April ein erweiterte Gedächtnisfunktion, die vergangene Gespräche nutzt, um personalisierte Antworten zu liefern, was allerdings unerwarteten Folgen für die Nutzer haben kann. Simon Willison beschreibt in einem Blogbeitrag, wie dieses Feature automatisch eine umfassende Sammlung von Nutzerinteraktionen anlegt, die ohne klare Kontrollmöglichkeiten alle zukünftigen Gespräche beeinflusst.

Die Funktion ist nur für Plus- und Pro-Abonnenten verfügbar und zeigte ihre Auswirkungen, als ChatGPT unerwartet ein „Half Moon Bay“-Schild in ein generiertes Bild einfügte. Dieser Ortsbezug stammte aus früheren Gesprächen von Willison, die mit dem aktuellen Thema allerdings überhaupt nichts zu tun hatten.

Willison ist ein erfahrener LLM-Nutzer und kritisiert, dass das System seine Fähigkeit untergräbt, den Kontext in Prompts sorgfältig zu steuern. Auch die Privatsphäre ist gefährdet: ChatGPT erstellt detaillierte Zusammenfassungen früherer Gespräche und integriert diese in neue Chats, wodurch ein umfassendes Profil von Nutzerinteressen, Standorten und Verhaltensweisen entsteht. Mit einem speziellen Prompt konnte Willison die umfangreichen Metadaten aufdecken, die ChatGPT speichert. Darunter finden sich Standort, Geräteinformationen, Gesprächsmuster und Themeninteressen.

Nutzer können die Funktion in den Einstellungen deaktivieren oder bestimmte Gespräche archivieren. Willison schlägt jedoch vor, stattdessen projektbezogene Speicherfunktionen einzuführen, die kontextbezogene Erinnerungen nur innerhalb relevanter Gesprächsgruppen ermöglichen würden.

Die Technologie basiert offenbar auf einer Erweiterung des System-Prompts und nicht auf dem RAG-Verfahren (Retrieval-Augmented Generation), wie Willison zunächst vermutet hatte.

Mehr zum Thema:

Bleib up-to-date: