Eine neue Schwachstelle im KI-Chatbot Google Gemini erlaubt es Angreifern, falsche Langzeiterinnerungen im System zu speichern. Der Sicherheitsforscher Johann Rehberger entdeckte diese Lücke, die auf der Technik der verzögerten Werkzeugnutzung basiert, berichtet Ars Technica. Der Angriff funktioniert über versteckte Anweisungen in Dokumenten, die Nutzer von Gemini zusammenfassen lassen. Bei bestimmten Trigger-Worten speichert der Chatbot dann unerlaubte Informationen im Langzeitgedächtnis. Google stuft das Risiko als gering ein. Die Schwachstelle zeigt jedoch grundlegende Probleme beim Schutz von KI-Systemen vor indirekten Prompt-Injection-Angriffen. Falsche Informationen könnten so dauerhaft im System verbleiben.