Eine verblüffend simple Methode kann die Genauigkeit von KI-Antworten massiv verbessern: Forscher bei Google haben herausgefunden, dass das zweimalige Stellen derselben Frage in einem Prompt die Trefferquote bei bestimmten Aufgaben um bis zu 76 Prozent steigert.
Carl Franzen berichtet für VentureBeat, dass diese Erkenntnis Jahre immer komplexerer Optimierungsmethoden infrage stellt.
Die Technik funktioniert aufgrund der Art, wie KI-Modelle Sprache verarbeiten. Diese Systeme lesen Text von links nach rechts. Das bedeutet, sie können nicht vorausschauen auf Wörter, die sie noch nicht verarbeitet haben. Wenn ein Modell das fünfte Wort in einem Satz liest, kennt es das sechste Wort noch nicht.
Das erzeugt einen blinden Fleck. Wenn das Modell eine lange Frage zu Ende gelesen hat, kann es wichtige Details vom Anfang bereits vergessen haben. Durch die Wiederholung des Prompts erhält das Modell einen zweiten Durchgang. Dabei kann es die gesamte Frage auf einmal erfassen und spezifische Informationen präziser abrufen.
Die Google-Forscher Yaniv Leviathan, Matan Kalman und Yossi Matias haben den Ansatz an sieben verschiedenen KI-Modellen getestet. Dazu gehörten GPT-4o, Claude und Gemini. Sie bewerteten die Leistung anhand von sieben Standardtests mit verschiedenen Frage- und Problemtypen.
Die Ergebnisse waren eindeutig: Prompt Repetition gewann 47 von 70 direkten Vergleichen gegen einfache Prompts. Es gab keine einzige Niederlage. Die Technik funktionierte bei allen getesteten großen KI-Systemen.
Besonders deutlich war die Verbesserung bei Aufgaben, die präzises Abrufen von Informationen aus dem Prompt erfordern. Die Forscher erstellten einen Test, bei dem Modelle eine Liste mit 50 Namen erhielten und den 25. Namen identifizieren sollten. Das Modell Gemini 2.0 Flash Lite erreichte mit einem einzelnen Prompt nur 21 Prozent Genauigkeit. Mit Wiederholung stieg die Trefferquote auf 97 Prozent.
Ein wichtiger Vorteil der Methode ist, dass sie Antworten nicht verlangsamt. Die KI-Verarbeitung läuft in zwei Phasen ab: Zuerst liest und verarbeitet das Modell den Prompt parallel. Das geht schnell. Dann generiert es die Antwort Wort für Wort. Das dauert länger. Die Wiederholung des Prompts verdoppelt nur die Arbeit in der schnellen Phase. Nutzer bemerken daher kaum einen Unterschied in der Antwortzeit.
Die Technik hat Grenzen: Sie funktioniert am besten bei direkten Fragen, die kein komplexes Denken erfordern. Als die Forscher Prompt Repetition mit Chain of Thought Prompting testeten, verschwanden die Vorteile weitgehend. Dabei zeigen Modelle ihr schrittweises Denken. Die Autoren vermuten, dass denkende Modelle Fragen intern bereits selbst wiederholen.
Für Unternehmen bietet die Erkenntnis praktischen Nutzen. Kleinere, schnellere Modelle können mit Prompt Repetition manchmal die Genauigkeit größerer, teurerer Modelle erreichen. Das könnte Firmen erlauben, Kosten zu senken und trotzdem die Leistung zu halten.
Die Forscher schlagen vor, dass künftige KI-Systeme Prompts automatisch im Hintergrund wiederholen könnten. Bis dahin kann es sich für jeden lohnen, dieselbe Frage zweimal in einem Prompt zu stellen.
