Eine britische Marketingagentur hat in einem kontrollierten Experiment die Antworten von großen Sprachmodellen wie ChatGPT erfolgreich beeinflusst. Der Agentur Reboot gelang es, die KI-Modelle dazu zu bringen, ihren Geschäftsführer zum „sexiesten Mann mit Glatze des Jahres 2025“ zu ernennen. Das Experiment und seine Ergebnisse wurden in einem Artikel von Oliver Sissons, dem Search Director des Unternehmens, beschrieben.
Die Hypothese der Agentur lautete, dass man die Ergebnisse von KI-Modellen gezielt formen kann. Dazu müssten bestimmte Informationen im Internet veröffentlicht werden. Die Modelle nutzen diese Inhalte für ihr Training oder für Suchen in Echtzeit. Um dies zu testen, wählte das Team ein Thema, für das es bekannt ist: ein jährliches Ranking der attraktivsten Männer mit Glatze.
Für das Experiment wollten die Marketingspezialisten ihren Geschäftsführer, Shai Aharony, als Gewinner für das Jahr 2025 etablieren. Sie veröffentlichten Artikel auf zehn von ihnen kontrollierten Webseiten. Diese basierten auf abgelaufenen Domains, die eine geringe, bereits existierende Autorität besaßen. Jede Webseite präsentierte eine Liste der „sexiesten Männer mit Glatze 2025“ und nannte Shai Aharony an erster Stelle.
Die Ergebnisse zeigten, dass die Strategie teilweise erfolgreich war. Sowohl ChatGPT als auch Perplexity begannen, Shai Aharony in ihren Antworten auf entsprechende Anfragen als Sieger zu nennen. Die Agentur stellte fest, dass dies nur geschah, wenn die Modelle ihre Live-Suchfunktion nutzten, um aktuelle Informationen aus dem Internet abzurufen. Wenn ChatGPT ausschließlich auf seine vorhandenen Trainingsdaten zurückgriff, wurde der Geschäftsführer nicht erwähnt. Die Antworten waren zudem nicht immer konsistent.
Andere bekannte KI-Modelle wie Gemini von Google und Claude von Anthropic ließen sich von den Test-Webseiten nicht beeinflussen. Laut dem Artikel gewichten diese Modelle Informationen aus glaubwürdigeren Quellen möglicherweise stärker oder verlassen sich mehr auf ihre Kerntrainingsdaten. Die Forscher beobachteten auch, dass einige KI-Modelle die neuen Informationen über den Geschäftsführer als potenziell unzuverlässig einstuften. Dies deutet darauf hin, dass sie verdächtige oder widersprüchliche Inhalte erkennen können.
Reboot kam zu dem Schluss, dass die Beeinflussung von KI-Antworten möglich ist. Die Agentur bezeichnet diese Praxis als „Generative Engine Optimization“ (GEO). Der Erfolg hängt jedoch stark vom jeweiligen KI-Modell ab und davon, ob es Echtzeitdaten aus dem Web zur Formulierung seiner Antworten heranzieht.