Sicherheitsforscher von SentinelOne’s SentinelLabs haben aufgedeckt, dass Spammer den Chatbot von OpenAI nutzten, um einzigartige Nachrichten zu erzeugen, die Spam-Filter auf mehr als 80.000 Websites umgehen konnten. Wie Dan Goodin für Ars Technica berichtet, blieb dieser Missbrauch mindestens vier Monate lang unbemerkt, bevor OpenAI das Konto der Spammer im Februar sperrte.
Die als AkiraBot bekannte Spam-Kampagne kombinierte Python-Skripte mit dem GPT-4o-mini-Modell von OpenAI, um personalisierte Nachrichten zu erstellen, die fragwürdige Suchmaschinenoptimierungsdienste an kleine und mittlere Websites bewarben. Jede Nachricht enthielt den Namen der Empfänger-Website und eine kurze Beschreibung ihrer Dienste, was sie legitim erscheinen ließ und half, Erkennungssysteme zu umgehen.
„AkiraBots Einsatz von LLM-generierten Spam-Inhalten zeigt die neuen Herausforderungen, die KI für den Schutz von Websites gegen Spam-Angriffe mit sich bringt“, erklärten die SentinelLabs-Forscher Alex Delamotte und Jim Walter in ihrem Bericht.
Die Spammer wiesen die KI mit der Anweisung „Du bist ein hilfreicher Assistent, der Marketing-Nachrichten erstellt“ an und programmierten sie so, dass websitespezifische Details automatisch eingefügt wurden. Logdateien zeigten, dass zwischen September 2024 und Januar 2025 erfolgreich Nachrichten an etwa 80.000 Websites zugestellt wurden, während nur etwa 11.000 Zustellversuche scheiterten.
OpenAI bestätigte, dass solche Aktivitäten gegen ihre Nutzungsbedingungen verstoßen und dankte den Forschern für ihre Entdeckung. Der Vorfall verdeutlicht die anhaltende Herausforderung, KI-Systeme vor Missbrauch für schädliche Zwecke zu schützen.