KI-Chatbots empfehlen Nutzern oft falsche Webseiten-Adressen für große Unternehmen und eröffnen Kriminellen damit neue Angriffsmöglichkeiten. Zu diesem Ergebnis kommt das IT-Sicherheitsunternehmen Netcraft in einer aktuellen Untersuchung. Über die Ergebnisse berichtete Iain Thomson für die Publikation The Register.
Die Forscher von Netcraft stellten GPT-4-Modellen Anfragen nach den Login-Seiten bekannter Marken aus den Bereichen Finanzen, Handel und Technologie. Der Chatbot lieferte nur in 66 Prozent der Fälle die korrekte URL. Fast ein Drittel der Links führte zu nicht registrierten oder inaktiven Domains. Fünf Prozent der Vorschläge waren zwar legitime, aber nicht die vom Nutzer gesuchten Seiten.
Rob Duncan, Leiter der Bedrohungsanalyse bei Netcraft, erläuterte das Missbrauchspotenzial. Kriminelle können die KI nach URLs fragen und die vorgeschlagenen, aber noch verfügbaren Domains kaufen, um darauf Phishing-Seiten einzurichten. Da die KI Wortzusammenhänge stärker gewichtet als die Vertrauenswürdigkeit einer Webseite, kann sie dazu gebracht werden, diese gefälschten Seiten zu empfehlen.
Cyberkriminelle passen ihre Taktiken bereits an und erstellen Inhalte, die gezielt große Sprachmodelle täuschen sollen. In einem Fall bauten Angreifer ein ganzes Netzwerk aus gefälschten GitHub-Einträgen, Anleitungen und Social-Media-Profilen auf. Damit brachten sie eine KI dazu, eine schädliche Programmierschnittstelle (API) für eine Blockchain als echt zu empfehlen und so Entwickler in die Falle zu locken.