Eine umfangreiche Untersuchung des Tow Center for Digital Journalism hat ergeben, dass KI-Suchtools häufig falsche Informationen liefern, Quellen nicht korrekt zitieren und oft URLs erfinden. Laut des in der Columbia Journalism Review veröffentlichten Berichts testeten die Forscher acht generative Suchmaschinen und stellten fest, dass diese bei mehr als 60 Prozent der Anfragen falsche Antworten lieferten.
Die Studie enthüllte mehrere besorgniserregende Muster bei allen getesteten Plattformen. Die meisten Chatbots präsentierten ungenaue Antworten mit alarmierender Selbstsicherheit und räumten selten Wissenslücken ein oder lehnten es ab, Antworten zu geben, wenn sie die korrekte Information nicht ermitteln konnten. Überraschenderweise wiesen Premium-Modelle wie Perplexity Pro (20 $/Monat) und Grok 3 (40 $/Monat) höhere Fehlerraten auf als ihre kostenlosen Gegenstücke, hauptsächlich weil sie dazu neigten, definitive, aber falsche Antworten zu geben, anstatt eine Antwort zu verweigern.
Ein weiteres beunruhigendes Ergebnis war, dass mehrere KI-Suchtools offenbar die Vorgaben des Robot Exclusion Protocols umgingen, das Publishern die Kontrolle darüber gibt, ob ihre Inhalte gecrawlt werden dürfen. Die Forscher fanden Fälle, in denen Chatbots korrekt Anfragen zu Publikationen beantworteten, auf deren Inhalte sie eigentlich keinen Zugriff haben sollten, was darauf hindeutet, dass sie die Präferenzen der Publisher möglicherweise missachteten.
Die Studie zeigte auch, dass Chatbots selbst bei korrekter Identifizierung von Artikeln oft nicht richtig auf die Originalquellen verlinkten. In vielen Fällen leiteten sie Nutzer zu syndizierten Versionen von Artikeln auf Plattformen wie Yahoo News oder AOL weiter, anstatt zu den ursprünglichen Publishern. Diese Praxis beraubt die Originalquellen der angemessenen Zuschreibung und potenzieller Besucherströme, was besonders problematisch ist, da Nachrichtenverlage auf diese Inhalte angewiesen sind, um ihre Arbeit zu monetarisieren.
Besonders überraschend war, dass Lizenzvereinbarungen zwischen KI-Unternehmen und Publishern nicht unbedingt zu genaueren Zitierungen führten. Während das Time-Magazin, das Verträge mit OpenAI und Perplexity hat, zu den am genauesten identifizierten Publishern im Datensatz gehörte, wurde die San Francisco Chronicle, die den OpenAI-Suchcrawler zulässt und Teil der „strategischen Content-Partnerschaft“ von Hearst mit dem Unternehmen ist, von ChatGPT nur in einem von zehn Testfällen korrekt identifiziert.
Auf Anfrage reagierten OpenAI und Microsoft, gingen jedoch nicht auf die spezifischen Ergebnisse ein. OpenAI erklärte, sie unterstützten „Publisher und Autoren, indem sie 400 Millionen wöchentlichen ChatGPT-Nutzern helfen, qualitativ hochwertige Inhalte durch Zusammenfassungen, Zitate, Links und Quellenangaben zu entdecken“, während Microsoft bestätigte, dass sie „den robots.txt-Standard respektieren und die Anweisungen von Websites befolgen.“
Mark Howard, COO von Time, äußerte sich trotz der aktuellen Probleme optimistisch über künftige Verbesserungen und erklärte, dass „es einfach immer besser werden wird“. Er warnte jedoch, dass Verbraucher nicht erwarten sollten, dass diese kostenlosen Produkte zu 100 Prozent genau sind.
Da diese Tools weiter an Popularität gewinnen – fast jeder vierte Amerikaner nutzt inzwischen KI anstelle traditioneller Suchmaschinen – wird die Behebung dieser Zitierprobleme immer dringlicher, um eine genaue Informationsverbreitung und faire Zuschreibung für Inhaltsersteller zu gewährleisten.