LiAnna Davis berichtet für Wiki Education in einem ausführlichen Blogbeitrag über ein besorgniserregendes Muster. Die Organisation hat nach der Analyse von Tausenden Artikeln aus ihren Programmen festgestellt, dass mehr als zwei Drittel der KI-markierten Artikel die Quellenprüfung nicht bestehen. Die zitierten Informationen existieren demnach in den angegebenen Quellen gar nicht.
Wiki Education betreut rund 19 Prozent aller neuen aktiven Autoren auf der englischen Wikipedia. Die Organisation hat 3.078 neue Artikel analysiert, die seit 2022 erstellt wurden. Dafür nutzte sie das KI-Erkennungstool Pangram. Das Tool markierte 178 Artikel als potenziell KI-generiert. Vor dem Start von ChatGPT Ende 2022 gab es keinen einzigen solchen Fall.
Die Ergebnisse widersprechen gängigen Annahmen über KI-generierte Inhalte. Nur sieben Prozent der markierten Artikel enthielten Zitate zu komplett erfundenen Quellen. Das weitaus größere Problem waren plausibel klingende Sätze mit echten, relevanten Quellen, die die behaupteten Informationen schlicht nicht enthielten.
„Bei den meisten Artikeln, die Pangram als KI-geschrieben markierte, bestand fast jeder zitierte Satz die Quellenprüfung nicht“, schreibt Davis. Die Bereinigung kostete deutlich mehr Zeit als die ursprüngliche Artikelerstellung wahrscheinlich benötigt hatte.
Als Reaktion führte Wiki Education in der zweiten Hälfte von 2025 eine Echtzeit-Überwachung der Teilnehmer-Bearbeitungen ein. Die Organisation erstellte neue Schulungsmodule, die deutlich machen, wo generative KI-Tools helfen können und wo nicht. Die Kernbotschaft blieb klar: Kopiere nichts aus KI-Chatbots in Wikipedia.
Die Maßnahme erwies sich als wirksam. Trendlinien legten nahe, dass 25 Prozent der Teilnehmer KI-Inhalte zu Wikipedia-Artikeln hinzufügen würden. Tatsächlich waren es nur fünf Prozent. Das Personal konnte alle problematischen Inhalte erfolgreich rückgängig machen.
Die Untersuchung identifizierte auch nützliche Einsatzmöglichkeiten für KI-Tools. Studenten berichteten, dass generative KI beim Identifizieren von Artikellücken, beim Auffinden verlässlicher Quellen, bei der Grammatikprüfung und beim Bewerten von Entwürfen half. Entscheidend ist, dass 87 Prozent der befragten Nutzer KI für Rechercheaufgaben hilfreich fanden, wenn sie die Ergebnisse kritisch prüften.
Wiki Education betreute im Herbst 2025 insgesamt 6.357 neue Autoren. Nur 217 davon zeigten mehrere KI-Warnungen. Die Organisation bearbeitete insgesamt 1.406 KI-Bearbeitungswarnungen. Nur 314 davon erschienen in veröffentlichten Wikipedia-Artikeln.
Davis betont, dass die Forschung eine geringere KI-Kompetenz bei den Teilnehmern zeigt als der öffentliche Diskurs vermuten lässt. Viele Teilnehmer begrüßten klare Richtlinien zur angemessenen KI-Nutzung. Die Organisation erstellte ergänzende Schulungsmodule, um diese Wissenslücken zu schließen.
Forscher der Princeton University, der University of Mississippi und von Wiki Education untersuchen weiterhin die langfristigen Auswirkungen generativer KI auf Wikipedia-Beiträge. Vorläufige Ergebnisse stützen die Erkenntnisse der Organisation und bestätigen die Genauigkeit von Pangram bei der Erkennung KI-generierter Inhalte.
Davis kommt zu dem Schluss, dass KI-Tools zwar den Rechercheprozess unterstützen können, aber niemals den finalen Text für Wikipedia generieren sollten. Die Organisation bleibt dem Monitoring und der Anpassung ihrer Strategien verpflichtet, während sich die generative KI-Technologie weiterentwickelt.
