Die Wikimedia Foundation begegnet dem Aufstieg der künstlichen Intelligenz mit einem zweigleisigen Ansatz. Sie hat eine Risikobewertung zu den Auswirkungen von KI veröffentlicht, während ein neues Projekt ihre Daten für KI-Entwickler besser nutzbar macht.
Bewertung potenzieller Risiken
Die Foundation veröffentlichte eine Folgenabschätzung zu Menschenrechten (HRIA), um zu analysieren, wie KI Projekte wie Wikipedia beeinflussen könnte. Der Bericht von Taraaz Research identifiziert potenzielle zukünftige Risiken, nicht bereits eingetretene Schäden. Laut der Analyse umfassen die Risiken:
- Interne KI-Tools könnten bestehende Voreingenommenheit in der Wissensdarstellung verstärken.
- Externe generative KI könnte Desinformation in großem Stil oder Angriffe auf Freiwillige ermöglichen.
- Die Nutzung von Wikipedia-Inhalten zum Training von Large Language Models könnte zu verzerrten oder ungenauen KI-Ergebnissen führen.
Die Foundation erklärte, dass sie die Ergebnisse mit ihren Communitys aus Freiwilligen diskutieren wird, um Richtlinien zur Minderung dieser Risiken zu entwickeln.
Datenbereitstellung für KI
Unabhängig davon startete Wikimedia Deutschland das „Wikidata Embedding Project“ in Zusammenarbeit mit Jina.AI und DataStax. Dieses Projekt strukturiert die Daten von Wikipedia neu, um sie für KI-Systeme leichter zugänglich zu machen, insbesondere für Retrieval-Augmented Generation (RAG). Durch den Einsatz einer vektorbasierten Suche hilft es KI-Modellen, die Bedeutung und den Kontext von Informationen zu verstehen. KI-Entwickler erhalten damit eine verlässliche, faktenorientierte Datenquelle, um ihre Modelle zu fundieren und deren Genauigkeit zu verbessern.
Quellen: Wikimedia Foundation, TechCrunch