Wikimedia bewertet KI-Risiken und macht seine Daten für Modelle zugänglich

Die Wikimedia Foundation begegnet dem Aufstieg der künstlichen Intelligenz mit einem zweigleisigen Ansatz. Sie hat eine Risikobewertung zu den Auswirkungen von KI veröffentlicht, während ein neues Projekt ihre Daten für KI-Entwickler besser nutzbar macht. Bewertung potenzieller Risiken Die Foundation veröffentlichte eine Folgenabschätzung zu Menschenrechten (HRIA), um zu analysieren, wie KI Projekte wie Wikipedia beeinflussen könnte. …

Weiterlesen …

Wikipedia stoppt KI-Experiment nach Protesten der Autoren

Die Wikimedia Foundation hat ihren Versuch mit KI-generierten Artikelzusammenfassungen nach heftigen Protesten der Wikipedia-Autoren gestoppt. Das Experiment hätte zwei Wochen lang maschinell erstellte Zusammenfassungen oben auf Artikelseiten der mobilen Version gezeigt. Emanuel Maiberg berichtet für 404 Media, dass Redakteure das Vorhaben als „sehr schlechte Idee“ bezeichneten. Sie warnten vor „sofortigem und irreversiblem Schaden“ für Wikipedias …

Weiterlesen …

Wikimedia setzt bei neuer KI-Strategie für Wikipedia weiterhin auf Menschen

Die Wikimedia Foundation hat eine neue Strategie für künstliche Intelligenz vorgestellt, die die zentrale Rolle menschlicher Freiwilliger im Wikipedia-Ökosystem betont. Chris Albon und Leila Zia erklären in einem Post, dass die Organisation KI einsetzen will, um die Arbeit der Wikipedia-Editoren zu unterstützen, nicht zu ersetzen. In ihrem Beitrag betonen Albon und Zia, dass die Gemeinschaft …

Weiterlesen …