KI-Channels verdienen Millionen mit minderwertigen Videos auf YouTube

Mehr als 20% der Videos, die neue YouTube-Nutzer empfohlen bekommen, bestehen aus minderwertigen KI-generierten Inhalten. Diese Inhalte dienen ausschließlich dazu, Aufrufe und Werbeeinnahmen zu generieren. Das Video-Editing-Unternehmen Kapwing hat 15.000 der weltweit beliebtesten YouTube-Channels untersucht, berichtet Aisha Down für The Guardian. Dabei identifizierten die Forscher 278 Channels mit ausschließlich „AI slop“. Diese Channels haben zusammen …

Weiterlesen …

Meinung: Die Kluft zwischen KI-Enthusiasten und Skeptikern wird 2026 größer

Die KI-Enthusiasten im Silicon Valley sind frustriert über öffentliche Skepsis. Dabei übersehen sie möglicherweise den eigentlichen Punkt. Während Branchenkenner scheinbar wundersame Fortschritte feiern, betrachten viele Menschen KI-Entwicklungen mit Sorge oder Gleichgültigkeit. Sharon Goldman berichtet für Fortune über diese grundlegende Diskrepanz. Was KI-Entwickler als aufregende Fülle präsentieren, wirkt auf andere bedrohlich. Die Begeisterung eines OpenAI-Forschers über …

Weiterlesen …

39C3 Talk: Wie Wikipedia gegen KI-generierte Artikel kämpft

Mathias Schindler, langjähriger Wikipedia-Autor und Mitgründer von Wikimedia Deutschland, berichtet auf der 39C3-Konferenz in Hamburg von einer beunruhigenden Entdeckung. Bei der Entwicklung eines Tools zur Überprüfung von ISBN-Prüfsummen in der deutschsprachigen Wikipedia stieß er auf ein erhebliches Problem: Artikel mit komplett erfundenen Literaturangaben, die von großen Sprachmodellen erzeugt wurden. Das Problem trat zutage, als Schindler …

Weiterlesen …

Wahrheitsdroge für AI: Logik und Selbstauskunft gegen Halluzinationen

Zwei große Tech-Unternehmen gehen eines der hartnäckigsten Probleme künstlicher Intelligenz an: AI-Systeme davon abzuhalten, Dinge zu erfinden oder ihre Fehler zu verbergen. OpenAI und Amazon haben jeweils eigene Ansätze entwickelt, um Large Language Models ehrlicher und zuverlässiger zu machen. OpenAIs Wahrheitsserum OpenAI-Forscher haben eine Technik namens „confessions“ eingeführt, die wie ein Wahrheitsserum für AI-Modelle funktioniert. …

Weiterlesen …

Hollywood-Kreative gründen Koalition für verantwortungsvollen KI-Einsatz

Hollywood-Profis haben die Creators Coalition on AI (CCAI) gegründet. Die Initiative bringt mehr als 500 Schauspieler, Filmemacher, Autoren und Crew-Mitglieder zusammen, um ethische Richtlinien für den Einsatz von künstlicher Intelligenz in der Unterhaltungsbranche zu etablieren. Die Koalition reagiert auf unkontrollierten KI-Einsatz in der Industrie. Zu den 18 Gründungsmitgliedern gehören die Oscar-Gewinner Daniel Kwan, Jonathan Wang …

Weiterlesen …

RSL 1.0 wird offizieller Standard für KI-Content-Lizenzierung

Ein neuer offener Standard soll Verlagen Kontrolle darüber geben, wie Künstliche Intelligenz ihre Inhalte nutzt. Really Simple Licensing 1.0 ermöglicht Websites, maschinenlesbare Lizenz- und Vergütungsregeln für KI-Systeme festzulegen. Das RSL Collective entwickelte den Standard mit Unterstützung großer Internetunternehmen. Mehr als 1.500 Organisationen unterstützen ihn mittlerweile, darunter The Associated Press, Vox Media, Stack Overflow und The …

Weiterlesen …

Experte warnt: KI-Ablehnung wird zu unternehmerischem Risiko

Ein Experte warnt davor, die Fortschritte künstlicher Intelligenz als „Blase“ oder ihre Ergebnisse als „Schrott“ abzutun. Diese ablehnende Haltung sei eine gefährliche Form der Verleugnung. Sie verschleiere reale Fortschritte und lasse die Gesellschaft unvorbereitet. Louis Rosenberg, ein langjähriger KI-Forscher, schreibt bei VentureBeat, dass diese negative Sichtweise ein gesellschaftlicher Abwehrmechanismus sei. Er argumentiert, die Öffentlichkeit greife …

Weiterlesen …

Meinung: Sprachmodelle sind nützlich, aber nicht vertrauenswürdig

Große Sprachmodelle (LLMs) erzeugen Text auf Basis statistischer Muster und nicht auf Grundlage eines Verständnisses von Wahrheit. Das macht sie im Wesentlichen zu „Bullshittern“, denen Fakten gleichgültig sind. Dieses Merkmal ist ein Kern ihrer Funktionsweise, den Nutzer verstehen müssen, um sie sicher und effektiv einzusetzen. Diesen Standpunkt vertritt Matt Ranger, Leiter für maschinelles Lernen beim …

Weiterlesen …

Meinung: KI-Inhalte verantwortlich für „Vertrauenskollaps“

Die massive Zunahme von Inhalten, die durch künstliche Intelligenz erstellt werden, führt zu einem Vertrauenskollaps in der digitalen Kommunikation. Das schreibt der Autor Arnon Shimoni. Da die Kosten für die Erstellung von Inhalten fast bei null liegen, werden Postfächer und soziale Medien mit KI-generierten Nachrichten überschwemmt. Für Menschen sei es daher kaum noch möglich, echte …

Weiterlesen …

Kagi Search startet Community-Initiative gegen KI-„Slop“

Der Suchmaschinenanbieter Kagi hat eine neue Funktion namens SlopStop eingeführt, die minderwertige, KI-generierte Inhalte bekämpfen soll. Das System ermöglicht es Nutzern, sogenannten „AI Slop“ in den Suchergebnissen für Webseiten, Bilder und Videos zu melden. Das Unternehmen berichtet in seinem Firmenblog, dass es KI-Slop als irreführende oder minderwertige Inhalte definiert, die zur Manipulation von Suchergebnissen erstellt …

Weiterlesen …