Die Autorin, die es nicht gab: Anatomie eines Journalismus-Betrugs im ChatGPT-Zeitalter

Die Routine-Recherche eines Magazin-Redakteurs hat einen mutmaßlich weltweiten Betrugsfall aufgedeckt. Der Fall zeigt, wie künstliche Intelligenz das Fälschen journalistischer Arbeit erschreckend einfach gemacht hat. Nicholas Hune-Brown berichtet für The Local über seine Entdeckung einer Autorin namens Victoria Goldiee. Ihre Arbeiten enthielten erfundene Zitate, nicht existierende Quellen und vermutlich KI-generierte Inhalte. Vier große Publikationen haben ihre …

Weiterlesen …

KI-Wachstum: Warum Konzerne Milliarden in die Technologie investieren

Die Ausgaben von Unternehmen für generative KI sind im Jahr 2025 auf 37 Milliarden Dollar gestiegen. Damit ist die Technologie die am schnellsten wachsende Software-Kategorie in der Geschichte. Sie macht inzwischen 6% des globalen Software-Marktes aus. Das ist nur drei Jahre nach dem Start von ChatGPT. Tim Tully und Matt Murphy berichten für Menlo Ventures …

Weiterlesen …

Experte warnt: KI-Ablehnung wird zu unternehmerischem Risiko

Ein Experte warnt davor, die Fortschritte künstlicher Intelligenz als „Blase“ oder ihre Ergebnisse als „Schrott“ abzutun. Diese ablehnende Haltung sei eine gefährliche Form der Verleugnung. Sie verschleiere reale Fortschritte und lasse die Gesellschaft unvorbereitet. Louis Rosenberg, ein langjähriger KI-Forscher, schreibt bei VentureBeat, dass diese negative Sichtweise ein gesellschaftlicher Abwehrmechanismus sei. Er argumentiert, die Öffentlichkeit greife …

Weiterlesen …

Große Studie: 100 Billionen Token zeigen, wofür KI wirklich genutzt wird

Eine umfassende neue Studie des KI-Infrastrukturanbieters OpenRouter und der Risikokapitalfirma a16z bietet einen seltenen Einblick, wie Menschen große Sprachmodelle (LLMs) tatsächlich nutzen. Der Bericht mit dem Titel „State of AI“ analysiert über 100 Billionen Token anonymer Nutzerinteraktionen. Er zeigt, dass die reale KI-Nutzung vielfältiger und komplexer ist als oft angenommen und stellt gängige Narrative über …

Weiterlesen …

Upwork-Studie: KI-Agenten brauchen menschliche Partner für den Erfolg

Eine neue Studie des Online-Arbeitsmarktplatzes Upwork zeigt, dass KI-Agenten professionelle Aufgaben oft nicht eigenständig erledigen können. Ihre Leistung verbessert sich jedoch drastisch, wenn sie mit menschlichen Experten zusammenarbeiten. Dann steigt die Erfolgsquote bei Projekten um bis zu 70 Prozent. Michael Nuñez berichtet für VentureBeat, dass dies die erste umfassende Untersuchung zur Zusammenarbeit von Mensch und …

Weiterlesen …

Führende KI-Forscher uneins über die Definition eines „World Model“

In der KI werben führende Persönlichkeiten und Unternehmen wie Fei-Fei Li von World Labs, Yann LeCun von Meta und Google DeepMind für sogenannte „World Models“. Der Begriff beschreibt jedoch drei grundlegend verschiedene Technologien, was zunehmend für Verwirrung sorgt. Eine Analyse von Entropy Town erklärt, dass jede Gruppe etwas anderes unter einem Weltmodell versteht. Ursprünglich stammt …

Weiterlesen …

Studie: Hörer können KI-Musik kaum von menschlicher unterscheiden.

Eine überwältigende Mehrheit von 97 Prozent der Hörer kann Lieder von künstlicher Intelligenz nicht von menschlichen Kompositionen unterscheiden. Dies ist das Ergebnis einer Umfrage des Marktforschungsinstituts Ipsos im Auftrag der Musikstreaming-Plattform Deezer. Wie Jaspreet Singh für die Nachrichtenagentur Reuters berichtet, wurden dafür 9.000 Personen in acht Ländern befragt. Die Ergebnisse verdeutlichen wachsende ethische Bedenken in …

Weiterlesen …

Meinung: Sprachmodelle sind nützlich, aber nicht vertrauenswürdig

Große Sprachmodelle (LLMs) erzeugen Text auf Basis statistischer Muster und nicht auf Grundlage eines Verständnisses von Wahrheit. Das macht sie im Wesentlichen zu „Bullshittern“, denen Fakten gleichgültig sind. Dieses Merkmal ist ein Kern ihrer Funktionsweise, den Nutzer verstehen müssen, um sie sicher und effektiv einzusetzen. Diesen Standpunkt vertritt Matt Ranger, Leiter für maschinelles Lernen beim …

Weiterlesen …

Meinung: KI-Inhalte verantwortlich für „Vertrauenskollaps“

Die massive Zunahme von Inhalten, die durch künstliche Intelligenz erstellt werden, führt zu einem Vertrauenskollaps in der digitalen Kommunikation. Das schreibt der Autor Arnon Shimoni. Da die Kosten für die Erstellung von Inhalten fast bei null liegen, werden Postfächer und soziale Medien mit KI-generierten Nachrichten überschwemmt. Für Menschen sei es daher kaum noch möglich, echte …

Weiterlesen …