KI-Erkennungstools können einige künstlich generierte Inhalte aufspüren, sind aber nicht zuverlässig genug für eindeutige Urteile. Stuart A. Thompson berichtet für die New York Times über mehr als 1.000 Tests mit über einem Dutzend solcher Tools. Die Ergebnisse zeigen deutliche Schwächen.
Die Tools suchen nach versteckten Wasserzeichen, Kompositionsfehlern und anderen digitalen Hinweisen. Bei einfachen KI-Fälschungen, etwa Bildern aus simplen Texteingaben, schnitten die meisten Tools gut ab. Bei komplexeren Bildern oder Inhalten, die echtes Material mit KI-generierten Elementen verbinden, versagten viele.
Besonders schwach ist die Erkennung von Videos. Nur wenige Tools können überhaupt Videos analysieren, mit wechselhaften Ergebnissen. Besser sieht es bei Audio aus. Tools von Unternehmen wie Sensity und Resemble.ai erkannten gefälschte Stimmen zuverlässig, selbst in stark bearbeiteten Clips.
Ein zentrales Problem sind falsche Einschätzungen in beide Richtungen. Die meisten Tools übersahen subtile KI-Bearbeitungen an echten Fotos, etwa eingefügten Rauch oder veränderte Hintergründe. Gleichzeitig stuften manche Tools echte Bilder fälschlicherweise als KI-generiert ein. Das kann bei aktuellen Nachrichtenereignissen ernste Folgen haben.
Mike Perkins, Professor an der British University Vietnam, beschreibt die Lage als „Wettrüsten.“ Je besser KI-Generatoren werden, desto schwerer haben es die Erkennungstools.
