Achtung: KI-Detektoren sind „weder genau noch zuverlässig“

Es gibt zahlreiche Dienste, die damit werben, dass sie KI-Texte mit „99% Genauigkeit“ erkennen können – ohne die Nachweise dafür öffentlich zu machen. Zugleich gibt es Dienste, die damit werben, dass sie KI-Texte so anpassen, dass sie angeblich kein Detektor erkennen kann.

Beides zugleich kann nicht stimmen.

Zugegeben: Einen unveränderten Text von GPT 3.5 würde ich oftmals erkennen – ganz ohne Tool. Bestimmte Ausdrucksweisen wiederholen sich. Der Aufbau ist immer ähnlich. Ich habe hier und da Artikel im Netz gesehen, bei denen ich mir „99%“ sicher war: Das ist 1:1 von dieser (inzwischen überholten) KI übernommen.

Aber wir sprechen heute nicht mehr viel über GTP 3.5. Ein Werkzeug wie etwa Claude 3 Opus hat auch auf Deutsch einen sehr guten, verblüffend menschlichen Schreibstil. 

Deshalb kommt es zu dem, was Gizmodo in einem lesenswerten Artikel beschreibtKI-Detektoren kennzeichnen etwa einen Text als KI-generiert, wenn er zu gut geschrieben ist.

Das muss man sich auf der Zunge zergehen lassen: Korrekte Grammatik und Zeichensetzung sind ab sofort verdächtig. Ein professioneller Schreibstil und ein inhaltlicher Aufbau gemäß bekannter Style Guides? Das kann ja nur KI sein.

Das ist natürlich kompletter Unsinn.

Ähnlich sieht es die wissenschaftliche Studie „Testing of detection tools for AI-generated text“, die 12 Dienste ausprobiert hat und feststellt:

„The researchers conclude that the available detection tools are neither accurate nor reliable.“

Deutlicher kann man es wohl nicht mehr sagen.

Ein weiteres Problem: Wenn ich KI-gestützte Hilfswerkzeuge benutze, könnte allein das schon zu einer falschen Kennzeichnung führen. Man denke etwa an Dienste, die Fehler im Text finden, den Ausdruck verbessern und mehr. Sind so bearbeitete Beiträge nun plötzlich „KI-generiert“? Doch mit Sicherheit nicht.

Mit anderen Worten: Die Wahrscheinlichkeit ist hoch, dass eine KI-Erkennung vollkommen daneben liegt. KI-Texte rutschen dann ohne Alarm durch und menschliche Texte werden fälschlicherweise als KI-Werke gekennzeichnet.

Verlasst euch also nicht auf die Versprechungen dieser Anbieter. 

Überlegt vielleicht lieber, warum KI-Nutzung als Problem angesehen wird. Dann könnt ihr diesen Punkt angehen und im Content-Team besprechen.

Denn eines ist klar: Selbst wenn die KI exzellente Texte liefert, sollte immer ein Mensch das letzte Wort haben. Es sollte zudem klar sein, wann und wofür welche KI-Werkzeuge eingesetzt werden dürfen, wo ihre Schwächen liegen und wofür sie sich grundsätzlich nicht eignen.

Mehr zum Thema:

Bleib up-to-date: