Künstliche Intelligenz hat einen unverwechselbaren Schreibstil entwickelt. Leser lernen zunehmend, algorithmisch erzeugte Texte auf den ersten Blick zu erkennen. Von Studienarbeiten bis zu Firmenmitteilungen tragen KI-Texte eindeutige Marker ihrer digitalen Herkunft.
Sam Wolfson berichtet darüber für die New York Times. Er beschreibt, wie KI-Texte auf bestimmte Muster setzen. Dazu gehören die Konstruktion „Es ist nicht X, es ist Y“, übermäßige Nutzung von Gedankenstrichen und eine Besessenheit im Englischen für Wörter wie „delve“, „tapestry“ und „intricate“.
Die Statistiken sind eindeutig: In wissenschaftlichen Arbeiten auf PubMed stieg die Nutzung des Wortes „delves“ etwa zwischen 2022 und 2024 um sagenhafte 2.700 Prozent. Selbstveröffentlichte Bücher auf Amazon enthalten inzwischen Hunderte Protagonisten namens Elara Voss oder Kael. Diese Namen existierten vor 2023 praktisch nicht.
KI-Texte leiden dabei unter einem Problem, das Ingenieure „Overfitting“ nennen: Die Systeme lernen, dass bestimmte Merkmale in hochwertigen Texten vorkommen und übertreiben dann deren Einsatz. Gedankenstriche erscheinen beispielsweise häufig in literarischen Texten. Also überschwemmen KI-Systeme ihre Outputs damit. Das Ergebnis wirkt gezwungen und formelhaft statt anspruchsvoll.
Von KI erzeugte Prosa zeigt noch seltsamere Muster. Die Systeme beschreiben gern alles als „leise“ oder mit einem „sanften Summen“. Das gilt selbst für traditionell laute Umgebungen wie Partys. Forscher stellten fest, dass ein angeblich kreatives ChatGPT-Modell Wörter wie „quiet“, „echo“, „liminal“ und „ghosts“ siebenmal in einer Geschichte mit 1.100 Wörtern verwendete.
Die Technologie fixiert sich darüber hinaus auf die Dreierregel: Sie ordnet Informationen weitaus häufiger in Dreiergruppen an als menschliche Autoren. Bei abwertenden Aussagen nutzen KI-Systeme zudem durchgängig die Formel „ein X mit Y und Z“. Das produziert Phrasen wie „ein Reddit-Troll mit WLAN und Milliarden“.
Die grundlegende Einschränkung der KI liegt darin, dass sie die physische Welt nicht erleben kann. Virginia Woolf konnte eine Aussicht als „großen Teller voll mit blauem Wasser“ beschreiben, weil sie Hunger und Landschaften aus eigenem Erleben kannte. KI-Systeme lernen nur durch statistische Korrelationen in Texten. Deshalb knüpfen sie sensorische Sprache an abstrakte Konzepte. Sie schreiben über Emotionen, die „nach Metall schmecken“, oder Tage, die „nach Fast-Freitag schmecken“.
Die Auswirkungen gehen über offensichtlich KI-erzeugte Inhalte hinaus. Britische Parlamentarier begannen beispielsweise plötzlich damit, Reden mit „I rise to speak“ zu eröffnen. Diese Phrase ist im amerikanischen, nicht aber im britischen Parlamentarismus üblich. Forscher am Max-Planck-Institut stellten wiederum fest, dass menschliche Akademiker zunehmend KI-Sprachmuster in ihrer eigenen spontanen Rede verwenden.
Eine Umfrage der britischen Society of Authors ergab, dass 20 Prozent der Belletristik-Autoren und 25 Prozent der Sachbuch-Autoren inzwischen generative KI für Teile ihrer Arbeit nutzen. Große Publikationen wie Business Insider, Wired und die Chicago Sun-Times haben Artikel veröffentlicht, die vermutlich KI-generiert sind.
Wolfson argumentiert in seinem Artikel, dass Menschen unbewusst die Muster der KI übernehmen, während KI-generierte Texte allgegenwärtig werden. Die unverwechselbare Stimme des Algorithmus wird so zur Stimme der alltäglichen Kommunikation.
