In der Debatte um künstliche Intelligenz und Sprache taucht ein neuer Begriff auf: semantische Ablation. Claudio Nastruzzi schreibt für The Register, dass KI-Systeme beim Bearbeiten von Texten nicht nur Fehler hinzufügen. Sie zerstören auch gezielt das, was Sprache einzigartig macht.
Semantische Ablation beschreibt, wie KI-Modelle präzise, unkonventionelle oder inhaltlich dichte Sprache beim Verarbeiten von Texten systematisch abbauen. Der Grund liegt in der Funktionsweise dieser Modelle. Beim Training lernen sie, statistisch häufige Formulierungen bevorzugt zu verwenden. Reinforcement Learning from Human Feedback, eine gängige Trainingsmethode, verstärkt diese Tendenz zusätzlich, indem sie ungewöhnliche oder komplexe Sprache bestraft.
Der Prozess verläuft in drei Stufen. Zunächst entfernt die KI markante Metaphern und bildhafte Sprache und ersetzt sie durch sichere, vertraute Formulierungen. Dann tauscht sie spezifische Fachbegriffe gegen geläufigere, aber weniger präzise Alternativen aus. Schließlich glättet sie komplexe Argumentationsstrukturen zu vorhersehbaren, schematischen Abläufen.
Das Ergebnis, so Nastruzzi, ist ein „JPEG des Gedankens“: Text, der sauber und lesbar wirkt, aber seine ursprüngliche inhaltliche Dichte verloren hat. Er stellt dem Begriff die bekannte Halluzination gegenüber, bei der KI falsche Informationen erfindet. Während Halluzination etwas hinzufügt, das nicht existiert, zerstört semantische Ablation das, was vorhanden war.
Nastruzzi warnt vor weitreichenden Folgen. Eine breite Abhängigkeit von KI-Schreibwerkzeugen könnte Sprache und Denken langfristig verarmen lassen.
