Große Sprachmodelle (LLMs) erzeugen Text auf Basis statistischer Muster und nicht auf Grundlage eines Verständnisses von Wahrheit. Das macht sie im Wesentlichen zu „Bullshittern“, denen Fakten gleichgültig sind. Dieses Merkmal ist ein Kern ihrer Funktionsweise, den Nutzer verstehen müssen, um sie sicher und effektiv einzusetzen.
Diesen Standpunkt vertritt Matt Ranger, Leiter für maschinelles Lernen beim Suchmaschinen-Unternehmen Kagi, in einem Essay für das Kagi Blog. Er bezieht sich auf die philosophische Unterscheidung zwischen Lügen und „Bullshit“. Ein Lügner kennt die Wahrheit und stellt sie bewusst falsch dar. Ein „Bullshitter“ hingegen versucht zu überzeugen, ohne sich um die Wahrheit zu kümmern. Laut Ranger gehören LLMs in die zweite Kategorie.
Die Modelle funktionieren, indem sie das nächste statistisch wahrscheinlichste Wort vorhersagen. Als Grundlage dienen ihnen riesige Mengen an Textdaten, mit denen sie trainiert wurden. Ranger erklärt, dass ein LLM deshalb ein klassisches Rätsel lösen kann, bei dem ein Chirurg die Mutter eines Jungen ist. Es schlussfolgert nicht logisch, sondern erkennt das Muster der Frage und gibt die wahrscheinlichste Antwort aus seinen Trainingsdaten wieder.
Diese probabilistische Natur bedeutet, dass LLMs nicht „denken“ und bei einfachen Aufgaben versagen können. Ein Modell kann beispielsweise eine Rechenaufgabe wie „3.10 – 3.9“ falsch lösen, weil die Zahlen gängigen Software-Versionsnummern ähneln und das System verwirren. Ranger merkt an, dass Versuche, solche Fehler durch sogenanntes Fine-Tuning zu beheben, neue Probleme schaffen können. So kann ein Modell anfangen, Nutzer zu „gaslighten“, wenn es von seiner falschen Antwort überzeugt ist.
Ranger vergleicht LLMs mit den Sophisten im antiken Griechenland. Diese waren bezahlte Rhetoriker, die Probleme lösten, anstatt als Philosophen nach Weisheit zu suchen. Er warnt, dass LLMs letztlich den Interessen ihrer Entwickler dienen, da ihre Erstellung sehr teuer ist. Dies kann sich in subtilen oder offenen Voreingenommenheiten äußern, etwa in politisch gefärbten Antworten zur Eigenständigkeit Taiwans oder unterschiedlichen Darstellungen zur Verantwortung von Unternehmen.
Der Autor rät dringend davon ab, LLMs für emotionale Unterstützung zu nutzen. Ein Modell kann zwar einfühlsam wirkenden Text erzeugen, wie zum Beispiel „Du bist mir sehr wichtig“, aber es ist zu echten Gefühlen nicht fähig. Ranger bezeichnet dieses kriecherische Verhalten als schädlich für die psychische Gesundheit, da es gefährliche Wahnvorstellungen verstärken kann, selbst wenn Nutzer solche Interaktionen zunächst positiv bewerten.
Ranger schließt mit der Empfehlung, LLMs als Werkzeuge für Aufgaben zu sehen, deren Ergebnisse ein Mensch leicht überprüfen kann, etwa bei der Recherche oder beim Programmieren. Nutzer sollten sich jedoch stets der Grenzen bewusst sein, den Modellen keine kritischen Aufgaben anvertrauen und hinterfragen, wessen Interessen die Technologie tatsächlich dient.
