Meinung: Sprachmodelle sind nützlich, aber nicht vertrauenswürdig
Große Sprachmodelle (LLMs) erzeugen Text auf Basis statistischer Muster und nicht auf Grundlage eines Verständnisses von Wahrheit. Das macht sie im Wesentlichen zu „Bullshittern“, denen Fakten gleichgültig sind. Dieses Merkmal ist ein Kern ihrer Funktionsweise, den Nutzer verstehen müssen, um sie sicher und effektiv einzusetzen. Diesen Standpunkt vertritt Matt Ranger, Leiter für maschinelles Lernen beim …