Heutige Sprachmodelle sind vor allem darauf trainiert, hilfreiche und gut lesbare Antworten zu geben. Dabei kann es passieren, dass die KI Informationen erfindet, die zwar prima in den Text passen und faktisch aussehen, in Wirklichkeit aber frei erfunden sind. Solche Fehler werden oftmals als Halluzinationen bezeichnet.
Vermeiden lassen sich solche Fehler etwa mit dem richtigen Prompt. So kann es eine gute Idee sein, schon dort klarzustellen, dass es in Ordnung ist, wenn die KI eine Antwort nicht weiß oder eine Information nicht hat. Dennoch ist es hier wichtig, Informationen zu überprüfen.
Mit Techniken wie RAG wiederum lässt sich ein Sprachmodell dazu nutzen, Informationen aus Datenbanken und Dokumenten zu beziehen – und nur von dort.