Halluzination
Heutige Sprachmodelle sind vor allem darauf trainiert, hilfreiche und gut lesbare Antworten zu geben. Dabei kann es passieren, dass die KI Informationen erfindet, die zwar prima in den Text passen und faktisch aussehen, in Wirklichkeit aber frei erfunden sind. Solche Fehler werden oftmals als Halluzinationen bezeichnet. Vermeiden lassen sich solche Fehler etwa mit dem richtigen … Weiterlesen …