Forscher und Unternehmen haben neue technische Strategien entwickelt, um falsche Informationen von KI-Sprachmodellen zu reduzieren. Dies geht aus einer umfassenden Analyse von Emil Sorensen hervor. Die Studie beschreibt neun verschiedene Ansätze, die auf drei Ebenen – Eingabe, Design und Ausgabe – arbeiten.
Die Problematik der sogenannten „Halluzinationen“, bei denen KI-Systeme überzeugt klingende, aber falsche Informationen produzieren, wurde durch mehrere Vorfälle deutlich. Ein bekanntes Beispiel ist der Chatbot von Air Canada, der eine nicht existierende Erstattungsrichtlinie erfand. Obwohl diese Fehler nicht vollständig verhindert werden können, zeigen die vorgestellten Techniken wie Abfrage-Optimierung, RAG (Retrieval-Augmented Generation) und moderne Faktenprüfung vielversprechende Ergebnisse bei der Verbesserung der KI-Zuverlässigkeit.