OpenAI erklärt, warum KI-Modelle für das Erfinden von Fakten belohnt werden
Große Sprachmodelle wie ChatGPT erzeugen gelegentlich Falschinformationen („Halluzinationen“), weil ihre Bewertungssysteme das Raten von Antworten stärker belohnen als das Eingeständnis von Unsicherheit. In einem offiziellen Beitrag berichtet das Unternehmen OpenAI, dass diese Anreizstruktur eine grundlegende Herausforderung für alle aktuellen KI-Modelle darstellt. Halluzinationen können selbst bei scheinbar einfachen Fragen auftreten. So gab ein Chatbot auf die …