OpenAIs neue KI-Modelle halluzinieren häufiger

Die neuen Reasoning-KI-Modelle o3 und o4-mini von OpenAI weisen höhere Halluzinationsraten auf als ihre Vorgänger. Interne Tests zeigen, dass o3 bei 33% der Fragen im PersonQA-Benchmark falsche Informationen erzeugt – etwa doppelt so häufig wie frühere Modelle. Das o4-mini schnitt mit 48% noch schlechter ab, wie TechCrunch berichtet. OpenAI gibt in seinem technischen Bericht zu, dass weitere Forschung nötig sei, um dieses Phänomen zu verstehen. Die unabhängige Forschungsgruppe Transluce stellte fest, dass o3 manchmal Aktionen erfindet, die es angeblich durchgeführt hat. Trotz dieser Probleme berichten Nutzer wie Stanford-Professor Kian Katanforoosh, dass o3 bei Programmieraufgaben anderen Modellen überlegen sei. OpenAI-Sprecher Niko Felix betont, dass die Bekämpfung von Halluzinationen weiterhin ein aktives Forschungsgebiet des Unternehmens bleibe.

Mehr zum Thema:

Bleib up-to-date: