OpenAIs neue KI-Modelle halluzinieren häufiger
Die neuen Reasoning-KI-Modelle o3 und o4-mini von OpenAI weisen höhere Halluzinationsraten auf als ihre Vorgänger. Interne Tests zeigen, dass o3 bei 33% der Fragen im PersonQA-Benchmark falsche Informationen erzeugt – etwa doppelt so häufig wie frühere Modelle. Das o4-mini schnitt mit 48% noch schlechter ab, wie TechCrunch berichtet. OpenAI gibt in seinem technischen Bericht zu, …