Die neuen Reasoning-KI-Modelle o3 und o4-mini von OpenAI weisen höhere Halluzinationsraten auf als ihre Vorgänger. Interne Tests zeigen, dass o3 bei 33% der Fragen im PersonQA-Benchmark falsche Informationen erzeugt – etwa doppelt so häufig wie frühere Modelle. Das o4-mini schnitt mit 48% noch schlechter ab, wie TechCrunch berichtet. OpenAI gibt in seinem technischen Bericht zu, dass weitere Forschung nötig sei, um dieses Phänomen zu verstehen. Die unabhängige Forschungsgruppe Transluce stellte fest, dass o3 manchmal Aktionen erfindet, die es angeblich durchgeführt hat. Trotz dieser Probleme berichten Nutzer wie Stanford-Professor Kian Katanforoosh, dass o3 bei Programmieraufgaben anderen Modellen überlegen sei. OpenAI-Sprecher Niko Felix betont, dass die Bekämpfung von Halluzinationen weiterhin ein aktives Forschungsgebiet des Unternehmens bleibe.
OpenAIs neue KI-Modelle halluzinieren häufiger
Über den Autor
Bleib up-to-date:
Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)
Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?
Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.