OpenAI Whisper neigt zu Halluzinationen, sagen Forscher

Forscher haben festgestellt, dass OpenAIs KI-gestütztes Transkriptionstool Whisper dazu neigt, Text oder ganze Sätze zu erfinden. In Fachkreisen wird das oft als Halluzinationen bezeichnet. Whisper kommt dabei in verschiedenen Branchen wie auch dem Gesundheitswesen zum Einsatz. Laut Interviews von The Associated Press mit Softwareingenieuren, Entwicklern und akademischen Forschern, können diese Halluzinationen problematische Inhalte wie rassistische Kommentare, gewalttätige Rhetorik und fiktive medizinische Behandlungen enthalten. Experten sind besonders besorgt über den Einsatz von Whisper-basierten Tools im medizinischen Bereich, wo ungenaue Transkriptionen schwerwiegende Folgen haben könnten. Trotz der Warnungen von OpenAI, Whisper nicht in Hochrisikobereichen einzusetzen, haben Krankenhäuser und medizinische Zentren begonnen, das Tool zur Transkription von Patientengesprächen mit Ärzten zu verwenden.

Über den Autor

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen