Forscher haben festgestellt, dass OpenAIs KI-gestütztes Transkriptionstool Whisper dazu neigt, Text oder ganze Sätze zu erfinden. In Fachkreisen wird das oft als Halluzinationen bezeichnet. Whisper kommt dabei in verschiedenen Branchen wie auch dem Gesundheitswesen zum Einsatz. Laut Interviews von The Associated Press mit Softwareingenieuren, Entwicklern und akademischen Forschern, können diese Halluzinationen problematische Inhalte wie rassistische Kommentare, gewalttätige Rhetorik und fiktive medizinische Behandlungen enthalten. Experten sind besonders besorgt über den Einsatz von Whisper-basierten Tools im medizinischen Bereich, wo ungenaue Transkriptionen schwerwiegende Folgen haben könnten. Trotz der Warnungen von OpenAI, Whisper nicht in Hochrisikobereichen einzusetzen, haben Krankenhäuser und medizinische Zentren begonnen, das Tool zur Transkription von Patientengesprächen mit Ärzten zu verwenden.