OpenAI Whisper neigt zu Halluzinationen, sagen Forscher
Forscher haben festgestellt, dass OpenAIs KI-gestütztes Transkriptionstool Whisper dazu neigt, Text oder ganze Sätze zu erfinden. In Fachkreisen wird das oft als Halluzinationen bezeichnet. Whisper kommt dabei in verschiedenen Branchen wie auch dem Gesundheitswesen zum Einsatz. Laut Interviews von The Associated Press mit Softwareingenieuren, Entwicklern und akademischen Forschern, können diese Halluzinationen problematische Inhalte wie rassistische …