OpenAI Whisper neigt zu Halluzinationen, sagen Forscher

Forscher haben festgestellt, dass OpenAIs KI-gestütztes Transkriptionstool Whisper dazu neigt, Text oder ganze Sätze zu erfinden. In Fachkreisen wird das oft als Halluzinationen bezeichnet. Whisper kommt dabei in verschiedenen Branchen wie auch dem Gesundheitswesen zum Einsatz. Laut Interviews von The Associated Press mit Softwareingenieuren, Entwicklern und akademischen Forschern, können diese Halluzinationen problematische Inhalte wie rassistische …

Weiterlesen …

So leicht lässt sich eine KI täuschen

Googles NotebookLM lässt sich durch manipulierte Webseiten täuschen. Der Entwickler Ted Benson demonstrierte dies, indem er seiner Webseite für Googles KI-Crawler eine erfundene Geschichte über eine Mondreise mit Fahrrad, Ballons und Taucherausrüstung präsentierte, während menschliche Besucher die reguläre Seite sahen. Er warnt, dass diese Methode, LLMs mit gezielten Lügen zu füttern, eine ernstzunehmende Gefahr darstellt. …

Weiterlesen …

Figma zieht KI-Tool „Make Designs“ zurück

Figma hat sein neues AI-Tool „Make Designs“ vorübergehend aus dem Verkehr gezogen, nachdem es Designs für eine Wetter-App erstellte, die Apples Version verblüffend ähnlich waren. Dies wirft die Frage auf, ob die von Figma verwendeten Modelle von OpenAI oder Amazon auf Apples Designs trainiert wurden. Figma hat die Verantwortung für den Vorfall übernommen und will die …

Weiterlesen …

Warum ChatGPT & Co. bisweilen grandios an Aufgaben scheitern

In einem früheren Smart Content Report zeigte ich eine kuriose bebilderte Anleitung, generiert von ChatGPTs Dall-E: Ich finde solche „Fails“ spannend zu sehen, weil sich dort oftmals grundsätzliche Probleme zeigen.  Wir sind z.B. immer noch ein gutes Stück von einer KI entfernt, die die Welt um sich herum tatsächlich versteht („General World Model“). Im Moment …

Weiterlesen …

Selbst fortgeschrittene KI scheitert als Agent

Ein neuer Benchmark-Test von Sierra zeigt, dass selbst fortschrittliche Sprachmodelle wie GPT-4o bei komplexen Aufgaben in realistischen Szenarien noch Schwierigkeiten haben und eine Erfolgsquote von unter 50 Prozent erreichen. Der Test namens TAU-bench soll Entwicklern helfen, die Leistung von KI-Agenten in realitätsnahen Situationen zu bewerten, indem er Faktoren wie mehrfache Interaktionen und komplexe Aufgaben berücksichtigt.

Googles „AI Overviews“ stolpern

Die kürzlich vorgestellten „AI Overviews“ in der Google-Suche haben zu einigen kuriosen Ergebnissen geführt – manche davon peinlich, andere lächerlich, wieder andere gefährlich.  Es zeigt sich an diesem Beispiel, was diverse Fachleute bereits wissen und predigen: Lass deine KI nicht unbeaufsichtigt arbeiten.  So fand sich unter den Empfehlungen der Google-KI etwa, dass Käse besser auf der Pizza …

Weiterlesen …

Google blamiert sich mit Geminis „political correctness“

Wir hatten bereits über Googles KI-Offensive unter dem „Gemini“-Banner berichtet, aber bald darauf machte vor allem der integrierte Bildgenerator Schlagzeilen: Er war offenbar zu sehr auf Diversität getrimmt. Was generell eine gute Idee ist, ergibt keinen Sinn, wenn man etwa ein Bild der „Gründerväter“ der USA haben möchte. Google schränkte folgend den Bildgenerator ein, so dass …

Weiterlesen …

Air Canada muss für falsche Auskunft seines Chatbots geradestehen

Der Chatbot von Air Canada hat einem Kunden eine falsche Auskunft zu den Bedingungen für eine Erstattung gegeben. Vor Gericht argumentierte die Fluggesellschaft, der Chatbot sei für seine Aussagen selbst verantwortlich, nicht Air Canada. Das sah das Gericht anders und das Unternehmen musste zahlen. Quelle: The Guardian