Apples KI-Funktion erzeugt Falschmeldungen

Eine neue KI-Funktion von Apple steht in der Kritik, nachdem sie irreführende Nachrichtenüberschriften generiert hat. Dies berichtet Graham Fraser von der BBC. Der Nachrichtensender hat sich bei Apple beschwert, nachdem die KI-gestützte Zusammenfassungsfunktion fälschlicherweise suggerierte, der Mordverdächtige Luigi Mangione habe sich selbst erschossen. Ein weiterer bemerkenswerter Fehler betraf einen Artikel der New York Times, bei … Weiterlesen …

Microsoft Recall zeigt Sicherheitslücken bei sensiblen Daten

Microsofts neue Recall-Funktion weist erhebliche Sicherheitsmängel beim Schutz sensibler Daten auf. Wie Tests von Avram Piltch für Tom’s Hardware zeigen, erfasst die Software trotz aktiviertem Datenschutzfilter Kreditkartennummern und Sozialversicherungsdaten in verschiedenen Anwendungen. Während die Funktion sensible Informationen auf einigen E-Commerce-Websites erfolgreich blockiert, werden Eingaben in Notepad, PDF-Formularen und individuellen Webseiten ungeschützt gespeichert. Die nur für … Weiterlesen …

Hawaiianische Zeitung beendet KI-Nachrichtensprecher-Experiment

Die lokale Zeitung „The Garden Island“ aus Hawaii hat ihr KI-gestütztes Nachrichtenformat nach zwei Monaten eingestellt. Wie Journalist Guthrie Scrimgeour berichtet, waren die virtuellen Moderatoren James und Rose die ersten ihrer Art in den USA. Das vom israelischen Unternehmen Caledo entwickelte System zeigte deutliche Schwächen bei der Aussprache und wirkte auf Zuschauer befremdlich. Das Projekt … Weiterlesen …

OpenAI Whisper neigt zu Halluzinationen, sagen Forscher

Forscher haben festgestellt, dass OpenAIs KI-gestütztes Transkriptionstool Whisper dazu neigt, Text oder ganze Sätze zu erfinden. In Fachkreisen wird das oft als Halluzinationen bezeichnet. Whisper kommt dabei in verschiedenen Branchen wie auch dem Gesundheitswesen zum Einsatz. Laut Interviews von The Associated Press mit Softwareingenieuren, Entwicklern und akademischen Forschern, können diese Halluzinationen problematische Inhalte wie rassistische … Weiterlesen …

So leicht lässt sich eine KI täuschen

Googles NotebookLM lässt sich durch manipulierte Webseiten täuschen. Der Entwickler Ted Benson demonstrierte dies, indem er seiner Webseite für Googles KI-Crawler eine erfundene Geschichte über eine Mondreise mit Fahrrad, Ballons und Taucherausrüstung präsentierte, während menschliche Besucher die reguläre Seite sahen. Er warnt, dass diese Methode, LLMs mit gezielten Lügen zu füttern, eine ernstzunehmende Gefahr darstellt. … Weiterlesen …

Figma zieht KI-Tool „Make Designs“ zurück

Figma hat sein neues AI-Tool „Make Designs“ vorübergehend aus dem Verkehr gezogen, nachdem es Designs für eine Wetter-App erstellte, die Apples Version verblüffend ähnlich waren. Dies wirft die Frage auf, ob die von Figma verwendeten Modelle von OpenAI oder Amazon auf Apples Designs trainiert wurden. Figma hat die Verantwortung für den Vorfall übernommen und will die … Weiterlesen …

Warum ChatGPT & Co. bisweilen grandios an Aufgaben scheitern

In einem früheren Smart Content Report zeigte ich eine kuriose bebilderte Anleitung, generiert von ChatGPTs Dall-E: Ich finde solche „Fails“ spannend zu sehen, weil sich dort oftmals grundsätzliche Probleme zeigen.  Wir sind z.B. immer noch ein gutes Stück von einer KI entfernt, die die Welt um sich herum tatsächlich versteht („General World Model“). Im Moment … Weiterlesen …

Selbst fortgeschrittene KI scheitert als Agent

Ein neuer Benchmark-Test von Sierra zeigt, dass selbst fortschrittliche Sprachmodelle wie GPT-4o bei komplexen Aufgaben in realistischen Szenarien noch Schwierigkeiten haben und eine Erfolgsquote von unter 50 Prozent erreichen. Der Test namens TAU-bench soll Entwicklern helfen, die Leistung von KI-Agenten in realitätsnahen Situationen zu bewerten, indem er Faktoren wie mehrfache Interaktionen und komplexe Aufgaben berücksichtigt.

Googles „AI Overviews“ stolpern

Die kürzlich vorgestellten „AI Overviews“ in der Google-Suche haben zu einigen kuriosen Ergebnissen geführt – manche davon peinlich, andere lächerlich, wieder andere gefährlich.  Es zeigt sich an diesem Beispiel, was diverse Fachleute bereits wissen und predigen: Lass deine KI nicht unbeaufsichtigt arbeiten.  So fand sich unter den Empfehlungen der Google-KI etwa, dass Käse besser auf der Pizza … Weiterlesen …

Noch eine Sache, die KI nicht versteht: Spiegel

KI-Bildgeneratoren scheitern oftmals, weil sie nicht verstehen, was sie dort eigentlich erstellen. Spiegel sind ein schönes Beispiel dafür. Quelle: Reddit