Neuere, größere Versionen von KI-Chatbots neigen stärker dazu, falsche Antworten zu geben, statt Unwissenheit einzugestehen. Das ergab eine Studie von José Hernández-Orallo und Kollegen, die in der Fachzeitschrift Nature veröffentlicht wurde. Die Forscher untersuchten drei große Sprachmodelle: GPT, LLaMA und BLOOM. Sie stellten fest, dass die Genauigkeit der Antworten mit der Größe der Modelle zwar zunimmt, die Zuverlässigkeit aber abnimmt.
Die Studie zeigte auch, dass Menschen oft Schwierigkeiten haben, falsche Antworten der Chatbots zu erkennen. Zwischen 10% und 40% der ungenauen Antworten wurden fälschlicherweise als korrekt eingestuft. Die Forscher empfehlen, die Leistung der KI bei einfachen Fragen zu verbessern und sie bei schwierigen Fragen eher zum Ablehnen einer Antwort zu ermutigen. Dies könnte Nutzern helfen, die Zuverlässigkeit der KI-Systeme besser einzuschätzen.
Über den Autor
Der Autorname SCR steht für Inhalte, die mit KI-Hilfe erstellt wurden. Die Themen werden manuell ausgewählt. Jeder Beitrag wird vor der Veröffentlichung kontrolliert und bearbeitet. Redaktionelle Verantwortung: Jan Tissler. Lies mehr darüber, wie diese Website entsteht und welche Prompts zum Einsatz kommen.
Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation
Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)
Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?
Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.