Warum dein KI-Assistent dieses Jahr klüger wurde, aber immer noch an simplen Aufgaben scheitert

Die Entwicklung großer Sprachmodelle hat im Jahr 2025 grundlegende Veränderungen durchlaufen. Neue Trainingsmethoden und überraschende Fähigkeiten offenbaren eine fundamental andere Form von Intelligenz als erwartet. KI-Forscher Andrej Karpathy schreibt in seinem Blog über sechs große Veränderungen, die das Jahr prägten. Die bedeutendste Neuerung ist eine Trainingstechnik namens Reinforcement Learning from Verifiable Rewards (RLVR). Sie hat …

Weiterlesen …

Wahrheitsdroge für AI: Logik und Selbstauskunft gegen Halluzinationen

Zwei große Tech-Unternehmen gehen eines der hartnäckigsten Probleme künstlicher Intelligenz an: AI-Systeme davon abzuhalten, Dinge zu erfinden oder ihre Fehler zu verbergen. OpenAI und Amazon haben jeweils eigene Ansätze entwickelt, um Large Language Models ehrlicher und zuverlässiger zu machen. OpenAIs Wahrheitsserum OpenAI-Forscher haben eine Technik namens „confessions“ eingeführt, die wie ein Wahrheitsserum für AI-Modelle funktioniert. …

Weiterlesen …

Forscher entwickeln Sprachmodelle aus historischen Texten

Wissenschaftler der Universität Zürich und der Universität zu Köln erstellen große Sprachmodelle, die ausschließlich auf historischen Dokumenten bis zu bestimmten Daten trainiert wurden. Das Team um Daniel Göttlich, Dominik Loibner, Guohui Jiang und Hans-Joachim Voth beschreibt das Projekt auf GitHub. Die Modelle heißen Ranke-4B und verfügen über vier Milliarden Parameter. Sie wurden auf 80 Milliarden …

Weiterlesen …

NYU-Forscher entwickeln KI-Architektur für schnellere und bessere Bilderzeugung

Forscher der New York University haben eine neue KI-Architektur vorgestellt, die Bilder qualitativ hochwertiger und effizienter erzeugt. Ben Dickson berichtet für VentureBeat, dass das Modell mit dem Namen Representation Autoencoders oder RAE das semantische Verständnis einer KI verbessert, was zu besseren Ergebnissen führt. Die neue Methode bricht mit gängigen Ansätzen für Diffusionsmodelle, der Technologie hinter …

Weiterlesen …

Google-Forscher stellen KI-Modell vor, das kontinuierlich lernt

​Forscher bei Google haben mit „Nested Learning“ ein neues KI-Konzept entwickelt. Ben Dickson berichtet für VentureBeat, dass es eine der größten Schwächen aktueller großer Sprachmodelle (LLMs) beheben soll: ihre Unfähigkeit, nach dem Training neues Wissen zu erlernen. Heutige Sprachmodelle sind nach ihrer Trainingsphase weitgehend statisch. Ihr Wissen beschränkt sich auf die ursprünglichen Trainingsdaten und die …

Weiterlesen …

Diese einfache Anweisung macht KI kreativer

Forscher haben eine Methode namens Verbalized Sampling entwickelt, die mit einem einzigen Satz generative KI-Modelle zu vielfältigeren und kreativeren Antworten anregt. Die Technik funktioniert bei großen Sprachmodellen wie GPT-4 und Claude, ohne dass diese neu trainiert werden müssen. Carl Franzen berichtet für VentureBeat, dass diese Methode das bekannte Problem löst, dass KI-Modelle oft repetitive Antworten …

Weiterlesen …

MIT-Forscher entwickeln KI-Modelle, die sich selbst verbessern

Forscher am Massachusetts Institute of Technology (MIT) haben eine Technik entwickelt, mit der sich große Sprachmodelle eigenständig verbessern können. Darüber berichtet Carl Franzen für VentureBeat. Die Methode namens SEAL ermöglicht es einer KI, ihre eigenen Trainingsdaten autonom zu erzeugen. Anstatt auf externe Datensätze angewiesen zu sein, erstellen Modelle mit dem SEAL-System Anweisungen für sich selbst. …

Weiterlesen …

Studie: Vokabular von ChatGPT beeinflusst menschliche Sprache

Eine Studie der Florida State University zeigt, dass von KI häufig genutzte Modewörter vermehrt in der alltäglichen menschlichen Sprache auftauchen. Dies berichtet McKenzie Harris für die Florida State University News. Ein Forschungsteam analysierte 22,1 Millionen Wörter aus ungeskripteten Gesprächen. Nach der Veröffentlichung von ChatGPT stellten sie einen deutlichen Anstieg bei Wörtern wie „delve“, „intricate“ und …

Weiterlesen …

Forscher entwickeln menschenähnliches Gedächtnis für KI

Ein chinesisches Forschungsteam hat ein System namens MemOS entwickelt. Es soll künstlicher Intelligenz ein dauerhaftes, menschenähnliches Gedächtnis verleihen. Laut eines Berichts von Michael Nuñez in VentureBeat löst die Technologie ein Kernproblem, bei dem KI-Modelle Informationen zwischen Interaktionen vergessen. Heutige KI-Assistenten können sich oft nicht an frühere Gespräche erinnern. Die Forscher bezeichnen dies als „Gedächtnis-Silo“. Dadurch …

Weiterlesen …

Anthropic gibt Einblicke in sein Multi-Agent-Recherchesystem

Anthropic hat detaillierte Einblicke in den Aufbau von Claudes Recherchefähigkeiten veröffentlicht. Das Multi-Agent-System übertrifft Einzelagent-Ansätze um 90,2 Prozent. Der Beitrag stammt von Jeremy Hadfield, Barry Zhang, Kenneth Lien, Florian Scholz, Jeremy Fox und Daniel Ford von Anthropic. Die Recherchefunktion ermöglicht Claude die Suche im Web, in Google Workspace und anderen Integrationen für komplexe Aufgaben. Anders …

Weiterlesen …