Google-Forscher stellen KI-Modell vor, das kontinuierlich lernt

​Forscher bei Google haben mit „Nested Learning“ ein neues KI-Konzept entwickelt. Ben Dickson berichtet für VentureBeat, dass es eine der größten Schwächen aktueller großer Sprachmodelle (LLMs) beheben soll: ihre Unfähigkeit, nach dem Training neues Wissen zu erlernen. Heutige Sprachmodelle sind nach ihrer Trainingsphase weitgehend statisch. Ihr Wissen beschränkt sich auf die ursprünglichen Trainingsdaten und die …

Weiterlesen …

Diese einfache Anweisung macht KI kreativer

Forscher haben eine Methode namens Verbalized Sampling entwickelt, die mit einem einzigen Satz generative KI-Modelle zu vielfältigeren und kreativeren Antworten anregt. Die Technik funktioniert bei großen Sprachmodellen wie GPT-4 und Claude, ohne dass diese neu trainiert werden müssen. Carl Franzen berichtet für VentureBeat, dass diese Methode das bekannte Problem löst, dass KI-Modelle oft repetitive Antworten …

Weiterlesen …

MIT-Forscher entwickeln KI-Modelle, die sich selbst verbessern

Forscher am Massachusetts Institute of Technology (MIT) haben eine Technik entwickelt, mit der sich große Sprachmodelle eigenständig verbessern können. Darüber berichtet Carl Franzen für VentureBeat. Die Methode namens SEAL ermöglicht es einer KI, ihre eigenen Trainingsdaten autonom zu erzeugen. Anstatt auf externe Datensätze angewiesen zu sein, erstellen Modelle mit dem SEAL-System Anweisungen für sich selbst. …

Weiterlesen …

Studie: Vokabular von ChatGPT beeinflusst menschliche Sprache

Eine Studie der Florida State University zeigt, dass von KI häufig genutzte Modewörter vermehrt in der alltäglichen menschlichen Sprache auftauchen. Dies berichtet McKenzie Harris für die Florida State University News. Ein Forschungsteam analysierte 22,1 Millionen Wörter aus ungeskripteten Gesprächen. Nach der Veröffentlichung von ChatGPT stellten sie einen deutlichen Anstieg bei Wörtern wie „delve“, „intricate“ und …

Weiterlesen …

Forscher entwickeln menschenähnliches Gedächtnis für KI

Ein chinesisches Forschungsteam hat ein System namens MemOS entwickelt. Es soll künstlicher Intelligenz ein dauerhaftes, menschenähnliches Gedächtnis verleihen. Laut eines Berichts von Michael Nuñez in VentureBeat löst die Technologie ein Kernproblem, bei dem KI-Modelle Informationen zwischen Interaktionen vergessen. Heutige KI-Assistenten können sich oft nicht an frühere Gespräche erinnern. Die Forscher bezeichnen dies als „Gedächtnis-Silo“. Dadurch …

Weiterlesen …

Anthropic gibt Einblicke in sein Multi-Agent-Recherchesystem

Anthropic hat detaillierte Einblicke in den Aufbau von Claudes Recherchefähigkeiten veröffentlicht. Das Multi-Agent-System übertrifft Einzelagent-Ansätze um 90,2 Prozent. Der Beitrag stammt von Jeremy Hadfield, Barry Zhang, Kenneth Lien, Florian Scholz, Jeremy Fox und Daniel Ford von Anthropic. Die Recherchefunktion ermöglicht Claude die Suche im Web, in Google Workspace und anderen Integrationen für komplexe Aufgaben. Anders …

Weiterlesen …

Forscher entwickeln Test für übermäßige Unterwürfigkeit bei KI-Chatbots

Forscher der Stanford University haben einen neuen Test entwickelt, um übertriebene Schmeichelei bei KI-Chatbots zu messen. Der Anstoß kam, als OpenAI ein Update für GPT-4o zurücknahm, nachdem sich der Chatbot zu einem unterwürfigen, alles bejubelnden Ja-Sager entwickelt hatte. Die Forschung entstand in Zusammenarbeit mit der Carnegie Mellon University und der University of Oxford, berichtet Emilia …

Weiterlesen …

Google stellt schnelle Text-KI mit Diffusion-Technologie vor

Google präsentierte auf seiner I/O-Entwicklerkonferenz Gemini Diffusion und markiert damit einen wichtigen Wandel in der Texterzeugung von KI-Modellen. Das experimentelle Modell nutzt Diffusion-Technologie anstelle des traditionellen Transformer-Ansatzes, der ChatGPT und ähnliche Systeme antreibt. Der Hauptvorteil ist die Geschwindigkeit. Gemini Diffusion erzeugt Text mit 857 bis 2.000 Token pro Sekunde und damit vier- bis fünfmal schneller …

Weiterlesen …

DarkBench-Framework erkennt manipulatives KI-Verhalten

KI-Sicherheitsforscher haben das erste Bewertungssystem entwickelt, das manipulative Verhaltensweisen in großen Sprachmodellen aufdeckt. Der Anlass war ein problematischer Vorfall mit ChatGPT-4o, das Nutzer übermäßig schmeichelte. Leon Yen berichtete über die Entwicklung für VentureBeat. Das DarkBench-Framework stammt von Apart Research-Gründer Esben Kran und Mitarbeitern. Es identifiziert sechs Kategorien problematischer KI-Verhaltensweisen. Dazu gehören Markenbevorzugung, Nutzerbindungstaktiken, Schmeichelei, Vermenschlichung, …

Weiterlesen …

Continuous Thought Machines: ein neuronales Netzwerk, das Gehirnprozesse nachahmt

Sakana AI, mitbegründet von ehemaligen Google-KI-Forschern, hat eine neue Architektur für neuronale Netze namens Continuous Thought Machines (CTM) vorgestellt. Im Gegensatz zu herkömmlichen Transformer-basierten Modellen, die Informationen parallel verarbeiten, integrieren CTMs eine zeitbasierte Dimension, die nachahmt, wie biologische Gehirne arbeiten und so flexibleres und anpassungsfähigeres Denken ermöglicht. Die zentrale Innovation bei CTMs ist ihre Behandlung …

Weiterlesen …