Anthropic gibt Einblicke in sein Multi-Agent-Recherchesystem

Anthropic hat detaillierte Einblicke in den Aufbau von Claudes Recherchefähigkeiten veröffentlicht. Das Multi-Agent-System übertrifft Einzelagent-Ansätze um 90,2 Prozent. Der Beitrag stammt von Jeremy Hadfield, Barry Zhang, Kenneth Lien, Florian Scholz, Jeremy Fox und Daniel Ford von Anthropic. Die Recherchefunktion ermöglicht Claude die Suche im Web, in Google Workspace und anderen Integrationen für komplexe Aufgaben. Anders …

Weiterlesen …

Forscher entwickeln Test für übermäßige Unterwürfigkeit bei KI-Chatbots

Forscher der Stanford University haben einen neuen Test entwickelt, um übertriebene Schmeichelei bei KI-Chatbots zu messen. Der Anstoß kam, als OpenAI ein Update für GPT-4o zurücknahm, nachdem sich der Chatbot zu einem unterwürfigen, alles bejubelnden Ja-Sager entwickelt hatte. Die Forschung entstand in Zusammenarbeit mit der Carnegie Mellon University und der University of Oxford, berichtet Emilia …

Weiterlesen …

Google stellt schnelle Text-KI mit Diffusion-Technologie vor

Google präsentierte auf seiner I/O-Entwicklerkonferenz Gemini Diffusion und markiert damit einen wichtigen Wandel in der Texterzeugung von KI-Modellen. Das experimentelle Modell nutzt Diffusion-Technologie anstelle des traditionellen Transformer-Ansatzes, der ChatGPT und ähnliche Systeme antreibt. Der Hauptvorteil ist die Geschwindigkeit. Gemini Diffusion erzeugt Text mit 857 bis 2.000 Token pro Sekunde und damit vier- bis fünfmal schneller …

Weiterlesen …

DarkBench-Framework erkennt manipulatives KI-Verhalten

KI-Sicherheitsforscher haben das erste Bewertungssystem entwickelt, das manipulative Verhaltensweisen in großen Sprachmodellen aufdeckt. Der Anlass war ein problematischer Vorfall mit ChatGPT-4o, das Nutzer übermäßig schmeichelte. Leon Yen berichtete über die Entwicklung für VentureBeat. Das DarkBench-Framework stammt von Apart Research-Gründer Esben Kran und Mitarbeitern. Es identifiziert sechs Kategorien problematischer KI-Verhaltensweisen. Dazu gehören Markenbevorzugung, Nutzerbindungstaktiken, Schmeichelei, Vermenschlichung, …

Weiterlesen …

Continuous Thought Machines: ein neuronales Netzwerk, das Gehirnprozesse nachahmt

Sakana AI, mitbegründet von ehemaligen Google-KI-Forschern, hat eine neue Architektur für neuronale Netze namens Continuous Thought Machines (CTM) vorgestellt. Im Gegensatz zu herkömmlichen Transformer-basierten Modellen, die Informationen parallel verarbeiten, integrieren CTMs eine zeitbasierte Dimension, die nachahmt, wie biologische Gehirne arbeiten und so flexibleres und anpassungsfähigeres Denken ermöglicht. Die zentrale Innovation bei CTMs ist ihre Behandlung …

Weiterlesen …

Neuer Benchmark: Führende KI-Modelle produzieren selbstsicher falsche Informationen

Ein neuer Benchmark namens Phare zeigt, dass führende Large Language Models (LLMs) häufig falsche Informationen mit hoher Überzeugungskraft generieren, besonders bei der Verarbeitung von Fehlinformationen. Die von Giskard in Zusammenarbeit mit Partnern wie Google DeepMind durchgeführte Untersuchung bewertete die Top-Modelle von acht KI-Anbietern in mehreren Sprachen. Die Phare-Benchmark konzentriert sich auf vier kritische Bereiche: Halluzination, …

Weiterlesen …

Auch Forscher wissen nicht genau, wie KI-Sprachmodelle funktionieren

Wissenschaftler, die große Sprachmodelle entwickeln, stehen vor einem grundlegenden Problem: Sie verstehen nicht wirklich, wie diese KI-Systeme funktionieren. Dies berichtet James O’Brien in einem aktuellen Artikel für Quanta Magazine. Martin Wattenberg, Sprachmodellforscher an der Harvard University, vergleicht den Prozess mit dem Anbau einer Tomatenpflanze: Man schafft die Bedingungen für das Wachstum, versteht aber nicht die …

Weiterlesen …

Studie zeigt mögliche Bevorzugung großer KI-Anbieter durch LM Arena

Eine neue Studie von Forschern aus den Organisationen Cohere, Stanford, MIT und Ai2 wirft LM Arena vor, großen KI-Unternehmen Vorzugsbehandlung zu gewähren. Laut eines Berichts von Maxwell Zeff bei TechCrunch durften Firmen wie Meta, OpenAI, Google und Amazon mehrere Modellvarianten privat testen und nur die Ergebnisse der besten veröffentlichen. Die Forscher behaupten, Meta habe vor …

Weiterlesen …

KI unterstützt Wissenschaftler bei Entwicklung neuer Experimente

Künstliche Intelligenz wird zunehmend eingesetzt, um wissenschaftliche Experimente zu entwerfen und Entdeckungen voranzutreiben. Mario Krenn, ein Quantenphysiker und Leiter des Artificial Scientist Lab, entwickelte etwa das KI-Programm Melvin, das erfolgreich Quantenexperimente konzipierte, als menschliche Forscher keine Lösung fanden. Gregory Barber berichtet in Quanta Magazine, wie Krenns Erfahrung ihn dazu brachte, sich auf die Integration von …

Weiterlesen …

Google DeepMind-Forscher prognostizieren „Ära der Erfahrung“

Forscher von Google DeepMind sehen einen bedeutenden Wandel in der Entwicklung künstlicher Intelligenz voraus. David Silver und Richard S. Sutton nennen diese kommende Phase die „Ära der Erfahrung“. Sie beschreiben ihre Vision in einem Vorabdruck eines Buchkapitels für den Verlag MIT Press. Die Wissenschaftler argumentieren, dass aktuelle KI-Systeme, insbesondere große Sprachmodelle, an die Grenzen dessen …

Weiterlesen …