Nvidia zeigt Llama Nemotron-Modelle für KI-Agenten und Reasoning

Auf der GPU Technology Conference (GTC) 2025 kündigte Nvidia eine neue Familie von KI-Modellen namens Llama Nemotron an, die entwickelt wurden, um die Reasoning-Fähigkeiten autonomer KI-Agenten zu verbessern. Diese Modelle basieren auf Metas Open-Source-Llama-Modellen, wurden jedoch durch Post-Training-Optimierungstechniken verfeinert, um ihre Leistung bei komplexen Aufgaben wie mehrstufiger Mathematik, Programmierung und Entscheidungsfindung zu verbessern.

Die Llama Nemotron-Familie ist in drei verschiedenen Größen erhältlich, die jeweils für unterschiedliche Einsatzszenarien optimiert sind:

  • Nemotron Nano: Für Edge-Geräte und Personal Computer konzipiert
  • Nemotron Super: Optimiert für den Betrieb auf einer einzelnen GPU
  • Nemotron Ultra: Entwickelt für maximale Leistung auf mehreren GPU-Servern

Laut Nvidia sind diese Modelle 20% genauer als die ursprünglichen Llama-Modelle und bieten eine fünfmal schnellere Inferenzgeschwindigkeit. Eine Schlüsselfunktion ist die Möglichkeit, Reasoning je nach Aufgabe ein- oder auszuschalten, wodurch Systeme rechenintensive Reasoning-Schritte für einfache Anfragen umgehen können.

Bausteine für KI-Agenten

Über die Modelle hinaus stellte Nvidia mehrere Komponenten zur Unterstützung der Entwicklung fortschrittlicher KI-Agenten vor:

Das Unternehmen enthüllte den AI-Q Blueprint, ein Open-Source-Framework, das Entwicklern hilft, KI-Agenten mit Unternehmenssystemen und verschiedenen Datenquellen zu verbinden. Dieses Framework integriert sich mit Nvidia NeMo Retriever und erleichtert es KI-Agenten, multimodale Daten in verschiedenen Formaten abzurufen.

Nvidia kündigte auch die AI Data Platform an, ein Referenzdesign für Speicheranbieter wie Dell, HPE, IBM und NetApp, um effizientere Datenplattformen für KI-Workloads zu entwickeln. Durch die Kombination optimierter Speicherressourcen mit Nvidias beschleunigter Rechenleistung zielt die Plattform darauf ab, einen reibungslosen Datenfluss von Datenbanken zu Modellen zu gewährleisten.

Neue Hardware und Partnerschaften

Ergänzend zu diesen Software-Ankündigungen erläuterte Nvidia-CEO Jensen Huang die Hardware-Roadmap des Unternehmens. Die Blackwell-Plattform, die laut Huang die 40-fache KI-Leistung ihres Vorgängers Hopper liefert, befindet sich nun in der „Vollproduktion“. Für die Zukunft enthüllte Huang Pläne für die nächste Generation der Rubin-Architektur, wobei Blackwell Ultra Ende 2025 erscheinen soll, gefolgt von Vera Rubin im Jahr 2026.

Nvidia hat auch seine Partnerschaften mit großen Technologieunternehmen erweitert. Das Unternehmen arbeitet mit Oracle zusammen, um agentische KI in die Oracle Cloud Infrastructure zu bringen, mit Google DeepMind, um die Gemma-Familie von KI-Modellen zu optimieren, und mit General Motors, um autonome Fahrzeuge zu bauen.

Das Unternehmen macht mit der Ankündigung von Isaac Groot N1, das als „das weltweit erste offene, vollständig anpassbare Foundation-Modell für generalisiertes humanoide Reasoning und Fähigkeiten“ beschrieben wird, einen bedeutenden Vorstoß in die Robotik und physische KI.

Diese Ankündigungen zeigen gemeinsam Nvidias Strategie, seine Position in der KI-Computing-Infrastruktur zu behaupten und gleichzeitig in neue Bereiche zu expandieren, in denen seine Technologie Mehrwert schaffen kann, von Rechenzentren bis hin zu Fahrzeugen und Robotern.

Quellen: Silicon Angle, VentureBeat, VentureBeat

Mehr zum Thema:

Bleib up-to-date: