Nvidia hat auf seiner jährlichen GTC-Konferenz in San Jose eine Reihe neuer Produkte vorgestellt. Sie alle folgen einem gemeinsamen Gedanken: Künstliche Intelligenz entwickelt sich von Systemen, die Fragen beantworten, zu Systemen, die selbstständig über lange Zeiträume handeln.
Das wichtigste neue Produkt ist Vera Rubin, eine Rechenplattform aus sieben Chips, die sich alle in Serienproduktion befinden. Die größte Konfiguration, das NVL72-Rack, verbindet 72 Rubin-Grafikprozessoren mit 36 Vera-Zentralprozessoren. Nvidia gibt an, das System liefere bis zu zehnmal mehr Rechenleistung pro Watt als die bisherige Blackwell-Generation. Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure wollen die Plattform anbieten. Laut VentureBeat sprachen sich Anthropic-Chef Dario Amodei und OpenAI-Chef Sam Altman öffentlich auf der Veranstaltung für das Produkt aus.
Der Vera-CPU, den Nvidia als speziell für autonome KI-Aufgaben entwickelt bezeichnet, markiert einen strategischen Kurswechsel. Wie CNBC berichtet, haben Nvidias Grafikprozessoren das Unternehmen zur wertvollsten börsennotierten Gesellschaft der Welt gemacht, mit einem Börsenwert von 4,4 Billionen Dollar. Autonome KI-Systeme brauchen jedoch eine andere Art von Rechenleistung: weniger parallele Berechnungen, mehr sequenzielle Aufgabenverwaltung. Die Bank of America prognostiziert, der CPU-Markt könne von 27 Milliarden Dollar im Jahr 2025 auf 60 Milliarden Dollar bis 2030 wachsen. AMDs Leiter des Rechenzentrumgeschäfts sagte CNBC, die Nachfrage der vergangenen sechs bis neun Monate sei „beispiellos“ gewesen.
Neben der Server-Hardware stellte Nvidia die DGX Station vor. Dieses Gerät für den Schreibtisch kann KI-Modelle mit bis zu einer Billion Parametern lokal betreiben, also ohne Cloud-Anbindung. Es basiert auf dem GB300 Grace Blackwell Ultra Desktop Superchip, bietet 748 Gigabyte kohärenten Arbeitsspeicher und 20 Petaflops Rechenleistung. Für Branchen mit strengen Datenschutzanforderungen gibt es eine vollständig netzwerkgetrennte Variante. Programme, die auf der DGX Station entwickelt werden, lassen sich laut Nvidia ohne Codeänderungen auf Rechenzentrum-Systeme des Unternehmens übertragen. Zu den ersten Nutzern zählen laut VentureBeat Snowflake, Microsoft Research und die Cornell University.
Sicherheit war diesmal von Anfang an Teil der Plattform, nicht ein nachträglicher Zusatz. Fünf Anbieter kündigten Schutzlösungen für Nvidias Plattform an: CrowdStrike, Palo Alto Networks, Cisco, JFrog und Worldwide Technology. Jensen Huang erklärte auf der Veranstaltung, autonome KI-Systeme könnten „auf vertrauliche Informationen zugreifen, Code ausführen und extern kommunizieren“ — und das dürfe ohne Kontrollen „auf keinen Fall“ geschehen. VentureBeat verweist darauf, dass Cybersicherheitsexperten autonome KI-Systeme als wichtigstes Angriffsziel für 2026 einschätzen. Analysten weisen zudem darauf hin, dass Vertrauen zwischen Agenten, Speicherintegrität und lückenlose Herkunftsnachweise für Softwarekomponenten noch ungelöste Probleme darstellen.
Weitere Ankündigungen umfassten Dynamo 1.0, ein Open-Source-System zur Verwaltung von KI-Inferenz in großem Maßstab, das bereits von AWS, Azure und Google Cloud eingesetzt wird, sowie die Nemotron Coalition, ein Zusammenschluss von KI-Laboren zur gemeinsamen Entwicklung offener Modelle. Außerdem gab Nvidia eine Partnerschaft mit Uber bekannt, die bis 2028 den Einsatz autonomer Fahrzeuge in 28 Städten vorsieht.
Quellen: CNBC, VentureBeat, VentureBeat, VentureBeat
