Amazon entwickelt eigene KI-Chips, um Abhängigkeit von Nvidia zu verringern

Amazon investiert stark in eigene KI-Chips entwickelt durch Annapurna Labs, ein in Austin ansässiges Startup, das Amazon 2015 für 350 Millionen US-Dollar übernommen hat. Ziel ist es, die Effizienz in den Rechenzentren zu steigern und die Kosten für Amazon und seine AWS-Kunden zu senken, schreibt die Financial Times. Laut Dave Brown, Vizepräsident für Rechen- und Netzwerkdienste bei AWS, ist Amazons „Inferentia“-Linie von KI-Chips bereits 40% günstiger im Betrieb für die Generierung von KI-Antworten im Vergleich zu Marktführer Nvidia.

Amazons Investitionsausgaben werden voraussichtlich im Jahr 2024 75 Milliarden Dollar erreichen, wobei der Großteil auf Technologieinfrastruktur entfällt. Das Unternehmen baut seine KI-Infrastruktur von Grund auf neu, einschließlich der Siliziumwafer, Serverracks sowie proprietärer Software und Architektur. Obwohl AWS und Annapurna die Dominanz von Nvidia bisher nicht wesentlich beeinflussen konnten, sind Branchenexperten der Ansicht, dass es entscheidend ist, den Kunden mehr Auswahl zu bieten, da Nvidia derzeit einen Marktanteil von 90% im Bereich der KI-Prozessoren hält.

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen