Amazon investiert stark in eigene KI-Chips entwickelt durch Annapurna Labs, ein in Austin ansässiges Startup, das Amazon 2015 für 350 Millionen US-Dollar übernommen hat. Ziel ist es, die Effizienz in den Rechenzentren zu steigern und die Kosten für Amazon und seine AWS-Kunden zu senken, schreibt die Financial Times. Laut Dave Brown, Vizepräsident für Rechen- und Netzwerkdienste bei AWS, ist Amazons „Inferentia“-Linie von KI-Chips bereits 40% günstiger im Betrieb für die Generierung von KI-Antworten im Vergleich zu Marktführer Nvidia.
Amazons Investitionsausgaben werden voraussichtlich im Jahr 2024 75 Milliarden Dollar erreichen, wobei der Großteil auf Technologieinfrastruktur entfällt. Das Unternehmen baut seine KI-Infrastruktur von Grund auf neu, einschließlich der Siliziumwafer, Serverracks sowie proprietärer Software und Architektur. Obwohl AWS und Annapurna die Dominanz von Nvidia bisher nicht wesentlich beeinflussen konnten, sind Branchenexperten der Ansicht, dass es entscheidend ist, den Kunden mehr Auswahl zu bieten, da Nvidia derzeit einen Marktanteil von 90% im Bereich der KI-Prozessoren hält.