Amazon heeft onlangs een nieuw serverontwerp getest in hun faciliteit in Austin, Texas. De servers zijn uitgerust met Amazon’s eigen kunstmatige intelligentie (AI) chips, een strategische zet om minder afhankelijk te zijn van Nvidia, wiens dure chips momenteel een groot deel van de AI cloudbusiness bij Amazon Web Services (AWS) aandrijven.
De ontwikkeling van eigen chips is cruciaal voor Amazon. Het bedrijf wil de zogenaamde "Nvidia-tax" vermijden, aangezien de kosten van hiervan een aanzienlijke impact hebben op de winstgevendheid van AWS, de snelst groeiende sector van Amazon. AWS is essentieel voor Amazon’s bedrijfsmodel, goed voor bijna een vijfde van de totale omzet. Met een omzet van $25 miljard in het eerste kwartaal, blijft AWS een dominante speler in de cloud computing markt.
Door zelf AI chips te ontwikkelen, kan Amazon goedkopere en efficiëntere oplossingen bieden aan zijn klanten. Amazon’s eigen chips, zoals de Trainium en Inferentia, bieden een verbeterde prijs prestatieverhouding tot 40-50% in vergelijking met Nvidia zijn oplossingen.
Het programma heeft een dubbel doel: zowel klanten voorzien van betaalbare opties voor complexe berekeningen en grote dataverwerking, en de concurrentiepositie van Amazon in de dynamische cloud computing en AI-industrie behouden. Dit sluit aan bij de strategieën van andere techgiganten zoals Microsoft en Alphabet, die ook eigen chips ontwikkelen.
De overname van Annapurna Labs in 2015 was een belangrijke stap voor Amazon in zijn strategie. Volgens Rami Sinno, directeur van engineering bij Annapurna Labs, is er een groeiende vraag naar betaalbare alternatieven voor Nvidia’s producten. Amazon's Graviton- hip is nu in zijn vierde generatie en is een voorbeeld van hun succesvolle chip ontwikkeling.
Ondertussen blijft Nvidia innoveren met hun aankomende Blackwell-chips, die krachtiger zijn voor AI modeltraining en sneller voor inferentie. Nvidia blijft een dominante kracht in de AI chipmarkt met een indrukwekkende marktwaarde van $2 biljoen.