Nvidia en
Meta hebben een omvangrijk meerjarig akkoord gesloten om miljoenen
AI-chips te leveren aan
Meta’s datacenters, inclusief krachtige nieuwe processoren zoals Grace- en Vera-chips die een rol moeten spelen in de toekomst van kunstmatige intelligentie en dataverwerking. De overeenkomst omvat zowel huidige generaties AI-chips als toekomstig te bouwen exemplaren.
Lees daarover meer via The Verge.
Chips voor AI-infrastructuur
Het akkoord voorziet in de levering van grote aantallen AI-chips van
Nvidia aan Meta, het moederbedrijf van platforms als Facebook, Instagram en WhatsApp. Daarbij gaat het om gespecialiseerde grafische processoren en centrale processors, bedoeld om niet alleen grote modellen voor machinelearning te trainen maar ook om AI-reacties en toepassingen efficiënt uit te voeren. De chips zullen worden ingezet in de enorme datacenters van Meta, waar schaal en snelheid essentieel zijn voor de prestaties van AI-diensten.
Een van de centrale onderdelen van de deal is de inzet van Nvidia’s Grace-chips in grootschalige datacenteromgevingen. Deze chips zijn gebaseerd op de Arm-architectuur en ontworpen om AI-taken en andere backend-werkzaamheden te verwerken met een sterke focus op efficiënt energiegebruik. Volgens Nvidia-vertegenwoordigers kunnen deze processors ongeveer tweemaal zoveel prestaties per watt leveren in bepaalde toepassingen, waardoor bedrijven als Meta hun datacenters zuiniger kunnen laten draaien.
Naast Grace zijn er ook plannen voor de inzet van de nieuwere Vera-chips, die nog krachtiger en energiezuiniger moeten zijn en rond 2027 op grotere schaal ingezet kunnen worden in de datacenters van Meta. Deze processors zijn eveneens gebaseerd op Arm-technologie maar zijn verder ontwikkeld voor intensievere AI-workloads en efficiëntere verwerking dan hun voorgangers.
Meer dan alleen grafische processors
Hoewel Nvidia vooral bekendstaat om zijn grafische processoren (GPU’s), spelen de centrale processors (CPU’s) zoals Grace en Vera een groeiende rol in AI-infrastructuur. GPU’s zijn traditioneel belangrijk voor het trainen van modellen, maar CPUs zijn nodig voor andere delen van de workflow, zoals het runnen van AI-agents of het verwerken van grote aantallen kleine taken tegelijk. Het gebruik van standalone CPU-chips voor dergelijke toepassingen is een ontwikkeling die Meta nu op grotere schaal inzet.
Het akkoord omvat ook levering van Nvidia’s Blackwell- en toekomstige Rubin-GPU’s, die zijn ontworpen voor zwaar AI-werk. Deze chips dienen om complexe modellen te trainen en te bedienen, vooral wanneer veel rekenkracht nodig is. Door deze mix van CPU’s en GPU’s wil Meta zijn AI-infrastructuur zo flexibel mogelijk maken voor verschillende soorten taken.
Waarom deze samenwerking?
Meta heeft in het verleden ook geprobeerd om eigen AI-chips te ontwikkelen, maar dat proces heeft zich moeilijker en trager ontwikkeld dan verwacht. Daarom blijft het bedrijf sterk afhankelijk van leveranciers zoals Nvidia om de hardware-basis van zijn AI-diensten te waarborgen. Door een langdurige samenwerking en de toegang tot miljoenen processors, kan Meta zijn datacenters uitbreiden en optimaliseren.