Meta-topman Mark Zuckerberg zet zwaar in op kunstmatige intelligentie (AI). Zijn bedrijf investeert miljarden dollars in het ontwikkelen van eigen AI-chips om minder afhankelijk te zijn van externe leveranciers zoals Nvidia en om beter in staat te zijn geavanceerde AI-datasystemen te bouwen.
Volgens Reuters test Meta momenteel haar eerste zelfontwikkelde chip, speciaal ontworpen voor het trainen van AI-systemen. Deze ontwikkeling is een belangrijke mijlpaal, aangezien het bedrijf hiermee meer controle krijgt over het ontwerp en de productie van haar eigen hardware.
Twee bronnen binnen het bedrijf geven aan dat Meta inmiddels begonnen is met een kleinschalige implementatie van deze chips. Bij succes zal Meta de productie snel opschalen voor bredere toepassing binnen haar infrastructuur.
Dit is een aanzienlijke stap voor Meta, aangezien het bedrijf momenteel ongeveer 350.000 Nvidia H100-chips gebruikt om haar AI-projecten te ondersteunen. Elke Nvidia-chip kost op de open markt ongeveer 25.000 dollar, hoewel Meta, gezien de omvangrijke bestellingen, vermoedelijk een lagere prijs betaalt.
Recent maakte Meta bekend haar investeringen in AI-infrastructuur aanzienlijk te verhogen tot circa 65 miljard dollar in 2025. Deze investeringen omvatten onder meer uitbreidingen van datacenters, specifiek bedoeld om nieuwe AI-chiptechnologieën te accommoderen.
Meta hintte onlangs naar het potentieel van haar nieuwe chips in een aankondiging waarin zij stelde dat tegen eind 2024 de verwerkingscapaciteit binnen haar AI-infrastructuur gelijk zal staan aan bijna 600.000 Nvidia H100-chips. Dit terwijl zij daadwerkelijk maar 350.000 H100’s zal bezitten. De implicatie is dat Meta's eigen chips deze aanzienlijke extra capaciteit zullen leveren.
Naast interne voordelen opent de ontwikkeling van eigen AI-hardware ook commerciële kansen voor Meta. Nvidia’s H100-chips zijn zeer gewild en beperkt leverbaar vanwege de grote vraag naar AI-hardware wereldwijd. Hoewel Nvidia recentelijk de levertijden heeft kunnen verkorten, blijft de markt krap en competitief.
Het vergroten van haar AI-capaciteit met interne chipproductie geeft Meta dus een belangrijk strategisch voordeel. Verwerkingscapaciteit wordt immers steeds vaker genoemd als dé doorslaggevende factor in de concurrentiestrijd om AI-dominantie.
Ter vergelijking: terwijl Meta nu 350.000 H100-chips bezit, heeft OpenAI naar verluidt ongeveer 200.000 stuks en gebruikt Elon Musks xAI ongeveer hetzelfde aantal voor haar 'Colossus' supercomputer. Tegelijkertijd werken andere techgiganten aan vergelijkbare initiatieven: Google ontwikkelt haar Tensor Processing Units (TPU), en ook Microsoft, Amazon en OpenAI bouwen aan eigen chipprojecten.
Daarnaast speelt er nog een andere factor mee: de mogelijke komst van importheffingen en tariefoorlogen. De Amerikaanse overheid overweegt hogere belastingen op buitenlandse technologieproducten om lokale productie te stimuleren. Wanneer Meta erin slaagt haar chipproductie grotendeels binnen de VS te realiseren, kan dit opnieuw een belangrijk concurrentievoordeel betekenen.
Toch blijft het speculatief of verwerkingskracht uiteindelijk doorslaggevend zal zijn. Recente AI-modellen, zoals DeepSeek, tonen aan dat niet enkel rekenkracht, maar vooral ook het slimme gebruik ervan bepalend kan zijn voor succes.
Mocht verwerkingscapaciteit echter cruciaal blijken in de concurrentiestrijd rond kunstmatige intelligentie, dan heeft Meta met haar nieuwe chipproject in ieder geval een stevige troef in handen.