Onderzoeksorganisatie
Epoch AI heeft een analyse gepubliceerd van de middelen die nodig waren om
Grok-4, een groot AI-model van Elon Musks bedrijf xAI, te trainen. De cijfers schetsen een beeld van de enorme schaal waarop moderne AI wordt ontwikkeld, en de hoge prijs die dat met zich meebrengt in geld, energie en milieu-impact.
Miljardeninvesteringen en energieverbruik
Volgens de schattingen kostte het trainen van Grok-4 bijna een half miljard dollar. De rekenkracht kwam van duizenden krachtige NVIDIA H100-chips, verspreid over datacenters. Datacenters die niet alleen draaien op elektriciteit voor de hardware zelf, maar ook voor koeling, opslag en infrastructuur. Epoch rekent uit dat het totale stroomverbruik neerkomt op ongeveer 310 gigawattuur, een hoeveelheid die vergelijkbaar is met het jaarlijkse verbruik van een klein stadje in de Verenigde Staten.
Water en CO₂-uitstoot
De milieubelasting blijft niet beperkt tot elektriciteit. Voor de koeling van de servers zou meer dan 750 miljoen liter water nodig zijn geweest, ongeveer evenveel als het vullen van honderden olympische zwembaden. Daarbovenop komt een geschatte uitstoot van 150.000 ton CO₂-equivalent tijdens de trainingsperiode, een hoeveelheid die gelijkstaat aan de jaarlijkse uitstoot van duizenden huishoudens.
Alleen de training zelf
Epoch benadrukt dat dit alles alleen betrekking heeft op het trainingsproces zelf. De berekeningen houden geen rekening met de inzet van mensen, het ontwikkelen van proefmodellen of de energie die nodig is om Grok-4 daarna wereldwijd aan miljoenen gebruikers beschikbaar te maken. Het gaat dus om een ondergrens van wat deze technologie werkelijk vergt.
Onzekerheden in de berekeningen
Omdat
xAI zelf weinig details naar buiten brengt, baseerde Epoch zich op vergelijkingen met eerdere modellen zoals Grok-3, aangevuld met aannames over efficiëntie en schaalvergroting. De onderzoekers erkennen dat er onzekerheden in de cijfers zitten: de werkelijke waarden kunnen lager uitvallen, maar ook aanzienlijk hoger.
Breder perspectief
De analyse laat zien dat de ontwikkeling van AI niet alleen draait om slimme algoritmes en innovatie, maar ook om harde infrastructuur en grote hoeveelheden middelen. Terwijl de discussie in de publieke ruimte vaak gaat over toepassingen en risico’s van AI, wijzen studies als die van Epoch op de minder zichtbare kosten. De vraag is hoe lang zulke investeringen houdbaar zijn, zowel financieel als ecologisch, nu de concurrentie tussen bedrijven als OpenAI, Google, Anthropic en xAI de drang naar steeds grotere modellen blijft aanwakkeren.