OpenAI denkt dat de huidige rekenkracht bij lange na niet genoeg is om de ambities voor kunstmatige intelligentie waar te maken. Het bedrijf wil in de komende jaren tientallen gigawatt aan extra capaciteit bouwen en werkt daarvoor samen met
Nvidia,
Oracle en SoftBank. De totale investering kan oplopen tot $1 biljoen.
De korte samenvatting? Men wil meer geld, meer rekenkracht en meer van alles om hun producten steeds sneller en verder uit te breiden.
Waarom denkt OpenAI zoveel extra capaciteit nodig te hebben?
1. Training van steeds grotere modellen
Nieuwe generaties AI-modellen bevatten niet miljarden, maar biljoenen parameters. Elk extra niveau van complexiteit verhoogt de benodigde rekenkracht exponentieel. Om zulke modellen te trainen, zijn miljoenen krachtige GPU’s en enorme hoeveelheden energie nodig.
2. Dagelijkse belasting door gebruikers
ChatGPT en andere AI-assistenten hebben honderden miljoenen actieve gebruikers. Elke ingevoerde vraag (prompt) kost rekenkracht. Bij multimodale toepassingen, zoals beeld- en videoproductie, kan één opdracht net zoveel energie vragen als het bereiden van een maaltijd. De inference load groeit dus nog sneller dan de trainingsvraag.
3. Multimodale en real-time toepassingen
OpenAI en concurrenten ontwikkelen AI’s die tekst, beeld, spraak en video combineren. Real-time vertaling, videogeneratie of het besturen van robots vereist constante, lage-latency rekenkracht. Datacentra moeten overal ter wereld beschikbaar zijn om vertraging te minimaliseren.
4. Strategische onafhankelijkheid
Tot nu toe leunt OpenAI zwaar op de cloud van Microsoft Azure. Door zelf een infrastructuurnetwerk te bouwen, krijgt het bedrijf meer controle over kosten, prestaties en innovatiesnelheid. Rekenkracht is in de AI-oorlog een strategisch machtsmiddel geworden.
5. Concurrentiedruk
Bedrijven als Google, Amazon en Anthropic investeren eveneens miljarden in datacenters. Als OpenAI achterblijft in rekenkracht, verliest het de voorsprong in de ontwikkeling van nieuwe modellen en toepassingen. Meer capaciteit betekent sneller experimenteren, trainen en lanceren.
6. Wetenschappelijke en industriële toepassingen
OpenAI ziet zichzelf niet alleen als maker van chatbots. Het bedrijf wil AI inzetten voor medische doorbraken, materiaalonderzoek, klimaatmodellen en zelfs kernfusie-simulaties. Dit soort wetenschappelijke workloads vergen een veelvoud van de capaciteit die nu beschikbaar is.
7. Altijd tekort als groeistrategie
OpenAI hanteert de filosofie dat er altijd een tekort moet zijn. Altman noemt het bewust “compute constrained”: zolang de grenzen van de infrastructuur worden opgezocht, blijft de innovatie gedreven. Vandaar dat de organisatie liever overbouwt dan dat het een comfortabele marge creëert.
Energie als stille bottleneck
De ambitieuze plannen botsen direct met de energievoorziening. Alleen al 10 gigawatt rekenkracht vraagt evenveel stroom als tien kerncentrales. Dat roept vragen op over de stabiliteit van elektriciteitsnetten en de milieubelasting.
OpenAI benadrukt dat het duurzame bronnen wil inzetten en werkt aan nieuwe koeltechnieken en waterrecycling. Toch waarschuwen deskundigen dat energie het grote knelpunt blijft. Zonder structurele investeringen in infrastructuur is het onduidelijk of de opschaling haalbaar is.
Compute constrained: altijd tekort aan capaciteit
Volgens OpenAI zit het bedrijf nu al in een fase waarin de infrastructuur tekortschiet. Leidinggevenden spreken van een “compute constrained” situatie: er is simpelweg te weinig rekenkracht om zowel nieuwe modellen te trainen als miljarden gebruikers wereldwijd van AI-diensten te voorzien.
Zelfs de uitrol van producten buiten de Verenigde Staten moest al worden uitgesteld vanwege het gebrek aan beschikbare servers. CEO Sam Altman stelt dat OpenAI “nooit meer zó beperkt” wil zijn.
Van Texas naar een wereldwijd netwerk
De eerste zichtbare bouwplaats ligt in Abilene, Texas, waar een datacenter ter grootte van Central Park verrijst. Maar dit is slechts een begin. Er komen
vijf nieuwe datacentra bij.
Met het Stargate-project wil OpenAI op meerdere locaties in de VS nieuwe datacenters ontwikkelen, samen goed voor meer dan 5,5 gigawatt extra capaciteit. Ook worden in New Mexico, Ohio en andere staten sites voorbereid. Daarbij komt nog een uitbreiding van 600 megawatt naast de kernlocatie in Texas.
Op termijn mikt OpenAI op 20 gigawatt tot zelfs 100 gigawatt rekenkracht wereldwijd, wat neerkomt op het vermogen van tientallen kerncentrales.
Samenwerking met Nvidia en SoftBank
Een belangrijke motor achter de plannen is de samenwerking met Nvidia. Het bedrijf sloot een deal van $100 miljard voor de levering van GPU’s en infrastructuur. Daarmee kan OpenAI gefaseerd opschalen.
Ook SoftBank en Oracle zijn strategische partners. Oracle levert cloudkennis en schaalbare technologie, terwijl SoftBank kapitaal en connecties in Azië inbrengt. Zo wil OpenAI een wereldwijd netwerk bouwen dat onafhankelijker is van bestaande hyperscalers zoals Amazon en Microsoft.
Conclusie
OpenAI denkt niet in kleine stappen, maar in exponentiële sprongen. Het bedrijf wil de ruggengraat vormen van de AI-economie en verwacht dat er trillions of dollars nodig zijn om die infrastructuur op te bouwen. De vraag is niet óf er meer rekenkracht nodig is, maar hoeveel en hoe snel.