OpenAI gebruikt dit jaar meer dan 1 miljoen
GPU’s, kondigde CEO Sam Altman recent aan. De inzet van deze enorme rekenkracht ondersteunt niet alleen de groei van modellen zoals GPT‑4.5, maar versnelt ook innovatie binnen de hele AI-sector.
Al bij de introductie van GPT‑4.5 meldde Altman dat OpenAI “out of GPUs” was door de ongekende vraag.
Waarom gebruikt OpenAI zo veel GPU’s?
AI-bedrijven zoals OpenAI zetten GPU’s in voor drie kerndoelen:
- Modeltraining op schaal:
Grote taalmodellen zoals GPT‑4.5 vergen tientallen tot honderdduizenden GPU’s voor training. Hoe meer GPU’s beschikbaar zijn, hoe sneller en nauwkeuriger een model kan worden getraind.
- Realtime toepassingen (inference):
Toepassingen zoals ChatGPT en AI-beeldgeneratie draaien continu op GPU’s. Gebruikers verwachten directe antwoorden of beelden, wat extreem veel rekenkracht vraagt.
- Concurrentie in infrastructuur:
OpenAI’s concurrenten investeren fors. Meta mikt op 1,3 miljoen GPU’s tegen eind 2025. Elon Musk’s xAI wil groeien van 200.000 naar 1 miljoen GPU’s. OpenAI moet meebewegen om leidend te blijven.
Wat doen AI-bedrijven met al die GPU’s?
GPU’s worden door AI-bedrijven ingezet voor:
- Training van grote AI-modellen:
Modellen als GPT‑4.5 en Claude 3 gebruiken honderdduizenden GPU’s tijdens de trainingsfase.
- Realtime gebruik (inference):
Elke keer dat een gebruiker ChatGPT gebruikt, worden GPU’s ingezet om tekst of beeld direct te genereren. Zeker multimodale modellen vragen veel rekenkracht.
- Onderzoek en optimalisatie:
GPU’s ondersteunen experimenten met kleinere, efficiëntere AI-modellen die minder stroom en geheugen vragen.
- Talent aantrekken:
Bedrijven met veel GPU-capaciteit trekken makkelijker top-AI-onderzoekers aan. Een voorbeeld: Priscilla Chan gaf aan dat het Chan Zuckerberg Initiative speciaal GPU’s inzet om talent binnen te halen.
OpenAI’s volgende stappen in hardware
De groei naar 1 miljoen GPU’s is slechts het begin. OpenAI werkt actief aan nieuwe stappen:
- Diversificatie van cloudleveranciers:
Naast Microsoft Azure gebruikt OpenAI nu ook Google Cloud, inclusief krachtige TPU’s (Tensor Processing Units).
- Ontwikkeling van eigen AI-chip:
Samen met Broadcom ontwikkelt OpenAI een eigen chip, naar verwachting in 2026 in gebruik. Hiermee wil het bedrijf onafhankelijker worden van Nvidia.
- Gigadeals met cloudspecialisten:
OpenAI sloot een overeenkomst van $11,9 miljard met CoreWeave voor toegang tot meer dan 250.000 GPU’s. Deze infrastructuur is essentieel voor schaalbare AI-diensten.
Waarom zegt Altman “now they better get to work figuring out how to 100x that lol”?
Sam Altman’s
uitspraak lijkt op het eerste gezicht luchtig, maar is strategisch bedoeld. Hij benadrukt dat toekomstige AI-systemen nog veel meer rekenkracht nodig zullen hebben. Om voorbereid te zijn op GPT‑5 en verder, moeten AI-bedrijven nu al nadenken over hoe ze 100 keer meer rekencapaciteit efficiënt kunnen inzetten.
Impact op AI, economie en samenleving
De inzet van miljoenen GPU’s heeft brede gevolgen:
- Kostenverlaging:
Meer rekenkracht maakt AI-toepassingen betaalbaarder voor bedrijven en consumenten. Altman noemt AI zelfs deflationair: het verlaagt structureel kosten in allerlei sectoren.
- Versnelling van innovatie:
Hogere GPU-capaciteit maakt toepassingen mogelijk zoals autonoom rijden, AI in de gezondheidszorg, en wetenschappelijk onderzoek op schaal.
- Energie en duurzaamheid:
Datacenters die miljoenen GPU’s ondersteunen verbruiken enorme hoeveelheden stroom. Dat stelt eisen aan duurzaamheid, netcapaciteit en energie-efficiëntie.
OpenAI’s inzet van meer dan 1 miljoen GPU’s toont hoe cruciaal infrastructuur is in de AI-wedloop. Bedrijven die op schaal willen innoveren, moeten investeren in eigen chips, nieuwe cloudstrategieën en zuinigere AI-modellen. Altman’s oproep om de capaciteit te “100x-en” laat zien dat deze strijd pas net begonnen is.