In de huidige AI-wereld zijn
GPU’s (grafische processoren) de helden van het verhaal. Ze draaien grootschalige AI-modellen, zorgen voor razendsnelle berekeningen en vormen de ruggengraat van alles van chatbots tot beeldherkenning. Maar volgens Naman Kabra kijken we te veel in één richting — en vergeten we het enorme, onbenutte potentieel van CPU’s (centrale processoren).
En dat kost ons niet alleen geld, maar ook kansen. Dat
stelt Naman Kabra, co-founder and CEO of NodeOps Network.
GPU's domineren, maar tegen welke prijs?
De afgelopen jaren is de markt voor AI-hardware volledig gedomineerd door GPU's. Grote techbedrijven zoals OpenAI, Google en Meta investeren miljarden in GPU-clusters om hun AI-modellen te trainen. En terecht: GPU’s zijn uitzonderlijk goed in parallelle berekeningen, essentieel bij complexe AI-taken.
Maar dat betekent niet dat ze altijd de beste keuze zijn.
We zijn zó gefocust op GPU’s, dat we vergeten dat miljoenen CPU’s wereldwijd grotendeels ongebruikt blijven — terwijl ze prima AI-taken kunnen uitvoeren. Taken die minder brute kracht, maar meer logica en flexibiliteit vragen.
Waar CPU’s wél in uitblinken
Niet elke AI-taak draait om rekenkracht alleen. Denk aan:
- Het interpreteren van data
- Het beheren van logische ketens
- Documenten ophalen en structureren
- Antwoorden geven op vragen
- Kleine modellen draaien of optimalisaties uitvoeren
Deze taken vragen niet om brute matrixverwerking, maar om besluitvorming en flexibiliteit — precies waar CPU’s goed in zijn. In veel autonome agent-systemen, zoals AI-tools die projecten plannen of webdata doorzoeken, draait het denkwerk nog altijd op CPU’s.
En ja, zelfs AI-inferentie (het daadwerkelijk gebruiken van getrainde modellen) kan prima via CPU’s — zeker als het om kleinere, geoptimaliseerde modellen gaat of als ultralage latency geen vereiste is.
De rol van gedecentraliseerde compute-netwerken
Hier komt de volgende slimme stap: het inzetten van gedecentraliseerde fysieke infrastructuurnetwerken (DePINs).
In plaats van steeds nieuwe, dure datacentra vol GPU's te bouwen, kunnen we bestaande, ongebruikte CPU-capaciteit benutten. Denk aan een peer-to-peer netwerk waarin gebruikers hun ongebruikte rekenkracht (vaak CPU’s) ter beschikking stellen.
Dit model biedt meerdere voordelen:
- Kostenbesparing: Geen dure GPU-huur als een CPU voldoende is
- Schaalbaarheid: Netwerk groeit mee met het aantal deelnemers
- Efficiëntie en privacy: Taken kunnen lokaal worden verwerkt, dicht bij de bron van de data
Een Airbnb voor rekenkracht, noemt Kabra het. In plaats van nieuwe ‘hotels’ bouwen, gebruiken we de ‘lege kamers’ die al bestaan.
De echte bottleneck is onze mindset
De kern van Kabra’s betoog is duidelijk: we moeten stoppen met CPU’s als inferieur te beschouwen in de AI-keten. GPU’s zijn belangrijk — maar CPU’s zijn overal, onderbenut en volledig in staat om talloze AI-taken uit te voeren.
Door onze infrastructuur slimmer in te richten, met CPU’s én GPU’s op de juiste plek, kunnen we AI schaalbaarder, goedkoper en duurzamer maken.
“De beperking zit niet in het aantal GPU’s, maar in ons denkpatroon.”
Conclusie
Het is tijd om onze kijk op AI-infrastructuur te verbreden. Door gedecentraliseerde compute-netwerken in te zetten en de kracht van CPU’s te herwaarderen, kunnen we veel efficiënter omgaan met wat we al hebben.
Dus voordat we miljarden steken in nóg meer GPU’s, moeten we ons afvragen: gebruiken we de rekenkracht die al beschikbaar is wel optimaal?