De race naar kunstmatige algemene intelligentie (AGI) is een gigantisch duur experiment. Onderzoekers vragen zich af: waar leidt het eigenlijk naartoe?
Uit een recente enquête onder 475 kunstmatige intelligentie (AI) onderzoekers blijkt dat maar liefst 76% denkt dat het simpelweg groter en krachtiger maken van modellen nooit zal leiden tot AGI. Toch blijven techreuzen als Microsoft, Google en Amazon miljarden pompen in enorme datacenters en geavanceerde hardware.
Waarom blijft de industrie vasthouden aan een strategie die volgens de experts weinig toekomst heeft?
In 2024 stroomde er maar liefst $56 miljard aan durfkapitaal naar generatieve AI, en Microsoft heeft aangekondigd in 2025 nog eens $80 miljard uit te geven aan AI infrastructuur. De vraag naar rekenkracht is zo gigantisch dat techgiganten zelfs kerncentrales inzetten om hun datacenters draaiende te houden.
Maar levert al die schaalvergroting eigenlijk nog iets op? Recente ontwikkelingen suggereren van niet. OpenAI ontdekte dat de nieuwste GPT modellen nauwelijks nog vooruitgang boeken ten opzichte van eerdere versies. Zelfs Google CEO Sundar Pichai gaf toe dat de "makkelijke AI winsten" achter ons liggen.
En dan is er nog de Chinese startup DeepSeek, die liet zien dat het met een veel efficiëntere aanpak AI modellen ontwikkelt tegen een fractie van de kosten. Dat zet alles op scherp: moet de industrie zich niet minder focussen op brute kracht en meer op slimme innovaties?
Terwijl de techreuzen miljarden blijven verbranden aan brute-force schaalvergroting, zoeken kleinere spelers naar slimmere en efficiëntere manieren om AI te verbeteren. Een veelbelovende aanpak is Mixture of Experts (MoE), een methode die DeepSeek succesvol toepast. In plaats van één gigantisch AI model dat alles moet kunnen, worden meerdere gespecialiseerde netwerken, de "experts," ingezet, elk met hun eigen vakgebied. Dit zorgt niet alleen voor slimmere en efficiëntere AI, maar bespaart ook een hoop kosten en energie.