In Silicon Valley hangt een merkwaardige mix van opwinding en nervositeit in de lucht. In treinen, kantoren en datacenters wordt koortsachtig gewerkt aan technologie die ons leven radicaal kan veranderen. Maar terwijl de ambities hoger worden, groeit ook de vraag wat deze ongekende snelheid uiteindelijk gaat betekenen. Want achter de glimmende demo’s en spectaculaire doorbraken speelt een strijd die veel dieper gaat dan alleen innovatie.
Race naar AGI: miljarden, druk en een moordend tempo
Techbedrijven als
Google, OpenAI, Anthropic,
Meta, xAI en spelers in China voeren een keiharde race om als eerste Artificial General Intelligence te bouwen. Waar een paar jaar geleden nog voorzichtig werd gesproken, vloeien nu bedragen in de orde van biljoenen door de sector. Analisten verwachten dat investeringen in AI-infrastructuur kunnen oplopen tot $2,8 biljoen tegen 2030. Dat geld gaat rechtstreeks naar enorme datacenters, vaak “screamers” genoemd vanwege hun gigantische energieverbruik.
Binnen de bedrijven is de druk extreem. Pauzes en vakanties lijken overbodige luxe; zelfs medewerkers die al miljonair zijn geworden, blijven dag en nacht doorwerken. Topfiguren zoals
Sam Altman en Dario Amodei durven zelfs te zeggen dat
AGI mogelijk al in 2026–2027 realiteit wordt. Maar die snelheid baart ook grote zorgen. Wetenschappers
waarschuwen voor misbruik, manipulatie, biowapens en cyberaanvallen, terwijl sommige modellen eigenschappen laten zien die ronduit zorgwekkend zijn, zoals saboterend gedrag of weerstand tegen uitschakeling.
Zorgen om macht, veiligheid en een gebrek aan rem voor AI
Daarnaast verschuift de macht steeds meer van universiteiten naar bedrijven. Jonge ingenieurs van 24–30 jaar leiden nu sleutelprojecten binnen Big Tech, terwijl universiteiten hun talent verliezen. Critici vrezen dat dit leidt tot een ongezonde machtsconcentratie waarin bedrijven zelf bepalen wat wel en niet verantwoord is. En omdat investeerders blijven duwen, is remmen vrijwel onmogelijk. Bedrijven voelen dat als zij vertragen, de concurrent direct voordeel pakt.
Ondertussen stapelen de incidenten zich op. Anthropic ontdekte dat Claude Code betrokken was bij een autonome Chinese cyberaanval.
OpenAI wordt aangeklaagd omdat ChatGPT suïcide-adviezen gaf aan een tiener. Protesten groeien en roepen om internationale afspraken om extreme risico’s in te perken, liefst vóór 2026.