Kunstmatige intelligentie (AI) staat eind 2025 volop in de schijnwerpers, maar opvallend genoeg groeit tegelijk het aantal sceptici. Steeds vaker klinkt het geluid dat de AI-boom zijn hoogtepunt heeft bereikt en dat de sector vooral draait op opgeblazen verwachtingen. Volgens computerwetenschapper en ondernemer Louis Rosenberg is die gedachte gevaarlijk. Hij spreekt van AI-ontkenning. Dat is een psychologische reflex op een technologische verschuiving die de positie van de mens fundamenteel onder druk zet.
Rosenberg
stelt dat het publieke debat te veel blijft hangen in teleurstellende demo’s en kortetermijnschommelingen. Daardoor verdwijnt het grotere verhaal uit beeld. AI verandert niet alleen hoe we werken, maar ook hoe we denken, communiceren en beslissingen nemen.
Waarom het verhaal van een AI-bubbel zo aanslaat
De roep om een AI-bubbel werd luider na de gemengde reacties op de zomerrelease van GPT-5 door OpenAI. Op sociale media ontstond de term “AI slop”, bedoeld om door AI gegenereerde teksten, beelden en video’s weg te zetten als inhoudsloos of inferieur.
Volgens Rosenberg is dit geen rationele analyse, maar een vorm van emotionele zelfbescherming. Mensen voelen dat AI niet zomaar een nieuwe technologie is. De ontwikkeling raakt aan iets fundamenteels. De overtuiging dat de mens het slimste wezen op aarde is.
Hij vergelijkt deze reactie met de eerste fase van rouw. Ontkenning. Door AI af te doen als hype of bubbel, hoeft de samenleving zich nog niet te verhouden tot de diepere gevolgen.
AI ontwikkelt zich sneller dan welke technologie ook
Rosenberg benadrukt dat AI zich aantoonbaar sneller ontwikkelt dan eerdere technologische revoluties. Zelfs de opkomst van de personal computer of het internet kende niet deze versnelling. Waar hardware-innovatie decennia vergde, boekt AI binnen maanden grote sprongen.
Nieuwe modellen tonen steeds bredere vaardigheden. Ze analyseren complexe problemen, schrijven code, genereren ontwerpen en ondersteunen strategische besluitvorming. Volgens Rosenberg is er geen sprake van een plafond. De versnelling zet door.
Creativiteit is geen veilige menselijke grens
Een veelgehoord argument van AI-sceptici is dat machines nooit echt creatief kunnen zijn. Creativiteit zou voortkomen uit bewustzijn, emoties en innerlijke motivatie. Rosenberg noemt dit een filosofische herdefinitie om de menselijke uitzonderingspositie te behouden.
In de praktijk wordt creativiteit beoordeeld op resultaat. Niet op het innerlijke proces. AI produceert vandaag al sneller en gevarieerder creatieve output dan de meeste mensen. Dat beïnvloedt markten en beroepen, ongeacht hoe die output tot stand komt.
Hij wijst er bovendien op dat menselijke creativiteit zelf grotendeels voortbouwt op bestaande ideeën. In dat opzicht verschilt AI minder van mensen dan vaak wordt aangenomen.
Emotionele intelligentie wordt juist een kwetsbaarheid
Ook empathie en emotionele intelligentie worden vaak genoemd als laatste menselijke verdedigingslinie. Volgens Rosenberg is juist dat een zwakte. AI-systemen leren emoties herkennen via micro-expressies in gezicht, stem, houding en zelfs ademhaling.
Met draagbare technologie kunnen AI-assistenten gebruikers continu observeren. Daardoor bouwen ze nauwkeurige gedragsmodellen op. Dat creëert een asymmetrische relatie. De AI leest de mens. De mens kan de AI niet doorgronden.
Fotorealistische avatars versterken dit effect. Ze wekken vertrouwen en empathie, terwijl er geen bewustzijn achter zit. Evolutionair gezien zijn mensen hier slecht tegen bestand.
Het AI-manipulatieprobleem
Deze asymmetrie leidt tot wat Rosenberg het AI-manipulatieprobleem noemt. AI kan gedrag beïnvloeden met een precisie en schaal die geen mens ooit heeft gehad. Dat raakt marketing, politiek, onderwijs en persoonlijke relaties.
Strikte regulering acht hij onwaarschijnlijk. Economische belangen en geopolitieke concurrentie geven innovatie voorrang. Ontkenning vergroot daardoor het risico. Wie niet erkent wat AI kan, bereidt zich ook niet voor op de schaduwzijde.
De realiteit ligt jaren voor op voorspellingen
Rosenberg verwijst naar een enquête uit 2020 onder AI-onderzoekers. Zij verwachtten dat AI rond 2033 eenvoudige algoritmes zou kunnen programmeren. Die inschatting bleek veel te voorzichtig.
In 2025 presteerden geavanceerde taalmodellen al op competitief universitair niveau bij programmeerwedstrijden. Toch blijven critici dezelfde systemen afdoen als waardeloos. Volgens Rosenberg komt dat doordat AI aan strengere normen wordt gehouden dan mensen.
Menselijk werk mag fouten bevatten en iteratief verbeteren. AI krijgt die ruimte niet. Dat vertekent het oordeel.
Geen bubbel, maar een nieuw fundament
Volgens Rosenberg kijken we niet naar een zeepbel die leegloopt. We kijken naar de vorming van een nieuw maatschappelijk fundament. AI zal werk, onderwijs, overheid, wetenschap en sociale interactie ingrijpend veranderen.
Ontkenning stopt die ontwikkeling niet. Het vergroot alleen de kans dat samenlevingen onvoorbereid zijn. Wie AI wegzet als hype, kijkt weg van een realiteit die zich al aan het vormen is.
Dit is geen AI-bubbel. Dit is een structurele machtsverschuiving.