De indrukwekkende prestaties van moderne AI-modellen wekken soms de indruk dat kunstmatige intelligentie de mens in redenering, creativiteit en kennis zal evenaren.
Toch blijft er volgens lector Pascal Wiggers van de Hogeschool van Amsterdam een fundamenteel probleem bestaan: AI is en blijft onbetrouwbaar. In zijn 
lectorale rede stelt hij dat de tekortkomingen van AI geen tijdelijke kinderziektes zijn, maar structurele beperkingen van de technologie zelf.
Een waarschuwing tegen technologisch optimisme
“AI maakt fouten op onvoorspelbare momenten, kan waarheid niet van onwaarheid onderscheiden en heeft geen notie van betekenis,” aldus Wiggers. “Deze tekortkomingen zullen nooit volledig verdwijnen.”
Met die boodschap plaatst hij zich recht tegenover het optimisme van Silicon Valley, waar techbedrijven en futurologen voorspellen dat kunstmatige intelligentie binnen enkele decennia zal uitgroeien tot superintelligentie, een systeem dat de menselijke geest overtreft.
Volgens Wiggers is die verwachting misleidend. De veronderstelling dat AI steeds slimmer, betrouwbaarder en autonomer zal worden, gaat uit van een verkeerde vergelijking tussen menselijke en machinale intelligentie. Waar mensen leren door betekenis te geven aan ervaringen, leert AI via statistiek: het herkent patronen in enorme hoeveelheden data, maar begrijpt niet wat die patronen betekenen.
De kracht van patroonherkenning
Dat neemt niet weg dat de prestaties van moderne AI indrukwekkend zijn. Systemen als 
ChatGPT of AlphaFold herkennen patronen die voor mensen onzichtbaar blijven. Ze kunnen tumoren op röntgenbeelden detecteren of de driedimensionale structuur van eiwitten voorspellen, taken die vroeger jaren 
onderzoek vergden.
De nieuwste generatie AI-modellen lijkt zelfs te kunnen redeneren, discussiëren en wiskundige problemen oplossen. Wiggers erkent dat deze ontwikkelingen revolutionair zijn, maar benadrukt dat ze niet hetzelfde zijn als menselijk denken. “AI begrijpt niet waarom iets klopt,” zegt hij. “Het voorspelt alleen wat waarschijnlijk is.”
Onder de motorkap van kunstmatige intelligentie
Een belangrijk deel van Wiggers’ onderzoek richt zich op de vraag wat er precies binnenin die modellen gebeurt. Tijdens hun training verwerken ze miljarden woorden, beelden en getallen. Daarbij ontwikkelen ze niet alleen kennis over patronen, maar ook een vorm van metakennis, abstracte inzichten over taalstructuren en strategieën om problemen op te lossen.
Toch is die metakennis geen teken van bewustzijn of begrip. Ze ontstaat automatisch, zonder menselijke sturing. Dat maakt het verleidelijk om AI een vorm van redenering toe te dichten die er in werkelijkheid niet is.
“De modellen geven briljante antwoorden en klinken overtuigend,” aldus Wiggers. “Maar ze kunnen even gemakkelijk totale onzin produceren – en doen dat met hetzelfde zelfvertrouwen.”
Het raadsel van de wolf, de geit en de kool
Om dat te illustreren verwijst Wiggers naar een klassieke logische puzzel: de man die een wolf, een geit en een kool over de rivier moet brengen zonder dat één van hen wordt opgegeten. Wanneer onderzoekers de puzzel iets aanpassen, blijft 
ChatGPT vaak antwoorden alsof het nog steeds de originele versie betreft.
“De AI herhaalt het patroon dat ze kent, zonder te begrijpen dat de context is veranderd,” legt Wiggers uit. “Ze lijkt slim, maar mist betekenis. Dat maakt haar fundamenteel onvoorspelbaar.”
De statistische beperking van machine learning
De oorzaak van die onbetrouwbaarheid ligt diep in de aard van machine learning. AI leert niet zoals mensen – via begrip en ervaring – maar door het berekenen van waarschijnlijkheden. Hoe vaker een patroon voorkomt in de trainingsdata, hoe sterker het model dat patroon gaat gebruiken.
Dat leidt tot grote efficiëntie in voorspelbare situaties, maar ook tot grote fouten in uitzonderlijke gevallen. Zodra iets afwijkt van wat het model gewend is, gaat het mis.
“AI kent niet alle mogelijke situaties,” zegt Wiggers. “Ze is getraind op gemiddelden, niet op de randgevallen waar het vaak juist spannend wordt.”
De risico’s van uitsluiting en vertekening
Die beperkingen hebben reële gevolgen. In sectoren waar AI beslissingen ondersteunt, van de zorg tot de arbeidsmarkt, kan statistische vertekening leiden tot structurele uitsluiting.
Een sollicitant met een ongewoon cv, maar veel potentie, kan door een AI-systeem worden afgewezen omdat het profiel niet past binnen de patronen van ‘succesvolle kandidaten’. Evenzo kunnen medische modellen slechter presteren bij minderheidsgroepen omdat de trainingsdata onvoldoende representatief zijn.
“Het probleem is niet dat AI kwaadwillig is,” aldus Wiggers. “Het probleem is dat ze geen betekenis of context begrijpt. Daardoor kunnen kleine fouten grote gevolgen hebben.”
Waarom fundamentele betrouwbaarheid onhaalbaar is
Wiggers benadrukt dat er geen eenvoudige technische oplossing bestaat. Meer data of grotere modellen lossen het kernprobleem niet op. “Zolang AI leert via correlatie in plaats van begrip, zal ze altijd fouten blijven maken die voor mensen onverklaarbaar zijn,” zegt hij.
Dat betekent niet dat AI onbruikbaar is, integendeel. Ze kan enorme meerwaarde bieden als hulpmiddel voor analyse, detectie en automatisering. Maar volgens Wiggers moeten we haar niet verwarren met een zelfstandig denkend systeem.
“AI is een krachtig instrument, geen verstandige gesprekspartner,” vat hij samen. “Wie dat onderscheid vergeet, neemt risico’s die niet te overzien zijn.”
Naar verantwoord gebruik en kritisch bewustzijn
In zijn rede pleit Wiggers daarom voor kritisch technologisch bewustzijn, zowel in het onderwijs als in het bedrijfsleven. Studenten, onderzoekers en professionals moeten leren om de uitkomsten van AI-systemen te beoordelen, te verklaren en waar nodig te corrigeren.
De Hogeschool van Amsterdam werkt vanuit zijn lectoraat 
Responsible AI aan nieuwe methoden om AI transparanter en mensgerichter te maken. Daarbij staat niet het blind vertrouwen in technologie centraal, maar het vermogen van mensen om die technologie op een verantwoorde manier in te zetten.
“Verantwoord gebruik van AI vraagt om inzicht in haar beperkingen,” besluit Wiggers. “Pas als we accepteren dat kunstmatige intelligentie fundamenteel feilbaar is, kunnen we haar op een zinvolle manier inzetten.”