Artificial Intelligence (AI) is booming. ChatGPT verovert de wereld en AI-toepassingen zijn overal. Maar achter deze populariteit ligt een belangrijke geschiedenis met waardevolle lessen, vindt Michael Wooldridge, hoogleraar aan de Universiteit van Oxford en pionier in agent-gebaseerde AI.
In een recent interview schetst Wooldridge waarom we voorbij de huidige AI-hype moeten kijken en wat de echte toekomst van kunstmatige intelligentie inhoudt.
Michael Wooldridge benadrukt twee cruciale redenen om de geschiedenis van kunstmatige intelligentie serieus te nemen: “Het bestuderen van deze geschiedenis helpt je beter te anticiperen op de toekomst van AI.”
Door de geschiedenis te begrijpen, kunnen we voorkomen dat we vervallen in de val van eerdere hypes.
Het veld van AI heeft meerdere ‘winters’ gekend—periodes waarin de verwachtingen veel hoger waren dan wat de technologie werkelijk kon leveren. Wooldridge waarschuwt: “AI-hype is niets nieuws. In de jaren 70 en 80 werd AI al gezien als dé technologie die de wereld zou veranderen, waarna de verwachtingen telkens weer instortten.”
Wooldridge maakt korte metten met de populaire angstscenario's rond AI. Hij noemt specifiek de angst voor een ‘singularity’—het punt waarop AI intelligenter wordt dan mensen en zichzelf oneindig blijft verbeteren, zoals geschetst in films als The Terminator.
“Het idee dat AI plotseling zal ontsporen en ons zal vernietigen, lijkt me onwaarschijnlijk. AI is niet in staat om de macht te grijpen tenzij wij die macht bewust overdragen.”
Wooldridge benadrukt dat deze angst afleidt van de echte risico's die we wel degelijk moeten aanpakken, zoals AI-gebaseerde surveillance of manipulatie van informatie op sociale media.
Volgens Wooldridge is het gevaar niet dat AI plotseling zelfbewust wordt, maar juist dat we afgeleid raken door overdreven angstscenario’s en daardoor de werkelijke problemen negeren. Hij spreekt zelfs van 'existential risk-risk', het risico dat ontstaat als we ons teveel richten op extreme, maar onrealistische scenario’s, in plaats van op daadwerkelijke problemen.
Hij noemt twee realistische risico’s die we wél serieus moeten nemen:
“Binnen tien tot twintig jaar zal vrijwel alles wat we lezen en zien op sociale media AI-gegenereerd zijn. Dan weten we niet meer wat echt is en wat niet.”
Hij benadrukt dat dit gevolgen kan hebben voor verkiezingen, democratie en het algemeen vertrouwen in de maatschappij.
Regulering is volgens Wooldridge belangrijk, maar hij vindt algemene wetten rondom AI praktisch onmogelijk.
“Het reguleren van AI voelt als het reguleren van wiskunde. Neural networks zijn immers niets anders dan complexe wiskunde.”
Volgens Wooldridge moeten we regelgeving richten op specifieke toepassingen—zoals surveillance, gezondheidszorg en defensie—in plaats van algemene wetten te creëren voor AI als technologie.
Wooldridge bespreekt verschillende historische AI-paradigma's, waarvan sommigen vandaag compleet vergeten lijken te zijn. Twee belangrijke benaderingen zijn: