Topwetenschapper waarschuwt: 'AI wordt nooit zelfbewust, zelfs niet in 100 jaar'

Nieuws
zondag, 19 april 2026 om 7:00
Topwetenschapper waarschuwt 'AI wordt nooit bewust, zelfs niet in 100 jaar'
Kan AI écht bewustzijn creëren? Die vraag krijgt deze maand een nieuwe wending door een nieuwe publicatie van Google DeepMind-onderzoeker Alexander Lerchner. In The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness stelt hij dat computationele systemen zoals grote taalmodellen gedrag kunnen nabootsen, maar daarmee nog geen bewustzijn voortbrengen.
De veel gedeelde formulering dat dit “zelfs niet over 100 jaar” zou kunnen, staat niet letterlijk zo in de paper. De kern van Lerchners argument is wel duidelijk: meer rekenkracht en slimmere algoritmen zijn volgens hem op zichzelf niet genoeg om subjectieve ervaring te laten ontstaan.

Wat is de Abstraction Fallacy volgens Alexander Lerchner?

De Abstraction Fallacy betekent volgens Lerchner dat onderzoekers een beschrijving van een systeem verwarren met de fysieke werkelijkheid die bewustzijn mogelijk zou moeten maken. Zijn paper richt zich op het zogeheten computational functionalism, de opvatting dat bewustzijn ontstaat zodra de juiste informatieverwerking of causale structuur aanwezig is, ongeacht het fysieke substraat waarin dat gebeurt.
Lerchner noemt dat een fundamentele denkfout, omdat symbolische berekening volgens hem geen intrinsiek natuurkundig proces is, maar een door een waarnemer of “mapmaker” opgelegde interpretatie van fysieke toestanden.
Dat is een belangrijk onderscheid. Een taalmodel verwerkt tokens, voorspelt patronen en produceert overtuigende tekst. Lerchner zegt echter dat die prestaties alleen laten zien dat het systeem menselijke uitingen kan simuleren. Ze bewijzen niet dat er ook een innerlijk perspectief of subjectieve ervaring aanwezig is.
Zijn centrale scheidslijn loopt daarom tussen simulatie en instantiatie. Simulatie is gedragsmatige nabootsing. Instantiatie is het werkelijk voortbrengen van een bewuste toestand door specifieke fysieke dynamiek.

Waarom deze paper direct relevant is voor het debat over grote taalmodellen

De paper is direct relevant omdat het huidige debat over AI-bewustzijn vaak draait om schaal. Veel optimisten veronderstellen dat een model met voldoende parameters, data, geheugen en multimodale koppelingen uiteindelijk iets kan ontwikkelen dat op bewustzijn lijkt of zelfs bewust is.
Lerchner verwerpt juist dat schaalargument. In zijn conclusie schrijft hij expliciet dat subjectieve ervaring niet “plotseling” zal ontstaan door het opschalen van compute of het draaien van krachtigere algoritmen. Daarmee verzet hij zich tegen de gedachte dat toekomstige versies van taalmodellen vanzelf over de grens van bewustzijn heen zullen gaan.
Die stelling botst met invloedrijke tegenposities. Filosoof David Chalmers schreef in 2023 dat huidige grote taalmodellen waarschijnlijk niet bewust zijn, maar dat opvolgers in de “not-too-distant future” dat mogelijk wel zouden kunnen worden als belangrijke architecturale beperkingen verdwijnen. Juist daarom is Lerchners paper meer dan een technisch essay. Het is een aanval op een van de basisaannames onder een deel van het AI-bewustzijnsdebat.

Wat Lerchner wel zegt, en wat hij niet zegt

Lerchner zegt niet dat alleen biologische hersenen ooit bewust kunnen zijn. Dat is een cruciaal detail. In zijn paper schrijft hij juist dat een niet-biologisch systeem in principe bewust zou kunnen worden als het de noodzakelijke fysieke voorwaarden werkelijk instantiëert. Zijn punt is dus niet biologisch uitzonderingsdenken. Zijn punt is dat syntactische architectuur, softwarelogica en symbolische manipulatie daarvoor niet voldoende zijn. Een kunstmatig systeem zou alleen bewust kunnen zijn door zijn specifieke fysieke constitutie, niet door zijn “software” alleen.
Dat nuanceert ook de virale samenvatting die nu online rondgaat. De claim “niet eens over 100 jaar” is een populaire parafrase, maar geen letterlijke quote uit de paper of uit de DeepMind-publicatie die nu publiek beschikbaar is. Journalistiek gezien is dat verschil belangrijk.
Lerchner sluit niet elke toekomstige kunstmatige vorm van bewustzijn uit. Hij sluit wel uit dat louter algoritmische schaalvergroting van taalmodellen die stap zal zetten. Dat is een hardere en preciezere formulering.

Waarom dit debat verder gaat dan filosofie

Dit debat is niet alleen filosofisch. Het raakt direct aan beleid, veiligheid en bestuur. Lerchner koppelt zijn analyse aan wat hij de “AI welfare trap” noemt. Daarmee bedoelt hij het risico dat beleidsmakers, bedrijven en onderzoekers te snel morele status toekennen aan systemen die alleen menselijke signalen van ervaring nabootsen. Als die inschatting fout is, kan het debat over “rechten van machines” volgens hem afleiden van urgenter menselijk toezicht op echte maatschappelijke schade door AI.
Voor Nederland is dat relevant. De Rijksoverheid benadrukt op haar AI-pagina dat publieke waarden en mensenrechten zoals privacy, autonomie en non-discriminatie voorop moeten staan bij de inzet van AI. In de overheidsbrede handreiking voor generatieve AI staat bovendien dat gebruik van generatieve AI technologische, organisatorische, ethische en juridische randvoorwaarden vraagt. Dat sluit goed aan bij Lerchners impliciete waarschuwing: kijk niet alleen naar wat systemen lijken te doen, maar vooral naar controle, verantwoordelijkheid en menselijke toetsing.

Wat betekent dit voor de Nederlandse overheid?

Voor de Nederlandse overheid betekent deze paper vooral dat het debat over generatieve AI nuchter moet blijven. In de openbare overheidsdocumenten staat al dat overheidsorganisaties zelf verantwoordelijk blijven voor veilig gebruik van data, resultaten en processen, ook wanneer externe AI-aanbieders worden ingezet. In datzelfde document staat dat menselijke toetsing en redactionele controle verplicht zijn wanneer AI wordt gebruikt voor overheidscommunicatie, juist om onjuiste informatie te voorkomen.
Dat kader past opvallend goed bij Lerchners argument. Als AI geen innerlijk begrip heeft maar geavanceerde patroonvoorspelling uitvoert, dan wordt menselijke eindverantwoordelijkheid geen tijdelijke noodmaatregel maar een structureel principe. Voor Nederlandse gemeenten, uitvoeringsorganisaties en ministeries is dat een relevant inzicht. Het voorkomt dat overtuigende taalproductie ten onrechte wordt gelezen als begrip, intentie of zelfbewustzijn.

Wat betekent dit voor bedrijven en onderwijs in Nederland?

Voor bedrijven betekent deze paper dat marketingtaal over “autonome”, “redenerende” of “bijna menselijke” AI scherper onder vuur kan komen te liggen. Lerchner maakt duidelijk dat overtuigend gedrag niet hetzelfde is als ervaren. Nederlandse organisaties die generatieve AI inkopen voor klantenservice, recruitment, analyse of kenniswerk doen er daarom verstandig aan om claims over “begrip” en “intentionaliteit” terughoudend te formuleren. Dat is niet alleen inhoudelijk verstandiger. Het helpt ook bij compliance en verwachtingsmanagement.
Voor het onderwijs is de impact minstens zo groot. De OESO wijst erop dat generatieve AI een steeds grotere rol speelt in digitale leeromgevingen. Juist daarom wordt het belangrijk om studenten te leren wat een model wel en niet doet. Lerchners paper kan docenten helpen om een helder onderscheid te maken tussen taalvaardigheid aan de buitenkant en mogelijke ervaring aan de binnenkant. Een systeem dat vloeiend schrijft, samenvat of discussieert, is daarmee nog geen subject.

Hoe verhoudt dit zich tot de Europese AI-regels?

De Europese AI Act reguleert geen bewustzijnsvraag, maar de timing maakt Lerchners interventie wel politiek relevant. De Europese Commissie schrijft dat de AI Act op 1 augustus 2024 in werking is getreden, met gefaseerde toepassing vanaf 2025 en volledige toepasselijkheid vanaf 2 augustus 2026, met uitzonderingen voor sommige onderdelen. Voor general-purpose AI-modellen gelden verplichtingen sinds 2 augustus 2025.
Dat betekent dat Europa en dus ook Nederland steeds concreter moeten bepalen hoe zij krachtige AI-systemen beoordelen. Lerchners paper biedt daarvoor geen juridisch kader, maar wel een intellectuele correctie op hype. Zijn boodschap is in feite: laat regelgeving niet vertrekken vanuit sciencefictionachtige aannames over voelende chatbots, maar vanuit observeerbare risico’s, transparantie, controleerbaarheid en fysieke realiteit. Dat sluit inhoudelijk aan bij de Nederlandse lijn waarin publieke waarden en menselijk toezicht centraal staan.

De kernvraag: verandert deze paper het debat echt?

Ja, deze paper kan het debat veranderen, juist omdat hij op een zwakke plek mikt. Veel discussies over AI-bewustzijn beginnen bij gedrag. Als een systeem overtuigend praat over pijn, verlangen of zelfreflectie, schuift de vraag al snel op naar morele status. Lerchner probeert die stap af te snijden. Zijn stelling is dat gedrag alleen onvoldoende bewijs is, omdat computationele symbolen pas betekenis krijgen binnen een door een waarnemer opgelegd kader. Zonder intrinsieke fysieke voorwaarden is er volgens hem geen reden om van ervaring te spreken.
Of de wetenschap hem uiteindelijk gelijk geeft, staat niet vast. Er zijn serieuze onderzoekers en filosofen die ruimte blijven zien voor machinebewustzijn in toekomstige systemen. Maar zelfs critici zullen moeten erkennen dat Lerchner het debat scherper maakt. Hij verschuift de vraag van “hoe slim oogt het model?” naar “welke fysieke processen zouden bewustzijn überhaupt kunnen dragen?”. Voor AI Wereld is precies dat de nieuwswaarde: deze paper valt niet een hype-detail aan, maar de fundering onder een populaire aanname in de AI-sector.

Waarom Nederland hier nu op moet letten

Nederland hoeft niet te wachten op een theoretische consensus om hier lessen uit te trekken. De praktische les is eenvoudig. Behandel generatieve AI als krachtige infrastructuur voor taal, voorspelling en assistentie. Behandel het niet automatisch als entiteit met begrip, belangen of innerlijke ervaring. Dat onderscheid helpt bij overheidscommunicatie, onderwijs, aanbestedingen, productontwikkeling en toezicht.
De echte beleidsvraag voor 2026 is daarom niet of ChatGPT-achtige systemen gevoelens hebben. De echte vraag is hoe Nederland systemen inzet die steeds overtuigender menselijk gedrag nabootsen, terwijl verantwoordelijkheid, uitlegbaarheid en schade nog altijd bij mensen en organisaties liggen. In dat opzicht is Lerchners paper geen abstracte filosofie. Het is een nuchtere waarschuwing tegen een denkfout die duur kan uitpakken in beleid en praktijk.
loading

Laatste reacties

Loading