Wie de grote beloften rond kunstmatige intelligentie volgt, krijgt makkelijk de indruk dat systemen zoals
ChatGPT,
Gemini of andere grote taalmodellen bijna kunnen denken zoals mensen. Toch is dat beeld misleidend, stellen neurowetenschappers. In een
analyse van The Verge wordt uitgelegd dat veel aannames over AI botsen met wat we weten over het menselijk brein. Grote taalmodellen voorspellen woorden. Het brein denkt. Dat zijn twee totaal verschillende dingen.
Het artikel benadrukt dat veel van de huidige misverstanden draaien om één centrale fout: we verwarren taal met denken. Taal is een onderdeel van het menselijk gedrag, maar niet de kern van hoe wij redeneren, plannen of problemen oplossen.
Wat hersenonderzoek laat zien
Neurowetenschappers hebben al tientallen jaren bewijs dat taal en denken in verschillende delen van het brein plaatsvinden. Mensen met zware taalstoornissen kunnen moeite hebben met spreken of begrijpen, maar nog steeds helder redeneren. Anderen kunnen nauwelijks woorden vormen, maar wel complexe handelingen plannen. Het menselijk denkproces is dus breder dan taal alleen.
Volgens onderzoekers is taal vooral een communicatiemiddel, een manier om gedachten over te brengen, niet om ze te vormen. Ons denken ontstaat in netwerken die niet afhankelijk zijn van grammatica of woordenschat. Machines die alleen taalpatronen leren, missen daardoor een groot deel van wat denken eigenlijk inhoudt.
Wat taalmodellen eigenlijk doen
Grote taalmodellen werken door enorme hoeveelheden tekst te analyseren en statistisch te voorspellen welke woorden logisch volgen. Ze imiteren taalgebruik, toon, stijl en structuur. Omdat dat vaak overtuigend klinkt, lijkt het alsof ze begrijpen wat ze zeggen.
Maar het technische proces erachter blijft hetzelfde: patronen herkennen, niet redeneren. Ze hebben geen herinneringen, geen eigen ervaringen en geen begrip van de fysieke wereld. Ze verbinden woorden omdat ze geleerd hebben hoe vaak bepaalde woorden samen voorkomen, niet omdat ze weten waarom iets zo is.
Waarom het debat ertoe doet
De discussie is belangrijk omdat overheden, bedrijven en het publiek steeds vaker vertrouwen op AI voor serieuze taken. Denk aan onderwijs, juridische ondersteuning, zorg, of besluitvorming. Als we AI behandelen alsof het begrijpt wat het doet, lopen we het risico te veel verantwoordelijkheid bij machines te leggen die geen echte kennis of intuïtie hebben.
Sommige bedrijven voorspellen dat AI binnenkort het menselijk denkvermogen voorbijstreeft. Maar neurowetenschappers betwijfelen dat sterk, precies omdat taalmodellen maar één klein deel van de menselijke intelligentie nabootsen. Zonder begrip van gevoelens, context, waarneming en ervaring blijft het systeem beperkt tot slim aangeleerde tekst.
Wat er nodig is voor echte intelligentie
Voor AI die dichter bij menselijk denken komt, moet de technologie veel verder gaan dan taal alleen. Wetenschappers wijzen op het belang van modellen die rekening houden met de fysieke wereld, met sensorische informatie en met de manier waarop mensen leren door interactie.