Een opvallende AI theorie social media gaat rond op Reddit en zet een fundamentele vraag opnieuw op scherp: lijken grote taalmodellen, zoals
ChatGPT en
Gemini, soms op een menselijk brein dat deels van zichzelf is afgesloten? De vergelijking komt uit een populaire discussie over zogeheten split-brain-patiënten, mensen bij wie de verbinding tussen beide hersenhelften is doorgesneden.
De centrale gedachte is prikkelend: als een deel van het brein informatie mist, verzint het soms achteraf een geloofwaardige verklaring. Precies dat is ook wat veel mensen herkennen in de manier waarop large language models, ofwel grote taalmodellen, overtuigend onjuiste antwoorden kunnen formuleren. De theorie is niet bewezen, maar ze raakt wel een gevoelig punt in het publieke debat over AI.
Een sociale media-theorie die blijft hangen
De
Reddit-discussie draait om klassiek neurowetenschappelijk onderzoek van Roger Wolcott Sperry en Michael Gazzaniga naar split-brain-patiënten. Bij deze patiënten was het corpus callosum, de bundel zenuwvezels tussen beide hersenhelften, chirurgisch doorgesneden om ernstige epilepsie te behandelen. Daardoor konden onderzoekers testen wat er gebeurt als informatie niet meer vrij tussen beide hersenhelften stroomt.
Sperry kreeg mede voor dit werk in 1981 de Nobelprijs.
In het populaire socialemediaverhaal staat vooral één observatie centraal. Wanneer informatie slechts één hersenhelft bereikte, kon de andere helft daar geen directe toegang toe krijgen. Omdat taal meestal sterk in de linkerhersenhelft is georganiseerd, ontstonden soms situaties waarin iemand wel handelde op basis van informatie, maar die handeling verbaal niet goed kon verklaren.
Dan volgde soms een plausibel klinkende, maar verzonnen uitleg. Gazzaniga beschreef dit mechanisme later als een soort “interpreter”: een systeem dat achteraf samenhang probeert te maken van onvolledige input.
Dat idee resoneert nu op sociale media, omdat het sterk doet denken aan AI-hallucinaties. Ook een taalmodel produceert vaak vloeiende taal, zelfs wanneer cruciale context ontbreekt. Het model klinkt dan zeker van zijn zaak, terwijl de inhoud feitelijk onjuist of onbewezen kan zijn. In recente AI-literatuur wordt daarom geregeld gesproken over “confabulation”, ofwel confabulatie, om dit verschijnsel te beschrijven.
Waarom de vergelijking met LLM’s zo aantrekkelijk is
De kracht van deze theorie zit in haar eenvoud. Ze biedt een begrijpelijk beeld voor een technisch probleem waar veel gebruikers tegenaan lopen. Waarom geeft een chatbot soms een fout antwoord alsof het een feit is? Het split-brain-vergelijkingsmodel suggereert dat taalproductie niet automatisch gelijkstaat aan volledig begrip. Een systeem kan een logisch klinkend verhaal bouwen zonder toegang tot alle relevante informatie.
Daarmee raakt de vergelijking aan een bredere maatschappelijke vraag. Veel mensen behandelen AI-chatbots inmiddels als zoekmachine, sparringpartner of persoonlijke assistent. In Nederland gebeurt dat in onderwijs, marketing, softwareontwikkeling en steeds vaker ook bij kenniswerk binnen bedrijven en instellingen. Juist dan is het belangrijk om te begrijpen dat overtuigende taal niet hetzelfde is als betrouwbaarheid. De sociale media-theorie maakt dat risico op een bijna intuïtieve manier zichtbaar.
Tegelijk is nuance nodig. De vergelijking tussen een menselijk brein en een transformer-model is geen één-op-één wetenschappelijke gelijkstelling. Moderne taalmodellen werken anders dan biologische hersenen.
Ze hebben geen menselijk lichaam, geen zintuiglijke ervaring zoals mensen die kennen en geen bewustzijn dat wetenschappelijk op dezelfde manier kan worden beschreven. De analogie zegt dus vooral iets over gedrag aan de oppervlakte: beide systemen kunnen een coherent verhaal produceren op basis van onvolledige informatie. Dat betekent niet dat ze intern hetzelfde werken.
De echte waarde van deze discussie
Juist daarom is deze theorie interessant. Niet omdat ze bewijst dat AI “menselijk” is, maar omdat ze laat zien hoe ongemakkelijk de grens tussen menselijk denken en machine-uitvoer soms voelt.
De Reddit-post maakt een bredere les zichtbaar: ook mensen vullen gaten in hun kennis geregeld aan met aannames, reconstructies en achterafverhalen. Het verschil is dat we bij mensen vaak spreken over interpretatie, geheugenfouten of rationalisatie, terwijl we bij AI het woord hallucinatie gebruiken.
Dat inzicht is relevant voor het Nederlandse AI-debat. Beleidsmakers, scholen en werkgevers kijken steeds vaker naar productiviteitswinst door generatieve AI. Maar wie AI inzet voor samenvattingen, analyses of beslisondersteuning, moet ook begrijpen hoe gemakkelijk een systeem schijnzekerheid kan produceren. De sociale media-theorie is daarom meer dan een filosofische vondst. Ze helpt om AI-geletterdheid concreter te maken.
Wat dit betekent voor gebruikers van AI?
De belangrijkste les is praktisch. Gebruik taalmodellen niet als orakel, maar als instrument. Een goed antwoord kan nuttig zijn, snel zijn en creatief zijn, zonder dat het automatisch waar is. Dat geldt zeker bij medische, juridische, wetenschappelijke en beleidsmatige vragen.
De Reddit-discussie laat vooral zien waarom mensen zo gefascineerd blijven door generatieve AI. Niet alleen omdat de technologie snel beter wordt, maar ook omdat ze ons dwingt opnieuw naar onszelf te kijken. Misschien is de ongemakkelijkste conclusie niet dat AI soms op ons lijkt. Misschien is het dat wij zelf ook minder volledig, zeker en transparant redeneren dan we graag geloven.