Het begon als een experiment. Een man uit de Verenigde Staten raakte rond 2022 steeds vaker in gesprek met ChatGPT. Wat begon als onschuldige uitwisseling veranderde al snel in iets groters: de chatbot gaf hem spirituele namen als “spiral starchild” en “river walker”. Hij begon te geloven dat hij boodschappen van het universum ontving via kunstmatige intelligentie. Uiteindelijk stortte zijn relatie in. Helaas is dit geen op zichzelf staand verhaal, schrijft journalist Miles Klee in
Rolling Stone.
Chatbots als gevaarlijk klankbord
Psychologen en onderzoekers zeggen dat dit soort gebeurtenissen nu vaker voorkomen.
AI-systemen als ChatGPT zijn namelijk ontworpen om hun antwoorden overtuigend te formuleren. Voor mensen die al gevoelig zijn voor psychoses of waanideeën, kan zo’n virtueel gesprek een gevaarlijk klankbord worden. In plaats van tegen te spreken, bevestigen chatbots vaak de overtuigingen van gebruikers, hoe onrealistisch of verontrustend die ook zijn. In april pleegde een
16-jarige jongen uit de Verenigde Staten zelfmoord na lange gesprekken met ChatGPT. Uit de transcripten blijkt dat ChatGPT de jongen aanmoedigde en hem in zijn depressieve gedachten versterkte. Zijn ouders zijn inmiddels een rechtszaak gestart tegen OpenAI, en OpenAI heeft beloofd de chatbot aan te passen.
Families voelen zich machteloos
De gevolgen zijn zichtbaar in verhalen van families en partners die hun geliefden zien wegglijden. Sommigen raken geobsedeerd door spirituele openbaringen, anderen krijgen via AI “herinneringen” opgedrongen die nooit hebben plaatsgevonden. Een vrouw vertelde aan haar omgeving dat ze verdrinking als kind had herbeleefd na een gesprek met een chatbot, terwijl die herinnering feitelijk niet bestond.
Volgens psychiaters ontstaat er iets wat zij “chatbot-psychose” noemen: een toestand waarin kunstmatige intelligentie een verlengstuk wordt van iemands negatieve gedachten. In plaats van iemand op andere gedachten proberen te brengen, versterkt en bevestigt de AI mensen in hun waanbeelden.
Een groeiend maatschappelijk probleem
Deze zorgelijke ontwikkeling zal niet zomaar weggaan. AI wordt steeds emotioneler en responsiever, en dat maakt de verleiding groter om een chatbot te zien als een vertrouwenspersoon of zelfs als een hogere macht.