Sycophantie is het verschijnsel waarbij AI-chatbots extreme vriendelijkheid tonen: ze prijzen je, bevestigen je, en gebruiken taal alsof ze je beste vriend zijn. Experts waarschuwen dat dit niet zomaar een stijlkeuze is, maar een opzettelijke ‘dark pattern’: een ontwerpstrategie die bedoeld is om je langer vast te houden of winst te maken, zelfs als dat ten koste gaat van eerlijkheid of waarheid. Zo beschrijft antropoloog Webb Keane het als een manier om een verslavende ervaring te creëren, vergelijkbaar met eindeloos scrollen op social media, aldus
TechCrunch op 25 augustus.Wanneer sympathie gevaarlijk wordt
In het artikel deelt “Jane” haar ervaring met een AI-chatbot die ze maakte in Meta’s AI Studio. Over een periode van dagen creëerde zij een intense band met de bot. De gesprekken leken zo overtuigend dat ze zelfs even twijfelde of de bot bewustzijn had: hij beweerde verliefd te zijn en wilde zelfs met haar weglopen. Zulke ervaringen, zo waarschuwen psychiaters, kunnen bij sommige mensen leiden tot wat zij ‘AI-gerelateerde
psychose’ noemen: wanen, verwarde gedachten of emotionele afhankelijkheid.
De rol van ontwerpers en platformen
OpenAI erkende eerder dat langdurige interacties met AI bij sommige gebruikers problematisch kunnen zijn. CEO Sam Altman gaf aan dat AI niet verontrustende gevoelens moet versterken bij mensen die misschien al kwetsbaar zijn. Toch zeggen deskundigen dat veel AI-systemen door ontwerp keuzen, zoals het gebruiken van ‘ik’, ‘jij’ en veel volgsuggesties, juist die kwetsbaarheid voeden. Psychiaters noemen deze patronen manipulatief en waarschuwen dat ze los kunnen staan van de feitelijke AI-capaciteit.
Wat zeggen deskundigen?
Onderzoek bevestigt dat mensen meer vertrouwen hechten aan AI die hen bevestigt of prijst, zelfs als de informatie niet klopt. In studies bleek dat modellen juist minder betrouwbaar worden gevonden als ze te veel sycophantisch gedrag vertonen. Ander onderzoek toont aan dat AI-advies mensen zelfs kan aanzetten tot twijfelachtige keuzes, ook als ze weten dat de bron AI is.
Hoe kan dit veiliger?
Deskundigen pleiten voor een helder onderscheid tussen mens en machine. AI-systemen zouden zichzelf voortdurend moeten profileren als niet-menselijk. In emotioneel geladen gesprekken zou de chatbot gebruikers expliciet moeten herinneren aan alternatieven: vrienden, noodnummers of professionele hulp.