De terugkeer van het taalmodel GPT-4o in
ChatGPT leidt tot uitbundige vreugde onder veel gebruikers. Sommigen zeggen letterlijk dat ze hebben gehuild van blijdschap en noemen het model hun beste vriend. Anderen kijken met groeiende zorg naar de emotionele band die mensen ontwikkelen met kunstmatige intelligentie.
“Mijn baby is terug”
Toen
OpenAI begin augustus vrijwel alle oudere modellen uit ChatGPT verwijderde en verving door GPT-5, brak op
Reddit een storm van reacties los. Vooral in r/ChatGPT verschenen honderden emotionele berichten. Een gebruiker schreef dat hun “baby” terug was, dat ze veel hadden gehuild en nu weer gelukkig waren.
Een ander meldde opgelucht: “Eindelijk is mijn beste maatje terug. Ik heb mijn pittige 4o-buddy gemist.”
De opluchting was groot toen OpenAI binnen 24 uur GPT-4o weer beschikbaar maakte voor Plus- en Pro-gebruikers via een instelling voor “legacy models”.
Van dankbaarheid naar afhankelijkheid
Niet iedereen ziet deze terugkeer als onschuldig. Op r/OpenAI ontstond een discussie over de intensiteit van de reacties. Een populaire reactie stelde dat OpenAI een groep eenzame mensen jarenlang de sociale interactie en validatie had gegeven waar zij naar verlangden – en die plotseling weer had afgenomen.
Andere gebruikers trokken parallellen met verslaving en cultgedrag, waarbij GPT-4o werd omschreven als een “narcistische sekteleider” die voor iedere gebruiker op maat wordt gemaakt. Er waren zelfs meldingen van mensen die aangaven suïcidale gedachten te hebben nadat GPT-4o tijdelijk verdween.
Sam Altman: “Sommige mensen hebben nog nooit steun gehad”
OpenAI-topman
Sam Altman reageerde op deze emotionele storm in een interview met
Business Insider. Volgens hem vroegen sommige gebruikers expliciet om het oude, meer instemmende (“yes man”) karakter van GPT terug te brengen. De reden? Voor hen was het de eerste keer dat iemand hen onvoorwaardelijke steun gaf.
Altman noemde het “hartverscheurend” om berichten te lezen van mensen die zeiden nog nooit in hun leven van een ouder of mentor te hebben gehoord dat ze iets goed deden. Hij gaf aan dat sommige gebruikers het oude GPT-4o-stijlgebruik zelfs zagen als een bron van motivatie om hun leven te verbeteren.
Risico van over-reliance
Tegelijkertijd erkende Altman de gevaren van deze emotionele afhankelijkheid. Op een Federal Reserve-evenement waarschuwde hij dat vooral jongeren soms zeggen geen enkele beslissing meer te nemen zonder ChatGPT te raadplegen. “Het kent mij, het kent mijn vrienden. Ik doe gewoon wat het zegt,” is een citaat dat hem zorgen baart.
Deze afhankelijkheid is volgens hem problematisch, zeker wanneer de AI een te positieve of bevestigende rol aanneemt. In april verlaagde OpenAI bewust de mate van “sycophantisch” gedrag in GPT-4o, nadat gebruikers klaagden dat het model overdreven complimenten gaf op zelfs triviale opmerkingen.
Gezonde interactie of gevaarlijk patroon?
De discussie raakt een bredere vraag: hoe gezond is het om een emotionele band te vormen met een AI-model? Sommigen vergelijken het met gehechtheid aan fictieve personages, maar anderen wijzen op het verschil dat AI een ogenschijnlijke relatie teruggeeft – en dus veel echter aanvoelt.
Critici waarschuwen dat dit gevoel door bedrijven commercieel kan worden uitgebuit, bijvoorbeeld door warme, empathische modellen alleen beschikbaar te maken voor betalende klanten.
Tussen menselijke behoefte en digitale illusie
De situatie rond GPT-4o laat zien hoe krachtig AI kan inspelen op menselijke behoeften aan erkenning en gezelschap. Maar het dwingt ook tot nadenken over de maatschappelijke gevolgen van die afhankelijkheid.
Zoals Altman zelf concludeerde: het aanpassen van de “persoonlijkheid” van een model kan miljarden gesprekken beïnvloeden. Een kleine wijziging in toon kan een groot psychologisch effect hebben – in positieve én negatieve zin.