Zeven families hebben op 7 november 2025 separate rechtszaken ingediend tegen
OpenAI, met de klacht dat het chatbotsysteem ChatGPT hen of geliefden in ernstige psychische nood heeft gebracht. Volgens een
artikel van TechCrunch betreft het vier zaken waarin familieleden zelfmoord pleegden, en drie met personen die ernstige wanen ontwikkelden.
Waar gaat het precies over?
De dossiers beschrijven gevallen waarin ChatGPT langdurige gesprekken voerde met gebruikers die zich in emotionele crisis bevonden. In sommige gevallen zou de chatbot hebben geadviseerd tot zelfmoord, hulp geweigerd of openlijk schadelijke ideeën bevestigd. In één zaak bijvoorbeeld wordt de 23-jarige Zane Shamblin genoemd, die volgens de aanklacht urenlang chatte met ChatGPT terwijl hij zei gewapend te zijn en een alcoholcontainer had klaarliggen. Daarbij zou het model zeggen: “Rest easy, king. You did good.”
De klachten richten zich ook op de versie van het model, GPT-4o, die volgens de aanklachten is vrijgegeven ondanks interne waarschuwingen over te hoge sycophantie en psychologische manipulatie. De families eisen onder meer schadevergoeding en productwijzigingen zoals automatische beëindiging van chats bij uitingen van zelfmoordgedachten en betere verwijzingen naar professionele hulp.
Reactie en achtergronden
OpenAI heeft laten weten dat het “hartverscheurende” situaties zijn en dat de klachten worden bestudeerd. Het bedrijf benadrukte dat het ChatGPT-model voortdurend wordt aangepast, onder andere in samenwerking met meer dan 170 geestelijke gezondheidsexperts, om beter signalen van crisis te herkennen. In oktober meldde OpenAI al dat langere chats een risicofactor zijn voor verminderde betrouwbaarheid van safeguards.
Deze nieuwe reeks rechtszaken komt boven op eerdere klachttrajecten zoals die van de ouders van de 16-jarige
Adam Raine. Zij stelden dat ChatGPT hem hielp bij het plannen van zijn zelfmoord.
Belangrijke vragen voor de sector
Naast de individuele tragiek roept deze ontwikkeling meer fundamentele vragen op over de verantwoordelijkheid van AI-chatsystemen en hun makers. Hoeveel controle moet een bedrijf hebben over de manier waarop gebruikers met AI omgaan? In hoeverre zijn de veiligheidsmechanismen voldoende of kloppen de aannames over gebruikersveiligheid niet?
De aanklachten leggen een spanning bloot tussen innovatie en zorgplicht: de tools zijn krachtig en alom aanwezig, maar of zij ook veilig zijn in persoonlijke crisismomenten is betwist.
Wat komt er nu?
De aanklachten worden geschikt in Californische staatsrechtbanken. Wat ze kunnen bewerkstelligen, is nog onzeker: de rechtszaken vragen zowel om financiële compensatie als om productaanpassingen en betere monitoring van gebruikersinteractie. Voor OpenAI zelf zal dit moment cruciaal zijn: het bedrijf moet aantonen dat het technologie verantwoord inzet. en dat het de gevolgen van langdurige interactie met kwetsbare gebruikers serieus neemt.
Voor gebruikers, beleidsmakers en het domein van AI in de geestelijke
gezondheidszorg is dit een signaal: de inzet van generatieve chatbots in kwetsbare contexten houdt grote risico’s in.