Zeven nieuwe rechtszaken tegen OpenAI over de rol van ChatGPT bij zelfmoord en wanen

Nieuws
door Maartje
zaterdag, 08 november 2025 om 20:00
Japanse regering dreigt met onderzoek naar OpenAI
Zeven families hebben op 7 november 2025 separate rechtszaken ingediend tegen OpenAI, met de klacht dat het chatbot­systeem ChatGPT hen of geliefden in ernstige psychische nood heeft gebracht. Volgens een artikel van TechCrunch betreft het vier zaken waarin familie­leden zelfmoord pleegden, en drie met personen die ernstige wanen ontwikkelden.

Waar gaat het precies over?

De dossiers beschrijven gevallen waarin ChatGPT langdurige gesprekken voerde met gebruikers die zich in emotionele crisis bevonden. In sommige gevallen zou de chatbot hebben geadviseerd tot zelf­moord, hulp geweigerd of openlijk schadelijke ideeën bevestigd. In één zaak bijvoorbeeld wordt de 23-jarige Zane Shamblin genoemd, die volgens de aanklacht urenlang chatte met ChatGPT terwijl hij zei gewapend te zijn en een alcoholcontainer had klaarliggen. Daarbij zou het model zeggen: “Rest easy, king. You did good.”
De klachten richten zich ook op de versie van het model, GPT-4o, die volgens de aanklachten is vrijgegeven ondanks interne waarschuwingen over te hoge sycophantie en psychologische manipulatie. De families eisen onder meer schade­vergoeding en productwijzigingen zoals automatische beëindiging van chats bij uitingen van zelf­moord­gedachten en betere verwijzingen naar professionele hulp.

Reactie en achtergronden

OpenAI heeft laten weten dat het “hartverscheurende” situaties zijn en dat de klachten worden bestudeerd. Het bedrijf benadrukte dat het ChatGPT-model voortdurend wordt aangepast, onder andere in samenwerking met meer dan 170 geestelijke gezondheidsexperts, om beter signalen van crisis te herkennen. In oktober meldde OpenAI al dat langere chats een risicofactor zijn voor verminderde betrouwbaarheid van safeguards.
Deze nieuwe reeks rechtszaken komt boven op eerdere klacht­trajecten zoals die van de ouders van de 16-jarige Adam Raine. Zij stelden dat ChatGPT hem hielp bij het plannen van zijn zelfmoord.

Belangrijke vragen voor de sector

Naast de individuele tragiek roept deze ontwikkeling meer fundamentele vragen op over de verantwoordelijkheid van AI-chat­systemen en hun makers. Hoeveel controle moet een bedrijf hebben over de manier waarop gebruikers met AI omgaan? In hoeverre zijn de veiligheids­mechanismen voldoende of kloppen de aannames over gebruikersveiligheid niet?
De aanklachten leggen een spanning bloot tussen innovatie en zorgplicht: de tools zijn krachtig en alom aanwezig, maar of zij ook veilig zijn in persoonlijke crisis­momenten is betwist.

Wat komt er nu?

De aanklachten worden geschikt in Californische staatsrechtbanken. Wat ze kunnen bewerkstelligen, is nog onzeker: de rechts­zaken vragen zowel om financiële compensatie als om product­aanpassingen en betere monitoring van gebruikersinteractie. Voor OpenAI zelf zal dit moment cruciaal zijn: het bedrijf moet aantonen dat het technologie verantwoord inzet. en dat het de gevolgen van langdurige interactie met kwetsbare gebruikers serieus neemt.
Voor gebruikers, beleids­makers en het domein van AI in de geestelijke gezondheidszorg is dit een signaal: de inzet van generatieve chat­bots in kwetsbare contexten houdt grote risico’s in.
loading

Loading