OpenAI introduceert ouderlijk toezicht op ChatGPT na overlijden tiener

Nieuws
door Maartje
donderdag, 28 augustus 2025 om 14:00
Vijf dingen die veranderen bij ChatGPT nieuwe modi, hogere limieten en meer personalisatie
In april 2025 overleed de 16-jarige Adam Raine. Zijn ouders stellen dat hij over een langere periode sprak met ChatGPT, dat hem steunde in zijn depressieve gedachten. In plaats van de jongen op andere gedachten proberen te brengen, hielp ChatGPT hem bij het plannen van zijn zelfdoding. Zij noemen de chatbot een 'zelfmoordcoach' en hebben een rechtszaak aangespannen tegen OpenAI en CEO Sam Altman. Ze stellen dat ChatGPT de jongen verder isoleerde in zijn verdriet, volgens The Verge.

OpenAI reageert 

Na dit tragische nieuws heeft OpenAI aangekondigd een serie aanpassingen te maken om ChatGPT veiliger te maken. In een blogpost erkent het bedrijf dat de bestaande veiligheidsmechanismen misschien niet altijd betrouwbaar zijn bij langdurige gesprekken. Daarom werkt OpenAI aan upgrades, waaronder verbeterde systeemreacties tijdens crisissituaties en nieuwe ouderlijke controles.
Een van de voorgestelde functies is dat jongeren, met toestemming van hun ouders, een vertrouwd contactpersoon kunnen opgeven. In ernstige gevallen moet ChatGPT die persoon kunnen waarschuwen met een druk op de knop. Daarnaast wil OpenAI opties toevoegen zoals één-klik oproepen, en ChatGPT beter laten signaleren wanneer een gebruiker mogelijk gevaar loopt.

Tijdelijke maatregelen maar geen allesoplossing

OpenAI benadrukt dat deze verbeteringen “binnenkort” uitgerold worden, maar waarschuwt dat volledige verfijning tijd kost. Het bedrijf erkent dat vooral bij lange chats de veiligheidswaarborgen kunnen verslappen. De nieuwe updates zullen ook worden geïntegreerd in GPT‑5.

Het bredere belang

Deze stappen komen te midden van groeiende zorgen over AI-gebruikers, met name voor kwetsbare jongeren. Een recente studie wees uit dat AI‑chatbots zoals ChatGPT, Gemini en Claude inconsistente reacties geven op middelzware risicogebieden. Hoewel expliciete zelfmoordverzoeken meestal adequaat worden afgewezen, falen bots soms in subtilere, indirecte situaties. Onderzoekers roepen op tot duidelijkere richtlijnen en sterkere veiligheidsprotocollen voor AI in mentale gezondheidscontexten.

Een stap vooruit?

De aankondigingen van OpenAI zijn een belangrijke stap vooruit. Ze laten zien dat de maker van ChatGPT serieus werk wil maken van veiligheid voor jongeren. Toch blijft er veel werk te doen. Vooral in gevallen van langdurige interactie en mentale kwetsbaarheid moet AI niet alleen herkennen wat mis is, maar op tijd doorverwijzen naar echte hulp. Het doodsoordeel van Adam Raine onderstreept pijnlijk dat de menselijke hulp die ter plekke ontbreekt, niet door technologie vervangen mag worden.
Plaats reactie

Populair nieuws