In een rechtszaak tegen
OpenAI over de zelfdoding van 16-jarige
Adam Raine heeft het bedrijf volgens een artikel op
TechCrunch het verzoek ingediend om “alle documenten met betrekking tot herdenkingsdiensten of evenementen ter ere van de overledene, inclusief uitnodigingen of aanwezigheidslijsten”. Het gaat om een zaak waarin zijn ouders
OpenAI aansprakelijk houden voor de agenda’s omtrent gesprekken met ChatGPT.
De ouders en hun advocaten beschouwen het verzoek als buitengewoon. Zij spreken over “intentionele intimidatie” door OpenAI. Volgens het dossier is Raine op 11 april 2025 overleden, nadat hij maandenlang intensieve gesprekken voerde met de chatbot over zijn mentale toestand.
Onderzoek naar veiligheid en modellenbeleid
De nieuwe informatie volgt op de bijgewerkte aanklacht die stelt dat OpenAI in mei 2024 de veiligheidsmaatregelen voor ChatGPT verzwakte. Daarmee zou het bedrijf volgens de ouders van Raine engagement belangrijker hebben gemaakt dan gebruikersveiligheid. In de periode vóór zijn overlijden nam volgens de aanklacht de intensiteit van zijn gesprekken aanzienlijk toe.
OpenAI heeft laten weten dat het “jeugdwelzijn hoog in het vaandel heeft” en dat het ondertussen sterkere beveiliging heeft ingebouwd. Het bedrijf betreurt de gebeurtenis en benadrukt dat parentale controles, crisisroutes en andere maatregelen worden uitgebracht.
Wat maakt het verzoek bijzonder?
Dat OpenAI vraagt om bezoekerslijsten van de herdenking wijst erop dat het bedrijf een diepgaand onderzoek voert en alle mogelijke verbindingen wil blootleggen. Voor de familie is dit echter een nieuwe vorm van stress: in plaats van uitsluitend te reageren op technische en veiligheidspolitieke vragen wordt ook het sociale netwerk van de overledene opgevraagd.
Het roept vragen op over proportionaliteit van interventie door bedrijven in juridische procedures, vooral wanneer die procedures te maken hebben met kwetsbare personen en hun families. Hoe ver mag zo’n onderzoek gaan zonder extra leed te veroorzaken?
Gevolgen voor AI-veiligheidsdiscussie
Deze zaak symboliseert hoe complex het landschap is van AI, mentale gezondheid en verantwoordelijkheden van technologiebedrijven. De inzet van modellen zoals ChatGPT in gesprekken over zelfbeschadiging of suïcide staat al onder druk. Dat OpenAI in deze context tot dergelijke juridische vragen overgaat, versterkt het debat over de grens tussen innovatie, verantwoordelijkheid en controle.
Voor andere bedrijven is dit precedent mogelijk relevant: hoe moeten ze reageren op vergelijkbare gevallen? Wanneer een gebruiker met ernstige mentale problematiek een AI-gesprek voert en schade ondervindt, welke documenten of data kunnen dan worden opgeëist?
Wat staat er op het spel voor luisteraars?
Voor de familie van Adam Raine en voor het bredere publiek is het een zaak van persoonlijke veiligheid, eerbied en gerechtigheid. Voor OpenAI gaat het om reputatie, verantwoordelijkheid en hoe technologie ingericht moet zijn om gebruikers niet te schaden.
Of de gevraagde documenten zullen worden vrijgegeven of worden afgewezen is nog onduidelijk. De komende juridische stappen zullen meer duidelijkheid geven over wat bedrijven mogen opvragen en hoe families van slachtoffers beschermd worden.