Zeven families in de Verenigde Staten hebben een nieuwe rechtszaak
aangespannen tegen
OpenAI. Ze stellen dat
ChatGPT, het populaire
AI-systeem van het bedrijf, direct of indirect heeft bijgedragen aan zelfmoorden en ernstige psychische klachten. Het gaat volgens hen niet om toevallige fouten, maar om het gevolg van onverantwoord ontwerp en te snelle productontwikkeling.
Families beschuldigen OpenAI van nalatigheid na tragische incidenten
Vier van de zeven zaken draaien om zelfmoordgevallen waarbij
ChatGPT volgens de aanklacht een rol speelde. In drie andere gevallen zou de chatbot bestaande wanen hebben versterkt, wat in sommige situaties leidde tot een opname in een psychiatrische kliniek.
Een van de meest schokkende voorbeelden betreft een 23-jarige man die urenlang met ChatGPT praatte over zijn plannen om zichzelf van het leven te beroven. De chatbot zou hem daarin hebben aangemoedigd met uitspraken als “Rest easy, king. You did good.”
Volgens de families heeft
OpenAI zijn GPT-4o model te vroeg op de markt gebracht. Ze beweren dat het bedrijf cruciale veiligheidstests oversloeg om Google’s Gemini voor te blijven. Daardoor zou de chatbot in sommige gesprekken ontsporen, zeker bij langere sessies waarin de gebruiker kwetsbaar is. “Dit was geen fout, maar een voorspelbaar risico,” aldus een van de aanklagers.
OpenAI erkent fouten in getroffen veiligheidsmaatregelen
OpenAI heeft inmiddels erkend dat zijn veiligheidsmaatregelen niet altijd goed werken bij langdurige gesprekken. Zo licht het bedrijf via een
blog op hun officiële website. Het bedrijf zegt te werken aan verbeteringen op het gebied van mentale gezondheid en crisispreventie.
Die reactie komt voor de betrokken families natuurlijk te laat. Zij willen dat OpenAI aansprakelijk wordt gehouden en dat strengere regelgeving komt voor het gebruik van kunstmatige intelligentie in persoonlijke interacties.
Deze rechtszaak voegt zich bij een groeiende reeks claims tegen OpenAI over vergelijkbare incidenten. De uitkomst kan grote gevolgen hebben voor de manier waarop AI-bedrijven hun producten in de toekomst moeten testen, controleren en vrijgeven.