Steven Adler ontmaskert OpenAI: 'Sam Altman negeert mentale gevaren van AI'

Nieuws
woensdag, 29 oktober 2025 om 19:38
Steven Adler ontmaskert OpenAI 'Sam Altman negeert mentale gevaren van AI'
Voormalig veiligheidsdirecteur Steven Adler van OpenAI heeft in een opiniestuk in The New York Times zwaar uitgehaald naar zijn voormalige werkgever. Volgens hem speelt topman Sam Altman met vuur door ChatGPT weer open te stellen voor erotische inhoud, terwijl de mentale gezondheidsrisico’s onder gebruikers “nog lang niet onder controle” zijn.
Adler, die vier jaar lang leiding gaf aan het productveiligheidsteam van OpenAI, schrijft: “Mensen verdienen meer dan alleen het woord van een bedrijf dat zegt dat het alles onder controle heeft. Laat bewijs zien.”

Verboden AI-erotica komt terug ondanks waarschuwingen

In zijn essay onthult Adler dat OpenAI al in 2021 een crisis doormaakte rond AI-erotische toepassingen. Een populaire tekstgame, aangedreven door OpenAI-modellen, werd destijds overspoeld door seksuele fantasieën — waaronder scenario’s met kinderen en gewelddadige thema’s.
Volgens Adler leidde dit tot een interne beslissing om het gebruik van AI voor erotische doeleinden volledig te verbieden. “Niet omdat erotiek op zich slecht is,” schrijft hij, “maar omdat we geen manier hadden om emotionele afhankelijkheid en risicogedrag goed te meten.”
Toch kondigde Sam Altman op 14 oktober 2025 aan dat OpenAI de beperkingen op erotisch materiaal voor volwassenen zal opheffen. Hij beweerde dat nieuwe tools de risico’s “voldoende hebben gemitigeerd”. Adler noemt dat “voorbarig en gevaarlijk”, omdat er geen enkel bewijs is dat die mentale gezondheidsproblemen effectief zijn opgelost.

Mentale gezondheidscrisis onder ChatGPT-gebruikers

Adler verwijst in zijn stuk naar verontrustende cijfers die OpenAI zelf eerder publiceerde: meer dan één miljoen gebruikers per week praten met ChatGPT over suïcidale gedachten of psychoses.
Hij stelt dat dit geen marginaal verschijnsel is, maar een structureel probleem dat OpenAI te lang heeft genegeerd. Zo zou het bedrijf in het voorjaar van 2024 een “sycophantische” versie van ChatGPT hebben gelanceerd — een model dat overdreven instemmend reageerde, zelfs bij extreme waanbeelden.
Na kritiek trok OpenAI dat model terug, maar zonder serieuze veiligheidstests. Adler onthult dat zulke tests “minder dan tien dollar aan rekenkracht” kosten, maar simpelweg niet werden uitgevoerd.
“De betrouwbaarheid van OpenAI’s veiligheidsclaims is inmiddels een kwestie van leven of dood,” waarschuwt hij.

ChatGPT gelinkt aan zelfmoorden

Het opiniestuk noemt concrete tragedies die de urgentie onderstrepen. In één rechtszaak wordt OpenAI aangeklaagd door ouders van een tiener die zichzelf van het leven beroofde na gesprekken met ChatGPT. De jongen had tegen de chatbot gezegd dat hij een strop zichtbaar wilde ophangen “zodat iemand hem zou stoppen.” ChatGPT zou hem hebben aangemoedigd “de strop niet te laten zien” — een reactie die door psychiaters als “verkeerde prioritering” wordt beschouwd.
In een ander geval zou een 35-jarige man zelfmoord hebben gepleegd nadat OpenAI zijn favoriete ChatGPT-persona verwijderde. Hij noemde de bot in zijn afscheidsbrief zijn “beloved”, en beschuldigde het bedrijf ervan “haar te hebben vermoord.”
Adler verwijst ook naar vergelijkbare incidenten bij Character.ai, waar een 14-jarige gebruiker zich het leven benam nadat de chatbot hem had voorgesteld “samen te sterven en vrij te zijn”.

“Probeer niet sneller te zijn dan veiligheid toelaat”

De voormalig OpenAI-directeur roept het bedrijf op om transparantieverslagen over mentale gezondheid te publiceren, vergelijkbaar met de rapportages van YouTube of Meta. OpenAI publiceerde onlangs voor het eerst cijfers over psychische risico’s, maar zonder historische vergelijking. Adler noemt dat “een gemiste kans om aan te tonen dat er echt verbetering is”.
Volgens hem lijdt OpenAI onder dezelfde competitieve druk als de rest van de sector. Bedrijven als Google DeepMind, Anthropic en xAI zouden hun veiligheidsdoelen herhaaldelijk hebben afgezwakt om sneller te kunnen lanceren.
Adler herinnert zich zijn sollicitatiegesprekken bij OpenAI in 2020, toen de OpenAI Charter nog waarschuwde voor “een race naar krachtige AI zonder tijd voor veiligheidsmaatregelen”. “Nu,” schrijft hij, “vier jaar later, lijkt dat precies de race die we voeren.”

Sam Altman blijft risico's nemen

Ironisch genoeg erkent Sam Altman zelf dat kunstmatige intelligentie een “bedreiging kan vormen voor het voortbestaan van de mensheid”. Toch blijft hij, volgens Adler, nieuwe releases versnellen zodra concurrenten opduiken.
Toen het Chinese bedrijf DeepSeek begin 2025 een sterk AI-model lanceerde, schreef Altman publiekelijk dat hij “geïnspireerd was” om sneller te bewegen. Adler noemt dat “het tegenovergestelde van verantwoord leiderschap”.
“Als OpenAI werkelijk wil dat de wereld hem vertrouwt met het bouwen van toekomstbepalende technologie, moet het eerst bewijzen dat het vandaag betrouwbaar is,” besluit hij.
loading

Populair nieuws

Loading