OpenAI zoekt iemand die de gevaren van AI moet zien aankomen

Nieuws
door Thomas
zondag, 28 december 2025 om 10:00
OpenAI-modellen kunnen nu urenlang nadenken en werken
Kunstmatige intelligentie groeit snel, maar dat gaat niet altijd vlekkeloos. OpenAI is dit jaar vaak onderhevig aan kritiek door de impact van hun ChatGPT modellen op het mentale welzijn van gebruikers. Hun chatbot is zelfs betrokken geweest bij meerdere zelfmoordincidenten. OpenAI lijkt die kritiek nu serieuzer te nemen. Het bedrijf opent namelijk een opvallende vacature.

Een nieuwe rol om AI-risico’s voor te zijn

OpenAI is op zoek naar een Head of Preparedness. Vrij vertaald: iemand wiens dagelijkse werk bestaat uit nadenken over alles wat er mis kan gaan met geavanceerde AI. Niet morgen, maar over vijf, tien of twintig stappen verder.
Volgens OpenAI draait de rol om het vroegtijdig herkennen van risico’s bij steeds krachtigere AI-modellen. Denk aan systemen die zelfstandig kunnen leren, zichzelf verbeteren of op grote schaal invloed hebben op menselijk gedrag. De nieuwe functie moet helpen om die risico’s in kaart te brengen voordat ze werkelijkheid worden.
Sam Altman gaf zelf toe dat de snelle ontwikkeling van AI “echte uitdagingen” met zich meebrengt. En die uitdagingen zijn niet theoretisch. Ze raken direct aan hoe mensen AI gebruiken, vertrouwen en soms zelfs nodig hebben in hun dagelijks leven.

Waarom OpenAI nu aan de bel trekt

De Head of Preparedness moet onder meer dreigings modellen opstellen, veiligheidsmaatregelen bedenken en een schaalbaar veiligheidsproces bouwen. Dat klinkt technisch, maar de kern is simpel: voorkomen dat AI schade aanricht voordat het te laat is.
De timing van de vacature is opvallend. AI ligt steeds vaker onder vuur vanwege de impact op mentale gezondheid. Er zijn zorgen over chatbots die wanen bevestigen, samenzweringstheorieën versterken of gebruikers emotioneel afhankelijk maken. In sommige gevallen wordt zelfs gesproken over AI-psychose.
Daarnaast zijn er signalen dat AI misbruikt kan worden voor geavanceerde cyberaanvallen. Niet door individuele hackers, maar door systemen die automatisch kwetsbaarheden opsporen en uitbuiten. Ook gevoelige domeinen zoals biologische kennis en zelflerende systemen vallen binnen het aandachtsgebied van de nieuwe functie.
OpenAI noemt het werk zelf expliciet stressvol. Niet gek, want de Head of Preparedness draagt verantwoordelijkheid voor risico’s die moeilijk te testen zijn en waarvan de impact enorm kan zijn. Het gaat om scenario’s die je liever nooit meemaakt, maar waar je wel op voorbereid moet zijn.
loading

Loading