De opvallendste
OpenAI-aankondiging van eind april ging niet over een nieuw model, maar over iets fundamentelers: accountbeveiliging. Met Advanced Account Security geeft het bedrijf impliciet toe dat een ChatGPT-account voor sommige gebruikers inmiddels even gevoelig is als een e-mailaccount, een cloudopslag of een zakelijke identity-provider. Dat klinkt als een klein productnieuwtje. In werkelijkheid is het een erkenning dat AI voor een groeiende groep gebruikers onderdeel wordt van hun operationele en politieke infrastructuur.
Wat is er gebeurd bij OpenAI?
OpenAI heeft een optionele beveiligingsmodus uitgerold voor persoonlijke ChatGPT-accounts. Wie die activeert, schakelt wachtwoordlogin uit, zet passkeys of fysieke security keys centraal, schakelt zwakkere herstelpaden via e-mail of sms uit, krijgt kortere sessies en kiest automatisch voor uitsluiting van modeltraining op gesprekken zolang de modus actief is. Voor deelnemers aan Trusted Access for Cyber wordt deze beveiligingslaag vanaf 1 juni verplicht, tenzij organisaties al aantoonbaar phishing-resistente authenticatie via single sign-on gebruiken.
Er zit nog een opvallend detail in: wie deze modus activeert, neemt ook méér verantwoordelijkheid op zich. OpenAI-support kan daarna niet zomaar helpen bij account recovery. Dat klinkt streng, maar precies daarin schuilt de logica. Voor hoog-risicogebruikers — denk aan journalisten, gekozen functionarissen, dissidenten, onderzoekers en securityspecialisten — is social engineering via recoverykanalen vaak een realistischer aanvalspad dan een brute hack. OpenAI maakt dus niet alleen beveiliging strakker; het sluit ook bewust de klassieke helpdesk-achterdeur.
Waarom doen ze dit?
Omdat AI-accounts iets heel anders zijn geworden dan simpele chatvensters. In één account kunnen inmiddels persoonlijke context, code, documenten, prompts, workflowgeheugen en toegangsrechten samenkomen. Voeg daar tools zoals Codex en enterprise-achtige werkstromen aan toe, en je krijgt een account dat voor een aanvaller veel waardevoller is dan een kale chatbot-login. OpenAI zegt dat zelf ook nadrukkelijk: accounts bevatten steeds vaker gevoelige persoonlijke en professionele context. Met andere woorden: zodra AI meedraait in werkprocessen, wordt identity security een kernproduct en geen bijzaak.
Daar komt nog iets bij. OpenAI duwt tegelijk verder in cybertoepassingen via Trusted Access for Cyber en modellen voor defensieve security-werkzaamheden. Dat betekent dat de potentiële schade van een gekaapt account groter wordt. Je kunt dan niet langer volstaan met consumentenbeveiliging uit het mobiele-app-tijdperk. De stap naar hardware keys, recovery keys en kortere sessies is dus geen luxe. Het is het logische gevolg van een product dat zichzelf richting kritieke digitale infrastructuur beweegt.
Waarom is dit belangrijk?
Omdat AI in het publieke debat nog te vaak behandeld wordt als modellenwedstrijd, terwijl het echte machtscentrum steeds vaker in de laag eromheen zit: accounts, toegang, rechten, logging en recovery. Voor AIwereld is dat een relevant kantelpunt. Net zoals stukken over prompt injection laten zien dat agenten kwetsbaar zijn op systeemniveau, laat OpenAI nu zien dat ook de gebruikerslaag opnieuw ontworpen moet worden. Als AI iets uitvoert namens een mens, dan wordt de identiteit van die mens een aanvalsvlak.
Er zit bovendien een bredere privacyles in. OpenAI koppelt extra bescherming hier direct aan trainingsexclusie. Dat suggereert dat security en privacy in AI-producten steeds minder los van elkaar kunnen worden gezien. Voor sommige gebruikers is het doel niet alleen voorkomen dat een aanvaller binnenkomt, maar ook voorkomen dat gevoelige interacties überhaupt onderdeel worden van bredere modelontwikkeling. Dat maakt beveiliging niet alleen een technische feature, maar een vertrouwenscontract.
Wat betekent dit voor bedrijven, Europa en de AI-sector?
Voor bedrijven is de boodschap helder: als medewerkers AI-tools gaan gebruiken voor code, analyses, klantcontext of beleid, dan is standaard consumentenlogin onvoldoende. Zelfs organisaties die ChatGPT Enterprise niet gebruiken, zullen beleid moeten maken voor passkeys, hardware tokens, sessiebeheer en uitgaande autorisatie. De AI-adoptieagenda kan dus niet langer los worden gezien van identity- en access-management. Wie AI uitrolt zonder die laag te versterken, automatiseert zijn eigen kwetsbaarheid.
Voor Europa is dit relevant omdat AI-governance vaak nog vooral over modelrisico’s gaat. Maar zodra accounts toegang geven tot gevoelige workflows, verschuift de nalevingsvraag ook naar authenticatie, logging en dataminimalisatie. In dat opzicht raakt deze ontwikkeling aan eerdere AIwereld-stukken over Europese druk op OpenAI en bredere compliancevraagstukken: het echte toezicht op AI zal uiteindelijk evenveel over toegangsarchitectuur gaan als over modeloutput.
Conclusie
Advanced Account Security is geen klein beveiligingsnieuwtje. Het is OpenAI’s erkenning dat een AI-account voor een groeiende groep gebruikers een kroonjuweel is geworden. En zodra dat zo is, verschuift het debat over AI onvermijdelijk van modelkwaliteit naar infrastructuurvertrouwen. Precies daar begint de volwassen fase van deze markt.