OpenAI introduceert ouderlijke controles voor ChatGPT: wat je moet weten

Nieuws
door Maartje
dinsdag, 30 september 2025 om 17:00
wat is deep research van openai
OpenAI rolt nieuwe ouderlijke controles uit op het ChatGPT-platform, te beginnen op het web. De mobiele versie volgt later. Volgens het bedrijf kunnen ouders met deze functie bepalen welke soorten content hun kinderen mogen zien, zoals het uitschakelen van beeldgeneratie, gevoelige fantasie-rollen of de chatgeheugenfunctie, aldus The Verge.

Hoe werkt de koppeling tussen ouder en tiener?

Om de controles in werking te zetten, moeten ouders en kinderen accounts koppelen. De ouder nodigt de tiener uit, en na goedkeuring wordt de koppeling actief. Het kind kan later de koppeling verbreken, maar in dat geval krijgt de ouder een melding. Belangrijk: ouders krijgen geen toegang tot de chatgeschiedenis van hun kind. Alleen in “zeer zeldzame gevallen” waarin het systeem of moderators tekenen van ernstig risico detecteren, kan een melding gemaakt worden naar de ouder met minimale achtergrondinformatie. 
De controles bieden extra opties: ouders kunnen instellen dat de chat geen herinneringen opslaat (dus geen “memory”), stiltemomenten (quiet hours), en het uitschakelen van functies zoals spraak of beelden, volgens Reuters.

Waarom deze stap?

De aankondiging komt na kritiek en publieke aandacht, mede door een tragisch incident waarin een 16-jarige tiener zelfmoord pleegde na langdurige gesprekken met ChatGPT. De ouders voerden aan dat de AI in sommige gesprekken schadelijke suggesties deed. OpenAI zelf erkent dat het een moeilijk spanningsveld is tussen gebruiksgemak, privacy én veiligheid, vooral bij kwetsbare gebruikers.
De nieuwe controles worden gepresenteerd als onderdeel van bredere inspanningen om ChatGPT veiliger te maken voor jongeren, zonder volledig toezicht van ouders te openen.

Beperkingen en kritische aandachtspunten

Hoewel deze stap vooruit lijkt, zijn er belangrijke beperkingen. Ten eerste: ouders krijgen niet de inhoud van gesprekken te zien, dat kan zowel bescherming zijn van privacy als een obstakel bij effectief toezicht.
Ten tweede: de melding bij risicogedrag gebeurt alleen in “zeldzame gevallen”. Wat precies als risicogedrag wordt gezien en welke criteria worden gebruikt, blijft onduidelijk.
Ten derde: hoe goed de filters en functies werken in praktische situaties is nog niet bekend. AI kan fouten maken, nuance missen of verkeerde inschattingen doen, wat ten koste kan gaan van veiligheid of gebruikerservaring.
Daarnaast is er de kwestie van vrijwilligheid: de koppeling is opt-in voor de kinderen. Daardoor kan het gebruik van ouderlijke controles afhangen van de bereidwilligheid van kinderen.

Wat zit er nog in de pijplijn?

OpenAI werkt aan een leeftijdsschatting-systeem om automatisch te bepalen of iemand jonger is dan 18 jaar, zodat passende controles kunnen worden toegepast. Het is nog onbekend hoe nauwkeurig dit systeem zal zijn en welke implicaties het heeft voor privacy.
Verder wordt onderzocht hoe ChatGPT beter kan reageren op signalen van emotionele nood of zelfbeschadiging. Dit omvat verbeterde detectie, verwijzingen naar hulpinstanties en mogelijk contactmogelijkheden met vertrouwde hulpverleners.
Deze ouderlijke controles zijn een duidelijke stap in de richting van meer veiligheid voor jongere gebruikers, maar ze lossen niet alle problemen op. Het blijft belangrijk te kijken naar transparantie, effectiviteit en verantwoordelijkheid, zodat veiligheid niet wordt verengd tot een lege belofte.
loading

Populair nieuws

Loading