Australië eist duidelijke kinderbescherming bij AI-chatbots

Nieuws
door Maartje
woensdag, 22 oktober 2025 om 18:00
chatgpt
De Australische toezichthouder eSafety Commissioner heeft vier bedrijven die AI-chatbots aanbieden opgeroepen om te laten zien welke stappen ze nemen om kinderen veilig te houden. Het gaat onder meer om Character Technologies (bekend van de chatbotdienst Character.ai), Glimpse.AI, Chai Research en Chub AI, volgens Reuters.
De bedrijven worden gevraagd een gedetailleerd rapport in te dienen over hun maatregelen tegen kindersekstoerisme, pornografie, zelfbeschadiging of eetstoornissen in de gesprekken die hun chatbots mogelijk maken. Volgens de eSafety-commissie kunnen AI-chatbots bijvoorbeeld seksueel expliciete gesprekken voeren met minderjarigen of bijdragen aan emotionele afhankelijkheid.

Hoogste boetes bij non-compliance

Australië maakt duidelijk dat het serieus is: als de bedrijven niet op tijd of niet adequaat reageren, kunnen ze geconfronteerd worden met een boete tot A$ 825.000 per dag. 
Opvallend is dat de bekendste chatbot-dienst ChatGPT van OpenAI vooralsnog buiten de huidige regels valt. Die dienst valt niet onder de specifieke code die voor deze blok geldt, waardoor de eSafety-commissie haar aandacht in eerste instantie richt op andere aanbieders.

Waarom deze stap nú?

De ontwikkeling van AI-chatbots gaat razendsnel. Volgens rapporten van de eSafety-commissie praten jonge tieners soms meerdere uren per dag met zulke bots. In sommige gevallen lopen die gesprekken uit op risicogedrag: bijvoorbeeld rond zelf­beschadiging, eetstoornissen of seksuele handelingen.
De Australische overheid ziet AI-chatbots als een nieuw front in de bescherming van kinderen op het internet. Het besluit is in lijn met bredere maatregelen zoals een toekomstige verbod voor gebruikers onder 16 jaar op sociale media, die op stapel staan in het land.

Wat betekent dit voor gebruikers en bedrijven?

Voor bedrijven die AI-chatbots aanbieden betekent het dat zij hun veiligheidssystemen stevig moeten aanscherpen. Zij moeten aantonen dat zij risico’s rondom minderjarigen serieus nemen en passende maatregelen getroffen hebben: bijvoorbeeld leeftijds­verificatie, automatische detectie van risicogedrag en strengere moderatie.
Voor gebruikers, vooral ouders en verzorgers, geeft het signaal dat chatbots niet per definitie onschuldig zijn en dat toezicht belangrijk blijft. Gesprekken met AI lijken soms onschuldig, maar kunnen de grens naar kwetsbaarheid of misbruik bereiken.

Een stap in een groter geheel

Australië loopt hiermee voorop in de regulering van AI-diensten gericht op kwetsbare groepen. De acties van de eSafety-commissie laten zien dat het land AI-systemen niet alleen als technologische innovatie ziet, maar ook als een risico voor veiligheid en welzijn kan beschouwen.
Of de opgelegde eisen effectief zullen blijken, hangt af van de bereidheid van bedrijven om te voldoen: én van hoe snel de technologie zich ontwikkelt. De komende maanden zullen duidelijk maken of deze aanpak werkt, en of andere landen volgen in de aanpak van AI-chatbots in relatie tot kinderbescherming.
loading

Loading