UNICEF heeft landen opgeroepen om de creatie van kunstmatig gegenereerde beelden en video’s die kindermisbruik uitbeelden, strafbaar te stellen. Volgens UNICEF is er een snelle toename van dergelijke content die met behulp van
AI wordt gemaakt en verspreid, en zij noemt dit een ernstig probleem dat niet langer kan wachten tot de wetgeving in alle landen is aangepast. Dit werd gemeld door
Reuters.
Ruwe cijfers over deepfakes van kinderen
UNICEF verwijst naar een gezamenlijke studie met INTERPOL en de internationale organisatie ECPAT waarin werd vastgesteld dat minstens 1,2 miljoen kinderen in 11 landen hebben aangegeven dat hun afbeelding in het afgelopen jaar door
AI is bewerkt tot seksueel expliciete deepfakes. Deepfakes zijn beelden, video’s of audiofragmenten die door AI zijn gemaakt of aangepast om heel realistisch te lijken, ook wanneer er geen echte bron bestaat. Hierbij worden foto’s van kinderen bijvoorbeeld zodanig gewijzigd dat het lijkt alsof zij naakt of in seksuele situaties staan. UNICEF noemt dit een vorm van misbruik en benadrukt dat de schade voor de betrokken kinderen reëel is, ook al is de content kunstmatig geproduceerd.
De organisatie spreekt ook over wat zij noemt “nudification”, een praktijk waarbij
AI wordt gebruikt om kleding van minderjarigen op foto’s te verwijderen of te veranderen, waardoor valse maar ogenschijnlijk realistische pornografische beelden ontstaan. UNICEF stelt dat zelfs wanneer er geen identificeerbare echte persoon in een deepfake zit, zulke beelden de seksuele uitbuiting van kinderen normaliseren en de vraag naar misbruikmateriaal kunnen vergroten.
Aanscherping van wetten gevraagd
UNICEF roept regeringen dringend op om de definitie van kindermisbruikmateriaal te verruimen, zodat expliciet ook
AI-gegenereerde content onder die strafwetgeving valt. Dat betekent dat niet alleen het bezit, verspreiding en maken van beelden van echte misbruikslachtoffers strafbaar moeten worden gesteld, maar ook van volledig kunstmatig gemaakte beelden. Volgens UNICEF moet het strafbaar zijn om zulke content te creëren, te verspreiden of te bezitten.
Het
Verenigd Koninkrijk heeft als eerste land aangegeven dat het gebruik van
AI-tools om beelden van seksueel misbruik van kinderen te maken binnenkort expliciet strafbaar wordt. Dit moet een voorbeeld zijn van hoe andere landen de wet kunnen aanpassen om dergelijke loopholes te dichten.
Strengere richtlijnen voor AI-bedrijven
Naast wijzigingen in de wetgeving wil UNICEF dat ontwikkelaars van
AI-systemen veiligheid al in het ontwerp van hun modellen verwerken (“safety-by-design”). Dit houdt in dat AI-bedrijven mechanismen moeten bouwen om misbruik van hun tools tegen te gaan en te voorkomen dat hun modellen zonder controles beelden kunnen produceren die kinderen sexualiseren. Het investeren in detectietechnologieën en sterkere contentmoderatie wordt door UNICEF als noodzakelijk gezien om de verspreiding van misleidende content te stoppen nog voordat die door gebruikers wordt gezien.
UNICEF wil dat digitale bedrijven niet alleen reageren op meldingen van schadelijke content, maar actief systemen ontwikkelen die onwenselijke
AI-gegenereerde beelden kunnen detecteren en blokkeren voordat ze zich verspreiden. De organisatie ziet dit als onderdeel van een bredere verantwoordelijkheid van de techsector om kinderen te beschermen in een tijd waarin AI steeds machtiger wordt.
Volgens UNICEF is het risico en de schade urgent en kunnen kinderen niet wachten tot de wetgeving overal is bijgewerkt. De roep om strafbaarstelling en sterke preventieve maatregelen onderstreept het dringende karakter van het probleem nu
AI-technologie steeds toegankelijker wordt en wordt ingezet zonder voldoende controles op misbruik.