Na
Maleisië en het
Verenigd Koninkrijk zijn ook de Japanse autoriteiten een onderzoek begonnen naar
Grok, de kunstmatige intelligentie-service van X (voorheen Twitter), omdat het systeem mogelijk ongepaste en seksuele beelden kan genereren op verzoek van gebruikers. De toezichthouder wil weten hoe
Grok zulke resultaten produceert en welke maatregelen X neemt om dit te voorkomen. Het onderzoek volgt op zorgen van burgers en organisaties over de risico’s van AI-beeldgeneratie en de bescherming van maatschappelijke normen. Meer details hierover staan in het
verslag van Reuters.
Waarom Japan ingrijpt
Japanse overheidsinstanties hebben aangegeven dat zij bezorgd zijn over gevallen waarin de AI-bot beelden genereerde die seksueel expliciet waren of niet geschikt voor alle doelgroepen. In sommige gevallen konden gebruikers door specifieke opdrachten te geven afbeeldingen laten maken die leken op echte mensen in suggestieve posities of met seksuele connotaties. Omdat dergelijke beelden schade kunnen toebrengen aan individuen, zeker als echte personen herkend worden, heeft de toezichthouder besloten nader te kijken naar de werking van de technologie en de veiligheidsmaatregelen die zijn ingebouwd.
De zorgen zijn niet geïsoleerd. Wereldwijd groeit de aandacht voor de vraag hoe AI-diensten omgaan met gevoelige content en hoe zij misbruik voorkomen. In
Japan, waar regelgeving rond media en publieke normen relatief streng is, was de reactie dat er behoefte is aan meer duidelijkheid voordat dergelijke technologie verder wordt toegestaan zonder streng toezicht.
Hoe Grok werkt
Grok is een generatieve AI-dienst die antwoord geeft op tekstopdrachten van gebruikers door nieuwe content te produceren, waaronder teksten en beelden. De technologie achter Grok maakt gebruik van grote datasets en complexe modellen die patronen herkennen in taal en visuele informatie, en daaruit nieuwe output genereren. Dit betekent dat de AI in staat is om afbeeldingen te maken op basis van omschrijvingen, maar deze kracht brengt ook risico’s met zich mee als de output ongewenste of schadelijke elementen bevat.
In veel gevallen zijn dergelijke AI-beeldaanvragen niet expliciet bedoeld om expliciete content te genereren, maar kunnen ze onbedoeld tot problematische resultaten leiden als de AI niet goed is ingesteld om gevoelige onderwerpen te herkennen en te blokkeren. Dit is precies wat de Japanse autoriteiten willen onderzoeken: of er adequate filters of beperkingen bestaan om schadelijke beelden te voorkomen en hoe deze worden toegepast.
Reacties op problemen met AI-beelden
Het probleem van ongepaste AI-gegenereerde beelden speelt niet alleen in
Japan. Er zijn eerder vergelijkbare incidenten geweest waarbij AI-diensten seksueel expliciete of misleidende beelden produceerden van mensen zonder hun toestemming of zonder duidelijke indicatie van een publiek domein. Dit soort gevallen heeft geleid tot brede discussie over hoe kunstmatige intelligentie gecontroleerd en gereguleerd moet worden, vooral wanneer het gaat om content die schade kan toebrengen aan reputaties of de privacy van individuen kan schenden.
In sommige landen lopen juridische procedures of zijn er gesprekken tussen technologiebedrijven en regelgevers om duidelijke grenzen te stellen aan wat AI-systemen mogen genereren. Vaak gaat het niet om het beperken van technologische innovatie op zich, maar om het voorkomen van misbruik en het beschermen van burgers tegen ongewenste gevolgen.
Welke stappen Japan overweegt
Het Japanse onderzoek moet duidelijk maken welke regels of richtlijnen van toepassing zijn op diensten zoals
Grok en hoe deze systemen getest en gecontroleerd worden. De toezichthouder wil inzicht in wat X doet om te voorkomen dat AI-gebruikers expliciete of ongepaste beelden kunnen genereren en hoe het bedrijf reageert als misbruik wordt gemeld.
Een specifiek doel van het onderzoek is om vast te stellen of er wettelijke normen zijn overtreden of dat er aanvullende maatregelen nodig zijn om de publieke belangen te beschermen. Dit kan variëren van strengere richtlijnen voor beeldgeneratie tot verplichtingen om waarschuwingen of blokkades in te bouwen voor gevoelige content.