X heeft zijn beleid voor AI-beeldgeneratie met
Grok aangescherpt nadat gebruikers en toezichthouders zich uitspraken over expliciete en misleidende beelden. Volgens het platform moet de update voorkomen dat
Grok seksueel suggestieve afbeeldingen maakt, zoals geforceerde bikini-poses of beelden die sterk lijken op echte personen. Op papier klinkt dat als een duidelijke stap, maar bij nadere lezing roept de wijziging vooral vragen op over wat er níét wordt opgelost, volgens berichtgeving van
The Verge.
Reageren in plaats van voorkomen
De aanpassing voelt vooral reactief. Pas nadat voorbeelden van problematische output breed werden gedeeld, volgde een beleidsupdate. Dat is een patroon dat vaker te zien is bij generatieve AI: eerst wordt een systeem breed losgelaten, daarna worden grenzen getrokken als het misgaat. X presenteert de nieuwe regels als aanscherping, maar erkent daarmee indirect dat eerdere veiligheidsmaatregelen onvoldoende waren.
Het blijft onduidelijk waarom deze beperkingen niet vanaf het begin zijn ingebouwd. Dat is geen detail, maar raakt aan de verantwoordelijkheid van een bedrijf dat een krachtige beeldgenerator beschikbaar stelt aan miljoenen gebruikers. De technologie kan reputaties schaden en mensen zonder toestemming in intieme contexten plaatsen. Dat risico was bekend en toch niet afdoende afgedekt.
Vage definities en grijze gebieden
Een ander probleem is de vaagheid van het nieuwe beleid. Begrippen als “seksueel suggestief” of “misleidend” worden niet strak gedefinieerd. Dat laat veel ruimte voor interpretatie door het systeem zelf en door moderatieteams. Voor gebruikers is daardoor onduidelijk waarom een verzoek wordt geweigerd en een ander niet.
Die vaagheid werkt ook in het voordeel van het platform. Als er opnieuw grensgevallen opduiken, kan X stellen dat het beleid correct is toegepast, ook als de uitkomst maatschappelijk onacceptabel is. Zonder heldere criteria blijft het lastig om het bedrijf aan te spreken op concrete tekortkomingen.
De verantwoordelijkheid blijft bij de gebruiker
Hoewel X de regels aanscherpt, blijft de onderliggende boodschap dat misbruik vooral een gebruikersprobleem is. De focus ligt op wat mensen vragen aan
Grok, niet op wat het systeem überhaupt kan genereren. Daarmee schuift het platform een deel van de verantwoordelijkheid af, terwijl juist de ontwerpkeuzes bepalen hoe makkelijk misbruik is.
Een echt kritische herziening zou kijken naar structurele beperkingen in het model zelf, niet alleen naar filters achteraf. Zolang
Grok technisch in staat blijft om problematische beelden te maken, blijft het risico bestaan dat die grenzen opnieuw worden opgezocht of omzeild.