OpenAI onder vuur na realistische video’s over voedselhulpfraude

Nieuws
zaterdag, 01 november 2025 om 21:35
OpenAI onder vuur na realistische video’s over voedselhulpfraude
AI-technologie ligt opnieuw onder vuur. Op sociale media circuleren momenteel realistische, maar volledig neppe video’s die zouden tonen hoe Amerikanen hun voedselhulp (“food stamps”) zouden verkopen voor contant geld. De beelden zijn gegenereerd met OpenAI’s Sora 2, een geavanceerde tool waarmee gebruikers via tekst realistische video’s kunnen maken.

Nepvideo’s wekken verontwaardiging op sociale media

Een van de meest gedeelde video’s, die duidelijk is voorzien van het Sora-watermerk, toont een zwarte vrouw die aan een fictieve verslaggever uitlegt hoe ze voedselhulp inruilt voor cash. De clip werd op TikTok meer dan 500.000 keer bekeken. Ondanks dat het beeldmateriaal volledig door AI is gemaakt, reageren veel gebruikers alsof het echt is.
Op het platform X deelde de rechtse influencer Mila Joy het filmpje met haar 426.000 volgers en noemde het “een absolute scam”. De video werd inmiddels verwijderd, maar haalde eerder ruim 1,7 miljoen weergaven.
Ook op YouTube en Facebook duiken vergelijkbare versies op. Sommige gebruikers erkennen dat de beelden nep zijn, maar gebruiken ze toch als aanleiding om kritiek te leveren op het Amerikaanse hulpprogramma SNAP (Supplemental Nutrition Assistance Program).

Echte cijfers tonen laag fraudepercentage

Feitelijk bewijs wijst uit dat fraude binnen SNAP zeldzaam is. In Mississippi werden in 2024 van de bijna 391.000 ontvangers slechts 592 gevallen onderzocht op misbruik, waarvan een derde daadwerkelijk fraude bleek. Bovendien verloopt de voedselhulp via elektronische betaalkaarten, niet via fysieke “stempels” die eenvoudig verhandeld kunnen worden.
Volgens het Center on Budget and Policy Priorities bestaat meer dan twee derde van de 42 miljoen Amerikaanse SNAP-deelnemers uit kinderen, ouderen of mensen met een beperking. Van de werkende ouders die hulp ontvangen, heeft bijna 90 procent een baan.

Generatieve AI voedt oude stereotypen

Toch verspreiden meerdere onlinekanalen, zoals het YouTube-account Buffet Battle, AI-video’s waarin mensen uit kansarme groepen op negatieve of stereotype wijze worden afgebeeld. De clips tonen onder meer mensen die voedsel stelen of agressief reageren wanneer hun uitkering stopt.
Experts waarschuwen dat deze video’s schadelijke beeldvorming versterken. De zogeheten “welfare queen”-mythe, populair geworden in de jaren tachtig, portretteert ontvangers van sociale hulp als misbruikers van het systeem. Volgens onderzoekers zorgt de huidige golf aan AI-gegenereerde desinformatie ervoor dat dergelijke vooroordelen opnieuw terrein winnen.

Discussie over regulering van AI-content

Het incident zet druk op beleidsmakers en technologiebedrijven om strengere regels te ontwikkelen voor het gebruik van generatieve AI. OpenAI benadrukt dat gebruikers verantwoordelijk zijn voor naleving van de gebruiksvoorwaarden, waaronder het verbod op misleidende of discriminerende content.
Toch tonen deze gevallen hoe moeilijk het is om nepinhoud te bestrijden zodra die eenmaal viraal gaat. De combinatie van realistische AI-beelden, politieke spanningen en sociale media maakt misinformatie over kwetsbare groepen extra impactvol.
loading

Loading