Het wordt moeilijker om nog te weten wat echt is online

Nieuws
door Maartje
donderdag, 05 februari 2026 om 18:00
spanje pakt deepfakes aan met boetes tot 35 miljoen euro
In een recente aflevering van de podcast Decoder van The Verge bespreken verslaggevers de groeiende crisis rond nepbeelden en deepfakes die met kunstmatige intelligentie zijn gemaakt. Ze leggen uit dat het steeds lastiger wordt voor mensen om te zien of een foto of video echt is, omdat technologie zulke beelden steeds overtuigender kan maken. Tegelijkertijd blijkt dat pogingen om die nepmedia te labelen of te verifiëren niet goed werken en vaak geen hulp bieden bij het herkennen van echte content op het internet.

De rol van labels en metadata

In de podcast komt een initiatief aan de orde dat Content Provenance and Authenticity heet, of C2PA. Dit is een standaard waarbij informatie over de oorsprong van een beeld of video wordt opgeslagen in metadata. Metadata is extra informatie die bij een bestand hoort, zoals de camera waarin een foto is genomen of welke bewerkingen erop zijn toegepast. Het idee was dat platforms metadata konden gebruiken om te laten zien of iets echt is of bewerkt door AI. In theorie zou dit een hulpmiddel zijn om nepbeelden te herkennen.
Maar in de praktijk werkt het systeem niet goed genoeg. Veel platforms hebben de standaard niet volledig ingevoerd. Zelfs als er metadata aan een afbeelding is toegevoegd, kan die informatie verdwijnen wanneer een bestand verspreid wordt over sociale media of wordt gedownload en opnieuw geüpload zonder de metadata. Daardoor is het lastiger geworden om met zekerheid te zeggen wat echt is of wat nep.

Vertrouwen in beelden neemt af

Verslaggevers in de podcast wijzen erop dat het wantrouwen rond beelden al zichtbaar is bij sommige grote platforms. Zo heeft de baas van Instagram publiekelijk verklaard dat mensen niet langer automatisch kunnen vertrouwen dat wat zij zien op sociale media echt is. Met andere woorden het idee dat een foto of video een momentopname van de werkelijkheid is, is veel zwakker geworden.
Dit wantrouwen komt niet alleen doordat deepfakes steeds overtuigender worden, maar ook omdat er geen systemen zijn die op grote schaal werken om de authenticiteit van media te garanderen. Zelfs technologie zoals C2PA, die bedoeld was om dat mogelijk te maken, lijkt te falen in zijn doel. De standaard werd oorspronkelijk vooral ontwikkeld om de geschiedenis van een afbeelding vast te leggen voor creatieve makers, niet specifiek om manipulatie tegen te gaan. Dat maakt het als instrument om nep te bestrijden minder effectief.

Creators, labels en gebruikers

Een ander punt dat in de podcast besproken wordt, is hoe contentlabels en waarschuwingen vaak niet alleen informatie geven maar ook emoties oproepen. Makers van beelden kunnen geïrriteerd raken als hun werk wordt gelabeld als “AI-gemaakt”, omdat dat hun inspanning minder waardevol doet lijken. Lang niet iedereen wil dat zijn werk als nep wordt aangeduid, zelfs als er een klein beetje AI-bewerking in zit. Dat maakt het nog lastiger om uniforme regels of labels te accepteren op grote platforms.
loading

Populair nieuws

Loading