De nieuwste video-AI van OpenAI, genaamd
Sora, maakt filmpjes die bijna niet van echt te onderscheiden zijn. Het systeem kan in enkele seconden een realistische video maken op basis van een korte tekst. Maar volgens een recent artikel van
The Verge laat Sora vooral zien hoe kwetsbaar het internet is voor nepbeelden, en hoe slecht onze huidige manieren om die te herkennen werken.
Wat doet Sora precies?
Met
Sora kan iedereen een filmpje maken: van een hond die piano speelt tot een verslag van een zogenaamd nieuwsevenement. De beelden ogen echt, de gezichten bewegen natuurlijk, en de achtergrondgeluiden kloppen. Alleen: het is allemaal nep.
OpenAI zegt dat het systeem netjes vermeldt dat de video door AI is gemaakt. Dat gebeurt via een digitale handtekening die in het bestand wordt opgeslagen, volgens de zogeheten C2PA-standaard, een afspraak tussen grote techbedrijven om aan te geven wat echt is en wat niet. In theorie zou die metadata gebruikers moeten waarschuwen dat de video niet echt is. In de praktijk blijkt dat anders te lopen.
Waarschuwing verdwijnt onderweg
Uit tests blijkt dat de digitale labels gemakkelijk verdwijnen zodra de video wordt bewerkt, gedownload of opnieuw geüpload op sociale media. Platforms zoals X,
TikTok of
Instagram tonen de waarschuwing vaak niet of strippen de gegevens helemaal. Daardoor blijft voor kijkers geen enkel zichtbaar teken over dat het om een AI-video gaat.
Volgens deskundigen is dat een groot probleem. “Zolang die waarschuwingen niet automatisch en duidelijk in beeld komen, is de kans groot dat mensen nepvideo’s als echt zien,” zegt een onderzoeker in het stuk. Ook bestaande detectiesoftware blijkt weinig betrouwbaar: veel AI-beelden glippen er moeiteloos doorheen.
De gevolgen
Dat Sora zulke overtuigende video’s kan maken, roept zorgen op. Beelden die lijken op echte nieuwsreportages, politici of rampen kunnen zich razendsnel verspreiden. En omdat ze er geloofwaardig uitzien, kunnen ze invloed hebben op publieke opinie of verkiezingen.
Experts waarschuwen dat dit niet alleen een technisch probleem is, maar ook een maatschappelijk. Mensen moeten leren om online beelden kritischer te bekijken. Als iets te schokkend of te mooi lijkt om waar te zijn, dan is dat het waarschijnlijk ook.
Wat moet er gebeuren?
Volgens journalisten van
The Verge is er meer nodig dan alleen metadata. Techbedrijven zouden zichtbaar moeten aangeven wanneer iets door AI is gemaakt, bijvoorbeeld met een duidelijk label op het scherm. Daarnaast zijn wetten in de maak die verplichten dat AI-beelden herkenbaar zijn. Maar zolang die nog niet bestaan, is het vooral aan de platforms zelf om verantwoordelijkheid te nemen.
Een nieuwe werkelijkheid
De komst van Sora laat zien hoe snel de grens tussen echt en nep vervaagt. Waar we vroeger dachten dat we met eigen ogen konden beoordelen of iets waar was, kan dat nu niet meer zonder hulp van technologie. De digitale handtekening van C2PA is een stap in de goede richting, maar voorlopig nog een zwakke verdediging.