Acteur Bryan Cranston, bekend van onder andere Breaking Bad, en de acteerbond SAG‑AFTRA hebben samen met
OpenAI een verklaring uitgebracht na ongeautoriseerde video’s waarin Cranston’s gezicht en stem werden gebruikt op het videogenererende platform
Sora 2. In één video was hij zelfs te zien in een selfie met Michael Jackson.
OpenAI heeft daarop zijn beleid aangepast: voortaan moeten personen expliciet instemmen (“opt-in”) voordat hun gelijkenis of stem gebruikt mag worden, aldus
Business Insider.
Waarom is dit belangrijk?
Deepfakes, video’s of audio waarin echt lijkende personen dingen doen of zeggen die ze nooit gedaan hebben, worden steeds realistischer en makkelijker te maken. Daarmee ontstaat het risico dat iemands reputatie, privacy of carrière wordt aangetast. OpenAI zegt dat deze stap nodig is om makers, acteurs en publieke figuren te beschermen tegen onoordeelkundige regeneratie van hun identiteit. Volgens SAG-AFTRA-voorzitter Sean Astin zou wetgeving zoals de voorgestelde “NO FAKES Act” in de VS vereist zijn om misbruik juridisch aan te pakken.
Wat gaat OpenAI veranderen?
In de gezamenlijke verklaring hebben OpenAI en de betrokken partijen aangegeven dat mensen in de toekomst zelf moeten kunnen kiezen of hun stem en gelijkenis gebruikt mogen worden. OpenAI zegt “nabestaanden, artiesten en individuen moeten controle hebben over hoe en of zij gesimuleerd worden”. Verder belooft het bedrijf klachten over ongeautoriseerde beelden voortaan “expeditiously” te behandelen.
Er wordt echter geen exact tijdspad genoemd of gedetailleerde technische maatregelen vrijgegeven. De verandering is nog in ontwikkeling en er blijft aandacht voor hoe effectief de nieuwe regels zullen zijn.
Waar zitten de zorgen nog?
Hoewel deze stap door veel makers wordt begroet, blijven er open vragen. Het systeem lijkt voorlopig gericht op levende publieke figuren, terwijl nabestaanden van overleden personen regelmatig ook slachtoffer zijn van deepfakes. Daarnaast blijft toezicht nodig: een “opt-in”-beleid klinkt goed, maar in de praktijk moet gecontroleerd worden of de opt-in daadwerkelijk verifieerbaar is, of misbruik toch plaatsvindt, en hoe consequent verwijderd wordt wanneer dat nodig is.
Wat betekent het voor de toekomst?
De samenwerking tussen Cranston, SAG-AFTRA en OpenAI markeert een belangrijk moment waarin de entertainmentindustrie duidelijker laat zien dat creatieve makers niet willen dat hun identiteit door AI-tools wordt misbruikt. Of de aangepaste regels voldoende zijn om massale deepfake-productie te voorkomen, zal de komende maanden blijken.
Het is een stap naar meer verantwoordelijkheid van techbedrijven: niet alleen in het leveren van geavanceerde AItechnologie, maar ook in het beschermen van mensen en hun rechten. Met deze ontwikkeling groeit het besef dat niet alleen technische maar ook ethische en juridische strategieën nodig zijn in de AI-wereld.