OpenAI overrompeld door copyrightcrisis na lancering Sora

Nieuws
door Maartje
woensdag, 08 oktober 2025 om 18:00
openai introduceert creditsysteem voor sora chatgpt plus en pro details en functies op een rij
Toen OpenAI Sora presenteerde op DevDay 2025, was het idee eenvoudig maar ambitieus: gebruikers kunnen korte AI-video’s genereren waarin ze zelf of anderen met toestemming een rol (“cameo”) spelen. Maar vrijwel direct ontstond ophef over copyright, volgens The Verge.
In het begin gebruikte Sora een standaardbeleid: rechtenhouders konden zich afmelden (“opt-out”) als ze niet wilden dat hun content werd gebruikt voor AI-personages. Maar binnen enkele dagen doken video’s op waarin fictieve of bestaande karakters, zoals Rick & Morty, SpongeBob, Pikachu, op controversiële of ongepaste manieren verschenen. De publieke verontwaardiging was groot.
Sam Altman, CEO van OpenAI, zei later dat het bedrijf niet had verwacht hoe gevoelig de kennismaking met AI-video’s zou zijn. “Mensen hadden andere reacties dan wat wij vooraf dachten,” aldus Altman. Hij gaf toe dat hoewel het plan technisch klonk, het psychologische en morele effect onderschat was.

Wat ging er mis met het opt-out-model?

Altman stelde dat veel rechthebbenden enthousiast waren over Sora, maar dat velen vroegen om “meer controls”: dat ze wél wilden toestaan dat hun gezicht gebruikt wordt, maar niet in elke context. OpenAI besloot daarom snel om het beleid om te gooien: rechthebbenden moeten nu expliciet aangeven hoe hun gelijkenis gebruikt mag worden: bijvoorbeeld geen politieke content, geen bepaalde woorden, enzovoort.
In de praktijk kunnen gebruikers nu instructies koppelen aan hun cameo zoals “niet gebruiken in politieke video’s” of “niet laten zeggen dit woord.” Tegelijkertijd probeert OpenAI de watermerken van gegenereerde video’s sterker te maken zodat duidelijk is dat het om AI-content gaat.

De bredere les: technologie versus perceptie

De “copyright drama” rond Sora laat iets zien dat vaker voorkomt in de ontwikkeling van AI: de kloof tussen wat technisch mogelijk is en wat sociaal acceptabel is. Altman zelf zei: “We kunnen deze periode gebruiken om de samenleving wakker te schudden... je moet klaar zijn voor een wereld waarin je bijna niet meer kunt zien wat echt is.”
Hij erkende dat gebruikerskritiek vaak pas volgt bij publiek gebruik, niet bij technische presentaties. En dat het bedrijf zal moeten bijstellen, experimenteren en leren.
Tegelijk blijven uitdagingen knagen: er bestaan al tools waarmee watermerken kunnen worden verwijderd, waardoor het onderscheid tussen echt en diepfake vervaagt.
OpenAI’s lancering van Sora zag er in theorie toekomstgericht uit: een nieuwe manier om video’s te maken met AI. Maar in de praktijk leidde de introductie tot juridische, ethische en perceptieproblemen. Hoe goed OpenAI hieruit komt, en hoe robuust de aangescherpte controles zijn, zal bepalend zijn voor de acceptatie van AI-video’s in het publieke domein.
loading

Loading