De dochter van de overleden acteur Robin Williams, Zelda Williams, roept op tot respectvolle omgang met zijn nalatenschap: “Please, just stop sending me AI videos of Dad,” schreef ze op Instagram. Ze legde uit dat dergelijke video’s haar pijn doen en “niet zijn wat hij zou hebben gewild.” Dit werd vandaag
gemeld door TechCrunch.
Deze oproep komt op het moment dat OpenAI’s Sora 2 AI-videomodel en de sociale app Sora gebruikers de mogelijkheid bieden om video’s van zelfs overleden personen te genereren: met realistische gelijkenis, beweging en stem.
Waarom de wet weinig ingrijpt
Een opvallend punt is dat in veel rechtsstelsels “lasteren” of “belastering” van doden juridisch niet mogelijk is, omdat men ervan uitgaat dat reputaties ophouden bij overlijden. Dat betekent niet dat
deepfakes van doden zonder consequenties kunnen. Er is debat over rechten zoals “publiciteit” (wie mag het portret of de naam gebruiken) en eigendom van digitale portretten. (Zie ook analyses van posthumous deepfakes).
Gevaren van het deepfaken van de doden
Deepfakes van overledenen kunnen meerdere vormen van schade veroorzaken. Ten eerste is er emotioneel leed bij familie of fans, vooral wanneer het personage dingen doet of zegt die niet van de overledene waren.
Ten tweede bestaat het risico van historisch vervorming: een AI-video kan woorden of opvattingen toeschrijven aan een persoon die die nooit had. Dat ondermijnt het publieke geheugen en het erfgoed van iemand.
Er is ook een commercieel aspect: deepfakes kunnen gebruikt worden voor promotie, merchandising of commerciële doeleinden zonder dat de overledene of diens erfgenamen inspraak hadden.
Vergeleken met de “vergeten” jurisdictie van laster, zijn deze vormen van schade moeilijk te reguleren via bestaande wetten.
Mogelijke rechtsaanpakken en beleidsideeën
Expertanalyses suggereren dat het rechterlijk systeem moet kijken naar alternatieven zoals het recht op publiciteit, aansprakelijkheid voor toestemming, of een vorm van “appropriation tort” — het gebruik van naam/gelijkenis zonder instemming. (Bron: Georgetown Review) (
turn0search6)
Sommige voorstellen pleiten voor statuten waarin overledenen of hun erfgenamen vooraf kunnen aangeven of hun naam/beeld gebruikt mag worden in AI-projecten: een soort “postmortem opt-out”.
Platforms kunnen ook een rol spelen: als standaard zouden video’s van overledenen automatisch afgewezen kunnen worden of alleen toegestaan na toestemming van de erfgenamen. Transparantie (watermerken, metadata over hoe de video is gemaakt) kan helpen om misbruik voelbaar te maken.
Hoewel de wet beperkt is in het aanpakken van “laster van doden”, betekent dat niet dat deepfakes van overledenen moreel onschuldig zijn. Ze raken naleefbaarheid, herinnering en menselijke waardigheid. De uitdaging is om wetgeving, technologie en ethiek te laten meebewegen: voordat de geheugenbank van de doden wordt overspoeld door kunstmatige stemmen.