De Amerikaanse Senaat heeft ingestemd met een wet die gericht is op misleidende beelden die met AI zijn gemaakt. De wet, bekend als de DEFIANCE Act, wil de regels verscherpen rond deepfakes en andere manipulaties van beelden die schade kunnen toebrengen aan mensen of de samenleving. Het wetsvoorstel komt te midden van discussies over het gebruik van AI-technologie zoals
Grok, de chatbot van X die in staat is om content te genereren die moeilijk van echt te onderscheiden is, volgens
The Verge.
Wat de DEFIANCE Act inhoudt
De DEFIANCE Act richt zich op het aanpakken van deepfake-beelden en vergelijkbare AI-gegenereerde content die opzettelijk wordt gebruikt om misleiding te verspreiden of schade te veroorzaken. Deepfakes zijn video’s of afbeeldingen die door middel van kunstmatige intelligentie zijn gemanipuleerd zodat het lijkt alsof iemand iets zegt of doet wat niet echt is gebeurd. Deze beelden kunnen worden ingezet om mensen in diskrediet te brengen, misinformatie te verspreiden of vertrouwen in publieke informatie te ondermijnen.
Het doel van de wet is om duidelijke grenzen te stellen aan wat is toegestaan met deze technologie. Wanneer iemand opzettelijk misleidende beelden maakt en verspreidt met schade tot gevolg, kan hij of zij verantwoordelijk worden gehouden onder federale wetgeving. De wet plaatst de focus op schade, wat betekent dat het niet alleen om het maken van de beelden zelf gaat, maar om de gevolgen en het doel ervan.
Waarom er wetgeving komt
De opkomst van AI-technologie heeft het makkelijker gemaakt om realistische beelden en video’s te genereren zonder dat er echte opnamen zijn gemaakt. Voorstanders van de wet wijzen erop dat deze beelden kunnen worden gebruikt om politici, publieke figuren of gewone burgers te beschadigen door hen valse uitspraken of handelingen toe te schrijven. In sommige gevallen kunnen zulke beelden zelfs de stabiliteit van maatschappelijke processen zoals verkiezingen ondermijnen.
De discussie kreeg extra urgentie door
incidenten waarbij chatbot Grok expliciete en seksueel getinte beelden konden genereren van echte personen zonder toestemming. Ook technologieën zoals Grok zijn meerdere keren genoemd in gesprekken over hoe AI kan worden misbruikt om content te maken die schadelijk is voor individuen. Dit soort voorbeelden heeft het debat over de noodzaak van wetgeving versterkt.