De Britse premier Rishi Sunak heeft recent AI-bedrijven opgeroepen tot actie tegen misleidende beelden en video’s die met AI worden gemaakt. Hij noemde de opkomst van zogenoemde deepfakes een serieus risico voor de samenleving omdat deze beelden mensen kunnen laten lijken alsof ze dingen zeggen of doen die nooit echt zijn gebeurd. Zijn opmerkingen kwamen tijdens gesprekken over de rol van AI-systemen zoals
Grok, de chatbot van X, die in staat kan zijn om informatie te genereren die moeilijk van echt te onderscheiden is, volgens
The Verge.
Wat zijn deepfakes
Deepfakes zijn beelden of video’s die met behulp van AI worden gegenereerd of veranderd zodat het lijkt alsof een persoon iets zegt of doet wat in werkelijkheid niet is gebeurd. Sunak zei dat de Britse regering alert is op de mogelijke gevolgen van deze technologie. Hij benadrukte dat als AI-bedrijven geen duidelijke stappen nemen om misbruik tegen te gaan, de overheid zou kunnen ingrijpen met regels en wetten om de verspreiding van schadelijke deepfakes te beperken.
De oproep kwam specifiek in de context van de discussie rond Grok, een AI-chatbot die op het sociale netwerk X beschikbaar is. Grok zou in sommige gevallen in staat zijn geweest om op verzoek beelden of teksten te produceren die problematisch zijn omdat ze seksueel getint of misleidend zijn, wat de zorgen over AI-gedreven misinformatie versterkt.
Waarom politici bezorgd zijn
Politici zoals Sunak zien deepfakes niet alleen als een technisch probleem maar als iets dat sociale en politieke gevolgen kan hebben. Als mensen massaal nepbeelden beginnen te geloven, kan dat het vertrouwen in publieke debatten ondermijnen. In verkiezingstijden kunnen dergelijke beelden worden ingezet om stemmen te beïnvloeden of om tegenstanders in diskrediet te brengen. Zelfs buiten de politiek kunnen deepfakes persoonlijke relaties of privacy schaden als intieme beelden van iemand worden nagemaakt zonder toestemming.
Sunak heeft benadrukt dat technologiebedrijven een verantwoordelijkheid hebben om duidelijk te laten zien hoe ze AI-systemen veilig houden en wat ze doen om misbruik te voorkomen. Dit geldt voor de algoritmes zelf maar ook voor de manier waarop gebruikers worden beschermd tegen misleidende of schadelijke output.
Reacties uit de techwereld
Bedrijven die AI-technologie ontwikkelen reageren doorgaans dat zij werken aan systemen om schadelijke output tegen te gaan. Zij gebruiken filters, gedragsscans en interne regels om te proberen misbruik te beperken. Toch blijkt uit verschillende voorbeelden dat deze systemen nog niet perfect zijn en dat er nog veel geleidelijk geleerd en aangepast moet worden.
De discussie rond Grok en andere AI-modellen laat zien dat het genereren van beelden en teksten met AI geen gecontroleerde omgeving is, maar een veld waar voortdurend nieuwe toepassingen opkomen. Dat maakt het lastig om regels uit te stippelen die zowel innovatie mogelijk maken als misbruik voorkomen.
Mogelijke stappen van de overheid
Sunak heeft gesuggereerd dat de Britse regering wil nadenken over wetgeving die expliciet ingrijpt wanneer AI-systemen schade kunnen veroorzaken via nepbeelden of misleidende informatie. Die wetgeving zou eisen kunnen stellen aan hoe systemen worden gebouwd, getest en gecontroleerd voordat ze publiek toegankelijk zijn. Dit soort regels kan ook eisen omvatten rond transparantie zodat het duidelijk is wanneer iets door AI is gemaakt en wanneer niet.
De oproep van de Britse premier is onderdeel van een breder gesprek tussen regeringen, techbedrijven en maatschappelijke organisaties over hoe AI-technologieën veilig en verantwoordelijk kunnen worden ingezet. Terwijl AI-systemen krachtiger worden, groeit de aandacht voor hoe ze de werkelijkheid kunnen vervormen en welke controles er nodig zijn om dat te beperken. De komende tijd blijft dit een belangrijk onderwerp van debat in politiek en technologie.