AI-bewerkingen brengen risico’s in zaak Charlie Kirk

Nieuws
door Maartje
maandag, 15 september 2025 om 21:55
OpenAI-modellen kunnen nu urenlang nadenken en werken
Na de fatale schietpartij op Charlie Kirk deelde de FBI twee bewakingsfoto’s van een “person of interest”. Het ging om vage, korrelige beelden waarop nauwelijks details te zien waren. De autoriteiten vroegen het publiek om hulp bij de identificatie, aldus The Verge vandaag.

Misleidende AI-beelden 

Kort na de vrijgave verschenen op sociale media allerlei versies van de foto’s die waren bewerkt met kunstmatige intelligentie. Deze “AI-upscales” leken scherper en toonden meer gelaatstrekken. Maar volgens deskundigen voegen zulke programma’s vaak details toe die in werkelijkheid niet bestaan. Wat eruitziet als een duidelijker gezicht, kan in feite een reconstructie zijn die deels door het algoritme is verzonnen.
Dat brengt risico’s met zich mee. Mensen kunnen ten onrechte denken dat ze een verdachte herkennen. Op sociale media werden de beelden al gedeeld met suggesties over wie het zou kunnen zijn, zonder dat daar bewijs voor bestaat.

Gevaar voor verkeerde beschuldigingen

Het gebruik van AI in dit soort gevoelige onderzoeken kan leiden tot verkeerde beschuldigingen en reputatieschade. Een zogenaamd “scherper” beeld kan publiek en media op het verkeerde spoor zetten. Omdat de techniek aannames maakt, kunnen er kenmerken ontstaan die nooit in het originele beeld aanwezig waren. Voor rechercheurs is dat problematisch: bewijsmateriaal moet betrouwbaar en controleerbaar zijn, en AI-manipulaties voldoen daar niet altijd aan.

Breder probleem

Het incident laat zien hoe snel AI kan worden ingezet, ook buiten officiële onderzoeken om. Waar het publiek vroeger afhankelijk was van wat politie en justitie deelden, circuleren er nu binnen enkele uren talloze alternatieve versies. Dit vergroot de kans op desinformatie, zeker in emotioneel beladen zaken zoals een politieke moord.
Experts waarschuwen dat autoriteiten duidelijker moeten communiceren over wat wél en níet als bewijs geldt. Anders ontstaat een parallelle stroom van zogenaamd bewijsmateriaal die het onderzoek kan bemoeilijken en zelfs onschuldigen kan raken.

Voorzichtigheid geboden

De FBI benadrukt dat alleen de originele beelden relevant zijn voor het onderzoek en dat burgers die iemand denken te herkennen dit via officiële kanalen moeten melden. Toch laat dit voorval zien hoe groot de invloed van AI-technologie inmiddels is, en hoe snel het publiek daardoor op het verkeerde been kan worden gezet.
loading

Loading