In de zaak van de verwoestende Palisades Fire in Californië beschuldigt het Amerikaanse Ministerie van Justitie (DOJ) de 29-jarige Jonathan Rinderknecht ervan dat hij een
AI-gegenereerde afbeelding maakte van een brandende stad via
ChatGPT, enkele maanden vóór de brand uitbrak, aldus een artikel gepubliceerd door
The Verge.
De Palisades Fire, begonnen in januari 2025, kostte levens, verwoestte duizenden gebouwen en staat bekend als een van de meest destructieve bosbranden in de geschiedenis van Los Angeles County.
Wat het DOJ beweert
Volgens het aanklacht gebruikte Rinderknecht in juli 2024 ChatGPT om een beeld te laten genereren van een dystopische scène: “een brandend bos, een menigte vluchtend, een poort met een dollar-symbool.”
Verder zou hij via ChatGPT de vraag hebben gesteld: “Ben je aansprakelijk als een brand ontstaat door je sigaretten?”Op de avond van de brand was hij op de locatie in de buurt van de oorsprong, nam video’s op en belde later 911.
De DOJ gebruikt ook andere bewijzen: videobeelden, getuigenverklaringen en telefoonlocaties die hem op cruciale momenten in de buurt van het ontbrandingspunt plaatsen.
Waarom dit opmerkelijk is
Dat AI-gegenereerde beelden nu als bewijsmateriaal worden aangevoerd, is ongekend in strafzaken. Het illustreert hoe digitale sporen, zelfs in een virtuele vorm, steeds vaker onderdeel worden van complexe onderzoeken.
Tegelijk roept het vragen op over betrouwbaarheid: hoe zeker kan het gerecht zijn dat een AI-beeld authentiek is, niet gemanipuleerd of losgekoppeld van intentie?
Rinderknecht wordt aangeklaagd wegens opzettelijke brandstichting. Mocht hij schuldig bevonden worden, hangt hem een gevangenisstraf van vijf tot twintig jaar boven het hoofd.
Achtergrond: wat weten we over de brand?
De brand begon als de Lachman Fire op 1 januari 2025, maar werd aanvankelijk onder controle gehouden. Later, door ondergrondse smeulende hitte en harde wind, escaleerde het tot de Palisades Fire.
De brand verwoestte meer dan 6.000 gebouwen, verbrandde meer dan 23.000 acres land en veroorzaakte 12 dodelijke slachtoffers.
Mogelijke gevolgen en uitdagingen
Deze zaak kan precedenten scheppen voor hoe AI-inhoud gebruikt wordt in juridische procedures. Als digitale creaties zoals AI-beelden als bewijs worden geaccepteerd, verandert de aard van bewijsvoering in strafzaken.
Maar de verdediging kan argumenteren dat AI-beelden makkelijk te vervalsen zijn of dat gebruik van prompts losstaat van feitelijke intentie. De betrouwbaarheid van AI-data, metadata, versleuteling en authenticatie zullen centraal komen te staan.
Voor autoriteiten is het ook een waarschuwing: bij onderzoek naar ernstige misdaden zullen digitale sporen steeds zwaarder meewegen.
In de komende maanden zal duidelijk worden hoe de rechtsgang omgaat met de combinatie van echte werelddaden en virtuele creaties, en welke rol AI-bewijzen mogen spelen in de rechtspraak.