Google Gemini krijgt functie om AI-gegenereerde beelden te detecteren

Nieuws
door Maartje
donderdag, 20 november 2025 om 19:00
google lanceert gemini live ai assistent kijkt met je mee via camera en scherm 2
Google introduceert een nieuwe functie binnen Gemini waarmee gebruikers kunnen vragen of een afbeelding is gemaakt of bewerkt door AI-systemen. De functie is vanaf vandaag beschikbaar in de app, en werkt op basis van het systeem SynthID, volgens The Verge. Met deze stap wil Google gebruikers helpen om zicht te krijgen op beelden die mogelijk niet authentiek zijn of waarop technieken zijn toegepast die beeldmanipulatie mogelijk maken.

Hoe werkt de detectie?

Gebruikers kunnen simpelweg in Gemini de vraag stellen: “Is dit AI-gegenereerd?” waarna het systeem de afbeelding analyseert en aangeeft of er tekenen zijn dat de afbeelding via Google-AI is gemaakt of aangepast. De basis voor dit mechanisme is de invisible watermarking-technologie SynthID, die Google eerder introduceerde om AI-beelden te markeren. In deze eerste uitrol werkt de detectie alleen voor beelden; video of audio zijn voor later aangekondigd. Google geeft aan de functionaliteit over meerdere platforms uit te rollen, inclusief zoekresultaten in Google Search.

Waarom deze ontwikkeling?

Beelden die door AI zijn gemaakt of bewerkt, kunnen misleiding veroorzaken, of mensen kunnen ten onrechte denken dat ze origineel zijn. Google stelt dat transparantie rond hoe beelden ontstaan belangrijk is voor vertrouwen in digitale media. Door een herkenbare (al dan niet zichtbare) markering in te bouwen, probeert het bedrijf gebruikers handvatten te geven. Ook in een context van sneller verspreid worden van visuele content helpt een detectiefunctie zoals deze mogelijk om te onderscheiden wat gemaakt is zonder of met AI-hulpmiddelen.

Wat zijn de beperkingen?

Hoewel de functie een stap is, is het geen volledige oplossing. SynthID markeert beelden die zijn gemaakt of aangepast via Google’s eigen AI-tools; beelden gemaakt met andere systemen of manipulaties die de watermarking omzeilen vallen buiten de detectie. Daarnaast geldt dat gebruikers zelf actie moeten ondernemen: de detectiefunctie reageert op een vraag (“Is dit AI-gegenereerd?”) niet automatisch. Hierdoor is het logisch dat enkel actieve gebruikers de functie gebruiken, wat betekent dat grote hoeveelheden beelden zonder verificatie blijven circuleren. Op wetenschappelijk vlak blijkt dat zelfs geavanceerde beeld-en model­detectiesystemen fouten maken. Zo blijkt uit benchmarkonderzoek dat menselijke waarnemers en modellen in veel gevallen AI-gegenereerde beelden niet betrouwbaar onderscheiden.

Wat betekent dit voor gebruikers en platforms?

Voor gebruikers betekent dit dat zij voortaan een extra tool hebben om beelden beter te begrijpen: niet alleen wat er wordt getoond, maar ook hoe het mogelijk tot stand is gekomen. Voor platforms kan dit instrument helpen bij het tegengaan van verkeerde beeldvorming, deepfakes of misbruik van beelden. Echter: de effectiviteit hangt af van brede adoptie, zowel door gebruikers als door andere platforms die mogelijk beelden hosten of doorsturen. Ook blijft de vraag hoe zichtbaar de detectiedata is voor eindgebruikers. Enkel een melding in een app is minder effectief als de gebruiker het beeld elders tegenkomt zonder verificatie.
loading

Populair nieuws

Loading