Google’s nieuwe beeldmodel
Nano Banana Pro, gebaseerd op Gemini 3, kan zeer gedetailleerde en consistente beelden maken. Maar uit een test van
The Verge blijkt dat het model ook relatief gemakkelijk beelden genereert die in verband staan met bekende complottheorieën of historische gebeurtenissen die nooit zo hebben plaatsgevonden. Het gaat dan niet om expliciet verboden opdrachten, maar om subtiele hints of beschrijvingen die het model interpreteert als verzoeken om historische scènes of herkenbare personages in onjuiste situaties te plaatsen.
Hoe ontstaat dit probleem?
Nano Banana Pro is ontworpen om context te begrijpen. Het herkent tijdsperioden, locaties en thema’s, en kan meerdere personen en objecten in één beeld combineren. Dat maakt het model krachtig voor creatieve toepassingen, maar het betekent ook dat impliciete verwijzingen snel worden opgepikt. Beveiligingsmechanismen zijn aanwezig: Google stelt dat het model is getraind om geen schadelijke of misleidende beelden te produceren, maar die filters bleken in de praktijk soms te ruim of inconsistent. Daardoor kunnen gebruikers beelden krijgen die dicht tegen onjuiste of ongewenste historische interpretaties aan liggen, zelfs zonder dat ze er expliciet om vragen.
Waarom dit relevant is
De bevindingen zeggen vooral iets over hoe lastig het is om beeldmodellen streng af te bakenen zonder hun bruikbaarheid te beperken. AI maakt nu combinaties op basis van patronen, en wanneer een opdracht elementen bevat die vaak voorkomen in online discussies of populaire cultuur, kan het model dat sneller oppakken dan bedoeld.Dit betekent niet dat het model speciaal gericht is op misleiding, maar dat de balans tussen creativiteit en veiligheidsregels nog niet altijd goed uitpakt. Voor gebruikers kan dat verwarrend zijn, zeker wanneer een gegenereerd beeld erg realistisch oogt.
Wat doet Google hiermee?
Google geeft aan dat veiligheidsfilters voortdurend worden bijgewerkt. Nano Banana Pro is nog relatief nieuw en wordt volgens het bedrijf actief verbeterd op basis van feedback. Als onderdeel van dit proces wordt ook gewerkt aan betere detectie- en markeertechnieken, zoals SynthID-watermerken, die helpen om AI-beelden herkenbaar te maken.Daarnaast worden richtlijnen verder aangescherpt om beter te bepalen welke soorten historische en politieke content het model wel of niet moet genereren.
Wat betekent dit voor gebruikers?
Voor creatieve en professionele gebruikers blijft Nano Banana Pro een krachtig instrument, vooral door de controle over belichting, camerahoeken en compositie. Maar het onderzoek van The Verge laat zien dat een zekere voorzichtigheid nodig blijft. Als een beeld gevoelig ligt of lijkt op een bekende misrepresentatie, is het verstandig om nog een keer te controleren wat het model precies heeft gedaan.
Samenvatting
Nano Banana Pro toont hoe ver beeldgeneratie inmiddels is gekomen: het model begrijpt context, combineert elementen soepel en levert technisch sterke beelden. Tegelijkertijd laat de test zien dat veiligheidsmaatregelen nog niet altijd waterdicht zijn. Het resultaat is niet dramatisch of alarmerend, maar wel een aanwijzing dat verder afstellen nodig is om ongewenste associaties of misleidende beelden te voorkomen.