Kunstmatige intelligentie is volwassen geworden: van hulpmiddel voor verdedigers tot een van de krachtigste wapens in het arsenaal van cybercriminelen. In een rapport van
Google’s Threat Intelligence Group (GTIG) onthult de zoekgigant hoe tegenstanders AI inzetten om zero-day-kwetsbaarheden te vinden en te misbruiken, ontwijkingscapabele malware te bouwen en zelfs tweefactorauthenticatie (2FA) te omzeilen.
Voor het eerst identificeerde GTIG een dreigingsactor die een door AI gegenereerde exploit gebruikte om een veelgebruikt webbeheerhulpmiddel aan te vallen; een teken dat AI nu tegelijk fungeert als geavanceerde motor voor aanvallers én als een hoogwaardig doelwit voor aanvallen.
Wat GTIG aan het licht bracht
In het
rapport van mei 2026, dat voortbouwt op de bevindingen van februari, ziet GTIG een duidelijke professionalisering: dreigingsactoren operationaliseren generatieve AI en verschuiven van experimenten naar grootschalige inzet binnen offensieve werkstromen. Belangrijkste bevindingen:
- Eerste bevestigde door AI gegenereerde zero-day-exploit: Cybercriminelen werkten samen aan een geplande massale uitbuitingscampagne rond een Python-script met een zero-day waarmee 2FA wordt omzeild in een populair, open-source webgebaseerd systeembeheertool. GTIG heeft het lek verantwoord aan de leverancier gemeld voordat de aanval kon starten.
- Staatsgesteunde AI-verkenning: Dreigingsclusters gelinkt aan China (VRC) en Noord-Korea (DVK) gebruiken AI-modellen actief voor geavanceerd kwetsbaarheidsonderzoek; sommige groepen sturen duizenden geautomatiseerde, recursieve prompts om CVE’s te analyseren en proof-of-concept-exploits te valideren.
- AI-gebouwde malware-infrastructuur: Aanvallers zetten AI in om obfuscationtools, polymorfe malware en anonimiserende relaynetwerken te ontwikkelen en zo de ontwikkelcyclus voor ontwijkende software te verkorten.
- Autonome aanvalsorkestratie: De Android-backdoor PROMPTSPY integreert de Gemini-API van Google om zelfstandig apparaatinterfaces te bedienen, fysieke gebaren te simuleren en opdrachten zonder menselijke tussenkomst uit te voeren.
Zo omzeilen hackers 2FA met een zero-day exploit
De 2FA-bypass-exploit markeert een nieuw front in AI-gestuurde cyberaanvallen. Volgens het GTIG-rapport vertoont het script meerdere duidelijke kenmerken van AI-auteurschap: uitgebreide didactische docstrings, een gehallucineerde CVSS-score en een schone, gestructureerde Python-stijl die typisch is voor outputs van large language models (LLM’s).
Cruciaal is dat de kwetsbaarheid niet voortkwam uit een klassieke programmeerfout zoals geheugenbeschadiging. Ze ontstond door een semantische logische fout: een hardgecodeerde vertrouwensaanname door de ontwikkelaar die in tegenspraak was met de eigen 2FA-handhavingslogica van de applicatie. Dit is precies het soort subtiele, hoog-niveaufout waar frontier-LLM’s in uitblinken, omdat ze kunnen redeneren over ontwikkelaarsintenties in plaats van enkel te scannen op bekende crashpatronen.
Bescherming in een AI-versneld dreigingslandschap
GTIG en Google schetsen diverse maatregelen om deze evoluerende dreigingen het hoofd te bieden:
- Patch proactief: De 2FA-zero-day is verantwoord gemeld en verstoord vóór misbruik. Organisaties moeten prioriteit geven aan het patchen van webgebaseerde beheertools en alle softwareafhankelijkheden up-to-date houden.
- Auditeer AI-geïntegreerde software: Behandel LLM-wrappers, API-connectors en open-source AI-agent-plugins als onderdeel van je aanvalsoppervlak. Verifieer de integriteit van pakketten vóór integratie.
- Monitor signalen van LLM-misbruik: Let op ongebruikelijke API-belastingen, patroonmatig wisselen van accounts en ongeautoriseerde toegang tot AI-serviceproxies binnen je netwerk.
- Schakel Google Play Protect in: Voor Android-gebruikers bevestigde GTIG dat Play Protect bekende versies van PROMPTSPY standaard detecteert op apparaten met Google Play Services.
- Volg het Secure AI Framework (SAIF): Google’s SAIF-taxonomie biedt gestructureerde richtlijnen om risico’s te identificeren, zoals onveilige geïntegreerde componenten en ontspoorde AI-acties binnen bedrijfsomgevingen.
Google heeft als tegenzet eigen AI-gestuurde verdediging uitgerold, waaronder de kwetsbaarheidsjager Big Sleep en het automatische patchhulpmiddel CodeMender. Het signaal is duidelijk: de wedloop tussen AI-aangedreven aanval en AI-aangedreven verdediging is nu volledig losgebarsten.