De snelle opkomst van generatieve AI, autonome AI-agents en AI-gestuurde werkprocessen vergroot het cyberrisico voor organisaties wereldwijd. Dat blijkt uit nieuw onderzoek van KnowBe4, gebaseerd op enquêtes onder 700 cybersecurityverantwoordelijken en 3.500 medewerkers. Volgens bijna de helft (45%) van de securityleiders is het bijhouden van voortdurend veranderende AI-dreigingen inmiddels de grootste uitdaging bij het sturen van veilig menselijk gedrag.
AI-tools zijn steeds vaker in te zetten in het dagelijkse werk, maar brengen ook nieuwe kwetsbaarheden met zich mee. Medewerkers uploaden gevoelige documenten in
AI-systemen, AI-modellen zijn vatbaar voor manipulatie en cybercriminelen gebruiken AI om aanvallen persoonlijker, geloofwaardiger en grootschaliger te maken. Daarmee verschuift het dreigingslandschap van puur technische kwetsbaarheden naar een complex samenspel van technologie en menselijk gedrag.
Toename van deepfakes en AI-gedreven social engineering
AI speelt een steeds grotere rol bij social engineering-aanvallen. Bijna een derde (32%) van de organisaties zag het afgelopen jaar een toename van incidenten met deepfakes, waarbij stemmen, gezichten of complete identiteiten zijn vervalst. Deze technieken maken phishing en fraude overtuigender en moeilijker te herkennen,
melden de onderzoekers.
Het bewustzijn onder medewerkers is hoog: 86% maakt zich zorgen over misleiding via
deepfakes, bijvoorbeeld om toegang te krijgen tot systemen of vertrouwelijke data. Toch blijft de technische verdediging achter. Slechts 35% van de organisaties heeft technologie geïmplementeerd om deepfakes actief te detecteren, waardoor veel AI-gedreven aanvallen pas laat of helemaal niet worden ontdekt.
‘Shadow AI’ groeit door trage governance
Hoewel 98% van de organisaties aangeeft maatregelen te hebben genomen om AI-gerelateerde cyberrisico’s te beheersen, ervaren medewerkers in de praktijk vooral beperkingen. Slechts 26% krijgt snel toegang tot de AI-tools die nodig zijn voor het werk. Meer dan de helft (56%) zegt dat toegang te traag verloopt of volledig ontbreekt.
Deze kloof leidt tot risicovol gedrag. Zo gebruikt 17% van de medewerkers AI-tools zonder toestemming van IT- of securityteams, een fenomeen dat bekendstaat als
‘shadow AI’. Dit vergroot de kans op datalekken, ongecontroleerde verspreiding van gevoelige informatie en onzichtbare manipulatie van AI-agents binnen bedrijfsprocessen.
Menselijk gedrag als grootste kwetsbaarheid
Uit het onderzoek blijkt dat AI niet alleen een externe dreiging vormt, maar ook een intern risico is dat direct samenhangt met menselijk gedrag. Zonder duidelijke richtlijnen, realtime begeleiding en zicht op AI-gebruik verschuiven kritieke werkzaamheden naar onzichtbare omgevingen met een hoog risico.
“De productiviteitswinst die AI oplevert is te groot om te negeren,” zegt Javvad Malik, Lead CISO Advisor bij KnowBe4. “De toekomst van werk vraagt om een naadloze samenwerking tussen mens en AI. Dat kan alleen als beveiligingsprogramma’s zich uitbreiden naar de AI-laag en risico’s proactief beheren, voordat essentiële processen verschuiven naar platforms zonder adequaat toezicht.”
Meer inzichten zijn te vinden in het rapport The State of Human Risk 2025, waarin wordt beschreven hoe organisaties hun beveiligingsstrategie moeten aanpassen aan het AI-tijdperk.