5 tips voor CISO’s om AI-agents veilig onder controle te houden

Nieuws
dinsdag, 20 januari 2026 om 16:40
tips
AI-agents zijn in 2025 in rap tempo doorgedrongen tot de kern van veel Nederlandse organisaties. Uit onderzoek van Rubrik Zero Labs onder 1.625 IT-securitybeslissers bij organisaties met meer dan 500 medewerkers blijkt dat 89 procent AI-agents inmiddels volledig of gedeeltelijk heeft geïntegreerd in de identiteitsinfrastructuur. Nog eens 10 procent staat op het punt dit te doen.
Deze agents werken steeds autonomer en krijgen vaker directe invloed op bedrijfskritische processen. Dat vergroot de efficiëntie, maar introduceert ook nieuwe risico’s. Een AI-agent die zelfstandig beslissingen neemt, kan in korte tijd grote schade aanrichten aan data, systemen of zelfs de bedrijfscontinuïteit.
Niet voor niets voorspelt Gartner dat meer dan 40 procent van alle AI-agentprojecten vóór eind 2027 wordt stopgezet, vanwege te hoge risico’s of uit de hand lopende kosten.

5 tips voor CISO’s om AI-agents veilig onder controle te houden

Volgens Filip Verloy, CTO EMEA & APJ Rx bij Rubrik, is het daarom cruciaal om veiligheid en controle al vóór de inzet van AI-agents goed te organiseren. Hij deelt vijf concrete tips voor CISO’s.
1. Bouw AI-systemen met veiligheid en herstelbaarheid als uitgangspunt
Veiligheid moet vanaf dag één onderdeel zijn van het ontwerp. Werk volgens het secure by design-principe: zorg dat AI-systemen uitlegbaar zijn en dat beslissingen altijd teruggedraaid kunnen worden. Veerkracht is geen extra laag achteraf, maar een fundamenteel onderdeel van de architectuur.
2. Zorg dat je snel kunt herstellen
AI-agents zullen fouten maken, dat is onvermijdelijk. De vraag is niet of, maar wanneer. Alleen logbestanden bijhouden is onvoldoende. Organisaties moeten precies kunnen teruggaan naar het moment vóór de fout, zodat systemen snel hersteld worden en de impact beperkt blijft.
3. Ontwerp systemen die meerdere storingen tegelijk aankunnen
AI-agents werken vaak samen en fouten kunnen zich daardoor razendsnel verspreiden. Door agent-acties te isoleren en afhankelijkheden te beperken, voorkom je dat één verkeerde beslissing leidt tot een kettingreactie door de hele IT-omgeving.
4. Geef AI-agents alleen minimale, strikt noodzakelijke toegang
AI-agents stoppen niet vanzelf als er iets misgaat en kunnen in korte tijd ongecontroleerde acties uitvoeren. Incidenten laten zien dat dit kan leiden tot juridische problemen of zelfs het verwijderen van volledige productieomgevingen. Hanteer daarom least privilege-toegang, net zoals bij menselijke medewerkers, zeker bij klantdata en kernprocessen.
5. Maak alles inzichtelijk en controleerbaar
Uit gesprekken van Rubrik blijkt dat minder dan 10 procent van de organisaties beschikt over tooling om AI-activiteiten goed te onderzoeken. Zorg dat het volledige proces, van opdracht tot resultaat, inzichtelijk is. Alleen dan kun je achteraf verklaren wat er gebeurde en waar nodig ingrijpen of acties terugdraaien.
“AI-agents falen op manieren die we niet eerder hebben gezien. Het zijn zelfstandige, dynamische systemen. Alleen door proactief grenzen te stellen, gedrag continu te monitoren en samenwerking tussen specialismen te stimuleren, kunnen organisaties AI-agents veilig en effectief inzetten,” aldus Verloy. “Dit is het moment om veerkracht op te bouwen, voordat AI-agents onder druk verkeerde beslissingen nemen.”
loading

Populair nieuws

Loading