Highberg kondigt vandaag haar eerste benchmark onderzoek naar de implementatie van de AI Act in Nederland aan. De AI Act, de eerste risico gebaseerde regelgeving voor Artificial Intelligence (AI) binnen de EU, is op 1 augustus 2024 in werking getreden.
De impact op zowel publieke als private organisaties is aanzienlijk omdat de AI Act strikte nalevings-, transparantie- en risicobeheervereisten oplegt, wat leidt tot ingrijpende aanpassingen in AI-development.
Om inzicht te krijgen in de mate van voorbereiding op deze wetgeving, heeft Highberg begin 2025 een uitgebreide benchmark uitgevoerd onder 70 Nederlandse organisaties. Het onderzoek toont aan dat bij meer dan de helft (57%) van de bedrijven nog onduidelijk is wie verantwoordelijk is voor AI-compliance, of dat deze nog helemaal niet is ingericht.
Dit wijst op een grote verdeeldheid binnen organisaties. Vaak is de verantwoordelijkheid voor AI-compliance verspreid over verschillende afdelingen, zoals juridische zaken, IT of speciaal opgerichte compliance-afdelingen. Waar wel een afdeling is aangewezen, blijkt de verdeling van verantwoordelijkheden sterk te variëren. Veelal nemen bestaande functies, zoals FG’s, CISO’s of projectmanagers, deze taak erbij.
Desondanks blijkt dat meer liefst 95% van de Nederlandse organisaties AI toepast, 50% geeft aan dat het zelfs van strategisch belang is. Tegelijkertijd roept de implementatie van de AI Act veel vragen op, zoals over de definitie van AI en de impact van generatieve AI in de publieke sector. De meerderheid van de organisaties beschouwt de wet niet als een last, maar als een kans om AI op een verantwoorde manier in te zetten.
In bedrijfstakken zoals Informatie en communicatie (58%), specialistische zakelijke dienstverlening (40%) en financiële dienstverlening (37%) is het gebruik van AI in 2024 al breed ingeburgerd.[1] Grote bedrijven maakten in 2024 vaker gebruik van AI-technologie volgens het CBS dan kleinere bedrijven.
Het gebruik van AI-technologie was het hoogst onder bedrijven met 500 en meer werkzame personen (59,2 procent) en het laagst onder bedrijven met 10 tot en met 19 werkzame personen (17,8 procent). De benchmark toont aan dat organisaties informatie over de AI Act vooral halen uit onlinebronnen en documentatie (36%), terwijl juridisch advies minder vaak wordt ingewonnen (17,5%).
De verantwoordelijkheid voor AI-compliance is daarnaast versnipperd, bij een derde van de organisaties is nog geen formele verantwoordelijke aangewezen. Eén van de grootste uitdagingen binnen de AI Act is het identificeren van ‘AI-systemen met hoge risico’s’. Veel organisaties ervaren onduidelijkheid over de exacte criteria, en slechts 15% van de respondenten beschikt over een volledige inventarisatie van hun hoog-risico AI-systemen.
Hoewel toezichthouders richtlijnen bieden, blijft het voor de deelnemers een complex vraagstuk om te bepalen wanneer een AI-systeem als ‘hoog risico’ is te kwalificeren. Er is onduidelijkheid over de definitie van een AI-systeem en de reikwijdte ervan, evenals over de vraag of de risicobeoordeling moet plaatsvinden op basis van de functie van het systeem zelf of de bredere context van gegevensverwerking.
Men verwacht dat binnenkort Europese richtlijnen meer duidelijkheid zullen bieden. Op basis van de antwoorden blijkt dat budget (14%) wel een relevant knelpunt is, maar niet het grootste. De benodigde specialistische kennis (36%) en vooral de benodigde hoeveelheid inhoudelijke capaciteit (bijna 50%) lijken de belangrijkste bottlenecks te zijn.
Uit de antwoorden blijkt verder dat training en opleiding voor medewerkers de grootste behoefte vormen, gevolgd door toegang tot technische middelen, zoals algoritmeregisters en tools voor risicobeheersing. Ook wordt er een duidelijke vraag gesignaleerd naar praktische ondersteuning bij de implementatie, zoals begeleiding bij het aanpassen van processen en het waarborgen van compliance.
Dit suggereert dat organisaties niet alleen technische uitdagingen ervaren, maar vooral een kenniskloof moeten overbruggen om compliance te realiseren. Het onderzoek toont aan dat risicomanagement, impactassessments en transparantie bij bijna de helft van de organisaties nog veel aandacht vereisen en bovenaan de prioriteitenlijst staan. Dit wijst erop dat de AI Act niet alleen een juridische verplichting is, maar ook een kans biedt om strategisch na te denken over de manier waarop AI-systemen worden ontworpen, gebruikt en gecommuniceerd.
Frank van Vonderen, Partner bij Highberg bij zegt: "De implementatie van de AI Act vereist een grondige herziening van de interne processen en compliancestructuren binnen organisaties. Het is essentieel dat bedrijven niet alleen voldoen aan de wet, maar ook anticiperen op de strategische voordelen van transparantie en risicomanagement. Onze benchmark toont aan dat organisaties zich goed voorbereiden op de wet, maar er is nog werk aan de winkel om verantwoordelijkheid en compliance beter te centraliseren."
Disclaimer: dit is een bewerking van een ingezonden persbericht.