Gebruik van AI binnen de rijksoverheid neemt toe, maar risicoafwegingen blijven achter

Nieuws
donderdag, 17 oktober 2024 om 23:08
gebruik van ai binnen de rijksoverheid neemt toe maar risicoafwegingen blijven achter
Een nieuw onderzoek van de Algemene Rekenkamer toont aan dat overheidsorganisaties steeds vaker gebruikmaken van artificiële intelligentie (AI), maar dat het aantal AI-systemen per organisatie beperkt blijft. AI wordt voornamelijk ingezet voor interne processen zoals informatieverwerking en bedrijfsoptimalisatie, terwijl de risico’s vaak niet goed in kaart worden gebracht. Het onderzoek, uitgevoerd onder 70 overheidsorganisaties, geeft een eerste gedetailleerd inzicht in het gebruik van AI binnen de rijksoverheid.

Toename in AI-gebruik maar beperkte inzet

Uit de inventarisatie blijkt dat 40 van de 69 bevraagde overheidsorganisaties AI-systemen gebruiken, terwijl 15 organisaties momenteel experimenteren met AI. Het aantal systemen dat daadwerkelijk in gebruik is, blijft echter beperkt. In totaal hebben de organisaties 433 AI-systemen opgegeven, waarvan slechts 120 (28%) actief gebruikt worden. De overige systemen bevinden zich in de experimentele fase of zijn beëindigd.
Het gebruik van AI is vooral gericht op toepassingen waar burgers en bedrijven niet direct mee te maken hebben. AI wordt bijvoorbeeld ingezet om kennis te vergaren en interne processen te optimaliseren. Bij 82 AI-systemen gaat het wel om toepassingen die een directe impact hebben op burgers, zoals inspectie en handhaving.

Kansen voor efficiëntie, maar resultaat vaak onbekend

Overheidsorganisaties zien vooral kansen voor AI om de bedrijfsvoering efficiënter te maken. Zo zou AI kunnen helpen bij personeelstekorten of taken automatiseren. Toch blijkt uit het onderzoek dat bij 35% van de in gebruik zijnde AI-systemen de prestaties onbekend zijn. Deze organisaties weten niet of de systemen de verwachte resultaten opleveren. Dit gebrek aan inzicht is nog groter bij experimenten: 72% van de lopende AI-experimenten heeft nog geen concrete resultaten opgeleverd.

Gebrekkige risicoafwegingen

Het onderzoek brengt ook aan het licht dat bij meer dan de helft van de opgegeven AI-systemen geen risicoafweging is gemaakt. Dit kan problematisch zijn, zeker met het oog op de inwerkingtreding van de Europese AI-verordening in augustus 2024, die strenge eisen stelt aan het gebruik van AI-systemen met een hoog risico. De organisaties die wel een risicoafweging maken, gebruiken daarvoor uiteenlopende instrumenten, van privacytoetsen tot zelfontwikkelde risicoanalyses. Er is echter geen uniform kader binnen de rijksoverheid voor het beoordelen van AI-risico’s.

Hoge risico's en AI-verordening

In totaal hebben overheidsorganisaties 30 AI-systemen geclassificeerd als hoog risico. Deze systemen moeten op termijn voldoen aan de strikte eisen van de AI-verordening. Voor systemen met een minimaal of beperkt risico gelden minder strenge eisen, maar ook deze systemen kunnen risico’s met zich meebrengen, zoals privacyschendingen. Een opvallende bevinding uit het onderzoek is dat er voor sommige systemen een prikkel kan bestaan om deze niet als hoog risico te classificeren, omdat dit organisaties verplicht om aan zwaardere regelgeving te voldoen.
Het onderzoek van de Algemene Rekenkamer laat zien dat de rijksoverheid AI steeds vaker inzet voor interne processen en dat AI bijdraagt aan de efficiëntie van de bedrijfsvoering. Toch is er veel ruimte voor verbetering in het monitoren van de prestaties van AI-systemen en het afwegen van risico’s. Met de komst van de AI-verordening in 2024 is het cruciaal dat overheidsorganisaties tijdig inzicht krijgen in de AI-systemen die zij gebruiken en dat zij een systematische aanpak ontwikkelen voor risicobeheersing.
Het onderzoek kun je hier vinden.