Toezichthouders wereldwijd staan op scherp nu banken en financiële instellingen steeds intensiever gebruikmaken van kunstmatige intelligentie. Ze bereiden zich voor op een nadrukkelijker toezicht op de risico’s die AI met zich meebrengt, aldus een recent artikel gepubliceerd door
Reuters.
De Financial Stability Board (FSB), het risicobewakingssysteem van de G20, waarschuwt dat het gebruik van dezelfde AI-modellen en gespecialiseerde hardware door veel instellingen kan leiden tot “herd behaviour”, als iedereen op één systeem vertrouwt, vallen ze gezamenlijk als het misgaat.
Tegelijk benadrukt de Bank for International Settlements (BIS), een koepel van centrale banken, dat toezichthouders en centrale banken hun technische capaciteit moeten opschalen. Ze moeten niet alleen de rol van observator innemen, maar ook gebruikers worden van AI-technologie, om te begrijpen hoe de systemen werken.
Waarom dit belangrijk is
AI belooft voordelen zoals snellere kredietbeslissingen, betere fraudedetectie en efficiëntie. Maar toezichthouders vrezen systemische risico’s: als algoritmen fouten maken, kunnen die fouten in korte tijd doorwerken in het hele financiële systeem.
Een ander punt van zorg is samenloop in modellen: als meerdere banken hetzelfde model gebruiken dat plots breekt in een stresssituatie, veroorzaken ze elkaar schade.
Cyberaanvallen en AI-gedreven fraude zijn extra risicofactoren.
Verder noemt de FSB dat er tot op heden weinig empirisch bewijs is dat AI-gedreven correlaties al leiden tot markteffecten — maar het feit dat de zorg nu gesignaleerd wordt, toont de potentie van het probleem.
Wat doen toezichthouders al
In sommige regio’s zijn al wetten van kracht die AI in financiële diensten reguleren. In de Europese Unie geldt bijvoorbeeld de Digital Operational Resilience Act (DORA) sinds begin dit jaar, een wet die operationele risico’s en digitale weerbaarheid binnen financiële instellingen stricter regelt.
Toezichthouders evalueren ook hoe toezicht er praktisch uit kan zien: audits van AI-systemen, eisen voor transparantie en verklaringen over algoritmisch gedrag, en regels voor ‘fallbacks’ wanneer AI faalt.
Uitdagingen en onzekerheden
Het toezicht op AI staat voor een dilemma: te strenge regels kunnen innovatie remmen, te losse regels brengen risico’s met zich mee. Regelaars moeten balanceren tussen ruimte voor technologische groei en stabiliteit van het financiële systeem.
Veel instellingen missen intern de expertise om AI-risico’s goed te beoordelen. Toezichthouders zullen investeren in eigen kennis, samenwerking met techexperts en opleiding van personeel.
Verder blijft het onduidelijk hoe grensoverschrijdend toezicht functioneert. AI-systemen opereren vaak over meerdere landen, wat vraagt om internationaal gecoördineerde regels en toezicht.
Financiële toezichthouders zijn duidelijk: AI in de financiële sector wordt niet langer genegeerd. Met het toenemende gebruik en de complexiteit van AI-toepassingen zal het toezicht scherper, transparanter en adaptiever moeten zijn. Hoe effectief dat toezicht uiteindelijk is, hangt af van de bereidheid tot samenwerking tussen overheden, banken en technologische spelers.