Waarom verzekeraars AI niet meer durven te dekken

Nieuws
door Maartje
maandag, 24 november 2025 om 11:41
ai cloud
Verzekeringsmaatschappijen die normaal gesproken risico’s afdekken, zien zichzelf voor een ongekende uitdaging geplaatst. Volgens een recente publicatie van TechCrunch vragen grote spelers in de sector regelgevers om toestemming om AI-gerelateerde claims expliciet uit te sluiten uit hun standaardpolissen.
De kern van het probleem: als een AI-systeem – bijvoorbeeld een algoritme voor beslissingen of een geautomatiseerd model – iets fout doet, is het vooraf nauwelijks vast te stellen wie aansprakelijk is, wat de omvang van de schade kan zijn, en hoe vaak zo’n fout tegelijkertijd voorkomt.

Waaróm dit anders is

Het artikel beschrijft concrete voorbeelden: een zoekmachine-AI die ten onrechte een bedrijf van zware juridische problemen beschuldigde, wat leidde tot een schadeclaim van ruim 110 miljoen dollar. Een andere situatie betrof een chatbot die voor een luchtvaartmaatschappij (Air Canada) zomaar een korting „verzonnen” moest honoreren. Daarnaast komt aan bod hoe fraudeurs met een digitaal gekloonde versie van een directeur 25 miljoen dollar wisten buit te maken.
Voor verzekeraars is het risico niet alleen een enkele grote claim, maar juist het systemische risico: stel dat een algemeen ingebouwd AI-model op grote schaal faalt, dan ontstaan honderden of duizenden claims tegelijk. Eén onderwriter verwoordt het helder: ze kunnen wel een schade van bijvoorbeeld 400 miljoen dollar voor één klant aan, maar niet wanneer 10.000 klanten tegelijk getroffen worden.

Wat betekent dit voor bedrijven die AI inzetten?

Wanneer bedrijven besluiten om AI in te zetten, bijvoorbeeld voor besluiten over kredietverlening, klantenservice, productieplanning of veiligheid, dan valt het voor hen lastig te voorspellen of er een passende verzekering bestaat mocht iets misgaan. Als verzekeraars het gebruik van AI expliciet uitsluiten, hebben bedrijven minder vangnet en moeten zij zelf zorgen voor de kosten van schade, reputatieverlies of juridische claims.
Ook kunnen de voorwaarden van verzekeringen complexer worden. Verzekeraars zullen willen weten welk model gebruikt wordt, hoe het getest is, of er simulaties zijn gedaan, welke controles er zijn ingebouwd. Dat vergt van bedrijven meer transparantie en governance rond AI-gebruik.

Wat staat er op het spel?

Voor de verzekeringssector zelf is dit een nieuw grensgebied. Verzekeraars werken traditioneel met modellen die historische data gebruiken om waarschijnlijkheden in te schatten — bijvoorbeeld: hoe vaak ontstaat brand, wat is de kans op een auto-ongeluk, hoe groot is de schade gemiddeld. Bij AI draait het echter vaak om modellen die zich snel aanpassen of beslissingen maken op basis van patronen die minder goed voorspelbaar zijn. Daardoor vervagen de klassieke zekerheden van risico-inschatting.
Voor bedrijven betekent dit dat innovatie op het gebied van AI in gevaar kan komen. Wanneer het gebruik van AI grotere risico’s met zich meebrengt, zonder verzekering als vangnet, zullen sommige bedrijven kiezen voor minder agressieve inzet of aanvullende veiligheidsmaatregelen. Dat kan de snelheid en schaal van adoptie vertragen.

Conclusie

Het is niet het gebruik van AI op zich dat problematisch is voor verzekeraars, maar wel de manier waarop AI beslissingen maakt, de mogelijke omvang van fouten en het risico dat zulke fouten zich gelijktijdig in de hele keten voordoen. Zoals het artikel van TechCrunch laat zien, roept dit vragen op over de verzekerbaarheid van AI-gerelateerde activiteiten en plaatst het bedrijven voor nieuwe strategische keuzes.
loading

Populair nieuws

Loading