De Nederlandse toezichthouders op de advocatuur waarschuwen dat advocaten steeds vaker kunstmatige intelligentie op een onzorgvuldige manier gebruiken bij juridische stukken en pleidooien. In meerdere recente zaken bleken AI-tools zoals ChatGPT betalende advocaten en rechters met onjuiste en deels gefabriceerde informatie te confronteren, wat tot officiële waarschuwingen en verplichte AI-cursussen heeft geleid.
Toezichthouder Wouter Timmermans zegt tegen de NOS dat in ten minste drie dossiers advocaten tekstmateriaal van AI zonder verificatie hebben ingediend in de rechtszaal. Daarbij stonden verwijzingen naar eerdere uitspraken, maar die bleken niet relevant of helemaal niet te bestaan, een klassiek voorbeeld van wat in AI-land “hallucinaties” worden genoemd: plausibel ogende maar verzonnen informatie die door het model wordt gegenereerd.
Advocaten krijgen waarschuwingen en verplichte AI-opleiding
In twee van deze gevallen stuurde de toezichthouder advocaten verplicht op een AI-cursus om zich bewust te worden van de beperkingen van deze technologie. Timmermans benadrukt dat het verkeerd overnemen van door AI gegenereerde teksten zonder eigen controle ernstig kan zijn en kan leiden tot tuchtrechtelijke procedures. Tot dusver is een dergelijke procedure over AI-misbruik nog niet gestart, aldus Timmermans.
Rechters hebben in Arnhem, Rotterdam en Groningen expliciet aangegeven dat het kennelijk verkeerde gebruik van AI niet door de beugel kan en moedigen advocaten aan om bronnen zelf te verifiëren voordat ze ze gebruiken.
AI-hallucinaties: een groeiend probleem in de advocatuur
Advocaten merken ook in hun dagelijkse praktijk dat AI-gegenereerde documenten lastig kunnen zijn. Volgens het Financieele Dagblad (FD) zien veel kantoren dat cliënten met AI-stukken vol fouten en onjuiste rechtsverwijzingen komen, wat de werkdruk vergroot omdat advocaten deze eerst moeten ontleden en corrigeren voordat er inhoudelijke juridische stappen kunnen worden genomen.
Een advocaat uit een familierechtpraktijk vertelde aan FD dat hij regelmatig documenten van cliënten krijgt die voor meer dan de helft herzien moeten worden. “Je wordt eigenlijk een **’onzin-checker’ naast je reguliere juridische werk”, aldus de advocaat.
Jurisprudentie en niet-bestaande uitspraken
Een van de hardnekkigste problemen met AI in de rechtspraktijk is het genereren van zogenaamd onderbouwde rechtspraak die in werkelijkheid helemaal niet bestaat. Dergelijke nep-uitspraken kunnen in een juridische context desastreus zijn en hebben inmiddels geleid tot officiële waarschuwingen voor advocaten die ze ongewijzigd hebben ingediend.
Eerdere juridische analyses benadrukken dat AI-gebruik in procedures wel toegestaan kan zijn, maar dat dit altijd gepaard moet gaan met een zware verificatieplicht. In deze visie blijft de advocaat ten allen tijde verantwoordelijk voor de juistheid van bronnen, zelfs wanneer ze door AI zijn gesuggereerd.
Tijd voor AI-governance in juridische sector
De recente incidenten onderstrepen de dringende noodzaak van AI-governance, transparantie en training binnen de Nederlandse advocatuur. Juridische professionals moeten niet alleen weten hoe AI-tools werken, maar ook welke ethische en professionele grenzen er gelden bij het gebruik van geautomatiseerde systemen, waarschuwen experts. Dit raakt ook aan bredere discussies over EU-regelgeving zoals de aankomende EU AI Act, die eisen stelt aan heldere documentatie, transparantie en risicobeheer bij het gebruik van AI in gevoelige sectoren zoals rechtspraak.
Conclusie: AI is hulpmiddel, geen vervanging
AI-toepassingen kunnen advocaten helpen met het analyseren van documenten en samenvattingen, maar zijn niet onfeilbaar. De recente waarschuwingen van toezichthouders en de praktijkervaringen uit Nederlandse advocatenkantoren benadrukken dat menselijke controle en deskundigheid centraal moeten blijven staan wanneer AI wordt ingezet in juridische procedures.