Advocaten in
Nederland hebben steeds vaker hun handen vol aan het corrigeren van cliënten die met misleidende of foutieve informatie van AI-chatbots komen, meldt
Het Financieele Dagblad. Volgens de publicatie lopen cliënten die eerst bij een chatbot vragen stellen geregeld tegen onjuiste juridische adviezen aan, waardoor advocaten tijd moeten besteden aan het rechtzetten van deze fouten.
De kern van het probleem is dat generatieve AI-modellen zoals ChatGPT antwoorden geven die er plausibel uitzien maar niet juridisch correct zijn. Dit staat bekend als het hallucineren van informatie: de chatbot produceert feiten, uitspraken of veronderstellingen die niet kloppen of zelfs compleet verzonnen zijn.
Juristen zien deze ontwikkeling terug in de praktijk. Cliënten komen met chatberichten waarin juridische termen, procedures of zelfs citaten uit bestaande rechtspraak lijken te staan, maar bij nadere controle blijken deze onjuiste of gefabriceerde informatie te bevatten. Advocaten moeten hun cliënten daarom niet alleen adviseren over de eigen zaak, maar eerst uitleggen waarom de chatbot-antwoord niet betrouwbaar is.
Het fenomeen leidt tot hernieuwde discussie over de rol van AI in het
recht. In de Verenigde Staten gingen advocaten van het kantoor Levidow, Levidow & Oberman zelfs zo ver dat zij werden gestraft nadat zij juridische citaten van ChatGPT zonder controle indienden in een rechtszaak. De chatbot had uitspraken volledig verzonnen, wat tot sancties leidde voor de betrokken advocaten.
Waarom gebeurt dit?
AI-chatbots zijn gebaseerd op taalmodellen die patronen in data leren herkennen en vervolgens antwoorden genereren. Ze begrijpen de wet niet zoals een jurist dat doet, maar voorspellen welke woorden waarschijnlijk volgen op een vraag. Dit kan ertoe leiden dat een bot met overtuiging juridische informatie geeft die in werkelijkheid niet klopt.
Onderzoek onderstreept dat dit niet een zeldzaam probleem is. Algemeen beschikbare AI-tools vertonen in juridische contexten een hoge frequentie van fouten, waarbij antwoorden soms net zo goed willekeurig lijken als goed onderbouwd.
Gevolgen voor juridische praktijk
Advocaten zien twee kanten aan de opkomst van AI. Enerzijds kunnen technologieën efficiëntie verhogen, bijvoorbeeld door sneller documenten op te stellen. Anderzijds ontstaan er risico’s op onjuiste verwachtingen bij cliënten en mogelijke reputatieschade als mensen besluiten op basis van foutieve AI-adviezen te handelen. Dit is vergelijkbaar met wat sommige juristen de WebMD-effect noemen: mensen geloven de eerste diagnose die een AI geeft, ook als die fout is.
Het debat over AI-gebruik in de rechtspraktijk is daarmee niet alleen een technologische kwestie, maar raakt aan professionele verantwoordelijkheid van advocaten, de kwaliteit van juridische dienstverlening en de toegankelijkheid van het recht voor burgers.