Kunstmatige intelligentie wordt vaak gepresenteerd als dé oplossing voor trage processen en overvolle loketten. Ook bij overheden leeft die belofte. Met een paar slimme prompts zou complexe bureaucratie ineens begrijpelijk worden voor iedereen. In Alaska dachten ze datzelfde toen ze
begonnen aan een
AI-chatbot voor de rechtbank. Het idee klonk logisch, de uitvoering bleek echter een stuk lastiger.
Waarom een simpele chatbot ineens heel ingewikkeld werd
De Alaska Virtual Assistant, kortweg AVA, werd ontwikkeld door het Alaska Court System om burgers te helpen bij probate-zaken. Dat zijn procedures rond nalatenschappen, erfenissen en bezittingen na een overlijden. Juist dit soort processen zijn voor veel mensen stressvol, emotioneel en juridisch lastig.
Wat begon als een project dat binnen drie maanden live moest gaan, sleept inmiddels al meer dan een jaar voort. Niet omdat de techniek niet werkte, maar omdat de lat extreem hoog ligt. De rechtbank eist 100% correcte informatie. Een kleine fout kan immers grote financiële of juridische gevolgen hebben voor families.
Tijdens het testen ging het mis. AVA gaf soms antwoorden die overtuigend klonken, maar feitelijk onjuist waren. Zo verwees de chatbot naar een rechtenopleiding in Alaska die simpelweg niet bestaat. Klassieke AI-hallucinaties dus. In een webshop is dat vervelend, bij een rechtbank ronduit gevaarlijk.
Ook de toon van de chatbot bleek een struikelblok. In eerste instantie was AVA erg empathisch en bood het zelfs condoleances aan. Goed bedoeld, maar gebruikers ervoeren het als ongemakkelijk en soms zelfs irritant. Uiteindelijk zijn deze empathische reacties geschrapt. De chatbot moest vooral feitelijk en zakelijk zijn, niet menselijk.
Lage kosten maar hoge verantwoordelijkheid
Op papier is AI spotgoedkoop. Twintig vragen beantwoorden kostte AVA ongeveer 11 cent. Maar daar staat iets tegenover dat niet in dollars is uit te drukken: toezicht. De rechtbank ontdekte dat continue monitoring noodzakelijk is, omdat AI-modellen snel veranderen en onverwacht ander gedrag kunnen vertonen.
Om die reden werd het testproces drastisch aangepast. Waar aanvankelijk 91 testvragen werden gebruikt, bleef men uiteindelijk steken op 16 kernvragen. Niet omdat de rest onbelangrijk was, maar omdat elke extra vraag menselijke controle vereiste en de werkdruk simpelweg te hoog werd.
Deze ervaring staat niet op zichzelf. Minder dan 6% van de lokale overheden in de VS geeft momenteel prioriteit aan AI voor dienstverlening. Betrouwbaarheid, aansprakelijkheid en reputatierisico’s wegen zwaarder dan de potentiële efficiëntiewinst.
De rechtbank in Alaska is daar inmiddels realistisch over. AVA wordt eind januari gelanceerd, maar met duidelijke beperkingen. De chatbot is bedoeld als hulpmiddel, niet als vervanger van menselijke ondersteuning. Voor complexe of gevoelige vragen blijft persoonlijk contact essentieel.