Het gebruik van kunstmatige intelligentie (AI) biedt een tal van voordelen, maar het brengt ook onverwachte risico’s met zich mee. Dit bleek recent in Alaska, waar onjuiste, door AI gegenereerde informatie in een beleidsvoorstel over het verbod op mobiele telefoons op scholen belandde.
AI hallucinaties zijn situaties waarin een AI systeem informatie genereert die plausibel lijkt, maar eigenlijk verzonnen en feitelijk onjuist is. Dit gebeurt doordat AI patronen volgt zonder onderscheid te maken tussen echte en fictieve gegevens, waardoor het soms "bronvermeldingen" of "feiten" creëert die niet bestaan.
De onderwijscommissaris van Alaska gebruikte generatieve AI om citaties te genereren voor een conceptversie van het nieuwe beleid. Helaas waren deze hallucinaties niet correct. Sommige van deze fictieve bronnen kwamen uiteindelijk in het definitieve document terecht dat aan de onderwijsraad werd gepresenteerd en waarover gestemd werd. Hoewel de commissaris later stelde dat ze de fouten had gecorrigeerd, bleven de verzonnen referenties aanwezig in de versie die werd gepubliceerd op de website van het Alaska Department of Education and Early Development (DEED).
AI hallucinaties in beleid kunnen ernstige gevolgen hebben. Een voorstel gebaseerd op fictieve gegevens kan leiden tot onjuiste beleidskeuzes en afleiding van effectieve oplossingen. In het geval van Alaska zou een onjuist beleid over telefoon verboden onnodige aandacht krijgen, terwijl het onderwijs zich beter zou kunnen richten op andere belangrijke interventies voor scholieren.
Daarnaast kan het gebruik van niet-gecontroleerde AI-data leiden tot verlies van publiek vertrouwen, zowel in de beleidsvorming als in de technologie zelf. Deze incidenten onderstrepen hoe essentieel grondige controle en transparantie zijn bij het gebruik van AI in gevoelige beleidsbesluiten, vooral op gebieden zoals onderwijs, waar de impact op jongeren groot kan zijn.
Alaska’s voorbeeld maakt duidelijk dat de risico’s van AI hallucinaties in beleid serieus genomen moeten worden en dat aanvullende maatregelen nodig zijn om de betrouwbaarheid van AI gegenereerde content te waarborgen.