Een uitgelezen eer viel de Vlaamse politica Petra De Sutter ten deel: de Universiteit van Amsterdam (UvA) wilde haar een eredoctoraat toekennen. Maar dat plan is abrupt van de baan nadat in haar inaugurele toespraak fouten opdoken die door kunstmatige intelligentie waren veroorzaakt. Dat
meldt studentenblad Folia van de UvA.
Controverse
De controverse ontstond toen De Sutter tijdens haar toespraak in Gent een citaat toeschreef aan Albert Einstein, een uitspraak waarin zij stelde dat Einstein iets gezegd zou hebben over “dogma als vijand van vooruitgang” tijdens een historicus moment in Parijs. Dat citaat bleek echter niet uit authentieke historische bronnen te komen, maar volledig door een AI-model te zijn gegenereerd.
De verkeerde toeschrijving kwam aan het licht bij een nadere check van de speech. Na onderzoek bleek dat de AI zelf een quote had verzonnen die nergens in de echte literatuur of speeches staat. Zulke door AI gegenereerde onjuiste feiten worden ook wel hallucinaties genoemd: outputs die overtuigend en plausibel lijken, maar feitelijk onjuist zijn.
De fouten waren eerder al zonder toelichting aangepast op de website van de Universiteit Gent, wat op opmerkingen over gebrek aan transparantie leidde. Nadat de onjuiste AI-gegenereerde passages onder de aandacht kwamen, besloot De Sutter vervolgens om zich terug te trekken uit de eregast- en eredoctoraatceremonie aan de UvA. De UvA had haar uitnodiging juist gegeven in het kader van haar inzet voor wetenschap, samenleving en publieke dienstverlening.
Fact-checking
De situatie roept bredere vragen op over het gebruik van
generatieve AI in officiële en academische contexten. Universitaire instellingen en publieke figuren maken steeds vaker gebruik van AI-hulpmiddelen bij het opstellen van toespraken, teksten en analyses.
De zaak rond De Sutter benadrukt echter dat menselijke controle en fact-checking cruciaal blijven, juist bij citaten en historische feiten. AI-modellen kunnen door hallucinaties misleidende informatie produceren, wat kan leiden tot reputatieschade en onbedoelde verspreiding van onjuiste beweringen.
Critici zien in dit voorval een waarschuwing: instellingen moeten duidelijke richtlijnen ontwikkelen voor het gebruik van AI, inclusief verificatieprocessen en transparantie over waar en hoe AI is ingezet. Voor de academische wereld staat hiermee opnieuw op scherp dat technologie ondergeschikt moet blijven aan nauwkeurigheid en betrouwbaarheid.