Steeds meer mensen gebruiken kunstmatige intelligentie om snel op de hoogte te blijven van het laatste nieuws. Handig, zou je denken, een paar seconden en je hebt de samenvatting van een artikel. Maar volgens een
nieuwe internationale audit is dat vertrouwen niet altijd terecht. Uit een gezamenlijk
onderzoek van de Europese Omroep Unie (EBU) en de BBC blijkt namelijk dat bijna de helft van de
AI nieuws samenvattingen fouten bevat.
Gemini blijkt de grootste sloddervos van het stel
De studie onderzocht duizenden antwoorden van verschillende AI systemen in 18 landen en 14 talen. Journalisten analyseerden de uitkomsten van onder meer
ChatGPT, Copilot, Gemini en Perplexity. Het resultaat was zorgwekkend: 45% van de samenvattingen bevatte minstens één ernstige fout, terwijl 20% zelfs verzonnen of verouderde informatie gaf. Vooral
Google’s Gemini kwam slecht uit de bus, met maar liefst 76% problematische antwoorden.
De onderzoekers merkten drie veelvoorkomende problemen op: hallucinaties (waarbij de AI dingen verzint), verouderde feiten en een compleet gebrek aan bronvermelding. Dat laatste maakt het voor lezers extra lastig om te controleren waar de informatie vandaan komt of hoe actueel ze is.
Waarom blind vertrouwen op AI het nieuws ondermijnt
Volgens de EBU en de BBC vormt deze onnauwkeurigheid een risico voor het vertrouwen in nieuws en daarmee voor de democratische samenleving. Jongeren gebruiken steeds vaker AI om het nieuws te volgen, maar nemen zelden de moeite om bronnen of tijdstempels te controleren. En met de opkomst van synthetische media en
deepfakes, denk aan video technologie zoals OpenAI’s Sora, wordt het verschil tussen echt en nep steeds moeilijker te zien waardoor gebruikers nog beter hun best moeten doen om te fact checken.
De onderzoekers adviseren daarom om AI tools vooral te gebruiken als startpunt, niet als eindpunt. Met andere woorden: laat de machine samenvatten wat je leest, maar blijf zelf nadenken, en controleer altijd de bron.