Chatbots onder vuur: zorgen over politieke beïnvloeding via AI

Nieuws
door Maartje
vrijdag, 18 juli 2025 om 8:08
de europese commissie is opzoek naar input over beleid rondom ai modellen
AI-chatbots, zoals ChatGPT en het Europese ChatEurope, bedoeld om burgers te informeren over politiek en beleid, worden steeds populairder. Ze geven razendsnel antwoorden op vragen en kunnen in meerdere talen communiceren. Maar volgens een recent onderzoek van de Financial Times groeit de bezorgdheid over hoe betrouwbaar die antwoorden zijn. Onderzoekers waarschuwen dat kwaadwillende partijen, zoals Russische propagandagroepen, deze technologie proberen te manipuleren.

“Grooming” van AI-systemen

Experts spreken over “grooming” van chatbots. Dit betekent dat bepaalde groepen actief proberen AI-systemen te beïnvloeden door het internet te overspoelen met bevooroordeelde of nepnieuwsachtige content. Zij hopen dat deze informatie vervolgens wordt opgenomen in de trainingsdata van modellen zoals ChatGPT. Zodra gebruikers dan vragen stellen, kunnen de chatbots die misleidende boodschappen onbewust herhalen. Onderzoekers van onder meer het Britse Royal United Services Institute signaleren dat dit risico toeneemt, zeker rond gevoelige onderwerpen zoals verkiezingen, oorlogen of geopolitieke spanningen.

Minder klikken, minder controle

Een andere belangrijke trend is het dalende verkeer naar traditionele nieuwswebsites. Volgens cijfers van Similarweb daalde het aantal bezoeken aan nieuwsplatforms van 2,3 miljard naar 1,7 miljard per maand. Mensen stellen een vraag aan een chatbot en blijven vaak hangen bij het korte, samengevatte antwoord. Ze klikken niet meer door naar originele artikelen. Deze “zero-click”-gewoonte kan ertoe leiden dat belangrijke context verloren gaat en kritische journalistiek steeds minder wordt gelezen.

Waarschuwing voor de toekomst

Desinformatie-experts, zoals Vidhya Ramalingam van het onderzoeksbureau Moonshot, roepen op tot meer transparantie én bewustwording. Mensen moeten begrijpen dat AI-antwoorden niet automatisch neutraal of feitelijk zijn. Zij pleiten ook voor betere voorlichting – zoals campagnes om mensen te helpen herkennen wanneer AI een onbetrouwbare bron gebruikt.
Volgens de Financial Times is de les duidelijk: AI is geen neutrale bibliothecaris, maar een spiegel van de informatie waarop het getraind is. En die informatie kan bewust worden vervuild. Daarom is het belangrijk dat gebruikers kritisch blijven, bronnen controleren, en zich realiseren dat niet elk chatbotantwoord het hele verhaal vertelt.
Plaats reactie

Populair nieuws