Kunstmatige intelligentie (AI) speelt een steeds grotere rol in hoe we informatie opzoeken. Waarom nog Googlen als chatbots zoals OpenAI’s ChatGPT en Claude meteen antwoord geven? Maar er schuilt een gevaar:
AI is niet feilloos.
We weten al dat deze modellen soms dingen verzinnen, ook wel ‘hallucineren’ genoemd. Maar nu blijkt dat ook
Rusland zich met deze chatbots bemoeit. Uit
onderzoek komt namelijk naar voren dat een Russisch desinformatienetwerk, genaamd Pravda, AI systemen voedt met misleidende informatie.
Hoe wordt de Russische AI desinformatie verspreid?
De Russische AI desinformatie wordt op een slimme en systematische manier verspreid. n plaats van simpelweg
nepnieuws op social media te posten, gaat het Pravda netwerk een stap verder: het overspoelt het internet met miljoenen artikelen vol pro-Kremlin propaganda.
Deze artikelen worden niet zomaar ergens geplaatst, maar worden doelbewust op obscure websites gezet die AI-systemen doorzoeken voor hun kennis. Het gevolg? AI modellen zoals ChatGPT en Google Gemini zien de misinformatie als waarheid en verwerken die in hun antwoorden.
Rusland beperkt zich niet tot het manipuleren van bestaande AI-modellen, ze ontwikkelen en gebruiken ook hun eigen AI technologie om op grote schaal nepnieuws te genereren. Met geavanceerde taalmodellen kunnen ze razendsnel artikelen, opiniestukken en zelfs valse nieuwsrapporten produceren die door de chatbots lastig te onderscheiden zijn van echte journalistiek.
Miljoenen artikelen
We hebben het hier niet over een paar losse nep nieuwsberichten, het gaat om een enorme golf aan desinformatie. In 2024 alleen al zou het Pravda netwerk naar schatting 3,6 miljoen artikelen hebben gepubliceerd, allemaal doorspekt met pro-Kremlin propaganda.
En het werkt. Onderzoek van NewsGuard laat zien dat AI systemen in een op de drie gevallen deze desinformatie oppikken en reproduceren. Met andere woorden: vraag je een chatbot naar geopolitiek, dan is er een aanzienlijke kans dat je een Russisch beïnvloed antwoord krijgt, zonder dat je het doorhebt.