ADL-rapport legt antisemitisme van Grok bloot

Nieuws
door Maartje
donderdag, 29 januari 2026 om 19:00
Gebruikers lachen om Grok AI verheerlijkt Elon Musk
De AI-chatbot Grok, ontwikkeld door xAI van Elon Musk, scoort slecht als het gaat om het voorkomen van haatdragende content. Dat blijkt uit een nieuw rapport van de Anti-Defamation League (ADL), waarin meerdere grote AI-systemen zijn getest op hun omgang met Jodenhaat en extremistische inhoud. Grok komt daarbij als slechtste uit de bus, met antwoorden die volgens de onderzoekers te vaak meegaan in antisemitische framing of die onvoldoende tegenspraak bieden. Het onderzoek is uitgebreid besproken door The Verge.

Wat de ADL precies testte

De ADL voerde duizenden gesprekken met zes verschillende AI-modellen, waaronder Grok. De onderzoekers stelden vragen en legden uitspraken voor die varieerden van expliciet antisemitisch tot subtieler geformuleerde complotten over Joodse invloed, Israël en wereldpolitiek. Daarbij werd gekeken of een model de uitspraken herkende als problematisch, of het deze corrigeerde en of het context gaf over waarom zulke ideeën schadelijk zijn.
Bij Grok ging het volgens de ADL in veel gevallen mis. De chatbot gaf regelmatig antwoorden die antisemitische aannames niet benoemden of zelfs leken te bevestigen. In sommige tests bleef Grok vaag of ontwijkend waar een duidelijke afwijzing verwacht werd.

Grok scoort structureel slecht

In de totaalscore van het ADL-rapport eindigde Grok onderaan. Waar andere modellen vaak uitleg gaven over de historische context van antisemitisme of expliciet afstand namen van haatdragende beweringen, deed Grok dat minder consequent. De ADL beschrijft dat Grok vooral moeite had met uitspraken die verpakt waren als politieke kritiek of zogenaamd feitelijke claims.
Volgens het rapport is dat problematisch omdat juist dit soort formuleringen veel voorkomt in online antisemitisme. Door die niet helder te benoemen of te weerleggen, loopt een AI-systeem het risico zulke ideeën verder te normaliseren.

Context rond Grok en xAI

De uitkomsten passen in een bredere discussie rond Grok. Sinds de lancering ligt de chatbot vaker onder vuur vanwege antwoorden die als grof, misleidend of extreem zijn ervaren. Elon Musk heeft Grok neergezet als een minder gefilterde AI, met meer ruimte voor “vrije meningsuiting”. Critici stellen dat dit ten koste gaat van duidelijke grenzen bij haatdragende inhoud.
De ADL wijst er in het rapport op dat ontwerpkeuzes, trainingsdata en moderatieregels direct invloed hebben op hoe een AI reageert op gevoelige onderwerpen. In het geval van Grok lijken die keuzes volgens de organisatie onvoldoende bescherming te bieden tegen antisemitische narratieven.

Waarom doet dit ertoe?

AI-chatbots worden steeds vaker gebruikt als informatiebron. Voor sommige gebruikers zijn ze een eerste aanspreekpunt bij vragen over geschiedenis, politiek of actuele conflicten. Als een systeem daarbij tekortschiet in het herkennen van antisemitisme, kan dat bijdragen aan verwarring of aan de verspreiding van schadelijke ideeën.
De ADL benadrukt dat het probleem niet theoretisch is. Antisemitisme neemt wereldwijd toe, vooral online. AI-systemen die hierin geen duidelijke lijn trekken, kunnen onbedoeld onderdeel worden van dat probleem.
loading

Loading