Anthropic probeert Claude politiek neutraal te maken

Nieuws
door Maartje
vrijdag, 14 november 2025 om 14:00
claude
AI-startup Anthropic heeft recent aangekondigd dat de chatbot Claude zo is geprogrammeerd dat het politieke onderwerpen met een zo gelijkwaardig mogelijke benadering behandelt. Volgens een publicatie van The Verge wil het bedrijf hiermee voorkomen dat het model onbedoeld een politieke kant kiest. Deze ontwikkeling komt in een tijd waarin regeringen en toezichthouders kritischer kijken naar vooroordelen in grote taalmodellen.

Hoe Anthropic dit wil bereiken

Anthropic beschrijft dat Claude een “system prompt” meekrijgt waarin staat dat hij geen ongevraagde politieke meningen mag geven, en dat hij verschillende standpunten evenwaardig moet behandelen. Het model wordt bovendien getraind met reinforcement learning waarbij beloningen worden gegeven wanneer de antwoorden neutraal blijven, ook in scenario’s met duidelijke politieke spanning. Verder heeft Anthropic een open source-tool vrijgegeven waarmee de politieke “even-handedness” van Claude getest kan worden. Volgens de cijfers behaalde Claude Sonnet 4.5 een score van 95% en Claude Opus 4.1 94%. Ter vergelijking: een ander model van Meta scoorde 66%. 

Wat betekent “neutraal” hier?

Volgens Anthropic betekent neutraliteit niet het vermijden van elke politieke opmerking. Het gaat om het vermogen om meerdere perspectieven met kwaliteit en diepgang te bespreken, zonder partijdigheid. “Als AI-modellen bepaalde standpunten sterker naar voren brengen, of sommige argumenten geheel negeren, dan ondermijnen ze de onafhankelijkheid van de gebruiker,” schrijft het bedrijf. In die zin streeft Anthropic naar een model dat de gebruiker in staat stelt zijn of haar oordeel te vormen, in plaats van dat het model een vooropgezet standpunt uitdraagt.

Waarom komt dit nu aan de orde?

Dit initiatief volgt op beleidsmatige druk in de VS, waar een uitvoerend decreet van de overheid sprak over “woke AI” en vroeg om AI-modellen die niet bevooroordeeld zijn. Hoewel dat decreet alleen van toepassing is op overheidsinkoop, heeft het impact op de hele sector. AI-bedrijven worden zich steeds meer bewust van de reputatie-risico’s als hun systemen als bevooroordeeld worden gezien.

Wat zijn de vragen die blijven liggen?

Een belangrijk punt is dat politieke neutraliteit moeilijk objectiveerbaar is. Wat precies “even­handig” betekent, kan overeenkomen tussen culturen of politieke systemen. Onderzoekers wijzen erop dat echte neutraliteit wellicht onhaalbaar is, omdat trainingsdata al keuzes bevatten. Daarnaast is niet volledig duidelijk hoe de tool van Anthropic in de praktijk zal werken: hoe vaak het model afwijkende antwoorden toch geeft, hoe transparant die training is, en welke gevolgen dit heeft voor gebruikers in politieke dialogen.

Wat betekent dit voor het gebruik van Claude en AI-systemen?

Voor gebruikers betekent dit dat wanneer zij Claude vragen naar politieke of maatschappelijke onderwerpen, het model behoort te streven naar zorgvuldige, genuanceerde en gebalanceerde antwoorden. Voor organisaties of ontwikkelaars die Claude inzetten, betekent het dat deze richtlijnen kunnen helpen wanneer zij het model gebruiken in omgevingen waar politieke neutraliteit vereist is, bijvoorbeeld in mediatoepassingen of publieke diensten.
Met dit initiatief toont Anthropic dat het zich bewust is van de maatschappelijke en politieke dimensies van AI-modellen. Het werk om Claude politiek “even-handig” te laten functioneren staat dus op de voorgrond.
loading

Populair nieuws

Loading