Palantir onder druk om Anthropic uit Pentagon-software te verwijderen

Nieuws
door Maartje
donderdag, 05 maart 2026 om 15:00
Palantir CEO weet het zeker AI maakt grootschalige immigratie overbodig
Het Amerikaanse technologiebedrijf Palantir ligt onder vuur vanwege zijn samenwerking met het Pentagon rond kunstmatige intelligentie. Volgens berichtgeving overweegt het bedrijf om de technologie van AI-startup Anthropic uit een militair softwaresysteem te verwijderen. Dat gebeurt nadat spanningen zijn ontstaan over hoe de AI wordt gebruikt binnen defensieprojecten en welke rol private bedrijven daarin spelen. Het conflict laat zien hoe gevoelig de relatie tussen AI-bedrijven en het Amerikaanse leger kan zijn. Meer details over het conflict werden gemeld door Reuters aan het begin van maart, toen de discussie binnen de industrie zichtbaar werd voor een breder publiek (Reuters).

Spanningen rond militaire AI

De kwestie draait om software die door Palantir is ontwikkeld voor het Amerikaanse ministerie van Defensie. Die software helpt bij het analyseren van grote hoeveelheden data, bijvoorbeeld om militaire operaties beter te plannen of sneller informatie uit verschillende bronnen te combineren. In dat systeem werd ook technologie van Anthropic gebruikt, een bedrijf dat bekendstaat om zijn focus op veilige en controleerbare AI-systemen.
Volgens berichten uit de sector ontstond er frictie toen duidelijk werd dat de technologie van Anthropic onderdeel was van toepassingen binnen militaire projecten. Sommige AI-bedrijven zijn voorzichtig met directe betrokkenheid bij defensieactiviteiten, vooral wanneer hun systemen gebruikt kunnen worden in situaties die met oorlogvoering te maken hebben.
Dat spanningsveld speelt al langer in Silicon Valley. Bedrijven ontwikkelen krachtige AI-modellen die voor veel verschillende doeleinden gebruikt kunnen worden. Tegelijk groeit de vraag van overheden en defensieorganisaties naar dezelfde technologie.

Een ingewikkelde relatie tussen tech en defensie

Voor Palantir is samenwerking met het leger niets nieuws. Het bedrijf bouwde een groot deel van zijn reputatie op met data-analyseplatforms voor overheden, inlichtingendiensten en defensieorganisaties. De software wordt gebruikt om grote datasets te combineren en patronen te ontdekken die voor mensen moeilijk zichtbaar zijn.
Anthropic bevindt zich in een andere positie. Het bedrijf profileert zich sterk rond AI-veiligheid en verantwoord gebruik van kunstmatige intelligentie. Daardoor kan betrokkenheid bij militaire toepassingen gevoelig liggen, zowel intern als in de publieke opinie.
Het probleem laat zien hoe ingewikkeld de positie van AI-bedrijven kan zijn wanneer hun technologie door anderen wordt geïntegreerd in grotere systemen. Zelfs wanneer een bedrijf zelf geen direct contract met een defensieorganisatie heeft, kan zijn technologie via partners toch in militaire context terechtkomen.

Groeiende aandacht voor AI in het leger

Tegelijkertijd groeit de rol van kunstmatige intelligentie binnen defensie wereldwijd snel. Overheden investeren miljarden in systemen die sneller data kunnen verwerken, dreigingen kunnen herkennen en besluitvorming kunnen ondersteunen. Voor bedrijven die AI ontwikkelen betekent dat een grote markt, maar ook een complex ethisch landschap.
Discussies over waar de grens ligt tussen civiele en militaire toepassingen worden daardoor steeds belangrijker. Veel AI-systemen zijn zogenoemde dual-use technologie. Dat betekent dat dezelfde technologie zowel voor civiele doeleinden als voor militaire toepassingen kan worden gebruikt.
De situatie rond Palantir en Anthropic onderstreept dat spanningsveld. Terwijl de vraag naar AI in defensie groeit, proberen technologiebedrijven tegelijk hun reputatie, waarden en zakelijke belangen in balans te houden. In een sector waar innovatie snel gaat en de inzet van technologie grote gevolgen kan hebben, lijkt dat evenwicht steeds moeilijker te bewaren.
loading

Populair nieuws

Loading