Anthropic heeft ruzie met Amerikaanse overheid: Conflict over militair gebruik van AI-modellen loopt op

Nieuws
vrijdag, 20 februari 2026 om 8:00
Anthropic heeft ruzie met Amerikaanse overheid Conflict over militair gebruik van AI-modellen loopt op
Anthropic Pentagon AI gebruik staat onder druk. Het Amerikaanse AI-bedrijf Anthropic heronderhandelt momenteel met het Amerikaanse ministerie van Defensie over hoe zijn modellen mogen worden ingezet binnen militaire systemen. Een woordvoerder van het Pentagon bevestigde dat de samenwerking “onder review” staat.
Anthropic ontving vorig jaar een contract ter waarde van 200 miljoen dollar van het ministerie. Het bedrijf is tot nu toe de enige AI-aanbieder die zijn modellen heeft uitgerold op geclassificeerde netwerken van Defensie. Daarnaast ontwikkelde het aangepaste AI-modellen voor nationale veiligheidsklanten.
De gesprekken zijn echter vastgelopen. Beide partijen verschillen fundamenteel van mening over de voorwaarden voor toekomstig gebruik.

Pentagon wil volledige inzetbaarheid binnen wettelijke kaders

Volgens Emil Michael, onderminister van Defensie voor onderzoek en engineering, wil het Pentagon de modellen kunnen inzetten voor alle wettelijk toegestane toepassingen. Het ministerie wil daarbij geen aanvullende beperkingen accepteren die door het bedrijf worden opgelegd.
Michael waarschuwde dat beperkingen operationele risico’s kunnen opleveren. Als het leger gewend raakt aan een bepaald AI-model en dit in een noodsituatie niet mag inzetten, kan dat de inzetbaarheid onder druk zetten.
Andere AI-bedrijven gingen wel akkoord met deze brede inzet. Onder meer OpenAI, Google en xAI ontvingen vergelijkbare contracten tot 200 miljoen dollar. Zij staan gebruik toe voor alle wettige doeleinden binnen niet-geclassificeerde militaire systemen. Minstens één partij stemde in met inzet over alle systemen heen.

Anthropic verzet zich tegen autonome wapens en massasurveillance

Anthropic wil garanties dat zijn technologie niet wordt gebruikt voor autonome wapensystemen of grootschalige surveillance van Amerikaanse burgers. Autonome wapens zijn systemen die zonder directe menselijke tussenkomst doelen selecteren en aanvallen. Massasurveillance verwijst naar het op grote schaal monitoren van communicatie en gedrag.
Een woordvoerder van het bedrijf spreekt van “productieve gesprekken te goeder trouw”. Tegelijk benadrukt Anthropic dat het frontier AI wil inzetten ter ondersteuning van de nationale veiligheid, maar binnen duidelijke ethische kaders.
De spanningen komen op een gevoelig moment. De regering onder president Donald Trump uitte de afgelopen maanden publiekelijk kritiek op het bedrijf. David Sacks, investeerder en AI-adviseur van de regering, beschuldigde Anthropic van het ondersteunen van zogenoemde “woke AI” vanwege zijn reguleringsstandpunten.

Dreiging van ‘supply chain risk’ zet druk op onderhandelingen

Als Anthropic niet instemt met de voorwaarden, kan het Pentagon het bedrijf bestempelen als een “supply chain risk”. Dat label wordt doorgaans gereserveerd voor buitenlandse tegenstanders. In dat geval moeten leveranciers en aannemers verklaren dat zij geen gebruikmaken van de modellen van Anthropic.
Een dergelijke maatregel zou een zware klap betekenen voor de marktpositie van het bedrijf in de publieke sector.
Anthropic werd in 2021 opgericht door voormalige onderzoekers en bestuurders van OpenAI. Het bedrijf verwierf bekendheid met de Claude-modellen, waaronder recent Claude Sonnet 4.6. Begin deze maand sloot het bedrijf een financieringsronde van 30 miljard dollar tegen een waardering van 380 miljard dollar.

Wat betekent dit voor Europa en Nederland?

De discussie rond militair AI-gebruik raakt direct aan het Europese debat over strategische autonomie en defensie-innovatie. Nederland investeert via Defensie en TNO in AI-toepassingen voor besluitvorming, logistiek en cyberveiligheid. Tegelijk stelt de Europese AI-verordening strenge eisen aan hoog-risicosystemen.
Het conflict tussen Anthropic en het Pentagon laat zien dat ethische voorwaarden en nationale veiligheidsbelangen steeds vaker botsen. Voor Nederlandse AI-bedrijven en beleidsmakers is dit een belangrijk signaal. Wie AI ontwikkelt voor publieke toepassingen moet vooraf duidelijke afspraken maken over gebruik, aansprakelijkheid en toezicht.
De uitkomst van deze onderhandelingen kan richtinggevend zijn voor toekomstige defensiecontracten in de NAVO en de Europese Unie.
loading

Populair nieuws

Loading