De Amerikaanse discussie over AI-veiligheidsvoorwaarden bij defensiecontracten escaleert verder nu Under Secretary of War Emil Michael publiekelijk uithaalt naar
Anthropic. De topfunctionaris beschuldigt het AI-bedrijf van misleiding, verzet zich tegen contractuele beperkingen rond militaire inzet en stelt dat Amerikaanse militairen geen toestemming van een tech-CEO nodig mogen hebben om zich te verdedigen.
De uitspraken volgen op een publieke verklaring van Anthropic-CEO
Dario Amodei over
gesprekken met het Amerikaanse ministerie van Defensie. De kern van het conflict draait om beperkingen in het bestaande contract rond autonome wapens en mass surveillance.
'Anthropic liegt' en #CallDario
Emil Michael
reageerde in meerdere berichten op X. Hij stelde dat Anthropic “liegt” over de aard van de onderhandelingen en ontkende dat het ministerie van Defensie mass surveillance uitvoert. Volgens hem is dat al illegaal onder Amerikaanse wetgeving.
Michael schreef dat het debat draait om de vraag of Amerikaanse militairen AI mogen inzetten zonder vooraf toestemming te moeten vragen aan Dario Amodei. Hij verwees daarbij naar het hypothetische scenario van vijandelijke dronezwermen die Amerikanen zouden kunnen doden. De hashtag #CallDario onderstreepte de polemische toon.
Die formulering markeert een duidelijke escalatie. Waar eerdere spanningen zich achter gesloten deuren afspeelden, vindt de discussie nu in volle openbaarheid plaats.
Claude’s “Constitution” als inzet
Een tweede punt van kritiek richt zich op wat Michael “Claude’s Constitution” noemt. Daarmee verwijst hij naar het interne principesdocument van Anthropic waarin richtlijnen staan voor modelgedrag en ethische grenzen.
Michael suggereerde dat Anthropic eerder een oudere versie van dit document probeerde te verwijderen van het internet. Hij citeerde een passage waarin het model zou moeten kiezen voor antwoorden die niet als schadelijk worden gezien voor niet-westerse culturele tradities.
Volgens hem toont dit aan dat Anthropic een eigen normatief kader wil opleggen, los van de Amerikaanse grondwet of nationale wetgeving. Hij stelde dat het bedrijf “corporate laws” zou willen implementeren via zijn AI-systemen.
Anthropic positioneert die Constitution juist als een veiligheidsmechanisme. Het document bevat principes die het model helpen om risicovolle of schadelijke toepassingen te vermijden.
Community Notes voegt cruciale context toe
Onder de berichten verscheen een Community Note met aanvullende informatie. Daarin staat dat het bestaande contract tussen het ministerie van Defensie en Anthropic clausules bevat die het gebruik van Claude voor autonome wapensystemen en mass surveillance van Amerikanen beperken.
Volgens deze context zou het ministerie juist aandringen op het schrappen van deze beperkingen.
Die toevoeging verschuift het debat van retoriek naar contractuele details. Het gaat niet alleen om vrijheid van inzet, maar om concrete voorwaarden in een lopend defensiecontract.
Fundamentele machtsvraag rond militaire AI
Het conflict raakt aan een structurele vraag: wie bepaalt de spelregels voor militaire AI?
Anthropic hanteert veiligheidsbeperkingen om reputatierisico en maatschappelijke schade te beperken. Het Pentagon wil maximale operationele flexibiliteit voor militair gebruik.
Deze botsing illustreert een bredere machtsverschuiving:
- AI-bedrijven bezitten strategische technologie
- Overheden willen soevereine controle behouden
- Contractuele voorwaarden worden geopolitiek relevant
De publieke escalatie maakt duidelijk dat dit geen technisch detail is. Het is een fundamenteel debat over zeggenschap.
Relevantie voor Nederland en Europa
Voor Nederland is deze ontwikkeling relevant. Europese defensieorganisaties investeren fors in AI voor cyberverdediging, logistiek en dreigingsanalyse. Tegelijkertijd werkt de Europese Unie aan strikte AI-regelgeving via de AI Act.
Als Amerikaanse defensie en AI-leveranciers botsen over modelbeperkingen, kan dat ook gevolgen hebben voor Europese samenwerking en afhankelijkheid van Amerikaanse modellen.
De vraag wordt steeds urgenter: moeten Europese landen eigen defensie-AI ontwikkelen om volledige controle te behouden?
Publieke escalatie als strategisch instrument
De opvallende toon van Emil Michael laat zien dat AI-contracten inmiddels politieke dossiers zijn geworden. Sociale media fungeren als drukmiddel in onderhandelingen.
Dat vergroot de zichtbaarheid, maar verhoogt ook het risico op polarisatie.
Wat begon als een discussie over AI-safeguards, is uitgegroeid tot een publiek machtsconflict tussen overheid en technologiebedrijf.
En dat maakt deze zaak veel groter dan één contract.