Vandaag bevestigde
Dario Amodei, CEO van
Anthropic, in een interview met CBS News dat het bedrijf een aangepaste versie van
Claude heeft ontwikkeld voor het United States Department of Defense. Volgens Amodei draait deze militaire AI in een geclassificeerde cloudomgeving en ligt het model mogelijk één tot twee generaties voor op de publieke Claude-versies.
Daarmee verschuift het debat over militaire AI van speculatie naar concrete technologische realiteit. Het gaat niet om een standaard chatbot. Het gaat om een dedicated model met maximale rekenkracht, afgesloten van het internet en gevoed met gevoelige data.
Het hoofdzoekwoord in dit artikel is militaire Claude AI.
Militaire Claude AI draait op afgesloten infrastructuur
Amodei
verklaarde dat het Pentagon een custom Claude-model inzet binnen een zogenoemde classified cloud. Dit betekent:
- De infrastructuur is fysiek of logisch gescheiden van publieke netwerken.
- Alle beschikbare rekenkracht gaat naar één klant.
- Er is geen gedeelde capaciteit met miljoenen gebruikers.
Dat verschil is cruciaal. Consumentenmodellen draaien op gedeelde infrastructuur waar compute wordt verdeeld over miljoenen prompts. Een defensiemodel kan 100 procent van de capaciteit benutten voor complexe analyses.
Amodei benadrukte daarnaast dat de hoeveelheid rekenkracht die in deze modellen wordt gestoken elke vier maanden ongeveer verdubbelt. In de AI-sector betekent dat snelle generatiesprongen. Bedrijven lopen volgens hem standaard minimaal één generatie voor op wat publiek beschikbaar is.
Amerikaanse luchtaanvallen gebruiken Anthropic AI ondanks politiek verbod
Enkele uren nadat president Donald Trump
aankondigde dat de federale overheid stopt met het gebruik van AI-systemen van Anthropic, zette het Amerikaanse leger bij luchtaanvallen in Iran
alsnog technologie van het bedrijf in. Dat melden Amerikaanse media op basis van ingewijden.
Volgens bronnen gebruiken meerdere commando’s, waaronder United States Central Command, het AI-model Claude voor analyse en operationele ondersteuning. Centcom weigert details te geven over specifieke systemen tijdens lopende operaties.
De timing vergroot de politieke spanning rond militaire AI. Het roept de vraag op of een verbod op AI-leveranciers praktisch uitvoerbaar is wanneer die technologie al diep is geïntegreerd in operationele defensiesystemen.
Voor beleidsmakers onderstreept dit incident hoe snel generatieve AI is verweven geraakt met militaire besluitvorming. Zelfs een presidentieel verbod blijkt niet onmiddellijk te leiden tot technische ontkoppeling.
Eén tot twee generaties voor op publieke Claude
De publieke versies van Claude worden regelmatig geüpdatet. Toch suggereert Amodei dat de defensieversie technologisch verder is ontwikkeld.
Dat impliceert onder meer:
- Langere redeneringsketens.
- Complexere patroonherkenning.
- Betere analyse van grote datasets.
- Geavanceerdere strategische simulaties.
In gewone taal betekent dit dat het model niet alleen vragen beantwoordt, maar zelfstandig scenario’s kan doorrekenen. Denk aan geopolitieke spanningen, logistieke risico’s of operationele planning.
Het Pentagon gebruikt AI al langer voor data-analyse. Het verschil hier zit in schaal en autonomie. Een generatief model met maximale compute kan binnen seconden analyses uitvoeren waar eerder complete analistenteams weken voor nodig hadden.
Waarom dit geen gewone AI-toepassing is
De controverse rond Anthropic en het Pentagon escaleerde eerder dit jaar toen de Amerikaanse overheid dreigde met zware juridische instrumenten, waaronder verwijzingen naar de Defense Production Act. Dat middel wordt normaal ingezet in oorlogstijd om industriële productie te sturen.
Zo’n escalatie past niet bij een standaard chatbot. Het suggereert dat de overheid hier te maken heeft met technologie die strategisch doorslaggevend kan zijn.
Als de militaire Claude AI inderdaad generaties voorloopt, dan kan het systeem:
- Real-time analyses maken van geclassificeerde inlichtingenstromen.
- Onzichtbare patronen detecteren in grote hoeveelheden signalen.
- Strategische scenario’s sneller simuleren dan menselijke teams.
Anthropic bevestigt geen specifieke toepassingen. Het bedrijf benadrukt dat het model binnen wettelijke kaders wordt ingezet.
Wat betekent dit voor Europa en Nederland
De ontwikkeling van militaire Claude AI raakt indirect ook Nederland.
Nederland investeert via Defensie en de NAVO in AI-systemen voor besluitvorming en analyse. Als Amerikaanse modellen generaties voorlopen, ontstaat een afhankelijkheidsvraagstuk. Europese landen kunnen dan moeilijk concurreren op strategisch niveau.
Daarnaast speelt de vraag naar regulering. De Europese AI-verordening richt zich vooral op civiele toepassingen. Militaire AI valt grotendeels buiten dit kader. Dat creëert een geopolitieke asymmetrie tussen de Verenigde Staten en Europa.
Voor Nederlandse bedrijven en universiteiten betekent dit:
- Meer druk om high performance computing capaciteit op te bouwen.
- Versnelde investeringen in defensiegerelateerde AI-toepassingen.
- Nieuwe discussies over ethiek en toezicht.
De strategische inzet van generatieve AI verschuift van consumentenmarkt naar geopolitiek machtsmiddel.
Transparantie blijft beperkt
De exacte architectuur van het Pentagon-model blijft geheim. Dat is logisch gezien de aard van defensieprojecten. Tegelijk roept het vragen op over controle en toezicht.
Wie controleert de output van een model dat zelfstandig scenario’s kan analyseren? Hoe wordt bias gemonitord in geclassificeerde datasets? En hoe voorkom je overmatige afhankelijkheid van één private partij?
Deze vragen spelen ook in Den Haag. De Nederlandse overheid onderzoekt hoe generatieve AI veilig kan worden geïntegreerd in publieke besluitvorming.
Conclusie: militaire Claude AI markeert nieuwe fase
De bevestiging dat Anthropic een geavanceerd, generaties voorlopend Claude-model draait voor het Pentagon markeert een nieuwe fase in AI-ontwikkeling. De kloof tussen publieke AI en defensie-AI lijkt groter dan tot nu toe werd aangenomen.
Voor Nederland betekent dit dat AI niet langer alleen een innovatievraagstuk is. Het is ook een geopolitiek en strategisch dossier geworden.
De echte vraag is niet of militaire AI krachtiger wordt. De vraag is wie die kracht controleert.