De Amerikaanse overheid en
Anthropic zitten in een steeds groter wordend conflict over hoe AI mag worden gebruikt door het leger. Na wekenlange gesprekken over een contract van mogelijk 200 miljoen dollar zitten beide partijen muurvast en lijken ze niet snel tot overeenstemming te komen. In de kern draait het om de vraag hoeveel beperkingen
Anthropic wil opleggen aan het gebruik van zijn systemen en hoeveel vrijheid het Pentagon wil hebben om die systemen in militaire contexten in te zetten, volgens
Reuters.
Verschillende opvattingen over gebruik
Anthropic, een startup uit San Francisco die bekendstaat om zijn focus op veiligheid en ethiek in AI, heeft grenzen gesteld aan hoe zijn technologie mag worden ingezet. Het bedrijf is terughoudend met toepassingen die kunnen leiden tot autonome doelwitselectie voor wapens of intensieve binnenlandse surveillance zonder menselijke controle. Dat komt neer op situaties waarin systemen zelfstandig besluiten zouden nemen over leven en dood, of waarbij burgers voortdurend onder observatie worden gehouden. Volgens bronnen heeft dit tot frictie geleid met het Pentagon, omdat de beperkingen volgens de defensievertegenwoordigers te ingrijpend zijn voor de beoogde militaire toepassingen.
Aan de andere kant stelt het Pentagon dat het AI-technologie moet kunnen inzetten zolang dit binnen de kaders van de Amerikaanse wet gebeurt, ongeacht de interne beleidslijnen van een bedrijf. In een strategiedocument van 9 januari benadrukte het ministerie dat commerciële AI-systemen zonder restricties gebruikt moeten kunnen worden, mits ze legaal zijn. De defensieorganisatie wil niet dat private bedrijven bepalen wat wel en niet mag, vooral niet in situaties waarin snelle beslissingen in het veld nodig zijn.
Contract in gevaar
De gespannen onderhandelingen kunnen gevolgen hebben voor de zakelijke toekomst van
Anthropic. Het bedrijf probeert niet alleen contracten met de overheid veilig te stellen, maar is ook bezig met voorbereidingen voor een eventuele beursgang. De huidige impasse over militaire AI-toepassingen kan die plannen compliceren, omdat een groot deel van de gesprekken met defensie een strategische rol speelt in de positionering van het bedrijf binnen de Amerikaanse tech- en veiligheidssector.
Anthropic is niet het enige AI-bedrijf dat werkt met het Pentagon. Ook andere grote spelers zoals Google, de AI-startup van Elon Musk en OpenAI hebben vorig jaar contracten gekregen om technologie te ontwikkelen die kan worden ingezet bij nationale veiligheidsmissies. Maar juist bij Anthropic lijkt de botsing groter omdat het bedrijf expliciet grenzen wil stellen aan wat ethisch verantwoord is.
De rol van menselijke controle
Een belangrijk onderdeel van het debat gaat over menselijke controle.
Anthropic benadrukt dat er altijd een mens betrokken moet zijn voordat systemen worden ingezet voor gevoelige operaties, vooral wanneer die operaties ingrijpende gevolgen kunnen hebben. Critici van het Pentagon-standpunt zeggen dat AI zonder duidelijke menselijke toezichtmechanismen risico’s met zich meebrengt die verder gaan dan alleen tactische efficiëntie, zoals schendingen van privacy of onbedoelde schade tijdens gevechtssituaties.
Voor het Pentagon is het belangrijk om technologie te kunnen gebruiken op manieren die operationeel effectief zijn. Het ziet AI-systemen als hulpmiddelen die kunnen helpen bij planning, analyse en mogelijk ondersteuning in gevechtszones, mits dat past binnen wettelijke kaders. De discussie gaat dus niet alleen over ethiek maar ook over hoe autoriteit en verantwoordelijkheid worden verdeeld tussen private bedrijven en de overheid.