Het Amerikaanse ministerie van Financiën heeft besloten om helemaal te stoppen met het gebruik van producten van
Anthropic, waaronder de populaire Claude-chatbot, zo maakte minister Scott Bessent bekend in een bericht op sociale media. Het besluit volgt op een bredere controverse binnen de federale overheid over hoe kunstmatige intelligentie gebruikt mag worden door overheidsdiensten, vooral rond nationale veiligheidstoepassingen.
Lees hier het originele artikel.
Besluit volgt op strijd over AI
De stap komt in een bredere context van spanningen tussen de federale overheid en
Anthropic. Eerder zei de Amerikaanse president dat alle federale agentschappen moesten stoppen met het gebruik van Anthropic-technologie. Tegelijkertijd heeft het ministerie van Defensie het bedrijf aangemerkt als een risico in de toeleveringsketen voor nationale veiligheid, een aanduiding die normaal wordt gebruikt voor buitenlandse leveranciers, niet voor Amerikaanse technologiebedrijven.
Deze aanduiding betekent dat bedrijven die met het Amerikaanse leger werken, mogelijk geen zaken meer mogen doen met Anthropic. Het besluit kwam toen onderhandelingen over gebruik van Anthropic-modellen binnen defensiesystemen vastliepen. De regering wilde volledige toegang tot de technologie voor alle wettige toepassingen, maar Anthropic weigerde garanties te geven dat zijn AI niet zou worden gebruikt voor grootschalige surveillance of volledig autonome wapensystemen.
Reactie van Anthropic
Anthropic zegt dat het de beslissing juridisch wil aanvechten. In publieke verklaringen stelt het bedrijf dat de aanduiding als supply-chain-risico niet juridisch houdbaar is en een gevaarlijk precedent kan vormen voor andere Amerikaanse technologiebedrijven. Volgens Anthropic bedreigt dit de openheid van samenwerking tussen commerciële AI-bedrijven en overheidsinstellingen.
Het bedrijf heeft betoogd dat het juist streeft naar veilige en verantwoorde toepassingen van zijn modellen. Het noemt de beslissing van de overheid strijdig met de manier waarop technologiebedrijven normaliter met overheidsklanten onderhandelen over contractvoorwaarden en veiligheidsmaatregelen.
Impact op gebruik van AI
De maatregel betekent dat niet alleen de Schatkist, maar alle federale agentschappen worden opgedragen te stoppen met het gebruik van Claude en andere AI-producten van Anthropic. Het is een bijzonder besluit omdat het een binnenlands technologiebedrijf treft op een manier die zelden eerder is vertoond. Analisten volgen de ontwikkeling op de voet omdat het kan laten zien hoe de regering omgaat met risico’s rond AI-leveranciers in de toekomst.
De situatie creëert ook onzekerheid onder bedrijven die de technologie van Anthropic in hun diensten hebben geïntegreerd. Als Anthropic als supply-chain-risico blijft gelden, kunnen partners die zowel met het leger als met Anthropic samenwerken voor lastige keuzes komen te staan. Dit kan invloed hebben op toekomstige zakelijke relaties en contracten in de techsector.
Politieke en juridische gevolgen
Het besluit heeft niet alleen praktische gevolgen, maar ook politieke en juridische implicaties. Er zijn vragen gerezen over de reikwijdte van de macht van de regering om een Amerikaans bedrijf op deze manier uit te sluiten van overheidscontracten. Critici hebben gezegd dat het precedent kan zijn voor meer ingrijpende stappen tegen technologiebedrijven, afhankelijk van nationale veiligheidszorgen of politieke prioriteiten.
Anthropic zelf verzet zich fel tegen de classificatie en zegt dat het de kwestie tot het hoogste rechtscollege wil voeren indien nodig. Het bedrijf stelt dat er meer heldere richtlijnen moeten komen voor hoe AI-leveranciers kunnen samenwerken met de overheid, vooral bij gevoelige toepassingen.