Amerikaanse schatkist stopt met gebruik van Anthropic-AI

Nieuws
door Maartje
maandag, 02 maart 2026 om 21:00
Microsoft en Nvidia investeren miljarden in Anthropic
Het Amerikaanse ministerie van Financiën heeft aangekondigd dat het volledig zal stoppen met het gebruik van producten van het kunstmatige-intelligentie-bedrijf Anthropic, waaronder diens Claude-platform. Dat maakte minister Scott Bessent maandag bekend via een bericht op sociale media. Het besluit werd kort en zonder uitgebreide uitleg gepresenteerd, maar het volgt op een bredere ruzie tussen de overheid en het bedrijf over hoe AI-technologie ingezet mag worden in federale toepassingen. Lees hier het oorspronkelijke artikel.

Achtergrond van de beslissing

De stap van het ministerie van Financiën komt op een moment van grote spanning tussen de federale regering en Anthropic. Eerder had de Amerikaanse president opdracht gegeven aan alle federale instanties om te stoppen met het werken met technologie van Anthropic. Tegelijkertijd maakte het ministerie van Defensie bekend dat het bedrijf als een risico voor de toeleveringsketen wordt aangemerkt. Die aanduiding geldt traditioneel voor buitenlandse leveranciers, niet voor Amerikaanse technologiebedrijven.
De kern van het conflict ligt bij de eisen die het Pentagon aan Anthropic stelde over hoe de AI-modellen gebruikt mogen worden. Volgens berichten uit de onderhandelingen wilde het ministerie volledige toegang tot de technologie zonder beperkingen, zodat de AI voor alle wettige doeleinden kan worden ingezet. Anthropic wilde daar niet aan voldoen zonder zekerheden dat de AI niet zou worden gebruikt voor massale binnenlandse surveillance of volledig autonome wapensystemen.
Toen er geen overeenstemming kwam, besloot de regering hard op te treden. Behalve dat alle federale agentschappen worden opgedragen het gebruik van Claude en andere AI-producten van Anthropic te beëindigen, kreeg het bedrijf ook een merkwaardige status als “supply-chain risk” voor nationale veiligheid. Die term kan betekenen dat geen enkel bedrijf dat met het Amerikaanse leger samenwerkt nog zaken mag doen met Anthropic.

Reacties en gevolgen

Anthropic heeft laten weten dat het de beslissing juridisch wil aanvechten. In publieke verklaringen noemt het bedrijf de supply-chain-risico-aanduiding “juridisch niet houdbaar” en stelt dat zo’n verordening een gevaarlijk precedent schept voor Amerikaanse technologiebedrijven die met de overheid onderhandelen.
De maatregelen treffen niet alleen het bedrijf zelf maar ook derden die zijn AI-technologie integreren in hun diensten. Als Anthropic als supply-chain-risico blijft gelden, zouden bedrijven die zowel met het leger als met Anthropic samenwerken voor lastige keuzes kunnen komen te staan.
Analisten en experts in de technologiesector volgen de ontwikkeling nauwgezet. Zij zien in de stap van de regering een ongebruikelijke escalatie in het overheidsbeleid rond AI-leveranciers. Tot dusver is het zeldzaam dat een binnenlands technologiebedrijf op deze manier wordt uitgesloten van federale overheidscontracten.
loading

Populair nieuws

Loading