Microsoft blijft de AI-modellen van
Anthropic beschikbaar stellen aan klanten, ondanks een recente beslissing van het Amerikaanse ministerie van Defensie om het bedrijf als risico in de toeleveringsketen te bestempelen. De technologie, bekend onder de naam Claude, kan daardoor nog steeds worden gebruikt via
Microsoft-producten en cloudservices, zolang het niet gaat om projecten voor het Pentagon. De kwestie laat zien hoe ingewikkeld de relatie tussen AI-bedrijven, grote techplatforms en overheden kan zijn, volgens
TechCrunch.
Pentagon bestempelt Anthropic als risico
De discussie begon toen het Amerikaanse ministerie van Defensie Anthropic officieel aanduidde als een zogenoemd “supply chain risk”. Dat betekent dat technologie van het bedrijf niet langer gebruikt mag worden in militaire contracten of projecten die voor het Pentagon worden uitgevoerd.
Zo’n classificatie komt meestal voor bij buitenlandse bedrijven of leveranciers waarvan de veiligheid wordt betwijfeld. Dat het nu op een Amerikaanse AI-startup wordt toegepast, is daarom opvallend. Volgens berichten ontstond het conflict nadat Anthropic weigerde zijn regels rond het gebruik van AI te versoepelen voor toepassingen zoals massale surveillance of autonome wapens.
De beslissing heeft directe gevolgen voor bedrijven die technologie leveren aan het Amerikaanse leger. Zij moeten alternatieven zoeken voor de AI-modellen van Anthropic wanneer hun software wordt gebruikt in defensieprojecten.
Claude blijft beschikbaar voor andere klanten
Microsoft heeft laten weten dat de maatregel van het Pentagon niet betekent dat Anthropic-technologie volledig van zijn platform verdwijnt. Na juridisch onderzoek concludeerde het bedrijf dat Claude-modellen nog steeds mogen worden gebruikt in commerciële toepassingen en in projecten die niets met het Amerikaanse leger te maken hebben.
Dat betekent dat bedrijven Claude bijvoorbeeld nog kunnen gebruiken via Microsoft-diensten zoals cloudplatform Azure of productiviteitssoftware waarin AI-functies zijn ingebouwd. De beperking geldt uitsluitend voor defensiegerelateerde werkzaamheden.
Ook andere grote technologiebedrijven hebben een vergelijkbare houding aangenomen. Zij blijven AI-diensten van Anthropic aanbieden voor commerciële klanten, maar vermijden toepassingen die onder militaire contracten vallen.
Spanningen rond AI en defensie
Het conflict benadrukt een bredere discussie binnen de AI-sector. Veel technologiebedrijven ontwikkelen systemen die zowel civiel als militair kunnen worden gebruikt. Zulke technologie wordt vaak omschreven als “dual-use”.
Voor bedrijven zoals Anthropic kan dat leiden tot moeilijke keuzes. Het bedrijf positioneert zich sterk rond AI-veiligheid en heeft regels opgesteld die bepaalde toepassingen beperken, bijvoorbeeld gebruik voor massale binnenlandse surveillance of volledig autonome wapens.
Overheden hebben soms andere prioriteiten. Zij willen toegang tot geavanceerde technologie om militaire operaties te ondersteunen, bijvoorbeeld bij data-analyse of strategische planning.
Wanneer die belangen botsen, kan dat leiden tot politieke en juridische conflicten zoals de huidige situatie rond Anthropic.
Grote rol voor cloudplatforms
De beslissing van Microsoft laat ook zien hoe belangrijk cloudplatforms zijn geworden in de AI-sector. Veel AI-modellen worden niet rechtstreeks door klanten gebruikt, maar via infrastructuur van grote technologiebedrijven.
Wanneer een model wordt geïntegreerd in platforms zoals Azure, kan het onderdeel worden van een breed ecosysteem van software en diensten. Dat maakt het moeilijker om technologie volledig te blokkeren, omdat die vaak op verschillende manieren beschikbaar blijft.
Voor Microsoft betekent het dat het zijn samenwerking met Anthropic grotendeels kan voortzetten, terwijl het tegelijk voldoet aan de regels van de Amerikaanse overheid.
Onzekere toekomst voor AI-partnerschappen
De situatie rond Anthropic laat zien hoe gevoelig AI-samenwerkingen kunnen worden wanneer nationale veiligheid een rol speelt. Bedrijven moeten rekening houden met regelgeving, politieke spanningen en ethische vragen over hoe hun technologie wordt gebruikt.
Voorlopig blijft Claude beschikbaar voor de meeste commerciële klanten van Microsoft. Maar de discussie rond defensiecontracten laat zien dat de grenzen van AI-gebruik nog steeds worden bepaald door een combinatie van technologie, politiek en internationale veiligheid.