OpenAI CEO Sam Altman heeft intern bevestigd dat OpenAI dezelfde rode lijnen hanteert als
Anthropic in het conflict met het Pentagon over militair AI-gebruik. Hij stelt dat OpenAI geen kunstmatige intelligentie zal leveren voor massasurveillance of volledig autonome dodelijke wapens.
Dat blijkt uit een interne memo waar
Axios over berichtte. De uitspraak komt op een cruciaal moment, nu president Donald J. Trump federale instanties heeft opgedragen te stoppen met het gebruik van Anthropic-technologie na een hoogopgelopen conflict over AI-ethiek en defensietoepassingen.
OpenAI trekt duidelijke grens bij militair AI-gebruik
Sam Altman schrijft dat OpenAI “geen AI zal ontwikkelen of inzetten voor massale surveillance of autonome lethale wapens”. Met autonome lethale wapens bedoelt hij systemen die zelfstandig doelen selecteren en aanvallen zonder menselijke tussenkomst.
Die rode lijnen vormden precies de kern van het conflict tussen Anthropic en het Amerikaanse ministerie van Defensie. Anthropic weigerde zijn model Claude zonder beperkingen beschikbaar te stellen voor militaire toepassingen. Dat leidde tot politieke escalatie en een bevel om het gebruik van Anthropic-technologie binnen federale instanties uit te faseren.
Altman maakt nu duidelijk dat OpenAI niet automatisch het gat zal vullen als de overheid op zoek gaat naar alternatieven.
Pentagon zoekt vervanger voor Claude
Claude was het eerste geavanceerde taalmodel dat werd geïntegreerd in gevoelige militaire processen. Het model werd ingezet voor onder meer analyse van complexe datasets en ondersteuning bij strategische besluitvorming.
Als ook OpenAI en mogelijk Google vasthouden aan vergelijkbare beperkingen, wordt het voor het Pentagon lastiger om een directe vervanger te vinden. De Amerikaanse defensie wil AI juist breder inzetten voor:
- Snellere analyse van inlichtingen
- Detectie van cyberdreigingen
- Logistieke optimalisatie
- Ondersteuning bij operationele planning
Zonder toegang tot toonaangevende modellen kunnen defensieprojecten vertraging oplopen.
AI-ethiek botst met nationale veiligheid
Het conflict onderstreept een fundamentele spanning in de AI-sector. Technologiebedrijven willen veiligheid en ethiek centraal stellen. Overheden willen maximale operationele vrijheid in een geopolitiek instabiele wereld.
OpenAI en Anthropic positioneren zich beide als voorstanders van veilige AI-ontwikkeling. Ze hanteren expliciete beperkingen op gebruik voor massale surveillance of autonome wapens. Daarmee nemen zij afstand van toepassingen die internationaal onder zware ethische discussie staan.
Tegelijkertijd investeert de Amerikaanse overheid miljarden dollars in defensie-AI. Washington ziet kunstmatige intelligentie als strategisch wapen in de concurrentie met China.
Wat betekent dit voor Nederland en Europa
De ontwikkeling heeft ook relevantie voor Nederland. Nederlandse defensie en kennisinstellingen werken samen met Amerikaanse technologiebedrijven aan AI-projecten. Als de Amerikaanse overheid alternatieve leveranciers zoekt die minder beperkingen hanteren, kan dat de internationale markt verschuiven.
Bovendien raakt dit debat aan de Europese AI Act. Die wet stelt strikte eisen aan hoogrisico-toepassingen, waaronder sommige militaire en veiligheidsgerelateerde systemen. Europese beleidsmakers volgen de Amerikaanse discussie daarom nauwgezet.
Voor Nederlandse AI-bedrijven kan dit kansen én risico’s opleveren:
- Meer vraag naar Europese alternatieven
- Strengere eisen bij internationale aanbestedingen
- Extra druk op transparantie en compliance
- Politieke gevoeligheid rond defensiesamenwerking
Machtsspel tussen overheid en Big Tech
De uitlatingen van Sam Altman tonen dat de AI-industrie niet zonder meer buigt voor politieke druk. Tegelijkertijd zijn bedrijven afhankelijk van overheidscontracten, zeker in defensie.
Als meerdere techreuzen dezelfde rode lijnen trekken, kan dat leiden tot een fundamentele herziening van hoe het Pentagon AI inzet. De vraag verschuift dan van “welk model gebruiken we?” naar “welke toepassingen accepteren we als samenleving?”.
De komende maanden worden cruciaal. Het Pentagon zoekt alternatieven. Technologiebedrijven bewaken hun ethische grenzen. En de politieke druk vanuit het Witte Huis blijft hoog.
De strijd om militaire AI is daarmee niet alleen een technologisch vraagstuk. Het is een geopolitieke machtsstrijd die de richting van kunstmatige intelligentie wereldwijd kan bepalen.