Sam Altman verdedigt OpenAI defensiedeal: ‘Mens blijft verantwoordelijk voor geweld’

Nieuws
zaterdag, 28 februari 2026 om 17:39
OpenAI CEO over defensiedeal ‘Mens blijft verantwoordelijk voor geweld’
Vanavond bereikte OpenAI defensie akkoord met het Amerikaanse ministerie van Oorlog. Dat maakte OpenAI-topman Sam Altman bekend in een officiële verklaring. Het bedrijf mag zijn AI-modellen inzetten binnen het geclassificeerde netwerk van het ministerie. Daarmee zet OpenAI een nieuwe stap in de toepassing van kunstmatige intelligentie binnen militaire omgevingen.
Altman benadrukt dat veiligheid en maatschappelijke verantwoordelijkheid centraal blijven staan. Hij stelt dat het ministerie expliciet instemt met OpenAI’s veiligheidsprincipes. Tegelijkertijd kon concurrent Anthropic geen vergelijkbare overeenkomst sluiten met het ministerie, of bereikte het in elk geval geen definitieve deal.

Veiligheidsprincipes vastgelegd in overeenkomst

OpenAI stelt twee kernprincipes voorop:
  • Geen binnenlandse massasurveillance.
  • Menselijke verantwoordelijkheid bij het gebruik van geweld, ook bij autonome wapensystemen.
Volgens Altman zijn deze uitgangspunten juridisch verankerd in Amerikaans beleid en opgenomen in de overeenkomst. Dat is opmerkelijk, omdat samenwerking tussen AI-bedrijven en defensie wereldwijd onder druk staat.
De discussie rond militaire AI verscherpt zich sinds generatieve AI-systemen steeds krachtiger worden. Modellen kunnen strategische analyses maken, logistieke planning optimaliseren en cyberdreigingen detecteren. Tegelijkertijd groeit de zorg over autonome wapens en besluitvorming zonder menselijke controle.
Altman stelt dat OpenAI expliciet heeft bedongen dat mensen eindverantwoordelijk blijven voor geweldstoepassing. Daarmee wil het bedrijf voorkomen dat AI zelfstandig militaire acties initieert.

Technische waarborgen en cloudbeperking

OpenAI bouwt extra technische beveiligingen in de modellen die binnen het defensienetwerk draaien. Het bedrijf zet gespecialiseerde Field Deployment Engineers in om toezicht te houden op gebruik en veiligheid.
De inzet blijft beperkt tot cloudnetwerken. Dat betekent dat de modellen niet lokaal op gesloten militaire hardware draaien, maar via gecontroleerde cloudinfrastructuur. Volgens OpenAI verkleint dit de kans op ongeautoriseerd gebruik of manipulatie.
Deze keuze past binnen een bredere trend waarbij AI-leveranciers meer grip willen houden op hun technologie. Door cloudgebaseerde toegang kunnen bedrijven logging, monitoring en updates centraal beheren.

Oproep aan ministerie: gelijke voorwaarden voor alle AI-bedrijven

Altman roept het ministerie op om dezelfde voorwaarden aan alle AI-bedrijven aan te bieden. Volgens hem moet elke ontwikkelaar bereid zijn deze principes te accepteren.
Hij spreekt ook zijn wens uit om juridische en politieke escalatie rond AI te vermijden. In plaats daarvan pleit hij voor redelijke overeenkomsten tussen overheid en techbedrijven.
Dat is relevant in het licht van toenemende spanningen tussen AI-bedrijven en Amerikaanse toezichthouders. Regelgeving rond nationale veiligheid, exportrestricties en defensiesamenwerking staat wereldwijd hoog op de agenda.

Anthropic bereikte geen vergelijkbare deal

Concurrent Anthropic bereikte geen overeenkomst met het ministerie van Oorlog, of kon in elk geval geen definitieve deal sluiten onder vergelijkbare voorwaarden. Dat onderstreept dat niet elk AI-bedrijf bereid is of in staat is om defensiesamenwerkingen aan te gaan.
Anthropic profileert zich nadrukkelijk als veiligheidsgedreven AI-ontwikkelaar. Het bedrijf staat bekend om zijn focus op constitutionele AI, waarbij modellen expliciet worden getraind op normatieve richtlijnen. Toch leidde dat in dit geval niet tot een akkoord.
De verschillen tussen OpenAI en Anthropic tonen hoe strategisch defensiepartnerschappen inmiddels zijn. Voor AI-bedrijven vormen ze zowel een commerciële kans als een reputatierisico.

Wat betekent dit voor Nederland en Europa

Hoewel de overeenkomst Amerikaans is, heeft zij ook implicaties voor Nederland. Nederlandse defensie en Europese instellingen volgen AI-integratie in militaire systemen op de voet.
De discussie raakt aan:
  • Europese AI-regelgeving onder de AI Act.
  • NAVO-samenwerking op het gebied van autonome systemen.
  • Nederlandse inzet op verantwoorde militaire innovatie.
Als grote Amerikaanse AI-leveranciers defensiecontracten sluiten, kan dat de standaard zetten voor internationale samenwerking. Nederlandse beleidsmakers en bedrijven zullen moeten bepalen hoe zij omgaan met vergelijkbare vraagstukken.
Altman sluit zijn verklaring af met een bredere reflectie. Hij stelt dat de wereld complex en soms gevaarlijk is. Volgens hem moet AI bijdragen aan veiligheid zonder fundamentele waarden te ondermijnen.
De komende maanden zullen uitwijzen hoe deze samenwerking zich ontwikkelt. Zeker is dat de rol van AI in defensie definitief een nieuwe fase ingaat.
loading

Loading