Kunstmatige intelligentie (AI) kan voor een tal van toepassingen worden ingezet. Een donkere zijde zijn de toepassingen die het kan bieden is in defensie. Zo speelt het een steeds grotere rol binnen het Amerikaanse leger. Volgens Dr. Radha Plumb, Chief Digital and AI Officer van het Pentagon, helpt AI bij het sneller identificeren en analyseren van bedreigingen. Dit versnelt de zogenaamde "kill chain" – het proces van opsporen, volgen en neutraliseren van vijandelijke doelen.
Om aan de behoefte van het Pentagon te voldoen, hebben AI bedrijven zoals OpenAI, Anthropic en Meta hun gebruiksvoorwaarden in 2024 versoepeld. Hierdoor heeft de overheidsinstantie toegang te geven tot hun technologie. Hierdoor kunnen defensiebedrijven zoals Lockheed Martin en Palantir AI modellen inzetten voor militaire toepassingen, bijvoorbeeld bij het plannen van missies en het doorrekenen van scenario’s, zonder dat autonome systemen dodelijke beslissingen nemen.
De defensiesector, die naar verwachting een markt van $60 miljard zal bereiken, wordt steeds afhankelijker van AI voor onderzoek, communicatie en beveiliging. De sterke groei van AI-bedrijven weerspiegelt zich ook op de beurs, waar zowel Meta als Palantir de afgelopen maanden aanzienlijk in waarde zijn gestegen. Hun investeringen in AI tonen aan dat technologie een steeds grotere rol speelt in defensiestrategieën.
Volgens Plumb is het belangrijk om een balans te vinden: "AI kan helpen bij snelle dreigingsanalyses en strategische planning, maar de uiteindelijke beslissingen blijven bij mensen." Toch roept de technologische ontwikkeling ook vragen op, moeten we AI wel inzetten in oorlogsvoering? Wat als AI-systemen op een gegeven moment zelfstandig beslissingen gaan nemen, ondanks de huidige beperkingen?
De discussie over de rol van AI in militaire operaties blijft dan ook gevoelig. Terwijl bedrijven beloven dat hun modellen niet worden gebruikt om mensen te schaden, laat de praktijk zien dat AI steeds vaker betrokken is bij defensie projecten. Critici vrezen dat dit de deur opent naar volledig autonome wapens, een ontwikkeling die het Pentagon officieel ontkent. Volgens Plumb blijft menselijke controle essentieel: “AI werkt als een hulpmiddel, niet als een zelfstandige beslisser.”