OpenAI werkt samen met het Amerikaanse ministerie van Defensie om veranderingen door te voeren in een recente overeenkomst over het gebruik van zijn kunstmatige-intelligentie-systemen binnen defensienetwerken. Dat zei CEO Sam Altman maandag in een bericht op sociale media, waarin hij uitleg gaf over aanpassingen die bedoeld zijn om duidelijk te maken hoe de technologie wel en niet gebruikt mag worden.
Lees hier het originele artikel.
Achtergrond van het akkoord
Aan het eind van februari maakte
OpenAI bekend dat het een overeenkomst had gesloten met het United States Department of Defense om zijn modellen te integreren in een geclassificeerd netwerk van het ministerie van Defensie. Dat gebeurde kort nadat een vergelijkbare deal met het AI-bedrijf Anthropic was stukgelopen, onder meer omdat dat bedrijf geen garanties wilde geven over bepaalde gebruiksdoelen zoals massale surveillance of autonome wapens. OpenAI ging wel akkoord met de basisovereenkomst maar kreeg daarna te maken met critici die vonden dat de afspraken niet helder genoeg waren over wat de technologie niet mag doen.
Volgens Altman werd OpenAI’s contract nu uitgebreid om expliciet vast te leggen dat de diensten niet gebruikt zullen worden door inlichtingendiensten van het ministerie, zoals de National Security Agency (NSA), zonder een aparte wijziging van het contract. Deze toevoeging moet volgens hem helpen om de grenzen van het gebruik duidelijker te maken.
De reacties van OpenAI
De oorspronkelijke deal leidde tot discussie binnen de tech- en AI-gemeenschap en daarbuiten. Sommige gebruikers en experts uitten zorgen dat OpenAI’s technologie zou kunnen worden ingezet voor binnenlandse surveillance of andere toepassingen waar weinig transparantie over zou zijn. Dat zorgde voor een online beweging waarin mensen opriepen zich af te melden bij diensten zoals ChatGPT en kritische vragen te stellen over de rol van AI in defensietoepassingen.
Intern bij OpenAI waren er volgens berichten ook spanningen. Werknemers hebben publiekelijk vragen gesteld over hoe het bedrijf zijn principes rond veiligheid en ethiek kan waarborgen in een context die nauw verbonden is met nationale veiligheidsoperaties. Die zorgen speelden mee in de druk om de taal van het contract aan te scherpen en duidelijker te definiëren wat wel en niet is toegestaan.
Wat er precies verandert
De belangrijkste wijziging waar Altman naar verwees draait om het uitsluiten van bepaalde inlichtingendiensten van automatisch gebruik van de AI. Gebruikt het ministerie of een agentschap van het ministerie de technologie anders wil dat zeggen dat daar een aparte contractwijziging voor nodig is, aldus Altman. Hierdoor is het voor bijvoorbeeld de NSA niet meer mogelijk om de modellen simpelweg te gaan gebruiken op basis van de bestaande overeenkomst.
OpenAI benadrukt dat zulke beperkingen niet alleen op papier staan, maar dat ook technische en juridische mechanismen zijn opgenomen om te voorkomen dat de technologie voor onbedoelde doeleinden wordt ingezet. Dat houdt onder meer in dat de systemen via de cloud draaien en dat veiligheidslagen zijn ingebouwd om ongewenst gebruik te blokkeren.