OpenAI heeft publiekelijk gewaarschuwd dat zijn aankomende kunstmatige intelligentiemodellen een “hoog” risico kunnen vormen voor cyberbeveiliging, omdat de capaciteiten van deze systemen snel toenemen. Dat zei het bedrijf in een blogpost over de mogelijke gevaren van krachtige AI die steeds vaker ingezet kan worden om kwetsbaarheden in digitale systemen te vinden en te misbruiken. De waarschuwing maakt duidelijk dat de risico’s niet alleen theoretisch zijn maar kunnen samenhangen met het feit dat modellen steeds meer kunnen automatiseren en complexe taken uitvoeren, aldus
Reuters.
Mogelijke cyberdreigingen door AI
Volgens OpenAI kunnen de volgende generatie AI-modellen theoretisch in staat zijn om zero-day exploits te bedenken. Een zero-day exploit is een kwetsbaarheid in software waar nog geen patch voor bestaat en die door aanvallers kan worden misbruikt om toegang te krijgen tot systemen zonder dat de eigenaar het weet. Deze kwetsbaarheden kunnen gebruikt worden om in te breken in goed beveiligde bedrijfsnetwerken of industriële systemen die bijvoorbeeld energiecentrales of productieprocessen aansturen. Dat betekent dat kunstmatige intelligentie, als die misbruikt wordt, zou kunnen helpen bij het genereren van methoden om digitale beveiliging te omzeilen en systemen te verstoren.
OpenAI noemt een ander risico dat AI kan helpen bij industriële of bedrijfsgerichte inbraakoperaties. Dat zou kunnen inhouden dat modellen worden gebruikt om zwakke punten in complexe systemen te vinden of manieren te bedenken om die systemen uit te buiten. Dit soort scenario’s behoren tot de ernstigste vormen van cyberaanvallen, omdat het effect kan hebben op de fysieke wereld wanneer IT-systemen verbonden zijn met machines en infrastructuur.
Verdedigen tegen AI-gedreven aanvallen
In reactie op deze risico’s investeert OpenAI volgens de waarschuwing ook in technologie om AI te gebruiken voor cybersecurity-verdediging. Het bedrijf wil modellen ontwikkelen die helpen bij taken zoals het auditen van code en het patchen van kwetsbaarheden. Dat betekent dat AI niet alleen risico’s kan creëren, maar ook kan bijdragen aan het verbeteren van beveiliging door automatisch zwakke plekken te herkennen en oplossingen voor te stellen.
OpenAI zegt verder dat het maatregelen neemt om misbruik te beperken. Die maatregelen bestaan onder meer uit strengere toegangscontroles tot de krachtigste modellen, het versterken van de eigen infrastructuur zodat aanvallen moeilijker zijn, en monitoring van gebruikspatronen om verdachte activiteiten te detecteren.
Programma voor cyberverdediging
Het bedrijf plant een programma waarbij bepaalde gebruikers die werken aan cyberbeveiliging toegang krijgen tot speciale functies. Dit moet beveiligingsprofessionals helpen om met AI-hulpmiddelen sneller kwetsbaarheden te analyseren en te verhelpen, zonder dat de technologie in verkeerde handen komt. OpenAI wil daarmee een groep van experts ondersteunen die actief bezig is met het verbeteren van digitale veiligheid.
Daarnaast heeft OpenAI aangekondigd dat het een adviesraad vormt, de Frontier Risk Council. Deze groep zal bestaan uit ervaren cybersecurity-experts en andere specialisten die samen met OpenAI werken aan oplossingen voor de risico’s die krachtige AI met zich meebrengt. De focus van deze raad begint bij cyberdreigingen maar moet in de toekomst ook andere risico’s van geavanceerde AI aanpakken.