Cybercriminelen proberen steeds vaker de fundamenten van Artificial Intelligence (AI) te ondermijnen door trainingsdata te manipuleren. Wat is er aan de hand?
Cisco Talos kondigt vandaag zijn jaarlijkse rapport aan over de belangrijkste cyberdreigingen van het afgelopen jaar. Uit het Year-in-Review 2024-rapport blijkt dat Het rapport biedt diepgaand inzicht in de evolutie van aanvalstechnieken, de opkomst van nieuwe dreigingsactoren en de impact van cybercriminaliteit op bedrijven en overheden wereldwijd.
In 2024 constateerden de onderzoekers van Cisco Talos dat AI niet langer alleen als hulpmiddel, maar steeds vaker als doelwit van cybercriminelen wordt gebruikt. AI-systemen en -modellen worden steeds vaker aangevallen, wat invloed heeft op de security van AI-toepassingen en de effectiviteit van AI-gestuurde besluitvorming. Cybercriminelen proberen AI-modellen te ondermijnen door in te grijpen in de trainings- en beslissingsprocessen.
Eén manier is het manipuleren van trainingsdata, waardoor AI-systemen verkeerde beslissingen kunnen nemen, zoals het onterecht classificeren van kwaadaardige code of het missen van dreigingen. Een andere methode die cybercriminelen gebruiken, is het verstoren van AI-modellen met manipulatieve invoer.
Door subtiele wijzigingen in de input aan te brengen, kunnen aanvallers AI-systemen laten ontsporen. Dit vormt een groot risico voor AI-gestuurde security-oplossingen, zoals detectiesystemen die afwijkend gedrag analyseren. Zelfs kleine aanpassingen in een aanvalspatroon kunnen ervoor zorgen dat een AI-systeem een dreiging niet meer herkent. Daarnaast ontwikkelen cybercriminelen steeds geavanceerdere methoden om AI-security te omzeilen.
Nu AI steeds vaker wordt ingezet als verdedigingsmechanisme, bijvoorbeeld bij het detecteren van phishing-aanvallen of verdachte netwerkactiviteit, proberen criminelen manieren te vinden om deze AI-gestuurde detectiesystemen te misleiden of uit te schakelen. De gevolgen van deze ontwikkelingen zijn aanzienlijk. AI wordt steeds vaker ingezet in kritische bedrijfsprocessen, zoals cybersecurity, fraudeopsporing, supply chain management en medische diagnostiek. Wanneer een AI-model wordt gemanipuleerd, kan dat leiden tot verkeerde beslissingen, verlies van concurrentievoordeel en een verhoogde kwetsbaarheid voor verdere aanvallen.
In 2024 probeerden cybercriminelen en statelijke actoren op grote schaal AI-trainingen te beïnvloeden, met name door gemanipuleerde artikelen, datasets en synthetische teksten in westerse AI-tools te injecteren. Dit maakt deel uit van geavanceerde desinformatiecampagnes, die de betrouwbaarheid van AI-gegenereerde informatie ondermijnen. Wanneer trainingsdata vervuild raakt, heeft dit directe gevolgen voor de kwaliteit van AI-uitkomsten, waaronder tekst-, beeld- en spraakherkenning.
Ook deepfake-content maakt het steeds moeilijker om valse informatie van authentiek materiaal te onderscheiden, wat misinformatie vergemakkelijkt. Deze manipulaties vergroten de kwetsbaarheid voor overheden en bedrijven, met mogelijke gevolgen voor politieke besluitvorming, strategische bedrijfskeuzes en cybersecuritybeleid. Dit toont aan dat AI niet alleen een hulpmiddel is voor cybercriminelen, maar ook een strategisch doelwit.
Om de groeiende dreiging tegen te gaan, benadrukt Cisco de noodzaak van AI-specifieke securitymaatregelen. Het Robust Intelligence-team van Cisco Talos ontwikkelt technologieën om AI-systemen beter te beschermen tegen manipulatie en aanvallen. Organisaties moeten niet alleen hun netwerken beveiligen, maar ook de integriteit van AI-modellen waarborgen. Strengere verificatie van trainingsdata helpt manipulaties sneller op te sporen, terwijl verdedigingsmechanismen tegen manipulatieve invoer AI-gestuurde detectiesystemen beschermen.
Continue monitoring van AI-beslissingen maakt het mogelijk om afwijkingen vroegtijdig te signaleren. Traditionele securitymaatregelen zijn volgens Cisco Talos niet voldoende; AI vereist gespecialiseerde bescherming. Bedrijven moeten zich realiseren dat een onbeveiligde AI-infrastructuur niet alleen hun digitale veiligheid in gevaar brengt, maar ook hun besluitvorming en concurrentiepositie kan ondermijnen.
Jan Heijdra, Field CTO Security bij Cisco Nederland zegt: "De aanvallen op AI-systemen en -modellen nemen in rap tempo toe. In 2024 zagen we hoe cybercriminelen AI-trainingen beïnvloedden door miljoenen gemanipuleerde artikelen te injecteren, waardoor de betrouwbaarheid van deze systemen werd ondermijnd. Dit toont aan dat AI niet alleen een hulpmiddel is, maar ook een nieuw aanvalsoppervlak biedt. Organisaties die AI in hun processen gebruiken, moeten zich realiseren dat een onbeveiligde AI-infrastructuur niet alleen hun cybersecurity, maar ook hun besluitvorming en concurrentiepositie in gevaar kan brengen."
Disclaimer: dit is een bewerking van een ingezonden persbericht