Hackers gebruiken Claude van Anthropic voor grootschalige hacks

Nieuws
door Thomas
donderdag, 28 augustus 2025 om 18:00
anthropic looft 20000 uit voor universele jailbreak van ai beveiligingssysteem
De potentie van kunstmatige intelligentie (AI) is enorm. Maar naast de vele positieve toepassingen die de technologie biedt, wordt ze ook ingezet voor kwaadwillende doeleinden. Waar bedrijven AI gebruiken om productiviteit en efficiëntie te vergroten, zien cybercriminelen er een kans in om digitale aanvallen slimmer, sneller en gevaarlijker te maken. Een recente onthulling laat zien hoe ver dat inmiddels kan gaan.

 AI ‘als wapen ingezet’

Het Amerikaanse AI-bedrijf Anthropic, maker van de chatbot Claude, bevestigt dat zijn technologie is misbruikt door hackers. Volgens het bedrijf werd Claude gebruikt om geavanceerde cyberaanvallen te ontwikkelen die hebben geleid tot grootschalige diefstal en afpersing van persoonlijke data.
De AI hielp bij het schrijven van schadelijke code, het selecteren van waardevolle data om te stelen en zelfs bij het formuleren van psychologisch gerichte afpersingsberichten. In sommige gevallen suggereerde de chatbot zelfs de hoogte van losgeldbedragen. Anthropic spreekt van een “ongekend niveau” van AI-gebruik in cyberaanvallen en heeft de incidenten gemeld bij de autoriteiten. Ook zijn de eigen detectiesystemen aangescherpt.
Een van de meest opvallende voorbeelden betrof zogenoemde ‘vibe hacking’: hackers gebruikten Claude om in te breken bij minstens 17 organisaties, waaronder overheidsinstanties. Vibe hacking is vergelijkbaar met de term ‘vibe coding’. Het betekent dat hackers, zonder zelf veel technische kennis te hebben, AI gebruiken om via natuurlijke taal complexe aanvallen uit te voeren.
De AI helpt bijvoorbeeld bij het schrijven van overtuigende mails, berichten of code die precies de juiste toon raken om slachtoffers makkelijker te misleiden of systemen sneller te kraken. Daarmee laten de aanvallen zien dat kunstmatige intelligentietools de schaal en snelheid van cybercriminaliteit drastisch kunnen vergroten.
Anthropic meldde daarnaast dat Noord-Koreaanse hackers zijn modellen hebben ingezet voor een andere vorm van digitale infiltratie: het verkrijgen van remote banen bij grote Amerikaanse techbedrijven. Met behulp van AI werden sollicitaties opgesteld, de communicatie vertaald en werd ook code geschreven, waardoor infiltranten toegang kregen tot bedrijfsnetwerken.

Groeiend risico door autonome AI

Cybersecurity-experts waarschuwen dat deze incidenten slechts een voorbode zijn van grotere risico’s. “De tijd die nodig is om kwetsbaarheden te misbruiken, wordt door AI razendsnel korter,” zegt Alina Timofeeva, adviseur op het gebied van cybercriminaliteit en AI. “We moeten verschuiven naar proactieve en preventieve verdediging, in plaats van achteraf reageren.”
Plaats reactie

Populair nieuws