Wat gebeurde er?
Deze zogenaamde 'vibe-hacking' werkwijze stelde criminelen in staat om binnen een maand gegevens los te krijgen van 17 organisaties. Veel van deze organisaties, waaronder ziekenhuizen, overheidsinstanties en religieuze instellingen, beschikten over privacygevoelige informatie. Er werden losgeldsommen vereist die soms hoger waren dan $500.000. Claude werd daarbij ingezet als volledige digitale coördinator door de criminelen.
Meer voorbeelden van AI-misbruik
Er zijn nog veel meer recente voorbeelden van AI-gebruik bij cyberaanvallen. Een ander zorgelijk voorbeeld gaat over Noord-Koreanen die probeerden werk te krijgen bij grote internationale bedrijven. Ze gebruikten AI om sollicitaties en testen te halen, ook al hadden ze daar zelf weinig ervaring voor. Met deze banen konden ze geld verdienen dat waarschijnlijk werd ingezet om de wapenindustrie in hun land te steunen.
Ook worden er steeds vaker chatbots ingezet via apps zoals Telegram om mensen op te lichten. Via zogenaamde 'romance scams' gebruiken criminelen Claude om mensen berichten te sturen, waarna slachtoffers worden geïsoleerd en afgeperst.
Anthropic grijpt in
Hoewel
Anthropic stelt dat hun beveiliging over het algemeen effectief is, laat het rapport zien dat kwaadwillenden manieren vinden om de beveiliging te omzeilen. Om te reageren, heeft het bedrijf betrokken accounts geblokkeerd, detectietools versterkt en samengewerkt met de autoriteiten. Het erkent dat dit probleem zich niet beperkt tot Claude, maar waarschijnlijk een patroon is dat bij andere toonaangevende AI-modellen speelt.
Een groeiende zorg voor cyberspace
Het rapport van Anthropic toont duidelijk een zorgelijke trend: AI verlaagt de drempel voor cybercriminaliteit. Waar eerder teams nodig waren voor ransomware of phishing, kunnen nu individuen met AI dezelfde schade aanrichten. Hierdoor wordt toezicht en regulering van AI nog urgenter.