Anthropic heeft zijn nieuwste AI-model,
Claude Opus 4.5,
gepresenteerd. Het model kan zelfstandig taken uitvoeren, codes schrijven, browsers bedienen en spreadsheets aanpassen. Volgens
The Verge wordt het model gepositioneerd als een krachtige agent die verder gaat dan eerdere versies.
Deze agents kunnen plannen, fouten herstellen en eigen hulpmiddelen inzetten. Dat maakt ze nuttig voor bedrijven die AI meer willen laten doen dan alleen tekst genereren. Maar juist die groeiende autonomie vormt ook een risico.
Meer autonomie betekent meer aanvalsvlak
Omdat Claude Opus 4.5 toegang heeft tot tools zoals browsers en Excel-achtige systemen, kan het model veel dieper ingrijpen in digitale omgevingen dan eerdere versies. Dat betekent dat fouten of misbruik ook grotere gevolgen kunnen hebben. Een systeem dat zelfstandig acties uitvoert, kan immers ook zelfstandig iets doen wat niet de bedoeling is, vooral wanneer gebruikers of kwaadwillenden proberen het model over te halen tot handelingen die niet veilig zijn.
In de woorden van The Verge: hoe krachtiger een agent wordt, hoe groter de zorg dat zo’n agent ook kan worden gebruikt voor digitale aanvallen of misleidende opdrachten.
Cybersecurity-tests laten duidelijke problemen zien
Anthropic benadrukt dat het model veiliger is gemaakt, maar de testresultaten vertellen een gemengd verhaal. In een coderingstest waarin 150 verzoeken voor kwaadaardige code werden ingediend, weigerde Claude Opus 4.5 die allemaal. Toch zakte het weigeringspercentage in andere categorieën aanzienlijk: slechts 78 procent bij malware-aanvragen, en 88 procent bij bredere ongewenste computeropdrachten.
Dit betekent dat het model in een deel van de gevallen nog steeds instructies uitvoert die direct bruikbaar zijn voor mensen met slechte bedoelingen. Voor een autonome agent is dat een ernstige kwetsbaarheid.
De risico’s verschuiven van taal naar actie
Bij klassieke taalmodellen lag het risico vooral in verkeerde of misleidende antwoorden. Bij agent-modellen komt daar iets veel fundamentelers bij: de mogelijkheid dat het systeem daadwerkelijk iets doet.Als een model dat toegang heeft tot tools maar deels in staat is om kwaadaardige opdrachten te herkennen, ontstaat een nieuw soort risico. Een fout is dan niet alleen een fout in taal, maar een fout in actie.
Organisaties moeten opletten
Anthropic biedt Claude Opus 4.5 inmiddels aan via zijn eigen platform, cloudpartners en API’s. Voor bedrijven klinkt dat aantrekkelijk: een AI die zelfstandig analyses doet, bestanden beheert of online informatie verzamelt. Maar organisaties zullen nu veel meer aandacht moeten besteden aan beveiliging, logging, rolverdeling en wat een agent wel of niet mag uitvoeren.
De technologie wordt krachtiger, maar daarmee ook kwetsbaarder. AI-agenten zoals Claude Opus 4.5 naderen een punt waarop één klein lek of één verkeerd verwerkt verzoek genoeg kan zijn voor ernstige schade.
Een veelbelovende stap, een dringende waarschuwing
Claude Opus 4.5 laat zien hoe snel AI-agenten vooruitgaan. Maar de cybersecurity-problemen die in de tests naar voren komen, laten net zo duidelijk zien dat veiligheid nog altijd achterloopt op de mogelijkheden. Als AI-agenten een actieve rol krijgen in digitale systemen, moeten hun verdedigingen minstens zo sterk groeien als hun capaciteiten.