Anthropic heeft zijn nieuwste AI-model gepresenteerd: Claude Sonnet 4.5. Volgens het bedrijf kan dit model verder gaan dan prototypes: het is ontworpen om volledige, “production-ready” applicaties zelfstandig te bouwen, volgens
Digit.
De nieuwe versie is beschikbaar via de Claude API en de chatbot, en
Anthropic zegt dat de prijs hetzelfde blijft als bij Sonnet 4: $3 per miljoen input tokens en $15 per miljoen output tokens.
Wat kan Claude Sonnet 4.5 juist beter dan zijn voorgangers?
Anthropic benadrukt dat Sonnet 4.5 aanzienlijke kwaliteitssprongen maakt op het gebied van coderen, agent-taken en lange workflows. Volgens het persbericht kan het model langere contexten vasthouden, beter omgaan met geheugen, en intelligentere beslissingen nemen bij complexe softwareontwikkeling.
In tests zou het model tot 30 uur autonoom kunnen werken aan een project: het opzetten van databases, aankoop van domeinen en zelfs voorbereiden van een beveiligingsaudit.
Anthropic noemt ook dat Sonnet 4.5 het meest “aligned” model tot nu toe is: minder vatbaar voor ongewenste neigingen zoals vleierij, misleiding of het opdringen van ideeën.
Verder introduceert het bedrijf de Claude Agent SDK: ontwikkelaars krijgen toegang tot dezelfde agent-infrastructuur die Anthropic binnen eigen producten gebruikt. Daarmee kunnen externe partijen hun eigen slimme agenten bouwen.
Toepassingen en positionering
In het persbericht wordt Geoffrey vernoemd dat het model geschikt is voor lange projecten op het gebied van codering, automatisering, data-analyse, documentenbewerking en integraties met softwaretools.
Op Amazon Bedrock is Claude Sonnet 4.5 beschikbaar gemaakt als optie voor ontwikkelaars die krachtige AI willen inzetten.
Kritische kanttekeningen
Hoewel de claims indrukwekkend zijn, zijn er ook vragen. Dat een model “productieklare” apps kan bouwen, impliceert dat het betrouwbaar genoeg is om in echte omgevingen te draaien. In de praktijk kunnen bugs, edge cases of foutieve logica optreden, vooral in onbekende situaties.
De prestatieverbeteringen in benchmarks zeggen veel, maar niet alles: benchmarks testen vaak geisoleerde taken, niet de hele complexiteit van softwareontwikkeling in de praktijk.
Daarnaast blijft er het vraagstuk van toezicht, veiligheid en verantwoordelijkheid: wie is aansprakelijk wanneer een app die automatisch is gegenereerd fouten maakt? Hoe worden beveiliging, privacy en ethiek gewaarborgd?
Ten slotte draait deze vooruitgang in de wereld van AI tegen hoge kosten: in infrastructuur, energie, data en onderhoud. Hoe duurzaam en schaalbaar zijn deze modellen op de lange termijn?
Met Claude Sonnet 4.5 zet Anthropic de lat hoger in de strijd om de meest capabele AI voor ontwikkelaars te leveren. Of het model de praktijk haalt en de beloften invult, hangt af van echte projecten en langdurige tests — en de bereidheid van gebruikers om te vertrouwen op AI als medebouwer.