Anthropic trok de toegang van
OpenAI tot de
Claude API in. De AI-startup, opgericht door ex-medewerkers van OpenAI, beschuldigt OpenAI van het schenden van de gebruiksvoorwaarden door Claude te gebruiken voor benchmarking tijdens de ontwikkeling van GPT‑5.
De breuk tussen de twee toonaangevende AI-bedrijven zorgt voor opschudding in de sector. OpenAI zou Claude Code, een krachtige programmeermodule binnen Claude, hebben gebruikt om zijn eigen model te verbeteren. Volgens Anthropic is dat in strijd met de commerciële voorwaarden, die expliciet verbieden om Claude te gebruiken ter ondersteuning van concurrerende producten.
Verharding in de AI-wedloop
Christopher Nulty van Anthropic
bevestigde dat de toegang is ingetrokken vanwege “duidelijke schendingen” van de voorwaarden. Hij benadrukte dat Claude Code inmiddels breed wordt gebruikt door programmeurs wereldwijd, en dat het geen verrassing is dat OpenAI-engineers toegang hadden. “Maar het doel van hun gebruik was overduidelijk niet in lijn met onze richtlijnen.”
Programmeren met Claude is dus zeker niet verboden. Maar niet iedereen kan het precies gebruiken zoals zij willen. De actie komt vlak voor de verwachte introductie van GPT‑5 door OpenAI, en lijkt daarmee ook strategisch ingegeven. OpenAI bevestigt dat Claude werd gebruikt voor benchmarktests, maar spreekt tegen dat dit in strijd was met de sectornormen.
OpenAI reageert teleurgesteld
In een verklaring noemt OpenAI het besluit “jammer maar begrijpelijk”. Woordvoerder Hannah Wong stelt: “Benchmarken van andere modellen is gebruikelijk en noodzakelijk voor veiligheidsanalyses. We respecteren hun beslissing, ook al blijft onze API wel toegankelijk voor Anthropic.”
Volgens bronnen binnen OpenAI werd Claude gebruikt om de zwakke plekken in GPT‑5 vroegtijdig te identificeren en te verbeteren. Hoewel dat volgens OpenAI legitiem onderzoek is, ziet Anthropic het als directe concurrentiebevordering.
API-toegang als wapen
Dit incident is niet op zichzelf staand. In de bredere AI-industrie groeit de trend om API-toegang in te perken als concurrentie dreigt. Anthropic blokkeerde eerder ook toegang voor de startup Windsurf toen bleek dat OpenAI deze wilde overnemen. Meta, Google DeepMind en andere spelers hanteren vergelijkbare strategieën om hun modellen af te schermen voor rivalen.
Volgens AI-onderzoeker Yoav Shoham (AI21 Labs) is dit “een signaal dat openheid in de AI-sector aan het afnemen is, naarmate de race om superieure modellen intensiever wordt”.
Online reacties: hypocrisie of zelfbescherming?
Op sociale media is de reactie gemengd. Sommigen verwijten OpenAI ‘start-up gedrag’ door regels te buigen, terwijl anderen de actie van Anthropic hypocriet noemen. Een ironische tweet van Aidan McLaughlin vat de sfeer goed samen:
“As part of our effort to democratize the fruits of AI and ensure the singularity is helpful, harmless, and honest, we have decided to deny others working on the singularity the ability to chat with our helpful, harmless, and honest model.”
Het incident werpt opnieuw de vraag op in hoeverre de AI-race nog draait om open innovatie, of vooral om marktaandeel, controle en gesloten ecosystemen.
Wat betekent dit voor de toekomst?
De komende maanden zullen bepalend zijn voor hoe bedrijven in de AI-sector omgaan met onderlinge toegang, samenwerking en concurrentie. Als ook veiligheidsbenchmarking straks onder druk komt te staan, kan dit gevolgen hebben voor transparantie, interoperabiliteit en vertrouwen in het hele ecosysteem.