Anthropic trok de toegang van
OpenAI tot de
Claude API in. De AI-startup, opgericht door ex-medewerkers van OpenAI, beschuldigt OpenAI van het schenden van de gebruiksvoorwaarden door Claude te gebruiken voor benchmarking tijdens de ontwikkeling van GPT‑5.
De breuk tussen de twee toonaangevende AI-bedrijven zorgt voor opschudding in de sector.
OpenAI zou
Claude Code, een krachtige programmeermodule binnen Claude, hebben gebruikt om zijn eigen model te verbeteren. Volgens
Anthropic is dat in strijd met de commerciële voorwaarden, die expliciet verbieden om Claude te gebruiken ter ondersteuning van concurrerende producten.
Verharding in de AI-wedloop
Christopher Nulty van
Anthropic bevestigde dat de toegang is ingetrokken vanwege “duidelijke schendingen” van de voorwaarden. Hij benadrukte dat
Claude Code inmiddels breed wordt gebruikt door programmeurs wereldwijd, en dat het geen verrassing is dat
OpenAI-engineers toegang hadden. “Maar het doel van hun gebruik was overduidelijk niet in lijn met onze richtlijnen.”
Programmeren met
Claude is dus zeker niet verboden. Maar niet iedereen kan het precies gebruiken zoals zij willen. De actie komt vlak voor de verwachte introductie van GPT‑5 door
OpenAI, en lijkt daarmee ook strategisch ingegeven. OpenAI bevestigt dat Claude werd gebruikt voor benchmarktests, maar spreekt tegen dat dit in strijd was met de sectornormen.
OpenAI reageert teleurgesteld
In een verklaring noemt
OpenAI het besluit “jammer maar begrijpelijk”. Woordvoerder Hannah Wong stelt: “Benchmarken van andere modellen is gebruikelijk en noodzakelijk voor veiligheidsanalyses. We respecteren hun beslissing, ook al blijft onze API wel toegankelijk voor
Anthropic.”
Volgens bronnen binnen
OpenAI werd
Claude gebruikt om de zwakke plekken in GPT‑5 vroegtijdig te identificeren en te verbeteren. Hoewel dat volgens OpenAI legitiem onderzoek is, ziet
Anthropic het als directe concurrentiebevordering.
API-toegang als wapen
Dit incident is niet op zichzelf staand. In de bredere AI-industrie groeit de trend om API-toegang in te perken als concurrentie dreigt.
Anthropic blokkeerde eerder ook toegang voor de startup Windsurf toen bleek dat
OpenAI deze wilde overnemen. Meta, Google DeepMind en andere spelers hanteren vergelijkbare strategieën om hun modellen af te schermen voor rivalen.
Volgens AI-onderzoeker Yoav Shoham (AI21 Labs) is dit “een signaal dat openheid in de AI-sector aan het afnemen is, naarmate de race om superieure modellen intensiever wordt”.
Online reacties: hypocrisie of zelfbescherming?
Op sociale media is de reactie gemengd. Sommigen verwijten
OpenAI ‘start-up gedrag’ door regels te buigen, terwijl anderen de actie van
Anthropic hypocriet noemen. Een ironische tweet van Aidan McLaughlin vat de sfeer goed samen:
“As part of our effort to democratize the fruits of AI and ensure the singularity is helpful, harmless, and honest, we have decided to deny others working on the singularity the ability to chat with our helpful, harmless, and honest model.”
Het incident werpt opnieuw de vraag op in hoeverre de AI-race nog draait om open innovatie, of vooral om marktaandeel, controle en gesloten ecosystemen.
Wat betekent dit voor de toekomst?
De komende maanden zullen bepalend zijn voor hoe bedrijven in de AI-sector omgaan met onderlinge toegang, samenwerking en concurrentie. Als ook veiligheidsbenchmarking straks onder druk komt te staan, kan dit gevolgen hebben voor transparantie, interoperabiliteit en vertrouwen in het hele ecosysteem.