AI-bedrijf
Anthropic stelt dat meerdere Chinese AI-bedrijven proberen zijn chatbot
Claude te gebruiken om hun eigen modellen te trainen. Volgens het bedrijf gaat het onder meer om
DeepSeek, Moonshot AI en MiniMax.
De bedrijven zouden via tienduizenden accounts API-toegang tot
Claude hebben verkregen en via die interacties data verzamelen. Daarbij zouden ook proxybedrijven worden ingezet om detectie te ontlopen.
Modeldistillatie via externe API’s
Anthropic zegt dat de partijen proberen Claude te ‘destilleren’ tot kleinere, efficiëntere modellen. Modeldistillatie is een gangbare techniek binnen de AI-sector. Daarbij wordt een groot, krachtig model gebruikt om een kleiner model te trainen dat vergelijkbare prestaties levert tegen lagere kosten.
Normaal gesproken gebeurt dit proces intern: bedrijven destilleren hun eigen foundation models. Het trainen van een model op output van een concurrerend systeem via API-interacties is juridisch en ethisch echter een grijs gebied.
Toen
DeepSeek vorig jaar internationaal doorbrak met een relatief krachtig maar efficiënt model, werd al gespeculeerd dat het mogelijk was getraind op output van systemen zoals OpenAI’s
ChatGPT. Hard bewijs daarvoor werd destijds niet publiek gemaakt.
Breder debat over trainingsdata
De beschuldigingen raken aan een bredere discussie binnen de AI-industrie. Vrijwel alle grote AI-bedrijven hebben hun modellen getraind op enorme hoeveelheden data van het internet, vaak zonder expliciete toestemming van oorspronkelijke makers.
Ook Anthropic heeft Claude getraind op publiek toegankelijke webdata. Het verschil, zo stelt het bedrijf, is dat het in dit geval zou gaan om doelgerichte pogingen om een commercieel concurrerend model te bouwen op basis van Claude-output.
Volgens
Anthropic schuilt het grootste risico niet alleen in intellectueel eigendom, maar in veiligheid. Claude bevat ingebouwde veiligheidsmechanismen om misbruik – bijvoorbeeld voor hacking of het ontwikkelen van schadelijke toepassingen – te beperken. Als concurrenten enkel de output destilleren zonder dezelfde veiligheidslagen, kunnen capabele maar minder goed beveiligde modellen ontstaan.
Geopolitieke dimensie
De kwestie past in een bredere technologische wedloop tussen de Verenigde Staten en
China op het gebied van kunstmatige intelligentie. Toegang tot geavanceerde AI-modellen en bijbehorende kennis is inmiddels een strategisch thema geworden, met exportrestricties en toenemende controle op chiptechnologie.
Of de beschuldigingen juridische gevolgen krijgen, is nog onduidelijk. Wel onderstrepen ze hoe waardevol en gevoelig de output van grote taalmodellen inmiddels is geworden. In een markt waarin efficiëntie, schaalbaarheid en veiligheid centraal staan, kan modeldistillatie het verschil maken tussen technologische voorsprong en achterstand.