Anthropic, bekend van zijn taalmodel Claude, heeft een klacht ingediend tegen het Chinese
DeepSeek. Volgens
Anthropic heeft DeepSeek grote delen van zijn technologie en trainingsmethoden gebruikt zonder toestemming, en die gestolen kennis gebruikt voor eigen AI-modellen. DeepSeek, een relatief nieuw AI-bedrijf in China, ontkent de aantijgingen. Lees het hele artikel via
The Verge.
Waar gaat de klacht over?
Anthropic stelt dat DeepSeek technieken en bedrijfsgeheimen heeft gebruikt die nauw verband houden met Claude. Claude is een taalmodel dat teksten kan begrijpen en genereren, en het is door Anthropic ontwikkeld met veel eigen onderzoek en data. Volgens de aanklacht van Anthropic heeft DeepSeek die kennis ‘gedistilleerd’ door middel van methoden die volgens hen niet openlijk beschikbaar zijn of legaal gebruikt mogen worden.
Het woord ‘distillatie’ in deze context verwijst naar een manier waarop informatie uit een model gehaald wordt om vervolgens een ander model te trainen. DeepSeek heeft volgens Anthropic een versie van de technologie ontwikkeld die sterke gelijkenissen vertoont met Claude, maar zonder dat daar licentie of toestemming voor is gevraagd.
Anthropic heeft geen details openbaar gemaakt over hoe het precies bewijs heeft verzameld. In zijn verklaring zegt het bedrijf dat het juridische stappen onderneemt en professionele analyses laat uitvoeren om vast te stellen of er daadwerkelijk sprake is van misbruik van intellectuele eigendom.
Waarom dit belangrijk is
In de wereld van kunstmatige intelligentie speelt intellectueel eigendom een belangrijke rol. AI-modellen worden getraind op grote hoeveelheden data, en veel van de ontwikkeling zit in de manier waarop die data worden verwerkt en gebruikt. Wanneer bedrijven beweren dat anderen technologie of methoden onrechtmatig hebben overgenomen, raken ze aan complexe vragen over eigendom van data, trainingsmethoden en wat wel of niet toegestaan is bij het bouwen van nieuwe systemen.
De zaak tussen Anthropic en DeepSeek komt op een moment dat veel landen en bedrijven wereldwijd proberen duidelijkere regels te maken voor AI-ontwikkeling en samenwerking. Verschillende technologiebedrijven hebben ook al eerder met soortgelijke beschuldigingen te maken gehad, waarbij het gaat om de vraag hoe je kunt aantonen dat één model te veel lijkt op een ander omdat er exact dezelfde technieken of data zijn gebruikt.
Groeiende concurrentie tussen AI-bedrijven
DeepSeek is een van de nieuwe spelers in de AI-markt die probeert door te breken in China en daarbuiten. De snelle opkomst van AI-bedrijven in China heeft internationaal wat spanningen veroorzaakt, omdat veel technologieën en modellen uit de Verenigde Staten en Europa komen. Dat leidt tot discussies over hoe open AI-onderzoek moet zijn, welke onderdelen gedeeld mogen worden, en welke juist beschermd moeten worden als bedrijfsgeheimen.
Anthropic zelf behoort tot de grotere namen in de wereld van taalmodellen, samen met bedrijven zoals OpenAI en Google. Het bedrijf heeft Claude ontwikkeld als een alternatief voor andere grote AI-modellen en investeert veel in onderzoek en veiligheidsmaatregelen rondom AI.
Mogelijke gevolgen
De juridische stappen van Anthropic kunnen verstrekkende gevolgen hebben voor DeepSeek als de rechtbank oordeelt dat er inderdaad illegale distillatie heeft plaatsgevonden. Dat kan leiden tot boetes, schadevergoedingen of beperkingen op het gebruik van bepaalde technologieën.
Voor de bredere sector kan de zaak ook dienen als testcase voor hoe intellectuele eigendom rond AI-modellen moet worden behandeld. Naarmate meer bedrijven AI-technologieën ontwikkelen, zal de vraag naar duidelijke juridische kaders groeien.