OpenAI noemt DeepSeek ‘staatsgestuurd’ en pleit voor verbod op ‘in China geproduceerde’ AI-modellen

Nieuws
vrijdag, 14 maart 2025 om 11:40
sam altman reageert op concurrentie van deepseek

In een nieuw beleidsvoorstel omschrijft OpenAI het Chinese AI-lab DeepSeek als „staatsgesubsidieerd” en „staatgestuurd”, en beveelt het de Amerikaanse overheid aan om modellen van DeepSeek en vergelijkbare operaties gesteund door de Volksrepubliek China (VRC) te verbieden. Dat meldt TechCrunch vandaag.

OpenAI versus DeepSeek

Het voorstel, dat is ingediend als onderdeel van het „AI Action Plan”-initiatief van de regering-Trump, stelt dat de modellen van DeepSeek, waaronder het R1 „reasoning”-model, onveilig zijn omdat DeepSeek wettelijk verplicht is om te voldoen aan eisen vanuit China voor het verstrekken van gebruikersgegevens.

Volgens OpenAI is het verbieden van het gebruik van „in China geproduceerde” modellen in alle landen die door de exportregels van de regering-Biden als „Tier 1” te beschouwen, privacy- en veiligheidsrisico’s voorkomen, inclusief het „risico op diefstal van intellectueel eigendom.”

Het is onduidelijk of OpenAI met „modellen” verwijst naar de API van DeepSeek, naar de open modellen van het lab, of naar beide. De open modellen van DeepSeek bevatten namelijk geen mechanismen die de Chinese overheid in staat zouden stellen om gebruikersgegevens af te tappen; bedrijven zoals Microsoft, Perplexity en Amazon hosten deze modellen bovendien op hun eigen infrastructuur.

Chinese overheid en DeepSeek

OpenAI heeft DeepSeek, dat eerder dit jaar snel populair werd, eerder al beschuldigd van het „destilleren” van kennis uit OpenAI’s eigen modellen, tegen hun gebruiksvoorwaarden in. Maar de nieuwste beschuldigingen van OpenAI — namelijk dat DeepSeek direct door China wordt gesteund en aangestuurd — betekenen een escalatie in de campagne van het bedrijf tegen het Chinese lab.

Een duidelijke verbinding tussen de Chinese regering en DeepSeek, dat voortkomt uit het kwantitatieve hedgefonds High-Flyer, is vooralsnog niet aangetoond. Toch toont de Chinese overheid de afgelopen maanden wel meer belangstelling voor DeepSeek. Zo ontmoette Liang Wenfeng, oprichter van DeepSeek, enkele weken geleden nog de Chinese leider Xi Jinping.

Hoe zit het DeepSeek R1-model in elkaar?

1. Modelarchitectuur

  • DeepSeek R1 is een geavanceerd large language model (LLM), vergelijkbaar met GPT-4 en Claude.
  • De architectuur is gebaseerd op een decoder-only transformer, zoals gebruikelijk bij de meeste moderne taalmodellen (bijv. GPT-3/4, LLaMA, Claude).
  • DeepSeek R1 zou gebouwd zijn op een schaal vergelijkbaar met de 33B-parameterklassen, wat betekent dat het model 33 miljard parameters bevat in sommige versies.
  • Er zijn verschillende varianten van DeepSeek-modellen uitgebracht (coder-, instruct- en base-modellen), specifiek getraind voor bijvoorbeeld redeneren, coderen of algemene taken.

2. Trainen en optimaliseren

  • Het model is getraind op een grootschalige dataset, bestaande uit webpagina’s, code, technische documenten en waarschijnlijk ook Chinese en Engelstalige data.
  • DeepSeek claimt geavanceerde pretraining- en fine-tuningstrategieën te hebben toegepast, zoals:
  • Instruction tuning (vergelijkbaar met ChatGPT),
  • Reinforcement Learning from Human Feedback (RLHF),
  • Mogelijk ook multi-step reasoning datasets voor complexere taken.

3. Reasoning-capaciteiten (redenatievermogen)

  • Het R1-model is specifiek ontworpen voor complexe redeneertaken, zoals logische puzzels, wiskundige redenering, keten van redenering (“chain-of-thought”) en geavanceerde codegeneratie.
  • DeepSeek positioneert R1 als een model dat betere multi-hop reasoning en planning aankan dan eerdere generaties open-modellen zoals LLaMA 2 of Mistral.

4. Open versus API-modellen

  • DeepSeek biedt open modellen via platforms zoals Hugging Face, die vrij toegankelijk zijn.
  • Tegelijkertijd lijkt het bedrijf ook een proprietary R1 API-model te hebben dat mogelijk krachtiger is dan de open variant — vergelijkbaar met hoe OpenAI GPT-4 niet publiek beschikbaar maakt als open model.

Vergelijking met andere modellen

  • DeepSeek R1 presteert naar eigen zeggen op benchmarks zoals MMLU, HumanEval, GSM8K en ARC vergelijkbaar met GPT-4 Turbo en Claude 2.
  • Sommige versies zijn specifiek getraind voor codegeneratie (zoals de DeepSeek Coder 33B Instruct).

Populair nieuws