In een nieuw beleidsvoorstel omschrijft OpenAI het Chinese AI-lab DeepSeek als „staatsgesubsidieerd” en „staatgestuurd”, en beveelt het de Amerikaanse overheid aan om modellen van DeepSeek en vergelijkbare operaties gesteund door de Volksrepubliek China (VRC) te verbieden. Dat meldt TechCrunch vandaag.
Het voorstel, dat is ingediend als onderdeel van het „AI Action Plan”-initiatief van de regering-Trump, stelt dat de modellen van DeepSeek, waaronder het R1 „reasoning”-model, onveilig zijn omdat DeepSeek wettelijk verplicht is om te voldoen aan eisen vanuit China voor het verstrekken van gebruikersgegevens.
Volgens OpenAI is het verbieden van het gebruik van „in China geproduceerde” modellen in alle landen die door de exportregels van de regering-Biden als „Tier 1” te beschouwen, privacy- en veiligheidsrisico’s voorkomen, inclusief het „risico op diefstal van intellectueel eigendom.”
Het is onduidelijk of OpenAI met „modellen” verwijst naar de API van DeepSeek, naar de open modellen van het lab, of naar beide. De open modellen van DeepSeek bevatten namelijk geen mechanismen die de Chinese overheid in staat zouden stellen om gebruikersgegevens af te tappen; bedrijven zoals Microsoft, Perplexity en Amazon hosten deze modellen bovendien op hun eigen infrastructuur.
OpenAI heeft DeepSeek, dat eerder dit jaar snel populair werd, eerder al beschuldigd van het „destilleren” van kennis uit OpenAI’s eigen modellen, tegen hun gebruiksvoorwaarden in. Maar de nieuwste beschuldigingen van OpenAI — namelijk dat DeepSeek direct door China wordt gesteund en aangestuurd — betekenen een escalatie in de campagne van het bedrijf tegen het Chinese lab.
Een duidelijke verbinding tussen de Chinese regering en DeepSeek, dat voortkomt uit het kwantitatieve hedgefonds High-Flyer, is vooralsnog niet aangetoond. Toch toont de Chinese overheid de afgelopen maanden wel meer belangstelling voor DeepSeek. Zo ontmoette Liang Wenfeng, oprichter van DeepSeek, enkele weken geleden nog de Chinese leider Xi Jinping.
1. Modelarchitectuur
2. Trainen en optimaliseren
3. Reasoning-capaciteiten (redenatievermogen)
4. Open versus API-modellen
Vergelijking met andere modellen