Hoe een kleine Chinese AI start-up de concurrentie aangaat met OpenAI

Nieuws
door Thomas
zondag, 26 januari 2025 om 10:00
steeds meer bedrijven kiezen voor open ai modellen

De Chinese kunstmatige intelligentie (AI) start-up DeepSeek lanceerde onlangs zijn nieuwe model DeepSeek-R1, en die zorgde voor veel reuring. Het open-source model verslaat namelijk OpenAI’s technologie op verschillende fronten. Zo blinkt dit model vooral uit in wiskunde en redenering, waardoor het een serieuze concurrent wordt voor de westerse techreuzen.

Het is een knappe prestatie voor de start-up. Door de Amerikaanse exportrestricties hebben Chinese bedrijven namelijk minder toegang tot geavanceerde chips zoals de Nvidia H100. Hierdoor kunnen ze niet op de traditionele manier AI modellen trainen door simpelweg meer hardware toe te voegen. DeepSeek heeft echter laten zien dat er een alternatief is: het optimaliseren van AI architectuur om slimmer om te gaan met beperkte middelen.

Hoe behaalde DeepSeek zijn voorsprong?

In plaats van zich te richten op commerciële toepassingen, heeft DeepSeek een fundamentele AI aanpak gekozen, vergelijkbaar met de vroege strategie van OpenAI. Het bedrijf heeft geen steun van grote Chinese techbedrijven zoals Alibaba of Baidu, wat ervoor zorgt dat ze onafhankelijk kunnen opereren en vrij zijn om te innoveren.

Dankzij verschillende slimme technieken wist DeepSeek zijn voorsprong te behalen. Neem bijvoorbeeld Multi-head Latent Attention (MLA), een AI optimalisatietechniek die meerdere aandachtsmechanismen tegelijk gebruikt om efficiënter patronen in data te herkennen en te verwerken. Ook paste het bedrijf het zogenaamde Mixture-of-Experts architectuur aan, waarbij meerdere gespecialiseerde modellen (experts) dynamisch worden geactiveerd om specifieke taken efficiënter en met minder rekenkracht uit te voeren.

Door deze technieken samen te brengen wist DeepSeek een AI model te trainen met slechts een fractie van de rekenkracht die bedrijven als Meta nodig hebben. Ter vergelijking, DeepSeek-R1 werd ontwikkeld met slechts 10% van de benodigde rekenkracht dat nodig was voor Meta’s Llama 3.1.

Open-source als troef

Het open-source maken van het DeepSeek-R1 bleek een slimme zet. Het trekt DeepSeek wereldwijd AI experts aan en zorgt dat de innovatie in de sector versneld. China bewijst daarmee dat het ondanks beperkende maatregelen AI kan blijven ontwikkelen en op wereldniveau kan concurreren.

Populair nieuws