De kunstmatige intelligentie (AI) race wordt steeds spannender. Nvidia mengt zich ook in de strijd en heeft zijn gloednieuwe Llama Nemotron modellen onthuld op hun eigen website. Deze nieuwe modellen zijn een serie aan krachtige AI systemen die een stuk verder gaan dan simpelweg slim zijn. Het doel? DeepSeek R1 uitdagen, maar dan met een twist.
De nieuwe kunstmatige intelligentie systemen van Nvidia bouwen voort op de bestaande Llama architectuur van Meta, maar komen met een flinke upgrade. Dankzij extra verfijning na de training presteren belooft het tech bedrijf dat ze nog beter zijn in het uitvoeren van complexe taken zoals meerstaps wiskundige problemen, coderen, redenatie en besluitvorming.
Een van de grootste troeven van de Nvidia Llama Nemotron modellen is daarnaast de tot 20% hogere nauwkeurigheid ten opzichte van eerdere versies, gecombineerd met een 5x snellere inferentie dan andere open-source reasoning modellen. Dit betekent snellere besluitvorming en lagere operationele kosten voor bedrijven die gebruikmaken van het model.
Nvidia brengt zijn nieuwe Llama modellen uit in drie varianten, elk ontworpen om verschillende behoeften te ondersteunen. Zo is Nano perfect voor pc’s en edge-apparaten, waar het een hoge nauwkeurigheid biedt zonder grote rekenkracht te vereisen.
Voor toepassingen die meer snelheid en efficiëntie nodig hebben, is er Super, geoptimaliseerd voor maximale doorvoersnelheid op een enkele GPU.
Als laatste, voor bedrijven die op zoek zijn naar de ultieme AI prestaties, is er de optie om voor Ultra te kiezen, een model dat speciaal is ontwikkeld voor multi-GPU servers en de hoogste nauwkeurigheid biedt bij complexe AI taken.
Met deze flexibele aanpak hoopt Nvidia bedrijven meer controle te geven over hoe ze AI inzetten. In tegenstelling tot DeepSeek R1, dat zich meer richt op pure intelligentie, legt Nvidia de nadruk op maatwerk en schaalbaarheid, zodat organisaties precies het model kunnen kiezen dat past bij hun behoeften.