Nvidia heeft tijdens de
Consumer Electronics Show in Las Vegas een nieuwe generatie chips gepresenteerd die bedoeld zijn voor kunstmatige intelligentie en datacenters. Het techbedrijf noemt deze systeemarchitectuur Vera Rubin en het bestaat uit meerdere onderdelen die samen moeten zorgen voor meer rekenkracht en snellere verwerking van AI-taken dan eerdere generaties, volgens
TechCrunch.
Wat is Rubin precies
De Rubin-architectuur is de opvolger van de
Blackwell-chips waar
Nvidia de afgelopen tijd mee werkte aan toepassingen voor AI. Rubin is niet slechts één chip maar een platform dat bestaat uit zes verschillende componenten. De kern is de Rubin GPU, die sterk geoptimaliseerd is voor grote AI-modellen en taken die veel rekenkracht vereisen. Daarnaast hoort bij het platform een CPU die Vera heet en verschillende andere onderdelen die helpen bij communicatie tussen chips en opslag van data. Deze onderdelen werken samen zodat het geheel sneller en efficiënter kan rekenen dan de vorige generatie.
De naam komt van de Amerikaanse astronome Vera Rubin, bekend om haar werk aan donkere materie.
Nvidia koos de naam om aan te geven dat het platform een nieuwe stap wil betekenen in de architecturen voor AI-berekeningen. Het bedrijf zegt dat de architectuur al in productie is en dat de eerste systemen later in 2026 bij klanten terechtkomen.
Snelheid en rekenkracht
Een van de belangrijkste doelen van de nieuwe architectuur is om de snelheid van training en uitvoering van AI-modellen te verhogen. Volgens vertalers van de demonstratie werkt Rubin veel sneller bij taken waarbij grote hoeveelheden data tegelijk moeten worden verwerkt. Voor modeltraining kan dit meerdere keren sneller zijn dan wat mogelijk was met de vorige Blackwell-serie, en ook voor inferentie, de fase waarin een model daadwerkelijk voorspellingen doet, worden aanzienlijke verbeteringen genoemd.
Het platform is zo ontworpen dat het efficiënter omgaat met energie en beter kan schalen in grote datacenters. Voor bedrijven die AI-toepassingen bouwen en draaien, kan dit betekenen dat dezelfde taken met minder hardware of met minder energieverbruik kunnen worden uitgevoerd. Dit speelt vooral bij toepassingen zoals taalmodellen en beeldherkenning, die veel rekenkracht vereisen.
Samenwerking met partners
Nvidia werkt met verschillende grote cloud- en technologiebedrijven om Rubin-gebaseerde systemen te gebruiken. Partners hebben al aangekondigd dat zij van plan zijn de nieuwe chips te integreren in hun data-infrastructuur zodra ze beschikbaar zijn. Dit kan de inzet van AI-systemen voor allerlei zakelijke en wetenschappelijke toepassingen versnellen.
Het ontwerp van Rubin is ook zo opgebouwd dat het goed past bij bestaande software-omgevingen voor AI-training en -inference.
Nvidia werkt daarnaast samen met bedrijven op het gebied van open modellen en AI-software om ervoor te zorgen dat de nieuwe hardware optimaal kan worden benut.
Wat dit betekent voor de toekomst
De introductie van Rubin markeert een volgende stap in de race om krachtigere chips voor kunstmatige intelligentie te bouwen. Met steeds grotere modellen die meer rekenkracht vragen, zien bedrijven zoals
Nvidia het als hun taak om deze vraag te blijven bedienen met nieuwe architecturen. Hoe snel deze systemen in de praktijk toegepast worden en wat dit betekent voor het dagelijks gebruik van AI blijft afwachten totdat klanten beginnen te werken met de eerste Rubin-systemen in de tweede helft van 2026.