Nvidia GPU’s kwetsbaar voor Rowhammer-aanvallen

Nieuws
maandag, 06 april 2026 om 12:00
Nvidia GPU’s kwetsbaar voor Rowhammer-aanvallen
Nieuwe aanvalstechnieken tonen aan dat zelfs GPU-geheugen niet veilig is. Dat raakt de kern van moderne AI-infrastructuur. Want vrijwel alle AI-systemen draaien op GPU’s van Nvidia.

Wat gebeurt er bij NVIDIA?

Onderzoekers hebben een nieuwe variant van de zogeheten Rowhammer-aanval ontwikkeld die werkt op GPU-geheugen. Rowhammer is een techniek waarbij een aanvaller herhaaldelijk specifieke geheugenlocaties aanspreekt, waardoor bitfouten ontstaan in aangrenzende geheugenblokken.
Die bitfouten lijken klein, maar kunnen grote gevolgen hebben. Ze kunnen bijvoorbeeld beveiligingscontroles omzeilen of data manipuleren zonder directe toegang tot het systeem.
Tot nu toe richtte Rowhammer zich vooral op CPU-geheugen. De nieuwe bevinding is dat ook GPU’s kwetsbaar zijn, inclusief de hardware die massaal wordt ingezet voor AI-training en inferentie.

Waarom dit belangrijk is

AI draait op GPU’s. Dat maakt deze kwetsbaarheid direct strategisch relevant.
Moderne AI-systemen gebruiken GPU-clusters in datacenters voor:
  • trainen van modellen
  • uitvoeren van AI-inferentie
  • verwerken van gevoelige data
Als een aanvaller via GPU-geheugen fouten kan injecteren, ontstaan nieuwe aanvalsvectoren:
  • manipulatie van AI-uitkomsten
  • lekken van data uit gedeeld geheugen
  • escalatie van privileges binnen cloudomgevingen
Dit is geen theoretisch probleem. GPU’s worden vaak gedeeld tussen meerdere gebruikers in cloudomgevingen. Dat betekent dat één kwetsbare workload mogelijk impact heeft op andere klanten.

Wat dit betekent voor AI-infrastructuur?

AI-infrastructuur blijkt minder robuust dan vaak wordt aangenomen. De focus ligt nu vooral op schaal en performance, niet op beveiliging.
GPU’s zijn uitgegroeid tot een single point of failure binnen AI-systemen:
  • zonder GPU’s geen training
  • zonder GPU’s geen inferentie
  • zonder GPU’s geen AI-producten
Als juist die laag kwetsbaar is, raakt dat de hele stack.
Voor bedrijven betekent dit concreet:
  • extra risico bij gebruik van publieke cloud-AI
  • onzekerheid over dataintegriteit
  • mogelijke compliance-problemen
Voor cloudproviders betekent het:
  • druk om hardware-level security te verbeteren
  • noodzaak tot isolatie tussen workloads
  • risico op reputatieschade
Voor Europa en Nederland speelt nog iets anders. De afhankelijkheid van GPU-leveranciers zoals Nvidia is al groot. Als die infrastructuur ook kwetsbaar blijkt, ontstaat een dubbel risico: afhankelijkheid én kwetsbaarheid.

Security blijft achter op AI-hype

De ontwikkeling past in een bredere trend. AI groeit sneller dan de beveiliging eromheen.
Organisaties investeren massaal in:
  • grotere modellen
  • snellere chips
  • meer compute
Maar investeren minder in:
  • hardware security
  • isolatie van workloads
  • detectie van low-level aanvallen
Rowhammer-aanvallen laten zien dat risico’s niet alleen in software zitten, maar diep in de hardwarelaag. Dat maakt ze moeilijker te detecteren en te mitigeren.

Voor wie is dit risico reëel?

De impact verschilt per type organisatie.
Hoog risico:
  • cloudproviders met gedeelde GPU-infrastructuur
  • AI-bedrijven die modellen trainen op externe hardware
  • organisaties met gevoelige data in AI-processen
Middelgroot risico:
  • bedrijven die AI APIs gebruiken via derden
  • SaaS-platforms met AI-functionaliteit
Laag maar niet nul:
  • lokale AI-toepassingen zonder gedeelde hardware
Belangrijk detail: hoe meer gedeeld en schaalbaar de infrastructuur, hoe groter het risico.

Wat nu?

De ontdekking betekent niet dat AI-systemen direct massaal gehackt worden. Maar het laat zien waar de zwakke plekken zitten.
De logische vervolgstappen:
  • hardware-aanpassingen door fabrikanten
  • strengere isolatie in datacenters
  • monitoring van geheugenintegriteit
  • herziening van securitymodellen
Voor decision makers is de kernvraag simpel: vertrouw je de hardwarelaag waarop je AI draait?

Slot

AI wordt vaak gezien als softwareprobleem. Deze ontwikkeling laat zien dat het fundamenteel een infrastructuurprobleem is.
Zolang AI afhankelijk blijft van GPU’s, en GPU’s kwetsbaar blijken, is geen enkel AI-systeem volledig veilig.
De echte vraag is niet of dit wordt opgelost. De vraag is hoe snel de sector security net zo serieus gaat nemen als performance.
loading

Populair nieuws

Laatste reacties

Loading