Advanced Micro Devices heeft de nieuwe
AMD Instinct MI350P aangekondigd, een AI-versneller in standaard PCIe-formfactor die direct moet concurreren met NVIDIA H200 van NVIDIA. Volgens
Tweakers richt AMD zich met de kaart specifiek op datacenters die AI-modellen willen draaien zonder direct over te stappen op complexe vloeistofkoeling of aangepaste serverarchitecturen.
De nieuwe MI350P is gebaseerd op dezelfde generatie als de krachtigere MI350X, maar levert ongeveer de helft van de de prestaties. Dat verschil is strategisch belangrijk. AMD probeert hiermee een bredere markt aan te spreken, waaronder cloudproviders, enterprise-datacenters en bedrijven die bestaande luchtgekoelde racks willen blijven gebruiken.
Waarom kiest AMD voor een PCIe-formfactor?
De PCIe-uitvoering maakt de MI350P eenvoudiger inzetbaar in bestaande servers. Dat verlaagt de infrastructuurkosten voor bedrijven die AI-capaciteit willen uitbreiden zonder volledige datacenterupgrades uit te voeren.
Veel moderne AI-systemen gebruiken inmiddels gespecialiseerde SXM- of OAM-modules met extreem hoge vermogens en vloeistofkoeling. Die leveren maximale prestaties, maar verhogen ook de operationele complexiteit. AMD positioneert de MI350P juist als een toegankelijker alternatief voor organisaties die inferentie, kleinere trainingsworkloads of hybride AI-toepassingen willen draaien.
De keuze voor luchtkoeling speelt daarbij een grote rol. Datacenters kampen wereldwijd met stijgende energiekosten en beperkingen rond stroom- en koelcapaciteit. Een PCIe-kaart die binnen bestaande racks kan functioneren, maakt grootschalige uitrol eenvoudiger en goedkoper.
Concurrentie met Nvidia verschuift naar infrastructuur
AMD concurreert al langer met Nvidia op het gebied van AI-hardware, maar de strijd verschuift steeds meer van pure prestaties naar totale inzetbaarheid. Nvidia domineert momenteel de markt met producten zoals de H200 en Blackwell-platformen, mede dankzij CUDA-software en een sterk ecosysteem.
AMD probeert die voorsprong te verkleinen via een combinatie van open software, lagere kosten en flexibelere implementatieopties. De MI350P lijkt daar een voorbeeld van. In plaats van alleen te focussen op maximale trainingsprestaties, richt AMD zich op praktische schaalbaarheid binnen bestaande infrastructuur.
Dat kan aantrekkelijk zijn voor bedrijven die wel AI-capaciteit nodig hebben, maar geen hyperscaler-budget hebben voor volledige rackvervanging of vloeistofgekoelde clusters.
AI-inferentie wordt steeds belangrijker
De markt voor AI-hardware verschuift bovendien steeds sterker richting inferentie. Dat is het daadwerkelijk uitvoeren van AI-modellen nadat ze zijn getraind. Inferentie vereist vaak andere hardwarekeuzes dan training.
Waar trainingsclusters vooral maximale rekenkracht nodig hebben, draait inferentie vaker om efficiëntie, dichtheid en operationele kosten. PCIe-kaarten zoals de MI350P kunnen daardoor interessant worden voor AI-diensten binnen enterprise-omgevingen, edge-datacenters en cloudplatformen.
AMD speelt hiermee in op een bredere trend binnen de AI-sector: niet alleen de grootste modellen groeien, maar ook de vraag naar betaalbare implementatie van generatieve AI binnen bestaande IT-omgevingen.
Strategische betekenis voor AMD
De introductie van de MI350P laat zien dat AMD zijn AI-strategie verder verbreedt. Het bedrijf richt zich niet uitsluitend meer op absolute topprestaties, maar probeert ook marktaandeel te winnen in segmenten waar eenvoudiger deployment en lagere infrastructuurkosten belangrijk zijn.
Dat kan relevant worden nu steeds meer bedrijven AI-functionaliteit willen integreren zonder direct miljardeninvesteringen in nieuwe datacenterarchitecturen te doen. De concurrentie tussen AMD en Nvidia draait daardoor steeds minder alleen om benchmarks en steeds meer om complete AI-infrastructuur.