Mirantis, een toonaangevend bedrijf in open-source cloudinfrastructuur en platformengineering, kondigt aan dat de Nederlandse private cloudprovider
Nebul heeft gekozen voor open-source
k0rdent.
Nebul kiest k0rdent voor snelle AI-workloads
Met deze on-demand dienst kunnen klanten
AI-inferencing in productie draaien. Dit stelt hen in staat om getrainde modellen toe te passen op nieuwe data en zo nauwkeurige voorspellingen of beslissingen te genereren.
Sinds de oprichting richt Nebul zich op privacy en soevereiniteit, met een brede Europese dekking. Het bedrijf is een pionier in high-performance computing, Artificial Intelligence (AI) en machine learning technologieën, waarbij het de rekenkracht van
NVIDIA-processors benut.
Nebul zet k0rdent in, een Kubernetes-native multi-clusterbeheeroplossing die is geïntegreerd met NVIDIA GPU Operator en Gcore Everywhere Inference, (meer details in deze
case study).
Nebul ondersteunt gedistribueerde AI-inferencing binnen zijn infrastructuur, waardoor lage latentie en hoge prestaties worden geleverd.
Optimale benutting van GPU
Dynamisch toegewezen verwerkingsbronnen voldoen aan de vraag, terwijl beleidsgestuurde automatisering zorgt voor een optimale benutting van
GPU’s en maximale efficiëntie.
“Wij geloven dat open source de sleutel is tot infrastructuur die AI ondersteunt,” zegt Alex Freedland, medeoprichter en CEO van Mirantis, de beheerder van k0rdent.
“Nebul laat het enorme potentieel van open technologieën zien om één van de meest complexe IT-uitdagingen van vandaag op te lossen: het betrouwbaar en op schaal leveren van AI-workloads.”
k0rdent, dat vorige maand werd
gelanceerd, helpt platformengineers bij het beheren van de groeiende infrastructuur en operationele complexiteit over cloudproviders, on-premises infrastructuur en edge-apparaten.
Het vereenvoudigt onderhoud met declarative automation, centrale handhaving van beleidsregels en productieklare sjablonen die zijn geoptimaliseerd voor moderne workloads. k0rdent is volledig modulair en maakt gebruik van de open-source
Cluster API, waardoor Kubernetes-clusters overal kunnen worden gecreëerd en bestaande clusters eenvoudig kunnen worden ingezet.
“Nu de vraag naar AI-diensten groeit, was onze uitdaging om onze bestaande infrastructuur over te zetten,” zegt Arnold Juffer, CEO en oprichter van
Nebul, een NVIDIA Elite Partner, Cloud Partner en Solution Provider. “Door k0rdent in te zetten, kunnen we onze diverse infrastructuur effectief verenigen over OpenStack en bare metal Kubernetes, terwijl we afscheid nemen van de VMware-technologie en volledig overstappen op open source. Dit stroomlijnt onze operaties en versnelt onze transitie naar Inference-as-a-Service voor zakelijke klanten. Zij kunnen hun getrainde AI-model nu eenvoudig naar hun data brengen en uitvoeren, met volledige zekerheid over privacy en soevereiniteit, conform de regelgeving. Zo simpel is het.”
“Zoals Nebul aantoont, vereist grootschalige AI-inferencing een infrastructuur die zich dynamisch aanpast aan de behoeften van eindklanten, zodat AI-toepassingen voldoen aan de zakelijke eisen op het gebied van kosten en prestaties," aldus Seva Vayner, productdirecteur Edge Cloud en Edge AI bij Gcore. "Ons Everywhere Inference-product biedt een uiterst eenvoudige portal om AI-inferencing te implementeren en beheren, terwijl Smart Routing ervoor zorgt dat inference-taken naar de dichtstbijzijnde GPU's worden gestuurd voor de laagste latentie."