De Amerikaanse startup ODINN presenteert begin januari 2026 een opvallende innovatie. Het bedrijf introduceert OMNIA, een draagbare AI-supercomputer ter grootte van een handbagagekoffer. Volgens ODINN levert het systeem de rekenkracht van een volledig AI-datacenter, maar dan zonder cloudverbinding en zonder langdurige bouwtrajecten. De onthulling vindt plaats vlak voor CES 2026.
OMNIA
richt zich op organisaties die krachtige kunstmatige intelligentie willen inzetten, maar hun data niet willen of mogen verplaatsen naar externe cloudomgevingen. Denk aan defensie, overheden, financiële instellingen en zorgorganisaties. Voor deze sectoren staat dataprivacy centraal en vormt cloudgebruik vaak een juridisch of operationeel risico.
Wat maakt OMNIA anders dan bestaande AI-servers?
ODINN combineert rekenkracht, opslag, koeling en stroomvoorziening in één afgesloten systeem. De draagbare behuizing voldoet aan internationale handbagagenormen voor luchtvaartmaatschappijen. Engineers kunnen het systeem letterlijk meenemen als koffer en binnen enkele minuten operationeel maken op locatie.
De specificaties zijn fors voor zo’n compacte vormfactor:
- Plaats voor maximaal vier high-end grafische processors.
- Tot 246 terabyte lokale opslag.
- Een geïntegreerde stroomvoorziening van 2.500 watt.
- Ontworpen voor real-time AI-inferentie en training van grote generatieve modellen.
- Volledig air-gapped te gebruiken, zonder internetverbinding.
Volgens ODINN maakt deze combinatie het mogelijk om gevoelige datasets lokaal te verwerken. Organisaties hoeven hun data niet langer naar datacenters in andere landen te sturen.
Edge AI krijgt een fysieke vorm
De introductie van OMNIA speelt in op de groeiende vraag naar edge AI. Hierbij vindt dataverwerking plaats dicht bij de bron, zoals in ziekenhuizen, fabrieken of beveiligde faciliteiten. Latentie blijft laag en data verlaat het pand niet.
ODINN stelt dat het systeem dezelfde CPU’s, GPU’s en geheugenarchitecturen gebruikt als traditionele datacenters. Het verschil zit in de integratie. Een eigen gesloten koelsysteem zorgt ervoor dat OMNIA stil blijft draaien, zelfs bij zware AI-workloads met terabytes aan geheugen en opslag.
Het systeem kan worden aangesloten op standaard stroom- en netwerkaansluitingen. Een aparte serverruimte of koelinstallatie is niet nodig. Dat verlaagt volgens het bedrijf de instapdrempel voor lokale AI-infrastructuur aanzienlijk.
Opschalen zonder traditioneel datacenter
Voor organisaties die meer rekenkracht nodig hebben, ontwikkelde ODINN de Infinity Cube. Dit is een modulaire AI-cluster waarin meerdere OMNIA-systemen samenkomen in één behuizing. Elke unit behoudt zijn eigen koeling en rekenkracht, waardoor externe voorzieningen overbodig blijven.
Met deze aanpak kunnen instellingen stap voor stap hun eigen AI-cluster opbouwen. Ze behouden volledige controle over
hardware, data en beveiliging, zonder maandenlange bouwprojecten.
De softwarelaag NeuroEdge coördineert de inzet van meerdere systemen. Deze software sluit aan op het AI-ecosysteem van NVIDIA en regelt taakverdeling, scheduling en performance-optimalisatie. Gebruikers kunnen zich daardoor richten op modelontwikkeling in plaats van infrastructuurbeheer.
Gevolgen voor decentrale AI-infrastructuur
De lancering van OMNIA roept een fundamentele vraag op. Verandert draagbare rekenkracht hoe AI wordt uitgerold? In plaats van gecentraliseerde hyperscale-datacenters kan AI fysiek dichter bij de gebruiker komen. Dat past bij trends rond soevereine data, strengere privacywetgeving en geopolitieke spanningen rond cloudproviders.
ODINN positioneert zich nadrukkelijk niet als cloud- of datacenterbedrijf, maar als AI-infrastructuurleverancier. Het bedrijf wil organisaties helpen om zelfstandiger te worden in hun AI-strategie. Zeker in sectoren waar data nooit het gebouw mag verlaten, kan dat een doorslaggevend voordeel zijn.
Of AI-datacenters in kofferformaat de standaard worden, moet nog blijken. Duidelijk is wel dat OMNIA laat zien hoe ver
hardware-integratie inmiddels is gevorderd. Edge AI krijgt hiermee een tastbare, mobiele vorm.