Het Amsterdamse AI-platform
Orq.ai lanceert deze week zijn AI-router voor grote taalmodellen als zelfstandig product. Met deze AI-router voor grote taalmodellen krijgen Nederlandse en Europese techteams meer controle over kosten, gebruikersbeheer en infrastructuurkeuzes.
Wat eerder alleen onderdeel was van het bredere Orq.ai-platform, komt nu beschikbaar als losse gateway. Bedrijven kunnen daarmee meerdere large language models, oftewel grote taalmodellen, centraal aansturen zonder hun applicaties te herschrijven.
De timing is opvallend. De markt voor AI-infrastructuur staat onder druk door snel stijgende kosten, toenemende modelcomplexiteit en een verscherpte Europese discussie over digitale soevereiniteit.
Spaghetti aan AI-modellen binnen organisaties
Volgens medeoprichter Sohrab Hosseini kampen veel organisaties met versnipperde AI-integraties, zo
meldt hij aan Emerce. Teams gebruiken verschillende versies van meerdere modellen tegelijk. Dat leidt tot onvoorspelbare kosten en weinig zicht op wat er technisch gebeurt.
Hosseini noemt die situatie “spaghetti”. Integraties groeien organisch. Controle ontbreekt. Budgetten lopen op zonder dat duidelijk is waar de uitgaven precies vandaan komen.
Samen met compagnon Anthony Diaz zag hij dat steeds meer klanten vroegen om de routerlaag uit het bestaande platform los te gebruiken. De vraag naar kostenoptimalisatie en governance nam sterk toe.
Eén centrale laag voor modelverkeer
De AI-router functioneert als een centrale verkeersregelaar voor alle modelverzoeken. Op routeringsniveau bepaalt de software welk model wordt aangesproken. Dat gebeurt op basis van vooraf ingestelde criteria zoals:
- Kosten per token
- Kwaliteit van output
- Snelheid en latency
- Geografische locatie
- Interne beleidsregels
Volgens Hosseini kan slim routeren kostenbesparingen van tien tot vijftig procent opleveren, zo zegt hij deze
analyse. Organisaties kunnen per gebruiker of team tokenbudgetten instellen. Sleutelbeheer, oftewel API-key management, wordt gecentraliseerd.
Dat betekent dat bedrijven hun AI-strategie kunnen aanpassen zonder telkens hun applicaties te herschrijven. De routerlaag abstraheert de onderliggende modellen.
Driehoek van kwaliteit, performance en kosten
AI- en productteams balanceren volgens Hosseini continu tussen drie factoren: kwaliteit, performance en kosten. Die driehoek bepaalt uiteindelijk welke modellen worden ingezet.
De router probeert die afweging deels te automatiseren. Wanneer een goedkoper model volstaat, schakelt het systeem automatisch. Wanneer hogere kwaliteit nodig is, kan een krachtiger model worden ingezet.
Een van de eerste grote klanten is bunq. De Amsterdamse neobank gebruikt de technologie om grip te houden op modelkeuze en infrastructuur.
Digitale soevereiniteit als operationele eis
De lancering speelt in op een bredere Europese ontwikkeling. Discussies over digitale soevereiniteit verschuiven van beleidsniveau naar operationele realiteit.
Waar bedrijven eerder vooral keken naar functionele eisen, zoals “kan het model deze taak uitvoeren?”, spelen nu andere vragen een rol:
- Waar draait de inferentie precies?
- Wie beheert de infrastructuur?
- Hoe snel kan een organisatie overschakelen naar een alternatief model?
Inferentie is het moment waarop een model daadwerkelijk een antwoord genereert. Dat proces kan plaatsvinden in verschillende cloudomgevingen of op eigen servers.
Orq.ai positioneert de router expliciet als het controlepunt waar die infrastructuurbeslissingen worden afgedwongen. De software kan volledig binnen de eigen infrastructuur van een klant draaien. Ook private en zogenoemde airgapped modellen worden ondersteund. Dat zijn modellen zonder directe internetverbinding.
Veel cloudgerichte alternatieven bieden die mate van autonomie niet standaard.
Van router naar Agent Control Tower
Bovenop de router biedt Orq.ai zijn AI Studio. Daarmee beheren teams de volledige levenscyclus van hun AI-producten. Dat loopt van experimenteren en evalueren tot uitrollen en optimaliseren.
Daarnaast werkt het bedrijf aan een zogeheten Agent Control Tower. Hosseini omschrijft dit als een HR-functie voor
AI-agents. Organisaties kunnen daarmee hun digitale agent-workforce monitoren, bijsturen en evalueren.
Intern noemt Orq.ai dit Agent Resource Management, afgekort ARM. Die ontwikkeling sluit aan bij de bredere trend waarin autonome AI-agents steeds vaker taken uitvoeren binnen bedrijven.
Met de losse AI-router zet het Amsterdamse bedrijf in op een fundamentele laag in de AI-stack. Niet het model zelf, maar de controle over modelgebruik wordt het strategische verschil.