Prime Intellect heeft een nieuw AI-model gepresenteerd dat de manier waarop grote taalmodellen met informatie omgaan fundamenteel verandert. Het bedrijf introduceert Recursive Language Models, afgekort
LRM, een inferentiestrategie die lange prompts niet langer ziet als een statisch tekstvenster, maar als een dynamische werkomgeving.
Daarmee pakt Prime Intellect een van de hardnekkigste problemen in kunstmatige intelligentie aan: contextverlies bij grote hoeveelheden input.
De aankondiging
https://www.primeintellect.ai/blog/rlm valt samen met de publicatie van een wetenschappelijke paper op arXiv en de release van INTELLECT-3, een open source Mixture-of-Experts-model met 106 miljard parameters. Volgens Prime Intellect luidt deze combinatie een nieuw tijdperk in voor langdurige en complexe AI-taken.
Wat is een Recursive Language Model?
Een LRM verschilt fundamenteel van traditionele large language models. Klassieke modellen verwerken alle input direct in hun contextvenster. Zodra die context te groot wordt, treedt context rot op. Belangrijke informatie verdwijnt naar de achtergrond of raakt volledig verloren.
LRM doorbreekt dit patroon door invoer te behandelen als een externe omgeving. In plaats van alles tegelijk te lezen, krijgt het model toegang tot een persistente Python-omgeving. Daarin kan het programmatisch data inspecteren, opsplitsen en zichzelf opnieuw aanroepen op specifieke fragmenten.
Concreet betekent dit dat lange documenten, datasets of logbestanden niet worden samengevat. Het model selecteert zelf relevante delen en roept sub-LLM’s aan voor deelproblemen. De hoofdinferentie blijft intact, zonder informatieverlies.
Context folding vervangt klassieke RAG
Prime Intellect introduceert met LRM het concept context folding. In tegenstelling tot Retrieval Augmented Generation, waarbij informatie wordt samengevat of opgehaald uit externe bronnen, blijft bij context folding de originele data volledig beschikbaar. Het model vouwt als het ware de context op en uit, afhankelijk van de taak.
Dit heeft twee belangrijke gevolgen:
- Er gaat geen semantische informatie verloren door samenvattingen.
- Het model kan preciezer redeneren over details die normaal buiten het contextvenster vallen.
Volgens de onderzoekers levert dit vooral winst op bij juridische documenten, codebases, wetenschappelijke literatuur en langlopende analyses.
Efficiënter dan grotere contextvensters
Opvallend is dat LRM niet vertrouwt op brute force schaalvergroting. Waar veel AI-bedrijven inzetten op steeds grotere contextvensters, kiest Prime Intellect voor efficiëntie. In benchmarks presteert een met LRM verpakte GPT-5-mini beter dan een standaard GPT-5 op lange-contexttaken, terwijl het minder dan een vijfde van de contexttokens gebruikt.
Dat heeft directe gevolgen voor kosten, latency en energieverbruik. In een tijd waarin AI-infrastructuur steeds duurder wordt, kan deze aanpak aantrekkelijk zijn voor bedrijven en onderzoekers.
Geschikt voor taken die weken duren
Een ander belangrijk voordeel is long-horizon agency. Doordat het model zijn eigen context actief beheert via reinforcement learning, kan het coherent blijven over taken die weken of zelfs maanden lopen. Denk aan langdurige onderzoeksprojecten, autonome softwareontwikkeling of complexe simulaties.
Volgens Prime Intellect vormt dit een cruciale stap richting systemen die niet alleen reageren, maar langdurig plannen en bijsturen.
INTELLECT-3 en open superintelligentie
Tegelijk met LRM lanceert Prime Intellect INTELLECT-3, een 106B Mixture-of-Experts-model waarvan slechts 12 miljard parameters tegelijk actief zijn. Het model is volledig open source en getraind op de volledige reinforcement learning-stack van het bedrijf.
Prime Intellect claimt dat INTELLECT-3 prestaties levert op het niveau van gesloten frontier-modellen, maar dan met volledige transparantie. Het bedrijf positioneert dit als een stap richting open superintelligentie, waarin geavanceerde AI niet achter gesloten deuren verdwijnt.
Is brute-force contextvergroting voorbij?
De introductie van LRM roept een fundamentele vraag op. Als AI-modellen hun eigen prompts kunnen doorzoeken, filteren en hergebruiken, wordt het vergroten van contextvensters dan overbodig?
Hoewel grotere contexten voorlopig nuttig blijven, suggereert Prime Intellect dat slimme inferentiestrategieën effectiever zijn dan pure schaal. LRM markeert daarmee mogelijk het begin van een nieuwe fase in AI-ontwikkeling, waarin architectuur en software belangrijker worden dan alleen meer parameters.