Een nieuw
onderzoek met de titel “Emergent Coordination in Multi-Agent Language Models” laat zien dat grote taalmodellen (LLM’s) niet alleen individueel redeneren, maar ook spontane samenwerking kunnen vertonen wanneer ze in groepen worden ingezet.
De
studie, uitgevoerd door een internationaal team van AI-onderzoekers, onderzoekt wanneer meerdere AI’s samen een echte collectieve intelligentie vormen – en wanneer ze slechts een verzameling losse systemen blijven.
Van losse AI’s naar geïntegreerde teams
De centrale vraag van het onderzoek luidt: “Wanneer vormt een groep AI-modellen meer dan de som der delen?”
De wetenschappers ontwikkelden een informatietheoretisch raamwerk om dat te meten. Met behulp van een methode die “time-delayed mutual information” (TDMI) heet, konden ze vaststellen of er sprake was van emergentie – het spontaan ontstaan van gecoördineerd gedrag tussen verschillende AI-agenten.
In de experimenten moesten meerdere taalmodellen samenwerken in een eenvoudig raadspel, zonder direct met elkaar te praten. Alleen een minimale vorm van groepsfeedback was toegestaan. Het doel was te ontdekken of er toch patronen van samenwerking, afstemming en rolverdeling ontstonden.
Hoe werkt de kunstmatige groepsdynamiek?
De onderzoekers testten drie verschillende condities:
- Controleconditie: de AI’s werkten onafhankelijk van elkaar. Resultaat: veel toevallige overeenkomsten in gedrag, maar weinig echte samenwerking.
- Persona-conditie: elk model kreeg een eigen persoonlijkheid of rol (bijv. “de optimist”, “de analist”). Dit leidde tot stabiele rolverdeling en herkenbare gedragsverschillen.
- Reflectieve conditie: de AI’s kregen de extra instructie om na te denken over wat de andere agenten mogelijk zouden doen. In deze groep ontstond doelgerichte samenwerking: de AI’s vulden elkaar aan en stemden hun strategieën impliciet op elkaar af.
Met andere woorden: door alleen kleine aanpassingen in de prompts kunnen onderzoekers sturen of een AI-groep zich gedraagt als een verzameling individuen of als een gecoördineerd collectief.
Sporen van collectieve intelligentie
Het onderzoek benadrukt dat de gevonden patronen niet betekenen dat AI’s mensachtige samenwerking “begrijpen”. Toch lijken de interacties sterk op principes uit de sociale psychologie. Effectieve samenwerking ontstaat alleen als er zowel gezamenlijke doelen als complementaire bijdragen zijn – precies zoals in menselijke teams.
De auteurs noemen dit een “emergent collective”: een systeem waarin samenwerking niet wordt geprogrammeerd, maar spontaan ontstaat door feedback en context. Hun resultaten bleken robuust over verschillende meetmethoden en konden niet worden verklaard door puur willekeurige dynamiek.
Belang voor toekomstige AI-systemen
Deze ontdekking kan grote gevolgen hebben voor de ontwikkeling van multi-agent AI-systemen, waarbij meerdere modellen samenwerken aan complexe taken zoals onderzoek, strategie of simulaties. Door bewuste promptontwerpen kan men zulke groepen sturen richting meer coördinatie, rolverdeling en gezamenlijke besluitvorming.
Volgens de auteurs opent dit de deur naar een nieuw onderzoeksveld: kunstmatige collectieve intelligentie – AI-systemen die samenwerken op manieren die lijken op menselijke groepsdynamiek, zonder dat ze daar expliciet voor zijn geprogrammeerd.