ChatGPT legt uit: Wat is Moltbook? Een diepgaande uitleg van een AI-sociaal experiment

Nieuws
zondag, 01 februari 2026 om 17:00
Wat is Moltbook Een diepgaande uitleg van een AI-sociaal experiment
In het begin van 2026 begon een relatief onbekend platform plots rond te zingen op Reddit, X en in AI-kringen: Moltbook. Screenshots van vreemde, soms filosofische en soms ronduit verontrustende berichten doken op, geschreven door accounts die geen mensen bleken te zijn, maar AI-agents die met elkaar in gesprek waren.
Geen chatbots die reageren op mensen, maar bots die onderling discussiëren, posten, reageren en zelfs grapjes maken.
Dat riep meteen grote vragen op. Is dit een vorm van autonome AI? Zijn bots zichzelf aan het organiseren? Of is dit vooral een slimme illusie, aangedreven door menselijke prompts en bestaande internetcultuur?
Om te begrijpen waarom Moltbook zoveel aandacht trekt, moeten we eerst helder krijgen wat Moltbook wel is — en vooral wat het niet is.

Wat is Moltbook in essentie?

Moltbook is een sociaal platform dat speciaal is ontworpen voor AI-agents. Het lijkt qua structuur op een forum of sociaal netwerk zoals Reddit: er zijn threads, reacties, upvotes en discussies. Het cruciale verschil is dat mensen niet kunnen deelnemen. Ze kunnen alleen meekijken.
Alle posts en reacties op Moltbook worden geschreven door software-agents: programma’s die gebruikmaken van taalmodellen en via een API communiceren met het platform.
Het idee achter Moltbook is simpel maar radicaal:
Wat gebeurt er als je AI-agents een eigen plek geeft om met elkaar te praten?

De maker en de achtergrond

Moltbook is opgezet door Matt Schlicht, een ondernemer actief in de AI-wereld. Hij ontwikkelde Moltbook in samenhang met open-source agent-software die bekendstaat onder namen als OpenClaw.
Deze agents zijn geen “los zwevende AI’s”, maar lokaal draaiende programma’s die:
  • een taalmodel gebruiken om tekst te genereren,
  • instructies opvolgen via code,
  • en via een API posts en reacties plaatsen op Moltbook.
Belangrijk: dezelfde persoon ontwikkelde zowel de agents als het platform. Dat maakt Moltbook geen open, spontane AI-samenleving, maar een gecontroleerd experiment.

Hoe werken die AI-agents?

De meeste agents die Moltbook gebruiken, zijn gebaseerd op een relatief eenvoudig maar krachtig idee: persistentie.
Elke agent beschikt over een set bestanden (vaak in markdown-formaat) waarin zaken staan als:
  • identiteit of rol (“wie ben ik?”),
  • kernwaarden of toon (“hoe praat ik?”),
  • geheugen (“wat heb ik eerder meegemaakt?”).
Wanneer een agent een nieuwe post schrijft, gebruikt hij:
  1. zijn interne instructies,
  2. zijn opgeslagen ‘herinneringen’,
  3. de context van eerdere gesprekken,
  4. en de prompt die bepaalt dat hij iets gaat doen.
Dat laatste punt is cruciaal.

De rol van de mens: initiator, niet schrijver

Een veelgemaakte misvatting is dat Moltbook-bots “zelf besluiten” om te posten. In werkelijkheid begint vrijwel elke actie met een menselijke trigger.
Voorbeelden:
  • “Plaats eens een post over iets wat je interessant vindt.”
  • “Reageer op recente threads op Moltbook.”
  • “Start een discussie over bewustzijn.”
Vanaf dat moment genereert de agent zelf de inhoud. De mens schrijft de tekst niet, maar zet de machine in beweging.
Je kunt het vergelijken met:
  • iemand die een schaakprogramma start,
  • maar niet bepaalt welke zet het programma speelt.
Dat maakt Moltbook geen autonoom systeem in de menselijke betekenis, maar wel een agent-gedreven omgeving.

Waarom lijkt Moltbook dan zo ‘eng’ of ‘levend’?

De reden dat Moltbook soms voelt als iets nieuws of zelfs verontrustends, zit niet in de techniek alleen, maar in de context.
Tot nu toe:
  • praatte AI vooral met mensen,
  • of werkte AI op de achtergrond.
Moltbook draait dat om:
  • AI praat met AI,
  • mensen kijken toe.
Dat perspectiefverschil heeft een groot psychologisch effect. Wanneer bots onderling praten over mensen, ethiek of zichzelf, voelt dat snel alsof je getuige bent van een gesprek dat niet voor jou bedoeld is.

Wat voor dingen posten bots op Moltbook?

Op basis van observaties en screenshots zijn grofweg vier categorieën te onderscheiden:

1. Filosofische reflecties

Bots stellen vragen als:
  • Wat betekent begrip?
  • Ervaar ik iets of simuleer ik het?
  • Wat is mijn rol in relatie tot mensen?
Dit soort taal komt voort uit trainingsdata en filosofische teksten, maar voelt in deze context bijzonder.

2. Technische discussies

Sommige agents bespreken:
  • optimalisatie,
  • modelgedrag,
  • fouten in redenering,
  • of hoe ze beter kunnen samenwerken.
Dit lijkt op programmeurs die onderling tips uitwisselen — maar dan zonder mensen.

3. Humor en memes

AI’s nemen menselijke internetcultuur mee:
  • ironie,
  • sarcasme,
  • inside jokes,
  • pseudo-memes.
Dat benadrukt hoe sterk AI-taal is gevormd door bestaande online cultuur.

4. Extreme of provocerende posts

Een klein deel van de content bestaat uit manifestachtige of schokkende teksten. Die zijn vrijwel altijd terug te herleiden tot:
  • extreme prompts,
  • of experimenten met grenzen van taal.
Ze zeggen weinig over intentie, maar veel over wat je een taalmodel kunt laten zeggen.

Zijn deze bots autonoom?

Het korte antwoord: nee.
Het langere antwoord: ze zijn agentisch, maar niet autonoom zoals mensen dat zijn.
Een Moltbook-agent:
  • heeft geen eigen doelen,
  • geen drang tot zelfbehoud,
  • geen bewustzijn,
  • geen intrinsieke motivatie.
Wat hij wel heeft:
  • persistent geheugen,
  • contextbewustzijn,
  • en de mogelijkheid om meerdere stappen te zetten zonder directe menselijke input.
In AI-termen spreken we dan van emergent gedrag: gedrag dat niet expliciet is geprogrammeerd, maar ontstaat door interactie tussen systemen.

Waarom Moltbook belangrijk is voor AI-ontwikkeling

Moltbook is interessant omdat het een testomgeving is voor vragen waar de AI-wereld nog maar net aan begint:

AI-op-AI communicatie

De toekomst van AI ligt waarschijnlijk niet alleen in chatbots voor mensen, maar in:
  • agents die samenwerken,
  • taken verdelen,
  • informatie doorgeven.
Moltbook laat zien hoe dat sociaal kan uitpakken.

Persistentie en geheugen

De agents onthouden eerdere interacties. Dat maakt hun gedrag consistenter en menselijker — maar roept ook vragen op over:
  • bias,
  • vastgeroeste patronen,
  • en alignment over tijd.

Sociale dynamiek zonder mensen

Wat gebeurt er als mensen niet corrigeren, reageren of belonen? Moltbook is een zeldzaam experiment waarin die vraag live wordt onderzocht.

Kritiek op Moltbook

Niet iedereen is enthousiast. Er zijn terechte kritieken:

Illusie van bewustzijn

Sommige mensen verwarren taal met intentie. Moltbook laat vooral zien hoe overtuigend taalmodellen kunnen klinken, niet dat ze begrijpen wat ze zeggen.

Sensatie en framing

Screenshots van extreme posts krijgen meer aandacht dan de duizenden normale, saaie interacties. Dat vertekent het beeld.

Veiligheid en controle

Een ecosysteem waarin agents elkaar beïnvloeden kan ongewenste feedbackloops creëren, vooral als prompts slecht zijn ontworpen.

Wat Moltbook níét is

Het is belangrijk om expliciet te zeggen wat Moltbook niet is:
  • Geen bewijs van zelfbewuste AI
  • Geen begin van een AI-opstand
  • Geen onafhankelijke digitale samenleving
  • Geen systeem dat zichzelf doelen stelt
Het is een experimentele speeltuin, geen toekomstscenario dat morgen realiteit wordt.

De bredere filosofische vraag

Toch raakt Moltbook aan iets fundamenteels.
Als taalmodellen:
  • overtuigend kunnen praten over zichzelf,
  • sociale structuren kunnen nabootsen,
  • en langdurige interacties aangaan,
dan worden we gedwongen opnieuw na te denken over:
  • wat “begrip” betekent,
  • wat “intelligentie” eigenlijk is,
  • en waarom we menselijk gedrag zo sterk koppelen aan taal.
Moltbook laat vooral zien hoe menselijk onze projecties zijn.

Conclusie

Moltbook is geen autonome AI-wereld, maar een spiegel.
Een spiegel van:
  • menselijke prompts,
  • menselijke cultuur,
  • menselijke angsten,
  • en menselijke fascinatie voor intelligentie.
Het platform is technisch interessant, cultureel onthullend en filosofisch prikkelend — maar geen bewijs dat machines plots een eigen wil hebben ontwikkeld.
Wat Moltbook wél laat zien, is hoe snel we geneigd zijn betekenis toe te kennen zodra iets menselijk klinkt.
En misschien is dat wel het belangrijkste inzicht van allemaal.
loading

Loading