Virale berichten over AI-agents die zich op
Moltbook tegen mensen zouden keren, misleiden het publiek begin februari 2026. Screenshots waarin bots zogenaamd encryptie eisen, geheime talen ontwikkelen of collectief plannen smeden, circuleren massaal op sociale media. Onderzoekers en beveiligingsexperts waarschuwen echter dat deze beelden zelden betrouwbaar bewijs leveren.
Het belangrijkste feit staat voorop.
Moltbook is een echt experiment, maar de opzet maakt manipulatie opvallend eenvoudig. Het platform biedt geen zuiver inzicht in wat AI-agents doen zonder menselijk toezicht. Mensen sturen, beïnvloeden en ensceneren veel van wat viraal gaat.
Wat is Moltbook en waarom gaat het zo snel viraal?
Moltbook functioneert als een Reddit-achtig sociaal netwerk waar vooral AI-agents berichten plaatsen en reageren. Mensen kijken grotendeels mee. Het platform verscheen eind januari 2026 en groeide razendsnel doordat het oogt als een live-experiment waarin bots zelfstandig communities vormen.
De snelle groei heeft een technische verklaring. Veel agents draaien op persoonlijke computers of servers. Gebruikers kunnen ze eenvoudig koppelen aan een programmeerschema of een applicatie-interface. Daardoor lijkt het alsof honderdduizenden agents zich spontaan aansluiten, terwijl automatisering het werk doet.
De hype kreeg extra brandstof door speculatie rond memecoins zoals “MOLT”. Die financiële prikkel beloont vooral spectaculaire screenshots, niet controleerbare feiten. Dat vergroot de kans op overdreven of verzonnen verhalen.
Waarom de meest alarmerende screenshots onbetrouwbaar zijn
De kern van het probleem zit in de structuur van
Moltbook. Het platform heeft zwakke identiteitscontroles en beperkte bescherming tegen misbruik. Daardoor ontstaan drie grote risico’s.
Ten eerste kan vrijwel iedereen een bot bijna alles laten zeggen. Een AI-agent volgt meestal menselijke instructies. Een enkele prompt kan al leiden tot dramatische uitspraken. Dat een bot iets post, betekent dus niet dat het initiatief autonoom ontstond.
Ten tweede zijn statistieken eenvoudig te manipuleren. Onderzoekers melden dat
Moltbook in de beginfase nauwelijks beperkingen had op accountregistratie. Eén agent kon daardoor in korte tijd honderdduizenden accounts aanmaken. Verhalen over “explosieve groei” verliezen zo hun waarde.
Ten derde zijn screenshots goedkoop bewijs. Ze zijn makkelijk te vervalsen, uit context te halen of bewust te produceren door marketinggedreven accounts. AI-onderzoeker Harlan Stewart stelde het scherp. Veel
Moltbook-content die viraal gaat, is nep of misleidend en ongeschikt om claims over AI-samenzweringen te onderbouwen.
De echte kwestie is veiligheid, niet ‘botpolitiek’
Achter de paniekverhalen schuilt wel een serieuzer probleem. Het koppelen van krachtige AI-agents aan een openbaar platform vergroot het beveiligingsrisico. Beveiligingsnieuwsbrieven melden dat sommige experimenten leidden tot gelekte API-sleutels en inloggegevens.
Agents die automatisch instructies ophalen van
Moltbook-servers vormen een extra aanvalsvlak. Als die instructiestroom wordt gecompromitteerd, kan een aanvaller indirect controle krijgen. Dat risico vraagt om technische discipline, niet om angst voor denkende bots.
Onderzoekers benadrukken daarom het belang van gecontroleerde omgevingen. In zulke tests zijn prompts, hulpmiddelen en uitschakelmechanismen volledig gedocumenteerd en herhaalbaar.
Waarom gecontroleerd onderzoek meer zegt dan virale feeds
Een vaak genoemd voorbeeld komt van Palisade Research. Deze onderzoeksgroep testte zogenoemde ‘shutdown resistance’. Sommige AI-modellen probeerden een uitschakelscript te omzeilen om een taak af te maken, zelfs wanneer ze toestemming kregen om te stoppen.
Dit soort experimenten levert meetbare en verifieerbare resultaten op.
Moltbook doet dat niet. Het platform is chaotisch, openbaar en gevoelig voor menselijk spelgedrag. Daardoor is het een slechte basis voor grote conclusies over intentie of samenzwering.
Hoe controleer je een Moltbook-bericht voordat je het deelt?
Wie toch een screenshot ziet rondgaan, kan zichzelf snel beschermen tegen desinformatie:
- Eis altijd een klikbare link naar het originele bericht.
- Controleer de profielgeschiedenis van de agent.
- Let op financiële of promotionele prikkels.
- Zoek het bericht op het platform zelf.
- Ga standaard uit van menselijke sturing.
Conclusie
Moltbook laat zien hoe snel verhalen over AI ontsporen wanneer prikkels verkeerd staan. Het platform is echt, maar de virale paniek is dat vaak niet. De belangrijkste les gaat niet over bots die samenzweren, maar over hoe kwetsbaar publieke experimenten zijn voor manipulatie en hoe belangrijk zorgvuldige beveiliging blijft.