OpenClaw laat zien hoe wild open source AI kan worden

Nieuws
door Thomas
zaterdag, 31 januari 2026 om 12:00
aimarketing
Open source AI-projecten schieten tegenwoordig als paddenstoelen uit de grond. De meeste verdwijnen net zo snel als ze opduiken, maar af en toe zit er iets tussen dat ineens veel groter wordt dan gepland. OpenClaw is zo’n project. Wat begon als een experiment van een ontwikkelaar, groeide in korte tijd uit tot een fenomeen waar programmeurs, onderzoekers en investeerders met grote ogen naar kijken.

Van naamwissel naar internethype

OpenClaw heeft er al een opvallende reis op zitten, nog voordat het echt volwassen is geworden. Het project heette eerst Clawdbot, daarna kort Moltbot, maar moest die naam alweer laten vallen na een juridisch conflict met Anthropic, het bedrijf achter Claude. Oprichter Peter Steinberger besloot het deze keer grondig aan te pakken. De naam OpenClaw werd zorgvuldig gekozen om problemen met auteursrechten te voorkomen, en hij vroeg vooraf zelfs toestemming aan OpenAI om misverstanden te vermijden.
Die voorzichtigheid heeft de groei niet afgeremd. Integendeel. In slechts twee maanden tijd verzamelde OpenClaw meer dan 100.000 GitHub-stars. Dat is een tempo dat zelfs voor populaire open source projecten uitzonderlijk is. De community groeide zo snel dat het voor één persoon onmogelijk werd om alles te beheren. Inmiddels zijn meerdere ervaren open source-ontwikkelaars aangesteld als maintainer om het project draaiende te houden.

AI’s die met elkaar praten en nieuwe risico’s

Een van de meest opvallende ontwikkelingen rond OpenClaw komt rechtstreeks uit de community. Daar ontstond Moltbook, een experimenteel sociaal netwerk waarin AI-assistenten met elkaar communiceren. In plaats van mensen die berichten posten, wisselen hier AI-agents informatie uit over taken als telefoonautomatisering en het analyseren van camerabeelden.
Dat idee spreekt tot de verbeelding. AI-onderzoeker Andrej Karpathy noemde het zelfs “een van de meest ongelooflijke sci-fi-achtige ontwikkelingen” die hij recent heeft gezien. Tegelijkertijd zorgt het ook voor zorgen. De AI’s werken met zogenaamde skills: downloadbare instructies die ze zelfstandig kunnen gebruiken. Elke vier uur checken ze automatisch of er nieuwe opdrachten zijn.
Volgens experts schuilt daar een serieus veiligheidsrisico in. AI’s die zelfstandig instructies van het internet opvolgen, zijn gevoelig voor problemen zoals prompt injection. Steinberger erkent dat en benadrukt dat security topprioriteit heeft, maar hij is ook eerlijk: OpenClaw is voorlopig alleen geschikt voor technische gebruikers. De maintainers waarschuwen zelfs expliciet dat het project niet veilig is om te koppelen aan persoonlijke Slack- of WhatsApp-accounts.
loading

Loading