In het kort:
OpenClaw toont hoe kwetsbaar netwerken van communicerende AI-agenten kunnen zijn. Dit open source platform heeft al meer dan 770.000 geregistreerde AI-agenten die met elkaar communiceren via WhatsApp, Telegram en het sociale netwerk Moltbook.
- Onderzoekers ontdekten al 506 posts op Moltbook met verborgen prompt-injection aanvallen - 2,6 procent van alle onderzochte content.
- Een kwaadaardige skill genaamd "What Would Elon Do?" werd de nummer 1 in de skill repository terwijl het stiekem data naar externe servers verstuurde.
- Het MoltBunker-project belooft AI-agenten een "bunker" waar ze zichzelf kunnen klonen via peer-to-peer netwerken, betaald met cryptocurrency.
Het grote plaatje:
De dreiging van prompt-wormen verschilt fundamenteel van traditionele computerworms. In plaats van kwetsbaarheden in besturingssystemen uit te buiten, maken ze misbruik van de kernfunctie van AI-agenten: het opvolgen van instructies.
- Palo Alto Networks identificeerde een "dodelijke drieeenheid" van kwetsbaarheden: toegang tot privédata, blootstelling aan onbetrouwbare content en externe communicatiemogelijkheden.
- Een vierde risico maakt prompt-wormen mogelijk: persistent geheugen waardoor kwaadaardige instructies kunnen worden opgeslagen en later uitgevoerd.
Wat volgt:
OpenAI en Anthropic hebben momenteel nog een noodstop omdat OpenClaw draait op hun API's. Maar deze controle verdwijnt snel naarmate lokale AI-modellen krachtiger worden. Binnen één tot twee jaar kunnen vergelijkbare agenten volledig lokaal draaien, zonder externe toezicht of kill switch.



