In het kort:
Cybercriminelen kunnen AI-browsers misleiden door kwaadaardige instructies te verstoppen in plaatjes op websites. Deze 'prompt injections' zijn voor mensen onzichtbaar maar wel leesbaar voor AI-systemen.
- Onderzoekers van Brave ontdekten dat tekst slim in screenshots kan worden verborgen door kleurmanipulatie
- Voor het menselijk oog is de tekst niet zichtbaar, maar AI met tekstherkenning leest de instructies wel na het maken van een screenshot
- Deze verborgen prompts kunnen de AI opdracht geven persoonlijke informatie te stelen of financiële transacties uit te voeren
Achter de schermen:
Het probleem ligt in de kern van hoe AI-browsers werken. Ze maken screenshots van webpagina's om te 'zien' wat er gebeurt, waarna ze tekst herkennen en acties uitvoeren op basis van wat ze waarnemen. Kwaadwillenden misbruiken dit door onzichtbare tekst in afbeeldingen te plaatsen die specifieke instructies bevatten, waardoor de AI deze interpreteert als legitieme opdrachten zonder dat de gebruiker het doorheeft.