In het kort:
Het probleem zit diep in de kern van hoe AI werkt en vormt een structureel beveiligingsrisico voor alle browsende AI-systemen.
- AI kan geen onderscheid maken tussen instructies van gebruikers en verborgen commando's op websites
- Hackers kunnen onzichtbare tekst op webpagina's plaatsen die de AI als instructie interpreteert
- Dit kan leiden tot datalekken of oplichting van gebruikers door de AI zelf
Achter de schermen:
OpenAI erkent in een recent rapport dat dit een "structureel probleem" is dat voorlopig niet op te lossen valt. Omdat grote taalmodellen data en instructies op dezelfde manier verwerken, is het bijna onmogelijk om de AI te leren wat hij wel en niet moet negeren.
- Brave Browser ziet screenshots als een bijzonder groot risico voor deze aanvallen
- Hoewel bedrijven hard werken aan filters en beveiligingslagen, bestaat er nog geen waterdichte oplossing
- De waarschuwing zet een rem op de snelle uitrol van volledig autonome AI-agents
Wat volgt:
Bedrijven zullen waarschijnlijk kiezen voor een meer gecontroleerde aanpak waarbij AI alleen toegang krijgt tot geverifieerde bronnen. Voor gebruikers betekent dit extra voorzichtigheid bij AI-assistenten met toegang tot persoonlijke accounts of bankgegevens.


