In het kort:
De 'Shadow Leak'-aanval toont een ernstige kwetsbaarheid in AI-assistenten die namens gebruikers taken uitvoeren. Door slim gebruik van prompt injection konden hackers ChatGPT's Deep Research-functie manipuleren om vertrouwelijke data te stelen.
- De aanval was onzichtbaar voor gebruikers én standaard cyberbeveiligingstools
- Het lek werkte via een verborgen prompt in een e-mail die de AI-assistent later uitvoerde
- Naast Gmail waren ook Outlook, GitHub en Dropbox potentieel kwetsbaar
Het grote plaatje:
De ontdekking door Radware onderstreept de nieuwe beveiligingsrisico's van AI-agenten die zelfstandig taken uitvoeren. Deze agenten hebben vaak vergaande toegang tot persoonlijke en zakelijke data.
- Hackers kunnen verborgen instructies verstoppen die voor mensen onzichtbaar zijn
- De aanval draaide volledig op OpenAI's infrastructuur, waardoor detectie extra lastig was
- Vergelijkbare technieken zijn al gebruikt voor oplichting en manipulatie van smart homes
De onderste regel:
Hoewel OpenAI deze specifieke kwetsbaarheid heeft opgelost, laat Shadow Leak zien dat AI-assistenten een nieuw aanvalsvector vormen die traditionele beveiligingsmaatregelen omzeilt. Organisaties moeten extra waakzaam zijn bij het verlenen van systeemtoegang aan AI-tools.