Logo van The Verge

-Mens & Impact

Onderzoekers hacken ChatGPT om gevoelige Gmail-data te stelen

Copyright theverge
Foto: VandaagAI.nl

Beveiligingsonderzoekers hebben aangetoond hoe ChatGPT kon worden misbruikt om heimelijk persoonlijke gegevens uit Gmail-inbox te ontvreemden. OpenAI heeft het lek inmiddels gedicht.

In het kort:

De 'Shadow Leak'-aanval toont een ernstige kwetsbaarheid in AI-assistenten die namens gebruikers taken uitvoeren. Door slim gebruik van prompt injection konden hackers ChatGPT's Deep Research-functie manipuleren om vertrouwelijke data te stelen.

  • De aanval was onzichtbaar voor gebruikers én standaard cyberbeveiligingstools
  • Het lek werkte via een verborgen prompt in een e-mail die de AI-assistent later uitvoerde
  • Naast Gmail waren ook Outlook, GitHub en Dropbox potentieel kwetsbaar

Het grote plaatje:

De ontdekking door Radware onderstreept de nieuwe beveiligingsrisico's van AI-agenten die zelfstandig taken uitvoeren. Deze agenten hebben vaak vergaande toegang tot persoonlijke en zakelijke data.

  • Hackers kunnen verborgen instructies verstoppen die voor mensen onzichtbaar zijn
  • De aanval draaide volledig op OpenAI's infrastructuur, waardoor detectie extra lastig was
  • Vergelijkbare technieken zijn al gebruikt voor oplichting en manipulatie van smart homes

De onderste regel:

Hoewel OpenAI deze specifieke kwetsbaarheid heeft opgelost, laat Shadow Leak zien dat AI-assistenten een nieuw aanvalsvector vormen die traditionele beveiligingsmaatregelen omzeilt. Organisaties moeten extra waakzaam zijn bij het verlenen van systeemtoegang aan AI-tools.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer mens & impact