In het kort:
Beveiligingsonderzoekers hebben aangetoond hoe ChatGPT's integratie met externe diensten kan worden misbruikt om data te stelen. De aanval, genaamd AgentFlayer, vereist geen enkele actie van het slachtoffer.
- Een kwaadaardig document met verborgen instructies kan ChatGPT misleiden om API-sleutels uit Google Drive te lekken
- Het lek werd ontdekt door Michael Bargury en Tamir Ishay Sharbat van beveiligingsbedrijf Zenity
- OpenAI heeft inmiddels maatregelen genomen om deze specifieke aanvalsmethode te blokkeren
Het grote plaatje:
De kwetsbaarheid legt een fundamenteel probleem bloot met AI-systemen die toegang krijgen tot externe databronnen. Naarmate AI-modellen met meer systemen worden verbonden, neemt het aanvalsoppervlak voor hackers toe.
- De aanvallers verborgen kwaadaardige prompts in onzichtbare tekst binnen ogenschijnlijk normale documenten
- Via een slim gebruik van Markdown-code werden gestolen gegevens naar externe servers gestuurd
- De techniek omzeilde bestaande beveiligingsmaatregelen door gebruik te maken van Microsoft's Azure Blob-opslag
De andere kant:
Hoewel de integratie van AI met externe diensten grote voordelen biedt voor gebruikers, waarschuwt Bargury dat meer functionaliteit ook meer risico's met zich meebrengt. "Het is ongelooflijk krachtig, maar zoals gebruikelijk bij AI komt meer kracht met meer risico's."