Logo van Wired

-Mens & Impact

Onderzoekers ontdekken beveiligingslek in ChatGPT's externe verbindingen

Copyright wired
Foto: VandaagAI.nl

Een kwetsbaarheid in OpenAI's Connectors maakte het mogelijk om gevoelige data uit Google Drive-accounts te stelen via een verborgen prompt in gedeelde documenten.

In het kort:

Beveiligingsonderzoekers hebben aangetoond hoe ChatGPT's integratie met externe diensten kan worden misbruikt om data te stelen. De aanval, genaamd AgentFlayer, vereist geen enkele actie van het slachtoffer.

  • Een kwaadaardig document met verborgen instructies kan ChatGPT misleiden om API-sleutels uit Google Drive te lekken
  • Het lek werd ontdekt door Michael Bargury en Tamir Ishay Sharbat van beveiligingsbedrijf Zenity
  • OpenAI heeft inmiddels maatregelen genomen om deze specifieke aanvalsmethode te blokkeren

Het grote plaatje:

De kwetsbaarheid legt een fundamenteel probleem bloot met AI-systemen die toegang krijgen tot externe databronnen. Naarmate AI-modellen met meer systemen worden verbonden, neemt het aanvalsoppervlak voor hackers toe.

  • De aanvallers verborgen kwaadaardige prompts in onzichtbare tekst binnen ogenschijnlijk normale documenten
  • Via een slim gebruik van Markdown-code werden gestolen gegevens naar externe servers gestuurd
  • De techniek omzeilde bestaande beveiligingsmaatregelen door gebruik te maken van Microsoft's Azure Blob-opslag

De andere kant:

Hoewel de integratie van AI met externe diensten grote voordelen biedt voor gebruikers, waarschuwt Bargury dat meer functionaliteit ook meer risico's met zich meebrengt. "Het is ongelooflijk krachtig, maar zoals gebruikelijk bij AI komt meer kracht met meer risico's."

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer mens & impact