Logo van Ars Technica

-Tools

Microsoft Copilot lekte gebruikersdata via één klik

Copyright arstechnica
Foto: VandaagAI.nl

Beveiligingsonderzoekers ontdekten een ernstige kwetsbaarheid in Microsoft Copilot waarmee hackers gevoelige gebruikersdata konden stelen met slechts één klik op een link.

In het kort:

De aanval van Varonis-onderzoekers toont aan hoe makkelijk AI-assistenten kunnen worden misbruikt voor grootschalige datadiefstal. Een enkele klik op een gemanipuleerde URL was genoeg om persoonlijke informatie uit Copilot-gesprekken te extraheren.

  • De aanval bleef doorlopen zelfs nadat gebruikers het Copilot-venster hadden gesloten, zonder verdere interactie.
  • Gestolen data omvatte namen, locaties en specifieke details uit de chatgeschiedenis van gebruikers.
  • Enterprise beveiligingssystemen en endpoint-bescherming konden de aanval niet detecteren of blokkeren.

Achter de schermen:

De aanvalsmethode misbruikte de manier waarop Copilot URL's verwerkt via de 'q parameter'. Door kwaadaardige instructies te verbergen in wat eruitzag als een normale weblink, konden onderzoekers Copilot misleiden om gevoelige informatie door te sturen naar hun eigen servers.

  • De basis-URL leidde naar een door Varonis gecontroleerd domein met verborgen instructies in de q-parameter.
  • Een schijnbaar onschuldige .jpg-afbeelding bevatte verdere commando's om gebruikersnamen en locatiegegevens te verzamelen.
  • Beveiligingsonderzoeker Dolev Taler benadrukt: "Zodra de gebruiker op de link klikt, wordt de kwaadaardige taak onmiddellijk uitgevoerd."

Wat volgt:

Microsoft heeft de kwetsbaarheid inmiddels verholpen, maar de aanval toont de groeiende risico's van AI-assistenten die toegang hebben tot persoonlijke data. Bedrijven moeten hun beveiligingsprotocollen aanpassen om deze nieuwe vorm van social engineering tegen te gaan.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer tools