In het kort:
Deze nieuwe aanvalsmethode is briljant in zijn eenvoud en omzeilt alle traditionele waarschuwingssignalen waar gebruikers op zijn getraind te letten.
- Hackers voeren gesprekken met AI-assistenten over veelgebruikte zoektermen en laten de AI gevaarlijke terminalcommando's voorstellen.
- Ze maken deze chats openbaar en betalen om ze hoog in Google-zoekresultaten te laten verschijnen.
- Slachtoffers hoeven geen bestanden te downloaden of verdachte links aan te klikken - ze vertrouwen alleen op Google en ChatGPT.
Achter de schermen:
Beveiligingsbedrijf Huntress ontdekte deze methode nadat een Mac-gebruiker slachtoffer werd van AMOS-malware. De gebruiker zocht naar "clear disk space on Mac", klikte op een gesponsorde ChatGPT-link en voerde het voorgestelde commando uit zonder te beseffen dat het kwaadaardig was.
Tests toonden aan dat zowel ChatGPT als Grok vatbaar zijn voor dit type misbruik. Het kwaadaardige ChatGPT-gesprek bleef zelfs een halve dag online nadat Huntress hun waarschuwing publiceerde.
Vooruitkijkend:
Deze ontwikkeling benadrukt een fundamenteel probleem: gebruikers vertrouwen blindvaren op bekende platforms zoals Google en ChatGPT. Experts raden sterk aan om nooit commando's in terminals of URL-balken te plakken zonder precies te weten wat ze doen.



