In het kort:
Criminelen planten systematisch nepnummers in Google's AI-antwoorden, waardoor slachtoffers bij bedrijfsoplichters terechtkomen in plaats van echte klantenservice.
- The Washington Post en Digital Trends ontdekten meerdere gevallen waarbij banken en kredietverenigingen hun klanten waarschuwen voor deze oplichting.
- Oplichters publiceren valse nummers op obscure websites, die vervolgens door AI Overviews worden opgepikt en als betrouwbare informatie gepresenteerd.
- Slachtoffers bellen het nummer uit Google's AI-antwoord en geven persoonlijke gegevens prijs aan criminelen die zich voordoen als klantenservice.
Achter de schermen:
Het probleem ligt in de manier waarop AI Overviews informatie presenteert. Google's systeem schraapt gegevens van het web en presenteert deze als feiten, zonder gebruikers aan te moedigen zelf onderzoek te doen.
- "Onze anti-spam bescherming is zeer effectief," stelt Google, maar erkent tegelijkertijd dat het probleem bestaat en werkt aan verbeteringen.
- Beveiligingsonderzoekers tonen aan dat kwaadaardige tekst ook in e-mails kan worden verstopt, die vervolgens door AI wordt samengevat en als accuraat wordt gepresenteerd.
Wat volgt:
Google kan AI Overviews niet worden uitgeschakeld, dus gebruikers moeten zelf voorzichtig zijn. Verifieer telefoonnummers altijd via de officiële website van het bedrijf en voer een tweede Google-zoekopdracht uit naar het nummer voordat je belt.


