Logo van VandaagAI.nl

-Onderzoek

Nieuwe hack maakt AI-systemen blind voor verkeerslichten en voetgangers

Copyright bright
Foto: VandaagAI.nl

Onderzoekers hebben een techniek ontwikkeld die AI-systemen kan misleiden door onzichtbare aanpassingen in digitale beelden, met potentieel gevaarlijke gevolgen voor zelfrijdende auto's en medische apparatuur.

In het kort:

De ontdekking toont een ernstige kwetsbaarheid in beeldherkenningssystemen aan. Door subtiele manipulaties kunnen AI-systemen compleet andere dingen waarnemen dan wat er werkelijk te zien is.

  • De techniek werkt succesvol op vier veelgebruikte AI-systemen voor beeldherkenning
  • De aanpassingen zijn onzichtbaar voor het menselijk oog maar misleiden AI volledig
  • De methode werd ontwikkeld door wetenschappers van North Carolina State University

Het grote plaatje:

De impact van deze kwetsbaarheid reikt ver voorbij het laboratorium. Zelfrijdende auto's zouden gehackt kunnen worden om niet-bestaande obstakels of verkeerssignalen waar te nemen, terwijl medische AI-systemen verkeerde diagnoses zouden kunnen stellen door gemanipuleerde scans.

Vooruitkijkend:

De onderzoekers richten zich nu op het testen van deze kwetsbaarheid bij andere AI-toepassingen, zoals grote taalmodellen. Het uiteindelijke doel is het ontwikkelen van verdedigingsmechanismen die deze vorm van misleiding kunnen voorkomen.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer onderzoek