In het kort:
De ontdekking toont een ernstige kwetsbaarheid in beeldherkenningssystemen aan. Door subtiele manipulaties kunnen AI-systemen compleet andere dingen waarnemen dan wat er werkelijk te zien is.
- De techniek werkt succesvol op vier veelgebruikte AI-systemen voor beeldherkenning
- De aanpassingen zijn onzichtbaar voor het menselijk oog maar misleiden AI volledig
- De methode werd ontwikkeld door wetenschappers van North Carolina State University
Het grote plaatje:
De impact van deze kwetsbaarheid reikt ver voorbij het laboratorium. Zelfrijdende auto's zouden gehackt kunnen worden om niet-bestaande obstakels of verkeerssignalen waar te nemen, terwijl medische AI-systemen verkeerde diagnoses zouden kunnen stellen door gemanipuleerde scans.
Vooruitkijkend:
De onderzoekers richten zich nu op het testen van deze kwetsbaarheid bij andere AI-toepassingen, zoals grote taalmodellen. Het uiteindelijke doel is het ontwikkelen van verdedigingsmechanismen die deze vorm van misleiding kunnen voorkomen.