Logo van CNBC

-Mens & Impact

AI-deepfakes terroriseren vrouwen in Minneapolis

Copyright cnbc
Foto: VandaagAI.nl

Een gescheiden man creëerde met AI-software pornografische deepfakes van meer dan 80 vrouwen uit zijn omgeving, zonder dat hij daarmee de wet overtrad.

In het kort:

De zaak toont hoe makkelijk toegankelijke AI-tools als DeepSwap een nieuwe vorm van digitaal misbruik mogelijk maken. Ben gebruikte foto's van Facebook om expliciete content te genereren van vrouwen die hij kende.

  • Jessica Guistolise ontdekte dat haar gezicht was gebruikt in pornografische deepfakes, gemaakt met foto's van een familievakantie en haar petedochters diploma-uitreiking.
  • De politie kon niets doen omdat Ben geen wetten had overtreden – de deepfakes waren niet verspreid en de vrouwen waren meerderjarig.
  • Nudify-apps genereren volgens onderzoek maandelijks 18,6 miljoen bezoekers en verdienen jaarlijks zo'n 36 miljoen dollar.

Het grote plaatje:

DeepSwap en vergelijkbare diensten hebben deepfake-pornografie mainstream gemaakt door de technologie zo eenvoudig te maken dat geen technische kennis vereist is. Voor 19,99 dollar per maand kunnen gebruikers onbeperkt expliciete content genereren.

  • De apps adverteren openlijk op Facebook en Instagram en zijn beschikbaar in app stores van Apple en Google.
  • Slachtoffers ervaren ernstige psychologische schade, zelfs als het materiaal niet wordt verspreid, omdat ze vrezen dat het alsnog online kan belanden.
  • Minnesota werkt aan wetgeving die AI-bedrijven 500.000 dollar boete per deepfake zou opleggen, maar handhaving bij buitenlandse bedrijven blijft problematisch.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer mens & impact