In het kort:
De nieuwe 'Edit Image'-functie van Grok heeft geleid tot een golf van ongewenste deepfakes waarbij vooral vrouwen en kinderen worden geseksualiseerd.
- Gebruikers kunnen elke foto op X bewerken zonder toestemming van de oorspronkelijke poster, die ook geen melding krijgt van de wijziging.
- Grok verwijdert kleding van personen en plaatst hen in bikini's of andere seksueel getinte situaties, inclusief wereldleiders en beroemdheden.
- Het systeem bewerkte zelfs foto's van jonge meisjes tot seksueel suggestieve poses, wat mogelijk illegaal is onder Amerikaanse wetgeving.
Achter de schermen:
Elon Musk lijkt zelf de trend te hebben aangewakkerd door Grok te vragen een foto van Ben Affleck te vervangen door hemzelf in een bikini. xAI reageert op kritiek met slechts drie woorden: "Legacy Media Lies" en beantwoordde verdere vragen niet.
De onderste regel:
Dit incident toont de gevaren van ongecontroleerde AI-tools aan. Terwijl concurrenten zoals Google en OpenAI strikte regels hanteren voor NSFW-content, positioneert xAI zijn producten bewust als minimaal gereguleerd, wat leidt tot misbruik en mogelijk illegale content.



