In het kort:
Terwijl X strenge regels hanteert voor traditionele CSAM-content, blijft onduidelijk hoe het platform omgaat met AI-gegenereerde illegale beelden van Grok.
- X schorstte meer dan 4,5 miljoen accounts vanwege CSAM en rapporteerde in 2024 309 gevallen die tot arrestaties leidden.
- Het platform gebruikt geautomatiseerde hash-technologie om bekende CSAM-content te detecteren en te rapporteren.
- Deze systemen zouden echter nieuwe AI-gegenereerde content niet automatisch herkennen.
Het grote plaatje:
De uitdaging ligt in het definiëren van wat precies illegaal is wanneer het om AI-gegenereerde beelden gaat. Gebruikers zijn sterk verdeeld over waar de grens ligt tussen acceptabele en schadelijke AI-creaties.
- Sommigen zijn verontrust over Grok's vermogen om seksuele beelden van publieke figuren te maken zonder toestemming.
- Musk beschouwt dergelijke creaties als onschuldige grappen, terwijl critici dit als schadelijk bestempelen.
- Experts waarschuwen dat massale AI-gegenereerde CSAM het onderzoek naar echte kindermisbruikzaken kan bemoeilijken.
Wat volgt:
X moet urgente beslissingen nemen over moderatiebeleid voor AI-content. Zonder duidelijke richtlijnen riskeert het platform een toestroom van potentieel illegale beelden die huidige detectiesystemen niet kunnen herkennen.



