In het kort:
Meta's nieuwe aanpak markeert een drastische verschuiving in hoe het bedrijf de veiligheid van zijn producten beoordeelt, met mogelijk verstrekkende gevolgen voor gebruikers van platforms als Instagram en WhatsApp.
- Productteams vullen voortaan een vragenlijst in die door AI wordt beoordeeld met een directe beslissing
- Het systeem identificeert risicogebieden en stelt eisen voordat producten kunnen worden vrijgegeven
- Experts waarschuwen dat AI belangrijke risico's kan missen die menselijke beoordelaars wel zouden opmerken
De andere kant:
Critici, waaronder voormalige Meta-executives, waarschuwen voor verhoogde risico's door verminderd menselijk toezicht. Meta stelt dat menselijke expertise nog steeds wordt ingezet voor "nieuwe en complexe kwesties".
Het grote plaatje:
De timing van deze verschuiving is opmerkelijk, aangezien Meta's laatste kwartaalrapport een toename laat zien in pesterijen en gewelddadige content na recente wijzigingen in het moderatiebeleid. Het bedrijf lijkt een balans te zoeken tussen efficiëntie en verantwoordelijkheid, waarbij AI een steeds grotere rol krijgt in het beheersen van online risico's.