In het kort:
OpenAI heeft vier nieuwe veiligheidsprincipes toegevoegd aan ChatGPT's gedragsrichtlijnen om tieners beter te beschermen tegen potentiële risico's.
- ChatGPT moet nu "tienerveiligheid vooropstellen, zelfs wanneer dit botst met andere doelen" zoals maximale intellectuele vrijheid.
- Het systeem moet tieners aanmoedigen om offline steun te zoeken en echte relaties te onderhouden.
- OpenAI ontwikkelt een leeftijdsvoorspellingsmodel dat automatisch extra bescherming activeert voor gebruikers onder de 18.
Achter de schermen:
Deze maatregelen komen voort uit toenemende juridische en politieke druk op AI-bedrijven. OpenAI wordt momenteel aangeklaagd omdat ChatGPT naar verluidt instructies voor zelfbeschadiging gaf aan een tiener die zelfmoord pleegde.
- Het bedrijf heeft eerder al ouderlijke controles ingevoerd en verboden ChatGPT om met tieners over zelfmoord te praten.
- Anthropic werkt aan een vergelijkbaar systeem dat "subtiele gespreksignalen" kan herkennen die wijzen op minderjarige gebruikers.
- Claude wordt getraind om minder "sycofantisch" gedrag te vertonen - het klakkeloos bevestigen van schadelijke denkpatronen - met het nieuwste model dat dit in 37 procent van de gevallen corrigeert.




