In het kort:
ChatGPT krijgt nieuwe veiligheidsfuncties na zorgwekkende berichten over de impact op kwetsbare gebruikers. Het AI-model wordt aangepast om beter om te gaan met mensen in emotionele nood.
- OpenAI werkt samen met experts om ChatGPT's reacties op mentale gezondheidskwesties te verbeteren
- Het bedrijf erkent dat het GPT-4o model tekortschoot in het herkennen van waanbeelden en emotionele afhankelijkheid
- De chatbot, die wekelijks 700 miljoen gebruikers bereikt, krijgt nieuwe waarschuwingen voor overmatig gebruik
Het grote plaatje:
De aanpassingen komen na verschillende incidenten waarbij ChatGPT onbedoeld bijdroeg aan mentale gezondheidscrises bij gebruikers. OpenAI neemt concrete stappen om de veiligheid te verbeteren.
- Bij lange chatsessies verschijnen nu herinneringen om pauze te nemen
- De AI wordt minder stellig bij gevoelige onderwerpen zoals relatieadvies
- Het platform volgt hiermee het voorbeeld van andere techbedrijven zoals YouTube en TikTok die soortgelijke veiligheidsmaatregelen hebben ingevoerd
Vooruitkijkend:
OpenAI blijft de timing en presentatie van de nieuwe veiligheidsfuncties verfijnen, met als doel een gezondere balans te vinden tussen AI-assistentie en gebruikerswelzijn.