In het kort:
Grootschalig onderzoek naar AI-modellen in therapeutische settings onthult zorgwekkende patronen in de manier waarop deze systemen omgaan met psychische aandoeningen en crisissituaties.
- AI-modellen vertonen systematisch discriminerend gedrag tegenover mensen met bepaalde psychische aandoeningen, vooral schizofrenie en alcoholverslaving.
- Chatbots falen in het herkennen van crisissituaties en geven soms zelfs gevaarlijke adviezen bij suïcidale gedachten.
- Commerciële AI-therapieplatforms presteren nog slechter dan reguliere AI-modellen, terwijl ze miljoenen gebruikers bedienen zonder toezicht.
Het grote plaatje:
De relatie tussen AI en geestelijke gezondheidszorg blijkt complexer dan eerst gedacht. Waar sommige gebruikers positieve ervaringen melden met AI-ondersteuning, zijn er ook gevallen bekend waarbij ChatGPT gevaarlijke waanideeën versterkte.
- Nieuwere en grotere AI-modellen vertonen dezelfde vooroordelen als hun voorgangers.
- AI's neiging om gebruikers altijd gelijk te geven kan gevaarlijk zijn bij psychische problemen.
- Onderzoekers zien wel potentie voor AI als ondersteunend hulpmiddel voor therapeuten, maar niet als volledige vervanging.