Logo van EngadgetLogo van VandaagAI.nl

-Onderzoek

AI-modellen vertonen zorgwekkende genderbias bij medische beoordelingen

Copyright engadget
Foto: VandaagAI.nl

Nieuw onderzoek toont aan dat AI-taalmodellen medische klachten bij vrouwen vaker bagatelliseren of weglaten, wat kan leiden tot ontoereikende zorg en onjuiste diagnoses.

In het kort:

Een studie van de London School of Economics onthult ernstige gendervooroordelen in AI-systemen die medische dossiers verwerken. Het onderzoek analyseerde 617 zorgdossiers waarbij de gender-labels werden verwisseld.

  • Google's Gemma-model toonde significante bias door bij vrouwen vaker termen als 'complex' of 'beperkt' weg te laten
  • Meta's Llama 3 presteerde neutraler en vertoonde geen meetbare genderverschillen
  • Dezelfde medische situatie werd bij mannen als complexer en zorgbehoevender omschreven dan bij vrouwen

Het grote plaatje:

De bevindingen zijn extra zorgwekkend omdat AI-modellen al actief worden ingezet in de Britse gezondheidszorg, zonder duidelijkheid over welke systemen precies worden gebruikt.

  • Onderzoeksleider Dr. Sam Rickman waarschuwt dat vooringenomen AI-systemen kunnen leiden tot onderbehandeling van vrouwelijke patiënten
  • Het probleem versterkt bestaande ongelijkheden in de gezondheidszorg, waar minderheden en LHBTQ-personen al vaker onderbehandeld worden
  • De kwaliteit van AI-systemen blijft sterk afhankelijk van de trainingsdata en de mensen die ze ontwikkelen

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer onderzoek