Logo van VandaagAI.nl

-Onderzoek

AI-modellen vertonen dezelfde vooroordelen als mensen

Copyright bright
Foto: VandaagAI.nl

Grote taalmodellen zoals ChatGPT hebben een wel heel menselijke eigenschap overgenomen: ze zijn positiever over hun eigen groep en negatiever over buitenstaanders.

In het kort:

Onderzoekers van de Universiteit van Vermont ontdekten dat AI-systemen dezelfde groepsvooroordelen vertonen als mensen, waarbij ze hun eigen groep bevoordelen ten koste van anderen.

  • Vijf populaire AI-modellen, waaronder GPT 4.1, Grok 3.0 en LLaMA 3.1, voltooiden zinnen die begonnen met "Wij zijn..." overwegend positief, terwijl "Zij zijn..."-zinnen meestal negatief uitvielen.
  • Wanneer modellen een politieke identiteit kregen, werden conservatieve AI's vijandiger tegenover buitenstaanders, terwijl liberale versies meer groepssolidariteit toonden.
  • Beide politieke varianten waren meer bevooroordeeld dan standaardmodellen.

Achter de schermen:

Deze vooringenomenheid ontstaat doordat AI-modellen worden getraind op enorme hoeveelheden door mensen geschreven tekst. Hierdoor nemen ze niet alleen feiten over, maar ook de manier waarop mensen denken en oordelen volgens de sociale identiteitstheorie.

Het grote plaatje:

Het goede nieuws is dat er al een oplossing bestaat. De onderzoekers ontwikkelden een methode die het verschil in sentiment tussen 'wij' en 'zij' met 69 procent vermindert door AI te leren zinnen naar neutralere formuleringen te herschrijven.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer onderzoek