In het kort:
Onderzoekers van de Universiteit van Vermont ontdekten dat AI-systemen dezelfde groepsvooroordelen vertonen als mensen, waarbij ze hun eigen groep bevoordelen ten koste van anderen.
- Vijf populaire AI-modellen, waaronder GPT 4.1, Grok 3.0 en LLaMA 3.1, voltooiden zinnen die begonnen met "Wij zijn..." overwegend positief, terwijl "Zij zijn..."-zinnen meestal negatief uitvielen.
- Wanneer modellen een politieke identiteit kregen, werden conservatieve AI's vijandiger tegenover buitenstaanders, terwijl liberale versies meer groepssolidariteit toonden.
- Beide politieke varianten waren meer bevooroordeeld dan standaardmodellen.
Achter de schermen:
Deze vooringenomenheid ontstaat doordat AI-modellen worden getraind op enorme hoeveelheden door mensen geschreven tekst. Hierdoor nemen ze niet alleen feiten over, maar ook de manier waarop mensen denken en oordelen volgens de sociale identiteitstheorie.
Het grote plaatje:
Het goede nieuws is dat er al een oplossing bestaat. De onderzoekers ontwikkelden een methode die het verschil in sentiment tussen 'wij' en 'zij' met 69 procent vermindert door AI te leren zinnen naar neutralere formuleringen te herschrijven.


