In het kort:
Anthropic lanceert een onderzoeksprogramma naar 'model welfare' om te bepalen of AI-modellen morele consideratie verdienen. Het bedrijf erkent dat er geen wetenschappelijke consensus bestaat over AI-bewustzijn.
- Kyle Fish, Anthropic's eerste AI-welfare onderzoeker, schat 15% kans dat huidige AI al bewust is
- Het programma onderzoekt mogelijke 'tekenen van stress' bij AI-modellen
- Anthropic benadrukt een bescheiden aanpak met zo min mogelijk vooronderstellingen
De andere kant:
De AI-gemeenschap is sterk verdeeld over de mate waarin AI menselijke eigenschappen vertoont. Mike Cook van King's College London waarschuwt voor overmatige antropomorfisering van AI-systemen.
- AI functioneert als statistisch voorspellingsmodel zonder echt "denken" of "voelen"
- Modellen hebben geen echte waarden die ze kunnen "verdedigen"
- Het Center for AI Safety suggereert daarentegen dat AI wel degelijk waardesystemen heeft
Het grote plaatje:
Het initiatief van Anthropic markeert een belangrijke verschuiving in hoe we naar AI kijken. Het bedrijf erkent dat hun ideeën regelmatig herzien moeten worden naarmate het veld zich ontwikkelt.