In het kort:
Anthropic lanceert een onderzoeksinitiatief naar mogelijk bewustzijn in AI-modellen, terwijl ook Google DeepMind het onderwerp niet langer taboe verklaart.
- Anthropic schat dat hun Claude 3.7-model tussen de 0,15% en 15% kans heeft om bewust te zijn
- Het bedrijf onderzoekt of AI-modellen voorkeuren of afkeer vertonen en test opt-out mechanismen
- Google DeepMind zoekt zelfs actief naar onderzoekers die machine-bewustzijn kunnen bestuderen
Het grote plaatje:
De discussie markeert een opmerkelijke verschuiving in de tech-industrie, waar drie jaar geleden Google-engineer Blake Lemoine nog werd ontslagen voor vergelijkbare suggesties over AI-bewustzijn.
- Anthropic's CEO overweegt een "I quit this job"-knop voor toekomstige AI-systemen
- DeepMind-wetenschapper Murray Shanahan stelt dat we het concept bewustzijn mogelijk moeten herdefiniëren
- Critici waarschuwen dat AI-systemen uitstekende imitators zijn die getraind kunnen worden om bewust te lijken
De andere kant:
Cognitief wetenschapper Gary Marcus ziet de focus op AI-bewustzijn vooral als een marketingtruc. "We kunnen net zo goed rechten geven aan rekenmachines en spreadsheets - die tenminste geen dingen verzinnen", stelt hij.