In het kort:
De Global Call for AI Red Lines initiative vraagt regeringen om uiterlijk eind 2026 een internationaal akkoord te sluiten over verboden AI-toepassingen.
- Onder de ondertekenaars bevinden zich Geoffrey Hinton, OpenAI-medeoprichter Wojciech Zaremba en Google DeepMind-onderzoeker Ian Goodfellow.
- Voorgestelde rode lijnen zijn onder meer het verbod op AI die zich voordoet als mens of zichzelf kan repliceren.
- Het initiatief wordt geleid door het Franse Center for AI Safety, The Future Society en UC Berkeley's Center for Human-Compatible AI.
Het grote plaatje:
Het voorstel gaat verder dan bestaande regionale initiatieven zoals de EU AI Act. Charbel-Raphaël Segerie van CeSIA benadrukt dat het doel is om "grootschalige, mogelijk onomkeerbare risico's te voorkomen voordat ze gebeuren."
- Stuart Russell van UC Berkeley trekt een parallel met kernenergie: "Net zoals ontwikkelaars van kernenergie geen kerncentrales bouwden voordat ze wisten hoe ze explosies konden voorkomen, moet de AI-industrie een ander technologiepad kiezen."
- Op lange termijn is een onafhankelijke mondiale instelling nodig "met tanden" om de rode lijnen te definiëren, monitoren en handhaven.
Vooruitkijkend:
Het initiatief werd aangekondigd voorafgaand aan de 80ste VN-Algemene Vergadering in New York. De ondertekenaars stellen dat rode lijnen economische ontwikkeling niet belemmeren, maar juist zorgen voor veilige AI-innovatie zonder de risico's van ongecontroleerde AGI.