In het kort:
Een unieke test van AI-systemen in oktober 2023 onthulde 139 nieuwe manieren om AI-modellen te manipuleren, maar het rapport verdween in een la bij het Amerikaanse standaardeninstituut NIST.
- Onderzoekers ontdekten methoden om desinformatie te genereren en persoonlijke data te lekken
- Het rapport toonde tekortkomingen aan in nieuwe Amerikaanse overheidsstandaarden voor AI-testing
- Politieke gevoeligheden rond DEI en klimaatverandering speelden mogelijk een rol bij het niet publiceren
Het grote plaatje:
De tweedaagse 'red teaming' sessie in Arlington testte geavanceerde AI-systemen zoals Meta's Llama en tools van Robust Intelligence en Synthesia. Experts werkten samen met de makers van deze systemen om zwakke plekken te identificeren.
De andere kant:
Ironisch genoeg roept Trump's nieuwe AI-actieplan juist op tot vergelijkbare 'hackathons', terwijl zijn administratie tegelijkertijd aanstuurt op het verwijderen van verwijzingen naar desinformatie en diversiteit uit NIST's risicoframework.