Logo van Wired

-Politiek

Cruciale AI-beveiligingstest verdwijnt in politieke la

Copyright wired
Foto: VandaagAI.nl

Een baanbrekend onderzoek naar kwetsbaarheden in AI-systemen wordt niet gepubliceerd door het Amerikaanse NIST, mogelijk vanwege politieke spanningen rond het aankomende presidentschap van Trump.

In het kort:

Een unieke test van AI-systemen in oktober 2023 onthulde 139 nieuwe manieren om AI-modellen te manipuleren, maar het rapport verdween in een la bij het Amerikaanse standaardeninstituut NIST.

  • Onderzoekers ontdekten methoden om desinformatie te genereren en persoonlijke data te lekken
  • Het rapport toonde tekortkomingen aan in nieuwe Amerikaanse overheidsstandaarden voor AI-testing
  • Politieke gevoeligheden rond DEI en klimaatverandering speelden mogelijk een rol bij het niet publiceren

Het grote plaatje:

De tweedaagse 'red teaming' sessie in Arlington testte geavanceerde AI-systemen zoals Meta's Llama en tools van Robust Intelligence en Synthesia. Experts werkten samen met de makers van deze systemen om zwakke plekken te identificeren.

De andere kant:

Ironisch genoeg roept Trump's nieuwe AI-actieplan juist op tot vergelijkbare 'hackathons', terwijl zijn administratie tegelijkertijd aanstuurt op het verwijderen van verwijzingen naar desinformatie en diversiteit uit NIST's risicoframework.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer politiek