Logo van Ars Technica

-Onderzoek

AI-modellen creëren veiligheidsrisico's door niet-bestaande code-libraries

Copyright arstechnica
Foto: VandaagAI.nl

Onderzoek onthult dat AI-gegenereerde code vaak verwijst naar niet-bestaande software-bibliotheken, wat een ernstig beveiligingsrisico vormt voor de software-industrie.

In het kort:

Een grootschalig onderzoek naar AI-gegenereerde code legt een zorgwekkend veiligheidsrisico bloot. Van de 576.000 onderzochte codevoorbeelden bevatten er 440.000 verwijzingen naar niet-bestaande softwarebibliotheken.

  • Open source AI-modellen maken de meeste fouten, met 21 procent valse verwijzingen
  • Het probleem maakt software kwetsbaar voor zogenaamde 'dependency confusion' aanvallen
  • Grote bedrijven zoals Apple, Microsoft en Tesla zijn potentieel kwetsbaar voor deze aanvallen

Het grote plaatje:

Deze kwetsbaarheid opent de deur voor kwaadwillenden om malafide code te verspreiden via de software supply chain. Aanvallers kunnen nepbibliotheken publiceren met dezelfde naam als de niet-bestaande verwijzingen.

  • Hackers kunnen malware verstoppen in nepbibliotheken die lijken op de door AI gesuggereerde namen
  • Software kiest soms automatisch voor nieuwere versies, ook al zijn deze kwaadaardig
  • Deze aanvalsmethode werd al in 2021 succesvol gedemonstreerd bij grote techbedrijven

De onderste regel:

Joseph Spracklen, hoofdonderzoeker aan de University of Texas, waarschuwt dat ontwikkelaars die blindelings vertrouwen op AI-gegenereerde code hun systemen kwetsbaar maken voor aanvallen die data kunnen stelen of backdoors kunnen installeren.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Bekijk ook