In het kort:
AI-tools veranderen hoe ontwikkelaars code schrijven, maar creëren tegelijkertijd nieuwe kwetsbaarheden die moeilijker te traceren zijn dan traditionele beveiligingslekken.
- Een derde van beveiligingsmanagers meldt dat meer dan 60 procent van hun organisatiecode in 2024 door AI werd gegenereerd.
- Slechts 18 procent van bedrijven heeft goedgekeurde tools voor AI-coding, wat wijst op een gebrek aan controle.
- AI-modellen trainen op oude, kwetsbare code en reproduceren dezelfde beveiligingsproblemen in nieuwe projecten.
Achter de schermen:
Het fundamentele probleem ligt in de ondoorzichtigheid van AI-gegenereerde code. Alex Zenla van cloudbeveiliging firma Edera legt uit dat AI zijn "graceperiode" op het gebied van beveiliging aan het verliezen is.
- Bij traditionele open source code kun je via GitHub precies zien wie wat heeft bijgedragen en waarom, maar AI-code mist deze transparantie volledig.
- Hetzelfde AI-model produceert telkens andere output voor dezelfde vraag, wat consistentie en kwaliteitscontrole bemoeilijkt.
- De kwetsbaarste groepen - kleine bedrijven en organisaties met beperkte middelen - lopen het grootste risico door de schijnbare toegankelijkheid van vibe coding.