In het kort:
RSL 1.0 breidt het bekende robots.txt-bestand uit en stelt websites in staat om specifieke licentie- en compensatieregels op te leggen aan AI-crawlers die hun content willen gebruiken.
- Meer dan 1.500 media-organisaties ondersteunen de standaard, waaronder The Associated Press, Vox Media, The Guardian en Reddit.
- Websites kunnen nu hun content blokkeren voor AI-functies zoals Google's AI Mode, terwijl ze wel zichtbaar blijven in traditionele zoekresultaten.
- Webinfrastructuurproviders Cloudflare, Akamai en Fastly kunnen AI-scrapers daadwerkelijk blokkeren als ze geen licentie betalen.
Het grote plaatje:
Deze ontwikkeling komt op een cruciaal moment waarin de spanning tussen AI-bedrijven en contentmakers oploopt. Google staat momenteel onder onderzoek van de Europese Commissie vanwege het gebruik van uitgeversinhoud in AI-zoekfuncties zonder opt-out mogelijkheid.
- RSL-medeoprichters Doug Leeds en Eckart Walther benadrukken dat hun standaard "precies die ontbrekende laag" biedt die uitgevers nodig hebben.
- De standaard werkte samen met Creative Commons om een nieuwe "bijdrage"-betalingsoptie toe te voegen voor non-profits en individuen.






