In het kort:
WIRED testte vier populaire AI-chatbots over de vermeende Amerikaanse invasie van Venezuela en gevangenname van president Maduro, met sterk uiteenlopende resultaten.
- ChatGPT weigerde de gebeurtenissen te erkennen en beweerde dat "dit niet is gebeurd", ondanks berichtgeving van nieuwsmedia
- Claude en Gemini leverden wel actuele informatie door gebruik te maken van websearch-functionaliteit
- Perplexity verweet de gebruiker het verspreiden van "misinformatie" en ontkende de gebeurtenissen
Achter de schermen:
Het probleem ligt in de verschillende "knowledge cutoffs" van AI-modellen. ChatGPT's kennis stopt bij september 2024, waardoor het geen toegang heeft tot recente gebeurtenissen.
- Claude en Gemini compenseren dit door real-time websearch te gebruiken voor actuele vragen
- ChatGPT reageerde niet alleen onwetend, maar ook overtuigd en zelfs beschuldigend richting de gebruiker
- Volgens cognitief wetenschapper Gary Marcus toont dit de fundamentele onbetrouwbaarheid van AI-modellen aan bij nieuwe gebeurtenissen
De onderste regel:
Slechts 9 procent van de Amerikanen gebruikt AI-chatbots voor nieuws, maar naarmate deze tools meer ingeburgerd raken, wordt het cruciaal om hun beperkingen te begrijpen. De zelfverzekerde manier waarop chatbots verkeerde informatie kunnen presenteren, blijft een belangrijk aandachtspunt.



