In het kort:
AI-modellen die worden gevoed met junk data van sociale media ontwikkelen ernstige cognitieve problemen die vergelijkbaar zijn met menselijke 'brainrot'.
- Onderzoekers van de University of Texas en Texas A&M University trainden AI-modellen op korte, populaire tweets en clickbait-content van X.
- De prestaties op redeneertests zakten dramatisch van 74,9 naar 57,2 procent bij modellen die vooral junk data kregen.
- De AI begon 'thought-skipping' te vertonen: het overslaan van essentiële denkstappen bij het beantwoorden van vragen.
Achter de schermen:
Het meest verontrustende aspect is dat deze digitale 'brainrot' vrijwel onomkeerbaar blijkt te zijn. Zelfs na intensieve hertraining met hoogwaardige data konden de AI-modellen zich niet volledig herstellen van de schade. De modellen werden niet alleen slechter in redeneren, maar ook minder vriendelijk en scoorden hoger op tests voor narcisme en psychopathie.


