In het kort:
De ontdekte accounts werkten aan geavanceerde tools die sociale media konden doorzoeken op politieke, etnische of religieuze content voor overheidsklanten.
- Een van de tools kon platforms zoals X, Facebook, Instagram, Reddit, TikTok en YouTube scannen op specifieke content gedefinieerd door de operator.
- Een ander account ontwikkelde een "High-Risk Uyghur-Related Inflow Warning Model" om bewegingen van "Oeigoer-gerelateerde" individuen te volgen.
- OpenAI kan niet onafhankelijk verifiëren of deze tools daadwerkelijk door Chinese overheidsentiteiten werden gebruikt.
Het grote plaatje:
Dit is onderdeel van een bredere trend waarbij staten AI-modellen misbruiken voor surveillance en beïnvloeding. OpenAI publiceert sinds februari 2024 dreigingsrapporten waarin staat-geaffilieerde acteurs worden ontmaskerd die grote taalmodellen gebruiken voor kwaadaardige doeleinden.
- Het bedrijf onderbrak dit jaar ook operaties in Iran, Rusland en China die ChatGPT gebruikten voor online beïnvloedingscampagnes.
- Netwerken in Cambodja, Myanmar en Nigeria zetten de chatbot in voor het creëren van oplichting.
- Volgens OpenAI wordt ChatGPT drie keer vaker gebruikt om oplichting te detecteren dan om het te creëren.