Des comptes soupçonnés d’être affiliés au gouvernement chinois auraient tenté d’utiliser ChatGPT pour concevoir des outils de surveillance et de profilage ciblé. Le rapport d’OpenAI, publié le 7 octobre 2025, met en lumière une nouvelle forme d’abus : l’exploitation de l’IA par des régimes autoritaires.
Ce n’est pas une rumeur, mais bien le résultat du rapport publié le 7 octobre 2025 par OpenAI, le créateur de ChatGPT. Intitulé « Disrupting malicious uses of AI: October 2025 », celui-ci révèle que des utilisateurs « soupçonnés d’être affiliés au gouvernement chinois» ont sollicité ChatGPT pour développer « des propositions de projets et du matériel promotionnel relatifs à des outils de surveillance de masse ». L’un d’entre eux a par exemple demandé de l’aide au chatbot afin d’imaginer un outil capable de repérer les déplacements liés aux Ouïghours et autres personnes « à risque », en recoupant fichiers de police et réservations de transport. Rien que ça.

La Chine surveille nos réseaux sociaux
Un autre utilisateur a demandé à ChatGPT d’élaborer des supports promotionnels pour un outil destiné « à scanner les réseaux sociaux occidentaux » (Twitter/X, Facebook, Reddit, TikTok, YouTube) à la recherche de discours jugés « extrémistes ou politiquement/racialement sensibles ».


Votre vie privée doit rester privée.
Face aux cyberattaques, déjouez les pronostics. Les nouvelles arnaques sont plus complexes et plus sophistiquées, alors ne devenez pas une victime de plus, il existe des solutions performantes et accessibles.
OpenAI précise que ces utilisateurs – s’il s’avère qu’ils sont effectivement liés à l’État chinois – ont probablement eu recours à des VPN. Ces comptes ont été bannis, bien que la société indique ne pas avoir pu vérifier de manière indépendante si ces activités émanaient réellement d’agents gouvernementaux.
Au-delà de la conception d’outils aux intentions obscures, certains comptes auraient utilisé ChatGPT pour du profilage ciblé ou des recherches très (un peu trop) spécifiques. L’un aurait, par exemple, demandé d’identifier les sources de financement d’un compte X critique envers le gouvernement chinois – un autre, de retrouver les organisateurs d’une pétition en Mongolie.
Dans tous les cas, les réponses du modèle se sont limitées à des informations publiques, sans accès à des données confidentielles, précise OpenAI.


Un troisième compte aurait également utilisé ChatGPT pour résumer l’actualité quotidienne « susceptible d’intéresser la Chine », y compris sur des sujets sensibles comme l’anniversaire du massacre de Tian’anmen ou la date de naissance du Dalaï-lama. OpenAI insiste sur le fait que son outil n’a pas servi à implémenter directement ces systèmes : l’IA aurait été utilisée pour conceptualiser ou rédiger des documents, pas pour développer concrètement des logiciels de surveillance.
Le potentiel « abusif de l’IA par des régimes autoritaires »
Le rapport rappelle qu’un des objectifs d’OpenAI est de prévenir l’exploitation de ses modèles par des régimes autoritaires. Selon l’entreprise, ces activités semblent provenir d’individus isolés plutôt que d’organisations institutionnelles agissant à grande échelle. Mais elles offrent malgré tout, selon le rapport, « une fenêtre rare sur le potentiel abusif de l’IA par des régimes autoritaires » et confirment l’intérêt croissant du gouvernement chinois pour l’optimisation de la surveillance par l’intelligence artificielle.
La Chine n’est d’ailleurs pas seule concernée : le même rapport évoque des opérations menées depuis la Russie et la Corée du Nord, où des acteurs auraient utilisé ChatGPT pour rédiger des scripts malveillants et préparer des campagnes de phishing ciblant des entités sud-coréennes.

Toute l’actu tech en un clin d’œil
Ajoutez Numerama à votre écran d’accueil et restez connectés au futur !