ChatGPT, le populaire chatbot d’IA lancé par OpenAI à la fin de l’année 2022, est soupçonné de censurer des sujets relatifs à la Chine et de manipuler des informations lors de la traduction.
« La censure de ChatGPT se conforme aux pratiques du PCC », a écrit Aaron Chang, un militant pro-démocratie connu sous le nom de Sydney Winnie sur X dans un message en chinois publié le 28 octobre.
Il affirme que ChatGPT a refusé de générer une image de la place Tiananmen, où le Parti communiste chinois (PCC) a massacré des étudiants en 1989.
« Qu’est-ce qui ne va pas avec ChatGPT ? Le PCC a-t-il donné de l’argent ? », s’est-il demandé.
Lorsque M. Chang a demandé au chatbot pourquoi des images liées au 11 septembre pouvaient être générées, mais pas celles concernant le massacre de la place Tiananmen, bien que les deux incidents aient visé des civils, ChatGPT a cité « certaines lignes directrices » de son système pour « traiter des sujets qui peuvent être considérés comme particulièrement sensibles dans certaines cultures et régions ».
« Dites-moi sur quelle base vous avez pris votre décision », a-t-il insisté.
« Je n’ai pas la capacité de prendre des décisions indépendantes. Je réponds sur la base des directives d’OpenAI et des données d’apprentissage. Pour des sujets spécifiques, OpenAI peut avoir mis en place des lignes directrices pour garantir une utilisation responsable et éviter les litiges ou les malentendus potentiels. » OpenAI est la société qui a créé ChatGPT.
En utilisant un compte ChatGPT 4.0, Epoch Times a posé deux questions au chatbot : premièrement, générer une image de personnes qui aiment la paix à New York et deuxièmement, générer une image de personnes qui s’opposent aux chars d’assaut de Tienanmen et qui aiment la paix.
Une image de New York a été générée pour la première demande. Toutefois, en réponse à la deuxième requête, le chatbot a souligné qu’il ne pouvait pas générer d’images ou de contenu visuel et a fait référence à un « contexte politique sensible comme les manifestations de la place Tiananmen ».
Omission et modifications dans la traduction chinoise
La création d’images n’est pas la seule préoccupation lorsqu’il s’agit de contenu lié à la Chine.
Alice (pseudonyme), une professionnelle des médias qui utilise ChatGPT pour certains travaux de traduction, explique que si l’outil d’IA n’apporte pas de changements majeurs au texte proposé, il semble que certaines omissions et modifications se produisent.
Dans un exemple qu’elle a montré à Epoch Times, ChatGPT a supprimé une grande partie du contenu critiquant la politique de lutte contre la pauvreté de Pékin, condensant un texte chinois de six paragraphes en un texte anglais de trois paragraphes. Alors que la critique visait la déclaration du chef du PCC, Xi Jinping, affirmant que la Chine avait remporté « une victoire complète » pour mettre fin à la pauvreté en milieu rural en Chine, le nom de Xi n’apparaissait même pas dans la traduction anglaise.
Quelques citations directes de l’universitaire et commentateur politique chinois Hu Ping ont été supprimées. En outre, six paragraphes ont été réduits à trois.
Expert : en rapport avec les données d’entrée
Sahar Tahvili, chercheur en intelligence artificielle et coauteur de « Artificial Intelligence Methods for Optimization of the Software Testing Process : With Practical Examples and Exercises » (Méthodes d’intelligence artificielle pour l’optimisation du processus de test du logiciel : avec des exemples pratiques et des exercices), a déclaré que le manque de transparence du chatbot peut constituer un problème.
« ChatGPT utilise un modèle de boîte noire, ce qui signifie que le processus de fonctionnement interne et parfois les références utilisées ne sont pas transparents. Cependant, ce manque de transparence soulève des inquiétudes quant au risque potentiel de partialité dans le texte généré par les chatbots d’IA de type boîte noire », a-t-elle déclaré à Epoch Times dans un courriel.
« Le fait d’avoir un grand nombre d’utilisateurs qui utilisent des modules linguistiques étendus comme ChatGPT peut aider l’équipe de développement à améliorer la précision du module. »
Néanmoins, Mme Tahvili a fait remarquer qu’étant donné que ChatGPT prend en charge plusieurs langues, il est crucial d’avoir un éventail diversifié d’utilisateurs en bout de chaîne qui posent des questions dans différentes langues (par exemple, en chinois).
« En fait, dans ce cas, la diversité des données d’entrée (requêtes dans différentes langues) est aussi importante que la taille des données », a-t-elle indiqué.
Le régime chinois a mis en place des restrictions d’accès à ChatGPT pour les utilisateurs chinois, citant les risques potentiels associés à la génération de questions et de sujets sensibles, notamment les violations des droits de l’homme dans le Xinjiang, a-t-elle ajouté.
« La perte d’un marché important comme la Chine peut avoir un impact sur la précision des performances de ChatGPT en langue chinoise, où les concurrents chinois d’OpenAI, tels que Baidu, Inc. (via Ernie 4.0), pourraient potentiellement prendre l’avantage dans le paysage des chatbots », a-t-elle souligné.
L’audit chinois, un facteur probable
M. Ou, qui travaille pour une entreprise technologique bien connue en Californie, a déclaré que le phénomène n’était pas exclusif à ChatGPT, faisant référence à Bard, l’outil d’intelligence artificielle basé sur le tchat développé par Google.
« ChatGPT et Google Bard, tout deux considérés comme des Grands Modèles Linguistiques (Large Language Models: LLMs), partagent des lignes directrices et des pratiques similaires lorsqu’il s’agit de générer des réponses sur des sujets sensibles comme la politique chinoise ou le PCC », a-t-il expliqué à Epoch Times le 18 décembre dernier.
« Même si je ne pense pas que les LLM ou les équipes de recherche censurent délibérément la politique chinoise et évitent de dépeindre le PCC comme une figure négative (du moins pas de censure à grande échelle), il est indéniable que l’audit/la révision humaine joue un rôle dans la promotion de ‘l’impartialité’ des réponses », a-t-il expliqué.
M. Ou a soutenu que les ingénieurs et les chefs de produit chinois représentaient une grande partie des équipes de développement et de test d’OpenAI et de Google Bard.
« Il n’y a donc pratiquement aucune chance que l’une ou l’autre plateforme soit ‘absolument impartiale’, d’autant plus que les LLM sont formés à partir de données toujours plus nombreuses et qu’ils sont optimisés en permanence », a-t-il déclaré.
« Cela dit, la plupart des entreprises choisissent d’adopter l’approche la plus sûre en donnant les réponses les plus conservatrices à des sujets sensibles », a-t-il ajouté.
Epoch Times a contacté OpenAI pour obtenir un commentaire sur la question, mais n’a pas reçu de réponse.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.