ANALYSES

Le PCC développe des armes à intelligence artificielle en ignorant les risques mondiaux

Le développement d'armes intelligentes pourrait être équivalent à la révolution nucléaire, selon Bradley Thayer, chargé de recherche au Center for Security Policy.
septembre 20, 2024 15:36, Last Updated: septembre 21, 2024 17:20
By

Les armes de pointe dotées d’une intelligence artificielle (IA) sont en train de devenir un risque pour la sécurité mondiale, en particulier entre les mains du Parti communiste chinois (PCC), selon plusieurs experts qui se sont entretenus avec Epoch Times.

Impatient de surpasser militairement les États-Unis, le PCC ne tiendra probablement pas compte des mesures de protection liées aux technologies à IA mortelles, qui sont de plus en plus dangereuses, ont déclaré les experts. La nature de la technologie est-elle susceptible d’alimenter certaines des pires tendances de la psyché humaine.

« Les implications sont tout à fait dramatiques », a déclaré Bradley Thayer, chercheur au Center for Security Policy, expert en évaluation stratégique de la Chine et collaborateur d’Epoch Times. « Elles pourraient être l’équivalent de la révolution nucléaire. »

Des robots tueurs

Le développement d’armes autonomes pilotées par l’IA progresse rapidement, selon Alexander De Ridder, développeur d’IA et cofondateur d’Ink, une société de marketing spécialisée dans l’IA. « Elles deviennent rapidement plus efficaces et plus performantes », a-t-il déclaré à Epoch Times, ajoutant toutefois qu’ « elles n’en sont pas encore au point de pouvoir remplacer les humains ».

Les drones, les chars, les navires et les sous-marins autonomes sont devenus une réalité, aux côtés d’itérations aussi exotiques que les chiens robots quadrupèdes armés de mitrailleuses, déjà observés en Chine. Même les robots humanoïdes dotés d’une intelligence artificielle, qui ont fait les beaux jours de la science-fiction, sont en cours de production. Certes, ils sont encore assez maladroits dans le monde réel, mais cela ne devrait pas durer longtemps, selon M. De Ridder.

« Les capacités de ces robots progressent rapidement », a-t-il déclaré. Une fois que ces machines auront atteint une utilité et une fiabilité commercialisables, la Chine orientera probablement sa production manufacturière vers la production de masse, selon lui.

« Le marché sera inondé de robots humanoïdes, et leur utilisation dépendra alors de la manière dont ils seront programmé », a-t-il déclaré. Cela signifierait qu’ils pourraient également être utilisés à des fin militaires. Et d’ajouter, « C’est pratiquement inévitable ».

Selon James Qiu, fondateur du GIT Research Institute et ancien directeur technique de FileMaker, ces robots dotés d’IA sont très doués pour utiliser des capteurs optiques afin d’identifier des objets, y compris des êtres humains. Cela leur donne le potentiel de devenir des machines à tuer très efficaces, a-t-il ajouté.

Un officier cambodgien inspecte des drones et un « chien » de combat robotisé équipé de mitrailleuses qui sont présentés aux soldats chinois lors d’un exercice conjoint dans une base de la police militaire dans la province de Kampong Chhnang, au Cambodge, le 16 mai 2024. (Tang Chhin Sothytang Chhin Sothy/AFP via Getty Images)

Des IA prenant la place de Généraux

D’une manière plus générale, de nombreux pays travaillent sur des systèmes à IA capables d’informer et de coordonner les décisions sur le champ de bataille, jouant ainsi le rôle de Généraux électroniques, selon Jason Ma, responsable de la recherche de données au sein d’une multinationale figurant au classement Fortune 500. Il a demandé à ne pas divulguer le nom de son entreprise pour ne pas donner l’impression de parler en son nom.

L’Armée populaire de libération (APL) chinoise a récemment mené des exercices de combat au cours desquels une IA a été directement placée aux commandes, et l’armée américaine a également des projets dans ce domaine, a indiqué Jason Ma. « Il s’agit d’un sujet de recherche et de développement très actifs. »

Le besoin est évident : les décisions prises sur le champ de bataille s’appuient sur une quantité stupéfiante de données, qu’il s’agisse du contexte historique et des renseignements antérieurs, des données satellitaires en temps quasi-réel ou des informations fournies milliseconde par milliseconde par toutes les caméras, tous les microphones et tous les autres capteurs présents sur le terrain. Il est « très difficile » pour les humains de traiter des flux de données aussi disparates et volumineux, a-t-il expliqué.

« Plus la guerre est complexe, plus il est important de savoir comment intégrer et résumer rapidement toutes ces informations afin de prendre la bonne décision, en quelques secondes, voire en moins d’une seconde », a-t-il ajouté.

Déstabilisation

Les armes intelligentes redéfinissent déjà la guerre, mais les experts qui se sont entretenus avec Epoch Times s’accordent à dire que les conséquences seront bien plus vastes. La technologie rend le monde de plus en plus instable, a déclaré M. Thayer.

Au niveau le plus rudimentaire, le ciblage des armes pilotées par l’IA facilitera probablement l’abattage des missiles balistiques intercontinentaux, la détection et la destruction des sous-marins et l’abattage des bombardiers à longue portée. Cela pourrait neutraliser les capacités nucléaires américaines, permettant aux adversaires de « dépasser le niveau nucléaire » en toute impunité.

« L’IA affecterait chacun de ces éléments, que nous avons développés et compris pendant la guerre froide comme étant absolument essentiels à une relation de dissuasion nucléaire stable », a-t-il déclaré.

« Pendant la guerre froide, il était largement admis qu’une guerre conventionnelle entre puissances nucléaires n’était pas envisageable. […] L’IA remet en cause ce principe, car elle introduit la possibilité d’un conflit conventionnel entre deux États nucléaires. »

Les Gardiens de la révolution iraniens tirent des missiles d’essai pendant la première phase de manœuvres militaires dans le désert central à l’extérieur de la ville de Qom, le 2 novembre 2006. (-/Fars News/AFP via Getty Images)

« L’IA a un impact considérable sur le champ de bataille, mais elle n’est pas encore déterminante. » Si les capacités de l’IA devaient atteindre « l’effet d’une guerre nucléaire sans utiliser d’armes nucléaires », le monde se retrouverait sur une poudrière. « Si cela est possible, et il est fort probable que ce soit le cas, il s’agit alors d’une situation extrêmement dangereuse et déstabilisante, car elle oblige celui qui reçoit une attaque à agir en premier, non pas pour résister à l’attaque, mais pour attaquer. »

Dans le lexique de la guerre, ce concept est appelé « limitation des dégâts », a-t-il ajouté. « Vous ne voulez pas que le gars soit le premier, parce que vous risquez d’être gravement blessé. C’est donc vous qui passez en premier. Et cela va énormément déstabiliser la politique internationale. »

Les robots tueurs et les drones ne sont pas la seule source d’inquiétude ; diverses armes non conventionnelles à base d’IA pourraient être développées, par exemple pour trouver les failles dans les infrastructures critiques, notamment le réseau électrique ou les systèmes d’approvisionnement en eau.

Contrôler la prolifération de ces technologies est une tâche ardue, étant donné que l’IA elle-même n’est qu’un logiciel. Même les plus grands modèles tiennent sur un disque dur ordinaire et peuvent fonctionner sur une petite ferme de serveurs. Des armes intelligentes simples mais de plus en plus meurtrières, comme les drones tueurs, peuvent être livrées en pièces détachées sans susciter d’inquiétude.

« Les incitations à la prolifération verticale et horizontale sont énormes, et c’est facile à faire », a déclaré M. Thayer. M. De Ridder a souligné que l’État chinois souhaitait être considéré comme un acteur responsable sur la scène internationale. Mais cela n’a pas empêché le PCC de fournir des armes ou d’aider les programmes d’armement d’autres régimes et groupes dont la réputation est problématique, ont fait remarquer d’autres experts.

Par exemple, le PCC pourrait fournir des armes autonomes à des groupes terroristes afin d’accaparer l’armée américaine dans des conflits asymétriques sans fin. Le régime pourrait même garder ses distances en se contentant de fournir les pièces, laissant des mandataires assembler les drones, tout comme les fournisseurs chinois fournissent des précurseurs de fentanyl aux cartels mexicains et les laissent fabriquer, expédier et vendre les drogues aux États-Unis.

Le PCC soutient depuis longtemps les programmes d’armement iraniens, tandis que l’Iran fournit à son tour des armes aux groupes terroristes de la région. « Il y aurait peu de raisons de dissuader l’Iran d’agir de la sorte », a déclaré M. Thayer.

L’humain dans la boucle

Il est généralement admis, du moins en Occident et parmi leurs alliés, que la protection la plus importante contre les ravages causés par les armes intelligentes est le maintien d’un contrôle humain sur les décisions importantes, en particulier dans l’utilisation de la force meurtrière.

Un opérateur militaire lance un drone de reconnaissance polonais lors de vols d’essai dans la région de Kiev, en Ukraine, le 2 août 2022. (Sergei Supinsky/AFP via Getty Images)

« En aucun cas, une machine autonome, indépendante, ne devrait être autorisée à prendre une vie humaine, quelle qu’elle soit », a déclaré M. De Ridder. Ce principe est communément désigné par l’expression : « Mettre l’humain dans la boucle ».

« Un être humain a une conscience et doit se réveiller le matin avec des remords et les conséquences de ce qu’il a fait, afin d’en tirer des leçons et de ne pas répéter des atrocités », a déclaré M. De Ridder.

Certains experts ont toutefois souligné que ce principe était déjà érodé par la nature des combats transformés par les capacités de l’IA.

Lors de la guerre en Ukraine, par exemple, l’armée ukrainienne a dû doter ses drones d’un certain degré d’autonomie pour se diriger vers leurs cibles, car les communications avec les opérateurs humains étaient brouillées par l’armée russe.

Selon Jason Ma, ces drones n’utilisent qu’une IA simplifiée, compte tenu de la puissance limitée de l’ordinateur embarqué sur le drone. Mais cela pourrait bientôt changer, car les modèles d’IA et les ordinateurs deviennent de plus en plus rapides et efficaces.

Apple travaille déjà sur une IA qui pourrait fonctionner sur un téléphone. « Il est très probable qu’elle soit à l’avenir intégrée dans une petite puce », a-t-il déclaré.

En outre, lors d’un conflit majeur où des centaines, voire des milliers de drones sont déployés en même temps, ils peuvent partager la puissance de calcul pour effectuer des tâches autonomes beaucoup plus complexes. « Tout cela est possible », a-t-il continué. « C’est arrivé à un point où ce n’est plus de la science-fiction ; il s’agit simplement de savoir s’il y a un groupe de personnes qui veulent consacrer du temps à travailler sur ce sujet. Il s’agit d’une technologie tangible. »

Supprimer le contrôle humain par nécessité n’est pas un concept nouveau, selon James Fanell, ancien officier de renseignement de la marine et expert de la Chine.

Il a donné l’exemple du système de combat Aegis déployé sur les croiseurs et les destroyers américains équipés de missiles guidés. Ce système détecte et suit automatiquement les cibles aériennes et lance des missiles pour les abattre. Normalement, un opérateur humain contrôle le lancement des missiles, mais il est également possible de passer en mode automatique, par exemple, lorsqu’il y a trop de cibles à suivre pour l’opérateur humain. Le système identifie et détruit alors lui-même les cibles, a expliqué M. Fanell.

Dans les guerres de drones de masse, où une IA dirige des milliers de drones dans une attaque coordonnée, le camp qui donne à son IA l’autonomie de tirer bénéficiera d’un avantage considérable en termes de rapidité par rapport à celui qui exige qu’un humain approuve chaque tir.

« Au niveau des tirs individuels, les gens doivent abandonner le contrôle parce qu’ils ne peuvent pas vraiment prendre toutes les décisions aussi rapidement », a déclaré M. Ma.

De Ridder a souligné qu’il serait moralement acceptable qu’un drone tire sur un autre drone de son propre chef. Mais cela pourrait donner lieu à de nombreux tirs autonomes sur un champ de bataille où il y a peut-être aussi des humains, ce qui ouvrirait la porte à d’innombrables victimes collatérales.

Des drones militaires sud-coréens volent en formation lors d’un exercice militaire conjoint entre les États-Unis et la Corée du Sud sur le terrain d’entraînement au tir de Seungjin à Pocheon, en Corée du Sud, le 25 mai 2023. (Yelim Lee/AFP via Getty Images)

Aucune limite

Quels que soient les garde-fous possibles en matière d’IA, il est peu probable, de toute façon, que le PCC les respecte, ont convenu la plupart des experts. « Je ne vois pas vraiment de limites à ne pas franchir pour la Chine », a déclaré M. Ma. « Tout ce qui est possible, elle le fera. »

« L’idée selon laquelle la Chine se limiterait dans l’utilisation de ces armes n’est pas envisageable », a déclaré M. Fanell. « Elle va essayer d’en tirer parti et de l’exploiter plus rapidement que nous. »

Le principe de « l’humain dans la boucle » pourrait simplement être réinterprété pour s’appliquer à « un niveau de bataille plus grand et plus entier » plutôt qu’au « niveau de tir individuel », a poursuivi M. Ma.

Mais une fois que l’on accepte que l’IA puisse commencer à tirer toute seule dans certaines circonstances, le principe du contrôle humain devient malléable, a déclaré M. Fanell. « Si l’on est prêt à l’accepter d’un point de vue tactique, qui peut dire que l’on ne l’appliquera pas au niveau le plus élevé de la guerre ? » a-t-il dit.

« C’est l’évolution naturelle d’une technologie comme celle-ci, et je ne suis pas sûr que nous puissions l’arrêter. Ce n’est pas comme si vous alliez avoir un code d’éthique qui dise que dans la guerre, [il faut respecter] les règles de boxe du marquis de Queensberry. Cela n’arrivera pas ».

Même si les humains gardent le contrôle des macro-décisions, comme le lancement d’une mission particulière, l’IA peut facilement dominer le processus de prise de décision. Le danger ne viendrait pas d’une IA peu performante, mais plutôt d’une IA qui fonctionnerait si bien qu’elle inspirerait confiance aux opérateurs humains.

M. De Ridder s’est montré sceptique à l’égard des prédictions concernant une IA super-intelligente qui dépasserait largement les capacités humaines. Il a toutefois reconnu que l’IA dépasse l’homme à certains égards, notamment en termes de rapidité : elle peut traiter des montagnes de données et en tirer une conclusion presque immédiatement.

Selon M. Ma et M. Qiu, il est pratiquement impossible de comprendre comment l’IA parvient exactement à ses conclusions.

De Ridder a indiqué qu’il travaillait, avec d’autres, sur des moyens de limiter l’IA à un flux de travail semblable à celui d’un être humain, afin que les différentes étapes de son raisonnement soient plus perceptibles. Mais compte tenu de l’incroyable quantité de données en jeu, il serait impossible pour l’IA d’expliquer comment chaque élément d’information a été pris en compte dans son raisonnement sans submerger l’opérateur, a déclaré M. Ma.

« Si l’opérateur humain sait clairement qu’il s’agit d’une décision [prise] après que l’IA a traité des téraoctets de données, il n’aura pas vraiment le courage de l’annuler dans la plupart des cas. Je pense donc que oui, il s’agira d’une formalité », a-t-il ajouté.

L’expression « l’humain dans la boucle » est un peu confortable, mais en réalité, les humains abandonneront rapidement le contrôle.

Un opérateur militaire travaille à bord de l’avion de patrouille Atlantique 2 de la marine française en mission au-dessus de la mer Baltique, le 16 juin 2022. (Fred Tanneau/AFP via Getty Images)

Pression du public

Tous les experts s’accordent à dire que la pression publique est susceptible de limiter le développement et l’utilisation d’armes à IA.

M. Ma a cité l’exemple de Google qui a mis fin à un contrat de défense en dépit des objections de son personnel. Il n’a toutefois pas pu envisager une situation analogue en Chine. M. Qiu est d’accord avec lui : «Tout ce qui se trouve en Chine est une ressource » a-t-il dit. « Tout ce qui se trouve en Chine est une ressource que le PCC peut exploiter », a-t-il déclaré. On ne peut pas dire ‘Oh, c’est une entreprise privée’. Il n’y a pas d’entreprise privée à proprement parler [en Chine]. »

Même le PCC ne peut pas se débarrasser complètement de l’opinion publique, a aussi fait remarquer M. De Ridder. « Le gouvernement ne peut survivre que si la population souhaite collaborer », a-t-il déclaré.

Mais rien n’indique que la population chinoise considère l’utilisation militaire de l’IA comme une préoccupation urgente. Au contraire, les entreprises et les universités chinoises semblent désireuses d’obtenir des contrats militaires, a déclaré M. Ma.

M. De Ridder a appelé à la mise en place d’un « cadre réglementaire international qui puisse être appliqué ». On ne voit pas très bien comment une telle réglementation pourrait être appliquée à la Chine, qui refuse depuis longtemps toute limitation de son développement militaire. Les États-Unis ont longtemps tenté en vain d’amener la Chine à la table des négociations sur le désarmement nucléaire. Récemment, la Chine a refusé une demande américaine visant à garantir qu’elle n’utiliserait pas l’IA pour prendre des décisions en matière de frappes nucléaires.

Si les États-Unis réglementent leur propre développement de l’IA, ils pourraient créer une vulnérabilité stratégique, ont suggéré plusieurs experts. « Ces réglementations seront très bien étudiées par le PCC et utilisées comme outil d’attaque », a déclaré M. Qiu.

Même si un accord est conclu, le PCC n’a pas l’habitude de tenir ses promesses, selon M. Thayer. « Tout accord est une croûte de tarte faite pour être brisée », a-t-il déclaré.

Des délégués militaires chinois arrivent à la session de clôture du 14e Congrès national du peuple au Grand Hall du peuple à Pékin, le 11 mars 2024. (Wang Zhao/AFP via Getty Images)

Les solutions

M. De Ridder espère que les nations se contenteront peut-être d’utiliser l’IA de manière moins destructrice. « Il existe de nombreuses façons d’utiliser l’IA pour atteindre ses objectifs sans pour autant envoyer une nuée de drones tueurs les uns contre les autres », a-t-il déclaré. « Personne ne souhaite que de tels conflits se produisent. »

D’autres experts ont déclaré que le PCC ne verrait pas d’inconvénient à déclencher un tel conflit, tant qu’il verrait un chemin dégagé vers la victoire. « Les Chinois ne seront pas limités par nos règles », a averti M. Fanell. « Ils feront tout ce qu’il faut pour gagner. »

Se fier aux chuchotements d’un conseiller militaire généré par IA, qui inspire confiance en traitant des montagnes de données et en produisant des plans de bataille convaincants, pourrait être particulièrement dangereux, car cela pourrait créer une vision de la victoire, là où il n’y en avait pas auparavant, selon M. Thayer.

« On peut comprendre que cela puisse être très attrayant pour un décideur, surtout s’il est hyper-agressif, comme l’est le PCC », a déclaré M. Thayer. « Cela peut rendre l’agression plus probable. »

« Il n’y a qu’une seule façon de l’arrêter, c’est d’être capable de la vaincre », a déclaré M. Fanell.

Chuck de Caro, ancien consultant de l’Office of Net Assessment du Pentagone, a récemment appelé les États-Unis à développer des armes électromagnétiques capables de désactiver les puces électroniques. Il pourrait même être possible de développer des armes énergétiques capables de désactiver un type particulier de puces, a-t-il écrit dans un article d’opinion pour Blaze Media.

« Il est évident que si les puces ne fonctionnent pas, l’intelligence artificielle ne fonctionne pas », a-t-il écrit.

Une puce d’intelligence artificielle fabriquée par Tongfu Microelectronics est présentée lors du Congrès mondial des semi-conducteurs à Nanjing, en Chine, le 19 juillet 2023. (STR/AFP via Getty Images)

Une autre option consisterait à développer une super-arme d’IA qui pourrait servir de moyen de dissuasion.

« Les États-Unis sont-ils en train de réaliser un projet Manhattan sur l’IA qui pourrait créer l’effet que Nagasaki et Hiroshima auraient sur la RPC et le Parti communiste chinois, et qui les amènerait à réaliser que ‘OK, peut-être que nous ne voulons pas aller là-bas. Il s’agit d’une destruction mutuelle assurée’ ? Je n’en sais rien. Mais c’est ce que je ferais », a déclaré M. Fanell.

Le monde pourrait alors se retrouver dans une situation d’impasse semblable à celle de la guerre froide, ce qui n’est guère idéal, mais qui est probablement considéré comme préférable à l’abandon de l’avantage militaire au profit du PCC.

« Tous les pays savent que c’est dangereux, mais personne ne peut s’arrêter parce qu’ils ont peur d’être laissés pour compte », a déclaré M. Ma.

M. De Ridder a déclaré qu’il faudrait peut-être un choc profond pour mettre un terme à la course à l’armement de l’IA. « Nous pourrions avoir besoin d’une guerre mondiale, avec une immense tragédie humaine, pour interdire l’utilisation de machines autonomes tueuses pilotées par l’IA », a-t-il conclu.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.

Voir sur epochtimes.fr
PARTAGER