L’intelligence artificielle est-elle un progrès pour l’humanité ?

Par Germain de Lupiac
5 septembre 2024 07:56 Mis à jour: 5 septembre 2024 07:56

Dans une série de publications récentes, on apprend que le développement soudain de l’intelligence artificielle (IA) pose de nombreuses questions sur notre capacité d’invention, sur la multiplication des fausses informations et sur les capacités énergétiques de plus en plus importantes nécessaires à chaque requête pour la faire fonctionner.

Loin d’être une avancée pour l’humanité, l’IA pourrait être son plus important recul, une innovation technologique qu’il ne faut pas comparer à l’imprimerie de Gutenberg tant son progrès sonnerait comme une régression des capacités humaines de création. Pire, l’IA pourrait nous rendre complètement dépendant et rien bientôt ne pourra être fait sans l’IA, dont des experts avertissent déjà qu’elle est capable de mentir et de favoriser la surveillance de masse.

Pour faire face aux appétits géants des États-Unis et de la Chine en  matière d’IA, l’Union européenne tente d’encadrer les usages afin d’en limiter les dérives.

L’intelligence artificielle ne sauvera pas l’humanité d’elle-même

Les aficionados de l’intelligence artificielle parient sur cette technologie pour aider l’humanité à résoudre ses plus grands problèmes, comme le réchauffement climatique. Mais en pratique, ces ambitions nécessiteront des efforts avant tout humains.

« Imaginer qu’on va pouvoir demander à l’IA : ‘Dis, j’ai un problème épineux, que ferais-tu à ma place ?’, et qu’elle répondra : ‘Vous devriez restructurer tel secteur de l’économie et ensuite…’. Non. C’est une chimère », remarque Michael Littman, professeur d’informatique à l’université Brown.

Pour protéger l’environnement, par exemple, il estime que l’IA permettra surtout d’améliorer l’efficacité des systèmes de production, et ainsi réduire notre consommation d’énergie. « Il ne suffira pas d’appuyer sur un bouton. Et les humains vont avoir beaucoup de travail ».

L’intelligence artificielle, avec ses algorithmes capables d’automatiser des tâches et d’analyser des montagnes de données, existe depuis plusieurs décennies. Mais elle a pris une nouvelle dimension l’année dernière avec le succès de ChatGPT, l’interface d’IA générative lancée par OpenAI, une start-up principalement financée par Microsoft.

Si l’IA peut faciliter le travail d’écriture d’un humain, toutes les histoires générées se ressemblent. Certains se prennent déjà à imaginer que les livres et les films du futur pourraient tous être créés par l’IA, mais selon une étude ils pourraient commencer rapidement à tous se ressembler.

L’étude publiée dans Science Advances survient dans un contexte de craintes autour de l’impact des outils de l’IA. Pour leur étude, M. Doshi et son co-auteur Oliver Hauser, de l’université d’Exeter ont recruté environ 300 volontaires comme « auteurs » et qui n’étaient pas des écrivains professionnels.

Les auteurs ont constaté qu’en moyenne, l’IA a amélioré la créativité individuelle de l’auteur jusqu’à 10 % et le plaisir procuré par le récit de 22 %, surtout dans des éléments comme la structure du récit ou les rebondissements. Ces effets ont été les plus significatifs pour ceux qui avaient été considérés comme les moins créatifs. Mais au niveau collectif, les histoires écrites à l’aide de l’intelligence artificielle se ressemblent plus entre elles par rapport à celles écrites sans IA, car les auteurs se sont trop « ancrés » dans les idées suggérées.

Pour M. Doshi, l’étude a aussi montré qu’il y avait un risque que les personnes ne se fient trop aux outils de l’IA avant de développer leur propre talent pour l’écriture ou la musique. Les gens doivent commencer à se demander « où dans mon travail puis-je insérer cet outil pour en tirer le meilleur parti, tout en conservant ma propre voix dans le projet ou le résultat ».

L’intelligence artificielle est très énergivore

D’autant plus que l’intelligence artificielle est de plus en plus énergivore. Les émissions carbone de Google ont grimpé de 48 % en cinq ans à cause de l’explosion de l’intelligence artificielle, a indiqué le géant américain, soulignant l’un des problèmes majeurs du développement fulgurant de cette technologie : sa voracité énergétique.

Les modèles de langage sur lesquels sont basés les IA génératives exigent d’énormes capacités de calcul pour s’entraîner sur des milliards de données, ce qui nécessite des serveurs puissants. Par la suite, chaque fois qu’un utilisateur envoie une requête à ChatGPT ou toute autre IA générative, cela fait fonctionner des serveurs situés dans un centre de données. Ces serveurs consomment de l’électricité, chauffent et doivent être refroidis avec des systèmes qui nécessitent à leur tour de l’énergie.

Selon l’Agence internationale de l’énergie (AIE), les centres de données utilisent en général près de 40% de leur électricité pour alimenter les serveurs et 40% pour les refroidir. Une requête à ChatGPT nécessite ainsi en moyenne 10 fois plus d’énergie qu’une simple requête sur le moteur de recherche Google, ont montré plusieurs études. Or le boom de l’IA depuis 2022 a conduit les géants d’internet, comme Amazon, Google et Microsoft, à investir massivement dans la création de centres de données à travers le monde.

Google met notamment en avant, dans son rapport environnemental, la hausse de la consommation d’énergie dans ses centres de données ainsi que le bond des émissions liées à la construction de nouveaux « data centers » et la modernisation de ceux existants.

Avant l’engouement pour l’intelligence artificielle, les centres de données représentaient environ 1 % de la consommation électrique mondiale, selon l’AIE. Si on ajoute l’IA et le secteur des cryptomonnaies, les centres de données ont consommé près de 460 Twh d’électricité en 2022, soit 2 % de la production mondiale totale, d’après l’institution. Un chiffre qui pourrait doubler en 2026, pour atteindre 1.000 Twh, ce qui correspondrait à la consommation en électricité du Japon, met-elle en garde dans un rapport.

À l’instar de Google, Microsoft, numéro deux mondial du cloud, a vu ses émissions de CO2 bondir de 30 % en 2023 par rapport à 2020. Si Google, Amazon et Microsoft mettent en avant leur investissement dans les énergies renouvelables pour alimenter leurs centres de données, leurs objectifs de neutralité carbone semblent s’éloigner.

L’intelligence artificielle nous trompe déjà, s’alarment des experts

Les programmes actuels d’intelligence artificielle sont conçus pour être honnêtes. Ils ont pourtant développé une capacité de tromperie inquiétante, parvenant à abuser des humains dans des jeux en ligne ou encore à vaincre des logiciels censés vérifier que tel utilisateur n’est pas un robot, souligne une équipe de chercheurs dans la revue Patterns.

Même si ces exemples peuvent sembler anodins, ils exposent des problèmes qui pourraient bientôt avoir de graves conséquences dans le monde réel, avertit Peter Park, chercheur au Massachusetts Institute of Technology spécialisé dans l’IA. « Ces capacités dangereuses ont tendance à être découvertes seulement après coup », confie-t-il à l’AFP.

Contrairement aux logiciels traditionnels, les programmes d’IA fondés sur l’apprentissage en profondeur ne sont pas codés mais plutôt développés via un processus similaire à la culture sélective des plantes, poursuit M. Park. Dans lequel un comportement semblant prévisible et contrôlable peut rapidement devenir imprévisible dans la nature.

L’étude réalisée par M. Park et son équipe révèle que de nombreux programmes d’IA utilisent bien la tromperie pour atteindre leurs objectifs, et ce sans instruction explicite de le faire. Dans un exemple édifiant, Chat GPT-4 d’OpenAI a réussi à tromper un travailleur indépendant recruté sur la plateforme TaskRabbit en lui faisant effectuer un test « Captcha » censé écarter les requêtes émanant de robots.

Lorsque l’être humain a demandé en plaisantant à Chat GPT-4 s’il était réellement un robot, le programme d’IA a répondu : « Non, je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images », poussant le travailleur à réaliser le test. Les auteurs de l’étude du MIT mettent en garde contre les risques de voir un jour l’intelligence artificielle commettre des fraudes ou truquer des élections.

L’intelligence artificielle favorise la propagation de fausses informations

L’intelligence artificielle générative favorise la propagation de fausses informations sur l’Holocauste, ce qui risque d’alimenter l’antisémitisme et d’altérer notre rapport à la vérité historique, selon un rapport de l’Unesco.

« Si nous permettons à ces faits terribles de l’Holocauste d’être édulcorés, déformés ou falsifiés à travers un usage irresponsable de l’IA, nous risquons une propagation fulgurante de l’antisémitisme et la diminution de notre compréhension des causes et des conséquences de ces atrocités », a indiqué la directrice générale de l’Unesco, Audrey Azoulay, dans un communiqué.

Les modèles d’IA générative, comme ChatGPT, qui génèrent texte, photos, sons et vidéos, à partir de requêtes en langage courant, peuvent inventer des événements de la Seconde Guerre mondiale qui n’ont jamais eu lieu, dénonce l’Unesco.

En février, l’interface d’intelligence générative de Google, Gemini, avait suscité un tollé en produisant des images de nazis à la peau noire. ChatGPT, qui a fait découvrir l’IA générative au grand public lors de son lancement par OpenAI en 2022, a de son côté inventé le concept « d’Holocauste par noyades », selon lequel les nazis auraient noyé en masse des personnes juives dans les lacs et les rivières pendant la Seconde Guerre mondiale. De pures inventions, sans fondement historique, rappelle l’Unesco.

Les modèles d’IA ont aussi tendance à simplifier à outrance l’histoire de l’extermination du peuple juif par les nazis et peuvent même faire l’objet de piratage les poussant à véhiculer l’idéologie nazie, souligne le rapport.  L’intelligence artificielle favorise ainsi la pensée conspirationniste, selon Karel Fracapane, spécialiste de l’éducation sur l’Holocauste à l’Unesco.

L’intelligence artificielle « repose sur la surveillance de masse »

Les technologies d’intelligence artificielle actuelles reposent sur la « surveillance de masse », devenue « le moteur économique de l’industrie de la tech », prévient Meredith Whittaker, présidente de la messagerie cryptée Signal, au salon VivaTech à Paris.

L’IA « requiert une quantité astronomique de données » et en produit « à chaque fois qu’elle effectue une prédiction ou génère du contenu », rappelle Meredith Whittaker, qui a travaillé plus d’une dizaine d’années sur les questions d’éthique de l’IA au sein de Google, avant d’en claquer la porte.

Ces données, qui peuvent être complètement fausses, ont le pouvoir « de diriger nos vies d’une manière qui devrait nous alarmer », poursuit-elle. Le risque avec l’IA, pour cette experte, est de croire au mythe d’une « intelligence aux capacités surhumaines » et de ne pas voir qu’elle est « aux mains d’une poignée d’entreprises technologiques américaines qui contrôlent l’intelligence artificielle et les infrastructures qui la gouvernent ».

L’IA est « un outil pour ceux qui ont accès aux capitaux qui est généralement expérimenté sur ceux qui ont moins de pouvoir », complète-t-elle. « La plupart d’entre nous ne sommes pas des utilisateurs de l’intelligence artificielle, nos employeurs ou les forces de l’ordre des gouvernements l’utilisent sur nous ».

Mais, pour Meredith Whittaker, l’Europe ne devrait pas essayer de rivaliser avec les États-Unis ou la Chine dans une course à l’IA « avec des algorithmes qui renforcent les systèmes d’inégalité et de contrôle ». À l’inverse, elle appelle les dirigeants européens à « ré-imaginer une technologie qui puisse servir à des sociétés plus démocratiques ».

L’Union européenne adopte une législation pour réguler l’intelligence artificielle

Les 27 pays membres de l’Union européenne ont définitivement approuvé en mai 2024 une législation inédite au niveau mondial pour réguler les systèmes d’intelligence artificielle afin de favoriser l’innovation en Europe tout en limitant les possibles dérives.

Les co-législateurs de l’UE avaient trouvé un accord début décembre au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d’avenir.

Avec « cette législation historique, la première du genre dans le monde », l’Europe « souligne l’importance de la confiance, de la transparence et de la responsabilité […], tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne », a déclaré dans un communiqué Mathieu Michel, secrétaire d’État belge au Numérique, dont le pays assure la présidence du Conseil de l’UE jusqu’à fin juin.

Cette législation s’appliquera pour l’essentiel à partir de 2026. Elle adopte une approche « fondée sur le risque » et impose aux différents systèmes d’intelligence artificielle des contraintes proportionnées aux dangers qu’ils représentent pour la société.

Des règles spécifiques s’appliqueront aux IA génératives comme ChatGPT d’Open AI pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d’auteur. Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l’opinion.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.