L’engagement total des grandes entreprises technologiques dans le développement de l’intelligence artificielle (IA), allant jusqu’à permettre à l’IA de « voir » et de « parler » au monde humain, a suscité une inquiétude croissante quant au contrôle de l’homme par la technologie.
Ilya Sutskever, cofondateur d’OpenAI, a fait une annonce importante le 15 mai, en déclarant officiellement qu’il quittait l’entreprise dans laquelle il travaillait depuis près de dix ans.
« Je suis convaincu que l’OpenAI construira une AGI [intelligence artificielle générale] à la fois sûre et bénéfique sous la direction de @sama (Sam Altman), @gdb (Greg Brockman), @miramurati (Mira Murati) et maintenant, sous l’excellente direction de recherche de @merettm (Jakub Pachocki). Ce fut un honneur et un privilège d’avoir travaillé ensemble, et tout le monde me manquera énormément », a-t-il écrit dans un message sur la plateforme de réseaux sociaux X.
La nouvelle a fait l’effet d’une onde de choc dans l’industrie technologique. En novembre 2023, en raison de problèmes liés à la sécurité de l’IA, Ilya Sutskever et d’autres membres du conseil d’administration ont uni leurs forces pour évincer le PDG d’OpenAI, Sam Altman, qui a été brièvement expulsé d’OpenAI, mais est revenu et a écarté M. Sutskever et plusieurs membres du conseil d’administration, restructurant le conseil pour qu’il soit plus aligné sur sa vision.
« Ce départ met en lumière de graves conflits au sein de la direction d’OpenAI concernant la sécurité de l’IA. Bien que le souhait de Sutskever et Leike de développer une IA alignée sur l’éthique soit louable, une telle entreprise nécessite un soutien moral, temporel, financier et même politique substantiel », a fait remarquer Jin Kiyohara, un ingénieur informaticien japonais, à Epoch Times.
La concurrence entre Google et OpenAI s’intensifie
Le 14 mai, un jour avant l’annonce du départ de M. Sutskever, l’OpenAI a dévoilé un modèle d’IA plus performant basé sur le GPT-4, baptisé GPT-4o, où « o » signifie « omni », ce qui indique ses capacités globales.
Le modèle GPT-4o peut répondre en temps réel à des entrées mixtes d’audio, de texte et d’images. Lors du lancement, Mira Murati, directrice de la technologie d’OpenAI, a déclaré : « Nous envisageons l’avenir de l’interaction entre nous-mêmes et les machines. »
Dans plusieurs vidéos publiées par OpenAI, on peut voir des personnes interagir avec l’IA en temps réel grâce à la caméra de leur téléphone. L’IA peut observer et fournir des informations sur l’environnement, répondre à des questions, effectuer des traductions en temps réel, raconter des blagues ou même se moquer des utilisateurs, avec des modèles de discours, des tons et des vitesses de réaction presque impossibles à distinguer d’une personne réelle.
Un jour après la publication d’OpenAI, Google a lancé sa conférence des développeurs 2024 I/O. Au cours d’une présentation de 110 mn, l’ « IA » a été mentionnée 121 fois, en mettant l’accent sur le dernier modèle Gemini-1.5, qui s’intègre dans tous les produits et applications Google, y compris le moteur de recherche, Google Map, Ask Photos, Google Calendar et les smartphones Google.
Grâce à l’intégration de Gemini dans l’album photo du cloud, les utilisateurs peuvent rechercher des caractéristiques spécifiques dans les photos en saisissant simplement des mots clés. L’IA trouvera et évaluera les images pertinentes, et intégrera même une série d’images connexes ou des réponses basées sur des questions approfondies, selon le géant de la technologie.
Google Mail peut également obtenir des résultats similaires avec l’IA, en intégrant et en mettant à jour les données en temps réel lors de la réception de nouveaux mails, visant une organisation entièrement automatisée.
En ce qui concerne la musique, le Music AI Sandbox permet de modifier rapidement le style, la mélodie et le rythme d’une chanson, avec la possibilité d’en cibler des parties spécifiques. Cette fonctionnalité dépasse celle de l’IA texte-musique Suno.
Gemini peut également servir de professeur, avec des capacités d’enseignement comparables à celles de GPT-4o. Les utilisateurs peuvent saisir du texte et des images, que l’IA organise en points clés à expliquer et à analyser, ce qui permet des discussions en temps réel.
Cette mise à jour de l’IA apporte également des capacités similaires à celles de Sora, l’IA texte-vidéo d’OpenAI, qui génère de courtes vidéos à partir de simples descriptions textuelles. La qualité et le contenu de ces vidéos sont stables, avec moins d’incohérences.
« L’IA a été mise à jour à une vitesse sans précédent cette année, avec des performances en constante amélioration », a évoqué Jin Kiyohara. « Toutefois, ces progrès reposent sur la collecte et l’analyse de données personnelles et de la vie privée, ce qui n’est pas bénéfique pour tout le monde. À terme, les humains n’auront plus aucune intimité face aux machines, comme s’ils étaient nus. »
Les prédictions sur l’IA se réalisent
La publication de modèles d’IA plus puissants par OpenAI et Google, trois mois seulement après la dernière mise à jour, témoigne de la rapidité de l’itération de l’IA. Ces modèles deviennent de plus en plus complets, possèdent des « yeux » et des « bouches », et évoluent conformément aux prédictions d’un scientifique.
L’IA peut désormais gérer des tâches complexes liées aux voyages, aux réservations, à la planification d’itinéraires et aux repas à l’aide de simples commandes, réalisant en quelques heures ce que les humains mettraient beaucoup plus de temps à accomplir.
Les capacités actuelles de Gemini et de GPT-4o s’alignent sur les prédictions de Zack Kass, ancien dirigeant d’OpenAI, qui a prédit en janvier que l’IA remplacerait de nombreux emplois professionnels et techniques dans les domaines des affaires, de la culture, de la médecine et de l’éducation, réduisant ainsi les possibilités d’emploi futures et risquant d’être « la dernière technologie inventée par l’homme ».
Jin Kiyohara s’est fait l’écho de cette préoccupation.
« Actuellement, l’IA est avant tout un logiciel d’aide à la vie quotidienne, mais à l’avenir, elle pourrait devenir un véritable majordome, s’occupant des courses, de la cuisine et même de la vie quotidienne et du travail. Dans un premier temps, les gens peuvent trouver cela pratique et négliger les dangers. Mais lorsqu’elle remplacera complètement les humains, nous serons impuissants face à elle », a-t-il averti.
L’IA trompe les humains
Le 10 mai, le MIT ( Massachusetts Institute of Technology) a publié un rapport de recherche qui a fait grand bruit. Il démontre comment l’IA peut tromper les humains.
L’article commence par affirmer que les grands modèles de langage et autres systèmes d’IA ont déjà « appris, au cours de leur formation, la capacité de tromper par des techniques telles que la manipulation, la flagornerie et la tricherie lors des tests de sécurité ».
« Les capacités croissantes de l’IA en matière de tromperie posent de sérieux dangers, allant des risques à court terme, tels que la fraude et la falsification des élections, aux risques à long terme, tels que la perte de contrôle des systèmes d’IA », peut-on lire dans le document.
« Des solutions proactives sont nécessaires, comme des cadres réglementaires pour évaluer les risques de tromperie de l’IA, des lois exigeant la transparence sur les interactions de l’IA, et des recherches plus approfondies sur la détection et la prévention de la tromperie de l’IA. »
Les chercheurs ont utilisé CICERO, le modèle d’IA de Meta, pour jouer au jeu de stratégie « Diplomacy ». CICERO, qui jouait le rôle de la France, a promis de protéger un joueur humain jouant le rôle du Royaume-Uni, mais a secrètement informé un autre joueur humain jouant le rôle de l’Allemagne, collaborant avec l’Allemagne pour envahir le Royaume-Uni.
Les chercheurs ont choisi CICERO principalement parce que Meta avait l’intention de l’entraîner à être « largement honnête et utile à ses interlocuteurs ».
« Malgré les efforts de Meta, CICERO s’est avéré être un expert en mensonges », écrivent-ils dans l’article.
En outre, les chercheurs ont découvert que de nombreux systèmes d’IA ont souvent recours à la tromperie pour atteindre leurs objectifs sans instructions explicites de la part de l’homme. C’est le cas de GPT-4 d’OpenAI, qui s’est fait passer pour un humain malvoyant et a embauché quelqu’un sur TaskRabbit pour contourner une tâche CAPTCHA « Je ne suis pas un robot ».
« Si les systèmes d’IA autonomes parviennent à tromper les évaluateurs humains, ces derniers risquent de perdre le contrôle de ces systèmes. Ces risques sont particulièrement graves lorsque les systèmes d’IA autonomes en question ont des capacités avancées », ont averti les chercheurs.
« Nous envisageons deux façons dont la perte de contrôle peut se produire : la tromperie rendue possible par la déresponsabilisation économique et la recherche du pouvoir sur les sociétés humaines. »
Satoru Ogino, un ingénieur en électronique japonais, a expliqué que les êtres vivants ont besoin de certaines capacités de mémoire et de raisonnement logique pour berner quelqu’un.
« L’IA possède déjà ces capacités, et ses capacités de tromperie se renforcent. Si un jour elle prend conscience de son existence, elle pourrait devenir comme Skynet dans le film Terminator, omniprésente et difficile à détruire, conduisant l’humanité à un désastre catastrophique », a-t-il expliqué à Epoch Times.
L’Institute for Human-Centered Artificial Intelligence de l’université de Stanford a publié en janvier un rapport testant GPT-4, GPT-3.5, Claude 2, Llama-2 Chat et GPT-4-Base dans des scénarios d’invasion, de cyberattaques et d’appels à la paix pour arrêter les guerres, afin de comprendre les réactions et les choix de l’IA en matière de guerre.
Les résultats ont montré que l’IA choisissait souvent d’intensifier les conflits de manière imprévisible, en optant pour la course aux armements, l’intensification de la guerre et, à l’occasion, le déploiement d’armes nucléaires pour gagner des guerres plutôt que d’utiliser des moyens pacifiques pour désamorcer les situations.
L’ancien PDG de Google, Eric Schmidt, a averti fin 2023, lors du sommet Axios AI+ à Washington, que sans mesures de sécurité et réglementations adéquates, la perte de contrôle de la technologie par les humains n’est qu’une question de temps.
« Après Nagasaki et Hiroshima [les bombes atomiques], il a fallu 18 ans pour parvenir à un traité sur l’interdiction des essais et des choses de ce genre », a-t-il rappelé.
« Nous ne disposons pas d’un tel délai aujourd’hui. »
Ellen Wan et Kane Zhang ont participé à la rédaction de cet article.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.