Le robot ChatGPT « n’est qu’un perroquet approximatif », a estimé lundi le ministre délégué au Numérique Jean-Noël Barrot, en annonçant viser « la formation de 400.000 experts du numérique d’ici 2030 » pour que la France « ne passe pas à côté de cette nouvelle vague » de l’intelligence artificielle.
Les entreprises du numérique doivent pouvoir « recruter dans les meilleures conditions », a ajouté le ministre sur FranceInfo, alors qu’Emmanuel Macron reçoit lundi après-midi à l’Élysée les dirigeants du secteur de la French Tech.
Interrogé sur les IA conversationnelles qui électrisent le secteur depuis deux mois, il a jugé qu’« à ce stade ChatGPT n’est qu’un perroquet approximatif qui restitue parfois un peu maladroitement les sommes astronomiques d’informations qu’il a compilées sur Internet. Demandez lui qui a gagné la dernière Coupe du monde de football et vous ne serez pas déçus, parce qu’il vous répondra la France », a-t-il ironisé.
Intelligence artificielle : nous investissons massivement pour en garder la maîtrise plutôt que de la subir. Nous créons un cadre européen de confiance pour accélérer son développement. @franceinfo pic.twitter.com/GfUFiKcO5Y
— Jean-Noël Barrot (@jnbarrot) February 20, 2023
ChatGPT a été entraîné sur des données s’arrêtant en 2021 et ne peut donc en effet fournir d’informations récentes.
« Des risques de discrimination, de manipulation et de déshumanisation »
Interrogé sur les éventuels risques de cet outil, il a souligné que « l’IA sauve des vies », par exemple avec des diagnostics médicaux plus précoces, mais présente « des risques de discrimination, de manipulation et de déshumanisation » et que « donc il nous faut agir ».
Pour maîtriser ces technologies, la France porte au niveau de l’UE le futur règlement sur l’IA concernant la responsabilité des concepteurs, qui devront signaler toute dérive vers une discrimination, a-t-il rappelé.
Un cas d’étude sur ce que peut faire ou ne pas faire une IA
Il a aussi souhaité que les établissements scolaires, plutôt que de l’interdire, puissent utiliser ChatGPT « comme un démonstrateur de ce que peut faire une IA et de ce qu’elle ne peut pas faire ».
Mais « OpenAI (le concepteur de ChatGPT) aurait mieux fait d’attendre d’avoir des filtres » permettant de déceler l’utilisation de son logiciel « avant de le publier », a-t-il regretté.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.