Selon une nouvelle étude publiée le 17 septembre par Deloitte Consulting, les deepfakes, ou médias numériques créés par l’intelligence artificielle générative (IA), empêchent de plus en plus les dirigeants des entreprises de dormir.
Les réponses au sondage montrent que plus de la moitié des cadres dirigeants (51,6 %) s’attendent à une augmentation des attaques deepfake contre leurs entreprises, portant sur les données financières et comptables, au cours de l’année à venir.
Le fait d’admettre qu’une augmentation des attaques est imminente laisse également présager que bon nombre de ces cadres en ont déjà été victimes. L’enquête a également révélé que 15,1 % des cadres interrogés avaient été victimes d’au moins un incident de fraude financière par imitation au cours de l’année écoulée.
Avec les progrès de la technologie de l’IA, les escrocs utilisent désormais une combinaison de courriers électroniques, d’audio et de vidéo, ainsi que des dispositifs deepfake pour voler de l’argent aux entreprises et aux institutions financières.
V.S. Subrahmanian, professeur d’informatique à l’université Northwestern, étudie les deepfakes depuis des années et a donné à Epoch Times ce qu’il considère comme un exemple courant d’arnaque.
« Supposons qu’une banque reçoive un courriel d’une personne censée être Joe Schmoe, que vous l’appeliez, qu’il ait les bons identifiants, qu’il vous ressemble et qu’il veuille virer de l’argent. Vous le croirez parce qu’il a toutes les références nécessaires », a-t-il expliqué.
« La banque finit par exécuter le virement bancaire en faveur [de l’escroc qui utilise la] fausse voix, puis le compte est débité de quelqu’un qui n’a aucun moyen de récupérer l’argent. »
Dans le rapport d’enquête de Deloitte, Mike Weil, directeur général et responsable de la criminalistique numérique chez Deloitte, met en garde contre l’augmentation de la fréquence des escroqueries.
« La fraude financière deepfake est en hausse, les individus mal intentionnés exploitant de plus en plus des informations synthétiques illicites comme des factures falsifiées et des interactions avec le service client pour accéder à des données financières sensibles et manipulent même les modèles d’IA des organisations pour faire des ravages dans les rapports financiers », a-t-il souligné.
« La bonne nouvelle, c’est que l’inquiétude concernant de futurs incidents semble culminer après la première attaque, les événements ultérieurs tempérant les inquiétudes à mesure que les organisations acquièrent plus d’expérience et deviennent plus aptes à détecter, gérer et prévenir les stratagèmes deepfake des fraudeurs. »
Dans un rapport supplémentaire publié plus tôt cette année, Deloitte a déclaré que l’IA générative pourrait potentiellement conduire à des pertes dues à la fraude pouvant atteindre 40 milliards de dollars aux États-Unis d’ici 2027.
La société Medius, spécialisée dans les logiciels d’automatisation des comptes fournisseurs, a également interrogé plus de 1500 professionnels de la finance aux États-Unis et au Royaume-Uni au cours du deuxième trimestre et a constaté que plus de la moitié d’entre eux (53 %) ont reconnu avoir été la cible d’escroqueries financières utilisant la technologie Deepfake, et 43 % ont admis avoir été victimes de ces escroqueries.
Instaurer des protocoles et du bon sens
Kevin Libby a travaillé en tant qu’analyste de la fraude pour plusieurs organisations et travaille actuellement chez Javelin Strategy & Research, où il fait partie de l’équipe chargée de la fraude et de la cybersécurité. Selon lui, les cybercriminels utilisent principalement l’IA pour contourner les protocoles de sécurité et d’authentification de l’identité, voler de l’argent, organiser des escroqueries et nuire à la réputation des entreprises et des parties prenantes.
M. Libby a confié à Epoch Times que l’utilisation de protocoles institutionnels est l’un des moyens les plus rapides et les plus efficaces pour lutter contre les menaces où les deepfakes vocaux de l’IA sont utilisés.
« Ce que j’espère, c’est que les entreprises élaboreront des protocoles rigoureux. Parmi les cas dont j’ai entendu parler, il y a des exemples où le patron appelle et dit envoyez-moi de l’argent et, sans remettre en question la demande, l’argent est envoyé », a-t-il expliqué.
« Si quelqu’un demande de l’argent, il s’agit d’authentifier la personne et de mettre en place un protocole qui stipule que je ne peux pas le faire sans que ces éléments soient d’abord mis en place. »
Plusieurs outils sont actuellement développés pour détecter les imitations sonores, notamment un outil de l’université de Buffalo baptisé Deepfake-O-Meter.
Selon l’université, l’outil vise à améliorer l’accès du public à l’identification des deepfakes, en permettant aux utilisateurs de détecter les vidéos ou les images manipulées.
Cependant, alors que les entreprises consacrent davantage de ressources à la mise à niveau de leurs capacités de détection audio par l’intermédiaire de leurs services de sécurité et d’informatique, M. Subrahmanian a souligné qu’elles ne pouvaient pas compter uniquement sur les détecteurs de deepfake pour assurer leur sécurité. Selon lui, il existe des moyens gratuits et sensés d’éliminer les escrocs potentiels qui utilisent les deepfakes audio.
Un moyen simple consiste à dire : « Nous vous rappellerons et nous traiterons cette demande aujourd’hui dans les prochaines heures. Ils peuvent alors appeler la personne qui fait une demande financière sur son téléphone fixe ou portable et vérifier qu’il s’agit bien de la personne qu’elle prétend être », a-t-il ajouté.
« Le bon sens est une qualité très sous-estimée. Nous avons besoin d’une combinaison de sécurité et de technologie associée à des approches fondées sur le bon sens. »
Si le bon sens et la formation interne restent peu coûteux, M. Libby estime que l’investissement dans la sécurité et l’informatique est un élément nécessaire à la collaboration des entreprises, et que cet investissement sera coûteux et présentera peu de garanties, compte tenu de l’évolution rapide des technologies de deepfake.
« Il faut que les principales parties prenantes adhèrent au projet et comprennent qu’il s’agit d’une menace réelle, afin qu’elles tiennent compte du fait qu’il y a un retour sur investissement », a-t-il poursuivi.
« Une partie du problème tient au fait qu’il ne suffit pas de construire un système. Il faut le mettre à jour en permanence. Et même dans ce cas, rien ne garantit qu’il sera encore efficace demain. »
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.