Alors que les enfants passent de plus en plus de temps sur Internet et que nombre d’entre eux publient des photos sur leurs comptes de médias sociaux, les prédateurs sexuels ne cessent de voler ces images pour produire du matériel pédopornographique (CSAM : Child Sexual Abuse Material).
L’accès facile à l’intelligence artificielle (IA) ne fait qu’aggraver la prolifération des contenus pédopornographiques. Les forces de l’ordre et les organismes de protection de l’enfance constatent une augmentation spectaculaire des contenus pédopornographiques générés par l’IA.
Yaron Litwin est expert en sécurité numérique et directeur du marketing chez Netspark, la société à l’origine d’un programme appelé CaseScan qui identifie en ligne les messages publicitaires non sollicités générés par l’intelligence artificielle, aidant ainsi les services de police à mener leurs enquêtes.
M. Litwin a expliqué à Epoch Times qu’il conseillait aux parents et aux adolescents de ne pas publier de photos sur un quelconque forum public et de parler à leurs enfants des dangers potentiels que représente la divulgation d’informations personnelles en ligne.
« L’une de nos recommandations est d’être un peu plus prudent avec les images publiées en ligne et d’essayer de les garder sur des réseaux fermés, où seules les personnes que vous connaissez peuvent y accéder, » a souligné M. Litwin.
L’Académie américaine de psychiatrie de l’enfant et de l’adolescent a révélé en 2020 qu’en moyenne, les enfants âgés de 8 à 12 ans passaient quatre à six heures par jour à regarder ou à utiliser des écrans, et que les adolescents consacraient jusqu’à neuf heures par jour sur leurs appareils.
Parents Together, une organisation non gouvernementale qui fournit des informations sur les questions touchant les familles, a publié un rapport en 2023 (pdf) qui indique que « malgré les risques graves et croissants d’exploitation sexuelle en ligne, 97% des enfants utilisent les médias sociaux et Internet tous les jours, et 1 sur 5 les utilise ‘presque constamment' ».
L’un des outils de sécurité de Netspark est Canopy, un outil piloté par l’intelligence artificielle qui permet aux parents de filtrer les contenus numériques à caractère sexuel nuisibles pour leurs enfants mineurs, a expliqué M. Litwin, tout en laissant aux enfants la liberté de naviguer sur Internet.
Expansion de l’exploitation des contenus
La quantité de contenus pédopornographiques en ligne a augmenté de manière exponentielle depuis que l’IA générative s’est répandue au début de l’année 2023, a indiqué M. Litwin. Le problème est suffisamment grave pour que les 50 États américains aient demandé au Congrès d’instituer une commission chargée d’étudier le problème posé par les contenus pédopornographiques généré par l’IA, a-t-il ajouté.
« Il y a certainement une corrélation entre l’augmentation des contenus pédopornographiques générés par l’IA et le lancement d’OpenAI, de DALL-E et de toutes ces plateformes d’IA générative, » a souligné M. Litwin.
Le FBI a récemment mis en garde le public contre l’augmentation du nombre de contenus pédopornographiques générés par l’IA.
« Les acteurs malveillants utilisent des technologies et des services de manipulation de contenu pour exploiter des photos et des vidéos – généralement récupérées sur le compte de médias sociaux d’un individu, sur Internet ou demandées à la victime – en les transformant en images à caractère sexuel qui paraissent plus vraies que nature, puis en les faisant circuler sur les médias sociaux, les forums publics ou les sites web pornographiques, » a indiqué le FBI dans un récent communiqué.
M. Litwin a souligné que pour vraiment protéger les enfants des prédateurs en ligne, il est important que les parents et les tuteurs expliquent clairement les dangers potentiels que représentent la publication de photos et les conversations avec des inconnus en ligne.
« Il s’agit donc de communiquer avec nos enfants sur certains de ces risques, de leur expliquer que ça pourrait arriver et de s’assurer qu’ils en sont conscients, » a-t-il ajouté.
Les dangers de l’IA générative
Roo Powell, fondatrice de Sécuriser les abus sexuels en ligne (SOSA : Safe from Online Sex Abuse), a expliqué à Epoch Times que les prédateurs pouvaient utiliser l’image d’un enfant entièrement vêtu pour créer une image explicite à l’aide de l’intelligence artificielle, et qu’il était donc préférable de ne pas publier d’images d’enfants en ligne, même lorsqu’ils sont tout-petits.
« Chez SOSA, nous encourageons les parents à ne pas partager publiquement des images ou des vidéos de leurs enfants en couches ou en train de prendre un bain. Même si leurs organes génitaux sont techniquement couverts, les auteurs peuvent sauvegarder ce contenu pour leur propre satisfaction ou utiliser l’intelligence artificielle pour le rendre explicite et le partager ensuite à grande échelle, » a expliqué Mme Powell dans un courriel.
Si certains affirment que les contenus pédopornographiques générés par l’IA ne sont pas aussi nocifs que les images illustrant des abus sexuels commis sur des enfants bien réels, nombreux sont ceux qui pensent qu’ils sont pires.
Les contenus pédopornographiques générés par l’IA sont produits beaucoup plus rapidement que les images conventionnelles, ce qui a pour effet d’inonder les forces de l’ordre d’un nombre encore plus important de signalements d’abus, et les experts de l’IA et du contrôle parental en ligne s’attendent à ce que le problème ne fasse que s’aggraver.
Dans d’autres cas, l’image d’un contenu pédopornographique générée par l’IA peut être créée à partir d’une photo prise depuis le compte d’un enfant réel sur les médias sociaux, modifiée pour être sexuellement explicite, ce qui met en danger ces enfants qui, autrement, n’auraient pas été victimes, ainsi que leurs parents.
Dans le pire des cas, des acteurs malveillants utilisent des images d’enfants victimes d’abus sexuels pour créer des images générées par ordinateur. Ils peuvent utiliser la photographie originale comme donnée initiale, puis la modifier à l’aide de messages-guides.
Le sujet de la photo peut, parfois, paraître plus jeune ou plus vieux.
En 2023, l’Observatoire d’Internet Standford de l’Université de Stanford, en collaboration avec Thorn, une organisation à but non lucratif spécialisée dans les technologies permettant de protéger les enfants contre les mauvais traitements, a publié un rapport intitulé « Generative Machine Learning and CSAM : Implications and Mitigations » (Apprentissage automatique génératif et contenus pédopornographiques : implications et atténuations), qui fait référence à l’apprentissage automatique génératif (pdf).
« Au cours des premiers mois de l’année 2023, un certain nombre d’avancées ont considérablement accru le contrôle de l’utilisateur sur les résultats des images et leur réalisme, au point que certaines images ne peuvent se distinguer de la réalité que si l’observateur est très familier avec la photographie, l’éclairage et les caractéristiques des résultats des modèles de diffusion, » indique le rapport.
Des études ont montré qu’il existait un lien entre le fait de regarder des images de violence sexuelle à l’égard des enfants et le fait d’abuser sexuellement d’enfants dans la vie réelle.
En 2010, le psychologue judiciaire canadien Michael C. Seto et ses collègues ont passé en revue plusieurs études et ont constaté que 50 à 60% des personnes qui avaient visionné des contenus pédopornographiques admettaient avoir elles-mêmes abusé d’enfants.
Même si certaines images de contenus pédopornographiques générées par l’IA ne sont pas créées à partir d’images d’enfants réels, elles alimentent la croissance du marché de l’exploitation des enfants en normalisant les contenus pédopornographiques et en nourrissant l’appétit de ceux qui cherchent à faire des enfants des victimes.
Sextorsion : une tendance à la hausse
En raison de son réalisme, les contenus pédopornographiques générés par l’IA facilite l’augmentation du nombre de cas de sextorsion.
On parle de sextorsion lorsqu’un prédateur se fait passer pour un jeune pour solliciter des images de nudité partielle ou totale auprès d’une victime, pour ensuite lui extorquer de l’argent ou des relations sexuelles en la menaçant de rendre ces images publiques.
Dans le cas des affaires générées par l’IA, le criminel peut modifier l’image de la victime pour la rendre sexuelle.
Dans l’un de ces cas, M. Litwin a expliqué qu’un adolescent adepte d’haltérophilie avait posté un selfie torse nu qui a ensuite été utilisé par un criminel pour créer une photo de lui nu générée par l’IA et lui extorquer de l’argent.
Dans d’autres cas, le criminel peut menacer de divulguer l’image, portant ainsi atteinte à la réputation du mineur. Face à une telle menace, de nombreux adolescents se plient aux exigences du criminel ou finissent par mettre fin à leurs jours pour ne pas affronter une humiliation publique.
Le Centre national pour les enfants disparus et exploités (NCMEC : National Center for Missing and Exploited Children) gère la ligne CyberTipLine, qui permet aux citoyens de signaler les cas d’exploitation sexuelle d’enfants sur Internet. En 2022, la ligne a reçu plus de 32 millions de signalements d’enfants victimes d’abus sexuels. Même si certains de ces signalements sont répétés plusieurs fois à propos d’une seule image virale d’abus sexuel d’enfant, il s’agit tout de même d’une augmentation de 82% par rapport à l’année 2021, soit près de 87.000 signalements par jour.
En décembre 2022, le FBI estimait à 3000 le nombre de mineurs victimes de sextorsion.
« Le FBI a constaté une augmentation effrayante des cas de sextorsion financière visant des garçons mineurs, et le fait est que les nombreuses victimes qui ont peur de se manifester ne sont même pas prises en compte dans ces chiffres, » a souligné le directeur du FBI, Christopher Wray, dans une déclaration publiée en 2022.
Le rapport de Parents Together indique en outre que « des recherches récentes montrent qu’un enfant sur trois peut désormais s’attendre à avoir une expérience sexuelle importune en ligne avant d’atteindre l’âge de 18 ans ».
En outre, un rapport publié en 2022 par Thorn (pdf) indique qu’un enfant sur six déclare avoir partagé des images explicites de lui-même en ligne, et qu’un enfant sur quatre estime que cette pratique est normale.
Utiliser une bonne IA pour lutter contre une mauvaise IA
Avant que l’IA ne soit largement disponible, l’édition et la génération d’images nécessitaient des compétences et des connaissances en matière de logiciels d’édition d’images. Cependant, l’IA a rendu les choses si rapides et si faciles que même des utilisateurs amateurs peuvent générer des images réalistes.
Netspark mène la lutte contre les contenus pédopornographiques générés par l’IA avec CaseScan, son propre outil de cybersécurité alimenté par l’IA, a expliqué M. Litwin.
« Nous sommes convaincus que pour lutter contre la mauvaise IA, il faut passer par une IA efficace, et c’est sur ce point que nous nous concentrons, » a-t-il indiqué.
Les services chargés de l’application de la loi doivent traiter des quantités massives d’images chaque jour et sont souvent incapables d’examiner tous les rapports de contenus pédopornographiques en temps voulu, a indiqué M. Litwin, mais c’est précisément là que CaseScan est en mesure d’aider les enquêteurs.
Les services de police passent beaucoup de temps à déterminer si l’enfant figurant sur une photo est un faux contenu généré par l’IA ou une véritable victime d’abus sexuel, à moins de recourir à des solutions utilisant l’IA. Même avant l’apparition des contenus générés par l’IA, les forces de l’ordre et les organisations de protection de l’enfance étaient submergées par l’immense volume de rapports de contenus pédopornographiques.
En vertu de la législation américaine, le harcèlement sexuel généré par l’IA est traité de la même manière que le harcèlement sexuel d’enfants réels, mais M. Litwin affirme qu’il ne connaît aucun cas de harcèlement sexuel généré par l’IA qui ait fait l’objet de poursuites, et qu’il n’y a donc pas encore eu de précédent.
« Je pense qu’aujourd’hui, il est difficile de saisir la justice, il est difficile de créer des dossiers solides. Et je pense que c’est l’une des raisons pour lesquelles nous en voyons autant, » a-t-il souligné.
Pour poursuivre les auteurs de contenus pédopornographiques générés par l’IA en ligne, les lois doivent être mises à jour et cibler les activités criminelles technologiquement avancées commises par les prédateurs sexuels.
M. Litwin estime que les prédateurs trouveront toujours un moyen de contourner les limites technologiques fixées par les entreprises de sécurité parce que l’IA progresse sans cesse, mais Netspark s’adapte également pour ne pas se laisser distancer par ceux qui créent des contenus pédopornographiques générés par l’IA.
CaseScan a permis aux enquêteurs de réduire considérablement le temps nécessaire à l’identification des contenus pédopornographiques générés par l’IA et d’alléger l’impact mental sur les enquêteurs qui doivent généralement visionner les images.
Les entreprises technologiques doivent en faire plus
Mme Powell a estimé que les entreprises de médias sociaux devaient faire davantage dans la lutte contre les contenus pédopornographiques.
« Pour protéger efficacement les enfants et les adolescents, le Congrès peut exiger des plateformes de médias sociaux qu’elles mettent en œuvre des systèmes efficaces de modération des contenus qui identifient les cas de maltraitance et d’exploitation des enfants et les transmettent aux forces de l’ordre le cas échéant, » a-t-elle indiqué.
« Le Congrès peut également exiger que toutes les plateformes de médias sociaux créent des fonctions de contrôle parental pour réduire le risque de prédation en ligne. Ces fonctions pourraient inclure la possibilité pour un parent utilisateur de désactiver toutes les fonctions de chat/messagerie, de restreindre les personnes qui suivent leur enfant et de gérer le temps d’écran sur l’application, » a-t-elle ajouté.
En avril, le sénateur Dick Durbin (Parti démocrate – Illinois) a présenté la loi STOP CSAM de 2023, qui comprend une disposition modifiant l’article 230 de la loi sur la décence des communications (Communications Decency Act) et permettant aux victimes de contenus pédopornographiques de poursuivre les plateformes de médias sociaux qui hébergent, stockent ou mettent à disposition ces contenus illégaux.
« Si les entreprises de médias sociaux ne mettent pas en place des mesures de protection suffisantes, elles devraient être tenues légalement responsables, » a souligné M. Durbin lors d’une réunion de la sous-commission judiciaire du Sénat en juin dernier.
Mme Powell a estimé que le Congrès avait la responsabilité de faire davantage pour protéger les enfants contre les abus.
« Les lois doivent suivre l’évolution constante de la technologie, » a-t-elle ajouté, précisant que les forces de l’ordre avaient également besoin d’outils pour travailler plus rapidement.
Améliorer le NCMEC
Les représentantes Ann Wagner (Parti républicain – Maryland) et Sylvia Garcia (Parti démocrate – Texas) ont récemment présenté la loi sur la modernisation de la sécurité des enfants en ligne de 2023 (Child Online Safety Modernization Act of 2023) pour combler les lacunes relatives au signalement de contenus pédopornographiques et faire en sorte que les criminels puissent être tenus pour responsables.
Actuellement, aucune exigence n’est fixée quant aux informations que les plateformes en ligne doivent inclure lors d’un signalement à la CyberTipline du NCMEC, ce qui laisse souvent l’organisation et les forces de l’ordre sans les données suffisantes pour localiser et secourir l’enfant. En 2022, environ 50% des signalements n’ont pas pu être retrouvés.
En outre, la loi n’oblige pas les plateformes en ligne à signaler les cas de traite des enfants à des fins sexuelles et d’incitation à la prostitution.
Selon un rapport de Thorn datant de 2022, la majorité des rapports de CyberTipline présentés par l’industrie technologique contenaient des informations si limitées qu’il était impossible pour le NCMEC d’identifier le lieu de l’infraction et, par conséquent, l’organisation ne pouvait pas avertir l’organisme d’application de la loi approprié.
La loi sur la modernisation de la sécurité des enfants en ligne (Child Online Safety Modernization Act) renforce la CyberTipline du NCMEC en 1) exigeant que les rapports des plateformes en ligne contiennent des informations permettant d’identifier et de localiser l’enfant auteur et le diffuseur de contenus pédopornographiques ; 2) exigeant que les plateformes en ligne signalent les cas de trafic sexuel d’enfants et d’incitation sexuelle d’un enfant ; et 3) autorisant le NCMEC à partager les identifiants techniques associés aux contenus pédopornographiques avec des organisations à but non lucratif.
Le projet de loi exige également que les rapports soient conservés pendant une année entière, ce qui donne aux forces de l’ordre le temps nécessaire pour mener des enquêtes sur les crimes.
Stefan Turkheimer, vice-président intérimaire pour la politique publique de RAINN [Rape, Abuse & Incest National Network : Réseau National sur le viol, les abus sexuels et l’inceste], a souligné que le projet de loi de Mme Wagner était essentiel pour permettre aux forces de l’ordre d’enquêter avec succès sur les cas de violence sexuelle à l’égard des femmes.
« La loi sur la modernisation de la sécurité des enfants en ligne (Child Online Safety Modernization Act) est une étape vers une plus grande coopération entre les forces de l’ordre et les fournisseurs d’accès à Internet, qui soutiendra les efforts déployés pour mener des enquêtes, identifier et localiser les enfants décrits dans les documents relatifs aux abus sexuels sur enfants, » a indiqué M. Turkheimer dans une récente déclaration à la presse.
Cette amélioration est essentielle pour mettre fin à l’exploitation sexuelle des enfants, a déclaré Mme Powell.
« Dans le cadre de sa collaboration avec les forces de l’ordre, SOSA a vu un auteur passer du tout premier message à l’arrivée au domicile d’un mineur pour des relations sexuelles en moins de deux heures. Toute personne ayant la propension de faire du mal aux enfants peut le faire rapidement et facilement de n’importe où dans le monde grâce à un simple accès à l’internet, » a-t-elle conclu.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.