La plateforme de réseautage professionnel LinkedIn a confirmé qu’elle utilisait automatiquement les données personnelles des utilisateurs pour entraîner des modèles d’intelligence artificielle (IA) sans en informer au préalable ses membres.
La société californienne a fait savoir dans un billet de blog du 18 septembre qu’elle avait mis à jour l’élément politique de confidentialité « figurant dans ses conditions d’utilisation pour y inclure une formulation clarifiant son utilisation des informations partagées avec elle » pour développer les produits et services de LinkedIn et de ses filiales, notamment en formant des modèles d’IA utilisés pour la génération de contenu (‘IA générative’) et par des mesures de sécurité et de sûreté ».
La plateforme a précisé qu’il existait un paramètre permettant aux membres de refuser l’utilisation de leurs données à des fins d’entraînement de l’IA générative.
LinkedIn appartient à Microsoft, qui a beaucoup investi dans OpenAI, le développeur de ChatGPT. Selon la section FAQ du site web de la plateforme, les modèles d’IA utilisés pour alimenter les fonctions d’IA générative peuvent être formés par LinkedIn ou par un autre fournisseur, comme le service Azure OpenAI de Microsoft.
Le site de réseautage a indiqué qu’il utilisait l’IA générative pour des fonctions telles que son assistant d’écriture et pour suggérer des publications ou des messages.
Les données personnelles comme les publications des utilisateurs, les informations d’utilisation, les entrées et les résultats obtenus, les préférences linguistiques et tout retour d’information qu’ils peuvent fournir font partie des données traitées et utilisées pour former l’IA, a déclaré LinkedIn.
Lorsque LinkedIn forme des modèles d’IA générative, il cherche à « minimiser les données personnelles dans les ensembles de données » utilisés pour les former, notamment en recourant à des technologies améliorant la confidentialité qui expurgent ou suppriment les données personnelles de l’ensemble des données de formation, a expliqué l’entreprise.
LinkedIn a précisé que les mises à jour de ses conditions d’utilisation entreront en vigueur le 20 novembre.
LinkedIn a ajouté qu’il ne formait pas actuellement de modèles d’IA générateurs de contenu sur des données des membres de l’Union européenne, de l’Espace économique européen, de Suisse et du Royaume-Uni.
« Si vous vivez dans ces régions, nous et nos affiliés n’utiliserons pas vos données personnelles ou votre contenu sur LinkedIn pour former ou affiner les modèles d’IA générative destinés à la création de contenu, sans autre avis », a déclaré l’entreprise.
Refus de participer
Les utilisateurs de LinkedIn des autres pays qui souhaitent que la plateforme n’utilise pas leurs données personnelles pour l’entraînement à l’IA peuvent accéder au paramètre « données pour l’amélioration de l’IA générative » et le désactiver.
Selon LinkedIn, le retrait signifie que la plateforme et ses affiliés « n’utiliseront pas vos données personnelles ou votre contenu sur LinkedIn pour former des modèles à l’avenir, ce qui est sans conséquence sur la formation qui a déjà été mise en place ».
Parallèlement, Meta, la société mère de Facebook et d’Instagram, a annoncé au début du mois qu’elle recommencerait à former des modèles d’IA en utilisant du contenu public partagé par des adultes sur Facebook et Instagram au Royaume-Uni au cours des prochains mois.
Cette annonce a été faite après que l’entreprise a interrompu l’entraînement pour tenir compte des « réactions des autorités de réglementation ».
Meta a déclaré qu’elle utiliserait des informations publiques, notamment des messages, des photos, des légendes et des commentaires des comptes des utilisateurs âgés de plus de 18 ans, pour entraîner et améliorer ses modèles d’IA générative. Le contenu ne devrait pas inclure les messages privés.
Meta a fait savoir que les utilisateurs britanniques recevront bientôt des notifications dans l’application concernant l’entraînement à l’IA, ainsi que des informations expliquant comment accéder à un formulaire leur permettant de s’opposer à ce que leurs données soient exploitées pour entraîner des modèles d’IA génératifs.
Les groupes de défense du droit à la vie privée ont critiqué les plateformes de médias sociaux pour le traitement des données des utilisateurs sans leur consentement et ont exhorté l’Information Commissioner’s Office, l’organisme de surveillance de la protection des données au Royaume-Uni, à prendre des mesures.
Dans un communiqué, Mariano delli Santi, responsable juridique et politique de l’Open Rights Group, basé au Royaume-Uni, a déclaré que LinkedIn était la dernière entreprise de médias sociaux dont on avait découvert qu’elle traitait les données des utilisateurs sans leur demander leur consentement au préalable.
« Le modèle d’option de refus s’avère une fois de plus totalement inadéquat pour protéger nos droits : on ne peut attendre du public qu’il surveille et poursuive chaque entreprise en ligne qui décide d’utiliser nos données pour entraîner l’IA », a-t-il ajouté.
Epoch Times a contacté un porte-parole de LinkedIn pour obtenir des commentaires supplémentaires, mais n’a pas reçu de réponse au moment de la publication.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.