Via ses algorithmes, Instagram est accusé d’aider les réseaux pédocriminels à mieux s’organiser

Via ses algorithmes, Instagram est accusé d’aider les réseaux pédocriminels à mieux s’organiser

Image :

BRAZIL – 2022/03/16: In this photo illustration the Instagram logo seen in the background of a silhouette of a woman holding a mobile phone. (Photo Illustration by Rafael Henrique/SOPA Images/LightRocket via Getty Images)

photo de profil

Par Pierre Bazin

Publié le

Le Wall Street Journal a mené une enquête en collaboration avec des chercheurs de Stanford et de l’université du Massachusetts.

La plateforme phare de Meta est l’objet de vastes accusations alors que le Wall Street Journal vient de publier une longue enquête qui pointerait du doigt les algorithmes de recommandation d’Instagram car ils faciliteraient les réseaux pédocriminels à se former et à s’organiser entre eux.

À voir aussi sur Konbini

Le WSJ a mené une enquête en étroite collaboration avec des chercheurs en cybersécurité et cybercriminalité de l’université de Stanford ainsi que de l’université du Massachusetts.

Comme le rappelle le Journal, les activités pédocriminelles existent malheureusement depuis longtemps sur Internet, mais alors que les forums et les services de transfert de fichiers (FTP) étaient eux-mêmes organisés par les personnes intéressées par ces contenus illégaux, le réseau social Instagram “promouvrait” bien plus directement ces contenus sexuels impliquant des personnes mineures, via ses algorithmes de recommandation.

Attention (TW) : les lignes suivantes contiennent des descriptions explicites de contenus pédocriminels extrêmement choquants qui ont pu être repérés par l’enquête du Wall Street Journal

Une recherche suffit à “activer” un compte

La présence de hashtags comme #pedowhore ou encore #preteensex aurait permis aux personnes intéressées de trouver les réseaux et contenus en question via de simples recherches. Si les pages ne publient pas directement les contenus pédocriminels en question, elles mettraient en relation des milliers de comptes personnels pour ensuite leur proposer des échanges de ces contenus illicites sur des plateformes extérieures au réseau social.

Selon les recherches du WSJ, certains comptes Instagram inviteraient les acheteurs de contenus pédocriminels à “commander des actes spécifiques”, organisant leurs activités en “menus” qui répertorient les prix des vidéos d’enfants, y compris “des images de personnes mineures accomplissant des actes sexuels avec des animaux”, toujours selon le rapport du Journal, citant les conclusions de Stanford.

Les chercheurs sollicités par le WSJ ont ainsi expérimenté ces mêmes recherches et, après avoir consulté un seul de ces comptes, se sont vus immédiatement recommander des contenus illégaux. Une poignée de recherches test du genre sont apparemment suffisantes pour “inonder” un compte de recommandations vers des pages redirigeant elles-mêmes vers des plateformes de vente de contenus pédocriminels.

Selon l’Observatoire Internet de Stanford, 405 vendeurs auraient pu être trouvés, qu’ils soient promoteurs de vente de contenus pédopornographiques ou de comptes prétendument gérés par des enfants eux-mêmes. Selon les données recueillies via Maltego, un logiciel de cartographie de réseau, 112 de ces comptes impliqués comptaient collectivement 22 000 abonnés uniques.

“Au juste prix, les enfants sont disponibles pour des rencontres ‘en personne'” ajoute le Wall Street Journal.

Signalés à Meta, les comptes ont été, depuis, supprimés.

La réponse de Meta

Avec plus de 3 milliards d’utilisateurs répartis entre Instagram, Facebook et WhatsApp, Meta est capable de détecter ces types de contenus pédocriminels s’ils ne sont pas cryptés. L’année dernière, les signalements de Meta représentaient 85 % des signalements de pédopornographie (dont environ 5 millions provenant d’Instagram) déposés au National Center for Missing & Exploited Children, organisme non lucratif qui travaille en étroite collaboration avec les autorités fédérales américaines.

En 2022, ce centre a reçu 31,9 millions de signalements de pédopornographie, principalement de la part de sociétés d’Internet (réseaux sociaux, plateformes de vente en ligne, etc.) soit une augmentation de 47 % par rapport au même calcul deux ans plus tôt.

Instagram a déclaré au WSJ que ses statistiques internes montrent que les utilisateurs voient ces contenus d’exploitation des enfants dans moins d’un message sur 10 000 consultés. Un porte-parole de Meta a déclaré que sa société “explore en permanence des moyens de se défendre activement contre ce comportement, et nous avons mis en place un groupe de travail interne pour enquêter sur ces allégations et y répondre immédiatement”.

Meta a reconnu que certains cas signalés n’avaient pas pu être efficacement traités, invoquant une erreur logicielle qui empêchait ce traitement, et qui, selon Meta, a depuis été corrigée. Meta, dans son communiqué, déclare ainsi :

“L’exploitation des enfants est un crime horrible. Nous travaillons agressivement pour le combattre sur et en dehors de nos plateformes, et pour soutenir les forces de l’ordre dans leurs efforts pour arrêter et poursuivre les criminels derrière.”

Entre 2020 et 2022, selon Meta, les équipes en charge de ces sujets auraient “démantelé 27 réseaux abusifs” et, à date de janvier 2023, auraient désactivé plus de 490 000 comptes pour des violations des politiques de sécurité relatives aux enfants. Au quatrième trimestre 2022, Meta aurait supprimé plus de 34 millions de contenus promouvant l’exploitation sexuelle d’enfants de Facebook et Instagram, dont plus de 98 % auraient été détectés avant d’être signalés par les utilisateurs, a indiqué l’entreprise.

Une lutte sans fin si sans humains ?

Le représentant de Meta, dans le même communiqué, explique la difficulté qu’ont ses équipes à traquer efficacement les pédocriminels :

“Les prédateurs changent constamment leurs tactiques […], c’est pourquoi nous avons des politiques et une technologie strictes pour les empêcher de trouver ou d’interagir avec des adolescents sur nos applications. [Nous avons] embauché des équipes spécialisées qui se concentrent sur la compréhension de leurs comportements, en constante évolution, afin que nous puissions éliminer ces abus.”

De son côté, le rapport du WSJ pointe du doigt des “obstacles techniques et juridiques” qui rendraient “la détermination de l’ampleur réelle du réseau [pédophile sur Instagram] difficile à mesurer avec précision pour quiconque en dehors de Meta“.

Alex Stamos, directeur de l’Observatoire Internet de Stanford et ancien directeur de la sécurité de Meta jusqu’en 2018, estime que le fait que trois universitaires avec un “accès limité” aient pu trouver autant de contenus incriminables “devrait tirer la sonnette d’alarme chez Meta”. Il ajoute qu’il espère que Meta réinvestisse plus dans des “enquêteurs humains” pour ne pas se reposer uniquement sur le système de détection automatique.

Quant aux autres réseaux sociaux, toujours selon les résultats du rapport du WSJ, Snapchat et TikTok ne semblent pas faciliter autant qu’Instagram la diffusion de contenus pédopornographiques. Sur Twitter, les chercheurs auraient identifié 128 proposant de vendre du contenu pédopornographique mais sans qu’ils ne soient recommandés par l’algorithme. Ces comptes ont été depuis supprimés.