Le conseil de surveillance de Meta enquête sur un mème “nazi” de Carlo Tentacule

Le conseil de surveillance de Meta enquête sur un mème “nazi” de Carlo Tentacule

photo de profil

Par Pierre Bazin

Publié le , modifié le

Une investigation a posteriori qui semble avoir des répercussions plus lointaines.

Chez Meta (Instagram, Facebook, WhatsApp), il existe un “conseil de surveillance”, sorte d’instance interne suprême qui peut être saisie pour décider si tel ou tel contenu peut être publié sur ses plateformes tout en respectant les conditions d’utilisation de ces dernières. Cela peut donner lieu à de minutieuses enquêtes mais aussi, comme on parle d’Internet, à des “jugements” prononcés sur des contenus aussi absurdes qu’hétéroclites.

À voir aussi sur Konbini

Cette semaine, le conseil de surveillance a publié une note de blog dans laquelle il explique qu’il enquête actuellement sur un mème supprimé, publié initialement en septembre 2020. Le mème en question est une représentation de Carlo Tentacule, personnage iconique du dessin animé Bob l’éponge et objet de nombreux détournements sur Internet ces quinze dernières années.

Mais ici, le détournement en question est allé trop loin, puisqu’il fait la promotion de contenus négationnistes. Dans le mème, Carlo dit ainsi : “Des faits amusants sur la Shoah”, parodiant le “Des faits amusants avec Carlo Tentacule” habituellement utilisé. En 2018, le PDG de Facebook Mark Zuckerberg avait défendu certains négationnistes notoires, expliquant que leurs déclarations n’étaient pas “intentionnelles”. Pourtant, depuis 2020, Meta a explicitement interdit tout contenu niant le génocide.

<em>Le mème d’origine.</em>

Le “Nazi Squidward” serait apparu sur la plateforme deux mois avant que Meta ne modifie officiellement sa politique de modération. Des utilisateurs auraient signalé la publication à Meta quatre fois avant les changements de règles, puis encore à deux reprises. Le conseil de surveillance pointe, dans son rapport, que le processus d’examen automatisé de Meta aurait jugé ce contenu conforme à la politique de la plateforme.

Dans son récent article de blog, Meta affirme avoir initialement laissé le contenu en ligne mais l’avoir supprimé après un examen plus approfondi. Le premier choix de laisser ce message aurait été fait “par erreur”.

Le plus étrange est que le conseil de surveillance se penche, deux ans après la suppression dudit contenu, sur ce cas. Sorte de surveillant de la surveillance, ce conseil a pour but d’étudier les cas de modération ou non-modération pour émettre un avis indépendant sur la manière dont Meta aborde certains contenus. Ici, c’est justement pour étudier l’application des récentes mesures de Meta qui ciblaient les contenus spécifiquement négationnistes.

La suppression de “Nazi Squidward” aurait ainsi généré un effet papillon pour de nombreux autres contenus similaires sur Facebook et Instagram. De son côté, le conseil estime que les systèmes automatisés de modération peuvent avoir des failles pour déceler ce genre de contenus haineux. À l’inverse, le conseil souhaite s’assurer que ces systèmes automatisés ne sanctionnent pas un discours qui, par exemple, pourrait être éducatif ou satirique sans être considéré comme du contenu haineux.