Aller au contenu principal
Image by mkhmarketing used under Creative Commons license.

Fin mai, le Guardian a publié les Archives de Facebook, des documents internes ayant fait l’objet de fuites qui révélaient de quelle manière l’entreprise modère les contenus. Nous sommes nombreux à réclamer depuis longtemps une plus grande transparence dans la modération des contenus de Facebook, afin de mieux comprendre la violence basée sur le genre commise sur cette plateforme et en assurer le suivi. Malgré les améliorations réalisées par Facebook1, ces documents confirment que ces progrès s’accompagnent également de retours en arrière, puisque la censure continue de toucher les organismes en faveur des femmes, notamment les femmes de couleur2 et celles qui s’impliquent dans un activisme, sans pour autant freiner la propagation du harcèlement.

Violence basée sur le genre 3

De nombreuses victimes de violence en ligne nous contactent pour nous demander de l’aide, et leurs signalements désignent Facebook et Facebook Messenger comme les plateformes de loin les plus propices aux violations. Les nouvelles précisions concernant la modération des contenus de Facebook corroborent exactement les témoignages des femmes – qu’elles soient cisgenres, hétérosexuelles ou LGBTQI – et ceux des personnes dont le genre s’écarte du conformisme à propos de la plateforme. Le harcèlement, et notamment le partage de photos sans consentement, se généralise et les signalements sont souvent rejetés sous motif qu’ils n’enfreignent pas les standards de la communauté Facebook, alors même que cette fuite de documents en démontre clairement la violation. Pour de nombreux utilisateurs, recevoir une telle réponse revient à nier la présence même de harcèlement. Or nous savons par expérience que les défenseur-e-s des droits humains sont régulièrement réduit-e-s au silence par Facebook alors même qu’ils subissent de nombreux types de harcèlement de la part d’autres usagers, tels que la création de faux profils visant à discréditer ou diffamer, l'altération de photos pour créer de fausses images intimes, les incitations à la haine ou encore le doxing.

Encore aujourd'hui, les politiques de Facebook sont loin de refléter une réelle compréhension des expériences de violence vécues. L'une des questions flagrantes concerne l'utilisation du terme de « violence crédible » qui, tout comme le terme souvent tourné au ridicule de « viol légitime », perpétue lui-même la violence. Un autre problème se pose avec la politique qui autorise les commentaires où apparait de la violence à l'égard des mineurs, contribuant ainsi à la victimisation et la normalisation de la violence envers les jeunes.4

Il apparaît clairement que les consultations limitées de Facebook auprès des groupes et activistes pour les droits des femmes n'ont pas été assez significatives pour fomenter de réel changement. Il arrive souvent que les résultats de ces interactions ne dépassent pas les représentants présents de l'entreprise, comme nous l'avons expérimenté à diverses reprises, par manque de communication entre les différentes sections de l'entreprise. De plus, les concepteurs des fonctions de Facebook devraient pouvoir entendre directement les besoins des utilisateurs et des militants, mais les ingénieurs ne sont jamais présents. Nous nous demandons dans quelle mesure Facebook vérifie l'efficacité de ses réponses face à la violence basée sur le genre et à d'autres problèmes qui apparaissent sur le site. Ce qui est sûr, c'est qu'il n'y a aucune communication publique sur ce qu'ils apprennent malgré l'abondance de renseignements en leur possession.

Contexte linguistique et culturel

De nombreux signalements sont rejetés en raison de l'échec de Facebook à rester au fait du langage argotique du harcèlement, à offrir une assistance dans l'ensemble des langues de ses utilisateurs et à comprendre les différents contextes culturels. Les locuteurs de langues minoritaires ont un plus grand risque d'être victimes de harcèlement en ligne puisque soit leurs signalements sont rejetés, soit le mécanisme de signalement n'existe pas dans leur langue. Les directives sur la pornographie à des fins de vengeance de Facebook ne représentent pas l’ensemble des préjudices subis selon les différents contextes. En exigeant la présence sur les photos d’une activité liée au sexe, elles ne semblent pas prendre en compte le fait que ce type d’activité peut avoir des définitions très différentes selon les communautés. Des photos, tout à fait acceptables dans une communauté, peuvent constituer un risque pour la femme d’une autre communauté. La plateforme n’accepte pas que le plus important soit de savoir si la personne sur la photo y consente ou non, ni si elle pense ou non courir un risque.

Dans ce domaine, la participation active de divers acteurs peut vraiment de faire changer les choses, mais pour le moment les succès restent à niveau individuel et non systémique, et dépendent du travail des militants auprès des représentants de Facebook lors de signalements individuels d’utilisateurs. En fait, entre nous et nos partenaires, nous sommes nombreux dans le monde à pouvoir contacter directement l’entreprise pour un cas individuel, mais ce n’est ni durable, ni applicable pour d’autres cas. Nous ne devrions pas avoir à faire le travail de Facebook. C’est à eux qu’il incombe de s’engager auprès des groupes pour les droits des femmes dans les pays desservis par leur plateforme et de les consulter au sujet de politiques et de protocoles qui permettraient de changer le système, au lieu de s’appuyer sur ces groupes pour rapiécer un système déficient.

Des catégories protégées

Si l’on suit une approche multidimensionnelle du genre, on questionnera le raisonnement suivi dans les catégories protégées de Facebook relatives aux incitations à la haine, qui ne s’aligne sur aucun cadre international des droits humains. Les directives ne s’appliquent pas aux castes, et même si Facebook inclut par erreur la question des castes dans la catégorie « classe sociale », les Dalits n’ont aucune protection.5 L’entreprise indique qu’elle a retiré sa politique d’interdiction de commentaires favorables ou soutenant « la violence ayant pour but de résister à l’occupation d’un État reconnu par la communauté internationale », mais nous savons par des utilisateurs que les comptes Facebook d’habitants du Cachemire qui avaient publié par exemple des photos de Burhan Wani sont encore désactivés ou fermés.

Ceux qui vivent dans un pays en particulier entrent une catégorie protégée, mais les personnes qui migrent d’un pays à un autre entre dans une catégorie dite quasiment protégée.6 Pourtant, vu le taux élevé de violence physique et en ligne à l’encontre des migrants, comment se fait-il qu’ils ne soient pas complètement protégés ? Il se trouve que Facebook les considère comme un sujet d’actualité : « En tant que catégorie quasiment protégée, ils ne jouiront pas de l’entière protection de notre politique concernant les incitations à la haine car nous voulons permettre aux gens de discuter de manière approfondie sur les migrants et l’immigration, un sujet d’actualité avant les élections à venir. » De plus, si une catégorie protégée est associée à une catégorie non protégée, cela annule toute protection, comme si les musulmans qui ne sont pas réfugiés méritaient plus de protection que ceux qui le sont. L’exemple préoccupant du guide selon lequel les enfants noirs (race + âge) ne sont pas protégés tandis que les hommes blancs (race + genre) le sont, montre combien ces directives sont plus qu’alambiquées. Elles ignorent tout simplement que les oppressions ont de multiples façons de se recouper.

Modérateurs

Il est manifeste que Facebook manque de modérateurs, et ceux qui sont employés ne proviennent probablement pas de milieux suffisamment variés selon des caractéristiques telles que le milieu économique, la race/ethnicité, la caste, la religion, la langue ou la région. Pourtant ce n’est pas en augmentant simplement le nombre de modérateurs qu’on évitera les politiques malavisées ou les problèmes de formation et de gestion. Malheureusement, les fuites n’ont pas permis de révéler ce que nous demandons depuis des années. Quel est le profil démographique des personnes chargées de la modération des contenus ? Quelle formation leur donne-t-on, en plus de ces directives internes ? Quel type de soutien reçoivent-ils ?

Nous comprenons que les personnes que Facebook embauche pour réaliser à bas prix ce travail intensif que représente l’analyse des photos à caractère violent et des textes de harcèlement puissent souffrir de traumatismes secondaires. De leur propre aveu, ces modérateurs ont des difficultés, et notre critique s’adresse en réalité aux politiques et protocoles de Facebook, non aux modérateurs eux-mêmes. Lorsqu’un produit met en danger son propre personnel,7 l’entreprise doit commencer à chercher une solution à la violence à un niveau systémique. Enfin, les fuites de documents concernaient uniquement la modération réalisée par des êtres humains ; or la modération algorithmique, si elle soulage le poids des modérateurs humains, est confrontée à la même partialité que celle des politiques décrites plus haut.

Enseignements tirés des médias

Nous félicitons le Guardian pour sa publication sur la modération des contenus de Facebook et pour sa manière de traiter la question du harcèlement en ligne et la violence qu’il engendre.8 Nous espérons que d’autres médias suivront son modèle, analysant et partageant les données relatives au harcèlement sur leurs plateformes, afin de mieux protéger leurs contributeurs et couvrir ce sujet selon une perspective basée sur les droits.

Exigences

Nous, organisations et personnes œuvrant pour les droits humains des femmes en ligne et hors ligne, exigeons à Facebook de :

1. Avoir plus de transparence et se montrer plus responsable en ce qui concerne :

  • La mise en œuvre de directives sur la modération des contenus ;

  • Le rejet de signalements de situations de harcèlement en ligne et des données ventilées concernant les signalements reçus ;

  • Les services et personnels chargés de répondre aux plaintes relatives au contenu et la vie privée.

2. Offrir une formation complémentaire aux modérateurs pour lutter contre les barrières culturelles et langagières, les dynamiques de pouvoir, et répondre aux questions comme les préjugés liés au genre et la sensibilité des LGBTQ.

3. Engager plus de locuteurs de langues actuellement sous-représentées parmi les modérateurs de contenus.

4. Améliorer le mécanisme de signalement pour respecter les critères suivants :

  • Légitimité : le mécanisme est considéré digne de confiance par ceux qui l’utilisent, et il leur rend compte des résultats.

  • Accessibilité : le mécanisme est facilement localisé, utilisé et compris.

  • Prédictibilité : une procédure claire et ouverte comporte un calendrier indicatif, une procédure claire et des moyens pour suivre son application.

  • Équitable : des informations et conseils sont fournis pour permettre à chacun de s’impliquer dans ce mécanisme de manière juste et informée.

  • Transparence : chaque personne est tenue informée des avancées de son problème.

  • Respect des droits : les résultats et solutions s’alignent sur les droits humains reconnus à niveau international.

  • Source d’apprentissage constant : permet à la plateforme de se baser sur les expériences passées pour identifier les améliorations à apporter au mécanisme et éviter de futures plaintes.

5. Renforcer la diversité à tous les niveaux du personnel et adopter les Principes d’autonomisation des femmes.

 

Signataires :

Association pour le progrès des communications

Association for Women's Rights in Development (AWID)

BlueLink

CITAD

Derechos Digitales

Fantsuam Foundation

Foundation for Media Alternatives

GreenNet

Heartmob

Hollaback

Inji Pennu

Japleen Pasricha, Feminism in India

Kéfir

LaborNet

May First/People Link

Nana Darkoa Sekyiamah

Nica Dumlao

One World Platform

Persatuan Kesedaran Komuniti Selangor (EMPOWER)

Strategic Advocacy for Human Rights

 

1 Voir par exemple l’annonce récente sur les nouvelles mesures prises par la plateforme contre le partage de photos intimes sans consentement.
2 Voir par exemple le cas de l’écrivaine états-unienne Ijeoma Oluo, dont le compte a été désactivé suite à sa publication de captures d’écrans qui montraient le harcèlement raciste, sexiste et souvent violent qu’elle subissait sur le site, alors que Facebook n’avait rien fait pour arrêter le harcèlement lui-même. La plateforme a réactivé son compte après le tollé public qui a suivi, s’excusant d’une désactivation accidentelle. De telles désactivations sont suffisamment courantes pour devenir des sujets de préoccupation.
3 La violence basée sur le genre se réfère à tout acte de violence engendrant des préjudices dus au genre, et implique l’utilisation de technologies de l’information et des communications. Elle comprend entre autres le harcèlement en ligne, l’intimidation en ligne, la sextortion, le partage sans consentement de photos intimes ou encore les incitations à la haine.
4 La campagne« Ne faites pas suivre la violence » de Réapproprie-toi la technologie!, qui lutte contre la violence spectacle et la victimisation répétée, pourrait contribuer à améliorer les politiques de Facebook dans ce domaine.
5 La section 4 de la Recommandation générale 29 du Comité pour l’élimination de la discrimination raciale indique que les États doivent “(r) Prendre des mesures contre toute diffusion d’idées prônant la supériorité ou l’infériorité liée à la caste ou tentant de justifier la violence, la haine ou la discrimination à l’encontre de communautés fondées sur l’ascendance » et « (s) Prendre des mesures strictes contre toute incitation à la discrimination, à la violence contre les communautés, y compris par l’Internet. »
6 La section 3 de la Recommandation générale 30 du Comité pour l’élimination de la discrimination raciale recommande aux États de « 11. Prendre des mesures pour lutter contre les attitudes et les comportements xénophobes à l’égard des nonressortissants, en particulier l’incitation à la haine et la violence raciales » et « 12. Prendre des mesures énergiques pour combattre toute tendance à viser, stigmatiser, stéréotyper ou caractériser par leur profil les membres de groupes de population «nonressortissants» sur la base de la race, la couleur, l’ascendance et l’origine nationale ou ethnique, en particulier de la part des politiciens, des responsables, des éducateurs et des médias, sur Internet, dans d’autres réseaux de communication électroniques et dans la société en général. »
7 Voir par exemple l'article de Fortune concernant le partage accidentel sur la plateforme de l’identité des modérateurs avec des personnes suspectées de terrorisme.
8 Voir la série “Web we want” du Guardian et notamment son travail sur les commentaires.