Modération de contenu sur les réseaux sociaux et éthique

Crédit photo : Photo de Nathan Dumlao – Unsplash

Les contenus que nous publions sur les réseaux sociaux sont soumis à des règles de bonne conduite. Malheureusement, il arrive régulièrement que certains utilisateurs tentent d’outrepasser ces règles en produisant du contenu illicite. J’entends par là toute forme d’incitation à la haine, des images choquantes, des vidéos explicites et j’en passe. C’est pour cette raison que tout contenu publié doit être analysé par la plateforme, puis supprimé s’il ne respecte pas les standards de la communauté.

Aujourd’hui à travers cet article, nous allons nous pencher sur la manière dont nos réseaux sociaux favoris sont modérés. Nous partirons à la rencontre des modérateurs de contenus qui doivent accomplir cette lourde tâche, nous parlerons des troubles psychologiques qu’ils ont pu développer à cause de leur surexposition à des contenus violents. Nous verrons à quel point la modération est importante pour assurer un espace sain et nous nous questionnerons sur la façon dont nous pourrions arranger la condition de modérateur.

Crédit photo : Photo de Hannah Busing – Unsplash

La mission des modérateurs de contenu

Pour faire simple, ce sont un peu les éboueurs de nos réseaux sociaux. Le travail de ces « nettoyeurs du net » consiste à surveiller, évaluer, et supprimer les contenus inappropriés pour la plateforme. Après signalement d’un utilisateur ou de l’intelligence artificielle, c’est au tour des modérateurs d’arbitrer.

Ils sont continuellement exposés à des contenus extrêmement violents et/ou pornographiques, de la propagande terroriste, mais aussi toute autre forme de contenu illicite. Ce travail est essentiel pour maintenir un espace de partage sûr, mais les conséquences sont dévastatrices pour celles et ceux qui l’effectue.

En 2018 Marc Zuckerberg affirme que l’intelligence artificielle n’est pas encore assez performante pour remplacer l’intervention humaine dans la modération de contenus. C’est pour cette raison que Meta affichait sur son site un quota de 15 000 modérateurs présents à travers le monde, au Portugal, en Espagne, en Irlande, aux Philippines, aux États unis.

Crédit photo : Photo de Nick – Unsplash

La fin de l'innocence

“J’ai vu des choses qui resteront en moi pour toujours”

Savez-vous sous quelles conditions travaillent les modérateurs de contenu chez Meta ? Non ? Et bien figurez-vous que l’entreprise Meta elle-même ne le sait pas non plus. Du moins, c’est ce qu’elle pourrait affirmer juridiquement, étant donné qu’elle sous-traite entièrement cette tâche aux quatre coins du monde. “Loin des yeux, loin de l’entreprise.”

La modération de contenu est essentiellement gérée par des entreprises comme Majorel, Cognizant, Accenture, ou CCC (Competence Call Center). Dans le reportage de Cash Investigation Au secours, mon patron est un algorithme réalisé par Sandrine Rigaud en 2019, nous sommes directement plongés dans les coulisses de ce métier. Grégoire, journaliste, accepte de répondre à une offre d’emploi proposée par Accenture à Lisbonne.

Pour environ 800€ brut par mois, il devra s’infliger quotidiennement une exposition à des contenus extrêmement choquants. Ce qui est légèrement au-dessus du SMIC portugais de 2019. En prime, il faudra respecter des accords de non divulgation très stricts et ce, ad vitam eternam. En d’autres termes, impossible de parler de sa souffrance à son entourage, c’est interdit. Ne pas respecter cette clause dans son contrat l’expose à de sévères répréhensions.

“Une effraction traumatique”

Les modérateurs de Meta sont exposés quotidiennement à toute sorte de contenus extrêmement perturbants. Selon le docteur Thierry Baubet, psychiatre, cela a de grande chance d’entraîner des troubles psychologiques graves. Certains pourront développer de l’anxiété et seront sujet à des crises d’angoisse, des attaques de paniques. D’autres pourront développer un syndrome de stress post-traumatique (PTSD) comparable aux traumatismes développés par les ressortissants de guerre.

Les géants de la tech comme Meta se déchargent de leur responsabilité sur les modérateurs en sous-traitant cette tâche à des entreprises dans des pays où la main-d’œuvre est moins chère. Cela lui permet non seulement de réduire ses coûts, mais aussi de se protéger légalement en conservant une distance avec ses prestataires.

Durant le reportage, Sarah T. Roberts, enseignante chercheuse en sciences de l’information à l’université de Californie (UCLA), souligne que cette sous-traitance permettrait à Meta et ses concurrents de fermer les yeux sur les abus et les souffrances psychologiques engendrés par la modération de contenus. Pour en savoir plus sur son travail, vous pouvez lire son livre Behind the screen, issu d’entretiens avec une dizaine de modérateurs.

Pour découvrir cet épisode passionnant de Cash Investigation ça se passe juste ici :
( /!\ TW : Contenu sensible /!\)

“Une liberté qui n’en était pas”

Comme si cela ne suffisait pas, les conditions de travail sont souvent déplorables. France TV Slash nous amène cette fois-ci à Barcelone, dans les locaux de Competence Call Center (CCC), un autre sous-traitant de la plateforme. Chris Gray et d’autres anonymes nous dévoilent à leur tour leur témoignage. Non seulement, Chris a énormément souffert de son exposition constante à des contenus choquants, mais aussi de ses conditions de travail plus que discutables.

Il s’est retrouvé avec de plus en plus de contenus à modérer, de moins en moins d’aide disponible alors que chaque erreur de sa part peut avoir des répercussions sévères. Face à l’horreur à laquelle il était confronté régulièrement, il a développé les symptômes typiques d’une grave dépression et d’un stress post-traumatique.

“300 à 600 reviews par jour”

Entre les objectifs de qualité inatteignables, les pauses chronométrées, les différences d’interprétation des guidelines de Meta qu’ils appellent “la bible”, le manque de formation du personnel, d’encadrement psychologique, la surveillance abusive, la charge de travail trop importante, une culture d’entreprise toxique et la sur-responsabilisation de l’employé dans sa prise de décision, impossible d’en sortir indemne.

C’est pour cette raison que Dave Coleman, avocat, a conseillé à Chris de mener Facebook au tribunal pour répondre de ses actes. Malgré son accord de non divulgation, Chris Gray a eu le courage de s’exprimer devant la justice pour faire entendre ses droits. Grâce à lui, d’autres l’ont suivi et nous pouvons à présent nous rendre compte que la modération de contenus pour les réseaux sociaux est loin d’être éthique pour le moment.

Si vous souhaitez en savoir plus, je vous invite à visionner le reportage de France TV Slash.
( /!\ TW : Contenu sensible /!\)

“Fermer les yeux est impossible”

Cette pratique ne concerne pas que Facebook (devenu Meta), au contraire, elle semble plutôt répandue. Twitter (devenu X) n’est pas en reste non plus. Ces deux réseaux sociaux ont été épinglés en 2018 par Hans Block et Moritz Riesewieck dans leur documentaire “The cleaners – Les Nettoyeurs du Web”.

Cette fois-ci nous nous rendons dans les locaux de Cognizant à Manille aux Philippines dans des conditions encore plus difficiles. À raison de 10h par jour pour un salaire misérable sans aucun soutien psychologique, la détresse est tellement grande qu’elle a mené à des conséquences dramatiques.

Je ne suis pas parvenue à trouver le documentaire en question, simplement des extraits. J’aimerais tout de même partager cet entretien avec les réalisateurs de ce film qui a été primé “meilleur documentaire TV” au Prix Europa en 2018 à Berlin. Ils soulèvent selon moi une question centrale. Comment se fait-il que les géants de la tech comme Facebook ou Twitter puissent bénéficier d’un pouvoir de décision aussi important ? Cela ne devrait-il pas être davantage contrôlé par un organisme tiers indépendant ?

L’effectif des modérateurs de contenus

Publié en 2021, un article d’Hélène Bielak publié sur Le Monde nous en apprend davantage sur l’effectif des modérateurs de contenus sur les réseaux sociaux. Leur nombre exact reste flou en raison du manque de transparence des géants de la tech.

Les seuls chiffres disponibles en 2021 soulèvent néanmoins une tendance intéressante. Les effectifs de Facebook (devenu Meta) étaient bien plus importants que ceux de Youtube ou Twitter (devenu X).

  • Environ 10 000 personnes pour Youtube
  • Environ 35 000 personnes pour Facebook
  • Environ 1 500 modérateurs pour Twitter

Pas étonnant que Twitter soit devenu un vivier de trolls ambulants. Avec aussi peu d’attention accordé à la modération de contenu sur ce réseau social, c’est la porte ouverte à toutes les fenêtres comme on dit.

Crédit photo : Photo de Nordwood Themes – Unsplash

Un réseau social sans modération ?

Avec le rachat de la plateforme par Elon Musk en octobre 2022, le phénomène semble avoir empiré selon Matt Navarra, consultant social media. “Nous n’avons pas vu X mourir, mais nous l’avons vu dégénérer, se détériorer, devenir plus toxique et moins précieux, moins utile » confie-t-il lors d’une interview pour Euro news publiée en 2023.

Un réseau social sans modération n’est donc pas envisageable. Comme dans tout espace public, il existe des règles à respecter. Certes la liberté de parole est un droit fondamental, mais elle s’arrête là où commence celle des autres. Sans ce principe bien connu, impossible de garantir un environnement sécurisé pour les utilisateurs de la plateforme.

Nous avons donc besoin de modérateurs, certes, mais à quel prix ? Les lourdes conséquences psychologiques que subissent ces travailleurs invisibles prouvent bien que ce n’est pas une solution viable. L’IA ne peut-elle pas se charger d’effectuer le travail à leur place ?

Crédit photo : Photo de Shyam Mishra – Unsplash

Une modération automatisée ?

Hmmmm... non

Au risque de vous décevoir, malheureusement, à l’heure actuelle ce n’est pas possible. En 2021, le travail de modération reposait déjà en grande partie sur des algorithmes. Sur YouTube, sur 5,8 millions de vidéos supprimées en un trimestre, 5,3 millions avaient été détectées automatiquement.

“NOTRE TECHNOLOGIE DÉTECTE PLUS DE 90 % DES CONTENUS SUR LESQUELS NOUS INTERVENONS AVANT MÊME QUE QUELQU’UN NE LES SIGNALE* *pour la plupart des catégories d’infractions” affirme Meta sur son site en 2023. Cependant, l’intervention humaine reste indispensable pour vérifier les contenus signalés.

Désinformation à l’ère du covid

Bien que l’IA prenne en charge une grande partie du travail, elle n’est pas encore capable de détecter les nuances du langage et certains éléments de contexte. Elle n’a pas été entraînée suffisamment pour les comprendre et prendre des décisions éclairées. Nous nous en sommes rendus compte lors de la crise du covid en mars 2019. Youtube et Facebook avaient congédié les modérateurs en raison du confinement. Sans aucune intervention humaine, en faisant appel uniquement à l’intelligence artificielle, c’est vite devenu la catastrophe. L’IA pratiquait une forme de censure abusive et a laissé passer beaucoup trop de choses problématiques.

Le 27 août 2024, Marc Zuckerberg déclare avoir subi des pressions de la part de la maison blanche pour retirer tout contenu lié au covid sans aucune distinction. « Je suis convaincu que nous ne devrions pas compromettre nos normes de contenu en raison de la pression exercée par une administration, quelle qu’elle soit, et nous sommes prêts à riposter si une telle situation venait à se reproduire » confie-t-il dans une lettre au président de la commission judiciaire de la Chambre des représentants. Une manière comme une autre selon moi de se dédouaner de toute responsabilité, mais ce n’est que mon opinion.

Partialité de l’IA

Un article de The Guardian publié le 15 août 2024 a dénoncé des censures abusives envers les contenus palestiniens. Meta dispose d’un système pour évaluer la précision de sa modération de contenu en arabe, mais pas en hébreu. Bien que la plateforme dispose d’outils et de modérateurs humains pour le contenu en hébreu, il n’existe pas de système standardisé pour en mesurer la précision, contrairement à ce qui est fait pour l’arabe. Il existerait donc un biais manifeste dans la manière dont Meta applique ses politiques de contenu. Ce biais serait involontaire, mais les conséquences restent extrêmement problématiques. L’article mentionne que plus de 200 employés de Meta ont signé une lettre exprimant des préoccupations quant aux pratiques de modération de contenu de l’entreprise, en particulier en relation avec la Palestine.

La culture du secret

Aujourd’hui, le métier de modérateur de contenus existe donc encore. Certaines offres sont par ailleurs disponibles sur le site de Meta. L’entreprise aurait mis en place un programme de conformité et d’audit pour surveiller les pratiques de ses partenaires et aurait standardisé les contrats pour assurer des conditions uniformes. Elle organiserait même des sommets pour renforcer les attentes en matière de soutien et de bien-être.

En théorie, les conditions de travail se seraient quelque peu améliorées. En pratique, impossible de savoir si ces engagements sont respectés. La culture du secret demeure encore et toujours chez les géants de la tech. Sur le site de l’un de ses prestataires, nous pouvons lire “Une approche résolument centrée sur l’humain”. Permettez-moi une seconde d’en douter à présent.

Crédit photo : Photo de Brooke Cagle – Unsplash

Mes questionnements sur la modération

Et donc ? Que devons nous retenir de tout cela ? Pour ma part, plusieurs questions restent en suspens.

Comment est entraînée l’IA de Meta ? Les conditions de travail des modérateurs sur les réseaux sociaux s’est-elle réellement améliorée ? Que sont devenus Chris Gray et les autres ? Comment pouvons-nous améliorer leur condition ? Est-ce normal qu’un si grand pouvoir de décision appartient uniquement à des entreprises privées ? Ne serait-ce pas plus sage de confier cette part du travail à un organisme régulateur indépendant ? Les réseaux sociaux peuvent-ils cultiver une culture du secret aussi délétère pour la démocratie ?

Bref, autant vous dire que je suis tout autant désemparée que vous devant l’ampleur du problème. Dans ce combat, le pouvoir de changer les choses appartient à tous les géants de la tech. En attendant qu’ils se décident à agir, nous pouvons sensibiliser notre entourage à cette problématique. Qui sait ? Ensemble nous pouvons peut être peser plus lourd dans la balance ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut