Petit tour de la censure privée sur internet

La censure privée est un phénomène courant sur internet, il se manifeste de différentes façons, plus ou moins insidieuses en fonction de la nature des acteurs et de l’objectif recherché.
Certains vont sans doute expliquer que la censure privée n’existe pas car celle-ci n’empêche pas, dans l’absolu, de s’exprimer publiquement. Cependant, celle-ci a pour effet de déterminer quelles œuvres et idées auront plus de visibilité. Quel est l’effet de la liberté d’expression si votre visibilité dépend des choix de censeurs ayant des objectifs et/ou contraintes similaires ?

Si je ne vous ai pas convaincu je vous invite à regarder cette vidéo (ou transcription) où le regretté Christopher Hitchens défend la liberté d’expression bien mieux que je ne pourrais le faire.

La censure incitée par les états

Une partie de la censure est publique ou incitée par des lois. Tout acteur du numérique doit respecter la législation du pays dans lequel le contenu est hébergé. Par exemple, en France, la liberté d’expression est limité par la loi et il est illégal, entre autre, de nier l’existence de la Shoah.

Or la loi a également rendu l’éditeur responsable des propos des auteurs. Par exemple, si vous postez un commentaire sur mon blog, je suis responsable des propos que vous tenez.

Cette responsabilité d’éditeur ne se limite pas au déni de la Shoah, certains actes illégaux peuvent également être imputés à l’éditeur tel que l’appel à la violence, l’appel à la haine, la diffamation, et le partage d’œuvres sous licences propriétaires.

Pour les petits sites tel que mon blog cela impose (avec les bots qui cherchent à poster leurs publicités) de faire de la modération à priori et à juger par soi-même la légalité des propos et des liens proposés. Je doute que beaucoup de blogueurs aient les connaissances nécessaires pour juger de la légalité de propos tenus ou de détournement d’œuvres sous licences propriétaires. Par conséquent la censure effectuée est souvent zélée par peur des conséquences judiciaires.

Les plus gros sites ne veulent pas payer des modérateurs pour faire du filtrage à priori.
Pour le contenu soumis au droit d’auteur ils utilisent du filtrage algorithmique (aussi utilisé pour combattre la nudité). Ce dernier n’est pas capable de faire la différence entre l’usage légitime de ce contenu (fair use aux U.S.A, diverses exceptions au droit d’auteur en U.E tel que le droit à la parodie) et le partage condamné par la loi.
Pour les limitations à la liberté d’expression ils utilisent des méthodes de signalement. Les utilisateurs vont signaler un contenu ne respectant pas la législation ou les conditions d’utilisation et ce dernier sera sans doute bloqué sans qu’il n’y ait vérification de la non-légalité ou de la violation des C.G.U de celui-ci par un modérateur (la modération ça coûte cher).

Imaginez un peu comment pourraient être gérées les « fakes news » s’il était de la responsabilité de l’éditeur de s’en prévenir.

La censure par les GAFAM

Les GAFAM (pour Google Amazon Facebook Apple Microsoft) représentent, plus généralement, les grandes entreprises du numérique offrants des services ou des réseaux sociaux. Comme toute entreprise un de leurs objectifs principaux (si ce n’est pas leur seul objectif) est de faire de l’argent.

Une de leur optimisation économique, l’automatisation de la censure et le travail gratuit par des personnes non spécialisées et potentiellement biaisées, a été expliquée plus haut.

Les revenus de ces services web dépendent presque exclusivement de la publicité. Leurs clients sont les annonceurs et l’utilisateur final n’est que du temps de cerveau disponible. L’objectif primaire des GAFAM est donc de gaver l’utilisateur final de publicité sans le faire fuir. Ce simple fait porte déjà à conséquences.
Prenons le cas Youtube. Il est possible de poster des vidéos non monétisés, mais l’algorithme de suggestion de Youtube aura tendance à sélectionner des vidéos monétisés afin d’augmenter la rentabilité, réduisant ainsi, à toute chose identique, la visibilité des vidéos non monétisés.

Les annonceurs ont aussi certains objectifs et Youtube a tout intérêt à faire plaisir à ses clients. Il est évident que les annonceurs veulent le taux de conversion le plus élevé possible, pour cela de la publicité ciblée a été mise en place. Mais ces derniers ont d’autres exigences, et, ils ont peur de la réaction de leurs potentiels futurs clients (les utilisateurs de Youtube).
Prenons Nestlé, cette grande entreprise de crime contre l’humanité humaniste. Il est possible que les paires d’yeux de gauche tombent sur une vidéo politique de droite (ou inversement), et ces derniers, ne connaissant pas le concept de publicité ciblée (dans la tête des annonceurs), pourraient penser que Nestlé est en accord avec les propos tenus et donc ne pas acheter le produit présenté voire boycotter la marque. Les vidéos parfaites pour Nestlé sont donc celles avec des animaux rigolos, des “let’s play” sur Minecraft, et des tutoriels de maquillage. Il faut absolument démonétiser les vidéos polarisantes, car celles-ci pourraient impacter négativement la vente de leurs produits. Par conséquent, les vidéos démonétisés auront le même poids dans les algorithmes de suggestion que des vidéos non monétisés.

Sur les réseaux communautaires

Les défauts des services gérés par les GAFAM sont bien connus, mais les GAFAM ne sont pas les seuls à offrir des services. Il y a également divers réseaux gérés par des communautés tel IRC (où chaque serveur est géré par une autre entité), Jabber, certaines plateformes de blogs communautaires (Freethought Blogs ou Agence Science-Press), et des réseaux sociaux libres et fédérés (Diaspora, GNU Social, ou Mastodon).
Bien sur ces services sont gérés par différents individus avec différentes idéologies, mais lorsqu’il y a un comportement de censure au sein d’une instance celui-ci est plus insidieux que la censure par les GAFAM. Là ou les GAFAM pratiquent leur censure privé pour l’argent, ces personnes censurent pour des raisons politiques.

On risque même d’avoir, dans le pire des cas, des réseaux qui par leur structure et la façon dont la censure s’effectue, encouragent un comportement similaire à celui retrouvé dans les cultes.

Avant de voir un cas concret de réseau qui a cet effet, je vais présenter les comportements qui peuvent être observés dans différents environnements sociaux, indépendamment des systèmes de modérations.

Petit avertissement : Les exemples de comportements proviennent d’une partie de féministes, d’anti-racistes et d’SJW (Social Justice Warrior). Cette partie ne représente pas tous les féministes, anti-racistes et SJW. Ces comportements sont, à “gauche”, représentatif de la gauche régressive. Ces comportements existent aussi à “droite” chez une partie d’anti-SJW, d’“alt-right”, d’antiféministes, de MRA (Men’s Right Activist). J’ai plus d’exemples à “gauche” qu’à “droite” car je suis mieux informé sur la “gauche” que sur la “droite”. Dans cet article, je souhaite éviter d’aborder le plus possible la gauche régressive, l’alt-right, le féminisme, les MRA (Men’s Right Activist) et autres, mais, malheureusement, j’ai besoin d’utiliser ces sujets de manière extrêmement superficielle en guise d’exemple.
Bref, tout ça pour dire qu’en m’assignant une position politique à partir de mes exemples vous obtiendrez un bel homme de paille.

Les comportements du groupe

Les comportements à l’encontre des personnes extérieures au groupe

Ces comportements sont souvent justifiés par les personnes les pratiquants car ils ne seraient pas néfastes à la liberté d’expression. En effet, ces comportements ne sont pas issus d’un gouvernement et la liberté d’expression ne protégerait pas des conséquences de celle-ci (ce qui est une assomption erronée. L’illégalité de la diffamation ou de virer quelqu’un en fonction de ses opinions a pour but de protéger de certaines conséquences sociales possibles de la liberté d’expression). Les conséquences ici, représentent ce que ces personnes font à ceux avec qui elles ont un désaccord. Comme vous allez le voir ces conséquences ont pour but de décrédibiliser la parole de leurs adversaires voir d’imposer le silence à leurs opposants (et tombe donc sous ma définition de censure privé) et ces actions sont souvent illégales…

  • S’attaquer à la réputation de l’opposant en l’assimilant publiquement au nazisme par exemple, tout en distordant son propos. Ceci a pour but de rendre sa parole inacceptable aux yeux de la société afin de réduire les lieux ou il pourrait s’exprimer et son audience potentielle. Surtout s’il pourrait s’agir de membres du groupe (en effet il ne faudrait pas qu’ils aillent s’informer sur des propos différents car cela pourrait les faire changer d’avis). Exemple : Charles Murray pour le bouquin « The Bell Curve ».
  • S’attaquer à la réputation de l’opposant directement à l’employeur en le traitant de nazi (c’est très populaire). Cela a pour but de pousser la personne à l’auto-censure en menaçant sa source de revenu primaire. Exemple : Thunderf00t.
  • Empêcher directement des gens de s’exprimer en utilisant la violence (video1, video2, malgré leur justification de non-respect de la liberté d’expression on peut féliciter les auteurs de ces vidéos d’avoir correctement utilisé le terme nazi). Tirer une alarme incendie est une solution originale pour obtenir le même résultat.

Le comportement punitif à l’égard des membres du groupe

Un des buts des comportements à l’encontre des personnes extérieures est de rendre leurs paroles inacceptables afin que les membres du groupe continuent à être exposés a des avis similaires. Isoler les individus du groupe du monde extérieur va souvent de pair avec la création d’un lien social et émotionnel privilégié entre l’individu et le reste du groupe. Mais que se passe-t-il si un membre du groupe change d’avis ou bien tente de parler avec l’opposition ? Vous l’avez compris, de manière similaire à certaines sectes ils se font jeter de leur communauté et traiter comme des “autres,” ou bien, au mieux, sont fortement découragés à continuer leur quête.
Ceci peut se voir sur comment a été traité le documentaire « The red pill » (fait par une féministe) sur les MRA (Men’s Right Activist).
Ou bien encore comment a réagit la gauche régressive au débat entre Laci Green (une féministe) et Blaire White (une antiféministe) et à l’envie de Laci Green de faire plus de discussions avec d’autres antiféministes. Vous l’avez deviné, une partie de la communauté féministe s’y oppose fortement. D’un autre côté, leur violence à l’encontre des non feministes est justifiée par le fait qu’ils seraient fatigués de répondre toujours aux mêmes arguments (voir les commentaires, particulièrement de nico, c’est consternant). Ne devraient-ils pas être contents que quelqu’un veuille bien faire ce travail qui les exaspère ? Bien sur, parmi eux, tous ne sont pas de la gauche régressive, et, ceux qui expliquent que les autres sont fatigués sont plutôt ouvert à la discussion. C’est une partie des “fatigués” qui cherchent à éteindre toutes possibilités de discussion entre les deux opposés.

La structure facilitant ces comportements

Vous avez pu le percevoir, en plus de chercher à effectuer une censure privée ces personnes veulent pousser leurs pairs à l’auto-censure. Bien pire, ils souhaitent décourager les membres de leur groupe à réfléchir en dehors de leur propre paradigme.

Et si un système particulier de réseau social pouvait servir de catalyseur à ce type de comportements sectaires ? Facilitant l’attaque à la réputation, la censure des opinions opposés. Compliquant l’accès à des opinions opposées et la discussion entre personnes d’opinions différentes. Punissant le changement d’opinion voir la discussion avec quelqu’un ayant une opinion différente.

Ce système existe. Je l’ai remarqué à travers Mastodon, probablement, car c’est le seul réseau social libre que j’ai vraiment cherché à utiliser. Mastodon partage avec Diaspora et GNU social des caractéristiques techniques favorables à ce type de comportement. Ces dernières sont :

  • Fédéré (donc constitué de plusieurs instances (serveurs) communiquant entre eux).
  • Modéré par instance.

GNU Social et Diaspora n’ont pas une équipe ou une communauté aimant l’idée de la censure privée et le fait que leur conception facilite celle-ci est accidentelle. L’équipe et la communauté derrière Mastodon est très portée sur la modération. Par exemple, il existe deux types de censure privée, l’une n’affichant simplement pas les “toots” dans la timeline fédéré l’autre empêchant de suivre quelqu’un de bloqué par l’instance. Pour ces raisons (et une autre plus personnelle, présentée plus tard) j’ai sans doute été amené à percevoir les problèmes dans la structure.

Avoir plusieurs instances fédérées et une modération par instance augmente l’impact qu’à l’instance. Ainsi, celle-ci peut être vue tel un groupe social. Grâce à ces deux caractéristiques Unixcorn et d’autres instances de ce type peuvent reproduire facilement les comportements de la gauche régressive.

Ces instances, ou, plus précisément, la modération de ces instances, ont une autorité morale. Unixcorn.xyz, par exemple, avait une liste de comptes bloqués avec la raison indiquée (maintenant il n’y a plus de raisons c’est déjà une avancée non négligeable, et apparemment c’est dû à aeris qui aurait débuté une procédure judiciaire pour diffamation ayant été bloqué pour « incitation au viol et à la séquestration »). La raison est l’outil utilisé pour attaquer à la réputation d’une personne extérieure. Le blocage, quant à lui, empêche la parole de la personne extérieure d’accéder au groupe. Par exemple, j’ai été bloqué, il y a fort longtemps, avec la raison “pragmanazisme” alors que je n’avais abordé que le sujet de la modération par instance et de l’intérêt du “content warning” (rien à voir de près ou de loin avec le nazisme). Dans ce cas concret la raison sert à décrédibiliser ma parole et le blocage a pour but d’empêcher les utilisateurs d’unixcorn.xyz d’accéder facilement à mes plus profondes réflexions rédigés avec une orthographe irréprochable mes toots sans intérêt bourrés de photes d’eaurtografe.
Par conséquent, le coût pour pouvoir me suivre ou interagir avec moi (ou mieux, avec les autres comptes bloqués) est, après avoir passé la première phase de dégoût pour avoir vu “nazi”, d’ouvrir un nouveau compte sur une autre instance (gérer deux comptes différents), ou alors, quitter l’instance, faire un nouveau compte et perdre des followers.
Pire, le coût pour changer d’avis est la perte de son compte et de ses followers si vous choisissez de quitter l’instance incognito, ou alors, si vous souhaitez vous exprimez sur votre compte originel, une forte critique de votre instance d’origine avec, au pire, le bannissement de celle-ci résultant en la perte de followers.

Bref, ce système permet de décourager la lecture et l’interaction avec des personnes à l’extérieur du groupe ainsi que le changement d’opinion en plus d’attaquer la réputation des personnes avec lesquelles ces groupes ne sont pas d’accord.

Je crois que, même en respectant la censure imposée par la loi, il est possible d’avoir une modération décentralisée qui ne dépend pas des instances. Celle-ci serait personnalisable et automatisable par l’utilisateur final à l’aide de listes fonctionnant de façon similaire à un bloqueur de publicité.

J’ai proposé cette idée en issue sur Github. Cette issue n’a pas été acceptée et la justification derrière cette non-acceptation ne me semble pas techniquement valide. En effet, on peut imaginer des listes par défauts sur une instance, ne compliquant pas ainsi l’utilisation du service par un nouvel utilisateur. Et la rapidité de la modération dépend bien plus de la réactivité de l’équipe de modération que de l’implémentation du système de modération. On peut donc, avec le système de modération que je présente, simuler le système de modération par instance (à l’exception du fait que l’utilisateur final pourra choisir ses listes) et faire bien plus. Ceci rend la solution que je présente techniquement supérieure à la solution actuelle.
Le code est la loi et le reste de la justification présentée pour le refus de cette autre méthode de modération est politique. Or, je crois avoir expliqué ici pourquoi cette association instance-groupe est néfaste.

Petit tour de la censure privée sur internet par La Réponse est 42 est sous Licence Creative Commons Internationale Attribution-Partage à l'identique 4.0.

Vous aimerez aussi...

6 réponses

  1. Vassili dit :

    « Quel est l’impact de la liberté d’expression si votre visibilité dépend des choix de censeurs ayant des objectifs et/ou contraintes similaires ? »
    Euh depuis quand c’est la liberté d’expression qui impacte? c’est la censure qui impacte.
    Depuis quand les censeurs ont les mêmes objectifs de liberté d’expression? Un censeur a avant tout un objectif de censure.
    Puisque le sommeil est un élément naturel et obligatoire, normalement tu ne dit pas que c’est ton sommeil qui te rend énergique, mais ton manque de sommeil qui te fatigue.
    De la même manière le fait de parler a fait de nous des hommes, c’est après qu’est venu la censure qui « fatigue » notre humanité.

    • Astyan dit :

      La phrase est peut-être mal tournée, mais je l’ai lu et relu. Je vais tenter de reformuler:
      La liberté d’expression à un impact sur la société et s’il y a une censure (surtout si elle va dans le même sens) alors l’impact de la liberté d’expression est diminué par l’effet de la censure.

  2. Il est rigoureusement faux de dire que les GAFAM visent de la publicité. C’est vrai pour Google et Facebook, mais ce sont des revenus très marginaux chez Amazon et Microsoft, et virtuellement inexistants chez Apple.

    – Amazon tire ses revenus de ses activités de vente en ligne et de fournisseur de solutions techniques (Amazon Web Services, souvent négligé dans le grand public mais qui est très important dans son modèle économique)
    – Microsoft vend des logiciels et des services, un peu de matériel
    – Apple fait son beurre en vendant du matériel, et plus marginalement des services en ligne

    Ce « concept » de GAFA(M) est complètement creux du point de vue des modèles économiques des différentes firmes concernées, et ne devrait probablement pas être utilisé (sauf à vouloir sciemment induire en erreur).

    • Astyan dit :

      Certe, le concept de GAFAM n’est pas forcément très adapté à mon explication. Il serait plus juste de dire les « géants des services (de communication publique) sur web ». Cependant, je pense qu’utiliser le terme GAFAM n’est pas trop « faux », car toutes ces entreprises ont des activités sur le web : Microsoft (bing), Amazon (twitch et goodreads) et Apple (itunes en tant qu’annuaire de podcasts). Ces services sont loin de faire preuve d’autant de dérives que Youtube (qui était mon exemple), mais la problématique reste la même.

      De plus j’ai expliqué ce que j’entendais par GAFAM avec la première phrase du paragraphe : « Les GAFAM (pour Google Amazon Facebook Apple Microsoft) représentent, plus généralement, les grandes entreprises du numérique offrants des services ou des réseaux sociaux ». Je trouve donc pas très charitable votre interprétation de mes intentions « Ce « concept » de GAFA(M) est complètement creux du point de vue des modèles économiques des différentes firmes concernées, et ne devrait probablement pas être utilisé (sauf à vouloir sciemment induire en erreur). »

  3. Vassili dit :

    Ta réponse ne fait qu’insister sur ce que je trouve faux… pour moi la liberté d’expression n’a pas « d’impact », elle est de facto.
    Comme le fait d’avoir des yeux et des pieds, tu peut parler, comme tout être humain.
    Dire que c’est la liberté d’expression qui a un impact, c’est cautionner , que dis-je, promouvoir,la censure.
    Car tu part du constat que la liberté d’expression n’est pas naturelle, pas « de facto », et donc que son contraire, la censure, elle, l’est.

    • Astyan dit :

      Je n’entendais pas impact d’une façon négative et je crois que c’est claire.

      Je vais remplacer impact par effet pour éclaircir cette phrase, même si je pense, vu ta critique, que tu penseras qu’effet ne convient pas non plus et qu’il faudrait changer la structure de la phrase.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *