une étude invite à délaisser l’automatisation et privilégier l’autorégulation – EURACTIV.fr

[ad_1]

Une nouvelle étude, mandatée par des eurodéputés, invite à privilégier la « perspective holistique » en matière de modération du contenu en ligne employée par les plateformes régulées par les communautés d’utilisateurs elles-mêmes, comme Wikipédia.

« Les plateformes en ligne ne sont pas seulement utilisées pour l’humour, les bébés mignons et les photos de chats. Ce sont des espaces publics essentiels qui influencent le débat public et le comportement humain », souligne une nouvelle étude publiée lundi (3 mai) et commissionnée par le Groupe des Verts/Alliance libre européenne au Parlement européen, en amont des négociations autour du Digital Markets Act (DMA) et du Digital Services Act (DSA).

L’objectif de la recherche est de promouvoir les plateformes qui s’autorégulent plutôt que celles des géants comme Facebook ou Instagram qui font davantage appel à de l’automatisation et de l’intelligence artificielle – même si les premières n’en sont pas complètement exemptes.

Les auteurs y ont passé au crible les politiques de modération de 5 plateformes gérées en grande partie par leur propre communauté : Wikipedia, diaspora*, Mastodon, Der Standard et Slashdot.

Pour recueillir des données, des analyses qualitatives et des entretiens avec les modérateurs et administrateurs de ces plateformes en ligne, ainsi qu’une exploration de la littérature scientifique à ce sujet, ont été menées.

Automatiser la modération du contenu « n’est pas une solution »

À la lumière de leur recherche, les auteurs estiment que l’automatisation des processus de modération « n’est pas une solution ». Ils expliquent que les algorithmes utilisés sont « généralement biaisés » et que les ordinateurs sont incapables de comprendre le contexte.

Les inconvénients existent également lorsque ces filtres passent en dernière étape par une révision humaine, ce qui est le cas pour Wikipedia, Mastodon et Der Standard ; l’étude pointe du doigt la charge psychologique que peut engendrer un contenu préjudiciable pour la personne ainsi qu’une possible atteinte à la liberté d’expression pendant que le contenu est en attente de modération.

Alors que le Parlement européen validait la semaine dernière l’obligation pour les plateformes de retirer tout contenu terroriste en ligne sous un délai d’une heure, le rapport rappelle par ailleurs que « des délais trop courts pour le retrait du contenu créent une pression inutile sur les plateformes pour qu’elles utilisent des outils automatisés très problématiques ».

La suppression pure et simple du contenu n’est pas non plus la réponse, selon eux. « Il s’agit simplement d’un pansement pour un problème déjà existant », note la tribune rédigée par les eurodéputés Alexandra Geese, Marcel Kolaja, Patrick Breyer, Kim Van Sparrentak, Rasmus Andresen, à l’initiative de l’étude.

Sans compter que cette pratique pourrait inciter les « trolls » à poster davantage, entraver le contenu qui expose des violations des droits de l’Homme et, plus généralement, nuire à la liberté d’expression, explique l’étude.

Elle suggère plutôt de renforcer la transparence de leur stratégie de modération, notant par exemple que « le fait de fournir des explications sur la suppression d’un message diminue la probabilité de suppression future des messages des utilisateurs modérés, alors que la suppression simple sans explication augmente en fait la probabilité qu’un utilisateur subisse une suppression de message à l’avenir » et invite à davantage s’inspirer des pratiques d’autorégulation par les utilisateurs comme c’est le cas pour les plateformes passées à la loupe – même si les auteurs reconnaissent qu’il s’agit d’un processus plus lent et qui peut être manipulé.

En février dernier, la Fondation Wikimedia, maison mère de Wikipedia, annonçait le lancement d’un nouveau « Code de conduite universel »visant à notamment à « prévenir l’abus de pouvoir et d’influence pour intimider les autres » et « lutter contre l’introduction délibérée de contenus faux ou inexacts ».

« La modération de contenu dirigée par la communauté semble être très efficace, car elle offre des modèles alternatifs de modération descendante », concluent-ils.

[ad_2]

https://www.euractiv.fr/section/economie/news/moderation-du-contenu-une-etude-invite-a-delaisser-lautomatisation-et-privilegier-lautoregulation/