PLATEFORMES & CLASSEMENT DES CONTENUS

Les plateformes, par définition, font de la mise en relation entre des contenus et/ou des personnes. Ce faisant, elles se présentent comme des simples intermédiaires, qui assurent leur fonction suivant les demandes exprimées. Néanmoins, il n’existe pas de mise en relation qui soit neutre. Qui voit quoi ? À quel moment ? Pour quelle finalité ? Les réponses à ces questions ne sont pas anodines et varient suivant les plateformes, les algorithmes et, évidemment, les utilisateurs. L’essentiel du pouvoir des plateformes vient de cette capacité à organiser la mise en relation, à lui donner une forme, un sens, surtout dans la mesure où elles sont désormais les points d’accès principaux à l’information. Cela soulève un certain nombre de débats : quelles conditions de censure des contenus - à caractère violent ou pornographique, par exemple ? Faut-il éviter la personnalisation à outrance des flux d’information ? Quels critères pour la recommandation des contenus par la plateforme ?

CONTROVERSE #1 : Quelles politiques de modération des contenus par les plateformes ?

Les plateformes fixent contractuellement ce qui est socialement acceptable ou non dans les espaces qu’elles organisent à travers leurs CGU. Il est évident pour la majorité des individus que les plateformes doivent jouer un rôle actif dans la censure de contenus, lorsqu’ils sont violents, racistes, pornographiques, etc. Cependant, au-delà des exigences proprement légales dont l’application fait l’objet d’un débat à part entière (cf: page sur les contenus illicites), les politiques internes des plateformes, en termes de censure, sont régulièrement contestées ou critiquées pour leur ambiguïté.  

L’exemple le plus fameux est la censure des corps nus sur Facebook, qui a donné lieu à des interdictions contestables (oeuvres d’arts, contenus éducatifs et militants... ) et à des critiques concernant le rôle moral de ces plateformes. De manière plus subtile, les lignes de ce qui doit être censuré en termes de contenus violents ou de discours de haine, relèvent souvent d’une appréciation spécifique à la plateforme, qui donne lieu à des polémiques. Ainsi les règles de modération de Facebook ont-elles été récemment révélées publiquement : on y apprend notamment que des catégories spécifiques de personnes (“catégories protégées”) font l’objet de davantage d’attention que d’autres catégories de personnes en ce qui concerne la qualification de discours de haine.

Pour aller plus loin :

  • Dossier du Guardian sur les politiques internes de retrait de contenu mises en place par Facebook (LIEN)
  • Morgane Tual, Facebook : des documents internes dévoilent les détails de sa politique de modération, Le Monde (LIEN)
  • Maïté Koda, Les mystérieuses règles de Facebook pour censurer les posts racistes, France Info (LIEN)

CONTROVERSE #2 : Faut-il éviter la personnalisation à outrance des contenus ?

Certaines plateformes sont devenues des canaux d’information majeurs. Youtube ou Facebook jouent ainsi le rôle de lieux d’informations incontournables, ce qui a été très largement rendu visible lors de la campagne présidentielle américaine. À cette occasion, des débats ont surgi concernant les algorithmes de personnalisation des contenus qui déterminent en partie la mise en valeur des contenus pour tel ou tel individu. En effet, si la personnalisation semble correspondre aux souhaits des utilisateurs - en agrégeant les préférences qu’ils ont émis lors de leur navigation sur ces plateformes - elle peut avoir comme effet d’enfermer les individus dans leur propres opinions, renforçant la fragmentation de la population en différents blocs distincts, incapables de se parler et de se comprendre. Ce débat en a fait naître d’autres : ce phénomène est-il plus important en ligne, du fait des algorithmes de personnalisation, ou hors-ligne, où les individus consomment déjà des médias correspondant à leurs opinions ? Faut-il obliger les plateformes à proposer des contenus opposés aux opinions des individus pour les “forcer” à s’ouvrir à d’autres idées - présupposant par là que si un individu a une opinion déterminée, c’est qu’il est fermé à d’autres opinions ?

CONTROVERSE #3 : Quels critères pour les recommandations de contenus ?

La personnalisation n’est pas la seule manière, pour les plateformes, de mettre en valeur certains contenus plutôt que d’autres. Les mécanismes de recommandation et de proposition, y pourvoient aussi. À cet égard, il est intéressant de se préoccuper de savoir pourquoi certains contenus plutôt que d’autres sont mis en avant par une plateforme, par exemple sur Youtube. C’est tout d’abord, la plupart du temps, parce qu’ils ont un lien avec la requête ou le contenu précédemment consulté et qu’ils sont reconnus comme étant de qualité. Néanmoins, d’autres critères influencent la recommandation. Il s’agit par exemple de critères liés aux modèles d’affaires des plateformes : dans un modèle financé par la publicité, elles ont en effet tout intérêt à ce que l’utilisateur demeure le plus longtemps sur la plateforme. Ainsi cette quête de l’attention des individus conduit à ce que les algorithmes privilégient les contenus les plus susceptibles de la retenir, que ce soit parce qu’ils soient choquants, parce qu’ils remettent en cause notre vision commune des choses ou pour tout autre raison. Le problème c’est que cela conduit parfois à une absence de neutralité politique, en faveur de certaines personnalités politiques, ou à promouvoir massivement des contenus qui défendent des thèses erronées aux yeux de la science...

Pour aller plus loin :

  • Perrine Signoret, l’algorithme de YouTube met-il en avant certains candidats à la présidentielle ? Le Monde (LIEN)
  • Jacob Weisberg, la personnalisation du web nous enferme-t-elle dans notre bulle?, Slate (LIEN)
  • Sam Hook, What is Watch Time and Why Does It Matter? (article d'explication du fonctionnement de l'algorithme de Youtube) , Replay Science, (LIEN)