Plateformes et modération des contenus

En Bref

Le numérique, passerelle d’échange entre les individus du monde entier, doit être un lieu de libre expression sans devenir une zone de non-droit. C’est dans ce souci que la directive e-commerce de 2000, transposée en droit français par la loi pour la confiance dans l’économie numérique (LCEN) de 2004, a défini deux grandes catégories d’acteurs :

  • les éditeurs de services sur internet, pleinement responsables des contenus qu’ils mettent en ligne ;

  • les hébergeurs (forums de discussion, stockage en ligne) qui jouissent d’une responsabilité limitée afin de favoriser le libre essor des communications et des échanges.

Près de deux décennies plus tard, la masse des contenus en ligne et les nouveaux usages du web semblent bouleverser ce cadre juridique. Des voix s’élèvent pour réclamer un régime plus strict à l’égard des grandes plateformes, considérées comme n’ayant plus grand chose à voir avec les hébergeurs techniques visés par l’esprit de la directive. Ainsi, les nouvelles obligations s’accumulent progressivement, ce qui pourrait s’avérer préjudiciable pour la liberté d’expression sur Internet.

 

#1 - L'avènement d'une censure privée ?

L’une des difficultés réside dans le fait de confier à des entreprises privées le soin de qualifier pénalement les propos qui leur sont signalés, pour qu'eux-mêmes décident ou non de les censurer et de les transmettre aux autorités compétentes (en pratique à l'OCLCTIC, à travers la plateforme Pharos). Depuis plusieurs années, ce mouvement de privatisation du retrait de contenu va en s’accentuant. Lutte contre le terrorisme et la pédopornographie, pour l’égalité entre les femmes et les hommes, contre les discours haineux, la contrefaçon... les plateformes sont de plus en plus tenues d’adopter une attitude volontariste en matière de retrait de contenus, sous la pression des pouvoirs publics et des ayants droits, notamment.

Par exemple, le projet de réforme de la directive sur le droit d'auteur, portée par la Commission européenne dans le cadre de la stratégie pour le marché unique numérique, propose ainsi d'imposer aux plateformes telles que Youtube, dont les contenus sont apportés par les utilisateurs d'empêcher — de manière proactive — la mise en ligne de contenus enfreignant le droit d'auteur. Cette approche a récemment suscité la publication par une soixantaine d’associations d’une lettre ouverte à la Commission européenne critiquant l’avènement d’une « censure privée ».

De manière générale, face aux lenteurs présumées de la justice, l’objectif de lutte contre les contenus illicites dans l’environnement numérique débouche sur des propositions controversées visant à contourner l’autorité judiciaire pour permettre aux autorités administratives d’ordonner la suppression des contenus litigieux.

Pour aller plus loin :

  • Emmanuel Macron et Theresa May s’allient contre les discours extrémistes sur Internet, Numerama (lien)

 

#2 - Editeur ou hébergeur ? "Les deux mon capitaine !"

Treize ans après la LCEN, la masse des contenus en ligne et les nouveaux usages du web 2.0 ont bouleversé ce cadre législatif, sans que le rôle central des plateformes, ne soit particulièrement éclairci en droit. Editeurs de contenus ou simples hébergeurs ?

Cette distinction est aujourd’hui régulièrement remise en question. Nombre de ces plateformes ne se contentent plus de stocker passivement les contenus mis en ligne : elles les organisent en les indexant ou en faisant des recommandations personnalisées aux internautes, tout en continuant de se prévaloir du statut d’hébergeur et des bénéfices de la responsabilité limitée. Une telle position supposerait de nouvelles responsabilités, qui doivent toutefois rester limitées. En effet, les plateformes jouant un rôle essentiel dans l’exercice des libertés sur internet, une responsabilité trop contraignante risquerait de les pousser vers une censure préventive, afin de voir le moins possible leur responsabilité engagée du fait d’un contenu illicite. Dans ces conditions, les équilibres sont fragiles et le curseur, difficile à placer.

Pour aller plus loin :

  • Conseil d’État, Etude sur le numérique et les droits fondamentaux, 2014 (lien)

  • Conseil national du numérique, Rapport « Ambition numérique », 2015 (lien)

 

#3 - Automatisation du retrait de contenus et risques pour la liberté d'expression sur internet

Le projet de directive sur le droit d’auteur prévoit d’imposer aux plateformes de déployer des moyens efficaces, tels que des technologies permettant de détecter automatiquement des chansons ou des œuvres audiovisuelles identifiées par les titulaires de droits et devant être soit autorisées, soit supprimées. Ce type de mécanisme est déjà prévu sur des plateformes comme YouTube (qui l’a déployé de façon volontaire).

Depuis plusieurs années, face à la pression exercée par les opinions et les pouvoirs et publics, les grandes plateformes déploient progressivement des outils de détection et de filtrage automatiques des contenus postés. Si ces acteurs ne se cachent pas d’utiliser le procédé dans le cadre de lutte contre la pédopornographie, ils sont bien moins clairs en ce qui concerne les contenus considérés comme « extrémistes ». Or, contrairement aux contenus pédophiles, il n’est pas toujours évident d’établir le caractère extrémiste d’un contenu. Encore moins pour un robot (les chercheurs et journalistes qui étudient ou enquêtent sur le terrorisme en font régulièrement l’expérience). Malgré les progrès spectaculaires de l’intelligence artificielle (en particulier du deep learning), les algorithmes de détection de contenu restent (et resteront) largement perfectibles. Comment distinguer clairement l’apologie de la critique du terrorisme ? Comment s’assurer du respect des droits des créateurs ? Sur Youtube, par exemple, le « Robocopyright » est incapable d’apprécier le contexte d’une publication, ce qui le conduit fréquemment à retirer des parodies, pourtant parfaitement légales en vertu d’une exception au droit d’auteur.

Pour aller plus loin :

  • Communication de la Commission européenne, Lutter contre le contenu illicite en ligne, pour une responsabilité accrue des plateformes en ligne (lien)

  • Censure : Comment Facebook mène la vie dure aux journalistes - Le 20 minutes (lien)