PLATEFORMES, DONNEES & VIE PRIVEE

En bref

Le droit fondamental à la vie privée a été bouleversé par le développement de l’informatique, d’Internet, et un par flot d’applications connexes qui ne cesse de s’élargir.  Nous vivons dans une société où chaque activité laisse une trace dont nous ne pouvons qu’imparfaitement maîtriser les réutilisations. Mais en quoi les plateformes sont elles spécifiques dans ce paysage ? Voici un aperçu sans prétention exhaustive des controverses à ce propos.

 

Image_Cadenas en mousse_Plateformes, données & vie privée_J.Herzog_cc-by

CONTROVERSE #1 - Recherche d’audience et protection de la vie privée sont elles-compatibles ?

Comme tout intermédiaire, une plateforme cherche à attirer des clients avec une offre intéressante et à valoriser ce débouché auprès d’autres, tout en ménageant sa propre rentabilité. C’est ce mécanisme de vases communicants que désigne l’expression “si c’est gratuit, c’est que vous êtes le produit” : quelqu’un d’autre est prêt à payer pour obtenir notre attention. Jusqu’ici, rien d’original. La publicité est une des principales sources de financement des médias, et les hypermarchés obtiennent chaque année des rabais des fournisseurs souhaitant s’assurer de rester dans les rayons. Ce qui diffère avec le numérique, ce sont les échelles. Des millions d’entreprises, acteurs politiques, artistes, … cherchent une place sur la poignée de centimètres carrés d’écrans via lesquels des milliards d’individus gèrent des pans entiers de leur vie.

Accueillir de tels flux d’activités c’est aussi être dans une position idéale pour obtenir des quantités inédites d’informations sur les uns et les autres ; c’est ce qui confère aux plateformes un rôle si particulier vis à vis de la protection de la vie privée. Ainsi, les annonceurs concentrent l’essentiel de leurs dépenses sur les services publicitaires des plateformes les plus populaires. Ils veulent non seulement être vus davantage mais aussi obtenir une partie des informations sur la clientèle, pour mieux cibler leur offre et améliorer leur rentabilité. La question est alors de savoir si toutes ces informations sont utilisées à bon escient. Or, récemment, deux chercheurs ont mis en évidence le fait que les sites aux plus forte audience sont aussi les plus enclins à adopter des stratégies intrusives. Comment s’opère l’articulation entre les intérêts de la plateforme, des annonceurs, et des utilisateurs ?  A quel point les plateformes ont-elle intérêt à protéger activement la vie privée de leurs utilisateurs, si cela nuit à leur performance économique immédiate ?

 

#2 - CGU à prendre où à laisser : notre consentement est-il réel ?

Le droit européen impose à ceux qui collectent des informations personnelles d’obtenir au préalable un consentement explicite, libre et éclairé des intéressés. En pratique, les conditions générales d’utilisation (CGU) sont rarement lues. Elles sont souvent indigestes, éparpillées en de multiples liens… et la plupart du temps elles ne sont pas négociables. Une étude américaine de 2008 a estimé qu’il faudrait consacrer en moyenne 30 jours ouvrés par an pour lire les CGU des principaux services web que nous utilisons (lien). Plus récemment, le Conseil des consommateurs Norvégien a fait le même exercice sur les applications les plus populaires : leurs CGU cumulées représentent 900 pages, c’est à dire plus que le nouveau testament. En outre, une étude a établi que les « conditions générales d’utilisation » des 50 plus grandes plateformes numériques  ne respectent pas les standards onusiens en matière de protection des droits de l’homme. En tant que consommateurs, nous avons  le droit d’être informé de manière honnête sur la nature du service proposé avant de l’utiliser et de bénéficier des protections élémentaires lorsqu’on l'utilise. Mais, secrets de fabrication oblige, les systèmes de personnalisation des contenus ne sont jamais expliqués très précisément. Dans ces conditions, notre consentement est-il éclairé ?

Un argument fréquemment avancé consiste à dire que si les termes de cette relation ne nous conviennent pas, nous restons libre de ne plus l’entretenir. Mais dans “Dragnet Nation”,  la journaliste américaine Julia Angwin a comptabilisé 25 000 dollars de coûts liés à son expérience ayant consisté à abandonner durant 1 an les services gratuits et datavores au profit d’autres plus respectueux de la vie privée, le plus souvent payants (résumé, présentation vidéo). Dans le cas des plateformes, si une  majorité de nos collègues, amis, commerçants utilisent leurs services, sommes nous vraiment tous libres de nous en passer  ?


#3 Peut-on échapper à la personnalisation ?

L’explosion du volume de données exploitables et le développement des sciences algorithmiques a fait évoluer le marketing vers plus de personnalisation : proposer la bonne offre, pour la bonne personne, au bon moment. Mais si les algorithmes qui personnalisent les contenus, les publicités ou les prix qui nous sont proposés le font en observant les données produites par la société, ne risquent-ils pas de reproduire de sombres aspects de son fonctionnement, à la manière d’un miroir grossissant ?

En matière de contenus?

Que se passe-t-il si la façon dont nos résultats de recherches et autres fils d’actualités sont personnalisés obéit aux mêmes mécanismes d’évaluation du succès que le ciblage publicitaire ? En déterminant ce qui est plus ou moins visible, les plateformes articulent pour nous l’abondance des offres avec la rareté de notre temps d’attention et des espaces de nos écrans. Les principes en fonction desquels elles font ce travail façonnent l’environnement cognitif dans lequel nous passons une partie du quotidien. Volontairement ou non, elles contribuent à notre perception de l’offre disponible et - au delà, à nos représentations de l’état du monde. Sur la base de quels critères voulons alors que ces choix soient opérés ? Dans quelle mesure consentons-nous à ce que des métriques de popularité ou nos historiques de recherche fassent partie de l’équation ? (voir aussi Plateformes & classement des contenus). En outre, comment s’assurer que l’incitation de la plateforme à maximiser ses revenus publicitaires n’interfère pas avec notre intérêt en tant que consommateur ? Quels moyens les plateformes nous fournissent-elles pour le vérifier ?

En matière publicitaire ?

La majorité des publicités que nous voyons sur internet a été choisie par le biais d’enchères en temps réel. Lorsqu’un internaute ouvre une page web, l’information est envoyée sur des places de marché (Ad Exchange) et les annonceurs, ou leurs intermédiaires, ont 120 millisecondes pour se positionner. Pour maximiser l’efficacité de ces dépenses, les annonceurs fixent leur prix à l’aide d’algorithmes (publicité “programmatique”). Ils sont conçus pour tester en permanence quelles publicités sont les plus rentables, auprès de quels internautes et dans quel contexte (A/B testing). A cette fin, chacun cherche à rassembler et croiser le plus de données possibles pour pouvoir tester plus d’hypothèses sur ce qui fonctionne, bien au-delà des classiques tranches d’âges et autres CSP. La localisation géographique est par exemple très utilisée pour le ciblage : un voyageur sera par exemple plus enclin à dépenser plus cher pour être visible d’une personne dont il sait qu’elle se trouve au bureau, par mauvais temps, plutôt que par quelqu’un qui se trouve déjà en vacance.

Les régies publicitaires des plateformes à forte audience détiennent justement beaucoup de données de ce type, c’est pourquoi elle font figure de pivot dans la concurrence que se livrent les annonceurs pour mieux nous connaître et mieux nous cibler. Or, plusieurs études ont mis en évidence l’existence de biais discriminants dans l’affichage publicitaire de certaines plateformes. En 2013 une étude a par exemple démontré la tendance de Google à montrer plus de publicités pour des services de vérification de casier judiciaire, lorsque les requêtes portaient sur des prénoms à consonance afro-américaine. Plus récemment, une simulation a montré que les publicités pour les offres d’emploi que Google propose aux femmes ont tendance à porter sur des postes moins prestigieux et moins bien payés que pour les hommes aux profils similaires. Quels moyens avons nous de nous assurer que les données et les raisonnements utilisés pour personnaliser les offres commerciales ne contiennent pas des biais préjudiciables aux personnes ? Qu’ils ne participent pas à  consolider les inégalités existantes ?

#4 Peut-on défendre seul sa vie privée ?

Au delà de leur propres services de personnalisation des contenus, les plateformes sont aussi d’importants pourvoyeurs de statistiques auprès de tiers. C’est aussi à ce titre que leur contribution à l'amplification des phénomènes déterministes suscite des inquiétudes. En 2015 par exemple, Facebook a conclu un partenariat pour croiser les données de ses profils avec celles des programme de fidélité (cartes magasin, newsletters, etc.) d’Axiom. Axiom est un data broker — un courtier d’informations personnelles — qui déclarait par ailleurs détenir des informations sur plus de 700 million de personnes dans le monde, à raison d’environ 3,000 par personne. Or, une étude de l’autorité américaine de protection des consommateurs (Federal Trade Commission) a montré que les plus gros clients des data brokers se trouvent être des gouvernements, des employeurs, et des assureurs. Le droit européen nous permet de demander la rectification et l’effacement des profilages qui nous concernent ; mais les plateformes, qui tiennent à conserver une part de confidentialité dans la conduite de leurs affaires, ne nous détaillent pas la liste de ces destinataires.

Quels moyens concrets avons nous alors pour actionner ces droit ?  Comment peser sur les représentations qui nous affectent si elles sont utilisées sans s’exposer ? Sommes nous réellement aux commandes de notre identité si de plus en plus d’interlocuteurs prennent des décisions qui nous affectent sur la base de raisonnements auxquels nous n’avons pas accès ? Ces évolutions amènent un certain nombre d’académiques à considérer que, pour être réelle, la protection de la vie privée ne peut plus reposer uniquement sur des droits individuel et demande aussi des droits permettant de négocier et peser collectivement sur l’utilisation qui est faite des données. Enfin, dans l’hypothèse même où les données et les raisonnements utilisées ne sont pas biaisés d’un point de vue scientifique : si chacun cherche à optimiser ses gains et minimiser ses risques en ciblant les clientèles les plus rentables, ne risque-t-on pas de consolider les déterministes ? Dans ce cas, qui en assumera le coût ? Quel compromis sommes nous prêts à faire en matière de personnalisation du risque social ?  

 

Pour aller plus loin :

  • Glenn Greenwald. Why privacy matters. TedGlobal 2014 Une présentation où l’un des journaliste ayant aidé Edward Snowden à publier ses révélations au sujet de la surveillance massive des citoyens pas les Etats, explique en quoi notre implication active pour la protection de notre vie privée est essentielle (vidéo sous titrée en français)

  • Pour comprendre le fonctionnement du monde de la publicité en ligne : Simon Gilliot - Publicité sur Internet et Big data : comment ça marche ?  (vidéo)

  • “Si c’est gratuit, vous êtes le produit” - une animation vidéo d’Adesias

  • “Big data : Données, données, donnez-moi !” - une animation vidéo chiffrée de Datagueule

  • Informations de la Cnil au sujet des cookies (lien) et ses conseils pour les maîtriser (lien)

  • Les conclusions de l’enquête conjointe menée en 2014 par la Cnil et la DGCCRF au sujet des pratiques de modulation des prix (lien)

  • AdLeaks - Betrayed by Your Ads! Une étude, de l’équipe de recherche Privatics de l’Inria en collaboration avec la Cnil illustrant la vulnérabilité des systèmes publicitaires en termes de protection de la vie privée (lien)

  • Do Not Track. Dir. Web Brett Gaylor. Perf. Ethan Zuckerman. Arte France, 2015. Un web documentaire immersif et personnalisé sur le profilage (lien)

  • Helen Nissenbaum - Privacy In Context - (lien)

  • La condamnation de Facebook par la Cnil française au sujet du bouton “j’aime” qui permet à Facebook de suivre la navigation des personnes hors de son site, y compris celles qui ne disposent pas d’un compte Facebook  (lien)

  • Le nouveau règlement européen sur la protection des données personnelles (lien)

  • Antoinette Rouvroy - sur la notion de gouvernementalité algorithmique (article) (vidéo)

  • Tristan Nitot - Surveillance :// Les libertés au défi du numérique : comprendre et agir (résumé)

  • Frank Pasquale, The Black Box Society (La société boîte noire) :  un ouvrage d’enquête décrivant l’émergence de nouveaux rapports de pouvoir entre la société et ceux qui utilisent des algorithmes protégés par le secret commercial (interview français), (video de présentation)

  • Ethan Zuckerman. The Internet's Original Sin. The Atlantic. 2014. Un article dans lequel le créateur des publicités pop-up devenu chercheur et activiste au MIT dresse un lien causal entre le modèle économique historique du web — massivement dépendant aux revenus publicitaires — et le développement de la surveillance privée  (lien)

  • Antonio Casilli, Four Theses On Digital Mass Surveillance And The Negotiation Of Privacy (lien)

  • “Facebook patent: Your friends could help you get a loan - or not”. Un article relayant que Facebook a breveté une technologie permettant d’utiliser l’analyse du réseau social des utilisateurs pour déterminer le niveau de risque de leur profil d’emprunteur (credit scoring) (lien)

  • Viktor Mayer-Schönberger and Kenneth Cukier. Big Data. A Revolution That Will Transform How We Live, Work, and Think. John Murray, 2013.

  • Terms and Conditions May Apply. Dir. Cullen Hoback. Star.Max Schrems, Moby, Mark Zuckerberg. Hyrax Films, Topiary Productions, 2013.

  • Jonathan W. Penney, Privacy and the New Virtualism (lien)