Tribune parue dans le Figaro, 29 novembre 2018

En avril 2017, une expérimentation soutenue par le CNRS, l’Université Paris Dauphine et l’École Polytechnique, en partenariat avec LaPrimaire.org eut lieu afin de tester un nouveau mode de consultation électorale : le jugement majoritaire. Ce mode de scrutin repose sur un principe mathématique et une idée simple : permettre aux « électeurs » de noter chaque candidat en leur attribuant une note qui va de ‘Très bien’ à ‘A rejeter’ (en passant par Bien, Assez bien, Passable, Insuffisant). Le jugement majoritaire ne nécessite qu’un seul tour et le gagnant est le candidat le mieux évalué. Entre le 11 et le 23 avril, les électeurs volontaires ont donc été invités à évaluer sur Facebook les 11 candidats officiels de l’élection présidentielle. Les résultats ont été toutefois, reconnurent avec un brin d’euphémisme les organisateurs, quelque peu biaisés : 41,6 % pour Mélenchon, 20,2 % pour Amont, 16% pour Macron, 2,6% pour Fillon et 2,9% pour Le Pen. Cela s’explique facilement par le simple fait que ces élections fictives ont mobilisé essentiellement les réseaux Facebook de LaPrimaire.org plutôt marqués à gauche, l’effet d’entraînement amenant les amis des amis à renforcer la tendance en faussant très largement les résultats de l’expérience. Si celle-ci n’a pas convaincu de l’efficacité du « jugement majoritaire », elle a fort bien illustré l’influence des biais comportementaux sur les réseaux sociaux, en particulier l’effet de contagion, étudié en 1970 par Saloman Ash, l’un des fondateurs de la psychologie sociale, que les ingénieurs et stratèges marketing de la firme Facebook connaissent fort bien pour en avoir amplement étudié les effets.

Parmi les différents biais cognitifs connus, on peut citer également « l’effet leurre », consistant à proposer, parmi diverses possibilités offertes, un choix outrancier ou sans aucun intérêt pour orienter par l’absurde le choix des utilisateurs en leur donnant l’impression de réaliser un choix raisonnable.

L’effet « de cadrage » permet quant à lui de présenter une même information de façon complètement différente, selon le principe connu du verre à moitié vide ou à moitié plein. La formulation de la question influencera directement l’utilisateur alors que le choix proposé n’aura rien de différent. Préférez-vous un programme médical qui permette de sauver à coup sûr 200 personnes d’une épidémie dans une ville de 600 habitants ou celui qui a une chance sur trois de sauver les 600 personnes mais 2 sur 3 d’échouer totalement ?

Le biais « de confirmation » s’appuie quant à lui sur la tendance très humaine à toujours privilégier ses propres croyances et convictions face à un choix donné, indépendamment de la véracité de l’information considérée. On aura alors tendance à éviter de reconnaître pour juste ce qui risque de mettre en lumière nos erreurs précédentes et de blesser notre ego. L’entreprise Facebook a, depuis sa création, beaucoup étudié l’effet de ces différents biais cognitifs sur le plus grand nombre. Il faut dire que, depuis l’avènement des réseaux sociaux, la masse de données et d’utilisateurs disponibles autorise des expérimentations que la firme de Mark Zuckerberg ne s’est pas privée de mener...

Facebook a multiplié les expérimentations pour étudier son influence sur le comportement de ses utilisateurs.

Une expérience conduite en 2010, au cours des élections de mi-mandat aux Etats-Unis, a permis de sélectionner 61 millions d’utilisateurs pour mesurer l’influence du réseau social sur les choix électoraux au cours des élections. Dans la partie haute de leur fil d’actualité, le premier groupe d’utilisateurs sélectionné vit apparaître un bandeau encourageant à aller voter, qui fournissait un lien informant sur la localisation des plus proches centres de vote. Le bandeau était accompagné d’un bouton « I voted » et d’un compteur affichant le nombre de personnes ayant cliqué sur le bouton pour indiquer qu’ils avaient voté. Pour le second groupe, les choses se présentaient un peu différemment puisque le bandeau d’information et le bouton « I voted » étaient cette fois accompagnés de quelques profils d’utilisateurs, supposément choisis au hasard au sein des « amis » Facebook et affichant des choix électoraux divers. L’expérience fut suffisamment concluante pour permettre aux analystes de Facebook d’estimer que, sur un panel de 61 millions d’électeurs/utilisateurs de Facebook, l’inclusion d’un bouton I voted, accompagné d’un sondage et mentionnant les noms des « amis » ayant choisi tel ou tel candidat avait directement modifié les intentions de vote de 0,39 % des utilisateurs. La proportion peut paraître faible, cependant 0,39 % sur 61 millions d’utilisateurs, cela représentait tout de même 340 000 votes, un écart comparable à la différence de voix entre Bush et Gore (500 000 voix en faveur de ce dernier mais une élection remportée finalement par Bush suite à « l’imbroglio » de Floride).

Facebook ne s’est pas arrêté là et, depuis, elle a multiplié les expérimentations pour étudier son influence sur le comportement de ses utilisateurs. Pour nombre d’observateurs, l’inquiétude s’est renforcée quand l’entreprise a révélé en 2014 avoir secrètement manipulé pendant une semaine, au cours de l’année en 2012, le fil d’actualité de 689 003 utilisateurs, afin d’étudier le mécanisme de la contagion émotionnelle. Les conclusions de l’enquête se révélèrent quelque peu glaçantes : en alimentant pendant une semaine certains fils d’actualité avec des nouvelles positives et d’autres avec des nouvelles négatives, les chercheurs furent en mesure d’affirmer que « les états émotionnels pouvaient être transférés à d’autres par contagion émotionnelle, amenant des personnes à ressentir les mêmes émotions » sans qu’ils soient conscients de la manipulation, aspect le plus critiqué et cependant le plus significatif de l’expérience. Facebook s’est contenté d’opposer une fin de non-recevoir à ceux qui lui demandaient des explications : « Nous menons des recherches pour améliorer notre service et faire en sorte que les contenus que voient les gens sur Facebook soient les plus pertinents et engageants possibles », s’est défendu Adam Kramer, l’un des responsables de l’expérimentation dans Forbes.

Et les expérimentations électorales de Facebook ont continué... Lors de l’élection présidentielle de 2012 aux États-Unis, les fils d’actualité d’1,9 millions d’utilisateurs ont été modifiés pour insérer une proportion nettement plus importante d’articles en lien avec l’actualité électorale sans que Facebook se révèle vraiment transparent quant aux choix opérés par son algorithme pour la sélection des articles. Facebook annonça que cette nouvelle campagne de sensibilisation avait poussé 760 000 électeurs de plus à aller voter. En faveur de qui ? S’il est difficile de mettre en lumière la partialité du réseau social d’après les articles choisis pour sensibiliser les utilisateurs et « améliorer » leur fil d’actualité, le candidat qui bénéficia le plus de la nouvelle coloration politique du réseau social fut aussi celui qui bénéficiait de la plus grande visibilité sur les réseaux sociaux, soit Barack Obama, qui comptait huit fois plus de fans sur les réseaux sociaux que tous les candidats démocrates réunis lors des primaires et cinq fois plus que les candidats républicains. Mitt Romney en a fait l’amère expérience en 2012. Donald Trump en a visiblement tiré d’utiles leçons afin de renverser la balance en sa faveur en 2016.

Le scandale Cambridge Analytica, qui a éclaté en mars 2018, a démontré par ailleurs que la prodigieuse masse de données-utilisateurs récoltée quotidiennement pouvait aussi « fuiter », comme ce fut le cas en 2016 pour 87 millions d’utilisateurs dont les données privées atterrirent dans les serveurs de cette société qui accueillait à l’époque dans son conseil d’administration...Steve Bannon, ancien conseiller de Donald Trump à la Maison Blanche. Avant que cette information ne soit révélée, Facebook s’était déjà retrouvé sous le feu des critiques, accusé d’être devenu une plate-forme relayant les fake news (« fausses nouvelles ») et les campagnes de dénigrement contre Hillary Clinton, ce qui aurait permis à Donald Trump de gagner de nombreuses voix face à la candidate démocrate. En avril 2017, une enquête interne conduite par trois chercheurs de Facebook, Jen Weedon, William Nuland et Alex Stamos au sujet des présidentielles américaines de 2016 constatait notamment, par rapport aux précédentes élections, la prolifération et la consolidation de protocoles de désinformation numérique s’appuyant sur trois outils :

1) La collecte de données personnelles associées à des tentatives de déstabilisation individuelle et collective, pouvant aller jusqu’au piratage de compte et à l’utilisation frauduleuse d’identité sur Internet,

2) La création de fausses informations vendues à la presse via de faux comptes Facebook notamment,

3) La diffusion massive et l’amplification des fausses informations grâce à la création de groupes Facebook et à l’astroturfing.

Mark Zuckerberg a même cru bon de faire acte de contrition en publiant ses vœux sur Facebook en janvier 2018 : « Facebook a beaucoup de travail à faire, que ce soit pour (nous) protéger des abus et de la haine, nous défendre contre les ingérences de (certains) pays ou nous assurer que le temps passé sur Facebook est du temps bien dépensé. ».

Afin de redorer l’image de son entreprise, Mark Zuckerberg fait désormais feu de tout bois, comme en témoigne son entretien médiatisé avec Emmanuel Macron, qui dans un appel à la « Cyberpaix », lancé le 12 novembre, appelait à une collaboration avec le réseau social et d’autres partenaires numériques afin d’éradiquer les fake news et autres menaces numériques. Il n’en reste pas moins que la capacité d’influence d’un média social tel que Facebook, illustrée par les expérimentations précédemment évoquées, offre des possibilités encore aujourd’hui à peine exploitées en termes de manipulation électorale. De quoi nourrir des inquiétudes légitimes, mais aussi l’intérêt de ceux (lobby, état, …) qui ont intérêt à utiliser cette arme pour asseoir leur influence. À tel point qu’un conseiller spécial du Kremlin, Andrey Krutskikh, déclarait en février 2016 : « Nous sommes en 1948. Je vous le dis, nous sommes sur le point de parvenir, dans le domaine des technologies de l’information, à quelque chose qui nous permettra de parler aux Américains d’égal à égal. »

A propos de l'auteur
Laurent Gayard

Laurent Gayard est enseignant en lycée et à l’université (ICP). Docteur de la mention Etudes politiques de l’EHESS, il collabore régulièrement à la revue Conflits, à la Revue des Deux Mondes, à la revue Phébé (par Le Point), à Causeur, au FigaroVox, à Contrepoints et à L’Incorrect. Il est l’auteur de différents ouvrages :

- Les intellectuels et l’engagement, deux revues au pied du mur : la NRF et Esprit (1932-1939). Editions Le Manuscrit. Mars 2002. 272 pages.

- Taklamakan, le désert d’où l’on ne revient pas. En collaboration avec le photographe Dominique Laugé. Editions Johan&Lévi. Collection [Fotografia]. Juillet 2016. 314 pages

- Géopolitique du Darknet. ISTE Editions. Collection [Informatique et sociétés connectées]. Décembre 2017. 185 pages

- Darknet, GAFA, Bitcoin. L’anonymat est un choix. Editions Slatkine&Cie. Juin 2018. 316 pages

Liens

http://www.lefigaro.fr/vox/societe/2018/07/06/31003-20180706ARTFIG00153-avec-les-reseaux-sociaux-chacun-est-devenu-le-surveillant-de-l-autre.php

http://www.lefigaro.fr/vox/economie/2017/11/21/31007-20171121ARTFIG00131-bitcoin-hysterie-speculative-ou-revolution-technologique.php

https://www.contrepoints.org/author/laurent

https://www.contrepoints.org/2017/11/28/304211-bitcoin-repond-a-question-vieille-monde

http://www.revuedesdeuxmondes.fr/monde-a-quelque-chose-a-cacher/

http://www.revuedesdeuxmondes.fr/article-revue/darknet-de-lautre-co%CC%82te-miroir/

https://www.revueconflits.com/geopolitique-du-darknet-entretien-avec-laurent-gayard/

https://soundcloud.com/revue-conflits/laurent-gayard-darknet

https://www.linkedin.com/pulse/darknet-gafa-bitcoin-lanonymat-est-un-choix-laurent-gayard/