Info

Présidentielle américaine : "J'ai peur que nous allions au bord d'une guerre civile à cause de Facebook"

Tim Kendall, ex responsable chez Facebook, lors de son audition le 27 septembre 2020 par des membres du Congrès voulant savoir si la radicalisation des Américains était liée au fonctionnement du réseau social.

Tim Kendall, un ancien dirigeant de Facebook, a témoigné devant des membres du Congrès le 27 septembre 2020. Mark Zuckerberg sera entendu à son tour le 28 octobre prochain. La question posée par les sénateurs consiste à savoir si Facebook crée de la division dans la population, au point de pousser à une potentielle guerre civile. Explications et entretien avec Dominique Boullier, sociologue et spécialiste de l'économie de l'attention.

L'inquiétude est au plus haut aux Etats-Unis sur des risques d'émeutes au cas où le président sortant Donald Trump n'était pas réélu. Ce dernier n'a d'ailleurs pas rassuré — sur ce phénomène potentiel — lors du premier débat contre son adversaire démocrate Joe Biden, expliquant encore une fois que "s'il ne gagnait pas ce serait la faute à une fraude massive" et qu'il refuserait donc le verdict des urnes.

Ce refus du président sortant d'accepter sa défaite par avance, pourrait mener à des troubles très graves : les partisans les plus extrêmistes de Donald Trump ont déjà prévenu sur les réseaux sociaux qu'ils se "tenaient prêts". Il faut entendre par là qu'ils sont prêts à prendre les armes. Ce qu'a confirmé Donald Trump durant le débat, appelant "les Proud Boys" —  un groupe nationaliste prônant la supériorité de la race blanche — à "reculer et à se tenir prêt".

Les fabricants de tabac ont ajouté de l'ammoniac aux cigarettes pour augmenter la vitesse à laquelle la nicotine parvenait au cerveau (…) La capacité de Facebook à fournir du contenu incendiaire à la bonne personne, au bon moment, de la bonne manière; c'est leur ammoniac.Tim Kendall, ex président de la branche monétisation de Facebook, lors de son témoignage au Congrès américain le 27 septembre 2020.

Ce contexte électoral quasi pré-insurrectionnel aux États-Unis, est principalement généré par les réseaux sociaux, Facebook au premier chef. Les groupes armés pro-guerre civile y sont très présents, tout comme le mouvement QAnon, même si des comptes et des groupes ont été supprimés par le réseau social de Mark Zuckerberg.

Chargement du lecteur...

• A lire sur notre site : "États-Unis : pourquoi les conspirationnistes de "QAnon" inquiètent"

Le problème de fond qui est en train d'émerger aux États-Unis — une forme de guerre civile partisane en ligne pouvant potentiellement se déverser dans les rues américaines —, est tel, que le Congrès américain a convoqué Mark Zuckerberg à venir s'expliquer ce 28 octobre 2020. Avant lui, un ancien cadre de Facebook, Tim Kendall a témoigné le 27 septembre. À la suite de cette audition,  un développeur informatique de Facebook  a expliqué les raisons de sa démission — un mois auparavant — au quotidien britannique The Guardian. Le développeur accuse lui aussi la plateforme aux 3 milliards d'usagers d'aider à la désinformation et d'inciter à la haine et au conflit.

Nous avons érodé notre compréhension collective — au pire, je crains que nous nous poussions au bord d'une guerre civile.Tim Kendall, ex président de la branche monétisation de Facebook, lors de son témoignage au Congrès américain le 27 septembre 2020.

Tim Kendall : "Les médias sociaux nous déchirent"

Tim Kendall a travaillé pour Facebook de 2006 à 2010 en tant que responsable de "la monétisation" du réseau. Il est donc un acteur important de la mise en place des outils incitatifs publicitaires, les fameux algorithmes et interfaces qui enferment chaque membre du réseau dans une "bulle informationnelle". Ces systèmes renforcent les opinions, modifient les émotions et forcent chacun à rester connecté le plus possible, à prendre parti, à s'indigner ou à croire en des théories radicales.

A lire sur notre site : Bulles d'informations numériques : Google et Facebook ont-ils fait gagner Trump ?

Kendall a donc témoigné le 27 septembre dernier (vidéo complète en anglais sur le site, Tim Kendall à 48:05) pour répondre aux préoccupations des responsables politiques face aux déchainements de haine et d'agressivité, de polarisation politique — uniques dans l'histoire américaine récente — qui font rage sur les réseaux sociaux depuis le début de la campagne électorale. Le titre de cette audition était sans ambiguïté : "Extrémisme dominant : le rôle des médias sociaux dans la radicalisation de l'Amérique."

Lors de cette audition, l'ancien cadre dirigeant de Facebook a établi un parallèle entre les procédés de l'industrie du tabac et ceux exploités par Facebook pour rendre les gens dépendants : "Les fabricants de tabac ont ajouté de l'ammoniac aux cigarettes pour augmenter la vitesse à laquelle la nicotine parvenait au cerveau. La capacité de Facebook à fournir du contenu incendiaire à la bonne personne, au bon moment, de la bonne manière; c'est leur ammoniac."

Mais Kendall a aussi mis en garde sur les effets délétères que ces outils généraient dans la société : "Les services de médias sociaux, que moi et d'autres avons construits au cours des 15 dernières années ont servi à déchirer les gens entre eux à une vitesse et une intensité alarmantes. À tout le moins, nous avons érodé notre compréhension collective — au pire, je crains que nous nous poussions au bord d'une guerre civile."

Manipulation intégrée aux interfaces

Les très grandes inquiétudes énoncées par Tim Kendall au Congrès américain résonnent avec un documentaire choc, sorti il y a peu sur la plateforme Netflix : "The social dilemma" (traduit en français par "Derrière nos écrans de fumée"). Durant une heure et demie, d'anciens cadres dirigeants — dont Tim Kendall —, ingénieurs ou même d'anciens fondateurs des plateformes internet les plus utilisées, expliquent les dangers que ces dernières font courir à leurs publics et à la société. Le premier est bien entendu celui de l'addiction — illustré par une fiction familiale — mais très vite, la problématique de la manipulation psychologique est abordée. Les quinze spécialistes des réseaux sociaux — ayant pourtant contribué à leur succès planétaire — viennent alors, un à un, exprimer leurs regrets et surtout leurs inquiétudes face à ce que leurs créations ont engendré. En expliquant que ces plateformes influencent nos actions et même notre façon de penser. Mais de façon parfaitement calculée.

 Les médias sociaux ne sont pas des outils en attente d'être utilisés. Il ont leurs propres objectifs et il ont leurs propres moyens de les poursuivre, en utilisant votre psychologie contre vous-même.
Tristan Harris, ancien responsable en chef du "design éthique" chez Google, dans le documentaire "Derrière vos écrans de fumée".

Selon ces anciens responsables de réseaux sociaux, les phénomènes de déchirement entre personnes, de haine iraisonnée et de volonté d'affrontements ne sont pas une conséquence involontaire des plateformes. Ils expliquent que ces phénomènes ont en réalité été intégrés dans le fonctionnement des interfaces, comme une stratégie marketing assumée, pour améliorer les taux d'utilisation et de rendements publicitaires. "La haine et la confrontation font vendre ? Alors, programmons-les pour qu'elles touchent le plus d'utilisateurs possibles" pourrait-être l'analyse finale de "Derrière nos écrans de fumée". Tristan Harris, ancien responsable en chef du "design éthique" chez Google, souligne d'ailleurs ce phénomène de "programmation de la haine" par la structure même de ces plateformes et de leur modèle économique.
 

Chargement du lecteur...

Harris, qui est aujourd'hui directeur du Center for Humane Technology (une ONG de lutte contre les effets négatifs des plateformes Internet sur smartphone) explique la fabrication de réalités alternatives par les réseaux sociaux, pour chaque utilisateur, en orientant les centres d'intérêts de façon insidieuse, par le traitement en masse des données personnelles. L'ex-responsable de Google démontre en fait que le chaos social en cours sur les réseaux aux États-Unis est une conséquence directe du modèle des plateformes : personnalisation à outrance et manipulation psychologique, influence par les algorithmes et interfaces addictives. Harris est bien placé pour parler de ce sujet, puisqu'il admet avoir étudié ces techniques dans le "laboratoire de la persuasion par la technologie" à Stanford où la la captologie a été inventée : les techniques de persuasion par les ordinateurs.

Ce que renvoient les spécialistes est qu'avec les réseaux sociaux, chacun croit au final détenir la vérité, mais vit pourtant dans une réalité différente de celle des autres, entièrement forgée par des flux d'informations poussant aux réactions émotionnelles et entièrement personnalisés. Dans l'une de ses interventions, Tristan Harris finit par dresser un constat terrible : "Nous sommes passés d'un environnement technologique basé sur des outils à un environnement technologique de dépendance et de manipulation. Les médias sociaux ne sont pas des outils en attente d'être utilisés. Il ont leurs propres objectifs et il ont leurs propres moyens de les poursuivre, en utilisant votre psychologie contre vous-même."

L'implosion de la société par les réseaux sociaux ?

Une possible implosion de la société — par une confrontation aveugle entre des franges de populations manipulées par les algorithmes — est donc l'une des issues que Tim Kendall et Tristan Harris envisagent sérieusement en conclusion du documentaire diffusé sur Netflix, tout comme lors de leur témoignage au Congrès américain. Cette possibilité d'implosion est prise très au sérieux par la plupart des observateurs et des spécialistes des réseaux sociaux, qui estiment qu'elle est probablement déjà en cours et craignent qu'elle ne se propage à travers le monde. Le réseau est global, les algorithmes sont les mêmes partout sur la planète et leurs effets sont similaires…

Face à ces constats alarmistes et inquiétants, nous avons interrogé Dominique Boullier, sociologue et linguiste, spécialisé dans le numérique et l’économie de l’attention, auteur aux éditions du Passeur de "Comment sortir de l'emprise des réseaux sociaux (l'ère du réchauffement médiatique)".

TV5MONDE : Que pensez-vous des analyses et des constats de Tristan Harris et Tim Kendall sur les effets des réseaux sociaux en termes de radicalisation des esprits ?

Dominique Boullier : Je pense qu’ils ont tout à fait raison. Ce qui est fatal dans ce mécanisme là, c’est qu’il n’y a pas de principe de régulation de la propagation des messages. On a donc une prime qui est accordée par les mécanismes de ces plateformes aux expressions les plus extrêmes. Non pas parce qu’elles sont extrêmes en tant que telles, mais parce qu’elles sont nouvelles, choquantes et qu’elles captent l’attention, et que c’est cela que l’on encourage. Ce principe-là est établi par la science des données. Ce qui est important sur les réseaux sociaux, c’est le score de nouveauté, et ce score pousse à valoriser ce qui est le plus choquant. Ce sont les formes de l’expression elle-même qui sont importantes, que ce soit par des vidéos, des citations, des liens ou des photos.

Toutes ces formes doivent comporter une dimension provocatrice qui va s’adresser à une certaine partie du cerveau qui est liée aux propriétés du contenu. Ce n’est pas si grave en tant que tel que des individus soient percutés par ce types de contenus, mais le problème vient du fait que les individus peuvent relancer la machine. Il suffit de retweeter, partager ou même aimer et ça rend tous ces messages disponibles à tout votre réseau, ce qui réactive le principe et amplifie la chose.

TV5MONDE : Twitter et Facebook, par exemple, génèrent des effets similaires sur leurs utilisateurs, avec une montée en puissance de l’agressivité, des discours haineux et polarisés, sans nuances et souvent partisans. Comment l’expliquez-vous ?

D.B :
La polarisation n’est pas liée à la méchanceté intrinsèque des émetteurs, elle est liée à la valorisation par ces plateformes de certaines expressions pour des raisons de réactivité. Ces réseaux ont été positionnés comme ça. Il y a la partie algorithme qui est en jeu, mais il a aussi la partie design de l’interface en valorisant votre réaction, en vous facilitant votre réactivité. Je donne une exemple simple, lié à la captologie, avec Twitter : si on vous oblige à prendre un élément d’un tweet, à en créer un nouveau dans lequel vous devez coller votre élément pour pouvoir enfin reposter, vous avez tout un temps, plusieurs activités, qui ralentissent votre réaction et qui du coup introduisent un tout petit peu de réflexion et de hiérarchisation. Là, on élimine tout ça et on crée ce bouton retweet.

J’ai travaillé longtemps dans les années 90 sur les interfaces numériques pour les améliorer et permettre leur appropriation par les utilisateurs, et aujourd’hui on se rend compte que ça a été retourné dans l’autre sens : les nouvelles interfaces ont facilité l’appropriation du comportement des utilisateurs par les plateformes. C’est une perversion de l’activité scientifique d’une part et de la finalité de tout ça d’une autre. Au bout du compte le principe qui a été retenu est « ne vous préoccupez de rien, laissez-nous vous guider ». En réalité, on vous emmène vers la posture cognitive qui est la plus rentable pour l’entreprise puisque c’est celle-là qui va augmenter les taux d’engagement pour les plateformes publicitaires.

TV5MONDE : Mais à part ces plateformes, il n’existe pas d’espace pour que les citoyens s’expriment et se fassent entendre, d’où le fait qu’elles soient devenues incontournables. Qu’en pensez-vous ?

Il faut se rappeler qu'au départ, Facebook est un système pour noter les filles du Campus, c'est un truc d'ados. Puis c'est devenu un réseau social d'échanges d'amis, puis un système de rémunération publicitaire et au final, un média ce que Zuckerberg ne veut surtout pas. Mais tout ça n'a pas été conçu à l'origine comme ça. Il n'y a pas de principes qui devraient réguler toute cette activité médiatique. Mark Zuckerberg et ses équipes se retrouvent complètement débordés par le monstre qu'ils ont créé qui a fini par prendre des formes invraisemblable, mais qui garde certaines qualités d'origine. Dans celles-ci il y a le fait de pouvoir s'exprimer.

On a oublié les apéros Facebook, d'avant les années 2010, avec une horizontalité, une convivialité qui a disparu. Ce modèle a dérivé largement à cause de ses motivations économiques par les placements publicitaires. Il pourrait encore favoriser ces aspects là, même s'il le fait un peu avec les groupes Facebook, qui leur permettent d'organiser leurs activités, de se coordonner, comme ça a été le cas pour les printemps arabes. Ce qu'il faut mettre à bas c'est le modèle économique puisque le design est fait en fonction de ce modèle économique. Alors que si on organisait un espace de même type mais fait pour faciliter les rencontres, permettre de la modération, valoriser ceux qui présentent des contenus enrichis, ce serait totalement différent. Ce sont donc des finalités différentes.

TV5MONDE : Y a-t-il des solutions pour éviter cette radicalisation via les plateformes et la possible implosion des sociétés ultra-connectées ?

D.B :
Il faut casser ce qu’on appelle les chaînes de contagion de ces réseaux. Il faut conserver bien entendu ces outils d’expression, on ne peut pas l’enlever aux gens. Les utilisateurs vont s’exprimer radicalement, dire des bêtises, il y aura des fake news, des propos de haine, on est bien d'accord, mais simplement il ne faut pas que ça se propage à la vitesse à laquelle ça se propage. On est donc obligé de mettre en place des mécanismes qui ralentissent cette propagation, qui obligent les gens à hiérarchiser. Il faut arrêter les réflexes, les réactions instantanées par retweet ou partage, like, etc. On pourrait par exemple dire "vous avez droit à 10 tweets et retweets dans la journée ou 24 heures", puis un seul, pareil pour les posts et partages Facebook ou les "j’aime".

A ce moment là vous allez avoir des individus obligés de choisir. Et quand on choisit — les gens ne sont pas complètement idiots — on évite le plus inutile. La blague antisémite complètement débile pour choquer mes copains, je l’ai retweetée, mais si j’avais été obligé de choisir, je ne l’aurais pas retweetée. Si on réintroduit une forme de droit de tirage, avec une limitation qui permet de dire que "ce n’est pas parce qu’on peut le faire qu’on doit le faire", qui est le principe même du choix technologique, on doit pouvoir s’en sortir. Parce que sinon, si l’on fait en permanence tout ce que l’on peut faire et bien on va dans le mur et on s’autodétruit. Ce n’est pas parce qu’on a une voiture qui roule à 180 Km à l’heure qu’on roule à cette vitesse, nous avons appris à nous limiter. Il faut que ce soit la même chose pour les réseaux sociaux.