Info

Surveillance numérique et coronavirus : "Ces algorithmes sont parfaitement capables de déduire votre statut sérologique"

Chargement du lecteur...

Les systèmes de surveillance numérique d'États ou d'entreprises privées peuvent permettre d'analyser l'épidémie de coronavirus. Quelles formes de surveillance peuvent être mises en place ou sont déjà potentiellement en cours sur Internet pour suivre la contamination, avec quels effets et quelles dérives possibles ? Entretien avec Fabrice Epelboin, spécialiste du web social et de la surveillance numérique.

TV5MONDE : Pourquoi n’y a-t-il pas de communication politique à propos de la surveillance numérique, dans le cadre de l’épidémie de coronavirus ?

Fabrice Epelboin : On a eu quelques éléments qui nous ont permis de réaliser qu'il y a bien entendu une surveillance mondiale et nationale autour du Covid. Rappelons-nous que Google avait sorti tout un tas de statistiques sur la baisse dans la fréquentation des transports courts, une quantité faramineuse de statistiques sur tout un tas de pays, dont la France. Orange avait aussi sorti des statistiques sur le grand départ des Parisiens qui allaient se confiner en province, avec des chiffres extrêmement précis.

Donc on se doute bien que derrière tout ça il y a forcément des outils pour regarder ce que font les gens. C'est la définition de la surveillance. Ceux qui étaient particulièrement attentifs ont pu voir que Palantir — qui est le mastodonte de cette industrie de la surveillance —, se proposait à l'assistance publique pour analyser leurs données, donc on se dit bien que la surveillance est impliquée. Mais les politiques évidemment n'ont pas rebondi sur l'affaire, parce que ce n'est vraiment pas le moment d'une prise de conscience massive des populations, du fait que oui, on vit dans un système de surveillance. C'est entériné, c'est là, c'est parti pour durer et c'est totalement verrouillé, pour ainsi dire.

D'un point de vue politique, ça me semble prudent de ne pas attirer l'attention des gens qui ne sont pas conscients du fait, que oui, nous vivons dans une société panoptique (principe des prisons avec un une tour de surveillance au centre et où chaque prisonnier pense être observé en permanence sans pouvoir le vérifier, ndlr), que ces outils peuvent servir à mille choses. Aussi bien surveiller une épidémie, des opposants politiques ou des mouvements d'opinion.

TV5MONDE : Puisque vous parlez de Palantir… les systèmes prédictifs déjà en place pourraient-ils tracer les malades à leur insu, déterminer des cas réels ou des cas potentiels, voire futurs ?

F.E :
C'est là qu'on met le doigt sur un problème qui est très contemporain, qui a d'ailleurs été soulevé par le défenseur des Droits : les biais des algorithmes. On vit tous dans un monde dans lequel l'algorithme est une sorte d'usine. On amène du caoutchouc, du métal, et en sortie, il y a des voitures. Finalement les algorithmes d'hier fonctionnaient un peu comme ça. Si une voiture sortait un peu bancale à la sortie de l'usine c'est qu'il y avait un problème dans l'usine et on allait corriger l'usine pour avoir des voitures qui marchaient correctement à leur sortie.

Malheureusement, le deep learning (programmation informatique par réseaux de neurones artificiels permettant de l'apprentissage automatique via des mégadonnées, les big data ndlr) a complètement perturbé cette belle métaphore.

Le deep learning c'est un algorithme qui va observer de la donnée et va essayer, si ce n'est de la comprendre, d'arriver à saisir des occurrences, des corrélations et d'être en mesure au bout d'un moment de prédire ce qui va arriver par la suite. C'est comme ça qu'on vous suggère des choses à acheter sur Amazon, c'est comme ça que Facebook vous suggère un contenu à lire dans son fil d'informations, et c'est comme ça qu'une très large partie de ce qui nous entoure aujourd'hui est gérée par des intelligences artificielles. Cela nous ramène sur ce retard conceptuel qu'ont les politiques et une large partie des opinions publiques, qui s'imaginent qu'on est encore à l'ère du fichage. Qu'on va établir des listes, avec les patients atteints du Covid, ce qui serait une façon très rationnelle de faire ça. Mais le deep learning permet d'envisager tout autre chose.

Facebook est parfaitement au courant de vos opinions politiques, de votre orientation sexuelle, de tout un tas de choses que vous ne lui avez pas dites. Ce sont ces algorithmes qui vont être capables de déduire de votre comportement en ligne, aussi bien votre orientation sexuelle que votre quotient intellectuel. Ils peuvent parfaitement déduire votre statut sérologique. Donc le débat est quelque part un peu dépassé d'une génération technologique. C'est un grand classique dans la confrontation entre le politique et la technologie.

On est aujourd'hui, face à ce Covid, très certainement dans ce genre d'approches. Il paraît absolument évident que des entités, qu'elles soient institutionnelles ou privées, ont commencé à étudier l'épidémie de Covid à partir des signaux laissés par tout un chacun sur les espaces sociaux. Et ces signaux-là, à de très rares exceptions près, ne concernent pas leur statut sérologique, mais ils vont être en mesure, à partir de leurs signaux, d'en déduire un statut sérologique et d'en faire des analyses — sans doute de qualité tout à fait intéressante — sur des données épidémiologiques.

TV5MONDE : Peut-on craindre une accentuation de la surveillance du réseau et des données personnelles et avec quelles conséquences, si c’est le cas ?

F.E : En termes concrets avec le Covid, on a une bonne partie des États qui vont dans la direction proposée par Google et Apple qui consiste à faire du "contact-tracing", via Bluetooth en ayant un respect assez sérieux de la vie privée des utilisateurs. Sur le plan de l'accélération de la surveillance, pour être parfaitement honnête, je n'y crois pas du tout. Il n'y a pas d'accélération de la surveillance. Je pense que la surveillance accélère du mieux qu'elle peut, en fonction de ses contraintes techniques.

Donc, ils vont aussi vite qu'ils peuvent, aussi bien hier qu'aujourd'hui. Mais l'accélération est à trouver dans l'opinion publique. Ce qu'il ne faut pas perdre de vue, c'est qu'il n'y a pas une différence fondamentale entre la façon, en vous fréquentant plus de quinze minutes, dont je peux vous transmettre un virus, et la façon, dont — en vous fréquentant plus de quinze minutes — je peux vous transmettre une idée. À partir du moment où on a des technologies qui vont permettre de tracer la façon dont les idées se propagent au sein des sociétés, on va rentrer dans une nouvelle ère. Une ère radicalement différente. Quelque chose qui n'aura plus rien à voir avec ce que l'on a pu construire ou fantasmer au XXème siècle. On va vraiment rentrer dans le XXIème siècle, parce que là, on a une prise directe sur l'opinion publique.

On a déjà des itérations qui nous montrent que très clairement beaucoup de gens vont dans cette direction. Cambridge Analytica c'est véritablement ça : travailler l'opinion publique de façon individualisée. Là on va pouvoir aller bien plus profond dans la relation entre les individus, qui au passage est quelque chose que Facebook a déjà bien étudié, parce que finalement c'est son cœur de métier. Aujourd'hui, il s'agit de réinventer la façon de faire de la politique, à partir des technologies. C'est un énorme changement. On va très rapidement quitter le monde où la technologie était là pour apporter un surplus de performance à des vieux systèmes.

A lire en complément sur notre site : "Manipulations démocratiques 2.0" : révélations sur les profils d'électeurs de l'entreprise de Steve Bannon

Notre dossier sur la surveillance numérique