Fil d'Ariane
Elle serait utilisée pour repérer des mouvements de foule ou des objets suspects, mais représente des risques pour la vie privée des citoyens. Qu'est-ce que la vidéosurveillance algorithmique que veut autoriser le gouvernement français dans le cadre des Jeux olympiques 2024 ? Éclairage.
“La France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratique.” C’est ce que dénoncent 38 organisations européennes et internationales, dont Amnesty International ou Human Rights Watch, dans une lettre ouverte contre le projet du gouvernement français de légaliser la vidéosurveillance algorithmique en France, ce mardi 7 mars. Elles estiment que cette outil technologique est "intrusif" dans la vie privée des gens.
Le projet de loi a déjà été voté au Sénat et doit l'être, le 21 mars, à l'Assemblée nationale."L'enjeu est aussi de tirer les leçons de ce qu'il s'est passé au Stade de France avec la finale de la Ligue des Champions", samedi 28 mai 2022, se défend le sénateur du parti de droite Les Républicains Michel Savin. Supporters bloqués, personnes tentant d’entrer sans billet, répression policière, utilisation de gaz lacrymogène,... La finale de la Ligue des champions, avait été marquée par des scènes de chaos autour du Stade de France.
À (re)voir : Finale de Ligue des Champions : une mauvaise organisation à l'origine des tensions avant le match ?
Avec l’arrivée des Jeux olympiques de Paris en 2024, le ministère de l'Intérieur, Gérald Darmanin, estime que cet outil sera "determinant pour la sécurisation" de l'événement dans un tweet daté du 22 décembre. Que permet cette technologie ? Et pourquoi est-elle contraire au droit international ?
Ces caméras permettent non seulement de filmer des personnes, mais aussi de les analyser de manière automatisée. “C'est une technologie capable d'analyser en permanence l’espace public, donc les personnes, les corps humains, défend Noémie Levain, chargée d'analyses juridiques et politiques chez La Quadrature du Net, association à l’origine de la lettre ouverte contre le projet de loi. La technologie est capable de détecter des personnes qui courent, qui sont allongées, des groupes qui se forment, des personnes qui taggent." Comment ?
Un logiciel va apprendre aux caméras à détecter un mouvement ou un objet, en le modélisant. C'est la phase "d’apprentissage machine”, terme employé par Yassir Karroute, cofondateur de Neuroo, entreprise à l'origine du logiciel utilisé par les caméras automatisées à Aulnay-Sous-Bois.
On fait des entraînements, on achète une immense banque de données d’images d’armes à feu et on modélise ce que peut représenter une arme dans un flux vidéo.
Yassir Karroute, cofondateur de Neuroo, entreprise à l'origine du logiciel utilisé par les caméras automatisées.
Prenant le cas de la détection d'une arme à feu, “on fait des entraînements, on achète une immense banque de données d’images d’armes à feu et on modélise ce que peut représenter une arme dans un flux vidéo”, explique l’entrepreneur.
C'est la même chose avec des mouvements de foule. Le logiciel alerte ensuite un opérateur de sûreté, dès lors qu'il identifie un objet qui s'apparente à une arme à feu ou un mouvement qui ressemble à un mouvement de foule. Vient l’étape de “la levée de doute”.
Dans un centre de supervision, des gens vont avoir comme objectif de contextualiser la situation et dire si telle ou telle situation est dangereuse. Prenant l'exemple de la détection d'un mouvement, “si des enfants se mettent à courir parce qu’ils jouent, un programme informatique va considérer que c’est un mouvement de foule”, précise l’entrepreneur.
La surveillance algorithmique donne la capacité, et de voir, et d’analyser (…), et, en tout cas, d’orienter systématiquement le regard du policier sur des choses préconstruites qui sont politiques et qui stigmatisent des comportements dans la rue.
Noémie Levain, chargée d'analyses juridiques et politiques chez La Quadrature du Net, association à l’origine de la lettre ouverte contre le projet de loi.
Le problème, c’est que l’humain intervient aussi dans la conception des algorithmes. “On délègue à une entreprise privée le soin de choisir ce qu’est un comportement suspect, explique Noémie Levain. Or, la surveillance algorithmique donne la capacité, et de voir, et d’analyser (…), et, en tout cas, d’orienter systématiquement le regard du policier sur des choses préconstruites qui sont politiques et stigmatisent des comportements dans la rue."
La méthode est déjà utilisée au Centre de supervision urbain (CSU) d’Aulnay-sous-Bois. 500 caméras augmentées sur la voie publique sont contrôlées par 23 opérateurs de la police, précise le quotidien français Le Monde. Satisfait, William Roizes, directeur de la tranquillité et sécurité publique au commissariat d’Aulnay-sous-Bois, confie vouloir développer cette "aide opérationnelle pour les policiers" en 2023.
Mais si la technique venait à accompagner le travail des policiers, la généralisation de la pratique fait peur et présenterait "des risques nouveaux pour la vie privée”, selon la Commission nationale de l'informatique et des libertés (Cnil).
Les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’atypiques.Lettre ouverte de 38 associations contre la surveillance biométrique.
Le Cnil craint que le gouvernement français généralise cette surveillance à celle des “comportements des personnes circulant dans la rue ou se rendant dans des magasins”. C’est ce dont s'inquiètent aussi les 38 associations signataires de la tribune contre le projet de loi en cours pour la surveillance généralisée. Elles se soucient d' “un risque de stigmatisation et de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, par exemple parce qu’elles sont sans abri, en situation de vulnérabilité économique ou de handicap, peut-on lire dans la lettre ouverte. Les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’ "atypiques."
Au-delà des risques encourus, Noémie Levain s’interroge sur l'efficacité même de ces caméras, dans le cas, par exemple, de la détection d'un mouvement de foule. “Avec le fiasco du stade de France, on entendait partout : “Avec la vidéosurveillance algorithmique, ce serait jamais arrivé." Mais la gestion de foule, c’est un savoir-faire, c’est des réflexes humains. On l’a vu, avec des supporteurs de Liverpool, ils savaient se gérer. La technologie ne va pas changer grand-chose.”
Face aux critiques, le gouvernement assure que l'expérimentation de ces caméras est encadrée. La vidéosurveillance algorithmique vise à détecter que des objets ou des mouvements de foule, mais pas des personnes. Elle exclut, pour le moment, la reconnaissance faciale, comme c’est le cas en Chine.
À (re)lire : Surveillance numérique : les "algorithmes de répression" du gouvernement chinois dévoilés par Human Rights Watch