Info

Reconnaissance faciale : quelles régulations des Etats ?

Un officier de police équipée d'une caméra à reconnaissance faciale en 2015 à Seattle. Une ONG de défense des liberté demande depuis début 2018 qu'Amazon cesse de vendre son système de reconnaissance faciale nommé"Rekognition" aux forces de l'ordre américaines. (AP Photo/Elaine Thompson)

Le président du service juridique de Microsoft, Brad Smith a lancé un pavé dans la mare de la reconnaissance faciale cet été, passé presque inaperçu : inquiet des dérives que l'utilisation de cette technologie peut produire, il demande au gouvernement américain de s'emparer du sujet afin qu'une régulation soit mise en place. Le gouvernement chinois, lui fait l'inverse : il régule les joueurs de jeux vidéo grâce à cette technologie.

dans

La reconnaissance faciale est un sujet aux multiples ramifications, qui inquiète de nombreux observateurs des technologies de surveillance. Le président du service juridique de Microsoft, Bradley Smith est de ceux-là visiblement, et il l'a fait savoir sur le blog de son entreprise le 13 juillet dernier dans un article intitulé : Technologies de reconnaissance faciale : la nécessité d'une régulation publique et la responsabilité des entreprises" (en anglais). Cette demande, très étayée, n'a pas trouvé jusqu'alors beaucoup d'écho. 

Les caméras couplées à des systèmes informatiques d'apprentissage-machine (les intelligences artificielles) sont aujourd'hui de plus en plus utilisées dans de nombreux domaines et commencent à générer leur lot de problèmes, particulièrement dans la surveillance policière. La France a déjà commencé à étudier la mise en œuvre de la reconnaissance faciale par réseaux de caméra de surveillance et teste ces systèmes pour soutenir à terme les forces de l'ordre.

Alors que l'entreprise Microsoft, s'inquiète de l'utilisation de cette technologie, et demande à son gouvernement de légiférer à son sujet, le gouvernement chinois a lui déjà passé le cap, mais de façon inverse : pour réguler les individus en addiction aux jeux vidéos et aux écrans grâce à la reconnaissance faciale… Laisser des machines détecter automatiquement les visages des citoyens pour soutenir les forces de police ou contraindre les usages des personnes est-il acceptable ? Doit-on réguler l'utilisation des machines "intelligentes" ou au contraire laisser les intelligences artificielles réguler les citoyens ? 

Amazon et la surveillance policière

Amazon est devenue un poids lourd du marché de la reconnaissance faciale avec son système Rekognition : une intelligence artificielle installée sur ses serveurs, que chacun peut louer pour la raccorder à son réseau de caméras de surveillance. L'ONG américaine de défense des libertés civiles l'ACLU (American Civil Liberties Union) a fait une demande en janvier 2018 au département de police d'Orlando en Floride pour connaître les détails du partenariat passé avec Amazon depuis 2015 sur ce système de reconnaissance faciale Rekognition :

Les documents obtenus par l'ACLU indiquent qu'Amazon offre son service à des tarifs très bas aux départements de police, avec de nombreux services gratuits, dont une offre de 16 heures d'analyse gratuite par mois, par exemple. Suite aux demande d'information de l'ALCLU, Amazon a retiré ses annonces d'offre qui mettait en avant ses outils pour "identifier en temps réel des personnes filmées par des cameras de surveillance ou par les caméras embarquées par les agents de police en intervention".

Le service Rekognition est aujourd'hui présenté comme "une solution d’identification de traitement des images pour retrouver des personnes disparues, identifier des célébrités ou du texte" sur le site de l'entreprise de Jef Bezos. Malgré ces changements dans les annonces commerciales d'Amazon, l'ACLU continue d'affirmer que la firme travaille toujours avec les services de police, ce qui leur permet d'effectuer de la reconnaissance faciale et de l'identification en temps réel via les réseaux de caméras publiques et des caméras embarquées des forces de l'ordre.

Microsoft et les services d'immigration ?

Le directeur juridique de Microsoft est inquiet de l'utilisation qui peut être faite à l'aide des intelligences artificielles en reconnaissance faciale, et pour cause : son entreprise, Microsoft a été soupçonnée d'avoir fourni ses propres technologies à l’immigration américaine ayant mené au scandale des séparations de familles de migrants. Sur le blog de l'éditeur de logiciels, Brad Smith ne cherche pas à se voiler la face et dit les choses clairement : "Tous les outils peuvent être utilisés pour le bien ou pour le mal. Même un balai peut être utilisé pour balayer le sol ou frapper quelqu'un sur la tête. Mais plus l'outil est puissant, plus les avantage qu'il peut offrir ou les dommages qu'il peut causer sont importants".

Et plus loin, le responsable juridique de Microsoft ne cache pas ses inquiétudes sur ce sujet précis : "Imaginez une base de données de tous ceux qui ont assisté à un rassemblement politique, ce qui constitue l'essence même de la liberté d'expression. Imaginez que les magasins d’un centre commercial utilisent la reconnaissance faciale pour échanger des informations sur chaque rayon que vous parcourez et le produit que vous achetez, sans vous le demander au préalable. C’est depuis longtemps l’essence de la science-fiction et des films populaires — comme «Minority Report», «Enemy of the State» et même «1984» — mais maintenant cela est sur le point de devenir possible."

Les accusation sur un contrat passé entre l'Etat américain et Microsoft sur une technologie de reconnaissance faciale utilisée pour identifier les familles de migrants ont été écartées : Microsoft a bien passé un contrat pour des technologies informatiques avec l'administration américaine, mais pas de ce type : "(…) Nous avons confirmé que le contrat en question n’est pas du tout utilisé pour la reconnaissance faciale. De plus, Microsoft n’a pas collaboré avec le gouvernement américain dans le cadre de projets relatifs à la séparation des enfants de leurs familles à la frontière, une pratique à laquelle nous nous sommes fermement opposés. Le travail prévu dans le contrat prend en charge de la messagerie électronique, du calendrier, de la messagerie et de la gestion de documents."

Une étonnante demande de régulation de la reconnaissance faciale 

Face aux problèmes et aux dangers que souligne Brad Smith avec les technologies de reconnaissance faciale, une voie est possible, et même nécessaire selon lui, c'est celle de la régulation d'Etat : "Le seul moyen efficace de gérer l'utilisation de la technologie par un gouvernement consiste pour le gouvernement à gérer de manière proactive cette utilisation elle-même. nous pensons qu’il est nécessaire aujourd’hui, de lancer une initiative gouvernementale visant à réglementer le bon usage de la technologie de reconnaissance faciale, traitée d’abord par une commission bipartite et composée d’experts".

Cette demande, étonnante venant de la part d'un représentant d'un fleuron de la techonologie — qui plus est  vendeur de solutions technologiques concernées par cette régulation — est empreinte de craintes sur les abus et dérives contenus dans la reconnaissance faciale, que le juriste de Microsoft souligne dans son billet : "Il semble particulièrement important de rechercher une réglementation gouvernementale réfléchie en matière de technologie de reconnaissance faciale, étant donné ses vastes ramifications sociétales et son potentiel d'abus. Sans une approche réfléchie, les autorités publiques peuvent s'appuyer sur des approches technologiques erronées ou biaisées qui permettent de décider qui surveiller, sur qui enquêter ou même qui arrêter pour un crime. Les gouvernements peuvent surveiller l’exercice d’activités politiques ou  d'autres activités publiques en contradiction avec les attentes anciennes inscrites dans les sociétés démocratiques, refroidissant ainsi la volonté des citoyens de participer à des événements politiques et portant alors atteinte à nos libertés fondamentales de réunion et d’expression". 

La conclusion de Brad Smith, ouverte à des solutions internationales, semble empreinte de bon sens et d'une nécessité urgente : "Comme par le passé, nous devons veiller à ce que les nouvelles inventions servent nos libertés démocratiques conformément à la règle du droit. Compte tenu de la portée mondiale de cette technologie, nous devrons nous attaquer à ces problèmes au niveau international, notamment en nous appuyant sur de nombreuses voix respectées. Nous devrons tous travailler ensemble et nous avons hâte de faire notre part". Mais la voix de Brad Smith, venue du secteur privée, est-elle suffisante quand la majorité des Etats démocratiques annoncent pour la plupart vouloir équiper leurs services de police, de renseignements et leurs armées des technologies de reconnaissance faciale en copiant la surveillance technologique exercée par le gouvernement chinois ?

La plus grande dictature politique du monde, la Chine, a son "réseau céleste" de 200 millions de caméras intelligentes — 400 millions prévues en 2020 — qui scrutent les visages des citoyens et ne compte pas réguler cette technologie. Elle a par contre déjà autorisé une "régulation des usagers du numérique" grâce à la reconnaissance faciale… pour protéger la jeunesse de l'addiction aux jeux vidéo et lutter contre la myopie !

La société chinoise Tensent a en effet installé un système de reconnaissance faciale dans son jeu Honnour of Kings qui repère l'âge du joueur et qui lui coupe l'accès au jeu s'il estime qu'il est âgé de moins de 12 ans. Pour la myopie, sur Iphone X, le joueur chinois d'Honnour of king voit son écran se flouter si son visage est à moins de 40 cm du smartphone, grâce à la techonolgie "Apple’s TrueDepth camera system".

En Chine, les machines décident déjà de ce qui est bon ou non pour vous et comment vous pouvez ou non utiliser vos achats numériques. Grâce à cette formidable avancée qu'est la reconnaissance faciale — que Brad Smith s'inquiète de ne toujours pas voir être régulée — les citoyens chinois sont eux-mêmes régulés par des machines. Et dans les démocraties censées protéger les citoyens des abus de pouvoir ?