Intelligence artificielle : "iBorderCtrl", le détecteur de mensonges débute sa carrière aux frontière de l'Union

C'est une technologie financée depuis 2016 par l'Union européenne qui va être testée les 6 prochains mois dans au moins 3 postes frontière de l'espace Schengen : une intelligence artificielle "détecteur de mensonges", nommée "Iborderctrl". Analyse et explications sur le début de la "gouvernance algorithmique" à l'européenne.
Image
Deep Learning détecteur de mensonges
(Illustration : Wikipedia - Domaine public)
Partager 5 minutes de lecture
Le système iBorderCtrl (Prononcer "aïeBordeureControl", ou Contrôle intelligent de frontière) débute sa phase de test dans 3 pays des frontières de l'espace Schengen : la Grèce, la Hongrie et la Lettonie. iBorderCtrl est un ensemble de procédures informatiques que le voyageur étranger — désireux d'entrer dans l'espace européen — doit accomplir pour ensuite être testé par une intelligence artificielle (IA) évaluant alors la "fiabilité" de la personne  : un "détecteur de mensonges par  reconnaissance faciale"qui redirige ensuite le voyageurs soit dans des files d'attente rapides ou au contraire vers des contrôles poussés. 

Une IA qui vous scrute et calcule vos émotions

iBorderControl demande donc aux voyageurs de télécharger des photos de leur passeport, de leur visa et d'autres éléments qui sont transmis à l'intelligence artificielle qui les attend ensuite au poste frontière. Cette IA pose alors des question via un haut parleur et analyse les réponses humaines grâce à une webcam afin de détecter les micro-expressions présentes sur les visages des voyageurs et  déterminer ainsi s'ils mentent ou non. A la suite de cet interrogatoire par la machine, un jeton est délivré au voyageur. S'il est soupçonné par le système iBorderCtrl d'avoir menti, le jeton le mène à une file d'attente où des gardes frontière vont récupérer des données biométriques : empreintes digitales et des veines de la main, reconnaissance faciale.

Si la machine n'a pas détecté de mensonge, le jeton donnée au voyageur par l'IA le mène à une file à "bas risque", avec moins de contrôles. Le site de la Commission européenne précise que "Les agents des services frontaliers utiliseront un appareil portatif pour procéder à un recoupement automatique des informations, en comparant les images faciales capturées au cours de la phase de présélection aux passeports et aux photos prises lors de précédents passages frontaliers. Une fois que les documents du voyageur ont été réévalués et que les empreintes digitales, le balayage des veines de la paume de la main et l’appariement des visages ont été effectués, le risque potentiel posé par le voyageur sera recalculé. Alors seulement, un garde-frontière prend le relais du système automatisé"
 
Iborder Commission européenne
Détection intelligente des mensonges pour désengorger files d'attente des postes frontières de l'Union
L'automatisation du contrôle des personnes, délégué à des systèmes informatiques, est donc en cours, mais avec quels risques ? Quelles dérives ? Le système est aujourd'hui crédité d'un taux de réussite autour de 75%, ce qui laisse donc un quart des voyageurs pouvant être soupçonnés de mentir alors que ce n'est pas le cas. Qu'en est-il des données biométriques et de leur conservation ? Un interrogatoire à vocation psychologique est-il acceptable par une machine au lieu d'un humain ? L'automatisation de tâches faisant jouer des capacités humaines, comme la gestion des émotions peut-elle causer des problèmes ? Lesquels ? Une foule de questions encore sans réponses survient aujourd'hui avec l'apparition de ces nouveaux procédés à base d'intelligence artificielle, alors qu'aucune régulation, aucun droit ne sont encore en place.

L'algo-gouvernance se met en place en Europe

La Juriste et philosophe du droit, Antoinette Rouvroy — professeure à l’université de Namur et chercheuse au FNRS (équivalent du CNRS français) — travaille depuis plusieurs années sur les principes de "gouvernemantalité algorithmique" ou algo-gouvernance et établit des constats très sévères sur le traitement des données par les systèmes intelligents. Leur utilisation de plus en plus généralisée, est pour la chercheuse — interrogée récemment sur Libération — une forme d'idéologie autoritaire et sans faille : "Cette idéologie technique prétend et présuppose que les données sont exhaustives. C’est comme une clôture d’un réel numérisé sur lui-même, une immunisation contre ce qui fait l’humain et résiste au calcul : la spontanéité, la potentialité et notre part irréductible d’incertitude radicale. Dans le «machine learning» utilisé pour éduquer les machines à l’intelligence artificielle, l’erreur n’est jamais reconnue en tant que telle, elle n’est qu’une occasion supplémentaire d’affiner la modélisation.

Dans une autre interview au quotidien Le Monde, cette fois-ci, Antoinette Rouvroy questionne les objectifs des gouvernants, des bureaucraties qui plébiscitent ces technologies et les conséquences que l'utilisation de celles-ci vont avoir sur les individus : "Ce qui intéresse les bureaucraties privées et publiques qui nous « gouvernent », c’est de détecter automatiquement nos « potentialités », nos propensions, ce que nous pourrions désirer, ce que nous serions capables de commettre, sans que nous en soyons nous-mêmes parfois même conscients. Une propension, un risque, une potentialité, ce n’est pas encore une personne. L’enjeu, ce n’est pas la donnée personnelle, mais bien plutôt la disparition de la « personne » dans les deux sens du terme. Il nous devient impossible de n’être « personne », d’être « absents » (nous ne pouvons pas ne pas laisser de traces) et il nous est impossible de compter en tant que « personne »."

L'installation de l'IA iBorderCtrl au frontières de l'Union européenne est, de par ses fonctions de detections de ce que nous sommes censés être (des menteurs ou non), une parfaite illustration de cette déshumanisation par la detection automatique de nos potentialités décrites par la spécialiste. Le début d'une dépersonnalisation, d'une négation des êtres humains par le biais de machines les traitant — forcément — comme un simple ensemble de données. Au point de n'être plus "personne" ?