Robots tueurs : le problème reste entier et alarme les spécialistes

La sentinelle robotisée sud-coréenne SGR-1 est un système précurseur des armes complètement autonomes, qui a évolué et pourrait très bien tuer par elle-même si on la laissait faire. (© 2007 Getty Images - Human Rights Watch)

Les robots militaires autonomes existent déjà et s'ils ne sont pas encore officiellement mis à contribution sur les terrains d'opération, leur utilisation future inquiète. Plus de cent entrepreneurs et chercheurs ont écrit une lettre ouverte à l'ONU pour demander l'encadrement de ces tueurs de métal.

dans
Il y a plus d'un an et demi, TV5MONDE abordait le problème peu connu des robots tueurs, après que des célébrités des sciences et technlogies eurent lancé une première alerte. Dans cet espace de temps — une éternité ou presque dans le secteur des technologie numériques — des avancées significatives ont eu lieu dans le domaine des réseaux de neurones artificiels et de l'apprentissage profond : l'Intelligence artificielle (IA) s'est énormément améliorée, au point de surprendre ses concepteurs. L'autonomie des machines apprenantes, en 2017, commence devenir impressionnante, si bien qu'Elon Musk, le PDG de Space X, Tesla, The boring company et Neuralink a poussé récemment un cri d'alarme pour que les IA soient régulées et donc, encadrées. Son appel semble être resté lettre morte pour l'heure. La recherche militaire s'étant emparée de ces technologies, des prototypes de robots autonomes miltaires ayant déjà été testés, il n'en fallait pas plus pour que, de nouveau, des spécialistes du domaines de l'IA et de la robotique ne s'émeuvent de l'opacité complète dans laquelle ces nouvelles armes pourraient émerger. Un peu plus de cent chercheurs et entrepreneurs ont donc écrit une lettre ouverte à l'ONU pour demander un encadrement… des "armes létales autonomes".

L'autonomie des tueurs en question

Le groupe d’experts gouvernementaux des Nations unies n'a pas repris ses travaux sur les "systèmes d’armes létales autonomes" (SALA) ce lundi, faute de moyens financiers, reportant ses discussions à novembre. C'est cette annulation de réunion au sein de l'ONU qui a déclenché l'envoi de la lettre ouverte des chercheurs et entrepreneur du secteur des IA, portée par le "Futur of life institute". La fin de la lettre est sans ambiguité et exprime une véritable menace pesant sur l'humanité, selon ses signataires : 


Les armes létales autonomes menacent de devenir la troisième révolution militaire.
Une fois développées, elles permettront des conflits armés à des échelles encore jamais atteintes, à des vitesses qu'aucun être humain ne pourra comprendre. Elle peuvent être des armes de terreur, des armes que des dictateurs et des terroristes pourront utiliser contre des populations innocentes, être piratées pour des utilisations détournées. Nous ne devons pas attendre pour agir. Une fois cette boite de Pandore ouverte, il sera difficile de la refermer. Nous demandons donc aux plus hautes autorités en responsabilité de trouver un moyen de nous protéger contre ces dangers.

Ce que redoutent les spécialistes en intelligence artificielle n'est pas l'apparition de machines plus ou moins capables de se déplacer seules ou de détecter des ennemis — ce qui est déjà le cas depuis plusieures années — mais l'apparition de véritables soldats mécaniques, non contrôlés par l'homme et donc parfaitement autonomes. Il y a 3 ans, l'armée sud-coréenne installait un robot sentinelle à la frontière nord-coréenne :

Cette machine, fixe, était déjà capable de détecter des silhouette humaine et déclencher des tirs d'une précision redoutable avec ou sans pilotage humain. Désormais, ce sont des systèmes intelligents, capables de prises de décisions et d'initiatives qui pourraient être utilisés par des armées. Le Terminator de James Cameron n'est absolument plus un phantasme technologique et s'il n'est pas encore aussi abouti que dans l'œuvre de fiction de 1984, il s'en rapproche fortement. Les SALA ou LAWS en anglais (Lethal autonomous weapons systems) sont une menace réelle à venir, que dénoncent des ONG comme Humans Right Watch avec sa "campagne pour mettre fin aux robots tueurs", ainsi que les plus grands spécialistes en intelligence artificielle qui connaissent parfaitement les possibilités qu'offrent ces technologies apprenantes, capables d'agir de façon aussi performante qu'un être humain, voire souvent bien plus.

Aucune réglementation

Il n'existe pour l'heure aucune réglementation au sujet des robots autonomes, qu'ils soient militaires ou non. Les "drones-assassins" américains, pilotés à distance, ont pu se développer et tuer des milliers de personnes depuis les airs sans que rien ni personne ne puisse les en empêcher. Les assassinats de chefs terroristes avec leur lot de victimes innocentes, par Hellfire, décidés depuis la Maison Blanche, sont acceptés depuis des années alors qu'ils bafouent le droit international, ce qu'Amnesty International dénonçait déjà en 2013 par le biais de l'un de ses porte-parole, Aymeric Elluin :
Amnesty hellfire

Le monde ressemble à un immense jeu vidéo. Avec un groupuscule d'hommes aux Etats-Unis qui établit des "kill list" ou parce qu'ils ont vaguement reconnu un vêtement qui pourrait être celui d'un terroriste. La théorie est celle du "sanctuary strike" : on élimine des personnes sur des soupçons. De quel droit les Etats-Unis commettent ces crimes ? (Aymeric Elluin, Amnesty International)

Si aucune réglementation n'a été mise en place pour les drones militaires téléguidés, en sera-t-il de même pour leurs homologues autonomes ? De nombreuses voix s'élèvent pour que ce vide juridique soit comblé et que des tueurs électroniques non-humains ne puissent jamais officier, mais comme toujours, des intérêts puissants s'interposent. Au premier chef, les nations les plus avancées sur le développement de ces nouvelles armes : Etats-Unis, Royaume-Uni, Israël, Corée du Sud et Russie en tête. Reste le groupe d’experts gouvernementaux des Nations unies qui devrait se réunir finalement en novembre pour continuer à réfléchir sur ce problème. Si les finances ne manquent pas encore une fois, la régulation ou de l'interdiction des SALA pourrait-elle alors survenir au niveau international  ?