Robots tueurs : un problème mondial méconnu

Et si les robots participaient aux guerres ? C'est la question posée lors du dernier Forum mondial de Davos. Les "dispositifs de guerre autonomes" existent et commencent à poser problème. Éclairage sur un sujet de science-fiction… devenu réel.
Image
Schwartzeneger : présentation Terminator Genisys
L'acteur Arnold Schwarzenegger présente un modèle de "Terminator" des films éponymes, pour la présentation d'un nouvel opus intitulé "Terminator Genesis" lors d'une conférence de presse en Corée du Sud, le 2 juillet 2015. (AP Photo/Ahn Young-joon)
Partager5 minutes de lecture
Les drones militaires américains, ces engins aériens télécommandés à distance étaient prévus à l'origine — au milieu des années 1990 — pour n'effectuer que des missions de surveillance. Avec l'intervention militaire américaine en Afghanistan, puis l'invasion de l'Irak, les drones ont été utilisés comme engins de mort : pilotés à distance depuis des centres de commandements aux États-Unis, ces robots téléguidés par des opérateurs humains tirent, depuis 2004, des missiles, dont les célèbres et terrifiants hellfire sur des "cibles terroristes" au sol, choisies par la Maison blanche.

Entre 1500 et 4000 personnes ont été tuées par les drones américains en quelques années, selon les ONG.  Les victimes de ces "exécutions aériennes" ne comptaient pas seulement des membres ou des chefs de guerre d'Al Quaïda, ou d'autres groupes terroristes. Loin de là. L'ONG Amnesty International s'en est émue et a publié un rapport édifiant sur ces "assassinats d'État" considérés hors-la-loi selon les conventions internationales du droit de la guerre, qui tuent femmes, enfants, et vieillards depuis des appareils volant à des milliers de mètres d'altitude (lire notre article : "Assassinats américains par drones au Pakistan : le rapport accablant d'Amnesty International").

Le drone autonome existe-t-il ?

Une récente polémique sur l'efficacité des "intelligences artificielles" du programme d'espionnage des télécommunications de la NSA, nommé "Skynet", en œuvre au Moyen-Orient, agite la sphère des spécialistes de la surveillance et des algorithmes militaires. Le site d'information en ligne ArsTechnica (dans un article écrit à partir de documents d'Edward Snowden publiés par The Intercept), met en doute les capacités de Skynet à repérer correctement des "cibles" à travers les communications des téléphones mobiles des 120 millions de citoyens pakistanais. Ce programme est censé extraire des profils terroristes à travers des milliards d'informations, pour que les drones puissent ensuite les éliminer depuis les airs.

Des robots logiciels donnent de l'information militaire pour que des opérateurs tuent des individus à distance via des drones sans pilote : les machines, dans cette configuration, ne sont pas encore décideurs d'un bout à l'autre de la chaîne de commandement, mais elles deviennent un élément crucial "d'intelligence informationnelle". Elles sont l'élément qui détermine la cible, et donc au final, de la vie ou de la mort d'un individu. Les opérateurs ne savent même plus qui ils tuent. Seul Skynet le sait. Il y aurait, selon ArsTechnica, des centaines de victimes innocentes, tuées par… les informations de l'intelligence artificielle.
 
Drone predator et missile hellfire
Drone américain de type Predator tirant un missile Hellfire
Le pas à franchir, pour qu'un drone soit directement connecté à un programme tel que Skynet, et puisse, à l'aide de ses caméras, capteurs, logiciels de reconnaissance visuelle, et algorithmes de vol, décider seul d'exécuter "une cible" choisie sans intervention humaine… est infime. Il est en réalité techniquement opérationnel :  il ne manque en fait que le feu vert des décideurs politiques pour que des drones autonomes "chassent" les terroristes. Et comme ce qui est possible pour les drones l'est aussi aujourd'hui pour d'autres types de robots militaires, l'inquiétude est grande chez les défenseurs des droits de l'homme et autres spécialistes des conflits (depuis un an, une campagne de l'ONG Human Rights Watch, "Stop killer robots", demande leur interdiction), ou de l'intelligence artificielle, comme l'extrait de la table ronde de Davos au sujet des robots militaires le souligne (en anglais) :

Responsabilité et droit de la guerre

Il y aurait plus de 40 pays en compétition pour développer des armes autonomes. Parmi eux, six sont en phase de développement et de tests, selon les promoteurs de la campagne "Stop killer Robots" : les États-Unis, la Chine, Israël, la Corée du Sud, la Russie, et le Royaume-Uni. Les robots terrestres autonomes, ou "robots tueurs" ne sont pas encore en action sur le terrain militaire, mais sont déjà en activité à des fins de tests. Leur potentiel est énorme, en termes de marché économique, et de… destruction :

Géopolitis (RTS et TV5Monde), mai 2015 :
Ces armements, ultra-sophistiqués et "intelligents" peuvent aujourd'hui parfaitement remplacer des êtres humains sur les champs de bataille, et les entreprises technologiques, comme les gouvernements, y voient déjà "la solution militaire du futur"… très proche. Avec les robots tueurs, c'est une nouvelle ère qui s'ouvre : aucune perte humaine à déplorer sur le champ de bataille, supériorité stratégique sur l'adversaire non-équipé de matériels similaires, nouvelle économie dont le potentiel est estimé par les spécialistes, à 20 milliards de dollars.
 
MAARS : le robot tueur
MAARS, le robot tueur autonome de l'entreprise QuinetiQ, futur Terminator des armées ?
Face à ce constat, 3000 chercheurs en intelligence artificielle et en robotique ont signé une lettre ouverte dénonçant les armements autonomes, soutenus par les signatures de 17 000 intellectuels de champs aussi divers que la physique, le droit ou la philosophie. Des personnalités célèbres tels Stephen Hawking, Elon Musk, Steve Wozniak ou Noam Chomsky font partie de ces signataires.

Au delà des peurs — compréhensibles — de voir la machine se retourner contre son créateur pour le détruire, l'émergence des robots tueurs autonomes pose de nombreux problèmes encore non résolus. Les principaux sont ceux de la responsabilité et du droit international. Comment, en effet, appliquer la justice face à une machine qui tue par erreur des civils ou des soldats de son propre camp ? Qui est responsable : le programmeur, l'entreprise qui l'a conçue, le gouvernement qui l''utilise ?
 
Bidog : le robot autonome militaire
Bidog, le robot militaire autonome créé par l'entreprise Boston Dynamics, rachetée en 2013 par… Google. Bidog peut porter 100 kilos de matériel, tomber et se relever seul, et ne demande aucune aide humaine pour accomplir ses missions.
Le droit international n'est déjà pas respecté scrupuleusement avec les assassinats par drones, comme le rappelle le spécialiste des conflits Derek Gregory dans une interview de 2014 :"Au Pakistan, par exemple, où les États-Unis se livrent à des frappes aériennes dans les régions tribales, aucune guerre n’a jamais été déclarée. On ignore, par conséquent, quel droit doit s’appliquer", et les spécialistes semblent bien en mal de pouvoir déterminer quel droit devra s'appliquer quand des tueurs de métal, sans opérateurs humains, en toute autonomie, iront assassiner des êtres humains dans des pays lointains, sur la base de renseignements triés par des intelligences artificielles dont personne ne sera en mesure de comprendre les choix.

Le monde futuriste du film Terminator se dessine, silencieusement.

Démonstration de la nouvelle version du robot humanoïde "Atlas", conçu par l'entreprise Boston Dynamics :