Fil d'Ariane
L'armée turque a en effet utilisé en 2020 des essaims de drones kamikazes autonomes en Libye pour cibler des combattants de l'armée de la HAF (l'armée anti-gouvernementale du général Haftar), selon un rapport de l'ONU daté du 8 mars 2021 découvert par la revue en ligne NewSCientist. Ces engins de 7 kilos, équipés de programmes d'intelligence artificielle avec caméra et reconnaissance visuelle, volent en essaims, sans intervention humaine et sont conçus pour éliminer des combattants adverses grâce aux charges explosives qu'ils transportent.
Les systèmes d'armes autonomes létaux étaient programmés pour attaquer des cibles sans nécessiter de connectivité de données entre l'opérateur et la munition (…)Extrait du rapport de l'ONU sur la guerre de Libye en 2020
Les conditions dans lesquelles l'utilisation de ces armes d'un nouveau genre ont été utilisées sont précisées : "Les convois logistiques et les HAF en retraite ont été traqués et engagés à distance par les véhicules aériens de combat sans pilote ou les systèmes d'armes autonomes meurtriers tels que le STM Kargu-2."
Une fois en retraite, les troupes de l'HAF ont été constamment harcelées par les véhicules aériens de combat sans pilote et les systèmes d'armes autonomes meurtriers (…)Extrait du rapport de l'ONU sur la guerre de Libye en 2020
Ces véritables traques par les airs auxquelles participaient les essaims de drones kamikazes sont documentées par le rapport qui précise leur principe : "Les systèmes d'armes autonomes létaux étaient programmés pour attaquer des cibles sans nécessiter de connectivité de données entre l'opérateur et la munition : en effet ils sont dotés d'une véritable capacité à "tirer, oublier et trouver ".
Qu'est-ce que le "Tirer et oublier" ?
En anglais, le terme "Fire et Forget" (Tirer et Oublier) désigne un engin dont le guidage après lancement ne requiert plus l'intervention de la part de la plateforme de tir. Ce sont donc des missiles ou drones à vol autonome. Généralement, les informations relatives à la cible sont programmées avant le lancement : il peut s'agir de coordonnées ou de mesures radar (vitesse comprise) ou infra-rouge de la cible. Dans le cas d'essaims de drones à reconnaissance visuelle comme dans le cas de Kargu-2, les uniformes, visages, vêtements, types d'armes peuvent être programmés pour devenir des cibles sans qu'aucune intervention humaine en soit requise ensuite. Doù le terme "oublier", puisque les lanceurs de drones oublient les drones après leur tir et les laissent agir seuls et enfin "trouver", puisque les drones trouvent leurs cibles seuls.
Les troupes de la HAF n'ont visiblement pas pu se prémunir de ces attaques de machines autonomes venues du ciel, malgré leurs propres matériels de surveillance aérienne. Le rapport précise que "les petits drones de l'HAF ont été neutralisés par le brouillage électronique du système de guerre électronique Korale". Il s'en est suivi une véritable débacle lorsque les essaims de drones sont passés à l'attaque, comme le rapport le souligne : "Les unités de l'HAF n'étaient ni entraînées ni motivées pour se défendre contre l'utilisation efficace de cette nouvelle technologie et se retiraient généralement dans le désarroi. Une fois en retraite, ils ont été constamment harcelés par les véhicules aériens de combat sans pilote et les systèmes d'armes autonomes meurtriers, qui se sont avérés être une combinaison très efficace pour vaincre les systèmes de missiles sol-air PantsirS-1 livrés par les Émirats arabes unis."
Kargu-2 : l'apprentissage automatique au service de la traque humaine
Le Kargu est un drone qui utilise la classification d'objets basée sur l'apprentissage automatique pour sélectionner et engager des cibles, avec des capacités d'essaimage en cours de développement permettant à 20 drones de travailler ensemble. Le rapport de l'ONU qualifie le Kargu-2 d'arme autonome létale.
Sur le site de STM : "KARGU® est un drone d'attaque à voilure tournante conçu pour la guerre asymétrique ou les opérations antiterroristes. KARGU® peut être utilisé efficacement contre des cibles statiques ou mobiles grâce à ses capacités de traitement d'images en temps réel ainsi qu'à ses algorithmes d'apprentissage automatique intégrés à la plate-forme (…) KARGU®, qui est inclus dans l'inventaire des forces armées turques, permet aux soldats de détecter et d'éliminer les menaces dans une région (…)
Eric Martel, chercheur au CNAM en sciences de l'action et auteur de l'ouvrage "Robots tueurs, La guerre déshumanisée, les robots et drones autonomes visent zéro mort" (Editions Favre, octobre 2018), nous précisait il y a peu son analyse sur les essaims de drones militaires : "Un essaim fonctionne selon la théorie des systèmes, ce sont des acteurs qui sont unitairement bêtes mais intelligents en groupe et ont comme logique, justement, de faire émerger une stratégie qui leur est propre. En interaction avec d’autres essaims, ils deviennent quasiment incontrôlables. Ils constituent d'ailleurs l'un des problèmes les plus aigus des systèmes d'armes autonomes."
La technologie des drones kamikazes utilisée par l'armée turque a potentiellement tué des soldats de l'HAF. Le rapport ne le précise pas, mais si c'était le cas, ce serait une première mondiale, sinistre et inquiétante pour l'avenir.
L'ONG Human Right Watch qui active depuis plusieurs années une campagne pour l'interdiction des robots entièrement autonomes ne s'est pas encore exprimée sur cette révélation, mais l'ONG avait déclaré en 2018 sa très grande inquiétude si cette éventualité survenait. Ce qui est aujourd'hui le cas en Libye avec les essaims de drones kamikazes Kargu-2 :
La lettre ouverte et pétition de chercheurs demandant l'interdiction des armes autonomes est donc plus que jamais d'actualité, 6 ans après sa publication :
Extraits de la pétition : "Autonomous Weapons: an Open Letter from AI & Robotics Researchers"
Si une grande puissance militaire poursuit le développement des armes d'IA, une course mondiale aux armements est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain. (…) Ce ne sera qu'une question de temps avant qu'ils n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs souhaitant mieux contrôler leur population, de chefs de guerre souhaitant perpétrer un nettoyage ethnique, etc.
Nous pensons donc qu'une course aux armements de l'IA militaire ne serait pas bénéfique pour l'humanité. L'IA peut rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, de plusieurs manières, sans créer de nouveaux outils pour tuer des personnes.
L'ONU continue de discuter sur l'encadrement ou l'interdiction des armes autonomes, mais sans succès jusque là. La Turquie, qui vient de créer un précédent avec l'utilisation de ses Kargu-2 en Libye, est membre de l'OTAN. Les autres membres, dont des grandes nations ayant déclaré "ne pas vouloir de Terminators opérant dans des conflits", pourraient donc s'emparer du sujet. Mais dans cette affaire, les enjeux technologiques sont tels, que rien n'est moins sûr…