Deux médias israéliens accusent Israël d'utiliser l'intelligence artificielle (IA) pour identifier et frapper des cibles à Gaza, provoquant un très grand nombre de victimes civiles.
L'enquête publiée par les médias +972 Magazine et Local Call décrit un programme de l'armée israélienne baptisé "Lavender", qui utilise l'IA pour identifier des cibles à Gaza, avec une certaine marge d'erreur. Selon ces médias indépendants, qui s'appuient sur six "officiers de renseignement israéliens", le programme "a joué un rôle central" pendant les premières semaines des bombardements israéliens sur la bande de Gaza. Les militaires, selon eux, "traitaient les productions de la machine d'intelligence artificielle 'comme si c'était une décision humaine'". Selon deux des sources citées, l'armée a aussi décidé que pour chaque membre "junior" du Hamas détecté par "Lavender", il était "permis" de tuer, comme victimes collatérales, 15 à 20 civils. Le ratio montait à 100 civils pour un commandant du mouvement islamiste palestinien.
"Contrairement aux accusations, l'armée israélienne n'utilise pas de système d'intelligence artificielle pour identifier des opérateurs terroristes ou essayer de prédire quelle personne est un terroriste", a répondu ce vendredi l'armée israélienne aux questions de l'AFP, admettant simplement l'existence d'une "base de données".
"L'IA devrait être utilisée comme une force du bien, au bénéfice du monde, et non pas contribuer à la guerre à un niveau industriel, brouillant la responsabilité", a insisté Antonio Guterres.
Israël ne cache pas travailler à des outils d'IA dans son armée. L'armée revendique avoir mené la "première guerre par l'IA" durant onze jours en mai 2021 à Gaza. Le chef d'état-major à l'époque, Aviv Kochavi, déclarait l'an dernier au site d'information israélien Ynet que l'IA avait permis de générer "100 nouvelles cibles chaque jour", contre "50" par an dans la bande de Gaza "dans le passé".
Deux fusils géants robotisés, installés avec des caméras de surveillance sur une tour, pointés sur le camp de réfugiés d'Arroub, au sud de la Cisjordanie, le 6 octobre 2022. Israël a installé des armes robotisées qui peuvent tirer des gaz lacrymogènes, des grenades assourdissantes et des balles en caoutchouc sur des manifestants Palestiniens. Les robots utilisent l'intelligence artificielle pour déterminer leur cible.
D'après un blog du site de l'armée israélienne, plus de 12.000 cibles avaient ensuite été identifiées en 27 jours, grâce à une technologie nommée Gospel. Selon un responsable cité anonymement, cet outil a sélectionné des cibles "pour des attaques précises des infrastructures associées au Hamas, infligeant des dommages importants à l'ennemi, tout en causant à ceux non impliqués le moins de tort possible".
Mais un ancien officier des renseignements israéliens s'exprimant sous couvert de l'anonymat soutenait en novembre au +972 Magazine que cette technologie était en train de se transformer en "une fabrique d'assassinats de masse".
Interrogé par l'AFP, Alessandro Accorsi, expert pour l'organisation de résolution des conflits Crisis Group, a jugé l'information "très inquiétante". "C'est apocalyptique. Il est clair que le système peut halluciner, que le degré de contrôle humain est bas", a-t-il relevé. "Il y a des milliers de questions autour de ça à l'évidence, à quel point c'est moral de l'utiliser, mais ce n'est pas surprenant."
Pour Johann Soufi, avocat international et ex-directeur du bureau juridique de l'Unrwa (l'agence onusienne pour les réfugiés palestiniens) à Gaza, ces méthodes "violent tous les principes cardinaux du droit international humanitaire", dont la distinction entre combattants et civils, la précaution et la proportionnalité.
Elles "constituent indiscutablement des crimes de guerre", a-t-il dénoncé sur X, posant même la question de "crimes contre l'humanité, tant le ratio (20 civils tués/1 combattant junior, et 100/1 commandant) suggère une volonté d'attaquer de manière systématique et généralisée la population civile gazaouie".