256 liens privés
Publié le 4 avril 2024 - Yuval Abraham
https://www.972mag.com/lavender-ai-israeli-army-gaza/
=> traduction par l'Humanité:
Extraits:
L’armée israélienne a désigné des dizaines de milliers d’habitants de Gaza comme des suspects, cibles d’assassinat, en utilisant un système de ciblage par intelligence artificielle (IA), avec peu de contrôle humain et une politique permissive en matière de pertes « collatérales », révèlent le magazine +972 et le site d’informations Local Call. L’Humanité publie une traduction française de l’enquête conduite par ces médias israéliens.
Selon six officiers du renseignement israélien, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon ces sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA « comme s’il s’agissait de décisions humaines ».
Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des « erreurs » dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.
En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit, en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées.
Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien, y compris les moins gradés, comme des cibles potentielles pour les bombardements.
Lavender a marqué jusqu’à 37 000 Palestiniens comme militants présumés – avec leurs maisons – en vue d’éventuelles frappes aériennes.
L'IA au sein d'une division spéciale
Nommé "Habsora" ("The Gospel" en anglais, ou "L'Evangile" en français), ce programme détecte et produit des recommandations automatisées pour attaquer des cibles "à un rythme rapide", selon les déclarations mêmes de l'armée israélienne sur son site internet. Plusieurs sources actuelles et anciennes du renseignement israélien connaissant le programme ont affirmé à +972 Magazine et Local Call que celui-ci a notamment été utilisé pour viser les habitations privées de membres présumés du Hamas et du Djihad islamique palestinien.
Ce n'est pas la première fois qu'Israël exploite l'intelligence artificielle sur la base de l'apprentissage automatique dans des manoeuvres militaires à Gaza. En 2021, après l'opération "Gardien des murs" qui a duré onze jours et fait plus de 250 morts côté palestinien et une douzaine côté israélien, les forces armées de l'Etat hébreu se targuaient déjà de leur "première guerre à l'intelligence artificielle", rapporte The Guardian.
L'armée possède une division dédiée à la génération de cibles via l'IA depuis 2019. Dans un entretien avec le site d'informations israélien Ynet, Aviv Kochavi, chef d'état-major jusqu'en janvier dernier, a déclaré que cette unité comprenait "des centaines d'officiers et de soldats". Selon l'ancien responsable, l'intelligence artificielle utilisée par cette division a permis de générer 100 cibles par jour à Gaza lors de la guerre de mai 2021, contre 50 cibles par an auparavant.
Lire aussi: Au check-point d'Hébron, Israël teste un fusil qui utilise l'intelligence artificielle
Les données utilisées par les systèmes d'aide à la décision pour le ciblage basés sur l'IA, comme "Habsora", ne sont pas officiellement connues. Selon The Guardian, les experts estiment que ces programmes analysent des informations du renseignement israélien provenant de diverses sources, telles que des images de drones, des communications interceptées ou des données tirées de la surveillance des mouvements d'individus.