Mort par algorithme : la guerre contre l’Ai d’Israël à Gaza

Tuer sans pitié à l’aube de l’intelligence artificielle était une préoccupation de divers membres du cosmos informatique-numérique. Méfiez-vous de ces machines en temps de guerre et de leur potentiel à déplacer la volonté et l’action humaines. Malgré tout cela, l’émergence de systèmes de guerre automatisés pilotés par l’intelligence artificielle est déjà devenue une réalité de sang-froid, utilisée de manière conventionnelle et avec la plus grande létalité par des opérateurs humains.

L’illusion alléchante ici est l’idée que les systèmes autonomes deviendront tellement alignés et formés sur le plan algorithmique qu’ils rendront l’action humaine fonctionnellement redondante. À condition que le ciblage soit entraîné, informé et chirurgical, une utopie de précision naîtra dans la guerre moderne. Le nombre de victimes civiles sera réduit ; la mortalité des combattants et des indésirables augmentera à l’inverse avec un effet dramatique.

Une étude de cas de la tache qui a mis à mal cette idée est la campagne de destruction menée par Israël à Gaza. ET rapport
dans le magazine +972 note que les Forces de défense israéliennes ont largement utilisé l’intelligence artificielle pour identifier des cibles et les envoyer en conséquence. Le processus, cependant, était loin d’être précis ou fiable sur le plan médico-légal. Comme Brianna Rosen de Juste la sécurité se règle correctement“Plutôt que de limiter les dommages causés aux civils, l’utilisation par Israël de l’intelligence artificielle renforce sa capacité à identifier, localiser et diffuser des ensembles de cibles qui ne sont probablement pas entièrement vérifiés pour infliger un maximum de dégâts.”

Publicité – Faites défiler pour continuer la lecture

-->

L’enquête commence par un rappel explosif titréUne équipe d’humains et de machines : Comment créer l’intelligence humaine et artificielle qui révolutionnera notre mondeune publication de 2021 disponible en anglais par un certain « général de brigade YS », l’actuel commandant de l’unité de renseignement israélienne 8200.

L’auteur prône un système capable de générer rapidement des milliers de « cibles » potentielles en cas de conflit. L’objectif inquiétant et moralement aride d’une telle machine résoudrait « le goulot d’étranglement humain dans la localisation de nouvelles cibles et dans la prise de décisions concernant l’approbation des cibles ». De cette façon, cela soulage non seulement le besoin humain de vérifier, de vérifier et de vérifier la viabilité de la cible, mais également le besoin de rechercher l’approbation humaine pour leur destruction.

Enquête conjointe par +972
et Appel local identifie un stade avancé de développement d’un tel système, connu des forces israéliennes sous le nom de Lavender. En termes de but meurtrier, cette création d’IA va au-delà de ses prédécesseurs meurtriers tels que « Habsora » (« Évangile »), qui identifie les bâtiments et structures militaires prétendument pertinents utilisés par les militants. Même cette forme d’identification n’a pas contribué à maintenir le taux de mortalité à un niveau modéré, générant ce qu’un ancien officier du renseignement décrit
comme une « usine de meurtres de masse ».

Six officiers des renseignements israéliens, qui ont tous servi pendant la guerre actuelle à Gaza, révèlent comment Lavender « a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier au début de la guerre ». L’utilisation d’une machine d’IA a effectivement incorporé l’élément humain tout en donnant aux résultats de ciblage du système une crédibilité humaine fictive.

Au cours des premières semaines de la guerre, l’armée israélienne s’est largement appuyée, voire exclusivement, sur Lavender, avec jusqu’à 37 000 Palestiniens identifiés comme militants potentiels du Hamas et du Jihad islamique palestinien pour d’éventuelles frappes aériennes. Ce recours marque un changement par rapport à la doctrine précédente de la « cible humaine » utilisée par Tsahal à l’égard des agents militaires supérieurs. Dans de tels cas, le meurtre d’un individu dans sa résidence privée ne se produirait qu’à titre exceptionnel et uniquement contre des individus identifiés occupant les plus hautes fonctions, le tout conformément aux principes de proportionnalité du droit international. Le lancement de « l’Opération Épées de fer » en réponse aux attaques du Hamas le 7 octobre a conduit à l’adoption d’une politique selon laquelle tous les membres du Hamas appartiennent à sa branche militaire. peu importe le rang serait marqué comme cible humaine.

Les officiers disposaient d’une grande latitude pour accepter les listes de victimes sans objection ni examen, avec seulement 20 secondes accordées à chaque cible avant que l’autorisation de bombarder ne soit donnée. L’autorisation a également été accordée malgré le fait que les erreurs de ciblage se produisent dans “environ 10 pour cent des cas, et sont connues pour cibler occasionnellement des individus qui n’ont qu’un faible lien avec des groupes militants, voire aucun.”

Le système Lavender a également été complété par l’utilisation du nom émétique « Où est papa ? », une autre plateforme automatisée qui suivait les individus ciblés jusqu’à leurs résidences familiales qui seraient ensuite rasées. Le résultat a été un massacre massif, avec « des milliers de Palestiniens – pour la plupart des femmes, des enfants ou des non-combattants » tués par les frappes aériennes israéliennes dans les premiers stades du conflit. Comme l’a déclaré avec une honnêteté sinistre l’un des officiers du renseignement interrogés, tuer des membres du Hamas dans des installations militaires ou pendant qu’ils étaient engagés dans des activités militaires ne présentait aucun intérêt particulier. « Au contraire, Tsahal les a bombardés dans leurs maisons sans hésitation, comme première option. Il est bien plus facile de bombarder une maison familiale. Le système est conçu pour les rechercher dans de telles situations.

Utiliser le système impliquait de recourir à des calculs horribles et finalement meurtriers. Deux sources interrogées ont affirmé que l’armée israélienne “a également décidé au cours des premières semaines de la guerre que pour chaque jeune membre du Hamas identifié par Lavender, jusqu’à 15 ou 20 civils pouvaient être tués”. Si les cibles étaient des responsables du Hamas occupant une position particulière, la mort d’un maximum de 100 civils était également autorisée.

Dans ce qui devient sa position par défaut face à de telles révélations, l’armée israélienne continue d’affirmer, comme signalé
dans Temps d’Israël, que les conventions pertinentes sont respectées dans le cas du meurtre de Palestiniens. “Il n’utilise pas de système d’intelligence artificielle permettant d’identifier les terroristes ou de tenter de prédire si une personne est un terroriste”. Le processus, affirme-t-il, est beaucoup plus incisif, impliquant l’utilisation d'”une base de données dont le but est de croiser les sources de renseignements… sur les agents militaires des organisations terroristes”.

Le secrétaire général de l’ONU, António Guterres, déclaré
à quel point il était « profondément troublé » par les informations selon lesquelles la campagne de bombardement d’Israël utilisait « l’intelligence artificielle comme outil pour identifier des cibles, en particulier dans les zones résidentielles densément peuplées, entraînant de nombreuses victimes civiles ». Il vaudrait peut-être bien mieux considérer ces questions comme des cas d’identification erronée, délibérée et imprudente, avec une acceptation consciente par le personnel militaire de Tsahal que les pertes civiles massives sont tout simplement une évidence. Dans ce but, nous ne parlons plus d’une forme de guerre scientifique avancée, menée de manière proportionnelle et précise, mais d’une forme technologiquement avancée de meurtre de masse.

dr. Binoy Kampmark était boursier du Commonwealth au Selwyn College de Cambridge. Il enseigne actuellement à l’Université RMIT. E-mail: [email protected]

© Scoop Média

Publicité – Faites défiler pour continuer la lecture

Back to blog

Leave a comment

Please note, comments need to be approved before they are published.