«Lavender», une intelligence artificielle faite pour tuer: L’effrayante IA israélienne a marqué 37.000 cibles humaines à Ghaza


     

 «Lavender», une intelligence artificielle faite pour tuer: L’effrayante IA israélienne a marqué 37.000 cibles humaines à Ghaza

                                  par Salah Lakoues

Une enquête de + 972 Magazines dévoile l’existence d’un système d’intelligence artificielle israélien, nommé «Lavender» et chargé de pointer des cibles humaines à Ghaza.

Il semble avoir pris le pouvoir sur les décisions humaines. «Lavender», auquel Israël a semble-t-il délégué parfois aveuglément ses tâches de tri de l’information et de choix des cibles.

i Géo.fr

ii Yuval Abraham journaliste et réalisateur israélien

iii Hannah Arendt philosophe allemande

iv Frantz Fanon psychiatre algérien et écrivain

«Where’s Daddy ?» ou les bombardements en aveugle et automatique

C’est donc à «Lavender» qu’a été confiée cette tâche, de manière presque automatique. C’est ainsi que l’intelligence artificielle militaire israélienne a fini par pointer 37.000 personnes comme des cibles «légitimes» parmi la population de Ghaza pour établir une «kill list», une liste des personnes à abattre.

«Ils voulaient nous permettre d’attaquer les jeunes combattants du Hamas automatiquement. C’est un Graal. Une fois qu’on fait les choses de manière automatique, la génération de cible devient folle», explique ainsi l’un des officiers israéliens anonymes interrogés par la publication.

À partir de ce moment, écrit Yuval Abraham ii pour +972 Magazine, l’armée n’a plus eu qu’à exécuter les ordres de frappes, sans plus de vérification. «À cinq heures du matin, l’armée de l’air arrivait et bombardait toutes les maisons marquées», explique l’une des sources du journaliste, réalisateur. «Nous avons tué des milliers de personnes. Nous ne l’avons pas fait une par une – nous avons tout entré dans un système automatique et à partir du moment où l’une des personnes ciblées était à la maison, il devenait immédiatement une cible. On le bombardait lui et sa maison.

Comme le prouve le nombre colossal de morts à Ghaza depuis le début de cette guerre, le ministère de la Santé du Hamas en ayant compté plus de 32.000 comme un tel système ne peut qu’être ravageur pour les vies, qu’elles soient celles de militaires et de militants, des civils qui accompagnent leurs vies, ou de celles et ceux qui ont le malheur de se tenir dans les environs.

L’édifiante enquête de Yuval Abraham explique également la genèse de «Lavender» et la manière dont le système a fini par prendre une place centrale, sinon le pouvoir, dans les mécanismes décisionnels de Tsahal. Il explique également le fonctionnement de la chose, par définition inhumaine.

Les bombardements en aveugle et automatiques

La situation que nous décrivons est extrêmement préoccupante. Les bombardements continus par l’armée israélienne sur Ghaza ont des conséquences dévastatrices pour la population civile, entraînant des pertes en vies humaines, des blessures graves et la destruction de biens essentiels, tels que les infrastructures civiles, les écoles et les hôpitaux. Dans de telles situations, il est crucial que la Communauté internationale agisse rapidement pour mettre fin aux violences et œuvrer à une solution durable au conflit israélo-palestinien. Cela peut nécessiter une intervention diplomatique intense, y compris des efforts de médiation pour négocier un cessez-le-feu et relancer les pourparlers de paix entre Israël et les autorités palestiniennes.

En attendant, il est impératif que des mesures soient prises pour garantir la protection des civils, dans la bande de Ghaza et pour répondre à leurs besoins humanitaires urgents, y compris l’accès à l’aide médicale, à la nourriture et à l’eau potable. Les parties au conflit doivent respecter le Droit international humanitaire et prendre toutes les précautions nécessaires pour éviter les pertes civiles et les dommages collatéraux.

Il est également essentiel que les Nations unies et d’autres organisations internationales continuent de surveiller la situation de près et de faire pression sur toutes les parties impliquées pour qu’elles respectent les normes du Droit international et travaillent de manière constructive à une résolution pacifique du conflit. Il convient de noter que la Cour internationale de Justice (CIJ) a qualifié la situation à Gaza de «début d’un génocide». La CIJ est l’organe judiciaire principal des Nations unies et est chargée de régler les différends juridiques entre États conformément au Droit international. Bien qu’elle ait examiné plusieurs aspects du conflit israélo-palestinien, elle a émis un jugement spécifique qualifiant les événements à Ghaza de génocide.

En plus des organisations de défense des Droits de l’homme et des experts indépendants ont régulièrement exprimé des préoccupations concernant les violations des Droits de l’homme et du Droit humanitaire international dans la région, notamment des actes qui pourraient constituer des crimes de guerre ou des crimes contre l’Humanité. Il est important de poursuivre les efforts visant à garantir que toutes les parties respectent le Droit international humanitaire et les normes des Droits de l’homme, et à promouvoir une solution pacifique et juste au conflit israélo-palestinien. Cela nécessite un engagement ferme de la part de la Communauté internationale et des acteurs régionaux pour faire avancer le processus de paix et répondre aux besoins humanitaires urgents des civils touchés par le conflit. L’utilisation d’armes guidées par l’intelligence artificielle (IA) dans les conflits armés, y compris dans la bande de Ghaza, soulève en effet des préoccupations quant à la déshumanisation et à la responsabilité morale des acteurs impliqués. Les armes autonomes ou semi-autonomes, contrôlées par des algorithmes d’IA, peuvent prendre des décisions de ciblage et d’engagement, sans intervention humaine directe, ce qui soulève des questions éthiques importantes.

Dans le contexte de la philosophie d’Hannah Arendt

iii sur la banalité du mal, l’utilisation de telles armes pourrait être perçue comme une extension de la désensibilisation et de la déshumanisation des victimes.

Oui, la situation à Ghaza est étroitement liée à l’héritage colonial et aux conflits territoriaux qui ont marqué l’histoire de la région. La création de l’État d’Israël en 1948 a déclenché une série de conflits avec les États arabes voisins et a entraîné l’exode de centaines de milliers de Palestiniens de leurs foyers, ce qui est connu sous le nom de Nakba, ou «catastrophe» en arabe. Depuis lors, les tensions territoriales, les affrontements armés et les cycles de violence se sont perpétués, entraînant de nombreux morts, blessés et déplacés.

La situation actuelle à Ghaza est également influencée par les politiques d’occupation et de blocus menées par Israël, qui exerce un contrôle strict sur les mouvements de personnes et de biens dans la bande de Ghaza. Cette occupation et ce blocus ont des conséquences dévastatrices sur la population civile, notamment en limitant l’accès aux services de base tels que l’eau potable, les soins de santé et l’éducation.

De plus, les colonies israéliennes en Cisjordanie et à Jérusalem-Est, considérées comme illégales par le Droit international, exacerbent les tensions et compliquent les perspectives de paix et de résolution du conflit.

En résumé, la situation à Ghaza est profondément enracinée dans l’histoire coloniale de la région et dans les conflits territoriaux qui ont émergé de la création de l’État d’Israël. Pour parvenir à une paix durable, il est nécessaire de reconnaître et de traiter ces questions fondamentales, tout en respectant les droits et la dignité de toutes les personnes touchées par le conflit.

Les défis éthiques:

L’utilisation de l’IA dans la guerre pose de nombreux défis éthiques. L’IA peut être utilisée pour cibler des civils, pour diffuser de la désinformation et pour mener des attaques autonomes qui échappent au contrôle humain. Il est important de mettre en place des garde-fous et des réglementations pour limiter les risques et garantir un usage responsable de l’IA dans les conflits armés.

Qu’aurait pensé Hannah Arendt et Frantz Fanon de cette nouvelle version de la violence

Hannah Arendt et Frantz Fanon face à la violence technologique à Gaza.

Hannah Arendt, philosophe politique allemande, s’est penchée sur les origines du totalitarisme et de la violence politique dans ses écrits. Elle aurait sans doute été consternée par l’utilisation de l’IA dans la guerre à Ghaza.

La banalité du mal: Arendt a analysé le concept de «banalité du mal» pour décrire les crimes nazis commis par des individus ordinaires. Elle aurait probablement vu dans l’utilisation de l’IA une nouvelle forme de «banalité du mal», où la technologie permet de tuer et de détruire à distance, en dépersonnalisant la violence et en diluant la responsabilité des actes.

La perte du monde commun: Arendt a également souligné l’importance du «monde commun» comme espace de dialogue et d’action politique. L’utilisation de l’IA pour la désinformation et la propagande menacerait cet espace commun, en fragmentant la réalité et en nourrissant la méfiance entre les individus.

Frantz Fanon, psychiatre et révolutionnaire algérien d’origine martiniquaise a analysé les effets de la colonisation et de la violence sur les peuples opprimés. Il aurait probablement vu dans l’utilisation de l’IA par Israël une nouvelle forme de colonialisme technologique.

La violence comme outil de domination: Fanoniv a soutenu que la violence est souvent utilisée par les oppresseurs pour maintenir leur domination et pour déposséder les peuples colonisés de leur humanité. Il aurait probablement vu dans l’utilisation de l’IA par Israël une nouvelle forme de violence coloniale, visant à déshumaniser et à assujettir le peuple palestinien.

Le droit à la résistance: Fanon a également défendu le droit des peuples opprimés à la résistance. Il aurait probablement encouragé le peuple palestinien à résister à l’invasion israélienne, y compris en utilisant les technologies disponibles pour se défendre et pour diffuser son message.

En conclusion, Hannah Arendt et Frantz Fanon auraient probablement condamné l’utilisation de l’IA, dans la guerre à Ghaza. Ils auraient vu dans cette technologie une nouvelle forme de violence et de domination, qui menace le monde commun et les droits des peuples opprimés.

Points importants à retenir: Arendt et Fanon se seraient opposés à l’utilisation de l’IA pour la guerre et la violence.

Ils auraient condamné la déshumanisation et la destruction causées par cette technologie. Ils auraient appelé à la responsabilité et à la réglementation de l’IA dans les conflits armés.

Notez que les opinions d’Arendt et Fanon sur ce sujet précis ne peuvent être que spéculatives, car ils ne sont pas en vie pour commenter les événements de Gaza. Néanmoins, leurs analyses de la violence et de la domination nous permettent de mieux comprendre les implications éthiques de l’utilisation de l’IA dans la guerre.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *