Cloud de guerre – Militarisation de l’intelligence artificielle et des implications éthiques

Du 10-11 février 2025, au Grand Palais de Paris, la troisième édition du Sommet de l’action de l’intelligence artificielle a eu lieu, qui a réuni des chefs d’État, leader des organisations internationales, PDG des entreprises, des universitaires et des représentants de la société civile pour discuter des défis et des opportunités liés à l’intelligence artificielle. Cependant, derrière la clameur de cette «tempête cérébrale», le portrait fragmenté d’un monde suspendu entre les promesses d’innovation et les ombres dérangeantes émerge. Les thèmes centraux? Le déclin économique de l’Occident, la concurrence croissante avec le modèle chinois et la race européenne pour récupérer du terrain.
Les initiatives proposées sont ambitieuses, mais, pour une analyse plus en profondeur, elles prouvent souvent des projets incomplets ou à risque de support qui, s’ils ne sont pas contrôlés de manière adéquate, pourraient alimenter le contrôle centralisé et accentuer les inégalités mondiales. Avec un fonds de 2,5 milliards d’euros destiné à accélérer la croissance de l’IA open source dans les pays en développement et le lancement de 35 défis mondiaux liés aux objectifs de développement durable, le sommet a appelé à la coopération internationale. Cependant, derrière ces déclarations, le risque d’un vide de responsabilité est caché que la crise économique qui affecte l’Europe amplifie, remettant en question l’engagement réel de Bruxelles. Entre-temps, Donald Trump, avec son projet Stargate de 500 milliards de dollars, se propose comme acteur déjà conscient de la façon dont l’IA peut être utilisée pour la domination économique et militaire.
La réalité de l’intelligence artificielle, cependant, ne coïncide pas avec la vision futuriste du progrès qui est présentée, mais avec ses applications concrètes. Déjà maintenant, l’IA ne se limite plus à la gestion des données: ils les manipulent. C’est le paradoxe: ce qu’on appelle “l’intelligence artificielle” est, en réalité, une tromperie sémantique qui masque notre ignorance sur l’intelligence naturelle, la nôtre. Pourtant, cette «non-intelligence» écrit déjà l’histoire des générations entières présentes et futures.
Les géants du TEC
Une absence alarmante a caractérisé le sommet: aucune mention de la vraie face de l’IA, celle qui nourrit la machine de guerre. Deux enquêtes sur le Washington Post (e di Le gardien (Ils ont révélé l’implication directe de géants technologiques tels que Google, Amazon et Microsoft dans l’approvisionnement en technologies à l’armée israélienne pendant l’offensive à Gaza. Il ne s’agit plus de contrats commerciaux simples, mais un soutien direct à la machine de guerre, qui a contribué à la mort de milliers de civils. Effondrement éthique: Microsoft, bien qu’il ait d’abord perdu la course, s’est ensuite intégré au projet, renforçant le réseau de surveillance et de ciblage.
Les enquêtes indiquent comment les produits de Google et de Microsoft ont été utilisés à partir du 7 octobre 2023 et comment leur utilisation a été directement impliquée dans l’extermination des Palestiniens et dans les crimes de guerre commis dans la bande de Gaza. Lancé par Israël en 2019 en tant que cloud computing inoffensif destiné à moderniser les infrastructures numériques du pays, le projet Nimbus a plutôt fourni les compétences avancées de l’intelligence artificielle avancée de l’armée israélienne. “L’élargissement de la surveillance israélienne, du profilage racial et d’autres formes de violation des droits de l’homme assistée par la technologie”, a ainsi décrit Ariel Koren, ancien directeur marketing de Google, en 2022, qui a préféré démissionner plutôt que d’accepter la dérive immorale de la société.
Google soutient que “il ne s’adresse pas à des soldats très sensibles, classés ou pertinents pour les armes ou les services secrets”. Les enquêtes démontrent le contraire: Google et Amazon ont convenu de personnaliser leurs outils à la demande des forces armées israéliennes, améliorant leur capacité à surveiller et à identifier les objectifs. Au cours de l’offensive de Gaza d’octobre 2023, la plate-forme d’intelligence artificielle du sommet de Google a été utilisée pour traiter d’énormes ensembles de données pour les “prévisions”, dans lesquelles les algorithmes analysent les modèles comportementaux et de métadonnées pour identifier les menaces potentielles.
À l’appui des enquêtes sont ajoutées les déclarations de Gaby Portnoy, chef de l’informaticien national israélien jusqu’au 19 février 2025. Selon lui, Nimbus est destiné à renforcer le lien profond entre Amazon, Google et l’appareil de sécurité nationale israélienne. Lors d’une conférence le 29 février 2024, Portnoy a déclaré que “les entreprises étaient partenaires pour le développement d’un nouveau projet qui crée un cadre de défense nationale”, avec des outils de sécurité basés sur le cloud qui “favorisaient les représailles militaires du pays contre le Hamas”. Il doit également la création de nouvelles infrastructures de défense avancées, connues sous le nom de cyber-dôme, évolution du dôme de fer.
Lavande, le côté obscur de la guerre à Gaza
Une fois la guerre faite par des hommes. Aujourd’hui, au moment du nuage, plus. Une enquête sur +972 Magazine e Appel localpublié le 3 avril 2024, a révélé un autre côté obscur de la guerre à Gaza: celui du logiciel conçu pour tuer. Il a été le premier à révéler l’existence de la “lavande”, un système utilisé par l’armée israélienne pour identifier et affecter les objectifs palestiniens, avec une supervision humaine limitée. “Un programme de meurtre de masse sans précédent qui combine le ciblage algorithmique avec une tolérance élevée pour la mort et les blessures des civils environnants”. Et qui maintient la trace de presque tous les habitants de Gaza, collectant des entrées d’intelligence à partir de clips vidéo, de messages des réseaux sociaux et d’analyse des réseaux de communication.
Sur la base des données collectées, l’algorithme est capable de déterminer si une personne est un combattant du Hamas ou appartient à d’autres groupes armés palestiniens. Après avoir identifié les objectifs, avec une marge d’erreur de 10%, les noms sont envoyés à une équipe opérationnelle d’analystes, qui vérifient l’identité “dans un temps maximum de 20 secondes, qui sert généralement à déterminer si le nom est masculin ou féminin, supposant que les femmes ne sont pas des combattants”. Dans la plupart des cas, apparemment, “ces analystes recommandent une attaque aérienne”, compte tenu de la marge d’erreur “acceptable, compte tenu des circonstances”. Au cours des premières semaines de guerre, le système a signalé plus de 37 000 individus comme objectifs potentiels.
Où est papa?
Un altro sistema, “Where’s daddy?”, è in grado di determinare se le persone prese di mira sono a casa o fuori grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Deuxième Appel locall’armée israélienne préfère frapper les gens chez eux, car les atteindre est plus facile que de les identifier pendant l’attaque. Les familles des objectifs et de leurs voisins, considérées comme des membres potentiels du Hamas, sont considérées comme des dommages collatéraux de peu d’importance.
Un agent du renseignement israélien a décrit la plupart des personnes ciblées comme des «individus non importants», des membres à faible teneur en Royaume du Hamas, mais toujours considérés comme des «objectifs légitimes» tels qu’ils sont classés comme combattants, «même s’ils ne sont pas d’une grande importance». Pourtant, comment pouvons-nous «légitimer» les plus de 18 000 enfants abattus au cours de ces mois, la majeure partie de 10 ans et les dizaines de milliers de femmes qui ont été tuées dans les attaques? Étaient-ils également leurs membres de bas rang de Hamas?
Habsora: l’algorithme qui décide qui vit et qui meurt
L’intelligence artificielle détermine qui vit et qui meurt. Un système intérieur, utilisé par l’armée israélienne, décide qui doit être bombardé, avec des marges d’erreur inquiétantes et une logique qui transforme les civils en nombres. Il s’appelle “Habsora” et a une opération simple et impitoyable: le système surveille les visages des Palestiniens pour décider qui est “bon” et ceux qui “mauvais”, est basé sur un ensemble de modèles prédictifs basés sur l’analyse des images et des métadonnées. Résultat? Des milliers d’objectifs identifiés très rapidement, des attentats ciblés qui se transforment souvent en carnage. Des sources intérieures de la même armée israélienne, interviewées par +972, ont admis que le système n’était pas infaillible et que le taux d’erreur est élevé. L’algorithme assume donc le rôle de décider qui vit et qui meurt. La guerre du futur a déjà commencé.
La chaîne de mort accélérée
Une enquête sur Œil du Moyen-Orient Il a révélé un autre aspect inquiétant: l’automatisation de la guerre a abaissé les seuils de tolérance pour les victimes civiles. Deuxième IL Washington Postl’IDF est passé des attaques visant une logique de saturation: éliminer une centaine d’objectifs avec un seul coup est préférable pour risquer de perdre même un. Ces outils montrent comment l’intelligence artificielle est utilisée comme une arme contre les civils, ce qui soulève des doutes quant au respect du droit international humanitaire. Après le 7 octobre, l’armée israélienne a adopté des outils innovants pour sélectionner des objectifs, se distrayant des dirigeants armés. Un choix qui “représente un nouvel horizon dangereux dans l’interaction Man-Macchina dans les conflits”
La militarisation de l’IA ne se limitait pas aux conflits: de nombreuses technologies utilisées à Gaza, telles que des systèmes d’identification biométrique, ont été initialement développées en Occident et continuent d’être utilisées à l’échelle mondiale à des «fins de sécurité». Alors que des géants tels que Google, Amazon et Microsoft renforcent leur lien avec le secteur militaire, il existe des réalités telles que Palantir – fondées par Peter Thiel – qui opèrent dans l’ombre avec des contrats milliardaires dans le secteur de la surveillance et de l’intelligence prédictive depuis des années. Israël a créé une gigantesque base de données sur chaque Palestinien sous l’emploi, collectant des informations sur les mouvements, les contacts sociaux et les activités en ligne, limitant la liberté d’expression et de mouvement. Un “grand frère” à qui rien s’échappe.
Palestine en tant que laboratoire pour l’IA
Antony Loewenstein, journaliste d’investigation australien de Jewish Origins, auteur de Le Laboratoire de Palestine: comment Israël exporte la technologie de l’occupation du monde entiera défini l’utilisation de l’IA par Israël à Gaza “un modèle terrifiant”. À partir du 7 octobre 2023, “Tel Aviv utilise la guerre et l’emploi pour tester les dernières formes de tuer et de surveillance de masse, tandis que les forces lointaines du monde entier observent et apprennent”. Et il ajoute: “Israël ne pourrait pas combattre ses guerres de conquête sans une multitude d’acteurs étrangers qui le soutiennent, Armano et Finance”.
Au cours de la recherche de son livre, Loewenstein a découvert que le complexe militaire industriel israélien considère l’occupation des territoires palestiniens comme un test fondamental pour les nouvelles technologies de mort et de surveillance. Les Palestiniens “sont des cobayes dans une expérience mondiale”, qui ne s’arrête pas aux frontières de la Palestine. La Silicon Valley en a pris note, et la nouvelle ère Trump sanctionne une alliance de plus en plus serrée parmi les grandes sociétés technologiques, Israël et le secteur de la défense.
La guerre à l’ère AI
La guerre n’a jamais été propre, mais aujourd’hui, elle est devenue un jeu sans responsabilité, de plus en plus similaire à un jeu vidéo. Cependant, le Guerre du nuage Ce n’est pas virtuel: il est mortel, impersonnel, automatisé. Le logiciel décide, l’homme approuve un clic, le drone s’exécute. Le massacre devient une sortie, des points civils sur une carte numérique. Un algorithme calcule le nombre de vies sacrifier pour atteindre l’objectif.
Ce n’est pas de la science-fiction. C’est la réalité. La technologie fonctionne plus rapidement que nous, et Israël a montré comment dévaster une population sans conséquences (pour l’instant). Bientôt, l’intelligence artificielle de Google, Microsoft et Amazon pourrait être utilisée partout. Pensez au nombre d’États qu’ils aspireraient à collecter des informations ainsi complétées sur chaque citoyen, ce qui facilite la frappe des critiques, des dissidents et des adversaires.
Entrez Terminateurla voiture ne fait pas de prisonniers. Ce n’est qu’une question de temps avant que l’IA ne prenne le relais, réduisant l’humanité à une variable à optimiser. Notre survie n’est pas une question de technologie, mais de conscience. Et la vraie question n’est pas de savoir si nous pouvons l’arrêter, mais si nous sommes vraiment prêts pour la journée, nous ne serons plus de décider.

Leave a Comment