Le « Sommet pour l’action sur l’Intelligence Artificielle », tenu à Paris la semaine dernière, a suscité beaucoup de débats et d’interrogations, mais pas assez à mon sens sur la question du rapport entre l’IA et la guerre. Le mathématicien Cédric Vilani est un des seuls à mettre au premier plan cette problématique : « Par rapport à la paix, l’équité et la trajectoire écologiquement viable, les trois questions qui forment les grands critères actuels de progrès, l’intelligence artificielle représente au mieux une difficulté supplémentaire, au pire une catastrophe, au même titre que la bombe nucléaire pouvait constituer à la fois un sujet scientifique et intellectuel passionnant, mais aussi une invitation à la destruction de l’humanité » (journal l’Humanité du 9 février 2025).
En effet, l’intelligence artificielle (IA) transforme profondément la guerre moderne en influençant les stratégies, les armes et la cybersécurité. Son intégration soulève des questions éthiques et légales, notamment sur l’autonomie des systèmes et la responsabilité des actions de guerre entreprises avec son aide. J’y ai consacré une trentaine de pages dans mon dernier livre « La paix, c’est mon droit » (BoD éditeur), au travers du questionnement sur les drones armés, sur les SALA (armes autonomes), la cyberguerre.
Faisons rapidement une revue de détail.
Les drones armés
Concernant les drones armés, l’intégration de l’intelligence artificielle (IA) a transformé leur fonctionnement, augmentant leur autonomie, leur précision et leurs capacités d’analyse en temps réel.
Elle leur permet de naviguer sans intervention humaine, de détecter des cibles et de prendre des décisions en temps réel. Surtout, grâce à elle, des essaims de drones coordonnent leurs actions de manière presque autonomes pour maximiser l’efficacité des attaques et des missions de reconnaissance.
L’usage de drones dans les conflits soulève des problèmes politiques, juridiques, éthiques et de sécurité internationale. Ces armes télécommandées favorisent l’emploi extraterritorial de la force.
Dans une résolution du 27 février 2014 (2014/2567 (RSP)), le Parlement européen a estimé que « les frappes de drones, alors qu’aucune guerre n’a été déclarée, menées par un État sur le territoire d’un autre État sans le consentement de ce dernier ou du Conseil de sécurité des Nations unies, constituent une violation du droit international ainsi que de l’intégrité territoriale et de la souveraineté de cet État ».
Il semble urgent que le contrôle des drones armés soit intégré dans les enceintes traitant du désarmement au sein des Nations unies pour progresser sur les voies du contrôle, de la limitation d’usage, voire de l’interdiction de ces nouvelles armes.
Dans les cinq dernières années, l’usage de ce type de drones s’est développé, soit dans les actions contre des groupes terroristes comme au Mali, soit dans des opérations de guerre comme en Ukraine actuellement. Selon Agnès Callamard, rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, une dizaine de pays en ont déjà employé pour recourir à l’élimination d’une « cible terroriste qui représente une menace potentielle, non définie, pour l’avenir » en dehors de tout contexte de guerre interétatique. Selon cette experte, la neutralisation du général Qassem Soleimani le 3 janvier 2020 a marqué un tournant dans l’emploi de ces systèmes, quand « pour la première fois, un drone armé par un État a pris pour cible un haut fonctionnaire d’un État étranger et l’a fait sur le territoire d’un État tiers ».
Depuis, les exécutions de dirigeants du Hamas en Iran, au Liban, soit par des drones, soit par l’explosion provoquée à distance de téléphones satellites, ont représenté une escalade dans la négation du droit international.
Du point de vue militaire, l’intelligence artificielle a franchi un nouveau pas et permet aujourd’hui à des drones de mener des attaques autonomes, notamment par la technique dite de l’« essaim » [ensemble coordonné de drones]. Si on combine les drones et les algorithmes, il est possible de développer une attaque massive si on accroît leur autonomie. Or, aujourd’hui dans la guerre d’Ukraine, Russie et Ukraine fabriquent chaque année des millions de drones. Selon RFI du 12 janvier dernier, l’Ukraine utilise jusqu’à 10 000 drones de toute nature par jour !
Les SALA
Au niveau des Systèmes d’Armes Létales Autonomes (SALA), l’intelligence artificielle joue un rôle clé dans leur développement, en améliorant leur précision et leur autonomie, ce qui soulève de nombreuses préoccupations éthiques et légales. Au premier plan de celles-ci, l’absence d’un opérateur humain capable de corriger une erreur de l’IA, le risque de non-respect par des SALA des principes de distinction et de proportionnalité du droit humanitaire.
En effet, pour être conformes au droit international humanitaire, elles devraient être capables de faire la distinction entre civils et combattants. Peut-on accepter en conscience que les machines puissent avoir un pouvoir de vie et de mort sur le champ de bataille ? Qui serait responsable dans le cas où l’utilisation d’une arme autonome entraînerait un crime de guerre : le programmeur, le fabricant ou bien le chef militaire qui déploie l’arme ?
À ces risques éthiques, il faut ajouter leur tendance “automatique” à faciliter la course aux armements.
L’emploi de « robots tueurs » modifie le rapport des autorités politiques au recours à la force. « Envoyer des robots plutôt que des personnes sur la ligne de feu […] reviendrait à faciliter la décision d’entrer en guerre, générant ainsi davantage de conflits » s’inquiète un membre de la coalition « Stop killer robots ». 53 ONG venant de 25 pays se sont en effet rassemblées depuis avril 2013 au sein d’une coalition intitulée « Campaign to stop killer robots ».
De nombreuses ONG et experts militent pour l’interdiction des SALA par le biais de traités internationaux. Un traité est en discussion à l’ONU mais les négociations piétinent.
Le « soldat du futur »
Un des aspects de la militarisation de l’IA réside aussi dans son rôle accru dans le concept de « soldat du futur ».
Des technologies basées sur l’IA améliorent les capacités physiques et cognitives des soldats, en utilisant des exosquelettes, en réduisant la fatigue et en augmentant la réactivité des soldats, enfin en améliorant l’interaction entre le cerveau humain et les systèmes de combat (contrôle direct des drones et autres équipements militaires).
Ces recherches visent à modifier les techniques de combats sur le terrain en combinant la gestion des décisions opérationnelles, ces nouveaux soldats et l’utilisation de Véhicules de combat autonomes, capables de détecter et d’engager des cibles sans intervention humaine.
Le ciblage automatique
Une des plus récentes applications de ces concepts a été à l’œuvre lors des bombardements israéliens sur Gaza.
Les Forces de Défense Israéliennes (FDI) ont utilisé un système d’IA surnommé « The Gospel » pour identifier et sélectionner des cibles. Ce système analyse des données pour recommander des cibles potentielles, telles que des combattants, des lance-roquettes ou des postes de commandement. Un analyste humain valide ensuite ces recommandations avant de les transmettre aux unités opérationnelles.
Le système a pu générer jusqu’à 100 cibles potentielles par jour, contre 50 par an auparavant. Cette rapidité a conduit à une intensification des frappes, avec plus de 22 000 cibles frappées à Gaza, soit un rythme quotidien plus de deux fois supérieur à celui du conflit de 2021.
Deux médias israéliens ont révélé aussi le rôle d’un autre système d’IA, appelé “Levender”, conçu pour identifier des responsables du Hamas comme cibles. Selon les interviews réalisées par ces médias, les dégâts seraient encore plus préoccupants, avec des ciblages systématiques des familles de terroristes la nuit, ce qui amènerait des taux de « dommages collatéraux » entre 20 tués et 100 tués innocents pour un terroriste tué (selon son importance politique supposée).
Les critiques soulignent le risque de « biais d’automatisation », où les opérateurs font une confiance excessive aux recommandations de l’IA sans validation approfondie. Cela entraîne une tendance à accepter une part de plus en plus importante de « dégâts collatéraux acceptables » pour être plus “efficaces”.
Espace et nucléaire
L’IA joue aussi un rôle bien sûr très important dans les systèmes militaires “lourds” que constituent la militarisation de l’espace et les armements nucléaires.
Sa place est essentielle notamment dans la gestion des satellites, la surveillance orbitale et les systèmes d’armement autonomes. Elle améliore la surveillance des satellites et détecte les menaces en temps réel grâce à des systèmes comme le Space-Based Infrared System (SBIRS). Mais elle est utilisée aussi pour contrôler des drones et des systèmes offensifs en basse orbite terrestre. L’absence de régulation claire et les risques d’escalade nécessitent une réflexion approfondie pour éviter des conflits incontrôlables dans l’espace.
Concernant les armements nucléaires, l’intelligence artificielle joue un rôle croissant dans la gestion et la stratégie des armes nucléaires, en influençant la détection des menaces, la prise de décision et les systèmes de commandement et de contrôle.
Certaines études suggèrent que l’IA pourrait un jour jouer un rôle dans la gestion autonome des ripostes nucléaires, ce qui représente un danger majeur. En effet, elle pourrait rendre les systèmes nucléaires plus vulnérables aux cyberattaques ou à des erreurs de calcul stratégique, mettant en cause la fiabilité même du concept « rationnel » de dissuasion. Elle pose ainsi de graves risques pour la stabilité stratégique mondiale. Ce qui ne peut que conforter les partisans de l’interdiction totale des armes nucléaires.
Ce rapide tour d’horizon montre à quel point il faut prendre conscience des risques supplémentaires que fait peser l’introduction de l’Intelligence artificielle dans le domaine militaire.
Quelle réglementation ?
À ce jour, aucun traité international de désarmement spécifiquement dédié n’a été adopté. Cependant, plusieurs initiatives et discussions sont en cours pour en encadrer l’utilisation dans le domaine militaire :
• Conseil de l’Europe : Le Conseil de l’Europe a adopté le 17 mai 2024, une Convention-cadre sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit. Après sa signature le 5 septembre 2024, elle est devenue le tout premier traité international juridiquement contraignant dans ce domaine.
• OTAN : En 2021, l’OTAN a publié une stratégie sur l’IA, soulignant l’importance de son utilisation responsable dans les applications de défense et de sécurité. Bien que cette stratégie ne constitue pas un traité de désarmement, elle établit des principes pour l’intégration de l’IA dans les opérations militaires, en mettant l’accent théoriquement sur la nécessité de respecter le droit international et d’éviter une course aux armements basée sur l’IA.
• Instances internationales : La Convention sur certaines armes classiques (CCAC) est un cadre international visant à restreindre ou interdire l’utilisation de certaines armes considérées comme inhumaines. Depuis 2014, la CCAC a initié des discussions spécifiques sur les systèmes d’armes létaux autonomes (SALA), qui intègrent des technologies d’intelligence artificielle (IA).
En 2023, un projet de résolution proposé par l’Autriche a été adopté, prévoyant la rédaction d’un rapport sur les SALA sous les auspices du Secrétaire général de l’ONU, impliquant divers acteurs tels que les États Membres, le Comité international de la Croix-Rouge (CICR), la société civile et la communauté scientifique. Mais sa procédure d’adoption piétine et provoque l’impatience des ONG comme Human Rights Watch a cofondé la coalition Stop Killer Robots (« Stopper les robots tueurs »). Celle-ci demande une nouvelle loi internationale sur l’autonomie des systèmes d’armes.
Pour le CICR (Comité international de la Croix-Rouge), il est essentiel que la communauté internationale adopte une approche véritablement centrée sur l’humain dans le développement et l’utilisation de l’IA dans les zones touchées par les conflits.
La position française
Quant à la France, elle met officiellement l’accent sur le respect du droit international et le maintien d’un contrôle humain sur les systèmes d’armes. Le ministère des Armées a clairement indiqué que la France ne développera pas de « robots tueurs » et insiste sur la nécessité de conserver un contrôle humain dans les décisions d’engagement.
Mais, parallèlement, la France reconnaît l’importance stratégique de l’IA dans le secteur de la défense. Un investissement de 2 milliards d’euros est prévu d’ici 2030 pour développer des applications d’IA militaire. Cette initiative comprend la création de l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), dont l’objectif est de centraliser les recherches et d’accélérer la mise en œuvre de projets innovants sur le terrain.
La guerre d’Ukraine semble servir de terrain d’expériences. Le colonel Olivier Pinard-Legry, conseiller intelligence artificielle auprès du ministre des Armées, explique ainsi : « Pour optimiser les interactions, par exemple, entre les canons Caesar et les drones, des projets sont en cours en France et servent aussi en Ukraine. Vous envoyez un drone, il va identifier lui-même des cibles, va envoyer les coordonnées et automatiquement le canon peut rallier sur cette position-là » (RTL – 12/07/2024).
Alors, divorce ou double jeu entre le discours officiel et les actes ? Raison de plus pour profiter de l’actualité qui a mis la place de l’Intelligence artificielle en lumière pour débattre de ce pan considérable des enjeux : une IA pour la paix, le bien-être ou pour la guerre et l’oppression ?
Dans une perspective éthique, les dirigeants de l'Église catholique ont publié ce 28 janvier dernier un document qui décrit le cadre éthique de l'Église sur l'utilisation de l'IA dans la guerre et souligne la nature problématique de la militarisation de l'IA. « Les atrocités commises tout au long de l'histoire suffisent à susciter de profondes inquiétudes quant aux abus potentiels de l'IA », indique le document. « Aucune machine ne devrait jamais choisir d'ôter la vie à un être humain ».
Le pape François a demandé aux armées de cesser l'utilisation de ces systèmes en affirmant qu'il s'agissait d'un « engagement effectif et concret à introduire un contrôle humain toujours plus grand et plus adéquat ».
Ces interrogations éthiques ne sont pas seulement celles d’autorités religieuses. Elles sont exprimées par nombre d’associations et ONG. Ainsi, Amnesty international, avec d’autres ONG, s’est exprimée en marge du Forum de Paris. Elle alerte l’opinion dans le point 4 des risques énumérés : « Des armes sont aujourd’hui capables, seules, sans intervention humaine, d'attaquer des cibles. Capables de décider de qui vit et de qui meurt. Une machine ne devrait pas pouvoir décider de la vie ou la mort d’une personne. Des négociations pour faire évoluer le droit international sur la question de l’autonomie des systèmes d’armes sont essentielles. Car c’est un ensemble de droit qui est menyhbacé par ces armes autonomes ».
Il me semble que c’est cette interrogation qui devrait être aujourd’hui au cœur de la réflexion de chaque citoyen et citoyen, de chaque responsable politique.
Daniel Durand – IDRP
16 février 2025
Aucun commentaire:
Enregistrer un commentaire