Armée et innovation

Armes autonomes : le danger des drones de guerre

ANKA İnsansız Hava Aracı

Des machines capables de prendre elles-mêmes la décision de tuer… Un fantasme circonscrit aux romans et films de science-fiction ? Plutôt une réalité qui se rapproche à grands pas, dont aucun accord international ne semble pour l’instant pouvoir empêcher l’avènement.

C’est une menace qui pourrait faire basculer les relations interna­tionales dans un futur proche : année après année, nous tendons vers l’ère des armes autonomes. En décembre 2021, un sommet s’est réuni à Genève pour se pencher sur la question de l’interdiction des systèmes d’armes létales autonomes (SALA) dans le cadre de la conférence d’examen de la Convention des Nations unies sur l’emploi de certaines armes classiques (CCAC), sous la présidence de la France.

Retrouvez cet article dans notre numéro « La joie malgré les défaites », en kiosques en juin-juillet et sur notre boutique.


C’est cette réunion des Nations unies, la sixième de son histoire, qui décide de l’interdiction de l’usage d’arsenaux spécifiques – comme ce fut le cas pour les armes chimiques en 1993. Selon certains observateurs, c’était l’occasion ou jamais pour les 125 États parties contractantes d’arrêter la course aux « robots tueurs ». Car la vitesse à laquelle l’industrie se développe ne laisse guère le loisir de procrastiner : les experts estiment que le marché des armes autonomes représente d’ores et déjà entre 12 et 15 milliards de dollars (11,5 et 14,2 milliards d’euros), et qu’il pourrait croître jusqu’à 30 milliards de dollars (28,4 milliards d’euros) d’ici la fin de la décennie. Malgré ces prévisions, le sommet de décembre 2021 n’a pas abouti à un consensus pour bannir les armes autonomes.

Mais de quoi parle-t-on précisément ? Il existe actuellement tout un panel d’armes que l’on qualifie de « semi-autonomes » à l’instar des drones, qu’ils soient utilisés pour quadriller les airs dans des missions de surveillance ou détruire des véhicules, comme les appareils turcs Bayraktar TB2 qui ont joué un rôle-clé dans la résistance de l’armée ukrainienne. Ces appareils font déjà à peu près tout, tout seuls : ils se déplacent, identifient des cibles et se mettent en mesure de les neutraliser par eux-mêmes. L’armée américaine planche aussi sur des « essaims » de drones coordonnés par intelligence artificielle pour démultiplier leur puissance d’action. Mais même ces systèmes ne font rien tant que l’instruction de tirer ne leur a pas été donnée à distance par un humain. Les armes et drones autonomes, eux, « utilisent l’intelligence artificielle pour repérer des cibles, les identifier comme des ennemis, et entreprendre des actions létales à leur encontre sans participation humaine », écrit le journaliste spécialisé Mathew J. Schwartz. Et ça change tout. 

Armes autonomes « propres »...

Le développement de ces dispositifs a, sans surprise, soulevé toute une série d’inquiétudes d’ordre technologique et éthique. Imaginez un moment qu’un système autonome soit affecté par une défaillance logicielle : que se passerait-il si une machine de guerre ultra-perfectionnée sortait du schéma de commande qui lui a été donné, et décidait d’éliminer tout ce qu’elle pouvait alentour ? Vers quel responsable faudrait-il se tourner ? Le constructeur, le programmeur, l’armée… ? Sans aller jusqu’à envisager des répliques de « Terminators » arpentant les rues, on peut aussi pointer un autre risque, outre celui du dysfonctionnement : l’incapacité technique à interpréter finement les comportements humains ou les situations.

Ces armes autonomes seront-elles capables de faire la différence entre des enfants qui jouent avec des armes factices et des militaires qui les mettent en mire, ou entre des civils qui fuient le lieu d’un combat et des adversaires qui battent en retraite ? On pourrait rétorquer que les humains n’échappent pas aux difficultés d’interprétation. Cependant, « le problème n’est pas que les machines vont faire ce genre d’erreurs et que les humains n’en font pas, précise James Dawes, chercheur en droits humains à l’université de Macalester (Minnesota). Le problème, c’est la capacité, l’efficacité et la vitesse de ces robots tueurs, pilotés par un unique algorithme qui contrôle un contingent tout entier ». Autrement dit : le souci majeur n’est pas qu’une erreur se produise, mais l’ampleur dramatique qu’elle pourrait prendre. Troisième risque, enfin : que se passerait-il si, comme des chercheurs ont déjà réussi à le faire, les drones étaient « hackés » sur le champ de bataille ? Reconfigurés pour changer de cibles puis tirer à volonté ? 

On trouve bien entendu un certain nombre d’experts pour plaider en faveur de ces armes sous le prétexte habituel que tout perfectionnement technologique est synonyme d’une sécurité accrue pour les civils sur les champs de bataille. On peut ainsi lire Hitoshi Nasu, professeur à l’académie militaire américaine de West Point, défendre l’usage de ces armes au motif que « les humanistes devraient se féliciter de la capacité du drone à distinguer les cibles militaires pour éviter les attaques sur les civils ». Autrement dit, dans la lignée des « frappes chirurgicales » de la guerre du Golfe censées justifier une offensive de bombardement, les armes autonomes n’attendent qu’un audacieux pour se voir elles aussi qualifiées de « propres ». 

Une orgie de conflits

Mais les inquiétudes liées aux armes autonomes ne s’arrêtent pas aux seules considérations éthiques et technologiques. En réalité, leur existence pourrait surtout agir sur la nature et le nombre même des conflits. Pour commencer, là où la bombe nucléaire continue d’être développée dans le but revendiqué de constituer une force dissuasive et d’arrêter les guerres, les armes autonomes pourraient conduire à démultiplier les opérations militaires. La raison est simple : « Elles contournent les deux obstacles qui ont historiquement limité le nombre de guerres : la préoccupation pour les civils et pour ses propres soldats », soulève James Dawes.

En réduisant le risque de perdre des soldats sur une zone d’opérations, les armes autonomes pourraient diminuer les réticences à engager un conflit de la part des puissances les mieux équipées. En présentant les pertes comme purement matérielles, les États agresseurs pourraient espérer saper plus aisément toute opposition à la guerre au sein de leur population. Ensuite, puisque toutes les technologies de pointe voient après quelque temps leurs contrefaçons circuler sur le marché noir, il y a fort à parier que d’ici peu des robots tueurs faillibles mais à bas prix se retrouveront entre les mains de groupes armés impliqués dans des guérillas – lesquels pourraient alors en faire un trafic pour le moins sinistre. 

Face à ces menaces, le secrétaire général des Nations unies, António Guterres, appelait déjà en 2020 à « mesurer les implications légales, morales et éthiques posées par le développement des armes autonomes », ajoutant : « Ma conviction profonde est que des machines avec la capacité et le pouvoir d’ôter des vies sans intervention humaine doivent être interdites par les lois internationales. » Vu l’urgence du sujet, le sommet de Genève se réunira de nouveau pour quelques jours de discussion en juillet 2022. À bon entendeur…

Soutenez Socialter

Socialter est un média indépendant et engagé qui dépend de ses lecteurs pour continuer à informer, analyser, interroger et à se pencher sur les idées nouvelles qui peinent à émerger dans le débat public. Pour nous soutenir et découvrir nos prochaines publications, n'hésitez pas à vous abonner !

S'abonnerFaire un don

Abonnez-vous à partir de 3€/mois

S'abonner
NUMÉRO 66 : OCTOBRE-NOVEMBRE 2024:
La crise écologique, un héritage colonial ?
Lire le sommaire

Les derniers articles