Traitement en cours, merci de patienter...
Saut de ligne
Saut de ligne
Saut de ligne
Image
Image
Saut de ligne
 
Saut de ligne
Image
Saut de ligne
Valeurs de l'Armée de Terre

Image
Saut de ligne

Éthique et robots terrestres létaux: «Libérez le monstre!»

Image

Par le Chef d’escadrons Jean CHAPON

Image

Le débat fait déjà rage autour de l’emploi de drones combattants lors de frappes au sol, pour des raisons de droit international, humanitaire, mais aussi éthique. Il est pourtant un domaine émergent qui va sans nul doute déclencher une polémique au moins comparable: le recours à des systèmes d’armes terrestres aptes à décider seuls de la vie ou de la mort de leur propre cible. C’est ce que nous présente avec conviction l’auteur de cet article.

Image
Image
Les systèmes d’armes létaux autonomes terrestres (SALAT) sont-ils une aberration éthique?
Azincourt (1415), Dien Bien Phu (1953-1954): l’honneur et le courage seuls sont parfois (souvent?) insuffisants face à une froide détermination et une technologie efficacement utilisée!

Depuis l’invention de la première arme de jet, il a toujours été question de pouvoir frapper en restant à l’abri des coups de l’adversaire autant que possible. À ce souci à la fois primaire et légitime s’est ajouté pour les armées dites «civilisées» celui de pouvoir discriminer les objectifs militaires au sein de leur environnement, y compris humain. L’emploi des robots, notamment ceux ayant un effet létal, peut-il pleinement satisfaire ces deux préoccupations?

Il serait dommageable de négliger cette avancée technologique et tactique, voire stratégique, pour une raison morale mal définie ou basée sur une appréhension a priori. La piste des robots létaux autonomes doit donc être explorée, notamment pour le combat terrestre, pour ne pas avoir, encore, une «guerre de retard».


Malgré de réels risques, la véritable immoralité serait de refuser les recherches sur les SALAT!

SALAT. De quoi s’agit-il?

Il n’est question ici ni des aéronefs combattants téléopérés ou autonomes ni des robots terrestres ayant vocation de «mules porte-charges» ou de démineurs, ni d’exosquelettes. Les premiers sont hors du domaine terrestre et les seconds ne soulèvent pas vraiment de questions éthiques, cantonnés qu’ils sont à leur rôle de soutien du combattant. Le SALAT[ii], comme le définit Gérard de Boisboissel[iii], est un «système mobile, réutilisable en tous milieux [terrestre, en particulier ici], ayant la possibilité de déclencher un tir de façon autonome […]. Il peut être mobile, auquel cas on parlera de robot autonome armé, ou robot létal autonome». Il ne s’agit pas d’un système simplement automatisé, mais bien autonome, mettant en œuvre un réel processus de décision allant de la détection à la destruction éventuelle et volontaire[iv].
D’un point de vue tactique – pratique, ce type de matériel présente des avantages d’économie de personnel, que ce soit en termes de volume d’effectifs ou de préservation de ceux-ci en milieu particulièrement hostile. Sous réserve d’autonomie énergétique, les robots peuvent assurer une présence permanente «amie» dans ce même genre de milieu ou pour une période donnée (nuit, pollution NRBC…), si besoin en alternance avec un détachement humain.

Tactique contre précaution?

Comme le rappelle le Colonel Fenon[v], l’objet de la tactique est bien de sortir vainqueur d’un affrontement grâce à la combinaison d’effets létaux ou cinétiques en détruisant ou neutralisant un appareil militaire ou une force combattante adverse. Si l’éthique ou le droit international veulent en cadrer l’exécution, il reste bien que l’utilisation de la force et des armes demeurent au cœur de la pensée tactique. Apparaît alors le spectre du principe dit de précaution tendant à vouloir un moratoire ou une interdiction de développement des SALAT. En effet, des organisations comme Human Rights Watch (HRW) ou International Committee for Robots Arms Control (ICRAC) font déjà entendre leur voix auprès des Nations Unies et de l’OTAN en ce sens. Souvent, elles oublient que, bien que proches, les questions morales (réflexions dans la recherche d’idéal) et les questions juridiques (solutions encadrant une réalité) sont deux champs différents.

Pourquoi et comment encadrer le développement des SALAT? Une éthique de précaution contre-productive?

Imaginons un instant deux postulats concomitants. Tout d’abord, au débouché d’une phase de recherche primitive, un État (ou plusieurs) technologiquement apte décide de poursuivre dans la voie de la robotisation du champ de bataille terrestre, constatant que ce domaine est porteur. Parallèlement, un droit émergent, redoutant a priori que les SALAT ne répondent pas aux critères admis du droit des conflits armés (discrimination, proportionnalité…), obtient, faute d’opposition constructive, l’interdiction ou un moratoire par l’ONU et/ou l’OTAN du développement de telles recherches. Que se passera-t-il alors? Là aussi, deux phénomènes. Le premier, public, verra les États annoncer qu’ils adhèrent à cette législation. On retrouvera ici les États traditionnellement «humanistes», de bonne foi, et ceux qui ne peuvent se permettre de telles recherches. Manqueront ceux qui auront mis la priorité sur leur défense. Ceux-ci seront les premiers à favoriser un second phénomène: la poursuite du développement des SALAT dans une semi-clandestinité, et donc bien loin de toute réglementation technique ou juridique concrète. Notons au passage que certains pays idéologiquement opposés à la signature de réglementations limitatives des moyens de guerre sont déjà en pointe dans le domaine de la robotique militaire (États-Unis d’Amérique, Israël…).

Un corpus éthique ou juridique minimum

Tout comme Isaac Asimov a développé les trois lois de la robotique[vi] dans le cadre d’ouvrages de science-fiction, points de départ pour de nombreux autres auteurs, il faut pouvoir dès maintenant établir un corpus légal autour de ce qui peut faire consensus dans le domaine des SALAT. Or, ces règles existent peut-être déjà. George Lucas[vii] exprime dix principes visant à l’autodiscipline des acteurs, au respect du droit des conflits armés, voire à la définition des responsabilités en cas de dommages collatéraux. Ces règles seraient le contour de la «meilleure pratique» servant de base à une discussion pour l’établissement d’un droit positif par des juristes et des praticiens[viii], sans pour autant favoriser la clandestinité ou le retard de la recherche. Bien sûr, cette législation présuppose que le droit déjà existant est respecté: par exemple, pas d’utilisation sur le territoire d’un état neutre. Or ce point n’est pas évident comme le montrent certaines frappes ciblées au Pakistan contre des insurgés afghans via des drones et qui fragilisent la légitimité de leur emploi.

Un emploi forcément délimité


Les SALAT seront équipés de capteurs leur permettant de détecter, identifier et discriminer leurs objectifs. La nature de ces capteurs reste à déterminer en fonction des effets recherchés et des zones d’engagement. On peut envisager une reconnaissance faciale pour des cibles très particulières, des détecteurs de vibrations couplés à une reconnaissance de masse ou de silhouette pour les engins chenillés… Cependant, ils ne doivent pas être engagés dans des contextes où ils pourraient être mis en défaut et générer ainsi des dégâts collatéraux. L’emploi en zone densément habitée contre un ennemi prenant l’apparence des civils locaux ne serait pas judicieux. En effet, un soldat humain sera toujours mieux à même de distinguer entre les différentes attitudes des personnes qui l’entourent[ix] qu’un ensemble de capteurs, aussi sophistiqués soient-ils. En revanche, les hypothèses de no man’s land ou de personnel isolé laissent encore de vastes possibilités. En voici quelques illustrations:
  • défense d’un bivouac de nuit en milieu difficile, permettant au petit détachement qu’il protège de reprendre des forces;
  • équipement de sauvetage d’un pilote d’aéronef contraint de se poser en zone hostile et en attente de récupération. Un SALAT pourrait être installé dans le siège éjectable d’un pilote d’avion et ce dernier pourrait déclencher son robot pendant ses temps de repos ou en cas de menace avérée;
  • interdiction d’un no man’s land entre deux lignes de défense adverses;
  • reconnaissance – destruction en milieu difficile: jungle, grottes ou tunnels maliens, égouts, haute altitude, zone polluée ou contaminée…
  • interdiction d’une zone hautement sensible clairement identifiée;
  • lutte contre des engins ayant une signature spécifique (blindés, chars, artillerie, etc.);
  • appui à la rupture de contact d’un élément isolé pendant un temps déterminé…

L’humain serait toujours présent… ou presque



Hiroshima après l'explosion atomique. Record imbattable de la responsabilité assumée?
Ce qui effraie le plus lors du recours aux SALAT, c’est le fait de laisser à une machine la décision de détruire ou non un objectif humain. En réalité, cette capacité de décision n’est pas sans limite; au contraire. D’abord, la décision d’employer ce matériel ainsi que l’endroit où il le sera repose entièrement sur l’homme. Même en poussant le développement de ces engins à l’extrême, historiquement, personne ne devrait supporter plus de responsabilités morales que ceux qui ont ordonné les bombardements de Hiroshima et Nagasaki[x] ! En amont, les SALAT seront paramétrés par des hommes. Cela permet d’en faire des «chasseurs» très spécialisés. On peut aussi inclure des modes «secours» redonnant les commandes de l’engin à un opérateur si celui-ci en fait la demande ou de façon automatique et programmée en cas de défaillance d’un ou plusieurs capteurs[xi].


En réalité, donc, le robot n’aurait une réelle autonomie que dans l’espace-temps et selon les critères imposés par l’humain. En fait, le champ qui n’est pas laissé au SALAT, une fois actif, est celui de la responsabilité[xii]. Il y aura toujours un décideur pour donner l’ordre d’emploi de ce matériel. Un réel effort de traçabilité devra alors être accompli pour connaître l’implication humaine et un travail

Description de la prise de décision entre humain et SALAT

éducatif à l’exercice de cette responsabilité sera à mettre en place parallèlement au développement des robots. Le SALAT reste un outil et son autonomie est relative!





L’emploi d’un SALAT n’est pas une révolution tactico-éthique


Si on ramène la question éthique à l’échelle du soldat ou du chef tactique, la décision de recourir à un SALAT n’est pas plus lourde que celle de recourir à un tir d’artillerie. Certes, les obus sont tirés sur ordre et action de l’homme, après une identification par l’homme. Le nombre de dégâts collatéraux, inévitables dans une certaine mesure, montre cependant que les erreurs sont aussi possibles quand l’homme est entièrement présent dans la chaîne cinétique. La situation peut aussi changer pendant le vol des obus. Toujours à l’échelle du combattant, si le robot n’est pas aussi subtil que l’humain dans son analyse d’un danger potentiel, au moins n’est-il pas sujet à la colère ou à la haine[xiii]. La notion de combat en face à face[xiv] s’éloigne encore, mais c’est le cas depuis qu’un homme a eu l’idée d’utiliser une lance plutôt qu’une épée pour abattre son adversaire.
La préservation des non-combattants est un objectif louable et obligatoire. Celui de la recherche du minimum de dégâts à l’environnement et aux biens civils l’est également. Il faut cependant reconnaître que la sauvegarde des effectifs amis est aussi un but fixé par l’opinion publique à défaut de l’être par un corpus juridique. La recherche du «zéro mort» est donc un enjeu, certes utopique, et l’emploi de SALAT est une avancée dans ce sens. Si on ne peut pas parvenir à un conflit sans victimes (!), il faut se résoudre à cantonner celles-ci autant que faire se peut dans les rangs des combattants ennemis.

La prochaine arme de dissuasion?



L’utilisation de SALAT pour inspecter et neutraliser ces repères pourrait être sereinement envisagée…
En plus d’être crédible et utilisable politiquement comme techniquement, l’arme de dissuasion doit être adaptée à la menace, ce qui a été démontré par le Général André Beaufre[xv]. Faute d’être employable contre un groupe de terroristes ou suite à une agression de faible envergure, l’arme nucléaire n’est pas dissuasive contre un ennemi asymétrique ayant peu d’effectifs, et sans subordination à un pays donné. Pour ce qui concerne la France, ce type d’ennemi tend actuellement à se réfugier dans les villes ou villages, mais aussi dans les grottes. Ces dernières offrent des abris dont la conquête peut rappeler certains aspects des combats de la Grande Guerre. L’utilisation de SALAT pour inspecter et neutraliser ces repères pourrait être sereinement envisagée et faire basculer une partie du stress dans le camp adverse. Cet ennemi est prêt à devenir un kamikaze pour sa cause, du moment qu’il emporte avec lui un soldat adverse. Il ne sera peut-être pas aussi décidé face à un robot. Pourquoi ne pas l’imaginer se rendre, s’il ne peut fuir?


Poussons le raisonnement de l’arme de dissuasion plus loin. L’arme nucléaire est devenue réellement dissuasive et, paradoxalement, «vecteur de paix» quand au moins deux grandes nations en furent dotées. Si une nation développe les SALAT à grande échelle, c’est-à-dire suffisamment pour être en mesure de saturer une zone sans forcément faire de cas de l’environnement humain ou de neutraliser un corps de bataille symétrique, sera-t-il opportun ou possible de recourir à l’arme nucléaire en rétorsion? La gradation de la réplique n’est pas évidente. Or, si une ou plusieurs autres nations sont capables de recourir à ces matériels, l’équilibre des peurs peut déboucher sur un statu quo comme par le passé avec l’arme atomique.
Quoiqu’il en soit, voir le développement des SALAT comme un moyen de lutte contre un ennemi asymétrique honni ou une nouvelle arme de dissuasion peut motiver la poursuite des recherches dans ce domaine. Avec quelles limites? Probablement, pendant un temps du moins, un effet pervers mais déjà existant dans le combat contre des ennemis fanatisés, comme l’a décrit Caroline Galacteros[xvi]: « […] Au combat, notre hyper-modernité génère de l’hyper-archaïsme. Notre avance technologique irrattrapable en matière de combat pousse l’adversaire à opposer son choix du sacrifice à notre peur de la mort, sa prise de risque maximale à notre volonté de tuer à distance, son outrance à notre souci de la proportionnalité… Nous produisons du kamikaze, du terroriste, du preneur d’otage». Cet inconvénient non négligeable provient cependant plus du manque de discrimination dans les objectifs que du vecteur employé. À une autre échelle, l’aspect «pacificateur» de l’arme nucléaire est une conséquence accidentelle du développement de cette arme. Il n’est pas certain que la recherche intentionnelle de cette issue donne bien l’effet escompté. Cette inconnue ramène à la nécessité de développer des règles pour encadrer la recherche, mais les perspectives militaires, voire géopolitiques, interdisent de refuser cette recherche.
S’il faut encore argumenter sur l’utilité de développer des recherches dans le domaine de la robotique, nous rappellerons que bien des projets, à l’origine militaires, se sont révélés inestimables par leurs débouchés dans le monde civil, notamment parmi les nouvelles technologies: Internet par exemple. Ensuite, doit-on se passer de recherches qui aboutiraient à nous donner un avantage tactique sur d’éventuels adversaires?

…qui, ou quelle organisation internationale, parviendra à faire respecter ces règles ?
Le souci de l’éthique au combat n’interdit pas le recours aux SALAT, ne serait-ce que pour la préservation de nos propres combattants. En revanche, il impose d’encadrer le développement de ce qui pourrait être une future arme de dissuasion ou de destruction. La responsabilité de ceux qui décideront d’employer les robots létaux autonomes est en fait le point essentiel à ne pas négliger: toujours savoir quels sont les ordres, les limites et les critères donnés, ainsi que, surtout, leur auteur. Pour bien définir ceux-ci, des règles devront voir le jour, et ceux qui prendront part à leur élaboration devront aussi parvenir à évaluer ce qu’est capable de supporter le sens des responsabilités humain. Et enfin, qui, ou quelle organisation internationale, parviendra à faire respecter ces règles? Cette dernière question est peut-être la plus lourde…














[i] Cet article fait écho à celui écrit par le Chef d’escadron Tristan Zeller, stagiaire à l’École de guerre, publié par la revue Taktika en date du 08 septembre 2014
[ii] En anglais, Lethal autonomous Robotics (LAR).
[iii] Ingénieur de recherche au CREC Saint-Cyr, lors du colloque «Robots et létalité» le 08 avril 2014 aux Invalides, Paris.
[iv] On exclura donc les «Rupert» largués dans la nuit du 5 au 6 juin 1944 en arrière des plages normandes, les mines M93 Hornet ou les Counter Rocket Artillery Mortars, par exemple.
[v] Principes généraux de la réflexion tactique, conférences dispensées à la DESTIA, juin 2014.
[vi] Les Robots, I. Asimov, 1967: «Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger…»
[vii] Professeur d’éthique et de politique publique à la Naval Postgraduate School, Monterey, Californie. Ces règles ont été exposées notamment lors du colloque «Robots et létalité» le 08 avril 2014 aux Invalides, Paris. On peut citer par exemple, les principes de «risque inutile», d’asymétrie morale des adversaires, de la plus grande conformité au principe de proportionnalité, de prudence, de négligence criminelle… (aucun lien avec la série des films Star Wars).
[viii] À l’image des conventions du mouvement Pugwash concernant la limitation des armes nucléaires, prix Nobel de la paix en 1995.
[ix] Des enfants criant et jouant avec des armes factices à proximité d’un SALAT pourraient être mal «évalués» par celui-ci…
[x] On pense même que ceux-ci ont abrégé le second conflit mondial dans le Pacifique, voire sauvé des vies…
[xi] Exemples présentés par M. Gérard de Boisboissel, ingénieur de recherche au CREC Saint-Cyr, lors du colloque «Robots et létalité» le 08 avril 2014 aux Invalides, Paris
[xii] Pour un approfondissement philosophique enrichissant sur cette notion de responsabilité: «Robots de combat et morale: anticiper sur la responsabilité», Capitaine Emmanuel Goffi, Penser les ailes françaises n°29.
[xiii] Travaux du professeur Ronald C. Arkin au profit du United States Department of defense. «My intention…is that robots will make less mistakes […] than humans do in the battlefield».
[xiv] Notamment défendu dans «Théorie du drone», Grégoire Chamayou, la Fabrique, 2013.
[xv] «Introduction à la stratégie», André Beaufre, Armand Colin, 1963.
[xvi] Dans Le Point en ligne du 02 octobre 2014.
Image
Image