Didier DANET

Responsable du pôle Action globale et forces terrestres du Centre de recherche des écoles de Saint-Cyr Coëtquidan.

Partage

Le robot militaire autonome,
une voie d'avenir ?

La pétition signée l'été passé par dix-sept mille chercheurs et chefs d'entreprise contre les « killer robots », les « robots tueurs », soulève de nombreuses questions sur la place qui pourrait être faite par les forces armées à ces engins susceptibles de se substituer à l'homme dans un avenir encore indéterminé.

Les perspectives ouvertes par les progrès de la robotique militaire sont d'ores et déjà immenses. Elles le seront d'autant plus qu'elles s'articuleront étroitement avec les avancées réalisées dans des domaines connexes comme les nanotechnologies, l'intelligence artificielle, la médecine ou les biotechnologies. De la préservation des capacités existantes à la réparation de fonctionnalités endommagées ou à l'appropriation temporaire ou définitive d'aptitudes encore inconnues, le développement de la robotique militaire est de nature à permettre aux soldats de demain de dépasser les limites humaines qui constituaient jusqu'ici autant de barrières à l'action militaire 1.

Mais la robotique n'est pas seulement susceptible de conforter le soldat dans l'exercice de ses aptitudes. Les progrès anticipés de l'intelligence artificielle pourraient permettre de créer des robots militaires dotés d'une autonomie croissante qui, dans les perspectives les plus futuristes, permettrait à une machine de se substituer entièrement au soldat pour choisir ses cibles et les détruire sans autre forme d'intervention humaine. C'est alors la faculté de jugement et de décision, privilège des membres des forces armées, qui serait confiée à des systèmes d'armes létaux autonomes, plaçant l'homme hors du processus de décision. Le robot militaire ne serait plus seulement un démultiplicateur de capacités physiques ou cognitives plus ou moins sophistiqué. Il se substituerait à l'homme dans toute la plénitude de ses attributions et il le chasserait de tout ou partie du champ de bataille.

Faut-il s'en féliciter ou s'en inquiéter ? Faut-il prendre des mesures visant à prévenir l'apparition de machines de ce type ?

Vers l'apparition programmée des « killer robots »

Du point de vue opérationnel, la possibilité de disposer de robots capables de conduire seuls des missions complexes de reconnaissance, de protection ou de combat, par exemple, offrirait des avantages évidents et sans doute déterminants. Elle décuplerait les capacités d'action des forces armées dans des environnements hostiles (milieu sous-marin ou aérospatial par exemple) tout en éloignant les personnels des zones ou missions les plus exposées.

Pour autant, un mouvement s'est fait jour qui préconise l'interdiction de ces systèmes d'armes létaux autonomes, autrement appelés killer robots. Ce mouvement était jusqu'à l'été dernier principalement porté par des organisations non gouvernementales rassemblées sous la bannière de la Campaign to Stop Killer Robots. Human Rights Watch et l'école de droit de Harvard avaient en particulier produit deux rapports pour développer les arguments susceptibles de légitimer une telle interdiction. Le camp des opposants a subitement gonflé cet été avec la publication d'une pétition signée par plus de dix-sept mille chercheurs et chefs d'entreprise qui, eux aussi, réclament l'interdiction de ces robots.

La racine commune à toutes ces oppositions est une certaine conception de l'homme au combat. L'emploi de la force doit demeurer l'apanage du soldat, qui doit user de toutes ses qualités humaines, son intelligence au premier chef, mais aussi son courage ou sa compassion, pour s'astreindre au respect des principes fondamentaux définis par le droit international humanitaire. Sauf à dériver vers la violence pure et la barbarie, l'emploi de la force doit être conçu et mené dans le respect des règles juridiques communément acceptées, par exemple la distinction entre les combattants et les non-combattants ou la proportionnalité de la riposte à l'agression. La crainte est de voir les progrès de l'intelligence artificielle conduire à abandonner cette responsabilité à des robots qui, par le degré d'autonomie qu'ils sont soupçonnés de pouvoir atteindre, questionnent la frontière entre l'homme et la machine.

Cette perspective n'est pas seulement un sujet de discussion pour philosophes éthérés. Elle a des conséquences pratiques tout à fait essentielles puisqu'elle conduit à s'interroger sur le régime juridique applicable aux robots autonomes, sur le cadre normatif des opérations militaires ou sur la responsabilité des parties prenantes en cas d'exactions susceptibles d'être commises par des robots.

Deux grands débats agitent aujourd'hui les milieux spécialisés de la robotique militaire. Le premier porte sur la nature juridique des robots autonomes le second, sur l'éventuelle interdiction de la recherche susceptible d'aboutir à la production de telles machines.

La frontière entre l'homme et le robot

Si des systèmes d'armes létaux véritablement autonomes devaient apparaître, la question des frontières entre l'homme et la machine se trouverait posée en droit. Les grandes catégories de la pensée juridique établissent une ligne claire entre l'homme et la machine. L'homme est sujet de droit il dispose seul de droits et d'obligations. Il exerce son autonomie de décision (sauf dans des cas particuliers où cette autonomie est affaiblie : enfants mineurs, adultes vulnérables...). Il est responsable de ses actes et doit au besoin réparer les dommages dont il est l'auteur. Les machines, quant à elles, sont objets de droit. Les sujets exercent leurs droits (par exemple leur droit de propriété) sur les objets, et ce sont bien les sujets qui sont responsables de l'éventuel mésusage des objets dont ils sont les gardiens. Cette dualité homme-machine, sujet-objet, qui définit deux catégories exclusives l'une de l'autre et leur fixe des limites précises, a été quelque peu brouillée par l'instauration récente d'un statut civil intermédiaire pour les animaux, celui d'êtres vivants et sensibles.

C'est précisément un statut du même type qui a été revendiqué par certains juristes pour les robots. Dans leur esprit, plus qu'une machine ordinaire, le robot resterait toutefois moins qu'un homme. En effet, il paraît aujourd'hui difficile d'envisager qu'un robot puisse se marier avec un humain ou qu'il puisse adopter un enfant. En revanche, le robot autonome serait, en raison de l'autonomie de décision que lui confère son intelligence artificielle, sorti de la catégorie des « objets ordinaires » pour intégrer une catégorie intermédiaire encore à définir mais qui supposerait, par exemple, que le robot puisse être tenu pour responsable de dommages causés par lui dès lors qu'on ne pourrait les imputer à son concepteur ou à celui qui l'a mis en oeuvre. Le droit consacrerait ainsi un être hybride, mi-homme, mi-machine, en raison de la « super-intelligence artificielle » dont il serait doté. Fort heureusement pour le bons sens et la protection des victimes potentielles, cette préconisation d'un régime juridique reconnaissant l'existence d'être hybrides est tout à fait marginale.

Interdire les robots autonomes ?

La question, pour l'heure, n'est donc pas celle de la nature ou du statut juridique des robots autonomes, car ils demeureront encore longtemps des objets de droit. En revanche, le débat est beaucoup plus ouvert sur la question de l'interdiction éventuelle des programmes de recherche susceptibles d'aboutir à la création de machines disposant d'une telle autonomie.

Du côté des ONG à caractère humanitaire, l'interdiction est justifiée par le fait que le robot ne serait pas assez proche de l'homme. En raison des limites de l'intelligence artificielle, le robot actuel ou futur ne saurait assimiler et appliquer les principes fondamentaux du droit international humanitaire. Seul l'exercice de ses facultés humaines par le combattant et son corollaire, la mise en cause possible de la responsabilité pénale du soldat en cas de méconnaissance des règles, sont susceptibles de contenir l'usage de la force, de sorte que cet usage ne dégénère pas en pure violence exercée au détriment des catégories les plus fragiles.

À l'inverse, les signataires de la pétition publiée en juillet dernier craignent que la super-intelligence artificielle à venir n'aboutisse à des armes autonomes redoutables et bon marché dont les terroristes et les dictateurs de tout poil seraient les premiers et les plus grands utilisateurs.

Les deux argumentations se rejoignent sur leur conclusion, la préconisation d'une interdiction des recherches susceptibles d'aboutir à la création de killer robots capables de se substituer à l'homme dans les situations où, précisément, c'est la conscience humaine qui sert de garde-fou. Sans prendre parti sur la dimension scientifique et technique de la pétition, qui est du domaine propre de compétence des signataires, il est tout de même permis d'émettre les plus grandes réserves sur sa concrétisation juridique, c'est-à-dire sur le principe et les modalités de l'interdiction. Est-il véritablement utile de créer un cadre juridique pour des robots qui n'existent pas et n'existeront pas dans un futur proche ? Comment interdire les seules applications militaires de technologies qui sont presque nécessairement duales ? Vaut-il mieux interdire la recherche et le développement ou réguler la production et la commercialisation ? Autant de questions qui devraient inciter les juristes à rester prudents et à ne pas ajouter, en l'état, leurs signatures à celles des dix-sept mille scientifiques et chefs d'entreprise qui ont demandé l'interdiction des killer robots.

http://www.constructif.fr/bibliotheque/2015-11/le-robot-militaire-autonome-br-une-voie-d-avenir.html?item_id=3503
© Constructif
Imprimer Envoyer par mail Réagir à l'article