Interdiction des systèmes d'armes létales autonomes (robots tueurs)
Question de :
M. Jean-Luc Lagleize
Haute-Garonne (2e circonscription) - Mouvement Démocrate et apparentés
M. Jean-Luc Lagleize attire l'attention de M. le ministre de l'Europe et des affaires étrangères sur la nécessité d'interdire les systèmes d'armes létales autonomes (robots tueurs). Le 11 novembre 2018, au Forum de Paris sur la paix, le Secrétaire général des Nations unies, M. Antonio Guterres, s'est exprimé en faveur d'une telle interdiction : « Imaginez les conséquences d'un système autonome capable de localiser et attaquer, seul, des êtres humains. J'appelle les chefs d'État à interdire ces armes moralement révoltantes ». De la même manière, des milliers d'experts de l'intelligence artificielle et de la robotique, 20 prix Nobel de la paix, 160 leaders religieux et des dizaines d'organisations de défense des droits humains demandent leur interdiction. Le développement des systèmes d'armes létales autonomes, communément appelés les robots tueurs, présente en effet de nombreux risques éthiques, moraux, juridiques et sécuritaires. Premièrement, les armes entièrement autonomes ne pourraient pas respecter le droit international humanitaire, et notamment les principes de distinction et de proportionnalité, que seule une intelligence humaine peut respecter dans des contextes complexes et imprévisibles de combats. Deuxièmement, il sera très difficile d'établir une responsabilité en cas de crime, ce qui affaiblit les droits humains et le droit international humanitaire. Troisièmement, il existe un risque élevé que les armes autonomes s'attaquent aux mauvaises cibles. Quatrièmement, une fois les programmes conçus, ces armes risquent de proliférer car elles ne nécessitent pas d'investissements massifs ou de matières premières rares pour être produites. En outre, elles peuvent être piratées et détournées. Enfin, autoriser des machines à prendre des décisions de vie ou de mort sur des humains est une ligne rouge morale, une violation du principe d'humanité et des exigences de la conscience publique. À la veille de la réunion de États parties de la Convention sur certaines armes classiques (CCAC), la France soit s'affirmer sur la scène internationale, notamment en s'engageant, premièrement, à négocier sans délai un traité d'interdiction préventive juridiquement contraignant pour déterminer comment et où fixer les limites de l'autonomie future dans les systèmes d'armes ; deuxièmement, en précisant les contrôles humains nécessaires et requis dans le cadre des fonctions essentielles d'identification, de sélection et d'attaque de cibles, ainsi qu'au cours d'attaques individuelles ; troisièmement, en adoptant des politiques nationales et des législations pour empêcher le développement, la production, et l'utilisation d'armes entièrement autonomes. La France s'est distinguée par le passé dans son engagement pour l'interdiction des mines anti-personnel, et doit désormais prendre, dans cette continuité, des positions et des mesures ambitieuses et courageuses pour interdire les systèmes d'armes létales autonomes à l'avenir. Il attire donc son attention sur la nécessité d'interdire les systèmes d'armes létales autonomes (robots tueurs).
Réponse publiée le 29 janvier 2019
La France mesure pleinement les défis éthiques et sécuritaires liés aux avancées de l'intelligence artificielle dans le domaine militaire. Elle considère cependant que l'ouverture immédiate de négociations en vue d'un traité d'interdiction des "robots tueurs" ne serait pas la réponse pertinente. D'une part, il n'existe pas de définition internationale. D'autre part, un traité d'interdiction des SALA ne serait aujourd'hui pas opérant, car il ne serait selon toute vraisemblance pas ratifié par les principales puissances ayant la capacité industrielle et technologique de développer des systèmes de ce type. Que vaudrait une norme préventive partagée par les seuls Etats les moins susceptibles d'être concernés ? La France privilégie donc une approche à la fois ambitieuse et réaliste, fondée sur la poursuite des discussions multilatérales, afin de définir des principes partagés par l'ensemble de la communauté internationale. A cette fin, la France a contribué activement aux réflexions du Groupe gouvernemental d'experts réuni depuis 2017 au sein de la CCAC, notamment en proposant avec l'Allemagne les éléments d'une déclaration politique. Cette approche, nécessairement progressive, est à même d'établir un cadre consensuel universel et efficace pour le développement et l'usage des systèmes d'armes dotés d'autonomie. Elle a donné ses premiers résultats : la dernière session du Groupe gouvernemental d'experts, en août 2018, a présenté dix "principes directeurs", qui affirment notamment l'applicabilité du droit international humanitaire à tous les systèmes d'armes, y compris autonomes, la nécessité de maintenir une responsabilité humaine dans les décisions de recours à la force, et de prendre en compte les risques de prolifération, de piratage ou d'acquisition de ces armes par des groupes terroristes. La France continuera à s'impliquer de façon concrète et réaliste, pour faire progresser les travaux en cours au sein de la CCAC, qui reste l'enceinte pertinente sur ce sujet, afin que tous les Etats concernés soient amenés à s'engager sur le développement des usages militaires de l'intelligence artificielle dans le respect du droit international.
Auteur : M. Jean-Luc Lagleize
Type de question : Question écrite
Rubrique : Politique extérieure
Ministère interrogé : Europe et affaires étrangères
Ministère répondant : Europe et affaires étrangères
Dates :
Question publiée le 4 décembre 2018
Réponse publiée le 29 janvier 2019