Systèmes d'armes létales autonomes
Question de :
Mme Élisabeth Toutut-Picard
Haute-Garonne (7e circonscription) - La République en Marche
Mme Élisabeth Toutut-Picard attire l'attention de Mme la ministre des armées sur les systèmes d'armes létales autonomes (SALA). Appelés aussi « robots tueurs », ces systèmes peuvent, une fois activés, choisir et contrôler une cible sans contrôle humain suffisant. Si des systèmes entièrement autonomes n'ont pas encore été développés, ils pourraient apparaître dans quelques années, compte tenu des avancées de la robotique et de l'intelligence artificielle, Le développement des SALA soulève un grand nombre de risques juridiques, moraux et sécuritaires. Le droit international humanitaire risquerait de ne pas être respecté, notamment les principes de distinction et de proportionnalité. Il serait aussi très difficile d'établir des responsabilités en cas de crime. Ces armes pourraient enfin s'attaquer aux mauvaises cibles, proliférer, être piratées ou détournées. Depuis 2013, des milliers d'experts de l'intelligence artificielle et de la robotique, plusieurs prix Nobel de la paix, des chefs religieux, des dizaines d'organisations de défense des droits humains et 26 États ont sollicité leur interdiction. Six réunions spécifiques ont eu lieu sur le sujet dans le cadre des Nations unies et de la Convention sur certaines armes classiques (CCAC). Au printemps 2018, le Président de la République et le Gouvernement se sont opposés publiquement au développement et à l'émergence des robots tueurs. Mais la France se contente, au niveau international, de proposer l'adoption d'une simple déclaration politique non contraignante et tend, au niveau national, à développer des programmes (Neuron, FURIOUS, Man Machine Teaming) intégrant de plus en plus d'autonomie pour l'équipement de ses armées. Elle souhaite donc obtenir des précisions sur la position du Gouvernement et les moyens concrets engagés pour ne pas laisser émerger ces robots tueurs. Elle souhaite aussi savoir s'il compte soutenir l'adoption d'un traité d'interdiction préventive juridiquement contraignant, comme la France a su le faire pour les mines anti-personnel et les armes à sous-munitions, et s'il envisage de proposer une législation nationale afin d'empêcher la production, le développement et l'utilisation d'armes autonomes.
Réponse publiée le 19 mars 2019
La France mesure pleinement les défis éthiques et sécuritaires liés aux avancées de l'intelligence artificielle (IA) dans le domaine militaire. L'intelligence artificielle apporte déjà de réels gains permettant par exemple de réduire les risques de dommages collatéraux ou de prendre des décisions plus sûres et plus rapides dans des environnements complexes. Alors que certains voudraient réduire la réflexion sur l'IA aux seuls systèmes d'armes létaux autonomes (SALA), notre pays considère cependant que l'ouverture immédiate de négociations en vue d'un traité d'interdiction des "robots tueurs" ne serait pas la réponse pertinente. D'une part, il n'existe pas de définition internationale et la technologie actuelle ne permet pas d'envisager l'arrivée de tels systèmes autonomes à brève échéance. D'autre part, un traité d'interdiction des SALA ne serait aujourd'hui pas opérant, car il ne serait selon toute vraisemblance pas ratifié par les principales puissances ayant la capacité industrielle et technologique de développer des systèmes de ce type. Que vaudrait une norme préventive partagée par les seuls Etats les moins susceptibles d'être concernés ? La France privilégie donc une approche à la fois ambitieuse et réaliste, fondée sur la poursuite des discussions multilatérales, afin de définir des principes partagés par l'ensemble de la communauté internationale. A cette fin, la France a contribué activement aux réflexions du Groupe gouvernemental d'experts réuni depuis 2017 au sein de la Convention sur certaines armes classiques (CCAC), notamment en proposant avec l'Allemagne les éléments d'une déclaration politique. Cette approche, nécessairement progressive, est à même d'établir un cadre consensuel universel et efficace pour le développement et l'usage des systèmes d'armes dotés d'autonomie. Elle a donné ses premiers résultats : la dernière session du Groupe gouvernemental d'experts, en août 2018, a présenté dix "principes directeurs", qui affirment notamment l'applicabilité du droit international humanitaire à tous les systèmes d'armes, y compris autonomes, la nécessité de maintenir une responsabilité humaine dans les décisions de recours à la force, et de prendre en compte les risques de prolifération, de piratage ou d'acquisition de ces armes par des groupes terroristes. La France continuera à s'impliquer de façon concrète et réaliste, pour faire progresser les travaux en cours au sein de la CCAC, qui reste l'enceinte pertinente sur ce sujet, afin que tous les Etats concernés soient amenés à s'engager sur le développement des usages militaires de l'intelligence artificielle dans le respect du droit international.
Auteur : Mme Élisabeth Toutut-Picard
Type de question : Question écrite
Rubrique : Armes
Ministère interrogé : Armées
Ministère répondant : Armées
Dates :
Question publiée le 18 décembre 2018
Réponse publiée le 19 mars 2019