Question écrite n° 9817 :
Risques liés à l'usage de l'IA dans les systèmes militaires

17e Législature

Question de : Mme Michèle Tabarot
Alpes-Maritimes (9e circonscription) - Droite Républicaine

Mme Michèle Tabarot attire l'attention de Mme la ministre déléguée auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargée de l'intelligence artificielle et du numérique, sur les risques majeurs associés à l'utilisation de l'IA dans le domaine militaire. Si cette technologie offre des perspectives stratégiques considérables, elle soulève également des défis éthiques, juridiques et sécuritaires de premier plan. L'autonomie potentielle des systèmes de tir, la délégation de décisions létales à des algorithmes et les biais latents intégrés dans les systèmes d'IA peuvent avoir des conséquences graves pour les opérations militaires et la protection des civils. S'y ajoutent des risques liés à la fiabilité des systèmes, aux dysfonctionnements techniques, à la surcharge informationnelle et aux cyberattaques, tandis que l'absence de cadre international accentue le danger d'une course aux armements et d'une prolifération incontrôlée. Mme la députée rappelle que le marché mondial de l'IA militaire était évalué à 10,4 milliards de dollars en 2024, avec une croissance annuelle estimée à 13,4 % jusqu'en 2034. Par ailleurs, la dispersion croissante de modèles d'IA commerciaux augmente le risque que des technologies militaires avancées tombent entre les mains d'acteurs non étatiques ou malveillants. Elle souhaiterait donc savoir quelles initiatives le Gouvernement entend promouvoir pour soutenir un encadrement international avancé de l'usage de l'IA dans le domaine militaire.

Réponse publiée le 3 mars 2026

L'investissement de la France dans le développement de l'intelligence artificielle (IA) s'accompagne d'une réflexion approfondie et de mesures concrètes pour assurer qu'elle soit sûre, robuste et responsable, en conformité avec les obligations nationales et internationales. L'objectif est d'assurer l'efficacité opérationnelle de nos armées tout en respectant nos obligations juridiques et en maîtrisant les risques inhérents à une nouvelle technologie. La France joue un rôle moteur dans la réflexion sur le développement et l'utilisation responsable des systèmes intégrant de l'IA, notamment les systèmes d'armes létaux autonomes (SALA). Dès 2013, elle a initié les discussions sur les SALA au sein de la Convention sur certaines armes classiques, en soulevant les problèmes juridiques, sécuritaires et éthiques posés par ces systèmes. La France défend une double approche, en prônant d'une part l'interdiction des systèmes pleinement autonomes dont la compatibilité avec le droit international ne pourrait être garantie et, d'autre part, l'encadrement du développement et de l'utilisation de systèmes intégrant de l'autonomie (SALIA), afin de s'inscrire dans ce cadre légal.  Cette réflexion a été étendue au développement et à l'utilisation de l'IA dans le domaine militaire. La France a progressivement structuré sa position à l'échelle nationale et internationale. Dès 2019, elle s'est dotée d'un comité d'éthique de la défense pour identifier les enjeux soulevés par cette nouvelle technologie, à travers la production d'avis sur les SALA (2021) et sur l'IA dans le domaine militaire (2025), ainsi que d'une agence ministérielle pour l'IA de défense (2024). La France participe activement aux discussions internationales depuis 2023, telles que les sommets sur l'intelligence artificielle responsable dans le domaine militaire, la déclaration politique sur l'utilisation militaire responsable de l'IA et de l'autonomie, ainsi que les résolutions présentées à l'Assemblée générale des Nations unies.

Données clés

Auteur : Mme Michèle Tabarot

Type de question : Question écrite

Rubrique : Nouvelles technologies

Ministère interrogé : Intelligence artificielle et numérique

Ministère répondant : Armées et anciens combattants

Dates :
Question publiée le 23 septembre 2025
Réponse publiée le 3 mars 2026

partager