Question de : Mme Katiana Levavasseur
Eure (2e circonscription) - Rassemblement National

Mme Katiana Levavasseur appelle l'attention de Mme la ministre déléguée auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargée de l'intelligence artificielle et du numérique, sur la pertinence d'instaurer une obligation de mention explicite « Créée par IA », ou toute autre mention similaire, sur les images générées par intelligence artificielle, afin de garantir la transparence pour le public et la distinction claire entre photographie réelle et image synthétique. L'essor fulgurant des outils de génération d'images par IA bouleverse actuellement profondément l'univers de la photographie et de l'art visuel. Désormais, des algorithmes sophistiqués permettent de produire des images ultra-réalistes à partir de simples descriptions textuelles, rendant parfois impossible la distinction entre une photo prise par un photographe et une image créée artificiellement. Cette situation soulève des enjeux majeurs en matière d'éthique, d'information du public et de protection du métier de photographe. Si l'intelligence artificielle constitue une avancée indéniable dans le domaine artistique, son utilisation dans la création d'images pose plusieurs questions. D'une part, l'absence de distinction claire entre photographies et images générées par IA entraîne un risque de tromperie du public, en particulier dans les domaines du journalisme, de la publicité ou des concours artistiques. À titre d'exemple, plusieurs prix photographiques ont récemment été attribués à des œuvres générées par IA, sans que les jurys n'aient pu détecter leur nature synthétique, remettant en cause l'intégrité de ces compétitions. D'autre part, la prolifération des contenus IA accentue les risques de désinformation, notamment à travers la diffusion d'images truquées de personnalités ou d'évènements fictifs. Face à ces enjeux, plusieurs pays et instances internationales commencent à encadrer la transparence des images générées par IA. La Chine impose depuis 2023 une mention visible sur toutes les images IA diffusées sur son territoire. L'Union européenne, à travers le futur AI Act, prévoit également une obligation de signalement des contenus synthétiques et encourage le développement de solutions de marquage des images créées par IA. Aux États-Unis d'Amérique, des discussions législatives sont en cours pour garantir une meilleure traçabilité des contenus générés artificiellement. En France, bien que la question fasse l'objet de discussions, aucune régulation spécifique n'impose actuellement l'étiquetage des images générées par IA. Pourtant, d'autres obligations comparables existent déjà, comme la mention « Photographie retouchée » imposée depuis 2017 sur les publicités où l'apparence des mannequins a été modifiée. Aussi, Mme la députée se demande à Mme la ministre si le Gouvernement envisage d'instaurer une obligation légale de mention « Créée par IA », ou toute autre mention similaire, sur les images générées artificiellement. Elle souhaite également savoir si des discussions sont engagées avec les professionnels de l'image et les plateformes numériques pour définir les modalités d'application d'une telle mesure, en tenant compte des défis techniques liés à l'identification et au marquage des images générées par intelligence artificielle.

Réponse publiée le 29 juillet 2025

L'intelligence artificielle (IA) générative est un puissant outil permettant de générer des images synthétiques ressemblant en tous points à des images réelles, ayant vocation à circuler selon les mêmes canaux. La question de l'identification et du marquage de ces contenus est donc cruciale, tant pour préserver l'intégrité et la confiance en l'information que du point de vue de la protection du droit des auteurs. Le ministère de la culture est particulièrement conscient des enjeux qui s'attachent à l'identification des œuvres photographiques, afin de mieux retracer la propriété des œuvres et la rémunération due aux auteurs lorsque leurs œuvres sont exploitées. Le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a ainsi conduit une mission sur les métadonnées liées aux images fixes dont le rapport final, rendu public en juillet 2021, présente les enjeux et les écueils de cette technologie tout en proposant des solutions pour améliorer son intégrité. Ces enjeux se trouvent aujourd'hui exacerbés par le développement de l'intelligence artificielle générative et le Gouvernement sera vigilant à la pleine application du cadre législatif existant en la matière. À cet égard, le Règlement (UE) 2024/1689 du Parlement et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle, première législation au monde relative aux IA génératives, fixe un cadre contraignant relatif au marquage des contenus générés par l'IA. En son article 50.2, il dispose que les fournisseurs de systèmes d'IA « veillent à ce que les sorties des systèmes d'IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA. ». Les fournisseurs seront donc tenus de concevoir des systèmes de telle façon que les images, textes, contenus audio et vidéo à caractère synthétique fassent l'objet d'un marquage dans un format lisible par machine et que leur nature de contenus générés ou manipulés artificiellement soit détectable. Par ailleurs, lorsqu'elles présentent une ressemblance sensible avec des personnes, des objets, des lieux, des entités ou des événements existants et peuvent être perçues à tort comme authentiques (hypertrucages), les images devront être clairement identifiées comme telles par les déployeurs de systèmes d'IA, en vertu de l'article 50.4 du Règlement précité du 13 avril 2024. L'article 99 fixe le régime de sanction applicable en cas de méconnaissance de ces obligations de transparence par les fournisseurs et les déployeurs. Le marquage des contenus ne peut être efficace que si, comme le précise le Règlement européen du 13 juin 2024, les informations sont fournies « de manière claire et reconnaissable au plus tard au moment de la première interaction ou de la première exposition ». Il s'agit donc d'une préoccupation qui doit être pleinement intégrée au processus de conception des systèmes d'IA. La mise en application de ces dispositions du règlement sur l'IA est prévue au 2 août 2026, laissant aux fournisseurs le temps de développer, en lien avec les ayants droit et à la faveur d'une évolution technologique rapide, des outils appropriés et efficaces pour se conformer à leurs obligations. Ces enjeux appellent par ailleurs la mise en œuvre parallèle de réponses techniques. Des acteurs privés développent et perfectionnent actuellement des méthodes d'identification et de marquage adaptées aux nouveaux enjeux posés par l'IA, initiatives que le Gouvernement suit avec attention. Parmi les solutions existantes, on peut évoquer les filigranes, les identifications de métadonnées, les méthodes cryptographiques permettant de prouver la provenance et l'authenticité du contenu, les méthodes d'enregistrement et les empreintes digitales. À cet égard, le CSPLA a lancé, le 20 juin 2025, une nouvelle mission relative aux enjeux pour les secteurs culturels et créatifs des hypertrucages générés ou manipulés par l'IA. Cette mission analysera notamment les différents corpus juridiques susceptibles d'être mobilisés pour préserver les droits des personnes représentées de façon inauthentique par les « deepfakes » (droit d'auteur, droits voisins, droits de la personnalité, etc.) ou des personnes, en particulier les doubleurs, dont les prestations orales sont prolongées ou dupliquées. La mission étudiera également les modalités de mise en œuvre des obligations de transparence et de marquage précitées, prévues par le Règlement européen. Le résultat de ces travaux sera rendu public à l'été 2026.

Données clés

Auteur : Mme Katiana Levavasseur

Type de question : Question écrite

Rubrique : Numérique

Ministère interrogé : Intelligence artificielle et numérique

Ministère répondant : Culture

Dates :
Question publiée le 6 mai 2025
Réponse publiée le 29 juillet 2025

partager