Compte rendu
Commission
des affaires étrangères
– Table ronde, ouverte à la presse, sur le sommet de Paris pour l’action sur l’intelligence artificielle des 10 et 11 février 2025, avec la participation de Mme Anne Bouverot, envoyée spéciale du président de la République pour l’organisation de ce sommet, M. Benoît Tabaka, secrétaire général et directeur des relations institutionnelles et politiques publiques de Google France, et M. Julien Nocetti, conseiller aux affaires numériques, cyber et technologiques au Centre d’analyse, de prévision et de stratégie (CAPS) du ministère de l’Europe et des affaires étrangères 2
Mercredi
5 février 2025
Séance de 9 heures
Compte rendu n° 31
session ordinaire 2024-2025
Présidence
de M. Bruno Fuchs, Président
— 1 —
La commission auditionne, dans le cadre d’une table ronde ouverte à la presse sur le sommet de Paris pour l’action sur l’intelligence artificielle des 10 et 11 février 2025, Mme Anne Bouverot, envoyée spéciale du président de la République pour l’organisation de ce sommet, M. Benoît Tabaka, secrétaire général et directeur des relations institutionnelles et politiques publiques de Google France, et M. Julien Nocetti, conseiller aux affaires numériques, cyber et technologiques au Centre d’analyse, de prévision et de stratégie (CAPS) du ministère de l’Europe et des affaires étrangères.
La séance est ouverte à 9 h 10.
Présidence de M. Bruno Fuchs, président.
M. le président Bruno Fuchs. Nous tenons ce matin une table ronde sur l’intelligence artificielle (IA), à quelques jours du sommet sur l’IA qui se tiendra les 10 et 11 février prochains. Ce sommet est d’une ampleur sans précédent à l’échelle mondiale.
Concernant l’actualité récente, le président Donald Trump a annoncé un projet d’investissement privé de 500 milliards de dollars sur quatre ans en faveur de l’IA aux États-Unis, nommé « Stargate ». La Chine a rapidement répliqué avec l’annonce par la start-up DeepSeek d’un modèle supposé aussi performant, moins coûteux et moins énergivore que les modèles américains.
Au-delà des enjeux géopolitiques et de souveraineté, nous sommes conscients que cette dynamique transformera les emplois, l’éducation, la culture, l’économie et la santé. Le président de la République était hier à l’Institut Gustave-Roussy à Villejuif pour la Journée mondiale du cancer, illustrant la volonté de la France d’être un acteur majeur de l’IA au service de la santé.
Le rôle prééminent des États-Unis et des acteurs privés du secteur confère des responsabilités immenses. Fin 2023, plus de 1 600 politiques publiques et stratégies sur l’IA étaient déjà recensées à travers le monde. Dans ce contexte, le dialogue et la coordination au niveau international sont cruciaux pour orienter les évolutions plutôt que de les subir.
Le sommet de Paris ambitionne de parvenir à des avancées concrètes autour de cinq axes : l’IA au service de l’intérêt général, l’IA au service de l’avenir du travail, l’IA au service de l’innovation et de la culture, l’avènement d’une IA de confiance et la gouvernance mondiale de cette technologie.
La France, qui accueille ce sommet, est la première destination européenne des investissements étrangers dans ce secteur et le premier hébergeur de centres de recherche ou de décision en IA. Un important travail préparatoire a été mené depuis un an.
Madame Bouverot, vous avez dernièrement évoqué la création d’une fondation consacrée à la promotion de l’intelligence artificielle au service de l’intérêt général, dotée de 2,5 milliards d’euros sur cinq ans. Pourriez-vous nous en dire plus ? Plus généralement, quel avenir prédisez-vous à ce processus de sommets internationaux réguliers sur l’IA ? Avez-vous ressenti une volonté d’inscrire cette démarche dans le temps long lors de vos échanges avec vos homologues étrangers ?
Enfin, en tant que législateurs, comment pouvons-nous accompagner vos efforts et ceux de notre diplomatie pour promouvoir un modèle d’IA maîtrisé, respectueux des fondamentaux de notre humanité ?
Mme Anne Bouverot, envoyée spéciale du président de la République pour l’organisation du sommet de Paris pour l’action sur l’intelligence artificielle. Cet événement arrive à un moment crucial, alors que la révolution de l’IA, qui a débuté il y a environ deux ans, soulève de nombreuses questions. L’intérêt mondial pour ce sujet est considérable, et ce sommet multilatéral réunira des chefs d’État, des dirigeants d’entreprises, des chercheurs, des représentants de la société civile, d’ONG et de think tanks.
La demande de participation est telle que le Grand Palais ne peut accueillir tous les intéressés. Cet événement s’inscrit dans une semaine dédiée à l’IA à Paris, comprenant une centaine d’événements, dont des journées scientifiques à Saclay, un programme culturel à la bibliothèque François-Mitterrand et à la Conciergerie, une journée business à Station F, ainsi que des conférences thématiques sur l’IA et l’environnement ou l’IA et la démocratie.
L’objectif est de permettre à chacun de mieux comprendre l’IA et de s’orienter dans un futur de plus en plus influencé par cette technologie. Le président de la République a décidé d’organiser ce sommet il y a plus d’un an, suite à celui de Bletchley Park en Angleterre. Notre but a été de rendre ce sujet plus concret, en présentant des exemples d’utilisation de l’IA dans divers domaines tels que la santé, l’industrie, le climat et l’éducation.
Nous visons à favoriser la compréhension et l’expérimentation de l’IA, tout en poursuivant un objectif économique clair : positionner la France et l’Europe sur la carte mondiale de l’IA. Face aux avancées des États-Unis et de la Chine, nous misons sur l’open source et nos talents.
Ce sommet a également une dimension diplomatique internationale. Nous cherchons à clarifier les rôles de leadership sur différents aspects de l’IA et à refléter dans la déclaration finale un consensus pour son développement inclusif. Deux initiatives concrètes seront annoncées, d’une part, une fondation de l’IA pour l’intérêt général et, d’autre part, une coalition pour une IA durable.
La fondation vise à soutenir le développement de bases de données et d’outils open source pour l’innovation, tandis que la coalition pour une IA durable se concentre sur l’impact de cette technologie sur le travail et l’environnement. Nous reconnaissons que l’IA transformera de nombreux métiers, nécessitant un accompagnement en termes de formation et de dialogue social.
Concernant l’aspect climatique, nous cherchons à optimiser la consommation d’énergie liée à l’IA. La France, avec sa production d’électricité largement décarbonée, offre un avantage pour l’entraînement de modèles d’IA avec un impact carbone réduit.
M. le président Bruno Fuchs. Cette présentation détaillée souligne l’évolution des services, des usages et les inquiétudes des citoyens face aux changements rapides des règles sociales et de vie.
M. Julien Nocetti, conseiller aux affaires numériques, cyber et technologiques au Centre d’analyse, de prévision et de stratégie (CAPS) du ministère de l’Europe et des affaires étrangères. Je précise que mes propos n’engagent que moi et non le ministère.
M. Pierre Pribetich (SOC). C’est donc une intervention en open source...
M. Julien Nocetti. Je vais me concentrer sur les aspects internationaux de l’intelligence artificielle. Avant de partir, l’administration Biden a pris des mesures importantes concernant l’IA, notamment de nouvelles restrictions à l’exportation de puces, des incitations fiscales pour la construction de data centers aux États-Unis et des mises en garde contre un développement non contrôlé de l’IA.
À l’échelle internationale, l’IA représente d’abord un enjeu de récit. Elle est perçue comme un processus à définir, une menace à contenir, une richesse à exploiter et des progrès à orienter. Les visions sur les risques liés à l’IA créent une véritable conversation mondiale. On peut schématiquement distinguer deux écoles de pensée : les techno-optimistes, qui voient la technologie comme une solution à divers problèmes, et les alarmistes, qui mettent l’accent sur les risques potentiellement existentiels.
La concurrence entre ces discours se cristallise autour de l’opposition entre régulation et innovation. L’Union européenne tente de démontrer que ces deux aspects sont complémentaires, notamment à travers le règlement européen sur l’IA (AI Act).
L’IA amplifie notamment la domination des grandes entreprises technologiques qui concentrent les ressources stratégiques (données, semi-conducteurs, puissance de calcul, talents).
De plus, l’IA est devenue l’épine dorsale de la compétition stratégique, particulièrement dans le cadre de la rivalité sino-américaine. Cette perception d’une « course aux armements » technologique est accentuée par le durcissement des relations entre Pékin et Washington.
Enfin, l’IA est désormais une réalité dans les conflits. Bien qu’elle ne soit pas une arme en soi, il s’agit d’une technologie duale aux applications nombreuses, porteuse à la fois de risques et d’opportunités dans le domaine militaire.
Les récents événements en Ukraine, au Proche-Orient et à Gaza renouvellent les questionnements éthiques et opérationnels liés à l’intelligence artificielle. Des usages malveillants et irresponsables de l’IA sont aujourd’hui catégorisés et font l’objet de négociations, notamment dans leur dimension numérique et médiatique. Des États hostiles intègrent désormais l’IA dans leurs attaques visant à distordre et manipuler l’information.
Il est important de souligner que la dimension Nord-Sud des questions d’intelligence artificielle a été peu débattue. L’économie mondiale de l’IA favorise nettement les pays du Nord au détriment des écosystèmes du Sud. Les « travailleurs du clic » des pays du Sud alimentent d’énormes jeux de données qui sont ensuite exploités par les acteurs dominants du secteur, générant des inégalités criantes. Cet enjeu est non seulement socio-économique pour ces pays, mais aussi diplomatique. Il est crucial de veiller à ce que ces technologies n’engendrent pas davantage de problèmes que de solutions.
M. Benoît Tabaka, secrétaire général et directeur des relations institutionnelles et politiques publiques de Google France. C’est la première fois qu’un sommet de cette envergure sur l’IA se déroule dans le monde, abordant un large éventail de sujets et réunissant de nombreux chefs d’État, représentants gouvernementaux, acteurs économiques, associations et académiques.
Google est présent en France depuis vingt ans, avec environ 2 000 employés, principalement dans le 9e arrondissement de Paris mais aussi en région. Depuis 2018, nous investissons massivement dans l’IA en France, notamment à travers un hub inauguré l’année dernière, qui compte 300 chercheurs de Google et Google DeepMind travaillant sur le développement et l’amélioration des modèles d’IA. Ce hub attire des talents français et internationaux, favorisant la collaboration avec l’écosystème national de recherche.
Nous sommes fiers de voir que certains de nos anciens chercheurs ont contribué à la création d’entreprises comme Mistral AI et Kyutai, participant ainsi à la diffusion des talents et au dynamisme de l’écosystème français de l’IA. Notre plus grand centre en Europe est basé en France, témoignant de la qualité des talents disponibles dans ce pays.
Pour nous, l’IA présente deux enjeux majeurs. Premièrement, l’innovation au service du progrès. Nous sommes convaincus que l’IA peut apporter des innovations bénéfiques à la société. Deuxièmement, elle est un outil au service de la compétitivité, particulièrement important pour l’Europe qui cherche à rattraper son retard économique.
Concernant les défis à relever, l’infrastructure est primordiale. Le développement de l’IA nécessite des centres de données équipés de puces spécifiques capables de fournir la puissance de calcul nécessaire. La capacité à installer ces infrastructures − incluant le foncier, l’énergie et les composants − est essentielle pour développer une stratégie à l’échelle nationale, européenne et internationale.
Un autre élément concerne les talents, la capacité de continuer à investir et d’avoir suffisamment de chercheurs. Développer ces talents et les maintenir sur le territoire, notamment au sein des centres de recherche, est un véritable enjeu.
Aujourd’hui, une entreprise qui veut développer des modèles d’IA est obligée de lever des financements importants : plusieurs dizaines, voire centaines de millions d’euros, notamment pour la capacité de calcul qui coûte cher.
Le dernier pilier recoupe les compétences qui, aujourd’hui, montrent un décrochage par rapport à l’Asie-Pacifique et aux pays émergents. Plus inquiétant, notre taux de croissance est très faible par rapport à ces pays-là et la dynamique n’est pas au rendez-vous, particulièrement en France, qui possède pourtant les outils, les infrastructures et les modèles.
Chacun doit comprendre, notamment au niveau économique, que l’IA est faite pour lui et qu’il est urgent de l’adopter. Les salariés vont devoir transformer leur métier, changer, évoluer, acquérir des nouvelles compétences. Ces enjeux vont nécessiter également des actions de la part de l’employeur, à réaliser dès à présent, notamment au niveau de la formation.
À notre échelle, nous menons des actions avec les équipes de France Travail. 22 000 demandeurs d’emploi ont été accompagnés pour justement les aider à utiliser l’IA dans leurs recherches.
Dernier élément, de grands acteurs économiques français commencent à adopter l’IA. Nous travaillons avec Engie afin d’aider l’entreprise à ajuster l’utilisation de ses éoliennes par rapport aux besoins énergétiques et la situation météorologique ou avec le groupe CMA CGM en vue d’optimiser le cheminement de ses bateaux et réduire leur impact carbone.
Pour conclure, les trois sujets pour nous, vis-à-vis de ce sommet et de manière plus générale de la dynamique qu’il installe, sont les questions d’infrastructure, de talent ainsi que de compétences et d’adoption.
M. le président Bruno Fuchs. Je cède maintenant la parole aux orateurs des groupes politiques pour leurs interventions.
Mme Sophia Chikirou (LFI-NFP). L’arrivée de DeepSeek il y a deux semaines a suscité un grand étonnement. Cet outil en open source, cinquante fois moins énergivore que ChatGPT et apparemment moins coûteux à développer, soulève des questions. La France n’a-t-elle pas déjà des projets similaires, comme Mistral AI ?
J’aimerais également avoir des nouvelles du projet Bloom du Centre national de la recherche scientifique (CNRS). En 2023, Laurence Devillers, professeure d’intelligence artificielle à la Sorbonne et chercheuse au CNRS, affirmait que, avec Bloom, l’intelligence artificielle française n’avait rien à envier à ChatGPT. Depuis, nous n’avons plus d’informations sur ce projet qui impliquait un millier de chercheurs et des entreprises comme Thales, Airbus et Orange, avec le soutien du CNRS.
Les enjeux géopolitiques nous concernent directement, que ce soit pour la guerre ou l’économie. Je suis particulièrement préoccupée par la sûreté nationale et la souveraineté numérique française. La protection des données de nos citoyens, entreprises et services publics a été négligée. La France ne garantit pas la sécurité des données sur son territoire, ce qui pose un réel problème. Par exemple, l’Italie a bloqué DeepSeek, pourquoi la France n’en fait-elle pas autant ? J’aimerais comprendre les raisons de cette inaction.
Concernant le cadre de l’Union européenne, vous le présentez comme le bon niveau pour se préparer à ces enjeux. Je pense cependant que la France est capable d’agir seule, sans attendre une souveraineté numérique européenne qui tarde à se concrétiser. Le sort de Thierry Breton illustre bien que, au sein de l’Union européenne, il n’est pas permis de vouloir être souverain et indépendant.
M. Benoît Tabaka. Concernant DeepSeek, nous manquons d’informations précises sur son développement, notamment sur les coûts économiques et énergétiques. Le développement d’un modèle d’IA est un processus long et complexe, nécessitant d’importantes ressources technologiques et de calcul.
Bien que je n’aie pas de nouvelles du projet Bloom, d’excellents modèles émergent en France, comme ceux de Mistral ou de Kyutai. Nous sommes en capacité de les développer. Récemment, une étude a montré que les coûts annoncés pour DeepSeek étaient probablement sous-estimés.
Quant à la gestion des données, prenons l’exemple de Mistral. Ce modèle peut fonctionner sur différents data centers, y compris français. Il est distribué par nos infrastructures, celles de Microsoft et bientôt par Scaleway. Nous avons donc des modèles français tournant sur des data centers français.
Mme Anne Bouverot. L’exemple de DeepSeek démontre que l’open source offre une voie plus compétitive, agile et économique pour de nouveaux acteurs. Cette approche a été choisie par Mistral et Kyutai. Bloom n’est qu’un exemple parmi d’autres modèles développés. La plateforme Hugging Face, créée par des entrepreneurs français, renforce cette voie de l’open source. Il est crucial de développer ces solutions dans le respect de nos valeurs, contrairement à DeepSeek qui peut donner des réponses orientées sur certaines questions politiques. Notre objectif est de développer des solutions françaises puis européennes. Pour cela, nous devons continuer à soutenir les acteurs existants, favoriser leur croissance et encourager les partenariats avec les entreprises et administrations françaises. Il est essentiel que chacun utilise ces solutions.
M. le président Bruno Fuchs. Concernant Bloom, vous dites qu’il a été développé, mais existe-t-il encore ? On peut faire des annonces éblouissantes, mais qu’en est-il réellement ?
Mme Anne Bouverot. Oui, Bloom existe.
Mme Sophia Chikirou (LFI-NFP). Non, j’ai vérifié hier !
Mme Anne Bouverot. Bloom est toujours disponible sur la plateforme Hugging Face, comme de nombreux autres systèmes open source. Ces modèles sont utilisés par les chercheurs pour continuer à développer des solutions. L’important n’est pas seulement les modèles, mais aussi leurs applications concrètes dans des domaines comme la santé ou l’industrie. C’est cet aspect qui fera la différence. La concurrence ne se jouera pas uniquement sur les modèles, qui seront probablement nombreux et en open source. Il est préférable qu’ils soient français et européens, mais l’essentiel est de développer des solutions basées sur ces modèles.
Mme Christelle D’Intorni (UDR). L’intelligence artificielle représente le plus grand défi technologique du XXIe siècle. Les grandes puissances qui façonneront le monde de demain devront disposer de modèles d’IA compétitifs, sécurisés et efficaces. L’émergence de modèles d’IA chinois, comme DeepSeek, qui atteint des performances similaires à ChatGPT avec un budget nettement inférieur, bouleverse le paysage technologique et inquiète les marchés financiers. Le projet Stargate, réunissant Sam Altman et Masayoshi Son sous l’égide du président Donald Trump, avec un investissement d’au moins 500 milliards de dollars, marque une étape décisive dans la formation d’un axe occidental de l’IA centré sur les États-Unis.
L’Europe, et particulièrement la France, se trouve dans une position délicate. L’interdiction temporaire de DeepSeek en Italie souligne l’importance de la gouvernance et de la régulation des IA. Au groupe UDR, nous sommes convaincus que la France ne peut rester spectatrice. Nous saluons l’initiative d’accueillir le sommet de l’IA en France, coorganisé avec l’Inde, mais nous constatons encore nos difficultés à rivaliser avec les géants américains et chinois.
Il est impératif que la France se donne les moyens d’agir pour éviter d’être reléguée au rôle de simple consommateur de technologies étrangères. Il s’agit d’une question de souveraineté et d’avenir pour nos talents et nos entreprises, face à la fuite des cerveaux considérable dans ces domaines.
Mes questions sont les suivantes. D’une part, le projet Stargate mobilise 500 milliards de dollars. La France peut-elle espérer attirer des investissements d’une telle ampleur ? Quelles initiatives envisageons-nous pour renforcer nos infrastructures IA afin de rester dans la course technologique ?
D’autre part, la cybersécurité est un enjeu majeur de l’IA, notamment pour les infrastructures critiques. Quelle est la stratégie de la France pour se protéger contre d’éventuelles ingérences étrangères via l’IA ?
Mme Anne Bouverot. La souveraineté en matière d’intelligence artificielle concerne la France au sein de l’Europe. Notre pays possède de nombreux atouts : des talents, des centres de données et des start-up performantes. Bien que les investissements nécessaires soient conséquents, ils peuvent être réalisés en partie à l’échelle nationale. Cependant, il est crucial de rassembler nos forces au niveau européen pour maximiser notre impact.
Le sommet à venir est l’occasion de promouvoir les solutions et acteurs français, tout en favorisant les collaborations avec nos alliés européens et internationaux partageant nos valeurs. Pour renforcer notre position, nous devons augmenter nos capacités d’investissement et de calcul, comme avec les supercalculateurs Jean Zay et Adastra. Il est également essentiel de continuer à investir dans la puissance de calcul, les entreprises et la transformation numérique des organisations publiques et privées.
Pour réussir cette transformation, nous devons encourager les partenariats entre start-up, grands groupes et acteurs publics, tout en mettant l’accent sur la formation et l’expérimentation. Ces démarches permettront de démystifier l’IA et de réduire les craintes qu’elle suscite. Plus nous comprenons et expérimentons, plus nous concevons que l’IA n’est pas de la science-fiction, mais un outil concret avec ses avantages et ses inconvénients.
M. Julien Nocetti. Concernant DeepSeek, il est important de noter qu’il ne s’agit pas d’un modèle purement open source, car toutes les données n’ont pas été publiées. Cette nuance est cruciale, car l’écosystème open source peut parfois être instrumentalisé à des fins politiques ou stratégiques, notamment dans le contexte chinois où les applications duales de l’IA, y compris militaires, sont à considérer.
Il faut également souligner que les investissements publics annoncés pour DeepSeek sont nettement inférieurs à ceux des grands modèles de langage américains. Un aspect important du succès de DeepSeek réside dans la relocalisation du travail d’annotation des données en Chine, contrairement aux entreprises occidentales qui l’externalisent souvent vers les pays du Sud. Ce choix, soutenu par l’État chinois, confère un avantage stratégique à DeepSeek.
Quant à la souveraineté numérique, de nombreux travaux parlementaires ont été menés ces dernières années, tant à l’Assemblée nationale qu’au Sénat. Aujourd’hui, l’Union européenne dispose d’une force de frappe supérieure à celle de la France seule, grâce à la puissance de son marché, ses instruments juridiques et ses cadres de financement. Bien que les processus européens soient longs et parfois insatisfaisants, ils restent incontournables pour une action efficace en matière de souveraineté numérique.
M. Alain David (SOC). Avec ma collègue Laetitia Saint-Paul, nous préparons un rapport sur ce sujet pour l’été prochain et nous ne manquerons pas de vous auditionner dans ce cadre.
Une étude récente de l’université de Stanford a montré que parmi les modèles majeurs d’IA, soixante et un sont développés aux États-Unis, vingt et un en Europe et quinze en Chine. Face à ce défi immense pour l’Europe et la France, comment pouvons-nous éviter un déclassement technologique tout en assurant un accès large à ces outils ? Pourriez-vous préciser quelles initiatives permettraient à la fois de développer cette technologie, mais aussi de réguler et contrôler son utilisation ?
M. Benoît Tabaka. Nous avons mis en place plusieurs initiatives pour accélérer l’adoption de l’IA. Notre programme « Google Ateliers Numériques », développé en partenariat avec entre autres les chambres de commerce et d’industrie (CCI), les chambres de métiers, les chambres d’agriculture, France Travail et les missions locales, a déjà formé 900 000 personnes aux compétences numériques de base. Cette année, nous prévoyons de former environ 100 000 personnes spécifiquement sur l’IA.
Notre objectif est double. D’une part, faire comprendre les enjeux et les usages quotidiens de l’IA et former à la maîtrise de ces outils. La compréhension est essentielle pour contrôler et maîtriser l’usage de l’IA. Par exemple, en matière de cybersécurité, il est crucial de former les utilisateurs aux risques liés à l’utilisation d’agents conversationnels comme Gemini ou ChatGPT, notamment concernant la confidentialité des données.
D’autre part, la régulation européenne sur l’IA, l’AI Act, fournit un cadre réglementaire. L’enjeu est maintenant sa mise en œuvre effective.
Mme Dominique Voynet (EcoS). L’IA soulève des questions cruciales en termes de ressources et d’éthique. L’approvisionnement en terres rares, nécessaires à ces technologies, pose des problèmes géopolitiques et éthiques majeurs, notamment en Afrique. Nos approvisionnements doivent être responsables, sûrs et éthiques.
L’IA est également extrêmement énergivore. Sam Altman d’OpenAI l’a reconnu à Davos. Une requête IA consomme dix fois plus d’énergie qu’une recherche classique. Google a vu ses émissions de CO2 augmenter de 48 % en cinq ans, résultat en contradiction avec ses objectifs de neutralité carbone.
Cette demande croissante en énergie entraîne des conflits d’usage majeurs, poussant à des solutions controversées comme la relance de centrales nucléaires ou l’investissement dans les petits réacteurs modulaires, dont l’efficacité est remise en question.
Sur la scène internationale, l’Europe tente de se positionner entre les États-Unis et la Chine avec un modèle réglementaire protecteur. Cependant, des inquiétudes subsistent quant à l’influence des géants de la tech sur la réglementation européenne.
Quel modèle de souveraineté voulons-nous construire en France et en Europe ? Comment pouvons-nous développer une IA qui respecte nos valeurs, l’environnement et les libertés individuelles, sans compromettre notre indépendance face aux géants technologiques ?
Mme Anne Bouverot. Le développement d’une vision française et européenne de l’IA est crucial. Nous visons à créer une troisième voie, distincte des Américains et des Chinois, en favorisant des modèles d’IA open source, plus petits et focalisés sur des usages spécifiques. Cette approche permet de répondre à des besoins concrets tout en réduisant la consommation énergétique par la puissance de calcul nécessaire.
Le sommet à venir sera l’occasion, pour la première fois, d’aborder conjointement les questions d’IA et d’énergie dans un cadre international. Nous lancerons une coalition pour une IA durable, reconnaissant l’importance de concilier le développement de l’IA avec les enjeux énergétiques et climatiques.
M. Benoît Tabaka. Concernant le besoin énergétique lié aux infrastructures d’intelligence artificielle, notre approche vise une consommation d’énergie décarbonée vingt-quatre heures sur vingt-quatre et sept jours sur sept d’ici 2030 pour l’ensemble de nos opérations. Nos offres de stockage de données permettent aux clients de visualiser en temps réel l’utilisation d’énergie décarbonée et de déplacer leurs données si nécessaire. Nous optimisons la consommation énergétique de nos infrastructures, notamment grâce à nos propres microprocesseurs conçus pour maximiser la puissance de calcul tout en minimisant la consommation d’énergie. Nous avons ainsi quadruplé notre puissance de calcul pour un même niveau de puissance énergétique. De plus, nous investissons dans des Power Purchase Agreements pour financer la production d’énergie renouvelable supplémentaire, comme l’éolien ou le solaire, afin d’équilibrer les besoins sur le réseau national et européen.
Mme Maud Petit (Dem). Madame Bouverot, vous avez coprésidé la commission sur l’intelligence artificielle mise en place par Élisabeth Borne. L’IA est présentée comme une révolution technologique comparable à l’arrivée de l’électricité ou de l’automobile. Philippe Aghion estime qu’elle pourrait augmenter notre productivité et générer de nouvelles idées, avec un impact potentiel sur le produit intérieur brut (PIB) de 250 à 420 milliards d’euros en 2034. Vous affirmez que les effets de l’IA seront globalement favorables sur l’emploi, mais qu’un accompagnement est nécessaire. Pouvez-vous préciser sur quelles bases vous vous appuyez pour rassurer dans ce domaine, compte tenu de la concurrence internationale ? Concernant la santé, la France est à la pointe, notamment avec l’Institut Gustave-Roussy dans la prévention du cancer. Enfin, dans quelle mesure l’IA pourrait-elle contribuer à la lutte contre la pédocriminalité ?
Mme Anne Bouverot. J’ai effectivement coprésidé ce rapport avec Philippe Aghion et une commission composée de personnalités brillantes. Concernant l’IA et l’emploi, l’étude de Philippe Aghion, basée sur des données de l’Institut national de la statistique et des études économiques (INSEE), montre un gain de productivité pour les entreprises ayant investi précocement dans l’IA. Certaines tâches seront automatisées, certains métiers seront plus impactés que d’autres, de nouveaux seront créés et de nombreux seront transformés.
La formation est cruciale pour permettre aux salariés et à tous les utilisateurs de comprendre et de s’adapter à ces nouveaux outils. Cela permettra de rassurer, d’expérimenter, et d’en tirer les bénéfices en termes de productivité. Sans formation, nous risquons d’avoir plus de peur et de retard face à la concurrence internationale. Cet impératif de formation est à la fois éthique, sociétal et économique, permettant à chacun de comprendre et d’utiliser ces outils, tout en améliorant la compétitivité de nos entreprises.
M. Julien Nocetti. Concernant l’impact de l’intelligence artificielle sur l’emploi, on observe une transformation progressive des métiers plutôt qu’un bouleversement complet. Il faut être attentif à la qualité des emplois.
Sur la dimension environnementale, il est essentiel de penser IA et environnement simultanément, ce qui n’a pas été fait de manière satisfaisante jusqu’à présent. Des investissements dans de plus petits modèles sont nécessaires. Il faut également prendre en compte les travaux liant les impacts environnementaux de l’IA à une dimension coloniale ou postcoloniale, comme ceux de Fabrice Lebrun sur la République démocratique du Congo (RDC) ou de Rachel Adams sur les déséquilibres économiques. Ces discussions n’ont pas encore été traduites de façon concrète en termes politiques.
Mme Laetitia Saint-Paul (HOR). Monsieur Nocetti, avez-vous des exemples concrets d’utilisation de l’intelligence artificielle dans des ingérences étrangères et comment l’IA y fait face ? Existe-t-il une dynamique interministérielle pour traiter ces menaces, incluant le terrorisme et la criminalité organisée ? Concernant la vulnérabilité de notre tissu industriel, peut-on appliquer les travaux ministériels sur les signaux faibles au monde de l’entreprise pour lutter contre le pillage industriel ? Enfin, DeepSeek est-il né du pillage industriel ?
M. Julien Nocetti. L’IA est utilisée à la fois pour l’attaque et la défense dans le domaine des ingérences étrangères. En termes de défense, elle sert à la détection des menaces informationnelles, complétant le travail humain des services de renseignement et des armées.
Côté attaque, un exemple récent concerne l’élection présidentielle en Roumanie en novembre dernier, où des IA ont été utilisées pour gonfler artificiellement le visionnage de contenus favorables à certains candidats. L’IA est principalement employée pour créer des bulles d’information.
En matière de cybersécurité, les potentialités de l’IA pour répondre à des attaques sont documentées, mais cela relève de sujets plus régaliens.
Concernant la dimension interministérielle, bien que le CAPS n’ait pas une vocation opérationnelle, des consultations régulières ont lieu avec d’autres institutions pour anticiper et planifier les réponses à long terme.
M. Jean-Paul Lecoq (GDR). J’ai suivi de près les évolutions médicales en matière d’ADN et de clonage, où une commission d’éthique a mis un frein. Existe-t-il une commission similaire pour l’intelligence artificielle ? Cette commission pourrait-elle limiter son usage, notamment dans l’armement ? Les inquiétudes sont nombreuses.
Les logisticiens et dockers du Havre s’inquiètent de l’automatisation des ports. Les jeunes se demandent quels métiers seront épargnés par l’IA. L’usine Renault de Sandouville illustre cette évolution. L’effectif s’est largement réduit au profit des robots. Les artistes luttent contre l’IA qui menace leur créativité, jusqu’au maquillage pour le vieillissement des acteurs. Enfin, ne risque-t-on pas un appauvrissement des capacités cognitives humaines ? Je n’aborderai pas les questions de liberté liées à l’IA et aux caméras dans les villes, mais il s’agit aussi d’un sujet d’inquiétude.
M. Benoît Tabaka. Concernant l’éthique, le Comité consultatif national d’éthique travaille déjà sur ces questions en France. Au niveau de l’entreprise, nous réfléchissons constamment aux limites de nos développements. Par exemple, nous avons choisi de ne pas mettre en open source notre modèle le plus puissant, Gemini, pour en contrôler l’usage. En revanche, nous avons développé Gemma, un modèle open source, à Paris.
Sur l’emploi, il est positif que les jeunes s’interrogent. Le concept de métier doit évoluer. Auparavant, on apprenait des tâches spécifiques pour un métier. Aujourd’hui, l’IA impacte tous les métiers en aidant, facilitant ou remplaçant certaines tâches. Par exemple, une assistante administrative pourra utiliser l’IA pour générer des réponses aux e-mails, ce qui modifiera ses compétences vers l’ajustement et l’apport de valeur ajoutée. L’enjeu est d’anticiper ce besoin de formation continue et de développement des compétences. Il faut voir le métier comme une suite de tâches et de compétences évolutives, impliquant de repenser l’enseignement et l’approche du travail.
M. Michel Guiniot (RN). Le sommet de Paris pour l’action sur l’intelligence artificielle abordera de nombreux sujets, dont une table ronde sur la mise en place d’une gouvernance de l’IA efficiente et inclusive. L’expression « IA efficiente » apparaît dans un appel à manifestation d’intérêt du 28 novembre 2024, encourageant son utilisation par les administrations et les entreprises. Il est intéressant de noter l’utilisation de ce terme peu après la création d’un ministère de l’efficience par le président Trump, dirigé par Elon Musk. L’appel précise que l’IA doit pouvoir être utilisée dans les administrations publiques.
Pensez-vous que l’IA pourrait avoir un impact positif sur la gouvernance et l’efficience du gouvernement français ? De plus, le thème évoque une IA inclusive. Devons-nous craindre une IA militante, ou une guerre des IA pour influencer les idées du public ? Le grand public doit-il s’inquiéter de l’émergence d’intelligences artificielles idéologiques plutôt que centrées sur leurs besoins ?
M. Julien Nocetti. Concernant la gouvernance mondiale de l’IA, il ne s’agit pas d’une dimension intérieure mais de débats internationaux.
L’efficience vise à dépasser l’empilement actuel de plus de 300 initiatives de gouvernance émanant d’États, d’institutions internationales, d’ONG, d’associations, de communautés scientifiques et d’entreprises. L’objectif est que la France puisse débloquer les situations et proposer un modèle de gouvernance, comme cela a été fait pour les océans ou Internet.
L’inclusivité, quant à elle, vise à éviter les écueils de la gouvernance d’Internet, souvent critiquée pour être participative mais pas pluraliste. Il s’agit de réunir des représentants d’horizons très divers, ce qui est à l’honneur de la France et de l’Europe.
Mme Anne Bouverot. Je tiens à préciser que les titres des tables rondes ont été choisis bien avant les quinze derniers jours. Les mots n’ont donc pas été choisis pour des raisons politiques.
Mme Céline Calvez (EPR). La France a démontré sa volonté de s’imposer dans l’intelligence artificielle avec sa stratégie nationale lancée en 2018 et des investissements de plus de 2,5 milliards d’euros dans le cadre du plan France 2030. Le sommet international pour l’action sur l’intelligence artificielle à Paris vise à renforcer cette position en promouvant une IA au service de l’intérêt général. Cette technologie est omniprésente, transformant de nombreux secteurs comme la santé, le commerce, l’industrie, les services et la culture. Elle améliore la productivité et la qualité du travail. Cependant, le taux d’adoption par les entreprises françaises reste faible.
Comment lutter contre les préjugés et faire comprendre les opportunités de l’IA ? Que pensez-vous du programme finlandais « Elements of AI » ? L’adoption du règlement européen sur l’IA est une avancée majeure. Quelle conclusion concrète espérez-vous du prochain sommet ? Enfin, comment trouver l’équilibre entre le juste partage de la valeur et une diffusion libre et sécurisée de l’IA dans le domaine culturel ?
Mme Anne Bouverot. Toutes les initiatives de formation et d’acculturation à l’IA sont positives, comme « Elements of AI » ou « Objectif IA » en France. La finalité du sommet est vaste et difficile à résumer en un seul point. L’essentiel est de créer une dynamique dans chaque domaine abordé, en cherchant soit des actions concrètes, soit à faire progresser le consensus. Le but est de positionner la France et l’Europe sur la carte mondiale de l’intelligence artificielle.
Mme Christine Engrand (NI). L’intelligence artificielle est devenue un moteur de transformation et un secteur économique en pleine expansion. En 2024, les start-up françaises spécialisées en IA ont levé 7,5 milliards d’euros. Des entreprises comme Mistral AI se distinguent en développant des modèles d’IA de classe mondiale.
Dans l’éducation, des initiatives comme « MIA Seconde » personnalisent l’apprentissage, mais l’émergence d’IA génératives comme ChatGPT soulève des débats. Une enquête au Canada révèle que 52 % des étudiants utilisent ces outils pour leurs travaux scolaires, posant des questions sur l’appauvrissement intellectuel et la dépendance à l’IA. Il est crucial d’encadrer l’utilisation de ces technologies pour qu’elles restent un allié et non un substitut à la réflexion. Comment accompagner notre jeunesse face à cette évolution rapide, quels nouveaux métiers et formations proposer ? Serons-nous simplement spectateurs d’un progrès écrit par d’autres ?
Mme Anne Bouverot. Je vous remercie de souligner l’évolution de nos discussions, passant de la science-fiction à des cas concrets. L’exemple de l’éducation illustre parfaitement les bénéfices et les risques de l’IA. Elle pousse les enseignants à repenser leurs méthodes et modifie le comportement des élèves. Cependant, l’apprentissage reste fondamentalement une interaction humaine. Le rôle des enseignants demeure crucial, mais leur approche doit s’adapter. Face à une rédaction générée par l’IA, l’enseignant doit engager un dialogue approfondi avec l’élève sur sa compréhension et sa réflexion, stimulant ainsi la créativité. Il est essentiel de fournir tous les outils et opportunités possibles, non seulement aux salariés, mais aussi aux enseignants et aux élèves, particulièrement les plus jeunes qui s’approprient rapidement ces technologies.
M. Benoît Tabaka. J’ajouterais que l’éducation doit évoluer au-delà de la simple transmission de connaissances factuelles. L’IA nous pousse à mettre l’accent sur le développement de la compréhension et du discernement. Il ne s’agit plus seulement d’enseigner des faits, mais de former à l’analyse critique et à l’utilisation judicieuse de l’information. L’IA va amplifier ce changement dans le monde de l’éducation, nécessitant une évolution significative des méthodes pédagogiques.
M. le président Bruno Fuchs. Je donne à présent la parole aux députés désirant intervenir à titre individuel.
Mme Pascale Got (SOC). Vous avez mentionné que le sommet abordera les questions énergétiques et environnementales, mais sans entrer dans les détails. Pouvez-vous préciser les pistes envisagées dans ce domaine ? De plus, l’IA progresse-t-elle au même rythme dans tous les secteurs, et si non, quel secteur est le plus avancé ?
M. Lionel Vuibert (NI). J’ai deux questions. Premièrement, concernant le potentiel de l’IA pour la réindustrialisation, notamment dans la métallurgie et les liens entre robotique et IA, comment la France peut-elle se positionner et accélérer dans ce domaine ?
Deuxièmement, comment intégrer rapidement l’IA dans les services publics pour améliorer leur performance, tout en évitant de créer une nouvelle fracture numérique ? Il est crucial de savoir poser les bonnes questions pour obtenir les bonnes réponses de l’IA, et je crains que cette opportunité ne crée aussi des difficultés pour certains citoyens.
Mme Véronique Besse (NI). Je souhaite aborder l’installation et le développement des data centers pour l’IA en France. Selon les estimations, 20 à 25 % des data centers en Europe seront dédiés à l’IA. Malgré une volonté politique de développer ces infrastructures en France, leur mise en service rencontre parfois des difficultés. Quel est votre avis sur notre stratégie nationale en matière de développement de l’IA et des data centers ?
M. Pierre Pribetich (SOC). L’IA open source repose sur la disponibilité du code source, favorisant la transparence et l’amélioration continue. Cet environnement collaboratif garantit l’indépendance des organisations vis-à-vis des fournisseurs. Comment pouvez-vous garantir le maintien du caractère open source face aux pressions financières ? Comment éviter que la commercialisation de services complémentaires ne compromette l’accès libre, notamment pour les start-up et les chercheurs ?
M. Frédéric Petit (Dem). Je voudrais poser la question de manière plus directe : l’IA est-elle présente dans les services publics ? Avez-vous des exemples concrets d’entre eux qui s’engagent dans ce type de recherche ? En période budgétaire, nous nous interrogeons sur l’efficacité et les redondances. Au-delà de l’administration de l’État, existe-t-il en France des services publics qui se posent les mêmes questions que les entreprises concernant l’IA ?
Mme Anne Bouverot. Au sujet de l’énergie et de l’environnement, l’initiative « Coalition pour une IA durable » prévoit la création d’un observatoire pour mesurer l’impact de l’IA, que ce soit au niveau des data centers, des requêtes ou des utilisations industrielles. L’objectif est également de promouvoir des modèles et du matériel plus frugaux et efficaces.
Pour les services publics, l’IA peut effectivement être un outil précieux, notamment pour répondre aux questions fréquentes des citoyens en puisant dans les bases de données existantes. Cette approche permet d’améliorer la relation avec les usagers tout en libérant les agents administratifs pour des tâches à plus forte valeur ajoutée ou nécessitant des interactions humaines. Elle est à généraliser pour optimiser l’efficacité des services publics.
M. Benoît Tabaka. Les exemples d’utilisation de l’IA dans le domaine social public se multiplient, particulièrement au niveau local. De nombreuses collectivités adoptent des agents conversationnels intelligents pour répondre aux questions des citoyens vingt-quatre heures sur vingt-quatre et sept jours sur sept. Ces outils améliorent l’accès aux services, la gestion des mobilités et le traitement des courriers. Cette dynamique est souvent initiée par des individus clés comme le maire, l’adjoint ou le directeur des systèmes d'information.
Concernant l’open source et la dépendance, le principal enjeu est la capacité à changer d’opérateur cloud. Un modèle open source qui n’est disponible que chez un fournisseur spécifique crée un verrouillage. Le Data Act a soulevé ce problème, mais il faut aller plus loin dans la mise en œuvre opérationnelle pour briser ces dépendances techniques. La solution réside dans une approche multimodèle et multicloud.
Quant à l’implantation de data centers en France, malgré nos atouts énergétiques et nos espaces, deux obstacles persistent. Premièrement, l’énergie et l’espace disponible ne sont pas toujours au même endroit. Deuxièmement, l’instabilité du cadre réglementaire européen, notamment concernant l’IA, freine les investissements. Une fois ce cadre juridique stabilisé dans les prochains mois, la dynamique devrait s’accélérer.
M. Julien Nocetti. Concernant les data centers en France, l’économie est très localisée, principalement à Marseille, en raison de sa connexion directe avec seize câbles sous-marins. Il est crucial de considérer les liens avec d’autres infrastructures numériques.
Dans le contexte de l’IA et des différents modèles en compétition, l’Europe fait face à deux offres distinctes. D’une part, l’offre américaine, centralisée et énergivore, et d’autre part, l’offre chinoise, qui vise à disséminer des outils d’IA apparemment plus accessibles. La question est de savoir quelles seront la réponse européenne et notre capacité de résistance face à ces influences, en espérant pouvoir développer une approche à notre mesure.
Mme Sabrina Sebaihi (EcoS). L’intelligence artificielle n’est pas neutre en matière de couleur de peau ou de genre, malgré le peu d’attention portée à ses conséquences sur les droits humains. Un rapport des Nations unies de juillet 2024 a souligné que les outils de reconnaissance faciale contribuent à la discrimination illégale et au profilage racial, notamment en augmentant les arrestations erronées de personnes d’ascendance africaine.
Le centre de recherche de l’IA de l’Unesco a également alerté sur les préjugés sexistes dans l’IA, citant l’exemple de systèmes qui favorisent les curriculum vitae masculins et présentent fréquemment les femmes dans des rôles stéréotypés.
Bien que certains pays comme le Brésil, l’Australie et le Japon commencent à aborder ces problèmes, une réglementation coordonnée au niveau international fait défaut. Pouvons-nous espérer un effort concerté entre États pour lutter contre le racisme et le sexisme dans l’intelligence artificielle ?
M. Guillaume Bigot (RN). Il y a deux ans, le ministre Barrot qualifiait ChatGPT de « perroquet approximatif ». Aujourd’hui, la France organise un sommet sur l’IA au Grand Palais. Cependant, le programme de ce sommet néglige largement la dimension énergétique cruciale de l’IA.
Une requête sur ChatGPT consomme dix fois plus d’énergie qu’une simple recherche Internet. Les centres de données dédiés à l’IA représentent déjà 3 % de la consommation électrique américaine, avec des projections alarmantes. La consommation d’électricité liée à l’IA devrait passer de 4 à 93 TWh d’ici 2030.
Face à ce défi, les acteurs américains de l’IA investissent massivement dans le nucléaire et cherchent à attirer nos meilleurs ingénieurs et chercheurs. Quelles mesures sont envisagées pour éviter que notre expertise nucléaire nationale ne soit captée par les géants américains de l’IA ?
M. Bertrand Bouyx (HOR). Ma question s’adresse à Monsieur Tabaka. Dans les discussions sur l’intelligence artificielle, on part du postulat d’un fonctionnement en informatique classique. Or, Google publie régulièrement des articles sur les puces en qubit et l’émergence probable de l’informatique quantique.
Dans vos perspectives sur l’évolution du marché du travail, vous positionnez-vous à format constant, c’est-à-dire en informatique classique ou intégrez-vous l’informatique quantique ? Cette dernière pourrait reléguer l’informatique classique au rang d’allumettes comparée à une centrale nucléaire, et engendrer probablement des conflits d’usage.
Mme Laurence Robert-Dehault (RN). Madame Bouverot, votre rapport « Intelligence artificielle, notre ambition pour la France » souligne l’urgence pour la France et l’Union européenne d’investir dans l’IA. Vous mettez en évidence le retard européen face aux États-Unis, entraînant des risques de déclassement économique, de perte de compétitivité et d’atteinte à notre souveraineté. Le rapport de Mario Draghi partage ces constats et appelle à stimuler l’innovation et le développement de l’IA dans dix secteurs stratégiques. La maîtrise de l’IA est une course à la puissance, nécessitant des centres de calcul performants et énergivores. L’ambition européenne en matière d’IA est-elle compatible avec sa politique du Green Deal visant la décarbonation de l’économie, tout en fragilisant l’industrie nucléaire ?
M. Jean-Louis Roumégas (EcoS). Ma question concerne l’impact de l’intelligence artificielle sur la fracture Nord-Sud, notamment par le biais de la sous-traitance. Le développement d’outils comme ChatGPT repose sur le travail de milliers de travailleurs invisibles et précaires au Kenya, à Madagascar ou en Inde. Ces personnes, souvent diplômées mais sous-payées, effectuent des tâches répétitives pour alimenter en données les systèmes d’IA. Quel cadre la France ou l’Europe a-t-elle mis en place pour garantir la responsabilité sociale et environnementale des entreprises d’IA ?
Mme Maud Petit (Dem). Je reviens sur ma question précédente concernant la pédocriminalité. Il me semble que l’IA offre des possibilités pour détecter les contenus pédopornographiques, analyser les comportements suspects, identifier les victimes grâce à la détection de schémas comportementaux et potentiellement collaborer avec les forces de l’ordre. J’aimerais avoir votre avis sur ces aspects.
Mme Sophia Chikirou (LFI-NFP). Madame Bouverot, votre rapport de l’année dernière présentait vingt-cinq recommandations, dont sept prioritaires, et estimait nécessaire un investissement de 5 milliards d’euros sur cinq ans. Où en sommes-nous aujourd’hui ? Deux mesures m’intéressent particulièrement. La création d’un pôle majeur de puissance de calcul en France et en Europe ainsi que l’expérimentation dans la recherche publique en IA. Compte tenu de la réduction de 1,5 milliard d’euros du budget de la recherche publique en France, comment évaluez-vous la mise en œuvre de vos recommandations ? Pensez-vous que le sommet que vous coorganisez aboutira à des résultats concrets un an après la publication de votre rapport ?
M. Benoît Tabaka. Concernant la pédopornographie, l’IA est effectivement utilisée pour détecter ces contenus. Nos systèmes peuvent être exposés à des contenus pédopornographiques via leur indexation Internet par les moteurs de recherche ou le stockage sur des serveurs. L’IA permet de les détecter, de les agréger et de les signaler aux autorités, facilitant ainsi les interventions des forces de l’ordre. Elle aide également à identifier des éléments concordants entre différentes images, permettant de repérer des lieux communs et d’identifier potentiellement plusieurs victimes. Enfin, face au développement de contenus pédopornographiques générés artificiellement, nous développons des outils pour distinguer les contenus authentiques des contenus synthétiques, afin de concentrer les efforts des forces de l’ordre sur les cas réels.
Concernant le quantum, les études actuelles ne prennent pas encore en compte son arrivée, car nous en sommes aux débuts. Les principaux usages du quantum se concentrent sur la sécurité, notamment pour protéger nos systèmes de chiffrement face à d’éventuelles puissances étrangères dotées d’outils de calcul quantique. L’objectif est également d’augmenter notre puissance de calcul dans divers domaines.
Mme Anne Bouverot. Au sujet de l’énergie, de la puissance de calcul et du climat, la consommation énergétique des modèles d’IA est effectivement un enjeu majeur qui sera abordé lors du sommet. La France est bien positionnée grâce à sa production d’électricité excédentaire et décarbonée, un atout pour l’implantation de data centers. Nous avons déjà annoncé le supercalculateur Alice Recoque en France et d’autres annonces sont attendues lors du sommet sur la puissance de calcul en France et en Europe. Grâce au développement d’outils open source et à une focalisation sur des applications spécifiques, nous n’avons pas besoin d’une puissance de calcul infinie, mais nous devons augmenter nos capacités actuelles pour permettre aux start-up, aux entreprises et aux administrations d’utiliser efficacement ces outils d’intelligence artificielle.
M. Julien Nocetti. Brièvement, sur les biais discriminatoires, ce sujet sera discuté au sommet et lors des événements parallèles. Il est également traité au niveau européen, où il est pris très au sérieux. Concernant la remarque du député Bigot sur le sommet comme simple causerie, il faut noter que la France cherche à la fois à contribuer aux travaux des instances existantes et à créer de nouvelles formes de discussion pour peser sur ces sujets. Cette approche, bien qu’elle puisse varier en fonction des circonstances, est cohérente avec la notion de souveraineté chère à cette commission.
Mme Sophia Chikirou (LFI-NFP). Madame Bouverot, je vous ai posé une question précise sur les vingt-cinq recommandations, dont sept prioritaires, de votre rapport et vous ne m’avez pas répondu. Vous sentez-vous entendue sur vos préconisations ?
Mme Anne Bouverot. Le rapport de l’année dernière s’est inscrit dans le cadre de la stratégie nationale pour l’intelligence artificielle, en place depuis 2018. Il a permis sa mise à jour. Certaines recommandations ont déjà été prises en compte dans plusieurs domaines. Pour d’autres, nous espérons qu’elles seront mises en œuvre lors du sommet et par la suite.
***
La séance est levée à 11 h 15.
_____
Membres présents ou excusés
Présents. – M. Pieyre-Alexandre Anglade, Mme Clémentine Autain, Mme Véronique Besse, M. Guillaume Bigot, M. Bertrand Bouyx, M. Jorys Bovet, M. Jérôme Buisson, M. Sébastien Chenu, Mme Sophia Chikirou, Mme Christelle D'Intorni, M. Alain David, Mme Christine Engrand, M. Olivier Faure, M. Marc de Fleurian, M. Nicolas Forissier, M. Bruno Fuchs, M. Julien Gokel, Mme Pascale Got, M. Michel Guiniot, M. Stéphane Hablot, Mme Marine Hamelet, M. Alexis Jolly, Mme Sylvie Josserand, M. Arnaud Le Gall, M. Jean-Paul Lecoq, M. Vincent Ledoux, Mme Alexandra Masson, M. Laurent Mazaury, Mme Nathalie Oziol, M. Frédéric Petit, Mme Maud Petit, M. Kévin Pfeffer, M. Jean-François Portarrieu, M. Pierre Pribetich, M. Franck Riester, Mme Laurence Robert-Dehault, M. Jean‑Louis Roumégas, Mme Marie-Ange Rousselot, Mme Laetitia Saint-Paul, Mme Sabrina Sebaihi, Mme Dominique Voynet, M. Lionel Vuibert
Excusés. – Mme Nadège Abomangoli, M. Gabriel Attal, Mme Eléonore Caroit, M. Marc Fesneau, M. Perceval Gaillard, M. François Hollande, Mme Brigitte Klinkert, Mme Amélia Lakrafi, Mme Marine Le Pen, Mme Mathilde Panot, M. Davy Rimane, Mme Michèle Tabarot, Mme Liliana Tanguy, M. Laurent Wauquiez, Mme Estelle Youssouffa
Assistait également à la réunion. – Mme Céline Calvez