Question de : Mme Emmanuelle Ménard
Hérault (6e circonscription) - Non inscrit

Mme Emmanuelle Ménard interroge M. le ministre délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications, sur les dangers de l'intelligence artificielle. Si l'intelligence artificielle est un véritable progrès et peut se révéler extrêmement utile, elle peut également représenter un véritable danger alimenté par les « géants de la tech », eux-mêmes engagés dans une compétition difficile à arrêter. L'actualité révèle qu'à plus ou moins court terme, l'intelligence artificielle (IA) pourrait avoir des conséquences négatives sur un certain nombre d'emplois. Geoffrey Hinton, pionnier de l'IA générative OpenAI, a récemment démontré que son interface ChatGPT, comme d'autres outils, étaient capables d'exécuter de nombreuses tâches répétitives comme la rédaction d' e-mails, ou la création de sites internet. En mars 2023, une étude de Goldman Sachs a affirmé que 300 millions d'emplois pourraient être remplacés par l'automatisation informatique et l'IA. IBM étudie quant à elle la possibilité de remplacer 30 % des 26 000 salariés administratifs de son personnel par ChatGPT. Autre sujet d'inquiétude : la conjugaison de l'IA à une utilisation massive des réseaux sociaux. À titre d'exemple, le Chatbot « My AI » de Snapchat donne des réponses très dérangeantes. Selon l'IA, il n'y aurait aucun problème à ce qu'un mineur de 13 ans puisse avoir des relations sexuelles avec un homme de 30 ans, allant même jusqu'à lui donner des conseils. Extrêmement intrusif, cet outil s'impose sur l'application sans qu'il soit possible de le supprimer. Un véritable problème quand on sait que l'application Snapchat comptabilise 375 millions d'utilisateurs selon les chiffres Statista au quatrième trimestre 2022. En 2022, 21 % d'entre eux avaient entre 13 et 17 ans. Face à ce phénomène inquiétant, elle lui demande donc quelles mesures il envisage de mettre en œuvre pour protéger les Français des dérives engendrées par une IA manifestement mal contrôlée.

Réponse publiée le 16 avril 2024

L'émergence de l'intelligence artificielle est une révolution comparable à la découverte de l'électricité. Elle est donc porteuse de progrès mais suscite également des craintes légitimes, notamment dans ses applications à destination du grand public. Le Gouvernement est pleinement mobilisé pour y apporter les réponses les plus pertinentes. Plusieurs consultations et instances en vue de mieux appréhender les problématiques nouvelles que pose l'IA que ce soit en termes d'emploi ou de protection de nos concitoyens et d'éthique ont ainsi été lancées. La Première ministre a installé la commission pour l'IA le 19 septembre à Matignon. Cette commission rassemble des acteurs de différents secteurs (culturel, économique, technologique, recherche) pour contribuer à éclairer les décisions du Gouvernement et faire de la France un pays à la pointe de la révolution de l'IA responsable. Le rapport de la commission, attendu début mars, portera notamment sur les impacts macro-économiques de l'IA, les conséquences de ces technologies sur le monde du travail et dans le secteur culturel ainsi que d'autres questions d'éthiques liés à l'IA générative, etc. De manière plus générale, les enjeux éthiques soulevés par le numérique sont particulièrement suivis par le Gouvernement et c'est dans cette perspective que le Président de la République a annoncé la pérennisation du comité consultatif national d'éthique du numérique le 9 mars 2023.Ce comité d'experts a vocation à se pencher sur l'ensemble des questions éthiques liées au numérique, l'intelligence artificielle étant au cœur de sa feuille de route. De premiers rapports ont déjà été publiés notamment sur les agents conversationnels et plus récemment sur l'IA générative. Les enjeux de protection des mineurs en ligne figurent dans les priorités stratégiques portées par le Gouvernement à travers plusieurs textes législatifs au niveau national ou européen. Le règlement Digital Services Act (DSA) adopté sous présidence française de l'Union européenne (UE) fournit de nouveaux outils permettant de renforcer la protection des mineurs en ligne. Son article 28 prévoit ainsi l'interdiction de pratiquer la publicité qui repose sur le profilage utilisant des données à caractère personnel dès lors que la plateforme a connaissance avec une certitude raisonnable que l'utilisateur du service est un mineur. Les effets concrets de ce règlement se sont matérialisés par une série d'annonces de mise en conformité de la part de certaines plateformes visées par le DSA. Dans un communiqué du 23 août 2023, Snapchat a indiqué que la plupart des outils de ciblage et d'optimisation visant à personnaliser les publicités pour les utilisateurs mineurs dans l'UE et au Royaume-Uni ne seront plus disponibles pour les annonceurs. Depuis le 25 août 2023, en vertu des articles 34 et 35 du DSA, les très grandes plateformes, dont Snapchat fait partie, doivent recenser, analyser et évaluer tout risque systémique découlant de leurs services en particulier tout effet négatif réel ou prévisible sur la protection des mineurs et mettre en place des mesures d'atténuation raisonnables, proportionnées et efficaces adaptées à ces risques. Si Snapchat ne se conforme pas à ses obligations, notamment dans le cadre de l'utilisation de son chatbot « My AI », l'entreprise encourt des sanctions pouvant aller jusqu'à 6 % de son chiffre d'affaires mondial. Le Gouvernement est attaché et sera très attentif au plein effet et à l'efficacité de la mise en œuvre des nouveaux règlements européens DSA et DMA en France et en Europe ; il se tiendra auprès des régulateurs compétents pour assurer le respect scrupuleux du nouveau cadre européen. Le projet de loi visant à sécuriser et réguler l'espace numérique assure quant à lui l'adaptation du droit national au DSA pour l'application effective de cette législation européenne en France. Enfin, le Gouvernement a soutenu le compromis du règlement sur l'IA adopté par le Conseil début février 2024. Ce texte met en place un régime règlementaire abouti et protecteur de nos concitoyens, dont les mineurs, contre des usages abusifs (et donc interdits) ou à haut risque (et donc encadrés) de l'IA. Ce règlement prévoit des obligations de transparence qui contraindront notamment les fournisseurs de chatbots, comme « My AI », à informer les utilisateurs qu'ils interagissent avec un système d'IA, en tenant compte à la fois du contexte d'utilisation mais aussi des caractéristiques de la population concernée. En parallèle des enjeux de protection des citoyens, le Gouvernement mène depuis 2018 des travaux sur les impacts de l'IA sur le monde du travail selon deux axes : (i) des études économiques et (ii) le financement de formation pour acculturer la société aux nouvelles compétences liées à l'intelligence artificielle. Ainsi, avant la mise en lumière des progrès de l'IA générative par ChatGPT fin 2022, le ministère du travail, du plein emploi et de l'insertion en collaboration avec l'Institut national de recherche en informatique et en automatique (Inria) avait lancé le 19 novembre 2021 un centre de ressources et d'expérimentations sur l'IA dans le milieu professionnel « LaborIA ». Cette initiative d'une durée de 5 ans permet de mieux mesurer l'impact de l'IA et ses effets sur le travail, l'emploi, les compétences et le dialogue social, dans l'objectif de faire évoluer les pratiques des entreprises et l'action publique. De premiers résultats ont été publiés dès mars 2023 : un baromètre de l'impact de l'IA sur l'emploi, à la fois de manière objective via des exemples, mais également de manière subjective avec une analyse du ressenti des parties prenantes aux projets impliquant de l'IA, ont été publiés en mars 2023. Ces travaux tendent à conclure que l'adoption de l'IA entraîne le plus souvent un transfert de compétence et un redéploiement des collaborateurs d'une tâche vers une autre. Il s'agit donc d'accompagner la transformation des compétences. C'est pourquoi des investissements significatifs sont dédiés au champ de la formation. 700 M€ de France 2030 sont consacrés à accompagner la transition vers de nouvelles compétences en facilitant l'adaptation de certains métiers pouvant bénéficier de l'IA ainsi qu'en favorisant l'émergence de nouveaux métiers spécifiques. Ces financements se décomposent en : 200 M€ d'investissements prévus pour les formations en IA dans l'appel à manifestation d'intérêt « Compétences et métiers d'avenir ». Le dispositif a déjà permis de financer 11 projets pour un montant de 68 M€ (montant total des projets : 229 M€) permettant d'augmenter le nombre de formations, à divers niveaux, en formation initiale ou continue. Il a aussi permis de financer des projets de diagnostic pour déterminer les besoins spécifiques de certaines filières et élaborer des référentiels de compétences et de métiers en lien avec l'IA pour permettre de mieux appréhender l'impact de l'IA sur le travail et l'emploi. Lors de VivaTech 2023, le Président de la République a annoncé une enveloppe pour développer 5 à 10 pôles de formation à l'IA de rang mondial (appel à manifestation d'intérêt « IA-Cluster »). Le Gouvernement reste attentif à la bonne réalisation des projets annoncés et au suivi le plus précis possible des initiatives européennes afin de faciliter la diffusion de l'intelligence artificielle dans notre société au bénéfice de tous.

Données clés

Auteur : Mme Emmanuelle Ménard

Type de question : Question écrite

Rubrique : Nouvelles technologies

Ministère interrogé : Transition numérique et télécommunications

Ministère répondant : Économie, finances, souveraineté industrielle et numérique

Dates :
Question publiée le 16 mai 2023
Réponse publiée le 16 avril 2024

partager