Discriminations algorithmiques : réguler l'usage des ATS en France
Publication de la réponse au Journal Officiel du 16 décembre 2025, page 10385
Question de :
M. Stéphane Viry
Vosges (1re circonscription) - Libertés, Indépendants, Outre-mer et Territoires
M. Stéphane Viry appelle l'attention de Mme la ministre auprès de la ministre du travail, de la santé, de la solidarité et des familles, chargée du travail et de l'emploi, sur les risques d'exclusion professionnelle liés au recours croissant aux logiciels de tri automatisé des candidatures, dits ATS (Applicant Tracking Systems) et aux outils d'intelligence artificielle dans les processus de recrutement. Si ces systèmes, utilisés par près de 80 % des entreprises, permettent de traiter rapidement un grand volume de candidatures, ils écartent automatiquement des profils pourtant qualifiés, faute de mots-clés exacts ou d'un format de CV conforme aux critères des algorithmes. Ce phénomène touche notamment les candidats en reconversion, les seniors et les profils dits atypiques. Le Défenseur des droits a alerté sur les risques de discriminations indirectes liés à ces pratiques, qui peuvent porter sur l'âge, le genre ou l'origine géographique. Le règlement européen sur l'IA, applicable en France depuis 2025, classe ces outils dans la catégorie des technologies à « risque élevé » en raison de leur impact direct sur les droits fondamentaux et impose des obligations de transparence, de justification des rejets et de contrôle des décisions algorithmiques. Pourtant, de nombreux candidats restent écartés sans explication, ni recours possible. Un exemple significatif illustre ce problème : un système d'IA développé par Amazon a été retiré en 2018 après avoir discriminé systématiquement les candidatures féminines, en déclassant leurs CV sur la base de critères biaisés. Dans ce contexte, il lui demande quelles mesures concrètes elle entend mettre en œuvre pour garantir un usage éthique et responsable de ces outils, assurer un contrôle strict du respect des obligations légales par les employeurs et préserver le rôle de l'humain dans les décisions de recrutement. Il souligne qu'aucune candidature ne devrait être rejetée exclusivement par un traitement algorithmique opaque, au détriment de l'égalité d'accès à l'emploi.
Réponse publiée le 16 décembre 2025
L'Intelligence artificielle (IA), notamment les outils d'aide au recrutement, peuvent faciliter et simplifier l'exercice de certaines missions de ressources humaines, en réalisant celles considérées comme les plus répétitives. Un de ses atouts pourrait donc résider dans le fait de permettre aux personnes chargées du recrutement de se concentrer sur d'autres tâches. Néanmoins, comme vous le soulignez, cette utilisation engendre également des risques, en particulier celui d'une aggravation des discriminations dans le cadre du processus de recrutement. La législation en vigueur prévoit bien un principe général de non-discrimination dans la procédure de recrutement (article L. 1132-1 du code du travail). Il se déduit également de l'article L. 1121-1 du code du travail que certaines informations ne peuvent pas être collectées auprès du candidat, dans la mesure où leur connaissance par le recruteur, même si elle peut s'avérer utile, est disproportionnée par rapport à l'évaluation des compétences. Pour mémoire, la sélection des candidats doit reposer sur : - une méthode transparente, portée tant à la connaissance des candidats (articles L. 1221-8 et L. 1221-9 du code du travail) que des élus du comité social et économique (article L. 2312-38 du code du travail) ce qui est rappelé par la commission nationale de l'informatique et des libertés (Cnil, délib. nº 2002-17, 21 mars 2002, JO 16 juill.) ; - des critères non discriminants et en lien avec l'évaluation des aptitudes professionnelles pour le poste recherché. Par ailleurs, les entreprises doivent se montrer particulièrement vigilantes dans leur pratique et dans l'utilisation de l'IA et doivent être en mesure de démontrer, le cas échéant, la rationalité de l'organisation, voire son objectivité (notamment dans le paramétrage des prompts), en toute transparence. En effet, les logiciels d'IA sont pour l'heure incrémentés par les seules données transmises par des personnes physiques. Dès lors, si ces données sont biaisées ou orientées, l'employeur (personne physique comme personne morale) est susceptible de voir sa responsabilité (civile comme pénale) engagée en cas d'éventuelles mises en œuvre discriminatoires en violation des dispositions de l'article L. 1132-1 du code du travail. En outre, la charge de la preuve est aménagée pour les candidats à un emploi qui s'estimeraient discriminés (article L. 1134-1 du code du travail). Par ailleurs, le droit national évoluera prochainement pour encadrer l'utilisation de l'IA, des algorithmes et de leur impact sur les travailleurs sous l'impulsion des normes européennes (notamment la directive (UE) 2024/2831 du Parlement européen et du Conseil du 23 octobre 2024 relative à l'amélioration des conditions de travail dans le cadre du travail via une plateforme). En parallèle, le règlement européen du 13 juin 2024 sur l'intelligence artificielle, qui vise à favoriser un développement et un déploiement responsables de l'intelligence artificielle dans l'Union européenne, est entré en vigueur le 1er août 2024. L'article 5 de ce règlement précise les pratiques interdites en matière d'IA et liste notamment l'interdiction de porter atteinte à l'aide d'une IA à la capacité des personnes ou d'un groupe de personnes à prendre une décision éclairée. Comme vous l'évoquiez, l'annexe III de ce même règlement, qui liste les systèmes d'IA à haut risque, mentionne les « systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats ». Enfin, un nouveau pas a été franchi dans l'encadrement de l'IA, avec l'adoption du premier texte d'envergure internationale juridiquement contraignant par le Conseil de l'Europe composé des ministres des affaires étrangères des 46 pays membres du Conseil de l'Europe (pays membres de l'Union européenne et onze États non-membres, dont les États-Unis, le Canada et le Japon). A ainsi été signée la convention cadre du Conseil de l'Europe, le 5 septembre 2024. Ses dispositions devront être transposées dans le droit national des États adhérents. Le texte pose en principe que le recours à l'IA doit se faire dans le respect de la protection des droits de l'Homme, en particulier du principe de non-discrimination et du respect de la vie privée. Le Gouvernement sera attentif à ce que l'IA garantisse le principe de non-discrimination dans l'emploi.
Auteur : M. Stéphane Viry
Type de question : Question écrite
Rubrique : Discriminations
Ministère interrogé : Travail et emploi
Ministère répondant : Travail et solidarités
Signalement : Question signalée au Gouvernement le 24 novembre 2025
Dates :
Question publiée le 29 juillet 2025
Réponse publiée le 16 décembre 2025