15ème législature

Question N° 23889
de Mme Cécile Untermaier (Socialistes et apparentés - Saône-et-Loire )
Question écrite
Ministère interrogé > Justice
Ministère attributaire > Justice

Rubrique > justice

Titre > Place des algorithmes dans le secteur juridiq

Question publiée au JO le : 22/10/2019 page : 9334
Réponse publiée au JO le : 07/01/2020 page : 91

Texte de la question

Mme Cécile Untermaier attire l'attention de Mme la garde des sceaux, ministre de la justice, sur la place accordée aux algorithmes dans le secteur juridique, notamment sur la fonction « prédictive » de ces outils. Certains pays de l'OCDE, comme la Finlande ou les États-Unis ont de plus en recours à des algorithmes dans leurs systèmes de justice, par exemple, avec le logiciel américain COMPAS qui prétend mesurer le risque de récidive des prévenus et dont il est dénoncé le caractère peu précis et peu pertinent. Il est essentiel et urgent en France que les professionnels du secteur mais aussi l'État, se saisissent du sujet de l'intelligence artificielle (IA) dans la justice et définissent les usages qu'ils veulent en faire, afin d'éviter l'avènement d'une justice expéditive et déshumanisée. Les outils d'IA, appelés à tort « justice prédictive », sont en réalité des statistiques sur des décisions de justice qui peuvent faciliter la compréhension des professionnels du droit pour orienter une stratégie et ne constituent qu'une aide complétant l'intelligence humaine dans le processus de décision. Comme le rappelait alors qu'il était vice-président du Conseil d'État, M. Jean-Marc Sauvé, si les algorithmes dans le droit sont bien « une opportunité », il convient de s'en saisir « en sachant faire preuve d'une grande vigilance sur l'intangibilité d'une justice indépendante, impartiale, transparente, humaine et équilibrée » afin de garantir à tous les citoyens un égal accès à la force du droit. La révolution de l'IA doit donc être accompagnée de la définition de règles de déontologie, par exemple en matière de transparence dans les algorithmes. Aussi, elle lui demande de lui préciser quel rôle entend jouer le Gouvernement dans le développement de l'IA dans le secteur du droit et de la justice, de quelle manière il envisage utilement intervenir dans le champ éthique de son utilisation et en particulier s'il considère opportun de travailler avec les professionnels de la « legaltech » à la mise en place d'une certification qui permettrait le déploiement raisonné et éthique de ces nouveaux outils.

Texte de la réponse

Les nouvelles technologies de l'information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant, entre autres, la dématérialisation de l'accès au droit et à la justice, la création de plateformes de résolutions à l'amiable des litiges ou encore l'accès à de nouvelles modalités de saisine des juridictions, notamment civiles. Parmi ces évolutions, les outils algorithmiques dits « d'intelligence artificielle » se proposent notamment de contribuer à réduire l'aléa judiciaire par l'analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l'action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d'importants débats. Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech, seules 3 % des start-ups « legaltech » feraient du développement d'un algorithme d'intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d'évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d'usage et d'expérimentations, en France comme dans d'autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l'aléa juridique. En France, l'expérimentation d'un logiciel aux visées prédictives dans le ressort des cours d'appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d'une inadéquation par rapport aux besoins exprimés. Au Royaume-Uni, l'expérimentation HART, conduite en 2016 par des chercheurs de l'université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n'est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d'aide à la décision. Il appartient à la puissance publique de fixer le cadre et d'orienter le justiciable dans cet univers en pleine mutation. A ce titre, la principale garantie contre une justice intégralement algorithmique tient à l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui dispose qu'« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ». La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d'usages judiciaires de l'intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33). La certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l'aide d'un traitement algorithmique ou automatisé de données à caractère personnel, constitue une étape supplémentaire dans la construction du cadre juridique en la matière. Il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d'indépendance et d'impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout en informant pleinement le justiciable. Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l'open data des décisions de justice. Les données qui seront libérées dans ce cadre permettront ainsi de sécuriser l'entraînement des algorithmes en mettant à disposition des données complètes et non biaisées, aspect essentiel de la construction de solutions algorithmiques fiables. Dans la ligne des engagements souhaités par le président de la République quant au positionnement de la France comme actrice majeure de l'intelligence artificielle, le ministère de la justice soutient plusieurs projets aux fins d'expérimentation de l'intelligence artificielle appliquée à la matière judiciaire, en partenariat avec la mission Etalab : les projets DataJust et OpenJustice. En outre, le ministère participe à l'élaboration d'outils internationaux permettant d'inscrire la France dans une perspective européenne en la matière. Ainsi, la charte éthique européenne sur l'utilisation de l'IA dans les systèmes judiciaires a été adoptée lors de la 31ème réunion plénière de la Commission européenne pour l'efficacité de la justice. Elle dégage notamment cinq grands « principes » de l'intelligence artificielle vertueuse, que sont le principe de respect des droits fondamentaux, le principe de non-discrimination, le principe de qualité et de sécurité, le principe de transparence, de neutralité et d'intégrité intellectuelle, ainsi que le principe de maîtrise par l'utilisateur. Le ministère de la justice suit également les travaux de la Commission ainsi que ceux qui seront entrepris dans le cadre du comité ad hoc sur l'intelligence artificielle crée par le Conseil de l'Europe.