Le groupe de travail sur l’intelligence artificielle à la Cour de cassation vient de remettre un rapport particulièrement intéressant avec une méthodologie d’implémentation de l’IA. Le document sert à accompagner l’ensemble des organisations.
La Cour de cassation s’appuie sur son expérience en matière d’IA pour participer à la réflexion générale au sein de la Justice et préconiser une approche méthodologique, éthique et pragmatique de son usage.
“Le développement de l’IA constitue ainsi une opportunité à saisir, non seulement pour
gagner en efficacité, à l’heure où l’institution est confrontée à une crise de moyens sans
précédent, puisque l’IA est en capacité de réaliser en quelques secondes des tâches
chronophages et sans réelle valeur ajoutée quand elles sont assurées par l’humain, mais
encore pour gagner en qualité“, expliquent les rapporteurs.
Un gain de qualité
“Ce gain de qualité est particulièrement évident, par exemple, s’il s’agit de repérer, dans une grande masse de données, des questions nouvelles et/ou sérielles ou de détecter des divergences de jurisprudence. De telles recherches, qui ne sont pas réalisables raisonnablement sans l’assistance de l’IA, permettraient notamment aux juridictions de rationaliser et de mieux coordonner le traitement des contentieux émergents et d’enrichir le débat juridique et le dialogue des juges” pointent les rapporteurs.
Par ailleurs, les magistrats constatent via leurs expérimentation que “le respect du RGPD et du RIA, pour essentiel qu’il soit, et bien qu’il contribue à protéger les droits fondamentaux, ne suffit pas à garantir un usage de l’IA vertueux, qui préserve la plénitude de l’office du juge et ne vienne pas amoindrir ou fragiliser les équilibres fondamentaux du procès équitable. Le groupe de travail insiste sur la nécessité, en complément des impératifs de conformité juridique, de prendre ainsi en considération des principes éthiques relevant de l’impact sur la fonction de juger, de l’impact sur les droits fondamentaux, comme de la transparence, de l’éthique et de la frugalité des algorithmes“.
Plusieurs cas d’usage de l’IA au service du droit
La cour de Cassation a développé plusieurs cas d’usage de l’IA au service du droit. Depuis 2019, la Cour a développé un outil d’IA pour anonymiser automatiquement les décisions judiciaires avant leur publication en open data. Cet outil masque les informations permettant d’identifier les personnes concernées. Les rapporteurs notent dans le cadre de la mise en place de l’outil que : “le respect de ce cadre juridique, pour essentiel qu’il soit, et bien qu’il contribue à protéger les droits fondamentaux, ne suffit donc pas à garantir un usage de l’IA vertueux, qui préserve la plénitude de l’office du juge et ne vienne pas amoindrir ou fragiliser les équilibres fondamentaux du procès équitable. Le groupe de travail insiste sur la nécessité, en complément des impératifs de conformité juridique, de prendre ainsi en considération des principes éthiques relevant de l’impact sur la fonction de juger, de l’impact sur les droits fondamentaux, comme de la transparence, de l’éthique et de la frugalité des algorithmes. A cet égard, le groupe de travail considère que la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires, adoptée en décembre 2018, demeure un document de référence ayant conservé toute son actualité malgré les évolutions techniques majeures intervenues depuis“.
Une autre utilisation de l’IA mis en place en 2020 est l’orientation des affaires. Le travail d’analyse pour l’orientateur demande de maitriser près de 200 codes différents
couvrant l’intégralité du spectre contentieux des chambres civiles, commerciale et sociale
de la Cour de cassation selon des règles de priorité parfois complexes.
L’entrainement de l’IA s’appuie, d’une part sur le caractère structuré des mémoires ampliatifs qui permet d’identifier des zones d’intérêt dans le texte (zonage), d’autre part sur le stock de mémoires ampliatifs déjà orientées (affaires terminées).
“Ce projet a en effet pu s’appuyer sur des données d’excellente qualité et structurées selon
des normes précises de rédaction, en l’espèce les mémoires ampliatifs. Cette précision
rédactionnelle a également été enrichie de plusieurs dizaines de milliers d’analyses
humaines réalisées par les orientateurs sur une période de 15 ans à la date du projet. Ces
conditions ont formé un contexte idéal pour l’ajustement (fine tuning) et l’apprentissage
automatique (machine learning) du modèle d’IA“.
Une fois en production, l’algorithme a pu également être amélioré de manière régulière
en confrontant ses résultats à l’analyse des agents et magistrats orientateurs selon un
processus d’apprentissage supervisé. Le taux de succès est de plus de 90 %.
Enfin, le projet “Divergences”, vise à identifier automatiquement les divergences de jurisprudence en analysant les décisions rendues. Il utilise des techniques d’IA pour rechercher des similarités entre les décisions, générer des résumés automatisés et classifier les décisions par mots-clés.
“Le modèle développé représente donc une opportunité d’enrichissement du fond existant de près de 800 000 décisions diffusées par la Cour. Le modèle affiche cependant de meilleures performances sur les arrêts récents et intégrant une motivation enrichie” observent les auteurs du rapport.
Le rapport regorge d’informations précieuses pour l’ensemble des organisations désireuses de mettre en place une IA responsable. Les auteurs apportent une méthodologie des évaluation des cas d’usage selon des critères éthiques, juridiques, fonctionnels, techniques et économiques, afin de garantir leur pertinence et leur conformité aux exigences de la justice. La Cour de cassation insiste sur la nécessité de maintenir la maîtrise humaine dans l’utilisation de l’IA, en veillant à ce que ces outils servent uniquement d’assistance.