Village de la Justice www.village-justice.com

L’IA est-elle réellement capable de penser le droit ? Par Bouziane Behillil, Avocat, Juliette Buttin, Hiba Laoufir et Romane Sylvestre, Etudiantes.
Parution : jeudi 11 avril 2024
Adresse de l'article original :
https://www.village-justice.com/articles/intelligence-artificielle-est-elle-reellement-capable-penser-droit,49443.html
Reproduction interdite sans autorisation de l'auteur.

« Les juges ne sont que la bouche qui prononce les paroles de la loi ; des êtres inanimés qui ne peuvent en modérer ni la force ni la vigueur », écrivait déjà Montesquieu dans « L’esprit des lois ». La question de l’automatisation de la justice n’est donc pas nouvelle, mais prend une toute autre tournure avec l’essor de l’intelligence artificielle (IA) et son influence grandissante dans le domaine de la justice.
Retour sur les enjeux et perspectives de l’Intelligence artificielle...

Le Conseil de l’Europe tente de définir l’IA comme :

« une discipline qui réunit des sciences, théories et techniques et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain ».

Dès lors, le but atteint serait d’imiter les capacités de l’humain ; l’IA serait-elle donc capable de penser le droit ?

Bien que cet outil semble pouvoir apporter une solution à de nombreuses lacunes dans le système judiciaire, tant en France qu’à l’international, son efficacité et sa fiabilité doivent être questionnées au regard de l’aridité des disciplines juridiques avec leur prolongement contentieux.

1. L’essor de l’IA dans le secteur du droit : des apports controversés.

Comme chacun le sait, l’intelligence artificielle fournit de nouveaux outils, que l’on pourrait classer en deux catégories :

A ce sujet, l’IA pourrait répondre à une préoccupation liée à l’engorgement des tribunaux et l’allongement des délais de traitement d’une affaire. Cette voie d’amélioration de l’efficacité du système judiciaire a été esquissée en 2017 dans un rapport de la mission d’information sur le redressement de la justice présidée par le sénateur Phillipe Bas [1], lequel rapport a posé un garde-fou tenant à un encadrement et une régulation étatiques renforcés.

En l’état, les IA ne sont donc pas encore suffisamment au point pour prévenir les contentieux (on peut faire confiance aux hommes pour trouver la parade afin de revenir à la chicane traditionnelle). Pire, l’IA peut être source de contentieux.

A titre d’exemple, la décision rendue par la Cour de cassation en 2017 à propos du site demanderjustice.com illustre le propos : la Haute juridiction refuse la fermeture du site en considérant que les prestations proposées, à savoir des mises en demeure et des préparations de dossier, ne constituaient pas des pratiques réservées aux avocats. Elle justifie son raisonnement par le fait que « (ces prestations sont) dépourvues de valeur juridique ajoutée ainsi que de toute dimension stratégique, outre l’absence de fourniture de conseils personnalisés et le défaut d’une analyse quant à l’applicabilité au cas d’espèce des normes et informations juridiques mises à disposition ». Cette décision ne ferme donc pas la porte à l’interdiction de l’utilisation d’outils qui nécessiteraient une « valeur juridique ajoutée ou une dimension stratégique », et démontre le manque d’indépendance de l’intelligence artificielle à véritablement penser le droit.

2. Le danger de l’IA au regard des droits fondamentaux.

Admettant que l’on puisse effectivement utiliser la justice prédictive pour prédire avec justesse une décision de justice, le remplacement des juges pose la question du respect des droits fondamentaux. Parmi ces droits figurent celui à l’individualisation de la peine et celui à l’égalité et à la non-discrimination.

D’une part, le droit à l’individualisation de la peine, c’est-à-dire la capacité du juge à subjectiver la solution et la peine, pourrait être mis à mal par l’utilisation d’algorithmes. On rappellera que ce principe permet au juge d’adapter la sanction et les modalités d’exécution d’un condamné en tenant compte de l’auteur et des circonstances. La question est donc complexe : certains arguent que l’algorithme pourrait être plus objectif qu’un juge dans la prise en compte des éléments. Cependant, cela impliquerait que les critères définissant un humain soient quantifiables et objectivables. On peut en douter, la subjectivité d’un juge étant difficile voire impossible à appréhender. L’IA n’est donc pas encore prête à inventer une subjectivité para-humaine et donc reste limitée. Or, cette part de subjectivité est de l’essence même du droit, qui n’est donc pas modélisable.

D’autre part, en matière de respect du principe d’égalité et de non-discrimination, garanti par les articles 10 et 11 de la Constitution et l’article 14 de la CEDH, l’utilisation des algorithmes suscite des interrogations voire des craintes au regard des menaces.

Ces algorithmes nouveaux intègrent la jurisprudence antérieure que l’on confronte avec les faits nouveaux, et ce sur le fondement très personnel des concepteurs. Il y a donc un risque d’intégration de préjugés reproduisant à l’infini ou renforçant des solutions antérieures et inadaptées. Ce constat a pu être fait aux États-Unis à l’occasion des dérives du logiciel Compas, dont la caractéristique a été de perpétuer des préjugés de type racial et discriminant sur les plans socio-économique, géographique et ethnique.

L’IA a donc, comme ses créateurs, un travers : elle peut se laisser aller par effet de probabilité et de statistique à des dérives incompatibles avec le respect des droits fondamentaux.

Il appartient donc aux États comme aux individus de veiller à ce que l’IA n’aggrave pas les inégalités entre les personnes et assure à chacun, chacune, une protection du droit équivalente.

Bouziane Behillil, Avocat au Barreau de Paris [->paris@cambaceres-avocat.com] Juliette Buttin, étudiante Master 2 Hiba Laoufir et Romane Sylvestre, étudiantes Master en droit