Village de la Justice www.village-justice.com

L’intelligence artificielle rendra-t-elle les stagiaires moins myopes ?
Parution : mercredi 29 avril 2020
Adresse de l'article original :
https://www.village-justice.com/articles/intelligence-artificielle-rendra-elle-les-stagiaires-moins-myopes,35041.html
Reproduction interdite sans autorisation de l'auteur.

Que celui qui n’a jamais plissé les yeux face à des pages sans fin de jurisprudences arrête de lire ces lignes. Et comme chacun sait, fixer un ordinateur à longueur de journée rend la vue de l’utilisateur aussi aiguisée que celle d’un rat-taupe. Mais dans cet océan de bigleux, l’espoir semble venir de la pierre philosophale du XXIème siècle : l’Intelligence Artificielle (IA). L’IA rendra-telle ainsi les stagiaires moins myopes ?

Colloques, séminaires, articles et revues s’accumulent pour tenter de prévoir, de définir et de comprendre l’IA et ses possibles impacts sur le monde juridique. [1] Tâchons d’abord de définir cet objet aux multiples facettes, souvent le miroir de fantasmes et de curiosités à la mode. De manière générale, nous pourrions retenir que l’intelligence artificielle se définit comme une technologie informatique regroupant un ensemble d’algorithmes de calcul se basant sur une quantité considérable de données, permettant à partir d’un traitement statistique de faire émerger des comportements signifiants [2]. On distingue ensuite deux types d’intelligence artificielle : la forme forte et la forme faible. L’IA forte, aujourd’hui encore largement utopique, serait un système auto-apprenant, autonome et capable de reproduire le raisonnement humain face à des situations nouvelles. Celle-ci se différencie de l’IA faible, déjà largement répandue dans notre vie courante, qui serait alors spécialisée et non-adaptable à une situation nouvelle. Mais plus qu’à ses capacités de calculs, l’essor actuel de l’IA est lié au développement généralisé du big data ainsi que du machine learning ou apprentissage automatique. [3]

Ainsi, nous verrons que le stagiaire connait la montée en puissance de nouveaux outils (I) qui appellent en réaction de nouvelles pratiques (II).

I. La montée en puissance de nouveaux outils.

L’enjeu est de taille : après le charbon et l’électricité, la nouvelle révolution viendrait de l’intelligence artificielle. Ainsi, les acteurs se multiplient dans ce secteur à inventer. Pour l’instant, dans le domaine du droit, ce développement est largement le fait de startups (67%) [4] à destination des entreprises en général (65%) et des avocats (55%). Cependant, dans le milieu de la legaltech, le domaine de l’IA reste minoritaire (12% des parts de marché) puisque largement devancé par des logiciels de rédaction d’actes et d’automatisation de documents juridiques (35%).

A l’échelle étatique, le gouvernement tente de définir « une politique offensive de la donnée » au cœur de l’IA. Face à cette nouveauté, « la première réaction des avocats (…) a été purement défensive » [5] en initiant des procédures contentieuses contre les nouveaux acteurs. Mais petit à petit, ils se sont approprié ce nouvel outil, et le processus d’innovation destructrice qui peut parfois l’accompagner.

En réalité, si on la différencie bien du processus général de digitalisation en cours dans les professions juridiques, l’IA est notamment présente en matière d’automatisation des tâches répétitives à faible valeur ajoutée, comme la recherche jurisprudentielle, ainsi que dans le domaine de l’évaluation du contentieux.

Tout d’abord, les moteurs de recherche ont pour but d’incorporer l’IA afin d’optimiser la recherche de la jurisprudence. L’objectif est donc clair : à partir de bases de données importantes, en particulier favorisées par l’Open data en matière de décisions de justice, ces moteurs de recherche proposent d’accélérer le traitement de l’information. Une recherche effectuée par notre fameux stagiaire myope en deux heures serait ainsi traitée beaucoup plus rapidement par un algorithme. Par définition, l’algorithme ne peut fonctionner qu’à partir de données entrantes (input) afin de calculer un résultat sortant (output). La complexité initiale de qualification des faits, et de traitement de données de qualité restera donc importante. Sur des questions simples d’identification de clauses, en l’espèce un contrat de non-disclosure, la machine met en moyenne 26 secondes, là où l’humain en nécessite 92 minutes [6]. Le logiciel ROSS d’IBM permet selon ses concepteurs un gain de 30% dans la recherche juridique « augmentée ».

Il est donc clair qu’en matière de rapidité, la machine est bien plus efficace. Cependant, l’étude ici citée ne se fonde que sur une analyse simple, ici rattacher une clause à une liste de problèmes juridiques définis à l’avance. Pas question de résoudre ledit problème. Ici, l’IA est donc utilisée comme aide à la décision, afin de faire émerger de manière efficace des problèmes à résoudre pour le juriste. On peut donc imaginer l’utilité d’un tel outil dans le cadre de due diligences où la masse de documents à analyser est colossale.

Ensuite, certaines plateformes proposent même d’établir des probabilités sur le succès d’une action contentieuse à partir des données essentielles de l’affaire. Mais face à la complexité linguistique de l’univers de la justice, où dans une même phrase, le tribunal peut n’admettre qu’une partie de la prétention sans marqueur linguistique reconnaissable, l’IA rencontre des difficultés plus nombreuses. Ainsi, pour lancer les premiers logiciels de calcul de probablité, il semble plus aisé de se fonder sur les contentieux chiffrables. Les bouleversements se font donc sentir en particulier dans des contentieux spécifiques, que ce soit dans le cas des licenciements sans cause réelle et sérieuse [7] ou encore dans le cas du contentieux de la réparation du dommage corporel. Ces deux contentieux ont la particularité de reposer en partie sur des données chiffrées. En effet, dans un univers fermé et modélisable par des lois mathématiques, par exemple le jeu de go, l’IA est particulièrement efficace, bien plus que l’être humain.

Cependant, l’univers de la justice, du fait de son appréciation très casuistique et des qualifications aux différences parfois ténues, rentre mal dans le cadre normé et rigide de l’algorithme.

Ainsi, on peut s’interroger sur la façon dont est traitée la donnée originaire. Par exemple, comment prendre en compte les différents modes de rédaction propres à chaque juridiction ? Quelle valeur donner aux arrêts de rejets rédigés de manière extrêmement succincte ? Dans de nombreux cas, la première question du justiciable à son avocat est : quelle est la probabilité de gagner ? Jusque-là, l’évaluation de la probabilité se fondait sur l’expérience du conseil face à un contentieux approchant. A partir d’une analyse de masse de jurisprudences similaires (attention redondance), il est aujourd’hui possible d’obtenir des probabilités, et uniquement des probabilités, sur les chances de succès d’un contentieux, avec plus ou moins de réussite. Mais face à une évaluation de l’aléa judiciaire, les fantasmes de justice prédictive ou de juges robots qui peuvent naitre, souvent mis à mal par la réalité de la technique [8].

Face au développement foisonnant de nouvelles technologies, notre stagiaire bigleux met en œuvre, ou pour le moins, doit réfléchir à l’émergence de nouvelles pratiques en réaction.

II. De nouvelles pratiques en réaction.

Face à la machine, notre stagiaire doit-il se reconvertir [9] ? Voit-on arriver la fin des juristes, décimés par les démons de l’intelligence artificielle ? Tirer ce genre de conclusion serait de loin trop hâtif, mais une réflexion sur l’éthique de l’IA au cœur de la Justice ainsi que sur la place des professionnels, juges et avocats en particulier, doit être menée.

Face à l’avènement de l’IA, les fonctions essentielles de l’avocat, que ce soit en matière de conseil, d’assistance ou de représentation sont par essence humaines. Ses capacités à déterminer et à prendre une situation de faits donnée pour la transformer en une situation juridique ne peuvent pas être remplacées. En effet, afin d’effectuer la phase de calcul, l’algorithme dépend des données rentrées par l’utilisateur (input). Par exemple, si des projections sont faites sur la base d’un contrat de vente alors qu’en réalité il s’agit d’un contrat de bail, aussi puissant que soit l’outil, les résultats seront toujours faux. De plus, la conduite d’une affaire contentieuse, tout comme une stratégie de conseil dépend essentiellement du savoir-faire du professionnel. Comprendre une situation de départ pour lui apporter des solutions concrètes est une qualité essentielle du juriste, qui ne pourra pas être remplacée par un programme informatique.

De plus, ses capacités d’empathie et de finesse d’interprétation sont essentielles pour assurer une bonne justice et s’éloigner d’une pensée juridique standardisée. Face à un outil informatique, le juriste doit conserver sa capacité de libre arbitre et de hiérarchisation de l’information. Plusieurs points peuvent être soulevés face à une éventuelle généralisation de la justice prédictive.

Tout d’abord, avec la loi J21 de réforme de la Justice, les décisions des juges du fond seront désormais accessibles à tous de manière gratuite. Cette possibilité ouvre donc la porte au traitement massif (big data) des décisions de justice. Ainsi, la masse des décisions nous renseignerait sur son application pratique par les juridictions du fond. Mais dans ce cas-là, comment hiérarchiser les décisions importantes, les revirements de jurisprudence des décisions purement casuistiques. Mais alors : comment hiérarchiser et distinguer les arrêts de principe des arrêts d’espèce ? Comment identifier les revirements de jurisprudence ? Un arrêt de la Cour de cassation vaut-il trois arrêts de Cour d’appel ? Un rejet pour défaut de preuve doit-il faire conduira-t-il à rejeter des prétentions équivalentes mais mieux étayées ? De plus, on peut craindre que fonder la prévision uniquement sur des décisions passées pousse à la reproduction des biais de pensée ou à la reproduction systématique des inégalités [10]. A l’inverse, si un juge décide d’aller contre la « norme de la masse » dégagée par l’algorithme, devra-t-il faire un effort de motivation supplémentaire ? Également, on peut s’interroger sur la remise en cause de la légitimité d’une décision à l’encontre des données de l’algorithme. Alors que l’une des promesses de la justice prédictive est celle d’une plus grande prévisibilité des décisions de justice, l’écart entre la réalité de l’affaire et les statistiques initiales pourrait accroitre la crise de la justice. Le coût de mise en place de techniques reposant sur l’IA est également à prendre en compte. Comment garantir l’égalité devant la justice si certains peuvent avoir recours aux logiciels les plus puissants ? Et qu’en sera-t-il de la justice étatique face aux géants des bases de données ? Ces questions au cœur du développement de l’IA et de la justice prédictive restent pour l’instant en suspens.

Ensuite, une nouvelle interrogation émerge sur la place laissée à la libre interprétation du juge et à son pouvoir de décision. En effet, face à une probabilité chiffrée fondée sur un contentieux de masse, le juge aura-t-il pleine liberté pour apprécier les faits et les moyens de preuve présentés ? Il est aussi déterminant pour le juriste de se pencher sur la boîte noire que représente l’algorithme. Ainsi, pour utiliser pleinement une probabilité, il faut pouvoir comprendre d’où elle vient et comment elle a été calculée. Une IA reste avant tout une suite de calculs prédéfinie à l’avance tout en ayant un regard sur la transparence de l’algorithme pour remplir correctement ses fonctions de justice. Finalement, l’usage de l’IA sera avant tout « un nouvel argument, qu’il faudra apprendre à manier pour orienter le raisonnement » [11] et non le recours ultime. Le besoin d’humanité est essentiel pour renforcer le rôle du juge et de celui de l’avocat qui utilise l’IA comme appui dans ses fonctions.

Ainsi, cette nouveauté exige également un renforcement et une clarification des normes de protection. Quelle IA pour quelle justice voulons-nous ? Face à ces nouvelles pratiques et de nouveaux enjeux, l’État ainsi que les instances internationales cherchent à assurer par le biais de la réglementation des activités liées à l’IA une protection accrue de chaque individu, ainsi qu’une maîtrise de ses données. Dans ses lignes directrices en matière d’éthique [12], le groupe d’experts de la Commission européenne précise les caractéristiques essentielles d’une IA "digne de confiance". Celle-ci doit respecter les critères de licéité posés par les législations applicables, mais aussi répondre aux exigences des droits fondamentaux. Enfin, sa robustesse technique est fondamentale pour en garantir la bonne utilisation. C’est à ces conditions, dégagées dans le cadre d’une réflexion éthique et sociétale, que l’IA constituera une avancée technique et non une menace.

Face à l’IA, notre stagiaire a donc deux possibilités. La rejeter en bloc ou chercher à se l’approprier. Dans tous les cas, il devra en tenir compte dans sa pratique future. Plus qu’un concurrent, l’IA doit être vue comme un outil, non comme une baguette magique. Et comme pour tout outil, c’est à celui qui l’utilise de s’interroger sur sa pratique.

Matthieu Benoit-Cattin Master Droit et ingénierie financière Université Jean Moulin Lyon 3

[1L’objectif de cet article n’est pas de traiter l’ensemble des très vastes problématiques liées à l’intelligence artificielle mais bien de donner des pistes de réflexion et une brève première approche.

[2Y. MENECEUR et C. BARBARO, « Intelligence artificielle et mémoire de la justice  : le grand malentendu », Les cahiers de la justice, n°2, 2019, p. p277.

[3Pour approfondir ces notions, nous vous vous renvoyons au MOOC « Objectif IA : initiez-vous à l’intelligence artificielle »

[5T. WICKERS, « Avocat », Recueil Dalloz, 2018, p. 87

[6B. DONDERO et B. LAMON, « Juristes humains contre IA  : l’analyse de contrats – À propos de l’étude LawGeex », La Semaine juridique, Edition générale, n°47, 19 novembre 2018

[7C. FLEURIOT, «  L’intelligence artificielle va provoquer une mutation profonde de la profession d’avocat  », Dalloz actualité, 15 mars 2017

[8B. DONDERO, « Justice prédictive : la fin de l’aléa judiciaire  ? », Recueil Dalloz, n°10, 2017, p. 532

[9Sur l’évolution de l’organisation des cabinets d’avocat, voir le rapport de THE BOSTON CONSULTING GROUP, How legal technology will change the business of Law, disponible en cliquant ici

[10Y. MENECEUR et C. BARBARO, « Intelligence artificielle et mémoire de la justice  : le grand malentendu », op. cit.

[11P. DEUMIER, « La jurisprudence d’aujourd’hui et de demain », Revue trimestrielle de Droit civil, n°03, 2017, p. 600

[12Voir en ce sens les travaux des travaux du groupe d’experts indépendants de haut niveau sur l’intelligence artificielle de la Commission européenne https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence