Quelle est la responsabilité d’un avocat qui utilise ChatGPT dans l’exercice de sa profession ?
Selon sa déontologie
« L’avocat exerce ses fonctions avec dignité, conscience, indépendance, probité et humanité, dans le respect des termes de son serment » [1].
Ainsi, l’avocat assume personnellement la mission qui lui a été confiée. La substitution de l’avocat, même partielle, par une intelligence artificielle est une violation de cette obligation professionnelle.
Pourrait-il se retourner contre la société OpenAI créatrice du service ChatGPT ?
En attendant que le régime juridique européen de la responsabilité de l’intelligence artificielle, IA Act, soit prêt, avec des normes de sécurité, des certifications et des audits spécifiques, les régimes actuels de responsabilité civile, contractuelle [2] et extracontractuelle [3], sont applicables.
Responsabilité civile contractuelle.
Les conditions d’utilisation éditées par la société OpenAI interdisent de faire passer les réponses informatiques de ChatGPT pour des réponses faites par un humain [4].
Selon ces conditions d’utilisation facilement disponibles sur le site de ChatGPT, la société OpenAI nie toute responsabilité sur les réponses formulées, à charge pour l’utilisateur de vérifier la conformité des réponses par rapport à la loi [5].
Il est certain que ChatGPT, comme les autres intelligences artificielles ne peuvent pas être automatiquement responsables. Décider l’inverse serait déresponsabiliser tout utilisateur.
La police d’utilisation [6] de ChatGPT requiert des exigences supplémentaires pour certaines utilisations notamment dans le secteur juridique informant de l’utilisation de l’intelligence artificielle et de ses limites, encore faut-il les connaître…
Il est vrai que l’utilisateur ne sait rien du cœur de ChatGPT, de son algorithme, des limites imposées au logiciel, des garanties prises lors de sa conception, de son entrainement à la création d’un langage humain, du tri des bases de données, de l’utilisation des « conversations » créées, de la conservation des données personnelles et non personnelles [7].
Pour autant, la société OpenAI cocontractante a un devoir de transparence et d’information préalable.
Consciente des limites de son produit, la responsabilité de la société OpenAPI doit être à la hauteur du risque généré. Il s’agit d’une responsabilité proportionnelle aux risques.
Et sur ce point, la société OpenAI n’est pas dans la séduction trompeuse du futur marié ! En effet, le descriptif de ChatGPT fait en première page du site internet est clair en indiquant en première ligne que le risque d’erreur de ChatGPT est important.
« Nous avons entrainé un modèle appelé ChatGPT qui interagit de façon conversationnelle. Le format dialogue permet à ChatGPT de répondre aux questions à venir, d’admettre ses erreurs, de challenger ses bases erronées et de rejeter les questions inappropriées » [8].
Ce descriptif sur le site ChatGPT est la meilleure clause exonératoire de responsabilité jamais écrite. D’abord, le service y est justement défini sans tromperie, ensuite, il est écrit en toute transparence, clarté, et le tout en première ligne qu’il y a des « erreurs » voire des « absurdités ». Aujourd’hui, ChatGPT est un prototype cumulant les versions, ChatGPT 4 actuellement, preuve que le produit est en phase d’innovation et de développement informatique, il doit être utilisé comme tel, à défaut, l’utilisateur serait de mauvaise foi et sa responsabilité professionnelle engagée à ce titre.
Au-delà des clauses des conditions générales d’utilisation, les contrats obligent non seulement à ce qui y est exprimé, mais encore à toutes les suites que leur donnent l’équité, l’usage ou la loi [9].
La responsabilité de la société OpenAI ne peut pas être écartée par une clause d’exonération des conséquences des fonctions essentielles de ChatGPT, sauf à vider de sa substance le contrat conclu avec chaque utilisateur.
A la question de la mise à jour de sa base de données, ChatGPT dans sa version gratuite répond « septembre 2021 » [10]. On comprend que les informations utilisées sont potentiellement périmées, et qu’il n’y a pas d’alerte préalable sur ce point. Si Microsoft vient d’annoncer que son moteur de recherche BING intégrera ChatGPT, lui fournissant ainsi des informations en temps réel , cela reste à confirmer par un engagement contractuel clair [11].
A la question de l’étendue de sa base de données, ChatGPT dans sa version gratuite répond ne pas avoir accès aux données protégées par le droit d’auteur, ni par les données payantes [12].
Or, tout avocat doit donner à ses clients un conseil selon le droit positif en vigueur.
Ces questions sont des points importants en matière de responsabilité civile professionnelle.
ChatGPT est un outil dit conversationnel, c’est-à-dire similaire dans la forme d’un langage humain. Alors, comment faire la différence entre l’erreur humaine et l’erreur générée par l’intelligence artificielle ? Question essentielle dès lors que la responsabilité professionnelle implique de faire un lien entre un dommage et une action, fautive ou non. Or, il est extrêmement compliqué d’identifier l’origine du dommage, l’erreur étant potentiellement partout, sur les données, sur la collecte des données, sur les prompts, sur le transformateur des données, sur la lecture des résultats et sur toutes les actions additionnelles à l’intelligence artificielle. De surcroît, ChatGPT est interopérable avec d’autres logiciels externes rendant encore plus complexe la traçabilité de l’erreur de production du résultat final.
Si la société OpenAI n’apporte pas des éléments de preuve nécessaires, le recours à l’expertise judiciaire est la seule solution pour identifier l’origine de la défaillance.
Encore faut-il que l’expert puisse en avoir la compétence. Peut-être que l’expert désigné par le Juge de la mise en état devra utiliser des solutions d’intelligence artificielle existantes permettant d’identifier la production de contenus artificiels [13]. A défaut, le Juge statuera en cas par cas, avec peut-être parfois une responsabilité de plein droit.
La responsabilité de l’avocat pourra être atténuée en considérant que personne n’a la science infuse, l’erreur est intrinsèque à l’être humain limité par nature. En l’occurrence, nul doute que ChatGPT améliorera le service rendu par les professionnels en abaissant leur taux d’erreur par la volumétrie des données sourcées qui dépasse de très loin les capacités du cerveau humain. Ne pas utiliser les outils modernes pour améliorer le conseil sera peut être une circonstance aggravante de la faute du professionnel du droit.
Autre prévision certaine, c’est l’utilisation par les clients de l’avocat de ChatGPT, qui en quelques secondes, auront une étude juridique venant challenger celle de leur avocat qui se verra ainsi contraint d’utiliser l’intelligence artificielle.
Dans sa police d’utilisation [14], la société OpenAI a déjà uni ChatGPT et l’avocat. Elle exclut toute utilisation de ChatGPT pour avoir des conseils juridiques sans la validation d’une personne qualifiée. De plus, l’intervention de l’avocat vient couvrir l’interdiction légale de la prise de décision fondée exclusivement sur un traitement automatisé via intelligence artificielle de données personnelles [15].
Couple en devenir, la société OpenAI devrait conseiller aux avocats des formations qualifiantes à l’utilisation de son intelligence artificielle.
Responsabilité civile extracontractuelle.
La société OpenAI est le seul point d’entrée pour avoir les éléments factuels nécessaires pour identifier une responsabilité. Cela entraîne deux conséquences.
La première conséquence est que la société OpenAI soit déclarée gardienne de la chose au sens du Code civil et de la responsabilité extracontractuelle [16]. Selon le Code civil, on est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde.
Elle doit donc apporter la preuve de n’avoir commis aucune négligence, ni faute. Il y a une présomption de responsabilité technique de la société OpenAI face à l’avocat, profane en intelligence artificielle.
Pour autant, la société OpenAI, par le fonctionnement même du logiciel qui est autonome et dépend de l’utilisation plus ou moins intelligente de chaque internaute, ne peut être considérée comme le seul gardien de la chose. L’avocat en tant qu’utilisateur de ChatGPT est pleinement responsable du dommage vis-à-vis de son client, il est le gardien juridique de ChatGPT et l’auteur de la prestation juridique.
Si le professionnel du droit utilise les services de ChatGPT il se doit d’en informer son client. En effet, l’obligation de loyauté impose d’être transparent sur cette utilisation.
D’ailleurs, le futur droit européen va instaurer une obligation de transparence au producteur d’intelligence artificielle qui devra informer les utilisateurs qu’ils interagissent avec un système d’intelligence artificielle.
La seconde conséquence est relative au régime de responsabilité des produits défectueux [17]. La société OpenAI a construit un produit technologique et en est, à ce titre, responsable en vertu du régime juridique des produits défectueux [18].
La société OpenAPI doit apporter sa coopération en qualité de fabricant et potentiel responsable du dommage même en l’absence de faute.
La notion de défaut d’un produit vise les comportements et actes non anticipés. La responsabilité d’OpenAI est responsable d’avoir mis sur le marché un produit non fini créant volontairement un risque, un risque d’autant plus élevé qu’il y a une utilisation autonome par tous les internautes.
Pour autant, ce régime s’applique principalement à la réparation du dommage qui résulte d’une atteinte à la personne, excluant la nature du préjudice causé par un mauvais conseil issu en partie d’un produit défectueux [19].
De plus, la technologie ChatGPT s’insère dans une chaîne de valeur globale allant de la création des données collectées jusqu’au résultat obtenu en fonction de la qualité de la requête formulée par les utilisateurs, sans pouvoir écarter l’hypothèse d’un virus ou d’un piratage. Un constructeur automobile n’est pas responsable de tous les accidents de la circulation qui selon les circonstances, peuvent dépendre du conducteur, de l’état de la route, des panneaux de signalisation et des autres utilisateurs de la route.
Par ailleurs, la société OpenAI a récemment instauré des standards de sécurité de son produit pour garantir un développement, un déploiement et une utilisation responsable de l’intelligence artificielle [20].
Selon l’utilisation qu’il fera de ChatGPT, l’avocat modifiera la nature humaine de son activité. Or, l’étendue du risque prise en charge par l’assureur ne doit pas dépasser la qualification professionnelle inscrite au contrat d’assurance [21]. L’avocat utilisateur de ChatGPT serait bien inspiré de vérifier si sa police d’assurance couvre l’intelligence artificielle au sein du Cabinet et donner à son assureur les éléments permettant de calculer le taux de risques.
La responsabilité civile professionnelle est engagée lorsqu’il y a un lien de causalité entre la faute et le préjudice [22]. Or, l’utilisation que ferait un professionnel du droit de ChatGPT peut être totalement étrangère au préjudice. En effet, la responsabilité des professionnels n’est pas uniforme, elle peut relever de la mission de représentation.
La vocation généraliste de ChatGPT est la faiblesse, pour le moment, du logiciel en termes de responsabilité civile professionnelle.
Responsabilité contractuelle ou extracontractuelle, il est sûr que ChatGPT se nourrit des requêtes de ses utilisateurs. En cela, la société OpenAI est un exploitant de ChatGPT et tire profit des utilisations, des chats générés, ce qui doit entraîner une responsabilité liée aux risques et profits partagés. La solidarité des futurs époux sera probablement la règle [23].
La volonté du législateur européen est de définir le premier régime juridique au monde de la responsabilité extracontractuelle de l’intelligence artificielle dans le dessein de favoriser l’innovation tout en protégeant les personnes. Une proposition de Directive européenne relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle du 28 septembre 2022 a été éditée et amendée. IA Act doit être soumis au vote du Parlement européen, au cours de la session du 12 au 15 juin prochain.
A l’écoute des dernières interventions publiques de Monsieur Sam Altman, CEO de la société OpenAI [24], sa société participera et se conformera aux exigences réglementaires, de transparence supplémentaire, de conception du modèle pour prévenir la génération de contenu illégal et la publication de résumés de données protégées par le droit d’auteur.
Conclusion.
Comme le dit Nietzsche, « Le mariage c’est la volonté à deux de créer l’unique », ici le progrès pour tous.
L’avocat saura utiliser et donc former ChatGPT à respecter ses exigences, selon le principe biblique « enseigne-moi à faire ta volonté » [25].
La société OpenAI, grâce à la puissance et à l’utilisation générale de ChatGPT, comme l’était internet à sa création, s’adaptera au cadre juridique européen de l’intelligence artificielle.
Alors, pour le meilleur et pour le pire, vive les mariés !