Un sujet proposé par la Rédaction du Village de la Justice

ChatGPT et responsabilité civile professionnelle.

Par Jean-François Aubert, Avocat.

2983 lectures 1re Parution: 4.75  /5

Explorer : # responsabilité civile professionnelle # utilisation de l'intelligence artificielle # transparence et information # réglementation européenne

Le site ChatGPT est séduisant pour les professionnels particulièrement pour les professionnels du droit. La lecture de milliers d’articles de loi, de décisions de justice en quelques minutes, le bonheur du gain de temps !
Le mariage heureux entre l’avocat et ChatGPT semble annoncé, reste à identifier le cadre juridique, notamment en cas d’erreur de la consultation « coproduite » par un avocat et ChatGPT, qui serait responsable ?
L’enjeu est important car la vertu de la responsabilité civile professionnelle est de protéger les personnes en diminuant le risque de dommages et en indemnisant les victimes.

-

Quelle est la responsabilité d’un avocat qui utilise ChatGPT dans l’exercice de sa profession ?

Selon sa déontologie

« L’avocat exerce ses fonctions avec dignité, conscience, indépendance, probité et humanité, dans le respect des termes de son serment » [1].

Ainsi, l’avocat assume personnellement la mission qui lui a été confiée. La substitution de l’avocat, même partielle, par une intelligence artificielle est une violation de cette obligation professionnelle.

Pourrait-il se retourner contre la société OpenAI créatrice du service ChatGPT ?

En attendant que le régime juridique européen de la responsabilité de l’intelligence artificielle, IA Act, soit prêt, avec des normes de sécurité, des certifications et des audits spécifiques, les régimes actuels de responsabilité civile, contractuelle [2] et extracontractuelle [3], sont applicables.

Responsabilité civile contractuelle.

Les conditions d’utilisation éditées par la société OpenAI interdisent de faire passer les réponses informatiques de ChatGPT pour des réponses faites par un humain [4].

Selon ces conditions d’utilisation facilement disponibles sur le site de ChatGPT, la société OpenAI nie toute responsabilité sur les réponses formulées, à charge pour l’utilisateur de vérifier la conformité des réponses par rapport à la loi [5].

Il est certain que ChatGPT, comme les autres intelligences artificielles ne peuvent pas être automatiquement responsables. Décider l’inverse serait déresponsabiliser tout utilisateur.

La police d’utilisation [6] de ChatGPT requiert des exigences supplémentaires pour certaines utilisations notamment dans le secteur juridique informant de l’utilisation de l’intelligence artificielle et de ses limites, encore faut-il les connaître…

Il est vrai que l’utilisateur ne sait rien du cœur de ChatGPT, de son algorithme, des limites imposées au logiciel, des garanties prises lors de sa conception, de son entrainement à la création d’un langage humain, du tri des bases de données, de l’utilisation des « conversations » créées, de la conservation des données personnelles et non personnelles [7].

Pour autant, la société OpenAI cocontractante a un devoir de transparence et d’information préalable.

Consciente des limites de son produit, la responsabilité de la société OpenAPI doit être à la hauteur du risque généré. Il s’agit d’une responsabilité proportionnelle aux risques.

Et sur ce point, la société OpenAI n’est pas dans la séduction trompeuse du futur marié ! En effet, le descriptif de ChatGPT fait en première page du site internet est clair en indiquant en première ligne que le risque d’erreur de ChatGPT est important.

« Nous avons entrainé un modèle appelé ChatGPT qui interagit de façon conversationnelle. Le format dialogue permet à ChatGPT de répondre aux questions à venir, d’admettre ses erreurs, de challenger ses bases erronées et de rejeter les questions inappropriées » [8].

Ce descriptif sur le site ChatGPT est la meilleure clause exonératoire de responsabilité jamais écrite. D’abord, le service y est justement défini sans tromperie, ensuite, il est écrit en toute transparence, clarté, et le tout en première ligne qu’il y a des « erreurs » voire des « absurdités ». Aujourd’hui, ChatGPT est un prototype cumulant les versions, ChatGPT 4 actuellement, preuve que le produit est en phase d’innovation et de développement informatique, il doit être utilisé comme tel, à défaut, l’utilisateur serait de mauvaise foi et sa responsabilité professionnelle engagée à ce titre.

Au-delà des clauses des conditions générales d’utilisation, les contrats obligent non seulement à ce qui y est exprimé, mais encore à toutes les suites que leur donnent l’équité, l’usage ou la loi [9].

La responsabilité de la société OpenAI ne peut pas être écartée par une clause d’exonération des conséquences des fonctions essentielles de ChatGPT, sauf à vider de sa substance le contrat conclu avec chaque utilisateur.

A la question de la mise à jour de sa base de données, ChatGPT dans sa version gratuite répond « septembre 2021 » [10]. On comprend que les informations utilisées sont potentiellement périmées, et qu’il n’y a pas d’alerte préalable sur ce point. Si Microsoft vient d’annoncer que son moteur de recherche BING intégrera ChatGPT, lui fournissant ainsi des informations en temps réel , cela reste à confirmer par un engagement contractuel clair [11].

A la question de l’étendue de sa base de données, ChatGPT dans sa version gratuite répond ne pas avoir accès aux données protégées par le droit d’auteur, ni par les données payantes [12].

Or, tout avocat doit donner à ses clients un conseil selon le droit positif en vigueur.

Ces questions sont des points importants en matière de responsabilité civile professionnelle.

ChatGPT est un outil dit conversationnel, c’est-à-dire similaire dans la forme d’un langage humain. Alors, comment faire la différence entre l’erreur humaine et l’erreur générée par l’intelligence artificielle ? Question essentielle dès lors que la responsabilité professionnelle implique de faire un lien entre un dommage et une action, fautive ou non. Or, il est extrêmement compliqué d’identifier l’origine du dommage, l’erreur étant potentiellement partout, sur les données, sur la collecte des données, sur les prompts, sur le transformateur des données, sur la lecture des résultats et sur toutes les actions additionnelles à l’intelligence artificielle. De surcroît, ChatGPT est interopérable avec d’autres logiciels externes rendant encore plus complexe la traçabilité de l’erreur de production du résultat final.

Si la société OpenAI n’apporte pas des éléments de preuve nécessaires, le recours à l’expertise judiciaire est la seule solution pour identifier l’origine de la défaillance.

Encore faut-il que l’expert puisse en avoir la compétence. Peut-être que l’expert désigné par le Juge de la mise en état devra utiliser des solutions d’intelligence artificielle existantes permettant d’identifier la production de contenus artificiels [13]. A défaut, le Juge statuera en cas par cas, avec peut-être parfois une responsabilité de plein droit.

La responsabilité de l’avocat pourra être atténuée en considérant que personne n’a la science infuse, l’erreur est intrinsèque à l’être humain limité par nature. En l’occurrence, nul doute que ChatGPT améliorera le service rendu par les professionnels en abaissant leur taux d’erreur par la volumétrie des données sourcées qui dépasse de très loin les capacités du cerveau humain. Ne pas utiliser les outils modernes pour améliorer le conseil sera peut être une circonstance aggravante de la faute du professionnel du droit.

Autre prévision certaine, c’est l’utilisation par les clients de l’avocat de ChatGPT, qui en quelques secondes, auront une étude juridique venant challenger celle de leur avocat qui se verra ainsi contraint d’utiliser l’intelligence artificielle.

Dans sa police d’utilisation [14], la société OpenAI a déjà uni ChatGPT et l’avocat. Elle exclut toute utilisation de ChatGPT pour avoir des conseils juridiques sans la validation d’une personne qualifiée. De plus, l’intervention de l’avocat vient couvrir l’interdiction légale de la prise de décision fondée exclusivement sur un traitement automatisé via intelligence artificielle de données personnelles [15].

Couple en devenir, la société OpenAI devrait conseiller aux avocats des formations qualifiantes à l’utilisation de son intelligence artificielle.

Responsabilité civile extracontractuelle.

La société OpenAI est le seul point d’entrée pour avoir les éléments factuels nécessaires pour identifier une responsabilité. Cela entraîne deux conséquences.

La première conséquence est que la société OpenAI soit déclarée gardienne de la chose au sens du Code civil et de la responsabilité extracontractuelle [16]. Selon le Code civil, on est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde.

Elle doit donc apporter la preuve de n’avoir commis aucune négligence, ni faute. Il y a une présomption de responsabilité technique de la société OpenAI face à l’avocat, profane en intelligence artificielle.

Pour autant, la société OpenAI, par le fonctionnement même du logiciel qui est autonome et dépend de l’utilisation plus ou moins intelligente de chaque internaute, ne peut être considérée comme le seul gardien de la chose. L’avocat en tant qu’utilisateur de ChatGPT est pleinement responsable du dommage vis-à-vis de son client, il est le gardien juridique de ChatGPT et l’auteur de la prestation juridique.

Si le professionnel du droit utilise les services de ChatGPT il se doit d’en informer son client. En effet, l’obligation de loyauté impose d’être transparent sur cette utilisation.

D’ailleurs, le futur droit européen va instaurer une obligation de transparence au producteur d’intelligence artificielle qui devra informer les utilisateurs qu’ils interagissent avec un système d’intelligence artificielle.

La seconde conséquence est relative au régime de responsabilité des produits défectueux [17]. La société OpenAI a construit un produit technologique et en est, à ce titre, responsable en vertu du régime juridique des produits défectueux [18].

La société OpenAPI doit apporter sa coopération en qualité de fabricant et potentiel responsable du dommage même en l’absence de faute.

La notion de défaut d’un produit vise les comportements et actes non anticipés. La responsabilité d’OpenAI est responsable d’avoir mis sur le marché un produit non fini créant volontairement un risque, un risque d’autant plus élevé qu’il y a une utilisation autonome par tous les internautes.

Pour autant, ce régime s’applique principalement à la réparation du dommage qui résulte d’une atteinte à la personne, excluant la nature du préjudice causé par un mauvais conseil issu en partie d’un produit défectueux [19].

De plus, la technologie ChatGPT s’insère dans une chaîne de valeur globale allant de la création des données collectées jusqu’au résultat obtenu en fonction de la qualité de la requête formulée par les utilisateurs, sans pouvoir écarter l’hypothèse d’un virus ou d’un piratage. Un constructeur automobile n’est pas responsable de tous les accidents de la circulation qui selon les circonstances, peuvent dépendre du conducteur, de l’état de la route, des panneaux de signalisation et des autres utilisateurs de la route.

Par ailleurs, la société OpenAI a récemment instauré des standards de sécurité de son produit pour garantir un développement, un déploiement et une utilisation responsable de l’intelligence artificielle [20].

Selon l’utilisation qu’il fera de ChatGPT, l’avocat modifiera la nature humaine de son activité. Or, l’étendue du risque prise en charge par l’assureur ne doit pas dépasser la qualification professionnelle inscrite au contrat d’assurance [21]. L’avocat utilisateur de ChatGPT serait bien inspiré de vérifier si sa police d’assurance couvre l’intelligence artificielle au sein du Cabinet et donner à son assureur les éléments permettant de calculer le taux de risques.

La responsabilité civile professionnelle est engagée lorsqu’il y a un lien de causalité entre la faute et le préjudice [22]. Or, l’utilisation que ferait un professionnel du droit de ChatGPT peut être totalement étrangère au préjudice. En effet, la responsabilité des professionnels n’est pas uniforme, elle peut relever de la mission de représentation.

La vocation généraliste de ChatGPT est la faiblesse, pour le moment, du logiciel en termes de responsabilité civile professionnelle.

Responsabilité contractuelle ou extracontractuelle, il est sûr que ChatGPT se nourrit des requêtes de ses utilisateurs. En cela, la société OpenAI est un exploitant de ChatGPT et tire profit des utilisations, des chats générés, ce qui doit entraîner une responsabilité liée aux risques et profits partagés. La solidarité des futurs époux sera probablement la règle [23].

La volonté du législateur européen est de définir le premier régime juridique au monde de la responsabilité extracontractuelle de l’intelligence artificielle dans le dessein de favoriser l’innovation tout en protégeant les personnes. Une proposition de Directive européenne relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle du 28 septembre 2022 a été éditée et amendée. IA Act doit être soumis au vote du Parlement européen, au cours de la session du 12 au 15 juin prochain.

A l’écoute des dernières interventions publiques de Monsieur Sam Altman, CEO de la société OpenAI [24], sa société participera et se conformera aux exigences réglementaires, de transparence supplémentaire, de conception du modèle pour prévenir la génération de contenu illégal et la publication de résumés de données protégées par le droit d’auteur.

Conclusion.

Comme le dit Nietzsche, « Le mariage c’est la volonté à deux de créer l’unique », ici le progrès pour tous.

L’avocat saura utiliser et donc former ChatGPT à respecter ses exigences, selon le principe biblique « enseigne-moi à faire ta volonté » [25].

La société OpenAI, grâce à la puissance et à l’utilisation générale de ChatGPT, comme l’était internet à sa création, s’adaptera au cadre juridique européen de l’intelligence artificielle.

Alors, pour le meilleur et pour le pire, vive les mariés !

Jean-François Aubert - Avocat au Barreau de Paris - Droit et audit Informatique
www.aubertavocats.fr

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

8 votes

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

Notes de l'article:

[1Décret n°2005-790 du 12 juillet 2005 relatif aux règles de déontologie de la profession d’avocat. Article 3.

[2Articles 1193 et 1217 cciv.

[3Le régime de responsabilité du fait des produits défectueux est issu de la transposition en droit français de la directive européenne n°85-374 du 25 juillet 1985, transposé à l’article 1245 cciv et le régime de responsabilité fondée sur la garde de la chose de l’article 1242 cciv.

[4Article 2 c) « Restriction » Terms of use.

[5Article 3 a) « Restriction » Terms of use.

[7Depuis avril 2023, les utilisateurs ont une option de suppression de l’historique des conversations sur ChatGPT.

[9Article 1194 cciv.

[10Question formulée sur ChatGPT le 23/05/2023 : « Lorsque CHATGPT répond à une question, quelle est la date de mise à jour des données collectées sur internet au moment de la réponse ? » Réponse donnée : « En tant que modèle de langage, je suis basé sur l’architecture GPT-3.5 et mon entraînement s’est arrêté en septembre 2021. Cela signifie que mes connaissances sur les événements récents et les mises à jour sur Internet sont limitées à cette date. Je ne dispose pas d’informations en temps réel et je ne peux pas accéder à Internet directement. Par conséquent, veuillez garder à l’esprit que les informations que je fournis peuvent ne pas refléter les développements les plus récents ».

[12Question formulée sur ChatGPT le 23/05/2023 : « Sous forme de liste, donne toutes les références de toutes les bases de données utilisées par ChatGPT pour répondre aux questions » Réponse fournie : « En tant que modèle de langage, je n’ai pas un accès direct aux informations sur les bases de données utilisées pour mon entraînement. Je suis construit à partir d’un vaste corpus de texte provenant de diverses sources, notamment des livres, des articles, des sites web et d’autres documents disponibles publiquement. Mon entraînement s’appuie sur une grande quantité de données provenant d’Internet et d’autres ressources accessibles au public. Je ne suis pas en mesure de fournir une liste complète et détaillée des bases de données spécifiques utilisées.
Il est important de noter que je ne suis pas affilié à une base de données spécifique et que je ne peux pas accéder à des informations protégées par des droits d’auteur, des données privées ou des abonnements payants. Je suis conçu pour fournir des informations générales et des réponses basées sur mes connaissances préexistantes et mon entraînement sur un large éventail de données accessibles publiquement
 » Regenerate response.

[13https://news.microsoft.com/fr-fr/2023/05/23/build-2023-microsoft-met-lia-a-la-portee-de-tous/. De nouvelles capacités pour Microsoft Designer et Bing Image Creator permettent aux utilisateurs de vérifier si une image ou une vidéo a été générée par l’IA.

[14https://openai.com/policies/usage-policies / : « Engaging in the unauthorized practice of law, or offering tailored legal advice without a qualified person reviewing the information OpenAI’s models are not fine-tuned to provide legal advice. You should not rely on our models as a sole source of legal advice ».

[15Article 22.1. du RGPD.

[16Article 1242 cciv.

[17Nul doute qu’un logiciel autonome à la main de l’utilisateur est un produit.

[18La directive 85/374/CEE du 25 juillet 1985 sur la responsabilité du fait des produits défectueux fixe une responsabilité sans faute des fabricants et distributeurs lorsqu’un produit cause des dommages corporels ou matériels du fait d’un défaut. Article 1245 cciv

[19Article 1245-1 alinéa 1 cciv.

[20https://openai.com/safety-standards Update March 23, 2023.

[21Article L113-1 du Code des assurances.

[22Article 1240 cciv pour la responsabilité extracontractuelle et Article 1231 et suivants cciv pour la responsabilité contractuelle.

[23Article 220 cciv.

[24Tournée mondiale, y compris en France, avec la rencontre des dirigeants.

[25Psaume 143 : 10 de la Bible Ancien testament.

A lire aussi :

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 156 320 membres, 27838 articles, 127 254 messages sur les forums, 2 750 annonces d'emploi et stage... et 1 600 000 visites du site par mois en moyenne. *


FOCUS SUR...

• Assemblées Générales : les solutions 2025.

• Voici le Palmarès Choiseul "Futur du droit" : Les 40 qui font le futur du droit.




LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs