Il m’est déjà arrivé que ChatGPT invente une fausse jurisprudence pour répondre à mes questions juridiques ou cite des articles du Code de commerce inexistants.
En réalité, ChatGPT invente souvent des fausses réponses. C’est involontaire de sa part, il n’est pas conçu pour fournir la vérité absolue, ce n’est pas son rôle. Il a été entraîné pour prédire le mot suivant et pour créer des phrases cohérentes ou des phrases qui ont l’air exactes.
Pour les juristes, qui doivent s’appuyer sur des informations précises et fiables, il est fondamental de minimiser ces erreurs. C’est pourquoi je vous propose quelques conseils pratiques pour réduire les hallucinations de ChatGPT.
1. Demandez à ChatGPT de spécifier ses sources
Il est essentiel de guider ChatGPT vers des sources fiables. Cela peut se faire en spécifiant directement les sources dans le prompt ou en demandant à ChatGPT de préciser les sources utilisées pour répondre à votre question. Par exemple :
- Prompt générique : « Qu’est-ce que la rupture brutale des relations commerciales ? »
- Prompt amélioré : « Explique la notion de rupture brutale des relations commerciales en droit français, en te basant sur le Code de commerce et des décisions récentes de la Cour de cassation. Justifie ta réponse en consultant des sources juridiques fiables. »
En incluant une telle instruction, l’IA est dirigée vers des informations pertinentes et fiables, ce qui réduit le risque de fournir des réponses incorrectes.
2. Ne mélangez pas des questions très différentes dans un fil de discussion
Si votre discussion inclut plusieurs questions non corrélées ou sans rapport direct, l’IA pourrait tenter de créer des liens entre ces questions pour formuler une réponse, ce qui pourrait aboutir à des informations incorrectes ou incohérentes. Chaque nouvelle question ou sujet doit être abordé dans une nouvelle conversation distincte. Cela aide l’IA à se concentrer sur un seul sujet à la fois, réduisant ainsi le risque d’hallucinations et d’informations erronées.
3. Utilisez des prompts précis et détaillés
Les prompts vagues ou mal formulés augmentent le risque de réponses incorrectes. Il est donc important de formuler des demandes de manière précise et détaillée. Pour cela, j’utilise la méthode en 7 étapes, que vous pouvez retrouver dans mon article ChatGPT et le monde juridique : un duo gagnant. Plus le prompt est rédigé avec soin, moins l’IA a de chances de générer des informations incorrectes.
4. Utilisez la pratique du multi-prompting
Le multi-prompting consiste à utiliser plusieurs questions différentes pour aborder le même sujet sous divers angles. Cette méthode permet de comparer les réponses de l’IA pour en vérifier la cohérence, offrant ainsi un contrôle de qualité interne. Pour les juristes, cela peut être particulièrement utile pour s’assurer de la précision des informations.
Exemple de multi-prompting :
- 1. « Quels sont les principaux critères pour la validité d’un contrat commercial selon le Code de commerce français ? »
- 2. « Quels types de clauses contractuelles sont souvent contestées en droit des affaires ? »
- 3. « Peux-tu fournir des exemples de jurisprudence concernant la nullité des contrats commerciaux en France ? »
5. Vérifiez et croisez les informations
Ce conseil est le plus important : après avoir obtenu une réponse de l’IA, vérifiez toujours l’exactitude des informations. Utilisez des bases de données juridiques fiables et des textes législatifs pour valider les réponses fournies par ChatGPT. En croisant les informations avec des sources reconnues, vous pouvez minimiser le risque de prendre en compte des données erronées, assurant ainsi la fiabilité et la précision de votre analyse juridique.
Les IA génératives comme ChatGPT peuvent être des outils puissants pour assister les juristes, mais leur utilisation doit s’accompagner d’un contrôle rigoureux et d’une validation systématique des données. L’intervention humaine demeure indispensable pour garantir que les informations fournies sont correctes et pertinentes.