Contenu utilisé dans la phase d’apprentissage et droit d’auteur.
L’auteur d’une œuvre de l’esprit jouit sur cette œuvre, du seul fait de sa création, d’un droit de propriété incorporelle exclusif et opposable à tous.
En effet, l’auteur d’une œuvre jouit de l’ensemble des droits conférés par le CPI dès sa création. Tout acte de reproduction doit donc faire l’objet d’une autorisation préalable de son auteur.
La création de contenu par l’IA générative repose sur l’input, qui est la base d’inspiration. Cette création se base sur des données initiales, généralement intégrées par l’utilisateur ou créateur de l’IA (apprentissage supervisé), ou trouvées et analysées automatiquement par l’IA (apprentissage non supervisé), dès lors les données alimentant l’IA générative peuvent potentiellement être protégées par le droit d’auteur.
Or, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Peut-on exploiter le contenu généré par l’IA ?
Les données output sont les informations résultant du traitement des données input par le logiciel, également appelées « données de résultat ».
Ces données, générées grâce au traitement des informations intégrées pendant la phase d’apprentissage, seront ensuite exploitées par le système d’IA.
Si les données générées reproduisent les caractéristiques originales des données d’entraînement, même de façon partielle, elles ne pourront pas être utilisées sans l’autorisation préalable des auteurs de ces données, sous peine que ce dernier puisse agir en contrefaçon.
Mais, mettre ce système en application s’avère difficile pour prouver que les caractéristiques originales de l’œuvre créée proviennent effectivement de données protégées. De plus, il est complexe de déterminer dans quelle mesure l’utilisateur de l’IA générative sera averti que la donnée générée contrefait une œuvre antérieure.
Droits éventuels portant sur la production de l’IA générative elle-même.
Pour qu’une œuvre soit qualifiée d’œuvre de l’esprit, elle doit correspondre à une création intellectuelle à la fois formalisée et originale.
Selon la conception du droit d’auteur français, si une personne morale peut être titulaire de droits d’auteur sous certaines conditions, seule une personne physique peut être l’auteur d’une œuvre de l’esprit. Elle est la seule à pouvoir concevoir une création intellectuelle unique qui reflète sa personnalité, en manifestant des choix libres et créatifs.
L’IA générative ne possède pas la même capacité créative que l’humain. Elle est donc exclue de la protection du droit d’auteur en l’absence d’intervention humaine. Cependant, lorsque l’humain participe activement au processus créatif en utilisant l’IA comme outil, en choisissant lui-même les données d’entraînement, en retravaillant la création générée par l’IA et en collaborant avec la machine pour créer une œuvre nouvelle, le régime des droits d’auteur pourrait s’appliquer à la condition de prouver que l’œuvre est originale, c’est-à-dire qu’elle porte l’empreinte de la personnalité de son auteur.
Par exemple, si une IA générative crée entièrement une œuvre musicale sans intervention humaine, cette création ne pourrait pas bénéficier de la protection accordée aux auteurs. En revanche, une œuvre créée par une personne utilisant un système d’IA comme outil d’aide à la création et reflétant ses choix personnels pourrait être qualifiée d’œuvre de l’esprit, permettant à cette personne d’être reconnue comme titulaire de l’œuvre. Il s’agit alors d’identifier la contribution de l’IA par rapport à la production proprement humaine.
Ce contexte soulève toutefois des problèmes de preuve : un titulaire pourrait prétendre avoir créé l’œuvre avec l’aide de l’IA, alors qu’elle pourrait en réalité provenir du travail autonome de l’IA. Il est donc crucial de trouver un équilibre juste pour protéger les droits d’auteur tout en tenant compte des apports de l’IA.
Quand l’IA échappe aux dispositions du droit d’auteur.
En France, les exceptions au droit d’auteur sont délimitées et encadrées strictement par les dispositions du Code de propriété intellectuelle.
L’exception de courte citation permettrait à tout tiers d’exploiter de courts extraits d’une œuvre, dans la mesure où cette exploitation est justifiée par le caractère pédagogique, scientifique ou informatif de l’œuvre à laquelle ces extraits sont intégrés Cependant, les IA génératives ne bénéficient pas de cette exception. En effet, les données intégrées se fondent dans le résultat final produit par l’IA, que ce soit une image, une musique, ou un texte. Ainsi, il n’y a pas véritablement de citation d’un auteur dans le cadre d’un projet pédagogique, scientifique ou informatif.
Par ailleurs, la directive européenne de 2019 sur le droit d’auteur a introduit une exception pour la fouille de textes et de données. Les défenseurs de l’IA générative utilisent cette exception pour légitimer la collecte et la reproduction de données en ligne.
En pratique, cela signifie que tout opérateur de solutions basées sur l’IA peut rassembler des contenus, même protégés par le droit d’auteur, tant qu’ils sont librement accessibles sur Internet.
Néanmoins, une exception à cette exception est prévue. Tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’y opposer en l’indiquant par tout moyen, grâce à son droit de retrait ou opt out. Dans ce cas, l’exception de « text and data mining » ne s’appliquera plus, et les systèmes d’IA devront à nouveau obtenir l’autorisation de l’auteur pour procéder à l’exploration de ses œuvres.
Toutefois, cette disposition est difficile à contrôler en pratique, car il est compliqué pour les auteurs de vérifier l’utilisation de leurs œuvres. Ces points soulignent les défis juridiques posés par l’utilisation des IA génératives et la nécessité d’adaptations législatives pour encadrer son utilisation.
Réglementation de l’intelligence artificielle par l’Union européenne.
La règlementation européenne proposée concernant l’intelligence artificielle (AI Act) reconnaît le droit d’opt-out des titulaires des œuvres, sauf lorsque ces textes sont utilisés à des fins de recherche scientifique. De plus, ce droit d’opt-out ne s’applique pas aux systèmes d’IA spécialement conçus et utilisés uniquement pour la recherche et le développement scientifiques.
Ainsi, pour que les auteurs sachent si leurs œuvres sont utilisées, le règlement impose des exigences de transparence aux développeurs d’IA. En effet, l’IA Act impose des obligations de transparence spécifiques pour garantir la traçabilité des données et des contenus, pour informer les utilisateurs et ceux dont les contenus sont exploités.
Selon les considérants 107 et 108, les fournisseurs de modèles d’IA sont tenus de rendre public un résumé des contenus utilisés pour l’entraînement de leurs systèmes, à cette fin le Bureau de l’IA doit proposer un modèle de résumé qui soit à la fois simple et informatif, permettant ainsi aux fournisseurs de facilement satisfaire à cette exigence en fournissant un descriptif adéquat. Il n’est pas attendu que le Bureau de l’IA examine chaque donnée d’entraînement individuellement pour vérifier le respect des droits d’auteur, mais plutôt qu’il s’assure que les fournisseurs respectent leur obligation de publication de résumé.
L’émergence de l’intelligence artificielle a profondément transformé les règles juridiques, notamment en matière de droit d’auteur, encourageant ainsi à reconsidérer les perspectives traditionnelles et à explorer de nouvelles méthodes d’adaptation dans un secteur en pleine mutation.
Approches alternatives : certification, marquage et responsabilité.
Il est envisageable de mettre en place des solutions alternatives au sein de l’UE, sous réserve d’une utilisation rapide de la technologie et d’une expertise non seulement juridique, mais aussi technique pour garantir l’efficacité du dispositif. Une proposition consiste à instaurer un contrôle préalable marqué par une certification et le marquage des contenus.
La certification impliquerait de certifier préalablement les modèles et les applications d’intelligence artificielle souhaitant proposer leurs services sur le marché européen. Cette certification pourrait être soit obligatoire pour accéder au marché européen, soit servir de label pour orienter les utilisateurs vers les IA les plus fiables et éthiques.
Par conséquent, cette certification peut s’appuyer sur plusieurs critères, notamment sur la nature et la qualité des jeux de données utilisés pour former le modèle, la présence ou l’absence de filtres dans le contenu généré, la conformité de l’utilisation des données d’entraînement et des données collectées auprès des utilisateurs avec le respect du droit d’auteur applicable aux données utilisées, et la prévention du risque d’hallucination ou de biais dans les réponses, entre autres. L’Union européenne envisage d’utiliser cette certification pour les systèmes à haut risque.
L’autre volet du contrôle préventif des IA consisterait à exiger le marquage des contenus générés pour les rendre identifiables. Cette solution est techniquement possible grâce à l’introduction d’une "griffe" marquant l’intervention de l’IA sur l’image, la vidéo, le code ou le texte généré.
En complément, un contrôle ex post pourrait être mis en place pour le traitement des plaintes et un régime de sanctions. Ce second volet viserait à identifier, corriger et sanctionner les dysfonctionnements des IAG selon un système de contrôle en aval ciblant certains acteurs en fonction des signalements reçus. Ce contrôle porterait sur l’exploitation de données personnelles ou soumises au droit d’auteur, ainsi que sur le fonctionnement du modèle ou de ses applications, notamment la recherche de biais et la vérification des filtres.
En outre, des réflexions sont en cours pour créer un régime de responsabilité spécifique aux IA, qui pourrait également concerner les IAG. La Commission européenne a proposé une directive relative aux règles de responsabilité civile extracontractuelle applicables aux outils d’intelligence artificielle, visant à adapter les règles en matière de charge de la preuve et de lien de causalité en cas de dommage lié à l’utilisation d’une IA, compte tenu de la technicité et de l’opacité des systèmes concernés [1].