« Ultraman » est une figure emblématique de la culture populaire et de l’animation japonaise. Créé au Japon en 1966, il s’est rapidement imposé comme l’un des personnages les plus connus de l’animation japonaise. Sa renommée a donné naissance à une vaste franchise, riche en films, séries télévisées et divers produits dérivés. Ce héros, caractérisé par son costume métallique distinctif et son design particulier (avec des yeux grands et lumineux, une crête sur la tête et des motifs colorés sur le corps), Elle a été au cœur de l’une des premières décisions judiciaires [1] concernant l’atteinte aux droits d’auteur, en raison de la création automatisée avec IA générative.
En l’espèce, le 5 janvier 2024, la Shanghai Character Licence Administrative (SCLA) a introduit une action devant la Cour d’internet de Guangzhou, alléguant une infraction à ses droits de propriété intellectuelle par Tab. Cette dernière avait intégré une fonctionnalité d’intelligence artificielle sur son site web, permettant la génération d’images d’Ultraman à partir de descriptions textuelles fournies par les utilisateurs. Les images ainsi produites par le site du demandeur présentaient une ressemblance significative avec les œuvres protégées par le droit d’auteur du personnage d’Ultraman, dont SCLA détient les droits exclusifs en Chine. Ces reproductions comprenaient des éléments artistiques distinctifs, constitutifs de l’identité visuelle des personnages d’Ultraman. Selon le demandeur, l’accès à cette fonctionnalité de génération d’images était réservé aux membres du site, qui devaient acheter de « la puissance de calcul » pour créer des images. Cela a rapporté, selon le demandeur, des bénéfices à la partie défenderesse. Face à cette utilisation non autorisée de ses images sous droit d’auteur, SCLA a exigé au demandeur qu’elle mette fin immédiatement à toute production d’images d’Ultraman, qu’elle retire toutes les données relatives à Ultraman de ses ensembles de données d’entraînement et qu’elle indemnise SCLA pour les pertes économiques subies ainsi que pour les frais juridiques engagés.
La défense de la partie défenderesse repose sur plusieurs arguments : premièrement, la partie défenderesse a déclaré avoir cessé les activités jugées infractionnelles dès la notification des plaintes et de l’action en justice, témoignant ainsi de sa réactivité face aux préoccupations de SCLA. Deuxièmement, la société réfute toute intention délibérée d’exploiter sans autorisation les œuvres protégées de SCLA pour entraîner ses modèles d’IA ou pour produire des images similaires. Elle soutient ne pas être directement responsable de la création des images d’Ultraman car la fonction de génération d’images par IA du site web a été mise en œuvre par un prestataire de services tiers, qui n’est pas lié au défendeur. Troisièmement, le défendeur insiste sur le fait que les images étaient produites automatiquement par les utilisateurs et que la « puissance de calcul » nécessaire était offerte comme un bonus aux abonnés, ne générant aucun profit direct. Enfin, Tab a contesté l’ampleur des dommages économiques revendiqués par SCLA, soulignant un manque de preuves tangibles des pertes spécifiques ou autres frais évoqués. Elle affirme que toute responsabilité relative à la création des images devrait incomber au prestataire externe, et non à elle-même.
Sur ce dernier point, l’arrêt souligne que, dans le but de démontrer que les images contestées étaient fournies par un prestataire de services tiers, la défense a présenté un « Accord de Commande » [2] signé avec ledit prestataire, étayé par des preuves supplémentaires. Ces dernières incluent des captures d’écran de l’utilisation par le défendeur de l’interface backend du service cloud du prestataire de services, des informations courantes de l’interface et de la page de demande de soumission de la version de base de génération d’images IA, ainsi que des captures d’écran du contrat d’utilisateur de la plateforme cloud du prestataire de services tiers.
Le juge a évalué les arguments de défense de Tab ainsi que la validité de ses affirmations, en se fondant sur les faits et preuves présentés au procès. Comme résultat, le juge a déterminé que bien qu’Tab ait cessé de produire les images spécifiques d’Ultraman suite à la notification judiciaire, des infractions avaient été commises auparavant. La responsabilité de Tab a été donc affirmée malgré l’utilisation d’un service tiers pour la génération d’images, car les contenus produits via sa plateforme étaient jugés substantiellement similaires aux œuvres protégées par SCLA, violant ainsi les droits de reproduction et d’adaptation. La cour a également reconnu une monétisation indirecte, même sans preuve directe de profit tiré de la vente des images. Néanmoins, la cour n’a pas retenu la requête d’ordonner au Tab de retirer toutes les images d’Ultraman des bases de données du système d’IA, étant donné qu’il ne participe pas à la formation du modèle d’IA. Elle ordonne enfin le versement de dommages et intérêts à SCLA en réparation des préjudices économiques subis.
Compte tenu de l’intérêt de cette décision, nous allons analyser la décision à partir de trois sujets : les violations au droit d’auteur identifiées par le juge (1) ; la responsabilité du fournisseur de services d’IA générative (2) ; enfin, nous aborderons une question sur laquelle le juge n’a pas statué, à savoir les potentielles violations des droits d’auteur découlant de l’entraînement d’un système d’IA avec des données indirectement protégées par ces droits (3).
1. Les violations au droit d’auteur du fait de la création automatisée.
Le juge de Guangzhou a condamné le défendeur pour violation des droits de reproduction et d’adaptation des œuvres protégées dont SCLA est le titulaire. Pour justifier cette décision, la cour a constaté que Tab avait reproduit, sans autorisation, des images d’Ultraman, lesquelles étaient protégées par les droits d’auteur détenus par SCLA. Les images générées par l’IA de Tab ont été jugées substantiellement similaires aux œuvres originales protégées. De plus, en utilisant ces données pour créer de nouvelles images étroitement similaires aux créations originales d’Ultraman, l’entreprise propriétaire du système d’IA a également porté atteinte au droit d’adaptation, car la création de nouvelles œuvres dérivées à partir des œuvres originales nécessite une autorisation explicite. Enfin, la cour a considéré que la mise à disposition des images générées via le site web de Tab constituait une violation du droit de diffusion de l’œuvre protégée sur les réseaux d’information.
Ces réflexions pourraient être considérées comme extrapolables au droit français. Il faut noter que la juridiction a indiqué à plusieurs reprises qu’« aux termes des dispositions de l’article L122-4 du Code de la propriété intellectuelle, toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite. Il en est de même pour la traduction, l’adaptation ou la transformation, l’arrangement ou la reproduction par un art ou un procédé quelconque. La contrefaçon de droit d’auteur est constituée par la reprise des caractéristiques qui fondent l’originalité de l’œuvre et s’apprécie par les ressemblances que présente avec celle-ci l’œuvre arguée de contrefaçon et non par leurs différences » [3]. Ainsi, en cas de créations automatisées par intelligence artificielle, la reproduction non autorisée de plusieurs éléments d’une œuvre protégée, comme un personnage protégé par le droit d’auteur tel que Batman ou Spider-Man, peut engager la responsabilité du créateur du système d’IA dès lors que des ressemblances substantielles existent entre l’image générée et le personnage original.
Après avoir établi les atteintes au droit d’auteur, la cour a ensuite déterminé la responsabilité découlant de ces violations. Nous examinerons ensuite comment le fournisseur du système d’IA générative a été condamné en raison de sa faute, prouvée par son manque de diligence et de vigilance dans la gestion et le contrôle de l’utilisation de son système d’IA.
2. La responsabilité du fournisseur des « services d’IA générative ».
À la fin de la formation d’un système d’intelligence artificielle et de sa mise en ligne, par exemple, sur une plateforme, le concepteur n’intervient pas directement sur la création des œuvres générées. En effet, c’est l’utilisateur qui initie la création en demandant à la machine de produire un texte ou une image à travers un prompt. À cet égard, le concepteur perd le contrôle sur la création automatisée, celle-ci étant ensuite entièrement déterminée par les instructions de l’utilisateur et exécutée à l’aide de divers procédés algorithmiques automatisés par la machine. De plus, le fournisseur d’un tel service n’a pas un rôle actif dans le processus de création automatisé.
Cependant, dans le cas présent, la cour a condamné le fournisseur de services d’IA générative, malgré le fait que celui-ci, en théorie, n’ait pas directement participé au processus de création des copies d’Ultraman. Tout d’abord, la cour a relevé un manque de diligence dans la gestion des plaintes et des signalements de la part du fournisseur. En l’occurrence, le juge a constaté qu’il n’existe aucun mécanisme de plainte ou de signalement pour les atteintes au droit d’auteur sur le site web. Par conséquent, il était difficile pour les titulaires de droits de protéger leur droit d’auteur par le biais d’un tel mécanisme.
Ensuite, il y a eu un défaut de diligence dans la prévention des risques d’atteinte au droit d’auteur. Selon la juridiction, le prestataire est tenu de prendre des mesures pour arrêter la génération, la transmission ou l’élimination du contenu illégal dès qu’il en prend connaissance. De plus, en tant que prestataire de services, il n’a pas informé ses utilisateurs de l’interdiction de porter atteinte aux droits d’auteur d’autrui, que ce soit par le biais de conditions d’utilisation ou d’autres moyens. Sur cela, la cour précise que les fournisseurs de services d’IA générative ont l’obligation d’informer leurs utilisateurs des risques potentiels de ces actions, notamment du fait qu’ils ne sont pas autorisés à utiliser ces services pour porter atteinte aux droits d’auteur d’autrui. Elle a également estimé que le demandeur était en mesure de contrôler ou de filtrer les prompts et les images générées afin de prévenir toute violation des droits d’auteur. L’absence de mécanismes efficaces pour empêcher la création d’images protégées par le droit d’auteur a été perçue comme une négligence dans la gestion des risques liés aux violations des droits de propriété intellectuelle.
Troisièmement, il a manqué de repères distinctifs. Selon la loi chinoise, lorsque le contenu généré par l’IA générative peut entraîner des malentendus ou des confusions pour le public, les fournisseurs sont tenus de placer des étiquettes visibles sur le contenu généré. Cela permet aux titulaires de droits de reconnaître que le contenu marqué a été généré par l’IA et d’adopter des mesures pour protéger leurs droits. Dans ce cas, la défenderesse n’a apposé aucun marquage sur les images générées en litige, ne respectant ainsi pas ses obligations en la matière.
C’est ainsi que le demandeur, en tant que fournisseur de la plateforme permettant la génération d’images, est tenu pour responsable du contenu produit par son service, même si ce contenu est généré par les utilisateurs. La cour a estimé que les entreprises qui proposent des outils ou des services susceptibles de créer ou de diffuser du contenu ont l’obligation de veiller à ce que leur utilisation ne viole pas les droits d’auteur.
En examinant la possibilité d’une responsabilité similaire en droit français et européen, il semble que les fournisseurs de services d’IA générative aient des obligations de vigilance et de diligence et puissent être tenus responsables des violations du droit d’auteur. Toutefois, les contours de cette responsabilité demeurent incertains.
Tout d’abord, nous considérons que l’article 17 de la directive (UE) 2019/790 ne s’appliquerait pas dans le cas de l’IA générative. En effet, la définition de « fournisseur de services de partage de contenus en ligne » dans cette directive ne serait pas pertinente ici, car elle concerne spécifiquement des services dont l’objectif principal est de stocker et de donner au public l’accès à une grande quantité d’œuvres protégées par le droit d’auteur ou d’autres objets protégés, généralement téléversés par les utilisateurs eux-mêmes. Cela inclut des plateformes comme YouTube ou d’autres services similaires sur lesquels les utilisateurs téléversent du contenu protégé, et où la plateforme organise, stocke et promeut ce contenu.
Dans le cas de l’entreprise concernée par l’affaire, son activité ne porte pas sur le stockage et le partage de contenu téléversé par les utilisateurs, mais sur la génération de contenu (notamment des images) via un système d’IA générative qui fonctionne à partir de prompts fournis par les utilisateurs. Tab utilise un modèle d’IA pour créer de nouvelles images à partir des instructions des utilisateurs, ce qui, selon nous, diffère du rôle d’un service de partage de contenu, qui se concentre sur le stockage et l’accès à du contenu existant. C’est pourquoi l’article 17 de la directive (UE) 2019/790 ne serait pas applicable dans ce contexte.
D’autre part, nous considérons qu’il est possible que l’entreprise Tab corresponde à la définition de « fournisseur » de l’article 3.3 du Règlement (UE) 2024/1689 du Parlement européen et du Conseil. Ce dernier définit un fournisseur comme « une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit ». Dans ce contexte, l’article 53-1-c du règlement pourrait s’appliquer à des fournisseurs comme Tab, en particulier en ce qui concerne l’obligation de mettre en place une politique respectant les droits d’auteur. Néanmoins, il reste à déterminer les sanctions qui pourraient s’appliquer dans ce type de situation.
En dépit de ces dispositions spéciales, on s’aperçoit que la société Tab a tiré profit de la création non autorisée de reproductions similaires à un personnage protégé par le droit d’auteur. Il a été établi au cours du procès que cette dernière n’a pas fait preuve de diligence raisonnable pour prévenir les violations des droits d’auteur. En conséquence, il apparaît justifié d’envisager une sanction à l’encontre de l’entreprise en raison de comportements ayant conduit à de telles atteintes. À cet égard, la décision rendue par le juge de Guangzhou recèle des éléments susceptibles d’inspirer les magistrats d’autres juridictions de tradition civiliste, en particulier concernant l’évaluation de la vigilance et des obligations des fournisseurs de services d’intelligence artificielle générative, ainsi que les sanctions applicables en cas de violation des droits d’auteur résultant de la création automatisée.
Après avoir examiné la responsabilité des fournisseurs de services d’IA générative, il est important de traiter un aspect que le juge n’a pas abordé dans cette affaire : les violations du droit d’auteur résultant de l’utilisation non autorisée de données indirectement protégées pour l’entraînement de l’IA.
3. Les possibles violations au droit d’auteur dans le cadre de l’entraînement de l’IA.
Jusqu’à présent, de nombreuses actions en justice ont été intentées, principalement aux États-Unis, à l’encontre de grandes entreprises spécialisées dans le développement de modèles d’intelligence artificielle, telles que Google ou OpenAI, en raison de potentielles violations des droits d’auteur survenant lors de la phase d’entraînement des systèmes d’IA. Or, la majorité de ces affaires demeure en instance de jugement. À cet égard, il est quelque peu décevant que la cour ait choisi de ne faire aucun commentaire sur cette question, justifiant sa position par le fait que la partie défenderesse n’avait pas participé à la création du modèle d’intelligence artificielle en cause.
Malgré ce silence, nous estimons important de faire quelques commentaires sur certains aspects qui pourront être pris en compte à l’avenir sous le prisme du droit français. Il convient de souligner que l’entraînement d’un système d’intelligence artificielle est une phase importante, car il conditionne directement la capacité du système à effectuer des tâches spécifiques avec précision et efficacité. Au cours de cette phase, l’IA apprend à reconnaître des modèles, à interpréter des données et à prendre des décisions en fonction des exemples qui lui sont fournis. Cependant, l’utilisation de ces données pendant l’entraînement peut se heurter à des obstacles juridiques, notamment les restrictions imposées par le droit d’auteur. En effet, les données nécessaires à l’entraînement peuvent inclure des œuvres protégées par le droit d’auteur. Leur utilisation sans autorisation préalable des ayants droit constitue alors une violation de ces droits, ce qui peut compromettre l’exploitation ultérieure du système d’IA entraîné [4].
À cet égard, il faut préciser en amont que les données en tant que telles ne bénéficient pas de protection par un droit privatif. Comme l’a souligné la professeure Dusollier, cette orientation législative vise à assurer « le libre flux des données à toutes les étapes de la chaîne de valeur générée par les données numériques » [5]. De même, le Conseil supérieur de la propriété littéraire et artistique a indiqué que les données (brutes en l’occurrence) ne constituent pas « un objet protégé par la propriété littéraire et artistique mais un élément rudimentaire d’information couvert par la liberté d’expression » [6]. Toutefois, si les données répondent aux critères nécessaires pour être considérées comme une œuvre de l’esprit, elles seront alors protégées de manière indirecte par le droit d’auteur. En conséquence, toute collecte et utilisation non autorisées de ces données indirectement protégées pourraient constituer une appropriation et, par conséquent, une violation des droits d’auteur.
Dans cet ordre d’idées, notons que l’utilisation non autorisée de données indirectement protégées par le droit d’auteur peut entraîner une violation du droit de reproduction, conformément à l’article L122-3 du Code de la propriété intellectuelle (CPI) et à l’article 2 de la Directive 2001/29/CE. En effet, d’un côté, la collecte de données implique leur stockage sur un serveur, interne ou externe, ce qui constitue une fixation matérielle non autorisée des œuvres et, de fait, une reproduction au sens de l’article L122-3 du CPI. De plus, pour que les données soient exploitables par les machines, il est souvent nécessaire de convertir les fichiers dans des formats lisibles par des machines, ce qui pourrait également constituer une violation du droit d’adaptation pour la transformation du format du fichier. À cela s’ajoute le fait que, dans plusieurs cas, l’incorporation d’œuvres protégées dans les jeux de données d’entraînement s’était faite sans autorisation. Cette situation pourrait porter atteinte aux droits exclusifs de reproduction du titulaire des droits d’auteur, y compris la reproduction non autorisée des œuvres à des fins d’entraînement de l’IA.
En effet, plusieurs questions demeurent sans réponse quant à la manière dont le juge pourrait résoudre les problématiques liées aux mesures réparatrices causées par les atteintes aux droits d’auteur, notamment en ce qui concerne les modalités techniques d’une telle décision. Si le système d’IA a déjà été entraîné avec ces images, la simple exclusion des jeux de données (datasets) serait-elle suffisante ?
Faudrait-il également réentraîner la machine pour éliminer toute trace des données indirectement protégées par droit d’auteur ? l’interdiction de l’utilisation des noms de personnages réels en tant que prompt constituerait-elle une mesure réparatrice acceptable ? Ces questions sont pertinentes, car elles soulèvent des enjeux techniques et juridiques complexes liés au désapprentissage et à la purification des modèles d’IA. En effet, il est légitime de se demander si la suppression des données sources suffit à éliminer l’influence de ces données indirectement protégées sur un modèle déjà entraîné, ou s’il est nécessaire de recourir à un réentraînement ou à des techniques spécifiques de désapprentissage pour assurer une conformité totale aux droits d’auteur. Ces interrogations restent en suspens dans l’attente d’une décision judiciaire qui se prononcera sur la licéité de l’utilisation des données pour l’entraînement des systèmes d’intelligence artificielle ainsi que sur les conséquences des atteintes aux droits d’auteur dans les cas de violations.
En somme, l’affaire « Ultraman » met en lumière les défis juridiques complexes posés par l’usage des systèmes d’intelligence artificielle générative, en particulier en ce qui concerne les violations des droits d’auteur. La décision rendue par la Cour d’Internet de Guangzhou constitue une avancée notable en établissant des principes de responsabilité pour les fournisseurs de ces services. Toutefois, de nombreuses questions demeurent en suspens, notamment concernant les modalités de réparation des dommages causés par l’utilisation non autorisée de données protégées durant l’entraînement des IA.
Les décisions judiciaires futures, tant en Chine qu’en France ou dans d’autres juridictions, seront importantes pour définir les contours de cette responsabilité et pour élaborer un cadre juridique clair et adapté à l’ère de l’intelligence artificielle. Les entreprises spécialisées dans le développement et l’exploitation de ces technologies doivent se préparer à ces évolutions en adoptant dès maintenant des mesures de diligence et de vigilance accrues.
Ainsi, l’émergence d’une jurisprudence cohérente dans ce domaine sera déterminante pour l’équilibre entre l’innovation technologique et la protection des droits d’auteur, un enjeu qui reste majeur pour les années à venir.