Un cadre national en anticipation du droit européen : la proposition de loi visant à identifier les contenus IA sur les réseaux sociaux.
La proposition de loi n°675 du 3 décembre 2024 déposée à l’Assemblée nationale visant à identifier les images générées par l’intelligence artificielle publiées sur les réseaux sociaux s’inscrit dans un mouvement législatif visant à lutter contre la désinformation et à renforcer la transparence sur les contenus numériques. Son principal objectif est d’imposer aux utilisateurs des réseaux sociaux une obligation explicite de signaler les images générées ou modifiées par intelligence artificielle.
L’exposé des motifs met en avant la nécessité d’une telle régulation face à la prolifération des deepfakes et des contenus manipulés, qui peuvent être utilisés à des fins de désinformation politique, économique ou sociale. Il souligne également le rôle des grandes entreprises technologiques dans la diffusion de ces contenus et la nécessité de les responsabiliser à travers l’imposition de mesures de détection.
Le texte de la proposition de loi prévoit l’introduction d’un article 6-6 dans la loi du 21 juin 2004 pour la confiance dans l’économie numérique [1].
Cet article imposerait à toute personne publiant une image générée ou modifiée par un système d’intelligence artificielle d’en mentionner explicitement l’origine, à travers un avertissement clair et visible. En outre, il imposerait aux services de plateformes en ligne de mettre en place des moyens techniques de détection de ces contenus et de vérifier la conformité de leur étiquetage. Un dispositif de signalement est également prévu pour permettre aux utilisateurs de signaler les contenus suspects.
Les sanctions en cas de non-respect de ces obligations sont significatives, notamment pour les utilisateurs qui ne mentionneraient pas l’origine artificielle de leurs images qui encourraient une amende de 3 750 euros.
Cette proposition s’inscrit dans la continuité d’autres mesures déjà adoptées en droit français.
La loi du 9 juin 2023 [2] impose aux influenceurs une obligation de mention « images virtuelles » pour les images ayant subi un traitement par IA modifiant leur visage ou leur silhouette.
Par ailleurs, le Code pénal interdit désormais les deepfakes à caractère sexuel réalisés sans consentement [3].
Toutefois, la proposition de loi de décembre 2024 va plus loin en élargissant le champ des obligations à tout utilisateur de réseau social, indépendamment de son statut d’influenceur.
Le cadre européen de régulation des contenus IA : l’article 50 du règlement AI.
Le règlement européen sur l’intelligence [4], dont certaines dispositions entreront en vigueur en août 2026, introduit un cadre harmonisé pour la transparence des contenus générés par IA.
Son article 50 impose plusieurs obligations aux fournisseurs et aux déployeurs de systèmes d’IA, en vue d’assurer une meilleure traçabilité et identification des contenus artificiels.
Le premier volet de l’article 50 impose aux fournisseurs d’IA générative de s’assurer que les contenus produits par leurs systèmes soient marqués dans un format lisible par machine, afin de permettre leur identification en tant que contenus artificiels. Cette obligation vise notamment à limiter la propagation de contenus trompeurs et à garantir que les plateformes et autres acteurs de l’écosystème numérique puissent mettre en place des outils de détection adaptés.
Le second volet de l’article impose aux déployeurs de systèmes d’IA générant des deepfakes de signaler explicitement que ces contenus ont été artificiellement générés ou manipulés. Une exception est toutefois prévue pour les œuvres artistiques, satiriques ou fictionnelles, pour lesquelles l’obligation de transparence ne doit pas entraver la diffusion ou la réception de l’œuvre.
L’article 50 ne prévoit pas d’obligation explicite pour les plateformes sociales telles qu’Instagram ou Facebook en tant qu’hébergeurs de contenus publiés par des utilisateurs.
Toutefois, il permet à la Commission européenne d’adopter des actes délégués afin d’harmoniser les obligations de détection et de signalement des contenus IA. Cela laisse entrevoir la possibilité que les plateformes soient à terme tenues de mettre en œuvre des dispositifs similaires à ceux envisagés par la proposition de loi française.
Une articulation entre le droit national et européen encore incertaine.
La proposition de loi française et le règlement européen poursuivent un objectif commun de transparence et de lutte contre la désinformation, mais présentent certaines différences notables.
D’un point de vue temporel, la proposition de loi anticipe l’entrée en vigueur des dispositions européennes en instaurant des obligations dès sa promulgation, alors que l’article 50 du règlement AI ne s’appliquera qu’à partir d’août 2026.
Cette anticipation est justifiée par la volonté de la France de prendre une position de leader dans la régulation de l’IA et d’offrir un cadre juridique avant l’harmonisation européenne.
D’un point de vue matériel, la proposition de loi française va au-delà du règlement IA sur plusieurs aspects.
Alors que l’article 50 impose principalement des obligations aux fournisseurs et déployeurs d’IA, le texte français instaure une obligation directe pour les utilisateurs finaux et prévoit des sanctions spécifiques en cas de non-respect.
Par ailleurs, il impose aux plateformes de mettre en place des outils de détection et de signalement des contenus IA, une exigence qui, en l’état, n’est pas directement imposée par le règlement européen mais pourrait l’être à l’avenir par des actes d’exécution.
En cas de divergence entre les deux dispositifs, la France pourrait être contrainte d’adapter sa législation nationale afin d’éviter tout conflit avec les obligations européennes à venir, ce qui a d’ailleurs été le cas récemment avec la modification de la loi influenceurs du 9 juin 2023 par ordonnance [5].
Conclusion.
L’encadrement des contenus générés par intelligence artificielle sur les réseaux sociaux est aujourd’hui une priorité législative, tant au niveau national qu’européen.
La proposition de loi française de décembre 2024 anticipe certaines obligations du règlement IA mais pourrait nécessiter des ajustements une fois le cadre européen pleinement défini.
La France semble vouloir prendre une avance réglementaire, mais la primauté du droit européen pourrait imposer des modifications futures.
Discussion en cours :
Exposé très clair !
Merci.