Face à cette situation, ces plateformes s’autorégulent en adoptant deux comportements contradictoires. Elles peuvent soit adopter un comportement passif consistant en l’absence de censure des propos haineux, soit un acte actif exprimé par l’exercice d’une politique de sur-modération des contenus pourtant licites. Ainsi, sur ce dernier point, une question pertinente mérite d’être posée, celle de savoir s’il est possible d’engager la responsabilité des intermédiaires d’Internet lorsque, par la modération des contenus, ceux-ci portent atteinte à la liberté d’expression.
La réponse à cette question est certes positive, mais pas satisfaisante, car du fait de l’autorégulation, les réseaux sociaux bénéficient d’un régime de Responsabilité limité (I). Cependant, avec l’adoption du Digital Services Act le 23 avril 2022, entré en vigueur le 17 février 2024, nous assistons à la mise en place d’une responsabilité renforcée des hébergeurs contrôlée par la puissance publique (II).
I- Une responsabilité limitée du fait de l’autorégulation des réseaux sociaux.
Faute de contrôle régalien, les réseaux sociaux disposent d’un pouvoir discrétionnaire qui leur permet de modérer ou de ne pas censurer les contenus illicites publiés sur leurs plateformes. Ainsi, l’engagement de leur responsabilité se trouve limité en raison du manque de transparence dans la modération des contenus.
Le manque de transparence peut être justifié par l’ampleur de l’activité rendant imprévisible la quantité de contenus publiés. Ainsi, sur YouTube, toutes les trois secondes, 24 heures de vidéos sont téléchargées [1]. Il n’est donc pas possible de confier le contrôle des contenus à des modérateurs humains au détriment d’une technologie très efficace, capable de détecter automatiquement un contenu illégal.
Dès lors, il semble logique que ce soient des algorithmes qui effectuent le retrait des contenus illicites à la place des modérateurs humains.
Néanmoins, le manque de transparence des algorithmes peut entrainer des discriminations, car ces intermédiaires d’Internet publient rarement des rapports annuels complets sur leur politique de modération. C’est pourquoi il existe des difficultés liées à la connaissance des critères et des motifs d’exclusion de contenus [2].
D’ailleurs, ces algorithmes, qui ne sont pas des êtres humains, ont souvent du mal à identifier le caractère illégal d’un contenu. En effet, tous les contenus haineux publiés ne sont pas forcément illicites. Certains d’entre eux peuvent relever d’une mauvaise blague ou de projets artistiques. Sur ce dernier point, les algorithmes, à l’image même des juridictions étatiques, ont du mal à apprécier ce type de contenu. L’affaire de la photographie de la fameuse « fille au napalm » l’illustre très bien. C’est également le cas du tableau de Courbet, L’Origine du monde, œuvre d’art représenté par un sexe féminin mis en profil par un professeur, mais retiré par les algorithmes de Facebook de manière abusive en les qualifiant de contenu à caractère pornographique. En d’autres termes, le caractère faillible des algorithmes contribue à la multiplication des atteintes à la liberté d’expression.
À l’époque, la loi Avia imposait aux plateformes une obligation de retrait dans un délai de 24 heures des contenus manifestement illicites. Par conséquent, si le Conseil constitutionnel, dans sa décision du 18 juin 2020, a déclaré inconstitutionnelles les dispositions de la loi Avia [3], se sont sans doute pour éviter un risque de sur-censure des algorithmes et sauver la liberté d’expression des internautes.
Enfin, alors que la directive européenne justifie l’absence de contrôle étatique par des motifs économique, les juges invoquent la liberté d’expression pour expliquer ce manque de contrôle dans l’arrêt Netlog. L’affaire portait sur la conformité d’un système de filtrage mis en place par la plateforme Netlog avec le droit de l’Union européenne. D’après la Cour de justice, l’injonction de mettre en place un système de filtrage imposerait à l’opérateur du réseau social Netlog, une obligation générale de surveillance qui est interdite par la directive européenne. C’est pour cette raison que les plateformes du web participatif ont longtemps bénéficié du régime de responsabilité limité des hébergeurs [4] établi par l’article 6. I. 2 de la loi de confiance en l’économie numérique (LCEN) du 15 juin 2004. En effet, il résulte des dispositions de l’article Art.6. I.7 LCEN que les réseaux sociaux ne peuvent pas engager leur responsabilité s’ils n’avaient pas eu connaissance du caractère illicite des publications ou s’ils l’ont retiré promptement après un signalement. Cela revient à dire que les hébergeurs ne sont pas tenus d’une obligation générale de surveillance des contenus qu’ils stockent. Ils sont également dépourvus d’une obligation générale de rechercher des faits illicites.
Toutefois, notons que l’arrêt Netlog portait en germe les limites de l’autorégulation entérinée par l’affaire Casapound [5]. En l’espèce, Facebook avait désactivé les pages d’un parti politique. La Cour de justice a estimé que le réseau social Facebook devait respecter la liberté de participation au débat public de ses internautes. Cet arrêt est un exemple de la mise en œuvre du contrôle de la politique de modération des réseaux sociaux au nom de la liberté d’expression par les juridictions italiennes.
En un mot, il apparaît clairement que la modération des contenus ne fait pas l’objet d’une corégulation, ni d’une régulation étatique, mais d’un transfert de contrôle de l’État à des entreprises privées. Cependant, avec l’adoption du Digital Services Act, nous passons d’une responsabilité limitée marquée par l’autorégulation à une responsabilité renforcée, fruit d’une corégulation entre l’État et les plateformes.
II- Vers une responsabilité renforcée des réseaux sociaux.
Adopté le 23 avril 2022 et entré en vigueur le 17 février 2024, le Digital Services Act marque un tournant décisif dans la régulation juridique des réseaux sociaux. L’objet de cette proposition est de mettre fin au régime d’irresponsabilité des plateformes en les obligeant à être transparentes sur leur technique de modération des contenus.
La transparence doit être entendue comme un mécanisme garantissant l’accessibilité à l’intégralité de l’information sur la politique de modération des plateformes.
Autrement dit, les informations sur les motifs du retrait d’un contenu illégal ou sur sa remise en ligne doivent être portées à la connaissance de l’utilisateur et du gouvernement. À ce propos, la transparence apparaît comme un principe essentiel permettant d’adapter la régulation étatique à l’évolution constante de la sphère des plateformes en ligne.
Dans cette optique, le Digital Services Act impose de nombreuses obligations de transparences aux réseaux sociaux afin de les responsabiliser davantage. Ainsi, aux termes des dispositions de l’article 14 du règlement européen, les plateformes ont l’obligation d’expliquer de manière claire les conditions générales d’utilisation, leurs politiques et moyens de modération des contenus. En particulier, concernant les algorithmes, l’article 14 précité prévoit la nécessité d’un réexamen par des modérateurs humains.
Par ailleurs, en vertu des termes de l’article 15 du règlement, les plateformes sont tenues de publier un rapport de transparence complet au moins une fois par an sur leur politique de modération des contenus. Ces rapports doivent dresser le bilan des actions positives et négatives créées par la transparence des mesures de modérations mises en place par les réseaux sociaux. Notons que certaines plateformes comme Facebook publient déjà des rapports de transparence. Ainsi, Anton Battesti, responsable des affaires publiques Facebook France, avait récemment révélé que de juillet à septembre 2019, Facebook a retiré 7 millions de contenus haineux dans le monde. Sur 7 millions, il y avait eu 1,5 million d’appels, c’est-à-dire 100 000 contenus retirés à tort qui avaient été plus tard remis en ligne [6].
Quoi qu’il en soit, la transparence des procédures d’exclusion permet d’accroître la responsabilité des réseaux sociaux. Ils sont tenus de respecter les obligations de transparence mises à leur charge par le règlement. En cas d’inobservation de ces obligations, ces plateformes s’exposent à des sanctions pécuniaires pouvant atteindre 6% de leurs revenus ou chiffre d’affaires annuel du fournisseur concerné (art. 74).
En définitive, que les réseaux sociaux jouent un rôle actif ou passif dans l’encadrement de la liberté d’expression, ils bénéficient d’un régime de responsabilité limitée. Néanmoins, le bilan est positif avec l’adoption du DSA. La liberté d’expression est désormais protégée grâce à la consécration du principe de transparence et la mise en place de plusieurs obligations à la charge des plateformes.
Cependant, malgré l’entrée en vigueur du Digital Services Act, les plateformes continueront à échapper aux poursuites et aux condamnations de la justice étatique, car elles conservent une large autonomie dans la détermination de l’illicéité d’un contenu.