Mais dans quelles mesures un réseau social, entreprise privée, peut-il décider unilatéralement de censurer un contenu publié sur sa plateforme ?
1. La censure par les réseaux sociaux.
Pour justifier la suspension du compte de Donald Trump, Twitter prétend qu’il n’aurait pas respecté les conditions générales d’utilisation du site, notamment pour la partie concernant l’apologie de la violence. Pour le réseau social, deux séries de tweets ont posé problème : avant et après l’invasion du Capitole par les partisans de Donald Trump.
Dans un premier temps, Twitter a supprimé trois tweets du président car ils ne condamnaient pas les violences alors en cours au Capitole, ce qui a valu au compte @realdonaldtrump une suspension de 12h, avec menace de suspension définitive en cas de récidive. Or, le lendemain, Donald Trump a de nouveau tweeté, indiquant notamment qu’il ne se rendrait pas à la cérémonie d’investiture de Joe Biden et adressant son soutien aux « patriotes américains ». Ces deux messages ont été interprétés par le réseau social comme « incitant à la violence et cette récidive a conduit à la fermeture permanente de son compte.
De son côté, Facebook a également agi en plusieurs temps. Le jour des événements du Capitole, le réseau social a suspendu le compte de Donald Trump pour 24h. Mais dès le lendemain, le fondateur de Facebook lui-même a annoncé sa décision d’étendre la sanction jusqu’à la passation de pouvoirs, prolongée ensuite pour une durée indéfinie. Le réseau social reprochait à l’ancien président de « fomenter activement une insurrection violente destinée à contrecarrer la transition pacifique du pouvoir » via une série de messages incendiaires.
2. Une auto-régulation des plateformes
Pourtant le réseau social Facebook conçoit lui-même la nature problématique du fait qu’une entreprise technologique puisse empêcher un dirigeant élu de s’exprimer.
C’est pourquoi, pour la première fois, le « conseil de surveillance » mis en place en octobre dernier par le réseau social devra statuer sur la suspension du compte de l’ancien président du réseau social.
Ce conseil de surveillance, instance indépendante du groupe Facebook, a pour objectif de définir les règles relatives à la modération des contenus de la plateforme, les décisions prises étant contraignantes pour Facebook. L’instance peut être saisie par les équipes du réseau social ou par les utilisateurs mécontents de la suppression d’une publication, mais il est pour l’instant seulement possible de contester la suppression d’un contenu et non de demander à intervenir sur une publication en ligne.
3. La règlementation applicable.
Côté français, le gouvernement a soutenu en 2020 le projet de loi de la députée Laetitia Avia qui visait à réguler les réseaux sociaux pour mieux lutter contre la haine en ligne. Mais adopté par le Parlement, le texte [1] a été censuré par le Conseil constitutionnel, au motif qu’il présentait trop de risques pour la liberté d’expression, notamment sur l’obligation pesant sur les réseaux sociaux de retirer en 24h les contenus illégaux.
Néanmoins en novembre dernier, le « parquet numérique », prévu par cette même loi Avia, a été créé, permettant de centraliser et de simplifier les dépôts de plainte pour apporter une réponse judiciaire plus efficace face aux messages de haine en ligne. En outre, le champ de compétence de ce pôle spécialisé a été élargi pour y intégrer les infractions, commises sur internet, de provocation directe non suivie d’effet à la commission d’un crime ou d’un délit, les délits de provocation à la discrimination, à la haine ou à la violence, d’injure publique et de diffamation publique en raison de l’origine, de la race, de la religion, du sexe ou de l’orientation sexuelle, ainsi que le harcèlement moral lorsque les messages comportent des éléments permettant de retenir une circonstance aggravante (origine, race, religion de la victime).
La France joue aussi la carte européenne avec le Digital Services Act [2], projet de règlement européen publié en décembre dernier, qui doit contraindre les plateformes à assumer la responsabilité des contenus publiés sur leur plateforme et à coopérer avec les gouvernements pour leur modération. Le règlement, encore au stade de projet, sera discuté avec le Parlement européen et les Etats membres. Le texte final, attendu pour la fin d’année, sera directement applicable dans l’Union européenne.