L’intelligence artificielle (IA) transforme en profondeur notre environnement professionnel. Elle révolutionne les pratiques à tous les niveaux : automatisation des tâches répétitives, rationalisation des processus, traitement prédictif de données massives ou encore assistance décisionnelle. Loin d’être une technologie neutre, l’IA bouscule les modèles d’organisation, les compétences requises, les relations humaines et les droits fondamentaux des salariés.
Face à cette mutation, le Comité Social et Économique (CSE) joue un rôle central. Il devient à la fois vigie démocratique, acteur de prévention, médiateur du changement et garant des libertés individuelles. Pour remplir cette mission, le CSE peut s’appuyer sur un corpus juridique de plus en plus fourni, tant au niveau national qu’européen.
L’un des piliers de ce cadre est le Règlement européen sur l’intelligence artificielle, ou IA Act, adopté en juin 2024. Ce texte majeur pose les bases d’une gouvernance de l’IA fondée sur les principes de transparence, contrôle humain, sécurité et responsabilité. Il classe les systèmes d’IA en fonction de leur niveau de risque (inacceptable, élevé, limité, minimal) et impose des obligations strictes pour les usages à haut risque, notamment en matière de recrutement, d’évaluation des performances ou de surveillance des salariés.
1. Le CSE, garant du dialogue social face à l’intelligence artificielle.
Depuis les ordonnances Macron du 22 septembre 2017, le CSE regroupe les anciennes instances représentatives du personnel : délégués du personnel, CHSCT, comité d’entreprise. Il est obligatoirement consulté sur les questions relatives à l’organisation du travail, l’emploi, la formation, les conditions de travail ou l’introduction de nouvelles technologies, comme le prévoit l’article L2312-8 du Code du travail.
Si un arrêt de la Cour de cassation du 12 avril 2018 (n° 16-27.866) avait laissé entendre que l’introduction d’un outil d’IA ne nécessitait pas systématiquement une consultation ou une expertise, notamment en cas d’impact jugé “mineur”, la jurisprudence récente est venue renforcer la position du CSE.
Ainsi, dans une ordonnance de référé du Tribunal judiciaire de Nanterre du 14 février 2025 (n° 24/01457), le juge a suspendu le déploiement d’un logiciel basé sur l’IA, faute de consultation préalable du CSE. La juridiction a considéré que même une phase pilote constitue une première mise en œuvre du projet, et à ce titre, impose une consultation obligatoire. Le déploiement sans concertation a été qualifié de trouble manifestement illicite.
Par ailleurs, l’article L4121-1 du Code du travail impose à l’employeur de prendre toutes les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs. Ce devoir de prévention couvre désormais les risques émergents liés à l’IA : surcharge informationnelle, stress algorithmique, perte d’autonomie ou surveillance intrusive.
Enfin, l’article L6321-1 oblige l’employeur à garantir l’adaptation des salariés à leur poste et le maintien de leur employabilité, notamment via la formation. Or, l’introduction de l’IA implique de profonds ajustements de compétences, auxquels le CSE peut contribuer en proposant des plans de formation adaptés.
2. Les enjeux éthiques, juridiques et sociaux de l’IA pour le CSE.
Au-delà du cadre organisationnel, l’IA soulève de profonds défis éthiques et juridiques, au premier rang desquels la protection de la vie privée et des données personnelles.
Le Règlement général sur la protection des données (RGPD) impose à l’employeur des obligations de transparence, de proportionnalité, de minimisation et de finalité du traitement. Lorsque des algorithmes exploitent les données des salariés à des fins d’analyse de performance ou de profilage, le CSE peut intervenir pour exiger des garanties claires, un droit à l’explication et des audits indépendants.
Dans l’arrêt Google Spain SL c. AEPD (CJUE, 13 mai 2014), la Cour de justice de l’Union européenne a ouvert la voie à une lecture plus rigoureuse du “droit à la transparence algorithmique”, en affirmant que les personnes concernées doivent pouvoir contrôler leurs données, même dans les systèmes automatisés.
La discrimination algorithmique est un autre danger concret. Les algorithmes peuvent reproduire, amplifier, voire légitimer des biais (sexe, âge, origine, etc.). Le CSE, dans son rôle de contre-pouvoir, est en droit de questionner les critères de fonctionnement de ces systèmes, de solliciter des expertises indépendantes, voire de suspendre leur mise en œuvre en cas de risques non maîtrisés.
L’arrêt de la CJUE du 27 février 2025 (affaire C-203/22) est venu renforcer les garanties procédurales en imposant une explication renforcée et un droit à la révision humaine pour toute décision automatisée ayant des effets significatifs sur une personne, y compris dans les relations de travail. Cet arrêt constitue un socle juridique nouveau pour le CSE.
L’arrêt de la Cour de cassation du 5 novembre 2014 (n° 13-22.717) rappelle à juste titre que toute transformation technologique importante doit faire l’objet d’une négociation ou d’une consultation formelle, sous peine d’entrave au dialogue social. Ce principe s’applique pleinement à l’introduction de l’intelligence artificielle, dont les effets, parfois invisibles, peuvent profondément reconfigurer les relations de travail.
Aujourd’hui, le Comité Social et Économique ne peut plus être un simple témoin de la transition numérique, il doit en être un acteur averti. L’IA ne doit pas être subie, mais discutée, régulée et encadrée. Le CSE possède pour cela des leviers puissants : le Code du travail, le RGPD, le règlement européen IA Act, et une jurisprudence de plus en plus favorable à une lecture protectrice du droit du travail.
Il appartient désormais aux élus du personnel, aux syndicats, mais aussi aux directions d’entreprise d’ouvrir un véritable espace de dialogue stratégique sur l’intelligence artificielle. Ce dialogue doit porter sur les impacts concrets, les garanties attendues, les formations nécessaires, et la vision partagée de l’innovation.
Car au fond, la question n’est pas seulement : l’IA entre-t-elle dans l’entreprise ? mais plutôt : "comment faire en sorte qu’elle y entre de façon humaine, éthique et socialement soutenable ?"
Si le XXIe siècle est celui de l’intelligence artificielle, alors le CSE en est l’un des gardiens humains essentiels. À défaut, nous risquons d’assister à l’une des plus graves vagues de casses sociales que le monde du travail n’ait jamais connues.
L’intelligence artificielle n’est pas qu’une question technologique, c’est un défi social, humain et éthique. Dans cette transition, le CSE n’est pas un obstacle à l’innovation, mais un acteur essentiel de son encadrement démocratique. Il doit être outillé, formé, consulté car c’est par le dialogue, l’anticipation et la transparence que l’IA trouvera sa place dans l’entreprise, sans sacrifier les droits fondamentaux des salariés.