Impact de l’IA sur le monde du travail.
L’IA, comme la robotique et l’économie de plateformes, déplacent et transforment les emplois. Les études de l’impact de l’IA sur le monde du travail annoncent des résultats fort variables : de 9 à 54% d’emplois menacés [1]. Les prévisions sont complexes car de nombreux facteurs autres que technologiques interviennent, dont les évolutions économiques, politiques et réglementaires.
Si le travail a toujours été impacté par la technique, l’IA génère aujourd’hui des transformations profondes, tant sur les conditions de travail que sur la nature même du travail. Certains emplois de caissiers, comptables, traducteurs sont remplacés par l’IA mais d’autres sont créés, notamment dans le domaine de l’informatique et l’ingénierie. L’un des dangers est la polarisation des emplois qualifiés versus les emplois dépréciés.
Cette transformation numérique affecte à la fois la quantité et la qualité des emplois. Selon l’OCDE [2], l’IA touchera quasiment tous les secteurs d’activité et toutes les professions mais à ce jour influe davantage sur la qualité du travail, sans l’édition 2023 de ses Perspectives de l’emploi. L’OCDE évoque « la forte incertitude qui entoure les effets actuels et surtout futurs de l’IA sur le plan de l’emploi ».
L’IA transforme les modes de travail. Cette transformation varie selon les secteurs d’activité. Pour les professions intellectuelles et scientifiques, de nombreuses taches impliquent l’extraction et la génération de contenu et l’IA permettra de libérer du temps pour des tâches à plus forte valeur ajoutée. Les professions les plus exposées seront les activités techniques, scientifiques, les services financiers et les métiers de l’information et de la communication. D’après une étude de Roland Berger [3] :
« Le secteur public sera également proportionnellement plus touché, car de nombreuses fonctions administratives peuvent être automatisées. Nous estimons que 37% des emplois publics sont exposés, contre 32% des emplois privés ».
L’IA est-elle créatrice ou destructrice d’emploi ? L’analyse est complexe. D’un côté, l’automatisation déplace certaines tâches du travail humain vers les machines (effet d’éviction). D’un autre, l’automatisation augmente la production et peut générer de nouvelles embauches (effet de productivité). Selon un outil de suivi international des licenciements dans le domaine technologique [4], plus de 59 000 employés de 245 entreprises comme Google, Amazon ou Discord ont vu leurs postes disparaître depuis janvier 2024. Rien n’indique cependant que le développement de l’IA soit systématiquement à l’origine de ces licenciements. Cependant, quelques sociétés ont clairement identifié l’IA comme un vecteur de réorganisation de leur personnel.
Un autre risque important est la concurrence internationale. L’entraînement des SIA peut être effectués dans différents pays, notamment par les « ouvriers du clic » [5] dans des pays à bas salaires. Ces travailleurs précaires réalisent un travail nécessaire de production, d’annotation et de tri des données qui constituent le carburant de l’IA. Pour les entreprises européennes éthiques, ce dumping social génère une distorsion de la concurrence. L’AI ACT publié le 12 juillet 2024 pourrait modifier la donne (voir ci-après).
L’IA est estimée en 2023 au quatrième rang des risques majeurs, derrière le climat, selon une étude Ipsos Axa.
Face à ce défi, la Commission européenne [6] propose une réponse portant sur les efforts d’éducation, de formation, d’amélioration des compétences de base (écriture, lecture, calcul et compétences numériques), avec le soutien des acteurs économiques et sociaux. Le Conseil économique, social et environnemental (CESE) [7] présente trois pistes complémentaires : développer une IA inclusive avec l’implication des travailleurs, anticiper le changement et, lorsque les plans sociaux sont inévitables, mener des restructurations socialement responsables.
IA et conditions de travail.
Des entretiens d’embauche sans humains [8], une radio sans journalistes [9], des robots humanoïdes travaillant dans un atelier [[Amazon begins testing Agility’s Digit robot for warehouse work, techcrunch.com, octobre 2023.]]. Mythe ou réalité en 2024 ?
Les systèmes d’IA (SIA) sont des dispositifs sociotechniques complexes, parfois invisibles, qui modifient profondément les conditions de travail. Ils sont généralement mis en place au sein des organisations au motif de l’amélioration de la performance, de la réduction du risque d’erreur, de la sécurité des salariés et de la réduction des tâches fastidieuses. Au-delà des avantages indéniables de l’usage de l’IA, les questions restent nombreuses.
Les SIA sont présents dès le recrutement : rédaction d’offres d’emploi, filtrage des CV, tests automatisés et entretien en ligne sur une interface sans humain. Ces pratiques peuvent représenter une source d’économies mais posent questions.
L’usage de l’IA peut être source de biais discriminants. La CNIL et le Défenseur des droits ont, chacun dans leur domaine de compétences, fait part de leurs préoccupations quant à l’impact de certains systèmes algorithmiques sur les droits fondamentaux [10].
Lors de d’exécution du contrat de travail, l’usage de l’IA est présent à tous les étages de l’entreprise. Des robots dans l’atelier d’emballage, des outils de surveillance, de contrôle et de prise de décision automatisée, par exemple.
Chaque SIA représente pour les salariés une source de progrès et de risques. Les risques analysés pour les salariés portent notamment sur la santé, l’appauvrissement des tâches, la perte d’autonomie, la déqualification des emplois, l’intensification du travail et la suppression d’emplois. Notre droit du travail prévoit des garde-fous contre ces risques ?
Solutions juridiques.
Pour éviter certaines conséquences négatives, le cadre juridique actuel définit un socle incontournable de droits. Le Code du travail contient un ensemble de dispositions génériques qui peuvent s’appliquer à l’IA, notamment celles relatives à la santé et la sécurité, aux plateformes numériques et à la prévention des discriminations.
Concernant les réductions d’effectifs, les entreprises peuvent justifier ces réductions par les investissements dans l’IA. Les suppressions de postes ne sont pas interdites mais le Code du travail introduit des mesures pour en limiter les conséquences. Un plan d’adaptation doit être établi au bénéfice des salariés pour les former et reclasser. De plus, un projet d’introduction de nouvelles technologies dans l’entreprise justifie à lui seul d’une part la consultation du CSE et le recours à un expert habilité, sans qu’il soit nécessaire de démontrer au préalable l’existence de répercussions sur les conditions de travail des salariés [11].
Ces dispositions sont-elles suffisantes pour assurer un déploiement de l’IA respectueux des droits des travailleurs ? Selon certaines études menées par les organisations syndicales :
« l’expansion de l’IA dans l’univers professionnel, nécessite une mise à jour ou une extension du Code du travail pour aborder spécifiquement ce sujet. Cela pourrait être des questions thématiques telles que la surveillance et le management algorithmiques, la prise de décision automatisée et ses impacts sur les salariés ou agents, ou encore la gestion des carrières liée à l’automatisation » [12].
Au-delà du droit du travail, d’autres règles encadrent l’usage de l’IA, comme le RGPD, qui s’applique notamment à la gestion du personnel ou la surveillance des salariés. La CNIL a publié, en avril 2024, ses recommandations pour respecter le RGPD dans le cadre du développement des SIA [13].
Par ailleurs, l’AI Act permettra d’encadrer l’usage de SIA, notamment au sein de l’entreprise (Voir l’article Encadrement juridique de l’IA : les réponses essentielles). Ce Règlement établissant des règles harmonisées concernant l’intelligence artificielle du 13 juin 2024 a été publié le 12 juillet 2024. Pour les fournisseurs et déployeurs de systèmes d’IA, l’approche de l’AI Act est fondée sur une identification de 4 niveaux de risques (de minimal à inacceptable) et un encadrement adapté. Les systèmes automatisés d’embauche sont considérés comme présentant un risque élevé. Leur mise en œuvre devra répondre à un ensemble d’obligations et mesures de mise en conformité by design, notamment une politique contraignante de gouvernance des données et l’information des utilisateurs.
D’autres solutions ?
Pour accompagner les mesures juridiques, les organisations recherchent des solutions complémentaires, afin d’établir un cadre permettant un équilibre entre innovation et droits sociaux. Cette anticipation existe au sein des sociétés, notamment via le dialogue social, mais également au niveau sectoriel, afin de construire des référentiels.
Parmi ces solutions, les analyses de risque permettent de répondre au principe de précaution et, pour certains SIA, deviennent obligatoires dans le cadre de l’AI Act. L’adaptation de la formation permet aux salariés de s’adapter aux évolutions et de s’approprier les potentiels de L’IA. La déclinaison de principes pour une IA éthique développe la sensibilisation et concourt à la responsabilisation des acteurs.
L’avenir avec l’IA.
Les entreprises qui adoptent l’IA s’interrogent quant à ses effets sur le travail, l’emploi et les compétences [14]. Cela implique de comprendre ses implications, d’accompagner la transition des employés affectés, et de maximiser le potentiel de progrès offert par cette technologie. Dans les entreprises soucieuses de la confiance de leurs salariés et clients, ces actions s’appliqueront tout au long de la chaîne algorithmique, du concepteur à l’utilisateur. La technologie d’IA pourra ainsi être déployée avec responsabilité et conformité, en tenant compte de l’intérêt général et des droits individuels.