La régulation de l’IA dans l’Union européenne : un modèle axé sur la sécurité et la protection des droits fondamentaux.
Après trois années de discussions approfondies, l’AI Act a été adopté par le Parlement européen en mars 2024 et officiellement validé par le Conseil de l’Union européenne le 21 mai 2024. Cette réglementation a pour objectif d’harmoniser les règles existantes relatives à l’intelligence artificielle au sein de l’UE, tout en offrant une protection accrue aux consommateurs européens contre les usages inappropriés de l’IA. Elle vise également à garantir un haut niveau de protection en matière de santé, de sécurité et de droits fondamentaux, tels que définis dans la Charte des droits fondamentaux de l’UE, y compris la démocratie, l’état de droit et la protection de l’environnement, face aux risques potentiels que pourraient engendrer les systèmes d’IA.
L’AI Act distingue quatre niveaux de risque pour les applications de l’IA :
- Les systèmes d’IA à risque inacceptable, comme les technologies de catégorisation biométriques basées sur des caractéristiques sensibles (opinions politiques, croyances religieuses, orientation sexuelle ou origine ethnique), sont interdits.
- Les systèmes d’IA à risque élevé, susceptibles de présenter des dangers pour la santé, la sécurité et les droits fondamentaux des individus.
- Les systèmes d’IA à risque limité, incluant des applications telles que les chatbots, les systèmes de recommandations, les deepfakes ou les technologies de catégorisation biométriques, qui doivent être explicitement indiqués.
- Les systèmes d’IA à risque minimal, tels que les filtres anti-spam ou les systèmes de maintenance prédictive, qui ne sont soumis à aucune exigence spécifique.
Les fournisseurs de systèmes d’IA classés à haut risque devront désormais se conformer aux exigences de l’AI Act, respectant des principes fondamentaux tels que la confiance dans l’IA, la gouvernance des systèmes d’IA et leur qualité. En cas de non-conformité, ils risquent des amendes substantielles et pourraient même être contraints de retirer leurs produits du marché européen.
Bien que l’AI Act définisse des principes, des règles et des procédures étendues concernant la régulation de l’IA, ainsi que des structures de supervision adaptées, son objectif n’est pas de freiner l’innovation au sein de l’Union européenne. Au contraire, cette réglementation a été conçue pour favoriser le développement du secteur de l’IA, notamment pour les start-up et les PME, en offrant un cadre de sécurité juridique et en créant des « bacs à sable réglementaires » pour encourager l’expérimentation.
Les États-Unis : une régulation sectorielle et une approche axée sur l’innovation.
Selon les informations disponibles, l’intelligence artificielle devrait constituer l’une des priorités majeures du mandat de Donald Trump. Le 47ᵉ président des États-Unis a dévoilé, le mardi 21 janvier, un nouveau projet d’intelligence artificielle intitulé « Stargate », qui inclura des investissements d’un montant minimum de 500 milliards de dollars aux États-Unis. Ce projet rassemble plusieurs acteurs clés, dont le spécialiste du cloud computing Oracle, le conglomérat japonais SoftBank, ainsi que la start-up OpenAI, spécialisée dans l’IA générative.
Les entreprises OpenAI (créateur de ChatGPT), SoftBank et Oracle ont annoncé la création d’une coentreprise basée au Texas, baptisée Stargate. Larry Ellison, président et co-fondateur d’Oracle, a précisé que ce projet se concentrera principalement sur la construction de centres de données (data centers). Il a indiqué que les premiers sites étaient déjà en cours de développement près d’Abilene, dans le nord-est du Texas. Le projet vise à répondre aux besoins croissants en matière de stockage de données, essentiels pour le développement du cloud computing, de l’intelligence artificielle en général et de l’IA générative en particulier. Ces technologies nécessitant des capacités de stockage massives, la demande en centres de données a fortement augmenté.
Les régulations de l’intelligence artificielle varient considérablement selon les juridictions, chacune abordant les questions éthiques, de responsabilité et de protection des données sous des angles différents. L’Union européenne met en avant une approche axée sur les droits fondamentaux et l’éthique, tandis que les États-Unis privilégient une régulation sectorielle flexible permettant de favoriser l’innovation.
Cependant, la nature transnationale de l’IA et les défis mondiaux qu’elle soulève exigent des efforts de collaboration internationale pour élaborer des normes et des standards communs. Un cadre juridique global sur l’IA, intégrant des principes de responsabilité, de transparence et de protection des droits humains, pourrait constituer une solution pour harmoniser les régulations tout en tenant compte des spécificités de chaque région. Le dialogue international sur la régulation de l’IA est donc essentiel pour garantir un avenir technologique à la fois innovant et respectueux des droits fondamentaux.