Introduction.
Depuis environ quarante ans, le domaine de la santé a vu une intégration progressive des technologies numériques. Récemment, des systèmes d’intelligence artificielle innovants ont été développés pour le secteur de la santé, soulevant ainsi des questions éthiques quant à leur application en pratique médicale. Un défi majeur pour l’avenir est de rendre ces technologies accessibles à toute la population mondiale, en raison de la globalisation de la santé. Le cadre réglementaire du numérique en santé est vaste et composé de nombreux textes successifs. Une approche chronologique peut aider à comprendre la logique de ces régulations.
Dans les années 1970, les ordinateurs étaient de grands calculateurs réservés aux professionnels. Avec l’amélioration des performances informatiques, les ordinateurs portables se sont diffusés à tous les niveaux de la société. En 1978, la France a adopté la loi informatique et libertés [1], visant à ce que l’informatique serve les citoyens sans porter atteinte à leurs droits. Dix-sept ans plus tard, l’Union européenne a adopté une directive sur la protection des données personnelles pour permettre leur libre circulation [2], remplacée vingt ans après par le RGPD [3]. Les données de santé numérisées étaient protégées en vertu du droit à la vie privée.
En 1993, une législation spécifique a été instaurée pour encadrer les outils et productions numériques destinés à la santé, tels que les programmes informatiques et les logiciels, qui doivent garantir qualité et sécurité pour ne pas nuire à la santé. Le secteur numérique est devenu un domaine d’innovation prolifique pour la médecine et la santé. En 2009, les relations entre professionnels de santé et patients ont évolué avec l’introduction d’outils numériques comme la télémédecine et l’e-santé.
Plus récemment, l’intelligence artificielle a été utilisée dans le domaine de la santé, notamment pour l’analyse de données en recherche et pour l’aide au diagnostic.
Une intelligence artificielle entre potentialités et risques dans le domaine de la santé (I), mais dont les nombreuses perspectives pourraient s’avérer nécessaires face aux défis globaux à venir (II).
I. Défis et opportunités de l’intelligence artificielle dans le domaine de la santé.
L’intelligence artificielle (IA) s’infiltre dans divers domaines, y compris la santé, suscitant de nombreuses tentatives de définition. Essentiellement, l’IA englobe les tâches qu’une machine peut effectuer en lieu et place d’un humain, en s’appuyant sur des algorithmes sophistiqués et des données massives pour l’analyse et le calcul. Selon le rapport de l’OMS de 2021 [4], l’IA est décrite comme un système automatisé qui, pour des objectifs définis par l’homme, peut faire des prédictions, recommandations ou prendre des décisions impactant les environnements réels ou virtuels, avec divers niveaux d’autonomie. L’UNESCO parle de systèmes capables de traiter des données de manière à simuler un comportement intelligent, intégrant des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification et de contrôle [5]. Ces capacités de l’IA posent des questions éthiques et juridiques (A) ayant données lieu à un encadrement légal de plus en plus important (B).
A. Enjeux éthiques et légaux de l’IA en santé.
L’usage de l’IA en santé pose des questions, notamment sur la capacité d’une machine à prendre des décisions médicales autonomes (diagnostic, traitement). Le Comité Consultatif National d’Éthique (CCNE) stipule qu’une « garantie humaine » est essentielle dans l’usage des algorithmes en santé, prônant une supervision humaine pour toute utilisation du numérique en santé. Cela inclut la possibilité, pour chaque patient, d’avoir un contact humain pour obtenir toutes les informations pertinentes. Le CCNE soutient l’interdiction de toute décision médicale prise exclusivement par une IA sans intervention humaine [6].
La loi de bioéthique [7] exige que les patients soient informés de l’utilisation de dispositifs médicaux impliquant des traitements de données algorithmiques [8]. Les professionnels de santé doivent informer les patients lorsque de tels dispositifs sont utilisés pour analyser ou interpréter les résultats dans un acte de prévention, diagnostic ou soin. Ces dispositifs, s’appuyant sur des données massives, peuvent être affectés par des données erronées ou non représentatives, ce qui peut biaiser les résultats des algorithmes. Une confiance aveugle dans ces algorithmes peut être problématique car ils sont influencés par les choix humains et les données d’entraînement. La CNIL rappelle que « l’algorithme sans données est aveugle, les données sans algorithme sont muettes », soulignant l’importance cruciale des données [9]. Le CNOM ajoute qu’il n’y a pas d’IA sans big data, mettant en avant la nécessité de données médicales fiables [10].
Les principaux défis incluent donc la confidentialité des données, l’équité dans les traitements et la responsabilité des décisions prises par les systèmes d’IA. L’article 8 de la Charte des droits fondamentaux de l’Union européenne garantit la protection des données personnelles, et le RGPD [11] précise les conditions dans lesquelles les données de santé peuvent être traitées, notamment en son article 9 avec le consentement explicite des patients.
En France, le Code de la santé publique (CSP) prévoit que toute personne a droit au respect de la confidentialité des informations la concernant [12]. Les systèmes d’IA doivent donc être conçus pour garantir que les données personnelles des patients soient protégées contre tout accès non autorisé et toute divulgation non souhaitée.
L’équité et la non-discrimination sont également des préoccupations majeures. Les algorithmes d’IA peuvent refléter et amplifier les biais présents dans les données sur lesquelles ils sont entraînés, conduisant à des décisions médicales injustes. Le Comité européen de la protection des données (CEPD), dans ses « Guidelines on Artificial Intelligence and Data Protection » [13], souligne l’importance de minimiser les biais algorithmiques et de garantir l’équité. En outre, la Convention d’Oviedo du Conseil de l’Europe sur les droits de l’homme et la biomédecine [14] stipule dans son article 4 que toute intervention dans le domaine de la santé doit être effectuée dans le respect des principes éthiques et de la dignité humaine.
La responsabilité est un autre enjeu clé, surtout lorsqu’il s’agit de déterminer qui est responsable en cas d’erreur commise par un système d’IA. Le Règlement (UE) 2017/745 relatif aux dispositifs médicaux impose des exigences strictes en matière de gestion des risques et de surveillance après commercialisation [15], garantissant que les fabricants et les utilisateurs de dispositifs médicaux à base d’IA assument la responsabilité des performances de ces dispositifs.
En matière de recommandations internationales, l’Organisation mondiale de la Santé (OMS), dans son rapport « Ethics and governance of artificial intelligence for health » (2021), insiste sur les principes d’équité, de transparence, de responsabilité et de respect de l’autonomie des patients. L’OMS recommande une gouvernance robuste pour encadrer l’IA en santé, incluant des processus d’évaluation et de validation rigoureux pour assurer que les systèmes d’IA sont sûrs, efficaces et respectueux des droits humains. Pour ce faire, un encadrement juridique doit être mis en place concernant son utilisation quotidienne en santé, au-delà des questions éthiques.
B. Utilisation de l’IA en médecine : recommandations et principes.
Les enjeux éthiques et légaux de l’IA en santé évoqués, nécessitent une approche multidimensionnelle, intégrant des réglementations nationales et internationales, des directives éthiques, et une vigilance constante pour garantir que l’IA soit utilisée de manière responsable et bénéfique pour tous les patients.
L’IA est employée dans divers outils informatiques médicaux, tels que les procédés algorithmiques pour le diagnostic, la reconnaissance d’image pour l’interprétation des imageries médicales et les logiciels d’aide à la décision.
L’OMS recommande de promouvoir une IA réactive et durable, en appelant les concepteurs, développeurs et utilisateurs à évaluer continuellement et de manière transparente les applications de l’IA dans des situations réelles, pour garantir que la technologie répond adéquatement aux attentes et besoins [16]. Les principes de protection de l’autonomie, de consentement approprié, de cadre juridique pour la protection des données, et d’accès équitable aux technologies, indépendamment des caractéristiques personnelles, sont essentiels.
L’utilisation de l’IA en médecine est régie par des cadres juridiques précis et des recommandations strictes visant à garantir la sécurité et l’efficacité des pratiques médicales. En Europe, le RGPD de 2016 exige notamment que les données personnelles des patients soient traitées de manière licite, loyale et transparente [17]. Les dispositifs médicaux intégrant de l’IA doivent également se conformer au Règlement relatif aux dispositifs médicaux, qui impose des exigences rigoureuses en matière d’évaluation clinique, de gestion des risques et de surveillance après commercialisation [18].
Aux Etats-Unis, la Food and Drug Administration (FDA) a publié des lignes directrices spécifiques pour l’IA en médecine, incluant le document « Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML) - Based Software as a Medical Device (SaMD) » de 2019, qui propose un cadre de réglementation flexible et basé sur les risques pour l’IA/ML dans les logiciels de dispositifs médicaux. Ce cadre encourage une surveillance continue et une transparence accrue pour s’assurer que les modifications apportées aux algorithmes ne compromettent pas la sécurité ou l’efficacité.
Le Comité européen de la protection des données (CEPD), dans ses « Guidelines on Artificial Intelligence and Data Protection » (2020), souligne l’importance de minimiser les biais algorithmiques et de promouvoir l’équité et la non-discrimination (section 2.5 des lignes directrices). Les recommandations de l’Organisation mondiale de la Santé (OMS) [19], mettent également en avant des principes tels que l’autonomie des patients, la transparence et la responsabilité, insistant sur la nécessité de cadres réglementaires robustes pour encadrer l’IA en santé.
L’encadrement juridique de l’IA en médecine repose donc sur des réglementations européennes et nationales, des directives spécifiques des autorités de santé, et des recommandations internationales, assurant une utilisation éthique, transparente et sécurisée des technologies d’IA dans le domaine médical. Mais cet encadrement est encore très imparfait, mettant en lumière les enjeux de demain du numérique en santé.
II. Défis et opportunités pour l’avenir du numérique et de l’IA en santé.
L’intégration de l’intelligence artificielle (IA) et des technologies numériques en santé ouvre des perspectives prometteuses tout en soulevant des enjeux globaux et des défis importants. Il s’agit alors d’explorer les solutions et enjeux mondiaux liés à l’IA et au numérique en santé (A), ainsi que la transition vers une médecine augmentée nécessitant innovation, réorganisation et régulation (B). Les cadres éthiques et légaux, ainsi que les recommandations internationales, jouent un rôle crucial dans cette transformation technologique.
A. IA et numérique : solutions et enjeux mondiaux en santé.
Les défis de santé sont globaux, avec une montée des maladies cardiovasculaires, cancers, obésité, et vieillissement dans les pays émergents. L’implémentation du numérique et de l’IA vise à améliorer la santé et l’équité en santé mondialement, tenant compte des liens entre santé humaine et animale, lutte contre la pauvreté, éducation, recherche, droits des populations autochtones et accès équitable aux progrès [20].
L’intégration de l’intelligence artificielle (IA) et des technologies numériques en santé présente à la fois des solutions prometteuses et des enjeux mondiaux complexes. Les solutions offertes par l’IA incluent l’amélioration des diagnostics, la personnalisation des traitements et l’optimisation des systèmes de santé. Par exemple, les algorithmes d’IA peuvent analyser de vastes ensembles de données médicales pour identifier des modèles et des tendances qui échappent aux praticiens humains, contribuant ainsi à des diagnostics plus précoces et précis, comme le stipule le Règlement (UE) de 2017 [21].
Cependant, ces avancées s’accompagnent de défis importants. La cybercriminalité et les cyberattaques contre les systèmes de santé, comme l’attaque de ransomware contre le NHS au Royaume-Uni en 2017 [22], soulignent la nécessité de robustes mesures de cybersécurité.
Les disparités d’accès aux technologies numériques représentent un autre enjeu mondial. Selon l’OMS, environ la moitié de la population mondiale n’a pas accès à Internet, ce qui limite l’impact potentiel des solutions numériques en santé. Cette fracture numérique accentue les inégalités en matière de santé, soulignant la nécessité d’investissements dans les infrastructures numériques et d’initiatives visant à améliorer l’accès à la technologie dans les pays à faible revenu.
L’IA pourrait particulièrement bénéficier aux pays à revenus faibles ou intermédiaires, en comblant les lacunes dans la prestation de soins. Les outils numériques pourraient permettre aux gouvernements d’élargir l’accès aux services de santé et améliorer les soins aux patients [23]. L’OMS [24] évalue les impacts potentiels positifs et négatifs de l’IA en santé pour ces pays, avec des principes éthiques de protection de l’autonomie, promotion du bien-être, transparence et inclusion. Elle souligne également le potentiel des technologies numériques pour renforcer les systèmes de santé, améliorer l’accès aux soins, et promouvoir une prise en charge centrée sur le patient. Les solutions numériques telles que la télémédecine, les applications mobiles de santé, et les plateformes de gestion des données de santé facilitent l’accès aux soins dans les régions reculées et pour les populations vulnérables. En outre, l’IA peut optimiser la gestion des ressources hospitalières, améliorer la prédiction des épidémies, et soutenir la recherche médicale.
L’UNESCO prône le respect et la protection des droits de l’homme, des libertés fondamentales et de la dignité, pour promouvoir l’accès universel aux technologies de l’IA et assurer une répartition équitable des bénéfices [25]. Elle souligne la nécessité de combler les lacunes en infrastructures, formations et cadres juridiques.
Les cadres réglementaires internationaux jouent un rôle crucial dans la gouvernance de l’IA en santé. La Commission européenne travaille sur une proposition de Règlement sur l’IA, visant à créer un cadre juridique harmonisé pour l’IA en Europe, en mettant l’accent sur la transparence, la sécurité et la responsabilité.
En conclusion, les solutions offertes par l’IA et les technologies numériques en santé sont vastes et prometteuses, mais elles doivent être mises en œuvre avec une attention rigoureuse aux enjeux éthiques, de sécurité, et d’équité. Un cadre réglementaire robuste et une coopération internationale sont essentiels pour maximiser les bénéfices de ces technologies tout en minimisant leurs risques.
B. Vers une médecine augmentée : réorganisation, innovation et régulation de l’IA en santé.
La transition vers une médecine augmentée par l’intelligence artificielle (IA) nécessite une réorganisation profonde des systèmes de santé, une adoption continue de l’innovation technologique, et une régulation stricte pour garantir la sécurité et l’efficacité des soins. L’IA promet de transformer la médecine en augmentant les capacités des professionnels de santé, en optimisant les processus cliniques et en personnalisant les traitements.
Le rapport Villani [26] envisage une réorganisation des pratiques médicales autour du patient, avec des expérimentations fluides en temps réel, une meilleure anticipation des politiques de santé, une surveillance continue des données de santé, et une régulation de l’innovation en santé. Il propose également la création d’une plateforme adaptée aux utilisateurs de l’IA dans le système de santé.
L’IA a transformé la relation médecin/patient, intégrant le numérique comme tiers partenaire. Le CNOM parle de « médecin augmenté » et de « patient modélisé », avec le patient devenant un acteur engagé de sa propre santé [27]. La réorganisation des systèmes de santé pour intégrer l’IA implique la redéfinition des rôles des professionnels de santé. Les médecins et les infirmiers doivent être formés à utiliser les outils d’IA, comprendre leurs limites et interpréter leurs résultats. Le Règlement (UE) de 2017, par exemple, impose des exigences de formation et de compétence pour les utilisateurs de dispositifs médicaux intégrant des technologies d’IA [28]. En outre, l’OMS met également en avant la nécessité de renforcer les capacités des systèmes de santé par la formation continue des personnels de santé aux nouvelles technologies numériques [29].
L’innovation est au cœur de la médecine augmentée. Les avancées en IA permettent des diagnostics plus précis et rapides, des plans de traitement personnalisés, et une surveillance continue des patients à distance. Par exemple, des systèmes d’IA comme IBM Watson for Oncology [30] analysent des centaines de milliers de documents médicaux pour fournir des recommandations de traitement personnalisées.
La régulation de l’IA en santé doit également s’assurer de l’équité, de la transparence et de la protection des données. L’Union européenne propose une réglementation pour une IA digne de confiance, visant à offrir des soins de meilleure qualité et à instaurer la confiance des citoyens, tout en encourageant les entreprises à développer ces technologies [31].
Outre les différents RGPD précédemment évoqués, imposant des normes élevées de protection des données personnelles, et les Guidelines du CEPD, la Commission européenne travaille également sur une proposition de règlement sur l’IA. Il s’agit de créer un cadre harmonisé pour l’utilisation de l’IA, incluant des critères de transparence, de sécurité et de responsabilité. Cette régulation devrait compléter les directives existantes (comme le Règlement (UE) de 2017 et le RGPD) en établissant des normes spécifiques pour l’IA en santé.
L’Organisation mondiale de la Santé (OMS), dans son rapport « Ethics and governance of artificial intelligence for health » (2021), recommande également des principes directeurs pour l’IA en santé, tels que la transparence, l’équité, la protection de la vie privée et la responsabilité. Ces recommandations visent à garantir que les technologies d’IA soient utilisées de manière éthique et sécurisée, tout en maximisant leurs bénéfices pour les patients et les systèmes de santé.
Conclusion.
En conclusion, l’intégration des technologies numériques et de l’intelligence artificielle (IA) dans le domaine de la santé offre des perspectives prometteuses mais soulève également des défis significatifs. Depuis les débuts de l’informatique jusqu’à l’ère actuelle de l’IA, le secteur médical a connu une transformation profonde, marquée par des innovations continues et des régulations successives visant à protéger les droits des patients et garantir la sécurité des dispositifs médicaux.
L’IA apporte des avantages considérables, notamment en matière de diagnostic, de personnalisation des traitements, et d’efficience des systèmes de santé. Cependant, elle pose aussi des questions éthiques et légales cruciales, telles que la confidentialité des données, l’équité des traitements et la responsabilité des décisions médicales. Le cadre réglementaire en vigueur, bien que robuste, nécessite des adaptations constantes pour répondre aux évolutions rapides de la technologie et aux nouveaux défis qu’elle engendre.
L’avenir du numérique et de l’IA en santé dépendra de notre capacité à surmonter les obstacles actuels et à promouvoir une adoption équitable et sécurisée de ces technologies à l’échelle mondiale. Il est impératif de combler la fracture numérique, de renforcer la cybersécurité, et de garantir que les algorithmes d’IA soient exempts de biais et respectueux des principes éthiques.
La coopération internationale et une régulation harmonisée sont essentielles pour maximiser les bénéfices de l’IA tout en minimisant ses risques. La mise en place de cadres légaux robustes, soutenus par des recommandations d’organismes comme l’OMS et l’UNESCO, permettra de guider cette transformation numérique de manière responsable.
Enfin, pour que la médecine augmentée par l’IA devienne une réalité bénéfique pour tous, il est crucial d’investir dans la formation continue des professionnels de santé, de promouvoir une culture de l’innovation responsable, et d’assurer une transparence totale dans l’utilisation des technologies d’IA. Cela garantira non seulement des soins de meilleure qualité, mais aussi la confiance des patients et des citoyens dans ces nouvelles technologies.