Quel est le régime juridique de ces technologies ? Pourquoi le Chili a-t-il souhaité opérer une réforme de ce niveau ? Les législateurs qui tiennent à ce que les neuro-technologies se développent de manière égalitaire, devraient-ils s’en inspirer pour éviter une double société avec d’un côté des humains augmentés et de l’autre ceux qui n’auront pas accès à ces nouvelles capacités ?
Le tsunami des neuro-technologies et l’innovation responsable.
Au rayon des promesses des NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives) qui robotisent l’humain, chacun trouve son bonheur : augmenter son espérance de vie en bonne santé, faire reculer la maladie d’Alzheimer, booster sa mémoire avec un implant cérébral, s’implanter une puce RFID pour accéder à son bureau (ou domicile, déverrouiller sa voiture, se connecter à son ordinateur).
Neuralink, la puce cérébrale créée par Elon Musk en 2016, véritable prothèse corporelle fusionnée avec le corps et contrôlable par la pensée est sur le point d’être testée sur des personnes paralysées (voir la page de recrutement d’un responsable projet en chirurgie [1]).
La société est actuellement poursuivie pour maltraitance animale dans la recherche, mais oseriez-vous pour autant ôter l’espoir de remarcher à des enfants, certes grâce à une interface cerveau-machine ?
La convergence entre les neurosciences, l’ingénierie, le numérique et l’IA est un moteur essentiel d’innovation qui brouille les frontières entre thérapie médicale et marché de consommation. Ces évolutions technologiques qui accroissent les capacités de l’être humain, sans poursuivre de finalité médicale, devraient nous forcer à penser le rapport humains-machines. En effet, il s’agit d’une réalité purement discursive activant des leviers tels que la santé mentale, le bien-être et la productivité. Or, ces modèles économiques émergents ne seront viables que s’ils répondent à des questions éthiques, juridiques et sociétales tout aussi uniques relatives au statut de l’humain.
Si le consentement éclairé existe en médecine, il n’a pas cours pour les données. En ce qui concerne les neurosciences, les règles de droit ne sont pas en adéquation avec les découvertes scientifiques. L’interprétation des données cérébrales personnelles pourrait influencer des décisions qui ne relèvent pas de la pratique clinique et perpétuer les inégalités sociales. C’est pourquoi il faudrait créer de nouveaux droits de l’homme, comme le droit à l’intégrité cérébrale et le droit à l’intimité cérébrale [2].
« La reconnaissance des droits du cerveau par le Chili ».
Les neuro-technologies sont des dispositifs et procédures utilisés pour accéder au fonctionnement ou à la structure des systèmes neuronaux des personnes physiques et de les étudier, évaluer, modéliser, exercer une surveillance ou intervenir sur son activité. Les notions d’identité humaine, de liberté de pensée, d’autonomie, de vie privée et d’épanouissement de l’être humain sont donc au cœur des droits du cerveau de la réforme constitutionnelle chilienne.
Le pays veut empêcher les technologies d’être utilisées pour perturber l’intégrité des individus et entend protéger le cerveau de ses citoyens contre les mésusages de ces technologies qui pourraient créer artificiellement des émotions, des pensées, un passé.
C’est une équipe de sept chercheurs de l’Institut de philosophie du Conseil supérieur des recherches scientifiques qui a alerté sur les avancées des neuro-technologies et l’urgente nécessité de fixer des limites pour protéger les personnes et leur qualité de vie.
La nécessité de préserver cette intégrité présuppose la création de neuro-droits tel que des droits de l’homme faisant spécifiquement référence à l’utilisation et aux applications des neuro-technologies. Ces nouveaux droits sont une évolution des droits de l’homme appliqués à l’aune des technologies que l’on peut considérer comme disruptive pour l’intégrité mentale et la psychologie des personnes.
Parmi ces neuro-droit, l’un reflète la préoccupation générale de l’impact sur la vie privée provoquée par l’intelligence artificielle et l’internet des objets. La réification croissante de l’individu et la marchandisation de ses informations personnelles provoquent un risque d’atteinte à l’intimité de la vie privée et ces possibilités se multiplient dans le cadre des neuro-technologies.
Le droit à la liberté cognitive se trouve dans la prolongation du droit humain à la liberté de la conscience pour éviter des usages potentiellement coercitifs des dérives de certaines neuro-technologies.
De la même manière, le droit à l’intégrité mentale permet de préserver contre les ingérences possibles résultant d’une modification de l’état neuronal.
Enfin, le droit à la continuité psychologique se réfère à la capacité de la personne à maintenir la continuité de son identité et de sa personnalité en toute liberté.
Le texte chilien définit la donnée neuronale comme « l’information obtenue de l’activité des neurones qui contient une représentation de l’activité cérébrale » ; il définit les neurotechnologies comme « la convergence de dispositifs où instruments permettant une connexion avec le système nerveux central pour la lecture, l’enregistrement ou la modification de l’activité cérébrale et des informations qui en sont issues ».
Selon le texte, « les personnes sont libres d’utiliser tout type de neuro-technologie autorisée. Toutefois, pour intervenir par leur intermédiaire, vous devez avoir leur consentement libre, préalable et éclairé, qui doit être donné expressément, explicitement, spécifiquement ou, à défaut, avec celui de la personne qui doit fournir sa volonté d’agir en conformité avec la loi. Le consentement doit être donné par écrit et est essentiellement révocable » (art.4). Surtout, les données neuronales sont, en règle générale, considérées comme des données sensibles et leur collecte, stockage, traitement, communication et transfert ne seront effectués que pour des finalités légitimes et après information de la personne, dans les conditions prévues par la loi chilienne (art.11).
Cyber-risques de sécurité et atteintes neuro-cérébrales.
Les neurotechnologies mises au point pour la santé peuvent être utilisées pour servir des objectifs non prévus, or la confiance dans les activités de recherche présuppose que l’on accorde à la sécurité une importance cruciale.
C’est une réalité malheureusement méconnue du grand public : un patient est ainsi décédé en Allemagne des suites d’une cyber-attaque à l’hôpital où il se trouvait [3]. Les scenarii d’atteinte à la sécurité n’ont pour limite que la créativité des attaquants : l’interface pourrait être corrompue, instrumentalisée par un tiers non autorisé et ainsi nuire gravement à notre dignité humaine, à nos valeurs et libertés, notamment par le traçage des personnes contre leur volonté, ou pour prendre des décisions biaisées.
Afin de garantir leur qualité, leur efficacité et leur sécurité pour leur utilisation chez les personnes, l’article 7 renvoie à un règlement ultérieur concernant l’enregistrement préalable des neuro-technologies par l’Institut de Santé Publique pour leur utilisation chez les personnes. C’est cette même autorité qui, par décision motivée, pourra restreindre ou interdire l’utilisation des neuro-technologies, en raison de l’atteinte aux droits fondamentaux, dans les cas tels que : l’influence de la conduite de la personne sans son consentement préalable ; l’exploitation des vulnérabilités de groupes spécifiques ; l’extraction de données de manière non autorisée ou sans le consentement préalable de son propriétaire ou qui affecteraient négativement la neuroplasticité, en particulier chez les enfants et les adolescents.
Quant à la responsabilité, le texte prévoit que le producteur, le fournisseur et toute personne qui administre des neuro-technologies à un consommateur, seront solidairement responsables des dommages matériels et moraux qu’ils causent. Le cas échéant, le producteur, le fournisseur ou l’administrateur de neuro-technologies pourra être exonéré de cette responsabilité en cas de faute de la victime, si le dommage est une conséquence de l’utilisation de la neuro-technologie différent de celui autorisé ; si le dommage est l’œuvre exclusive de la malveillance de celui qui l’a administré, ou si le dommage est la conséquence d’un crime dont le producteur, le fournisseur ou l’administrateur n’est pas l’auteur. Celui qui aura répondu à la partie lésée aura le droit de la répéter contre les autres responsables, selon leur participation à la production du dommage (art.9).
Des sanctions pénales sont également prévues avec l’emprisonnement de toute personne utilisant subrepticement une neuro-technologie, à l’insu ou sans le consentement de l’utilisateur ou par le biais d’applications cachées ou non destinées à un but légitime, altère la volonté d’autrui. Si l’altération touche plusieurs personnes, la peine maximale d’emprisonnement sera appliquée. La sanction pénale équivalente au crime (article 15, n ° 2, du Code pénal chilien) sera applicable au cas d’incitation d’autrui à commettre un crime par l’utilisation de neuro-technologie. Il en est de même pour quiconque, causerait la mort ou l’une des blessures des articles 395 à 397 du Code pénal, à l’aide d’une neuro-technologie, dans le cas où le comportement violent de la personne sur laquelle la neuro-technologie a été utilisée était prévisible (art.10).
Démocratie et processus électoral.
Le texte amende loi organique constitutionnelle sur les votes et sondages (n° 18.700) et sanctionne « quiconque, utilisant la neuro-technologie, empêche tout électeur d’exercer librement son droit de vote à toute élection populaire, primaire ou finale ». La peine maximale prévue sera appliquée.
Le texte entrera en vigueur dans un délai de six mois à compter de sa publication au journal officiel, délai dans lequel doivent être édictés les règlements d’application.
Disruption sociale.
Les neuro-technologies relèvent des technologies émergentes qui combinent des évolutions techniques accélérées ce qui provoque une disruption sociale importante.
L’accès ou le défaut d’accès à ces technologies peut provoquer une nouvelle brèche d’inégalité, d’injustice. L’incertitude des scénarii futurs réclame une attention plus forte sur les aspects juridiques et sociaux de ce développement technologique car, comme toutes les autres technologies potentiellement disruptives, les possibilités de contribution au bien-être de la société sont vastes, tout autant que les risques que nous devons prévenir.
« Pour un droit à l’intégrité neuronale ».
L’approche française reste timide avec une disposition dans la loi bioéthique (art.18) ainsi rédigée : « Les techniques d’imagerie cérébrale ne peuvent être employées qu’à des fins médicales ou de recherche scientifique ou dans le cadre d’expertises judiciaires, à l’exclusion, dans ce cadre, de l’imagerie cérébrale fonctionnelle » (Loi, n°2021-1017 relative à la bioéthique, JORF n°0178, 03/08/2021).
Cette position pourrait se développer car un débat public de grande ampleur sur le meilleur avenir possible des neuro-technologies dans la société est mené au niveau international depuis 2015. Dans sa Recommandation sur l’innovation responsable dans le domaine des neuro-technologies, l’OCDE a énoncé la première norme internationale dans ce domaine (OCDE, 2019). Le texte reconnaît la liberté cognitive en tant que droit à l’autodétermination mentale et la protection des données cérébrales personnelles définies comme des données liées au fonctionnement ou à la structure du cerveau d’un individu identifié ou identifiable, y compris les informations uniques sur sa physiologie, sa santé ou son état mental.
La préoccupation en matière de sécurité des systèmes d’IA est aussi reflétée par la recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO qui énonce clairement que : « Les préjudices non désirés (risques liés à la sûreté) devraient être évités et les vulnérabilités aux attaques (risques liés à la sécurité) réduites tout au long du cycle de vie des systèmes d’IA afin de garantir la sûreté et la sécurité des personnes, de l’environnement et des écosystèmes » [4].
Les Etats membres sont invités à renforcer leur politique en matière de données pour assurer « une sécurité totale pour les données personnelles et sensibles qui, si elles étaient divulguées, risqueraient de causer des dommages, des blessures ou des difficultés exceptionnelles aux personnes » (par.74).
Pour aller plus loin :
Ienca, M., Andorno, R. Towards new human rights in the age of neuroscience and neurotechnology. Life Sci Soc Policy 13, 5 (2017) [5].
Yuste R. (2017). The Origins of the Brain Initiative : A Personal Journey. Cell 171(4):726-735.
N. Devillier, "Systèmes d’intelligence artificielle et cybersécurité en santé", in ’Intelligence artificielle : vivre avec’, sous la direction de Christian Byk, ESKA, 2022, pp.205-216, ISBN:978-2-8224-0801-1.
Discussion en cours :
Merci d aborder ce sujet délicat et crucial, qui fait suite à des découvertes comme celle du Dr José Delgado qui n ont cessé d évoluer.
Je me réjouis de ce que des personnes courageuses et compétantes comme vous fassent connaître leurs préoccupations !