Village de la Justice www.village-justice.com

[Point du vue] L’Intelligence Artificielle, chimère ou réalité juridique ? Par Jérôme Guicherd, Avocat et Dominique Szepielak, Docteur en psychologie.
Parution : mercredi 13 décembre 2023
Adresse de l'article original :
https://www.village-justice.com/articles/intelligence-artificielle-chimere-realite-juridique,48167.html
Reproduction interdite sans autorisation de l'auteur.

Regard psychologique de l’Intelligence Artificielle à l’heure où le législateur national et européen entend la réglementer.

Dans les années 70, D. Kahneman et A. Tversky qualifient de « biais cognitif » l’irrationalité de certaines décisions économiques. Le concept prospère et aujourd’hui sont répertoriées plus d’une cinquantaine de types de biais cognitifs.

L’IA caracolant en tête des idéaux sociétaux, réanime le positivisme du XIXème siècle, avec une volonté toujours aussi présente de normer et de catégoriser les comportements humains. Le succès convergeant des biais cognitifs et de l’IA, des domaines confidentiels comme celui de l’ingénierie sociale et celui de la guerre cognitive y voient une providence inespérée.

Biais cognitifs et IA, un binôme qui s’annonce parfait pour répondre aux besoins des institutions et des structures en mal de contrôle dans la gestion quantitative des problématiques humaines. L’ubiquité et le consensus assurément favorable à l’égard de ce binôme « gagnant », ne parviennent pourtant pas à se défaire d’un profond problème d’identité. Ni l’IA, ni le biais cognitif ne parviennent à s’inscrire dans un cadre proprement et strictement intellectuel.

Les biais cognitifs font référence à une irrationalité de comportement et/ou de pensée tantôt dans la population observée, tantôt chez l’observateur lui-même.

L’Intelligence Artificielle est quant à elle dite « faible », lorsqu’elle reproduit un comportement humain mécaniquement, et sans intelligence, soit dite « forte » lorsqu’il y a l’ambition de la doter d’esprit, et/ou d’une sensibilité… la seconde, précisons-le bien, reste chimérique. Biais cognitifs et IA ont ainsi une double face, l’une « connue » du public, l’autre connue des professionnels, similaires par bien des aspects à Janus de la Rome antique.

Janus, dieu originel du panthéon romain, est bifrons. Depuis son intervention providentielle contre l’attaque des sabins, les portes de son temple restaient toujours ouvertes en temps de guerre, les romains gardant l’espoir qu’en cas de danger, Janus reviendrait les sauver (un peu comme l’IA et les biais cognitifs aujourd’hui).

Dieu civilisateur, les premières pièces de monnaie étaient frappées à l’effigie de Janus, une face tournée vers le passé, l’autre vers l’avenir…

Le binôme biais cognitifs et IA semble donc, comme Janus, porter tous les espoirs d’une civilisation cybernétique naissante et promouvoir une sécurité et une défense à toute épreuve.

Au Vème siècle avant JC, Platon nommait acrasie, une action allant à l’encontre du meilleur jugement, y voyant l’expression de la faiblesse de la volonté.

Deux époques, où les mêmes effets n’ont pas les mêmes causes. De la philosophique « amour de la sagesse » à celui de l’économie « loi de la maison ou gestion de la maison », le comportement humain change radicalement de registre et de sens. Le vocabulaire usité trahit de même, la place de l’Homme, l’un en dialectique avec la sagesse, l’autre dans la gestion comportementale.

L’informatique et l’IA sont quant à eux prétexte à accentuer le clivage philosophie (sagesse) / économie (gestion). La mémoire des machines, les datas systèmes, et les statistiques à grande échelle, donnent aux promoteurs de l’IA l’opportunité de tout mettre en équation et de faire de l’irrationnel un paria.

L’irrationnel évoque pourtant étymologiquement ce qui est dépourvu de raison ou qui n’en fait pas parti. Les pro-IA ont ainsi à l’origine de leur raisonnement une contradiction de taille, celle de faire de l’IA l’outil parfait de la rationalité, alors qu’il est lui-même dépourvu de raison.

La notion de biais Cognitif, est cependant la bouée de sauvetage qui permet de justifier toute l’effervescence qu’il y a autour de l’IA. Persuadés d’un tout rationnel enfin accessible, l’amour, la haine, la poésie, la philosophie, l’art…. deviennent des algorithmes qui s’appuient sur des statistiques à une échelle mondiale.

Dans le contexte de cette idéologique qui favorise un rationalisme absolu et total, il apparaît comme une évidence, de souhaiter lisser les différences culturelles, et de simplifier la nature et la volonté humaine.

L’irrationnel reste pourtant opiniâtre. N’en déplaise aux promoteurs de l’IA qui se revendiquent « moderne », ce terme signifie étymologiquement, « ce qui est récent ». Considérée comme moderne, l’IA est l’enjeu qui ne fait qu’alimenter une illusion, celle de maitrise scientiste remontant au XIXème siècle. Il n’y a donc rien de « moderne » à revenir à une idéologie qui date de deux siècles.

Les biais cognitifs, quant à eux, ne sont que des effets, des réponses, des orientations parfois eux-mêmes biaisés par la volonté ou la conviction des chercheurs.

Sous l’angle étymologiquement, « biais » vient de « biaxius », c’est-à-dire, qui a deux axes.

En psychologie fondamentale, différents courants de pensée offrent différentes portes d’entrée pour aborder la connaissance du psychisme. Les axes y sont multiples, et sollicitent des approches conceptuelles différentes ; topiques, béhavioristes, systémiques, cognitivistes, expérimentalistes… voire même intégratives.

Cette multitude d’axes psychologiques traduit une multitude d’interactions que seules les équations non linéaires même les plus complexes pourraient à peine toucher du doigt. Le fonctionnement de l’être humain, n’en déplaise à ceux qui s’acharnent à le simplifier, et tout comme le système d’équation non linéaire, ne satisfait pas au principe mathématique de superposition (à la somme de deux entrées quelconques correspond la somme des deux sorties correspondantes, et à un multiple d’une entrée quelconque, correspond le même multiple de la sortie correspondante), ou à une sortie proportionnelle à l’entrée. Pire, ce fonctionnement de l’être humain peut ne pas satisfaire à ces deux contraintes.

Selon J-F Le NY, un biais cognitif est :

« une distorsion (déviation systématique par rapport à une norme) que subit une information en entrant dans le système cognitif ou en sortant. Dans le premier cas, le sujet opère une sélection des informations, dans le second, il réalise une sélection des réponses ».

Cette définition part du principe que l’humain obéit fondamentalement à une norme.

Premièrement, c’est oublier qu’en psychologie trois normes se confrontent et s’entremêlent : la norme normative, la norme statistique et la norme axiologique.

Deuxièmement, c’est partir du postulat que l’être humain se définit par une pensée « convergente ». Cela simplifierait bien les choses et l’effet Dunning-Kruger pourrait prospérer à loisir. Cependant, n’en déplaise aux aficionados des datas, et des biais cognitifs, l’être humain s’est toujours défini par une pensée « divergente ».

Pensée convergente et pensée divergente ont été initiées par J-P Guilford. La première consiste à donner des réponses correctes à des questions standardisées, la deuxième envisage de nombreuses solutions possibles et sort des standards en introduisant une dimension créatrice.

Tout comme l’humanité a longtemps cru en la prédominance des repères Euclidiens pour finir par découvrir qu’en fait la norme était constituée de repères non-Euclidiens, de même la pensée convergente est une singularité parmi les multitudes de pensées divergentes, d’où la multiplication des « effets et des biais » auprès des datas « penseurs ».

Pour E. Bernays, la logique psychologique du groupe ne répond pas à la logique psychologique de l’individu. Bref, la liste des paramètres mathématiques pour constituer un algorithme pertinent s’allonge.

E. Bernays fut pourtant le premier à proposer des modèles d’influence, de propagandes et d’ingénierie sociale, allant jusqu’à œuvrer pour la « commission Creel », relative à l’effort de guerre. En 1954, il fut d’ailleurs l’auteur d’une propagande qui renversa le président de l’époque au Guatemala.

Il écrira cependant :

« l’opinion a ses propres règles, ses exigences, ses habitudes, et autant on peut essayer de les modifier, autant il serait périlleux de les contrer ».

Ainsi, si des sujets entrent dans les attentes standards de certaines études sur les biais cognitifs, la question n’est pas pourquoi les autres n’y entrent pas, mais plutôt pourquoi les premiers y entrent ? La deuxième question est : qu’est-ce qui les motivent à se conformer ?

Si l’être humain s’inscrit néanmoins dans certaines normes, généralement sociales, la réalité psychologique ne peut être réduite à cette condensation intellectuelle. Malgré une volonté bien présente de normer, et les biais en sont, puisqu’ils définissent des comportements de type déviants, donc des normes, la réalité est toute autre.

Le XVIIème siècle apportait pourtant déjà des repères avec un R. Descartes qui souhaitait se défaire de l’opinion, et par la méthode, préparer à l’entendement.

Il différenciait ainsi en préambule de son œuvre, l’humain de l’animal, considérant que l’animal n’était pas pourvu de pensée et qu’à ce titre, ce dernier pouvait être défini comme une machine.

Aujourd’hui, en psychologie et en biologie, le domaine de la pensée s’étend à l’animal, en cela il y aurait progrès. En revanche, l’informatique, réduisant l’humanité à des « datas » et des algorithmes pour promouvoir les biais cognitifs nécessaires à l’IA, serait signe de régression avec un humain réduit au fonctionnement d’une machine.

Animal vs machine au XVIIème siècle, humain vs machine au XXIème siècle, derrière le terme de « machine », Descartes y définissait quelque chose qui était dépourvu d’âme.

J. Locke, opposant de Descartes, affirmait que l’expérience était à l’origine de la connaissance.

Si l’on convient que l’IA n’a pas d’âme, le cumul de datas et de statistiques peut-il être qualifié d’expérience ?

L’IA désormais sur toutes les lèvres, ne serait-ce par le « biais de familiarité », ouvre les portes à de nouvelles projections environnementales et sociales, sans qu’elles ne soient pour autant définies.

L’IA faible, facilitant bien des exécutions, est une belle servante, l’IA forte reste dans les rêves des informaticiens les plus doués, ou les plus perturbés, à vous de choisir.

Des sommes d’argent public de plus en plus importantes sont investis dans l’IA sans véritablement de distinction entre le rêve de l’IA et la réalité de l’IA.

Aux États Unis, la Maison Blanche commence à se mobiliser pour qu’un cadre juridique soit mis en place. Il en va de même en France où une proposition de loi veut soumettre l’IA au droit d’auteur.

Dans le cadre de sa stratégie numérique, l’UE souhaite réglementer l’intelligence artificielle pour garantir de meilleures conditions de développement et d’utilisation de cette technologie innovante. En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’IA. Il propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l’IA.

La priorité du Parlement est de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Les systèmes d’IA devraient être supervisés par des personnes plutôt que par l’automatisation, afin d’éviter des résultats néfastes. Le Parlement souhaite également établir une définition uniforme et neutre sur le plan technologique de l’IA qui pourrait être appliquée aux futurs systèmes d’IA. Les nouvelles règles doivent établir des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Bien que de nombreux systèmes d’IA présentent un risque minimal, ils doivent être évalués.

Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits le cas échéant. Ils comprennent :

Certaines exceptions peuvent être autorisées : par exemple, les systèmes d’identification biométrique à distance "a posteriori", où l’identification se produit après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l’approbation du tribunal.

Les systèmes d’IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories.

1. Les systèmes d’IA qui sont utilisés dans les produits relevant de la législation de l’UE sur la sécurité des produits. Cela comprend les jouets, l’aviation, les voitures, les dispositifs médicaux et les ascenseurs.

2. Les systèmes d’IA relevant de huit domaines spécifiques qui devront être enregistrés dans une base de données de l’UE :

Tous les systèmes d’IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie.

L’IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence :

Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l’utilisateur peut alors décider s’il souhaite continuer à l’utiliser. Les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l’IA).

Ce projet est désormais entre les mains des États de l’Union européenne, dont les points de vue divergents se font jour.

L’argent public investi dans un IA inachevé, génère des fantasmes et suscite des questions de responsabilité dont les réponses se font attendre.

Dominique Szepielak, Docteur en psychologie Jérôme Guicherd, Avocat Barreau de Paris [->jguicherd@fgc-avocats.com]