L’intelligence et le jeu vidéo : une révolution toujours plus grande.
Depuis les premiers pas timides de l’intelligence artificielle dans les jeux vidéo, les développeurs ont toujours cherché à insuffler plus de vie et de réalisme à leurs personnages non-joueurs (PNJ).
Et en effet, si vous êtes un joueur aguerri de jeux vidéos vous avez déjà sûrement croisé un PNJ qui répétait inlassablement les mêmes phrases ou alors qui courrait sur place et dont les réactions brisent l’immersion du jeu. Pourtant, certains jeux pionniers ont tenté de dépasser cette répétition mécanique.
Prenons par exemple F.E.A.R. (2005) développé par Monolith Productions, un jeu de tir absolument révolutionnaire techniquement pour son époque (et qui aujourd’hui est toujours considéré comme avoir l’une des meilleures IA). Il a introduit le GOAP (Goal-Oriented Action Planning), une technique permettant aux ennemis de prendre des décisions en fonction d’objectifs spécifiques, comme se mettre à couvert ou tendre une embuscade. Cela a permis d’offrir des comportements bien plus complexes et crédibles, marquant un saut qualitatif dans l’intelligence des PNJ et permettant d’élever l’immersion au sein du jeu et de diversifier les mécaniques de gameplay.
Grâce au GOAP les ennemis sont capables de dialoguer entre eux afin de mettre en place des stratégies pour tendre une embuscade, de déplacer des objets tels que des étagères pour se mettre à couvert ou encore de passer au travers une vitre pour surprendre le joueur. Rendant alors les interactions beaucoup plus fluides et réalistes. Cette approche a été un précurseur de ce que l’IA actuelle est en train de devenir.
Les PNJ d’aujourd’hui, dotés de modèles d’IA de plus en plus sophistiqués, ne se contentent plus de réagir, mais analysent, apprennent et s’adaptent activement aux actions du joueur. Par exemple, Rockstar Games a breveté en 2020 une IA capable de gérer le comportement dynamique des PNJ en fonction de leur environnement ou des choix des joueurs, créant des mondes toujours plus immersifs (on imagine facilement que cette technologie sera utilisée dans leur nouveau titre « Grand Theft Auto VI » prévu pour fin 2025).
Mais cette révolution soulève une question essentielle : comment encadrer ces technologies pour qu’elles restent éthiques et transparentes ?
C’est ici qu’intervient le Règlement sur l’Intelligence Artificielle (RIA), entré en vigueur en août 2024. En classant les IA selon leur niveau de risque et en imposant des obligations strictes, l’Union européenne entend garantir le respect par ces innovations des droits des utilisateurs et de leur sécurité. Si cette régulation constitue une avancée majeure pour la société numérique, elle pose également un défi inédit pour l’industrie vidéoludique : concilier le rêve d’un réalisme sans limite avec les réglementations strictes d’une IA toujours plus révolutionnaires.
Le règlement sur l’IA : un cadre réglementaire spécifique pour les jeux vidéo.
Le cadre général du RIA : principes et classification des risques.
Le Règlement sur l’Intelligence Artificielle (RIA), adopté par l’Union européenne en 2024, établit une approche novatrice pour encadrer l’utilisation de l’IA dans divers secteurs, en visant une régulation proportionnée selon les risques qu’elles présentent.
Ce règlement repose sur trois catégories :
Le risque minimal à limité : Les systèmes d’IA qui présentent peu ou pas de risques pour la sécurité ou les droits des citoyens, comme les IA utilisées pour les recommandations de films ou les systèmes utilisés dans les jeux vidéo souvent présentés comme présentant un risque minimal.
Le risque élevé : les IA dont l’usage pourrait affecter directement des domaines sensibles tels que la santé, l’éducation...
Le risque inacceptable : les systèmes d’IA jugés trop dangereux, comme ceux destinés à la manipulation cognitive ou à la surveillance de masse.
Plus le niveau de risque est élevé, plus les obligations applicables à celui-ci sont strictes. Ainsi, les pratiques à risque minimal échappent à la nouvelle réglementation, celles à risque limité font l’objet d’obligations de transparence et celles présentant un risque inacceptable sont prohibées.
Même si de manière générale l’intelligence artificielle du jeu vidéo est caractérisée comme un risque minimal (et ne tombe donc pas sous la joute de la réglementation du RIA), il serait mettre en danger la protection des utilisateurs de ne pas reconnaitre que cette IA puisse tomber dans la catégorie “risque élevé”.
En effet, l’IA peut revêtir ce caractère notamment lorsqu’elle est utilisée comme outil de sécurité pour les jeux en lignes. L’IA permettant alors une sanction stricte et précise des individus violant les règles communes aux jeux en lignes (respect des autres joueurs, sanction pour injures…).
Bien sûr, pour être des plus performantes, l’IA se doit de collecter les données des utilisateurs et même de surveiller leurs comportements durant les parties. Cela peut donc mener à l’enregistrement du chat vocal pour s’assurer que l’environnement de jeu reste le plus sain possible. Une obligation de transparence est donc obligatoire, le joueur devant savoir que son comportement est surveillé. L’IA est également mise à contribution pour détecter et prévenir les tricheries (les algorithmes d’IA analysent le comportement des joueurs afin de détecter les comportements suspects).
Mais l’IA est également surtout utilisée pour perfectionner le comportement des PNJ, ces personnages non-joueurs qui nous accompagnent durant nos aventures. Il ne serait pas surprenant de constater une multiplication des chatbots (penser à chatGPT) prenant alors la forme de personnages non-joueurs, qui selon son rôle et surtout ses dialogues, aura un niveau de risque limité ou élevé.
Les studios devraient alors afficher le fait que ces PNJ ont été générés par IA et empêcher que ces derniers n’aient de comportements illicites ou ne produisent d’actions inappropriées comme réponse au joueur (dans un jeu comme GTA ce n’est pas particulièrement problématique étant donné la nature violente du monde digital de Rockstar, mais cela le devient pour les jeux vidéo dont le public est principalement mineur).
En outre, une fonctionnalité principale du jeu, qui ne peut être ratée par le joueur, susceptible de manipuler le comportement ces derniers de manière nuisible (en exploitant par exemple un comportement addictif ou encore plus grave en poussant à l’achat excessif de monnaies numériques) serait très probablement considérée comme un système d’IA élevé (voire inacceptable si des mineurs sont affectés).
Cela pourrait affecter la manière dont les studios de jeux conçoivent leurs systèmes d’IA, en exigeant davantage de clarté sur les algorithmes utilisés pour guider les actions des personnages non-joueurs.
Les IA collectent des données comportementales pour personnaliser l’expérience de jeu. Le RIA exige que les développeurs garantissent la protection des données personnelles des joueurs, notamment en respectant les principes du Règlement général sur la protection des données (RGPD). Cela pourrait inclure des mesures comme la collecte limitée de données, la possibilité pour les joueurs d’accéder à leurs données et de les supprimer, ainsi que des mécanismes pour assurer leur sécurité.
Avant de déployer une IA à risque élevé, les développeurs de jeux devront effectuer des évaluations d’impact, en analysant les effets possibles de l’IA sur l’utilisateur et en s’assurant que le système ne présente pas de risques pour la sécurité ou l’intégrité des joueurs.
Le défi pour l’industrie vidéoludique : innovation et régulation.
L’introduction de l’IA dans les jeux vidéo a radicalement changé la manière dont les joueurs interagissent avec les univers virtuels. Cependant, avec cette évolution vient la nécessité de réguler les pratiques. Le RIA oblige les studios à trouver un équilibre entre l’innovation créative et le respect de normes strictes.
Prenons l’exemple de Cyberpunk 2077, qui, grâce à l’utilisation d’une IA avancée, permet aux PNJ de réagir à une multitude de choix et actions du joueur. L’IA apprend les comportements du joueur, et chaque décision peut avoir des conséquences sur le monde virtuel. Dans un tel cadre, il est crucial que les développeurs assurent la transparence de ces interactions, en garantissant que les joueurs ne soient pas manipulés ou influencés de manière invisible (encore une fois l’enjeu est multiplié dans le cas hypothétique où l’IA pousse à la consommation de monnaies virtuelles).
Pour l’industrie vidéoludique, la mise en conformité avec le RIA pourrait entraîner une refonte partielle de la manière dont les systèmes d’IA sont conçus, particulièrement pour des expériences de jeu à la fois immersives et respectueuses des droits des joueurs.
Un avenir plein de surprises.
L’émergence de l’intelligence artificielle dans l’industrie du jeu vidéo marque une transformation profonde des expériences interactives. Du GOAP de F.E.A.R. aux systèmes d’IA dynamiques de Rockstar Games, nous assistons à une révolution technologique qui redéfinit les frontières entre réalité et virtualité.
Le Règlement sur l’Intelligence Artificielle ne représente pas un frein à cette innovation, mais plutôt un cadre nécessaire pour garantir que ces avancées technologiques respectent les droits fondamentaux des utilisateurs.
Les défis sont immenses : concilier la créativité des développeurs, l’immersion des joueurs et les impératifs éthiques. Pourtant, cette régulation constitue une opportunité unique de construire des mondes virtuels plus transparents, plus sûrs et plus respectueux.
Alors que nous entrons dans cette nouvelle ère numérique, une chose est certaine :l’avenir des jeux vidéo se construira à l’intersection entre la puissance de l’intelligence artificielle et notre capacité à la guider avec sagesse et éthique.