es centaines de scientifiques et personnalités ont signé, mercredi, une lettre ouverte appelant à un moratoire de six mois sur le déploiement de nouvelles versions des intelligences artificielles comme ChatGPT. Pour les auteurs de la lettre, ce serait un enjeu “existentiel” pour l’humanité. France 24 a interrogé plusieurs signataires de ce texte pour comprendre leurs motivations.
Elon Musk, patron de Tesla, Steve Wozniak, cofondateur d’Apple, Andrew Yang, ex-candidat démocrate à la présidentielle américaine, ou encore deux récipiendaires du prix Turing, l’équivalent du prix Nobel dans le domaine de l’intelligence artificielle (IA) : tous font partie des plus de 1 000 personnalités et scientifiques ayant signé une lettre ouverte appelant à une pause urgente dans la création de modèles de langage comme ChatGPT, quelques heures après la mise en ligne de sa dernière version mercredi 29 mars.
“Il est vraiment temps de prendre un peu de recul, et de réfléchir aux implications de ces technologies que l’on met actuellement entre les mains de millions d’individus”, souligne Jaromír Janisch, spécialiste de l’intelligence artificielle à l’université polytechnique tchèque de Prague, et l’un des signataires du texte.
Une lettre aux accents apocalyptiques
Pour les auteurs de cette lettre ouverte, les IA tels que ChatGPT ne sont pas simplement d’aimables “agents conversationnels” hyperdoués avec qui discuter ou capables d’aider un élève à tricher en classe. “Il faut immédiatement mettre en pause […] le développement de systèmes plus puissants que GPT-4 [la dernière itération de l’algorithme qui permet à ChatGPT de fonctionner]”, peut-on lire dans ce document.
Un pas de plus dans cette direction pourrait amener l’humanité à “développer des consciences non humaines qui nous rendraient obsolètes et nous remplaceraient”, écrivent les auteurs du document. Pour eux, ce qui est en jeu, c’est “la perte de contrôle sur l’avenir de notre civilisation”.
Des accents apocalyptiques en phase avec l’idéologie promue par le Future of Life Institute, le cercle de réflexion à l’origine de cette initiative. Très influent dans la Silicon Valley et financé en partie par Elon Musk, cet institut prône la recherche de solutions technologiques pour sauver l’humanité de menaces “existentielles”… telles qu’une IA meurtrière.
L’approche de ce centre repose sur une philosophie controversée, le « long-termisme », qui a notamment inspiré Sam Bankman-Fried, le patron déchu de l’empire des cryptomonnaies FTX. Les adeptes de cette pensée estiment qu’il faut protéger l’humanité à tout prix de ce qui pourrait la faire disparaître pour qu’elle puisse atteindre son plein potentiel à très long terme. Ses détracteurs mettent en garde contre les dérives d’une telle idéologie qui pourait justifier, par exemple, l’instauration de surveillance de masse afin de “protéger” l’Homme à son insu.
“Cette lettre ouverte est un bazar sans nom qui surfe sur la vague médiatique de l’IA sans aborder les vrais problèmes”, estime Emily M. Bender, chercheuse à l’université de Washington et coautrice d’un article de référence sur les dangers de l’IA paru en 2020. “La perspective d’une superintelligence trop puissante ou d’une conscience non humaine revêt encore largement du domaine de la science-fiction. Ce n’est pas la peine de jouer sur les peurs d’un hypothétique futur alors que l’intelligence artificielle représente déjà un danger pour la démocratie, l’environnement et l’économie”, précise Daniel Leufer, spécialiste des technologies innovantes travaillant sur les défis sociétaux posés par l’AI pour l’ONG de défense des droits sur Internet Access Now.
La pause s’impose
Ironiquement, une partie des signataires de l’appel interrogés par France 24 ont, eux aussi, leurs réserves quant au document ou à sa philosophie. “La lettre n’est peut-être pas parfaite, mais il ne fait aucun doute que nous devons prendre le temps de la réflexion maintenant”, assure Carles Sierra, président de l’European Association for Artificial Intelligence (EurAI) et directeur de l’unité de recherche sur l’IA de l’Université autonome de Barcelone.
Pour tous, la pause s’impose. “Tout va trop vite dans l’adoption de ces technologies, alors qu’il n’y a pas de vrai débat au sein de la communauté scientifique sur le sujet”, juge Joseph Sifakis, directeur de recherche à l’université de Grenoble et seul détenteur français d’un prix Turing (reçu en 2007).
Tout se passe comme si les scientifiques avaient été pris de court par la vitesse à laquelle leur création grandit. “L’explosion du ‘deep learning’ [ou ‘apprentissage profond’, c’est-à-dire la capacité des IA à tirer des informations d’une base de données et à créer des connections entre ces informations, NDLR] il y a une dizaine d’années à tout changé”, assure David Krueger, expert en intelligence artificielle à l’université de Cambridge.
Les avancées en « deep learning » ont ensuite permis d’aboutir “il y a environ cinq ans aux premiers résultats pratiques impressionnants de génération de texte grâce aux modèles de langage [comme ChatGPT, NDLR]”, complète Vincent Corruble, chercheur en informatique à l’université de la Sorbonne.
Pour les auteurs de la lettre ouverte, GPT-4 représenterait un point de bascule. “Des scientifiques estiment qu’à partir du moment où il y aura des indices d’apparition d’une intelligence artificielle générale (IAG), il deviendra nécessaire de faire une pause. Et pour certains, avec GPT-4 on commence à en avoir”, explique Vincent Corruble.
L’IAG correspondrait à une machine capable de faire aussi bien ou mieux que l’homme dans la plupart des domaines intellectuels, et pas seulement dans certaines tâches spécialisées comme battre un humain aux échecs ou reconnaître des visages sur une photo. GPT-4 commencerait à y ressembler car il a déjà plus d’un tour dans son sac. Il est ainsi capable à la fois de discuter et de transformer des phrases en image.
Mais d’aucun estime qu’une intelligence artificielle générale n’est qu’une chimère inatteignable. Autant se préoccuper des menaces qui seraient déjà à notre porte.
ChatGPT ne dit pas la vérité
“On n’a pas du tout encore réfléchi, par exemple, à des solutions pour compenser toutes les pertes d’emplois que le recours à l’IA va générer”, souligne Grigorios Tsoumakas, expert en intelligence artificielle à l’Université Aristote de Thessalonique. Plus de 300 millions de salariés dans le monde pourraient perdre leur travail à cause de l’automatisation des tâches, a souligné la banque Goldman Sachs dans une nouvelle étude publiée lundi 27 mars.
Ces IA mises aujourd’hui entre les mains de millions d’internautes comme autant de jouets numériques ne sont pas non plus des plus sûres. “On a vu avec quelle facilité des experts ont pu contourner les quelques mesures de sécurité mises en place sur ces systèmes. Que se passerait-il si des organisations terroristes arrivent à s’en emparer pour créer des virus, par exemple ?”, s’interroge Grigorios Tsoumakas.
Les risques liés à la cybersécurité sont symptomatiques d’un problème plus large avec ces systèmes, d’après Joseph Sifakis. “On ne peut pas mettre à disposition du public des outils aussi facilement alors qu’on ne sait pas vraiment comment ces IA vont réagir”, juge cet expert.
Sans compter qu’il faudrait éduquer le commun des utilisateurs. En effet, “il peut y avoir une tendance à croire que les réponses de ces systèmes sont vraies, alors qu’en réalité ces machines sont simplement entraînées à calculer la suite la plus probable à une phrase pour avoir l’air le plus humain. Ça n’a rien à voir avec le vrai ou le faux”, assène Carles Sierra.
De quoi faire de ces outils de formidables armes de désinformation massive. Mais pas seulement : “Il est urgent de se demander ce qui va se passer quand les gens vont commencer à prendre des décisions qui auront un impact sur leur vie en fonction des réponses de ses IA”, ajoute Joseph Sifakis. Quid, par exemple, si un juge demande à GPT-4 quelle est la meilleure sentence à prononcer dans une affaire ?
Des Big Tech “irresponsables”
Autant de raisons de faire une pause. Mais pour quoi faire ? D’abord, “il faut bien se rendre compte qu’il n’existe pas de test reconnu pour évaluer si un système est dangereux ou sûr”, affirme David Krueger.
Il faut donc s’en remettre aux assurances de Meta (Facebook), Google ou encore Microsoft (qui a investi des milliards dans OpenAI, le créateur de ChatGPT). Pour eux, tout fonctionne à merveille. “Mais ils sont entrés dans une phase de course poursuite qui fait que la sécurité des systèmes ne sera probablement pas leur priorité face aux objectifs économiques”, estime Daniel Leufer, de l’ONG Access Now.
“Les Big Tech ont actuellement une attitude téméraire et irresponsable dans le déploiement de cette technologie. C’est pour ça qu’il faut donner le temps à la communauté scientifique et aux États de trouver les bons freins à mettre à cette course à l’IA”, juge David Krueger.
La lettre ouverte demande un moratoire de six mois sur la mise au point de nouvelle version de ces IA. Une durée qui peut laisser perplexe, “mais ce n’est qu’un point de départ pour essayer d’avoir une meilleure évaluation de ce qui existe. Une fois le délai passé, il sera toujours temps de le prolonger”, affirme Vincent Corruble.
Ces géants de la tech jurent qu’ils sont capables de s’autoréguler. Mais en parallèle, “les équipes chargées d’évaluer si les recherches en IA menées au sein des Meta, Google ou encore Microsoft sont éthiquement justifiées ont été parmi les premières à être dissoutes lorsque ces entreprises cherchaient à réduire les effectifs”, souligne Grigorios Tsoumakas
Et puis ces grands groupes n’ont peut-être pas conscience des conséquences à long terme de leurs innovations. “Si Facebook avait pensé à consulter des spécialistes de l’adolescence à l’époque où ils ont introduit le bouton ‘Like’, on aurait peut-être pu leur expliquer l’effet dévastateur que cela allait avoir sur la santé mentale des jeunes face à cette pression des réseaux sociaux”, estime Carles Sierra. Autrement dit, mieux vaut prévenir que guérir, d’autant qu’avec une technologie qui peut tout changer, la guérison risque d’être très difficile.
FRANCE24