Meta a annoncé, mercredi, l’arrivée d’intelligences artificielles qui seraient dotées de personnalités proches de certaines célébrités et avec qui il sera possible de discuter. Présenté comme une évolution distrayante des ChatGPT et autres, cet anthropomorphisme peut s’avérer dangereux.
Pour Meta (anciennement Facebook), ce sont des IA « fun », pour d’autres, ce pourrait être le premier pas vers la réalisation de « l’artefact le plus dangereux de l’histoire de l’humanité », pour paraphraser le philosophe américain Daniel C. Dennett dans son essai contre « les contrefaçons d’individus ».
Le géant des réseaux sociaux a annoncé, mercredi 27 septembre, le lancement de 28 chatbots (agents conversationnels) censés être dotés de personnalités propres et conçus spécialement pour les plus jeunes. Il y aura ainsi Victor, un soi-disant triathlète capable de « te motiver pour que tu donnes le meilleur de toi-même », Sally, l’amie « libre d’esprit qui saura te dire quand prendre une profonde inspiration ».
Les internautes pourront aussi discuter avec Max, un « cuisinier expérimenté qui donnera les bons conseils », ou se lancer dans une joute verbale avec Luiz, qui n’a pas peur de se montrer « provocateur » dans sa manière de parler.
Un chatbot à l’image de Paris Hilton
Pour renforcer l’impression de s’adresser à une personnalité propre plutôt qu’à un amalgame d’algorithmes, Meta a doté chacun de ses chatbots d’un visage. Grâce à des partenariats avec des célébrités, ces robots ressemblent à la jet-setteuse américaine Paris Hilton, à la star de TikTok Charli D’Amelio ou encore à la joueuse de tennis américano-japonaise Naomi Osaka.
Ce n’est pas tout. Meta a ouvert des comptes Facebook et Instagram pour chacune de ses IA afin de leur donner une existence en dehors des interfaces de discussions, et travaille à leur offrir une voix dès l’an prochain. La maison mère de l’empire de Mark Zuckerberg s’est aussi mise à la recherche de « scénaristes spécialisés dans la création de personnages » afin d’affiner ces « personnalités ».
Meta a beau présenter ces 28 chatbots comme une innocente entreprise de distraction massive des jeunes internautes, tous ces efforts pointent vers un ambitieux projet de construction d’IA « les plus proches possibles des humains », souligne le magazine Rolling Stone.
Cette course aux « contrefaçons d’individus » inquiète bon nombre d’observateurs des développements récents de la recherche sur les grands modèles de langage (LLM, « large langage model ») tels que ChatGPT ou Llama 2, son pendant made in Facebook. Sans aller aussi loin que Daniel C. Dennett qui appelle à enfermer ceux qui, comme Mark Zuckerberg, s’aventurent sur ce chemin, « il y a une partie des penseurs qui dénoncent une approche volontairement trompeuse de ces grands groupes », assure Ibo van de Poel, professeur d’éthique et de technologie à l’université de Delft (Pays-Bas).
« Des IA ne peuvent pas avoir de personnalité »
L’idée d’agents conversationnels « dotés de personnalité est en effet littéralement impossible », assure cet expert. Les algorithmes sont incapables de faire preuve « d’une intention dans leurs actions ou du ‘libre arbitre’, deux caractéristiques qui peuvent être considérées comme intimement liées à l’idée de personnalité », précise Ibo van de Poel.
Meta et autres peuvent, au mieux, imiter certaines caractéristiques constitutives d’une personnalité. « Il doit être technologiquement possible, par exemple, d’apprendre à un chatbot de s’exprimer comme leur modèle », explique Ibo van de Poel. Ainsi, l’IA Amber de Meta, censée ressembler à Paris Hilton, aura peut-être les mêmes tics de langage que son alter ego humain.
L’étape suivante sera d’entraîner ces LLM à exprimer les mêmes opinions que leur modèle. Un comportement bien plus compliqué à programmer, car il implique de créer une sorte de tableau mental fidèle de toutes les opinions d’une personne. Le risque, aussi, est que ces chatbots dotés de personnalité dérapent. Un des agents conversationnels testés par Meta avait ainsi très rapidement exprimé des opinions « misogynes », a appris le Wall Street Journal, qui a pu consulter des documents internes du groupe. Un autre a commis le péché mortel de critiquer Mark Zuckerberg et de vanter TikTok…
Pour construire ces personnalités, Meta explique avoir entrepris de les doter « d’histoires personnelles uniques ». Autrement dit, les créateurs de ces IA leur ont rédigé des biographies dans l’espoir que ces robots en déduisent une personnalité. « C’est une approche intéressante, mais il aurait été bénéfique d’ajouter des psychologues à ces équipes pour mieux cerner les traits de personnalité », souligne Anna Strasser, une philosophe allemande qui a notamment participé à un projet de création d’un grand modèle de langage capable de philosopher.
L’anthropomorphisme de Meta pour ses IA s’explique aisément par l’appât du gain. « Les gens seront sûrement prêts à payer pour pouvoir parler et avoir une relation directe avec Paris Hilton ou une autre célébrité », résume Anna Strasser.
Plus l’utilisateur aura, en outre, l’impression de communiquer avec un être humain, « plus il se sentira à l’aise, restera longtemps et sera susceptible de revenir plus souvent », énumère Ibo van de Poel. Et dans l’univers des réseaux sociaux, le temps – passé sur Facebook et ses publicités –, c’est de l’argent.
Outil ou personne ?
Ce n’est pas non plus étonnant que Meta inaugure sa quête d’IA à « personnalité » avec des chatbots ouvertement destinés aux adolescents. « On sait que les jeunes sont plus susceptibles de verser dans l’anthropomorphisme », assure Anna Strasser.
Mais pour les experts interrogés, Meta s’adonne à un jeu dangereux en insistant ainsi sur les « caractéristiques humaines » de leurs IA. « J’aurais vraiment préféré que ce groupe alloue davantage d’efforts à mieux expliquer quelles sont les limites de ces agents conversationnels, plutôt qu’à tout faire pour les faire passer pour plus humains », regrette Ibo van de Poel.
L’irruption de ces puissants LLM est venue chambouler « la dichotomie entre ce qui est du domaine de l’outil ou de l’objet et ce qui relève du vivant. Ces ChatGPT sont des agents d’un troisième type qui viennent se placer entre les deux extrêmes », explique Anna Strasser. L’être humain apprend encore à se comporter face à cet ovni, et en faisant croire qu’une IA peut avoir une personnalité, Meta suggère de la traiter davantage comme un autre être humain plutôt que comme un outil.
C’est dangereux car « les internautes auront tendance à faire confiance à ce que ces IA vont dire », note Ibo van de Poel. Ce n’est pas qu’un risque théorique : en Belgique, un homme a fini par se suicider en mars 2023 après avoir discuté pendant six semaines avec une IA sur les conséquences du réchauffement climatique.
Surtout, si tout est fait pour brouiller la frontière entre le monde des IA et celui des humains, « cela peut potentiellement détruire la confiance en tout ce qu’on trouve en ligne car on ne saura plus qui a écrit quoi », craint Anna Strasser. Pour le philosophe Daniel C. Dennett, c’est la porte ouverte à la « destruction de notre civilisation, car le système démocratique dépend du consentement éclairé des gouvernés [ce qui ne peut pas être obtenu si on ne sait plus en quoi et en qui avoir confiance] », écrit-il dans son essai. Ainsi, entre discuter avec une IA qui imite Paris Hilton et détruire la civilisation moderne, il n’y a peut-être qu’un clic ?
france24