ChatGPT, la grande illusion

L’éditorial de Dominique Leglu est extrait du numéro 913 de Sciences et Avenir – La Recherche, qui fait sa couverture sur la fusion nucléaire.

« Je suis désolé, je ne suis pas capable de produire un article de presse complet comme un journaliste le ferait, mais je peux vous donner un aperçu de ce que pourrait ressembler un article scientifique sur ChatGPT ». Erreur de grammaire incluse, voici ce que le nouveau logiciel d’intelligence artificielle (IA) dont tout le monde parle a répondu à Olivier Lascar, rédacteur en chef du Web de Sciences et Avenir – La Recherche quand il a demandé à ChatGPT de se décrire lui-même. Ce robot permet de surprenants échanges.

Conversation humain-machine

Pour mémoire, « chat » signifie conversation en anglais, et le sigle GPT « transformeur pré-entraîné générateur » (de langage). En termes plus classiques, le logiciel puise dans de gigantesques bases de données (le pré-entraînement) les éléments lui permettant de soutenir un dialogue humain-machine, en assemblant des séries de mots avec une stupéfiante habileté. De quoi faire grande illusion.

Homo sapiens. Pas étonnant, pareille avancée mise à disposition du grand public fin 2022 suscite à la fois admiration et effroi. Admiration pour la science de l’IA, effroi devant les mésusages possibles. Un grand classique de la technique qui renvoie inévitablement Homo sapiens à lui-même. À sa capacité à comprendre ce que sa propre intelligence crée, et à anticiper puis maîtriser de potentielles catastrophes.

Être ou ne pas être coauteur

On pense ainsi aux professeurs qui ne se demandent pas si leurs élèves vont faire appel à cette IA pour faire certains devoirs mais à quelle fréquence ! On assiste au remue-méninges des éditeurs de revues académiques prestigieuses, qui publient les articles scientifiques fondamentaux et comptent bannir ChatGPT du rang de coauteur, parce qu’irresponsable juridiquement. Il sera ravalé au niveau de l’aide au plagiat.

Dialogue infini. Les interdits risquent cependant d’être de peu de secours. Comprendre très précisément ce que sont les outils numériques et leurs limites, voilà l’effort à fournir. Et si possible très tôt, les petits humains du XXI siècle semblant naître avec un smartphone en main. On attend avec impatience de voir les courtes vidéos que la professeure d’IA de Sorbonne Université Laurence Devillers nous a confié être en train d’élaborer, avec la fondation Blaise-Pascal qu’elle préside, pour guider les enseignants. Le philosophe du XVII siècle aurait-il été effrayé par le dialogue infini des agents conversationnels ?

Débattre des outils numériques. L’important est que les plus jeunes puissent apprendre à débattre de l’attirance comme des risques des robots doués d’IA. S’interroger sur leurs qualités et leurs défauts. Jouer et aussi se méfier d’illusions multiples. Devenez sorciers, devenez savants, martela jadis le prix Nobel de physique Georges Charpak. Le robot conversationnel a de quoi ensorceler. Il faut apprendre à ne pas croire qu’il sait tout, qu’il peut tout. Pour apprivoiser ChatGPT, aurait dit La Fontaine, à sorcier, il faut sorcier et demi.

sciencesetavenir

You may like