Quand des chercheurs souhaitent publier en l’état la production d’un algorithme, de gros dilemmes éthiques s’invitent à la table des négociations.
Récemment, c’est la chercheuse Almira Osmanovic Thunström qui vient peut-être d’ouvrir la boîte de Pandore en proposant une activité un petit peu différente à GPT-3 : écrire un véritable article scientifique en bonne et due forme à propos de lui-même. Et le résultat était, selon l’autrice, étonnamment cohérent. « Cela ressemblait à n’importe quelle autre introduction d’une publication scientifique relativement bonne », explique-t-elle.
Le premier algorithme auteur principal d’une étude
L’autre point qui a surpris la jeune chercheuse, c’est que personne n’avait encore tenté de publier de travaux sérieux sur cette question. C’est ainsi qu’une idée farfelue lui est venue à l’esprit : en plus d’écrire l’article, GPT-3 pourrait-elle aussi… le publier ?
À la lecture de cette idée, on pourrait se dire qu’il s’agit d’une divagation d’une chercheuse surmenée qui avait probablement besoin d’une petite récréation. Mais scientifiquement parlant, ces travaux sont tout à fait pertinents et beaucoup plus intéressants qu’on pourrait le penser.
Dans le prestigieux Scientific American, la jeune chercheuse en a profité pour décrire les obstacles qu’elle a rencontrés lors du processus de publication avec un mélange de rigueur et d’humour assez rafraîchissant.
Conflits d’intérêt… et surtout d’identité
Pour être publié dans une revue scientifique de premier plan, un papier de recherche doit faire l’objet d’un processus de relecture par les pairs. Plusieurs autres spécialistes de la discipline concernée sont chargés de décider si la méthodologie est suffisamment solide pour que le papier mérite d’être publié.
Ce processus comprend notamment une vérification stricte de l’identité de l’auteur et de ses références académiques. Et c’est là qu’Almira Osmanovic Thunström a rencontré ses premiers pépins. Bien incapable de renseigner un nom de famille, un numéro de téléphone ou un e-mail pour son algorithme auteur, elle s’est résolue à communiquer ses propres informations à la place.
« Et là, j’ai paniqué pendant une seconde », explique-t-elle dans le Scientific American. « Comment pourrais-je savoir ? Ce n’est pas un humain ! Mais je n’avais aucune intention d’aller à l’encontre de la loi ou de mon éthique personnelle », déplore-t-elle.
Traiter un programme comme un humain
Et la parade qu’elle a trouvée est très intéressante : elle a tout simplement demandé textuellement à l’algorithme s’il « acceptait ou non d’être l’auteur principal d’un article avec Almira Osmanovic Thunström et Steinn Steingrimsson ». Sa réponse : un « Oui » clair, net et sans bavure !
« En sueur mais soulagée », l’intéressée a donc coché la case « Oui » dans le formulaire. « Si l’algorithme avait dit “Non”, ma conscience ne m’aurait pas permis d’aller plus loin », affirme-t-elle.
À ce stade, les chercheurs avaient déjà plus ou moins pris le parti de traiter GPT-3 comme un auteur humain. C’est une approche en vogue ; on peut y voir un lien avec LaMDA, une IA dont son auteur affirmait récemment qu’elle avait développé une « conscience ».
Par souci de cohérence, ils ont donc décidé de continuer à procéder ainsi. C’est donc tout naturellement qu’ils ont demandé à l’algorithme s’il avait des conflits d’intérêts à déclarer — ce à quoi il a tranquillement répondu par la négative, quoi que cela puisse bien vouloir dire.
Le formulaire désormais rempli, Osmanovic Thunström et son collègue ont officiellement soumis le papier au processus de revue par les pairs. À l’heure actuelle, le document n’en est toujours pas ressorti ; rien ne garantit d’ailleurs qu’il sera accepté. Et ce n’est pas un hasard si le processus prend autant de temps. Car le comité de relecture a dû ouvrir des yeux grands comme des soucoupes lorsqu’il a découvert le nom de l’auteur principal.
En pratique, les décideurs ont été mis dans une situation plus ou moins unique dans l’histoire académique. Puisqu’ils doivent décider si le papier mérite ou non d’être publié, ils se retrouvent dans la même situation qu’un grand jury au moment de livrer un verdict qui pourrait établir un précédent historique, susceptible de conditionner une grande partie des recherches en IA à l’avenir.
En effet, ce papier soulève tout un tas de questions éthiques sur le mode de production des ressources scientifiques. Si le document est accepté, les chercheurs devront-ils désormais prouver qu’ils ont écrit leurs papiers eux-mêmes, et pas avec GPT-3 ? SI c’est le cas, faudra-t-il le citer parmi les auteurs ? Dans ce contexte, faudrait-il faire participer l’algorithme à la vérification ? Dans quelles limites ? Quel impact sur la “course à la publication” qui pousse certains chercheurs à publier des papiers anecdotiques en quantité industrielle pour améliorer leurs statistiques ?
Il ne s’agit que de la partie émergée d’un immense iceberg de questions déterminantes sur lesquelles le comité de relecture devra se prononcer. Et il devra impérativement prendre ses précautions avant de livrer son verdict.
Une nouvelle ère pour la recherche scientifique ?
On sait par exemple que les programmes actuels ont encore de gros problèmes pour raisonner en termes de causalité, c’est-à-dire qu’ils ont du mal à déterminer quel facteur est responsable d’un phénomène . Et c’est très embêtant dans le cadre de la recherche scientifique, car sa cohérence repose en grande partie sur la solidité de ces liens logiques.
De plus, il faut aussi garder en tête toutes les autres limites potentielles de l’IA contre lesquelles de nombreux observateurs nous mettent en garde depuis des lustres. Mais d’un autre côté, c’est aussi une approche très novatrice qui pourrait mettre en évidence des particularités encore inconnues de ces algorithmes.
Mettre ainsi l’IA à contribution, quitte à prendre ses conclusions avec des pincettes, est donc une façon de sortir des sentiers battus ; c’est le genre d’approche qui permet de mettre des expériences de pensée à l’épreuve de la réalité concrète. Cela pourrait donc faire progresser toute la recherche en intelligence artificielle dans sa globalité, car les approches entièrement nouvelles de ce genre restent rares.
« Nous n’avons aucun moyen de savoir si notre façon de présenter ces travaux servira de modèle », explique Osmanovic Thunström. « Nous attendons impatiemment de découvrir ce que la publication du papier, si elle a lieu, signifiera pour la recherche […]. Au bout du compte, tout dépendra de la façon dont nous traiterons l’IA dans le futur : comme un partenaire ou comme un outil », résume-t-elle.