Pour empêcher les élèves de tricher à leurs examens grâce à ChatGPT, Open AI a trouvé une solution radicale.
Fort de son succès à travers le monde, l’intelligence artificielle de génération de texte ChatGPT pose déjà de sérieux problèmes. D’abord parce que les productions liées à l’IA polluent de plus en plus l’Internet mondial, et quelles pourraient bientôt atteindre un point de non retour. Ensuite parce qu’il est de plus en plus difficile de différencier un texte écrit par un humain d’un texte généré artificiellement.
Que ce soit pour des questions de droits d’auteur ou pour permettre aux professeurs de vérifier que leurs élèves ont bien écrit eux-mêmes leurs dissertations, Open AI planche actuellement sur une méthode d’identification fiable des textes générés par ChatGPT. Objectif pour l’entreprise : empêcher l’outil d’être utilisé à des fins malveillantes, mais aussi protéger les textes originaux, sans brider les progrès réalisés ces derniers mois en matière d’intelligence artificielle.
Un filigrane invisible
Pour dissuader les élèves de tricher, Chat GPT pourrait ainsi déployer un filigrane invisible à chaque génération de texte. Pour le chercheur en sciences de l’informatique Scott Aaronson, cette solution permettrait de créer une “signature invisible rédigée par un modèle de langage reposant sur de l’IA“. Un prototype créé par Hendrik Kirchner, ingénieur au sein d’OpenAI serait d’ores et déjà fonctionnel, précise le chercheur.
“Nous voulons qu’il soit beaucoup plus difficile de prendre les résultats d’un modèle de langage IA et de les faire passer pour des résultats humains.“
De grands pouvoirs impliquent de grandes responsabilités, et les chercheurs derrière Open IA et ChatGPT semblent conscient que leur outil est susceptible de faciliter “le plagiat académique, évidemment, mais aussi la génération massive de propagande“. Si le contenu du texte généré par IA ne changera pas, des clés cryptographiques pourront, à la manière d’un filigrane sur une photo, prouver que le document a été rédigé par une intelligence artificielle.
Reste que l’outil est encore en stade de développement, et qu’il reste facilement contournable, expliquait Srini Devadas, professeur en sciences de l’informatique au Massachusetts Institute of Technology au site TechCrunch. Il suffirait en effet de reformuler certaines tournures de phrases pour faire sauter les protections. De plus, l’empreinte numérique ne serait pas détectable par un humain.
Tech Crunch