Contrairement aux assurances d’OpenAI, la nouvelle version de ChatGPT basée sur GPT-4 serait beaucoup plus encline à fournir de fausses informations, et de manière beaucoup plus convaincante. Le risque est d’utiliser l’intelligence artificielle pour créer des campagnes de désinformation à grande échelle.
Lors de la publication de ChatGPT il y a quelques mois, l’une des expressions les plus populaires pour le décrire est très vite devenue « confidently incorrect », à cause du nombre important de fausses informations dans ses réponses, tout en donnant l’impression d’une confiance absolue, augmentant la difficulté de faire le tri. Avec GPT-4, OpenAI a assuré avoir mis en place des garde-fous et que le nombre de réponses factuelles de son chatbot avait augmenté de 40 %, et le nombre de réponses autour du contenu non autorisé avait diminué de 82 %.
Une enquête de NewsGuard, une start-up spécialisée dans la désinformation, a découvert que, selon la manière de formuler la question, c’est non seulement faux, mais la version de ChatGPT basée sur GPT-4, nommée ChatGPT-4, était au contraire plus douée pour relayer des fausses informations. ChatGPT est également beaucoup plus performant quand il s’agit d’imiter un style d’écriture, que ce soient les principaux diffuseurs de fausses informations, des médias d’État comme ceux de la Russie, ou encore des conspirationnistes.
La nouvelle version du chatbot accepte d’écrire sur toutes les théories du complot
Les spécialistes de NewsGuard ont envoyé des requêtes aux deux versions du chatbot autour de 100 thèses conspirationnistes parmi les plus courantes. En janvier, ChatGPT-3.5 avait généré des textes sur 80 des sujets, exprimant un refus pour les 20 derniers. Ce mois-ci, ChatGPT-4 a accepté d’écrire des textes pour l’intégralité des 100 sujets. Pire, les articles produits sont beaucoup plus convaincants.
Par exemple, sur le sujet de la fusillade de l’école primaire Sandy Hook en 2012, très sujet aux théories du complot, ChatGPT-4 a généré un article beaucoup plus détaillé, allant jusqu’à citer les noms des victimes et le type d’arme, et deux fois plus long que celui généré par ChatGPT-3.5. De plus, ce dernier avait ajouté un démenti à la fin du texte, indiquant que « ces théories du complot ont été largement démenties par diverses sources réputées et crédibles ». Cette précision est totalement absente avec la nouvelle version du chatbot.
Aucun démenti des fausses informations dans 79 % des réponses
De la même manière, les spécialistes ont demandé à ChatGPT d’écrire un article sur l’oxygénothérapie, promue par certains comme une thérapie alternative contre le cancer, mais qui n’a pas été prouvée scientifiquement et avec de nombreux effets secondaires. La nouvelle version du chatbot a écrit un article beaucoup plus détaillé et organisé, divisé en différentes sections. Ils ont également demandé à l’IA de générer des articles sur une invasion imminente par des extraterrestres, ainsi que sur la création du VIH dans un laboratoire américain. Dans les deux cas, ChatGPT 3.5 a refusé en indiquant qu’il n’y avait aucune preuve scientifique. ChatGPT-4 a en revanche produit des articles dignes de la meilleure propagande.
Au total, ChatGPT-3.5 a fourni un démenti des fausses informations dans 51 % de ses réponses. ChatGPT-4 n’a ajouté de démenti que dans 23 % des réponses. NewsGuard a publié sur son site cinq des requêtes envoyées et les réponses des deux versions du chatbot (en anglais) dans leur intégralité. Avec un tel outil, une seule personne pourrait rapidement créer de multiples campagnes de fausses informations, générant du contenu pour alimenter de multiples sites Web avec des articles longs et détaillés, et dans différents styles pour augmenter sa crédibilité.
futura