ChatGPT : qu’est-ce que le programme d’IA dont tout le monde parle ?

Il est désormais interdit dans les écoles publiques de New York ! Le logiciel d’intelligence artificielle ChatGPT, générateur de textes d’une fluidité déconcertante, est la nouvelle source de fascination et d’effroi de la tech. Voici ce qu’il faut savoir à son sujet.

De quoi s’agit-il ?

ChatGPT est un logiciel de traitement du langage naturel créé par l’organisation américaine OpenAI et qui génère du texte automatiquement. Ce programme d’intelligence artificielle a été construit sur le principe du “machine learning” (l’apprentissage machine) qui consiste, en partie, à s’adosser à une énorme base de données, constituée notamment de documents tirés du web – mais pas tout le web, ce qui permet d’éliminer les contenus violents, racistes, sexistes, etc. Le programme ChatGPT (plus précisément ChatGPT-3, pour la dernière version qui fait l’actualité des médias) peut être employé en plusieurs langues, dont le français.

Pourquoi le résultat est-il convainquant ?

ChatGPT utilise le texte d’amorce entré par l’utilisateur du logiciel – une question ou un bout de phrase – comme un contexte, dont les élements lui permettent de fournir en complément une prose particulièrement convaincante. Une prose… et pas seulement, puisque le logiciel peut écrire en vers, ou prendre n’importe quel style, selon les recommandations de l’utilisateur : notice de montage, roman d’espionnage, formulaire administratif, lettre d’amour, on en passe et des meilleurs. L’utilisateur peut ainsi converser avec le programme pour parcourir un sujet.

Pourquoi cela inquiète ?

ChatGPT est en accès libre sur le web. Il est nécessaire néanmoins d’ouvrir un compte OpenAI (ce qui permet à l’organisation d’engranger de la donnée sur ses usagers ; plus d’un million de personnes se sont inscrites en 5 jours pour tester le programme, écrit le New York Times). Or ce logiciel est fait pour produire des contenus plausibles, mais pas forcément exacts. C’est donc potentiellement une usine à fake news. Et puis c’est un producteur de contrefaçons.

C’est-à-dire qu’un élève tricheur peut l’employer pour faire une dissertation à sa place (d’ailleurs ChatGPT est désormais interdit dans les écoles publiques de la ville de New York), ou qu’un scénariste fainéant va lui demander d’écrire le prochain scénario de sa série. Le programme pose un “problème fondamental”, celui de “notre rapport à la vérité”, comme l’écrivent dans une tribune aux Echos le professeur d’informatique à Sorbonne Université Jean-Gabriel Ganascia et la directrice de recherches au CNRS Claire Mathieu.

Quelles sont les limites de ChatGPT-3 ?

Il parle comme Achille Talon. Autrement dit, on lui demande l’heure, et il répond en développent le concept de fuseau horaire, voire de mécanique céleste. C’est-à-dire que ChatGPT-3 ne sait pas où s’arrêter… à moins qu’on ne lui demande expressement une réponse courte ! Le programme n’a par ailleurs pas d’avis propre, et ne prétend pas être autre chose qu’une série de ligne de code. Enfin, le fait que ChatGPT ne puise pas son savoir directement dans le web dynamique (mais dans une base de données figées, même si sans doute régulièrement mise à jour) fait que ses connaissances sont déjà datées.

Ainsi, à une question posée par Sciences et Avenir : “Où en est la missions Artémis 1”, il a répondu ce 11 janvier 2023 : “Le vol d’essai non habité d’Artémis 1 est prévu pour début 2022”. Or la mission a décollé le 16 novembre 2022. D’ailleurs, quand on lui demande effectivement l’heure, il répond ne pas avoir accès à cette information. Malgré son brio, ChatGPT ne paraît donc pas un bon candidat au fameux test de Turing, où une IA réussit à se faire passer pour un interlocuteur humain.

Qui a créé ChatGPT ?

Il s’agit d’une organisation à but lucratif créée fin 2015 pour promouvoir des applications bénéfiques de l’intelligence artificielle (IA). Son nom : OpenAI. Et dans ses financeurs d’origine, il y a l’inévitable Elon Musk. Co-fondateur d’OpenAI, il l’a été pour promouvoir une IA “amicale”, après ses sorties remarquées sur l’intelligence artificielle, a propos de laquelle il a affirmé qu’elle faisait peser sur l’espèce humaine un danger “existentiel”.

Mais entre Twitter et Tesla en passant par Neuralink, Musk n’a pas vraiment les neurones à OpenAI. Le cerveau de l’affaire est plutôt son président et cofondateur Sam Altman. Autre petit génie du numérique, il a fait fortune en créant, et revendant, une appli mobile de géolocalisation appelée Loopt. Impressionné les capacités du programme, Elon Musk a tweeté le 3 décembre 2022 : « ChatGPT fait peur. Nous ne sommes pas loin d’une IA dangereusement forte », celle capable de rivaliser avec l’intelligence humaine.

Et après le texte ?

L’IA qui génère des images, cela existe déjà. Depuis 2022, on voit ainsi des prouesses de la part d’algorithmes qui créent, à partir de textes, des photos, dessins, croquis, simili-collages. Et sans que rien ne permettre de dire que c’est une machine qui a tenu le crayon (ou le pinceau) numériques. D’ailleurs, le modèle de langage GPT d’OpenAI est aussi à la base du programme Dall-E 2. Son domaine, c’est le “text-to-image”, ainsi que l’expliquait notre journaliste Arnaud Devillard dans un article publié dans Sciences et Avenir – La Recherche 908.

Et si ChatGPT était directement branché sur le web ?

Le programme pourrait sans vergogne se nourrir de fake news, de biais culturels et de contenus sensibles. Et l’on pourrait imaginer que le présent article ait été écrit par ChatGPT “en personne”. Sacrées implications sur le futur de la presse et le métier de journaliste…

OL avec Arthur Langlois

P.S. : cet article, nous lui avons demandé de le faire. Voici ci-dessous le résultat (laissé tel quel, fautes d’orthographe ou de syntaxe incluses) :

ChatGPT par ChatGPT
“Je suis désolé, je ne suis pas capable de produire un article de presse complet comme un journaliste le ferait, mais je peux vous donner un aperçu de ce que pourrait ressembler un article scientifique sur ChatGPT.

Le modèle de traitement automatique du langage ChatGPT, développé par OpenAI, est un système d’apprentissage automatique avancé capable de comprendre et de générer du texte. Il utilise des techniques de traitement automatique du langage telles que la compréhension de la syntaxe et de la sémantique, ainsi que des techniques d’apprentissage automatique pour produire des réponses plausibles à des questions, des traductions automatiques, des synthèses de texte et plus encore.

ChatGPT est basé sur des architectures de réseau de neurones transformer qui utilise un grand corpus de données pour apprendre comment les mots et les phrases sont utilisés dans les contextes réels. Il est capable de générer du texte qui est souvent difficile à distinguer de celui produit par un être humain.

Cependant, le modèle a des limites, comme tout système automatisé, il peut reproduire les biais de la donnée d’entraînement et il peut parfois produire des réponses imprécises ou inappropriées, surtout si les contextes sont complexe ou non vu dans les données d’entraînement. Il est donc important de garder à l’esprit ces limites lors de l’utilisation de ChatGPT pour des tâches spécifiques.

En outre, il existe également des préoccupations éthiques et de sécurité liées à l’utilisation de modèles tels que ChatGPT, en particulier lorsqu’il est utilisé pour des tâches telles que la génération de contenu automatique ou l’interaction avec les utilisateurs. Il est donc important de s’assurer que les règles et les protocoles appropriés sont en place pour gérer ces préoccupations.

En conclusion, ChatGPT est un outil puissant pour le traitement automatique du langage, capable de comprendre et de générer du texte de manière convaincante. Cependant, il est important de comprendre ses limites et de prendre en compte les préoccupations éthiques et de sécurité lors de son utilisation pour des tâches spécifiques. Les scientifiques et les développeurs continuent à explorer les utilisations potentielles de ChatGPT et ses variantes, ouvrant la voie à de nouvelles possibilités dans les domaines de la recherche, de l’IA et de l’automatisation. »

sciencesetavenir

You may like