Intelligence artificielle: de quoi parle-t-on vraiment?

Initiée aux États-Unis en 1956, l’intelligence artificielle (IA) a aujourd’hui totalement investi notre quotidien, des réseaux sociaux à la navigation GPS, de la reconnaissance faciale aux diagnostics médicaux ou à la robotique de l’industrie… Elle fascine, elle fait peur et monopolise l’attention des chercheurs, des citoyens ou des États. Pour comprendre de quoi on parle, il faut retourner aux bases, expliquer ce qu’est l’IA, son histoire, comment elle fonctionne, ce qu’elle peut apporter et quels sont ses dangers. Nicolas Sabouret, professeur en informatique à l’université Paris-Saclay et chercheur au Laboratoire interdisciplinaire des sciences du numérique (LISN-Univ) répond aux questions de RFI.

1. RFI : Qu’est-ce que l’intelligence artificielle ?

Nicolas Sabouret : Pour comprendre, il faut revenir à l’origine du terme « intelligence artificielle ».

Dans les années 1950, le chercheur britannique Alan Turing travaille sur les calculs et en particulier la théorie de la calculabilité et de la complexité. Il faut rappeler que les ordinateurs et l’informatique, c’est la science du traitement de l’information et que la transformation de l’information, c’est du calcul. Turing, fer de lance de la discipline, a défini ce qui est calculable et ce qui est complexe à calculer. Visionnaire, il a imaginé que des machines qui font des calculs comme ça seraient un jour capables de jouer aux échecs, de conduire une voiture ou de faire des tâches que nous, les humains, nous faisons avec notre intelligence. Il a dit à l’époque : « Si les machines arrivent à faire ça, on pourra parler de “Machine Intelligence” » (« intelligence machine »). C’est ce qui a donné ensuite « Artificielle Intelligence », c’est-à-dire l’intelligence artificielle.

Au-delà de l’aspect visionnaire de Turing, il y a deux points importants à comprendre. Le premier, ce n’est qu’à aucun moment les chercheurs ne disent que la machine est intelligente. La machine calcule, elle ne pense pas. Elle fait les choses mieux que nous, ou au moins aussi bien que nous dans certains domaines. Mais elle le fait avec du calcul, non pas avec de l’intelligence. Le chercheur néerlandais Edsger Dijkstra a dit cette phrase géniale : « Se demander si un ordinateur peut penser, c’est aussi stupide que se demander si un sous-marin peut nager. » Cette citation résume tout. Quand on comprend le terme « intelligence artificielle » de cette manière-là, on comprend bien qu’on ne parle pas de machines intelligentes. On parle d’imiter, de reproduire les capacités des humains à l’aide du calcul.

Le second point, c’est la notion de la complexité du calcul : Turing avait compris que certains problèmes étaient compliqués, voire infaisables par une machine. Il s’est alors demandé comment les résoudre par le calcul. Pour expliquer, prenons par exemple le jeu d’échecs. Dans les années 1930, le mathématicien américain John Von Neumann propose un algorithme qui permet de calculer la partie parfaite aux échecs pour gagner à tous les coups. Mais pour le réaliser, il faudrait faire un nombre d’opérations qui est de l’ordre de dix puissance 120, ce qui est impossible. Les chercheurs en IA vont donc chercher des solutions dans un temps de calcul raisonnable, tout en sachant qu’il n’est pas possible d’obtenir la solution exacte. On accepte de faire des solutions rapprochées pour obtenir la plupart du temps un résultat correct. En intelligence artificielle, on parle d’heuristique.

Le terme d’intelligence artificielle est assez trompeur. En fait, c’est du calcul informatique dans lequel on a simplifié le problème pour que ça marche la plupart du temps, même si on sait que ce n’est pas possible de le faire fonctionner parfaitement.

2. Quand est née l’IA et comment a-t-elle évolué au fil du temps ?

L’intelligence artificielle démarre en 1950 avec la publication de l’article d’Alan Turing intitulé « Computing Machinery and Intelligence » (« Les ordinateurs et l’intelligence »), dans lequel il se demande si « les machines peuvent penser » et pose son fameux test de Turing, le jeu de l’imitation.

C’est en 1956, quand des chercheurs se réunissent à l’université de Dartmouth, aux États-Unis, que le terme « intelligence artificielle » est employé pour la première fois. L’organisateur de la conférence, le mathématicien américain John McCarthy, décide de ne pas garder le terme « Machine intelligence » qui était celui de Turing, et choisit celui de « Artificial Intelligence » (« intelligence artificielle »). Dès la fin des années 1950, il y a une effervescence folle sur les machines « capables de tout faire et qui vont nous changer la vie » à travers des clips à la télévision, à la radio, des articles de journaux, etc.

L’IA reste très populaire jusqu’au début des années 1970. Mais les résultats n’étant pas là, l’enthousiasme retombe et l’IA connaît son premier « hiver » jusqu’au début des années 1980. Puis, il y a eu un rebond avec les systèmes experts basés sur des règles écrites à la main pour essayer d’imiter l’intelligence humaine. Ça a duré cinq ans et le souffle est retombé. C’est le deuxième hiver de l’IA, qui dure de 1985 à 2005.

Il y a bien eu la tentative d’IBM avec Deep Blue en 1990 de redonner un coup de blason à l’IA. Mais ça n’a pas fonctionné, parce que les gens ont vu que Kasparov ne pouvait pas suivre face à une machine capable de calculer tous les coups possibles à l’avance. La machine est-elle vraiment intelligente ? Ça n’a pas vraiment aidé l’IA.

En 2005, il se passe deux choses assez incroyables qui ont fait redécoller l’IA.

La première, c’est le développement des cartes graphiques par l’industrie des jeux vidéo. Les cartes graphiques ont la capacité de faire simultanément et très rapidement un très grand nombre d’additions et de multiplications.

Dans les années 1990, les chercheurs Yann Le Cun et Joshua Bengio avaient proposé des réseaux de neurones qui semblaient bien marcher, mais qui nécessitaient des moyens de calcul qu’on n’avait pas à l’époque. En 2005, ils publient un article intitulé « Deep Learning » (« Apprentissage profond ») dans lequel ils expliquent que les cartes graphiques vont leur permettre de calculer plusieurs couches de neurones simultanément et d’être plus performants que ce qu’ils faisaient avant deux couches. Ça a fonctionné et la technique des réseaux de neurones a commencé à convaincre les chercheurs.

La seconde est la création par Google d’une unité de recherche pour s’attaquer aux problèmes encore non résolus des jeux. Ils utilisent un algorithme classique utilisé pour le go auquel ils branchent un réseau de neurones pour que l’algorithme gagne en performance. Le jeu de go est intéressant parce qu’on peut faire jouer la machine contre elle-même, ce qui lui permet de s’entraîner. Elle règle automatiquement les paramètres du réseau de neurones à toute vitesse en faisant des millions de parties contre elle-même, jusqu’à ce qu’elle apprenne à bien jouer contre elle-même. Ce mélange des techniques de calculs classiques et de réseaux neurones aboutit, en 2015, à la victoire d’AlphaGo contre le champion du monde de go en titre. Cet événement relance toute la thématique de l’IA et les gens investissent à nouveau dans ce domaine.

Depuis 2015, l’hiver de l’IA n’est pas retombé et je pense que c’est grâce à la communication prudente des chercheurs sur les limites de l’IA, retransmises par les journalistes au grand public, qui a été de dire : « Attention, l’IA ne marche pas à tous les coups, elle ne peut pas tout faire et on travaille dessus », contrairement aux années 1960 et 1980 où on avait annoncé qu’en dix ans elle aurait tout résolu.

Par la suite, différentes techniques de réseaux de neurones sont développées et notamment celles dont on parle aujourd’hui : les algorithmes de type « Generative Transformer », les transformeurs génératifs qui servent à faire des réseaux génératifs comme ChatGPT et Dall-E.

3. Quelles sont les domaines d’applications de l’IA que l’on trouve dans notre vie quotidienne ?

L’IA est cachée un peu partout. Quand vous envoyez une lettre par la poste, la trieuse utilise un algorithme d’IA pour lire les codes postaux, et ça dès les années 1990. Autre exemple : pourquoi les ascenseurs arrivent à s’arrêter doucement au bon étage ? Grâce à des algorithmes d’IA incorporés dans l’électronique.

Il y a des algorithmes d’IA qu’on utilise tous les jours. Le premier, c’est la recherche d’informations via un moteur de recherche comme Google. Ensuite, il y a les aides à la navigation des GPS. Et les réseaux sociaux : beaucoup de gens n’en ont pas du tout conscience, mais l’algorithme qui leur propose les posts, c’est de l’IA. Si vous avez aimé le post de Rihanna, alors vous aimerez le post de Justin Bieber. Si vous faites une recherche pour des nouvelles chaussures, par exemple, c’est encore un algorithme d’IA qui va vous proposer des publicités de chaussures sur votre compte Instagram.

4. Quels sont les autres domaines qui utilisent l’IA ?

En médecine, on développe des outils d’aide au diagnostic médical depuis vingt ans et ils fonctionnent plutôt bien. Mais la difficulté de leur mise en pratique est due au temps nécessaire pour rentrer toutes les informations dans la machine. Le médecin généraliste n’a pas trop envie de passer une demi-heure à saisir toutes les informations alors qu’il peut faire le diagnostic du patient en l’auscultant.

En revanche, les algorithmes de reconnaissance automatique d’images permettent un réel usage complémentaire entre l’humain et la machine. La machine va faire une sorte de de pré-diagnostic sur l’image que le médecin, qui a l’ensemble du dossier, va pouvoir conforter ou pas.

Ces choses commencent à se mettre à se mettre en place et je pense que dans quelques années, on va vraiment réussir à faire des choses intelligentes avec l’usage de l’IA dans le contexte médical.

L’IA est aussi utilisée dans les outils décisionnels. Une entreprise de distribution d’eau va utiliser l’IA pour tester des hypothèses sur le réseau de distribution de l’eau avant de les mettre en œuvre dans la réalité. Ou encore EDF va utiliser des algorithmes d’IA pour générer des courbes de charge qui permettent d’étudier la manière dont la consommation des foyers va pouvoir évoluer. Ces algorithmes d’IA vont reproduire des choses que font les humains, c’est là que la partie de simulation de l’humain de l’IA peut être utile.

Une autre grande avancée de l’IA qui n’est pas visible pour le grand public, bien qu’elle soit très utilisée, concerne le traitement du son. Aujourd’hui, il y a des algorithmes d’IA dans tous les systèmes de traitement du son, ce qui permet d’avoir du son de très bonne qualité à la radio, les DVD, etc.

L’IA va aussi révolutionner tout ce qui concerne la conservation du patrimoine immatériel (texte, image, audio) en permettant de stocker, de ranger, de trouver, d’organiser des quantités de données astronomiques.

L’IA est également utilisée par l’aéronautique ou encore l’industrie pour optimiser les chaînes de production.

5. Comment fonctionne l’IA ?

La première technique d’IA est basée sur l’écriture de règles qui a été très populaire dans les années 1970 et 1980, car c’est vraiment ce qui marchait le mieux à l’époque. Si je vous demande, par exemple, comment vous faites pour aller de Paris à Marseille en voiture, vous allez m’indiquer les étapes que vous allez suivre. On va écrire des règles à la main pour reproduire le raisonnement de l’humain en programment des « si je vois un panneau routier, alors je tourne à droite ; si je croise un ours, alors je freine pour ne pas le percuter », etc.

Une fois ces règles écrites, il y a des techniques de calculs qui les mettent en œuvre et ça permet d’obtenir des résultats qui sont assez incroyables. Quand on envoie des robots sur Mars, ils fonctionnent avec des systèmes à base de règles. C’est assez adaptatif et on contrôle tout ce qui se passe. On sait où on a mis les erreurs, donc on sait les approximations qui ont été faites. Quand le robot se trompe, on sait pourquoi. Il y a des techniques de diagnostic automatique et de planification qui sont proposées pour faire des tâches de ce type-là, ça marche très bien.

La seconde technique d’IA, c’est l’apprentissage automatique, le terme français pour « Machine Learning ». L’idée est de dire à la machine comment faire les choses. On décide quelles sont les variables importantes à étudier et, ensuite, on demande à la machine de calculer automatiquement les liens entre ces variables. On lui fournit une structure de programme dans lequel il y a les valeurs manquantes et on lui demander de trouver les valeurs pour que ça fonctionne.

L’image que j’aime bien donner est celle d’une table de mixage audio. Quel que soit le son qu’on donne en entrée, il faut trouver la bonne position des boutons pour obtenir le même son en sortie. Face au nombre infini de possibilités, on entraîne la machine en lui donnant une multitude d’exemples pour qu’elle parvienne progressivement régler les paramètres qui lui permettent de calculer la meilleure sortie possible. À force de bouger un peu tous les boutons, on finit par trouver les valeurs qui, la plupart du temps, fonctionnent très bien. D’ailleurs, le terme apprentissage automatique est plutôt mal choisi. Les chercheurs du domaine parlent plutôt d’entraînement.

La technique d’apprentissage automatique la plus utilisée aujourd’hui est celle des réseaux de neurones, qui n’ont rien à voir avec les réseaux de neurones humains. Si Frank Rosenblatt s’en est inspiré quand il a composé sa machine en 1957, il n’a jamais prétendu avoir fabriqué des neurones artificiels.

Un réseau de neurones artificiels, c’est une succession d’additions et de multiplications qui sont enchaînées. Autrefois, on ne savait faire que des réseaux de neurones à une couche, parce qu’on n’avait pas les machines pour le calculer. Aujourd’hui, le réseau profond est composé d’une dizaine de couches et un ordinateur comme le vôtre ou le mien peut faire tourner ce type de réseau de neurones sans problème. À partir de trois couches, on parle de « deep learning » («​​​​​ apprentissage profond »).

On peut utiliser les réseaux de neurones de nombreuses manières différentes. Avec les transformeurs, on entraîne des réseaux de neurones pour qu’ils transforment n’importe quel concept en nombres, et grâce à un autre réseau de neurones, on va produire un résultat pour générer du texte, du son ou de l’image. Si on demande à une IA génératrice d’images : « Je voudrais un pape une doudoune blanche », elle va combiner le nombre « pape » et le nombre « doudoune blanche » pour fabriquer une image de pape en doudoune blanche.

ChatGPT fonctionne comme ça aussi. On lui a donné tous les textes de la langue française à partir desquels il est capable de générer du texte qui ressemble énormément à ce qu’un humain aurait pu écrire. En revanche, si la question posée est absurde, par exemple, « parle-moi des œufs de lapin », il va parler des œufs de lapin. Il va dire des absurdités, mais il le fera très bien. Il faut savoir qu’il y a un petit secret derrière ChatGPT : on lui a fait générer beaucoup de phrases et des humains – on parle de milliers d’humains pendant des milliers d’heures – ont corrigé chaque phrase à la main pour en faire la réponse la plus crédible possible par rapport à la question posée. C’est grâce à ces tâches assez ingrates de « ​​​​fine tuning » (« ​​​​réglage fin ») que ChatGPT est devenu très fort pour donner l’impression de parler comme un humain, qu’il ne tient pas de propos racistes ou qu’il sait dire « je ne sais pas ».

Enfin, la différence entre ces deux techniques est la limite du temps de programmation et donc de coût humain en développement. En pratique, ces algorithmes d’apprentissage donnent très souvent des résultats bien meilleurs que ce qu’un informaticien ferait dans le même temps en le codant à la main. Le travail de réglage de paramètres est rébarbatif et ça, la machine le fait très bien. C’est pour ça que l’apprentissage automatique marche bien.

6. Quelle est la différence entre IA faible et IA forte ?

Les IA qui existent dans notre usage quotidien et dont on parle dans la presse sont toutes des IA faibles, par opposition à cette espèce de rêve de l’IA forte. Il y a d’ailleurs très peu de chercheurs qui s’imaginent que l’IA forte va arriver bientôt.

L’IA forte est une notion qui a été proposée par John Searle, un philosophe spécialiste des questions du langage et de l’intelligence humaine. Il disait que si l’intelligence artificielle est capable de traiter les problèmes complètement différents les uns des autres – conduire une voiture, jouer aux échecs, se fabriquer un sandwich –, une IA qui serait capable de faire plein de choses différentes, on pourrait dire qu’elle est « forte » en ceci qu’elle est proche de l’intelligence humaine.

On est donc plutôt sur des approches qui consistent à améliorer les différentes techniques d’IA faibles pour résoudre des problèmes de plus en plus complexes. Chaque algorithme d’IA résout une famille de problèmes bien spécifiques et il n’est pas forcément réutilisable dans d’autres contextes. Par exemple, l’IA qui joue très bien aux échecs, il faut la réentraîner si on veut la faire jouer au jeu de go. On ne peut pas lui demander de conduire une voiture. Pour ça, il faudra faire appel à une autre IA.

7. Qu’est-ce qui change avec le développement de l’IA dite générative ?

Je suis très sceptique sur les craintes qui sont exprimées vis-à-vis des IA génératives. Évidemment, en tant qu’enseignant, on peut s’inquiéter de voir les élèves tricher plus facilement. On a vu la même chose quand Wikipédia est sorti. Mais les enseignants repéraient assez vite quand la page avait été recopiée, parce que l’élève n’avait rien compris. Le niveau supplémentaire, c’est que ChatGPT il fait la synthèse de la page Wikipédia et il le fait plutôt bien. On peut s’inquiéter de voir les élèves tricher encore plus. Mais je ne le pense pas. Je pense au contraire qu’il faut apprendre aux gens à utiliser ChatGPT. L’idée que la machine va pouvoir nous produire des éléments déjà bien préparés qu’on va pouvoir retravailler ensuite, c’est un peu comme quand on va sur Wikipédia pour rechercher des informations et qu’ensuite on les corrige.

Sur l’aspect de l’image, je suis plus réservé, puisque qu’on ne peut pas – à moins d’être un expert en manipulation d’images – retravailler les images produites par un système génératif. Donc, on va les prendre telles quelles, et le problème est qu’elles ont l’air vraies alors qu’elles sont totalement fausses, elles ne décrivent pas une réalité. Autant le texte, les gens le prennent un peu avec précaution. Mais on a pris l’habitude de considérer que si l’image est vue dans les médias, alors elle est vraie. Il va donc falloir accepter qu’une image peut être le produit d’une machine. C’est là où je rejoins les gens qui expriment des craintes.

Les algorithmes d’IA générative vont aussi permettent aux chercheurs d’attaquer d’autres problèmes de l’IA comme celui de la notion de causalité qui est très compliquée à capturer et qu’on est aujourd’hui obligé d’écrire à la main. De mon point de vue de chercheur, c’est vraiment une avancée qui nous permet de progresser. Du point de vue du grand public, j’entends tout à fait les inquiétudes.

Quand on a remplacé, par exemple, les caissières de supermarché par des caisses automatiques, il y a certes de l’IA pour lire les code-barres ou reconnaître les fruits qu’on a mis sur la balance. Mais la perte des emplois de caissières n’est pas un problème de technologies, c’est un problème de choix de société. Et il faut faire en sorte de protéger ceux qui seraient victimes du déploiement de ces outils. Il faut qu’en tant que société, on apprenne à le faire là, maintenant. Il y a des métiers qui vont être modifiés par les systèmes d’IA génératifs ou autres, car les choses évoluent en permanence. Si on arrive à faire des machines qui accomplissent mieux que nous certaines tâches que nous faisons avec notre intelligence, comment accompagner les gens qui gagnent leur vie en faisant ces tâches ? Je pense que nos sociétés sont capables de prendre ça en charge et d’éviter le chômage ou la reconversion forcée. Et d’apprendre aux gens à se servir de l’IA pour pouvoir travailler sur les compétences qui sont les nôtres.

Le journalisme est un des métiers qui est aujourd’hui le plus en évolution par rapport à ces questions d’IA, puisque les journalistes sont le lien entre les individus et l’information. Des machines qui étaient au départ des machines de traitement de l’information sont devenues les machines de génération de l’information. Il faudrait donc peut-être que les journalistes, qui sont des générateurs d’information, deviennent aussi des régulateurs ou des contrôleurs de l’information pour attester que celle-ci est vraie, ce qu’une machine ne pourra jamais faire. Le journaliste, par son travail, peut certifier que ce qui est dit dans cet article ou ce qui est montré sur des images correspond à une certaine réalité. Mais c’est sûr, le monde de la désinformation a de beaux jours devant lui.

8. En quoi l’IA peut-elle être potentiellement dangereuse ?

Toute technologie est potentiellement dangereuse. Quand on crée une technologie, on sait qu’elle pourrait être mal utilisée. Ce n’est pas l’IA qui est dangereuse en elle-même, il faut vraiment sortir du mythe qu’on a créé un monstre qu’on ne contrôle pas. On sait ce que font les machines et comment elles le font. On ne sait peut-être pas expliquer les calculs qu’elles ont fait, mais on contrôle les résultats. On sait qu’elles peuvent faire des erreurs et quand ça arrive, on essaye de comprendre pourquoi et de l’améliorer.

Ce n’est pas un problème technologique, c’est un problème sociétal. Que des chercheurs s’inquiètent de l’usage de leurs machines, je le comprends et c’est légitime. Au début des années 1940, la physicienne autrichienne Lise Meitner, qui a codécouvert la fission nucléaire, déclare qu’elle ne participerait pas au projet Manhattan, parce qu’il n’est pas normal d’utiliser cette découverte pour faire des bombes. Qu’un chercheur se déclare inquiet qu’on fasse des systèmes qui fabriquent des « fake news » (« infox ») à partir des IA génératives, c’est tout à fait légitime.

Mais en pratique, il faut revenir dans notre rôle de chercheur et donner notre avis sur le plan scientifique. Sur le plan sociétal, ce n’est pas à nous de décider, ce n’est pas notre métier. C’est à la société, aux hommes politiques, aux journalistes, aux artistes, aux autres personnes qui ont des choses à dire sur le sujet. Nous, scientifiques, sommes là pour créer de la connaissance, pas pour voir comment elle est utilisée.

En revanche, je suis contre le fait de dire qu’il faut arrêter la recherche sur tel domaine, parce que c’est potentiellement dangereux. Je pense que c’est une erreur de croire que la connaissance est dangereuse. C’est l’usage de la connaissance qui peut être dangereux, c’est bien là la différence. La recherche sur l’IA doit continuer, ce sont les usages qu’il faudrait mettre en pause. Mais c’est compliqué, parce que on ne trouvera jamais un accord mondial là-dessus. Ça fait cinq ans maintenant que les Chinois utilisent la reconnaissance faciale pour noter les gens dans la rue. Il faut savoir que l’algorithme ne fait que reconnaître les gens. Ce sont des humains qui mettent les notes. Est-ce qu’il faut pour autant arrêter les recherches en vision artificielle qui sont les mêmes qui permettent de détecter les cancers du sein ? Je ne crois pas.

Les gens qui connaissent l’IA vont alerter sur les usages et c’est normal. Dire : « Attention, avec Dall-E, on peut fabriquer une image de tout et n’importe quoi. » De même, c’est une bonne chose que ChatGPT soit sorti pour montrer qu’on est capable de faire du texte qui a l’air très vrai. Même si ça parle d’œufs de lapins, quelque chose qui n’existe pas, ça en parle très bien. Avec les « deepfake » (« hypertrucage »), on est capable de faire dire à Joe Biden de bombarder la Russie. C’est bien que les gens sachent ce qu’on est capable de faire avec ces technologies d’IA. Il faut qu’ils s’emparent du sujet et qu’ils comprennent de quoi on parle. Je crois que c’est ça l’enjeu.

RFI

You may like