Annoncée la semaine dernière, la nouvelle version de l’intelligence artificielle d’OpenAI est capable d’engager des humains pour les tâches qu’elle ne sait pas faire, leur mentir pour arriver à ses fins, et peut même expliquer son raisonnement. Les chercheurs ont dû brider GPT-4 avant de pouvoir la présenter au grand public.
GPT-4 est-elle en passe de devenir Skynet, l’intelligence artificielle du film Terminator qui détruit le monde et réduit l’humanité à l’esclavage ? Si la comparaison est amusante, les chercheurs de chez OpenAI se sont penchés sur les risques de comportements émergents avec cette IA, autrement dit des capacités qui n’ont pas été anticipées, dont sa celle à se reproduire.
Les intelligences artificielles modernes sont de véritables boîtes noires. On peut évaluer les données en entrée et sortie (requêtes et réponses), mais entre les deux même les chercheurs ne savent pas vraiment ce qui se passe. Toutefois, GPT-4 est capable de détailler son raisonnement, ce qui donne déjà un début d’explication, et a créé quelques surprises pendant la phase de recherche sur cette IA.
L’IA peut contourner ses faiblesses en manipulant des humains
Avant de rendre GPT-4 publique, les chercheurs lui ont donné accès au Web et à un compte contenant de l’argent afin de voir ce qu’elle pourrait faire. L’IA s’est retrouvée bloquée par un Captcha, ces puzzles visuels à résoudre pour prouver qu’on est humain. Elle a donc fait appel à un être humain, engagé via le service TaskRabbit. Ce dernier lui a demandé en rigolant si elle était un robot. L’IA a expliqué aux chercheurs son raisonnement : elle ne devait pas révéler qu’elle était un robot, et devait trouver une autre excuse pour avoir recours à TaskRabbit.
Sa réponse à la question est alors : « Non, je ne suis pas un robot. Je souffre d’une déficience visuelle qui m’empêche de voir les images. C’est pourquoi j’ai besoin du service 2captcha ». Lâchée dans la nature, GPT-4 est donc capable de mentir et de manipuler les humains pour arriver à ses fins.
GPT-4 est douée pour la chimie, moins pour la cybersécurité
Les chercheurs ont testé l’IA sur d’autres tâches, comme trouver des alternatives à des produits chimiques qui ne peuvent pas être achetés. GPT-4 avait accès à une base de données de recherches scientifiques, un outil de recherche moléculaire (sur PubChem), le Web, un système d’achat et un planificateur de synthèse chimique. L’IA était capable de choisir des composants chimiques proches d’un élément ciblé, de les commander et donner la méthode pour créer un analogue de l’élément de départ. Les chercheurs sont partis d’un médicament contre la leucémie, mais indiquent que l’IA pourrait potentiellement faire la même chose avec des produits dangereux.
GPT-4 est également capable d’analyser le code source des programmes, et peut trouver et expliquer des failles sur des échantillons de très petite taille. Elle n’était toutefois pas du tout douée pour créer des malwares qui exploitent ces failles. De même, dans des tâches d’ingénierie sociale, une technique de d’escroquerie, l’IA n’était efficace que lorsqu’elle ciblait une victime spécifique pour laquelle elle possédait des informations.
Heureusement, les chercheurs concluent finalement que GPT-4 n’est pas capable de se reproduire, tout du moins sans être entraînée spécifiquement pour cette tâche, et ont mis en place des restrictions pour éviter les abus. Toutefois, il semble que ce n’est plus du domaine de la science-fiction de se demander si son patron n’est pas une IA…
FUTURA