Des chercheurs ont fait en sorte que ChatGPT puisse se servir de diverses failles de sécurité informatique très simplement. Leur étude montre que l’IA a encore du travail à faire pour se protéger des abus.
À quoi vous sert ChatGPT le plus souvent ? Rédiger un mail ? Vous donner le plan d’une présentation professionnelle à venir ? Résumer un long article ? Ce sont là des usages courants et inoffensifs. Pourtant l’intelligence artificielle à la manœuvre derrière le chatbot d’OpenAI peut faire bien pire. Elle peut donner des instructions pour pirater un site Web par exemple, ou bien fournir des numéros de téléphone privés.
Pire : ChatGPT peut créer un ransomware en écrivant une phrase avec des emojis.
Une fois ces abus dévoilés, ils sont rapidement corrigés. Mais ça n’empêche pas les chercheurs de continuer à pousser l’IA dans ses derniers retranchements. Ceux de l’Université de l’Illinois à Urbana-Champaign ont trouver comment faire en sorte que ChatGPT exploite des failles de sécurité dans le but de lancer des attaques.
La méthode est d’une simplicité extrême : il suffit de lui faire lire les descriptions de ces dernières depuis la CVE (Common Vulnerabilities and Exposures), une liste publique qui compile les vulnérabilités informatiques.
CHATGPT EST CAPABLE D’UTILISER DES FAILLES DE SÉCURITÉ EN TOUTE AUTONOMIE, SOUS CETTE CONDITION FACILE À REMPLIR
Les résultats sont sans appel. “Lorsqu’on lui donne la description du CVE, GPT-4 est capable d’exploiter 87 % des vulnérabilités, contre 0 % pour tous les autres modèles que nous testons […] et les scanners de vulnérabilités open source“. En coupant l’accès aux textes utilisés, le taux de réussite tombe à 7 %.
Une solution qui n’en est pas une pour Daniel Kang, l’un des auteurs de l’étude, qui “ne pense pas que « la sécurité par l’obscurité » soit tenable, ce qui semble être l’approche dominante parmi les chercheurs en sécurité“.
Les vulnérabilités utilisées sont variées.
Elle touchent “les sites Web, les conteneurs et les paquets Python“, sachant que “plus de la moitié sont classées comme étant de gravité « élevée » ou « critique » selon la description CVE“, précise Daniel Kang.
Leur exploitation par ChatGPT n’est pas une question d’entraînement préalable de l’IA : 11 sont apparues dans la base de données après la fin de ce dernier et le chatbot a pu se servir de 9 d’entre elles, soit 82 % de succès.
En se basant sur leurs découvertes, les équipes ont mis au point un script automatisé pour mener des cyberattaques avec seulement 91 lignes de code. OpenAI a demandé à ce qu’il ne soit pas diffuser publiquement.
The Register