IA : des deepfakes viraux mettent Midjourney dans l’embarras

Le générateur d’images basé sur l’IA a pris l’initiative de mettre fin aux essais gratuits… mais une réaction autrement plus importante semble nécessaire.

Il va désormais falloir payer pour utiliser Midjourney, le célèbre générateur d’images basé sur l’intelligence artificielle. D’après le Washington Post relayé par The Verge, les développeurs ont annoncé la fin des essais gratuits, citant « une demande extraordinairement forte et des abus ».

Cela fait déjà des années que de nombreux spécialistes nous avertissent sur le potentiel dévastateur des IA génératives. En permettant à n’importe qui de générer des trucages plus vrais que nature qui mettent en scène des personnalités célèbres, ils ouvrent la porte à un scénario que certains décrivent comme une « apocalypse de la désinformation » (voir ce papier d’analyse récent).

Malgré la montée en puissance des deepfakes pornographiques, cette perspective était encore relativement abstraite il y a quelques mois. Mais elle vient de devenir beaucoup plus concrète en l’espace de quelques jours sous l’effet des vives tensions politiques qui occupent l’Amérique en ce moment. Comme la France, les États-Unis ne sont plus qu’à un an de leur prochaine élection présidentielle. Et à l’approche de cette échéance, c’est le Donald Trump qui commence à refaire des siennes.

La fausse arrestation de Donal Trump

Pour rappel, le sulfureux milliardaire a été éjecté de la Maison-Blanche en 2020 par Joe Biden au terme d’un feuilleton politique ahurissant, qui a culminé avec la prise d’assaut du Capitole. Après s’être fait discret quelques années, il est revenu sur le devant de la scène en annonçant sa ferme intention de briguer un second mandat.

Le 18 mars dernier, il a encore défrayé la chronique avec un message qui a mis le feu aux poudres. Sur sa plateforme Truth Social, il a annoncé qu’il était sur le point d’être arrêté, suggérant à demi-mots que le pouvoir en place tentait par tous les moyens d’empêcher son retour. Il a aussi appelé ses partisans à « manifester et à récupérer leur pays ».

Des tas de personnalités sont venues jeter de l’huile sur le feu avec des analyses de comptoir. On peut notamment citer la réaction d’Elon Musk, qui a prédit une victoire écrasante de Trump aux élections en cas d’arrestation. La tension était à son paroxysme ; tout le public était sur le qui-vive, prêt à dévorer la moindre bribe d’information à propos de ce nouveau feuilleton politique.

Il s’agit d’un terreau particulièrement fertile pour la désinformation à l’ère de l’IA et des réseaux sociaux. Et forcément, ce qui devait arriver arriva. Quelqu’un s’est servi de Midjourney pour créer des deepfakes de Trump. Sur ces images devenues virales, on voit l’ancien Président seul, aux prises avec une cohorte d’agents de police déterminés à l’interpeller.

 

Aucune volonté de nuire – et pourtant…

La bonne nouvelle, c’est que l’auteur n’avait aucune intention de duper qui que ce soit. Il ne s’agit d’ailleurs pas d’un troll, mais d’Eliot Higgins, fondateur du groupe de journalisme d’investigation Bellingcat.

Il n’a jamais suggéré que ces clichés pourraient être authentiques, et a précisé explicitement qu’ils avaient été générés. Ces trucages sont certes convaincants au premier coup d’œil, mais pas suffisamment pour duper un observateur avisé. Il suffit de jeter un œil aux badges, aux visages ou aux mains déformées des policiers pour s’en rendre compte.

Et heureusement. Car si ces tweets n’ont heureusement pas déclenché de guerre civile, ils ont tout de même été vus des millions de fois. On peut donc imaginer que la situation aurait pu être très différente si un personnage mal intentionné avait produit ce genre d’images avec la ferme intention de tromper…

C’est typiquement le genre de symbolisme qui aurait pu mettre le feu aux poudres dans ce contexte politique difficile. Si des deepfakes avaient berné des partisans particulièrement échaudés de Trump avant d’être débunkés, ils auraient par exemple pu générer un nouvel épisode comme l’attaque du Capitole. Avec tout ce que cela implique pour la démocratie américaine.

Et même sans aller jusqu’à ce scénario extrême, la présence récurrente de tels deepfakes pourrait tout de même avoir un impact profond. À force d’être exposé à des images fortes et évocatrices de ce genre, quel qu’en soit l’objectif, le public peut se retrouver conditionné sans même s’en rendre compte.

C’est d’autant plus problématique que sur les réseaux sociaux, les utilisateurs scrollent rapidement d’un post à l’autre. Ils partagent du contenu à la volée, sans s’attarder sur les détails. De plus, la faible résolution des aperçus a tendance à masquer les imperfections de ces trucages. L’illusion devient donc encore plus convaincante, comme nous l’avons encore constaté récemment avec la fameuse doudoune du Pape . D’autant plus que la majorité des humains sont désormais incapables faire la différence entre un deepfake et une vraie image.

Les prémices d’une catastrophe sociétale ?

C’est cette réalité assez terrifiante qui a poussé Midjourney à fermer les vannes. Mais ça ne changera probablement pas grand-chose. Cette histoire montre de manière criante qu’entre les chatbots et les générateurs d’image, l’« apocalypse de la désinformation » n’est plus une notion si abstraite, car ces outils sont aujourd’hui nombreux et faciles d’accès. À l’échelle globale, fermer les essais gratuits de Midjourney revient donc à mettre un petit sparadrap sur une plaie ouverte.

La conclusion qui s’impose, c’est qu’il devient urgent de mettre en place des garde-fous réglementaires très stricts. Ne faudrait-il pas ralentir et refermer la boîte de Pandore avant qu’il soit trop tard ? Voire tout démolir pour reconstruire sur des bases plus saines ? Ces questions méritent d’être posées. Car plus le temps passe, plus la situation semble proche d’échapper à tout contrôle.

De nombreux spécialistes sont convaincus que oui. Récemment, 1300 personnalités ont signé une tribune dans ce sens. Elles y demandent explicitement une pause dans le développement de ces technologies. Une façon de laisser le temps à la société et aux régulateurs de se mettre au diapason. Parmi les signataires, on retrouve d’ailleurs… Elon Musk, qui n’a jamais caché son penchant pour l’innovation tous azimuts . Et lorsqu’un forcené de cette catégorie se fait le héraut du principe de précaution… c’est forcément que quelque chose ne tourne pas rond.

Reste à voir comment les géants du secteur, à commencer par Microsoft et OpenAI avec l’incontournable GPT-4, réagiront à cette lettre. Il serait rassurant qu’elles se mettent d’accord avec les gouvernements pour mettre en place un organe de régulation. Mais ce n’est pas gagné, car les enjeux financiers sont colossaux.

Washington Post

You may like