Une technique fiable pour débusquer les deepfakes de dirigeants politiques

Deux chercheurs de l’université de Berkeley ont mis au point une technique fiable pour repérer les vidéos truquées par intelligence artificielle de dirigeants politiques. Ils créent des modèles basés sur des images d’authentiques de ces personnalités.

Dès leur apparition en 2016, les deepfakes ont suscité des craintes en matière de manipulation et de fausses informations. On y est. Le 16 mars 2022, alors que les Russes envahissent l’Ukraine depuis près de trois semaines, le site de la chaîne de télévision Ukraine 24 est piraté : il diffuse un message vidéo du président ukrainien Volodymyr Zelensky demandant à ses concitoyens de rendre les armes. C’est une vidéo trafiquée par des algorithmes d’intelligence artificielle permettant de faire dire à quelqu’un une chose qu’il n’a pas dite, en appliquant à l’image la gestuelle et les mouvements faciaux correspondant au propos.

Faux Poutine et faux maire de Kiev
En représailles surgit un deepfake de Vladimir Poutine, le président russe assurant que la paix vient d’être conclue entre les deux pays et que la Crimée sera une république indépendante au sein de l’Ukraine. Trois mois plus tard, les maires de Berlin (Allemagne), Vienne (Autriche) et Madrid (Espagne) discutent, tour à tour, en visioconférence, avec leur homologue de Kiev (Ukraine). Or, ce dernier était, là-encore, un faux, ce qu’a confirmé l’ambassade d’Ukraine à Berlin. L’édile berlinois ayant d’ailleurs eu des doutes durant l’échange, il a écourté la conversation.

sciencesetavenir

You may like