Une étude récente a montré comment l’intelligence artificielle pouvait être utilisée pour jouer avec les souvenirs humains. Lucien Rochat, docteur en psychologie aux HUG, met en lumière les mécanismes et la malléabilité de notre mémoire.
Vous avez probablement une multitude de faux souvenirs datant de l’enfance qui vous collent à la mémoire. On se souvient des événements, on les raconte, on les ressasse et les faits se détournent de la réalité. C’est humain, la science a depuis longtemps confirmé que notre mémoire est remplie de faux souvenirs.
Les chercheurs ont décidé d’utiliser l’intelligence artificielle pour jouer avec. Curieux d’étudier la mémoire humaine, ils ont découvert qu’ils pouvaient créer de faux souvenirs en montrant aux sujets divers extraits de remakes de films jamais produits.
Publié dans la revue PLOS Un, leur étude était basée sur un panel de 436 personnes exposées à des extraits de films populaires. Au sein de ceux-ci, la technologie deepfake a été utilisée pour remplacer les acteurs par d’autres, allant de Brad Pitt à Le brillant à Charlize Theron comme Capitaine Marvel.
Un exploit généré par l’intelligence artificielle
Gillian Murphy, auteure principale de l’étude et chercheuse à l’University College Cork en Irlande, a partagé un exemple sur les réseaux sociaux. L’effet est assez convaincant, comme on le voit dans un clip de Chris Pratt prenant le relais de Harrison Ford dans un épisode d’Indiana Jones.
Les résultats de l’étude sont clairs : le deepfake a la capacité de déformer nos souvenirs. Les résultats rapportent que les participants ont facilement formé de faux souvenirs pour ces films de fiction. Pour donner quelques chiffres :
- 41% rappelait que le remake de Capitaine Marvel (avec Charlize Theron) était mieux que l’original
- 13% s’est souvenu que le remake d’Indiana Jones (avec Chris Pratt) était meilleur que l’original
- 12% rappelait que le remake (avec Will Smith) de Matrice était mieux que l’original
- 9% rappelait que le remake (avec Brad Pitt) de brillant était mieux que l’original.
Lucien Rochat, docteur en psychologie aux Hôpitaux universitaires de Genève (HUG), confirme qu’il s’agit d’un phénomène connu de longue date.
“Oui, la mémoire humaine est naturellement très sujette aux faux souvenirs”
LEt si l’IA entre dans l’équation, pourrait-on la manipuler un peu plus ? “L’IA n’est pas plus susceptible de provoquer de faux souvenirs”, assure le Dr Rochat. D’autre part, “le visionnage régulier de vidéos ou de photos deepfakes contribue à augmenter les faux souvenirs”.
Le docteur en psychologie rappelle que les textes peuvent provoquer une déformation d’une mémoire. Toujours d’après l’article paru dans PLOS Un, les premières études ont rapidement démontré les effets de la désinformation post-événement. Par exemple, les participants qui ont entendu le mot « cassé » dans la question d’un chercheur étaient plus susceptibles de déclarer avoir vu du verre brisé sur les lieux de l’accident, bien qu’il n’y en ait pas eu.
Mais les mots sont-ils plus abusifs qu’une image ? Une image vaut mille mots comme dit le proverbe. « Il est certain que le cerveau imprime plus vite une image forte qu’une phrase forte », concède Lucien Rochat.
“Une image forte suscite plus d’émotions qu’une phrase forte, et sera donc plus susceptible d’être mémorisée”
L’exemple d’une émission de télé-réalité pour incarner les excès
Une télé-réalité espagnole concoctée par Netflix a décidé de jouer avec ces codes. Elle confronte des participants à des vidéos de leur conjoint ou conjointe dans deux maisons différentes, où se greffe un cluster de célibataires prêts à pousser à la duperie. Ensuite, la production soumet aux individus des vidéos de leur partenaire qui sont réelles ou produites par l’IA. Le but : semer le doute parmi les cinq couples sélectionnés et briser le ciment de leur relation. L’un des deux partenaires se transforme en martyr, déchiré par le doute.
Une torture qui pourrait facilement briser les couples, même si les participants sont conscients que les vidéos sont sûrement manipulées par l’intelligence artificielle. Comme le démontre une autre étude américaine, le deepfake est capable d’influencer comment nous percevons les autres.
Netflix, sous couvert d’un programme “divertissant”, expose les dérives du deepfake. La technologie pose de sérieuses questions morales et éthiques. Gillian Murphy tempère cependant les inquiétudes :
“Nous ne devons pas céder aux prédictions d’avenirs dystopiques basées sur nos craintes concernant les technologies émergentes”
Voir c’est croire
A travers l’étude menée par Murphy et son équipe, l’idée même de changer ses propres souvenirs donne matière à réflexion. Sam Altmann, le père de ChatGPT, a admis se méfier de l’IA (dommage) à l’approche des élections américaines. À titre d’exemple simple, les républicains avaient utilisé des outils d’IA pour générer de fausses images d’une invasion chinoise imaginaire.
Voici la vidéo intitulée “Beat Biden”
Vidéo : Watson
Mais l’esprit humain a ses obsessions et ses convictions : si les gens veulent que quelque chose soit vrai, ils feront tout pour s’en convaincre. Dans ce flux d’information et de désinformation, nous sommes tous dotés d’une capacité de raisonnement. La clé pour ne pas sombrer.
newday